WO2013099245A1 - 音声情報提供装置 - Google Patents

音声情報提供装置 Download PDF

Info

Publication number
WO2013099245A1
WO2013099245A1 PCT/JP2012/008329 JP2012008329W WO2013099245A1 WO 2013099245 A1 WO2013099245 A1 WO 2013099245A1 JP 2012008329 W JP2012008329 W JP 2012008329W WO 2013099245 A1 WO2013099245 A1 WO 2013099245A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
determination unit
unit
turning
vehicle
Prior art date
Application number
PCT/JP2012/008329
Other languages
English (en)
French (fr)
Inventor
浩司 大本
圭祐 米田
肇 吉倉
Original Assignee
ヤマハ発動機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ発動機株式会社 filed Critical ヤマハ発動機株式会社
Priority to EP12861242.1A priority Critical patent/EP2799323A4/en
Priority to JP2013551249A priority patent/JP6146865B2/ja
Publication of WO2013099245A1 publication Critical patent/WO2013099245A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • B62J45/412Speed sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • B62J45/414Acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/36Cycles; Motorcycles; Scooters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18145Cornering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/12Motorcycles, Trikes; Quads; Scooters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Definitions

  • the present invention relates to a voice information providing apparatus that provides information related to a driving skill for driving a vehicle as voice information.
  • a skill determination device for evaluating the maneuvering skill of a driver who operates a two-wheeled vehicle or a four-wheeled vehicle.
  • the operator's skill can be determined based on the steering angle.
  • a change in the roll direction, the pitch direction, or the caster angle can be detected, and the skill of the driver can be determined based on this.
  • the driving skill determined by these skill determination devices is notified to the driver through the monitor or is notified to the driver by voice information.
  • the “operator” includes a rider in a motorcycle.
  • the rider characteristic determination device described in Patent Document 1 detects a change in roll direction, pitch direction, or caster angle in addition to a change in yaw direction. Based on these detection values, the vehicle stability characteristics and turning characteristics of the rider can be determined, and the determination results can be displayed on the monitor.
  • This invention is made in view of such a situation, Comprising:
  • voice information provision apparatus which changes the timing at which a pilot's skill information is provided according to whether the vehicle is turning is provided. For the purpose.
  • the audio information providing apparatus is an audio information providing apparatus that provides a determination result of a driving skill of a vehicle to a driver by voice, a traveling state detection unit that detects a traveling state of the vehicle, A turn determination unit that determines whether or not the vehicle is turning based on a detection result of the traveling state detection unit, a steering skill evaluation unit that evaluates the driver's driving skill, and a voice that records a plurality of voice guidances A guidance recording unit; a voice guidance selection unit that selects the voice guidance according to the driving skill; and a voice output timing determination unit that determines a timing for outputting the selected voice guidance.
  • the voice output timing determination unit When it is determined that the vehicle is not turning, the voice output timing determination unit outputs the selected voice guidance. When the turn determination unit determines that the vehicle is turning, the voice output timing determination unit Delaying the output timing of the voice guidance which is selected until it is determined not to be in.
  • the traveling state detection unit detects the traveling state of the vehicle. Based on the detection result, the turning determination unit determines whether or not the vehicle is turning.
  • the driving skill evaluation unit evaluates the driving skill of the driver's vehicle.
  • the voice guidance selection unit selects the voice guidance from the plurality of voice guidances recorded in the voice guidance recording unit according to the evaluated driving skill. The selected voice guidance is output according to the timing determined by the voice output timing determination unit.
  • the voice output timing determination unit outputs the voice guidance selected when the turning determination unit determines that the vehicle is not turning, and when the turning determination unit determines that the vehicle is turning, The output timing of the selected voice guidance is delayed until the turning determination unit determines that it is not turning.
  • the pilot since the pilot is provided with the evaluation result of the driving skill as voice information, it is not necessary to perform a line-of-sight movement that is not directly related to traveling, so the load on the pilot is reduced.
  • information regarding the driving skill is not provided while the vehicle is turning, and the skill information can be obtained at an appropriate timing during the steering. Since the skill information can be obtained when the pilot has sufficient control, the voice information is not missed, and the operation skill can be improved effectively.
  • the vehicle state detection unit further includes a traveling state determination unit that detects a vehicle speed of the vehicle and determines a traveling state of the vehicle based on a detection result of the vehicle speed, and the sound output timing determination unit includes the traveling state It is preferable to change the output timing of the voice guidance selected according to the determination result of the state determination unit.
  • the vehicle state detection unit further detects the vehicle speed.
  • the traveling state determination unit determines the traveling state of the vehicle based on the detection result of the vehicle speed.
  • the voice output timing determination unit changes the output timing of the voice guidance selected according to the determination result of the traveling state determination unit. Thereby, the output of voice guidance can be stopped when the vehicle is traveling at high speed, and the voice guidance can be output when the vehicle is traveling at an appropriate speed. Since the voice guidance is not given when the vehicle speed is high, the driver can concentrate on the vehicle operation, and can acquire the skill information when there is a margin in the operation.
  • the vehicle state detection unit further includes a traveling state determination unit that detects acceleration of the vehicle and determines a traveling state of the vehicle based on a detection result of the acceleration, and the audio output timing determination unit includes the traveling state It is preferable to change the output timing of the voice guidance selected according to the determination result of the state determination unit.
  • the vehicle state detection unit further detects the acceleration of the vehicle.
  • the traveling state determination unit determines the traveling state of the vehicle based on the detection result of acceleration.
  • the voice output timing determination unit changes the output timing of the voice guidance selected according to the determination result of the traveling state determination unit. Thereby, the output of voice guidance can be stopped when the vehicle is traveling at a rapid acceleration or rapid deceleration, and the voice guidance can be output when the vehicle is traveling at an appropriate acceleration. Since the voice guidance is not provided when the acceleration is large, the driver can concentrate on the vehicle operation, and can acquire the skill information when there is a margin in the operation.
  • the voice output timing determination unit changes a voice guidance output timing according to the driving skill. Since the voice output timing determination unit changes the voice guidance output timing according to the evaluated driving skill, the voice guidance can be output at a more appropriate timing according to the pilot. A pilot with low driving skill can listen to voice guidance in a state where he / she can afford to control the vehicle.
  • a voice detection unit for detecting the voice of the pilot, a recognition vocabulary recording unit in which a vocabulary to be registered as a voice recognition candidate is recorded, and a voice for listing the voice recognition candidates based on the detected voice
  • a voice determination for determining the voice of the driver by changing the priority of the voice recognition candidates listed by a recognition unit and a signal obtained from the turning determination unit or the running state determination unit or the driving skill evaluation unit It is preferable that the voice guidance selection unit selects the voice guidance of the driving skill corresponding to the determined voice.
  • the voice detector detects the voice emitted by the pilot.
  • the speech recognition unit lists speech recognition candidates from the vocabulary to be speech recognition candidates registered in advance in the recognition vocabulary recording unit from the detected speech.
  • the voice guidance determination unit determines the voice of the driver by changing the priority order of the voice recognition candidates listed by the information obtained from the turning determination unit, the running state determination unit, or the driving skill evaluation unit.
  • the voice guidance selection unit selects the voice guidance of the driving skill corresponding to the determined voice.
  • the driver When recognizing the voice uttered by the pilot, the driver can give priority to the words related to maneuvering from the listed voice recognition candidates by outputting the turning determination result, the running state determination result, or the driving skill evaluation result. Can be appropriately narrowed down, and voice guidance with appropriate content corresponding to the voice of the operator can be output. The pilot can listen to the skill information he wants to know while manipulating it.
  • a voice information providing device that changes the timing at which the skill information of the driver is provided depending on whether or not the vehicle is turning.
  • FIG. 1 is a side view showing a schematic configuration of a motorcycle according to an embodiment. It is a functional block diagram which shows the structure of the driving skill information presentation apparatus which concerns on Example 1.
  • FIG. It is a graph explaining the turning determination which concerns on an Example. It is a graph explaining the driving
  • It is a flowchart which shows the process sequence of voice guidance provision which concerns on Example 1.
  • FIG. It is a flowchart which shows the process sequence of voice guidance provision which concerns on Example 1.
  • FIG. It is a flowchart which shows the process sequence of voice guidance provision which concerns on Example 1.
  • FIG. is a flowchart which shows the process sequence of voice guidance provision which concerns on Example 1.
  • FIG. is a flowchart which shows the process sequence of voice guidance provision which concerns on Example 1.
  • FIG. 10 is a flowchart illustrating a processing procedure for providing voice guidance according to the second embodiment. 10 is a flowchart illustrating a processing procedure for providing voice guidance according to the second embodiment.
  • FIG. 1 is a side view showing a schematic configuration of a motorcycle provided with a voice information providing apparatus according to the present embodiment.
  • the motorcycle 1 includes a main frame 2.
  • a head pipe 3 is provided at the upper front end of the main frame 2.
  • a steering shaft 4 is inserted through the head pipe 3.
  • a handle 5 is connected to the upper end of the steering shaft 4.
  • a brake lever (not shown) is disposed on the right side of the handle 5.
  • a pair of extendable front forks 7 are connected to the lower end of the steering shaft 4. Thereby, the front fork 7 is swung by the rotation operation of the handle 5.
  • a front wheel 8 is rotatably attached to the lower end of the front fork 7. The vibration of the front wheel 8 is absorbed by the expansion and contraction of the front fork 7.
  • a brake 10 is attached to the lower end of the front fork 7, and the rotation of the front wheel 8 is braked by operating the brake lever.
  • a front wheel cover 11 is fixed to the front fork 7 at the top of the front wheel 8.
  • the upper part of the main frame 2 holds a fuel tank 15 and a seat 16 side by side. Below the fuel tank 15, an engine 17 and a transmission 18 are held on the main frame 2.
  • the transmission 18 includes a drive shaft 19 that outputs power generated by the engine 17.
  • a drive sprocket 20 is connected to the drive shaft 19.
  • a swing arm 21 is swingably supported on the lower rear side of the main frame 2.
  • a driven sprocket 22 and a rear wheel 23 are rotatably supported at the rear end of the swing arm 21.
  • a chain 24 is suspended between the drive sprocket 20 and the driven sprocket 22.
  • the power generated by the engine 17 is transmitted to the rear wheel 23 via the transmission 18, the drive shaft 19, the drive sprocket 20, the chain 24 and the driven sprocket 22.
  • an ECU (Electronic Control Unit) 25 that controls the operation of each part of the motorcycle 1 is provided at the lower part of the seat 16.
  • the motorcycle 1 further includes a monitor 41 on which road information is displayed.
  • the monitor 41 is installed in front of the handle 5.
  • FIG. 2 is a functional block diagram showing the configuration of the audio information providing apparatus.
  • the audio information providing device 28 includes a state quantity detection unit 29, an audio information control unit 30, wireless communication devices 39 and 40, and a speaker 42.
  • the wireless communication devices 39 and 40 transmit information between the motorcycle 1 and the helmet 38 worn by the operator.
  • the wireless communication device 39 is provided in the helmet 38, and the wireless communication device 40 is provided in the motorcycle 1.
  • the speaker 42 is provided inside the helmet 38 and outputs voice guidance sent via the wireless communication devices 39 and 40.
  • the state quantity detection unit 29 includes a sensor that detects the vehicle state of the motorcycle 1.
  • the state quantity detection unit 29 includes, for example, a gyroscope 33, a steering angle sensor 34, a stroke sensor 35, a wheel speed sensor 36 provided on the front wheel 8, and a GPS (Global Positioning System) that measures the position of the motorcycle 1. 37).
  • the state quantity detection unit 29 corresponds to the vehicle state detection unit in the present invention.
  • the gyroscope 33 is disposed on the fuel tank 15.
  • the gyroscope 33 detects the angular velocity and angle of the motorcycle 1 in the three axis directions of yaw, roll, and pitch. That is, the yaw rate, yaw angle, roll rate, roll angle, pitch rate, and pitch angle of the motorcycle 1 are detected.
  • the steering angle sensor 34 is provided at the upper end of the front fork 7 and detects the steering angle that is the rotation angle of the steering shaft 4.
  • the stroke sensor 35 is provided on the front fork 7 and detects the amount of expansion / contraction of the front fork 7. Further, the caster angle of the front fork 7 is calculated based on the amount of expansion / contraction. When the front fork 7 extends and contracts with a hydraulic suspension, the stroke sensor 7 may calculate the caster angle by detecting the hydraulic pressure of the suspension.
  • the wheel speed sensor 36 detects the rotational speed of the front wheel 8. Further, the vehicle speed of the motorcycle 1 is calculated based on this rotational speed.
  • the GPS 37 is disposed in front of the fuel tank 15 and detects position information of the motorcycle 1.
  • the yaw angle, yaw rate, and steering angle of the motorcycle 1 change. Further, when the operator tilts the vehicle body of the motorcycle 1 toward the center of the curve, the roll angle and roll rate of the motorcycle 1 change. Further, when the motorcycle 1 decelerates by operating the brake lever before entering the curve or during the curve traveling, the front fork 7 is contracted. As the front fork 7 contracts, the pitch angle, pitch rate, and caster angle of the motorcycle 1 change.
  • vehicle state quantities yaw angle, yaw rate, roll angle, roll rate, pitch angle, pitch rate, caster angle, steering angle, vehicle speed, and position information of the motorcycle 1 are referred to as vehicle state quantities.
  • the sensor which comprises the state quantity detection part 29, and the vehicle state quantity detected may include other than what was mentioned above, and may reduce it.
  • the voice information control unit 30 changes the output of voice information depending on whether or not the motorcycle 1 is turning.
  • the voice information control unit 30 includes a steering skill evaluation unit 32, a skill determination unit 50, a memory 51, a turning determination unit 52, a traveling state determination unit 58, a voice guidance selection unit 59, and a voice guidance recording unit 60. And an audio output timing determination unit 61.
  • the voice information control unit 30 includes a CPU and a memory, but may be incorporated as a part of the ECU 25.
  • the turning determination unit 52 determines whether the motorcycle 1 has performed a turning motion.
  • the turning motion refers to a case where the yaw rate of the motorcycle 1 is not less than a certain value and has continued for a certain time. When the above conditions are not satisfied, the turning determination unit 52 does not determine that the motorcycle 1 has performed a turning motion.
  • FIG. 3 is an explanatory diagram in which the turning determination unit 52 determines the turning motion.
  • the turning determination unit 52 determines the turning motion section Y from the absolute value of the detected yaw rate input from the gyroscope 33. That is, the turning determination unit 52 is a section from the time when the absolute value of the detected value of the yaw rate of the motorcycle 1 exceeds the threshold X to the time when the absolute value of the yaw rate is lower than the threshold X again, and the duration of the section is the minimum duration. If it is Y min or more, the section is determined as the turning motion section Y.
  • the turning determination unit 52 determines that this section is the turning motion section. do not do. What is necessary is just to set the value of the threshold value X suitably according to the vehicle type of the motorcycle 1. Moreover, what was mentioned above was the method of determining the turning motion section Y using the yaw rate, but the turning motion section Y may be determined using the yaw angle, or the turning motion section using other methods. Y may be determined.
  • the turning motion section Y When the turning motion section Y is determined using the yaw angle, the turning motion section Y can be determined as described above after the angle data is converted into yaw rate data by time differentiation or the like. If the turning determination unit 52 determines that the vehicle is not turning, it outputs an output permission signal to the audio output timing determination unit 61.
  • the maneuvering skill evaluation unit 32 evaluates the maneuvering skill of the driver.
  • the driving skill evaluation unit 32 includes a component separation unit 53, a vehicle stability characteristic evaluation unit 54, a turning characteristic evaluation unit 55, and an overall characteristic evaluation unit 57.
  • the component separation unit 53 includes a low-pass filter and a band-pass filter.
  • the turning determination unit 52 determines the turning motion section Y
  • the detected value of each vehicle state quantity stored in the memory 51 during the turning motion section Y is sent to the component separation unit 53.
  • Each detection value input to the component separation unit 53 is subjected to filter processing using a low-pass filter and a band-pass filter.
  • vehicle state quantities that can be separated by the component separation unit 53 include yaw rate, yaw angle, roll rate, roll angle, pitch rate, pitch angle, steering angle, and caster angle.
  • component separation by filter processing will be described by taking a roll rate as an example.
  • the entire frequency band data of the roll rate input to the component separation unit 53 is filtered by the low pass filter and the band pass filter.
  • the low-pass filter removes high frequency components higher than the threshold frequency Fc1, which is a predetermined value. Thereby, a low frequency band component is output from a low-pass filter.
  • the bandpass filter removes low frequency components below the threshold frequency Fc1 and removes noise components above the threshold frequency Fc2. Thereby, a high frequency band component is output from the band pass filter. Since the frequency component equal to or higher than the threshold frequency Fc2 is a noise component, it is not related to the driver's characteristic determination.
  • the time-series data of each detection value stored in the memory 51 is filtered by the low-pass filter and the band-pass filter, so that each detection value is separated into a low frequency band component and a high frequency band component.
  • the threshold frequency Fc1 may be set according to characteristics to be determined. For example, when determining the characteristics of the driver, the threshold frequency Fc1 may be set so that the difference between the beginner and the advanced person is maximized. However, the threshold frequency Fc2 must be larger than the threshold frequency Fc1.
  • the detected values in the turning movement section Y of the motorcycle 1 filtered by the low-pass filter and the band-pass filter of the component separation unit 53 are input to the vehicle stability characteristic evaluation unit 54.
  • a case where a yaw rate, a roll rate, and a pitch rate are input will be described as an example.
  • the low frequency band of each rate separated from the threshold frequency Fc1 is interpreted as a prediction component for the driver to turn the curve. Further, the high frequency band is interpreted as a correction component corrected when the driver turns the curve.
  • the average value of the integrated values per unit time of the predicted component and the corrected component of each rate in the turning section Y is calculated.
  • a value obtained by dividing the obtained value corresponding to each prediction component by the value corresponding to the correction component is a stability index (S yaw , S roll, S pitch ) of the yaw rate, roll rate, and pitch rate in one turning section Y.
  • the integral amount of the absolute value in the low frequency band is large and the integral amount of the absolute value in the high frequency band is small. If the operator corrects the steering wheel 5 while driving a curve, the absolute value integral amount in the high frequency band increases, and the absolute value integral amount in the low frequency band decreases accordingly. Thus, by using the ratio of the integral amount of the absolute value in the low frequency band and the integral amount of the absolute value in the high frequency band as an index, it is possible to score the characteristics of the driver who is driving the curve.
  • the vehicle stability index of the motorcycle 1 is calculated by obtaining the ratio of the integral values of the absolute values of the low frequency band and the high frequency band of the yaw rate, roll rate, and pitch rate during the turning motion of the motorcycle 1 in this way. can do. Further calculates the three stability index (S yaw, S roll, S pitch) vehicle stability score S v is a weighting linear summation of. The calculated vehicle stability score Sv is output to the skill determination unit 50, the voice guidance selection unit 59, and the voice output timing determination unit 61.
  • the turning characteristic evaluation unit 55 receives each detection value in the turning movement section Y of the motorcycle 1 filtered by the low-pass filter of the component separation unit 53.
  • a steering angle, a roll angle, a pitch angle, or a caster angle is input will be described as an example.
  • the vehicle speed in the turning motion section Y of the motorcycle 1 is input from the memory 51 to the turning characteristic evaluation unit 55.
  • the low frequency band of each angle is interpreted as a prediction component for the driver to turn the curve.
  • the absolute value amount in the low frequency band is large.
  • the threshold frequency Fc1 used for frequency separation at each rate may use a different value for each angle.
  • the average value of the integral values per unit time of the predicted component in the turning section Y is calculated for each of the steering angle, the roll angle, and the pitch or caster angle. The calculated value is set as a turning index T steer, T roll, T pitch (caster) of the steering angle, roll angle, pitch or caster angle.
  • the average vehicle speed T speed in the turning section Y is calculated from the input vehicle speed in the turning section Y.
  • the weighted linear sum of these three turning performance indices and average vehicle speed is calculated as the turning performance score T v .
  • the turning performance score T v is output to the skill determination unit 50, the voice guidance selection unit 59, and the voice output timing determination unit 61.
  • the overall characteristic evaluation unit 57 calculates the weighted linear sum of the vehicle stability score S v and the turning performance score T v to obtain the overall characteristic score G of the driver in the turning section Y.
  • the overall characteristic score G is an overall evaluation of the driver's characteristics based on the vehicle stability characteristics and turning characteristics of the driver.
  • the calculated total characteristic score G is output to the skill determination unit 50, the voice guidance selection unit 59, and the voice output timing determination unit 61.
  • the skill determination unit 50 performs the vehicle stability score S v , the turnability score T v , and the total characteristic score G input from the vehicle stability characteristic evaluation unit 54, the turning characteristic evaluation unit 55, and the total characteristic evaluation unit 57. Whether each characteristic is “high” or “low” is determined using a predetermined threshold as a reference. An appropriate value may be arbitrarily set as a threshold value as a determination criterion, and a different value may be used for each characteristic.
  • the skill determination unit 50 outputs an output permission signal to the sound output timing determination unit 61 when the determination result of the skill determination is “high”. When the determination result of the skill determination is “low”, a voice guidance delay instruction is output to the voice output timing determination unit 61.
  • the traveling state determination unit 58 inputs the vehicle speed from the wheel speed sensor 36 of the state amount detection unit 29.
  • the traveling state determination unit 58 calculates the acceleration of the motorcycle 1 based on the input vehicle speed, and compares the absolute value of this acceleration with a threshold value to determine whether the traveling state of the motorcycle 1 is stable or unstable. .
  • FIG. 4 is a graph for explaining the determination of the running state of the motorcycle 1 and illustrates an acceleration transition from turning to after the turning of the motorcycle 1.
  • the acceleration gradually increases toward the end of the turn, the turn ends at the time ta, the acceleration rapidly increases around this point, and then the acceleration decreases. That is, the driver suddenly accelerates as the turning of the motorcycle 1 ends and increases its speed.
  • the driver is traveling at a constant speed.
  • the traveling state determination unit 58 determines that the traveling state is unstable when the calculated absolute value of the acceleration is equal to or greater than a predetermined threshold value X ′, and determines that the traveling state is stable when the absolute value of the calculated acceleration is less than the threshold value X ′. To do.
  • a predetermined threshold value X ′ when the acceleration is equal to or higher than a predetermined threshold value X ′ during the past T seconds from the time when the absolute value of the acceleration is calculated, the driving state is determined to be unstable, and the acceleration If the acceleration is less than the threshold value X ′ for the past T seconds from the time when the absolute value is calculated, the running state may be determined to be stable.
  • an output permission signal is output to the audio output timing determination unit 61.
  • the traveling state determination unit 58 may determine the traveling state using the acceleration as described above, or may determine the traveling state using the vehicle speed input from the wheel speed sensor 36.
  • the determination criterion may be determined based on a predetermined threshold value X ′′ as in the case of using acceleration.
  • the threshold values X ′ and X ′′ and the determination reference T seconds are arbitrarily set values, and each may be set to a value that seems to be optimal.
  • the voice guidance selection unit 59 selects voice data corresponding to the evaluated driving skill from the voice data recorded in the voice guidance recording unit 60. In the voice guidance recording unit 60, all voice data related to the driving skill is recorded. The selected audio data is output to the audio output timing determination unit 61.
  • the voice output timing determination unit 61 When the output permission signal is input from the turning determination unit 52, the voice output timing determination unit 61 outputs the voice data selected by the voice guidance selection unit 59 to the speaker 42 via the wireless communication devices 39 and 40. From the speaker 42, the result of the skill evaluation of the operator is guided by voice. Further, the audio output timing determination unit 61 delays the output of the audio data until the output permission signal is input from the turning determination unit 52. In addition to the above, the audio output timing determination unit 61 may output audio data only when a plurality of output permission signals are input.
  • FIG. 5 is a flowchart showing a processing procedure of information presentation.
  • Various vehicle state quantities are input from the state quantity detection unit 29 to the driving skill evaluation unit 32.
  • the vehicle stability characteristic evaluation unit 54 calculates a vehicle stability score S v
  • the turning characteristic evaluation unit 55 calculates a turning property score T v .
  • the overall characteristic evaluation unit 57 calculates an overall characteristic score G based on the vehicle stability score S v and the turning performance score T v . By calculating these various scores, it is possible to evaluate the skill of the driver for vehicle operation (step S01).
  • the calculated total characteristic score G is output to the voice guidance selection unit 59.
  • the voice guidance selection unit 59 selects and extracts the voice data corresponding to the evaluation result from the voice data recorded in the voice guidance recording unit 60.
  • the extracted audio data is output to the audio output timing determination unit 61 (step S02).
  • a process for determining whether or not the motorcycle 1 is turning is performed.
  • step S11 A detection value is input from the gyroscope 33 to the turning determination unit 52 as needed, and the turning determination unit 52 determines whether or not the motorcycle 1 is turning (step S11). If it is determined that the vehicle is turning, the turning determination unit 52 determines whether the vehicle is turning again after a while. If the turning determination unit 52 determines that the vehicle is not turning, an output permission signal is sent to the audio output timing determination unit 61. Output (step S12).
  • the voice output timing determination unit 61 outputs the voice data input from the voice guidance selection unit 59 to the speaker 42 when the output permission signal is input from the turning determination unit 52 (step S03). For example, if the driver's overall score G is evaluated as 60 points, after the motorcycle 1 turns, the operator will voice the evaluation result of the driving skill during the turn. “The overall score was 60 points.” Can be heard. Even when the vehicle travels on a road with continuous curves, the driver does not hear his / her steering evaluation result during the turn, so that the driver can concentrate on the operation of the motorcycle 1 during the turn. Further, since the operation evaluation result of the motorcycle 1 can be heard when the motorcycle 1 is not turning, it can be heard when there is a margin for the operation, and it is possible to prevent the voice information from being missed. *
  • the sound output timing is controlled based on the turn determination.
  • the sound output timing may be controlled according to the running state in addition to the turn determination.
  • steps S01 and 02 In the same manner as described in 3.1, the processing of steps S01 and 02 is performed, and the voice data corresponding to the result of the skill evaluation of the driver is output to the voice output timing determination unit 61.
  • steps S11 and S12 are performed to determine whether or not the motorcycle 1 is turning. Is input to the audio output timing determination unit 61. In parallel with these processes, it is further determined whether the running state is stable or unstable.
  • the process of determining whether or not the traveling state is stable is always performed.
  • the vehicle speed detected by the wheel speed sensor 36 is input to the traveling state determination unit 58 as needed (step S21).
  • the traveling state determination unit 58 calculates acceleration based on the input vehicle speed, and determines whether the motorcycle 1 is stable or unstable based on a threshold value (step S22).
  • the traveling state determination unit 58 detects the traveling state again after a while to determine whether the traveling state is stable, and the traveling state of the motorcycle 1 is determined. If it is determined that the output is stable, an output permission signal is output to the audio output timing determination unit 61.
  • the voice output timing determination unit 61 receives an input from the voice guidance selection unit 59 when two output permission signals, ie, an output permission signal from the turning determination unit 52 and an output permission signal from the traveling state determination unit 58 are input.
  • the sound data thus output is output to the speaker 42 (step S04).
  • the audio output timing determination unit 61 does not output the audio data to the speaker 42. For example, when the driver's total score G is evaluated as 60 points, after the motorcycle 1 completes the turn and the acceleration is stabilized, the driver reads the evaluation result of the maneuver skill during the turn with the “total score”. Was 60 points ".
  • the driver does not hear his or her own steering determination result while the motorcycle 1 is suddenly accelerating, immediately after accelerating, or turning. Can do.
  • the motorcycle 1 can hear its own steering determination result when the motorcycle 1 is in a steady state and is not turning, the voice information can be heard more easily.
  • the audio output timing is controlled based on the turning determination.
  • the audio output timing may be controlled according to the determination result of the driving skill. That is, control is performed to switch the timing for outputting voice guidance based on the skill determination result obtained from the skill determination unit 50.
  • steps S01 and 02 are performed, and the voice data corresponding to the result of the skill evaluation of the driver is output to the voice output timing determination unit 61.
  • steps S11 and S12 are performed to determine whether or not the motorcycle 1 is turning. If it is determined that the vehicle is turning, it is determined whether the vehicle is turning again after a time.
  • the skill determination unit 50 determines whether the driver's driving skill is “high” or “low” with respect to the skill evaluation evaluated in step S01 based on the threshold value. Is determined (step S13). When the skill determining unit 50 determines that the driving skill is “high”, the skill determining unit 50 outputs a sound output permission signal to the sound output timing determining unit 61, and when determining that the driving skill is “low”, the sound determining unit 50 outputs a sound to the sound output timing determining unit 61. Indicates the output timing delay.
  • the voice output timing determination unit 61 When the output permission signal is input from the skill determination unit 50, the voice output timing determination unit 61 outputs the voice data input from the voice guidance selection unit 59 to the speaker 42. In addition, when an instruction for delaying the timing of voice output is input from the skill determination unit 50, the voice output timing determination unit 61 receives the voice data input from the voice guidance selection unit 59 after a predetermined time has elapsed. Output to the speaker 42.
  • the skill determination threshold is set to 50 points
  • the driver's skill determination is determined as “high”, and the driver immediately controls after turning.
  • the evaluation result of the skill can be heard by voice as “the skill score was 80 points”.
  • the pilot's total score G is evaluated as 40 points
  • the pilot's skill determination is determined as “low”, and the evaluation result of the pilot's skill can be calculated and can be heard after a while. .
  • the skill evaluation can be heard. It is possible to listen, and it is possible to prevent the voice information from being missed.
  • the driving skill evaluation for determining the skill may be any one of the vehicle stability score S v , the turning performance score T v , and the overall characteristic score G.
  • the sound output timing is controlled based on the turning determination and the skill determination.
  • the sound output timing may be controlled according to the determination result of the running state.
  • the audio output timing is controlled by delaying the output timing, but here, when the skill determination is determined to be “low”, the running state Is used to control the audio output timing.
  • steps S01 and S02 are performed, and the sound data corresponding to the result of the skill evaluation of the driver is output to the sound output timing determination unit 61.
  • steps S11 and S12 are performed to determine whether or not the motorcycle 1 is turning. If it is determined that the vehicle is turning, it is determined whether the vehicle is turning again after a time.
  • the skill determination unit 50 determines whether the driver's driving skill is “high” or “low” with respect to the skill evaluation evaluated in step S01 based on the threshold value. (Step S15). When determining that the driving skill is “high”, the skill determining unit 50 outputs a sound output permission signal to the sound output timing determining unit 61. When determining that the driving skill is “low”, the skill determining unit 50 determines the vehicle state to the running state determining unit 58. Instructs the determination.
  • Step S21 the vehicle speed detected by the wheel speed sensor 36 is input to the traveling state determination unit 58 as needed (step S21).
  • the driving state determination unit 58 calculates the acceleration based on the input vehicle speed, and determines whether the motorcycle 1 is stable or unstable as a threshold value. Is determined on the basis of (step S23). If it is determined that the motorcycle 1 is unstable, the traveling state determination unit 58 detects the vehicle speed again after a while to determine whether or not the vehicle state is stable, and that the motorcycle 1 is stable. If determined, an output permission signal is output to the audio output timing determination unit 61.
  • the voice output timing determination unit 61 When the output permission signal is input from the skill determination unit 50 or the traveling state determination unit 58, the voice output timing determination unit 61 outputs the voice data input from the voice guidance selection unit 59 to the speaker 42. When no output permission signal is input from the skill determination unit 50 or the traveling state determination unit 58, the audio output timing determination unit 61 does not output audio data to the speaker 42.
  • the skill determination threshold is set to 50 points
  • the driver's total score G is evaluated as 80 points
  • the driver's skill determination is determined to be “high” and the driver turns. Immediately after that, the result of the evaluation of the maneuvering skill can be heard by voice saying, “The skill score was 80 points.”
  • the operator's skill determination is determined as “low”, and it is determined whether or not the traveling state of the motorcycle 1 is stable. Even if the judgment of the skill of the pilot is “low”, if the running state of the motorcycle 1 is stable, the evaluation result of the pilot's skill is immediately after turning, “The skill score was 40 points”. Can be heard at. If the pilot's driving skill is determined to be “low” and the traveling state of the motorcycle 1 is determined to be unstable, the evaluation result of the pilot's driving skill is determined until the traveling state of the motorcycle 1 is determined to be stable. Is not output by voice.
  • the operator can concentrate on the operation while turning. Further, when the driver's maneuvering skill is low, the motorcycle 1 does not hear its own maneuvering determination result during the rapid acceleration, so that it is possible to reduce the voice load on the maneuver who has low maneuvering skill. When the pilot's maneuvering skill is low, the user can hear his / her own maneuvering determination result when the motorcycle 1 is in a steady state, so that he / she can hear voice information with more margin.
  • voice information provision apparatus which concerns on Example 2 is demonstrated.
  • the pilot can receive the voice information when the motorcycle 1 is not turning, but in the second embodiment, in addition to that, the pilot receives the voice information in response to the request of the pilot's voice information.
  • FIG. 9 is a block diagram illustrating the configuration of the audio information providing apparatus according to the second embodiment.
  • the parts denoted by the same reference numerals as those in the first embodiment have the same configuration as that in the first embodiment, and thus the description thereof is omitted here.
  • a voice recognition function is added to the first embodiment. Therefore, the structure of the audio information providing apparatus and the motorcycle other than those described here is the same as that of the first embodiment.
  • the feature of the second embodiment is that voice information related to skill information is output in response to a voice request from the operator.
  • the voice information providing device 68 according to the second embodiment further includes a microphone 43, a voice recognition unit 71, a recognized vocabulary recording unit 72, and a voice determination unit 73 in addition to the voice information providing device 28 according to the first embodiment. That is, the voice information control unit 70 according to the second embodiment has a configuration in which a voice recognition unit 71, a recognized vocabulary recording unit 72, and a voice determination unit 73 are added to the voice information control unit 30 according to the first embodiment.
  • the microphone 43 is provided in the helmet 38. The microphone 43 corresponds to the voice detection unit in the present invention.
  • the microphone 43 detects the voice generated by the driver by converting it into an electrical signal.
  • the recognition vocabulary recording unit 72 a plurality of vocabularies as speech recognition candidates are recorded.
  • the voice recognition unit 71 lists the voice recognition candidates recorded in the recognition vocabulary recording unit 72 based on the electrical signal output from the microphone 43 as shown in FIG.
  • FIG. 10 is an explanatory diagram showing listed recognition vocabulary candidates.
  • Each vocabulary that is a speech recognition candidate is attached with attribute data indicating the category of the vocabulary. For example, if it is “Sendai”, it is an attribute of (L) indicating position information, and if it is “turning”, it is an attribute of (D) indicating travel information.
  • the voice determination unit 73 determines voice recognition from the voice recognition candidates listed by the voice recognition unit 71 by changing the priority order of the recognition candidates according to the running state of the vehicle. That is, when information regarding the attribute of the vocabulary of the speech recognition candidate is input to the speech determination unit 73, the vocabulary having the attribute is determined as the speech generated by the pilot with priority.
  • the case where the listed speech recognition candidates shown in FIG. 10 are input to the speech determination unit 73 will be described as an example.
  • the voice determination unit 73 When a voice recognition candidate listed is input, the voice determination unit 73, if a signal related to driving of the motorcycle 1 is already input within a predetermined time, the driving listed as a recognition candidate.
  • the priority of the vocabulary of the attribute (D) indicating information is raised. That is, when a signal indicating that the vehicle is turning is input from the turning determination unit 52, the vehicle stability score S v , the turning property score T v , or the total characteristic score G is calculated from the driving skill evaluation unit 32. Or when the driving state determination unit 58 determines that the driving state is unstable, the priority of the vocabulary of the attribute (D) is raised to the highest level ( FIG. 11).
  • the voice determination unit 73 determines the top vocabulary listed as a recognition candidate as the vocabulary generated by the driver when no signal relating to driving has been input within a predetermined time.
  • Other vocabulary of attributes indicating driving information include “stable” and “general”, but other vocabularies may be included.
  • the voice determination unit 73 outputs the determined voice vocabulary to the voice guidance selection unit 69.
  • the voice guidance selection unit 69 adds voice data corresponding to voice recognition input from the voice determination unit 73 to the voice data recorded in the guidance recording unit 60. Has a function to select from.
  • the selected audio data is output to the audio output timing unit 61.
  • the skill evaluation step S01 and the turning detection steps S11 and S12 in the second embodiment are the same as those in the first embodiment, and a description thereof will be omitted.
  • the operator wants to know the turning score and speaks “turning” (Japanese phonetic sound “SENKAI”) while the motorcycle 1 is turning, the microphone 43 is connected to the microphone 43 in parallel with the skill evaluation and turning detection processing.
  • the voice of the pilot is detected (step S31).
  • Voice data of the driver's “turn” (Japanese phonetic sound “SENKAI”) detected by the microphone 43 is input to the voice recognition unit 71 via the wireless communication devices 39 and 40 as an electrical signal.
  • noise such as noise and wind noise is mixed.
  • the speech recognition unit 71 extracts vocabulary as speech recognition candidates registered in advance in the recognition vocabulary recording unit based on the input electrical signal and lists them (step S32).
  • the listed speech recognition candidates are output to the speech determination unit 73.
  • the speech recognition unit 71 first places the place name “Sendai” (Japanese phonetic “SENDAI”), and “turns” (Japanese phonetic “SENKAI”). A list of speech recognition candidates that are extracted second is output.
  • the voice determination unit 73 determines the highest vocabulary among the listed voice recognition candidates as the voice vocabulary spoken by the operator. However, when a signal indicating that the vehicle is turning is input from the turning determination unit 52 within a predetermined time in the past from the time when the listed speech recognition candidate is input, the steering skill evaluation unit 32 also When a signal indicating that the vehicle stability score S v , the turning performance score T v , or the total characteristic score G has been calculated is input, the traveling state determination unit 58 determines that the traveling state is unstable. When the signal is input, the vocabulary having the attribute indicating the traveling information is changed to the highest priority and the vocabulary is determined as the voice vocabulary uttered by the pilot (step S33). In FIG.
  • the priority is changed to “turn” (Japanese phonetic sound “SENKAI”) first, “Sendai” (Japanese phonetic sound “SENDAI”) second, and “turn” (Japanese language).
  • the phonetic sound “SENKAI”) is determined as the voice generated by the driver.
  • the determined voice is output to the voice guidance selection unit 69.
  • the voice guidance selection unit 69 waits for a skill evaluation corresponding to the voice to be input.
  • the voice data corresponding to the evaluation result is selected and extracted from the voice data recorded in the voice guidance recording unit 60.
  • the extracted audio data is output to the audio output timing determination unit 61.
  • the voice guidance selection unit 69 waits for a preset skill evaluation result to be input as in the case of the first embodiment.
  • the voice data corresponding to the evaluation result is selected from the voice data recorded in the voice guidance recording unit 60 and extracted.
  • the voice output timing determination unit 61 outputs the voice data input from the voice guidance selection unit 59 to the speaker 42 when the output permission signal is input from the turning determination unit 52 (step S03). For example, if the turning score T v of the operator evaluates to 60 points, after the two-wheeled motor vehicle 1 is turning, the pilot was "turning score 60 points in the voice of the evaluation result of the steering skill in the turning Can be heard. Even if the driver gives a voice “turn” during the turn, he / she does not hear his / her own operation evaluation result during the turn, so he can concentrate on the operation of the motorcycle 1 during the turn. . In addition, since the recognition target is narrowed down with respect to the utterance content of the pilot, it is recognized at a high recognition rate, so that the skill information that the pilot wants to know can be obtained efficiently, and the comfort of the pilot increases.
  • the voice guidance output timing may be changed according to not only the turning determination but also the running state, and voice guidance may be performed according to the voice of the operator (FIG. 13).
  • the skill evaluation step S01, the turning detection step S11, the turning determination step S12, the traveling state detection step S21, the traveling state determination step S22, and the voice guidance output step S04 are the same as 3.2 in the first embodiment.
  • the voice detection step S31, the voice recognition candidate extraction step S32, the voice determination step S33, and the voice guidance selection step S02 ' are the same as described above.
  • the operator will say “turning”, if the turning score T v of operator evaluates to 60 points, after the motorcycle 1 is the acceleration is stabilized by turning, the operator is its pivot It is possible to hear the evaluation result of the driving skill in the middle, such as “The turning score was 60 points”. Even if the pilot is turning or suddenly accelerating, even if he / she instructs “turn”, he / she does not hear his / her steering evaluation result during turning or sudden acceleration. Can concentrate on maneuvering the motorcycle 1. In addition, since the driver's utterance content is recognized at a high recognition rate, the skill information that the driver wants to know can be obtained efficiently, and the driver's comfort increases.
  • the voice guidance of 3.3 and 3.4 of the first embodiment may be performed. That is, the voice recognition function according to the second embodiment may be added to the voice guidance according to the turning determination and the skill determination according to the first embodiment, or the voice guidance according to the turning determination, the skill determination and the running state according to the first embodiment. In addition, the voice recognition function of the second embodiment may be added.
  • the present invention is not limited to the above embodiment, and can be modified as follows.
  • the motorcycle 1 is taken as an example of the vehicle.
  • the present invention is not limited to this, and an audio information providing apparatus in a four-wheeled vehicle may be used.
  • the state quantity detection unit 29 detects a vehicle state other than the yaw angle, yaw rate, roll angle, roll rate, pitch angle, pitch rate, caster angle, steering angle, vehicle speed, and position information. May be acquired, or only an arbitrary detection value may be detected from the vehicle state quantities.
  • the maneuver skill to be evaluated is the turning characteristic, the vehicle stability characteristic, and the overall characteristic, but is not limited thereto.
  • the braking characteristic may be evaluated, and the output timing control of the voice information may be controlled according to the braking characteristic.
  • the state quantity detection unit 29 includes a brake pressure sensor.
  • the evaluation result of the braking characteristic is output in response to the driver's voice of “brake” or “braking”.
  • Example 2 if the operator utters “Turning” in English, for example, the place name “Turkey” may be listed. Also in this case, the vocabulary having the attribute indicating the driving information is changed to the highest priority so that the utterance content of the driver is recognized with a high recognition rate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

 操縦者の技量情報が提供されるタイミングを車両が旋回走行しているか否かに応じて変更する音声情報提供装置を提供する。自動二輪車1の操縦技量の判定結果を音声により操縦者に提供する音声情報提供装置で、自動二輪車1が旋回中であるか否かを判定する旋回判定部52と、操縦者の操縦技量を評価する操縦技量評価部32と、複数の音声案内を記録した音声案内記録部60と、操縦技量に応じて音声案内を選択する音声案内選択部59と、音声を出力するタイミングを判定する音声出力タイミング判定部61とを備え,旋回判定部52が旋回中でないと判定した場合、音声出力タイミング判定部61は選択された音声案内を出力し、旋回判定部52が旋回中であると判定した場合、音声出力タイミング判定部61は旋回中でないと判定されるまで選択された音声案内の出力タイミングを遅延する。

Description

音声情報提供装置
 本発明は、車両を操縦する操縦技量に関する情報を音声情報にて提供する音声情報提供装置に関する。
 従来、二輪車または四輪車を操縦する操縦者の操縦技量を評価する技量判定装置がある。四輪車の場合、操舵角を基に操縦者の技量を判定することができる。二輪者の場合、ヨー方向の変化に加えて、ロール方向またはピッチ方向またはキャスタ角度の変化を検出し、これを基にして操縦者の技量を判定することができる。これらの技量判定装置により判定された操縦技量は、モニタを通して操縦者に報知されるか、音声情報にて操縦者に報知される。なお、「操縦者」とは、二輪車におけるライダーも含まれる。
 (1)特許文献1の技術
 特許文献1に記載のライダー特性判定装置は、ヨー方向の変化に加えて、ロール方向またはピッチ方向またはキャスタ角度の変化を検出する。これらの検出値を基に、ライダーの車両安定特性および旋回特性を判定し、それらの判定結果をモニタに表示することができる。
 (2)特許文献2の技術
 特許文献2に記載の車両用運転支援装置では、操縦者の操舵角を基に技量レベルを判定し、技量レベルの向上または低下を運転者へ、ディスプレイ上にて表示するか音声により報知することができる。
国際公開WO2011-077638号 特開2006-232174号
 特許文献1の技量評価装置では、モニタ画面により技量情報を提供するので、操縦者は技量情報を得るために視線をモニタ画面に向ける必要がある。これにより、操縦者は走行と直接関係のない視線移動を行わなければならず、技量情報を得るために負荷がかかる。また、特許文献2の車両用運転支援装置では、操縦者の技量レベルを音声により報知することが記載されているものの、車両の走行状況に対応して技量情報を提供するタイミング制御を実施していない。これにより、操縦者は車両が旋回中であっても技量情報が提供されるので、集中して旋回運転しているときに負荷がかかる。
 本発明は、このような事情に鑑みてなされたものであって、操縦者の技量情報が提供されるタイミングを車両が旋回走行しているか否かに応じて変更する音声情報提供装置を提供することを目的とする。
 上記目的を達成するために、本発明は次のような構成をとる。
 すなわち、本発明に係る音声情報提供装置は、車両の操縦技量の判定結果を音声により操縦者に提供する音声情報提供装置であって、前記車両の走行状態を検出する走行状態検出部と、前記走行状態検出部の検出結果を基に前記車両が旋回中であるか否かを判定する旋回判定部と、操縦者の操縦技量を評価する操縦技量評価部と、複数の音声案内を記録した音声案内記録部と、前記操縦技量に応じて前記音声案内を選択する音声案内選択部と、選択された前記音声案内を出力するタイミングを判定する音声出力タイミング判定部とを備え,前記旋回判定部が旋回中でないと判定した場合、前記音声出力タイミング判定部は選択された前記音声案内を出力し、前記旋回判定部が旋回中であると判定した場合、前記音声出力タイミング判定部は旋回中でないと判定されるまで選択された前記音声案内の出力タイミングを遅延する。
 本発明の音声情報提供装置によれば、走行状態検出部が車両の走行状態を検出する。この検出結果を基に旋回判定部は車両が旋回中であるか否かを判定する。また、操縦技量評価部は操縦者の車両の操縦技量を評価する。評価された操縦技量に応じて、音声案内記録部に記録された複数の音声案内の中から音声案内選択部が音声案内を選択する。選択された音声案内は音声出力タイミング判定部が判定するタイミングにしたがって出力される。ここで、音声出力タイミング判定部は、旋回判定部が車両は旋回中でないと判定した場合に選択された音声案内を出力し、旋回判定部が車両は旋回中であると判定した場合には、旋回判定部が旋回中でないと判定するまで選択された前記音声案内の出力タイミングを遅延する。
 上記構成により、操縦者は操縦技量の評価結果を音声情報にて提供されるので走行とは直接関係のない視線移動を行う必要が無いので、操縦者にかかる負荷が軽減される。また、車両が旋回中に操縦技量に関する情報が提供されることがなく、操縦中の適切なタイミングで技量情報を得ることができる。操縦者にとって操縦に余裕があるときに技量情報を得ることができるので、音声情報を聞き洩らすことが無く、効果的に操縦技量の向上をすることができる。
 また、前記車両状態検出部はさらに前記車両の車速を検出し、前記車速の検出結果を基に前記車両の走行状態を判定する走行状態判定部を備え,前記音声出力タイミング判定部は、前記走行状態判定部の判定結果に応じて選択された前記音声案内の出力タイミングを変更することが好ましい。
 車両状態検出部はさらに車両の速度を検出する。走行状態判定部は車速の検出結果を基に車両の走行状態を判定する。音声出力タイミング判定部は、走行状態判定部の判定結果に応じて選択された音声案内の出力タイミングを変更する。これにより、車両が高速で走行している場合には音声案内の出力を停止し、車両が適正な速度で走行している場合に音声案内の出力をすることができる。操縦者は、車速が大きいときには音声案内がされないので車両の操縦に集中することができ、操縦に余裕があるときに技量情報を得ることができる。
 また、前記車両状態検出部はさらに前記車両の加速度を検出し、前記加速度の検出結果を基に前記車両の走行状態を判定する走行状態判定部を備え,前記音声出力タイミング判定部は、前記走行状態判定部の判定結果に応じて選択された前記音声案内の出力タイミングを変更することが好ましい。
 車両状態検出部はさらに車両の加速度を検出する。走行状態判定部は加速度の検出結果を基に車両の走行状態を判定する。音声出力タイミング判定部は、走行状態判定部の判定結果に応じて選択された音声案内の出力タイミングを変更する。これにより、車両が急加速または急減速で走行している場合には音声案内の出力を停止し、車両が適正な加速度で走行している場合に音声案内の出力をすることができる。操縦者は、加速度が大きいときには音声案内がされないので車両の操縦に集中することができ、操縦に余裕があるときに技量情報を得ることができる。
 また、前記音声出力タイミング判定部は、前記操縦技量に応じて音声案内の出力タイミングを変更することが好ましい。音声出力タイミング判定部は評価された操縦技量に応じて音声案内の出力タイミングを変更するので、操縦者に合わせてより適切なタイミングで音声案内を出力することができる。操縦技量の低い操縦者は車両の操縦に対して余裕のある状態で音声案内を聞くことができる。
 また、操縦者の音声を検出する音声検出部と、予め登録された音声認識候補となる語彙が記録された認識語彙記録部と、検出された音声を基に前記音声認識候補をリストアップする音声認識部と、前記旋回判定部または前記走行状態判定部または前記操縦技量評価部から得られる信号によりリストアップされた前記音声認識候補の優先順位を変更して操縦者の前記音声を判定する音声判定部とを備え、前記音声案内選択部は、前記判定された音声に対応する前記操縦技量の前記音声案内を選択することが好ましい。
 音声検出部は操縦者が発する音声を検出する。音声認識部は検出された音声から認識語彙記録部に予め登録された音声認識候補となる語彙から音声認識候補をリストアップする。音声案内判定部は、旋回判定部または走行状態判定部または操縦技量評価部から得られる情報によりリストアップされた音声認識候補の優先順位を変更して操縦者の音声を判定する。音声案内選択部は、判定された音声に対応する操縦技量の音声案内を選択する。
 操縦者が発声した音声の認識において、旋回判定結果または走行状態判定結果または操縦技量評価結果が出力されたことにより、リストアップされた音声認識候補の中から操縦に関する言葉を優先することで操縦者の音声を適切に絞り込むことができ、操縦者の音声に対応した適切な内容の音声案内を出力することができる。操縦者は自分が知りたい技量情報を操縦しながら聞くことができる。
 本発明によれば、操縦者の技量情報が提供されるタイミングを車両が旋回走行しているか否かに応じて変更する音声情報提供装置を提供することができる。
実施例に係る自動二輪車の概略構成を示す側面図である。 実施例1に係る操縦技量情報提示装置の構成を示す機能ブロック図である。 実施例に係る旋回判定を説明するグラフ図である。 実施例に係る走行状態判定を説明するグラフ図である。 実施例1に係る音声案内提供の処理手順を示すフローチャートである。 実施例1に係る音声案内提供の処理手順を示すフローチャートである。 実施例1に係る音声案内提供の処理手順を示すフローチャートである。 実施例1に係る音声案内提供の処理手順を示すフローチャートである。 実施例2に係る操縦技量情報提示装置の構成を示す機能ブロック図である。 実施例2に係るリストアップされた認識語彙の候補を示す説明図である。 実施例2に係るリストアップされた認識語彙の候補を示す説明図である。 実施例2に係る音声案内提供の処理手順を示すフローチャートである。 実施例2に係る音声案内提供の処理手順を示すフローチャートである。
 以下、図面を参照して本発明の実施例を説明する。ここでは、実施例に係る車両として、自動二輪車を例に挙げて説明する。なお、以下の説明で、前後および左右とは自動二輪車の走行方向を基準としている。
 1.自動二輪車の概略構成
 図1は、本実施例に係る音声情報提供装置を備えた自動二輪車の概略構成を示す側面図である。自動二輪車1はメインフレーム2を備えている。メインフレーム2の前端上部にはヘッドパイプ3が設けられている。ヘッドパイプ3にはステアリングシャフト4が挿通されている。ステアリングシャフト4の上端部にはハンドル5が連結されている。ハンドル5の右側には、ブレーキレバー(図示省略)が配置されている。
 ステアリングシャフト4の下端部には一対の伸縮可能なフロントフォーク7が連結されている。これにより、ハンドル5の回転操作によってフロントフォーク7が揺動する。フロントフォーク7の下端部には前輪8が回転可能に取り付けられている。フロントフォーク7の伸縮により前輪8の振動が吸収される。また、フロントフォーク7の下端部にはブレーキ10が取り付けられ、ブレーキレバーの操作により前輪8の回転を制動する。前輪8の上部には、前輪カバー11がフロントフォーク7に固定されている。
 メインフレーム2の上部には、燃料タンク15とシート16とが前後に並んで保持されている。燃料タンク15の下方に、エンジン17と変速機18とがメインフレーム2に保持されている。変速機18は、エンジン17で発生した動力を出力するドライブ軸19を備えている。ドライブ軸19にはドライブスプロケット20が連結されている。
 メインフレーム2の下部後側にはスイングアーム21が揺動可能に支持されている。スイングアーム21の後端部には、ドリブンスプロケット22および後輪23が回転可能に支持されている。ドライブスプロケット20とドリブンスプロケット22との間には、チェーン24が懸架されている。エンジン17で発生した動力は、変速機18、ドライブ軸19、ドライブスプロケット20、チェーン24およびドリブンスプロケット22を介して後輪23に伝達される。また、シート16の下部には、自動二輪車1の各部の動作を制御するECU(Electronic Control Unit;電子制御ユニット)25が設けられている。自動二輪車1は他にも、道路情報が表示されるモニタ41を備える。モニタ41はハンドル5の前方に設置されている。
 2.音声情報提供装置の構成
 次に図1および図2を参照しながら音声情報提供装置28の構成を説明する。図2は、音声情報提供装置の構成を示す機能ブロック図である。音声情報提供装置28は、状態量検出部29と、音声情報制御部30と、無線通信機39、40と、スピーカ42とを備える。無線通信機39および40は、自動二輪車1と操縦者が装着するヘルメット38との間で情報の伝達をする。無線通信機39はヘルメット38に、無線通信機40は自動二輪車1に備えられている。スピーカ42はヘルメット38の内側に備えられ、無線通信機39、40を介して送られた音声案内を出力する。
 2.1 状態量検出部
 状態量検出部29は自動二輪車1の車両状態を検出するセンサで構成される。状態量検出部29は、たとえば、ジャイロスコープ33と、ステアリング角度センサ34と、ストロークセンサ35と、前輪8に設けられた車輪速センサ36と、自動二輪車1の位置を測定するGPS(Global Positioning System)37とを有する。状態量検出部29は本発明における車両状態検出部に相当する。
 ジャイロスコープ33は、燃料タンク15上に配置されている。ジャイロスコープ33は自動二輪車1のヨー、ロール、およびピッチの3軸方向の角速度および角度を検出する。すなわち、自動二輪車1のヨーレート、ヨー角度、ロールレート、ロール角度、ピッチレート、およびピッチ角度を検出する。ステアリング角度センサ34は、フロントフォーク7の上端に設けられ、ステアリングシャフト4の回転角であるステアリング角度を検出する。
 ストロークセンサ35は、フロントフォーク7に設けられ、フロントフォーク7の伸縮量を検出する。さらにこの伸縮量を基にフロントフォーク7のキャスタ角を算出する。フロントフォーク7が油圧式のサスペンションで伸縮する場合は、ストロークセンサ7は、サスペンションの油圧を検出することでキャスタ角を算出してもよい。車輪速センサ36は、前輪8の回転速度を検出する。さらに、この回転速度を基に自動二輪車1の車速を算出する。GPS37は燃料タンク15の前方に配置されており、自動二輪車1の位置情報を検出する。
 カーブを曲がる際に、操縦者が自動二輪車1のハンドル5を操舵すると、自動二輪車1のヨー角度、ヨーレートおよびステアリング角度が変化する。また、操縦者が自動二輪車1の車体をカーブの中心方向に傾けると、自動二輪車1のロール角度およびロールレートが変化する。また、カーブに入る前またはカーブ走行中に操縦者がブレーキレバーを操作して自動二輪車1が減速すると、フロントフォーク7が縮む。このフロントフォーク7の縮みにより、自動二輪車1のピッチ角度、ピッチレート、およびキャスタ角度が変化する。
 自動二輪車1のこれら、ヨー角度、ヨーレート、ロール角度、ロールレート、ピッチ角度、ピッチレート、キャスタ角度、ステアリング角度、車速および位置情報を車両状態量と呼ぶ。なお、状態量検出部29を構成するセンサおよび検出される車両状態量は上述したもの以外を含めてもよいし、減らしてもよい。
 2.2 音声情報制御部
 音声情報制御部30は、自動二輪車1が旋回しているか否かにより音声情報の出力を変更する。音声情報制御部30は、操縦技量評価部32と、技量判定部50と、メモリ51と、旋回判定部52と、走行状態判定部58と、音声案内選択部59と、音声案内記録部60と、音声出力タイミング判定部61とを有する。音声情報制御部30は、CPUおよびメモリから構成されが、ECU25の一部分として組み込んでもよい。
 2.2.1 旋回運動判定
 旋回判定部52では、自動二輪車1が旋回運動を実施したかどうかを判定する。ここで、旋回運動とは、自動二輪車1のヨーレートがある一定の値以上であり、かつ、ある一定の時間以上持続した場合をいう。上記の条件が満たされない場合、旋回判定部52は、自動二輪車1が旋回運動を実施したとは判定しない。
 図3を参照する。図3は、旋回判定部52が旋回運動を判定する説明図である。旋回判定部52は、ジャイロスコープ33より入力されるヨーレートの検出値の絶対値から、旋回運動区間Yを判定する。すなわち、旋回判定部52は、自動二輪車1のヨーレートの検出値の絶対値が閾値Xを超えた時点から再び閾値Xを下回る時点までの区間であり、かつ、その区間の持続時間が最低持続時間Ymin以上であれば、その区間を旋回運動区間Yと判定する。
 自動二輪車1のヨーレートの検出値が閾値Xを超えた時点から再び閾値Xを下回る時点までの区間が最低持続時間Yminに満たない場合、旋回判定部52は、この区間を旋回運動区間と判定しない。閾値Xの値は、自動二輪車1の車種により適宜設定すればよい。また、上述したのは、ヨーレートを用いて旋回運動区間Yを判定する方法であったが、ヨー角度を用いて旋回運動区間Yを判定してもよいし、他の方法を用いて旋回運動区間Yを判定してもよい。ヨー角度を用いて旋回運動区間Yを判定する場合は、角度データを時間微分等によりヨーレートデータに変換した後、上述のように旋回運動区間Yを判定することができる。旋回判定部52は、旋回中でないと判定すれば、出力許可信号を音声出力タイミング判定部61へ出力する。
 2.2.2 操縦技量評価
 操縦技量評価部32は、操縦者の操縦技量を評価する。操縦技量評価部32は、成分分離部53と、車両安定特性評価部54と、旋回特性評価部55と、総合特性評価部57とを有する。
 成分分離部53はローパスフィルタとバンドパスフィルタとで構成される。旋回判定部52が旋回運動区間Yを判定すると、旋回運動区間Y中にメモリ51に保管された各車両状態量の検出値が成分分離部53へ送られる。成分分離部53へ入力された各検出値は、ローパスフィルタおよびバンドパスフィルタでフィルタ処理が実施される。成分分離部53にて成分分離可能な車両状態量として、ヨーレート、ヨー角度、ロールレート、ロール角度、ピッチレート、ピッチ角度、ステアリング角度、キャスタ角度が挙げられる。ここでは、ロールレートを例に挙げてフィルタ処理による成分分離の説明をする。
 成分分離部53に入力されるロールレートの全周波数帯域データが、ローパスフィルタおよびバンドパスフィルタにてフィルタ処理が実施される。ローパスフィルタでは予め定められた値である閾値周波数Fc1よりも高い高周波数成分を除去する。これにより、低周波数帯域成分がローパスフィルタより出力される。バンドパスフィルタでは、閾値周波数Fc1以下の低周波数成分を除去するとともに、閾値周波数Fc2以上のノイズ成分を除去する。これにより、高周波数帯域成分がバンドパスフィルタより出力される。閾値周波数Fc2以上の周波数成分は、ノイズ成分であるので操縦者の特性判断に関係しない。
 メモリ51に保管された各検出値の時系列データがローパスフィルタおよびバンドパスフィルタによってフィルタ処理を実施されることで、各検出値が低周波数帯域成分と高周波数帯域成分とに分離される。閾値周波数Fc1は、判定したい特性に応じて設定してもよい。例えば、操縦者の特性を判定する場合には、初級者と上級者との差が最大となるように閾値周波数Fc1を設定すればよい。ただし、閾値周波数Fc2は閾値周波数Fc1よりも必ず大きい値でなければならない。
 車両安定特性評価部54には、成分分離部53のローパスフィルタおよびバンドパスフィルタによりフィルタ処理された自動二輪車1の旋回運動区間Yにおける各検出値が入力される。ここでは、ヨーレート、ロールレート、ピッチレートが入力される場合を例として挙げる。
 閾値周波数Fc1を境に分離された各レートの低周波数帯域は、操縦者がカーブを旋回する予測成分と解釈する。また、高周波数帯域は、操縦者がカーブを旋回する際に修正した修正成分と解釈する。次に、ヨーレート、ロールレート、ピッチレートのそれぞれについて、旋回区間Yにおける各レートの予測成分および修正成分の単位時間あたりの積分値の平均値を算出する。得られたそれぞれの予測成分に対応する値を修正成分に対応する値で除した値を1つの旋回区間Yにおけるヨーレート、ロールレート、ピッチレートの安定性指標(Syaw,Sroll,pitch)とする。
 カーブに対して、滑らかなハンドル操作を操縦者がすると低周波数帯域の絶対値の積分量が大きく、高周波数帯域の絶対値の積分量が小さい。カーブ走行中に、ハンドル5を細かく操作して操縦者が修正すると、高周波数帯域の絶対値の積分量が大きくなり、低周波数帯域の絶対値の積分量がその分小さくなる。このように、低周波数帯域の絶対値の積分量と高周波数帯域の絶対値の積分量との比率を指標とすることで、カーブ走行中の操縦者の特性を得点化することができる。
 このように、自動二輪車1の旋回運動中のヨーレート、ロールレート、ピッチレートの低周波数帯域および高周波数帯域の絶対値の積分量の比率を求めることで、自動二輪車1の車両安定性指標を算出することができる。さらに、上記3つの安定性指標(Syaw,Sroll,pitch)の重みづけ線形和である車両安定性得点Sを算出する。算出された車両安定性得点Sは、技量判定部50、音声案内選択部59、および、音声出力タイミング判定部61へ出力される。
 旋回特性評価部55は、成分分離部53のローパスフィルタによりフィルタ処理された自動二輪車1の旋回運動区間Yにおける各検出値が入力される。ここでは、ステアリング角度と、ロール角度と、ピッチ角度またはキャスタ角度とが入力される場合を例として挙げる。また、メモリ51から旋回特性評価部55に自動二輪車1の旋回運動区間Yにおける車速が入力される。
 各角度の低周波数帯域は、操縦者がカーブを旋回する予測成分と解釈する。カーブに対して、滑らかなハンドル操作を操縦者がすると低周波数帯域の絶対値量が大きい。なお、各レートの周波数分離に用いる閾値周波数Fc1は、各種角度ごとに異なる値を用いてもよい。旋回区間Yにおける予測成分の単位時間あたりの積分値の平均値をステアリング角度と、ロール角度と、ピッチまたはキャスタ角度とのそれぞれの角度について算出する。算出された値を、ステアリング角度、ロール角度、ピッチまたはキャスタ角度の旋回性指標Tsteer、roll、pitch(caster)とする。
 また、入力された旋回区間Yの車速から旋回区間Yにおける平均車速Tspeedを算出する。これら、3つの旋回性指標と平均車速の重み付け線形和を旋回性得点Tvとして算出する。旋回性得点Tvは、技量判定部50、音声案内選択部59、および、音声出力タイミング判定部61へ出力される。
 総合特性評価部57は、車両安定性得点Svおよび旋回性得点Tvの重み付け線形和を算出することで旋回区間Yにおける操縦者の総合特性得点Gを得る。総合特性得点Gは、操縦者の車両安定特性および旋回特性を基に操縦者の特性を総合的に評価するものである。算出された総合特性得点Gは、技量判定部50、音声案内選択部59、および、音声出力タイミング判定部61へ出力される。以上をもって、総合特性得点G、車両安定性得点Svおよび旋回性得点Tvと3つの指標により操縦者の操縦技量を評価することができる。
 技量判定部50は、車両安定特性評価部54、旋回特性評価部55、および総合特性評価部57から入力される車両安定性得点Sv、旋回性得点Tv、および、総合特性得点Gに対して予め定められた閾値を基準としてそれぞれの特性が「高」または「低」のいずれであるかを判定する。判定基準となる閾値は適切な値を任意に設定し、それぞれの特性で異なる値を用いてもよい。技量判定部50は、技量判定の判定結果が「高」の場合、出力許可信号を音声出力タイミング判定部61へ出力する。技量判定の判定結果が「低」の場合、音声案内の遅延指示を音声出力タイミング判定部61へ出力する。
 2.2.3 走行状態判定 
 走行状態判定部58は、状態量検出部29の車輪速センサ36から車速を入力する。走行状態判定部58は、入力された車速を基に自動二輪車1の加速度を算出し、この加速度の絶対値を閾値と比較することで自動二輪車1の走行状態が安定か不安定かを判定する。図4を参照して説明する。図4は、自動二輪者1の走行状態の判定を説明するグラフ図であり、自動二輪車1の旋回中から旋回後にかけての加速度遷移を例示している。このグラフにおいて、旋回終了に向けて加速度がなだらかに増加し、時間taの時点において旋回が終了し、この付近で加速度が急増し、その後加速度が減少している。すなわち、操縦者が自動二輪車1の旋回が終了するのに合わせて急加速して速度を上昇し、ある速度に達すると定速度走行していることを表す。
 走行状態判定部58は、算出された加速度の絶対値が予め定められた閾値X’以上である場合、走行状態を不安定と判定し、閾値X’未満である場合、走行状態を安定と判定する。また、他の判定基準として、加速度の絶対値が算出された時点から過去T秒間の間に加速度が予め定められた閾値X’以上になった場合、走行状態を不安定と判定し、加速度の絶対値が算出された時点から過去T秒間継続して加速度が閾値X’未満である場合、走行状態を安定と判定してもよい。走行状態を安定と判定した場合、出力許可信号を音声出力タイミング判定部61へ出力する。
 また、走行状態判定部58は、上述したように加速度を用いて走行状態を判定してもよいし、車輪速センサ36から入力される車速を用いて走行状態を判定してもよい。判定基準は、加速度を用いる場合と同様に、予め定められた閾値X’’を基準として判定すればよい。閾値X’およびX’’と判定基準のT秒間は、任意に設定される値で、それぞれ最適と思われる数値を設定すればよい。
 2.2.4 音声案内
 音声案内選択部59は、評価された操縦技量に対応する音声データを音声案内記録部60に記録されている音声データの中から選択する。音声案内記録部60には、操縦技量に関する全ての音声データが記録されている。選択された音声データは音声出力タイミング判定部61へ出力される。
 音声出力タイミング判定部61は、旋回判定部52から出力許可信号が入力されると、音声案内選択部59が選択した音声データを、無線通信機39、40を介してスピーカ42へ出力する。スピーカ42からは、操縦者の技量評価の結果が音声で案内される。また、音声出力タイミング判定部61は、旋回判定部52から出力許可信号が入力されるまで、音声データの出力を遅延する。音声出力タイミング判定部61は、上記以外にも、複数の出力許可信号が入力された場合のみ音声データを出力してもよい。
 3.1 旋回判定に応じての音声案内
 次に、旋回判定に応じて音声案内を実施する動作について図5を参照して説明する。図5は、情報提示の処理手順を示すフローチャートである。
 状態量検出部29より操縦技量評価部32へ各種の車両状態量が入力される。入力された車両状態量を基に、車両安定特性評価部54が車両安定性得点Svを算出し、旋回特性評価部55が旋回性得点Tvを算出する。また、総合特性評価部57は、車両安定性得点Svおよび旋回性得点Tvを基に総合特性得点Gを算出する。これら各種の得点を算出することで、操縦者の車両操縦に対する技量評価をすることができる(ステップS01)。算出された総合特性得点Gは音声案内選択部59へ出力される。
 音声案内選択部59は、総合特性評価部57から評価結果が入力されると、その評価結果と対応する音声データを音声案内記録部60に記録されている音声データの中から選択して取り出す。取り出された音声データは音声出力タイミング判定部61へ出力される(ステップS02)。また、ステップS01、02の処理と並行して、自動二輪車1が旋回中か否かの判定処理が実施される。
 自動二輪車1が走行中であれば、旋回判定の処理が常に実施されている。ジャイロスコープ33から検出値が旋回判定部52へ随時入力され、旋回判定部52は自動二輪車1が旋回中であるか否かを判定する(ステップS11)。旋回判定部52は、旋回中であると判定すれば、時間をおいて再び旋回中であるか否かを判定し、旋回中でないと判定すれば、出力許可信号を音声出力タイミング判定部61へ出力する(ステップS12)。
 音声出力タイミング判定部61は、音声案内選択部59から入力された音声データを、旋回判定部52から出力許可信号が入力された場合に、スピーカ42へ出力する(ステップS03)。たとえば、操縦者の総合得点Gが60点と評価された場合、自動二輪車1が旋回走行した後に、操縦者はその旋回中の操縦技量の評価結果を音声で「総合得点は60点でした」というように聞くことができる。カーブが連続する道路を走行する場合でも、操縦者は自身の操縦評価結果を旋回中に聞くことが無いので、旋回中は自動二輪車1の操縦に集中することができる。また、自動二輪車1が旋回していない時に自身の操縦評価結果を聞くことができるので、操縦に対して余裕があるときに聞くことができ、音声情報の聞き逃しを防ぐことができる。 
 3.2 旋回判定および走行状態に応じての音声案内
 次に、旋回判定および走行状態に応じて音声案内を実施する動作について図6を参照して説明する。3.1において旋回判定を基準に音声出力のタイミングを制御していたが、旋回判定に加えて走行状態に応じて音声出力のタイミングを制御してもよい。
 3.1で説明したのと同様に、ステップS01、02の処理が実施されて、操縦者の技量評価の結果と対応する音声データが音声出力タイミング判定部61へ出力される。また、ステップS01、02の処理と並行して、ステップS11、12の処理が実施されて、自動二輪車1が旋回中であるか否かの判定が実施され、旋回中でなければ、出力許可信号が音声出力タイミング判定部61へ入力される。これらの処理と並行してさらに、走行状態が安定であるか不安定であるかの判定を実施する。
 自動二輪車1が走行中であれば、走行状態が安定か否かの判定の処理は常に実施されている。車輪速センサ36により検出された車速が走行状態判定部58へ随時入力される(ステップS21)。走行状態判定部58は入力された車速を基に加速度を算出し、自動二輪車1が安定もしくは不安定のいずれかを閾値を基準にして判定する(ステップS22)。走行状態判定部58は、自動二輪車1が不安定であると判定すれば、時間をおいて再び走行状態を検出して走行状態が安定か否かの判定をし、自動二輪車1の走行状態が安定であると判定すれば、出力許可信号を音声出力タイミング判定部61へ出力する。
 音声出力タイミング判定部61は、旋回判定部52からの出力許可信号と、走行状態判定部58からの出力許可信号との2つの出力許可信号が入力された場合に、音声案内選択部59から入力された音声データをスピーカ42へ出力する(ステップS04)。2つの出力許可信号のうちいずれか一方でも入力されない場合は、音声出力タイミング判定部61は、音声データをスピーカ42へ出力しない。たとえば、操縦者の総合得点Gが60点と評価された場合、自動二輪車1が旋回を終了して加速度が安定した後に、操縦者はその旋回中の操縦技量の評価結果を音声で「総合得点は60点でした」というように聞くことができる。これにより、自動二輪車1が急加速度中または急加速度直後または旋回中に、操縦者は自身の操縦判定結果を聞くことが無いので、急加速度中または急加速度直後または旋回中において操縦に集中することができる。また、自動二輪車1が定常状態で、旋回していない状態時に自身の操縦判定結果を聞くことができるので、より余裕を持って音声情報を聞くことができる。 
 3.3 旋回判定および技量判定に応じての音声案内
 次に、旋回判定および技量判定に応じて音声案内を実施する動作について図7を参照して説明する。3.1において旋回判定を基準に音声出力のタイミングを制御していたが、旋回判定に加えて操縦技量の判定結果に応じて音声出力のタイミングを制御してもよい。すなわち、技量判定部50から得られる技量判定結果に基づいて音声案内を出力するタイミングを切り替える制御を実施する。
 3.1および3.2で説明したのと同様に、ステップS01、02の処理が実施されて、操縦者の技量評価の結果と対応する音声データが音声出力タイミング判定部61へ出力される。また、ステップS01、02の処理と並行して、ステップS11、12の処理が実施されて、自動二輪車1が旋回中であるか否かの判定が実施される。旋回中であると判定されれば、時間をおいて再び旋回中であるか否かの判定が実施される。
 ステップS12にて旋回中でないと判定された場合、技量判定部50は、ステップS01において評価された技量評価に対して、閾値を基準として操縦者の操縦技量が「高」または「低」のいずれであるかを判定する(ステップS13)。技量判定部50は、操縦技量を「高」と判定すると、音声出力タイミング判定部61へ音声出力の許可信号を出力し、操縦技量を「低」と判定すると、音声出力タイミング判定部61へ音声出力のタイミングの遅延を指示する。
 音声出力タイミング判定部61は、技量判定部50から出力許可信号が入力されると、音声案内選択部59から入力された音声データをスピーカ42へ出力する。また、音声出力タイミング判定部61は、技量判定部50から音声出力のタイミング遅延の指示が入力されると、予め定められた時間を経過してから音声案内選択部59から入力された音声データをスピーカ42へ出力する。
 たとえば、技量判定の閾値を50点と設定した場合、操縦者の総合得点Gが80点と評価されると、操縦者の技量判定が「高」と判定されて、操縦者は旋回後直ちに操縦技量の評価結果を「技量得点は80点でした。」と音声で聞くことができる。また、操縦者の総合得点Gが40点と評価されると、操縦者の技量判定が「低」と判定されて、操縦者の技量の評価結果が算出されてしばらく経ってから聞くことができる。これにより、操縦者の技量が低い場合は、旋回後に技量結果が算出されてしばらく時間が経過してから自身の技量評価を聞くことができるので、旋回直後に聞くよりも操縦に余裕のある時に聞くことができ、音声情報を聞き逃すことを防止することができる。技量判定される操縦技量評価は、車両安定性得点Sv、旋回性得点Tv、および、総合特性得点Gのいずれでもよい。
 3.4 旋回判定、技量判定および走行状態に応じての音声案内
 次に、旋回判定、技量判定および走行状態に応じて音声案内を実施する動作について図8を参照して説明する。3.3において旋回判定および技量判定を基準に音声出力のタイミングを制御していたが、これらに加えて走行状態の判定結果に応じて音声出力のタイミングを制御してもよい。3.3において技量判定が「低」と判定されると、出力タイミングを遅延することで音声出力のタイミングを制御していたが、ここでは、技量判定が「低」と判定されると走行状態を判定することで音声出力のタイミングを制御する。
 3.1~3.3で説明したのと同様に、ステップS01、02の処理が実施されて、操縦者の技量評価の結果と対応する音声データが音声出力タイミング判定部61へ出力される。また、ステップS01、02の処理と並行して、ステップS11、12の処理が実施されて、自動二輪車1が旋回中であるか否かの判定が実施される。旋回中であると判定されれば、時間をおいて再び旋回中であるか否かの判定が実施される。
 ステップS12にて旋回中でないと判定された場合、技量判定部50は、ステップS01において評価された技量評価に対して、閾値を基準として操縦者の操縦技量が「高」または「低」のいずれであるかを判定する(ステップS15)。技量判定部50は、操縦技量を「高」と判定すると、音声出力タイミング判定部61へ音声出力の許可信号を出力し、操縦技量を「低」と判定すると、走行状態判定部58へ車両状態の判定を指示する。
 ステップS01、02、11、12、15と並行して、自動二輪車1が走行中であれば、車両状態量の検出処理が常に実施されている。車輪速センサ36により検出された車速が走行状態判定部58へ随時入力される(ステップS21)。ステップS15により、技量判定部50から走行状態の判定が指示されると、走行状態判定部58は入力された車速を基に加速度を算出し、自動二輪車1が安定もしくは不安定のいずれかを閾値を基準にして判定する(ステップS23)。走行状態判定部58は、自動二輪車1が不安定であると判定すれば、時間をおいて再び車速を検出して車両状態が安定か否かの判定をし、自動二輪車1が安定であると判定すれば、出力許可信号を音声出力タイミング判定部61へ出力する。
 音声出力タイミング判定部61は、技量判定部50または走行状態判定部58から出力許可信号が入力されると、音声案内選択部59から入力された音声データをスピーカ42へ出力する。技量判定部50または走行状態判定部58から出力許可信号が入力されない場合は、音声出力タイミング判定部61は、音声データをスピーカ42へ出力しない。
 これにより、たとえば、技量判定の閾値を50点と設定した場合、操縦者の総合得点Gが80点と評価されると、操縦者の技量判定が「高」と判定されて、操縦者は旋回後直ちに操縦技量の評価結果を「技量得点は80点でした。」と音声で聞くことができる。また、操縦者の総合得点Gが40点と評価されると、操縦者の技量判定が「低」と判定されて、自動二輪車1の走行状態が安定か否かの判定がされる。操縦者の技量判定が「低」であっても、自動二輪車1の走行状態が安定であれば、操縦者の操縦技量の評価結果を旋回後直ちに「技量得点は40点でした。」と音声で聞くことができる。操縦者の操縦技量が「低」と判定され、自動二輪車1の走行状態も不安定と判定されれば、自動二輪車1の走行状態が安定と判定されるまで、操縦者の操縦技量の評価結果が音声で出力されない。
 このように、自動二輪車1が旋回中に操縦者は自身の操縦判定結果を聞くことが無いので、旋回中において操縦に集中することができる。また、操縦者の操縦技量が低い場合は、自動二輪車1が急加速度中に自身の操縦判定結果を聞くことがないので、操縦技量の低い操縦者にかかる音声負荷を軽減することができる。操縦者の操縦技量が低い場合は、自動二輪車1が定常状態のときに自身の操縦判定結果を聞くことができるので、より余裕を持って音声情報を聞くことができる。 
 図9を参照して実施例2に係る音声情報提供装置について説明する。
 実施例1では、操縦者は自動二輪車1が旋回していないときに音声情報を受け取ることができたが、実施例2では、それに加えて操縦者の音声情報の要求に応じて音声情報を受け取ることができる音声情報提供装置である。
 図9は実施例2に係る音声情報提供装置の構成を示すブロック図である。図9において、実施例1に示した符号と同一の符号で示した部分は、実施例1と同様の構成であるのでここでの説明は省略する。実施例2は、実施例1に音声認識機能を加えた構成である。よって、ここで記載した以外の音声情報提供装置および自動二輪車の構造は実施例1と同様である。
 実施例2の特徴は、操縦者の音声による要求に応じて技量情報に関する音声情報を出力する点にある。実施例2における音声情報提供装置68には、実施例1の音声情報提供装置28にさらに、マイク43と、音声認識部71と、認識語彙記録部72と、音声判定部73とを備える。すなわち、実施例2の音声情報制御部70は、実施例1の音声情報制御部30に、音声認識部71と、認識語彙記録部72と、音声判定部73とが加えられた構成である。マイク43はヘルメット38に備えられている。マイク43は本願発明における音声検出部に相当する。
 マイク43は、操縦者が発生する音声を電気信号に変換して検出する。認識語彙記録部72には複数の音声認識候補となる語彙が記録されている。音声認識部71は、マイク43から出力された電気信号を基に認識語彙記録部72に記録されている音声認識候補を図10に示すようにリストアップする。図10は、リストアップされた認識語彙の候補を示す説明図である。音声認識候補となる各語彙には、その語彙のカテゴリを示す属性データが付属されている。たとえば、「仙台」であれば位置情報を示す(L)の属性であり、「旋回」であれば走行情報を示す(D)の属性である。
 音声判定部73は、音声認識部71がリストアップした音声認識候補から、車両の走行状態に応じて認識候補の優先順位を変更して音声認識を決定する。すなわち、音声判定部73に、音声認識候補の語彙の属性に関する情報が入力されると、その属性を有する語彙を優先的に操縦者が発生した音声として判定する。図10に示すリストアップされた音声認識候補が音声判定部73に入力された場合を例に説明する。
 音声判定部73は、リストアップされた音声認識候補が入力された場合、既に予め定められた時間内に、自動二輪車1の走行に関する信号が入力されていると、認識候補としてリストアップされた走行情報を示す(D)の属性の語彙の優先順位を上げる。すなわち、旋回判定部52から旋回中であるという信号が入力された場合、また、操縦技量評価部32から車両安定性得点Sv、旋回性得点Tv、または、総合特性得点Gが算出されたという信号が入力された場合、また、走行状態判定部58から走行状態が不安定であると判定された信号が入力された場合、(D)の属性の語彙の優先順位を最上位に上げる(図11)。また、音声判定部73は、既に予め定められた時間内に、走行に関する信号が入力されていない場合、認識候補としてリストアップされた最上位の語彙を操縦者の発生した語彙として判定する。走行情報を示す属性の語彙として、他にも、「安定」、「総合」が挙げられるが、他の語彙を含めてもよい。
 音声判定部73は判定した音声語彙を音声案内選択部69へ出力する。音声案内選択部69は、実施例1の音声案内選択部59の機能に加えて、音声判定部73から入力された音声認識に対応する音声データを案内記録部60に記録されている音声データの中から選択する機能を有する。選択された音声データは音声出力タイミング部61へ出力される。
 次に、操縦者の音声に応じて音声案内を実施する動作について図12を参照して説明する。実施例2における音声案内において、操縦技量の技量評価のステップS01および旋回検出のステップS11、12は実施例1と同様であるので、ここでの説明は省略する。自動二輪車1が旋回中に、操縦者が、たとえば旋回得点を知りたくて「旋回」(日本語表音「SENKAI」)と発声すると、技量評価および旋回検出の処理と並行して、マイク43に操縦者の音声が検出される(ステップS31)。
 マイク43に検出された操縦者の「旋回」(日本語表音「SENKAI」)という音声データは電気信号にて、無線通信機39、40を介して音声認識部71へ入力される。この過程において、騒音や風切音などのノイズが混入する。音声認識部71は、入力された電気信号を基に、認識語彙記録部に予め登録されている音声認識候補となる語彙を抽出してリストアップする(ステップS32)。リストアップされた音声認識候補は音声判定部73へ出力される。図10では、音声認識部71は、混入されたノイズのために、地名である「仙台」(日本語表音「SENDAI」)を一番目に、「旋回」(日本語表音「SENKAI」)を二番目に抽出した音声認識候補のリストを出力している。
 音声判定部73は、リストアップされた音声認識候補の中で最上位の語彙を操縦者が発声した音声語彙として判定する。しかしながら、リストアップされた音声認識候補が入力された時点から過去に予め定められた時間内に、旋回判定部52から旋回中であるという信号が入力された場合、また、操縦技量評価部32から車両安定性得点Sv、旋回性得点Tv、または、総合特性得点Gが算出されたという信号が入力された場合、また、走行状態判定部58から走行状態が不安定であると判定された信号が入力された場合、走行情報を示す属性を有する語彙を最上位に優先順位を繰り上げ変更して、この語彙を操縦者が発声した音声語彙として判定する(ステップS33)。図11では、「旋回」(日本語表音「SENKAI」)を一番目に、「仙台」(日本語表音「SENDAI」)を二番目に優先順位を変更して、「旋回」(日本語表音「SENKAI」)を操縦者が発生した音声として判定する。判定された音声は、音声案内選択部69へ出力される。
 音声案内選択部69は、音声判定部73から判定された音声が入力されると、この音声に対応する技量評価が入力されるのを待機する。対応する技量評価の結果が入力されると、その評価結果と対応する音声データを音声案内記録部60に記録されている音声データの中から選択して取り出す。取り出された音声データは音声出力タイミング判定部61へ出力される。音声案内選択部69は、音声判定部73から判定された音声が入力されない場合は、実施例1と同様に、予め設定された技量評価の結果が入力されるのを待機し、入力されると、その評価結果と対応する音声データを音声案内記録部60に記録されている音声データの中から選択して取り出す。
 音声出力タイミング判定部61は、音声案内選択部59から入力された音声データを、旋回判定部52から出力許可信号が入力された場合に、スピーカ42へ出力する(ステップS03)。たとえば、操縦者の旋回得点Tvが60点と評価された場合、自動二輪車1が旋回走行した後に、操縦者はその旋回中の操縦技量の評価結果を音声で「旋回得点は60点でした」というように聞くことができる。操縦者が旋回中に、「旋回」と音声で指示しても、操縦者は自身の操縦評価結果を旋回中に聞くことが無いので、旋回中は自動二輪車1の操縦に集中することができる。また、操縦者の発声内容に対して音声認識対象を絞り込むことで高い認識率で認識されるので、操縦者の知りたい技量情報を効率良く得ることができ、操縦者は快適性が増す。
 また、音声案内の出力タイミングを旋回判定だけでなく走行状態にも応じて変更し、操縦者の音声に応じて音声案内を実施してもよい(図13)。図13において、技量評価ステップS01、旋回検出ステップS11、旋回判定ステップS12、走行状態検出ステップS21、走行状態判定ステップS22、音声案内出力ステップS04は、実施例1の3.2と同様である。また。音声検出ステップS31、音声認識候補抽出ステップS32、音声判定ステップS33、音声案内選択ステップS02’も上述したのと同様である。
 これにより、たとえば、操縦者が「旋回」と発声し、操縦者の旋回得点Tvが60点と評価された場合、自動二輪車1が旋回走行して加速度が安定した後に、操縦者はその旋回中の操縦技量の評価結果を音声で「旋回得点は60点でした」というように聞くことができる。操縦者が旋回中または急加速度中に、「旋回」と音声で指示しても、操縦者は自身の操縦評価結果を旋回中または急加速度中に聞くことが無いので、旋回中または急加速度中は自動二輪車1の操縦に集中することができる。また、操縦者の発声内容に対して高い認識率で認識されるので、操縦者の知りたい技量情報を効率良く得ることができ、操縦者は快適性が増す。
 また、実施例2においても、実施例1の3.3および3.4の音声案内を実施してもよい。すなわち、実施例1の旋回判定および技量判定に応じての音声案内に実施例2の音声認識機能を加えてもよいし、実施例1の旋回判定、技量判定および走行状態に応じての音声案内に実施例2の音声認識機能を加えてもよい。
 本発明は、上記実施例のものに限らず、次のように変形実施することができる。
 (1)上記実施例において、車両として自動二輪車1を例に挙げたがこれに限らず、四輪自動車における音声情報提供装置でもよい。
 (2)上記実施例において、状態量検出部29は、ヨー角度、ヨーレート、ロール角度、ロールレート、ピッチ角度、ピッチレート、キャスタ角度、ステアリング角度、車速および位置情報以外の車両状態を表す検出値を取得してもよいし、上記車両状態量の中から任意の検出値だけを検出してもよい。
 (3)上記実施例において、評価される操縦技量は、旋回特性、車両安定特性、および、総合特性であったがこれに限られない。他にも、たとえば、制動特性を評価して、制動特性に応じて音声情報の出力タイミング制御してもよい。制動特性を評価する場合、状態量検出部29に、ブレーキ圧センサを備えることが好ましい。また、実施例2の場合、「ブレーキ」または「制動」という操縦者の音声に対応して制動特性の評価結果が出力される。
 (4)上記実施例2において、操縦者が、例えば、「ターニング」と英語で発声した場合、地名である「ターキー」がリストアップされる可能性がある。この場合も、走行情報を示す属性を有する語彙を最上位に優先順位を繰り上げ変更することで、操縦者の発声内容に対して高い認識率で認識される。
 1 … 自動二輪車
 28、68 … 音声情報提供装置
 29 … 状態量検出部
 32 … 操縦技量評価部
 43 … マイク
 52 … 旋回判定部
 58 … 走行状態判定部
 59、69 … 音声案内選択部
 60 … 音声案内記録部
 61 … 音声出力タイミング判定部
 71 … 音声認識部
 72 … 認識語彙記録部
 73 … 音声判定部

Claims (6)

  1.  車両の操縦技量の判定結果を音声により操縦者に提供する音声情報提供装置であって、
     前記車両の車両状態を検出する車両状態検出部と、
     前記車両状態検出部の検出結果を基に前記車両が旋回中であるか否かを判定する旋回判定部と、
     操縦者の操縦技量を評価する操縦技量評価部と、
     複数の音声案内を記録した音声案内記録部と、
     前記操縦技量に応じて前記音声案内を選択する音声案内選択部と、
     選択された前記音声案内を出力するタイミングを判定する音声出力タイミング判定部とを備え,
     前記旋回判定部が旋回中でないと判定した場合、前記音声出力タイミング判定部は選択された前記音声案内を出力し、
     前記旋回判定部が旋回中であると判定した場合、前記音声出力タイミング判定部は旋回中でないと判定されるまで選択された前記音声案内の出力タイミングを遅延する
     音声情報提供装置。
  2.  請求項1に記載の音声情報提供装置において、
     前記車両状態検出部はさらに前記車両の車速を検出し、
     前記車速の検出結果を基に前記車両の走行状態を判定する走行状態判定部を備え,
     前記音声出力タイミング判定部は、前記走行状態判定部の判定結果に応じて選択された前記音声案内の出力タイミングを変更する
     音声情報提供装置。
  3.  請求項1に記載の音声情報提供装置において、
     前記車両状態検出部はさらに前記車両の加速度を検出し、
     前記加速度の検出結果を基に前記車両の走行状態を判定する走行状態判定部を備え,
     前記音声出力タイミング判定部は、前記走行状態判定部の判定結果に応じて選択された前記音声案内の出力タイミングを変更する
     音声情報提供装置。
  4.  請求項1から3のいずれか1つに記載の音声情報提供装置おいて、
     前記音声出力タイミング判定部は、前記操縦技量に応じて選択された前記音声案内の出力タイミングを変更する
     音声情報提供装置。
  5.  請求項1から4のいずれか1つに記載の音声情報提供装置おいて、
     操縦者の音声を検出する音声検出部と、
     予め登録された音声認識候補となる語彙が記録された認識語彙記録部と、
     検出された音声を基に前記音声認識候補をリストアップする音声認識部と、
     前記旋回判定部または前記操縦技量評価部から得られる信号によりリストアップされた前記音声認識候補の優先順位を変更して操縦者の前記音声を判定する音声判定部とを備え、
     前記音声案内選択部は、前記判定された音声に対応する前記操縦技量の前記音声案内を選択する
     音声情報提供装置。
  6.  請求項2または3に記載の音声情報提供装置おいて、
     操縦者の音声を検出する音声検出部と、
     予め登録された音声認識候補となる語彙が記録された認識語彙記録部と、
     検出された音声を基に前記音声認識候補をリストアップする音声認識部と、
     前記旋回判定部または前記走行状態判定部または前記操縦技量評価部から得られる信号によりリストアップされた前記音声認識候補の優先順位を変更して操縦者の前記音声を判定する音声判定部とを備え、
     前記音声案内選択部は、前記判定された音声に対応する前記操縦技量の前記音声案内を選択する
     音声情報提供装置。
PCT/JP2012/008329 2011-12-26 2012-12-26 音声情報提供装置 WO2013099245A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP12861242.1A EP2799323A4 (en) 2011-12-26 2012-12-26 DEVICE FOR PROVIDING VOICE INFORMATION
JP2013551249A JP6146865B2 (ja) 2011-12-26 2012-12-26 音声情報提供装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011283862 2011-12-26
JP2011-283862 2011-12-26

Publications (1)

Publication Number Publication Date
WO2013099245A1 true WO2013099245A1 (ja) 2013-07-04

Family

ID=48696778

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/008329 WO2013099245A1 (ja) 2011-12-26 2012-12-26 音声情報提供装置

Country Status (3)

Country Link
EP (1) EP2799323A4 (ja)
JP (1) JP6146865B2 (ja)
WO (1) WO2013099245A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015050037A1 (ja) * 2013-10-02 2015-04-09 ヤマハ発動機株式会社 運転技量評価方法、運転技量評価プログラム、運転技量評価装置およびそれを備えた車両
JPWO2013099245A1 (ja) * 2011-12-26 2015-04-30 ヤマハ発動機株式会社 音声情報提供装置
JP2016010126A (ja) * 2014-06-26 2016-01-18 株式会社ユピテル 装置及びプログラム
WO2017099214A1 (ja) * 2015-12-11 2017-06-15 ヤマハ発動機株式会社 ユーザ動作の評価結果に関するオノマトペ提示装置
JP6619915B1 (ja) * 2018-11-15 2019-12-11 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
JP6619914B1 (ja) * 2018-11-15 2019-12-11 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
JP6620268B1 (ja) * 2018-11-15 2019-12-11 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
WO2020100333A1 (ja) * 2018-11-15 2020-05-22 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
WO2020100332A1 (ja) * 2018-11-15 2020-05-22 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
WO2020100334A1 (ja) * 2018-11-15 2020-05-22 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
CN114599576A (zh) * 2019-10-25 2022-06-07 雅马哈发动机株式会社 用于倾斜式车辆的实时信息呈现控制设备
KR20220128548A (ko) * 2021-03-12 2022-09-21 (주)모토벨로 전기 자전거용 음성 안내 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10104009A (ja) * 1996-09-30 1998-04-24 Mazda Motor Corp ナビゲーション装置
JP2006184007A (ja) * 2004-12-24 2006-07-13 Fujitsu Ten Ltd 運転支援装置
JP2006232174A (ja) 2005-02-25 2006-09-07 Nissan Motor Co Ltd 車両用運転支援装置
WO2011077638A1 (ja) 2009-12-25 2011-06-30 ヤマハ発動機株式会社 ライダー特性判定装置およびそれを備えた鞍乗り型車両
JP2011221620A (ja) * 2010-04-05 2011-11-04 Toyota Motor Corp 車両制御装置及び車両制御システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4747457B2 (ja) * 2001-07-31 2011-08-17 日産自動車株式会社 車両用情報処理装置
JP6146865B2 (ja) * 2011-12-26 2017-06-14 ヤマハ発動機株式会社 音声情報提供装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10104009A (ja) * 1996-09-30 1998-04-24 Mazda Motor Corp ナビゲーション装置
JP2006184007A (ja) * 2004-12-24 2006-07-13 Fujitsu Ten Ltd 運転支援装置
JP2006232174A (ja) 2005-02-25 2006-09-07 Nissan Motor Co Ltd 車両用運転支援装置
WO2011077638A1 (ja) 2009-12-25 2011-06-30 ヤマハ発動機株式会社 ライダー特性判定装置およびそれを備えた鞍乗り型車両
JP2011221620A (ja) * 2010-04-05 2011-11-04 Toyota Motor Corp 車両制御装置及び車両制御システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2799323A4 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013099245A1 (ja) * 2011-12-26 2015-04-30 ヤマハ発動機株式会社 音声情報提供装置
US10977878B2 (en) 2013-10-02 2021-04-13 Yamaha Hatsudoki Kabushiki Kaisha Driving skill evaluation method, driving skill evaluation program, driving skill evaluation apparatus, and vehicle provided therewith
JP2015071329A (ja) * 2013-10-02 2015-04-16 ヤマハ発動機株式会社 運転技量評価方法、運転技量評価プログラム、運転技量評価装置およびそれを備えた車両
WO2015050037A1 (ja) * 2013-10-02 2015-04-09 ヤマハ発動機株式会社 運転技量評価方法、運転技量評価プログラム、運転技量評価装置およびそれを備えた車両
JP2016010126A (ja) * 2014-06-26 2016-01-18 株式会社ユピテル 装置及びプログラム
WO2017099214A1 (ja) * 2015-12-11 2017-06-15 ヤマハ発動機株式会社 ユーザ動作の評価結果に関するオノマトペ提示装置
JPWO2017099214A1 (ja) * 2015-12-11 2018-11-22 ヤマハ発動機株式会社 ユーザ動作の評価結果に関するオノマトペ提示装置、オノマトペ提示プログラム及びオノマトペ提示方法
JP6619915B1 (ja) * 2018-11-15 2019-12-11 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
JP6619914B1 (ja) * 2018-11-15 2019-12-11 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
JP6620268B1 (ja) * 2018-11-15 2019-12-11 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
WO2020100333A1 (ja) * 2018-11-15 2020-05-22 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
WO2020100332A1 (ja) * 2018-11-15 2020-05-22 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
WO2020100334A1 (ja) * 2018-11-15 2020-05-22 ヤマハ発動機株式会社 鞍乗型車両走行データ処理装置、鞍乗型車両走行データ処理方法および鞍乗型車両走行データ処理プログラム
CN114599576A (zh) * 2019-10-25 2022-06-07 雅马哈发动机株式会社 用于倾斜式车辆的实时信息呈现控制设备
CN114599576B (zh) * 2019-10-25 2023-03-28 雅马哈发动机株式会社 倾斜式车辆实时信息呈现控制设备
KR20220128548A (ko) * 2021-03-12 2022-09-21 (주)모토벨로 전기 자전거용 음성 안내 방법 및 장치
KR102479348B1 (ko) 2021-03-12 2022-12-21 (주)모토벨로 전기 자전거용 음성 안내 방법 및 장치

Also Published As

Publication number Publication date
EP2799323A1 (en) 2014-11-05
JPWO2013099245A1 (ja) 2015-04-30
JP6146865B2 (ja) 2017-06-14
EP2799323A4 (en) 2015-05-06

Similar Documents

Publication Publication Date Title
JP6146865B2 (ja) 音声情報提供装置
EP3053800B1 (en) Driving skill evaluation method, driving skill evaluation program, driving skill evaluation device, and vehicle equipped therewith
JP5709980B2 (ja) 音声認識装置およびナビゲーション装置
JP5285787B2 (ja) ライダー特性判定装置およびそれを備えた鞍乗り型車両
JP6027981B2 (ja) 操縦技量情報提示装置
JP5894131B2 (ja) 評価プログラム、記録媒体、評価方法、評価装置および車両
JP2008058409A (ja) 音声認識方法及び音声認識装置
JP2010003013A (ja) 運転支援装置、運転支援方法および運転支援プログラム
EP4035981A1 (en) Leaning vehicle data output apparatus
JP2010204637A (ja) 音声認識装置、音声認識方法、及びナビゲーション装置
JP4722499B2 (ja) 音声認識型機器制御装置および車両
US20210035469A1 (en) Method and apparatus for generating voice guidance in a race vehicle
WO2019058781A1 (ja) 駐車支援装置
JP2008070966A (ja) 車両制御装置および車両制御方法
WO2021094877A1 (ja) モータサイクルの動作の制御装置及び制御方法
JP4400951B2 (ja) 車載用音声認識装置、及び車載用音声認識制御方法
JP2014108750A (ja) 技量判定装置およびこれを備えた車両
JP6409810B2 (ja) 運転支援装置
JP7280968B2 (ja) リーン車両用リアルタイム情報提示制御装置
JP4663342B2 (ja) 音声認識型機器制御装置
JP7561211B2 (ja) モータサイクルの動作を制御する制御装置及び制御方法
JP2022137792A (ja) コミュニケーション支援装置及びコミュニケーション支援方法
JP2008242261A (ja) 音声認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12861242

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013551249

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2012861242

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012861242

Country of ref document: EP