WO2023119025A1 - 鞍乗り型車両の制御装置及び制御方法 - Google Patents

鞍乗り型車両の制御装置及び制御方法 Download PDF

Info

Publication number
WO2023119025A1
WO2023119025A1 PCT/IB2022/061589 IB2022061589W WO2023119025A1 WO 2023119025 A1 WO2023119025 A1 WO 2023119025A1 IB 2022061589 W IB2022061589 W IB 2022061589W WO 2023119025 A1 WO2023119025 A1 WO 2023119025A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
riding
control device
saddle
type vehicle
Prior art date
Application number
PCT/IB2022/061589
Other languages
English (en)
French (fr)
Inventor
ラース プファウ
Original Assignee
ロベルト·ボッシュ·ゲゼルシャフト·ミト•ベシュレンクテル·ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ロベルト·ボッシュ·ゲゼルシャフト·ミト•ベシュレンクテル·ハフツング filed Critical ロベルト·ボッシュ·ゲゼルシャフト·ミト•ベシュレンクテル·ハフツング
Priority to JP2023568752A priority Critical patent/JPWO2023119025A1/ja
Publication of WO2023119025A1 publication Critical patent/WO2023119025A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • B60N2/0021Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement
    • B60N2/0024Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat
    • B60N2/0025Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat by using weight measurement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • B60N2/0021Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement
    • B60N2/0024Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat
    • B60N2/0026Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat for distinguishing between humans, animals or objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • B60N2/0021Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement
    • B60N2/0024Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat
    • B60N2/0027Seats provided with an occupancy detection means mounted therein or thereon characterised by the type of sensor or measurement for identifying, categorising or investigation of the occupant or object on the seat for detecting the position of the occupant or of occupant's body part
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/12Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
    • B60W40/13Load or weight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J27/00Safety equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/20Cycle computers as cycle accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J50/00Arrangements specially adapted for use on cycles not provided for in main groups B62J1/00 - B62J45/00
    • B62J50/20Information-providing devices
    • B62J50/21Information-providing devices intended to provide information to rider or passenger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2210/00Sensor types, e.g. for passenger detection systems or for controlling seats
    • B60N2210/10Field detection presence sensors
    • B60N2210/26Ultrasonic, e.g. sonar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/36Cycles; Motorcycles; Scooters

Definitions

  • the present invention relates to a control device for a saddle-ride type vehicle and a control method for a saddle-ride type vehicle.
  • Patent Document 1 Japanese Unexamined Patent Application Publication No. 2009-116882
  • the present invention has been made against the background of the above problems, and provides a control device capable of appropriately assisting a rider. Also, a control method is obtained that can appropriately assist the rider.
  • a control device is a control device for a saddle-ride type vehicle, comprising at least one environmental sensor mounted on the saddle-ride type vehicle, Based on the output of an environment information detection system that detects information on surrounding objects, which are objects positioned around the saddle-riding type vehicle, a riding device that is an object other than the rider of the saddle-riding type vehicle is detected.
  • An acquisition unit that acquires riding object information, which is information about an object, and an execution unit that executes the rider's support operation based on the riding object information.
  • a control method is a control method for a saddle-ride type vehicle, wherein the acquisition unit of the control device for the saddle-ride type vehicle is at least one device mounted on the saddle-ride type vehicle. Based on the output of an environmental information detection system that includes two environmental sensors and detects information on surrounding objects that are objects positioned around the saddle-riding vehicle, a sensor other than the rider of the saddle-riding vehicle is detected. Riding object information, which is information about a riding object that is a riding object on the straddle-type vehicle, is acquired, and the execution unit of the control device executes the rider's support operation based on the riding object information.
  • Fig. 1 is a diagram showing a state in which a support system according to an embodiment of the present invention is mounted on a saddle-ride type vehicle.
  • the environmental sensors 11a, lib, 11c, and 11d are mounted on the saddle type vehicle 100.
  • the environmental sensors 11a, lib, 11c, and 11d are, for example, ultrasonic Sensors, radars, Lida sensors, cameras, etc.
  • Environment sensors 11a, lib, 11c, 11d detect objects (e.g., vehicles, obstacles, road equipment, people, etc.) located within their detection range.
  • the environmental information detection system 11 uses the environmental sensors 1la, lib, 11c, and 11d to detect objects located around the straddle-type vehicle 100. It detects information about a certain surrounding object as environmental information. Some of the environmental sensors 1la, lib, 11c, and 11d may be shared by other environmental sensors. Also, if necessary, some of the environmental sensors 1la, 11b, 11c, and 11d may be omitted, and other environmental sensors may be added. .
  • the driving state information detection system 12 includes, for example, a wheel speed sensor 12a and an inertia sensor (IMU) 12.
  • the wheel speed sensor 12a detects the rotational speed of the wheels of the saddle-ride type vehicle 100.
  • the wheel speed sensor 12a may detect another physical quantity that can be substantially converted to the rotational speed of the wheels of the saddle-ride type vehicle 100.
  • the inertial sensor 12b is a saddle type vehicle 1 . Detects 3-axis acceleration and 3-axis (roll, pitch, yaw) angular velocities occurring at zero.
  • the inertial sensor 12b may detect other physical quantities substantially convertible into three-axis acceleration and three-axis angular velocity occurring in the straddle-type vehicle 100.
  • the inertial sensor 12b may detect only part of the triaxial acceleration and triaxial angular velocity. Also, if necessary, at least one of the wheel speed sensor 12a and the inertia sensor 12b may be omitted, or another sensor may be added.
  • the control device 20 includes at least an acquisition unit 21 and an execution unit 22. All or each part of the control device 20 may be collectively provided in one housing, or may be divided and provided in a plurality of housings. In addition, part or all of the control device 20 may be composed of, for example, a microcomputer, a microprocessor unit, etc., or may be composed of an updatable item such as firmware, or may be composed of a CPU, etc. It may be a program module or the like that is executed by a command from.
  • the acquisition unit 21 acquires boarding object information based on the output of the environmental information detection system 11.
  • Ride-on object information is information on a ride-on object that is an object on the saddle-ride type vehicle 100 other than the rider 200 .
  • the riding object is luggage loaded in the rear part of the saddle-ride type vehicle 100, a fellow passenger riding in the rear seat of the saddle-ride type vehicle 100, or the like.
  • the acquisition unit 21 acquires the running state information of the saddle-ride type vehicle 1OO based on the output of the running state information detection system 12.
  • the acquisition unit 21 detects the environmental information based on the output of the environmental information detection system 11. to determine whether all or part of the field of view of the environmental sensor lid is undetectable. That is, the acquisition unit 21 acquires information on whether or not detection is possible in the environment sensor 11d. The acquisition unit 21 determines that there is a package when the determination continues to be affirmative beyond the reference time or the reference travel distance.
  • the riding object information includes information on the presence or absence of a riding object.
  • the acquisition unit 21 uses the information on the relative position of the field of view of the environment sensor 11d with respect to the saddle-ride type vehicle 1 ⁇ . , to estimate the position of the load. For example, environmental sensor 1 1 Part of the field of view of d is undetectable, or if only part of the multiple environmental sensors 1 1 d is undetectable, saddle riding in that undetectable area.
  • the riding object information includes information on the position of the riding object.
  • the acquisition unit 21 uses the information on the relative position of the field of view of the environment sensor 11d with respect to the saddle-ride type vehicle 1 ⁇ . , presumes that the type of the riding object is luggage. For example, when the environmental sensor 11d is undetectable and the environmental sensor 11b and the environmental sensor 11c are detectable, the acquisition unit 21 determines that the type of the boarding object is not a fellow passenger. Presumed to be luggage. That is, the riding object information includes information on the type of riding object.
  • the acquisition unit 21 uses the information on the relative position of the field of view of the environment sensor 11d with respect to the saddle-ride type vehicle 100, Estimate the size of the luggage you are carrying. For example, when part of the field of view of the environment sensor 11d is undetectable, or when only part of the plurality of environment sensors 11d is undetectable, the acquisition unit 21 Estimates the size of the luggage on board using information on the relative position of the undetectable area with respect to the saddle-riding vehicle 1 ⁇ . That is, the riding object information includes information on the size of the riding object.
  • the acquisition unit 21 obtains the position of the ground detected by the environment sensor li, the environment sensor 11c, and/or the environment sensor 11d when the determination continues to be affirmative beyond the reference time or the reference travel distance. Estimate the weight of the package using the information in For example, the acquisition unit 21 estimates the weight of the luggage by deriving the amount of change with respect to the position of the ground in a state in which there is no riding object set or acquired in advance. That is, the riding object information includes weight information of the riding object. Information about the position of the ground may be obtained when the saddle-type vehicle 1 ⁇ ⁇ is stopped.
  • the environment sensor l id that is, the position of the luggage (for example, the rear fender 100A, etc.) can detect a short distance, the acquisition unit 21, based on the output of the environmental information detection system 11, It is determined whether or not there is an object, that is, a load, at a position where the distance from the environment sensor l i d is below the reference distance and/or the position where the direction from the environment sensor 11 d is within the reference range. In other words, the acquisition unit 21 acquires information on the distance and/or direction from the environment sensor 11d to the riding object. The acquisition unit 21 determines that there is a package when the determination continues to be affirmative beyond the reference time or the reference travel distance.
  • the boarding object information includes information on the presence or absence of a boarding object.
  • the acquisition unit 21 uses the distance and/or direction information from the environment sensor 11d to the object, that is, the baggage, to obtain the baggage. Estimate the riding position and/or size of the That is, the riding object information includes information on the position and/or size of the riding object.
  • the acquisition unit 21 obtains the information on the characteristics of the riding object detected by the environment sensor 11d and/or the environment sensor 11.
  • the acquisition unit 21 uses the information on the position relative to the saddle-riding vehicle 100 in the field of view d to estimate the type of the riding object is luggage. For example, when the determination is affirmative only from the environment sensor 11d, the acquisition unit 21 estimates that the type of the boarding object is luggage, not a fellow passenger. That is, the riding object information includes information on the type of riding object. In addition, the acquisition unit 21 detects in the environment sensor 11b, the environment sensor 11c, and/or the environment sensor 11d when the determination continues to be affirmative beyond the reference time or the reference travel distance. Using the ground position information to estimate the weight of the package.
  • the acquisition unit 21 estimates the weight of the luggage by deriving the amount of change with respect to the position of the ground in a state in which there is no riding object set or acquired in advance. That is, the riding object information includes weight information of the riding object.
  • the ground position information is preferably obtained when the saddle-riding vehicle 100 is stopped.
  • the environment sensor 11b and/or the environment sensor lie, that is, the position where the passenger's legs are when the passenger is in a standard position in the saddle type vehicle 100 (For example, above the passenger step 100B, etc.), the environment sensor that is supposed to face the direction does not detect the short distance.
  • the acquisition unit 21 detects, based on the output of the environment information detection system 11, the entire or part of the field of view of the environment sensor 11b and/or the environment sensor 11c. Determine whether or not That is, the acquisition unit 21 acquires information on whether or not detection is possible in the environment sensor 11b and/or the environment sensor 11c.
  • the acquisition unit 21 determines that a fellow passenger is on board when the determination continues to be affirmative beyond the reference time or the reference travel distance. That is, the boarding object information includes information on the presence or absence of a boarding object. In addition, when the determination continues to be affirmative beyond the reference time or the reference travel distance, the acquisition unit 21 obtains the field of view of the environment sensor 11b and/or the environment sensor 11c relative to the saddle-ride type vehicle 1 ⁇ . Use the positional information to estimate the passenger's position.
  • the undetectable Using information on the relative position of the saddle-ride type vehicle 1 ⁇ in the That is, the riding object information includes information on the position of the riding object.
  • the acquisition unit 21 uses the information on the relative position of the field of view of the environment sensor 11d with respect to the saddle-ride type vehicle 1 ⁇ , It is assumed that the type of riding object is a fellow passenger.
  • the acquisition unit 21 estimates that the type of the boarding object is not luggage but a fellow passenger. That is, the riding object information includes information on the type of riding object.
  • the acquisition unit 21 detects the ground surface detected by the environment sensor 11d, the environment sensor 11b, and/or the environment sensor 11c. Estimate the weight of the passenger using the position information. For example, the acquisition unit 21 estimates the weight of the fellow passenger by deriving the amount of change with respect to the position of the ground when there is no riding object set or acquired in advance. That is, the riding object information includes weight information of the riding object. Information on the position of the ground may be obtained when the saddle-ride type vehicle 100 is stopped.
  • the environment sensor 11b and/or the environment sensor 11c that is, when the passenger is in a standard position in the saddle type vehicle 100, the leg of the passenger is
  • the acquisition unit 21 uses the environment information detection system Based on the output of 11, the position where the distance from the environment sensor 11b and/or the environment sensor 11c is below the reference distance and/or from the environment sensor 11b and/or the environment sensor 11c It is determined whether or not any object, that is, the leg of the passenger, exists at a position where the direction of is within the reference range.
  • the acquisition unit 21 acquires information on the distance and/or direction from the environment sensor 11b and/or the environment sensor 11c to the object on which the vehicle is occupied.
  • the acquisition unit 21 determines that a fellow passenger is on board when the determination continues to be affirmative beyond the reference time or the reference travel distance. That is, the riding object information includes information on the presence or absence of a riding object.
  • the acquisition unit 21 calculates the distance from the environment sensor 11b and/or the environment sensor 11c to the object, that is, the passenger's leg. and/or using directional information to estimate the passenger's position. That is, the riding object information includes information on the position of the riding object.
  • the acquisition unit 21 obtains information on the characteristics of the riding object detected by the environment sensor 11b and/or the environment sensor 11c, And/or, using the information on the relative position of the field of view of the environment sensor 11b and/or the environment sensor 11c with respect to the saddle-ride type vehicle 100, it is estimated that the type of the riding object is a fellow passenger. For example, when the determination is affirmative only with the environment sensor 1lb and/or the environment sensor 11c, the acquisition unit 21 estimates that the type of the boarding object is not luggage but a fellow passenger. That is, the riding object information includes information on the type of riding object.
  • the acquisition unit 21 obtains the position of the ground detected by the environment sensor lid, the environment sensor lib, and/or the environment sensor 11c. Use the information to estimate the weight of the passenger. For example, the acquisition unit 21 estimates the weight of the fellow passenger by deriving the amount of change with respect to the position of the ground when there is no riding object set or acquired in advance. That is, the riding object information includes weight information of the riding object. Information on the position of the ground may be obtained when the saddle-ride type vehicle 1 ⁇ ⁇ is stopped.
  • At least one of the environment sensor 11b, the environment sensor 11c, and the environment sensor lid may be used exclusively for obtaining information on the boarding object, and will be described later. It may also be used to determine the possibility of a collision with the saddle-ride type vehicle 1 ⁇ ⁇ of a peripheral object positioned to the side or rear of the saddle-ride type vehicle 1 ⁇ ⁇ in the collision suppression operation. Further, when the field of view of the environment sensor 11a or the environment sensor 11d is wide, at least one of the environment sensor 11b and the environment sensor 11c is connected to the environment sensor 11a or the environment sensor 11d.
  • the environment sensor 11b or the environment sensor 11c may be substituted by Further, when the field of view of the environment sensor 11b or the environment sensor 11c is wide, at least one of the environment sensor 11a and the environment sensor 11d is detected by the environment sensor 11b or the environment sensor 11c. May be substituted.
  • the environment sensor for acquiring information on the object on board is preferably an ultrasonic sensor.
  • distance information and/or quality characteristic information e.g., amplitude, correlation coefficient, frequency, etc.
  • a noise level may be detected, and ground clutter may be detected.
  • the execution unit 22 executes a support action for the rider 200 based on the riding object information acquired by the acquisition unit 21 .
  • the execution unit 22 provides a braking device 3 ⁇ that produces a braking force on the saddle-ride type vehicle 100, a drive device 4 ⁇ that produces a driving force on the saddle-ride type vehicle 1 ⁇ ⁇ , and a rider 200.
  • a control command is output to the notification device 50 or the like that issues a notification (for example, an auditory notification, a visual notification, a tactile notification, etc.) to perform a support operation for the rider 200.
  • the execution unit 22 may execute the behavior control operation of the saddle-ride type vehicle 100 as the support operation for the rider 200, and may execute the notification operation for the rider 200.
  • the notification device 50 may be provided in the saddle-ride type vehicle 100, and the wear 110 of the rider 200 connected to the saddle-ride type vehicle 100 so as to be communicable. (eg, helmet, goggles, gloves, etc.).
  • the notification to rider 200 may be performed by a haptic operation that causes saddle-ride type vehicle 100 to instantaneously change acceleration/deceleration. In such a case, the braking device 30 or the driving device 40 takes on the function of the notification device 50.
  • the execution unit 22 executes, as the notification operation, an operation for notifying the rider 200 that a riding object is on the saddle type vehicle 100. In addition, the execution unit 22 executes an operation of notifying the rider 200 of the position where the riding object is on as the notification operation. In addition, the execution unit 22 executes an operation of informing the rider 200 of the type of the riding object as the informing operation. In addition, the execution unit 22 executes an operation of notifying the rider 200 of the size of the riding object as the notification operation. In addition, the execution unit 22 executes an operation of notifying the rider 200 of the weight of the riding object as the notification operation.
  • the execution unit 22 performs slip control (for example, anti-lock brake control, traction control, side control, etc.) and/or the mode of suspension control is changed according to the presence or absence of a riding object.
  • the execution unit 22 assumes that the saddle-ride type vehicle 100 is in a rear load when the riding object information is information indicating that the riding object is on board, and specializes in that state. Automatically set the mode in which the Min value is set.
  • the execution unit 22 may reflect the standard weight assumed from the type and/or size of the riding object in the setting of the mode. Also, the execution unit 22 may reflect the information on the position of the riding object on the setting of the mode. Also, the execution unit 22 may reflect the weight information of the riding object in the setting of the mode. Note that the execution unit 22 may execute an operation of proposing a mode change to the rider 200 as the notification operation, and the mode change may be confirmed after the rider 200 approves.
  • the execution unit 22 includes, in addition to the riding object information, the saddle-ride type vehicle 100 and the saddle Based on the positional relationship information between surrounding objects (for example, vehicles, obstacles, road facilities, people, animals, etc.) located around ride-on type vehicle 1 ⁇ and rider 200's support operation is performed.
  • Execute ⁇ The positional relationship information is acquired by the acquisition unit 21 based on the output of the environment information detection system 11.
  • the positional relationship information is, for example, information such as relative position, relative distance, relative velocity, relative acceleration, relative jerk, transit time difference, and predicted time until collision.
  • the positional relationship information may be information of other physical quantities that can be substantially converted into them.
  • an environment sensor different from the environment sensor used for acquiring the boarding object information may be used, and the environment sensor used for acquiring the boarding object information may be used. may be used ⁇
  • the execution unit 22 automatically accelerates and decelerates the saddle-ride type vehicle 100 based on the positional relationship information acquired by the acquisition unit 21 as a support operation for the rider 200. take action.
  • Automatic acceleration/deceleration operations include, for example, speed follow-up control (so-called adaptive cruise control) for the preceding vehicle performed in a state where rider 200 does not operate the brake or accelerator, and brake operation or accelerator operation by rider 200. speed follow-up control for the preceding vehicle, etc.
  • Acquisition unit 21 acquires information on the relative distance, relative speed, or transit time difference between saddle-riding vehicle 100 and a preceding vehicle of saddle-riding vehicle 1 ⁇ , that is, an object whose velocity is to be followed. get.
  • the execution unit 22 outputs a control command to the braking device 30 or the driving device 40, and controls the acceleration/deceleration according to the information of the relative distance, relative speed, or transit time difference to the straddle-type vehicle 100. to cause the saddle-ride type vehicle 100 to follow the speed of the preceding vehicle.
  • the braking device 30 may be controlled to cause or increase deceleration and may be controlled to cause or increase acceleration.
  • the drive 40 may be controlled to cause or increase acceleration and may be controlled to cause or increase deceleration.
  • the execution unit 22 When executing the automatic acceleration/deceleration operation, the execution unit 22 outputs a control signal to the notification device 50 as necessary to generate notification to the rider 200.
  • the execution unit 22 performs a collision suppression operation of the saddle-ride type vehicle 100 based on the positional relationship information acquired by the acquisition unit 21 as a support operation for the rider 200. I do.
  • the acquisition unit 21 acquires a saddle-riding vehicle 100 and objects (e.g., vehicles, obstacles, etc.) located in the vicinity of the saddle-riding vehicle 100 (e.g., front, right, left, rear, etc.). , road equipment, people, animals, etc.) and information on the predicted time until collision, that is, information on the possibility of collision.
  • the execution unit 22 outputs a control signal to the notification device 50 to generate notification to the rider 200 when it is determined that the collision probability exceeds the criterion.
  • the execution unit 22 outputs a control command to the braking device 30 or the driving device 40 when it is determined that the collision probability exceeds the reference, and controls the acceleration/deceleration for suppressing the collision to the saddle-riding type. Spawn in vehicle 1 0 0.
  • the braking device 30 may be controlled to cause or increase deceleration and may be controlled to cause or increase acceleration.
  • the drive 40 may be controlled to cause or increase acceleration and may be controlled to cause or increase deceleration.
  • the execution unit 22 sets the upper limit value of acceleration and/or the upper limit value of deceleration to be generated in the saddle-ride type vehicle 100 in the automatic acceleration/deceleration operation and/or the collision suppression operation. , depending on the presence, location, type, size, and/or weight of the occupied object.
  • the execution unit 22 changes the criteria for judging the possibility of a collision in the collision suppression operation according to the presence/absence, position, type, size and/or weight of a boarding object.
  • the execution unit 22 outputs a control command to the environment information detection system 11 to remove the boarding object from the field of view by detecting an environment sensor (for example, environment sensor lib, environment sensor 11c, environmental sensor lid, etc.) may be changed.
  • an environment sensor for example, environment sensor lib, environment sensor 11c, environmental sensor lid, etc.
  • the execution unit 22 outputs a command to the acquisition unit 21 to detect an area where detection is not possible due to the boarding object or the boarding object in the data output from the environmental information detection system 11. Arithmetic processing for obtaining positional relationship information between the saddle-ride type vehicle 1 ⁇ and surrounding objects in the region where the In other words, the acquisition unit 21 The positional relationship information may be acquired with respect to the surrounding objects located in the area set according to the riding object information out of the surroundings of the model vehicle 1 ⁇ .
  • FIG. 3 is a diagram showing an example of the operation flow of the control device of the support system according to the embodiment of the present invention.
  • the control device 20 executes the operation flow shown in FIG. 3 while the saddle-ride type vehicle 100 is running.
  • step S101 the acquisition unit 21 acquires the information of the boarding object based on the output of the environment information detection system 11.
  • the acquisition unit 21 acquires positional relationship information between the saddle-ride type vehicle 100 and surrounding objects based on the output of the environment information detection system 11 as needed.
  • the acquisition unit 21 acquires the running state information of the saddle-riding type vehicle 1OO based on the output of the running state information detection system 12 as necessary.
  • step S1 ⁇ 2 the execution unit 22 executes an action to assist rider 2 ⁇ based at least on the riding object information acquired by the acquisition unit 21.
  • the control device 20 acquires riding object information based on the output of the environment information detection system 11, and executes a support operation for the rider 200 of the straddle-type vehicle 100 based on the riding object information. . Therefore, it is possible to appropriately acquire information on objects on the saddle-ride type vehicle 100 other than the rider 200, and to appropriately support the rider 200.
  • the acquisition unit 21 obtains the boarding object information based on the detection availability information from the environment sensors (for example, the environment sensor lib, the environment sensor 11c, the environment sensor 11d, etc.). get . Further, preferably, the acquisition unit 21, based on information on the distance and/or direction from the environmental sensors (for example, the environmental sensor lib, the environmental sensor 11c, the environmental sensor 11d, etc.) to the riding object, Acquire riding object information. Further, preferably, the acquisition unit 21 detects the riding object based on the ground position information detected by the environment sensors (for example, the environment sensor 11b, the environment sensor 11c, the environment sensor 11d, etc.). Get information. With such a configuration, it is possible to appropriately acquire information on an object on the saddle-ride type vehicle 100 other than the rider 200 .
  • the environment sensors for example, the environment sensor lib, the environment sensor 11c, the environment sensor 11d, etc.
  • the acquisition unit 21 acquires positional relationship information between the straddle-type vehicle 100 and surrounding objects based on the output of the environment information detection system 11, and the execution unit 2 2 executes a support action based on positional relationship information in addition to riding object information.
  • the execution unit 2 2 executes a support action based on positional relationship information in addition to riding object information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明は、ライダーを適切に支援し得る制御装置及び制御方法を得るものである。 鞍乗り型車両(100)の制御装置(20)の取得部が、鞍乗り型車両(100)に搭載される少なくとも一つの環境センサ(11a、11b,11c、11d)を含み、且つ、鞍乗り型車両(100)の周辺に位置する物体である周辺物体の情報を検出する環境情報検出システム(11)の出力に基づいて、鞍乗り型車両(100)のライダー(200)以外の鞍乗り型車両(100)に乗っている物体である乗車物体の情報である乗車物体情報を取得し、制御装置(20)の実行部が、乗車物体情報に基づいて、鞍乗り型車両(100)のライダー(200)の支援動作を実行する。

Description

【書類名】 明細書
【発明の名称】 鞍乗り型車両の制御装置及び制御方法
【技術分野】
【。 0 0 1】 本発明は、 鞍乗り型車両の制御装置と、 鞍乗り型車両の制御方法と、 に関する。
【背景技術】
【。 0 0 2】 従来の鞍乗り型車両の制御装置として、 ライダーの支援動作を実行するものが知られて いる (例えば、 特許文献 1 ) 。
【先行技術文献】
【特許文献】
【〇 0 0 3】
【特許文献 1】 特開 2 0 0 9 — 1 1 6 8 8 2号公報
【発明の概要】
【発明が解決しよう とする課題】
【〇 0 0 4】 鞍乗り型車両では、 他の車両 (例えば、 乗用車、 トラック等) と比較して、 ライダー以 外の鞍乗り型車両に乗っている物体による走行への影響が大きい。 しかしながら、 従来の 鞍乗り型車両の制御装置では、 ライダー以外の鞍乗り型車両に乗っている物体の情報を取 得することができず、 適切な支援動作を実行することが困難となる場合が生じ得る。
【〇 0 0 5】 本発明は、 上述の課題を背景としてなされたものであり、 ライダーを適切に支援し得る 制御装置を得るものである。 また、 ライダーを適切に支援し得る制御方法を得るものであ る。
【課題を解決するための手段】
【〇 0 0 6】 本発明に係る制御装置は、 鞍乗り型車両の制御装置であって、 前記鞍乗り型車両に搭載 される少なく とも一つの環境センサを含み、 目.つ、 該鞍乗り型車両の周辺に位置する物体 である周辺物体の情報を検出する環境情報検出システムの出力に基づいて、 該鞍乗り型車 両のライダー以外の該鞍乗り型車両に乗っている物体である乗車物体の情報である乗車物 体情報を取得する取得部と、 前記乗車物体情報に基づいて、 前記ライダーの支援動作を実 行する実行部と、 を備えている。
【〇 0 0 7】 本発明に係る制御方法は、 鞍乗り型車両の制御方法であって、 前記鞍乗り型車両の制御 装置の取得部が、 該鞍乗り型車両に搭載される少なく とも一つの環境センサを含み、 目・つ 、 該鞍乗り型車両の周辺に位置する物体である周辺物体の情報を検出する環境情報検出シ ステムの出力に基づいて、 該鞍乗り型車両のライダー以外の該鞍乗り型車両に乗っている 物体である乗車物体の情報である乗車物体情報を取得し、 前記制御装置の実行部が、 前記 乗車物体情報に基づいて、 前記ライダーの支援動作を実行する。
【発明の効果】
【〇 0 0 8】 本発明に係る制御装置及び制御方法では、 環境情報検出システムの出力に基づいてライ ダー以外の鞍乗り型車両に乗っている物体の情報が取得され、 その情報に基づいて鞍乗り 型車両のライダーの支援動作が実行される。 そのため、 ライダー以外の鞍乗り型車両に乗 っている物体の情報を適切に取得することが可能となって、 ライダーを適切に支援するこ とが可能となる。
【図面の簡単な説明】
【〇 0 0 9】
【図 1】 本発明の実施の形態に係る支援システムの、 鞍乗り型車両への搭載状態を示 す図である。
Figure imgf000004_0001
いる。 環境センサ 1 1 a、 l i b , 1 1 c、 1 1 dは、 鞍乗り型車両 1 〇 〇に搭載される 〇 環境センサ 1 1 a、 l i b、 1 1 c、 1 1 dは、 例えば、 超音波センサ、 レーダー、 L i d a 「センサ、 カメラ等である。 環境センサ 1 1 a、 l i b、 1 1 c、 1 1 dは、 検出 範囲内に位置する物体 (例えば、 車両、 障害物、 道路設備、 人、 動物等) までの距離及び / 又は方向に関連する情報 (例えば、 相対位置、 相対距離、 相対速度、 相対加速度、 相対 加加速度、 通過時間差、 衝突に至るまでの予測時間等の情報) を非接触で検出するもので あってもよく、 また、 検出範囲内に位置する物体の特徴 (例えば、 物体の種別、 物体の形 状、 物体に付されているマーク等) を非接触で検出するものであってもよい。 つまり、 環 境情報検出システム 1 1は、 環境センサ 1 l a、 l i b、 1 1 c、 1 1 dを用いて、 鞍乗 り型車両 1 〇 〇の周辺に位置する物体である周辺物体の情報を環境情報として検出するも のである。 環境センサ 1 l a、 l i b、 1 1 c、 1 1 dのうちの一部の環境センサが、 他 の環境センサで兼用されていてもよい。 また、 必要に応じて、 環境センサ 1 l a、 1 1 b 、 1 1 c、 1 1 dのうちの一部が省略されていてもよく、 また、 他の環境センサが追加さ れてもよい。
[ 0 0 1 8 ] 走行状態情報検出システム 1 2は、 例えば、 車輪速センサ 1 2 a と、 慣性センサ ( I M U) 1 2 と、 を含む。 車輪速センサ 1 2 aは、 鞍乗り型車両 1 〇 〇の車輪の回転速度を 検出する。 車輪速センサ 1 2 aが、 鞍乗り型車両 1 〇 〇の車輪の回転速度に実質的に換算 可能な他の物理量を検出するものであってもよい。 慣性センサ 1 2 bは、 鞍乗り型車両 1 。 0に生じている 3軸の加速度及び 3軸 (ロール、 ピッチ、 ヨー) の角速度を検出する。 慣性センサ 1 2 bが、 鞍乗り型車両 1 0 0に生じている 3軸の加速度及び 3軸の角速度に 実質的に換算可能な他の物理量を検出するものであってもよい。 また、 慣性センサ 1 2 b が、 3軸の加速度及び 3軸の角速度の一部のみを検出するものであってもよい。 また、 必 要に応じて、 車輪速センサ 1 2 a及び慣性センサ 1 2 bの少なく とも一方が省略されても よく、 また、 他のセンサが追加されてもよい。
[ 0 0 1 9 ] 制御装置 2 〇は、 少なく とも、 取得部 2 1 と、 実行部 2 2 と、 を含む。 制御装置 2 0の 全て又は各部は、 1つの筐体に纏めて設けられていてもよく、 また、 複数の筐体に分けら れて設けられていてもよい。 また、 制御装置 2 0の一部又は全ては、 例えば、 マイコン、 マイクロプロセッサユニッ ト等で構成されてもよく、 また、 ファームウェア等の更新可能 なもので構成されてもよく、 また、 C PU等からの指令によって実行されるプログラムモ ジュール等であってもよい。
[ 0 0 2 0 ] 取得部 2 1は、 環境情報検出システム 1 1の出力に基づいて、 乗車物体情報を取得する 。 乗車物体情報は、 ライダー 2 0 0以外の鞍乗り型車両 1 0 0に乗っている物体である乗 車物体の情報である。 例えば、 乗車物体は、 鞍乗り型車両 1 0 0の後部に積載される荷物 、 鞍乗り型車両 1 0 0の後部座席に搭乗する同乗者等である。 また、 取得部 2 1は、 走行 状態情報検出システム 1 2の出力に基づいて、 鞍乗り型車両 1 〇 〇の走行状態情報を取得 する。
[ 0 0 2 1 ] 例えば、 環境センサ 1 1 d、 つまり、 鞍乗り型車両 1 〇 〇において標準的なサイズの荷 物が標準的な位置に乗っている場合にその荷物の有る位置 (例えば、 リアフェンダー 1 0 0 Aの上方等) の方を向く と想定される環境センサが、 近距離を検出不能である場合にお いて、 取得部 2 1は、 環境情報検出システム 1 1の出力に基づいて、 環境センサ l i dの 視野の全域又は一部が検出不能であるか否かを判定する。 つまり、 取得部 2 1は、 環境セ ンサ 1 1 dにおける検出可否の情報を取得する。 取得部 2 1は、 基準時間又は基準走行距 離を超えて判定が肯定され続ける場合に、 荷物が有ると判定する。 つまり、 乗車物体情報 は、 乗車物体の有無の情報を含む。 また、 取得部 2 1は、 基準時間又は基準走行距離を超 えて判定が肯定され続ける場合に、 環境センサ 1 1 dの視野の鞍乗り型車両 1 〇 〇に対す る相対位置の情報を用いて、 荷物の乗っている位置を推定する。 例えば、 環境センサ 1 1 d の視野の一部が検出不能になっている、 又は、 複数の環境センサ 1 1 dの一部のみが検 出不能になっている場合には、 その検出不能になっている領域の鞍乗り型車両 1 〇 〇に対 する相対位置の情報を用いて、 荷物の乗っている位置を推定する。 つまり、 乗車物体情報 は、 乗車物体の位置の情報を含む。 また、 取得部 2 1は、 基準時間又は基準走行距離を超 えて判定が肯定され続ける場合に、 環境センサ 1 1 dの視野の鞍乗り型車両 1 〇 〇に対す る相対位置の情報を用いて、 乗車物体の種別が荷物であると推定する。 例えば、 環境セン サ 1 1 dが検出不能となっていて、 環境センサ 1 1 b及び環境センサ 1 1 cが検出可能で ある場合に、 取得部 2 1は、 乗車物体の種別が同乗者ではなく荷物であると推定する。 っ まり、 乗車物体情報は、 乗車物体の種別の情報を含む。 また、 取得部 2 1は、 基準時間又 は基準走行距離を超えて判定が肯定され続ける場合に、 環境センサ 1 1 dの視野の鞍乗り 型車両 1 〇 〇に対する相対位置の情報を用いて、 乗っている荷物のサイズを推定する。 例 えば、 取得部 2 1は、 環境センサ 1 1 dの視野の一部が検出不能になっている、 又は、 複 数の環境センサ 1 1 dの一部のみが検出不能になっている場合には、 その検出不能になつ ている領域の鞍乗り型車両 1 〇 〇に対する相対位置の情報を用いて、 乗っている荷物のサ イズを推定する。 つまり、 乗車物体情報は、 乗車物体のサイズの情報を含む。 また、 取得 部 2 1は、 基準時間又は基準走行距離を超えて判定が肯定され続ける場合に、 環境センサ l i , 環境センサ 1 1 c、 及び/又は環境センサ 1 1 dにおいて検出される地面の位置 の情報を用いて、 荷物の重量を推定する。 例えば、 取得部 2 1は、 事前に設定又は取得さ れた乗車物体が無い状態での地面の位置に対する変化量を導出して荷物の重量を推定する 。 つまり、 乗車物体情報は、 乗車物体の重量の情報を含む。 地面の位置の情報が、 鞍乗り 型車両 1 〇 〇の停止時に取得されるとよい。
[ 0 0 2 2 ] 例えば、 環境センサ l i d、 つまり、 鞍乗り型車両 1 〇 〇において標準的なサイズの荷 物が標準的な位置に乗っている場合にその荷物の有る位置 (例えば、 リアフェンダー 1 0 0 Aの上方等) の方を向く と想定される環境センサが、 近距離を検出可能である場合にお いて、 取得部 2 1は、 環境情報検出システム 1 1の出力に基づいて、 環境センサ l i dか らの距離が基準距離を下回る位置、 及び/又は、 環境センサ 1 1 dからの方向が基準範囲 内にある位置に何らかの物体、 つまり荷物が存在しているか否かを判定する。 つまり、 取 得部 2 1は、 環境センサ 1 1 dから乗車物体までの距離及び/又は方向の情報を取得する 。 取得部 2 1は、 基準時間又は基準走行距離を超えて判定が肯定され続ける場合に、 荷物 が有ると判定する。 つまり、 乗車物体情報は、 乗車物体の有無の情報を含む。 また、 取得 部 2 1は、 基準時間又は基準走行距離を超えて判定が肯定され続ける場合に、 環境センサ 1 1 dからその物体、 つまり荷物までの距離及び/又は方向の情報を用いて、 荷物の乗っ ている位置及び/又はサイズを推定する。 つまり、 乗車物体情報は、 乗車物体の位置及び / 又はサイズの情報を含む。 また、 取得部 2 1は、 基準時間又は基準走行距離を超えて判 定が肯定され続ける場合に、 環境センサ 1 1 dで検出される乗車物体の特徴の情報、 及び / 又は、 環境センサ 1 1 dの視野の鞍乗り型車両 1 〇 〇に対する相対位置の情報を用いて 、 乗車物体の種別が荷物であると推定する。 例えば、 環境センサ 1 1 dのみで判定が肯定 されている場合に、 取得部 2 1は、 乗車物体の種別が同乗者ではなく荷物であると推定す る。 つまり、 乗車物体情報は、 乗車物体の種別の情報を含む。 また、 取得部 2 1は、 基準 時間又は基準走行距離を超えて判定が肯定され続ける場合に、 環境センサ 1 1 b、 環境セ ンサ 1 1 c、 及び/又は環境センサ 1 1 dにおいて検出される地面の位置の情報を用いて 、 荷物の重量を推定する。 例えば、 取得部 2 1は、 事前に設定又は取得された乗車物体が 無い状態での地面の位置に対する変化量を導出して荷物の重量を推定する。 つまり、 乗車 物体情報は、 乗車物体の重量の情報を含む。 地面の位置の情報が、 鞍乗り型車両 1 0 0の 停止時に取得されるとよい。
[ 0 0 2 3 ] 例えば、 環境センサ 1 1 b及び/又は環境センサ l i e、 つまり、 鞍乗り型車両 1 〇 〇 において同乗者が標準的な位置に乗っている場合に同乗者の脚が有る位置 (例えば、 同乗 者用ステップ 1 0 0 Bの上方等) の方を向く と想定される環境センサが、 近距離を検出不 能である場合において、 取得部 2 1は、 環境情報検出システム 1 1の出力に基づいて、 環 境センサ 1 1 b及び/又は環境センサ 1 1 cの視野の全域又は一部が検出不能であるか否 かを判定する。 つまり、 取得部 2 1は、 環境センサ 1 1 b及び/又は環境センサ 1 1 cに おける検出可否の情報を取得する。 取得部 2 1は、 基準時間又は基準走行距離を超えて判 定が肯定され続ける場合に、 同乗者が乗っていると判定する。 つまり、 乗車物体情報は、 乗車物体の有無の情報を含む。 また、 取得部 2 1は、 基準時間又は基準走行距離を超えて 判定が肯定され続ける場合に、 環境センサ 1 1 b及び/又は環境センサ 1 1 cの視野の鞍 乗り型車両 1 〇 〇に対する相対位置の情報を用いて、 同乗者の乗っている位置を推定する 。 例えば、 環境センサ 1 1 bの視野の一部が検出不能になっている、 又は、 複数の環境セ ンサ 1 1 bの一部のみが検出不能になっている場合には、 その検出不能になっている領域 の鞍乗り型車両 1 〇 〇に対する相対位置の情報を用いて、 同乗者の乗っている位置を推定 する。 つまり、 乗車物体情報は、 乗車物体の位置の情報を含む。 また、 取得部 2 1は、 基 準時間又は基準走行距離を超えて判定が肯定され続ける場合に、 環境センサ 1 1 dの視野 の鞍乗り型車両 1 〇 〇に対する相対位置の情報を用いて、 乗車物体の種別が同乗者である と推定する。 例えば、 環境センサ 1 1 b及び環境センサ 1 1 cが検出不能となっている場 合に、 取得部 2 1は、 乗車物体の種別が荷物ではなく同乗者であると推定する。 つまり、 乗車物体情報は、 乗車物体の種別の情報を含む。 また、 取得部 2 1は、 基準時間又は基準 走行距離を超えて判定が肯定され続ける場合に、 環境センサ 1 1 d、 環境センサ 1 1 b、 及び/ 又は環境センサ 1 1 cにおいて検出される地面の位置の情報を用いて、 同乗者の重 量を推定する。 例えば、 取得部 2 1は、 事前に設定又は取得された乗車物体が無い状態で の地面の位置に対する変化量を導出して同乗者の重量を推定する。 つまり、 乗車物体情報 は、 乗車物体の重量の情報を含む。 地面の位置の情報が、 鞍乗り型車両 1 0 0の停止時に 取得されるとよい。
[ 0 0 2 4 ] 例えば、 環境センサ 1 1 b及び/又は環境センサ 1 1 c、 つまり、 鞍乗り型車両 1 〇 〇 において同乗者が標準的な位置に乗っている場合に同乗者の脚が有る位置 (例えば、 同乗 者用ステップ 1 0 0 Bの上方等) の方を向く と想定される環境センサが、 近距離を検出可 能である場合において、 取得部 2 1は、 環境情報検出システム 1 1の出力に基づいて、 環 境センサ 1 1 b及び/又は環境センサ 1 1 cからの距離が基準距離を下回る位置、 及び/ 又は、 環境センサ 1 1 b及び/又は環境センサ 1 1 cからの方向が基準範囲内にある位置 に何らかの物体、 つまり同乗者の脚が存在しているか否かを判定する。 つまり、 取得部 2 1 は、 環境センサ 1 1 b及び/又は環境センサ 1 1 cから乗車物体までの距離及び/又は 方向の情報を取得する。 取得部 2 1は、 基準時間又は基準走行距離を超えて判定が肯定さ れ続ける場合に、 同乗者が乗っていると判定する。 つまり、 乗車物体情報は、 乗車物体の 有無の情報を含む。 また、 取得部 2 1は、 基準時間又は基準走行距離を超えて判定が肯定 され続ける場合に、 環境センサ 1 1 b及び/又は環境センサ 1 1 cからその物体、 つまり 同乗者の脚までの距離及び/又は方向の情報を用いて、 同乗者の乗っている位置を推定す る。 つまり、 乗車物体情報は、 乗車物体の位置の情報を含む。 また、 取得部 2 1は、 基準 時間又は基準走行距離を超えて判定が肯定され続ける場合に、 環境センサ 1 1 b及び/又 は環境センサ 1 1 cで検出される乗車物体の特徴の情報、 及び/又は、 環境センサ 1 1 b 及び/ 又は環境センサ 1 1 cの視野の鞍乗り型車両 1 〇 〇に対する相対位置の情報を用い て、 乗車物体の種別が同乗者であると推定する。 例えば、 環境センサ 1 l b及び/又は環 境センサ 1 1 cのみで判定が肯定されている場合に、 取得部 2 1は、 乗車物体の種別が荷 物ではなく同乗者であると推定する。 つまり、 乗車物体情報は、 乗車物体の種別の情報を 含む。 また、 取得部 2 1は、 基準時間又は基準走行距離を超えて判定が肯定され続ける場 合に、 環境センサ l i d、 環境センサ l i b、 及び/又は環境センサ 1 1 cにおいて検出 される地面の位置の情報を用いて、 同乗者の重量を推定する。 例えば、 取得部 2 1は、 事 前に設定又は取得された乗車物体が無い状態での地面の位置に対する変化量を導出して同 乗者の重量を推定する。 つまり、 乗車物体情報は、 乗車物体の重量の情報を含む。 地面の 位置の情報が、 鞍乗り型車両 1 〇 〇の停止時に取得されるとよい。 [ 0 0 2 5 ] 環境センサ 1 1 b、 環境センサ 1 1 c、 及び、 環境センサ l i dの少なく とも一つが、 乗車物体情報の取得に専ら用いられるものであってもよく、 また、 後述される衝突抑制動 作における、 鞍乗り型車両 1 〇 〇に対する鞍乗り型車両 1 〇 〇の側方又は後方に位置する 周辺物体の衝突可能性判定と兼用されるものであってもよい。 また、 環境センサ 1 1 a又 は環境センサ 1 1 dの視野が広い場合に、 環境センサ 1 1 b及び環境センサ 1 1 cの少な く とも一方が、 環境センサ 1 1 a又は環境センサ 1 1 dによって代用されてもよい。 また 、 環境センサ 1 1 b又は環境センサ 1 1 cの視野が広い場合に、 環境センサ 1 1 a及び環 境センサ 1 1 dの少なく とも一方が、 環境センサ 1 1 b又は環境センサ 1 1 cによって代 用されてもよい。 特に、 乗車物体情報を取得するための環境センサは、 超音波センサであ るとよい。 そのような場合には、 乗車物体情報の取得のために、 超音波センサにおいて、 反射波に含まれる距離情報及び/又は品質特性情報 (例えば、 振幅、 相関係数、 周波数等 ) が検出されてもよく、 また、 ノイズレベルが検出されてもよく、 また、 グランドクラッ タが検出されてもよい。
[ 0 0 2 6 ] 実行部 2 2は、 取得部 2 1で取得された乗車物体情報に基づいて、 ライダー 2 0 0の支 援動作を実行する。 実行部 2 2は、 例えば、 鞍乗り型車両 1 0 0に制動力を生じさせる制 動装置 3 〇、 鞍乗り型車両 1 〇 〇に駆動力を生じさせる駆動装置 4 〇、 ライダー 2 0 0に 対する報知 (例えば、 聴覚に作用する報知、 視覚に作用する報知、 触覚に作用する報知等 ) を発する報知装置 5 0等に制御指令を出力して、 ライダー 2 0 0の支援動作を実行する 。 つまり、 実行部 2 2は、 ライダー 2 0 0の支援動作として、 鞍乗り型車両 1 〇 〇の挙動 制御動作を実行してもよく、 また、 ライダー 2 0 0に対する報知動作を実行してもよい。 なお、 報知装置 5 0は、 鞍乗り型車両 1 0 0に設けられていてもよく、 また、 鞍乗り型車 両 1 0 0 と通信可能に接続されたライダー 2 0 0の着用物 1 1 〇 (例えば、 ヘルメッ ト、 ゴーグル、 グローブ等) に設けられていてもよい。 また、 ライダー 2 0 0に対する報知が 、 鞍乗り型車両 1 〇 〇に瞬時的な加減速度の変化を生じさせるハプティクス動作によって 行われてもよい。 そのような場合には、 制動装置 3 0又は駆動装置 4 0が、 報知装置 5 0 の機能を担う。
[ 0 0 2 7 ] 具体例として、 実行部 2 2は、 報知動作として、 乗車物体が鞍乗り型車両 1 0 0に乗っ ている旨をライダー 2 0 0に報知する動作を実行する。 また、 実行部 2 2は、 報知動作と して、 乗車物体が乗っている位置をライダー 2 0 0に報知する動作を実行する。 また、 実 行部 2 2は、 報知動作として、 乗車物体の種別をライダー 2 0 0に報知する動作を実行す る。 また、 実行部 2 2は、 報知動作として、 乗車物体のサイズをライダー 2 0 0に報知す る動作を実行する。 また、 実行部 2 2は、 報知動作として、 乗車物体の重量をライダー 2 〇 〇に報知する動作を実行する。
[ 0 0 2 8 ] 他の具体例として、 実行部 2 2は、 挙動制御動作として、 鞍乗り型車両 1 0 0のスリ ッ プ制御 (例えば、 アンチロックブレーキコントロール、 トラクションコントロール、 横滑 り抑制制御等) 及び/又はサスペンション制御のモードを、 乗車物体の有無に応じて変化 させる動作を実行する。 実行部 2 2は、 乗車物体情報が、 乗車物体が乗っている旨を示す 情報である場合に、 鞍乗り型車両 1 〇 〇が後ろ荷重になっていると仮定し、 その状態に特 化した閩値が設定されたモードを自動で設定する。 実行部 2 2が、 乗車物体の種別及び/ 又はサイズから想定される標準的な重量を、 そのモードの設定に反映するとよい。 また、 実行部 2 2が、 乗車物体の乗っている位置の情報を、 そのモードの設定に反映するとよい 。 また、 実行部 2 2が、 乗車物体の重量の情報を、 そのモードの設定に反映するとよい。 なお、 実行部 2 2が、 報知動作として、 モードの変更をライダー 2 0 0に提案する動作を 実行し、 ライダー 2 〇 〇の承認後にモードの変更が確定されてもよい。
[ 0 0 2 9 ] 他の具体例として、 実行部 2 2は、 乗車物体情報に加えて、 鞍乗り型車両 1 0 0と、 鞍 乗り型車両 1 〇 〇の周辺に位置する物体 (例えば、 車両、 障害物、 道路設備、 人、 動物等 ) である周辺物体と、 の位置関係情報に基づいて、 ライダー 2 0 0の支援動作を実行する 〇 位置関係情報は、 取得部 2 1において、 環境情報検出システム 1 1の出力に基づいて取 得される。 位置関係情報は、 例えば、 相対位置、 相対距離、 相対速度、 相対加速度、 相対 加加速度、 通過時間差、 衝突に至るまでの予測時間等の情報である。 位置関係情報は、 そ れらに実質的に換算可能な他の物理量の情報であってもよい。 位置関係情報の取得のため に、 乗車物体情報の取得のために用いられた環境センサと異なる他の環境センサが用いら れてよく、 また、 乗車物体情報の取得のために用いられた環境センサが用いられてもよい 〇
[ 0 0 3 0 ] 例えば、 実行部 2 2は、 ライダー 2 0 0の支援動作として、 取得部 2 1で取得される位 置関係情報に基づいて、 鞍乗り型車両 1 〇 〇の自動加減速動作を行う。 自動加減速動作は 、 例えば、 ライダー 2 0 0によるブレーキ操作及びアクセル操作が無い状態で行われる先 行車に対する速度追従制御 (いわゆる、 アダプティブクルーズコントロール) 、 ライダー 2 0 0によるブレーキ操作又はアクセル操作が有る状態で行われる先行車に対する速度追 従制御等である。 取得部 2 1は、 鞍乗り型車両 1 0 0 と、 鞍乗り型車両 1 〇 〇の先行車、 つまり速度追従の対象となる物体と、 の相対距離、 相対速度、 又は、 通過時間差の情報を 取得する。 実行部 2 2は、 制動装置 3 0又は駆動装置 4 0に制御指令を出力して、 その相 対距離、 相対速度、 又は、 通過時間差の情報に応じた加減速度を鞍乗り型車両 1 0 0に生 じさせて、 鞍乗り型車両 1 〇 〇を先行車に速度追従させる。 制動装置 3 0が、 減速度を生 じさせる又は増加させるために制御されてもよく、 また、 加速度を生じさせる又は増加さ せるために制御されてもよい。 駆動装置 4 0が、 加速度を生じさせる又は増加させるため に制御されてもよく、 また、 減速度を生じさせる又は増加させるために制御されてもよい 。 実行部 2 2は、 自動加減速動作の実行時に、 必要に応じて、 報知装置 5 0に制御信号を 出力して、 ライダー 2 0 0に対する報知を生じさせる。
[ 0 0 3 1 ] 例えば、 実行部 2 2は、 ライダー 2 0 0の支援動作として、 取得部 2 1で取得される位 置関係情報に基づいて、 鞍乗り型車両 1 〇 〇の衝突抑制動作を行う。 取得部 2 1は、 鞍乗 り型車両 1 〇 〇 と、 鞍乗り型車両 1 〇 〇の周辺 (例えば、 前方、 右方、 左方、 後方等) に 位置する物体 (例えば、 車両、 障害物、 道路設備、 人、 動物等) である周辺物体と、 の彳野 突に至るまでの予測時間の情報、 つまり衝突可能性の情報を取得する。 実行部 2 2は、 衝 突可能性が基準を上回ると判定される場合に、 報知装置 5 0に制御信号を出力して、 ライ ダー 2 0 0に対する報知を生じさせる。 また、 実行部 2 2は、 衝突可能性が基準を上回る と判定される場合に、 制動装置 3 0又は駆動装置 4 0に制御指令を出力して、 その衝突を 抑制する加減速度を鞍乗り型車両 1 0 0に生じさせる。 制動装置 3 0が、 減速度を生じさ せる又は増加させるために制御されてもよく、 また、 加速度を生じさせる又は増加させる ために制御されてもよい。 駆動装置 4 0が、 加速度を生じさせる又は増加させるために制 御されてもよく、 また、 減速度を生じさせる又は増加させるために制御されてもよい。
[ 0 0 3 2 ] 例えば、 実行部 2 2は、 自動加減速動作及び/又は衝突抑制動作において、 鞍乗り型車 両 1 0 0に生じさせる加速度の上限値及び/又は減速度の上限値を、 乗車物体の有無、 位 置、 種別、 サイズ、 及び/又は重量に応じて変化させる。 また、 実行部 2 2は、 衝突抑制 動作において、 衝突可能性の判定の基準を、 乗車物体の有無、 位置、 種別、 サイズ、 及び / 又は重量に応じて変化させる。 また、 実行部 2 2は、 環境情報検出システム 1 1に制御 指令を出力して、 乗車物体を視野から除外するべく、 乗車物体が視野に含まれている環境 センサ (例えば、 環境センサ l i b、 環境センサ 1 1 c、 環境センサ l i d等) の視野の 方向を変更してもよい。 実行部 2 2が、 取得部 2 1に指令を出力して、 環境情報検出シス テム 1 1から出力されるデータのうちの、 乗車物体によって検出不能となっている領域、 又は、 乗車物体を検出している領域についての、 鞍乗り型車両 1 〇 〇と周辺物体との位置 関係情報を取得するための演算処理を省略させてもよい。 つまり、 取得部 2 1は、 鞍乗り 型車両 1 〇 〇の周辺のうちの乗車物体情報に応じて設定される領域に位置する周辺物体に 対して、 位置関係情報を取得するものであってもよい。
[ 0 0 3 3 ] く支援システムの動作> 実施の形態に係る支援システムの動作について説明する。 図 3は、 本発明の実施の形態に係る支援システムの、 制御装置の動作フローの一例を示 す図である。
[ 0 0 3 4 ] 制御装置 2 0は、 鞍乗り型車両 1 〇 〇の走行中において、 図 3に示される動作フローを 実行する。
[ 0 0 3 5 ]
(取得ステップ) ステップ S 1 0 1において、 取得部 2 1は、 環境情報検出システム 1 1の出力に基づい て、 乗車物体情報を取得する。 取得部 2 1は、 必要に応じて、 環境情報検出システム 1 1 の出力に基づいて、 鞍乗り型車両 1 0 0と周辺物体との位置関係情報を取得する。 また、 取得部 2 1は、 必要に応じて、 走行状態情報検出システム 1 2の出力に基づいて、 鞍乗り 型車両 1 〇 〇の走行状態情報を取得する。
[ 0 0 3 6 ]
(実行ステップ) 続いて、 ステップ S 1 〇 2において、 実行部 2 2は、 少なく とも、 取得部 2 1で取得さ れた乗車物体情報に基づいて、 ライダー 2 〇 〇の支援動作を実行する。
[ 0 0 3 7 ] く支援システムの効果> 実施の形態に係る支援システムの効果について説明する。 制御装置 2 0では、 環境情報検出システム 1 1の出力に基づいて乗車物体情報が取得さ れ、 乗車物体情報に基づいて鞍乗り型車両 1 0 0のライダー 2 0 0の支援動作が実行され る。 そのため、 ライダー 2 0 0以外の鞍乗り型車両 1 0 0に乗っている物体の情報を適切 に取得することが可能となって、 ライダー 2 〇 〇を適切に支援することが可能となる。
[ 0 0 3 8 ] 好ましくは、 取得部 2 1は、 環境センサ (例えば、 環境センサ l i b、 環境センサ 1 1 c 、 環境センサ 1 1 d等) における検出可否の情報に基づいて、 乗車物体情報を取得する 。 また、 好ましくは、 取得部 2 1は、 環境センサ (例えば、 環境センサ l i b、 環境セン サ 1 1 c、 環境センサ 1 1 d等) から乗車物体までの距離及び/又は方向の情報に基づい て、 乗車物体情報を取得する。 また、 好ましくは、 取得部 2 1は、 環境センサ (例えば、 環境センサ 1 1 b、 環境センサ 1 1 c、 環境センサ 1 1 d等) において検出される地面の 位置の情報に基づいて、 乗車物体情報を取得する。 それらのように構成されることで、 ラ イダー 2 0 0以外の鞍乗り型車両 1 〇 〇に乗っている物体の情報を適切に取得することが 可能となる。
[ 0 0 3 9 ] 好ましくは、 取得部 2 1は、 環境情報検出システム 1 1の出力に基づいて、 鞍乗り型車 両 1 0 0 と周辺物体との位置関係情報を取得し、 実行部 2 2は、 乗車物体情報に加えて位 置関係情報に基づいて、 支援動作を実行する。 そのように構成されることで、 ライダー 2 〇 〇を適切に支援することが可能となる。
[符号の説明]
[ 0 0 4 0 ]
! 支援システム、 1 1 環境情報検出システム、 1 1 a、 ! i b , 1 1 c、 1 1 d 環境センサ、 1 2 走行状態情報検出システム、 1 2 a 車輪速センサ、 1 2 b 慣性セ ンサ、 2 〇 制御装置、 2 1 取得部、 2 2 実行部、 3 〇 制動装置、 4 〇 駆動装置 、 5 〇 報知装置、 1 0 0 鞍乗り型車両、 1 0 0 A リアフェンダー、 1 0 0 B 同乗 者用ステップ、 1 1 〇 着用物、 2 0 0 ライダー

Claims

【書類名】 請求の範囲
【請求項 1】 鞍乗り型車両 ( 1 0 0 ) の制御装置 ( 2 0 ) であって、 前記鞍乗り型車両 ( 1 0 0 ) に搭載される少なく とも一つの環境センサ ( 1 1 a、 1 1 b 、 1 1 c , l i d ) を含み、 目.つ、 該鞍乗り型車両 ( 1 0 0 ) の周辺に位置する物体で ある周辺物体の情報を検出する環境情報検出システム ( 1 1 ) の出力に基づいて、 該鞍乗 り型車両 ( 1 0 0 ) のライダー ( 2 0 0 ) 以外の該鞍乗り型車両 ( 1 0 0 ) に乗っている 物体である乗車物体の情報である乗車物体情報を取得する取得部 ( 2 1 ) と、 前記乗車物体情報に基づいて、 前記ライダー ( 2 0 0 ) の支援動作を実行する実行部 ( 2 2 ) と、 を備えている、 制御装置 ( 2 0 ) 。
【請求項 2 ] 前記乗車物体情報は、 前記乗車物体の有無の情報を含む、 請求項 1に記載の制御装置 ( 2 0 ) 。
【請求項 3 ] 前記乗車物体情報は、 前記乗車物体の位置の情報を含む、 請求項 1又は 2に記載の制御装置 ( 2 0 ) 。
【請求項 4】 前記乗車物体情報は、 前記乗車物体の種別の情報を含む、 請求項 1〜 3の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 5 ] 前記乗車物体情報は、 前記乗車物体のサイズの情報を含む、 請求項 1〜 4の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 6 ] 前記乗車物体情報は、 前記乗車物体の重量の情報を含む、 請求項 1〜 5の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 ? ] 前記取得部 ( 2 1 ) は、 前記環境センサ ( 1 l a、 l i b、 1 1 c、 l i d ) における 検出可否の情報に基づいて、 前記乗車物体情報を取得する、 請求項 1〜 6の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 8】 前記取得部 ( 2 1 ) は、 前記環境センサ ( 1 1 a、 l i b、 1 1 c、 l i d ) から前記 乗車物体までの距離及び/又は方向の情報に基づいて、 前記乗車物体情報を取得する、 請求項 1〜 7の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 9 ] 前記取得部 ( 2 1 ) は、 前記環境センサ ( 1 1 a、 l i b、 1 1 c、 l i d ) において 検出される地面の位置の情報に基づいて、 前記乗車物体情報を取得する、 請求項 1〜 8の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 1 〇】 前記支援動作は、 前記ライダー ( 2 0 0 ) に対する報知動作を含む、 請求項 1〜 9の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 1 1】 前記支援動作は、 前記鞍乗り型車両 ( 1 0 0 ) の挙動制御動作を含む、 請求項 1〜 1 〇の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 1 2 ] 前記取得部 ( 2 1 ) は、 前記環境情報検出システム ( 1 1 ) の出力に基づいて、 前記鞍 乗り型車両 ( 1 0 0 ) と前記周辺物体との位置関係情報を取得し、 前記実行部 ( 2 2 ) は、 前記乗車物体情報に加えて前記位置関係情報に基づいて、 前記 支援動作を実行する、 請求項 1〜 1 1の何れか一項に記載の制御装置 ( 2 0 ) 。
【請求項 1 3 ] 前記取得部 ( 2 1 ) は、 前記鞍乗り型車両 ( 1 0 0 ) の周辺のうちの前記乗車物体情報 に応じて設定される領域に位置する前記周辺物体に対して、 前記位置関係情報を取得する 請求項 1 2に記載の制御装置 ( 2 0 ) 。
【請求項 1 4 ] 鞍乗り型車両 ( 1 〇 〇) の制御方法であって、 前記鞍乗り型車両 ( 1 0 0 ) の制御装置 ( 2 0 ) の取得部 ( 2 1 ) が、 該鞍乗り型車両 ( 1 0 0 ) に搭載される少なく とも一つの環境センサ ( 1 1 a、 ! i b , 1 1 c、 1 1 d ) を含み、 目.つ、 該鞍乗り型車両 ( 1 0 0 ) の周辺に位置する物体である周辺物体の情報 を検出する環境情報検出システム ( 1 1 ) の出力に基づいて、 該鞍乗り型車両 ( 1 0 0 ) のライダー ( 2 0 0 ) 以外の該鞍乗り型車両 ( 1 0 0 ) に乗っている物体である乗車物体 の情報である乗車物体情報を取得し、 前記制御装置 ( 2 0 ) の実行部 ( 2 2 ) が、 前記乗車物体情報に基づいて、 前記ライダ 一 ( 2 0 0 ) の支援動作を実行する、 制御方法。
PCT/IB2022/061589 2021-12-23 2022-11-30 鞍乗り型車両の制御装置及び制御方法 WO2023119025A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023568752A JPWO2023119025A1 (ja) 2021-12-23 2022-11-30

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021209389 2021-12-23
JP2021-209389 2021-12-23

Publications (1)

Publication Number Publication Date
WO2023119025A1 true WO2023119025A1 (ja) 2023-06-29

Family

ID=84688457

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2022/061589 WO2023119025A1 (ja) 2021-12-23 2022-11-30 鞍乗り型車両の制御装置及び制御方法

Country Status (2)

Country Link
JP (1) JPWO2023119025A1 (ja)
WO (1) WO2023119025A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190300012A1 (en) * 2018-03-29 2019-10-03 Honda Motor Co.,Ltd. Control apparatus
WO2020041191A1 (en) * 2018-08-20 2020-02-27 Indian Motorcycle International, LLC Wheeled vehicle notification system and method
JP2022096469A (ja) * 2020-12-17 2022-06-29 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 制御装置及び制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190300012A1 (en) * 2018-03-29 2019-10-03 Honda Motor Co.,Ltd. Control apparatus
WO2020041191A1 (en) * 2018-08-20 2020-02-27 Indian Motorcycle International, LLC Wheeled vehicle notification system and method
JP2022096469A (ja) * 2020-12-17 2022-06-29 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 制御装置及び制御方法

Also Published As

Publication number Publication date
JPWO2023119025A1 (ja) 2023-06-29

Similar Documents

Publication Publication Date Title
EP2878508B1 (en) Drive assist device
KR101478068B1 (ko) 차량 충돌 방지 장치 및 그 방법
KR101511858B1 (ko) 보행자 또는 이륜차를 인지하는 운전보조시스템 및 그 제어방법
EP3501911A1 (en) Apparatus and method for controlling vehicular active seatbelt
KR101545054B1 (ko) 풍속 측정 기반의 제동장치 및 그 제어방법
JP2010538383A (ja) 事故の危険が高い場合に自動車のドライバに警告するための方法および装置
JPWO2020201861A1 (ja) モータサイクルの動作を制御する制御装置及び制御方法
CN113734161A (zh) 车辆制动控制方法、装置、设备、介质及程序产品
WO2021094877A1 (ja) モータサイクルの動作の制御装置及び制御方法
US20210162967A1 (en) Vehicle control device
JPWO2020115596A1 (ja) 鞍乗型車両の警告システムのための処理装置及び処理方法、鞍乗型車両の警告システム、及び、鞍乗型車両
KR101519215B1 (ko) 운전보조시스템 및 그 제어방법
KR101511860B1 (ko) 운전보조시스템 및 그 제어방법
WO2023119025A1 (ja) 鞍乗り型車両の制御装置及び制御方法
EP4129738A1 (en) Control device and control method
KR20170043401A (ko) 웨어러블 장치를 이용한 운전자 상태판단 및 운전자 보조 장치 및 그 방법
JP7261866B2 (ja) モータサイクルの動作を制御する制御装置及び制御方法
KR101511861B1 (ko) 운전보조시스템 및 그 제어방법
KR101519292B1 (ko) 차량 충돌 방지 방법
WO2023119051A1 (ja) リーン車両の制御装置及び制御方法
US20240278776A1 (en) Method and apparatus for collision avoidance or impact force reduction
EP4129786A1 (en) Control device and control method
JP7426277B2 (ja) 準備行動判定装置、運転支援システム、及びプログラム
KR101511862B1 (ko) 에어백 전개 기능을 포함한 자동 비상 제동 장치 및 그 제어방법
EP4270354A1 (en) Control device and control method for rider assistance system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22830943

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023568752

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022830943

Country of ref document: EP

Effective date: 20240723