WO2017056374A1 - 被害低減装置、被害低減方法およびプログラム - Google Patents

被害低減装置、被害低減方法およびプログラム Download PDF

Info

Publication number
WO2017056374A1
WO2017056374A1 PCT/JP2016/003769 JP2016003769W WO2017056374A1 WO 2017056374 A1 WO2017056374 A1 WO 2017056374A1 JP 2016003769 W JP2016003769 W JP 2016003769W WO 2017056374 A1 WO2017056374 A1 WO 2017056374A1
Authority
WO
WIPO (PCT)
Prior art keywords
collision
occupant
vehicle
damage
data
Prior art date
Application number
PCT/JP2016/003769
Other languages
English (en)
French (fr)
Inventor
小柳津 秀紀
雄飛 近藤
康孝 平澤
卓 青木
健人 赤間
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16850557.6A priority Critical patent/EP3357790A4/en
Priority to JP2017542689A priority patent/JP6760297B2/ja
Priority to US15/761,844 priority patent/US10464559B2/en
Priority to CN201680055024.4A priority patent/CN108025763B/zh
Publication of WO2017056374A1 publication Critical patent/WO2017056374A1/ja
Priority to US16/599,740 priority patent/US11254307B2/en
Priority to US17/570,319 priority patent/US11772644B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0265Automatic obstacle avoidance by steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R2021/01204Actuation parameters of safety arrangents
    • B60R2021/01252Devices other than bags
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • B60W2710/207Steering angle of wheels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details

Definitions

  • This technology relates to an apparatus, a method, and a program for reducing the damage of a collision accident that occurs, for example, when driving a car.
  • the present technology can be applied not only to automobiles but also to various mobile devices such as ships and autonomous traveling robots, and also to various technical fields such as simulation devices and games thereof.
  • Patent Document 1 discloses a technique for controlling a vehicle to collide with a place where there is no occupant of the own vehicle or where the parts are strong when another vehicle collides with the own vehicle when a collision is unavoidable.
  • Patent Document 2 discloses a technique for causing a collision object to collide at the place of the own vehicle with little impact.
  • Patent Document 3 discloses a technique for controlling the traveling of the host vehicle so that the collision site of the other vehicle to be collided is removed from the cabin when the collision is unavoidable.
  • Patent Documents 1 and 2 are for minimizing the damage of the own vehicle, and do not disclose the technique for minimizing the damage of the other vehicle as the opponent.
  • the technique disclosed in Patent Document 3 merely avoids a collision with the cabin portion of the opponent vehicle, and does not actually determine whether there is a passenger.
  • Patent Documents 1 to 3 do not disclose any technique for varying the control depending on an object when there are a plurality of collision objects other than the vehicle.
  • an object of the present technology is to provide a damage reduction apparatus, a damage reduction method, and a program that can reduce human damage.
  • a damage reduction device includes an input unit, a prediction unit, a recognition unit, and a determination unit.
  • the input unit inputs status data relating to the status of the mobile device in the moving direction.
  • the prediction unit predicts a collision with an object in the moving direction based on the situation data.
  • the recognition unit recognizes whether or not a person is included in the object.
  • the determination unit is configured to avoid the collision with the person based on the situation data. Determine the steering direction.
  • the damage reduction device can avoid a collision with the person based on the situation data when it is recognized that the object contains a person under a situation where a collision with the object is predicted. Determine the steering direction of the mobile device. As a result, movement control of the mobile device with the highest priority given to avoiding a collision with the person can be performed.
  • the determination unit may be configured to determine a collision mode of the mobile device with respect to the object based on the type of the object when a collision with an object other than the person is predicted to be unavoidable. Good. Thereby, it is possible to appropriately reduce human damage according to the type of collision target.
  • the determination unit determines a target collision site of the target object that the mobile device should collide with, and the target object is an unmanned structure. If recognized, it may be configured to determine a target collision site of the mobile device that collides with the object. As a result, when the object is a manned mobile body, damage to the crew of the manned mobile body can be reduced, and when the object is recognized as an unmanned structure, the crew of the mobile device Can be reduced.
  • the situation data may include object occupant data relating to the boarding position of the occupant in the manned moving body.
  • the determination unit determines a target collision site of the manned moving body based on the object occupant data. Thereby, reduction of the damage of the passenger
  • the damage reduction apparatus may further include an object occupant estimation unit that estimates a boarding position of an occupant of the manned moving body based on the object occupant data.
  • the said determination part determines the non-boarding position of the passenger
  • the input unit may be configured to further input mobile occupant data related to a boarding position of the occupant of the mobile device.
  • the damage reduction device further includes an occupant grasping unit that grasps the boarding position of the occupant of the mobile device based on the mobile occupant data, and the determination unit includes the situation data and the mobile occupant data. Based on the above, a target collision site of the mobile device that collides with the object is further determined. Thereby, it becomes possible to reduce the damage of the passenger
  • the determination unit may determine the non-boarding position of the occupant of the mobile device or the vicinity thereof as the target collision site of the mobile device. As a result, it is possible to minimize the damage to the passengers due to the collision.
  • the damage reduction apparatus further includes an output unit that outputs control data for moving the mobile device in the steering direction determined by the determination unit to a control unit that controls a movement operation of the mobile device. May be.
  • the damage reduction device may be mounted on a mobile device that includes at least a distance sensor for the moving direction and a front camera.
  • the input unit inputs data from the distance sensor and the front camera as the situation data.
  • a damage reduction method includes inputting situation data regarding a situation in a moving direction of a mobile device.
  • a collision with the object in the moving direction is predicted based on the situation data. It is recognized whether or not a person is included in the object.
  • a steering direction of the mobile device capable of avoiding the collision with the person is determined based on the situation data.
  • a program includes a step of inputting situation data related to a situation in a moving direction of a mobile device to a computer, a step of predicting a collision with an object in the moving direction based on the situation data, The step of recognizing whether or not a person is included in the object and a collision with the object are predicted, and when it is recognized that a person is included in the object, based on the situation data, Determining a steering direction of the mobile device capable of avoiding a collision.
  • FIG. 1 is an external view illustrating a configuration of an automobile as an example of a mobile device on which a damage reduction device according to an embodiment of the present technology is mounted. It is a block diagram which shows the structure of the said motor vehicle. It is a block diagram which shows the structure of the said damage reduction apparatus. It is a flowchart explaining one effect
  • the technology disclosed in this specification is based on a situation in which a collision with an object such as another manned moving body, a person, or a structure existing in the moving direction of the moving body device is unavoidable while the moving body device is traveling.
  • the purpose is to minimize the damage caused by collision, especially human damage.
  • the moving body device is typically a vehicle such as an automobile (own vehicle).
  • the other manned moving body is also a counterpart vehicle (other vehicle) that collides with the own vehicle. is there.
  • the above-mentioned person typically corresponds to a passerby such as a pedestrian, and also includes a passenger of the own vehicle or another vehicle.
  • the above structures are road poles, traffic lights, street trees, walls, guardrails, and other road installations installed on roads, etc. included.
  • the collision target (object) will be described mainly using a vehicle, a structure, or a person as an example, but it goes without saying that the present technology is not limited to these embodiments.
  • FIG. 1 is an external view illustrating a configuration of an automobile as an example of a mobile device on which a damage reduction device according to an embodiment of the present technology is mounted.
  • FIG. 2 is a block diagram thereof.
  • an automobile 100 (hereinafter also referred to as a host vehicle) includes a distance sensor 110 with respect to a moving direction, a front camera 120, and an in-vehicle shooting camera 130 for shooting an occupant situation in the vehicle.
  • the automobile 100 includes a steering device 140, a braking device 150, a vehicle body acceleration device 160, a steering angle sensor 141, a wheel speed sensor 151, a brake switch 152, an accelerator sensor 161,
  • the control unit 10 and the damage reduction device 1 are included.
  • the distance sensor 110 is installed, for example, in the approximate center of the front part of the automobile 100 and outputs data related to the distance between the automobile 100 and an object existing in the moving direction to the control unit 10. As will be described later, the output of the distance sensor 110 is referred to when calculating a relative distance, a relative speed, or a relative acceleration with respect to an object (a vehicle, a pedestrian, a structure, etc.) existing in front of the host vehicle.
  • the distance sensor 110 is composed of various sensors using, for example, a millimeter wave radar or an infrared laser.
  • the front camera 120 is installed, for example, in the cabin or roof portion of the automobile 100, and photographs the front view of the automobile 100 at a predetermined frame rate. Image data photographed by the front camera 120 is output to the control unit 10 and, as will be described later, determination of the type of an object (vehicle, pedestrian, structure, etc.) existing in front of the own vehicle, and passengers in the vehicle And the relative position between the object and the vehicle.
  • the front camera 120 is configured by an image sensor such as a CMOS or a CCD, for example.
  • the in-vehicle shooting camera 130 is installed in the cabin of the automobile 100 and images the inside of the cabin at a predetermined frame rate.
  • the image data captured by the in-vehicle camera 130 is output to the control unit 10 and is referred to in determining the presence / absence of the occupant and the boarding position, as will be described later.
  • the front camera 120 is configured by an image sensor such as a CMOS or a CCD, for example.
  • the distance sensor 110, the front camera 120, and the in-vehicle camera 130 are configured to be supplied to the damage reduction apparatus 1 instead of the configuration in which their outputs are supplied to the control unit 10 as shown in FIG. May be.
  • Steering device 140 is typically composed of a power steering device, and transmits the steering operation of the driver to the steering wheel.
  • the braking device 150 includes a brake operating device attached to each wheel and a hydraulic circuit that operates the brake operating device, and transmits the depressing operation force of the brake pedal to the brake operating device via the hydraulic circuit.
  • the braking device 150 typically has an ABS control function for preventing wheel lock (slip) and a traction control function for preventing drive slip of the drive wheels.
  • the vehicle body acceleration device 160 includes a throttle valve, a fuel injection device, and the like, and controls the rotational acceleration of the drive wheels.
  • the control unit 10 controls the steering device 140, the braking device 150, and the vehicle body acceleration device 160. That is, the control unit 10 detects the steering amount and the steering direction based on the output of the steering angle sensor 141 that detects the driver's steering operation, and controls the steering device 140. Further, the control unit 10 calculates the vehicle body speed of the vehicle based on the output of the wheel speed sensor 151 installed on all or some of the wheels, and brakes so as to prevent the wheels from being locked (slip). 150 is controlled.
  • the brake switch 152 is for detecting a driver's brake operation (depressing the brake pedal), and is referred to during ABS control or the like. Further, the control unit 10 controls the vehicle body acceleration device 160 based on the output of the accelerator sensor 161 that detects the driver's accelerator pedal operation amount.
  • the control unit 10 may control the steering device 140, the braking device 150, and the vehicle body acceleration device 160 individually, and may coordinately control a plurality of them. As a result, the vehicle 100 can be controlled to a desired posture during turning, braking, acceleration, and the like.
  • control unit 10 is configured to be able to control the steering device 140, the braking device 150, and the vehicle body acceleration device 160 irrespective of the various operations of the driver described above.
  • the automobile 100 may have an automatic driving function.
  • the control unit 10 mainly controls each device based on the output of each sensor or camera.
  • the control unit 10 is configured to be able to control at least one of the above devices based on an output of a damage reduction device 1 described later.
  • the control unit 10 may be a collection of ECUs that individually control the steering device 140, the braking device 150, and the vehicle body acceleration device 160, or may be a single controller that comprehensively controls these devices. May be. Further, the steering device 140, the braking device 150, and the vehicle body acceleration device 160 may individually include the ECU. In this case, the control unit 10 is configured to individually output a control signal to the ECU of each device.
  • the damage reduction device 1 performs damage reduction actions described later in an emergency where there is a high possibility of a collision, and reduces damage to the passengers of the opponent vehicle, the passengers of the own vehicle (the automobile 100), and the like.
  • the collision target include a vehicle, a person, a road installation, and the like.
  • the collision target is a vehicle, typically an oncoming vehicle or a preceding vehicle that runs in front of the automobile 100, or the automobile 100.
  • a description will be given by taking as an example a vehicle that stops in front (hereinafter collectively referred to as a target vehicle).
  • FIG. 3 is a block diagram showing the configuration of the damage reduction apparatus 1.
  • the damage reduction apparatus 1 includes an input unit 11, a prediction unit 12, an object recognition unit 13, an occupant estimation unit 14, an occupant grasping unit 15, a determination unit 16, and an output unit 17.
  • the input unit 11 inputs situation data regarding the situation of the moving direction (traveling direction) of the automobile 100.
  • the situation data is data related to an object (a structure such as a vehicle, a person, or a road installation) located in front of the automobile 100, for example.
  • the situation data includes travel data related to the travel state of the target vehicle approaching the automobile 100 (target vehicle travel data), occupant data regarding the boarding position of the occupant of the target vehicle (target vehicle occupant data), and the like.
  • the travel data and occupant data of the target vehicle correspond to output data of the distance sensor 110 and imaging data of the front camera 120 input via the control unit 10.
  • the input unit 11 further inputs occupant data (own vehicle occupant data) related to the boarding position of the occupant of the automobile 100.
  • the own vehicle occupant data corresponds to shooting data of the in-vehicle shooting camera 130 input via the control unit 10.
  • the input unit 11 can also input various data related to the running state of the automobile 100, for example, output of various sensors such as the steering angle sensor 141 and the wheel speed sensor 151, control information for the braking device and the like in the control unit 10, and the like. It is configured.
  • the prediction unit 12 is configured to be able to predict a collision between the automobile 100 and the target vehicle and a collision site based on the target vehicle travel data.
  • the prediction unit 12 includes a relative speed calculation unit 121 that calculates a relative distance, a relative speed, and the like between the automobile 100 and the target vehicle from the output data of the distance sensor 110.
  • the prediction unit 12 determines whether or not the automobile 100 and the target vehicle may collide with each other based on the current traveling state of the automobile 100 and the target vehicle.
  • the prediction unit 12 compares the traveling state of the host vehicle (the automobile 100) with the traveling state of the target vehicle based on the target vehicle traveling data, and the possibility of a collision from the intersection of the traveling trajectories of both vehicles. And the collision position, and also the collision site of the host vehicle and the opponent vehicle are estimated.
  • the travel locus of the host vehicle is referred to the vehicle speed and the steering angle calculated based on the outputs of the wheel speed sensor 151 and the steering angle sensor 141, and the travel locus of the target vehicle is calculated based on the output of the distance sensor 110.
  • the relative position and relative speed of the target vehicle with respect to the vehicle are referred to.
  • the prediction unit 12 may be configured to predict a collision between the host vehicle and the target vehicle with reference to the image data of the front camera 120 as well. In this case, by analyzing the captured image of the front camera 120, it is possible to accurately predict the course and the collision site of the target vehicle. Prediction data generated in the prediction unit 12 is output to the determination unit 16.
  • the object recognition unit 13 is configured to be able to recognize the type of object that the automobile 100 collides with.
  • the object recognition unit 13 classifies the object into three types of structures such as a vehicle, a person, and a road installation, but of course the present invention is not limited thereto.
  • a recognition method various person recognition techniques, vehicle recognition techniques, and the like can be used.
  • the object recognition unit 13 recognizes whether or not a person is included in the object. For example, when the object is a vehicle, the presence or absence of an occupant of the vehicle is recognized. In this case, the target recognition unit 13 analyzes the image data (target vehicle occupant data) output from the front camera 120 and detects the presence or absence of the occupant of the target vehicle. The recognition data generated by the object recognition unit 13 is output to the determination unit 16.
  • the occupant estimation unit 14 estimates the boarding position of the occupant of the target vehicle based on the target vehicle occupant data. In the present embodiment, the occupant estimation unit 14 estimates the boarding position of the occupant of the target vehicle based on the output of the target recognition unit 13. The occupant estimation unit 14 estimates the presence / absence of a person in the driver's seat, front passenger seat, or rear seat of the target vehicle from the analysis result inside the target vehicle photographed by the front camera 120 and recognized as a person by the target recognition unit 13. To do. The estimation data generated in the occupant estimation unit 14 is output to the determination unit 16.
  • the target vehicle when traveling, the presence / absence of a passenger in a seat other than the driver's seat is estimated. If it cannot be determined whether there is a passenger in the passenger seat or the rear seat, it may be estimated that there is a passenger. On the other hand, when the target vehicle is stopped, the presence / absence of passengers in all seats including the driver's seat is estimated. Note that whether the target vehicle is running or stopped is determined based on the outputs of the distance sensor 110 and the front camera 120.
  • the occupant grasping unit 15 grasps the boarding position of the occupant of the automobile 100 based on the image data (own vehicle occupant data) output from the in-vehicle shooting camera 130.
  • the occupant grasping unit 15 grasps the presence or absence of an occupant other than the driver in the vehicle 100 and, if there is an occupant, the position of the occupant.
  • the grasp data generated in the occupant grasping unit 15 is output to the determining unit 16.
  • Various methods can be adopted as the occupant grasping technology, and typically a human recognition technology is used. In addition to this, matching with an unmanned in-vehicle image is performed to estimate the presence or absence of a person. Technology may be employed.
  • the determination unit 16 determines the target vehicle according to the boarding position of the occupant of the target vehicle.
  • the collision mode of the automobile 100 (in this example, the target collision site of the target vehicle with which the automobile 100 should collide) is determined. The purpose is to cause the automobile 100 to collide with a target vehicle that is the opponent and a site where the human damage of the automobile 100 can be reduced.
  • the determination unit 16 is configured to determine the non-boarding position of the occupant of the target vehicle or the vicinity thereof as the target collision site of the target vehicle. That is, when it is recognized that a person is included in the target vehicle, the collision target position is determined at a part other than the boarding position of the occupant of the target vehicle. This makes it possible to minimize the damage to the other party caused by the collision.
  • the determination unit 16 determines whether the target collision site of the target vehicle.
  • the determining unit 16 The center of the front part is determined as the target collision site of the target vehicle. Thereby, it becomes possible to reduce the damage of each other passenger
  • the target collision site of the target vehicle to which the automobile 100 should collide is determined based on the target vehicle occupant data, thus reducing human damage to the target vehicle that is the opponent. It is possible to cause the automobile 100 to collide with a part that can be used.
  • the determination unit 16 refers to not only the target vehicle but also the boarding position of the occupant of the automobile 100 (the output of the occupant grasping unit 15), and determines the target collision site of the automobile 100 that collides with the target collision site of the target vehicle. It may be configured to determine. Thereby, it is possible to reduce not only the damage of the occupant of the target vehicle to be collided but also the damage of the occupant of the automobile 100 that collides.
  • the determination unit 16 determines the non-boarding position of the occupant of the automobile 100 or the vicinity thereof as the target collision site of the automobile 100. As a result, it is possible to minimize damage to not only the opponent but also the passenger of the own vehicle due to the collision.
  • the determining unit 16 determines the center of the front portion of the automobile 100 as the target collision site of the automobile 100. As a result, it is possible to reduce damage to passengers of the own vehicle.
  • the determination unit 16 generates control data for executing an automatic brake function for operating the braking device of the automobile 100 when a collision with the target vehicle is predicted. Then, when the collision with the target vehicle is predicted to be unavoidable, the determination unit 16 steers the automobile 100 so that the collision target part of the automobile 100 can collide with the target collision part of the target vehicle. Generate control data that determines the direction.
  • the output unit 17 is configured to output control data for moving the automobile 100 toward the target collision site of the target vehicle determined by the determination unit 16 to the control unit 10 that controls the movement operation of the automobile 100.
  • the damage reducing apparatus 1 configured as described above has hardware necessary for a computer such as a CPU, a RAM, and a ROM.
  • the CPU loads the program according to the present technology recorded in advance in the ROM to the RAM and executes the program, thereby executing the damage reduction method according to the present technology.
  • the specific configuration of the damage reduction apparatus 1 is not limited, and for example, a device such as PLD (Programmable Logic Device) such as FPGA (Field Programmable Gate Array), or other ASIC (Application Specific Integrated Circuit) may be used.
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • FIG. 4 is a flowchart illustrating a control flow of the determination unit 16 in the damage reduction apparatus 1
  • FIGS. 5 and 6 are explanatory diagrams of an example of movement control of the automobile 100.
  • FIG. 5A a case is considered in which an automobile 100 linearly moving forward in the left direction in the drawing and an oncoming vehicle 200 as a target vehicle moving linearly in the right direction in the drawing approach.
  • the damage reduction apparatus 1 first determines whether or not the automobile 100 may collide with the oncoming vehicle 200 (step 101). This determination is executed based on the output of the prediction unit 12 and, when there is a possibility of collision, it is determined whether or not the collision can be avoided by steering and braking (step 102).
  • the collision avoidance operation is executed (step 103). This operation does not require a driver's operation and causes the control unit 10 to directly output a control command to the steering device 140 and the braking device 150. For example, image data from the front camera 120 is referred to in determining the steering direction (avoidance direction).
  • the determination unit 16 determines whether or not there is a passenger in the passenger seat of either the automobile 100 (own vehicle) or the oncoming vehicle 200 (step 104). In this step, the outputs of the occupant estimation unit 14 and the occupant determination unit 15 are referred to.
  • the determination unit 16 determines that the front passenger seat side front portion of the own vehicle and the front passenger seat side front portion of the oncoming vehicle 200 are The target collision position is determined. Then, the determination unit 16 turns the vehicle 100 to the right while applying the brake so that the front passenger seat side front portion of the oncoming vehicle 200 collides with the front passenger seat front portion of the oncoming vehicle 200 in the collision mode shown in FIG. 5B. Then, control data relating to the steering and braking of the host vehicle is output to the control unit 10 (step 105). In addition, when the driving operation by the driving vehicle of the own vehicle is performed during the above-described steering control, the steering control by the control unit 10 is given priority.
  • the determining unit 16 determines the center of the front portion of the own vehicle and the center of the front portion of the oncoming vehicle 200 as the target collision site. To do. Then, the determination unit 16 moves the automobile 100 straight while applying the brake, and provides control data related to steering and braking of the host vehicle so that the oncoming vehicle 200 and the host vehicle collide head-on in the collision mode shown in FIG. It outputs to the control part 10 (step 106). In addition, when the driving operation by the driving vehicle of the own vehicle is performed during the above-described steering control, the steering control by the control unit 10 is given priority.
  • the positions of the occupants of the automobile 100 and the oncoming vehicle 200 are referred to, so that the collision between the automobile 100 and the oncoming vehicle 200 occurs.
  • the site is determined. As a result, it is possible to minimize the damage not only to the subject vehicle but also to the passenger of the opponent vehicle.
  • the target vehicle is a preceding vehicle or a stopped vehicle
  • the non-boarding position of the occupant of the target vehicle is determined as the target collision site of the target vehicle.
  • an example in which an object that may collide with the automobile 100 includes not only the vehicle 210 but also road installations such as a pedestrian 220 and a power pole 230. explain.
  • the damage reduction device 1 according to the present embodiment and the automobile 100 including the same have the same configuration as that of the first embodiment.
  • the configuration different from the first embodiment will be mainly described, and the same configuration as the first embodiment will be denoted by the same reference numeral, and the description thereof will be omitted or simplified.
  • the damage reduction device 1 of the present embodiment includes an input unit 11, a prediction unit 12, a target recognition unit 13, and a determination unit 16 (see FIG. 3).
  • the input unit 11 inputs situation data regarding the situation of the moving direction (traveling direction) of the automobile 100.
  • the situation data is data relating to an object (vehicle 210, pedestrian 220, utility pole 230) located in front of the automobile 100, for example.
  • the recognition target unit 13 is configured to be able to recognize the type of an object with which the automobile 100 collides based on the situation data.
  • the object is a car (vehicle 210), a person (pedestrian 220), or an unmanned structure. It is classified into three types of objects (for example, road installations such as a power pole 230).
  • the determination unit 16 can steer the automobile 100 that can avoid the collision with the person based on the situation data. Determine the direction. That is, when the pedestrian 220 is included in the target object, avoiding a collision with the pedestrian 220 is a control target with the highest priority.
  • the determination unit 16 is configured to determine a collision mode of the automobile 100 with respect to the object based on the type of the object when the collision with the object is predicted to be unavoidable. That is, the damage reduction device 1 of the present embodiment is configured to vary the mode of collision with respect to an object depending on whether the object is a vehicle 210, a pedestrian 220, or a road installation such as a utility pole 230. .
  • the determination unit 16 determines the target collision site of the vehicle 210 (target vehicle) by the same method as in the first embodiment described above. At this time, referring to the boarding position of the occupant of the own vehicle, a target collision site that can reduce damage to the occupant of both the opponent vehicle and the own vehicle is determined.
  • the determination unit 16 determines a relatively stiff part of the automobile 100, for example, a pillar part, as a target collision part of the automobile 100. . Thereby, it becomes possible to suppress the damage of the passenger
  • a portion of the automobile 100 having a high shock buffering property in order to minimize damage to the pedestrian Is determined as the collision target position.
  • the portion having a high impact buffering property include a portion having a relatively low rigidity such as a bonnet or a windshield, or a portion where an impact buffering device such as a pedestrian airbag is installed.
  • FIG. 8 is a flowchart showing a control example of the damage reduction apparatus 1 in the present embodiment.
  • the damage reduction apparatus 1 first determines whether or not the automobile 100 may collide with these objects (step 201). This determination is performed based on the output of the prediction unit 12 and, when there is a possibility of collision, it is determined whether or not the collision can be avoided by steering and braking (step 202).
  • the collision avoidance operation is executed (step 203). This operation does not require a driver's operation and causes the control unit 10 to directly output a control command to the steering device 140 and the braking device 150. For example, image data from the front camera 120 is referred to in determining the steering direction (avoidance direction).
  • the damage reduction apparatus 1 determines whether or not a person is included in the object (step 204), and If a person is included, it is determined whether there is an object other than a person (step 205).
  • the pedestrian 220 is included in the object, but since the vehicle 210 and the utility pole 230 exist as objects other than the pedestrian 220, the damage reduction device 1 causes the automobile 100 to collide with objects other than these persons.
  • the steering direction is controlled as follows.
  • the damage reduction device 1 determines the steering direction of the automobile 100 so that damage to the vehicle 210 and the automobile 100 is minimized (step). 206, 207). Since such control is the same as that of the above-mentioned first embodiment, description thereof is omitted here.
  • the vehicle 210 When the vehicle 210 is recognized as an unmanned stopped vehicle, the vehicle 210 is regarded as an unmanned structure, and the steering control similar to that when the object is the utility pole 230 is executed as will be described later. Good.
  • the damage reduction apparatus 1 causes the steering direction of the automobile 100 to minimize damage to the automobile 100. Are determined (steps 206 and 208).
  • the damage reduction device 1 determines whether the steering direction of the automobile 100 is controlled to turn right, turn left, or go straight. At this time, the damage reduction device 1 refers to the boarding position of the occupant of the automobile 100 and, when there is no occupant in the passenger seat, determines the pillar part on the passenger seat side of the automobile 100 as the target collision part. Then, the damage reduction device 1 turns the vehicle 100 to the right while applying braking, and system data relating to steering and braking of the vehicle 100 such that the pillar portion collides with the utility pole 230 in the collision mode shown in FIG. 9B. Is output to the control unit 10 (step 208). In addition, when the driving operation by the driving vehicle of the own vehicle is performed during the above-described steering control, the steering control by the control unit 10 is given priority.
  • the damage reduction apparatus 1 determines the steering direction of the automobile 100 so that the damage to the pedestrian is minimized (step 209).
  • the damage reduction apparatus 1 determines whether the steering direction of the automobile 100 is controlled to turn right, turn left, or go straight. At this time, the damage reducing apparatus 1 determines a portion having the highest impact buffering effect of the automobile 100 (a relatively soft portion such as a bonnet or a windshield or a portion where the pedestrian airbag 170 operates) as a target collision portion. Then, the damage reduction device 1 turns the automobile 100 to the right while applying braking, and relates to steering and braking of the automobile 100 so that the front of the automobile 100 collides with the pedestrian 220 in the collision mode shown in FIG. 10B. The system data is output to the control unit 10 (step 209). In addition, when the driving operation by the driving vehicle of the own vehicle is performed during the above-described steering control, the steering control by the control unit 10 is given priority.
  • the collision mode is changed according to the type of the object, so that not only the own vehicle but also other vehicles and It is possible to minimize damage appropriately or comprehensively including pedestrians.
  • the case has been described in which the opponent vehicle predicted to be inevitable is the oncoming vehicle 200.
  • the present invention is not limited to this.
  • a right-straight accident at a crossing And in the event of a clash, this technology is also effective.
  • FIG. 11 shows an example of collision control between the automobile 100 and the right turn car 201 that go straight.
  • the damage reduction device 1 The left rear portion of 201 is determined as the target collision site, and steering control for turning the vehicle 100 to the right is executed.
  • FIG. 12 shows an example of collision control between the automobile 100 going straight and the passing vehicle 202 crossing in front of it.
  • the damage reduction device 1 when there is an occupant in the passenger seat of the passing vehicle 202 and the automobile 100 is predicted to collide with the passenger seat side of the passing vehicle 202 when the vehicle 100 collides linearly, the damage reduction device 1 Then, the left rear portion of the passing vehicle 202 is determined as a target collision site, and steering control for turning the automobile 100 to the right is executed.
  • the present technology is also effective for vehicles that cannot avoid collision with the host vehicle, such as merging vehicles and vehicles that jump out of the alleys.
  • the mobile device is described by taking an automobile as an example.
  • the present technology can also be applied to a boat or an autonomous robot that travels on the water.
  • this technique can also take the following structures.
  • a prediction unit that predicts a collision with the manned moving body based on the object travel data;
  • An occupant estimation unit that estimates a boarding position of the occupant of the manned moving body based on the object occupant data;
  • a determination unit that determines a target collision site of the manned moving body to which the moving body device should collide based on a boarding position of an occupant of the manned moving body when a collision with the manned moving body is predicted to be inevitable; Damage reduction equipment.
  • the damage reducing device according to (1) above determines the non-boarding position of the passenger
  • the determining unit is configured to move the manned moving body.
  • a damage reduction device that determines a center of a front part of a body as a target collision site of the manned moving body.
  • the input unit further inputs mobile occupant data related to the boarding position of the occupant of the mobile device
  • the damage reduction device further comprises an occupant grasping unit that grasps a boarding position of the occupant of the mobile device based on the mobile occupant data
  • the determination unit further determines a target collision site of the mobile device that collides with a target collision site of the manned mobile body based on the object travel data, the object occupant data, and the mobile occupant data.
  • Reduction device (6)
  • the determination unit determines a center of a front portion of the mobile device as a target collision site of the mobile device when the boarding position of the occupant of the mobile device is recognized as a driver's seat and a seat next thereto.
  • Reduction device (8) The damage reducing device according to any one of (1) to (7) above, An output unit that outputs control data for moving the mobile device toward a target collision site of the manned mobile body determined by the determination unit to a control unit that controls a movement operation of the mobile device; Damage reduction device provided.
  • the damage reducing device is mounted at least on a mobile device equipped with a distance sensor for a moving direction and a front camera, The damage reduction device, wherein the input unit inputs data from the distance sensor and the front camera as the object travel data and the object occupant data.
  • this technique can also take the following structures. (12) an input unit for inputting situation data relating to the situation of the moving direction of the mobile device; A prediction unit that predicts a collision with the object in the moving direction based on the situation data; A recognition unit for recognizing the type of the object; A damage reduction device comprising: a determination unit that determines a collision mode of the mobile device with respect to the object based on the type of the object when a collision with the object is predicted to be unavoidable.
  • the damage reduction device (13) The damage reduction device according to (12) above,
  • the recognition unit recognizes whether the object is a manned moving body, an unmanned structure, or a person, When the determination unit recognizes that the target object is a manned mobile body, the determination unit determines a target collision site of the target object to which the mobile device should collide, and the target object is an unmanned structure or person.
  • a damage reduction device that determines a target collision site of the mobile device that collides with the object when it is recognized.
  • the damage reducing device according to (13) above,
  • the situation data includes object occupant data relating to a boarding position of the occupant in the manned moving body,
  • the damage reduction device that determines a target collision site of the manned moving object based on the object occupant data when the determining unit is recognized as the manned moving object.
  • An object occupant estimation unit for estimating a boarding position of the occupant of the manned moving body based on the object occupant data;
  • the said determination part determines the non-boarding position of the passenger
  • the damage reducing device according to any one of (13) to (17) above,
  • the input unit further inputs mobile occupant data related to the boarding position of the occupant of the mobile device
  • the damage reduction device further comprises an occupant grasping unit that grasps a boarding position of the occupant of the mobile device based on the mobile occupant data
  • the said determination part further determines the target collision site
  • the damage reducing device determines a non-boarding position of an occupant of the mobile device or a vicinity thereof as a target collision site of the mobile device.
  • the damage reducing device according to any one of (12) to (19) above, An output unit that outputs control data for moving the mobile device to the object in a collision mode determined by the determination unit to a control unit that controls a movement operation of the mobile device.
  • Reduction device (21) The damage reduction device according to any one of (12) to (20) above, The damage reduction device is mounted at least on a mobile device equipped with a distance sensor for a moving direction and a front camera, The damage reduction device, wherein the input unit inputs data from the distance sensor and the front camera as the situation data.
  • the damage reducing method includes: determining a collision mode of the mobile device with respect to the target object based on the type of the target object.
  • (23) In the computer Inputting status data relating to the status of the mobile device in the direction of movement; Predicting a collision with an object in the direction of movement based on the situation data; Recognizing the type of the object; And a step of determining a collision mode of the mobile device with respect to the object based on a type of the object when a collision with the object is predicted to be unavoidable.
  • this technique can also take the following structures.
  • An input unit for inputting situation data relating to the situation of the moving direction of the mobile device;
  • a prediction unit that predicts a collision with the object in the moving direction based on the situation data;
  • a recognition unit for recognizing whether or not a person is included in the object;
  • a steering direction of the mobile device capable of avoiding the collision with the person is determined based on the situation data.
  • Damage reduction device comprising a determination unit.
  • the damage reducing device determines the aspect of the collision of the said mobile body apparatus with respect to the said object based on the kind of said object, when the collision with the objects other than the said person is unavoidable Damage reduction apparatus.
  • the damage reducing device determines a target collision site of the target object to which the mobile device should collide, and the target object is an unmanned structure
  • a damage reducing device that, when recognized, determines a target collision site of the mobile device that collides with the object.
  • the damage reduction device according to (26) above,
  • the situation data includes object occupant data relating to a boarding position of the occupant in the manned moving body,
  • the damage reduction device that determines a target collision site of the manned moving object based on the object occupant data when the determining unit is recognized as the manned moving object.
  • the damage reducing device according to (27), wherein An object occupant estimation unit for estimating a boarding position of the occupant of the manned moving body based on the object occupant data;
  • the said determination part determines the non-boarding position of the passenger
  • the damage reduction device according to any one of (25) to (28) above,
  • the input unit further inputs mobile occupant data related to the boarding position of the occupant of the mobile device
  • the damage reduction device further comprises an occupant grasping unit that grasps a boarding position of the occupant of the mobile device based on the mobile occupant data
  • the said determination part further determines the target collision site
  • the damage reducing device according to any one of (24) to (30) above, The damage reduction device further comprising: an output unit that outputs control data for moving the mobile device in the steering direction determined by the determination unit to a control unit that controls a movement operation of the mobile device.
  • the damage reduction device is mounted at least on a mobile device equipped with a distance sensor for a moving direction and a front camera, The damage reduction device, wherein the input unit inputs data from the distance sensor and the front camera as the situation data.
  • (33) Enter situation data regarding the situation of the moving direction of the mobile device, Predicting a collision with an object in the direction of movement based on the situation data; Recognizing whether the object includes a person, When a collision with the object is predicted and it is recognized that a person is included in the object, a steering direction of the mobile device capable of avoiding the collision with the person is determined based on the situation data. Damage reduction method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)

Abstract

本技術の一形態に係る被害低減装置は、入力部と、予測部と、認識部と、決定部とを具備する。上記入力部は、移動体装置の移動方向の状況に関する状況データを入力する。上記予測部は、上記状況データに基づき上記移動方向の対象物との衝突を予測する。上記認識部は、上記対象物に人が含まれるか否かを認識する。上記決定部は、上記対象物との衝突が予測され、上記対象物に人が含まれると認識された場合、上記状況データに基づき上記人との衝突を回避することができる上記移動体装置の操舵方向を決定する。

Description

被害低減装置、被害低減方法およびプログラム
 本技術は、例えば自動車の運転の際に生じる衝突事故の被害を低減する装置、方法及びプログラムに関する。本技術は、自動車ばかりでなく、船舶や自律走行ロボットなど様々な移動体装置に適用可能であり、またそれらのシミュレーション装置やゲームなど様々な技術分野にも適用可能である。
 近年、自動でブレーキをかける自動緊急ブレーキや、自動で衝突の回避を行う自動回避技術が開発されている。また、自動緊急ブレーキで対象物の衝突を防げない場合、衝突被害軽減ブレーキや衝突回避システムなどで、自車、歩行者、周辺環境への被害を最小限に留めようとする技術も知られている。
 例えば特許文献1には、衝突不可避のとき、他車が自車に衝突する場合、自車の乗員がいない場所あるいは部品強度の強い場所に衝突するよう車を制御する技術が開示されている。また特許文献2には、衝突対象へ衝撃が少ない自車の場所で衝突させる技術が開示されている。さらに特許文献3には、衝突不可避のとき、衝突される他車の衝突部位がキャビンから外れるように自車の走行を制御する技術が開示されている。
特開2015-041222号公報 特開2005-254923号公報 特開2008-037313号公報
 しかしながら、特許文献1,2に開示の技術では、自車の被害を最小にするためのものであり、相手方である他車の被害をも最小にするための技術は開示されていない。一方、特許文献3に開示の技術は、相手車両のキャビンの部分への衝突を避けるだけのものであり、実際そこに乗員がいるかどうかまでを判定するものではない。さらに特許文献1~3には、衝突対象が車両以外に複数ある場合に、その対象物に応じて制御を異ならせる技術については何も開示されていない。
 以上のような事情に鑑み、本技術の目的は、人的被害の低減を図ることができる被害低減装置、被害低減方法及びプログラムを提供することにある。
 本技術の一形態に係る被害低減装置は、入力部と、予測部と、認識部と、決定部とを具備する。
 上記入力部は、移動体装置の移動方向の状況に関する状況データを入力する。
 上記予測部は、上記状況データに基づき上記移動方向の対象物との衝突を予測する。
 上記認識部は、上記対象物に人が含まれるか否かを認識する。
 上記決定部は、上記対象物との衝突が予測され、上記対象物に人が含まれると認識された場合、上記状況データに基づき上記人との衝突を回避することができる上記移動体装置の操舵方向を決定する。
 上記被害低減装置は、対象物との衝突が予測される状況下において、上記対象物に人が含まれると認識された場合、上記状況データに基づき上記人との衝突を回避することができる上記移動体装置の操舵方向を決定する。これにより、上記人との衝突回避を最優先とした移動体装置の移動制御が可能となる。
 上記決定部は、上記人以外の対象物との衝突が不可避と予測される場合、上記対象物の種類に基づき上記対象物に対する上記移動体装置の衝突の態様を決定するように構成されてもよい。
 これにより、衝突対象の種類に応じて適切に人的被害の低減を図ることができる。
 上記決定部は、上記対象物が有人移動体であると認識された場合、上記移動体装置が衝突すべき上記対象物の目標衝突部位を決定し、前記対象物が無人の構造物であると認識された場合、前記対象物に衝突する前記移動体装置の目標衝突部位を決定するように構成されてもよい。
 これにより、対象物が有人移動体である場合は、有人移動体の乗員の被害の低減を図ることができ、対象物が無人の構造物であると認識された場合は、移動体装置の乗員の被害の低減を図ることができる。
 上記状況データは、上記有人移動体における乗員の搭乗位置に関する対象物乗員データを含んでもよい。この場合、上記決定部は、上記対象物が有人移動体であると認識された場合、上記対象物乗員データに基づき上記有人移動体の目標衝突部位を決定する。
 これにより、有人移動体の乗員の被害の低減を図ることができる。
 上記被害低減装置は、上記対象物乗員データに基づき上記有人移動体の乗員の搭乗位置を推定する対象物乗員推定部をさらに具備してもよい。この場合、上記決定部は、上記有人移動体の乗員の非搭乗位置又はその近傍を上記有人移動体の目標衝突部位として決定する。
 これにより、衝突による相手方の人的被害を最小限に抑えることが可能となる。
 上記入力部は、上記移動体装置の乗員の搭乗位置に関する移動体乗員データをさらに入力するように構成されてもよい。この場合、上記被害低減装置は、上記移動体乗員データに基づき上記移動体装置の乗員の搭乗位置を把握する乗員把握部をさらに具備し、上記決定部は、上記状況データと上記移動体乗員データとに基づき、上記対象物に衝突する上記移動体装置の目標衝突部位をさらに決定する。
 これにより、移動体装置の乗員の被害を低減することが可能となる。
 この場合、上記決定部は、上記移動体装置の乗員の非搭乗位置又はその近傍を上記移動体装置の目標衝突部位として決定してもよい。
 これにより、衝突による乗員の被害を最小限に抑えることが可能となる。
 上記被害低減装置は、上記決定部により決定された操舵方向に上記移動体装置を移動させるための制御データを、上記移動体装置の移動操作を制御する制御部へ出力する出力部をさらに具備してもよい。
 上記被害低減装置は、少なくとも、移動方向に対する距離センサ及びフロントカメラを搭載する移動体装置に搭載されるものであってもよい。この場合、上記入力部は、上記距離センサ及び上記フロントカメラからのデータを上記状況データとして入力する。
 本技術の一形態に係る被害低減方法は、移動体装置の移動方向の状況に関する状況データを入力することを含む。
 上記状況データに基づき上記移動方向の対象物との衝突が予測される。
 上記対象物に人が含まれるか否かが認識される。
 上記対象物との衝突が予測され、上記対象物に人が含まれると認識された場合、上記状況データに基づき上記人との衝突を回避することができる上記移動体装置の操舵方向が決定される。
 本技術の一形態に係るプログラムは、コンピュータに、移動体装置の移動方向の状況に関する状況データを入力するステップと、上記状況データに基づき上記移動方向の対象物との衝突を予測するステップと、上記対象物に人が含まれるか否かを認識するステップと、上記対象物との衝突が予測され、上記対象物に人が含まれると認識された場合、上記状況データに基づき上記人との衝突を回避することができる上記移動体装置の操舵方向を決定するステップと、を実行させる。
 以上のように、本技術によれば、人的被害の低減を図ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係る被害低減装置を搭載する移動体装置の一例としての自動車の構成を示す外観図である。 上記自動車の構成を示すブロック図である。 上記被害低減装置の構成を示すブロック図である。 上記被害低減装置の一作用を説明するフローチャートである。 上記自動車の一動作例を説明する概略平面図である。 上記自動車の他の動作例を説明する概略平面図である。 上記被害低減装置の他の実施形態を説明する図である。 上記被害低減装置の他の作用を説明するフローチャートである。 本技術の他の実施形態における自動車の一動作例を説明する概略平面図である。 上記自動車の他の動作例を説明する概略平面図である。 本技術の一実施形態における自動車の動作の一変形例を説明する概略平面図である。 上記自動車の動作の他の変形例を説明する概略平面図である。
<概要>
 本明細書に開示の技術は、移動体装置の走行中に、当該移動体装置の移動方向に存在する他の有人移動体や人、構造等の対象物との衝突が避けられない状況下において、衝突による被害、特に人的被害を最小限に抑えることを目的とするものである。
 ここで、上記移動体装置は、典型的には、自動車等の車両(自車)であり、この場合、上記他の有人移動体も、自車に衝突される相手方の車両(他車)である。
 一方、上記人としては、典型的には、歩行者等の通行人が該当し、それ以外にも、自車あるいは他車の乗員も含まれる。
 さらに、上記構造物としては、典型的には、道路等に設置された電柱や信号機、街路樹、壁、ガードレール等の道路設置物が該当し、それ以外にも、例えば無人の停車車両等が含まれる。
 以下の実施形態では、衝突対象(対象物)が、主に車両、構造物あるいは人を例に挙げて説明するが、本技術はこれらの実施形態に限定されないことは言うまでもない。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
[自動車の構成]
 図1は、本技術の一実施形態に係る被害低減装置を搭載する移動体装置の一例としての自動車の構成を示す外観図である。図2はそのブロック図である。
(基本構成)
 図1に示すように、自動車100(以下、自車両ともいう)は、移動方向に対する距離センサ110と、フロントカメラ120と、車内の乗員状況を撮影する車内撮影カメラ130とを有する。
 また、図2に示すように、自動車100は、操舵装置140と、制動装置150と、車体加速装置160と、舵角センサ141と、車輪速センサ151と、ブレーキスイッチ152と、アクセルセンサ161と、制御部10と、被害低減装置1とを有する。
 距離センサ110は、例えば自動車100のフロント部の略中央に設置され、自動車100とその移動方向に存在する物体との距離に関するデータを制御部10へ出力する。距離センサ110の出力は、後述するように、自車の前方に存在する物体(車両、歩行者、構造物など)との相対距離や相対速度あるいは相対加速度の算出などに参照される。距離センサ110は、例えば、ミリ波レーダや赤外線レーザ等を用いた種々のセンサで構成される。
 フロントカメラ120は、例えば自動車100のキャビンまたはルーフ部に設置され、自動車100の前方視野を所定のフレームレートで撮影する。フロントカメラ120で撮影された画像データは制御部10へ出力され、後述するように、自車の前方に存在する物体(車両、歩行者、構造物など)の種類の判定や、車両内の乗員の乗車位置、上記物体と自車との相対位置の算出などに参照される。フロントカメラ120は、例えば、CMOSやCCDなどのイメージセンサで構成される。
 車内撮影カメラ130は、自動車100のキャビンに設置され、キャビン内部の様子を所定のフレームレートで撮影する。車内撮影カメラ130で撮影された画像データは制御部10へ出力され、後述するように、自車の乗員の有無およびその乗車位置の判定に参照される。フロントカメラ120は、例えば、CMOSやCCDなどのイメージセンサで構成される。
 なお、距離センサ110、フロントカメラ120及び車内撮影カメラ130は、それらの出力が図2に示すように制御部10へ供給される構成に代えて、被害低減装置1へ供給されるように構成されてもよい。
 操舵装置140は、典型的にはパワーステアリング装置で構成され、運転者のハンドル操作を操舵輪へ伝達する。制動装置150は、各車輪に取り付けられたブレーキ作動装置及びこれらを作動させる油圧回路を含み、油圧回路を介してブレーキペダルの踏み込み操作力をブレーキ作動装置へ伝達する。制動装置150は、典型的には、車輪のロック(スリップ)を防止するためのABS制御機能や駆動輪の駆動スリップを防止するためのトラクション制御機能を有する。車体加速装置160は、スロットルバルブや燃料噴射装置等を含み、駆動輪の回転加速度を制御する。
 制御部10は、操舵装置140、制動装置150及び車体加速装置160を制御する。すなわち、制御部10は、運転者のハンドル操作を検出する舵角センサ141の出力に基づき、操舵量及び操舵方向を検出し、操舵装置140を制御する。また、制御部10は、全車輪又は一部の車輪に設置された車輪速センサ151の出力に基づき、車両の車体速度を算出するとともに、車輪のロック(スリップ)が防止されるように制動装置150を制御する。ブレーキスイッチ152は、運転者のブレーキ操作(ブレーキペダルの踏み込み)を検出するためのもので、ABS制御等の際に参照される。さらに、制御部10は、運転者のアクセルペダル操作量を検出するアクセルセンサ161の出力に基づき、車体加速装置160を制御する。
 制御部10は、操舵装置140、制動装置150及び車体加速装置160を個別に制御する場合は勿論、これらの複数を協調制御してもよい。これにより、旋回時、制動時、加速時等において、自動車100を所望とする姿勢に制御することが可能となる。
 また、制御部10は、上述した運転者の各種操作とは無関係に、操舵装置140、制動装置150及び車体加速装置160を制御することが可能に構成される。例えば、自動車100は自動運転機能を備えていてもよく、この場合、上記各センサやカメラの出力に基づき、制御部10が主体的に上記各装置を制御する。特に本実施形態では、制御部10は、後述する被害低減装置1の出力に基づき、上記各装置の少なくとも1つを制御することが可能に構成される。
 なお、制御部10は、操舵装置140、制動装置150及び車体加速装置160を個別に制御するECUの集合体であってもよいし、これら各装置を統括的に制御する単一のコントローラであってもよい。また、操舵装置140、制動装置150及び車体加速装置160は、上記ECUを個別に含んでもよく、この場合、制御部10は、上記各装置のECUへ制御信号を個別に出力するように構成される。
(被害低減装置)
 被害低減装置1は、衝突の可能性の高い緊急時に、後述する被害低減行動を実行して、相手方車両の乗員、自車(自動車100)の乗員等の被害を軽減するものである。衝突対象には、車両、人、道路設置物等が挙げられるが、本実施形態では衝突対象として車両、典型的には、自動車100の前方を走行する対向車や前走車、あるいは自動車100の前方で停止している車両など(以下、総称して対象車両という)を例に挙げて説明する。
 図3は、被害低減装置1の構成を示すブロック図である。
 図3に示すように、被害低減装置1は、入力部11と、予測部12と、対象認識部13と、乗員推定部14と、乗員把握部15と、決定部16と、出力部17とを有する。
 入力部11は、自動車100の移動方向(進行方向)の状況に関する状況データを入力する。状況データは、例えば自動車100の前方に位置する対象物(車両、人、道路設置物等の構造物)に関するデータである。
 状況データには、自動車100に接近する対象車両の走行状態に関する走行データ(対象車両走行データ)と、対象車両の乗員の乗車位置に関する乗員データ(対象車両乗員データ)などが含まれる。対象車両の走行データ及び乗員データは、制御部10を介して入力される距離センサ110の出力データやフロントカメラ120の撮影データに相当する。
 入力部11は、自動車100の乗員の搭乗位置に関する乗員データ(自車両乗員データ)をさらに入力する。自車両乗員データは、制御部10を介して入力される車内撮影カメラ130の撮影データに相当する。
 なお、入力部11は、自動車100の走行状態に関連する各種データ、例えば、舵角センサ141や車輪速センサ151等の各種センサの出力、制御部10における制動装置等に対する制御情報なども入力可能に構成されている。
 予測部12は、対象車両走行データに基づき、自動車100と対象車両との衝突及び衝突部位を予測することが可能に構成される。
 図3に示すように、予測部12は、距離センサ110の出力データから自動車100と対象車両との相対距離、相対速度などを算出する相対速度演算部121を有する。予測部12は、現時点における自動車100及び対象車両の走行状態から、自動車100と対象車両とが相互に衝突する可能性の有無を判定する。
 典型的には、予測部12は、対象車両走行データに基づき、自車両(自動車100)の走行状態と対象車両の走行状態とを比較し、両車両の走行軌跡の交点から、衝突の可能性や衝突位置、さらには自車両及び相手車両の衝突部位を推定する。自車両の走行軌跡は、車輪速センサ151及び舵角センサ141の出力に基づき算出される車体速度及び操舵角が参照され、対象車両の走行軌跡は、距離センサ110の出力に基づき算出される自車両に対する対象車両の相対位置、相対速度が参照される。
 予測部12は、フロントカメラ120の画像データをも参照して、自車両と対象車両との衝突を予測するように構成されてもよい。この場合、フロントカメラ120の撮影画像を解析することで、対象車両の進路や衝突部位を精度よく予測することが可能となる。予測部12において生成された予測データは、決定部16へ出力される。
 対象認識部13は、自動車100が衝突する対象物の種類を認識することが可能に構成される。本実施形態において対象認識部13は、対象物を車両、人、道路設置物等の構造物の3種類に分類するが、勿論これに限られない。認識方法としては、種々の人認識技術、車両認識技術等を用いることができる。
 特に本実施形態において、対象認識部13は、対象物に人が含まれるか否かを認識する。例えば、対象物が車両である場合、当該車両の乗員の有無を認識する。この場合、対象認識部13は、フロントカメラ120から出力される画像データ(対象車両乗員データ)を解析して、対象車両の乗員の有無を検出する。対象認識部13で生成された認識データは、決定部16へ出力される。
 乗員推定部14は、対象車両乗員データに基づき対象車両の乗員の搭乗位置を推定する。本実施形態において、乗員推定部14は、対象認識部13の出力に基づいて、対象車両の乗員の搭乗位置を推定する。乗員推定部14は、フロントカメラ120で撮影され、対象認識部13で人と認識された対象車両の内部の解析結果から、対象車両の運転席、助手席あるいは後部座席での人の有無を推定する。乗員推定部14において生成された推定データは、決定部16へ出力される。
 ここで、対象車両が走行している場合は、運転席以外の席での乗員の有無を推定する。助手席あるいは後部座席に乗員がいるか否か判断できないときは、乗員有と推定してもよい。一方、対象車両が停止している場合は、運転席を含むすべての席での乗員の有無を推定する。なお、対象車両が走行しているか停止しているかの判断は、距離センサ110やフロントカメラ120の出力に基づいて判断される。
 乗員把握部15は、車内撮影カメラ130から出力される画像データ(自車両乗員データ)に基づき、自動車100の乗員の搭乗位置を把握する。乗員把握部15は、自動車100の車内における運転者以外の乗員の有無、及び乗員がいる場合はその乗車位置を把握する。乗員把握部15において生成された把握データは、決定部16へ出力される。
 なお、乗員把握技術は種々の方法が採用可能であり、典型的には、人認識技術が用いられるが、これに以外にも、無人の車内画像とのマッチングを実行して人の有無を推定する技術が採用されてもよい。
 決定部16は、予測部12、乗員推定部14及び乗員把握部15の出力に基づき、対象車両との衝突が不可避と予測される場合、対象車両の乗員の乗車位置に応じて、対象車両に対する自動車100の衝突の態様(本例では自動車100が衝突すべ対象車両の目標衝突部位)を決定する。相手方である対象車両および自動車100の人的被害を低減することが可能な部位へ自動車100を衝突させる趣旨である。
 具体的に、決定部16は、対象車両の乗員の非搭乗位置又はその近傍を対象車両の目標衝突部位として決定するように構成される。すなわち、対象車両に人が含まれると認識された場合、対象車両の乗員の乗車位置以外の部位に衝突目標位置が決定される。これにより、衝突による相手方の人的被害を最小限に抑えることが可能となる。
 また、決定部16は、対象車両が自動車100に向かって移動しており、かつ、対象車両の乗員の搭乗位置が運転席のみと推定される場合は、対象車両の運転席の隣の席(助手席)側のフロント部を対象車両の目標衝突部位として決定する。これにより、対象車両の運転者の被害を低減することが可能となる。
 一方、決定部16は、対象車両が自動車100に向かって移動しており、かつ、対象車両の乗員の搭乗位置が運転席及びその隣の席(助手席)と推定される場合、対象車両のフロント部の中央を対象車両の目標衝突部位として決定する。これにより、衝突による相手方の乗員各々の被害を低減することが可能となる。
 このように、対象車両との衝突が不可避の状況下において、対象車両乗員データに基づき自動車100が衝突すべき対象車両の目標衝突部位を決定するため、相手方である対象車両の人的被害を低減することが可能な部位へ自動車100を衝突させることが可能となる。
 さらに、決定部16は、対象車両だけでなく、自動車100の乗員の搭乗位置(乗員把握部15の出力)をも参照して、対象車両の目標衝突部位に衝突する自動車100の目標衝突部位を決定するように構成されてもよい。これにより、衝突される対象車両の乗員の被害だけでなく、衝突する自動車100の乗員の被害をも低減することが可能となる。
 具体的に、決定部16は、自動車100の乗員の非搭乗位置又はその近傍を自動車100の目標衝突部位として決定する。これにより、相手方だけでなく、衝突による自車の乗員の被害を最小限に抑えることが可能となる。
 例えば、決定部16は、自動車100の乗員の搭乗位置が運転席及びその隣の席と把握された場合、自動車100のフロント部の中央を自動車100の目標衝突部位として決定する。これにより、自車の乗員の被害の低減を図ることができる。
 決定部16は、対象車両との衝突が予測された時点で、自動車100の制動装置を作動させる自動ブレーキ機能を実行させる制御データを生成する。そして、決定部16は、対象車両との衝突が不可避と予測された時点で、対象車両の目標衝突部位に向けて自動車100の衝突目標部位を衝突させることが可能なように、自動車100の操舵方向を決定する制御データを生成する。
 出力部17は、決定部16により決定された対象車両の目標衝突部位へ向けて自動車100を移動させるための制御データを、自動車100の移動操作を制御する制御部10へ出力するように構成される。
 以上のように構成される被害低減装置1は、例えばCPU、RAM、及びROM等のコンピュータに必要なハードウェアを有する。CPUがROMに予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る被害低減方法が実行される。
 被害低減装置1の具体的な構成は限定されず、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。また被害低減装置1は、制御部10の一部として構成されてもよい。
[自動車の動作]
 次に、以上のように構成される自動車100の典型的な動作とともに、本実施形態に係る被害低減方法を説明する。
 図4は、被害低減装置1における決定部16の制御フローを示すフローチャートであり、図5及び図6は、自動車100の移動制御例の説明図である。
 図5Aに示すように、図中左方へ直線的に前進する自動車100、図中右方へ直線的に前進する対象車両としての対向車200が接近する場合を考える。
 被害低減装置1は、まず、自動車100が対向車200と衝突の可能性があるか否かを判定する(ステップ101)。この判定は、予測部12の出力に基づいて実行され、衝突の可能性があるときは、操舵、制動により衝突を回避することができるかどうかを判定する(ステップ102)。
 急旋回、急制動などで対向車200との衝突を回避することが可能と判定されると、その衝突回避動作が実行される(ステップ103)。この動作は、運転者の操作を必要とせず、操舵装置140、制動装置150に対して制御部10に直接制御指令を出力させる。操舵方向(回避方向)の決定には、例えば、フロントカメラ120からの画像データが参照される。
 一方、対向車200との衝突を回避することが不可能と判定されると、決定部16は、衝突被害軽減のため、自動車100を右旋回、左旋回あるいは直進(図5Aにおいて符号18R,18L、18S参照)のいずれの方向に操舵方向を制御するかを決定する。そこで、決定部16は、自動車100(自車)と対向車200のいずれかの助手席に乗員がいるか否かを判定する(ステップ104)。このステップでは、乗員推定部14及び乗員判定部15の出力が参照される。
 その結果、自車及び対向車200のいずれの助手席にも乗員がいないと判定されると、決定部16は、自車の助手席側フロント部と対向車200の助手席側フロント部とを目標衝突位置と決定する。そして、決定部16は、制動を掛けつつ、自動車100を右旋回させ、図5Bに示す衝突の態様で対向車200の助手席側フロント部に自車の助手席側フロント部が衝突するように、自車の操舵及び制動に関する制御データを制御部10へ出力する(ステップ105)。なお、上記の操舵制御中に自車の運転車による運転操作が行われている場合は、制御部10による操舵制御が優先される。
 このように、自車の助手席側と対向車200の助手席側とを相互に衝突させことで、衝突時の衝撃が両車両の乗員不在空間で吸収される。したがって、運転席側のフロント部どうしが衝突する場合や正面衝突する場合と比較して、自車および対向車200の運転者の被害を最小限に抑えることが可能となる。
 一方、自車及び対向車200のいずれかの助手席に乗員がいると判定されると、決定部16は、自車のフロント部中央と対向車200のフロント部中央とを目標衝突部位と決定する。そして、決定部16は、制動を掛けつつ、自動車100を直進させ、図6に示す衝突の態様で対向車200と自車とが正面衝突するように、自車の操舵及び制動に関する制御データを制御部10へ出力する(ステップ106)。なお、上記の操舵制御中に自車の運転車による運転操作が行われている場合は、制御部10による操舵制御が優先される。
 このように、自車と対向車200とを正面衝突させることで、オフセット衝突時のようなキャビンの局所変形が阻止される。したがって、運転席側あるいは助手席側のフロント部どうしが衝突する場合と比較して、自車および対向車200のすべての乗員の被害を最小限に抑えることが可能となる。
 以上のように本実施形態においては、自動車100と対向車200との衝突が避けられない場合において、自動車100及び対向車200の乗員の位置を参照して、自動車100と対向車200各々の衝突部位を決定するようにしている。これにより、自車だけでなく相手車両の乗員の被害を最小限に抑えることが可能となる。
 なお、対象車両が前走車や停止車両の場合についても同様に、対象車両の乗員の非乗車位置が対象車両の目標衝突部位として決定される。これにより、自車の乗員の保護を図りつつ相手方の人的被害を最小限に抑えることが可能となる。
<第2の実施形態>
 続いて、本技術の他の実施形態について説明する。
 本実施形態では、図7に示すように、自動車100と衝突の可能性がある対象物が車両210だけでなく、歩行者220、電柱230等の道路設置物をも含む場合を例に挙げて説明する。
 本実施形態に係る被害低減装置1およびこれを備えた自動車100は、第1の実施形態と同様の構成を有する。以下、第1の実施形態と異なる構成について主に説明し、第1の実施形態と同様の構成については同様の符号を付しその説明を省略または簡略化する。
 本実施形態の被害低減装置1は、入力部11と、予測部12と、対象認識部13と、決定部16とを有する(図3参照)。
 入力部11は、自動車100の移動方向(進行方向)の状況に関する状況データを入力する。状況データは、例えば自動車100の前方に位置する対象物(車両210、歩行者220、電柱230)に関するデータである。
 認識対象部13は、状況データに基づき、自動車100が衝突する対象物の種類を認識することが可能に構成され、対象物を例えば車(車両210)、人(歩行者220)、無人の構造物(例えば電柱230等の道路設置物)の3種類に分類する。
 決定部16は、上記対象物との衝突が予測され、上記対象物に人が含まれると認識された場合、上記状況データに基づき、上記人との衝突を回避することができる自動車100の操舵方向を決定する。すなわち、対象物に歩行者220が含まれる場合は、歩行者220との衝突を回避することが最も優先度の高い制御目標とされる。
 また、決定部16は、対象物との衝突が不可避と予測される場合、対象物の種類に基づき対象物に対する自動車100の衝突の態様を決定するように構成される。すなわち、本実施形態の被害低減装置1は、対象物が車両210か、歩行者220か、電柱230等の道路設置物かに応じて、これらに対する衝突の態様を異ならせるように構成されている。
 決定部16は、対象物が車両210と認識された場合は、上述の第1の実施形態と同様な方法で車両210(対象車両)の目標衝突部位を決定する。この際、自車の乗員の乗車位置をも参照して、相手車両及び自車双方の乗員の被害を低減することができる目標衝突部位を決定する。
 一方、決定部16は、対象物が電柱230等の無人の構造物と認識された場合、自動車100のうち比較的剛性が高い部位、例えば、ピラー部位を、自動車100の目標衝突部位として決定する。これにより、自車の乗員の被害を抑えることが可能となる。この場合も、乗員把握部15(図3参照)の出力に基づき自車の乗員の乗車位置を参照することができる。例えば、助手席に乗員がいない場合、助手席側のピラーを目標衝突部位として決定することで、運転者の被害を最小限に抑えることが可能となる。
 あるいは、歩行者以外の対象物が存在せず、もはや当該歩行者との衝突が避けられない状況下にあっては、歩行者の被害をできるだけ小さくするため、自動車100の衝撃緩衝性が高い部位を衝突目標位置に決定する。衝撃緩衝性が高い部位としては、例えば、ボンネットやフロントガラス等の比較的剛性が低い部位、あるいは、歩行者用エアバッグ等の衝撃緩衝装置が設置されている部位などが挙げられる。
 図8は、本実施形態における被害低減装置1の制御例を示すフローチャートである。
 図7に示すように、自動車100の前方に車両210、歩行者220及び電柱230を含む対象物が存在する状況を考える。
 被害低減装置1は、まず、自動車100がこれら対象物との衝突の可能性があるか否かを判定する(ステップ201)。この判定は、予測部12の出力に基づいて実行され、衝突の可能性があるときは、操舵、制動により衝突を回避することができるかどうかを判定する(ステップ202)。
 急旋回、急制動などで上記各対象物との衝突を回避することが可能と判定されると、その衝突回避動作が実行される(ステップ203)。この動作は、運転者の操作を必要とせず、操舵装置140、制動装置150に対して制御部10に直接制御指令を出力させる。操舵方向(回避方向)の決定には、例えば、フロントカメラ120からの画像データが参照される。
 一方、いずれかの対象物との衝突を回避することが不可能と判定されると、被害低減装置1は、対象物に人が含まれるか否かを判定し(ステップ204)、対象物に人が含まれている場合は、人以外の対象物があるかどうかを判定する(ステップ205)。
 本例では、対象物に歩行者220が含まれるが、歩行者220以外に対象物として車両210や電柱230が存在するため、被害低減装置1は、これら人以外の対象物に自動車100が衝突するように操舵方向を制御する。
 そして、人以外の衝突不可避の対象物が車両210であると判定された場合、被害低減装置1は、車両210と自動車100の被害が最小となるように自動車100の操舵方向を決定する(ステップ206,207)。このような制御は、上述の第1の実施形態と同様であるため、ここでは説明を省略する。
 なお、車両210が無人の停車車両と認識された場合については、当該車両210を無人の構造物とみなして、後述するように対象物が電柱230のときと同様な操舵制御が実行されてもよい。
 一方、人以外の衝突不可避の対象物が車両210以外(本例では電柱230)であると判定された場合、被害低減装置1は、自動車100の被害が最小となるように自動車100の操舵方向を決定する(ステップ206,208)。
 この場合、被害低減装置1は、図9Aに示すように、自動車100を右旋回、左旋回あるいは直進のいずれの方向に操舵方向を制御するかを決定する。この際、被害低減装置1は、自動車100の乗員の乗車位置を参照し、助手席に乗員がいないときは、自動車100の助手席側のピラー部位を目標衝突部位と決定する。そして、被害低減装置1は、制動を掛けつつ、自動車100を右旋回させ、図9Bに示す衝突の態様で電柱230に上記ピラー部が衝突するように、自動車100の操舵及び制動に関する制度データを制御部10へ出力する(ステップ208)。なお、上記の操舵制御中に自車の運転車による運転操作が行われている場合は、制御部10による操舵制御が優先される。
 このように、自動車100の助手席側のピラー部位を電柱230に衝突させることで、衝突時における自動車100の損壊が抑制される。したがって、電柱230に自動車100のフロント部が衝突する場合と比較して、自動車100の乗員の被害を最小限に抑えることが可能となる。
 これに対し、歩行者220との衝突が避けられないと判定された場合、被害低減装置1は、歩行者の被害が最小となるように自動車100の操舵方向を決定する(ステップ209)。
 この場合、被害低減装置1は、図10Aに示すように、自動車100を右旋回、左旋回あるいは直進のいずれの方向に操舵方向を制御するかを決定する。この際、被害低減装置1は、自動車100の衝撃緩衝効果が最も高い部位(ボンネットやフロントガラス等の比較的軟らかい部位あるいは歩行者用エアバッグ170が作動する部位)を目標衝突部位と決定する。そして、被害低減装置1は、制動を掛けつつ、自動車100を右旋回させ、図10Bに示す衝突の態様で歩行者220に自動車100の正面が衝突するように、自動車100の操舵及び制動に関する制度データを制御部10へ出力する(ステップ209)。なお、上記の操舵制御中に自車の運転車による運転操作が行われている場合は、制御部10による操舵制御が優先される。
 以上のように、本実施形態によれば、対象物との衝突が避けられない場合において、対象物の種類に応じて衝突の態様を異ならせているため、自車だけでなく、他車や歩行者を含めて、適切にあるいは総合的に被害を最小にすることが可能となる。
 以上、本技術の実施形態について説明したが、本技術は上述の実施形態にのみ限定されるものではなく、種々変更を加え得ることは勿論である。
 例えば以上の第1の実施形態では、衝突不可避と予測される相手車両が対向車200の場合を説明したが、これに限られず、例えば交差点における右直事故(右折車と直進者との衝突事故)や出会い頭的な衝突の際にも本技術は有効である。
 図11は、直進する自動車100と右折車201との衝突制御例を示している。本例では、右折車201の助手席に乗員がいる場合であって、自動車100が直線的に衝突すると右折車201の助手席側に衝突すると予測されたとき、被害低減装置1は、右折車201の左側リア部を目標衝突部位と決定して自動車100の右旋回させる操舵制御を実行する。
 一方、図12は、直進する自動車100とその前を横切る通過車両202との衝突制御例を示している。本例においても同様に、通過車両202の助手席に乗員がいる場合であって、自動車100が直線的に衝突すると通過車両202の助手席側に衝突すると予測されたとき、被害低減装置1は、通過車両202の左側リア部を目標衝突部位と決定して自動車100の右旋回させる操舵制御を実行する。
 上記以外にも、自車との衝突が不可避の車両としては、合流車両や路地からの飛び出し車両等にも本技術は有効である。
 さらに以上の実施形態では、移動体装置として自動車を例に挙げて説明したが、これ以外にも水上を走行するボートや自律走行ロボットなどにも本技術は適用可能である。
 なお、本技術は以下のような構成もとることができる。
(1) 移動体装置に接近する有人移動体の走行状態に関する対象物走行データと、前記有人移動体の乗員の搭乗位置に関する対象物乗員データとを入力する入力部と、
 前記対象物走行データに基づき前記有人移動体との衝突を予測する予測部と、
 前記対象物乗員データに基づき前記有人移動体の乗員の搭乗位置を推定する乗員推定部と、
 前記有人移動体との衝突が不可避と予測される場合、前記有人移動体の乗員の搭乗位置に基づき前記移動体装置が衝突すべき前記有人移動体の目標衝突部位を決定する決定部と
 を具備する被害低減装置。
(2)上記(1)に記載の被害低減装置であって、
 前記決定部は、前記有人移動体の乗員の非搭乗位置又はその近傍を前記有人移動体の目標衝突部位として決定する
 被害低減装置。
(3)上記(1)又は(2)に記載の被害低減装置であって、
 前記決定部は、前記有人移動体が前記移動体装置に向かって移動しており、かつ、前記有人移動体の乗員の搭乗位置が運転席のみと推定される場合、前記運転席の隣の席側のフロント部を前記有人移動体の目標衝突部位として決定する
 被害低減装置。
(4)上記(1)又は(2)に記載の被害低減装置であって、
 前記決定部は、前記有人移動体が前記移動体装置に向かって移動しており、かつ、前記有人移動体の乗員の搭乗位置が運転席及びその隣の席と推定される場合、前記有人移動体のフロント部の中央を前記有人移動体の目標衝突部位として決定する
 被害低減装置。
(5)上記(1)~(4)のいずれか1つに記載の被害低減装置であって、
 前記入力部は、前記移動体装置の乗員の搭乗位置に関する移動体乗員データをさらに入力し、
 前記被害低減装置は、前記移動体乗員データに基づき前記移動体装置の乗員の搭乗位置を把握する乗員把握部をさらに具備し、
 前記決定部は、前記対象物走行データと前記対象物乗員データと前記移動体乗員データとに基づき、前記有人移動体の目標衝突部位に衝突する前記移動体装置の目標衝突部位をさらに決定する
 被害低減装置。
(6)上記(5)に記載の被害低減装置であって、
 前記決定部は、前記移動体装置の乗員の非搭乗位置又はその近傍を前記移動体装置の目標衝突部位として決定する
 被害低減装置。
(7)上記(5)に記載の被害低減装置であって、
 前記決定部は、前記移動体装置の乗員の搭乗位置が運転席及びその隣の席と把握された場合、前記移動体装置のフロント部の中央を前記移動体装置の目標衝突部位として決定する
 被害低減装置。
(8)上記(1)~(7)のいずれか1つに記載の被害低減装置であって、
 前記決定部により決定された前記有人移動体の目標衝突部位へ向けて前記移動体装置を移動させるための制御データを、前記移動体装置の移動操作を制御する制御部へ出力する出力部をさらに具備する
 被害低減装置。
(9)上記(1)~(8)のいずれか1つに記載の被害低減装置であって、
 前記被害低減装置は、少なくとも、移動方向に対する距離センサ及びフロントカメラを搭載する移動体装置に搭載されるものであり、
 前記入力部は、前記距離センサ及び前記フロントカメラからのデータを前記対象物走行データ及び前記対象物乗員データとして入力する
 被害低減装置。
(10) 移動体装置に接近する有人移動体の走行状態に関する対象物走行データと、前記有人移動体の乗員の搭乗位置に関する対象物乗員データとを入力し、
 前記対象物走行データに基づき前記有人移動体との衝突を予測し、
 前記対象物乗員データに基づき前記有人移動体の乗員の搭乗位置を推定し、
 前記有人移動体との衝突が不可避と予測される場合、前記有人移動体の乗員の搭乗位置に基づき前記移動体装置が衝突すべき前記有人移動体の目標衝突部位を決定する
 被害低減方法。
(11) コンピュータに、
 移動体装置に接近する有人移動体の走行状態に関する対象物走行データと、前記有人移動体の乗員の搭乗位置に関する対象物乗員データとを入力するステップと、
 前記対象物走行データに基づき前記有人移動体との衝突を予測するステップと、
 前記対象物乗員データに基づき前記有人移動体の乗員の搭乗位置を推定するステップと、
 前記有人移動体との衝突が不可避と予測される場合、前記有人移動体の乗員の搭乗位置に基づき前記移動体装置が衝突すべき前記有人移動体の目標衝突部位を決定するステップと
 を実行させるプログラム。
 なお、本技術はまた、以下のような構成もとることができる。
(12) 移動体装置の移動方向の状況に関する状況データを入力する入力部と、
 前記状況データに基づき前記移動方向の対象物との衝突を予測する予測部と、
 前記対象物の種類を認識する認識部と、
 前記対象物との衝突が不可避と予測される場合、前記対象物の種類に基づき前記対象物に対する前記移動体装置の衝突の態様を決定する決定部と
 を具備する被害低減装置。
(13)上記(12)に記載の被害低減装置であって、
 前記認識部は、前記対象物が有人移動体、無人の構造物及び人のいずれであるかを認識し、
 前記決定部は、前記対象物が有人移動体であると認識された場合、前記移動体装置が衝突すべき前記対象物の目標衝突部位を決定し、前記対象物が無人の構造物又は人であると認識された場合、前記対象物に衝突する前記移動体装置の目標衝突部位を決定する
 被害低減装置。
(14)上記(13)に記載の被害低減装置であって、
 前記状況データは、前記有人移動体における乗員の搭乗位置に関する対象物乗員データを含み、
 前記決定部は、前記対象物が有人移動体であると認識された場合、前記対象物乗員データに基づき前記有人移動体の目標衝突部位を決定する
 被害低減装置。
(15)上記(14)に記載の被害低減装置であって、
 前記対象物乗員データに基づき前記有人移動体の乗員の搭乗位置を推定する対象物乗員推定部をさらに具備し、
 前記決定部は、前記有人移動体の乗員の非搭乗位置又はその近傍を前記有人移動体の目標衝突部位として決定する
 被害低減装置。
(16)上記(13)に記載の被害低減装置であって、
 前記決定部は、前記対象物が無人の構造物であると認識された場合、前記移動体装置のピラー部位を前記移動体装置の目標衝突部位として決定する
 被害低減装置。
(17)上記(13)に記載の被害低減装置であって、
 前記決定部は、前記対象物が人であると認識された場合、前記移動体装置の衝撃緩衝部位を前記移動体装置の目標衝突部位として決定する
 被害低減装置。
(18)上記(13)~(17)のいずれか1つに記載の被害低減装置であって、
 前記入力部は、前記移動体装置の乗員の搭乗位置に関する移動体乗員データをさらに入力し、
 前記被害低減装置は、前記移動体乗員データに基づき前記移動体装置の乗員の搭乗位置を把握する乗員把握部をさらに具備し、
 前記決定部は、前記状況データと前記移動体乗員データとに基づき、前記対象物に衝突する前記移動体装置の目標衝突部位をさらに決定する
 被害低減装置。
(19)上記(18)に記載の被害低減装置であって、
 前記決定部は、前記移動体装置の乗員の非搭乗位置又はその近傍を前記移動体装置の目標衝突部位として決定する
 被害低減装置。
(20)上記(12)~(19)のいずれか1つに記載の被害低減装置であって、
 前記決定部により決定された衝突の態様で前記移動体装置を前記対象物へ移動させるための制御データを、前記移動体装置の移動操作を制御する制御部へ出力する出力部をさらに具備する
 被害低減装置。
(21)上記(12)~(20)のいずれか1つに記載の被害低減装置であって、
 前記被害低減装置は、少なくとも、移動方向に対する距離センサ及びフロントカメラを搭載する移動体装置に搭載されるものであり、
 前記入力部は、前記距離センサ及び前記フロントカメラからのデータを前記状況データとして入力する
 被害低減装置。
(22) 移動体装置の移動方向の状況に関する状況データを入力し、
 前記状況データに基づき前記移動方向の対象物との衝突を予測し、
 前記対象物の種類を認識し、
 前記対象物との衝突が不可避と予測される場合、前記対象物の種類に基づき前記対象物に対する前記移動体装置の衝突の態様を決定する
 を具備する被害低減方法。
(23) コンピュータに、
 移動体装置の移動方向の状況に関する状況データを入力するステップと、
 前記状況データに基づき前記移動方向の対象物との衝突を予測するステップと、
 前記対象物の種類を認識するステップと、
 前記対象物との衝突が不可避と予測される場合、前記対象物の種類に基づき前記対象物に対する前記移動体装置の衝突の態様を決定するステップと
 を実行させるプログラム。
 なお、本技術はさらに、以下のような構成もとることができる。
(24) 移動体装置の移動方向の状況に関する状況データを入力する入力部と、
 前記状況データに基づき前記移動方向の対象物との衝突を予測する予測部と、
 前記対象物に人が含まれるか否かを認識する認識部と、
 前記対象物との衝突が予測され、前記対象物に人が含まれると認識された場合、前記状況データに基づき前記人との衝突を回避することができる前記移動体装置の操舵方向を決定する決定部と
 を具備する被害低減装置。
(25)上記(24)に記載の被害低減装置であって、
 前記決定部は、前記人以外の対象物との衝突が不可避と予測される場合、前記対象物の種類に基づき前記対象物に対する前記移動体装置の衝突の態様を決定する
 被害低減装置。
(26)上記(25)に記載の被害低減装置であって、
 前記決定部は、前記対象物が有人移動体であると認識された場合、前記移動体装置が衝突すべき前記対象物の目標衝突部位を決定し、前記対象物が無人の構造物であると認識された場合、前記対象物に衝突する前記移動体装置の目標衝突部位を決定する
 被害低減装置。
(27)上記(26)に記載の被害低減装置であって、
 前記状況データは、前記有人移動体における乗員の搭乗位置に関する対象物乗員データを含み、
 前記決定部は、前記対象物が有人移動体であると認識された場合、前記対象物乗員データに基づき前記有人移動体の目標衝突部位を決定する
 被害低減装置。
(28)上記(27)に記載の被害低減装置であって、
 前記対象物乗員データに基づき前記有人移動体の乗員の搭乗位置を推定する対象物乗員推定部をさらに具備し、
 前記決定部は、前記有人移動体の乗員の非搭乗位置又はその近傍を前記有人移動体の目標衝突部位として決定する
 被害低減装置。
(29)上記(25)~(28)のいずれか1つに記載の被害低減装置であって、
 前記入力部は、前記移動体装置の乗員の搭乗位置に関する移動体乗員データをさらに入力し、
 前記被害低減装置は、前記移動体乗員データに基づき前記移動体装置の乗員の搭乗位置を把握する乗員把握部をさらに具備し、
 前記決定部は、前記状況データと前記移動体乗員データとに基づき、前記対象物に衝突する前記移動体装置の目標衝突部位をさらに決定する
 被害低減装置。
(30)上記(29)に記載の被害低減装置であって、
 前記決定部は、前記移動体装置の乗員の非搭乗位置又はその近傍を前記移動体装置の目標衝突部位として決定する
 被害低減装置。
(31)上記(24)~(30)のいずれか1つに記載の被害低減装置であって、
 前記決定部により決定された操舵方向に前記移動体装置を移動させるための制御データを、前記移動体装置の移動操作を制御する制御部へ出力する出力部をさらに具備する
 被害低減装置。
(32)上記(24)~(31)のいずれか1つに記載の被害低減装置であって、
 前記被害低減装置は、少なくとも、移動方向に対する距離センサ及びフロントカメラを搭載する移動体装置に搭載されるものであり、
 前記入力部は、前記距離センサ及び前記フロントカメラからのデータを前記状況データとして入力する
 被害低減装置。
(33) 移動体装置の移動方向の状況に関する状況データを入力し、
 前記状況データに基づき前記移動方向の対象物との衝突を予測し、
 前記対象物に人が含まれるか否かを認識し、
 前記対象物との衝突が予測され、前記対象物に人が含まれると認識された場合、前記状況データに基づき前記人との衝突を回避することができる前記移動体装置の操舵方向を決定する
 被害低減方法。
(34) コンピュータに、
 移動体装置の移動方向の状況に関する状況データを入力するステップと、
 前記状況データに基づき前記移動方向の対象物との衝突を予測するステップと、
 前記対象物に人が含まれるか否かを認識するステップと、
 前記対象物との衝突が予測され、前記対象物に人が含まれると認識された場合、前記状況データに基づき前記人との衝突を回避することができる前記移動体装置の操舵方向を決定するステップと
 を実行させるプログラム。
 1…被害低減装置
 10…制御部
 11…入力部
 12…予測部
 13…対象認識部
 14…乗員推定部
 15…乗員把握部
 16…決定部
 17…出力部
 100…自動車
 110…距離センサ
 120…フロントカメラ
 130…車内撮影カメラ
 140…操舵装置
 150…制動装置
 200…対向車
 201…右折車
 202…通過車両
 210…車両
 220…歩行者
 230…電柱

Claims (11)

  1.  移動体装置の移動方向の状況に関する状況データを入力する入力部と、
     前記状況データに基づき前記移動方向の対象物との衝突を予測する予測部と、
     前記対象物に人が含まれるか否かを認識する認識部と、
     前記対象物との衝突が予測され、前記対象物に人が含まれると認識された場合、前記状況データに基づき前記人との衝突を回避することができる前記移動体装置の操舵方向を決定する決定部と
     を具備する被害低減装置。
  2.  請求項1に記載の被害低減装置であって、
     前記決定部は、前記人以外の対象物との衝突が不可避と予測される場合、前記対象物の種類に基づき前記対象物に対する前記移動体装置の衝突の態様を決定する
     被害低減装置。
  3.  請求項2に記載の被害低減装置であって、
     前記決定部は、前記対象物が有人移動体であると認識された場合、前記移動体装置が衝突すべき前記対象物の目標衝突部位を決定し、前記対象物が無人の構造物であると認識された場合、前記対象物に衝突する前記移動体装置の目標衝突部位を決定する
     被害低減装置。
  4.  請求項3に記載の被害低減装置であって、
     前記状況データは、前記有人移動体における乗員の搭乗位置に関する対象物乗員データを含み、
     前記決定部は、前記対象物が有人移動体であると認識された場合、前記対象物乗員データに基づき前記有人移動体の目標衝突部位を決定する
     被害低減装置。
  5.  請求項4に記載の被害低減装置であって、
     前記対象物乗員データに基づき前記有人移動体の乗員の搭乗位置を推定する対象物乗員推定部をさらに具備し、
     前記決定部は、前記有人移動体の乗員の非搭乗位置又はその近傍を前記有人移動体の目標衝突部位として決定する
     被害低減装置。
  6.  請求項2に記載の被害低減装置であって、
     前記入力部は、前記移動体装置の乗員の搭乗位置に関する移動体乗員データをさらに入力し、
     前記被害低減装置は、前記移動体乗員データに基づき前記移動体装置の乗員の搭乗位置を把握する乗員把握部をさらに具備し、
     前記決定部は、前記状況データと前記移動体乗員データとに基づき、前記対象物に衝突する前記移動体装置の目標衝突部位をさらに決定する
     被害低減装置。
  7.  請求項6に記載の被害低減装置であって、
     前記決定部は、前記移動体装置の乗員の非搭乗位置又はその近傍を前記移動体装置の目標衝突部位として決定する
     被害低減装置。
  8.  請求項1に記載の被害低減装置であって、
     前記決定部により決定された操舵方向に前記移動体装置を移動させるための制御データを、前記移動体装置の移動操作を制御する制御部へ出力する出力部をさらに具備する
     被害低減装置。
  9.  請求項1に記載の被害低減装置であって、
     前記被害低減装置は、少なくとも、移動方向に対する距離センサ及びフロントカメラを搭載する移動体装置に搭載されるものであり、
     前記入力部は、前記距離センサ及び前記フロントカメラからのデータを前記状況データとして入力する
     被害低減装置。
  10.  移動体装置の移動方向の状況に関する状況データを入力し、
     前記状況データに基づき前記移動方向の対象物との衝突を予測し、
     前記対象物に人が含まれるか否かを認識し、
     前記対象物との衝突が予測され、前記対象物に人が含まれると認識された場合、前記状況データに基づき前記人との衝突を回避することができる前記移動体装置の操舵方向を決定する
     被害低減方法。
  11.  コンピュータに、
     移動体装置の移動方向の状況に関する状況データを入力するステップと、
     前記状況データに基づき前記移動方向の対象物との衝突を予測するステップと、
     前記対象物に人が含まれるか否かを認識するステップと、
     前記対象物との衝突が予測され、前記対象物に人が含まれると認識された場合、前記状況データに基づき前記人との衝突を回避することができる前記移動体装置の操舵方向を決定するステップと
     を実行させるプログラム。
PCT/JP2016/003769 2015-09-29 2016-08-18 被害低減装置、被害低減方法およびプログラム WO2017056374A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP16850557.6A EP3357790A4 (en) 2015-09-29 2016-08-18 DEVICE AND METHOD FOR DAMAGE REDUCTION AND PROGRAM
JP2017542689A JP6760297B2 (ja) 2015-09-29 2016-08-18 信号処理装置、信号処理方法およびプログラム
US15/761,844 US10464559B2 (en) 2015-09-29 2016-08-18 Damage reduction device, damage reduction method, and program
CN201680055024.4A CN108025763B (zh) 2015-09-29 2016-08-18 信号处理装置、信号处理方法和计算机可读存储介质
US16/599,740 US11254307B2 (en) 2015-09-29 2019-10-11 Damage reduction device, damage reduction method, and program
US17/570,319 US11772644B2 (en) 2015-09-29 2022-01-06 Damage reduction device, damage reduction method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015190780 2015-09-29
JP2015-190780 2015-09-29

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/761,844 A-371-Of-International US10464559B2 (en) 2015-09-29 2016-08-18 Damage reduction device, damage reduction method, and program
US16/599,740 Continuation US11254307B2 (en) 2015-09-29 2019-10-11 Damage reduction device, damage reduction method, and program

Publications (1)

Publication Number Publication Date
WO2017056374A1 true WO2017056374A1 (ja) 2017-04-06

Family

ID=58422814

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/003769 WO2017056374A1 (ja) 2015-09-29 2016-08-18 被害低減装置、被害低減方法およびプログラム

Country Status (5)

Country Link
US (3) US10464559B2 (ja)
EP (1) EP3357790A4 (ja)
JP (1) JP6760297B2 (ja)
CN (1) CN108025763B (ja)
WO (1) WO2017056374A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019066919A (ja) * 2017-09-28 2019-04-25 株式会社Subaru 車両の制御装置及び車両の制御方法
JP2019064301A (ja) * 2017-09-28 2019-04-25 株式会社Subaru 車両の制御装置及び車両の制御方法
KR20190109629A (ko) * 2018-02-28 2019-09-26 삼성전자주식회사 자율 주행 장치 및 그 주행 방법
JP2020019314A (ja) * 2018-07-30 2020-02-06 株式会社アドヴィックス 衝突時制御装置
JP2020147271A (ja) * 2019-03-13 2020-09-17 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 防御的運転策略の生成方法、装置、デバイス、記憶媒体、及びプログラム
JPWO2022097387A1 (ja) * 2020-11-05 2022-05-12

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108025763B (zh) 2015-09-29 2021-09-07 索尼公司 信号处理装置、信号处理方法和计算机可读存储介质
WO2017214581A1 (en) 2016-06-10 2017-12-14 Duke University Motion planning for autonomous vehicles and reconfigurable motion planning processors
JP6676025B2 (ja) * 2017-10-23 2020-04-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
WO2019139815A1 (en) 2018-01-12 2019-07-18 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
TWI822729B (zh) 2018-02-06 2023-11-21 美商即時機器人股份有限公司 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備
PL3769174T3 (pl) 2018-03-21 2022-10-24 Realtime Robotics, Inc. Planowanie przemieszczania robota do różnych środowisk i zadań oraz jego ulepszone działanie
WO2020214723A1 (en) 2019-04-17 2020-10-22 Real Time Robotics, Inc. Motion planning graph generation user interface, systems, methods and articles
EP3977226A4 (en) 2019-06-03 2023-06-07 Realtime Robotics, Inc. APPARATUS, METHODS AND ARTICLES FOR FACILITATING MOVEMENT PLANNING IN ENVIRONMENTS HAVING DYNAMIC OBSTACLES
CN110329151B (zh) * 2019-06-04 2021-08-17 郑龙海 一种基于汽车安全的智能碰撞识别警示方法及其系统
WO2021041223A1 (en) 2019-08-23 2021-03-04 Realtime Robotics, Inc. Motion planning for robots to optimize velocity while maintaining limits on acceleration and jerk
CN110466514B (zh) * 2019-08-30 2020-10-27 北京小马慧行科技有限公司 车辆控制方法及装置
CN110466513A (zh) * 2019-08-30 2019-11-19 北京小马慧行科技有限公司 车辆控制方法及装置
TW202146189A (zh) 2020-01-22 2021-12-16 美商即時機器人股份有限公司 於多機器人操作環境中之機器人之建置
US11535245B2 (en) * 2020-05-08 2022-12-27 The Boeing Company Systems and methods for reducing a severity of a collision
CN112172806B (zh) * 2020-08-31 2022-03-22 恒大新能源汽车投资控股集团有限公司 车辆状态的调整装置、方法和电子设备
JP7414025B2 (ja) * 2021-01-21 2024-01-16 トヨタ自動車株式会社 衝突回避支援装置
US20240025395A1 (en) * 2022-07-22 2024-01-25 Motional Ad Llc Path generation based on predicted actions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000095130A (ja) * 1998-09-21 2000-04-04 Toyota Motor Corp 車両用衝突制御装置
JP2005254923A (ja) * 2004-03-10 2005-09-22 Toyota Motor Corp 車両の衝撃緩衝装置
WO2006070865A1 (ja) * 2004-12-28 2006-07-06 Kabushiki Kaisha Toyota Chuo Kenkyusho 車両運動制御装置
JP2007125997A (ja) * 2005-11-04 2007-05-24 Nissan Motor Co Ltd 車両のインテリジェントブレーキアシストシステム
JP2009012538A (ja) * 2007-07-02 2009-01-22 Mazda Motor Corp 車両の乗員保護装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6168198B1 (en) * 1992-05-05 2001-01-02 Automotive Technologies International, Inc. Methods and arrangements for controlling an occupant restraint device in a vehicle
JP2901112B2 (ja) * 1991-09-19 1999-06-07 矢崎総業株式会社 車両周辺監視装置
US6085151A (en) * 1998-01-20 2000-07-04 Automotive Systems Laboratory, Inc. Predictive collision sensing system
DE10328062A1 (de) * 2003-06-23 2005-01-20 Robert Bosch Gmbh Verfahren zur Verbesserung der Sicherheit von an einem vorzeitig erkannten Unfall beteiligten Verkehrsteilnehmern
JP4811019B2 (ja) * 2005-01-17 2011-11-09 株式会社豊田中央研究所 衝突挙動制御装置
DE102005003274A1 (de) 2005-01-25 2006-07-27 Robert Bosch Gmbh Verfahren und Vorrichtung zur Vermeidung und/oder Minderung der Folgen von Kollisionen beim Ausweichen vor Hindernissen
JP2006264416A (ja) * 2005-03-22 2006-10-05 Takata Corp 対象物検知システム、保護システム、車両
JP4952127B2 (ja) 2006-08-08 2012-06-13 トヨタ自動車株式会社 車両制御装置、車両制御システム、及び車両制御方法
DE102008005310A1 (de) * 2008-01-21 2009-07-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Beeinflussung der Bewegung eines Fahrzeugs bei vorzeitigem Erkennen einer unvermeidbaren Kollision mit einem Hindernis
DE102011115875B4 (de) * 2011-10-12 2023-03-23 Volkswagen Aktiengesellschaft Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs
US9487195B2 (en) * 2012-09-04 2016-11-08 Toyota Jidosha Kabushiki Kaisha Collision avoidance assistance device and collision avoidance assistance method
DE102012021004B4 (de) * 2012-10-26 2020-09-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Reduzieren von medizinischen Unfallfolgen bei unvermeidbaren Unfällen im Querverkehr
US20140257659A1 (en) * 2013-03-11 2014-09-11 Honda Motor Co., Ltd. Real time risk assessments using risk functions
JP6155963B2 (ja) 2013-08-21 2017-07-05 株式会社デンソー 衝突緩和装置
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
KR101519287B1 (ko) * 2014-02-14 2015-05-11 현대자동차주식회사 차량 충돌 방지 장치 및 그 방법
US9440649B2 (en) * 2014-10-29 2016-09-13 Robert Bosch Gmbh Impact mitigation by intelligent vehicle positioning
US9701306B2 (en) * 2014-12-23 2017-07-11 Toyota Motor Engineering & Manufacturing North America, Inc. Risk mitigation for autonomous vehicles relative to turning objects
US9481366B1 (en) * 2015-08-19 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
CN108025763B (zh) * 2015-09-29 2021-09-07 索尼公司 信号处理装置、信号处理方法和计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000095130A (ja) * 1998-09-21 2000-04-04 Toyota Motor Corp 車両用衝突制御装置
JP2005254923A (ja) * 2004-03-10 2005-09-22 Toyota Motor Corp 車両の衝撃緩衝装置
WO2006070865A1 (ja) * 2004-12-28 2006-07-06 Kabushiki Kaisha Toyota Chuo Kenkyusho 車両運動制御装置
JP2007125997A (ja) * 2005-11-04 2007-05-24 Nissan Motor Co Ltd 車両のインテリジェントブレーキアシストシステム
JP2009012538A (ja) * 2007-07-02 2009-01-22 Mazda Motor Corp 車両の乗員保護装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7021891B2 (ja) 2017-09-28 2022-02-17 株式会社Subaru 車両の制御装置及び車両の制御方法
JP2019064301A (ja) * 2017-09-28 2019-04-25 株式会社Subaru 車両の制御装置及び車両の制御方法
JP2019066919A (ja) * 2017-09-28 2019-04-25 株式会社Subaru 車両の制御装置及び車両の制御方法
JP7004534B2 (ja) 2017-09-28 2022-02-10 株式会社Subaru 車両の制御装置及び車両の制御方法
KR20190109629A (ko) * 2018-02-28 2019-09-26 삼성전자주식회사 자율 주행 장치 및 그 주행 방법
KR102532741B1 (ko) * 2018-02-28 2023-05-16 삼성전자주식회사 자율 주행 장치 및 그 주행 방법
JP2020019314A (ja) * 2018-07-30 2020-02-06 株式会社アドヴィックス 衝突時制御装置
JP7196448B2 (ja) 2018-07-30 2022-12-27 株式会社アドヴィックス 衝突時制御装置
US11273848B2 (en) 2019-03-13 2022-03-15 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method, device and apparatus for generating a defensive driving strategy, and storage medium
JP2020147271A (ja) * 2019-03-13 2020-09-17 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 防御的運転策略の生成方法、装置、デバイス、記憶媒体、及びプログラム
JPWO2022097387A1 (ja) * 2020-11-05 2022-05-12
WO2022097387A1 (ja) * 2020-11-05 2022-05-12 日立Astemo株式会社 車両制御装置
JP7399312B2 (ja) 2020-11-05 2023-12-15 日立Astemo株式会社 車両制御装置

Also Published As

Publication number Publication date
US11772644B2 (en) 2023-10-03
JPWO2017056374A1 (ja) 2018-07-12
US10464559B2 (en) 2019-11-05
JP6760297B2 (ja) 2020-09-23
CN108025763A (zh) 2018-05-11
US11254307B2 (en) 2022-02-22
US20220126821A1 (en) 2022-04-28
EP3357790A4 (en) 2019-06-19
US20200039509A1 (en) 2020-02-06
CN108025763B (zh) 2021-09-07
US20180281786A1 (en) 2018-10-04
EP3357790A1 (en) 2018-08-08

Similar Documents

Publication Publication Date Title
US11772644B2 (en) Damage reduction device, damage reduction method, and program
US9855968B2 (en) Vehicle control system and vehicle control method
US9758176B2 (en) Vehicle control apparatus
JP4937656B2 (ja) 車両用衝突制御装置
EP3354525B1 (en) Arrangement and method for mitigating a forward collision between road vehicles
US20160375899A1 (en) Vehicle control device
EP3919336B1 (en) Travel control method and travel control device for vehicle
JP7429589B2 (ja) 車両の移動支援システム
JP5464333B2 (ja) 前面衝突時オーバーラップ量制御装置
US9290177B2 (en) Vehicle control apparatus
WO2017056381A1 (ja) 被害低減装置、被害低減方法、及びプログラム
WO2016061029A1 (en) Rear accident protection
JP2005254923A (ja) 車両の衝撃緩衝装置
JP2012045984A (ja) 衝突軽減装置
WO2017056375A1 (ja) 被害低減装置、被害低減方法およびプログラム
JP2016016743A (ja) 車両制御装置
WO2017056454A1 (ja) 被害低減装置、被害低減方法及びプログラム
JP5065151B2 (ja) 車両の運動制御装置、及び車両の運動制御方法
WO2017056373A1 (ja) 被害低減装置、被害低減方法およびプログラム
WO2022130701A1 (ja) 車両制御装置
JP2019209910A (ja) 車両制御システム
JP7035862B2 (ja) 走行支援装置
CN113525348B (zh) 车辆移动辅助系统
JP2023108223A (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP2023108224A (ja) 移動体制御装置、移動体制御方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16850557

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017542689

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15761844

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE