WO2023026535A1 - 制御装置 - Google Patents

制御装置 Download PDF

Info

Publication number
WO2023026535A1
WO2023026535A1 PCT/JP2022/010225 JP2022010225W WO2023026535A1 WO 2023026535 A1 WO2023026535 A1 WO 2023026535A1 JP 2022010225 W JP2022010225 W JP 2022010225W WO 2023026535 A1 WO2023026535 A1 WO 2023026535A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
detection unit
getting
occupant
detects
Prior art date
Application number
PCT/JP2022/010225
Other languages
English (en)
French (fr)
Inventor
裕也 田中
至貴 深澤
聡 松田
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to US18/553,281 priority Critical patent/US20240174194A1/en
Priority to DE112022001211.0T priority patent/DE112022001211T5/de
Priority to CN202280029595.6A priority patent/CN117203687A/zh
Publication of WO2023026535A1 publication Critical patent/WO2023026535A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/40Safety devices, e.g. detection of obstructions or end positions
    • E05F15/42Detection using safety edges
    • E05F15/43Detection using safety edges responsive to disruption of energy beams, e.g. light or sound
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/80User interfaces
    • E05Y2400/81Feedback to user, e.g. tactile
    • E05Y2400/812Acoustic
    • E05Y2400/814Sound emitters, e.g. loudspeakers
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/80User interfaces
    • E05Y2400/81Feedback to user, e.g. tactile
    • E05Y2400/818Visual
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2900/00Application of doors, windows, wings or fittings thereof
    • E05Y2900/50Application of doors, windows, wings or fittings thereof for vehicles
    • E05Y2900/53Type of wing
    • E05Y2900/531Doors

Definitions

  • the present disclosure relates to a control device mounted on a vehicle.
  • the getting-off assistance device described in Patent Document 1 includes an approaching object detection section, a getting-off restriction section, a getting-off operation detection section, a control section, and a plurality of first detection sections.
  • the approaching object detection unit is configured to detect an approaching object approaching the vehicle from the rear side.
  • the getting-off restricting unit executes a getting-off restricting operation including an alarm operation, which is an operation for issuing an alarm for a door of the vehicle, and/or an opening restricting operation, which is an operation for restricting opening of the door.
  • the getting-off motion detection unit is configured to detect a getting-off motion, which is a motion to get off by the occupant of the own vehicle.
  • the control unit When the approaching object detection unit detects the approaching object when the exiting operation detection unit detects the exiting operation, the control unit performs the exiting restricting operation for at least the door closest to the approaching object. is executed by the getting-off restriction unit.
  • the first detection section is configured to detect an object existing around the vehicle. At least two of the first detection units are also second detection units configured to detect the approaching object approaching the own vehicle from the rear side.
  • the control unit Based on the detection result of at least one of the first detection units, the control unit detects a first detection unit in a state in which a shielding object, which is an object that hinders detection of the approaching object, exists behind the own vehicle. It is determined whether or not the state is established when the host vehicle is parked or stopped. When it is determined that the first state is established, the control unit controls the second detection unit preset to be used as the approaching object detection unit in the first state, out of the second detection units. is used as the approaching object detection unit.
  • control unit determines that a second state in which the shield does not exist behind the vehicle based on a detection result by at least one of the first detection units is when the vehicle is parked or when the vehicle is parked. It is determined whether or not the condition is satisfied when the vehicle is stopped.
  • control unit controls the second detection unit preset to be used as the approaching object detection unit in the second state among the second detection units. It is configured to use the fourth detection section as the approaching object detection section.
  • the above-described conventional getting-off assist device detects an approaching object by means of the third detection section, which is an electronic outer mirror, in the first state in which an obstacle exists behind the own vehicle, and detects the approaching object in a second state in which an obstacle does not exist behind the own vehicle.
  • the fourth detection unit which is a rear side radar (Patent Document 1, paragraph 0016).
  • the electronic outer mirror used in the first state cannot detect an approaching object due to the effects of heavy rain, dense fog, nighttime, backlight, etc. There is a risk that the safety in
  • the present disclosure provides a control device that can improve the safety of passengers getting off the vehicle more than before.
  • One aspect of the present disclosure is a control device mounted on a vehicle, wherein the vehicle is controlled based on a detection result of at least one of an occupant sensor that detects an operation of an occupant of the vehicle and a vehicle sensor that detects a state of the vehicle.
  • a caution level estimating unit for estimating the degree of caution of the occupant with respect to an approaching object, and a door mounted on the vehicle when the caution level estimated by the caution level estimating unit is lower than a predetermined threshold
  • a control device comprising: a getting-off restricting unit that causes at least one of an opening/closing device, an audio output device, and an image display device to perform a getting-off restricting operation.
  • the present disclosure by causing at least one of the door opening/closing device, the audio output device, and the image display device to perform a getting-off restriction operation in response to a decrease in the attention level of the occupant, the safety of the occupant when getting off the vehicle is improved more than before. It is possible to provide a control device capable of improving
  • FIG. 1 is a functional block diagram showing an embodiment of a control device according to the present disclosure
  • FIG. FIG. 2 is a plan view showing an example of an approaching object approaching a vehicle equipped with the control device of FIG. 1
  • FIG. 2 is a flowchart for explaining the operation of the control device in FIG. 1;
  • FIG. 1 is a functional block diagram showing one embodiment of a control device according to the present disclosure.
  • the control device 10 of the present embodiment is an electronic control unit (ECU) mounted in a vehicle 1 such as a gasoline vehicle, a diesel vehicle, a natural gas vehicle, a hybrid vehicle, an electric vehicle, a fuel cell vehicle, or a hydrogen engine vehicle. is. Although illustration is omitted, the control device 10 is composed of one or more microcontrollers including an input/output unit, a central processing unit (CPU), a memory, and a timer, for example.
  • a vehicle 1 such as a gasoline vehicle, a diesel vehicle, a natural gas vehicle, a hybrid vehicle, an electric vehicle, a fuel cell vehicle, or a hydrogen engine vehicle.
  • the control device 10 is composed of one or more microcontrollers including an input/output unit, a central processing unit (CPU), a memory, and a timer, for example.
  • a vehicle 1 is equipped with, for example, an external sensor 2, an occupant sensor 3, a vehicle sensor 4, a car navigation system (CNS) 5, a door opening/closing device 6, an audio output device 7, and an image display device 8. ing.
  • the vehicle 1 includes a drive system, a steering system, a braking system, and a control system for running, turning, decelerating, and stopping the vehicle 1 .
  • the external sensor 2 includes, for example, a millimeter wave radar, a monocular camera, a stereo camera, LiDAR, an ultrasonic sensor, a road-to-vehicle communication device, a vehicle-to-vehicle communication device, an illuminance sensor, a raindrop sensor, a humidity sensor, and the like.
  • the external sensor 2 detects objects around the vehicle 1 including, for example, roads, white lines, signs, traffic lights, vehicles, pedestrians, and obstacles, and the surrounding environment including illuminance, rainfall, humidity, and visibility of obstacles. and output to the control device 10 .
  • the occupant sensors 3 include, for example, seating sensors, motion capture systems, eye trackers, face authentication systems, voice recognition systems, seatbelt sensors, and the like.
  • the occupant sensor 3 detects, for example, the preparatory movement of the occupant of the vehicle 1 when getting off the vehicle, the age of the occupant, and the like, and outputs the detection results to the control device 10 .
  • Preliminary actions for exiting the vehicle detected by the occupant sensor 3 include, for example, movement of the line of sight and body toward the door, utterances related to exiting by the occupant, and unfastening and unfastening of the seatbelt.
  • the vehicle sensors 4 include various sensors that detect the state of the vehicle, such as wheel speed sensors, acceleration sensors, and shift position sensors. Detects vehicle conditions including abnormalities. Abnormalities in the vehicle 1 detected by the vehicle sensor 4 include, for example, abnormalities in tire air pressure, fuel level, engine, ABS (Anti-Lock Brake System), airbags, brakes, oil pressure, battery, water temperature, and the like.
  • ABS Anti-Lock Brake System
  • the vehicle sensor 4 includes, for example, a door lever sensor, a door switch, a touch sensor, and the like, and detects the operation of the passenger to operate the door lever and the door switch, and the exiting operation including contact between the passenger's hand and the door lever or the door switch. To detect.
  • the vehicle sensor 4 outputs the detected vehicle state and exit operation to the control device 10 .
  • the CNS 5 includes, for example, a map information storage device, a route calculation device, a vehicle-to-vehicle communication device, a road-to-vehicle communication device, and a global positioning system (GNSS) receiver. Moreover, CNS5 is equipped with the input device for the passenger
  • GNSS global positioning system
  • the door opening/closing device 6 includes, for example, one or more actuators and a power transmission mechanism, and based on a control signal input from the control device 10, the door opening/closing device 6 of the vehicle 1 is operated by a hinge type door, a sliding door, or other opening/closing method. To automatically unlock, open, close and lock a door.
  • the audio output device 7 is, for example, a speaker provided in the passenger compartment of the vehicle 1 and outputs warning sounds and voice guidance based on control signals input from the control device 10 .
  • the image display device 8 is, for example, a liquid crystal display device, an organic EL display device, or a head-up display, and displays images based on control signals input from the control device 10 .
  • the image display device 8 may include an input device such as a touch panel or an operation button, for example.
  • a passenger of the vehicle 1 can input information such as a destination to the CNS 5 via the input device of the image display device 8, for example.
  • the control device 10 of the present embodiment is mounted on the vehicle 1 and functions as a getting-off assist device that assists the occupants of the vehicle 1 to get off.
  • the control device 10 includes an attention level estimation unit 11 and a getting-off restriction unit 12 . Further, the control device 10 includes, for example, an approaching object detection unit 13, an exit motion detection unit 14, an occupant behavior detection unit 15, a vehicle state detection unit 16, an exit environment detection unit 17, an arrival prediction unit 18, At least one of the operation determination unit 19 can be provided.
  • Each part of the control device 10 shown in FIG. 1 is a functional block showing functions of the control device 10 realized by executing a program stored in a memory forming the control device 10 by a CPU forming the control device 10, for example. is.
  • Each function of control device 10 other than alertness estimation unit 11 and getting-off restriction unit 12 may be realized by an ECU or a microcontroller separate from control device 10, for example.
  • FIG. 2 is a plan view showing a state in which the vehicle 1 equipped with the control device 10 stops on the roadside.
  • FIG. 3 is a flowchart for explaining the operation of the control device 10. As shown in FIG. For example, when the activation switch of vehicle 1 is turned on, control device 10 repeatedly executes the processing flow shown in FIG. 3 at a predetermined cycle.
  • the control device 10 When the processing flow shown in FIG. 3 is started, the control device 10 first executes processing P1 for determining whether the vehicle 1 is stopped. In this process P1, the vehicle state detection unit 16 of the control device 10 determines whether or not the vehicle 1 is stopped based on detection results input from, for example, a wheel speed sensor and an acceleration sensor included in the vehicle sensor 4. do.
  • the vehicle state detection unit 16 determines that the speed of the vehicle 1 estimated based on the rotational speed of the wheels of the vehicle 1, which is the detection result of the wheel speed sensor, is the first threshold value for determining whether the vehicle is stopped. If the value is lower than the value, it is determined that the vehicle 1 is stopped. Moreover, the vehicle state detection unit 16 may determine that the vehicle 1 is stopped based on the detection result of the shift position sensor included in the vehicle sensor 4, for example. In addition, the vehicle state detection unit 16 detects, for example, stoppage time, which is the time during which the vehicle 1 is stopped.
  • the control device 10 executes process P2 to determine whether the vehicle 1 is about to stop.
  • the vehicle state detection unit 16 detects, for example, when the speed of the vehicle 1 falls below a second threshold value higher than the first threshold value for stop determination, the vehicle 1 It is determined that the vehicle is about to stop.
  • the vehicle state detection unit 16 detects whether the vehicle 1 is on the basis of, for example, traffic signals, road signs, and road markings detected by the external sensor 2, or map information of the travel route of the vehicle 1 input from the CNS 5. You may determine that it is just before a stop. In process P2, when the vehicle state detection unit 16 determines that the vehicle is not about to stop (NO), the control device 10 terminates the process flow shown in FIG.
  • the control device 10 executes the process P3 for detecting the getting-off environment.
  • the control device 10 detects the getting-off environment by the getting-off environment detection unit 17, for example.
  • the getting-off environment includes, for example, the illuminance and weather around the vehicle 1, the state of the vehicle 1 waiting for a traffic light, traffic conditions around the vehicle 1 including congestion, point information regarding the stop position of the vehicle 1, and the like.
  • the getting-off environment detection unit 17 detects the illuminance around the vehicle 1, for example, based on the detection result of the external sensor 2 such as an illuminance sensor. In addition, the getting-off environment detection unit 17 detects fine, cloudy, rain, snow, and fog depending on the detection result of the external sensor 2 such as a raindrop sensor, a monocular camera, and a stereo camera, and the operation state of the wipers and fog lamps of the vehicle 1, for example. For example, the weather around the vehicle 1 is estimated.
  • the external sensor 2 such as an illuminance sensor.
  • the getting-off environment detection unit 17 detects fine, cloudy, rain, snow, and fog depending on the detection result of the external sensor 2 such as a raindrop sensor, a monocular camera, and a stereo camera, and the operation state of the wipers and fog lamps of the vehicle 1, for example.
  • the weather around the vehicle 1 is estimated.
  • the getting-off environment detection unit 17 estimates the visibility of the approaching object O based on the detection result of the external sensor 2 or the weather information received by the receiver mounted on the vehicle 1, for example. In addition, the getting-off environment detection unit 17 recognizes the display of the traffic signal in front of the vehicle 1 and waits for the signal of the vehicle 1, for example, based on the detection result of the external sensor 2 that detects objects around the vehicle 1 or the road-to-vehicle communication. , and the traffic conditions around the vehicle 1 are detected.
  • the getting-off environment detection unit 17 detects point information of the stopping position of the vehicle 1, such as a parking lot, a rotary in front of a station, a shoulder of a road, or on a road.
  • the accurate point information based on the high precision three-dimensional map information of CNS5 may be sufficient as the point information of the stop position of the vehicle 1.
  • the control device 10 executes the process P4 of determining whether or not the occupant is getting off the vehicle.
  • the getting-off motion detection unit 14 of the control device 10 detects the getting-off motion of the occupant of the vehicle 1 based on the detection result of the occupant sensor 3 or the vehicle sensor 4, for example.
  • the alighting action is, for example, an action that the occupant of the vehicle 1 takes before getting off the vehicle.
  • Alighting actions include, for example, a preliminary motion for getting off and an operation for getting off.
  • Preliminary actions for getting off include keywords and greetings such as unfastening of seat belts by the occupants of the vehicle 1, movement of eyes when the occupants open the doors, weight shifts or body movements, and "Get off" uttered by the occupants when getting off the vehicle.
  • the operation to get off includes, for example, the passenger's hand touching or operating a door switch or door lever.
  • Such an exiting motion is detected by the occupant sensor 3 or the vehicle sensor 4, and the exiting motion detection unit 14 determines whether or not there is an exiting motion based on the detection result of at least one of the occupant sensor 3 or the vehicle sensor 4.
  • the alighting motion detection unit 14 can predict the passenger's alighting more quickly. Further, the getting-off motion detection unit 14 predicts, for example, the time until the occupant of the vehicle 1 gets off or the time until the door of the vehicle 1 is opened, based on the detected getting-off motion, and the predicted time is Output to the estimation unit 11 and the arrival prediction unit 18 .
  • processing P4 when the getting-off environment detection unit 17 determines that the passenger does not get off the vehicle (NO), the control device 10 ends the processing flow shown in FIG. On the other hand, when the getting-off environment detection unit 17 determines that there is an operation of getting off the vehicle (YES) in the process P4, the control device 10 executes the process P5 of determining the presence or absence of the approaching object O.
  • FIG. 1 When the getting-off environment detection unit 17 determines that the passenger does not get off the vehicle (NO), the control device 10 ends the processing flow shown in FIG.
  • the getting-off environment detection unit 17 determines that there is an operation of getting off the vehicle (YES) in the process P4
  • the control device 10 executes the process P5 of determining the presence or absence of the approaching object O.
  • the control device 10 determines the presence or absence of the approaching object O by the approaching object detection unit 13, for example.
  • the approaching object detection unit 13 detects an approaching object O approaching the vehicle 1 based on the detection result of the external sensor 2 that detects objects around the vehicle 1, for example. More specifically, as shown in FIG. 2, the approaching object detection unit 13 detects an object approaching the drop-off area A of the vehicle 1 from the rear side of the stopped vehicle 1 based on the detection result of the external sensor 2. is detected as an approaching object O.
  • the rear side means, for example, the left and right sides behind the vehicle 1 .
  • the alighting area A is, for example, an area where the doors of the vehicle 1 open and close, and an area where the occupant of the vehicle 1 gets in and out of the vehicle 1, and is set on the left, right, or around the vehicle 1 according to the structure and position of the doors. be.
  • the drop-off area A can be set adjacent to each door of the vehicle 1, for example.
  • the approaching object detection unit 13 detects the approaching object O by, for example, calculating the position, speed, and moving direction of an object around the vehicle 1 based on the detection result of the external sensor 2 .
  • Objects detected as approaching objects O by the approaching object detection unit 13 include, for example, vehicles including automobiles, motorcycles, and bicycles, as well as moving objects other than vehicles such as pedestrians and animals.
  • the approaching object detection unit 13 detects objects approaching the drop-off area A with an arrival margin time, which is the time required to reach the drop-off area A, shorter than a predetermined time threshold as an approaching object O may be detected as The time to arrival can be calculated in the same manner as the time to collision (TTC).
  • TTC time to collision
  • the approaching object detection unit 13 outputs approaching object information such as the position, speed, predicted course, and marginal arrival time for each drop-off area A of the approaching object O to the arrival prediction unit 18 .
  • the control device 10 executes the process P6 of determining the degree of caution of the occupant of the vehicle 1 .
  • the occupant behavior detection unit 15 of the control device 10 determines the type of the occupant getting off the vehicle 1 or at least the distraction behavior when the occupant's attention level is lowered based on the detection result of the occupant sensor 3. Detect one.
  • the occupant behavior detection unit 15 estimates the age of the occupant whose exit motion is detected based on the detection result of the occupant sensor 3 such as a face authentication system or an in-vehicle camera. Also, the occupant behavior detection unit 15 classifies the occupant whose exit motion is detected into age categories such as infant, child, minor, adult, and elderly based on the estimated age. The occupant behavior detection unit 15 outputs, for example, the estimated age or age group to the attention level estimation unit 11 as the type of alighting occupant. In addition, the occupant behavior detection unit 15 detects the type of the occupant exiting the vehicle, such as the driver or fellow passenger, based on the seating position of each occupant detected by the occupant sensor 3 or the vehicle sensor 4, for example. It is output to the degree-of-attention estimation unit 11 as the type.
  • the occupant behavior detection unit 15 detects the distraction behavior when the occupant of the vehicle 1 becomes less careful, based on the detection result of at least one of the occupant sensor 3 and the vehicle sensor 4, for example.
  • the distractive behavior includes, for example, the lack of safety confirmation of the passenger getting off the vehicle 1 and the getting off action during conversation between the passengers. More specifically, the occupant behavior detection unit 15 detects, for example, that the occupant's face or line of sight is not facing the mirror of the vehicle 1 or the rear side of the vehicle 1 immediately before or during the operation of getting off the vehicle. Insufficient confirmation of the safety of the occupant is detected, and the detection result is output to the attention level estimation unit 11.
  • the occupant behavior detection unit 15 also recognizes the movement of each occupant of the vehicle 1 to get off the vehicle and whether they are speaking or not, detects the movement of getting off the vehicle during conversation between the occupants, and sends the detection result to the attention level estimation unit 11. Output.
  • the alertness estimation unit 11 detects an approaching object O approaching the vehicle 1 based on the detection result of at least one of the occupant sensor 3 that detects the motion of the occupant of the vehicle 1 and the vehicle sensor 4 that detects the state of the vehicle 1, for example. Estimates the degree of attention of the occupants to In the processing P6, although it is determined that there is no approaching object O in the previous processing P5, the degree of caution estimation unit 11, for example, similarly to the case where it is determined that there is an approaching object O in the previous processing P5, The degree of attention of the occupant to the object O is estimated.
  • the attention level estimation unit 11 detects information input from at least one of the exit operation detection unit 14, the occupant behavior detection unit 15, the vehicle state detection unit 16, and the exit environment detection unit 17. Based on this, the occupant's degree of attention to the approaching object O is estimated.
  • the alertness estimation unit 11 receives, for example, the alighting motion of the occupant as described above from the alighting motion detection unit 14, and at least one of the type of alighting occupant and the distraction behavior as described above from the occupant behavior detection unit 15. .
  • the information input from the vehicle state detection unit 16 to the attention level estimation unit 11 includes the following information detected by the vehicle state detection unit 16. Based on the detection result of the vehicle sensor 4, for example, the vehicle state detection unit 16 determines whether the vehicle 1 is about to stop, whether the vehicle 1 is currently stopped, the elapsed time after the vehicle 1 has stopped, and the shift of the vehicle 1. A position, an abnormality of the vehicle 1, and the like are detected and output to the attention level estimation unit 11.
  • FIG. Abnormalities of the vehicle 1 detected by the vehicle state detection unit 16 include, for example, abnormalities related to tire air pressure, remaining amount of gasoline, oil pressure, battery, cooling water, etc., collision between the vehicle 1 and an obstacle, and collision mitigation braking (AEB). Including emergency stops due to the operation of
  • the information input from the getting-off environment detection unit 17 to the caution level estimation unit 11 includes the getting-off environment detected by the getting-off environment detection unit 17 .
  • the getting-off environment detection unit 17 detects the getting-off environment, for example, based on information input from at least one of the external sensor 2, the vehicle sensor 4, and the CNS 5, as described above.
  • the getting-off environment includes, for example, the illuminance and weather around the vehicle 1, the state of the vehicle 1 waiting for a traffic light, the traffic conditions around the vehicle 1 including traffic jams, and point information regarding the position where the vehicle 1 stops. .
  • the caution level estimation unit 11 detects a dismounting motion immediately before the vehicle 1 stops, or if the time from when the vehicle 1 stops to when the dismounting motion is detected is shorter than a predetermined threshold value, The degree of attention of the occupant to the approaching object O is estimated to be low. Further, the attention level estimation unit 11 estimates the attention level of the occupant to the approaching object O based on the detection result of the occupant's age or age group or distractive behavior by the occupant behavior detection unit 15, for example. More specifically, the attention level estimation unit 11 determines that the age category of the occupant whose dismounting motion is detected is infant or child, and the attention level to the surroundings of the vehicle 1 is lowered due to movement around the vehicle 1, for example. is detected, the attention level of the occupant to the approaching object O is estimated to be low.
  • the caution degree estimation unit 11 estimating the degree of caution of the occupant to be low means, for example, setting the degree of caution of the occupant to a lower level or numerical value. More specifically, the degree of caution of the passenger can be represented by levels such as high, medium, and low, and numerical values from 0 to 100, for example.
  • the attention level estimation unit 11 sets the attention level of each passenger to a predetermined initial value while the vehicle 1 is running, and the conditions for estimating the attention level to be low as described above while the vehicle 1 is stopped or just before the vehicle stops. reduces the attention level of the occupants who satisfy
  • the degree of caution estimation unit 11 for example, when the occupant whose exit motion is detected does not look at the room mirror, the side mirror, or the rear side of the vehicle 1, the safety check for the approaching object O is insufficient. In addition, the degree of caution of the occupant is estimated to be low.
  • the attention level estimation unit 11 is designed to alert the occupant to the approaching object O. Underestimate degree. In such a situation, the passenger getting off the vehicle 1 rushes to get off before the traffic signal display turns green (passage permitted), so the passenger's attention to the approaching object O is estimated to be low.
  • the attention level estimation unit 11 estimates the attention level of the occupant to the approaching object O to be low. In such a situation, the occupant getting off the vehicle 1 hurries to get off before the temporarily stopped vehicle 1 moves forward. underestimate the attention of
  • the attention level estimation unit 11 is more sensitive to the approaching object O than when the vehicle state detection unit 16 does not detect an abnormality in the vehicle 1.
  • Abnormalities in the vehicle 1 detected by the vehicle state detection unit 16 include abnormalities in tire air pressure, remaining amount of fuel, engine, ABS, airbags, brakes, oil pressure, battery, water temperature, etc. of the vehicle 1 detected by the vehicle sensor 4. include. This is because when such an abnormality of the vehicle 1, for example, a decrease in tire air pressure, is detected, the attention of the driver of the vehicle 1 is directed to the location of the abnormality such as the tire, and attention to the approaching object O is reduced.
  • the caution level estimation unit 11 increases the occupant's attention to the approaching object O more than when contact is not detected. Underestimate degree. This is because, when the contact between the vehicle 1 and another vehicle or object is detected, the occupant of the vehicle 1 pays attention to the contacting vehicle or object or the contact point of the vehicle 1, and attention to the approaching object O decreases. It is for
  • the caution level estimation unit 11 is more likely to detect the approaching object than when the activation of the AEB and the rapid deceleration of the vehicle 1 are not detected.
  • the occupant's degree of attention to O is estimated to be low. Even when the AEB of the vehicle 1 is activated or when the vehicle 1 suddenly decelerates, the occupant of the vehicle 1 pays attention to other vehicles or objects that have caused the vehicle 1 to come into contact with them, and pays attention to the approaching object O. This is because the
  • the vehicle state detection unit 16 detects AEB operation, sudden deceleration, and contact between the vehicle 1 and other vehicles or objects based on the detection results of the vehicle sensor 4, for example.
  • Vehicle state detection unit 16 detects, for example, a deceleration of about 0.4 [G] to 0.6 [G], which is higher than normal deceleration of vehicle 1, as sudden deceleration.
  • the vehicle state detection unit 16 may detect the operation of the AEB, for example, when deceleration of 0.6 [G] or more, which is higher than the deceleration of the driver of the vehicle 1, is detected.
  • the vehicle state detection unit 16 may detect contact or collision between the vehicle 1 and another vehicle or object when deceleration higher than the deceleration for detecting the operation of the AEB is detected.
  • the attention level estimation unit 11 estimates the passenger's attention level to the approaching object O to be lower as the illuminance around the vehicle 1 detected by the getting-off environment detection unit 17 is lower.
  • the attention level estimation unit 11 estimates the passenger's attention level to the approaching object O to be lower as the visibility of obstacles around the vehicle 1 estimated by the getting-off environment detection unit 17 is shorter.
  • Such a decrease in illuminance and visibility around the vehicle 1 is caused by, for example, alighting environments such as nighttime, cloudy weather, rain, snow, and fog.
  • the occupant's degree of attention to O is estimated to be low.
  • the attention level estimation unit 11 estimates the occupant's attention level to the approaching object O to be low, for example, when the getting-off environment detection unit 17 detects a strong wind with a predetermined wind speed or higher outside the vehicle 1 . This is because opening and closing of the door of the vehicle 1 and getting off of the passenger are affected by the strong wind, and the attention of the passenger is directed to the door and the getting off area A, and attention to the approaching object O is reduced.
  • the attention level estimation unit 11 estimates the passenger's attention level to the approaching object O to be lower as the difficulty level of getting off determined by the getting-off environment detection unit 17 is higher.
  • the getting-off environment detection unit 17 detects the stop position of the vehicle 1 based on the output of the CNS 5 mounted on the vehicle 1, and determines the getting-off difficulty level based on the stop position.
  • the getting-off difficulty level determined by the getting-off environment detection unit 17 is, for example, the lowest in a parking lot, and increases in the order of a rotary in front of a station, a shoulder of a road, a road, and a highway. This is because getting off the vehicle on the shoulder of the expressway or on the expressway involves danger from other vehicles traveling at high speed.
  • the attention level estimation unit 11 outputs the estimated attention level of the passenger to the operation determination unit 19 .
  • the operation determination section 19 determines that the degree of caution of the occupant is not low (NO). do. In this case, the control device 10 terminates the processing flow shown in FIG.
  • the control device 10 executes the alerting process P7 as restriction on getting off.
  • the actuation judgment unit 19 judges the content of the attention calling action based on the level or numerical value of the degree of caution of the occupant input from the degree-of-attention estimation unit 11. More specifically, the operation determination unit 19 determines, for example, the contents of the alerting operation by at least one of the audio output device 7 and the image display device 8 .
  • the attention-calling action by the audio output device 7 includes, for example, the output of a warning sound or voice calling attention to the approaching object O.
  • the attention calling operation by the image display device 8 includes the display of images and characters calling attention to the approaching object O.
  • the alert action may include, for example, vibration of the steering wheel or seat of the vehicle 1 by a vibration generator (not shown).
  • the operation determination unit 19 for example, according to the level of caution of the occupant input from the caution degree estimation unit 11 or the magnitude of the numerical value, the warning sound or voice output by the audio output device 7, and the display by the image display device 8 Decide which image or text to use. More specifically, when the level or numerical value of the degree of caution of the occupant is lower than a predetermined level or numerical value, the operation determination unit 19 determines, for example, warning sound or voice, image or character size, output time, Select the warning action that maximizes the output frequency.
  • the operation determination unit 19 determines the door opening restriction by the door opening/closing device 6 as the attention calling operation.
  • the operation determination unit 19 outputs the determined or selected alerting operation to the getting-off restriction unit 12 .
  • the getting-off restricting unit 12 outputs a control signal for realizing the warning operation as the getting-off restriction input from the operation determining unit 19 to the door opening/closing device 6, the voice output device 7, and the image display device. output to at least one of 8.
  • the control device 10 terminates the processing flow shown in FIG.
  • the control device 10 executes the process P8 of predicting exit conditions.
  • the arrival prediction unit 18 of the control device 10 predicts the exit condition based on the exit motion of the occupant of the vehicle 1 input from the exit motion detection unit 14, for example.
  • the getting-off conditions include, for example, a getting-off area A where the occupants of the vehicle 1 get off, and a getting-off time when the door of the vehicle 1 is open or the occupant is present in the getting-off area A.
  • the control device 10 executes a process P9 of calculating an arrival certainty after the process P8 of predicting the getting-off condition is finished.
  • the arrival prediction unit 18 of the control device 10 for example, based on the exit condition predicted in the previous process P8 and the approaching object information input from the approaching object detection unit 13, The arrival of an approaching object O to an area A is predicted.
  • the arrival prediction unit 18 calculates the degree of certainty that the approaching object O will reach the predicted drop-off area A at the predicted drop-off time based on the drop-off condition and the approaching object information. For example, if the approaching object O passes through the predicted drop-off area A by the predicted drop-off time, or if the approaching object O is a predetermined distance away from the drop-off area A at the predicted drop-off time, The arrival certainty calculated by the prediction unit 18 becomes low.
  • the arrival prediction unit 18 when the approaching object O is predicted to reach the predicted drop-off area A at the predicted drop-off time, or when the approaching object O approaches the drop-off area A at the predicted drop-off time by less than a predetermined distance.
  • the arrival certainty calculated by the arrival prediction unit 18 will be high.
  • the arrival certainty calculated by the arrival prediction unit 18 is low.
  • the arrival certainty is an index representing the possibility that the approaching object O will reach the predicted drop-off area A at the predicted drop-off time.
  • the possibility of reaching the drop-off area A is lowered.
  • the arrival certainty factor can be increased as the number of times the approaching object O is detected increases.
  • the arrival reliability is, for example, when the detection of the approaching object O is repeated at a predetermined cycle, the number of times that the estimated arrival margin time of the approaching object O to the drop-off area A continues below a predetermined value. can be higher as .
  • the arrival certainty can be increased when a plurality of sensors of the external sensor 2 are detecting the approaching object O, and when only one sensor of the external sensor 2 is detecting the approaching object O can be lowered.
  • the arrival prediction unit 18 may calculate a getting-off certainty, which is an index of the possibility that the occupant of the vehicle 1 will get off, according to the getting-off motion input from the getting-off motion detection unit 14, for example.
  • a getting-off certainty which is an index of the possibility that the occupant of the vehicle 1 will get off
  • the getting-off operation input to the arrival prediction unit 18 is a getting-off operation that directly leads to getting off, such as the operation of a door switch or door lever by a passenger
  • the getting-off certainty calculated by the arrival prediction unit 18 increases.
  • the dismounting motion input to the arrival prediction unit 18 is a preliminary disembarkation motion that is not directly related to disembarkation, such as the occupant's line of sight movement, weight shift, or body movement, the disembarkation certainty calculated by the arrival prediction unit 18 is lower.
  • This process P10 is similar to the above-described process P6, but the approaching object O is detected by the approaching object detection unit 13 in the above-described process P5. Therefore, the occupant's degree of attention to the approaching object O is set lower than in the processing P6 when the approaching object O is not detected in the above-described processing P5.
  • the attention level estimation unit 11 estimates the passenger's attention level to the approaching object O to be lower as the arrival margin time calculated by the approaching object detection unit 13 is shorter.
  • the attention level estimation unit 11 outputs the estimated occupant's attention level to the operation determination unit 19 in the same manner as in the above-described process P6.
  • the operation determination section 19 determines that the degree of caution of the occupant is low (YES). do.
  • the control device 10 executes the process P11 of reducing the threshold value X of the degree of arrival certainty, and then executes the process P12 of determining the degree of arrival certainty.
  • the operation determination unit 19 reduces the threshold value X of the arrival reliability used in the determination process P12 of the arrival reliability according to the degree of caution of the occupant input from the caution degree estimation unit 11. That is, the lower the occupant's degree of attention to the approaching object O, the smaller the threshold X of the arrival certainty. It should be noted that the attention level of the occupant to the approaching object O is estimated to be lower in the process P10 described above, as in the process P6 described above, for example, as more conditions for estimating the attention level of the occupant to be low are satisfied. .
  • the operation determination section 19 determines whether the degree of caution of the passenger is not low (NO). In this case, the control device 10 executes the process P12 of determining the degree of arrival reliability without executing the process P11 of reducing the threshold X of the degree of reliability of arrival. Therefore, the arrival certainty threshold X does not decrease from the initial value.
  • the operation determination unit 19 determines whether the reaching reliability calculated in the above-described process P9 is equal to or greater than the threshold value X, for example. In this process P12, when the operation determination unit 19 determines that the arrival certainty is less than the threshold value X (NO), it executes the attention calling process P7 and ends the process flow shown in FIG. On the other hand, in this process P12, when the operation determination unit 19 determines that the degree of reliability of arrival is equal to or greater than the threshold value X (YES), it executes the door opening restriction process P13 as restriction on getting off. Note that the threshold value X of the degree of arrival certainty may be different between the case of determining execution of door opening restriction and the case of determining execution of attention calling.
  • the operation determination unit 19 determines the content of the door-opening restriction operation as the getting-off restriction based on the level or numerical value of the degree of caution of the occupant input from the attention degree estimation unit 11. More specifically, the operation determination unit 19 determines, for example, the door opening restriction operation by the door opening/closing device 6 . The operation determination unit 19 determines the door opening restriction operation according to, for example, the degree of arrival certainty that the approaching object O will reach the drop-off area A and the arrival margin time.
  • the operation determination unit 19 performs the first door opening restricting operation to keep the door of the vehicle 1 closed by the door opening/closing device 6 regardless of the operation of the door switch or door lever by the occupant of the vehicle 1, for example. decide.
  • This first door-opening restricting action includes, for example, an alerting action by at least one of the audio output device 7 and the image display device 8 .
  • the arrival certainty is lower than the first threshold and higher than the second threshold, or the marginal arrival time is longer than the first threshold and is higher than the second threshold.
  • the operation determination unit 19 delays the opening of the door of the vehicle 1 by the door opening/closing device 6, or delays the opening of the door of the vehicle 1 by the door opening/closing device 6.
  • a second door opening restriction operation for stopping the door halfway is determined.
  • the door opening delay time may be varied according to, for example, the degree of certainty of arrival, the time to spare for arrival, or the degree of caution of the occupant.
  • the second door-opening restriction operation may include an alerting operation by at least one of the audio output device 7 and the image display device 8 .
  • the operation determination unit 19 determines, for example, the third getting-off restricting operation of calling attention by at least one of the audio output device 7 and the image display device 8 .
  • the alerting by the audio output device 7 includes, for example, the output of a warning sound or voice calling attention to the approaching object O.
  • FIG. Further, the attention calling action by the image display device 8 includes displaying an image or text calling attention to the approaching object O.
  • the operation determination unit 19 further outputs the door opening restriction operation as the determined getting-off restriction to the getting-off restriction unit 12 .
  • the getting-off restriction unit 12 sends a control signal for realizing the door-opening restriction operation as the getting-off restriction input from the operation determination unit 19 to at least one of the door opening/closing device 6, the audio output device 7, and the image display device 8. output.
  • the door opening restriction operation selected or determined by the operation determination unit 19 is executed by at least one of the door opening/closing device 6 , the audio output device 7 and the image display device 8 .
  • the control device 10 terminates the processing flow shown in FIG. 3 and repeats it at a predetermined cycle.
  • the control device 10 of the present embodiment is mounted on the vehicle 1 and includes the attention level estimation section 11 and the getting-off restriction section 12 .
  • the attention level estimation unit 11 detects the occupant's attention to an approaching object O approaching the vehicle 1 based on the detection result of at least one of the occupant sensor 3 that detects the motion of the occupant of the vehicle 1 and the vehicle sensor 4 that detects the state of the vehicle 1. Estimate attention.
  • the getting-off restriction section 12 disables the door opening/closing device 6, the audio output device 7, and the image display device 8 mounted on the vehicle 1. at least one of to execute the get-off restriction operation.
  • the control device 10 of the present embodiment can use the caution level estimation unit 11 to estimate the caution level of the occupant getting off the vehicle 1 with respect to the approaching object O. Therefore, for example, even if the vehicle sensor 4 cannot detect the approaching object O due to the effects of heavy rain, dense fog, nighttime, backlight, etc., the door opening/closing device 6 and the voice output device can be operated in accordance with the decrease in the degree of attention of the occupant. 7. At least one of the image display devices 8 can be caused to perform a get-off restriction operation. As a result, the occupant of the vehicle 1 is prevented from getting off carelessly, and the occupant can be prevented from coming into contact with the approaching object O when getting off the vehicle 1.
  • the occupant of the vehicle 1 is prevented from opening the door carelessly, and contact between the door of the vehicle 1 and the approaching object O can also be prevented. Therefore, according to the control device 10 of the present embodiment, it is possible to improve the safety of the occupant of the vehicle 1 at the time of getting off compared with the conventional one.
  • control device 10 of the present embodiment includes a vehicle state detection unit 16 that detects stoppage of the vehicle 1 based on the detection result of the vehicle sensor 4, A getting-off operation detection unit 14 for detecting an operation is further provided. Then, the attention level estimation unit 11 estimates the driver's attention level to be lower as the time from when the vehicle state detection unit 16 detects that the vehicle 1 has stopped to when the getting-off operation detection unit 14 detects the getting-off operation is shorter. .
  • the attention level estimation unit 11 can detect the occupant's attention. Underestimate degree. As a result, the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation. As a result, in situations such as those described above where the safety of passengers getting off the vehicle 1 is likely to be lowered, at least one of the door opening/closing device 6, the audio output device 7, and the image display device 8 mounted on the vehicle 1 restricts getting off. can be made easier to execute.
  • control device 10 of the present embodiment includes an alighting environment detection unit 17 that recognizes the display of a traffic signal based on the detection result of the external sensor 2 that detects objects around the vehicle 1, and a detection result of the vehicle sensor 4. and a vehicle state detection unit 16 that detects the shift position of the transmission of the vehicle 1 based on the vehicle state detection unit 16 .
  • the attention level estimation unit 11 estimates the attention level of the occupant based on the recognition result of the display of the traffic signal by the getting-off environment detection unit 17 and the detection result of the shift position by the vehicle state detection unit 16 .
  • the attention level estimation unit 11 can estimate the driver's attention level to be low.
  • the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation.
  • at least one of the door opening/closing device 6, the audio output device 7, and the image display device 8 mounted on the vehicle 1 restricts getting off. can be made easier to execute.
  • control device 10 of this embodiment further includes a vehicle state detection section 16 that detects an abnormality of the vehicle 1 based on the detection result of the vehicle sensor 4 . Then, when the vehicle state detection unit 16 detects an abnormality in the vehicle 1, the attention level estimation unit 11 estimates that the degree of caution of the occupant is lower than when the vehicle state detection unit 16 does not detect an abnormality in the vehicle 1. .
  • the attention level estimation unit 11 can estimate the driver's attention level to be low.
  • the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation.
  • at least one of the door opening/closing device 6, the audio output device 7, and the image display device 8 mounted on the vehicle 1 restricts getting off. can be made easier to execute.
  • control device 10 of this embodiment further includes a vehicle state detection section 16 that detects sudden deceleration of the vehicle 1 based on the detection result of the vehicle sensor 4 . Then, when the vehicle state detection unit 16 detects sudden deceleration of the vehicle 1, the attention degree estimation unit 11 lowers the degree of caution of the occupant than when the vehicle state detection unit 16 does not detect sudden deceleration of the vehicle 1. presume.
  • the attention level estimation unit 11 can estimate the driver's attention level to be low.
  • the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation.
  • at least one of the door opening/closing device 6, the audio output device 7, and the image display device 8 mounted on the vehicle 1 restricts getting off. can be made easier to execute.
  • the control device 10 of the present embodiment further includes an approaching object detection unit 13 that detects an approaching object O approaching the vehicle 1 based on the detection result of the external sensor 2 that detects objects around the vehicle 1. . Then, when the approaching object detection unit 13 detects the approaching object O, the caution level estimation unit 11 sets the occupant's level of caution lower than when the approaching object O is not detected.
  • control device 10 of the present embodiment further includes an alighting environment detection unit 17 that detects the illuminance around the vehicle 1 based on the detection result of the external sensor 2 that detects objects around the vehicle 1 . Then, the attention level estimation unit 11 estimates the driver's attention level to be lower as the illuminance detected by the getting-off environment detection unit 17 is lower.
  • the degree of caution estimating unit 11 can estimate the degree of caution of the occupant to be low. As a result, the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation.
  • control device 10 of the present embodiment determines the visibility of the approaching object O based on the detection result of the external sensor 2 that detects objects around the vehicle 1 or the weather information received by the receiver mounted on the vehicle 1.
  • a getting-off environment detection unit 17 for estimation is further provided.
  • the attention degree estimation unit 11 estimates the degree of caution to be lower as the visibility estimated by the getting-off environment detection unit 17 is shorter.
  • the attention level estimation unit 11 can estimate the driver's attention level to be low. As a result, the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation.
  • control device 10 of this embodiment detects the stop position of the vehicle 1 based on the output of the car navigation system (CNS 5) mounted on the vehicle 1, and determines the difficulty of getting off the vehicle based on the stop position.
  • An environment detector 17 is further provided. Then, the attention level estimation unit 11 estimates the driver's attention level to be lower as the difficulty level of getting off determined by the getting-off environment detection unit 17 is higher.
  • the attention level estimation unit 11 can estimate the attention level of the occupant. can be underestimated.
  • the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation.
  • at least one of the door opening/closing device 6, the audio output device 7, and the image display device 8 mounted on the vehicle 1 can It is possible to make it easier to execute the getting-off restriction.
  • control device 10 of the present embodiment detects at least one of the age of the occupant of the vehicle 1 and the distraction behavior of the occupant of the vehicle 1 when the level of attention of the occupant of the vehicle 1 is lowered based on the detection result of the occupant sensor 3.
  • An occupant behavior detector 15 is further provided.
  • the caution level estimation unit 11 estimates the caution level of the occupant of the vehicle 1 based on the detection result of the age or distractive behavior of the occupant of the vehicle 1 by the occupant behavior detection unit 15 .
  • the attention level of an infant, a child, or an occupant who has been distracted by an event other than the approaching object O and neglected safety confirmation can be estimated by the attention level estimation unit 11 to be low.
  • the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation.
  • at least one of the door opening/closing device 6, the audio output device 7, and the image display device 8 mounted on the vehicle 1 can It is possible to make it easier to execute the getting-off restriction.
  • the approaching object detection unit 13 calculates the arrival margin time for the approaching object O to reach the drop-off area A of the vehicle 1 .
  • the caution degree estimation unit 11 estimates the degree of caution of the occupant to be lower as the arrival margin time calculated by the approaching object detection unit 13 is shorter.
  • the caution level estimation unit 11 reduces the occupant's level of caution. can be estimated.
  • the caution level of the occupant estimated by the caution level estimating section 11 is likely to fall below the threshold for the getting-off restricting section 12 to determine the execution of the getting-off restricting operation.
  • at least one of the door opening/closing device 6, the audio output device 7, and the image display device 8 mounted on the vehicle 1 can It is possible to make it easier to execute the getting-off restriction.
  • At least one of the door opening/closing device 6, the audio output device 7, and the image display device 8 is caused to execute the getting-off restriction operation in accordance with the decrease in the attention level of the occupant of the vehicle 1.
  • the control device 10 that can improve the safety of the passenger when getting off the vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

本開示は、従来よりも乗員の降車時における安全性を向上させることが可能な制御装置を提供する。制御装置10は、車両1に搭載される。制御装置10は、注意度推定部11と、降車制限部12とを備えている。注意度推定部11は、車両1の乗員の動作を検出する乗員センサ3または車両1の状態を検出する車両センサ4の少なくとも一方の検出結果に基づいて車両1に接近する接近物に対する乗員の注意度を推定する。降車制限部12は、注意度推定部11によって推定した乗員の注意度が所定のしきい値よりも低い場合に、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つに降車制限動作を実行させる。

Description

制御装置
 本開示は、車両に搭載される制御装置に関する。
 従来から自車両への接近物をより確実に検出して乗員の降車時における安全性を高めることができる降車支援装置に関する発明が知られている(下記特許文献1を参照)。特許文献1に記載された降車支援装置は、接近物検出部と、降車制限部と、降車動作検出部と、制御部と、複数の第1検出部と、を備えている。
 前記接近物検出部は、後側方から自車両へと接近する接近物を検出するように構成されている。前記降車制限部は、前記自車両が備えるドアについての警報を発する動作である警報動作および/または前記ドアの開放を制限する動作である開扉制限動作を含む動作である降車制限動作を実行するように構成されている。前記降車動作検出部は、前記自車両の乗員が降車しようとする動作である降車動作を検出するように構成されている。
 前記制御部は、前記降車動作検出部によって前記降車動作が検出されたときに前記接近物検出部によって前記接近物が検出されている場合は少なくとも前記接近物に最も近い前記ドアについて前記降車制限動作を前記降車制限部に実行させる制御である降車制限制御を実行するように構成されている。前記第1検出部は、前記自車両の周辺に存在する物体を検出するように構成されている。前記第1検出部のうちの少なくとも2つは、後側方から前記自車両へと接近する前記接近物を検出することができるように構成された第2検出部でもある。
 前記制御部は、前記第1検出部のうちの少なくとも1つによる検出結果に基づいて前記自車両の後方に前記接近物の検出の妨げとなる物体である遮蔽物が存在する状態である第1状態が前記自車両の駐車時または停車時に成立するか否かを判断する。制御部は、前記第1状態が成立すると判断されるときは、前記第2検出部のうち、前記第1状態において前記接近物検出部として使用されるように予め設定された前記第2検出部である第3検出部を前記接近物検出部として使用するように構成されている。
 また、前記制御部は、前記第1検出部のうちの少なくとも1つによる検出結果に基づいて前記自車両の後方に前記遮蔽物が存在しない状態である第2状態が前記自車両の駐車時または停車時に成立するか否かを判断する。前記制御部は、前記第2状態が成立すると判断されるときは、前記第2検出部のうち、前記第2状態において前記接近物検出部として使用されるように予め設定された前記第2検出部である第4検出部を前記接近物検出部として使用するように構成されている。
特開2020-093567号公報
 上記従来の降車支援装置は、自車両の後方に遮蔽物が存在する第1状態では電子アウターミラーである第3検出部によって接近物を検出し、自車両の後方に遮蔽物が存在しない第2状態では後側方レーダである第4検出部によって接近物を検出する(特許文献1、第0016段落)。しかしながら、この従来の降車支援装置は、たとえば、上記第1状態で使用される電子アウターミラーが、豪雨、濃霧、夜間、逆光などの影響により接近物を検出することができず、乗員の降車時における安全性が低下するおそれがある。
 本開示は、従来よりも乗員の降車時における安全性を向上させることが可能な制御装置を提供する。
 本開示の一態様は、車両に搭載される制御装置であって、前記車両の乗員の動作を検出する乗員センサまたは前記車両の状態を検出する車両センサの少なくとも一方の検出結果に基づいて前記車両に接近する接近物に対する前記乗員の注意度を推定する注意度推定部と、前記注意度推定部によって推定した前記注意度が所定のしきい値よりも低い場合に、前記車両に搭載されたドア開閉装置、音声出力装置、画像表示装置の少なくとも一つに降車制限動作を実行させる降車制限部と、を備えることを特徴とする制御装置である。
 本開示によれば、乗員の注意度の低下に応じてドア開閉装置、音声出力装置、画像表示装置の少なくとも一つに降車制限動作を実行させることで、従来よりも乗員の降車時における安全性を向上させることが可能な制御装置を提供することができる。
本開示に係る制御装置の一実施形態を示す機能ブロック図。 図1の制御装置が搭載された車両に接近する接近物の一例を示す平面図。 図1の制御装置の動作を説明するフロー図。
 以下、図面を参照して本開示に係る車両制御装置の一実施形態を説明する。図1は、本開示に係る制御装置の一実施形態を示す機能ブロック図である。
 本実施形態の制御装置10は、たとえば、ガソリン車、ディーゼル車、天然ガス自動車、ハイブリッド車、電気自動車、燃料電池車、または、水素エンジン車などの車両1に搭載される電子制御装置(ECU)である。図示を省略するが、制御装置10は、たとえば、入出力部、中央処理装置(CPU)、メモリ、およびタイマを含む一つ以上のマイクロコントローラによって構成されている。
 車両1は、たとえば、外界センサ2と、乗員センサ3と、車両センサ4と、カーナビゲーションシステム(CNS)5と、ドア開閉装置6と、音声出力装置7と、画像表示装置8とを搭載している。また、図示を省略するが、車両1は、車両1を走行、転回、減速および停車させるための駆動系、操舵系、制動系および制御系を備えている。
 外界センサ2は、たとえば、ミリ波レーダ、単眼カメラ、ステレオカメラ、LiDAR、超音波センサ、路車間通信装置、車車間通信装置、照度センサ、雨滴センサ、湿度センサなどを含む。外界センサ2は、たとえば、道路、白線、標識、交通信号機、車両、歩行者、障害物を含む車両1の周囲の物体や、照度、降雨、湿度、障害物の視程を含む周囲の環境を検出して、制御装置10へ出力する。
 乗員センサ3は、たとえば、着座センサ、モーションキャプチャーシステム、アイトラッカー、顔認証システム、音声認識システム、シートベルトセンサなどを含む。乗員センサ3は、たとえば、車両1の乗員の降車時の動作である降車予備動作や、乗員の年齢などを検出し、検出結果を制御装置10へ出力する。乗員センサ3が検出する降車予備動作は、たとえば、ドア方向への視線および体の移動、乗員の降車に関連する発話、ならびにシートベルトの脱着などを含む。
 車両センサ4は、たとえば、車輪速センサ、加速度センサ、シフト位置センサなど、車両の状態を検出する各種のセンサを含み、車両1の速度、加速度、および変速機のシフト位置、ならびに、車両1の異常など含む車両状態を検出する。車両センサ4が検出する車両1の異常は、たとえば、タイヤ空気圧、燃料残量、エンジン、ABS(Anti-Lock Brake System)、エアバッグ、ブレーキ、油圧、バッテリー、水温などの異常を含む。
 また、車両センサ4は、たとえば、ドアレバーセンサ、ドアスイッチ、タッチセンサなどを含み、乗員によるドアレバーの操作およびドアスイッチの操作、ならびに乗員の手とドアレバーまたはドアスイッチとの接触などを含む降車操作を検出する。車両センサ4は、検出した車両状態や降車操作を、制御装置10へ出力する。
 CNS5は、たとえば、地図情報記憶装置、経路演算装置、車車間通信装置、路車間通信装置、および全球衛星測位システム(GNSS)受信機などを含む。また、CNS5は、たとえば、車両1の乗員が目的地を入力するための入力装置を備えている。CNS5は、たとえば、車両1の位置情報に基づく地図上の地点情報や車両1の現在地から目的地までの経路情報を制御装置10へ出力する。
 ドア開閉装置6は、たとえば、一つ以上のアクチュエータと動力伝達機構を含み、制御装置10から入力される制御信号に基づいて、車両1のヒンジ式ドア、スライドドア、または、その他の開閉方式のドアの開錠、開扉、閉扉、施錠を自動的に行う。音声出力装置7は、たとえば、車両1の車室に設けられたスピーカであり、制御装置10から入力される制御信号に基づいて、警告音や音声案内を出力する。
 画像表示装置8は、たとえば、液晶表示装置、有機EL表示装置、またはヘッドアップディスプレイであり、制御装置10から入力される制御信号に基づいて、画像を表示する。なお、画像表示装置8は、たとえば、タッチパネルや操作ボタンなどの入力装置を備えていてもよい。車両1の乗員は、たとえば、画像表示装置8の入力装置を介して、CNS5に目的地などの情報を入力することができる。
 本実施形態の制御装置10は、車両1に搭載され、車両1の乗員の降車を支援する降車支援装置として機能する。制御装置10は、注意度推定部11と、降車制限部12とを備えている。また、制御装置10は、たとえば、接近物検出部13と、降車動作検出部14と、乗員挙動検出部15と、車両状態検出部16と、降車環境検出部17と、到達予測部18と、作動判断部19との少なくとも一つを備えることができる。
 図1に示す制御装置10の各部は、たとえば、制御装置10を構成するCPUによって制御装置10を構成するメモリに記憶されたプログラムを実行することによって実現される制御装置10の機能を示す機能ブロックである。制御装置10の注意度推定部11と降車制限部12以外の各機能は、たとえば、制御装置10とは別のECUまたはマイクロコントローラによって実現してもよい。
 以下、図2および図3を参照して、制御装置10の各部の動作を説明する。図2は、制御装置10が搭載された車両1が路側に停車した状態を示す平面図である。図3は、制御装置10の動作を説明するフロー図である。制御装置10は、たとえば、車両1の起動スイッチがオンになると、図3に示す処理フローを所定の周期で繰り返し実行する。
 制御装置10は、図3に示す処理フローを開始すると、まず、車両1が停車中であるか否かを判定する処理P1を実行する。この処理P1において、制御装置10の車両状態検出部16は、たとえば車両センサ4に含まれる車輪速センサや加速度センサから入力された検出結果に基づいて、車両1が停車しているか否かを判定する。
 より具体的には、車両状態検出部16は、たとえば、車輪速センサの検出結果である車両1の車輪の回転速度に基づいて推定した車両1の速度が、停車判定用の第1のしきい値よりも低下した場合に、車両1が停車していることを判定する。また、車両状態検出部16は、たとえば、車両センサ4に含まれるシフト位置センサの検出結果に基づいて車両1が停車していることを判定してもよい。また、車両状態検出部16は、たとえば、車両1が停車している時間である停車時間を検出する。
 処理P1において、車両状態検出部16が停車中ではない(NO)と判定すると、制御装置10は、車両1が停車直前か否かを判定する処理P2を実行する。この処理P2において、車両状態検出部16は、たとえば、車両1の速度が、停車判定用の第1のしきい値よりも高い、第2のしきい値よりも低下した場合に、車両1が停車直前であることを判定する。
 また、車両状態検出部16は、たとえば、外界センサ2によって検出された交通信号機、道路標識、および道路標示、または、CNS5から入力された車両1の走行経路の地図情報に基づいて、車両1が停車直前であることを判定してもよい。処理P2において、車両状態検出部16が停車直前ではない(NO)と判定すると、制御装置10は図3に示す処理フローを終了する。
 一方、処理P1において、車両状態検出部16が停車中である(YES)と判定するか、または、処理P2において、乗員挙動検出部15が停車直前である(YES)と判定すると、制御装置10は、降車環境を検出する処理P3を実行する。この処理P3において、制御装置10は、たとえば、降車環境検出部17によって降車環境を検出する。降車環境は、たとえば、車両1の周囲の照度や天候、車両1の信号待ちの状態、渋滞を含む車両1の周囲の交通状況、車両1の停車位置に関する地点情報などを含む。
 より具体的には、降車環境検出部17は、たとえば、照度センサなどの外界センサ2の検出結果に基づいて、車両1の周囲の照度を検出する。また、降車環境検出部17は、たとえば、雨滴センサ、単眼カメラ、ステレオカメラなどの外界センサ2の検出結果や、車両1のワイパーやフォグランプの作動状態などにより、晴れ、曇り、雨、雪、霧など、車両1の周囲の天候を推定する。
 また、降車環境検出部17は、たとえば、外界センサ2の検出結果または車両1に搭載された受信機によって受信された気象情報に基づいて接近物Oの視程を推定する。また、降車環境検出部17は、たとえば、車両1の周囲の物体を検出する外界センサ2の検出結果または路車間通信により、車両1の前方の交通信号機の表示を認識して車両1の信号待ちの状態を検出するとともに、車両1の周囲の交通状況を検出する。
 また、降車環境検出部17は、たとえば、駐車場、駅前のロータリー、道路の路肩、道路上など、車両1の停車位置の地点情報を検出する。なお、車両1の停車位置の地点情報は、CNS5の高精度3次元地図情報に基づく正確な地点情報であってもよい。
 制御装置10は、降車環境を検出する処理P3が終了すると、乗員の降車動作の有無を判定する処理P4を実行する。この処理P4において、制御装置10の降車動作検出部14は、たとえば、乗員センサ3または車両センサ4の検出結果に基づいて、車両1の乗員の降車動作を検出する。ここで、降車動作とは、たとえば、車両1の乗員が降車する前に取る行動である。
 降車動作は、たとえば、降車予備動作と降車操作とを含む。降車予備動作は、たとえば、車両1の乗員によるシートベルトの取り外し、乗員がドアを開ける際の視線移動、体重移動または身体の動き、乗員が降車の際に発する「降りる」などキーワードや挨拶を含む。また、降車操作は、たとえば、ドアスイッチやドアレバーに対する乗員の手の接触や操作を含む。このような降車動作は、乗員センサ3または車両センサ4によって検出され、降車動作検出部14は、乗員センサ3または車両センサ4の少なくとも一方の検出結果に基づいて、降車動作の有無を判定する。
 降車動作検出部14が、前述のような乗員の降車予備動作を含む降車動作を検出することで、より早く乗員の降車を予測することが可能になる。また、降車動作検出部14は、たとえば、検出した降車動作に基づいて、車両1の乗員が降車するまでの時間または車両1のドアを開放するまでの時間を予測し、予測した時間を注意度推定部11および到達予測部18へ出力する。
 処理P4において、降車環境検出部17が乗員の降車動作なし(NO)を判定すると、制御装置10は、図3に示す処理フローを終了する。一方、処理P4において、降車環境検出部17が降車動作あり(YES)と判定すると、制御装置10は、接近物Oの有無を判定する処理P5を実行する。
 この処理P5において、制御装置10は、たとえば、接近物検出部13により接近物Oの有無を判定する。接近物検出部13は、たとえば、車両1の周囲の物体を検出する外界センサ2の検出結果に基づいて車両1に接近する接近物Oを検出する。より具体的には、接近物検出部13は、図2に示すように、外界センサ2の検出結果に基づいて、停車中の車両1の後側方から車両1の降車エリアAに接近する物体を接近物Oとして検出する。
 ここで、後側方とは、たとえば、車両1の左右両側の後方を意味する。また、降車エリアAは、たとえば、車両1のドアが開閉する領域や、車両1の乗員が車両1に乗降する領域であり、ドアの構造や位置に応じて車両1の左右や周囲に設定される。降車エリアAは、たとえば、車両1の各ドアに隣接して設定することができる。接近物検出部13は、たとえば、外界センサ2の検出結果に基づいて、車両1の周囲の物体の位置、速度、移動方向を算出することで、接近物Oを検出する。
 接近物検出部13によって接近物Oとして検出される物体は、たとえば、自動車、自動二輪車、自転車を含む車両の他、歩行者や動物などの車両以外の移動体も含む。また、接近物検出部13は、降車エリアAに接近する物体のうち、降車エリアAに到達するまでの時間である到達余裕時間が、所定の時間しきい値よりも短い物体を、接近物Oとして検出してもよい。到達余裕時間は、衝突余裕時間(TTC)と同様に算出することができる。接近物検出部13は、たとえば、接近物Oの位置、速度、予測進路、各降車エリアAに対する到達余裕時間などの接近物情報を、到達予測部18へ出力する。
 処理P5において、接近物検出部13が接近物Oなし(NO)と判定すると、制御装置10は、車両1の乗員の注意度を判定する処理P6を実行する。この処理P6において、制御装置10の乗員挙動検出部15は、乗員センサ3の検出結果に基づいて、車両1から降車する乗員の種別、または、乗員の注意度が低下したときの散漫挙動の少なくとも一方を検出する。
 より具体的には、乗員挙動検出部15は、たとえば、顔認証システムや車内カメラなどの乗員センサ3の検出結果に基づいて、降車動作が検出された乗員の年齢を推定する。また、乗員挙動検出部15は、推定した年齢に基づいて、降車動作が検出された乗員を、たとえば、幼児、児童、未成年者、成人、高齢者などの年齢区分に分類する。乗員挙動検出部15は、たとえば、推定した年齢や年齢区分を、降車乗員種別として注意度推定部11へ出力する。また、乗員挙動検出部15は、たとえば、乗員センサ3または車両センサ4によって検出された各乗員の着座位置に基づいて、運転者または同乗者など、降車する乗員の種別を検出して、降車乗員種別として注意度推定部11へ出力する。
 また、乗員挙動検出部15は、たとえば、乗員センサ3と車両センサ4の少なくとも一方の検出結果に基づいて、車両1の乗員の注意度が低下したときの散漫挙動を検出する。ここで、散漫挙動は、たとえば、車両1から降車する乗員の安全確認不足や、乗員同士の会話中の降車動作を含む。より具体的には、乗員挙動検出部15は、たとえば、降車動作の直前または降車動作中の乗員の顔や視線が、車両1のミラーや車両1の後側方に向いていないことを、降車する乗員の安全確認不足として検出し、その検出結果を注意度推定部11へ出力する。また、乗員挙動検出部15は、車両1の各々の乗員の降車動作と発話中か否かを認識して乗員同士の会話中の降車動作を検出し、その検出結果を注意度推定部11へ出力する。
 注意度推定部11は、たとえば、車両1の乗員の動作を検出する乗員センサ3または車両1の状態を検出する車両センサ4の少なくとも一方の検出結果に基づいて、車両1に接近する接近物Oに対する乗員の注意度を推定する。なお、処理P6では、前の処理P5で接近物Oなしと判定されているが、注意度推定部11は、たとえば、前の処理P5で接近物Oありと判定された場合と同様に、接近物Oに対する乗員の注意度を推定する。
 より具体的には、注意度推定部11は、たとえば、降車動作検出部14、乗員挙動検出部15、車両状態検出部16、または降車環境検出部17の少なくとも一つからの入力される情報に基づいて、接近物Oに対する乗員の注意度を推定する。注意度推定部11は、たとえば、降車動作検出部14から前述のような乗員の降車動作が入力され、乗員挙動検出部15から前述のような降車乗員種別または散漫挙動の少なくとも一方が入力される。
 また、車両状態検出部16から注意度推定部11に入力される情報は、車両状態検出部16が検出する次のような情報を含む。車両状態検出部16は、たとえば、車両センサ4の検出結果に基づいて、車両1が停車直前であること、車両1が停車中であること、車両1の停車後の経過時間、車両1のシフト位置、車両1の異常などを検出して、注意度推定部11へ出力する。なお、車両状態検出部16が検出する車両1の異常は、たとえば、タイヤ空気圧、ガソリン残量、油圧、バッテリー、冷却水などに関する異常、車両1と障害物との衝突、衝突軽減ブレーキ(AEB)の作動による緊急停車などを含む。
 また、降車環境検出部17から注意度推定部11に入力される情報は、降車環境検出部17が検出する降車環境を含む。降車環境検出部17は、たとえば、前述のように、外界センサ2、車両センサ4、またはCNS5の少なくとも一つから入力された情報に基づいて、降車環境を検出する。降車環境は、前述のように、たとえば、車両1の周囲の照度や天候、車両1の信号待ちの状態、渋滞を含む車両1の周囲の交通状況、車両1が停車位置に関する地点情報などを含む。
 注意度推定部11は、たとえば、車両1の停車直前に降車動作を検出した場合、または、車両1が停車してから降車動作を検出するまでの時間が所定のしきい値より短い場合に、接近物Oに対する乗員の注意度を低く推定する。また、注意度推定部11は、たとえば、乗員挙動検出部15による乗員の年齢もしくは年齢区分または散漫挙動の検出結果に基づいて、接近物Oに対する乗員の注意度を推定する。より具体的には、注意度推定部11は、たとえば、降車動作が検出された乗員の年齢区分が幼児または児童であり、車両1の車内を動き回るなど、車両1の周囲への注意力の低下を示す散漫挙動が検出された場合に、接近物Oに対する乗員の注意度を低く推定する。
 ここで、注意度推定部11が乗員の注意度を低く推定するとは、たとえば、乗員の注意度をより低いレベルや数値に設定することを意味する。より具体的には、乗員の注意度は、たとえば、高、中、低などのレベルや、0から100までの数値などによって表すことができる。注意度推定部11は、たとえば、車両1の走行中は各乗員の注意度を所定の初期値に設定し、車両1の停車中や停車直前に、上記のような注意度を低く推定する条件を満たした乗員の注意度を低下させる。
 また、注意度推定部11は、たとえば、降車動作が検出された乗員が車両1のルームミラー、サイドミラー、後側方を目視していないなど、接近物Oに対する安全確認が不十分である場合に、その乗員の注意度を低く推定する。また、注意度推定部11は、たとえば、降車環境検出部17による交通信号機の表示の認識結果と、車両状態検出部16による車両1のシフト位置の検出結果とに基づいて、接近物Oに対する乗員の注意度を推定する。
 より詳細には、注意度推定部11は、車両1が停車中でシフト位置がPレンジ以外であり、かつ交通信号機の表示が赤(進行不可)である場合に、接近物Oに対する乗員の注意度を低く推定する。このような状況は、車両1から降車する乗員が、交通信号機の表示が青(通行許可)になる前に急いで降車する状況であるため、接近物Oに対する乗員の注意度を低く推定する。
 また、注意度推定部11は、車両1の周囲の交通状況が渋滞である場合に、接近物Oに対する乗員の注意力を低く推定する。このような状況は、車両1から降車する乗員が、一時停車中の車両1が前進する前に急いで降車する状況であり、車両1の前後の車両によって死角が生じるため、接近物Oに対する乗員の注意度を低く推定する。
 また、注意度推定部11は、たとえば、車両状態検出部16が車両1の異常を検出したときに、車両状態検出部16が車両1の異常を検出しないときよりも、接近物Oに対する乗員の注意度を低く推定する。車両状態検出部16が検出する車両1の異常としては、車両センサ4によって検出される車両1のタイヤ空気圧、燃料残量、エンジン、ABS、エアバッグ、ブレーキ、油圧、バッテリー、水温などの異常を含む。このような車両1の異常、たとえば、タイヤ空気圧の低下が検出された場合、車両1の運転者の注意がタイヤなどの異常発生箇所に向き、接近物Oに対する注意力が低下するためである。
 また、注意度推定部11は、たとえば、車両状態検出部16が、車両1と他の車両や物体との接触を検知したときに、接触を検知しない場合よりも、接近物Oに対する乗員の注意度を低く推定する。これは、車両1と他の車両や物体との接触が検知された場合、車両1の乗員は、接触した車両や物体または車両1の接触箇所に注意が向き、接近物Oに対する注意力が低下するためである。
 また、注意度推定部11は、たとえば、車両状態検出部16が車両1のAEBの作動または急減速を検出したときに、車両1のAEBの作動および急減速を検出しないときよりも、接近物Oに対する乗員の注意度を低く推定する。車両1のAEBの作動または急減速時にも、車両1の乗員は、原因となった他の車両や物体、または、それらと車両1との接触の有無に注意が向き、接近物Oに対する注意力が低下するためである。
 ここで、車両状態検出部16は、たとえば、車両センサ4の検出結果に基づいて、AEBの作動および急減速ならびに車両1と他の車両や物体との接触を検出する。車両状態検出部16は、たとえば、車両1の通常の減速よりも減速度が高い0.4[G]~0.6[G]程度を急減速として検出する。また、車両状態検出部16は、たとえば、車両1の運転者による急減速の減速度よりも高い0.6[G]以上の減速度を検出した場合にAEBの作動を検出してもよい。また、車両状態検出部16は、AEBの作動を検出する減速度よりも高い減速度を検出した場合に、車両1と他の車両や物体との接触または衝突を検出してもよい。
 また、注意度推定部11は、たとえば、降車環境検出部17によって検出された車両1の周囲の照度が低いほど、接近物Oに対する乗員の注意度を低く推定する。また、注意度推定部11は、たとえば、降車環境検出部17によって推定された車両1の周囲の障害物の視程が短いほど、接近物Oに対する乗員の注意度を低く推定する。このような車両1の周囲の照度の低下や視程の減少は、たとえば、夜間、曇り、雨、雪、霧などの降車環境によるものであり、接近物Oの視認性が低下するため、接近物Oに対する乗員の注意度を低く推定する。
 また、注意度推定部11は、たとえば、降車環境検出部17によって車両1の車外で所定の風速以上の強風が検出された場合に、接近物Oに対する乗員の注意度を低く推定する。これは、車両1のドアの開閉や乗員の降車が強風の影響を受け、乗員の注意がドアや降車エリアAに向き、接近物Oに対する注意力が低下するためである。
 また、注意度推定部11は、たとえば、降車環境検出部17によって判定された降車難易度が高いほど、接近物Oに対する乗員の注意度を低く推定する。降車環境検出部17は、前述のように、たとえば、車両1に搭載されたCNS5の出力に基づいて車両1の停車位置を検出し、その停車位置に基づいて降車難易度を判定する。降車環境検出部17が判定する降車難易度は、たとえば、駐車場が最も低く、駅前のロータリー、道路の路肩、道路上、高速道路の順に高くなる。高速道路の路肩や高速道路上での降車は、高速で走行する他の車両による危険を伴うためである。
 図3に示す処理P6において、注意度推定部11は、推定した乗員の注意度を作動判断部19へ出力する。作動判断部19は、車両状態検出部16から入力された乗員の注意度が所定の注意レベルまたは所定の注意度のしきい値よりも高い場合、乗員の注意度は低くない(NO)と判定する。この場合、制御装置10は、作動判断部19および降車制限部12による注意喚起や開扉制限などの降車制限を実行することなく、図3に示す処理フローを終了する。
 このように、前述の処理P5において接近物Oが検出されず、前述の処理P6で乗員の注意度が高い場合には、注意喚起や開扉制限などの降車制限が実行されない。そのため、安全が確保された状態で降車時に不要な降車制限を受けることによる乗員の煩わしさを解消することができる。また、前述の処理P6において、車両1から降車する乗員が接近物Oに対する十分な注意度を有していることを確認しているため、万が一、外界センサ2によって接近物Oを検出できていない場合でも、車両1から降車する乗員の安全性を向上させることができる。
 一方、前述の処理P6において、作動判断部19は、車両状態検出部16から入力された乗員の注意度が、所定の注意レベルまたは所定の注意度のしきい値以下である場合、乗員の注意度は低い(YES)と判定する。この場合、制御装置10は、降車制限としての注意喚起処理P7を実行する。
 この処理P7において、作動判断部19は、注意度推定部11から入力された乗員の注意度のレベルまたは数値に基づいて、注意喚起動作の内容を判断する。より具体的には、作動判断部19は、たとえば、音声出力装置7と画像表示装置8の少なくとも一方による注意喚起動作の内容を決定する。音声出力装置7による注意喚起動作は、たとえば、接近物Oに対する注意を促す警告音や音声の出力を含む。また、画像表示装置8による注意喚起動作は、接近物Oに対する注意を促す画像や文字の表示を含む。また、注意喚起動作は、たとえば、図示を省略する振動発生装置による車両1のステアリングやシートの振動を含んでもよい。
 作動判断部19は、たとえば、注意度推定部11から入力された乗員の注意度のレベルまたは数値の大きさに応じて、音声出力装置7が出力する警告音や音声、画像表示装置8が表示する画像や文字を決定する。より具体的には、乗員の注意度のレベルまたは数値が所定のレベルまたは数値よりも低い場合、作動判断部19は、たとえば、警告音や音声、または、画像や文字の大きさ、出力時間、出力頻度が最大となる注意喚起動作を選択する。
 一方、乗員の注意度のレベルまたは数値が所定のレベルまたは数値よりも高い場合、作動判断部19は、たとえば、警告音や音声、または、画像や文字の大きさ、出力時間、出力頻度が最小となる注意喚起動作を選択する。また、乗員の注意度のレベルまたは数値が最低レベルまたは下限値以下の場合、作動判断部19は、注意喚起動作としてドア開閉装置6による開扉制限を決定してもよい。作動判断部19は、決定または選択した注意喚起動作を降車制限部12へ出力する。
 図3に示す処理P7において、降車制限部12は、作動判断部19から入力された降車制限としての注意喚起動作を実現するための制御信号をドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つに対して出力する。これにより、作動判断部19によって選択または決定された注意喚起動作が、ドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによって実行される。その後、制御装置10は、図3に示す処理フローを終了する。
 一方、図3に示す前述の処理P5において、接近物検出部13が接近物Oあり(YES)と判定すると、制御装置10は、降車条件を予測する処理P8を実行する。この処理P8において、制御装置10の到達予測部18は、たとえば、降車動作検出部14から入力された車両1の乗員の降車動作に基づいて、降車条件を予測する。降車条件は、たとえば、車両1の乗員が降車する降車エリアAや、その降車エリアAに車両1の開いたドアまたは乗員が存在する降車時刻を含む。制御装置10は、降車条件を予測する処理P8の終了後、到達確信度を算出する処理P9を実行する。
 この処理P9において、制御装置10の到達予測部18は、たとえば、前の処理P8で予測した降車条件と、接近物検出部13から入力された接近物情報とに基づいて、乗員が降車する降車エリアAへの接近物Oの到達を予測する。また、到達予測部18は、降車条件と接近物情報とに基づいて、接近物Oが予測された降車時刻に予測された降車エリアAへ到達する確信度を算出する。たとえば、接近物Oが予測された降車時刻までに予測された降車エリアAを通過する場合や、接近物Oが予測された降車時刻において降車エリアAから所定の距離だけ離れている場合は、到達予測部18が算出する到達確信度は低くなる。
 一方、接近物Oが予測された降車時刻に予測された降車エリアAへ到達することが予測される場合や、接近物Oが予測された降車時刻において降車エリアAから所定の距離よりも接近していることが予測される場合、到達予測部18が算出する到達確信度は高くなる。また、接近物Oが外界センサ2の検知範囲の外縁近傍など、検知精度が所定の精度よりも低い低精度領域で検出されている場合、到達予測部18が算出する到達確信度は低くなる。
 なお、到達確信度は、接近物Oが予測された降車時刻に予測された降車エリアAへ到達する可能性を表す指標である。到達確信度が高いほど、接近物Oが予測された降車時刻に予測された降車エリアAへ到達する可能性が高く、到達確信度が低いほど、接近物Oが予測された降車時刻に予測された降車エリアAへ到達する可能性が低くなる。到達確信度は、たとえば、所定の周期で接近物Oの検出を繰り返す場合に、接近物Oが検出された回数が増加するほど高くすることができる。
 また、到達確信度は、たとえば、所定の周期で接近物Oの検出を繰り返す場合に、予測された降車エリアAに対する接近物Oの到達余裕時間が所定値以下である状態が継続している回数が増加するほど、高くすることができる。また、到達確信度は、外界センサ2の複数のセンサが接近物Oを検出している場合に高くすることができ、外界センサ2の一つのセンサだけが接近物Oを検出している場合に低くすることができる。
 また、到達予測部18は、たとえば、降車動作検出部14から入力された降車動作に応じて、車両1の乗員が降車する可能性の指標である降車確信度を算出してもよい。たとえば、到達予測部18に入力された降車動作が、乗員によるドアスイッチやドアレバーの操作など、降車に直結する降車操作である場合に、到達予測部18が算出する降車確信度は高くなる。一方、到達予測部18に入力された降車動作が、乗員の視線移動、体重移動、身体の動きなどの降車に直結しない降車予備動作である場合は、到達予測部18が算出する降車確信度は低くなる。
 図3に示す処理P9の終了後、制御装置10は、車両1の乗員の注意度を判定する処理P10を実行する。この処理P10は、前述の処理P6と同様であるが、前述の処理P5で接近物検出部13によって接近物Oが検出されている。そのため、前述の処理P5で接近物Oが検出されなかった場合の処理P6よりも、接近物Oに対する乗員の注意度を、低く設定する。また、注意度推定部11は、接近物検出部13によって算出された到達余裕時間が短いほど、接近物Oに対する乗員の注意度を低く推定する。
 また、この処理P10において、注意度推定部11は、前述の処理P6と同様に、推定した乗員の注意度を作動判断部19へ出力する。作動判断部19は、車両状態検出部16から入力された乗員の注意度が、所定の注意レベルまたは所定の注意度のしきい値以下である場合、乗員の注意度は低い(YES)と判定する。この場合、制御装置10は、到達確信度のしきい値Xを低減する処理P11を実行してから、到達確信度の判定処理P12を実行する。
 処理P11において、作動判断部19は、到達確信度の判定処理P12で使用する到達確信度のしきい値Xを、注意度推定部11から入力された乗員の注意度に応じて減少させる。すなわち、接近物Oに対する乗員の注意度が低いほど、到達確信度のしきい値Xは小さくなる。なお、接近物Oに対する乗員の注意度は、前述の処理P10において、前述の処理P6と同様に、たとえば、乗員の注意度を低く推定する複数の条件をより多く満たすほど、より低く推定される。
 一方、前述の処理P10において、作動判断部19は、車両状態検出部16から入力された乗員の注意度が所定の注意レベルまたは所定の注意度のしきい値よりも高い場合、乗員の注意度は低くない(NO)と判定する。この場合、制御装置10は、到達確信度のしきい値Xを低減する処理P11を実行することなく、到達確信度の判定処理P12を実行する。そのため、到達確信度のしきい値Xは、初期値から減少しない。
 到達確信度の判定処理P12において、作動判断部19は、たとえば、前述の処理P9で算出した到達確信度が、しきい値X以上であるか否かを判定する。この処理P12において、作動判断部19は、到達確信度がしきい値X未満である(NO)と判定すると、前述の注意喚起処理P7を実行して、図3に示す処理フローを終了する。一方、この処理P12において、作動判断部19は、到達確信度がしきい値X以上である(YES)と判定すると、降車制限としての開扉制限処理P13を実行する。なお、到達確信度のしきい値Xは、開扉制限の実行を判定する場合と、注意喚起の実行を判定する場合とで異ならせてもよい。
 この開扉制限処理P13において、作動判断部19は、注意度推定部11から入力された乗員の注意度のレベルまたは数値に基づいて、降車制限としての開扉制限動作の内容を判断する。より具体的には、作動判断部19は、たとえば、ドア開閉装置6による開扉制限動作を決定する。作動判断部19は、たとえば、接近物Oが降車エリアAに到達する到達確信度の高低や到達余裕時間に応じて開扉制限動作を決定する。
 より詳細には、たとえば、到達確信度が第1のしきい値よりも高い、または、到達余裕時間が第1のしきい値よりも短い場合を想定する。この場合、作動判断部19は、たとえば、車両1の乗員によるドアスイッチやドアレバーの操作に関わらず、ドア開閉装置6によって車両1のドアを閉じた状態を維持する第1の開扉制限動作を決定する。この第1の開扉制限動作は、たとえば、音声出力装置7と画像表示装置8の少なくとも一方による注意喚起動作を含む。
 また、たとえば、到達確信度が第1のしきい値よりも低くかつ第2のしきい値よりも高い、または、到達余裕時間が第1のしきい値よりも長くかつ第2のしきい値よりも短い場合を想定する。この場合、作動判断部19は、たとえば、車両1の乗員によるドアスイッチやドアレバーの操作後に、ドア開閉装置6による車両1のドアの開放を通常時よりも遅延させるか、または、開扉動作中のドアを途中で停止させる第2の開扉制限動作を決定する。ここで、ドア開放の遅延時間は、たとえば、到達確信度、到達余裕時間、または乗員の注意度に応じて異ならせてもよい。また、第2の開扉制限動作は、音声出力装置7と画像表示装置8の少なくとも一方による注意喚起動作を含んでもよい。
 また、たとえば、到達確信度が第2のしきい値よりも低い、または、到達余裕時間が第2のしきい値よりも長い場合を想定する。この場合、作動判断部19は、たとえば、音声出力装置7と画像表示装置8の少なくとも一方による注意喚起を行う第3の降車制限動作を決定する。音声出力装置7による注意喚起は、たとえば、接近物Oに対する注意を促す警告音や音声の出力を含む。また、画像表示装置8による注意喚起動作は、接近物Oに対する注意を促す画像や文章の表示を含む。
 作動判断部19は、さらに、決定した降車制限としての開扉制限動作を降車制限部12へ出力する。降車制限部12は、作動判断部19から入力された降車制限としての開扉制限動作を実現するための制御信号をドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つに対して出力する。これにより、作動判断部19によって選択または決定された開扉制限動作が、ドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによって実行される。その後、制御装置10は、図3に示す処理フローを終了し、所定の周期で繰り返す。
 以上のように、本実施形態の制御装置10は、車両1に搭載され、注意度推定部11と降車制限部12とを備えている。注意度推定部11は、車両1の乗員の動作を検出する乗員センサ3または車両1の状態を検出する車両センサ4の少なくとも一方の検出結果に基づいて車両1に接近する接近物Oに対する乗員の注意度を推定する。降車制限部12は、注意度推定部11によって推定した乗員の注意度が所定のしきい値よりも低い場合に、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つに降車制限動作を実行させる。
 このような構成により、本実施形態の制御装置10は、車両1から降車する乗員の接近物Oに対する注意度を、注意度推定部11によって推定することができる。そのため、たとえば、豪雨、濃霧、夜間、逆光などの影響により、車両センサ4が接近物Oを検出することができない場合でも、乗員の注意度の低下に応じて、ドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つに降車制限動作を実行させることができる。これにより、車両1の乗員が不用意に降車することが防止され、車両1の降車時に乗員が接近物Oに接触することを防止できる。また、車両1の乗員が不用意にドアを開けることも防止され、車両1のドアと接近物Oとの接触も防止することができる。したがって、本実施形態の制御装置10によれば、従来よりも車両1の乗員の降車時における安全性を向上させることが可能になる。
 また、本実施形態の制御装置10は、車両センサ4の検出結果に基づいて車両1の停車を検出する車両状態検出部16と、乗員センサ3または車両センサ4の検出結果に基づいて乗員の降車動作を検出する降車動作検出部14と、をさらに備えている。そして、注意度推定部11は、車両状態検出部16が車両1の停車を検出してから降車動作検出部14が降車動作を検出するまでの時間が短いほど、乗員の注意度を低く推定する。
 このような構成により、車両1の停車後に乗員が急いで降車しようとして、降車エリアAに接近する接近物Oに対する安全確認が不十分になるような場面で、注意度推定部11が乗員の注意度を低く推定する。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下しやすい上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10は、車両1の周囲の物体を検出する外界センサ2の検出結果に基づいて交通信号機の表示を認識する降車環境検出部17と、車両センサ4の検出結果に基づいて車両1の変速機のシフト位置を検出する車両状態検出部16と、をさらに備えている。そして、注意度推定部11は、降車環境検出部17による交通信号機の表示の認識結果と、車両状態検出部16によるシフト位置の検出結果とに基づいて、乗員の注意度を推定する。
 このような構成により、車両1が交通信号機の信号待ちで停車している間に乗員が急いで降車しようとして、降車エリアAに接近する接近物Oに対する安全確認が不十分になるような場面で、注意度推定部11が乗員の注意度を低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下しやすい上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10は、車両センサ4の検出結果に基づいて車両1の異常を検出する車両状態検出部16をさらに備えている。そして、注意度推定部11は、車両状態検出部16が車両1の異常を検出したときに、車両状態検出部16が車両1の異常を検出しないときよりも、乗員の注意度を低く推定する。
 このような構成により、車両1に発生した異常を確認するために、乗員が車両1から急いで降車しようとして、降車エリアAに接近する接近物Oに対する安全確認が不十分になるような場面で、注意度推定部11が乗員の注意度を低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下しやすい上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10は、車両センサ4の検出結果に基づいて車両1の急減速を検出する車両状態検出部16をさらに備えている。そして、注意度推定部11は、車両状態検出部16が車両1の急減速を検出したときに、車両状態検出部16が車両1の急減速を検出しないときよりも、乗員の注意度を低く推定する。
 このような構成により、車両1が急減速した原因を確認するために、乗員が車両1から急いで降車しようとして、降車エリアAに接近する接近物Oに対する安全確認が不十分になるような場面で、注意度推定部11が乗員の注意度を低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下しやすい上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10は、車両1の周囲の物体を検出する外界センサ2の検出結果に基づいて車両1に接近する接近物Oを検出する接近物検出部13をさらに備えている。そして、注意度推定部11は、接近物検出部13によって接近物Oが検出されたときに、接近物Oが検出されないときよりも、乗員の注意度を低く設定する。
 このような構成により、車両1の降車エリアAに接近する接近物Oにより、車両1から降車エリアAに降車する乗員の安全性が低下するおそれがある場面で、注意度推定部11が乗員の注意度を低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下するおそれがある上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10は、車両1の周囲の物体を検出する外界センサ2の検出結果に基づいて車両1の周囲の照度を検出する降車環境検出部17をさらに備えている。そして、注意度推定部11は、降車環境検出部17によって検出された照度が低いほど乗員の注意度を低く推定する。
 このような構成により、たとえば、夜間、トンネル内、日陰、または曇天など、車両1の周囲の照度が低下して外界センサ2による接近物Oの検出精度が低下したり、乗員による接近物Oの目視が困難になったりするような場面で、注意度推定部11が乗員の注意度を低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下しやすい上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10は、車両1の周囲の物体を検出する外界センサ2の検出結果または車両1に搭載された受信機によって受信された気象情報に基づいて接近物Oの視程を推定する降車環境検出部17をさらに備える。注意度推定部11は、降車環境検出部17によって推定された視程が短いほど注意度を低く推定する。
 このような構成により、たとえば、雨、雪、または霧などの影響により、接近物Oの視程が低下して外界センサ2による接近物Oの検出精度が低下したり、乗員による接近物Oの目視が困難になったりするような場面で、注意度推定部11が乗員の注意度を低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下しやすい上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10は、車両1に搭載されたカーナビゲーションシステム(CNS5)の出力に基づいて車両1の停車位置を検出し、その停車位置に基づいて降車難易度を判定する降車環境検出部17をさらに備えている。そして、注意度推定部11は、降車環境検出部17によって判定された降車難易度が高いほど、乗員の注意度を低く推定する。
 このような構成により、たとえば、高速道路や道路など、降車難易度が高く、降車エリアAに降車する乗員の安全性が低下するおそれがある場面で、注意度推定部11が乗員の注意度を低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下するおそれがある上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10は、乗員センサ3の検出結果に基づいて、車両1の乗員の年齢、または、車両1の乗員の注意度が低下したときの散漫挙動の少なくとも一方を検出する乗員挙動検出部15をさらに備えている。そして、注意度推定部11は、乗員挙動検出部15による車両1の乗員の年齢または散漫挙動の検出結果に基づいて、車両1の乗員の注意度を推定する。
 このような構成により、たとえば、幼児や児童、または接近物O以外の事象に気を取られて安全確認が疎かになった乗員の注意度を、注意度推定部11によって低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、接近物Oに対する注意力が低い上記のような乗員が車両1から降車する際に、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 また、本実施形態の制御装置10において、接近物検出部13は、接近物Oが車両1の降車エリアAに到達する到達余裕時間を算出する。また、注意度推定部11は、接近物検出部13によって算出された到達余裕時間が短いほど、乗員の注意度を低く推定する。
 このような構成により、たとえば、接近物Oが降車エリアに接近して、降車エリアAに降車する乗員の安全性が低下するおそれがある場面で、注意度推定部11が乗員の注意度を低く推定することができる。これにより、注意度推定部11によって推定された乗員の注意度が、降車制限部12が降車制限動作の実行を判断するためのしきい値を下回りやすくなる。その結果、車両1を降車する乗員の安全性が低下するおそれがある上記のような場面で、車両1に搭載されたドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つによる降車制限を実行させやすくすることができる。
 以上説明したように、本実施形態によれば、車両1の乗員の注意度の低下に応じてドア開閉装置6、音声出力装置7、画像表示装置8の少なくとも一つに降車制限動作を実行させることで、従来よりも乗員の降車時における安全性を向上させることが可能な制御装置10を提供することができる。
 以上、図面を用いて本開示に係る制御装置の実施形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本開示の要旨を逸脱しない範囲における設計変更等があっても、それらは本開示に含まれるものである。
1  車両
2  外界センサ
3  乗員センサ
4  車両センサ
5  CNS(カーナビゲーションシステム)
6  ドア開閉装置
7  音声出力装置
8  画像表示装置
10 制御装置
11 注意度推定部
12 降車制限部
13 接近物検出部
14 降車動作検出部
15 乗員挙動検出部
16 車両状態検出部
17 降車環境検出部
A  降車エリア
O  接近物

Claims (11)

  1.  車両に搭載される制御装置であって、
     前記車両の乗員の動作を検出する乗員センサまたは前記車両の状態を検出する車両センサの少なくとも一方の検出結果に基づいて前記車両に接近する接近物に対する前記乗員の注意度を推定する注意度推定部と、
     前記注意度推定部によって推定した前記注意度が所定のしきい値よりも低い場合に、前記車両に搭載されたドア開閉装置、音声出力装置、画像表示装置の少なくとも一つに降車制限動作を実行させる降車制限部と、
     を備えることを特徴とする制御装置。
  2.  前記車両センサの検出結果に基づいて前記車両の停車を検出する車両状態検出部と、前記乗員センサまたは前記車両センサの検出結果に基づいて前記乗員の降車動作を検出する降車動作検出部と、をさらに備え、
     前記注意度推定部は、前記車両状態検出部が前記車両の停車を検出してから前記降車動作検出部が前記降車動作を検出するまでの時間が短いほど、前記注意度を低く推定することを特徴とする請求項1に記載の制御装置。
  3.  前記車両の周囲の物体を検出する外界センサの検出結果に基づいて交通信号機の表示を認識する降車環境検出部と、前記車両センサの検出結果に基づいて前記車両の変速機のシフト位置を検出する車両状態検出部と、をさらに備え、
     前記注意度推定部は、前記降車環境検出部による前記交通信号機の表示の認識結果と、前記車両状態検出部による前記シフト位置の検出結果とに基づいて、前記注意度を推定することを特徴とする請求項1に記載の制御装置。
  4.  前記車両センサの検出結果に基づいて前記車両の異常を検出する車両状態検出部をさらに備え、
     前記注意度推定部は、前記車両状態検出部が前記異常を検出したときに、前記車両状態検出部が前記異常を検出しないときよりも、前記注意度を低く推定することを特徴とする請求項1に記載の制御装置。
  5.  前記車両センサの検出結果に基づいて前記車両の急減速を検出する車両状態検出部をさらに備え、
     前記注意度推定部は、前記車両状態検出部が前記急減速を検出したときに、前記車両状態検出部が前記急減速を検出しないときよりも、前記注意度を低く推定することを特徴とする請求項1に記載の制御装置。
  6.  前記車両の周囲の物体を検出する外界センサの検出結果に基づいて前記車両に接近する接近物を検出する接近物検出部をさらに備え、
     前記注意度推定部は、前記接近物検出部によって前記接近物が検出されたときに、前記接近物が検出されないときよりも、前記注意度を低く設定することを特徴とする請求項1に記載の制御装置。
  7.  前記車両の周囲の物体を検出する外界センサの検出結果に基づいて前記車両の周囲の照度を検出する降車環境検出部をさらに備え、
     前記注意度推定部は、前記降車環境検出部によって検出された前記照度が低いほど前記注意度を低く推定することを特徴とする請求項1に記載の制御装置。
  8.  前記車両の周囲の物体を検出する外界センサの検出結果または前記車両に搭載された受信機によって受信された気象情報に基づいて前記接近物の視程を推定する降車環境検出部をさらに備え、
     前記注意度推定部は、前記降車環境検出部によって推定された前記視程が短いほど前記注意度を低く推定することを特徴とする請求項1に記載の制御装置。
  9.  前記車両に搭載されたカーナビゲーションシステムの出力に基づいて前記車両の停車位置を検出し、該停車位置に基づいて降車難易度を判定する降車環境検出部をさらに備え、
     前記注意度推定部は、前記降車環境検出部によって判定された前記降車難易度が高いほど前記注意度を低く推定することを特徴とする請求項1に記載の制御装置。
  10.  前記乗員センサの検出結果に基づいて、前記乗員の年齢、または、前記乗員の前記注意度が低下したときの散漫挙動の少なくとも一方を検出する乗員挙動検出部をさらに備え、
     前記注意度推定部は、前記乗員挙動検出部による前記乗員の年齢または前記散漫挙動の検出結果に基づいて前記注意度を推定することを特徴とする請求項1に記載の制御装置。
  11.  前記接近物検出部は、前記接近物が前記車両の降車エリアに到達する到達余裕時間を算出し、
     前記注意度推定部は、前記接近物検出部によって算出された前記到達余裕時間が短いほど前記注意度を低く推定することを特徴とする請求項6に記載の制御装置。
PCT/JP2022/010225 2021-08-24 2022-03-09 制御装置 WO2023026535A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/553,281 US20240174194A1 (en) 2021-08-24 2022-03-09 Control device
DE112022001211.0T DE112022001211T5 (de) 2021-08-24 2022-03-09 Steuervorrichtung
CN202280029595.6A CN117203687A (zh) 2021-08-24 2022-03-09 控制装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-136473 2021-08-24
JP2021136473A JP2023031021A (ja) 2021-08-24 2021-08-24 制御装置

Publications (1)

Publication Number Publication Date
WO2023026535A1 true WO2023026535A1 (ja) 2023-03-02

Family

ID=85322634

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010225 WO2023026535A1 (ja) 2021-08-24 2022-03-09 制御装置

Country Status (5)

Country Link
US (1) US20240174194A1 (ja)
JP (1) JP2023031021A (ja)
CN (1) CN117203687A (ja)
DE (1) DE112022001211T5 (ja)
WO (1) WO2023026535A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158578A (ja) * 2006-12-20 2008-07-10 Tokai Rika Co Ltd 車両の降車安全装置及び車両の安全降車方法
JP2011113150A (ja) * 2009-11-24 2011-06-09 Fujitsu Ltd 事故発生予測装置、事故発生予測プログラム及び事故発生予測方法
JP2012144158A (ja) * 2011-01-12 2012-08-02 Toyota Motor Corp 走行支援装置
JP2012221414A (ja) * 2011-04-13 2012-11-12 National Traffic Safety & Environment Laboratory 前照灯システム効果評価シミュレータ
JP2013093013A (ja) * 2011-10-06 2013-05-16 Ricoh Co Ltd 画像処理装置、車両
JP2014223886A (ja) * 2013-05-17 2014-12-04 日産自動車株式会社 車室内監視装置
JP2020037813A (ja) * 2018-09-05 2020-03-12 本田技研工業株式会社 車両用周辺監視装置及び方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7059911B2 (ja) 2018-12-10 2022-04-26 トヨタ自動車株式会社 降車支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158578A (ja) * 2006-12-20 2008-07-10 Tokai Rika Co Ltd 車両の降車安全装置及び車両の安全降車方法
JP2011113150A (ja) * 2009-11-24 2011-06-09 Fujitsu Ltd 事故発生予測装置、事故発生予測プログラム及び事故発生予測方法
JP2012144158A (ja) * 2011-01-12 2012-08-02 Toyota Motor Corp 走行支援装置
JP2012221414A (ja) * 2011-04-13 2012-11-12 National Traffic Safety & Environment Laboratory 前照灯システム効果評価シミュレータ
JP2013093013A (ja) * 2011-10-06 2013-05-16 Ricoh Co Ltd 画像処理装置、車両
JP2014223886A (ja) * 2013-05-17 2014-12-04 日産自動車株式会社 車室内監視装置
JP2020037813A (ja) * 2018-09-05 2020-03-12 本田技研工業株式会社 車両用周辺監視装置及び方法

Also Published As

Publication number Publication date
JP2023031021A (ja) 2023-03-08
CN117203687A (zh) 2023-12-08
US20240174194A1 (en) 2024-05-30
DE112022001211T5 (de) 2024-01-11

Similar Documents

Publication Publication Date Title
JP6744528B2 (ja) 車両制御装置
KR101906197B1 (ko) 차량 및 그 제어방법
JP4578795B2 (ja) 車両制御装置、車両制御方法および車両制御プログラム
US9815459B2 (en) Collision avoidance support device
CN111137284B (zh) 一种基于驾驶分心状态的预警方法及预警装置
US8330620B2 (en) Method for producing a localized warning of dangerous situations for vehicles
US8330592B2 (en) Collision warning device for motor vehicles
CN112601690B (zh) 车辆的行驶控制方法及行驶控制装置
JP6990020B2 (ja) 車両の追従発進制御装置
JP2005056372A5 (ja)
JP7151495B2 (ja) 自動運転システム
CN113511196B (zh) 车辆及其控制装置
JP3890996B2 (ja) 運転支援装置
JP7503237B2 (ja) 車両制御システム
JP4476575B2 (ja) 車両状況判定装置
US10926778B2 (en) Autonomous vehicle control device
CN116968729A (zh) Adas定时调整和基于风险因素信息的选择性事故警报
KR20180046705A (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
JP2004302622A (ja) 車両用制動制御装置
KR20180109826A (ko) 차량 및 그 제어방법
WO2023026535A1 (ja) 制御装置
CN115071697A (zh) 一种车辆安全辅助方法及其系统
KR101929817B1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
JP4321082B2 (ja) 道路ゲート通過制御装置
JP2024050274A (ja) 制御装置、制御方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22860833

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18553281

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280029595.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 112022001211

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22860833

Country of ref document: EP

Kind code of ref document: A1