WO2021152645A1 - 緊急退避装置、サーバ装置、及び緊急退避方法 - Google Patents

緊急退避装置、サーバ装置、及び緊急退避方法 Download PDF

Info

Publication number
WO2021152645A1
WO2021152645A1 PCT/JP2020/002646 JP2020002646W WO2021152645A1 WO 2021152645 A1 WO2021152645 A1 WO 2021152645A1 JP 2020002646 W JP2020002646 W JP 2020002646W WO 2021152645 A1 WO2021152645 A1 WO 2021152645A1
Authority
WO
WIPO (PCT)
Prior art keywords
blind spot
road
information
vehicle
parking position
Prior art date
Application number
PCT/JP2020/002646
Other languages
English (en)
French (fr)
Inventor
哲朗 西岡
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN202080080256.1A priority Critical patent/CN114945499A/zh
Priority to DE112020006634.7T priority patent/DE112020006634T5/de
Priority to PCT/JP2020/002646 priority patent/WO2021152645A1/ja
Priority to JP2021573627A priority patent/JP7321295B2/ja
Priority to US17/780,378 priority patent/US20220410940A1/en
Publication of WO2021152645A1 publication Critical patent/WO2021152645A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/40Transportation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/10Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/60Positioning; Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas

Definitions

  • the present invention relates to a vehicle emergency evacuation device, a server device, and an emergency evacuation method.
  • the parking position of the vehicle is a static blind spot such as immediately after a curve, or a dynamic blind spot such as behind a parked vehicle, the vehicle that has made an emergency stop at this parking position and the rescuer who is performing rescue activities at the vehicle There was a risk of causing a secondary disaster such as a rear-end collision with a following vehicle.
  • Patent Document 1 As a countermeasure for static blind spots, Patent Document 1 has adopted a method of detecting a static blind spot based on the shape of a road and determining a parking position so as to avoid the static blind spot. However, in Patent Document 1, no measures have been taken regarding the dynamic blind spot.
  • the present invention has been made to solve the above problems, and an object of the present invention is to determine a parking position while avoiding static blind spots and dynamic blind spots.
  • the emergency evacuation device is an emergency evacuation device mounted on the first vehicle that determines a parking position for retracting the traveling first vehicle, and is a shape of a road on which the first vehicle is traveling.
  • the first blind spot indicating the blind spot area of the road when the information acquisition unit for acquiring the road shape information and the driving environment information regarding the road driving environment and the road shape information regarding the road shape and the driving environment information regarding the road driving environment are input.
  • First blind spot information indicating the blind spot area of the road on which the first vehicle is traveling by inputting the road shape information and the driving environment information acquired by the information acquisition unit using the first blind spot inference model that outputs information. It is provided with a first blind spot information acquisition unit for acquiring the above and a parking position determination unit for determining a parking position using the first blind spot information acquired by the first blind spot information acquisition unit.
  • a first blind spot inference model that outputs first blind spot information indicating a blind spot area of a road when road shape information related to a static blind spot and driving environment information related to a dynamic blind spot are input. Since the parking position is determined by acquiring the first blind spot information indicating the blind spot area of the road on which the first vehicle is traveling, parking is avoided while avoiding static blind spots and dynamic blind spots. The position can be determined.
  • FIG. It is a block diagram which shows the structural example of the emergency evacuation apparatus which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the example of the server apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation example of the emergency evacuation apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation example of the server apparatus which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the structural example of the emergency evacuation apparatus which concerns on Embodiment 2.
  • FIG. It is a block diagram which shows the configuration example of the server apparatus which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the operation example of the emergency evacuation apparatus which concerns on Embodiment 2.
  • FIG. 2 It is a flowchart which shows the accumulation operation of the 2nd blind spot information by the server apparatus which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the transmission operation of the 2nd blind spot information by the server apparatus which concerns on Embodiment 2.
  • FIG. It is a figure which shows an example of the hardware configuration of the emergency evacuation apparatus which concerns on each embodiment. It is a figure which shows another example of the hardware composition of the emergency evacuation apparatus which concerns on each embodiment. It is a figure which shows an example of the hardware configuration of the server apparatus which concerns on each embodiment. It is a figure which shows another example of the hardware configuration of the server apparatus which concerns on each embodiment.
  • FIG. 5 is a block diagram showing a configuration example in which the function of the emergency evacuation device according to the first embodiment is mounted on the server device.
  • FIG. 5 is a block diagram showing a configuration example in which the function of the emergency evacuation device according to the second embodiment is mounted on the server device.
  • FIG. 1 is a block diagram showing a configuration example of the emergency evacuation device 10 according to the first embodiment.
  • FIG. 2 is a block diagram showing a configuration example of the server device 20 according to the first embodiment.
  • the automatic driving technologies that make the vehicle 1 run autonomously there are fully automatic driving technologies that do not require any driving operation by the occupants under any environment, and automatic driving is possible under specific environments, but in some situations. Depending on the situation, there is an automatic driving technology that requires manual driving by the occupants.
  • automatic driving levels 0 to 5 defined by SAE (Society of Automotive Engineers)
  • fully automatic driving corresponds to automatic driving level 4 (advanced driving automation)
  • automatic driving level 5 complete driving automation
  • Automatic driving that requires manual driving corresponds to automatic driving level 3 (conditional driving automation) or lower.
  • the autonomous driving vehicle that has been developed in recent years is the latter automatic driving technology, and may switch from automatic driving to manual driving when a disturbance or failure occurs.
  • this self-driving vehicle the occupant sitting in the driver's seat (hereinafter referred to as "driver") needs to be able to drive manually in preparation for a particularly urgent changeover. If the driver is unable to drive manually immediately, the self-driving vehicle will have to stop.
  • the vehicle 1 is equipped with a driver monitoring device 2, an observation device 3, an automatic driving control device 4, and an emergency evacuation device 10.
  • the driver monitoring device 2 observes the driver of the vehicle 1 using a sensor such as an image pickup device or a biological sensor, and monitors the state of the occupant using the observation result.
  • the driver monitoring device 2 determines that the driver has become unable to drive manually due to loss of consciousness or sudden illness (hereinafter referred to as "manual driving impossible state")
  • the driver monitoring device 2 notifies the emergency evacuation device 10.
  • the observation device 3 observes the surroundings of the vehicle 1 using at least one of the image pickup device and the distance sensor.
  • the distance sensor is an ultrasonic sensor, a millimeter wave sensor, a LIDAR (Laser Imaging Detection and Ringing), or the like.
  • the emergency evacuation device 10 includes a communication unit 11, an information acquisition unit 12, a first blind spot information acquisition unit 13, and a parking position determination unit 14.
  • the communication unit 11 wirelessly communicates with the communication unit 21 of the server device 20.
  • the information acquisition unit 12 receives the notification from the driver monitoring device 2 that the driver of the vehicle 1 has become unable to drive manually, the information acquisition unit 12 acquires the information observed by the observation device 3.
  • the information acquisition unit 12 outputs the information acquired from the observation device 3 to the first blind spot information acquisition unit 13.
  • the first blind spot information acquisition unit 13 has a first blind spot inference model.
  • the first blind spot information acquisition unit 13 inputs the information observed by the observation device 3 into the first blind spot inference model, and acquires the first blind spot information output by the first blind spot inference model.
  • the parking position determination unit 14 determines the parking position of the vehicle 1 by using the first blind spot information acquired by the first blind spot information acquisition unit 13.
  • the parking position determination unit 14 notifies the automatic driving control device 4 of the determined parking position.
  • the automatic driving control device 4 controls various actuators of the vehicle 1 to retract the vehicle 1 to the parking position and stop the vehicle 1.
  • the information input to the first blind spot inference model includes road shape information regarding the shape of the road on which the vehicle 1 is traveling and driving environment information regarding the traveling environment of this road.
  • Road shape information is information indicating the shape of a road, such as whether it is a straight line, a curve, or a slope.
  • the road shape information may be an image captured by an imaging device included in the observation device 3, or may be map information stored in a map information storage unit (not shown).
  • a map information storage unit not shown.
  • the road is a curve
  • a blind spot is generated around the slope in which the following vehicle cannot see the vehicle 1. Since the shape of the road does not change with time, the blind spot caused by the shape of the road does not change with time. Therefore, the blind spot caused by the shape of the road can be said to be a static blind spot.
  • Driving environment information is information indicating obstacles existing on and around the road.
  • the traveling environment information may be an image captured by the captured image of the observation device 3, or may be distance information measured by the distance sensor of the observation device 3.
  • the shield is a moving body such as a vehicle
  • a blind spot is generated around the parked vehicle in which the following vehicle cannot see the vehicle 1 while the vehicle is parked. Is gone.
  • the blind spot caused by the shield existing on and around the road can be said to be a dynamic blind spot.
  • the first blind spot information output by the first blind spot inference model is information indicating a blind spot area of the road on which the vehicle 1 is traveling.
  • This blind spot region may include a static blind spot region caused by the shape of the road and a dynamic blind spot region caused by a shield existing on and around the road. For example, consider a case where there is a parked vehicle in front of the road on which the vehicle 1 is traveling and the road is curved at the end of the parked vehicle.
  • the first blind spot information includes a dynamic blind spot region generated by a parked vehicle and a static blind spot region generated by a curve.
  • the first blind spot inference model is based on the second blind spot inference model generated by the server device 20.
  • the server device 20 includes a communication unit 21, an external information storage unit 22, and a learning unit 23.
  • the communication unit 21 receives the information observed by the vehicle 1 equipped with the emergency evacuation device 10, that is, the road shape information and the traveling environment information.
  • the communication unit 11 receives the information observed by the observation device 3 from the information acquisition unit 12 and transmits it to the server device 20.
  • the external world information storage unit 22 stores road shape information and traveling environment information transmitted from each emergency evacuation device 10 mounted on a large number of vehicles 1.
  • the learning unit 23 performs machine learning using the road shape information and the driving environment information stored in the outside world information storage unit 22 as inputs, and performs machine learning, and the static blind spot area generated due to the shape of the road, on the road, and on the road.
  • a second blind spot inference model is generated to infer the dynamic blind spot region caused by the shield existing around the blind spot.
  • the learning unit 23 uses a deep neural network or the like as a machine learning method.
  • the communication unit 21 transmits the second blind spot inference model generated by the learning unit 23 to the vehicle 1.
  • the communication unit 11 of the vehicle 1 receives the second blind spot inference model, it outputs the second blind spot inference model to the first blind spot information acquisition unit 13.
  • the first blind spot information acquisition unit 13 uses the second blind spot inference model as the first blind spot inference model.
  • the learning unit 23 may generate one second blind spot inference model that infers both a static blind spot region and a dynamic blind spot region, or may generate a second blind spot inference model for inferring a static blind spot region. Two types of models may be generated, a blind spot inference model and a second blind spot inference model that infers a dynamic blind spot region. Further, when the learning unit 23 generates a second blind spot inference model for inferring a dynamic blind spot region, the learning unit 23 uses an image of the shield captured from the front or the rear as learning data, and captures the shield from the side. Learning may be performed using the obtained image as teacher data.
  • FIG. 3 is a flowchart showing an operation example of the emergency evacuation device 10 according to the first embodiment. For example, when the ignition switch of the vehicle 1 is turned on, the emergency evacuation device 10 starts the operation shown in the flowchart of FIG.
  • step ST1 the driver monitoring device 2 monitors the driver.
  • step ST2 “YES” the driver monitoring device 2 performs the operation of step ST1.
  • step ST2 “NO” the driver monitoring device 2 tells the information acquisition unit 12 of the emergency evacuation device 10 that the driver is in a state where manual operation is not possible. Notice.
  • step ST3 the information acquisition unit 12 acquires information from the observation device 3 that the observation device 3 has observed around the vehicle 1.
  • the first blind spot information acquisition unit 13 inputs the information acquired from the observation device 3 by the information acquisition unit 12 into the first blind spot inference model, and indicates the blind spot area of the road on which the vehicle 1 is traveling. The first blind spot information is acquired from this first blind spot inference model.
  • the parking position determination unit 14 uses the first blind spot information acquired by the first blind spot information acquisition unit 13 from the first blind spot inference model to use the blind spot on the road on which the vehicle 1 is traveling.
  • a place other than the area (road shoulder, etc.) is determined as the parking position.
  • the parking position determining unit 14 detects the area of the road on which the vehicle 1 is traveling from the image captured by the image captured by the observation device 3, and parks a place of the detected road area that is not a blind spot area. Determine the position.
  • the parking position determination unit 14 uses map information stored in a map information storage unit (not shown) to determine a location on the road on which the vehicle 1 is traveling that is not a blind spot area as a parking position. You may.
  • step ST6 the automatic driving control device 4 retracts the vehicle 1 to the parking position determined by the parking position determining unit 14 and stops the vehicle 1.
  • FIG. 4 is a flowchart showing an operation example of the server device 20 according to the first embodiment.
  • step ST11 when the communication unit 21 receives the information observed by the observation device 3 of the vehicle 1 equipped with the emergency evacuation device 10 from the vehicle 1 (step ST11 “YES”), the communication unit 21 stores the received information in the external world information storage unit. Store in 22 (step ST12). On the other hand, if the information observed by the vehicle 1 equipped with the emergency evacuation device 10 is not received from the vehicle 1 (step ST11 “NO”), the communication unit 21 repeats the reception operation.
  • step ST13 when the information stored in the external information storage unit 22 reaches a predetermined amount, the learning unit 23 generates a second blind spot inference model using the information stored in the external information storage unit 22. ..
  • step ST14 the communication unit 21 transmits the second blind spot inference model generated by the learning unit 23 to each vehicle 1 equipped with the emergency evacuation device 10.
  • the server device 20 may periodically update the second blind spot inference model by periodically performing the operation shown in the flowchart of FIG. As a result, the first blind spot inference model of the first blind spot information acquisition unit 13 of the emergency evacuation device 10 is also periodically updated.
  • the emergency evacuation device 10 includes an information acquisition unit 12, a first blind spot information acquisition unit 13, and a parking position determination unit 14.
  • the information acquisition unit 12 acquires road shape information regarding the shape of the road on which the vehicle 1 is traveling and traveling environment information regarding the traveling environment of the road.
  • the first blind spot information acquisition unit 13 outputs the first blind spot information indicating the blind spot area of the road when the road shape information regarding the road shape and the driving environment information regarding the driving environment of the road are input.
  • the road shape information and the traveling environment information acquired by the information acquisition unit 12 are input to acquire the first blind spot information indicating the blind spot area of the road on which the vehicle 1 is traveling.
  • the parking position determination unit 14 determines the parking position using the first blind spot information acquired by the first blind spot information acquisition unit 13. As described above, the emergency evacuation device 10 outputs the first blind spot information indicating the blind spot area of the road when the road shape information related to the static blind spot and the traveling environment information related to the dynamic blind spot are input. Since the first blind spot information indicating the blind spot area of the road on which the vehicle 1 is traveling is acquired and the parking position is determined by using the blind spot inference model of, the static blind spot and the dynamic blind spot are determined. You can avoid it and decide the parking position.
  • the traveling environment information is information indicating obstacles existing on and around the road, which are detected by using at least one of the image pickup device or the distance sensor mounted on the vehicle 1.
  • the emergency evacuation device 10 uses the traveling environment information indicating a shield that may move to input the first blind spot inference model, so that the first blind spot inference model indicates a dynamic blind spot region.
  • the blind spot information of 1 can be acquired.
  • FIG. 5 is a block diagram showing a configuration example of the emergency evacuation device 10 according to the second embodiment.
  • the emergency evacuation device 10 according to the second embodiment has a configuration in which the parking position determination unit 14 included in the emergency evacuation device 10 of the first embodiment shown in FIG. 1 is a parking position determination unit 14a.
  • the same or corresponding parts as those in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.
  • the communication unit 11 transmits the information of the road on which the vehicle 1 is traveling and the information observed by the observation device 3 on this road to the server device 20.
  • the information on the road on which the vehicle 1 is traveling is, for example, the position information of the vehicle 1.
  • the communication unit 11 may acquire information on the road on which the vehicle 1 is traveling from a car navigation device or the like (not shown).
  • the communication unit 11 transmits an emergency stop trigger including information on the road on which the vehicle 1 is traveling to the server device 20. Then, the communication unit 11 receives the second blind spot information indicating the blind spot area on the road on which the vehicle 1 is traveling from the server device 20, and outputs the second blind spot information to the parking position determination unit 14a.
  • the parking position determination unit 14a determines the parking position using the second blind spot information received by the communication unit 11, and the first blind spot information acquisition unit 13 determines whether or not the determined parking position is the blind spot area. Confirm using the acquired first blind spot information.
  • the parking position determination unit 14a changes the parking position when it is confirmed that the parking position determined by using the second blind spot information is the blind spot area based on the first blind spot information.
  • FIG. 6 is a block diagram showing a configuration example of the server device 20 according to the second embodiment.
  • the server device 20 according to the second embodiment has a configuration in which a second blind spot information acquisition unit 24 and a second blind spot information storage unit 25 are added to the server device 20 of the second embodiment shown in FIG. Is.
  • FIG. 6 the same or corresponding parts as those in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted.
  • the communication unit 21 transfers the information of the road on which the vehicle 1 equipped with the emergency evacuation device 10 is traveling and the information observed by the observation device 3 on this road to the emergency evacuation. Receive from device 10.
  • the communication unit 21 outputs the received information to the second blind spot information acquisition unit 24.
  • the second blind spot information acquisition unit 24 has a second blind spot inference model generated by the learning unit 23.
  • the second blind spot information acquisition unit 24 inputs the information received by the communication unit 21 and observed by the observation device 3 into the second blind spot inference model, and inputs the second blind spot information output by the second blind spot inference model. get.
  • the second blind spot information acquisition unit 24 associates the road information received by the communication unit 21 with the second blind spot information acquired from the second blind spot inference model, and the second blind spot information storage unit 25 Remember in. In this way, the second blind spot information acquisition unit 24 acquires the second blind spot information regarding a large number of roads on which a large number of vehicles 1 have traveled from the second blind spot inference model, and stores the second blind spot information. Accumulate in part 25.
  • the vehicle 1 here corresponds to a "second vehicle".
  • the communication unit 21 receives the emergency stop trigger transmitted by the emergency evacuation device 10 mounted on the vehicle 1.
  • the communication unit 21 transfers the second blind spot information to which the road information corresponding to the road information on which the vehicle 1 is traveling, which is included in the emergency stop trigger, is associated with the second blind spot information storage unit 25. And returns to the emergency evacuation device 10 of this vehicle 1.
  • the information input to the second blind spot inference model includes the above-mentioned road shape information and driving environment information.
  • the second blind spot information output by the second blind spot inference model indicates the blind spot area of the road on which the vehicle 1 equipped with the emergency evacuation device 10 that has transmitted the information observed by the observation device 3 to the server device 20 is traveling.
  • FIG. 7 is a flowchart showing an operation example of the emergency evacuation device 10 according to the second embodiment.
  • the operations of steps ST21 and ST22 in the flowchart of FIG. 7 are the same as the operations of steps ST1 and ST2 in the flowchart of FIG.
  • step ST23 the information acquisition unit 12 receives a notification from the driver monitoring device 2 that the driver of the vehicle 1 has become unable to drive manually, and outputs the notification to the communication unit 11.
  • the communication unit 11 transmits an emergency stop trigger including information on the road on which the vehicle 1 is traveling to the server device 20.
  • the communication unit 11 receives the second blind spot information regarding the road on which the vehicle 1 is traveling from the server device 20, and outputs the second blind spot information to the parking position determination unit 14a.
  • the parking position determination unit 14a uses the second blind spot information received from the server device 20 to determine a place on the road on which the vehicle 1 is traveling that is not the blind spot area as the parking position.
  • the parking position may be within the observation range of the observation device 3, that is, a position close to the current position of the vehicle 1, or may be outside the observation range of the observation device 3, that is, a position away from the current position of the vehicle 1. You may.
  • the parking position determination unit 14a notifies the automatic driving control device 4 and the information acquisition unit 12 of the determined parking position.
  • step ST25 the automatic driving control device 4 starts moving to the parking position determined by the parking position determining unit 14a.
  • step ST26 when the parking position enters the observation range of the observation device 3, the information acquisition unit 12 acquires the information obtained by the observation device 3 observing the parking position.
  • step ST27 the first blind spot information acquisition unit 13 inputs the information acquired from the observation device 3 by the information acquisition unit 12 into the first blind spot inference model, as in step ST4 in the flowchart of FIG. 3, and the vehicle 1
  • the first blind spot information indicating the blind spot region of the road on which the vehicle is traveling is acquired from this first blind spot inference model.
  • the parking position determined by the parking position determination unit 14a using the second blind spot information received from the server device 20 is the first blind spot information acquisition unit 13 acquired from the first blind spot inference model. It is confirmed whether or not it is outside the blind spot area indicated by the blind spot information of 1.
  • the timing at which the server device 20 acquires the second blind spot information is earlier than the timing at which the first blind spot information acquisition unit 13 acquires the first blind spot information. Therefore, there is a possibility that the dynamic blind spot area changes due to the movement of the shield between the time when the second blind spot information is acquired and the time when the first blind spot information is acquired. Therefore, in the parking position determination unit 14a, whether or not the blind spot region indicated by the second blind spot information is still the blind spot region, and a new blind spot region is generated in addition to the blind spot region indicated by the second blind spot information. Check if it is.
  • step ST29 the automatic driving control device 4 stops the vehicle 1 at the parking position.
  • step ST28 “NO” the parking position determining unit 14a causes the automatic driving control device 4 to stop the evacuation to the parking position and autonomously travel along the road. Instruct them to do.
  • step ST30 the parking position determination unit 14a instructs the communication unit 11 to transmit the information observed by the observation device 3 in step ST26 to the server device 20. According to this instruction, the communication unit 11 transmits the information on the road on which the vehicle 1 is traveling and the information observed by the observation device 3 to the server device 20.
  • step ST28 “NO”) If the parking position is within the blind spot area (step ST28 “NO”), it is necessary to change the parking position of the vehicle 1 to the outside of the blind spot area. Therefore, the parking position determination unit 14a instructs the information acquisition unit 12 to acquire the second blind spot information corresponding to the latest position information of the vehicle 1 from the server device 20. The information acquisition unit 12 performs the operations after step ST23 according to this instruction.
  • FIG. 8 is a flowchart showing a second blind spot information storage operation by the server device 20 according to the second embodiment.
  • Each emergency evacuation device 10 mounted on a large number of vehicles 1 transmits information on the road on which the vehicle 1 is traveling and information observed by the observation device 3 on this road to the server device 20. It is assumed that
  • step ST31 the communication unit 21 receives the information on the road on which the vehicle 1 (corresponding to the second vehicle) equipped with the emergency evacuation device 10 is traveling and the information observed by the observation device 3 on this road. ..
  • the communication unit 21 receives these information (step ST31 “YES”), the communication unit 21 outputs the received information to the second blind spot information acquisition unit 24.
  • step ST31 “NO”) the communication unit 21 repeats the reception operation.
  • the second blind spot information acquisition unit 24 inputs the information received by the communication unit 21 and observed by the observation device 3 into the second blind spot inference model, and outputs the second blind spot inference model. Get blind spot information.
  • the second blind spot information acquisition unit 24 associates the road information received by the communication unit 21 with the second blind spot information acquired from the second blind spot inference model to form a second blind spot. It is stored in the information storage unit 25.
  • FIG. 9 is a flowchart showing a second blind spot information transmission operation by the server device 20 according to the second embodiment.
  • the server device 20 performs the operation shown in the flowchart of FIG. 8 and the operation shown in the flowchart of FIG. 9 in parallel.
  • step ST41 when the communication unit 21 receives the emergency stop trigger transmitted by the emergency evacuation device 10 mounted on the vehicle 1 (step ST41 “YES”), the communication unit 21 is included in the emergency stop trigger in step ST42.
  • the second blind spot information associated with the road information corresponding to the road information on which the vehicle 1 is traveling is acquired from the second blind spot information storage unit 25.
  • the communication unit 21 returns the second blind spot information acquired from the second blind spot information storage unit 25 to the emergency evacuation device 10 that has transmitted the emergency stop trigger.
  • step ST41 “NO” if the communication unit 21 has not received the emergency stop trigger (step ST41 “NO”), the communication unit 21 repeats the reception operation.
  • the emergency stop trigger received by the communication unit 21 in step ST41 is an emergency stop trigger transmitted by the emergency evacuation device 10 in step ST23 of FIG.
  • the second blind spot information transmitted by the communication unit 21 in step ST42 is the second blind spot information received by the emergency evacuation device 10 in step ST23 of FIG.
  • step ST43 the communication unit 21 transfers the information observed by the observation device 3 of the vehicle 1 that has transmitted the emergency stop trigger and the information of the road on which the vehicle 1 is traveling to the emergency evacuation mounted on the vehicle 1.
  • the received information is output to the second blind spot information acquisition unit 24.
  • the communication unit 21 ends the operation shown in the flowchart of FIG.
  • the second blind spot information acquisition unit 24 inputs the information received by the communication unit 21 and observed by the observation device 3 into the second blind spot inference model, and outputs the second blind spot inference model. Get blind spot information.
  • the second blind spot information acquisition unit 24 associates the road information received by the communication unit 21 with the second blind spot information acquired from the second blind spot inference model to provide the second blind spot information. It is stored in the storage unit 25.
  • the server device 20 acquires the latest second blind spot information (step ST44) and obtains the latest second blind spot information (step ST44).
  • the old second blind spot information stored in the storage unit 25 is updated with the latest second blind spot information (step ST45).
  • the road information received by the communication unit 21 and the information observed by the observation device 3 in step ST43 are the information transmitted by the emergency evacuation device 10 in step ST30 of FIG.
  • the communication unit 11 of the second embodiment transmits information on the road on which the vehicle 1 is traveling to the server device 20 when the driver of the vehicle 1 becomes unable to drive manually. Then, the communication unit 11 receives the second blind spot information indicating the blind spot area on the road on which the vehicle 1 is traveling, which is transmitted from the server device 20 that has received the information on the road on which the vehicle 1 is traveling. do.
  • the parking position determination unit 14a determines the parking position using the second blind spot information received by the communication unit 11, and determines whether or not the determined parking position is the blind spot area in the first blind spot information acquisition unit 13. Confirm using the first blind spot information acquired by.
  • the parking position determination unit 14a can determine the parking position by using the second blind spot information including the blind spot region existing outside the observation range of the observation device 3 mounted on the vehicle 1. For example, if the driver becomes inoperable when the vehicle 1 approaches an intersection or a railroad track, the emergency evacuation device 10 cannot make an emergency stop of the vehicle 1 in the intersection or the railroad track. , It is necessary to make an emergency stop of the vehicle 1 after passing through an intersection, a railroad track, or the like. At that time, even if the observation device 3 cannot observe the other side of the intersection or the railroad track or the like, the parking position determining unit 14a uses the second blind spot information including the blind spot area on the other side of the intersection or the railroad track or the like.
  • a position outside the blind spot area on the other side of an intersection or a railroad track can be determined as a parking position. Further, when the parking position determination unit 14a confirms that the parking position determined by using the second blind spot information is still outside the blind spot area, a dynamic blind spot area is generated in the parking position. It is possible to prevent the vehicle 1 from making an emergency stop in this dynamic blind spot area.
  • the second blind spot information is the second blind spot area indicating the blind spot area of the road when the server device 20 inputs the road shape information regarding the road shape and the driving environment information regarding the driving environment of the road.
  • the road shape information and the driving environment information transmitted from the second vehicle that has traveled on the road on which the vehicle 1 is traveling in the past are acquired as inputs. .. Since this second blind spot information may include a blind spot region existing outside the observation range of the observation device 3 mounted on the vehicle 1, the emergency evacuation device 10 parks from a range wider than the observation range of the observation device 3. The position can be determined.
  • the emergency evacuation device 10 has the latest road shape required for the server device 20 to update the second blind spot information when the second blind spot information received from the server device 20 is old and incorrect. Information and driving environment information can be transmitted to the server device 20.
  • the parking position determination units 14 and 14a of the emergency evacuation device 10 set a parking avoidance area having a margin in the blind spot area indicated by the first blind spot information, and park on the road on which the vehicle 1 is traveling. A place other than the avoidance area may be determined as the parking position.
  • the parking avoidance area is, for example, an area having an area larger than the blind spot area, which is set so that the vehicle 1 does not pass through the blind spot area while the vehicle 1 is retracting and stopping at the parking position.
  • the parking position determining units 14 and 14a may increase the size of the parking avoidance area when the visibility is poor such as at night and when it rains, as compared with when the visibility is good such as in the daytime and in fine weather.
  • the second blind spot information acquisition unit 24 of the server device 20 sets a parking avoidance area having a margin in the blind spot area indicated by the second blind spot information, and uses this parking avoidance area as the second blind spot information. It may be stored in the blind spot information storage unit 25 of 2.
  • 10 and 11 are diagrams showing a hardware configuration example of the emergency evacuation device 10 according to each embodiment.
  • the communication unit 11 in the emergency evacuation device 10 is the communication device 103.
  • the functions of the information acquisition unit 12, the first blind spot information acquisition unit 13, and the parking position determination units 14, 14a in the emergency evacuation device 10 are realized by the processing circuit. That is, the emergency evacuation device 10 includes a processing circuit for realizing the above function.
  • the processing circuit may be a processing circuit 100 as dedicated hardware, or a processor 101 that executes a program stored in the memory 102.
  • the processing circuit 100 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an ASIC (Application Specific Integrated Circuit). ), FPGA (Field Processor Gate Array), or a combination thereof.
  • the functions of the information acquisition unit 12, the first blind spot information acquisition unit 13, and the parking position determination units 14 and 14a may be realized by a plurality of processing circuits 100, or the functions of each unit may be combined into one processing circuit 100. It may be realized. Further, the function of the communication device 103 may be realized by the processing circuit 100.
  • the functions of the information acquisition unit 12, the first blind spot information acquisition unit 13, and the parking position determination units 14, 14a are software, firmware, or software. It is realized by combining with firmware.
  • the software or firmware is described as a program and stored in the memory 102.
  • the processor 101 realizes the functions of each part by reading and executing the program stored in the memory 102. That is, the emergency evacuation device 10 includes a memory 102 for storing a program in which the step shown in the flowchart of FIG. 3 or the like is executed as a result when the emergency evacuation device 10 is executed by the processor 101. Further, it can be said that this program causes the computer to execute the procedures or methods of the information acquisition unit 12, the first blind spot information acquisition unit 13, and the parking position determination units 14, 14a.
  • the functions of the information acquisition unit 12, the first blind spot information acquisition unit 13, and the parking position determination units 14 and 14a are partially realized by dedicated hardware and partly realized by software or firmware. You may.
  • the processing circuit in the emergency evacuation device 10 can realize the above-mentioned functions by hardware, software, firmware, or a combination thereof.
  • the communication unit 21 in the server device 20 is the communication device 203.
  • the functions of the external world information storage unit 22, the learning unit 23, the second blind spot information acquisition unit 24, and the second blind spot information storage unit 25 in the server device 20 are realized by the processing circuit. That is, the server device 20 includes a processing circuit for realizing the above functions.
  • the processing circuit may be a processing circuit 200 as dedicated hardware, or a processor 201 that executes a program stored in the memory 202.
  • the processing circuit 200 may include, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or any of these. The combination of is applicable.
  • the functions of the external world information storage unit 22, the learning unit 23, the second blind spot information acquisition unit 24, and the second blind spot information storage unit 25 may be realized by a plurality of processing circuits 200, or the functions of each unit may be integrated. It may be realized by one processing circuit 200. Further, the function of the communication device 203 may be realized by the processing circuit 200.
  • the processing circuit is the processor 201
  • the functions of the learning unit 23 and the second blind spot information acquisition unit 24 are realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is written as a program and stored in memory 202.
  • the processor 201 realizes the functions of each part by reading and executing the program stored in the memory 202. That is, the server device 20 includes a memory 202 for storing a program in which the step shown in the flowchart of FIG. 4 or the like is eventually executed when executed by the processor 201. Further, it can be said that this program causes the computer to execute the procedure or method of the learning unit 23 and the second blind spot information acquisition unit 24.
  • the functions of the external world information storage unit 22 and the second blind spot information storage unit 25 are realized by the memory 202.
  • the functions of the learning unit 23 and the second blind spot information acquisition unit 24 may be partially realized by dedicated hardware and partly realized by software or firmware.
  • the processing circuit in the server device 20 can realize the above-mentioned functions by hardware, software, firmware, or a combination thereof.
  • the processors 101 and 201 refer to a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, and the like.
  • the memories 102 and 202 may be a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), an EPROM (Erasable Program ROM), or a flash memory, and may be a hard disk or a flexible semiconductor memory. It may be a magnetic disc such as a disc, or an optical disc such as a CD (Compact Disc) or a DVD (Digital Versaille Disc).
  • the parking position determination units 14 and 14a determine the parking position when the emergency vehicle approaches the vehicle 1, and the automatic driving control device 4 retracts the vehicle 1 to the parking position so as not to interfere with the running of the emergency vehicle. Let me.
  • the function of the emergency evacuation device 10 is mounted on the vehicle 1, but the function of the emergency evacuation device 10 may be mounted on the server device 20.
  • Two examples (FIGS. 14 and 15) of the configuration in which the function of the emergency evacuation device 10 is mounted on the server device 20 will be described below.
  • FIG. 14 is a block diagram showing a configuration example in which the function of the emergency evacuation device 10 according to the first embodiment is mounted on the server device 20A.
  • the server device 20A includes an information acquisition unit 12A, a first blind spot information acquisition unit 13A, a parking position determination unit 14A, a communication unit 21A, an external world information storage unit 22, and a learning unit 23.
  • the same or corresponding parts as those in FIGS. 1 and 2 are designated by the same reference numerals, and the description thereof will be omitted.
  • the information acquisition unit 12A acquires the emergency stop trigger transmitted by the vehicle 1 and the information observed by the observation device 3 of the vehicle 1 via the communication unit 11 of the vehicle 1 and the communication unit 21A of the server device 20A. Then, the information acquisition unit 12A outputs the information acquired from the observation device 3 to the first blind spot information acquisition unit 13A.
  • the first blind spot information acquisition unit 13A has a first blind spot inference model.
  • the first blind spot inference model is generated by the external information storage unit 22 and the learning unit 23 as in the first embodiment.
  • the first blind spot information acquisition unit 13A inputs the information observed by the observation device 3 into the first blind spot inference model, and acquires the first blind spot information output by the first blind spot inference model.
  • the parking position determination unit 14A determines the parking position of the vehicle 1 by using the first blind spot information acquired by the first blind spot information acquisition unit 13A.
  • the communication unit 21A notifies the automatic driving control device 4 of the parking position determined by the parking position determination unit 14A via the communication unit 11 of the vehicle 1.
  • the automatic driving control device 4 of the vehicle 1 controls various actuators of the vehicle 1 to retract the vehicle 1 to the parking position and stop the vehicle 1.
  • the server device 20A outputs the first blind spot information indicating the blind spot area of the road when the road shape information related to the static blind spot and the driving environment information related to the dynamic blind spot are input. Since the first blind spot information indicating the blind spot area of the road on which the vehicle 1 is traveling is acquired and the parking position is determined by using the blind spot inference model of, the static blind spot and the dynamic blind spot are determined. You can avoid it and decide the parking position.
  • FIG. 15 is a block diagram showing a configuration example in which the function of the emergency evacuation device 10 according to the second embodiment is mounted on the server device 20A.
  • the server device 20A includes an information acquisition unit 12A, a first blind spot information acquisition unit 13A, a parking position determination unit 14A, a communication unit 21A, an outside world information storage unit 22, a learning unit 23, a second blind spot information acquisition unit 24, and a second.
  • the blind spot information storage unit 25 of 2 is provided.
  • the same or corresponding parts as those in FIGS. 6 and 14 are designated by the same reference numerals, and the description thereof will be omitted. Further, since the vehicle 1 side has the configuration shown in FIG. 14, FIG. 14 is incorporated.
  • the communication unit 21A obtains information on the road on which the vehicle 1 (corresponding to the second vehicle) is traveling (for example, position information of the vehicle 1) and information observed by the observation device 3 of the vehicle 1 on this road. Received from vehicle 1.
  • the second blind spot information acquisition unit 24 has a second blind spot inference model.
  • the second blind spot inference model is generated by the external information storage unit 22 and the learning unit 23 as in the second embodiment.
  • the second blind spot information acquisition unit 24 inputs the information received by the communication unit 21A and observed by the observation device 3 into the second blind spot inference model, and inputs the second blind spot information output by the second blind spot inference model. get.
  • the second blind spot information acquisition unit 24 links the road information received by the communication unit 21A with the second blind spot information acquired from the second blind spot inference model, and the second blind spot information storage unit 25 Remember in. In this way, the second blind spot information acquisition unit 24 acquires the second blind spot information regarding a large number of roads on which a large number of vehicles 1 have traveled from the second blind spot inference model, and stores the second blind spot information. Accumulate in part 25.
  • the information acquisition unit 12A acquires the emergency stop trigger transmitted by the vehicle 1 and the information observed by the observation device 3 of the vehicle 1 via the communication unit 11 of the vehicle 1 and the communication unit 21A of the server device 20A.
  • the first blind spot information acquisition unit 13A inputs the information observed by the observation device 3 into the first blind spot inference model, and the first blind spot inference model outputs the information.
  • the first blind spot information is acquired and output to the parking position determination unit 14A.
  • the parking position determination unit 14A is associated with a road corresponding to information on the road on which the vehicle 1 is traveling (for example, position information of the vehicle 1) included in the emergency stop trigger received by the communication unit 21A.
  • the blind spot information of 2 is acquired from the second blind spot information storage unit 25.
  • the parking position determination unit 14A determines the parking position using the second blind spot information acquired from the second blind spot information storage unit 25, and determines whether or not the determined parking position is the blind spot area in the first blind spot information. Confirmation is performed using the first blind spot information acquired by the acquisition unit 13A.
  • the parking position determination unit 14A changes the parking position when it is confirmed that the parking position determined by using the second blind spot information is the blind spot area based on the first blind spot information.
  • the communication unit 21A notifies the automatic driving control device 4 via the communication unit 11 of the vehicle 1 of the final parking position determined by the parking position determination unit 14A.
  • the server device 20A determines the parking position by using the second blind spot information including the blind spot area existing outside the observation range of the observation device 3 mounted on the vehicle 1 that has transmitted the emergency stop trigger. can. Further, the server device 20A confirms that the parking position determined by using the second blind spot information is still outside the blind spot area, so that this movement occurs when a dynamic blind spot area is generated in the parking position. It is possible to prevent the vehicle 1 from making an emergency stop in a typical blind spot area.
  • the emergency evacuation device stops the vehicle at a position avoiding the static blind spot area and the dynamic blind spot area, it can be used as an emergency evacuation device for emergency evacuation of a vehicle having an automatic driving function. Suitable for use.

Abstract

第1の死角情報取得部(13)は、道路の形状に関する道路形状情報及び上記道路の走行環境に関する走行環境情報を入力すると上記道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、情報取得部(12)により取得された道路形状情報及び走行環境情報を入力として車両(1)が走行している道路の死角領域を示す第1の死角情報を取得する。駐車位置決定部(14)は、第1の死角情報取得部(13)により取得された第1の死角情報を用いて車両(1)の駐車位置を決定する。

Description

緊急退避装置、サーバ装置、及び緊急退避方法
 この発明は、車両の緊急退避装置、サーバ装置、及び緊急退避方法に関するものである。
 自動運転機能を備える車両の運転席に座っている乗員が、意識喪失又は急病等により手動運転不可状態となった場合に、路肩等の駐車位置を決定し、自動運転機能により車両を駐車位置に退避させて停止させる緊急退避装置が提案されている(例えば、特許文献1参照)。
特開2010-125923号公報
 車両の駐車位置が、カーブ直後等といった静的な死角、及び駐車車両の背後等といった動的な死角である場合、この駐車位置に緊急停止した車両及び当該車両にて救援活動中の救助者に後続車両が追突する等の二次災害を招く恐れがあった。
 静的な死角に関する対策として、特許文献1では、道路の形状に基づいて静的な死角を検知し、静的な死角を避けるように駐車位置を決定する方法が取られていた。しかしながら、特許文献1では、動的な死角に関する対策は取られていなかった。
 この発明は、上記のような課題を解決するためになされたもので、静的な死角及び動的な死角を避けて駐車位置を決定することを目的とする。
 この発明に係る緊急退避装置は、走行している第1車両を退避させる駐車位置を決定する、第1車両に搭載された緊急退避装置であって、第1車両が走行している道路の形状に関する道路形状情報及び道路の走行環境に関する走行環境情報を取得する情報取得部と、道路の形状に関する道路形状情報及び道路の走行環境に関する走行環境情報を入力すると道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、情報取得部により取得された道路形状情報及び走行環境情報を入力として第1車両が走行している道路の死角領域を示す第1の死角情報を取得する第1の死角情報取得部と、第1の死角情報取得部により取得された第1の死角情報を用いて駐車位置を決定する駐車位置決定部とを備えるものである。
 この発明によれば、静的な死角に関係する道路形状情報及び動的な死角に関係する走行環境情報を入力すると道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、第1車両が走行している道路の死角領域を示す第1の死角情報を取得して駐車位置を決定するようにしたので、静的な死角及び動的な死角を避けて駐車位置を決定できる。
実施の形態1に係る緊急退避装置の構成例を示すブロック図である。 実施の形態1に係るサーバ装置の例を示すブロック図である。 実施の形態1に係る緊急退避装置の動作例を示すフローチャートである。 実施の形態1に係るサーバ装置の動作例を示すフローチャートである。 実施の形態2に係る緊急退避装置の構成例を示すブロック図である。 実施の形態2に係るサーバ装置の構成例を示すブロック図である。 実施の形態2に係る緊急退避装置の動作例を示すフローチャートである。 実施の形態2に係るサーバ装置による第2の死角情報の蓄積動作を示すフローチャートである。 実施の形態2に係るサーバ装置による第2の死角情報の送信動作を示すフローチャートである。 各実施の形態に係る緊急退避装置のハードウェア構成の一例を示す図である。 各実施の形態に係る緊急退避装置のハードウェア構成の別の例を示す図である。 各実施の形態に係るサーバ装置のハードウェア構成の一例を示す図である。 各実施の形態に係るサーバ装置のハードウェア構成の別の例を示す図である。 実施の形態1に係る緊急退避装置の機能がサーバ装置に搭載された構成例を示すブロック図である。 実施の形態2に係る緊急退避装置の機能がサーバ装置に搭載された構成例を示すブロック図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る緊急退避装置10の構成例を示すブロック図である。図2は、実施の形態1に係るサーバ装置20の構成例を示すブロック図である。車両1を自律的に走行させる自動運転技術の中には、どのような環境下でも乗員による運転操作を全く必要としない完全自動運転の技術と、特定の環境下では自動運転が可能だが状況に応じて乗員による手動運転を必要とする自動運転の技術とがある。例えば、SAE(Society of Automotive Engineers)により定義されている自動運転レベル0~5のうち、完全自動運転は、自動運転レベル4(高度運転自動化)及び自動運転レベル5(完全運転自動化)に相当し、手動運転を必要とする自動運転は、自動運転レベル3(条件付き運転自動化)以下に相当する。
 近年開発が進められている自動運転車両は、後者の自動運転技術であり、外乱及び故障等の発生時に自動運転から手動運転に切り替わる場合がある。この自動運転車両において、運転席に座っている乗員(以下、「運転者」と称する)は、特に緊急性のある切り替わりに備えて、手動運転できる状態でいる必要がある。運転者がすぐに手動運転できない状態であると、自動運転車両は停止せざるを得ない。
 図1に示されるように、車両1には、運転者監視装置2、観測装置3、自動運転制御装置4、及び緊急退避装置10が搭載されている。運転者監視装置2は、車両1の運転者を撮像装置又は生体センサ等のセンサを用いて観測し、観測結果を用いて当該乗員の状態を監視する。運転者監視装置2は、運転者が意識喪失又は急病等により手動運転できない状態(以下、「手動運転不可状態」と称する)になったと判定すると、緊急退避装置10へ通知する。観測装置3は、車両1の周囲を撮像装置又は距離センサの少なくとも一方を用いて観測する。距離センサは、超音波センサ、ミリ波センサ、又はLIDAR(Laser Imaging Detection and Ranging)等である。
 緊急退避装置10は、通信部11、情報取得部12、第1の死角情報取得部13、及び駐車位置決定部14を備える。通信部11は、サーバ装置20の通信部21と無線通信する。情報取得部12は、車両1の運転者が手動運転不可状態となったことの通知を運転者監視装置2から受け付けると、観測装置3が観測した情報を取得する。情報取得部12は、観測装置3から取得した情報を第1の死角情報取得部13へ出力する。第1の死角情報取得部13は、第1の死角推論モデルを有する。第1の死角情報取得部13は、観測装置3が観測した情報を第1の死角推論モデルに入力し、第1の死角推論モデルが出力する第1の死角情報を取得する。駐車位置決定部14は、第1の死角情報取得部13により取得された第1の死角情報を用いて、車両1の駐車位置を決定する。駐車位置決定部14は、決定した駐車位置を自動運転制御装置4へ通知する。自動運転制御装置4は、車両1の各種アクチュエータを制御することにより、車両1を駐車位置に退避させて停止させる。
 ここで、第1の死角推論モデルに入力される情報は、車両1が走行している道路の形状に関する道路形状情報と、この道路の走行環境に関する走行環境情報とを含む。
 道路形状情報は、道路が直線であるかカーブであるか坂道であるかといった形状を示す情報である。道路形状情報は、観測装置3が有する撮像装置が撮像した画像であってもよいし、図示しない地図情報記憶部が記憶している地図情報であってもよい。例えば、道路がカーブである場合、カーブ周辺には後続車両が車両1を視認不可能な死角が生じる。また、例えば、道路が坂道である場合、坂道周辺には後続車両が車両1を視認不可能な死角が生じる。道路の形状は時間的な変化がないため、道路の形状に起因して生じる死角にも時間的な変化はない。そのため、道路の形状に起因して生じる死角は、静的な死角といえる。
 走行環境情報は、道路の上及び周囲に存在する遮蔽物を示す情報である。走行環境情報は、観測装置3が有する撮像画像が撮像した画像であってもよいし、観測装置3が有する距離センサが測定した距離情報であってもよい。遮蔽物が車両等の移動体である場合、車両が駐車している間、この駐車車両周辺には後続車両が車両1を視認不可能な死角が生じるが、この駐車車両が移動した後には死角がなくなる。このように、道路上及びその周囲に存在する遮蔽物に起因して生じる死角は、動的な死角といえる。
 第1の死角推論モデルが出力する第1の死角情報は、車両1が走行している道路の死角領域を示す情報である。この死角領域は、道路の形状に起因して生じる静的な死角領域と、道路上及びその周囲に存在する遮蔽物に起因して生じる動的な死角領域とを含み得る。例えば、車両1が走行している道路の前方に駐車車両があり、かつ、この駐車車両の先で道路がカーブしている場合を考える。この場合、第1の死角情報には、駐車車両により生じる動的な死角領域と、カーブにより生じる静的な死角領域とが含まれる。
 第1の死角推論モデルは、サーバ装置20により生成された第2の死角推論モデルが元になっている。サーバ装置20は、通信部21、外界情報記憶部22、及び学習部23を備える。通信部21は、緊急退避装置10を搭載した車両1が観測した情報、つまり道路形状情報及び走行環境情報を受信する。例えば、図1において、通信部11は、観測装置3が観測した情報を情報取得部12から受け取り、サーバ装置20へ送信する。
 外界情報記憶部22は、多数の車両1に搭載されている各緊急退避装置10から送信された道路形状情報及び走行環境情報を、記憶する。学習部23は、外界情報記憶部22に記憶されている道路形状情報及び走行環境情報を入力に用いた機械学習を行い、道路の形状に起因して生じる静的な死角領域と、道路上及びその周囲に存在する遮蔽物に起因して生じる動的な死角領域とを推論する第2の死角推論モデルを生成する。学習部23は、機械学習手法として、ディープニューラルネットワーク等を用いる。通信部21は、学習部23が生成した第2の死角推論モデルを、車両1へ送信する。車両1の通信部11は、第2の死角推論モデルを受信すると、この第2の死角推論モデルを第1の死角情報取得部13へ出力する。第1の死角情報取得部13は、第2の死角推論モデルを上記第1の死角推論モデルとして用いる。
 なお、学習部23は、静的な死角領域と動的な死角領域の両方を推論する1つの第2の死角推論モデルを生成してもよいし、静的な死角領域を推論する第2の死角推論モデルと動的な死角領域を推論する第2の死角推論モデルの2種類のモデルを生成してもよい。また、学習部23は、動的な死角領域を推論する第2の死角推論モデルを生成する場合に、遮蔽物を前方又は後方から撮像した画像を学習データとし、その遮蔽物を側方から撮像した画像を教師データとした学習を行ってもよい。
 図3は、実施の形態1に係る緊急退避装置10の動作例を示すフローチャートである。緊急退避装置10は、例えば、車両1のイグニッションスイッチがオンされると図3のフローチャートに示される動作を開始する。
 ステップST1において、運転者監視装置2は、運転者を監視する。運転者が手動運転可能状態である場合(ステップST2“YES”)、運転者監視装置2は、ステップST1の動作を行う。運転者が手動運転不可状態である場合(ステップST2“NO”)、運転者監視装置2は、緊急退避装置10の情報取得部12に対して、運転者が手動運転不可状態となったことを通知する。
 ステップST3において、情報取得部12は、観測装置3が車両1の周囲を観測した情報、観測装置3から取得する。ステップST4において、第1の死角情報取得部13は、情報取得部12が観測装置3から取得した情報を第1の死角推論モデルに入力し、車両1が走行している道路の死角領域を示す第1の死角情報を、この第1の死角推論モデルから取得する。
 ステップST5において、駐車位置決定部14は、第1の死角情報取得部13が第1の死角推論モデルから取得した第1の死角情報を用いて、車両1が走行している道路のうちの死角領域ではない場所(路肩等)を駐車位置として決定する。駐車位置決定部14は、例えば、観測装置3が有する撮像画像が撮像した画像から車両1が走行している道路の領域を検出し、検出した道路の領域のうちの死角領域ではない場所を駐車位置と決定する。また、例えば、駐車位置決定部14は、図示しない地図情報記憶部が記憶している地図情報を用いて、車両1が走行している道路のうちの死角領域ではない場所を駐車位置として決定してもよい。
 ステップST6において、自動運転制御装置4は、駐車位置決定部14が決定した駐車位置に車両1を退避させて停止させる。
 図4は、実施の形態1に係るサーバ装置20の動作例を示すフローチャートである。
 ステップST11において、通信部21は、緊急退避装置10を搭載した車両1の観測装置3が観測した情報を、車両1から受信した場合(ステップST11“YES”)、受信した情報を外界情報記憶部22に記憶する(ステップST12)。一方、通信部21は、緊急退避装置10を搭載した車両1が観測した情報を、車両1から受信していなければ(ステップST11“NO”)、受信動作を繰り返す。
 ステップST13において、学習部23は、外界情報記憶部22に記憶されている情報が所定量に達すると、外界情報記憶部22に記憶されている情報を用いて第2の死角推論モデルを生成する。ステップST14において、通信部21は、学習部23が生成した第2の死角推論モデルを、緊急退避装置10を搭載した各車両1へ送信する。
 サーバ装置20は、図4のフローチャートに示される動作を定期的に行うことにより、第2の死角推論モデルを定期的に更新してもよい。これにより、緊急退避装置10の第1の死角情報取得部13が有する第1の死角推論モデルも定期的に更新される。
 以上のように、実施の形態1に係る緊急退避装置10は、情報取得部12と、第1の死角情報取得部13と、駐車位置決定部14とを備える。情報取得部12は、車両1が走行している道路の形状に関する道路形状情報及び上記道路の走行環境に関する走行環境情報を取得する。第1の死角情報取得部13は、道路の形状に関する道路形状情報及び上記道路の走行環境に関する走行環境情報を入力すると上記道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、情報取得部12により取得された道路形状情報及び走行環境情報を入力として車両1が走行している道路の死角領域を示す第1の死角情報を取得する。駐車位置決定部14は、第1の死角情報取得部13により取得された第1の死角情報を用いて駐車位置を決定する。このように、緊急退避装置10は、静的な死角に関係する道路形状情報及び動的な死角に関係する走行環境情報を入力すると道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、車両1が走行している道路の死角領域を示す第1の死角情報を取得して駐車位置を決定するようにしたので、静的な死角及び動的な死角を避けて駐車位置を決定できる。
 また、実施の形態1において、走行環境情報は、車両1に搭載された撮像装置又は距離センサの少なくとも一方を用いて検出された、道路の上及び周囲に存在する遮蔽物を示す情報である。緊急退避装置10は、移動する可能性がある遮蔽物を示す走行環境情報を、第1の死角推論モデルの入力に用いることで、この第1の死角推論モデルから動的な死角領域を示す第1の死角情報を取得できる。
実施の形態2.
 図5は、実施の形態2に係る緊急退避装置10の構成例を示すブロック図である。実施の形態2に係る緊急退避装置10は、図1に示された実施の形態1の緊急退避装置10が備える駐車位置決定部14が駐車位置決定部14aになった構成である。図5において図1と同一又は相当する部分は、同一の符号を付し説明を省略する。
 実施の形態2の緊急退避装置10において、通信部11は、車両1が走行している道路の情報と、この道路において観測装置3が観測した情報とを、サーバ装置20へ送信する。車両1が走行している道路の情報は、例えば、車両1の位置情報である。通信部11は、車両1が走行している道路の情報を、図示しないカーナビゲーション装置等から取得すればよい。
 また、通信部11は、車両1の運転者が手動運転不可状態となった場合に、車両1が走行している道路の情報を含む緊急停止トリガを、サーバ装置20へ送信する。そして、通信部11は、車両1が走行している道路上の死角領域を示す第2の死角情報を、サーバ装置20から受信し、駐車位置決定部14aへ出力する。駐車位置決定部14aは、通信部11により受信された第2の死角情報を用いて駐車位置を決定し、決定した駐車位置が死角領域であるか否かを第1の死角情報取得部13により取得された第1の死角情報を用いて確認する。駐車位置決定部14aは、第2の死角情報を用いて決定した駐車位置が、第1の死角情報に基づいて死角領域であることが確認された場合、駐車位置を変更する。
 図6は、実施の形態2に係るサーバ装置20の構成例を示すブロック図である。実施の形態2に係るサーバ装置20は、図2に示された実施の形態2のサーバ装置20に対して第2の死角情報取得部24及び第2の死角情報記憶部25が追加された構成である。図6において図2と同一又は相当する部分は、同一の符号を付し説明を省略する。
 実施の形態2のサーバ装置20において、通信部21は、緊急退避装置10を搭載した車両1が走行している道路の情報と、この道路において観測装置3が観測した情報とを、この緊急退避装置10から受信する。通信部21は、受信した情報を第2の死角情報取得部24へ出力する。第2の死角情報取得部24は、学習部23が生成した第2の死角推論モデルを有する。第2の死角情報取得部24は、通信部21が受信した、観測装置3が観測した情報を第2の死角推論モデルに入力し、第2の死角推論モデルが出力する第2の死角情報を取得する。第2の死角情報取得部24は、通信部21が受信した、道路の情報と、第2の死角推論モデルから取得した第2の死角情報とを紐付けて、第2の死角情報記憶部25に記憶する。第2の死角情報取得部24は、このようにして、多数の車両1が走行した多数の道路に関する第2の死角情報を、第2の死角推論モデルから取得して、第2の死角情報記憶部25に蓄積する。ここでの車両1は、「第2車両」に相当する。
 通信部21は、車両1に搭載されている緊急退避装置10が送信した緊急停止トリガを受信する。通信部21は、この緊急停止トリガに含まれる、車両1が走行している道路の情報に該当する道路の情報が紐付けられている第2の死角情報を、第2の死角情報記憶部25から取得し、この車両1の緊急退避装置10へ返信する。
 第2の死角推論モデルに入力される情報は、上述した道路形状情報と走行環境情報とを含む。第2の死角推論モデルが出力する第2の死角情報は、観測装置3が観測した情報をサーバ装置20へ送信した緊急退避装置10を搭載した車両1が走行している道路の死角領域を示す情報である。第2の死角情報が示す死角領域は、第1の死角情報が示す死角領域と同様に、道路の形状に起因して生じる静的な死角領域と、道路上及びその周囲に存在する遮蔽物に起因して生じる動的な死角領域とを含み得る。
 図7は、実施の形態2に係る緊急退避装置10の動作例を示すフローチャートである。図7のフローチャートにおけるステップST21,ST22の動作は、図3のフローチャートにおけるステップST1,ST2の動作と同様である。
 ステップST23において、情報取得部12は、車両1の運転者が手動運転不可状態となったことの通知を、運転者監視装置2から受け取り、通信部11へ出力する。通信部11は、この通知を受け取ると、車両1が走行している道路の情報を含む緊急停止トリガを、サーバ装置20へ送信する。そして、通信部11は、車両1が走行している道路に関する第2の死角情報を、サーバ装置20から受信し、駐車位置決定部14aへ出力する。
 ステップST24において、駐車位置決定部14aは、サーバ装置20から受信した第2の死角情報を用いて、車両1が走行している道路のうちの死角領域ではない場所を駐車位置として決定する。なお、駐車位置は、観測装置3の観測範囲内、つまり車両1の現在位置から近い位置であってもよいし、観測装置3の観測範囲外、つまり車両1の現在位置から離れた位置であってもよい。駐車位置決定部14aは、決定した駐車位置を、自動運転制御装置4及び情報取得部12へ通知する。
 ステップST25において、自動運転制御装置4は、駐車位置決定部14aが決定した駐車位置へ移動を開始する。ステップST26において、情報取得部12は、駐車位置が観測装置3の観測範囲に入ると、観測装置3がこの駐車位置を観測した情報を取得する。
 ステップST27において、第1の死角情報取得部13は、図3のフローチャートにおけるステップST4と同様に、情報取得部12が観測装置3から取得した情報を第1の死角推論モデルに入力し、車両1が走行している道路の死角領域を示す第1の死角情報を、この第1の死角推論モデルから取得する。
 ステップST28において、駐車位置決定部14aは、サーバ装置20から受信した第2の死角情報を用いて決定した駐車位置が、第1の死角情報取得部13が第1の死角推論モデルから取得した第1の死角情報が示す死角領域外か否かを確認する。サーバ装置20が第2の死角情報を取得したタイミングは、第1の死角情報取得部13が第1の死角情報を取得したタイミングよりも過去である。そのため、第2の死角情報取得時点から第1の死角情報取得時点までの間に、遮蔽物が移動することによって動的な死角領域が変化している可能性がある。そのため、駐車位置決定部14aは、第2の死角情報が示す死角領域が今も死角領域のままであるか否か、及び第2の死角情報が示す死角領域以外に新たな死角領域が生じているか否かを確認する。
 駐車位置が死角領域外である場合(ステップST28“YES”)、ステップST29において、自動運転制御装置4は、車両1を駐車位置に停止させる。一方、駐車位置が死角領域内である場合(ステップST28“NO”)、駐車位置決定部14aは、自動運転制御装置4に対して、駐車位置への退避を中止させ、道路に沿って自律走行を行わせるよう指示する。
 また、駐車位置が死角領域内である場合(ステップST28“NO”)、サーバ装置20から受信した第2の死角情報が古く間違っているため、この第2の死角情報を更新する必要がある。そこで、ステップST30において、駐車位置決定部14aは、ステップST26で観測装置3が観測した情報をサーバ装置20へ送信するよう、通信部11に指示する。通信部11は、この指示に従い、車両1が走行している道路の情報と、観測装置3が観測した情報とをサーバ装置20へ送信する。
 また、駐車位置が死角領域内である場合(ステップST28“NO”)、車両1の駐車位置を死角領域外へ変更する必要がある。そこで、駐車位置決定部14aは、車両1の最新の位置情報に対応する第2の死角情報をサーバ装置20から取得するよう、情報取得部12に指示する。情報取得部12は、この指示に従い、ステップST23以降の動作を行う。
 図8は、実施の形態2に係るサーバ装置20による第2の死角情報の蓄積動作を示すフローチャートである。なお、多数の車両1に搭載されている各緊急退避装置10は、車両1が走行している道路の情報と、この道路において観測装置3が観測した情報とを、サーバ装置20へ送信する動作を行っているものとする。
 ステップST31において、通信部21は、緊急退避装置10を搭載した車両1(第2車両に相当する)が走行している道路の情報と、この道路において観測装置3が観測した情報とを受信する。通信部21は、これらの情報を受信した場合(ステップST31“YES”)、受信した情報を第2の死角情報取得部24へ出力する。一方、通信部21は、これらの情報を受信していなければ(ステップST31“NO”)、受信動作を繰り返す。
 ステップST32において、第2の死角情報取得部24は、通信部21が受信した、観測装置3が観測した情報を第2の死角推論モデルに入力し、第2の死角推論モデルが出力する第2の死角情報を取得する。ステップST33において、第2の死角情報取得部24は、通信部21が受信した、道路の情報と、第2の死角推論モデルから取得した第2の死角情報とを紐付けて、第2の死角情報記憶部25に記憶する。
 図9は、実施の形態2に係るサーバ装置20による第2の死角情報の送信動作を示すフローチャートである。サーバ装置20は、図8のフローチャートに示される動作と、図9のフローチャートに示される動作とを並行して行う。
 ステップST41において、通信部21は、車両1に搭載されている緊急退避装置10が送信した緊急停止トリガを受信した場合(ステップST41“YES”)、ステップST42において、この緊急停止トリガに含まれる、車両1が走行している道路の情報に該当する道路の情報が紐付けられている第2の死角情報を、第2の死角情報記憶部25から取得する。通信部21は、第2の死角情報記憶部25から取得した第2の死角情報を、緊急停止トリガを送信した緊急退避装置10へ返信する。一方、通信部21は、緊急停止トリガを受信していなければ(ステップST41“NO”)、受信動作を繰り返す。
 なお、ステップST41で通信部21が受信する緊急停止トリガは、図7のステップST23で緊急退避装置10が送信する緊急停止トリガである。また、ステップST42で通信部21が送信する第2の死角情報は、図7のステップST23で緊急退避装置10が受信する第2の死角情報である。
 ステップST43において、通信部21は、緊急停止トリガを送信した車両1の観測装置3が観測した情報と、車両1が走行している道路の情報とを、この車両1に搭載されている緊急退避装置10から受信した場合(ステップST43“YES”)、受信した情報を第2の死角情報取得部24へ出力する。一方、通信部21は、予め定められた時間内に、観測装置3が観測した情報を受信しなかった場合(ステップST43“NO”)、図9のフローチャートに示される動作を終了する。
 ステップST44において、第2の死角情報取得部24は、通信部21が受信した、観測装置3が観測した情報を第2の死角推論モデルに入力し、第2の死角推論モデルが出力する第2の死角情報を取得する。ステップST45において、第2の死角情報取得部24は、通信部21が受信した道路の情報と、第2の死角推論モデルから取得した第2の死角情報とを紐付けて、第2の死角情報記憶部25に記憶する。このように、サーバ装置20は、ステップST42で緊急退避装置10へ送信した第2の死角情報が古く間違っていたため、最新の第2の死角情報を取得し(ステップST44)、第2の死角情報記憶部25に記憶済みの古い第2の死角情報を最新の第2の死角情報に更新する(ステップST45)。
 なお、ステップST43で通信部21が受信する道路の情報と観測装置3が観測した情報は、図7のステップST30で緊急退避装置10が送信する情報である。
 以上のように、実施の形態2の通信部11は、車両1の運転者が手動運転不可状態となった場合に車両1が走行している道路の情報をサーバ装置20へ送信する。そして、通信部11は、車両1が走行している道路の情報を受信したサーバ装置20から送信される、車両1が走行している道路上の死角領域を示す第2の死角情報を、受信する。駐車位置決定部14aは、通信部11により受信された第2の死角情報を用いて駐車位置を決定し、決定した駐車位置が死角領域であるか否かを、第1の死角情報取得部13により取得された第1の死角情報を用いて確認する。これにより、駐車位置決定部14aは、車両1に搭載されている観測装置3の観測範囲外に存在する死角領域を含む第2の死角情報を用いて、駐車位置を決定できる。例えば、車両1が交差点又は鉄道線路等に差し掛かったときに運転者が運転不可状態となった場合、緊急退避装置10は、交差点内又は鉄道線路内等に車両1を緊急停止させることはできないため、交差点又は鉄道線路等を通過した後に車両1を緊急停止させる必要がある。その際、観測装置3が交差点又は鉄道線路等の向こう側を観測できないとしても、駐車位置決定部14aは、交差点又は鉄道線路等の向こう側の死角領域を含む第2の死角情報を用いて、交差点又は鉄道線路等の向こう側における死角領域外の位置を駐車位置に決定できる。また、駐車位置決定部14aは、第2の死角情報を用いて決定した駐車位置が現在も死角領域外であることを確認することにより、駐車位置に動的な死角領域が生じていた場合にこの動的な死角領域に車両1が緊急停止することを防止できる。
 また、実施の形態2において、第2の死角情報は、サーバ装置20が、道路の形状に関する道路形状情報及び上記道路の走行環境に関する走行環境情報を入力すると上記道路の死角領域を示す第2の死角情報を出力する第2の死角推論モデルを用いて、車両1が走行している道路を過去に走行した第2車両から送信された道路形状情報及び走行環境情報を入力として取得したものである。この第2の死角情報は、車両1に搭載されている観測装置3の観測範囲外に存在する死角領域を含み得るため、緊急退避装置10は、観測装置3の観測範囲よりも広い範囲から駐車位置を決定できる。
 また、実施の形態2の通信部11は、駐車位置決定部14aが第2の死角情報を用いて決定した駐車位置が、第1の死角情報に基づいて死角領域であることが確認された場合、情報取得部12により取得された道路形状情報及び走行環境情報をサーバ装置20へ送信する。これにより、緊急退避装置10は、サーバ装置20から受信した第2の死角情報が古く間違っている場合に、サーバ装置20がこの第2の死角情報を更新するために必要とする最新の道路形状情報及び走行環境情報を、サーバ装置20へ送信できる。
 なお、緊急退避装置10の駐車位置決定部14,14aは、第1の死角情報が示す死角領域に余裕を持たせた駐車回避領域を設定し、車両1が走行している道路のうちの駐車回避領域ではない場所を駐車位置として決定してもよい。駐車回避領域は、例えば、車両1が駐車位置に退避及び停止する最中に車両1が死角領域を通らないように設定される、死角領域よりも大きい面積を持つ領域である。また、駐車位置決定部14,14aは、駐車回避領域の大きさを、昼間及び晴天時のような視界良好時に比べ、夜間及び雨天時のような視界不良時に大きくしてもよい。
 また、サーバ装置20の第2の死角情報取得部24は、第2の死角情報が示す死角領域に余裕を持たせた駐車回避領域を設定し、この駐車回避領域を第2の死角情報として第2の死角情報記憶部25に記憶させてもよい。
 最後に、各実施の形態に係る緊急退避装置10及びサーバ装置20のハードウェア構成を説明する。
 図10及び図11は、各実施の形態に係る緊急退避装置10のハードウェア構成例を示す図である。緊急退避装置10における通信部11は、通信装置103である。緊急退避装置10における情報取得部12、第1の死角情報取得部13、及び駐車位置決定部14,14aの機能は、処理回路により実現される。即ち、緊急退避装置10は、上記機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路100であってもよいし、メモリ102に格納されるプログラムを実行するプロセッサ101であってもよい。
 図10に示されるように、処理回路が専用のハードウェアである場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。情報取得部12、第1の死角情報取得部13、及び駐車位置決定部14,14aの機能を複数の処理回路100で実現してもよいし、各部の機能をまとめて1つの処理回路100で実現してもよい。また、通信装置103の機能を処理回路100で実現してもよい。
 図11に示されるように、処理回路がプロセッサ101である場合、情報取得部12、第1の死角情報取得部13、及び駐車位置決定部14,14aの機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ102に格納される。プロセッサ101は、メモリ102に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、緊急退避装置10は、プロセッサ101により実行されるときに、図3等のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ102を備える。また、このプログラムは、情報取得部12、第1の死角情報取得部13、及び駐車位置決定部14,14aの手順又は方法をコンピュータに実行させるものであるとも言える。
 なお、情報取得部12、第1の死角情報取得部13、及び駐車位置決定部14,14aの機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、緊急退避装置10における処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の機能を実現することができる。
 図12及び図13は、各実施の形態に係るサーバ装置20のハードウェア構成例を示す図である。サーバ装置20における通信部21は、通信装置203である。サーバ装置20における外界情報記憶部22、学習部23、第2の死角情報取得部24、及び第2の死角情報記憶部25の機能は、処理回路により実現される。即ち、サーバ装置20は、上記機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路200であってもよいし、メモリ202に格納されるプログラムを実行するプロセッサ201であってもよい。
 図12に示されるように、処理回路が専用のハードウェアである場合、処理回路200は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又はこれらを組み合わせたものが該当する。外界情報記憶部22、学習部23、第2の死角情報取得部24、及び第2の死角情報記憶部25の機能を複数の処理回路200で実現してもよいし、各部の機能をまとめて1つの処理回路200で実現してもよい。また、通信装置203の機能を処理回路200で実現してもよい。
 図13に示されるように、処理回路がプロセッサ201である場合、学習部23及び第2の死角情報取得部24の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ202に格納される。プロセッサ201は、メモリ202に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、サーバ装置20は、プロセッサ201により実行されるときに、図4等のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ202を備える。また、このプログラムは、学習部23及び第2の死角情報取得部24の手順又は方法をコンピュータに実行させるものであるとも言える。
 外界情報記憶部22及び第2の死角情報記憶部25の機能は、メモリ202により実現される。
 なお、学習部23及び第2の死角情報取得部24の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、サーバ装置20における処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の機能を実現することができる。
 図11及び図12において、プロセッサ101,201とは、CPU(Central Processing Unit)、処理装置、演算装置、又はマイクロプロセッサ等のことである。
 メモリ102,202は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、又はフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスク又はフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の光ディスクであってもよい。
 なお、実施の形態1,2では、駐車位置決定部14,14aが駐車位置を決定するタイミングの一例として、車両1の運転者が手動運転不可状態となったタイミングを挙げたが、これに限定されるものではない。例えば、駐車位置決定部14,14aは、車両1に緊急車両が接近した場合に駐車位置を決定し、自動運転制御装置4は、緊急車両の走行を妨げないように車両1を駐車位置に退避させる。
 また、実施の形態1,2では、緊急退避装置10の機能が車両1に搭載された構成であったが、緊急退避装置10の機能がサーバ装置20に搭載された構成であってもよい。以下に、緊急退避装置10の機能がサーバ装置20に搭載された構成例を2例(図14及び図15)説明する。
 図14は、実施の形態1に係る緊急退避装置10の機能がサーバ装置20Aに搭載された構成例を示すブロック図である。サーバ装置20Aは、情報取得部12A、第1の死角情報取得部13A、駐車位置決定部14A、通信部21A、外界情報記憶部22、及び学習部23を備える。なお、図14において、図1及び図2と同一又は相当する部分は、同一の符号を付し説明を省略する。
 情報取得部12Aは、車両1が送信した緊急停止トリガ、及び車両1の観測装置3が観測した情報を、車両1の通信部11及びサーバ装置20Aの通信部21Aを介して取得する。そして、情報取得部12Aは、観測装置3から取得した情報を第1の死角情報取得部13Aへ出力する。第1の死角情報取得部13Aは、第1の死角推論モデルを有する。第1の死角推論モデルは、実施の形態1と同様に外界情報記憶部22と学習部23とにより生成される。第1の死角情報取得部13Aは、観測装置3が観測した情報を第1の死角推論モデルに入力し、第1の死角推論モデルが出力する第1の死角情報を取得する。駐車位置決定部14Aは、第1の死角情報取得部13Aにより取得された第1の死角情報を用いて、車両1の駐車位置を決定する。通信部21Aは、駐車位置決定部14Aが決定した駐車位置を、車両1の通信部11経由で自動運転制御装置4へ通知する。車両1の自動運転制御装置4は、車両1の各種アクチュエータを制御することにより、車両1を駐車位置に退避させて停止させる。
 以上のように、サーバ装置20Aは、静的な死角に関係する道路形状情報及び動的な死角に関係する走行環境情報を入力すると道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、車両1が走行している道路の死角領域を示す第1の死角情報を取得して駐車位置を決定するようにしたので、静的な死角及び動的な死角を避けて駐車位置を決定できる。
 図15は、実施の形態2に係る緊急退避装置10の機能がサーバ装置20Aに搭載された構成例を示すブロック図である。サーバ装置20Aは、情報取得部12A、第1の死角情報取得部13A、駐車位置決定部14A、通信部21A、外界情報記憶部22、学習部23、第2の死角情報取得部24、及び第2の死角情報記憶部25を備える。なお、図15において、図6及び図14と同一又は相当する部分は、同一の符号を付し説明を省略する。また、車両1側は、図14に示された構成であるため、図14を援用する。
 通信部21Aは、車両1(第2車両に相当する)が走行している道路の情報(例えば、車両1の位置情報)と、この道路において車両1の観測装置3が観測した情報とを、車両1から受信する。第2の死角情報取得部24は、第2の死角推論モデルを有する。第2の死角推論モデルは、実施の形態2と同様に外界情報記憶部22と学習部23とにより生成される。第2の死角情報取得部24は、通信部21Aが受信した、観測装置3が観測した情報を第2の死角推論モデルに入力し、第2の死角推論モデルが出力する第2の死角情報を取得する。第2の死角情報取得部24は、通信部21Aが受信した、道路の情報と、第2の死角推論モデルから取得した第2の死角情報とを紐付けて、第2の死角情報記憶部25に記憶する。第2の死角情報取得部24は、このようにして、多数の車両1が走行した多数の道路に関する第2の死角情報を、第2の死角推論モデルから取得して、第2の死角情報記憶部25に蓄積する。
 情報取得部12Aは、車両1が送信した緊急停止トリガ、及び車両1の観測装置3が観測した情報を、車両1の通信部11及びサーバ装置20Aの通信部21Aを介して取得する。情報取得部12Aが緊急停止トリガを取得した場合、第1の死角情報取得部13Aは、観測装置3が観測した情報を第1の死角推論モデルに入力し、第1の死角推論モデルが出力する第1の死角情報を取得して駐車位置決定部14Aへ出力する。駐車位置決定部14Aは、通信部21Aが受信した緊急停止トリガに含まれる、車両1が走行している道路の情報(例えば、車両1の位置情報)に該当する道路が紐付けられている第2の死角情報を、第2の死角情報記憶部25から取得する。駐車位置決定部14Aは、第2の死角情報記憶部25から取得した第2の死角情報を用いて駐車位置を決定し、決定した駐車位置が死角領域であるか否かを第1の死角情報取得部13Aにより取得された第1の死角情報を用いて確認する。駐車位置決定部14Aは、第2の死角情報を用いて決定した駐車位置が、第1の死角情報に基づいて死角領域であることが確認された場合、駐車位置を変更する。通信部21Aは、駐車位置決定部14Aが決定した最終的な駐車位置を、車両1の通信部11経由で自動運転制御装置4へ通知する。
 以上のように、サーバ装置20Aは、緊急停止トリガを送信した車両1に搭載されている観測装置3の観測範囲外に存在する死角領域を含む第2の死角情報を用いて、駐車位置を決定できる。また、サーバ装置20Aは、第2の死角情報を用いて決定した駐車位置が現在も死角領域外であることを確認することにより、駐車位置に動的な死角領域が生じていた場合にこの動的な死角領域に車両1が緊急停止することを防止できる。
 なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、又は各実施の形態の任意の構成要素の省略が可能である。
 この発明に係る緊急退避装置は、静的な死角領域と動的な死角領域とを避けた位置に車両を停止させるようにしたので、自動運転機能を備える車両を緊急退避させる緊急退避装置等に用いるのに適している。
 1 車両、2 運転者監視装置、3 観測装置、4 自動運転制御装置、10 緊急退避装置、11 通信部、12,12A 情報取得部、13,13A 第1の死角情報取得部、14,14a,14A 駐車位置決定部、20,20A サーバ装置、21,21A 通信部、22 外界情報記憶部、23 学習部、24 第2の死角情報取得部、25 第2の死角情報記憶部、100,200 処理回路、101,201 プロセッサ、102,202 メモリ、103,203 通信装置。

Claims (11)

  1.  走行している第1車両を退避させる駐車位置を決定する、前記第1車両に搭載された緊急退避装置であって、
     前記第1車両が走行している道路の形状に関する道路形状情報及び前記道路の走行環境に関する走行環境情報を取得する情報取得部と、
     道路の形状に関する道路形状情報及び前記道路の走行環境に関する走行環境情報を入力すると前記道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、前記情報取得部により取得された道路形状情報及び走行環境情報を入力として前記第1車両が走行している道路の死角領域を示す第1の死角情報を取得する第1の死角情報取得部と、
     前記第1の死角情報取得部により取得された第1の死角情報を用いて駐車位置を決定する駐車位置決定部とを備えることを特徴とする緊急退避装置。
  2.  走行している第1車両を退避させる駐車位置を決定するサーバ装置であって、
     前記第1車両が走行している道路の形状に関する道路形状情報及び前記道路の走行環境に関する走行環境情報を取得する情報取得部と、
     道路の形状に関する道路形状情報及び前記道路の走行環境に関する走行環境情報を入力すると前記道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、前記情報取得部により取得された道路形状情報及び走行環境情報を入力として前記第1車両が走行している道路の死角領域を示す第1の死角情報を取得する第1の死角情報取得部と、
     前記第1の死角情報取得部により取得された第1の死角情報を用いて駐車位置を決定する駐車位置決定部と、
     前記駐車位置決定部により決定された駐車位置を前記第1車両に通知する通信部とを備えることを特徴とするサーバ装置。
  3.  前記第1車両が走行している道路の情報をサーバ装置へ送信し、前記第1車両が走行している道路の情報を受信した前記サーバ装置から送信される、前記第1車両が走行している道路上の死角領域を示す第2の死角情報を、受信する通信部を備え、
     前記駐車位置決定部は、前記通信部により受信された第2の死角情報を用いて駐車位置を決定し、決定した前記駐車位置が死角領域であるか否かを前記第1の死角情報取得部により取得された前記第1の死角情報を用いて確認することを特徴とする請求項1記載の緊急退避装置。
  4.  道路の情報と、前記道路上の死角領域を示す第2の死角情報とを対応付けて記憶している第2の死角情報記憶部を備え、
     前記駐車位置決定部は、前記第1車両が走行している道路の情報に対応する第2の死角情報を前記第2の死角情報記憶部から取得し、取得した前記第2の死角情報を用いて駐車位置を決定し、決定した前記駐車位置が死角領域であるか否かを前記第1の死角情報取得部により取得された前記第1の死角情報を用いて確認することを特徴とする請求項2記載のサーバ装置。
  5.  前記走行環境情報は、前記第1車両に搭載された撮像装置又は距離センサの少なくとも一方を用いて検出された、道路の上及び周囲に存在する遮蔽物を示す情報であることを特徴とする請求項1記載の緊急退避装置。
  6.  前記走行環境情報は、前記第1車両に搭載された撮像装置又は距離センサの少なくとも一方を用いて検出された、道路の上及び周囲に存在する遮蔽物を示す情報であることを特徴とする請求項2記載のサーバ装置。
  7.  前記第2の死角情報は、前記サーバ装置が、道路の形状に関する道路形状情報及び前記道路の走行環境に関する走行環境情報を入力すると前記道路の死角領域を示す第2の死角情報を出力する第2の死角推論モデルを用いて、前記第1車両が走行している道路を過去に走行した第2車両から送信された道路形状情報及び走行環境情報を入力として取得したものであることを特徴とする請求項3記載の緊急退避装置。
  8.  道路の形状に関する道路形状情報及び前記道路の走行環境に関する走行環境情報を入力すると前記道路の死角領域を示す第2の死角情報を出力する第2の死角推論モデルを用いて、第2車両から送信された道路形状情報及び走行環境情報を入力として前記第2車両が走行している道路の死角領域を示す第2の死角情報を取得し、取得した前記第2の死角情報を前記第2の死角情報記憶部に記憶させる第2の死角情報取得部を備えることを特徴とする請求項4記載のサーバ装置。
  9.  前記駐車位置決定部は、自動運転機能を備える前記第1車両の運転者が手動運転不可状態となった場合に駐車位置を決定することを特徴とする請求項1記載の緊急退避装置。
  10.  前記駐車位置決定部は、自動運転機能を備える前記第1車両の運転者が手動運転不可状態となった場合に駐車位置を決定することを特徴とする請求項2記載のサーバ装置。
  11.  走行している第1車両を退避させる駐車位置を決定する緊急退避方法であって、
     情報取得部が、前記第1車両が走行している道路の形状に関する道路形状情報及び前記道路の走行環境に関する走行環境情報を取得し、
     第1の死角情報取得部が、道路の形状に関する道路形状情報及び前記道路の走行環境に関する走行環境情報を入力すると前記道路の死角領域を示す第1の死角情報を出力する第1の死角推論モデルを用いて、前記情報取得部により取得された道路形状情報及び走行環境情報を入力として前記第1車両が走行している道路の死角領域を示す第1の死角情報を取得し、
     駐車位置決定部が、前記第1の死角情報取得部により取得された第1の死角情報を用いて駐車位置を決定することを特徴とする緊急退避方法。
PCT/JP2020/002646 2020-01-27 2020-01-27 緊急退避装置、サーバ装置、及び緊急退避方法 WO2021152645A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202080080256.1A CN114945499A (zh) 2020-01-27 2020-01-27 紧急避让装置、服务器装置以及紧急避让方法
DE112020006634.7T DE112020006634T5 (de) 2020-01-27 2020-01-27 Notfallevakuierungsvorrichtung, Server-Vorrichtung, und Notfallevakuierungsverfahren
PCT/JP2020/002646 WO2021152645A1 (ja) 2020-01-27 2020-01-27 緊急退避装置、サーバ装置、及び緊急退避方法
JP2021573627A JP7321295B2 (ja) 2020-01-27 2020-01-27 緊急退避装置、サーバ装置、及び緊急退避方法
US17/780,378 US20220410940A1 (en) 2020-01-27 2020-01-27 Emergency evacuation device, server device, and emergency evacuation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/002646 WO2021152645A1 (ja) 2020-01-27 2020-01-27 緊急退避装置、サーバ装置、及び緊急退避方法

Publications (1)

Publication Number Publication Date
WO2021152645A1 true WO2021152645A1 (ja) 2021-08-05

Family

ID=77079795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/002646 WO2021152645A1 (ja) 2020-01-27 2020-01-27 緊急退避装置、サーバ装置、及び緊急退避方法

Country Status (5)

Country Link
US (1) US20220410940A1 (ja)
JP (1) JP7321295B2 (ja)
CN (1) CN114945499A (ja)
DE (1) DE112020006634T5 (ja)
WO (1) WO2021152645A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022204042A1 (de) 2022-04-26 2023-10-26 Volkswagen Aktiengesellschaft Verfahren und Anhalteposition-Ermittlungsvorrichtung für ein Fahrzeug zum Ermitteln einer in Bezug auf eine Verkehrssicherheit sicheren Anhalteposition für ein Fahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010125923A (ja) * 2008-11-26 2010-06-10 Toyota Motor Corp 緊急退避装置
JP2016530596A (ja) * 2013-06-20 2016-09-29 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 車両を動作させる方法及び装置
JP2018144720A (ja) * 2017-03-08 2018-09-20 三菱電機株式会社 車両退避装置および車両退避方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010125923A (ja) * 2008-11-26 2010-06-10 Toyota Motor Corp 緊急退避装置
JP2016530596A (ja) * 2013-06-20 2016-09-29 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 車両を動作させる方法及び装置
JP2018144720A (ja) * 2017-03-08 2018-09-20 三菱電機株式会社 車両退避装置および車両退避方法

Also Published As

Publication number Publication date
JP7321295B2 (ja) 2023-08-04
DE112020006634T5 (de) 2022-11-17
JPWO2021152645A1 (ja) 2021-08-05
CN114945499A (zh) 2022-08-26
US20220410940A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
Galvani History and future of driver assistance
JP6944308B2 (ja) 制御装置、制御システム、および制御方法
JP7139717B2 (ja) 車両用通信装置、車両用通信方法、及び制御プログラム
US20190339706A1 (en) System and method for detecting occluded objects based on image processing
JP2020534203A (ja) 複数の制御車線を用いた自律車両の耐障害制御
CN108454631A (zh) 信息处理装置、信息处理方法以及程序
WO2019142284A1 (ja) 車両制御装置
CN110182212B (zh) 车辆控制装置
CN112977437A (zh) 自主卡车轮胎爆裂的预防、检测和处理
WO2019003314A1 (ja) 通知システムおよびその制御方法、車両、並びにプログラム
CN102667887A (zh) 便携式通信装置,具有便携式通信装置的驾驶员辅助系统和用于辅助驾驶员驾驶车辆的方法
JP6942236B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6987714B2 (ja) 電子制御装置
CN112783155A (zh) 安全冗余自主驾驶系统的实时监控方法
CN111629944A (zh) 车辆控制装置、车辆以及车辆控制方法
JP2020032860A (ja) 車両制御装置、自動運転制御システム、および車両制御方法
US11511733B2 (en) Vehicle parking system
WO2021152645A1 (ja) 緊急退避装置、サーバ装置、及び緊急退避方法
US20210039677A1 (en) Vehicle travel system
US10220786B2 (en) Controlling side-view mirrors in autonomous vehicles
GB2562595A (en) Controlling side-view mirrors in autonomous vehicles
WO2022014198A1 (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
CN113753069A (zh) 自动驾驶控制方法及装置
US20230311929A1 (en) Autonomous vehicle interaction with chassis control system to provide enhanced driving modes
US20230382428A1 (en) Method and apparatus for operating an automated vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20916464

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021573627

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20916464

Country of ref document: EP

Kind code of ref document: A1