WO2021191682A1 - 情報提供方法、車両システム及び管理装置 - Google Patents

情報提供方法、車両システム及び管理装置 Download PDF

Info

Publication number
WO2021191682A1
WO2021191682A1 PCT/IB2021/000166 IB2021000166W WO2021191682A1 WO 2021191682 A1 WO2021191682 A1 WO 2021191682A1 IB 2021000166 W IB2021000166 W IB 2021000166W WO 2021191682 A1 WO2021191682 A1 WO 2021191682A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
stop position
data
user
Prior art date
Application number
PCT/IB2021/000166
Other languages
English (en)
French (fr)
Inventor
成博 明李
誠秀 中村
良貴 高木
英城 岩崎
Original Assignee
日産自動車株式会社
ルノー エス. ア. エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, ルノー エス. ア. エス. filed Critical 日産自動車株式会社
Priority to CN202180022639.8A priority Critical patent/CN115315738A/zh
Priority to US17/907,100 priority patent/US20240046778A1/en
Priority to EP21775925.7A priority patent/EP4131214A4/en
Priority to BR112022019248A priority patent/BR112022019248A2/pt
Priority to JP2022509742A priority patent/JP7311030B2/ja
Publication of WO2021191682A1 publication Critical patent/WO2021191682A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096811Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed offboard
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096833Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route
    • G08G1/096844Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route where the complete route is dynamically recomputed based on new data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching

Definitions

  • the present invention relates to an information providing method, a vehicle system, and a management device.
  • Patent Document 1 discloses a peripheral monitoring device for a vehicle that can support safety when the vehicle gets off by using an imaging unit mounted on the vehicle. Specifically, the vehicle peripheral monitoring device predicts whether or not the object enters the door opening / closing region based on the images captured behind and behind the vehicle captured by the imaging unit after the vehicle has stopped. do.
  • Patent Document 1 there is a problem that the detection range of the object is limited because the image is captured by the imaging unit after the vehicle has stopped.
  • the present invention has been made in view of such a problem, and an object of the present invention is an information providing method, a vehicle system, and a management capable of improving the accuracy of information to be provided to a user by detecting an object over a wide range. To provide a device.
  • the information providing method detects an object existing around the vehicle, acquires movement information data which is information on the movement of the object, and when the vehicle stops at a stop position, the object is the vehicle. It determines whether or not there is a possibility of entering the surrounding monitoring range, and if it is determined that the object may enter the monitoring range, information data about the object is transmitted to the information providing device.
  • the present invention it is possible to detect an object existing around the vehicle before the vehicle stops at the stop position, so that the object can be detected over a wide range. As a result, the accuracy of the information to be provided to the user can be improved.
  • FIG. 1 is a block diagram showing a configuration of a safety support system according to the present embodiment.
  • FIG. 2 is a flowchart showing the operation of the vehicle system according to the present embodiment.
  • FIG. 3 is an explanatory diagram showing an example of the traveling environment around the vehicle.
  • FIG. 4 is an explanatory diagram that predicts the behavior of the object when the vehicle stops at the stop position.
  • FIG. 5 is an explanatory diagram showing an example of the traveling environment around the vehicle.
  • FIG. 6 is an explanatory diagram that predicts the behavior of the object when the vehicle is stopped at the stopped position.
  • FIG. 7 is an explanatory diagram showing an example of the traveling environment around the vehicle.
  • FIG. 8 is an explanatory diagram predicting the behavior of the object when the vehicle is stopped at the stopped position.
  • FIG. 9 is a diagram illustrating a monitoring range set around the vehicle.
  • FIG. 10 is a diagram illustrating another aspect of the monitoring range.
  • FIG. 11 is a diagram illustrating an example of a monitoring
  • This safety support system 1 is a system that supports safety by providing information to a user who uses a vehicle.
  • a user who uses a vehicle is typically a user who gets on the vehicle, and includes a user who plans to get off the vehicle at the stop position where the vehicle stops, or a user who plans to get on the vehicle at the stop position. include.
  • the safety support system 1 is mainly composed of a vehicle system 10 and a management device 20.
  • the vehicle system 10 and the management device 20 are configured to be able to communicate with each other via the network 5.
  • the road traffic information system 30 is connected to the network 5.
  • the vehicle system 10 and the management device 20 can communicate with the road traffic information system 30 via the network 5.
  • the network 5 includes, for example, the Internet.
  • the network 5 may use a mobile communication function such as 4G / LTE or 5G.
  • the vehicle system 10 detects an object around the vehicle and performs a process for providing necessary information to the user based on the detection result of the object.
  • the vehicle system 10 includes an object detection device 11, a position estimation device 12, a microcomputer 13, a communication unit 16, and an information providing device 17.
  • the vehicle system 10 is applied to a vehicle (service vehicle) that provides a transportation service in response to a vehicle allocation request from a user.
  • vehicle may be an engine vehicle driven only by an engine, a hybrid vehicle driven by an engine and an electric motor, or an electric vehicle driven only by an electric motor.
  • the vehicle is an autonomous driving vehicle that is driven by the automatic driving function after the driver gets on it.
  • the vehicle may be a vehicle that travels by the manual driving of the driver, or a vehicle that travels by the automatic driving function without the driver getting on the vehicle.
  • Autonomous driving refers to a state in which at least one actuator, for example, an actuator such as a brake, an accelerator, or a steering wheel, is controlled without the operation of an occupant. Therefore, other actuators may be operated by the operation of the occupant. Further, the automatic operation may be a state in which any control such as acceleration / deceleration control or lateral position control is executed. Further, the manual operation in the present embodiment refers to a state in which the occupant is operating the brake, the accelerator, and the steering, for example.
  • an actuator such as a brake, an accelerator, or a steering wheel
  • the object detection device 11 includes a plurality of object detection sensors mounted on the vehicle.
  • the object detection device 11 collects information data on objects existing around the vehicle by using a plurality of object detection sensors (information collection device).
  • Multiple object detection sensors include a laser range finder.
  • the laser range finder senses the surroundings of the vehicle (for example, 360 degrees) within a predetermined range, and outputs the sensing result data.
  • the sensing result data is output in, for example, a point cloud format.
  • the plurality of object detection sensors include a camera.
  • the camera photographs the surroundings of the vehicle (for example, 360 degrees) and outputs the captured image data. Multiple cameras are installed so that the surroundings of the vehicle can be photographed.
  • the object detection device 11 outputs the sensing result data and the image data to the microcomputer 13 as information data related to the object (hereinafter referred to as “object information data”).
  • the object detection device 11 may include a type of sensor other than the laser range finder and the camera.
  • the position estimation device 12 measures the absolute position of the vehicle by using position estimation technology such as GPS (Global Positioning System) and odometry.
  • the position estimation device 12 includes a GPS receiver, an inertial navigation system, sensors provided on the brake pedal and the accelerator pedal, sensors for acquiring vehicle behavior such as a wheel speed sensor and a yaw rate sensor, a laser radar, and a camera.
  • the position estimation device 12 measures the position, speed, acceleration, steering angle, and posture (moving direction) of the vehicle.
  • the microcomputer 13 controls the vehicle system 10.
  • the microcomputer 13 is a general-purpose microcomputer including a hardware processor such as a CPU (central processing unit), a memory, and an input / output unit.
  • a computer program for functioning as the vehicle system 10 is installed in the microcomputer 13.
  • the microcomputer 13 functions as a plurality of information processing circuits included in the vehicle system 10.
  • an example of realizing a plurality of information processing circuits included in the vehicle system 10 by software is shown.
  • information is provided by preparing dedicated hardware for executing each of the following information processing. It is also possible to configure a processing circuit.
  • a plurality of information processing circuits may be configured by individual hardware.
  • the microcomputer 13 includes a processing unit 14 and an object prediction unit 15 as a plurality of information processing circuits.
  • the processing unit 14 acquires object information data from the object detection device 11.
  • the processing unit 14 detects an object existing around the vehicle based on the object information data, and generates object movement information data which is information on the movement of the object.
  • Information regarding the movement of an object includes the position, speed, posture (movement direction), acceleration, steering angle, and the like of the object.
  • the processing unit 14 integrates each object information data obtained from a plurality of object detection sensors included in the object detection device 11 to generate one object information data for each object. Specifically, from the object information data obtained from each of the object detection sensors, rational object information data having the smallest error is calculated in consideration of the error characteristics of each object detection sensor.
  • the processing unit 14 tracks the detected object. Specifically, the processing unit 14 verifies and associates the identity of the object between different times based on the behavior of the objects output at different times, and tracks the object based on the association. As a result, object movement information data including information on the movement of the object is generated.
  • the processing unit 14 detects the type of an object such as a moving object or a stationary object based on the object information data and the object movement information data. Further, the processing unit 14 detects the type of a moving object such as another vehicle, a motorcycle, a bicycle, or a pedestrian. Similarly, the processing unit 14 detects the type of a stationary object such as a parked vehicle or a building. The type of object constitutes part of the information about the movement of the object.
  • the processing unit 14 has a function of recording information regarding the movement of an object. As a result, the processing unit 14 records a history of information regarding the movement of the object while the vehicle is traveling.
  • Vehicle information data includes information such as vehicle position, posture (movement direction), speed, door lock and door open / closed state, seatbelt sensor value for detecting seatbelt attachment / detachment, and whether or not automatic driving is in progress. ..
  • the object prediction unit 15 acquires object movement information data and vehicle information data from the processing unit 14. In addition, the object prediction unit 15 acquires road traffic information data, which will be described later, from the road traffic information system 30. The object prediction unit 15 acquires map information data, which will be described later, from the map database (map DB) 24 of the management device 20.
  • the object prediction unit 15 calculates the time to arrive at the stop position where the vehicle stops from the current position of the vehicle as the arrival time based on the road traffic information data and the map information data.
  • the object prediction unit 15 can acquire the stop position data indicating the stop position from the data acquired from the management device 20, specifically, the vehicle allocation request data described later.
  • the object prediction unit 15 detects the presence / absence of a user scheduled to get off or the presence / absence of a user scheduled to board.
  • the user who is scheduled to disembark is a user who is scheduled to disembark from the vehicle at the stop position
  • the user who is scheduled to board is a user who is scheduled to board from the vehicle at the stop position.
  • the object prediction unit 15 detects the presence / absence of a user scheduled to disembark and the presence / absence of a user scheduled to board the vehicle based on the data acquired from the management device 20, specifically, the vehicle allocation request data described later.
  • the object prediction unit 15 predicts the behavior of the object based on the object movement information data calculated by the processing unit 14. Then, the object prediction unit 15 determines, based on the prediction result of the behavior, whether or not there is a possibility that the object may enter the monitoring range set around the vehicle when the vehicle stops at the stop position. .. When the object prediction unit 15 determines that the object may enter the monitoring range, the object prediction unit 15 transmits information data about the object to the information providing device 17.
  • the communication unit 16 is a communication device that communicates with the management device 20 or the road traffic information system 30 via the network 5.
  • the communication unit 16 stores the information acquired from the management device 20 or the road traffic information system 30 in a memory (not shown) or the like. Further, the communication unit 16 transmits vehicle information to the management device 20.
  • the communication unit 16 may be a communication device having a mobile communication function such as 4G / LTE, or may be a communication device having a Wifi communication function.
  • the communication unit 16 communicates with the information providing device 17.
  • the communication unit 16 transmits information to be provided to the occupant to the information providing device 17.
  • the communication unit 16 may be a device having a mobile communication function such as 4G / LTE, or a device having a Wifi communication function.
  • the communication unit 16 may communicate with the information providing device 17 via a wire such as a wire harness.
  • the information providing device 17 provides information to the user who uses the vehicle.
  • the information providing device 17 is, for example, a display device mounted on a vehicle.
  • the display device is arranged at a position that can be visually recognized by the user. For example, when the user gets in the rear seat of the vehicle, the information providing device 17 is provided on the back side of the front seat.
  • the information providing device 17 is not limited to the form provided in the vehicle.
  • the information providing device 17 may be a user terminal owned by the user, for example, a mobile information terminal such as a mobile phone, a smartphone, or a communication device.
  • the management device 20 acquires vehicle allocation request data including a vehicle allocation request from the user terminal, and performs various processes for providing a vehicle transportation service according to the acquired vehicle allocation request data.
  • the management device 20 is composed of one or a plurality of computers.
  • the management device 20 has a calculation unit (controller) 21, a user database (user DB) 22, a vehicle database (vehicle DB) 23, a map database (map DB) 24, and a communication unit 25.
  • the calculation unit 21 updates the vehicle database 23 by acquiring vehicle information data from the vehicle system 10.
  • the calculation unit 21 can grasp the state of the vehicle based on the vehicle database 23.
  • the calculation unit 21 performs a predetermined process based on the vehicle allocation request data stored in the user database 22. Specifically, the calculation unit 21 determines a vehicle to be dispatched to the user who requested the vehicle dispatch request. In addition, the calculation unit 21 generates vehicle allocation information such as a departure place, a destination, and a traveling route. That is, the calculation unit 21 travels the vehicle from the departure point set in the vehicle allocation request to the destination, that is, from the boarding place where the user gets on to the getting-off place where the user gets off, based on the map information of the map database 24. Calculate the possible travel route. In calculating the travel route, the road traffic information data may be referred to, and the route that takes the shortest time to arrive at the destination from the departure point may be considered.
  • the user database 22 is a database that manages vehicle allocation request data acquired from the user terminal, that is, vehicle allocation request information (request information).
  • request information is managed for each user, and each request information is associated with a user ID that identifies the user.
  • the request information includes at least the location information of the user's departure place.
  • the position information of the departure place is the current position information detected by the position positioning function provided in the user terminal.
  • the positioning function consists of a GPS receiver that receives signals from GPS satellites.
  • the location information of the departure place may be the location information input by the user as the departure place.
  • the request information includes the location information of the destination, the designation of the waypoint and its location information, the number of passengers, the baggage information, the time when the vehicle allocation request was obtained, the time when the ride is desired, and so on. Information such as whether or not shared riding may be included.
  • the user database 22 When the user database 22 acquires the vehicle allocation request data from the user terminal, the user database 22 adds this data to the user database 22. Then, the user database 22 provides the vehicle allocation request data to the calculation unit 21.
  • the vehicle database 23 is a database that manages vehicle information data.
  • vehicle information data is managed for each vehicle, and each vehicle information data is associated with a vehicle ID that identifies the vehicle.
  • Vehicle information data includes at least vehicle position information.
  • vehicle information data includes information such as attitude (movement direction), speed, door lock and door open / closed state, seatbelt sensor value for detecting seatbelt attachment / detachment, and whether or not automatic driving is in progress.
  • service information includes whether or not the vehicle can be reserved, whether or not the vehicle is being picked up, whether or not there are passengers, the number of passengers, the status of boarding or disembarking, and whether or not the vehicle has arrived at the destination. Information related to the above may also be included.
  • the vehicle database 23 adds necessary information to the vehicle database 23 based on this data.
  • the map database 24 stores map information data including map information indicating the structure of the road on which the vehicle can travel.
  • Map information includes road structure information such as absolute lane positions, lane connections, and relative positions, traffic rules, and road signs.
  • the map information includes information on areas or places where users can get on and off. Further, the map information may include information on the waiting place of the vehicle and pedestrian road information for calculating the route on which the user walks.
  • the communication unit 25 is a communication device that communicates with the vehicle system 10 or the road traffic information system 30 via the network 5.
  • the communication unit 25 stores information (vehicle information, map information, etc.) acquired from the vehicle system 10 or the road traffic information system 30 in a memory (not shown) or the like. Further, the communication unit 25 transmits the vehicle allocation information to the vehicle system 10.
  • the communication unit 25 may be a communication device having a mobile communication function such as 4G / LTE, or may be a communication device having a Wifi communication function.
  • the communication unit 25 communicates with the user terminal.
  • the communication unit 25 stores the information (vehicle allocation request data) acquired from the user terminal in a memory (not shown) or the like.
  • the road traffic information system 30 manages road traffic information data including road traffic information.
  • Road traffic information is information that affects the running of vehicles, such as traffic congestion information and traffic regulation information.
  • the traffic information is, for example, VICS (Vehicle Information and Communication System).
  • the object prediction unit 15 determines whether or not the arrival time T is equal to or less than the determination time.
  • the arrival time T is the time required to arrive at the stop position Pa along the traveling route starting from the current position of the vehicle Va, which is the own vehicle.
  • the arrival time is calculated based on the current position of the vehicle Va, the distance to the stop position Pa on the traveling route, and the like. Further, the arrival time T is calculated in consideration of the influence of road traffic information, for example, traffic congestion.
  • the determination time is a time for determining that it is appropriate for the vehicle Va to approach the stop position Pa and start detecting an object.
  • the stop position Pa corresponds to the destination of the vehicle allocation request received from the user.
  • the stop position Pa corresponds to the departure point of the vehicle allocation request received from the user.
  • the object prediction unit 15 detects that the running vehicle will stop at the stop position Pa from now on. That is, the object prediction unit 15 detects that the vehicle will stop at the stop position Pa in the future (by the time the determination time elapses). In this case, an affirmative decision is made in step S10, and the process proceeds to step S11. On the other hand, if the arrival time is longer than the determination time, a negative determination is made in step S10, and the process returns to step S10.
  • step S11 the object prediction unit 15 detects the presence / absence of a user scheduled to get off or the presence / absence of a user scheduled to board.
  • step S12 the processing unit 14 acquires the object information data from the object detection device 11.
  • step S13 the processing unit 14 acquires the own vehicle movement information data including the movement information of the vehicle Va based on the calculation result of the position estimation device 12 and the vehicle information data.
  • the movement information of the vehicle Va includes information such as the position, speed, and posture (movement direction) of the vehicle Va.
  • step S14 the processing unit 14 recognizes the type of the object based on the object information data and detects the moving object as the object. In addition, the processing unit 14 detects types of objects such as other vehicles, motorcycles, bicycles, and pedestrians.
  • step S15 the processing unit 14 generates object movement information data including movement information of the object.
  • the movement information of the object includes the position, speed, and posture (movement direction) of the object.
  • step S16 the object prediction unit 15 predicts the behavior of the object based on the object movement information data and the own vehicle movement information data.
  • the objects are other vehicles Vb1, Vb2, Vb3, pedestrian Pe1, and bicycles Bc1 and Bc2 running around the vehicle Va.
  • the object prediction unit 15 calculates the time required for the vehicle Va to arrive at the stop position Pa based on the own vehicle movement information data, the distance to the stop position Pa, and the like. Then, the object prediction unit 15 assumes that the object continues its current behavior, and predicts the position of the object after the required time has elapsed, that is, when the vehicle Va arrives at the stop position Pa. Further, the object prediction unit 15 considers that the other vehicle Vb3 is affected by the vehicle Va and therefore decelerates in accordance with the stop of the vehicle Va. Based on such drive prediction, as shown in FIG. 4, the bicycle Bc2 and the other vehicle Vb3 are predicted to exist in the vicinity of the vehicle Va when the vehicle Va is stopped at the stop position Pa.
  • the object prediction unit 15 can infer the lane change from the posture specified from the object movement information data. In this case, the object prediction unit 15 considers that the other vehicle Vb3 is not affected by the vehicle Va and therefore continues to travel at the same speed. As a result, as shown in FIG. 6, it is predicted that the behavior of the other vehicle Vb3 does not exist in the vicinity of the vehicle Va when the vehicle Va is stopped at the stop position Pa.
  • the object prediction unit 15 also predicts the pedestrian Pe2 traveling in the direction approaching the vehicle Va from the front of the vehicle Va.
  • the bicycle Bc2 and the pedestrian Pe2 are predicted to exist in the vicinity of the vehicle Va when the vehicle Va is stopped at the stop position Pa.
  • the object prediction unit 15 refers not only to the object movement information data generated in the latest process but also to the object movement information data generated in the past. Then, the behavior of the object may be predicted.
  • step S17 the object prediction unit 15 determines whether or not the object may enter the monitoring range Ra when the vehicle Va stops at the stop position Pa based on the behavior prediction of the object. ..
  • the monitoring range Ra is an area for distinguishing whether or not to notify the user who gets off the vehicle Va of the existence of the object, and is set around the vehicle Va. For example, in the case of left-hand traffic, the occupant usually gets off from the left side of the vehicle Va. As shown in FIG. 9, the monitoring range Ra is set to the left side of the vehicle Va.
  • step S18 If there is a possibility that the object may enter the monitoring range Ra, an affirmative judgment is made in step S18, and the process proceeds to step S18. On the other hand, if there is no possibility that the object enters the monitoring range Ra, a negative determination is made in step S17, and the process proceeds to step S20.
  • the object prediction unit 15 generates object information data.
  • the object information data is data indicating information about an object (object) that may enter the monitoring range Ra.
  • the object information data is image data obtained by photographing an object that may enter the monitoring range Ra.
  • the object information data may include information in the direction in which the object enters the monitoring range Ra.
  • the information providing device 17 includes a speaker that outputs voice
  • the object information data may be voice data indicating an object.
  • step S19 the object prediction unit 15 outputs the object information data to the information providing device 17 via the communication unit 16.
  • step S20 the object prediction unit 15 determines whether or not the user's disembarkation or the user's boarding has been completed. When the user's disembarkation or the user's boarding is completed, an affirmative determination is made in step S20, and this process ends. On the other hand, if the user's disembarkation or the user's boarding is not completed, a negative determination is made in step S20, and the process returns to step S12.
  • the information providing method acquires the stop position data indicating the stop position, detects that the running vehicle Va will stop at the stop position from now on, and is an object existing around the vehicle Va. (Object) is detected, and object movement information data is acquired based on the detection result of the object.
  • the information providing method determines whether or not there is a possibility that the object may enter the monitoring range Ra when the vehicle Va stops at the stop position Pa based on the object movement information data, and the object moves. When it is determined that there is a possibility of entering the monitoring range Ra, the object information data is transmitted to the information providing device 17.
  • a blind spot may be generated by another object or the like, and the detection range of the object may be limited. In this case, it may be difficult to detect an object of interest.
  • the vehicle Va can detect the object while heading toward the stop position Pa, the object can be detected over a wide range.
  • the object can be detected in the entire circumference of the vehicle Va. Therefore, in addition to the object approaching from the rear of the vehicle Va, the object approaching from various directions can be detected. As a result, the object can be detected over a wide range, and the accuracy of the information to be provided to the user can be improved.
  • the object information data is transmitted to the information providing device 17.
  • the vehicle system may perform other controls, such as not unlocking the door, with or alone with the transmission of the object information data.
  • the behavior of the object may be predicted and the object information data may be transmitted.
  • the behavior prediction of the object may be performed based only on the movement information obtained at the timing of performing the prediction processing, or the movement information obtained at the timing of performing the prediction processing and the recorded past. It may be performed based on the movement information of.
  • the object information data can be recognized before getting off, so that when the user gets off, the user can take a foreseen action on the object.
  • the behavior prediction of the object may be performed in advance before the vehicle Va arrives at the stop position Pa, and the object information data may be transmitted after the vehicle Va arrives at the stop position Pa.
  • the behavior prediction of the object may be performed based on the movement information recorded up to that timing after the vehicle Va arrives at the stop position Pa.
  • the object movement information data includes at least the speed of the object and the moving direction of the object.
  • the object information data includes the direction in which the object enters the monitoring range Ra.
  • the user can understand from which direction the object is approaching. As a result, the user can perform specific recognition of the object.
  • the type of the object may be specified based on the detection result of the object.
  • the object information data may include the type data of the object.
  • the user can understand what kind of object is approaching. As a result, the user can perform specific recognition of the object.
  • the object information data includes one or both of the image data obtained by capturing the object and the audio data explaining the object.
  • the user can understand what kind of object is approaching. As a result, the user can perform specific recognition of the object.
  • the information providing method determines whether or not the arrival time until the vehicle Va arrives at the stop position Pa is less than or equal to the preset determination time, and when the arrival time is less than or equal to the determination time. , Start detecting the object.
  • one user gets on the vehicle Va, but a plurality of users may get on the vehicle like a shared vehicle.
  • a plurality of information providing devices 17 are associated with the plurality of users.
  • the information providing method according to the present embodiment transmits object information data to the information providing device 17 associated with the user getting off at the stop position Pa from among the plurality of information providing devices 17. It is preferable to do so.
  • the monitoring range Ra is set on the left side of the vehicle Va.
  • the monitoring range is not limited to this.
  • the monitoring range Rb may be set on the right side of the vehicle Va.
  • the monitoring range Rc may be set behind the vehicle Va.
  • the monitoring range may be a combination of these ranges Ra, Rb, and Rc.
  • the monitoring range Ra may be set according to the direction in which the user gets off. For example, if the user is likely to get off from the left side of the vehicle, the monitoring range Ra is set on the left side of the vehicle Va, and if the user is likely to get off from the right side of the vehicle, the right side of the vehicle Va is set. It is like setting the monitoring range Rb on the side. In this case, the user may be a driver.
  • the monitoring range Ra may be switched depending on the type of the object. For example, motorcycles are faster than pedestrians, so care must be taken when getting off. Therefore, as shown in FIG. 11, when the object is a two-wheeled vehicle, the monitoring range Ra is increased.
  • the vehicle system 10 has technical matters corresponding to the above-mentioned information providing method, and has the same operations and effects as the vehicle control method.
  • the processing unit 14 acquires (calculates) movement information based on the detection result of the object by the object detection device 11, and directly acquires the movement information from the object detection device 11.
  • the processing unit 14 functions as a part of an information collecting device that acquires movement information.
  • the information collecting device of the vehicle system 10 may acquire movement information from an object other than the own vehicle by using V2X (Vehicle to Everything) technology including vehicle-to-vehicle communication.
  • the vehicle system 10 performs the prediction process, but an external device (for example, the management device 20) capable of communicating with the vehicle Va may perform the prediction process.
  • the management device 20 acquires object information data, which is information about an object collected by using a sensor while the vehicle is running, from the vehicle, and based on the object information data, is information about the movement of the object. Calculate a certain object movement information data. Then, the management device 20 determines whether or not the object may enter the monitoring range when the vehicle stops at the stop position based on the object movement information, and the object enters the monitoring range. When it is determined that there is a possibility, information data about the object is transmitted for providing to the user. The data may be transmitted to the vehicle system 10 and then transmitted by the vehicle system 10 to the information providing device 17, or may be transmitted directly to the information providing device 17.
  • Safety support system 10
  • Vehicle system 11
  • Object detection device 12
  • Position estimation device 13
  • Microcomputer 14
  • Processing unit 15
  • Object prediction unit 16
  • Communication unit (communication device) 17
  • Information providing device 20
  • Management device 21
  • Calculation unit (controller) 22
  • User database 23
  • Map database 25
  • Communication unit (communication device) 30
  • Vehicle Information and Communication System

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

車両(Va)が走行しているときに車両(Va)の周囲に存在する物体を検出し、物体の移動に関する情報である移動情報データを取得する。また、車両(Va)が停車位置(Pa)に停車した場合において物体が車両(Va)の周囲の監視範囲内に進入する可能性があるか否かを判断し、物体が監視範囲内に進入する可能性があると判断した場合に、物体に関する情報データを情報提供装置に送信する。

Description

情報提供方法、車両システム及び管理装置
 本発明は、情報提供方法、車両システム及び管理装置に関する。
 例えば特許文献1には、車両に搭載された撮像部を利用して、車両降車時の安全を支援することができる車両用周辺監視装置が開示されている。具体的には、車両用周辺監視装置は、車両が停車した後に撮像部で撮像した車両の後方及び後側方の撮像画像に基づいて、対象物がドア開閉領域に進入するか否かを予測する。
特開2018−134887号公報
 しかしながら、特許文献1に開示された技術によれば、車両が停車した後に撮像部で画像を撮像するため、対象物の検出範囲が制限されているという問題がある。
 本発明は、かかる課題に鑑みてなされたものであり、その目的は、広範囲にわたって物体を検出することで、ユーザに提供するための情報の精度を高めることができる情報提供方法、車両システム及び管理装置を提供することである。
 本発明の一態様に係る情報提供方法は、車両の周囲に存在する物体を検出し、物体の移動に関する情報である移動情報データを取得し、車両が停車位置に停車した場合において物体が車両の周囲の監視範囲内に進入する可能性があるか否かを判断し、物体が監視範囲内に進入する可能性があると判断した場合に、物体に関する情報データを情報提供装置に送信する。
 本発明によれば、停車位置に停車するまでに車両の周囲に存在する物体を検出することができるので、広範囲にわたって物体を検出することができる。これにより、ユーザに提供するための情報の精度を高めることができる。
図1は、本実施形態に係る安全支援システムの構成を示すブロック図である。 図2は、本実施形態に係る車両システムの動作を示すフローチャートである。 図3は、車両の周囲の走行環境の一例を示す説明図である。 図4は、車両が停車位置に停車した場合において対象物の行動を予測した説明図である。 図5は、車両の周囲の走行環境の一例を示す説明図である。 図6は、車両が停車位置に停車した場合において対象物の行動を予測した説明図である。 図7は、車両の周囲の走行環境の一例を示す説明図である。 図8は、車両が停車位置に停車した場合において対象物の行動を予測した説明図である。 図9は、車両の周囲に設定される監視範囲を説明する図である。 図10は、監視範囲の別の態様を説明する図である。 図11は、対象物の種別に応じた監視範囲の一例を説明する図である。
 以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
 図1を参照して、本実施形態に係る安全支援システム1の構成を説明する。この安全支援システム1は、車両を利用するユーザに情報を提供することにより、安全を支援するシステムである。車両を利用するユーザとは、典型的には車両に乗車するユーザであり、車両が停車する停車位置において車両から降車する予定のあるユーザ、又は停車位置において車両に乗車する予定のあるユーザなどを含む。
 安全支援システム1は、車両システム10と、管理装置20とを主体に構成されている。車両システム10と、管理装置20とは、ネットワーク5を介して相互に通信可能に構成されている。また、ネットワーク5には、道路交通情報システム30が接続されている。車両システム10及び管理装置20は、ネットワーク5を介して道路交通情報システム30と通信することができる。ネットワーク5は、例えばインターネットが挙げられる。ネットワーク5は、4G/LTEや、5Gなどのモバイル通信機能を利用するものであってもよい。
 車両システム10は、車両の周囲の物体を検出し、物体の検出結果に基づいて、必要な情報をユーザに提供するための処理を行う。車両システム10は、物体検出装置11と、位置推定装置12と、マイクロコンピュータ13と、通信部16と、情報提供装置17とを有している。
 車両システム10は、ユーザからの配車リクエストに応じて、輸送サービスを提供する車両(サービス車両)に適用されている。車両は、エンジンのみで駆動するエンジン自動車、エンジンと電動モータとで駆動するハイブリッド自動車、電動モータのみで駆動する電気自動車のいずれであってもよい。
 車両は、ドライバが乗車した上で自動運転機能により走行する自動運転車両である。しかしながら、車両は、ドライバの手動運転により走行する車両でもよいし、ドライバが乗車しないで自動運転機能により走行する車両でもよい。
 自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータのうち、少なくとも一つのアクチュエータが乗員の操作なしに制御されている状態のことを指す。そのため、その他のアクチュエータが乗員の操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態のことを指す。
 物体検出装置11は、車両に搭載された、複数の物体検出センサを備える。物体検出装置11は、複数の物体検出センサを用いて車両の周囲に存在する物体に関する情報データを収集する(情報収集装置)。
 複数の物体検出センサは、レーザレンジファインダを含む。レーザレンジファインダは、車両の周囲(例えば360度)を所定の範囲内でセンシングし、センシング結果のデータを出力する。センシング結果のデータは、例えばポイントクラウド形式で出力される。また、複数の物体検出センサは、カメラを含む。カメラは、車両の周囲(例えば360度)を撮影し、撮影した画像データを出力する。カメラは、車両の周囲を撮影できるように、複数設置されている。物体検出装置11は、センシング結果のデータおよび画像データを、物体に関する情報データ(以下「物体情報データ」という)としてマイクロコンピュータ13に出力する。物体検出装置11は、レーザレンジファインダ、カメラ以外の種類のセンサを含んでもよい。
 位置推定装置12は、GPS(グローバル・ポジショニング・システム)、オドメトリなどの位置推定技術を利用して、車両の絶対位置を計測する。位置推定装置12には、GPS受信器、慣性航法装置、ブレーキペダル及びアクセルペダルに設けられたセンサ、車輪速センサ及びヨーレートセンサなど車両の挙動を取得するセンサ、レーザレーダ、カメラなどが含まれる。位置推定装置12は、車両の位置、速度、加速度、操舵角、姿勢(移動方向)を計測する。
 マイクロコンピュータ13は、車両システム10を制御する。
 マイクロコンピュータ13は、CPU(中央処理装置)などのハードウェアプロセッサ、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータ13には、車両システム10として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータ13は、車両システム10が備える複数の情報処理回路として機能する。なお、本実施形態では、ソフトウェアによって車両システム10が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。
 マイクロコンピュータ13は、複数の情報処理回路として、処理部14と、物体予測部15とを備えている。
 処理部14は、物体検出装置11から物体情報データを取得する。処理部14は、物体情報データに基づいて、車両の周囲に存在する物体を検出し、物体の移動に関する情報である物体移動情報データを生成する。物体の移動に関する情報は、物体の位置、速度、姿勢(移動方向)、加速度、操舵角などを含む。
 処理部14は、物体検出装置11が備える複数の物体検出センサから得られた各々の物体情報データを統合して、各物体に対して一つの物体情報データを生成する。具体的には、物体検出センサの各々から得られた物体情報データから、各物体検出センサの誤差特性などを考慮した上で最も誤差が少なくなる合理的な物体情報データを算出する。
 処理部14は、検出された物体を追跡する。具体的に、処理部14は、異なる時刻に出力された物体の挙動から、異なる時刻間における物体の同一性の検証及び対応付けを行い、かつ、その対応付けに基づいて物体を追跡する。これにより、物体の移動に関する情報を含む物体移動情報データが生成される。
 処理部14は、物体情報データ及び物体移動情報データに基づいて、移動物体及び静止物体といった物体の種別を検出する。さらに、処理部14は、他車両、バイク、自転車、歩行者といった移動物体の種別を検出する。同様に、処理部14は、駐車車両、建物といった静止物体の種別を検出する。物体の種別は、物体の移動に関する情報の一部を構成する。
 処理部14は、物体の移動に関する情報を記録する機能を有している。これにより、処理部14には、車両が走行している間にわたる、物体の移動に関する情報の履歴が記録される。
 また、処理部14は、位置推定装置12の計算結果及び車両の状態に基づいて、車両に関する各種情報を含む車両情報データを生成する。車両情報データは、車両の位置、姿勢(移動方向)、速度、ドアロック及びドアの開閉状態、シートベルトの着脱を検知するシートベルトセンサのセンサ値、自動運転中か否かなどの情報を含む。
 物体予測部15は、処理部14から物体移動情報データ及び車両情報データを取得する。また、物体予測部15は、道路交通情報システム30から、後述する道路交通情報データを取得する。物体予測部15は、管理装置20の地図データベース(地図DB)24から、後述する地図情報データを取得する。
 物体予測部15は、道路交通情報データ及び地図情報データに基づいて、車両の現在位置から、車両が停車する停車位置に到着する時間を到着時間として算出する。物体予測部15は、管理装置20から取得されるデータ、具体的には、後述する配車リクエストデータから、停車位置を示す停車位置データを取得することができる。
 物体予測部15は、降車予定のユーザの有無、又は乗車予定のユーザの有無を検出する。降車予定のユーザは、停車位置において車両から降車する予定のあるユーザであり、乗車予定のユーザは、停車位置において車両から乗車する予定のあるユーザである。物体予測部15は、管理装置20から取得されるデータ、具体的には、後述する配車リクエストデータに基づいて、降車予定のユーザの有無、乗車予定のユーザの有無を検出する。
 物体予測部15は、処理部14が算出した物体移動情報データに基づいて、物体の行動を予測する。そして、物体予測部15は、行動の予測結果に基づいて、車両が停車位置に停車した場合において物体が車両の周囲に設定される監視範囲内に進入する可能性があるか否かを判断する。物体予測部15は、物体が監視範囲内に進入する可能性があると判断した場合に、物体に関する情報データを情報提供装置17に送信する。
 通信部16は、ネットワーク5を介して管理装置20又は道路交通情報システム30との間で通信を行う通信装置である。通信部16は、管理装置20又は道路交通情報システム30から取得した情報を図示しないメモリなどに記憶する。また、通信部16は、車両の情報を管理装置20に対して送信する。例えば、通信部16は、4G/LTEなどのモバイル通信機能を備えた通信装置であってもよいし、Wifi通信機能を備えた通信装置であってもよい。
 また、通信部16は、情報提供装置17との間で通信を行う。通信部16は、乗員に対して提供する情報を、情報提供装置17に対して送信する。例えば、通信部16は、4G/LTEなどのモバイル通信機能を備えたデバイスであってもよいし、Wifi通信機能を備えたデバイスであってもよい。また、通信部16は、情報提供装置17に対してワイヤーハーネスなどの有線を介して通信を行うものであってもよい。
 情報提供装置17は、車両を利用するユーザに対して情報を提供する。情報提供装置17は、例えば車両に搭載された表示装置である。表示装置は、ユーザが視認することができる位置に配置されている。例えば、ユーザが車両の後席に乗車する場合、情報提供装置17は、前席の背面側に設けられている。
 また、情報提供装置17は、車両に備え付けられている形態に限られない。情報提供装置17は、ユーザが保有するユーザ端末、例えば携帯電話、スマートフォン、通信機器などの携帯情報端末であってもよい。
 管理装置20は、ユーザ端末から配車リクエストを含む配車リクエストデータを取得し、取得した配車リクエストデータに応じて、車両による輸送サービスを提供するための各種の処理を行う。管理装置20は、1台又は複数台のコンピュータから構成されている。
 管理装置20は、計算部(コントローラ)21と、ユーザデータベース(ユーザDB)22と、車両データベース(車両DB)23と、地図データベース(地図DB)24と、通信部25とを有している。
 計算部21は、車両システム10から車両情報データを取得することで、車両データベース23を更新する。計算部21は、車両データベース23に基づいて、車両の状態を把握することができる。
 また、計算部21は、ユーザデータベース22に格納される配車リクエストデータに基づいて、所定の処理を行う。具体的には、計算部21は、配車リクエストを要求したユーザに対して配車すべき車両を決定する。また、計算部21は、出発地、目的地、走行経路など配車情報を生成する。すなわち、計算部21は、地図データベース24の地図情報に基づいて、配車リクエストにおいて設定された出発地から目的地まで、すなわちユーザが乗車する乗車地からユーザが降車する降車地まで車両が走行することが可能な走行経路を算出する。走行経路の算出には、道路交通情報データを参照し、出発地から目的地に到着する時間が最も短くなる経路を考慮してもよい。
 ユーザデータベース22は、ユーザ端末から取得した配車リクエストデータ、すなわち、配車リクエストの情報(リクエスト情報)を管理するデータベースである。ユーザデータベース22において、リクエスト情報は、ユーザ毎に管理されており、個々のリクエスト情報には、ユーザを識別するユーザIDが関連付けられている。
 リクエスト情報は、少なくともユーザの出発地の位置情報を含む。出発地の位置情報は、ユーザ端末が備える位置測位機能によって検出した現在の位置情報である。例えば、位置測位機能は、GPS衛星からの信号を受信するGPS受信器で構成される。しかしながら、出発地の位置情報は、出発地としてユーザが入力した位置情報であってもよい。また、リクエスト情報は、出発地の位置情報以外にも、目的地の位置情報、経由地の指定及びその位置情報、乗車人数、手荷物の情報、配車リクエストを取得した時刻、乗車を希望する時刻、相乗りの可否などの情報を含んでもよい。
 ユーザデータベース22は、ユーザ端末から配車リクエストデータを取得すると、このデータをユーザデータベース22に追加する。そして、ユーザデータベース22は、配車リクエストデータを計算部21に提供する。
 車両データベース23は、車両情報データを管理するデータベースである。車両データベース23において、車両情報データは車両毎に管理されており、個々の車両情報データには、車両を識別する車両IDが関連付けられている。
 車両情報データは、少なくとも車両の位置情報を含む。また、車両情報データは、姿勢(移動方向)、速度、ドアロック及びドアの開閉状態、シートベルトの着脱を検知するシートベルトセンサのセンサ値、自動運転中か否かなどの情報を含む。また、サービス情報は、車両の予約が可能か否か、車両が送迎中であるか否か、乗客の有無、乗客の人数、乗車又は降車の状態、目的地に到着したか否かなどの配車に関わる情報も含んでもよい。
 車両データベース23は、車両から車両情報データを取得すると、このデータに基づいて必要な情報を車両データベース23に追加する。
 地図データベース24は、車両が走行可能な道路の構造を示す地図情報を含む地図情報データを格納する。地図情報には、車線の絶対位置、車線の接続関係、相対位置関係などの道路構造の情報、交通規則、道路標識などが含まれる。また、地図情報には、ユーザが乗降可能なエリア又は場所の情報を含む。さらに、地図情報は、車両の待機場所の情報、ユーザが歩行するルートを計算するための歩行者道路情報を含んでもよい。
 通信部25は、ネットワーク5を介して車両システム10又は道路交通情報システム30との間で通信を行う通信装置である。通信部25は、車両システム10又は道路交通情報システム30から取得した情報(車両の情報、地図情報など)を図示しないメモリなどに記憶する。また、通信部25は、配車情報を車両システム10に対して送信する。例えば、通信部25は、4G/LTEなどのモバイル通信機能を備えた通信装置であってもよいし、Wifi通信機能を備えた通信装置であってもよい。
 また、通信部25は、ユーザ端末との間で通信を行う。通信部25は、ユーザ端末から取得した情報(配車リクエストデータ)を図示しないメモリなどに記憶する。
 道路交通情報システム30は、道路交通情報を含む道路交通情報データを管理する。道路交通情報は、渋滞情報及び交通規制情報など、車両の走行に影響を及ぼす情報である。交通情報は、例えばVICS(Vehicle Information and Communication System)などである。
 以下、図2乃至図9を参照し、本実施形態に係る安全支援システム1の動作、すなわち、情報提供装置17を用いてユーザに情報を提供する情報提供方法を説明する。図2に示すフローチャートは、マイクロコンピュータ13によって実行される。
 まず、ステップS10において、物体予測部15は、到着時間Tが判定時間以下であるか否かを判断する。到着時間Tは、自車両である車両Vaの現在の位置を起点に、走行経路に沿って停車位置Paへと到着するのに要する時間である。到着時間は、現在の車両Vaの位置、走行経路上での停車位置Paまでの距離などに基づいて算出される。また、到着時間Tは、道路交通情報、例えば渋滞の影響を考慮して計算される。一方、判定時間は、車両Vaが停車位置Paに近づき、物体の検出を開始することが妥当であることを判断するための時間である。
 例えば、車両Vaを利用するユーザが、停車位置Paにおいて車両Vaから降車する予定のあるユーザである場合、停車位置Paは、そのユーザから受け付けた配車リクエストの目的地に相当する。また、車両Vaを利用するユーザが、停車位置Paにおいて車両Vaに乗車する予定のあるユーザである場合、停車位置Paは、そのユーザから受け付けた配車リクエストの出発地に相当する。
 到着時間が判定時間以下である場合には、物体予測部15は、走行中の車両が、これから停車位置Paで停車することを検出する。すなわち、物体予測部15は、車両が、将来(判定時間が経過するまでに)、停車位置Paで停車することを検出する。この場合、ステップS10で肯定判定され、ステップS11に進む。一方、到着時間が判定時間よりも大きい場合には、ステップS10で否定判定され、ステップS10に戻る。
 ステップS11において、物体予測部15は、降車予定のユーザの有無、又は乗車予定のユーザの有無を検出する。
 ステップS12において、処理部14は、物体検出装置11から物体情報データを取得する。
 ステップS13において、処理部14は、位置推定装置12の計算結果及び車両情報データに基づいて、車両Vaの移動情報を含む自車両移動情報データを取得する。車両Vaの移動情報は、車両Vaの位置、速度、姿勢(移動方向)などの情報を含む。
 ステップS14において、処理部14は、物体情報データに基づいて物体の種別を認識し、移動物体を対象物として検出する。また、処理部14は、対象物について、他車両、バイク、自転車、歩行者といった種別を検出する。
 ステップS15において、処理部14は、対象物の移動情報を含む物体移動情報データを生成する。対象物の移動情報は、対象物の位置、速度、姿勢(移動方向)を含む。
 ステップS16において、物体予測部15は、物体移動情報データと、自車両移動情報データとに基づいて、対象物の行動を予測する。
 図3において、対象物は、車両Vaの周囲を走行する他車両Vb1、Vb2、Vb3、歩行者Pe1、及び、自転車Bc1、Bc2である。
 物体予測部15は、自車両移動情報データ、停車位置Paまでの距離などに基づいて、車両Vaが停車位置Paに到着するまでの所要時間を計算する。そして、物体予測部15は、対象物が現在の挙動を継続すると仮定し、所要時間が経過した後、すなわち、停車位置Paに車両Vaが到着した場合における対象物の位置を予測する。また、物体予測部15は、他車両Vb3が車両Vaの影響を受けるので、車両Vaの停止に合わせて減速すると考える。このような駆動予測により、図4に示すように、自転車Bc2及び他車両Vb3は、停車位置Paに車両Vaが停車した場合において車両Vaの近傍に存在すると予測される。
 一方、図5に示すように、他車両Vb3が車線変更している場合、物体予測部15は、物体移動情報データから特定される姿勢から、車線変更を推認することができる。この場合、物体予測部15は、他車両Vb3が車両Vaの影響を受けないので、そのままの速度で走行を継続すると考える。これにより、図6に示すように、他車両Vb3の行動は、停車位置Paに車両Vaが停車した場合において車両Vaの近傍に存在しないと予測される。
 また、図7に示すように、物体の検出は、車両Vaの全方位において行われる。そのため、物体予測部15は、車両Vaの前方から車両Vaに近づく方向に進む歩行者Pe2についても予測を行う。図8において、自転車Bc2及び歩行者Pe2は、停車位置Paに車両Vaが停車した場合において車両Vaの近傍に存在すると予測される。
 なお、過去に生成された物体移動情報データが存在する場合には、物体予測部15は、直近の処理で生成された物体移動情報データのみならず、過去に生成された物体移動情報データも参照して、対象物の行動を予測してもよい。
 ステップS17において、物体予測部15は、対象物の行動予測に基づいて、車両Vaが停車位置Paに停車した場合において対象物が監視範囲Ra内に進入する可能性があるか否かを判断する。
 監視範囲Raは、車両Vaから降車するユーザに対して対象物の存在を報知するか否かを切り分けるための領域であり、車両Vaの周囲に設定される。例えば左側通行の場合、乗員は車両Vaの左側から降車することが通常である。図9に示すように、監視範囲Raは、車両Vaの左側方に設定される。
 対象物が監視範囲Ra内に進入する可能性がある場合には、ステップS18で肯定判定され、ステップS18に進む。一方、対象物が監視範囲Ra内に進入する可能性がない場合には、ステップS17で否定判定され、ステップS20に進む。
 ステップS18において、物体予測部15は、対象物情報データを生成する。対象物情報データは、監視範囲Raに進入する可能性がある対象物(物体)に関する情報を示すデータである。例えば、対象物情報データは、監視範囲Raに進入する可能性がある対象物を撮影した画像データである。これにより、対象物の存在を認識することができ、また、直接の姿を確認することで対象物の種別などを認識することができる。また、対象物情報データは、監視範囲Raに対して対象物が進入する方向の情報を含んでもよい。また、情報提供装置17が音声を出力するスピーカを備える場合には、対象物情報データは、対象物を示す音声データをであってもよい。
 ステップS19において、物体予測部15は、通信部16を介して、対象物情報データを情報提供装置17に出力する。
 ステップS20において、物体予測部15は、ユーザの降車又はユーザの乗車が完了したか否かを判断する。ユーザの降車又はユーザの乗車が完了した場合には、ステップS20で肯定判定され、本処理を終了する。一方、ユーザの降車又はユーザの乗車が完了していない場合には、ステップS20で否定判定され、ステップS12に戻る。
 このように本実施形態に係る情報提供方法は、停車位置を示す停車位置データを取得し、走行中の車両Vaがこれから停車位置で停車することを検出し、車両Vaの周囲に存在する対象物(物体)を検出し、対象物の検出結果に基づいて物体移動情報データを取得する。また、情報提供方法は、物体移動情報データに基づいて、車両Vaが停車位置Paに停車した場合において対象物が監視範囲Ra内に進入する可能性があるか否かを判断し、対象物が監視範囲Ra内に進入する可能性があると判断した場合に、対象物情報データを情報提供装置17に送信する。
 この方法によれば、停車位置に停車するまでに車両Vaの周囲に存在する対象物を検出することができるので、広範囲にわたって対象物を検出することができる。これにより、ユーザに提供するための情報の精度を高めることができる。
 例えば、車両Vaが停車位置Paに到着した後に周囲の対象物を検出した場合、他の物体などによって死角が発生し、対象物の検出範囲が制限されてしまうことがある。この場合、注目すべき対象物を検知することが困難となることがある。その点、本実施形態によれば、車両Vaが停車位置Paに向かいながら対象物の検出を行うことができるので、広範囲にわたって物体を検出することができるのである。
 また、本実施形態によれば、車両Vaの全周囲において対象物を検出することができる。そのため、車両Vaの後方から接近する対象物以外にも、様々な方向から近くづく対象物を検出することができる。これにより、広範囲にわたって物体を検出することができるので、ユーザに提供するための情報の精度を高めることができる。
 なお、本実施形態によれば、対象物が監視範囲Ra内に進入する可能性があると判断した場合に、対象物情報データを情報提供装置17に送信している。しかしながら、車両システムは、ドアロックを解除しないなどのその他の制御を、対象物情報データの送信とともに、あるいは、これ単独で行ってもよい。
 また、車両Vaが停車位置Paに到着する前に、対象物の行動予測を行い、対象物情報データを送信してもよい。この場合、対象物の行動予測は、予測処理を行うタイミングで得られた移動情報のみに基づいて行ってもよいし、その予測処理を行うタイミングに得られた移動情報と、記録されている過去の移動情報とに基づいて行ってもよい。
 この方法によれば、降車前に対象物情報データを認識することができるので、ユーザが降車する際に、対象物に対する予見した行動を行うことができる。なお、車両Vaが停車位置Paに到着する前に、対象物の行動予測のみを先行して行い、車両Vaが停車位置Paに到着した後に対象物情報データを送信してもよい。
 さらに、対象物の行動予測は、車両Vaが停車位置Paに到着した後に、そのタイミングまでに記録されている移動情報に基づいて行ってもよい。
 すなわち、本実施形態における「車両Vaが停車位置Paに停車した場合において」とは、将来において車両Vaが停車位置Paに停車したときであっても、現実に車両Vaが停車位置Paに停車したときであってもよい。
 また、本実施形態に係る情報提供方法において、物体移動情報データは、対象物の速度と対象物の移動方向とを少なくとも含む。
 この方法によれば、対象物の速度と対象物の移動方向とから物体が監視範囲に進入しているかどうかを適切に判断することができる。
 また、本実施形態に係る情報提供方法において、対象物情報データは、監視範囲Raに対して対象物が進入する方向を含む。
 この方法によれば、ユーザは、対象物がどの方向から近づいてくるのかを理解することができる。これにより、ユーザは、物体に対する具体的な認識を行うことができる。
 また、本実施形態に係る情報提供方法は、対象物の検出結果に基づいて、対象物の種別を特定してもよい。この場合、対象物情報データは、対象物の種別データを含んでもよい。
 この方法によれば、ユーザは、どのような種別の物体が近づいているのかを理解することができる。これにより、ユーザは、物体に対する具体的な認識を行うことができる。
 また、本実施形態に係る情報提供方法において、対象物情報データは、対象物が撮像された画像データ、及び、物体を説明する音声データの一方又は両方を含む。
 この方法によれば、ユーザは、どのような物体が近づいているのかを理解することができる。これにより、ユーザは、物体に対する具体的な認識を行うことができる。
 本実施形態に係る情報提供方法は、車両Vaが停車位置Paに到着するまでの到着時間が予め設定された判定時間以下であるか否かを判断し、到着時間が判定時間以下である場合に、対象物の検出を開始する。
 この方法によれば、対象物を検出する範囲を制限することで、監視範囲Raに進入する可能性のある物体を効率的に検出することができる。
 なお、上述した実施形態では、車両Vaに乗車するユーザは一人であるが、乗り合い車両のように、複数のユーザが乗車してもよい。車両Vaに複数のユーザが乗車している場合、複数のユーザに対して複数の情報提供装置17が対応付けられている。この場合、本実施形態に係る情報提供方法は、複数の情報提供装置17の中から、停車位置Paで降車するユーザに対応付けられている情報提供装置17に対して、対象物情報データを送信することが好ましい。
 この方法によれば、降車するユーザに対して必要な情報を選択的に提供することができる。
 また、本実施形態では、監視範囲Raが車両Vaの左側方に設定されている。しかしながら、図10に示すように、監視範囲はこれに限られない。例えば右側通行であれば、車両Vaの右側方に、監視範囲Rbを設定してもよい。また、車両Vaの後方に、監視範囲Rcを設定してもよい。また、監視範囲は、これらの範囲Ra、Rb、Rcを組み合わせてもよい。
 また、ユーザが降車する方向に応じて、監視範囲Raを設定してもよい。例えば、ユーザが車両の左側から降車する可能性が高い場合には、車両Vaの左側方に監視範囲Raを設定し、ユーザが車両右側から降車する可能性が高い場合には、車両Vaの右側方に監視範囲Rbを設定するといった如くである。この場合、ユーザは、ドライバであってもよい。
 また、対象物の種別によって、監視範囲Raを切り替えてもよい。例えば、歩行者よりも二輪車の方が速度も速く、降車に際しては留意する必要がある。そこで、図11に示すように、対象物が二輪車である場合には、監視範囲Raを大きくするといった如くである。
 また、本実施形態に係る車両システム10は、上述の情報提供方法と対応する技術事項を有しており、車両制御方法と同様の作用、効果を奏するものである。
 また、本実施形態において、処理部14は、物体検出装置11による物体の検出結果に基づいて移動情報を取得(算出)しており、物体検出装置11から移動情報を直接取得している。処理部14は、移動情報を取得する情報収集装置の一部として機能する。しかしながら、車両システム10の情報収集装置は、車車間通信などを含むV2X(Vehicle to Everything)技術を利用して、自車両以外の物体から移動情報を取得してもよい。
 なお、本実施形態では、車両システム10が予測処理を行っているが、車両Vaと通信可能な外部装置(例えば、管理装置20)が予測処理を行ってもよい。これにより、車両制御方法と同様の作用、効果を奏するものである。すなわち、管理装置20は、車両が走行している間にセンサを用いて収集された物体に関する情報である物体情報データを、車両から取得し、物体情報データに基づいて、物体の移動に関する情報である物体移動情報データを算出する。そして、管理装置20は、物体移動情報に基づいて、車両が停車位置に停車した場合において物体が監視範囲内に進入する可能性があるか否かを判断し、物体が監視範囲内に進入する可能性があると判断した場合に、ユーザに提供するために、物体に関する情報データを送信する。データの送信は、車両システム10に送信した上で、車両システム10が情報提供装置17に送信してもよいし、情報提供装置17に直接送信してもよい。
 上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
1  安全支援システム
10 車両システム
11 物体検出装置
12 位置推定装置
13 マイクロコンピュータ
14 処理部
15 物体予測部
16 通信部(通信装置)
17 情報提供装置
20 管理装置
21 計算部(コントローラ)
22 ユーザデータベース
23 車両データベース
24 地図データベース
25 通信部(通信装置)
30 道路交通情報システム

Claims (13)

  1.  車両を利用するユーザに情報を提供する情報提供装置に対して情報を出力する情報処理装置の情報提供方法において、
     前記車両が停車する停車位置を示す停車位置データを取得し、
     走行中の前記車両がこれから前記停車位置で停車することを検出し、
     前記車両の周囲に存在する物体を検出し、
     検出した前記物体の移動に関する情報である移動情報データを取得し、
     前記移動情報データに基づいて、前記車両が前記停車位置に停車した場合において前記物体が前記車両の周囲に設定される監視範囲内に進入する可能性があるか否かを判断し、
     前記物体が前記監視範囲内に進入する可能性があると判断した場合に、前記物体に関する情報データを前記情報提供装置に送信する
     情報提供方法。
  2.  前記車両を利用する前記ユーザは、前記車両に乗車するユーザであり、前記停車位置において前記車両から降車する予定のあるユーザ、又は前記停車位置において前記車両に乗車する予定のあるユーザを含む
     請求項1に記載の情報提供方法。
  3.  前記情報提供装置は、前記停車位置において前記車両から降車する予定のあるユーザ又は前記停車位置において前記車両に乗車する予定のあるユーザが保有する携帯情報端末である
     請求項2に記載の情報提供方法。
  4.  走行中の前記車両がこれから前記停車位置で停車することを検出することに加えて、前記停車位置において前記車両から降車する予定のあるユーザの有無、又は前記停車位置において前記車両に乗車する予定のあるユーザの有無を検出する
     請求項2又は3に記載の情報提供方法。
  5.  前記移動情報データは、前記物体の速度と前記物体の移動方向とを少なくとも含む
     請求項1から4のいずれか一項記載の情報提供方法。
  6.  前記物体に関する情報データは、前記監視範囲に対して前記物体が進入する方向を含む
     請求項1から5のいずれか一項記載の情報提供方法。
  7.  前記物体の検出結果に基づいて、前記物体の種別を特定し、
     前記物体に関する情報データは、前記物体の種別データを含む
     請求項1から6のいずれか一項記載の情報提供方法。
  8.  前記物体に関する情報データは、前記物体が撮像された画像データ、及び、前記物体を説明する音声データの一方又は両方を含む
     請求項1から7のいずれか一項記載の情報提供方法。
  9.  前記車両に複数のユーザが乗車し、前記複数のユーザに対して複数の情報提供装置が対応付けられている場合には、
     前記複数の情報提供装置の中から、前記停車位置で降車する前記ユーザに対応付けられている前記情報提供装置に対して、前記物体に関する情報データを送信する
     請求項1から8のいずれか一項記載の情報提供方法。
  10.  前記車両が前記停車位置に到着するまでの到着時間が予め設定された判定時間以下であるか否かを判断し、
     前記到着時間が前記判定時間以下である場合に、前記物体の検出を開始する
     請求項1から9のいずれか一項記載の情報提供方法。
  11.  前記車両が前記停車位置に停車する前に、前記物体に関する情報を前記情報提供装置に送信する
     請求項1から10のいずれか一項記載の情報提供方法。
  12.  車両を利用するユーザに情報を提供する情報提供装置と、
     前記車両の周囲に存在する物体に関する情報データを収集する情報収集装置と、
     前記情報収集装置と、前記情報提供装置との間で通信を行う通信装置と、
     前記通信装置を制御するコントローラと、を有し、
     前記コントローラは、
     前記車両が停車する停車位置を示す停車位置データを取得し、
     走行中の前記車両がこれから前記停車位置で停車することを検出し、
     前記情報収集装置から取得されたデータを用いて前記車両の周囲に存在する前記物体を検出し、
     検出した前記物体の移動に関する情報である移動情報データを前記情報収集装置により取得し、
     前記移動情報データに基づいて、前記車両が前記停車位置に停車した場合において前記物体が前記車両の周囲に設定される監視範囲内に進入する可能性があるか否かを判断し、
     前記物体が前記監視範囲内に進入する可能性があると判断した場合に、前記物体に関する情報データを前記情報提供装置に送信する
     車両システム。
  13.  車両の周囲に存在する物体に関する情報データを収集する情報収集装置と、
     前記車両を利用するユーザに情報を提供する情報提供装置との間で通信を行う通信装置と、
     前記通信装置を制御するコントローラと、を有し、
     前記コントローラは、
     前記車両が停車する停車位置を示す停車位置データを取得し、
     走行中の前記車両がこれから前記停車位置で停車することを検出し、
     前記情報収集装置から取得されたデータを用いて前記車両の周囲に存在する前記物体を検出し、
     検出した前記物体の移動に関する情報である移動情報データを前記情報収集装置により取得し、
     前記移動情報データに基づいて、前記車両が前記停車位置に停車した場合において前記物体が前記車両の周囲に設定される監視範囲内に進入する可能性があるか否かを判断し、
     前記物体が前記監視範囲内に進入する可能性があると判断した場合に、前記物体に関する情報データを前記情報提供装置に送信する
     管理装置。
PCT/IB2021/000166 2020-03-26 2021-03-18 情報提供方法、車両システム及び管理装置 WO2021191682A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202180022639.8A CN115315738A (zh) 2020-03-26 2021-03-18 信息提供方法、车辆系统以及管理装置
US17/907,100 US20240046778A1 (en) 2020-03-26 2021-03-18 Information providing method, vehicle system and management device
EP21775925.7A EP4131214A4 (en) 2020-03-26 2021-03-18 INFORMATION PROVISION METHOD, VEHICLE SYSTEM AND MANAGEMENT DEVICE
BR112022019248A BR112022019248A2 (pt) 2020-03-26 2021-03-18 Método de fornecimento de informações, sistema de veículo e dispositivo de gerenciamento
JP2022509742A JP7311030B2 (ja) 2020-03-26 2021-03-18 情報提供方法、車両システム及び管理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020056307 2020-03-26
JP2020-056307 2020-03-26

Publications (1)

Publication Number Publication Date
WO2021191682A1 true WO2021191682A1 (ja) 2021-09-30

Family

ID=77890981

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2021/000166 WO2021191682A1 (ja) 2020-03-26 2021-03-18 情報提供方法、車両システム及び管理装置

Country Status (6)

Country Link
US (1) US20240046778A1 (ja)
EP (1) EP4131214A4 (ja)
JP (1) JP7311030B2 (ja)
CN (1) CN115315738A (ja)
BR (1) BR112022019248A2 (ja)
WO (1) WO2021191682A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158578A (ja) * 2006-12-20 2008-07-10 Tokai Rika Co Ltd 車両の降車安全装置及び車両の安全降車方法
JP2018134887A (ja) 2017-02-20 2018-08-30 株式会社アルファ 車両用周辺監視装置
JP2018206186A (ja) * 2017-06-07 2018-12-27 パナソニックIpマネジメント株式会社 歩行者端末装置、車載端末装置、歩車間通信システム、および降車通知方法
JP2019178960A (ja) * 2018-03-30 2019-10-17 株式会社ナビタイムジャパン 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP2019192069A (ja) * 2018-04-27 2019-10-31 いすゞ自動車株式会社 報知装置、及び、報知方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RO127817A2 (ro) * 2008-04-15 2012-09-28 Lilian Cătălin Vişoiu Sistem de preavertizare în caz de frânare a unui autovehicul
DE102014005464A1 (de) * 2014-04-12 2014-09-25 Daimler Ag Verfahren zumindest zur Verminderung einer Kollisionsschwere eines Fahrzeuges mit einer Person
KR101759020B1 (ko) * 2016-02-05 2017-07-18 인하대학교 산학협력단 차량 개문에 따른 위험 상황 자동 알림 장치 및 방법
KR101960915B1 (ko) * 2017-03-22 2019-07-17 한국오므론전장 주식회사 차량 도어 충돌 방지 시스템 및 방법
US10089872B1 (en) * 2017-05-11 2018-10-02 Here Global B.V. Vehicle communication system for vehicle boarding area
KR102420218B1 (ko) * 2017-10-21 2022-07-13 현대자동차주식회사 하차 승객 보호 시스템 및 그 방법
US10741081B2 (en) * 2017-11-14 2020-08-11 GM Global Technology Operations LLC Remote park assist system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158578A (ja) * 2006-12-20 2008-07-10 Tokai Rika Co Ltd 車両の降車安全装置及び車両の安全降車方法
JP2018134887A (ja) 2017-02-20 2018-08-30 株式会社アルファ 車両用周辺監視装置
JP2018206186A (ja) * 2017-06-07 2018-12-27 パナソニックIpマネジメント株式会社 歩行者端末装置、車載端末装置、歩車間通信システム、および降車通知方法
JP2019178960A (ja) * 2018-03-30 2019-10-17 株式会社ナビタイムジャパン 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP2019192069A (ja) * 2018-04-27 2019-10-31 いすゞ自動車株式会社 報知装置、及び、報知方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4131214A4

Also Published As

Publication number Publication date
EP4131214A4 (en) 2023-10-04
JP7311030B2 (ja) 2023-07-19
CN115315738A (zh) 2022-11-08
BR112022019248A2 (pt) 2022-11-16
EP4131214A1 (en) 2023-02-08
US20240046778A1 (en) 2024-02-08
JPWO2021191682A1 (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
CN108725432B (zh) 自动驾驶装置以及通知方法
US11345359B2 (en) Autonomous driving vehicles with dual autonomous driving systems for safety
CN112462640B (zh) 车辆远程指示系统
US11747828B2 (en) Vehicle remote instruction system and remote instruction device
JP7139717B2 (ja) 車両用通信装置、車両用通信方法、及び制御プログラム
US10875545B2 (en) Autonomous driving system
CN112486162A (zh) 车辆远程指示系统
SE1250747A1 (sv) Anordning och förfarande för att bedöma olycksrisk vid framförande av ett fordon
CN111830859B (zh) 车辆远程指示系统
CN112927550B (zh) 自动泊车系统
CN113287074A (zh) 使用语音交互增加自主运载工具安全性和灵活性的方法和系统
CN111731295B (zh) 行驶控制装置、行驶控制方法以及存储程序的存储介质
CN111762168A (zh) 控制装置、控制方法以及存储介质
JP2020138611A (ja) 車両制御装置、車両制御システム、車両制御方法、およびプログラム
JP2007066179A (ja) 車両用運転支援装置
WO2020241971A1 (ko) 교통 사고 처리 장치 및 교통 사고 처리 방법
WO2021053763A1 (ja) 運転支援装置、運転支援方法及びプログラム
CN113557174A (zh) 信息处理装置、信息处理方法、移动控制装置和移动控制方法
JPWO2019039280A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
US11386724B2 (en) Control device, a control method, and a non-transitory computer readable medium storing a control program of a door lock of a vehicle
US20210284195A1 (en) Obstacle prediction system for autonomous driving vehicles
WO2021191682A1 (ja) 情報提供方法、車両システム及び管理装置
CN115454036A (zh) 远程操作委托系统、远程操作委托方法以及存储介质
JP7312662B2 (ja) 配車システム、配車システムの配車方法及びサーバ
CN111301418B (zh) 驾驶辅助装置及其控制方法、车辆以及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21775925

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022509742

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 17907100

Country of ref document: US

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112022019248

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021775925

Country of ref document: EP

Effective date: 20221026

ENP Entry into the national phase

Ref document number: 112022019248

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20220923