WO2020039517A1 - 進路予測装置、進路予測プログラムおよび進路予測方法 - Google Patents

進路予測装置、進路予測プログラムおよび進路予測方法 Download PDF

Info

Publication number
WO2020039517A1
WO2020039517A1 PCT/JP2018/030977 JP2018030977W WO2020039517A1 WO 2020039517 A1 WO2020039517 A1 WO 2020039517A1 JP 2018030977 W JP2018030977 W JP 2018030977W WO 2020039517 A1 WO2020039517 A1 WO 2020039517A1
Authority
WO
WIPO (PCT)
Prior art keywords
blind spot
vehicle
sensor
information
spot area
Prior art date
Application number
PCT/JP2018/030977
Other languages
English (en)
French (fr)
Inventor
尚之 対馬
今井 良枝
村山 修
雅浩 虻川
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/030977 priority Critical patent/WO2020039517A1/ja
Priority to US17/263,230 priority patent/US20210197811A1/en
Priority to DE112018007920.1T priority patent/DE112018007920T5/de
Priority to JP2020537935A priority patent/JP6968288B2/ja
Priority to CN201880096407.5A priority patent/CN112534485B/zh
Publication of WO2020039517A1 publication Critical patent/WO2020039517A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps

Definitions

  • the present invention relates to a route prediction device, a route prediction program, and a route prediction method for predicting a route of an object in a blind spot area.
  • a driving assistance function such as an emergency automatic braking function, a function of maintaining a constant inter-vehicle distance, and a function of automatically changing lanes.
  • an optical camera, a millimeter-wave radar, and a sensor such as LiDAR (Light Detection And Ranging) may be used.
  • LiDAR Light Detection And Ranging
  • a sensor for realizing such a driving support function cannot see through an object. For this reason, when a plurality of objects are arranged in the depth direction, an object existing in a shadow area of the foreground object cannot be detected. Therefore, a blind spot area is generated by the closest object to the sensor.
  • a driving support function that determines its own behavior using a movement prediction result that predicts a future position of an object
  • the movement prediction of the object cannot be continued. For this reason, there is a possibility that the above-mentioned driving support function stops the movement prediction itself and performs an erroneous operation on the assumption that there is no object even though the object actually exists.
  • Patent Document 1 describes a method for estimating the position of an object in a blind spot area using the speed at which the moving body enters a blind spot even when the object moves into the blind spot area.
  • Patent Literature 1 since the position of a moving object entering a blind spot area is estimated linearly, the accuracy of the estimated position is reduced in an environment having a complicated road shape. I will. Further, in Patent Literature 1, since the blind spot area of the sensor is merely obtained statically from the specifications of the sensor, when a plurality of objects are arranged in the depth direction, the shadow area of the foreground object is determined. No consideration is given to the detection of objects present in
  • the present invention provides a route prediction device that calculates a blind spot region generated in a sensing range of a sensor, dynamically obtains a blind spot region, and predicts a course in a blind spot region of an object entering the dynamically obtained blind spot region. Aim.
  • the route prediction device of the present invention Sensor information, which is a detection result, is sequentially obtained from a sensor that is arranged on a moving object and detects whether an object is present, and a blind spot area indicating an area where the object cannot be detected by the sensor is based on the sensor information.
  • a blind spot calculation unit that detects the object entering the blind spot area based on the sensor information;
  • a prediction unit configured to predict a path of the detected object in the blind spot area based on the sensor information.
  • the course prediction device of the present invention includes a blind spot calculation unit and a prediction unit. Therefore, according to the present invention, a blind spot area generated in a sensing range of a sensor is calculated, a blind spot area is dynamically acquired, and a course prediction apparatus that predicts a course in a blind spot area of an object entering the dynamically obtained blind spot area. Can be provided.
  • FIG. 2 is a diagram of the first embodiment and shows an in-vehicle system 8;
  • FIG. 2 is a diagram of the first embodiment and shows a hardware configuration of the route prediction device 1;
  • FIG. 2 is a diagram of the first embodiment and shows a hardware configuration of the vehicle management device 5.
  • FIG. 4 is a diagram of the first embodiment, showing a course interpolation by the course prediction device 1.
  • FIG. 6 is a diagram of the first embodiment and shows a situation of a road 81; 9 is a flowchart of the first embodiment, showing an operation of a blind spot calculation unit 11.
  • FIG. 9 is a diagram of the first embodiment, showing a sensing result 84;
  • FIG. 4 is a diagram of the first embodiment, showing a first blind spot area 61 and a second blind spot area 62;
  • FIG. 5 is a diagram of the first embodiment, showing a second blind spot area 62a.
  • FIG. 10 is a diagram of the first embodiment, and is a diagram when FIG. 9 is viewed from the left side in the traveling direction 82 of the mounted vehicle 71.
  • FIG. 10 is a diagram of the first embodiment and shows a case where an obstacle with an identification number 003 has entered a blind spot area.
  • 6 is a flowchart of the first embodiment, showing an operation of the prediction unit 12;
  • FIG. 4 is a diagram of the first embodiment and illustrates a course prediction of the vehicle 73 when the vehicle 73 is behind the mounted vehicle 71.
  • FIG. 7 is a diagram of the first embodiment and shows a course prediction of an obstacle when the vehicle 73 is in front of the mounted vehicle 71.
  • FIG. 4 is a diagram of the first embodiment and shows a case where the handlebar angle of the mounted vehicle 71 is zero degrees.
  • FIG. 5 is a diagram of the first embodiment and shows a case where the steering wheel angle of the mounted vehicle 71 has a positive value.
  • FIG. 10 is a diagram of the second embodiment and shows an in-vehicle system 8; 9 is a flowchart of the second embodiment, showing an operation algorithm of the prediction unit 12;
  • FIG. 9 is a diagram of the second embodiment and shows a configuration in which the route prediction device 1 includes a map generation unit 13. The figure which shows the modification of the route prediction apparatus 1 of Embodiment 1 and Embodiment 2.
  • FIG. 1 shows an in-vehicle system 8.
  • the vehicle on which the in-vehicle system 8 is mounted is referred to as a mounted vehicle 71.
  • the in-vehicle system 8 includes a course prediction device 1, a movement prediction device 2, a display device 3, a plurality of sensors 4, and a vehicle management device 5. These are connected by the vehicle-mounted network 7.
  • the course prediction device 1 interpolates information on an obstacle that enters a blind spot area and does not provide a sensing result.
  • the movement prediction device 2 predicts the movement of the obstacle based on the sensing result and the interpolation by the course prediction device 1.
  • the obstacle is, for example, another vehicle.
  • Other vehicles are referred to as vehicle 72 and vehicle 73.
  • the display device 3 transmits information to the occupant of the on-board vehicle 71 by a display or the like.
  • the sensor 4 is a sensor for detecting an object outside the mounted vehicle 71, such as a millimeter-wave radar, a rider, and a camera.
  • the sensor 4 may be distinguished as the sensor 4a and the sensor 4b. When there is no need for distinction, the sensor 4 is described.
  • the vehicle management device 5 collects and manages the vehicle information of the mounted vehicle 71 such as the steering wheel angle, the accelerator amount, the speed, and the position of the mounted vehicle 71.
  • the in-vehicle network 7 is a network such as CAN (Controller Area Network) or in-vehicle Ethernet (registered trademark).
  • FIG. 2 shows a hardware configuration of the route prediction device 1.
  • the course prediction device 1 is a computer.
  • the route prediction device 1 includes a processor 10 and other hardware such as a memory 20, an auxiliary storage device 30, an input interface 40, and an output interface 50.
  • the processor 10 is connected to other hardware via a signal line 60, and controls the other hardware.
  • the input interface 40 acquires information from the sensor 4.
  • the processor 10 performs arithmetic processing and interpolates the course of the obstacle.
  • the interpolated obstacle course is transmitted from the output interface 50 to the movement prediction device 2 and the display device 3.
  • the course prediction device 1 includes a blind spot calculation unit 11 and a prediction unit 12 as functional elements.
  • the functions of the blind spot calculation unit 11 and the prediction unit 12 are realized by a course prediction program that is software.
  • the processor 10 is a device that executes a course prediction program.
  • the course prediction program is a program that realizes the functions of the blind spot calculation unit 11 and the prediction unit 12.
  • the processor 10 is an IC (Integrated Circuit) that performs processing of the blind spot calculation unit 11 and the prediction unit 12.
  • Specific examples of the processor 10 are a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).
  • the memory 20 is a storage device for temporarily storing data. Specific examples of the memory 20 are an SRAM (Static Random Access Memory) and a DRAM (Dynamic Random Access Memory). The memory 20 holds the operation result of the processor 10.
  • SRAM Static Random Access Memory
  • DRAM Dynamic Random Access Memory
  • the auxiliary storage device 30 is a storage device for storing data.
  • a specific example of the auxiliary storage device 30 is an HDD (Hard ⁇ Disk ⁇ Drive).
  • the auxiliary storage device 30 includes an SD (registered trademark) memory card, a CF (Compact Flash), a NAND flash, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, and a DVD (Digital Versatile Disk). It may be a portable recording medium.
  • the input interface 40 acquires information from devices such as the sensor 4 and the vehicle management device 5.
  • the output interface 50 outputs information to devices such as the movement prediction device 2 and the display device 3.
  • the course prediction program is read from the memory 20 to the processor 10 and executed by the processor 10.
  • the memory 20 stores an OS (Operating @ System) as well as a course prediction program.
  • the processor 10 executes the course prediction program while executing the OS.
  • the course prediction program and the OS may be stored in the auxiliary storage device 30.
  • the course prediction program and the OS stored in the auxiliary storage device 30 are loaded into the memory 20 and executed by the processor 10. A part or all of the course prediction program may be incorporated in the OS.
  • the course prediction device 1 may include a plurality of processors instead of the processor 10. These processors share execution of the course prediction program. Each processor is a device that executes a course prediction program, similarly to the processor 10.
  • Data, information, signal values, and variable values used, processed, or output by the route prediction program are stored in the memory 20, the auxiliary storage device 30, the register in the processor 10, or the cache memory.
  • the course prediction program is a program for causing a computer to execute each process, each procedure or each process in which the “unit” of each unit of the blind spot calculation unit 11 and the prediction unit 12 is replaced with “process”, “procedure” or “process”. .
  • the route prediction method is a method performed by the route prediction device 1 which is a computer executing a route prediction program.
  • the course prediction program may be provided by being stored in a computer-readable recording medium, or may be provided as a program product.
  • FIG. 3 shows a hardware configuration of the vehicle management device 5.
  • the vehicle management device 5 is a computer similar to the route prediction device 1.
  • the vehicle management device 5 includes a processor 10a and other hardware such as a memory 20a, an auxiliary storage device 30a, an input interface 40a, and an output interface 50a.
  • the processor 10a is connected to other hardware via a signal line 60a, and controls the other hardware.
  • the vehicle management device 5 is controlled by the control unit 5a.
  • the function of the control unit 5a is realized by a program. This program is stored in the auxiliary storage device 30a.
  • the processor 10a loads this program into the memory 20a and executes it.
  • the operation of the route prediction device 1 corresponds to a route prediction method.
  • the operation of the course prediction device 1 corresponds to processing of a course prediction program.
  • FIG. 4 shows interpolation of a route by the route prediction device 1.
  • the course prediction device 1 sets the course of the obstacle 66 in the blind spot area 65 between the passing forward path 67 and the passing backward path 68 as the predicted course 64. Predict and interpolate the course between the passing forward path 67 and the post-passing path 68.
  • FIG. 5 shows the road 81 and the surroundings of the road 81 assumed in the first embodiment.
  • the mounted vehicle 71 is traveling in the traveling direction 82.
  • the sensor 4a is mounted at the center of the front
  • the sensor 4b is mounted on the right side of the rear.
  • the sensing range 83a of the sensor 4a and the sensing range 83b of the sensor 4b are inside the fan shape represented by the dotted line. Note that the number of sensors is two for the sake of simplicity, but the number of sensors is not limited to two. For example, a sensor may be mounted on the left side of the rear of the mounted vehicle 71 symmetrically with the sensor 4b.
  • FIG. 6 is a flowchart showing the operation of the blind spot calculation unit 11.
  • the operation algorithm of the blind spot calculation unit 11 will be described with reference to a flowchart in FIG.
  • the flowchart in FIG. 6 is described based on the state of the road 81 in FIG.
  • step ST101 the blind spot calculation unit 11 receives the sensing result of the obstacle acquired by the sensors 4a and 4b.
  • FIG. 7 shows a sensing result 84.
  • the sensing result 84 is based on the position of the obstacle and the identification number continuously assigned to the same object by the sensor.
  • the information of each row in FIG. 7 is transmitted from the sensor as a sensing result 84.
  • the sensing result 84 includes speed information of an obstacle depending on a sensor.
  • FIG. 7 shows three sensing results.
  • a blind spot area of the sensor is calculated.
  • the first blind spot area 61 is caused by the sensing range of each sensor and the position of each sensor attached to the mounted vehicle 71.
  • the second blind spot area 62 occurs in an area which is shaded by an obstacle existing in the sensing area of each sensor.
  • the blind spot calculation unit 11 can calculate from the specifications of the sensor 4 and the installation position in the on-board vehicle 71.
  • the blind spot calculation unit 11 can calculate the second blind spot area 62 using the sensing result 84.
  • FIG. 8 shows a first blind spot area 61 and a second blind spot area 62.
  • the first blind spot area 61 is an area that is not included in the sensing range of the sensor 4a or the sensing range of the sensor 4b.
  • the second blind spot area 62 is a sensing range that is shaded by the vehicle 72 when the vehicle 72 exists in the sensing range of the sensor 4b. In order to obtain the second blind spot area 62 of the sensor 4b, it is necessary to estimate the outer shape of the vehicle 72. When the sensor 4b is of a type that emits radio waves or light rays, the outer shape of the vehicle 72 can be estimated using both ends of the reflection point 72a of the radio waves or light rays. As shown in FIG. 8, when the size of the vehicle width B of the vehicle 72 is not known, the blind spot calculation unit 11 assumes the vehicle width B of a general vehicle. Information used by the blind spot calculation unit 11, such as a general vehicle width B, is stored in the auxiliary storage device 30. Similarly, information used by the prediction unit 12 is also stored in the auxiliary storage device 30.
  • FIG. 9 shows the second blind spot area 62a.
  • FIG. 10 is a view of FIG. 9 as viewed from the left side in the traveling direction 82 of the mounted vehicle 71. As shown in FIGS. 9 and 10, when there is a slope 85 in the sensing range 83 a of the sensor 4 a, the sensor 4 a can sense only up to the slope of the slope 85. Therefore, the area behind the slope 85 becomes the second blind spot area 62a.
  • the blind spot calculation unit 11 sequentially acquires the sensing result 84 as sensor information as a detection result from the sensor 4 that is arranged on the mounted vehicle 71 that is a moving body and detects whether an object is present. .
  • the blind spot calculation unit 11 calculates a blind spot area indicating an area where an object cannot be detected by the sensor based on the sensing result 84 as sensor information.
  • the blind spot calculation unit 11 determines whether the obstacle previously sensed by the sensor 4a or 4b was not sensed this time. For this determination, the blind spot calculation unit 11 stores the identification number output by the sensor in advance and uses it. Specifically, it is as follows. The blind spot calculation unit 11 receives the sensing result 84 of each row in FIG. 7 from the sensor 4 via the input interface 40. Since the sensing result 84 includes an identification number, the blind spot calculation unit 11 stores the identification number in advance and uses the identification number.
  • the sensing result 84 received last time is the sensing result including the identification number 002 and the sensing result including the identification number 003, and the sensing result 84 received this time is only the sensing result including the identification number 002.
  • the obstacle with the identification number 003 was sensed last time and corresponds to the obstacle not sensed this time.
  • the blind spot calculation unit 11 determines whether the obstacle not received this time has advanced in the direction of the blind spot area in the sensing result 84 received last time. Specifically, it is as follows. In the above example, the obstacle not received this time is the obstacle with the identification number 003. The blind spot calculation unit 11 can determine whether the obstacle with the identification number 003 has advanced in the direction of the blind spot area by referring to the speed information of the sensing result 84 of the identification number 003 received last time. As described above, the blind spot calculation unit 11 detects an object that enters the blind spot area based on the sensing result 84 that is the sensor information.
  • step ST105 when the blind spot calculation unit 11 determines in step ST104 that the obstacle with the identification number 003 has advanced in the direction of the blind spot area (YES in step ST104), the blind spot calculation unit 11 selects the obstacle with the identification number 003 as an interpolation target. I do. If the obstacle with the identification number 003 is moving in the direction of the blind spot area, the reason why the sensing result 84 with the identification number 003 could not be received this time is that the obstacle with the identification number 003 has entered the blind spot area. Because it can be considered.
  • FIG. 11 is a diagram illustrating a case where the obstacle with the identification number 003 has entered the blind spot area. FIG. 11 adds a vehicle 73 to the state of FIG.
  • the vehicle 72 corresponds to the obstacle with the identification number 002
  • the vehicle 73 corresponds to the obstacle with the identification number 003.
  • the vehicle 73 has entered the second blind spot area 62. Since the vehicle 73 enters the second blind spot area 62 generated by the vehicle 72, the blind spot calculation unit 11 selects the vehicle 73 as an interpolation target in step ST105.
  • FIG. 12 is a flowchart showing the operation of the prediction unit 12. The operation algorithm of the prediction unit 12 will be described using a flowchart with reference to FIG.
  • step ST201 the prediction unit 12 determines whether there is an obstacle selected by the blind spot calculation unit 11 as an interpolation target.
  • Step ST202 If the selected obstacle is present, in step ST202, the prediction unit 12 determines whether the obstacle is behind or on the mounted vehicle 71. The prediction unit 12 predicts the path of the detected object in the blind spot area based on the sensing result 84 that is the sensor information. To make a prediction based on the sensing result 84, the prediction unit 12 determines whether the position of another vehicle that is the detected object is ahead or behind the on-board vehicle 71 using the sensing result 84, and from this determination result, This means predicting the course of the vehicle. Note that whether the vehicle is ahead or behind can be determined from the object included in the sensing result 84, that is, the position of another vehicle and the position of the mounted vehicle 71.
  • the position of the mounted vehicle 71 is held in the auxiliary storage device 30a by the vehicle management device 5.
  • the prediction unit 12 can determine whether it is forward or backward based on the sensing result 84 obtained from the sensor and the position of the mounted vehicle 71 obtained from the vehicle management device 5.
  • Step ST203 When the obstacle is behind the on-board vehicle 71, the prediction unit 12 interpolates the data based on the running locus, which is the running history of the on-board vehicle 71, in step ST203. Taking FIG. 11 as an example, the prediction unit 12 predicts the course of the vehicle 73 in the second blind spot area 62 using the traveling locus that is the traveling history of the mounted vehicle 71.
  • the running locus of the mounted vehicle 71 is collected and managed by the control unit 5a of the vehicle management device 5.
  • the traveling locus of the mounted vehicle 71 is stored in the auxiliary storage device 30a.
  • FIG. 13 is a diagram for explaining the course prediction of the vehicle 73 when the vehicle 73, which is an obstacle, is behind the mounted vehicle 71. As illustrated in FIG.
  • the prediction unit 12 shifts the traveling locus 71 a of the mounted vehicle 71 so far to the position of the vehicle 73 in the horizontal direction.
  • the position of the vehicle 73 is a position immediately before the vehicle 73 enters the second blind spot area 62.
  • the immediately preceding position is a position included in the previously received sensing result 84 when there is a sensing result 84 previously received and not received this time in step ST103.
  • the prediction unit 12 predicts the shifted traveling trajectory 71a as the course of the vehicle 73 in the second blind spot area 62.
  • the prediction unit 12 acquires the traveling locus 71a from the auxiliary storage device 30a.
  • the traveling trajectory 71a is shape determination information indicating information that can determine the shape of the moving course of the mounted vehicle 71, which is a moving body.
  • the traveling locus 71a is the shape of the traveling route of the mounted vehicle 71 itself.
  • the prediction unit 12 obtains, from the vehicle management device 5, shape determination information indicating information that can determine the shape of the moving course of the mounted vehicle 71, which is a moving body, and detects entry into a blind spot area using the shape determination information. The course of the selected object in the blind spot area is predicted.
  • Step ST204> When the obstacle is in front of the on-board vehicle 71, the prediction unit 12 predicts the course of the obstacle as follows. That is, if there is a sensing result 84 that was previously received and not received this time in step ST103, the position included in the previously received sensing result 84 is located ahead of the position of the mounted vehicle 71 at the time of receiving the sensing result 84. If you have.
  • FIG. 14 shows the course prediction of the obstacle when the obstacle is in front of the mounted vehicle 71. In FIG. 14, the obstacle corresponds to the vehicle 73.
  • the prediction unit 12 interpolates the data based on the steering wheel angle of the on-board vehicle 71.
  • the prediction unit 12 predicts the course of the vehicle 73 in the first blind spot area 61 of the vehicle 73 based on the steering wheel angle of the mounted vehicle 71.
  • the steering angle of the mounted vehicle 71 is collected by the control unit 5a of the vehicle management device 5 and stored in the auxiliary storage device 30a.
  • the prediction unit 12 acquires the steering wheel angle from the vehicle management device 5.
  • FIG. 15 shows a case where the steering wheel angle of the mounted vehicle 71 is zero degrees.
  • the steering wheel angle of the mounted vehicle 71 in the straight traveling state is set to zero degree, the rotation of the steering wheel to the left is plus, and the rotation of the steering wheel to the right is minus. As illustrated in FIG.
  • the prediction unit 12 obtains a predicted traveling course 71b of the mounted vehicle 71 from the steering wheel angle of the mounted vehicle 71 in the future.
  • the prediction unit 12 shifts the predicted traveling path 71b of the mounted vehicle 71 in the horizontal direction to a position immediately before the vehicle 73 enters the first blind spot area 61.
  • the predicted traveling path 71b of the shifted mounted vehicle 71 is the predicted traveling path in the first blind spot area 61 of the vehicle 73.
  • the prediction unit 12 interpolates the data assuming that the vehicle 73 travels on the predicted traveling path 71b of the shifted mounted vehicle 71.
  • the predicted traveling path 71b of the mounted vehicle 71 is a straight line.
  • FIG. 16 shows a case where the steering wheel angle of the mounted vehicle 71 has a positive value.
  • FIG. 16 shows a case where the mounted vehicle 71 is traveling on a road 81 having a left-turn curve.
  • the mounted vehicle 71 has the steering wheel turned in accordance with the left curve. Therefore, the predicted traveling path 71b of the mounted vehicle 71 is a path along this left curve, that is, along a constant turning radius.
  • the turning radius of the vehicle 73 at this time is expressed by the following formula 1 using the turning radius of the mounted vehicle 71 and the distance between the mounted vehicle 71 and the vehicle 73 in the left-right direction.
  • Turning radius of vehicle 73 turning radius of mounted vehicle 71 + horizontal distance between mounted vehicle 71 and vehicle 73 (Formula 1)
  • the prediction unit 12 calculates the turning radius of the mounted vehicle 71 from the steering wheel angle of the mounted vehicle 71. Further, the prediction unit 12 calculates the left-right direction distance between the mounted vehicle 71 and the vehicle 73 from the sensing result 84 of the vehicle 73.
  • the prediction unit 12 calculates a predicted traveling course 71b of the vehicle 73 from the turning radius of the vehicle 73. Since the information regarding the mounted vehicle 71 is held by the vehicle management device 5, the route prediction device 1 acquires the information regarding the mounted vehicle 71 from the vehicle management device 5.
  • the turning radius of the mounted vehicle 71 is generally represented by Expression 2 below.
  • the wheelbase is the distance between the center of the front wheel axle and the center of the rear wheel axle.
  • Turning radius of mounted vehicle 71 wheel base / sin ⁇ (Equation 2)
  • is the steering wheel angle of the mounted vehicle 71. Note that the steering wheel angle is the steering angle.
  • the prediction unit 12 acquires the steering wheel angle from the auxiliary storage device 30a.
  • the handle angle is shape determination information indicating information that can determine the shape of the moving course of the mounted vehicle 71 that is a moving body.
  • the prediction unit 12 calculates a predicted traveling path 71b, which is a moving path of the mounted vehicle 71, from the steering wheel angle. That is, the prediction unit 12 obtains the steering wheel angle from the vehicle management device 5 as shape determination information indicating information that can determine the shape of the moving path of the mounted vehicle 71, which is a moving object, and uses the shape determination information to generate a blind spot area. The path in the blind spot area of the object whose intrusion is detected is predicted.
  • the steering wheel angle is steering information on which the mounted vehicle 71 as a moving body is being steered.
  • the steering information may be the steering angle of the front wheels or the moving distance of the rack in the rack and pinion mechanism forming the steering wheel mechanism, in addition to the steering wheel angle of the mounted vehicle 71.
  • the speed information uses the information detected by the sensor itself, but in a situation where the accuracy of the sensor deteriorates, the speed information uses a value obtained by differentiating a change in the position of the obstacle instead of the one detected by the sensor itself.
  • a millimeter-wave radar uses the Doppler effect to detect the speed of an obstacle.
  • the speed can be obtained with high accuracy in the direction in which the obstacle approaches or moves away from the sensor, but the accuracy deteriorates when the obstacle moves while maintaining a certain distance from the sensor.
  • the data interpolation by the prediction unit 12 ends when the position of the obstacle as a result of the interpolation is out of the blind spot area.
  • the time during which the obstacle stays in the blind spot area also becomes long.
  • an interpolation time that is, a cutoff time for ending the course prediction processing of the obstacle may be provided.
  • the prediction unit 12 displays on the basis of the fact that the obstacle is staying in the blind spot area, a display device indicating that the obstacle is present in the blind spot area. 3 may be notified.
  • the interpolation result obtained by interpolating the path of the obstacle with the predicted traveling path of the obstacle obtained by the path prediction device 1 can be input to the movement prediction device 2. Since the interpolation result can be input to the movement prediction device 2, the movement prediction device 2 interpolates the sensing result of the obstacle even when the obstacle enters the blind spot, and continuously moves the obstacle. It is possible to make a prediction.
  • a vehicle is described as an example. However, when applied to a ship or a train traveling on a track, the same effect as when applied to a vehicle is obtained.
  • Embodiment 2 FIG.
  • the second embodiment will be described with reference to FIGS.
  • the course of another vehicle is predicted from the traveling locus or the steering angle of the mounted vehicle 71 in the course prediction when another vehicle is present in the blind spot area of the sensor disposed on the mounted vehicle 71.
  • map information is used for predicting a course when another vehicle exists in a blind spot area of a sensor arranged on the on-board vehicle 71.
  • FIG. 17 shows an in-vehicle system 8 according to the second embodiment. The case where the map storage device 6 is added to the hardware configuration as shown in FIG. 17 will be described.
  • the map storage device 6 stores information on lane shapes of roads as map information. Specifically, position information of a point representing the center of the lane is stored at regular intervals.
  • FIG. 18 illustrates an operation algorithm of the prediction unit 12 according to the second embodiment.
  • the operation algorithm of the blind spot calculation unit 11 is the same as that in FIG. 6 of the first embodiment.
  • the operation of the prediction unit 12 according to the second embodiment will be described below with reference to FIG.
  • the prediction unit 12 according to the second embodiment acquires map information including a blind spot area, and uses the map information to predict a course of the object detected to enter the blind spot area in the blind spot area.
  • Step ST301 The operation in step ST301 is the same as that in step ST201, and a description thereof will be omitted.
  • the lane in which the corresponding obstacle, which is another vehicle, is traveling is a lane determined from the position indicated by the sensing result 84 immediately before the sensing result 84 of the other vehicle is interrupted.
  • the prediction unit 12 predicts the course of the other vehicle in the blind spot area, assuming that the other vehicle continues to run on the lane in the acquired map information.
  • the map information may store information that one lane branches into two lanes. In addition, information of an intersection may be stored in the map information.
  • the prediction unit 12 needs to determine which course the other vehicle will travel and use the position information of the map information. In this case, the prediction unit 12 determines a course according to the following determination rules (1) and (2). (1) Other vehicles select the road with the widest road and travel. (2) When the widths of the plurality of roads are the same, the other vehicle selects the closest road to the mounted vehicle 71 and travels.
  • the prediction unit 12 uses the information of the sidewalk and the pedestrian crossing in the map information in addition to the lane information in the map information. Further, the prediction unit 12 adds the following (3) to the above-described (1) and (2) to the determination rule for determining the course of the human. (3) When there is a sidewalk and a pedestrian crossing, the human selects the pedestrian crossing and walks.
  • the position information of the point representing the center of the lane is stored at regular intervals.
  • a coefficient when the shape of the line segment representing the center of the lane is represented by a polynomial may be stored.
  • the information stored in the map storage device 6 not the center of the lane but the information of the lane marking constituting the lane may be stored.
  • the map information stored in the map storage device 6 is not limited to information that has already been created.
  • the lane may be detected by the sensor 4a provided in front of the mounted vehicle 71, and map information generated and recorded as needed may be used.
  • FIG. 19 illustrates a configuration in which the route prediction device 1 includes the map generation unit 13.
  • the map generator 13 generates map information based on the lane information detected by the sensor 4 a provided in front of the on-board vehicle 71, and stores the map information in the memory 20.
  • the map generator 13 stores the map information stored in the memory 20 in the auxiliary storage device 30.
  • the prediction unit 12 loads the map information generated by the map generation unit 13 from the auxiliary storage device 30 to the memory 20, and uses the loaded map information to move the obstacle detected in the blind spot area in the blind spot area. Predict.
  • the route prediction device 1 uses the map information stored in the map storage device 6 to predict the route of an obstacle in a blind spot area, and interpolates the route data of the obstacle.
  • the route data of the obstacle interpolated by the route prediction device 1 is input to the movement prediction device 2.
  • the movement prediction device 2 interpolates the sensing result of the obstacle, so that the movement prediction of the obstacle can be continuously performed.
  • an automobile is described as an example.
  • a similar effect is obtained when applied to a ship or a train running on a track.
  • a navigation map may be used as a map.
  • a diagram showing the shape of the track of the track may be used.
  • FIG. 20 is a diagram illustrating a configuration of a route prediction device 1 according to a modification of the first embodiment.
  • the electronic circuit 90 in FIG. 20 is a dedicated electronic circuit that realizes functions of the blind spot calculation unit 11, the prediction unit 12, the map generation unit 13, the memory 20, the auxiliary storage device 30, the input interface 40, and the output interface 50.
  • the electronic circuit 90 is, specifically, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA, an ASIC, or an FPGA.
  • GA is an abbreviation for Gate Array.
  • ASIC is an abbreviation for Application Specific Integrated Circuit.
  • FPGA is an abbreviation for Field-Programmable Gate Array.
  • the functions of the components of the course prediction device 1 may be realized by one electronic circuit, or may be realized by being distributed to a plurality of electronic circuits. As another modification, some functions of the components of the route prediction device 1 may be realized by an electronic circuit, and the remaining functions may be realized by software.
  • Each of the processor and the electronic circuit is also called a processing circuitry. That is, in the course prediction device 1, the functions of the blind spot calculation unit 11, the prediction unit 12, and the map generation unit 13 are realized by the processing circuitry. Alternatively, the functions of the blind spot calculation unit 11, the prediction unit 12, the map generation unit 13, the memory 20, the auxiliary storage device 30, the input interface 40, and the output interface 50 may be realized by the processing circuitry.
  • first and second embodiments have been described above, two or more of these embodiments may be implemented in combination. Alternatively, one of these embodiments may be partially implemented. Alternatively, of these embodiments, two or more embodiments may be partially combined. Note that the present invention is not limited to these embodiments, and various modifications can be made as necessary.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

進路予測装置(1)は死角計算部(11)および予測部(12)を備えている。死角計算部(11)は、移動体に配置されて物体が存在するかどうかを検出するセンサからセンシング結果を順次取得し、センサによって物体を検出することができない領域を示す死角領域をセンサ情報に基づいて計算する。また死角計算部(11)は、死角領域に進入する物体を、センサ情報に基づいて検出する。予測部(12)は、検出された物体の死角領域における進路を、センシング結果に基づいて予測する。

Description

進路予測装置、進路予測プログラムおよび進路予測方法
 この発明は、死角領域における物体の進路を予測する、進路予測装置、進路予測プログラムおよび進路予測方法に関する。
 安全意識の高まりと利便性の追求とから、緊急自動ブレーキ機能、車間距離を一定に保つ機能および自動的に車線を変更する機能といった、運転支援機能が搭載された自動車が増加している。運転支援機能を実現するために、光学カメラ、ミリ波レーダーおよびLiDAR(Light Detection And Ranging)といったセンサが用いられる場合がある。このような運転支援機能を実現するためのセンサは、物体を透視することができない。このため、複数の物体が奥行き方向に並んでいる場合、その一番手前にある物体の陰となる領域に存在する物体は検出できない。よって、センサには最も近い物体により死角領域が生じる。
 物体の未来の位置を予測した移動予測結果を用いて自身の行動を決定する運転支援機能では、死角領域に物体が進入すると、物体の移動予測を継続することができなくなる。このため、上記の運転支援機能は移動予測自体を中止し、実際には物体が存在するにもかかわらず物体が無いものとして誤った動作をする可能性がある。
 特許文献1には、死角領域に物体が移動した場合でも、その移動体が死角に入る時点での速度を用いて、死角領域内の物体の位置を推定する方法が記載されている。
 しかし、特許文献1に記載された技術では、死角領域に入った移動体の位置の推定を線形的に行っているため、複雑な道路形状をもつ環境では推定された位置の精度が低くなってしまう。
 また、特許文献1ではセンサの死角領域をセンサの仕様から静的に求めているに過ぎないため、複数の物体が奥行き方向に並んでいる場合、その一番手前にある物体の陰となる領域に存在する物体の検出は考慮されていない。
特開2015-225615号公報
 この発明は、センサのセンシング範囲に生じる死角領域を計算して死角領域を動的に取得し、動的に得た死角領域に進入する物体の死角領域における進路を予測する進路予測装置の提供を目的とする。
 この発明の進路予測装置は、
 移動体に配置されて物体が存在するかどうかを検出するセンサから検出結果であるセンサ情報を順次取得し、前記センサによって前記物体を検出することができない領域を示す死角領域を前記センサ情報に基づいて計算し、前記死角領域に進入する前記物体を、前記センサ情報に基づいて検出する死角計算部と、
 検出された前記物体の前記死角領域における進路を、前記センサ情報に基づいて予測する予測部と
を有することを特徴とする。
 本発明の進路予測装置は、死角計算部および予測部を備えている。よって本発明によれば、センサのセンシング範囲に生じる死角領域を計算して死角領域を動的に取得し、動的に得た死角領域に進入する物体の死角領域における進路を予測する進路予測装置を提供できる。
実施の形態1の図で、車載システム8を示す図。 実施の形態1の図で、進路予測装置1のハードウェア構成を示す図。 実施の形態1の図で、車両管理装置5のハードウェア構成を示す図。 実施の形態1の図で、進路予測装置1による進路の補間を示す図。 実施の形態1の図で、道路81の状況を示す図。 実施の形態1の図で、死角計算部11の動作を示すフローチャート。 実施の形態1の図で、センシング結果84を示す図。 実施の形態1の図で、第1の死角領域61および第2の死角領域62を示す図。 実施の形態1の図で、第2の死角領域62aを示す図。 実施の形態1の図で、図9を搭載車両71の進行方向82の左側から見た図。 実施の形態1の図で、識別番号003の障害物が死角領域に進入した場合を示す図。 実施の形態1の図で、予測部12の動作を示すフローチャート。 実施の形態1の図で、車両73が搭載車両71後方にいた場合の、車両73の進路予測を説明する図。 実施の形態1の図で、車両73が搭載車両71の前方にいた場合の障害物の進路予測を示す図。 実施の形態1の図で、搭載車両71のハンドル角がゼロ度の場合を示す図。 実施の形態1の図で、搭載車両71のハンドル角がプラスの値を持つ場合を示す図。 実施の形態2の図で、車載システム8を示す図。 実施の形態2の図で、予測部12の動作アルゴリズムを示すフローチャート。 実施の形態2の図で、進路予測装置1が地図生成部13を有する構成を示す図。 実施の形態1および実施の形態2の進路予測装置1の変形例を示す図。
 以下、本発明の実施の形態について、図を用いて説明する。なお、各図中、同一または相当する部分には、同一符号を付している。実施の形態の説明において、同一または相当する部分については、説明を適宜省略または簡略化する。
 実施の形態1.
***構成の説明***
 図1から図16を参照して、実施の形態1の進路予測装置1を説明する。
 図1は、車載システム8を示す。車載システム8が搭載される車両を搭載車両71と表記する。
 車載システム8は、進路予測装置1、移動予測装置2、表示装置3、複数のセンサ4、および車両管理装置5を備える。これらは車載ネットワーク7で接続される。
(1)進路予測装置1は、死角領域に入ってセンシング結果が得られない障害物の情報を補間する。
(2)移動予測装置2は、センシング結果および進路予測装置1による補間により、障害物の移動を予測する。障害物は例えば他の車両である。他の車両を車両72、車両73と表記する。
(3)表示装置3は、ディスプレイなどによって搭載車両71の搭乗者に情報を伝達する。
(4)センサ4は、ミリ波レーダー、ライダーおよびカメラといった、搭載車両71の車外の物体を検出するためのセンサである。以下ではセンサ4をセンサ4a,センサ4bのように区別する場合がある。区別の必要がないときはセンサ4と表記する。
(5)車両管理装置5は、搭載車両71のハンドル角、アクセル量、速度、位置のような搭載車両71の車両情報を収集し、管理する。
(6)車載ネットワーク7は、CAN(Controller Area Network)または車載Ethernet(登録商標)のようなネットワークである。
 図2は、進路予測装置1のハードウェア構成を示す。進路予測装置1はコンピュータである。進路予測装置1は、プロセッサ10を備えるとともに、メモリ20、補助記憶装置30、入力インタフェース40および出力インタフェース50といった他のハードウェアを備える。プロセッサ10は、信号線60を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 入力インタフェース40は、センサ4からの情報を取得する。プロセッサ10は演算処理を行い、障害物の進路の補間を行う。補間された障害物の進路は、出力インタフェース50から、移動予測装置2および表示装置3に送信される。
 進路予測装置1は、機能要素として死角計算部11と予測部12を備える。死角計算部11と予測部12との機能は、ソフトウェアである進路予測プログラムにより実現される。
 プロセッサ10は、進路予測プログラムを実行する装置である。進路予測プログラムは、死角計算部11と予測部12との機能を実現するプログラムである。プロセッサ10は、死角計算部11と予測部12との処理を行うIC(Integrated Circuit)である。プロセッサ10の具体例は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
 メモリ20は、データを一時的に記憶する記憶装置である。メモリ20の具体例は、SRAM(STatic Random Access Memory)、DRAM(Dynamic Random Access Memory)である。メモリ20は、プロセッサ10の演算結果を保持する。
 補助記憶装置30は、データを保管する記憶装置である。補助記憶装置30の具体例は、HDD(Hard Disk Drive)である。また、補助記憶装置30は、SD(登録商標)(Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
 入力インタフェース40は、センサ4および車両管理装置5のような装置から、情報を取得する。出力インタフェース50は、移動予測装置2および表示装置3のような装置へ情報を出力する。
 進路予測プログラムは、メモリ20からプロセッサ10に読み込まれ、プロセッサ10によって実行される。メモリ20には、進路予測プログラムだけでなく、OS(Operating SySTem)も記憶されている。プロセッサ10は、OSを実行しながら、進路予測プログラムを実行する。進路予測プログラムおよびOSは、補助記憶装置30に記憶されていてもよい。補助記憶装置30に記憶されている進路予測プログラムおよびOSは、メモリ20にロードされ、プロセッサ10によって実行される。なお、進路予測プログラムの一部または全部がOSに組み込まれていてもよい。
 進路予測装置1は、プロセッサ10を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、進路予測プログラムの実行を分担する。それぞれのプロセッサは、プロセッサ10と同じように、進路予測プログラムを実行する装置である。
 進路予測プログラムにより利用、処理または出力されるデータ、情報、信号値および変数値は、メモリ20、補助記憶装置30、または、プロセッサ10内のレジスタあるいはキャッシュメモリに記憶される。
 進路予測プログラムは、死角計算部11と予測部12の各部の「部」を「処理」、「手順」あるいは「工程」に読み替えた各処理、各手順あるいは各工程をコンピュータに実行させるプログラムである。また、進路予測方法は、コンピュータである進路予測装置1が進路予測プログラムを実行することにより行われる方法である。
 進路予測プログラムは、コンピュータ読取可能な記録媒体に格納されて提供されてもよいし、プログラムプロダクトとして提供されてもよい。
 図3は、車両管理装置5のハードウェア構成を示す。車両管理装置5は進路予測装置1と同様のコンピュータである。車両管理装置5は、プロセッサ10aを備えるとともに、メモリ20a、補助記憶装置30a、入力インタフェース40aおよび出力インタフェース50aといった他のハードウェアを備える。プロセッサ10aは、信号線60aを介して他のハードウェアと接続され、これら他のハードウェアを制御する。車両管理装置5は制御部5aによって制御される。制御部5aの機能はプログラムによって実現される。このプログラムは補助記憶装置30aに格納されている。プロセッサ10aはこのプログラムをメモリ20aにロードして実行する。
***動作の説明***
図4から図16を参照して進路予測装置1の動作を説明する。進路予測装置1の動作は、進路予測方法に相当する。また、進路予測装置1の動作は、進路予測プログラムの処理に相当する。
 図4は、進路予測装置1による進路の補間を示している。進路予測装置1は、車両のような障害物66が死角領域65を通過する際に、通過前進路67と通過後進路68との間の死角領域65の障害物66の進路を予測進路64として予測し、通過前進路67と通過後進路68との間の進路を補間する。
 図5は、実施の形態1で想定する道路81および道路81の周辺の状況である。搭載車両71が進行方向82へ走行している。搭載車両71では、センサ4aがフロントの中央に取り付けられており、センサ4bがリヤの右側に取り付けられている。センサ4aのセンシング範囲83aおよびセンサ4bのセンシング範囲83bは、点線で表した扇形の内部である。なお、説明の簡単化のためにセンサは2つとしているが、センサの数は2つにかぎらない。例えばセンサ4bと対称に搭載車両71のリヤの左側にセンサを取り付けても良い。
 図6は、死角計算部11の動作を示すフローチャートである。図6を用いて、死角計算部11の動作アルゴリズムをフローチャートで説明する。図6のフローチャートは、図5の道路81の状態に基づき説明する。
<ステップST101>
 ステップST101では、死角計算部11は、センサ4a,4bが取得した障害物のセンシング結果を受信する。
 図7は、センシング結果84を示す。図7に示すように、センシング結果84は障害物の位置と、同一のものに継続的にセンサによって付与される識別番号を基本とする。図7の各行の情報がセンシング結果84としてセンサから送信される。センシング結果84は、センサによっては障害物の速度情報も含まれる。図7は3つのセンシング結果を示している。
<ステップST102>
 ステップST102では、センサの死角領域を計算する。以下のように死角領域には2種類あり、第1の死角領域61、第2の死角領域62と呼ぶ。第1の死角領域61は、各センサのセンシング範囲および搭載車両71に取り付けられた各センサの位置とに起因する。第2の死角領域62は各センサのセンシング領域内に存在する障害物の陰になる領域に生じる。第1の死角領域61については、死角計算部11は、センサ4の仕様と搭載車両71における設置位置とから計算できる。第2の死角領域62については、死角計算部11は、センシング結果84を用いて計算できる。
 図8は、第1の死角領域61および第2の死角領域62を示す。第1の死角領域61は、センサ4aのセンシング範囲にも、センサ4bのセンシング範囲にも含まれない領域である。
 また、第2の死角領域62は、センサ4bのセンシング範囲に車両72が存在している場合に、車両72の陰になるセンシング範囲である。センサ4bの第2の死角領域62を得るためには、車両72の外形を推定する必要がある。センサ4bが電波または光線を照射するタイプのセンサである場合は、電波または光線の反射点72aの両端を用いて車両72の外形を推定できる。図8のように、車両72の車幅Bのサイズが分からない場合は、死角計算部11は一般的な車両の車幅Bとして仮定する。一般的な車幅Bのような死角計算部11の使用する情報は、補助記憶装置30に格納されている。同様に、予測部12の使用する情報も補助記憶装置30に格納されている。
 図9は、第2の死角領域62aを示す。
 図10は、図9を搭載車両71の進行方向82の左側から見た図である。図9、図10に示すように、センサ4aのセンシング範囲83aに坂道85がある場合、センサ4aのセンシングできる範囲は坂道85の斜面までとなってしまう。このため坂道85の奥の領域は第2の死角領域62aとなる。
 以上のように、死角計算部11は、移動体である搭載車両71に配置されて物体が存在するかどうかを検出するセンサ4から、検出結果であるセンサ情報として、センシング結果84を順次取得する。死角計算部11は、センサによって物体を検出することができない領域を示す死角領域をセンサ情報であるセンシング結果84に基づいて計算する。
<ステップST103>
 ステップST103では、死角計算部11は、センサ4aまたはセンサ4bによって前回センシングされた障害物が、今回はセンシングされなかったか否かを判定する。この判定のために、死角計算部11は、センサが出力する識別番号を事前に記憶しておき、それを使用する。具体的には以下のようである。死角計算部11は、入力インタフェース40を介して、図7の各行のセンシング結果84をセンサ4から受信する。センシング結果84には識別番号が含まれているので、死角計算部11はこの識別番号を事前に記憶しておき、この識別番号を使用する。前回受信したセンシング結果84が識別番号002を含むセンシング結果と、識別番号003を含むセンシング結果であり、今回受信したセンシング結果84が識別番号002を含むセンシング結果のみであるとする。この場合、識別番号003の障害物は前回センシングされ、今回はセンシングされなかった障害物に該当する。
<ステップST104>
 ステップST104では、死角計算部11は今回受信しなかった障害物が、前回受信したセンシング結果84において、死角領域の方向に進んでいたか否かを判定する。具体的には以下のようである。上記の例では、今回受信しなかった障害物は識別番号003の障害物である。死角計算部11は、前回受信した識別番号003のセンシング結果84の速度情報を参照することで、識別番号003の障害物が死角領域の方向に進んでいたかを判定できる。
 このように、死角計算部11は、死角領域に進入する物体を、センサ情報であるセンシング結果84に基づいて検出する。
<ステップST105>
 ステップST105では、死角計算部11は、ステップST104で識別番号003の障害物が死角領域の方向に進んでいたと判定した場合(ステップST104でYES)、識別番号003の障害物を補間対象として選択する。識別番号003の障害物が死角領域の方向に進んでいた場合は、識別番号003のセンシング結果84を今回受信できなかった理由は、識別番号003の障害物が死角領域に進入したことが原因とみなせるからである。
 図11は、識別番号003の障害物が死角領域に進入した場合を示す図である。図11は、図8の状態に車両73を追加している。図11では車両72が識別番号002の障害物に該当し、車両73が識別番号003の障害物に該当する。車両73は、第2の死角領域62に進入している。車両73は車両72によって生じる第2の死角領域62に進入するため、ステップST105において死角計算部11は車両73を補間対象に選択する。
 図12は、予測部12の動作を示すフローチャートである。図12を用いて、予測部12の動作アルゴリズムをフローチャートで説明する。
<ステップST201>
 ステップST201では、予測部12は、死角計算部11によって補間対象とし選択された障害物があるかどうかを判定する。
<ステップST202>
 選択された障害物が存在する場合、ステップST202において、予測部12はその障害物が搭載車両71後方にいたか前方にいたかを判定する。
 予測部12は、検出された物体の死角領域における進路を、センサ情報であるセンシング結果84に基づいて予測する。センシング結果84に基づいて予測するとは、予測部12は、検出された物体である他の車両の位置が搭載車両71の前方か後方かをセンシング結果84を用い決定し、この決定結果から他の車両の進路を予測することを意味する。
 なお、前方か後方かは、センシング結果84に含まれる物体、つまり他の車両の位置と、搭載車両71の位置とから判定できる。搭載車両71の位置は車両管理装置5が補助記憶装置30aに保有している。予測部12はセンサから取得するセンシング結果84と車両管理装置5から取得する搭載車両71の位置とから、前方か後方かを判定できる。
<ステップST203>
 障害物が搭載車両71後方にいた場合、ステップST203で、予測部12は搭載車両71の走行履歴である走行軌跡を基にそのデータを補間する。図11を例にとれば、予測部12は搭載車両71の走行履歴である走行軌跡を用いて、第2の死角領域62における車両73の進路を予測する。搭載車両71の走行軌跡は車両管理装置5の制御部5aが収集し、管理している。
搭載車両71の走行軌跡は補助記憶装置30aに記憶されている。
 図13は、障害物である車両73が搭載車両71後方にいた場合の、車両73の進路予測を説明する図である。図13に示すように、予測部12は、搭載車両71のこれまでの走行軌跡71aを車両73の位置まで水平方向にシフトさせる。車両73の位置とは、車両73が第2の死角領域62に進入する直前の位置である。直前の位置は、ステップST103において前回受信して今回受信しなかったセンシング結果84が有る場合に、前回受信したセンシング結果84に含まれる位置である。予測部12は、シフトさせた走行軌跡71aを車両73の第2の死角領域62における進路と予測する。
 予測部12は、補助記憶装置30aから走行軌跡71aを取得する。走行軌跡71aは、移動体である搭載車両71の移動進路の形状を決定可能な情報を示す形状決定情報である。
 この場合、走行軌跡71aは搭載車両71の移動進路の形状そのものである。予測部12は、移動体である搭載車両71の移動進路の形状を決定可能な情報を示す形状決定情報を車両管理装置5から取得し、形状決定情報を用いて、死角領域への進入が検出された物体の死角領域における進路を予測する。
<ステップST204>
 障害物が搭載車両71の前方にいた場合、予測部12は障害物の進路を以下のように予測する。
つまり、ステップST103において前回受信して今回受信しなかったセンシング結果84が有る場合に、前回受信したセンシング結果84に含まれる位置がセンシング結果84の受信時点での搭載車両71の位置よりも前方にいた場合である。
 図14は、障害物が搭載車両71の前方にいた場合の障害物の進路予測を示す。図14において障害物は車両73が該当する。図14に示すように障害物が搭載車両71の前方にいた場合、予測部12は、搭載車両71のハンドル角を基にデータを補間する。つまり、予測部12は、搭載車両71のハンドル角を基に、車両73の第1の死角領域61のおける車両73の進路を予測する。搭載車両71のハンドル角は車両管理装置5の制御部5aが収集し、補助記憶装置30aに格納している。予測部12は車両管理装置5からハンドル角を取得する。
 図15は、搭載車両71のハンドル角がゼロ度の場合を示している。搭載車両71の直進状態のハンドル角をゼロ度とし、左方向へのハンドルの回転をプラス、右方向へのハンドルの回転をマイナスとする。図15に示すように、予測部12は、搭載車両71のハンドル角から今後の搭載車両71の予測走行進路71bを求める。予測部12は、搭載車両71の予測走行進路71bを車両73の第1の死角領域61への進入直前の位置まで水平方向にシフトさせる。シフトされた搭載車両71の予測走行進路71bが、車両73の第1の死角領域61における予測走行進路である。予測部12は、車両73がそのシフトされた搭載車両71の予測走行進路71bを走行するものとしてデータを補間する。図15では直線路なので、搭載車両71のハンドル角は中央のままのゼロ度で変わらないため、搭載車両71の予測走行進路71bは直線である。
 図16は、搭載車両71のハンドル角がプラスの値を持つ場合を示す。図16は、搭載車両71が左曲りのカーブ路を有する道路81を走行している場合を示す。図16の場合、搭載車両71は左カーブに合わせてハンドルが切られる。よって、搭載車両71の予測走行進路71bは、この左カーブに沿うように、すなわち一定の回転半径に沿った進路となっている。このときの車両73の回転半径は、搭載車両71の回転半径と、搭載車両71と車両73との左右方向距離を用いて以下の式1とする。
 車両73の回転半径=搭載車両71の回転半径+搭載車両71と車両73との左右方向距離 (式1)
予測部12は、搭載車両71のハンドル角から搭載車両71の回転半径を計算する。また、予測部12は、搭載車両71と車両73との左右方向距離を、車両73のセンシング結果84から計算する。予測部12は、車両73の回転半径から車両73の予測走行進路71bを計算する。
搭載車両71に関する情報は車両管理装置5が保有しているので進路予測装置1は搭載車両71に関する情報は車両管理装置5から取得する。
 なお、搭載車両71の回転半径は、一般的に以下の式2で表される。ホイールベースとは、前輪の車軸中心と後輪の車軸中心の距離である。
 搭載車両71の回転半径=ホイールベース/sinθ (式2)
θは搭載車両71のハンドル角である。なおハンドル角は操舵角である。
 予測部12は、補助記憶装置30aからハンドル角を取得する。ハンドル角は、移動体である搭載車両71の移動進路の形状を決定可能な情報を示す形状決定情報である。
 この場合、予測部12は、ハンドル角から搭載車両71の移動進路である予測走行進路71bを計算する。
 つまり、予測部12は、移動体である搭載車両71の移動進路の形状を決定可能な情報を示す形状決定情報としてハンドル角を車両管理装置5から取得し、形状決定情報を用いて、死角領域への進入が検出された物体の死角領域における進路を予測する。
 なお、ハンドル角は、移動体である搭載車両71が操縦されている操縦情報である。
操縦情報としては搭載車両71のハンドル角の他に、前輪の舵角またはハンドル機構を形成するラックピニオン機構におけるラックの移動距離でもよい。
 データを補間する際に速度を使用する場合は、障害物が死角領域に入る直前の速度および加速度を用いる。速度情報はセンサ自身が検出した情報を用いるが、センサの精度が悪化する状況では、速度情報はセンサ自身が検出したものではなく障害物の位置の変化を微分した値を用いる。具体的には、例えば、ミリ波レーダーは、障害物の速度の検出にドップラ効果を用いる。この方式は、障害物がセンサに近づく、あるいは遠ざかる方向には精度良く速度が得られるが、センサと一定の距離を保ったまま移動するような場合には精度が悪化する。
 予測部12によるデータの補間は、補間した結果である障害物の位置が死角領域の外に出た場合に終了する。しかし、搭載車両71と障害物である他車との速度差が極めて近い場合、障害物が死角領域内に滞留する時間も長くなってしまう。このため、このような場合は補間、つまり障害物の進路予測処理を終了する打ち切り時間を設けても良い。あるいは、逆に、詳細な位置までは分からないが、予測部12は、障害物が死角領域内に滞留していることを基に、死角領域内に障害物が存在していることを表示装置3に報知しても良い。
***実施の形態1の効果***
 以上、実施の形態1では、進路予測装置1によって得られた障害物の予測走行進路で障害物の進路を補間した補間結果を移動予測装置2に入力することができる。補間結果を移動予測装置2に入力することができるため、移動予測装置2は障害物が死角に入った場合でも障害物のセンシング結果が補間されることになり、継続してその障害物の移動予測を行うことが可能となる。また、実施の形態1では車両を例にして記載したが、船舶または軌道を走行する列車に適用した場合も車両に適用した場合と同様の効果を有する。
実施の形態2.
 図17から図19を参照して実施の形態2を説明する。実施の形態1では、他の車両が搭載車両71に配置されたセンサの死角領域内に存在する際の進路予測に、搭載車両71の走行軌跡または操舵角から、他の車両の進路を予測した。実施の形態2では、他の車両が搭載車両71に配置されたセンサの死角領域内に存在する際の進路予測に、地図情報を使用する。
 図17は、実施の形態2の車載システム8を示す。図17に示すように、地図記憶装置6をハードウェア構成に追加した場合について説明する。
 地図記憶装置6には、地図情報として道路の車線形状についての情報が格納されている。具体的には、車線の中心を表す点の位置情報が一定間隔で格納されている。
 図18は、実施の形態2の予測部12の動作アルゴリズムを示す。なお死角計算部11の動作アルゴリズムは実施の形態1の図6と同じである。以下に、実施の形態2の予測部12の動作を図18を参照して説明する。
 実施の形態2の予測部12は、死角領域を含む地図情報を取得し、地図情報を用いて、死角領域への進入が検出された物体の死角領域における進路を予測する。
<ステップST301>
 ステップST301の動作は、ステップST201と同じであるので説明は省略する。
<ステップST302>
 該当する障害物が存在する場合、予測部12は、ステップST302において、他車である該当する障害物が走行していた車線の地図情報を地図記憶装置6から取得する。他車である該当する障害物が走行していた車線とは、他車のセンシング結果84が途絶えた直前のセンシング結果84の示す位置から決定される車線である。予測部12は、取得した地図情報における車線上を他車が継続して走行するとみなして、死角領域での他車の進路を予測する。
 地図情報には、1つの車線が2つの車線に分岐する情報が格納されていることがある。また地図情報には、交差点の情報が格納されていることもある。このような場合、予測部12は、他車がどの進路を走行するか決めて、地図情報の位置情報を使用する必要がある。この場合、予測部12は、以下の(1)(2)の判断ルールに従い進路を決定する。
(1)他車は道路の幅が最も広い道路を選択して走行する。
(2)複数の道路の幅が同一である場合、他車は搭載車両71に、最も近い道路を選択して走行する。
 なお、障害物が自動車ではなく、人間の場合も同様の進路予測を行うことができる。人間の場合、予測部12は、地図情報における車線情報に加えて、地図情報における歩道および横断歩道の情報を用いる。さらに、予測部12は、人間の進路を決定する判断ルールには上記(1)(2)に、以下の(3)を追加する。
(3)人間は歩道と横断歩道とがある場合、横断歩道を選択して歩行する。
 なお、地図記憶装置6に格納されている情報は、車線の中心を表す点の位置情報が一定間隔で格納されているとした。しかし、車線の中心を表す点の位置情報が一定間隔で格納されていることの他に、車線の中心を表す線分の形状を多項式で表現した際の係数が、格納されていても良い。また、地図記憶装置6に格納されている情報としては、車線の中心ではなく、車線を構成する区画線の情報が、格納されても良い。
 また、地図記憶装置6に記憶される地図情報は、すでに作成されている情報に限らない。
例えば、搭載車両71の前方に備えられたセンサ4aによって車線を検出し、随時生成、記録された地図情報でも良い。
 図19は、進路予測装置1が地図生成部13を有する構成である。地図生成部13は、搭載車両71の前方に備えられたセンサ4aによって検出された車線の情報をもとに地図情報を生成し、地図情報をメモリ20に格納する。地図生成部13は、メモリ20に格納された地図情報を補助記憶装置30に格納する。予測部12は、地図生成部13の生成した地図情報を補助記憶装置30からメモリ20へロードし、ロードした地図情報を用いて、死角領域への進入が検出された障害物の死角領域における進路を予測する。
***実施の形態2の効果***
 実施の形態2では、地図記憶装置6に格納された地図情報を用いて、進路予測装置1が死角領域における障害物の進路予測を行い、障害物の進路データを補間する。進路予測装置1によって補間された障害物の進路データが移動予測装置2に入力される。これにより、移動予測装置2は障害物が死角に入った場合でも、障害物のセンシング結果が補間されるため、継続してその障害物の移動予測を行うことが可能となる。また、実施の形態2では自動車を例にして記載したが、実施の形態1と同様に、船舶または軌道を走行する列車に適用した場合も同様の効果を有する。船舶の場合は、地図として航路図を使用しても良い。また、列車の場合は線路の軌道の形状を表した図を使用しても良い。
 <変形例>
 実施の形態1および実施の形態2では、進路予測装置1の機能がソフトウェアで実現されるが、変形例として、進路予測装置1の機能がハードウェアで実現されてもよい。
 図20は、実施の形態1の変形例に係る進路予測装置1の構成を示す図である。
 図20の電子回路90は、死角計算部11、予測部12,地図生成部13、メモリ20、補助記憶装置30、入力インタフェース40および出力インタフェース50との機能を実現する専用の電子回路である。電子回路90は、具体的には、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、または、FPGAである。GAは、Gate Arrayの略語である。
 ASICは、Application Specific Integrated Circuitの略語である。FPGAは、Field-Programmable Gate Arrayの略語である。進路予測装置1の構成要素の機能は、1つの電子回路で実現されてもよいし、複数の電子回路に分散して実現されてもよい。別の変形例として、進路予測装置1の構成要素の一部の機能が電子回路で実現され、残りの機能がソフトウェアで実現されてもよい。
 プロセッサと電子回路の各々は、プロセッシングサーキットリとも呼ばれる。つまり、進路予測装置1において、死角計算部11、予測部12、地図生成部13の機能がプロセッシングサーキットリにより実現される。あるいは、死角計算部11、予測部12、地図生成部13、メモリ20、補助記憶装置30、入力インタフェース40および出力インタフェース50の機能がプロセッシングサーキットリにより実現されてもよい。
 以上、実施の形態1および実施の形態2について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
 1 進路予測装置、2 移動予測装置、3 表示装置、4,4a,4b センサ、5 車両管理装置、5a 制御部、6 地図記憶装置、7 車載ネットワーク、8 車載システム、10,10a プロセッサ、11 死角計算部、12 予測部、13 地図生成部、20,20a メモリ、30,30a 補助記憶装置、40,40a 入力インタフェース、50,50a 出力インタフェース、60,60a 信号線、61 第1の死角領域、62 第2の死角領域、64 予測進路、65 死角領域、66 障害物、
67 通過前進路、68 通過後進路、70 走行軌跡、71 搭載車両、71a 走行軌跡、71b 予測走行進路、72,73 車両、72a 反射点、81 道路、82 進行方向、83a,83b センシング範囲、84 センシング結果、85 坂道、86 カーブ路、90 電子回路。

Claims (9)

  1.  移動体に配置されて物体が存在するかどうかを検出するセンサから検出結果であるセンサ情報を順次取得し、前記センサによって前記物体を検出することができない領域を示す死角領域を前記センサ情報に基づいて計算し、前記死角領域に進入する前記物体を、前記センサ情報に基づいて検出する死角計算部と、
     検出された前記物体の前記死角領域における進路を、前記センサ情報に基づいて予測する予測部と
    を有する進路予測装置。
  2.  前記予測部は、
     前記移動体の移動進路の形状を決定可能な情報を示す形状決定情報を取得し、前記形状決定情報を用いて、検出された前記物体の前記死角領域における進路を予測する請求項1に記載の進路予測装置。
  3.  前記予測部は、
     前記形状決定情報として、前記移動体の走行軌跡を取得する請求項2に記載の進路予測装置。
  4.  前記予測部は、
     前記形状決定情報として、前記移動体が操縦されている操縦情報を取得する請求項2に記載の進路予測装置。
  5.  前記予測部は、
     前記死角領域を含む地図情報を取得し、前記地図情報を用いて、検出された前記物体の前記死角領域における進路を予測する請求項1に記載の進路予測装置。
  6.  前記進路予測装置は、さらに、
     前記地図情報を生成する地図生成部を備え、
     前記予測部は、
     前記地図生成部によって生成された前記地図情報を取得する請求項5に記載の進路予測装置。
  7.  前記移動体は、
     車両と船舶と列車とのいずれかである請求項1から請求項6のいずれか一項に記載の進路予測装置。
  8.  コンピュータに、
     移動体に配置されて物体が存在するかどうかを検出するセンサから検出結果であるセンサ情報を順次取得し、前記センサによって前記物体を検出することができない領域を示す死角領域を前記センサ情報に基づいて計算し、前記死角領域に進入する前記物体を、前記センサ情報に基づいて検出する処理と、
     検出された前記物体の前記死角領域における進路を、前記センサ情報に基づいて予測する処理と
    を実行させる進路予測プログラム。
  9.  コンピュータが、
     移動体に配置されて物体が存在するかどうかを検出するセンサから検出結果であるセンサ情報を順次取得し、前記センサによって前記物体を検出することができない領域を示す死角領域を前記センサ情報に基づいて計算し、前記死角領域に進入する前記物体を、前記センサ情報に基づいて検出し、
     検出された前記物体の前記死角領域における進路を、前記センサ情報に基づいて予測する進路予測方法。
PCT/JP2018/030977 2018-08-22 2018-08-22 進路予測装置、進路予測プログラムおよび進路予測方法 WO2020039517A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2018/030977 WO2020039517A1 (ja) 2018-08-22 2018-08-22 進路予測装置、進路予測プログラムおよび進路予測方法
US17/263,230 US20210197811A1 (en) 2018-08-22 2018-08-22 Course prediction device, computer readable medium, and course prediction method
DE112018007920.1T DE112018007920T5 (de) 2018-08-22 2018-08-22 Kursvorhersagevorrichtung, Kursvorhersageprogramm und Kursvorhersageverfahren
JP2020537935A JP6968288B2 (ja) 2018-08-22 2018-08-22 進路予測装置、進路予測プログラムおよび進路予測方法
CN201880096407.5A CN112534485B (zh) 2018-08-22 2018-08-22 前进路线预测装置、计算机可读取记录介质及前进路线预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/030977 WO2020039517A1 (ja) 2018-08-22 2018-08-22 進路予測装置、進路予測プログラムおよび進路予測方法

Publications (1)

Publication Number Publication Date
WO2020039517A1 true WO2020039517A1 (ja) 2020-02-27

Family

ID=69591906

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/030977 WO2020039517A1 (ja) 2018-08-22 2018-08-22 進路予測装置、進路予測プログラムおよび進路予測方法

Country Status (5)

Country Link
US (1) US20210197811A1 (ja)
JP (1) JP6968288B2 (ja)
CN (1) CN112534485B (ja)
DE (1) DE112018007920T5 (ja)
WO (1) WO2020039517A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021193019A (ja) * 2020-06-08 2021-12-23 ドクター エンジニール ハー ツェー エフ ポルシェ アクチエンゲゼルシャフトDr. Ing. h.c. F. Porsche Aktiengesellschaft 自動車の運転挙動を適応させるための方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220086781A (ko) * 2020-12-16 2022-06-24 현대모비스 주식회사 차량의 타겟 감지방법 및 시스템
CN114348023A (zh) * 2022-01-25 2022-04-15 北京三快在线科技有限公司 一种基于盲区的无人驾驶设备控制方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227811A (ja) * 2005-02-16 2006-08-31 Denso Corp 運転支援装置
JP2010079565A (ja) * 2008-09-25 2010-04-08 Toyota Motor Corp 運転支援装置
JP2015225615A (ja) * 2014-05-29 2015-12-14 トヨタ自動車株式会社 運転支援装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6859148B2 (en) * 2002-10-30 2005-02-22 Ford Global Technologies, Llc Blind spot warning system for an automotive vehicle
JP4957747B2 (ja) * 2009-05-18 2012-06-20 トヨタ自動車株式会社 車両環境推定装置
JP2012053533A (ja) * 2010-08-31 2012-03-15 Daihatsu Motor Co Ltd 運転支援装置
WO2016016922A1 (ja) * 2014-07-28 2016-02-04 三菱電機株式会社 走行支援システム及び走行支援方法
KR102521655B1 (ko) * 2016-09-01 2023-04-13 삼성전자주식회사 자율 주행 방법 및 장치
JP6380919B2 (ja) * 2016-09-01 2018-08-29 マツダ株式会社 車両制御装置
US10671076B1 (en) * 2017-03-01 2020-06-02 Zoox, Inc. Trajectory prediction of third-party objects using temporal logic and tree search
CN107128245A (zh) * 2017-04-10 2017-09-05 江苏车视杰电子有限公司 一种车辆盲区预警系统
CA3060925A1 (en) * 2017-04-19 2019-10-18 Nissan Motor Co., Ltd. Traveling assistance method and traveling assistance device
US10466706B2 (en) * 2017-08-14 2019-11-05 Aptiv Technologies Limited Automated guidance system
CN107798915A (zh) * 2017-09-21 2018-03-13 苏州大学 一种用于预测车辆行驶路线和防碰撞的智能评估系统
US10642275B2 (en) * 2018-06-18 2020-05-05 Zoox, Inc. Occulsion aware planning and control

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227811A (ja) * 2005-02-16 2006-08-31 Denso Corp 運転支援装置
JP2010079565A (ja) * 2008-09-25 2010-04-08 Toyota Motor Corp 運転支援装置
JP2015225615A (ja) * 2014-05-29 2015-12-14 トヨタ自動車株式会社 運転支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021193019A (ja) * 2020-06-08 2021-12-23 ドクター エンジニール ハー ツェー エフ ポルシェ アクチエンゲゼルシャフトDr. Ing. h.c. F. Porsche Aktiengesellschaft 自動車の運転挙動を適応させるための方法
JP7298981B2 (ja) 2020-06-08 2023-06-27 ドクター エンジニール ハー ツェー エフ ポルシェ アクチエンゲゼルシャフト 自動車の運転挙動を適応させるための方法

Also Published As

Publication number Publication date
US20210197811A1 (en) 2021-07-01
CN112534485A (zh) 2021-03-19
DE112018007920T5 (de) 2021-05-27
JPWO2020039517A1 (ja) 2020-12-17
CN112534485B (zh) 2022-08-02
JP6968288B2 (ja) 2021-11-17

Similar Documents

Publication Publication Date Title
RU2721387C1 (ru) Способ прогнозирования действия и устройство прогнозирования действия устройства помощи при движении
JP6747597B2 (ja) 運転支援車両の走行制御方法及び走行制御装置
US20190039613A1 (en) Apparatus and method for changing route of vehicle based on emergency vehicle
US20180370532A1 (en) Assessing u-turn feasibility
JP6689966B2 (ja) 減速縁石に基づく自律走行車の方向検出及び車線維持システム
JP7096350B2 (ja) 走行制御装置、車両及び走行制御方法
JP2016224785A (ja) 周辺監視装置及び運転支援装置
EP3694756B1 (en) Spiral curve based vertical parking planner system for autonomous driving vehicles
WO2020039517A1 (ja) 進路予測装置、進路予測プログラムおよび進路予測方法
JP2020111310A (ja) 車両およびその制御方法
JP2018106589A (ja) 車両軌道予測装置、方法、プログラム及び記録媒体、並びに、警報装置
JP2022502642A (ja) 移動手段周辺の物体が移動手段の運転操作に及ぼす影響を評価する方法
JP2015121959A (ja) 障害物検知装置
JP6522255B1 (ja) 行動選択装置、行動選択プログラム及び行動選択方法
JP2020163975A (ja) 車両運転支援システム
US11745728B2 (en) Parking assistance device and parking assistance method
JP4976998B2 (ja) 車両の走行安全装置
KR102072357B1 (ko) 차량 경보음 제어 장치 및 방법
JP2020163974A (ja) 車両運転支援システム
KR20200119068A (ko) 차량 및 그 제어방법
JP2020163967A (ja) 車両運転支援システム
WO2022123712A1 (ja) 逆走判定装置および逆走判定方法
JP6650635B2 (ja) 判定装置、判定方法、および判定プログラム
JP2016113092A (ja) 車両制御装置
JP7336861B2 (ja) 挙動予測方法及び挙動予測装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18930619

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020537935

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18930619

Country of ref document: EP

Kind code of ref document: A1