WO2019220590A1 - 運転支援装置、運転支援方法、運転支援プログラム - Google Patents

運転支援装置、運転支援方法、運転支援プログラム Download PDF

Info

Publication number
WO2019220590A1
WO2019220590A1 PCT/JP2018/019118 JP2018019118W WO2019220590A1 WO 2019220590 A1 WO2019220590 A1 WO 2019220590A1 JP 2018019118 W JP2018019118 W JP 2018019118W WO 2019220590 A1 WO2019220590 A1 WO 2019220590A1
Authority
WO
WIPO (PCT)
Prior art keywords
peripheral
peripheral body
target
information
relative
Prior art date
Application number
PCT/JP2018/019118
Other languages
English (en)
French (fr)
Inventor
悠司 濱田
佳明 安達
崇成 竹原
前田 崇
雅彦 伊川
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112018007624.5T priority Critical patent/DE112018007624T5/de
Priority to PCT/JP2018/019118 priority patent/WO2019220590A1/ja
Priority to US16/980,865 priority patent/US11491978B2/en
Priority to CN201880092721.6A priority patent/CN112106125B/zh
Priority to JP2020518899A priority patent/JP6882601B2/ja
Publication of WO2019220590A1 publication Critical patent/WO2019220590A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/10Number of lanes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Definitions

  • This invention relates to a technique for determining a relative positional relationship between moving objects.
  • a driving support system using an in-vehicle communication device that transmits and receives vehicle information including vehicle position information and the like at regular intervals by wireless communication has been developed.
  • the driving support system determines whether or not there is a risk of collision based on the transmitted and received vehicle information, and provides information to the driver or controls the vehicle.
  • the vehicle position information indicated by the vehicle information is obtained using a positioning satellite such as GNSS (Global Navigation Satellite System).
  • GNSS Global Navigation Satellite System
  • the positional information acquired using the positioning satellite includes errors due to signal delay in the ionosphere, multipath due to buildings, and system delay. Due to the influence of this error, there is a possibility that the risk of collision of the driving support system cannot be accurately determined.
  • Patent Document 1 describes a technique for evaluating whether or not map information held by a host vehicle correctly represents an actual road shape using a travel history of a surrounding vehicle traveling in front of the host vehicle. ing.
  • Patent Document 2 stores information received from surrounding vehicles at points that have traveled in the past without using map information, and determines whether the point is a three-dimensional intersection when traveling again at the same point. The technology to do is described.
  • JP 2017-146724 A Japanese Unexamined Patent Publication No. 2016-110218
  • Patent Document 2 information received from surrounding vehicles when traveling in the past is stored, and it is determined whether or not the point is a three-dimensional intersection.
  • the amount of storage required becomes enormous, and there is a possibility that processing amount and cost equivalent to the case of generating map information internally will no longer be required. is there.
  • an object of the present invention is to appropriately recognize the relative positional relationship between moving objects without using map information.
  • the driving support device of the present invention includes an acquisition unit that acquires target information indicating a travel history of a target object that is a moving object and peripheral information indicating a travel history of a peripheral object that is a moving object that travels around the target object.
  • the peripheral body is a first peripheral body that is a target moving body for which the driving support device determines a relative positional relationship with the target body, and at least one of the target body and the first peripheral body has a travel history partially overlapping. Including two peripheries.
  • the driving support device determines the relative positional relationship between the target body and the first peripheral body relative to the second peripheral body based on the target information and the peripheral information, and based on the determination result, the relative positional relationship between the target body and the first peripheral body Is provided as a first determination.
  • the driving support device of the present invention determines the relative positional relationship between the target body and the first peripheral body using the peripheral information of the second peripheral body. Therefore, it is possible to appropriately recognize the relative positional relationship between moving bodies without using map information. Objects, features, aspects, and advantages of the present invention will become more apparent from the following detailed description and the accompanying drawings.
  • FIG. 1 is a configuration diagram of a driving support apparatus according to Embodiment 1.
  • FIG. It is a figure which shows a relative area. It is a figure which shows a target body, a 1st peripheral body, and a 2nd peripheral body. It is a figure which shows the case where a target body and a 1st peripheral body drive
  • FIG. 4 is a flowchart illustrating an operation of the driving support apparatus according to the first embodiment. It is a figure which shows the utilization condition of the periphery information of a 2nd periphery body. It is a figure which shows the selection conditions of a 2nd surrounding body. It is a figure which shows the coordinate system which makes a 2nd peripheral body an origin. It is a figure which shows the coordinate system which makes a target object an origin. It is a figure which shows the coordinate system which makes a 2nd peripheral body an origin. It is a figure which shows the coordinate system which makes a target object an origin. It is a figure which shows the coordinate system which makes a 2nd peripheral body an origin. It is a figure which shows the coordinate system which makes a target object an origin.
  • FIG. 6 is a configuration diagram of a driving support apparatus according to Embodiment 2.
  • FIG. 6 is a flowchart illustrating an operation of the driving support apparatus according to the second embodiment. It is a flowchart which shows the detailed process sequence of step S106A of FIG. It is a figure which shows the case where the height difference between the gravity centers of two clusters is less than a threshold value. It is a figure which shows the case where the height difference between the gravity centers of two clusters is more than a threshold value.
  • FIG. 6 is a configuration diagram of a driving support device according to a third embodiment. It is a figure which shows the determination result of the number of lanes of a driving lane, and the possibility of right and left turning.
  • the driving support device 10A is a computer mounted on the target object 100 that is a moving body such as a vehicle.
  • the target object 100 is a vehicle.
  • the driving assistance device 10A may be implemented in an integrated form or inseparable form with the object 100 or other components shown in the figure, or may be implemented in a removable or separable form. Good.
  • the driving support device 10A includes a processor 11, a storage device 12, a communication interface 13, and a sensor interface 14 as a hardware configuration.
  • the processor 11 is connected to other hardware via a signal line, and controls these other hardware.
  • the processor 11 is an IC (Integrated Circuit) for executing processing such as data transfer, calculation, processing, control, and management by executing instructions described in the program.
  • the processor 11 includes an arithmetic circuit, a register in which instructions and information are stored, and a cache memory.
  • the processor 11 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
  • the storage device 12 includes a memory 121 and a storage 122.
  • the memory 121 is a RAM (Random Access Memory).
  • the storage 122 is an HDD (Hard Disk Drive).
  • the storage 122 may be a portable storage medium such as an SD (Secure Digital, registered trademark) memory card, a CF (CompactFlash), a NAND flash, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD. Good.
  • the communication interface 13 is a device including a receiver that receives data and a transmitter that transmits data.
  • the communication interface 13 is a communication chip or a NIC (Network Interface Card).
  • the communication interface 13 uses a communication protocol such as dedicated RCRC (Dedicated Short Range Communication) or IEEE802.11p.
  • the communication interface 13 may use a mobile phone network such as LTE (Long Term Evolution, registered trademark) or 4G.
  • the communication interface 13 may use a wireless LAN such as Bluetooth (registered trademark) or IEEE802.11a / b / g / n.
  • the sensor interface 14 is a device for connecting the processor 11 to the device 101.
  • the device 101 includes an in-vehicle ECU (Electronic Control Unit), a speed sensor, an acceleration sensor, a direction sensor, and an EPS (Electric Power Steering).
  • the sensor interface 14 is specifically a sensor ECU.
  • the driving support device 10A includes an acquisition unit 21, a relative position determination unit 22, a peripheral body selection unit 23, and a peripheral body search unit 24 as functional components.
  • the function of each functional component of the driving support device 10A is realized by software.
  • the storage 122 of the storage device 12 stores a program that realizes the function of each functional component of the driving support device 10A.
  • This program is read into the memory 121 by the processor 11 and executed by the processor 11. Thereby, the function of each part of driving support device 10A is realized.
  • Information, data, signal values, and variable values indicating the processing results of the respective functional components realized by the processor 11 are stored in the memory 121, a register in the processor 11, or a cache memory. In the following description, information, data, signal values, and variable values indicating the results of processing of each functional component realized by the processor 11 will be described as being stored in the memory 121.
  • FIG. 1 only one processor 11 is shown. However, a plurality of processors 11 may be provided, and a plurality of processors 11 may execute programs that realize each function in cooperation with each other.
  • the relative area 40 is an area in which a peripheral area of the target object 100 which is a moving body on which the driving support device 10A is mounted is divided into a plurality of areas.
  • the peripheral area of the target object 100 is an area within 300 m from the target object 100, for example. In the example of FIG.
  • the relative area 40 includes area A (Ahead), area AL (Ahead Left), area AR (Ahead Right), area AFL (Ahead Far Left), area AFR (Ahead Far Right), and area B ( Behind), Area BL (Behind Left), Area BR (Behind Right), Area BFL (Behind Far Left), Area BFR (Behind Far Right), Area IL (Intersecting Left), tIR
  • the relative area 40 may be defined by other methods such as finer division.
  • Area A is the front area of the lane in which the object 100 is located.
  • Area AL is a front area of the lane on the left side of object 100.
  • the area AR is a front area of the lane on the right side of the object 100.
  • Area AFL is a front area of two or more left lanes of object 100.
  • the area AFR is a front area of two or more right lanes of the object 100.
  • Area B is a rear area of the same lane of the object 100.
  • Area BL is a rear area of the lane on the left side of object 100.
  • the area BR is a rear area of the lane on the right side of the object 100.
  • the area BFL is a rear area of two or more left lanes of the object 100.
  • the area BFR is a rear area of two or more right lanes of the object 100.
  • the area IL is an area of a road ahead of a left turn at an intersection in front of the object 100.
  • the area IR is an area of a road ahead of a right turn at an intersection in front of the object 100.
  • the driving assistance device 10A specifies the movement direction of the first peripheral body 200 from the change in the position of the first peripheral body 200 in the past reference period, and the area IL and the area AFL are identified based on the specified movement direction.
  • a distinction may be made between the area IR and the area AFR.
  • an area OC OnComing
  • an area OCR OnComing Right
  • the target body 100 is a reference mobile body
  • the first peripheral body 200 is a target mobile body for determining a relative position with respect to the target body 100.
  • the second peripheral body 300 is a third party different from the target body 100 and the first peripheral body 200.
  • a plurality of second peripheral bodies 300 may exist.
  • the travel history includes information on the position of the moving body at a plurality of past times. 4 and 5, the figure of the vehicle to which reference numeral 100 is attached represents the current position of the object 100, and the frame connected to the figure of the vehicle by the line is the past indicated by the travel history of the object 100. Represents the position.
  • the traveling history of the moving object is similarly expressed in other drawings. 4 and 5 show a case where the traveling histories of the object 100 and the first peripheral body 200 do not partially overlap.
  • FIG. 4 is an example when the object 100 and the first peripheral body 200 are traveling in the same direction
  • FIG. 5 is a case where the travel paths of the object 100 and the first peripheral body 200 intersect, that is, the two intersect. This is an example of traveling in the direction.
  • FIG. 4 is an example when the object 100 and the first peripheral body 200 are traveling in the same direction
  • FIG. 5 is a case where the travel paths of the object 100 and the first peripheral body 200 intersect, that is, the two intersect. This is an example of traveling in the direction.
  • the object 100 follows the preceding first peripheral body 200. Since the travel history of the first peripheral body 200 is interrupted ahead of the current position of the object, there is a section R in which the travel histories do not overlap. As described above, in the section R where the traveling histories do not overlap, it is difficult to accurately estimate the road shape because the road shape may be changed. Further, in FIG. 5, the object 100 and the first peripheral body 200 are traveling in a direction crossing each other, and therefore there is a section R where the traveling histories do not overlap. Therefore, even when it is predicted that the travel route of the target object 100 and the first peripheral body 200 intersects from both travel histories, the first peripheral body 200 actually has an opposite road or a junction road of the travel road of the target object 100. There is a possibility of traveling.
  • the driving support device 10A determines that both moving bodies are traveling in the same direction when the angle difference between the target body 100 and the first peripheral body 200 is in the range of 0 ° ⁇ 45 °. Further, the driving assistance device 10A determines that both moving bodies are traveling in the opposite direction when the angle difference between the target body 100 and the first peripheral body 200 is in a range of 180 ⁇ 45 °. Further, in the driving assistance device 10A, when the angle difference between the target body 100 and the first peripheral body 200 is in the range of 90 ° ⁇ 45 ° or 270 ° ⁇ 45 °, both the moving bodies are traveling in the crossing direction. Judge.
  • the driving support device 10A travels between both moving bodies.
  • the direction is determined as one of the directions.
  • the driving support device 10A determines that the same direction is obtained when the angle difference is 45 ° and ⁇ 45 °, and the opposite direction when the angle difference is 135 ° and 225 °.
  • FIG. 6 shows the search range S when the object 100 and the first peripheral body 200 are traveling in the same direction
  • FIG. 7 is a case where the object 100 and the first peripheral body 200 are traveling in the crossing direction.
  • the search range S is shown.
  • the peripheral body search unit 24 sets a section between the current position of the target body 100 and the first peripheral body 200 as shown in FIG.
  • the search range S of the bilateral body 300 is assumed.
  • the peripheral body search unit 24 determines that the front section of the target body 100 and the front section of the first peripheral body 200 are the second as shown in FIG.
  • the search range S of the peripheral body 300 is assumed. According to the definition of the divided area shown in FIG. 2, the search range is area A, area IL, area OC, or the like.
  • the overall operation of the driving support device 10A includes a process of acquiring information on the target object 100 and transmitting the information to the first peripheral body 200 and the second peripheral body 300, and acquiring information on the first peripheral body 200 and performing relative processing. There is a process for estimating the area 40.
  • the operation of the driving assistance device 10A shown in the flow of FIG. 8 is executed while the object 100 is moving and temporarily stopped.
  • Step S101 is information transmission / reception processing with a peripheral body.
  • the peripheral body in this step S101 includes all the mobile bodies existing in the peripheral area of the target body 100 in addition to the first peripheral body 200 and the second peripheral body 300.
  • the driving assistance device 10A acquires information about the target object 100 and transmits it to the surrounding body. Further, the driving support device 10A receives information from the surrounding body. Specifically, this processing is performed according to the following procedure.
  • the acquisition unit 21 acquires information on the target object 100 from the device 101 mounted on the target object 100 via the sensor interface 14.
  • the information of the target object 100 includes the position, speed, acceleration, traveling direction, steering angle, brake control state, travel history, predicted trajectory, yaw rate, accuracy of each data, and the like.
  • the acquisition unit 21 stores the acquired information on the target object 100 in the memory 121 as target information 31 indicating a travel history such as the position of the target object 100.
  • the acquisition unit 21 has a range in which the error of the radius of curvature of the traveling road of the target object 100 can be suppressed to a predetermined value or less each time the target object 100 moves by a certain distance, every time the target object 100 moves by a certain time, or Every time, the acquired travel history information is added to the memory 121.
  • the acquisition unit 21 transmits the target information 31 for a predetermined period of time to a peripheral body that moves around the target body 100 via the communication interface 13.
  • the acquisition unit 21 acquires the peripheral information 32 indicating the travel history such as the position of the peripheral body via the communication interface 13. Specifically, the acquiring unit 21 receives the peripheral information 32 via the communication interface 13 from an external device such as a peripheral body or a roadside device at regular time intervals. The acquisition unit 21 writes the received peripheral information 32 in the memory 121.
  • the above is the information transmission / reception process in step S101.
  • the relative position determination unit 22 determines the relative area of the first peripheral body 200 starting from the target object 100 (step S102).
  • the relative position determination unit 22 determines the relative position of the first peripheral body 200 with respect to the target body 100 based on the information received from the first peripheral body 200 in step S101. Specific processing is as follows.
  • the relative position determination unit 22 reads the target information 31 and the peripheral information 32 from the memory 121. Then, the relative position determination unit 22 calculates the current position of the first peripheral body 200 in an orthogonal coordinate system in which the current position of the target object 100 is the origin and the azimuth of the target object 100 is the direction of the Y-axis direction. The relative area 40 of the first peripheral body 200 starting from 100 is determined. The determination of the relative area in step S102 is performed without using the peripheral information 32 of the second peripheral body 300, and is also referred to as a second determination.
  • the relative position determination unit 22 performs the determination process of the relative area 40 (step S102) after the acquisition unit 21 acquires the peripheral information 32 in step S101. However, the relative position determination unit 22 may perform the determination process of the relative area 40 based on the latest target information 31 and surrounding information 32 every predetermined time or every time the target object 100 travels a fixed distance. Although the relative position determination unit 22 has been described here as determining the relative area 40 based on the current positions of the target object 100 and the first peripheral body 200, the relative area 40 may be determined by other methods. good. For example, the relative position determination unit 22 may estimate the road shape from the travel history and determine the relative area 40 based on a specific point in the travel history.
  • the relative position determination unit 22 determines whether to use the peripheral information 32 of the second peripheral body 300 in order to calculate the relative position with the first peripheral body 200 (step S103). Specifically, the relative position determination unit 22 reads the target information 31 and the peripheral information 32 from the memory 121 and checks whether or not the traveling histories of the target body 100 and the first peripheral body 200 overlap. In addition, the relative position determination unit 22 determines whether the traveling direction of both the moving bodies is the same road, the oncoming road, the cross road, or the other based on the relationship between the orientation of the target object 100 and the orientation of the first peripheral body 200. Determine whether. Then, the relative position determination unit 22 determines whether or not to use the peripheral information 32 of the second peripheral body 300 based on the traveling direction of the target body 100 and the first peripheral body 200, the presence or absence of overlapping travel histories, and the relative distance. To do.
  • FIG. 9 exemplifies use conditions of the peripheral information 32 of the second peripheral body 300 for each relationship between the roads of the target body 100 and the first peripheral body 200.
  • the relative position determination unit 22 determines whether or not to use the peripheral information 32 of the second peripheral body 300 according to the use conditions.
  • the traveling history does not overlap and the relative distance is equal to or less than the upper limit value in the relative area.
  • This is a condition for using the peripheral information 32 of the body 300. That the relative distance between the target body 100 and the first peripheral body 200 is equal to or less than the upper limit value in the relative area means that the first peripheral body 200 is located in any relative area of the target body 100.
  • the relative distance between the object 100 and the first peripheral body 200 is equal to or less than the upper limit value in the relative area. It means that the relative distance of the peripheral body 200 is 300 m or less.
  • the relative position determination unit 22 determines to use the peripheral information 32 of the second peripheral body 300.
  • This threshold value is smaller than the upper limit value in the relative area described above, for example, 50 m.
  • the relative position determination unit 22 It is determined that the information 32 is not used. Then, the operation of the driving support device 10A proceeds to step S107, and this process is completed.
  • the driving support device 10A selects the second peripheral body 300 that satisfies the condition (step S104).
  • the peripheral body searching unit 24 reads the peripheral information 32 of the mobile body other than the target body 100 and the first peripheral body 200 from the memory 121, and the movement existing in the search range of the third party from the peripheral information 32.
  • the body is extracted as the second peripheral body 300 and notified to the peripheral body selection unit 23.
  • the peripheral body selecting unit 23 selects the second peripheral body 300 that matches the selection condition illustrated in FIG. 10 among the second peripheral bodies 300 notified from the peripheral body searching unit 24.
  • FIG. 10 shows different selection conditions depending on the relationship between the roads of the object 100 and the first peripheral body 200.
  • the peripheral body selection unit 23 selects the second peripheral body 300 according to the following priority order.
  • the first condition is that the traveling histories overlap with both the object 100 and the first peripheral body 200.
  • the second condition is that the positional accuracy is high, that is, it is equal to or greater than a threshold value.
  • the third condition is that the section in which the traveling history overlaps with the object 100 or the first peripheral body is long, that is, is equal to or greater than the threshold value.
  • the fourth condition is that the parallel running time with the object 100 is long, that is, not less than a threshold value.
  • the peripheral body selection unit 23 selects the second peripheral body 300 that satisfies the second condition.
  • the peripheral body selection unit 23 selects the second peripheral body 300 that satisfies the third condition.
  • the peripheral body selection unit 23 selects the second peripheral body 300 that satisfies the fourth condition.
  • the peripheral body selection unit 23 selects one second peripheral body 300 at random.
  • the first condition is that the traveling histories overlap with both the object 100 and the first peripheral body 200, but this is an example.
  • the first condition may be that the traveling history overlaps with at least one of the object 100 and the first peripheral body 200.
  • the peripheral body selection unit 23 selects the second peripheral body 300 according to the following priority order.
  • the first condition is to travel in the traveling area of the object 100 and the first peripheral body 200.
  • the second condition is that the non-overlapping section of the travel history between the object 100 and the first peripheral body 200 is the maximum.
  • the third condition is that the positional accuracy is high.
  • the processing of the driving support device 10A proceeds to step S105.
  • the peripheral body selection unit 23 selects the second peripheral body 300 based on the conditions of FIG. 10, but if the position accuracy of the second peripheral body 300 is low, the second peripheral body 300 may not be selected. good. If there is no second peripheral body 300 that satisfies the condition in step S104, the processing in subsequent steps S105 and S106 is skipped.
  • step S105 the driving assistance device 10A determines the relative area in which the target body 100 and the first peripheral body 200 exist, starting from the second peripheral body 300 selected in step S104.
  • the relative position determination unit 22 converts the positions of the object 100 and the first peripheral body 200 from the position and orientation of the second peripheral body 300 as a starting point, and determines a relative area as shown in FIG. .
  • the processing of this step is performed by replacing the starting point from the target object 100 with the second peripheral body 300 and replacing the relative area determination target with the target body 100 and the first peripheral body 200 from the first peripheral body 200. It is the same.
  • FIG. 11 shows a coordinate system with the second peripheral body 300 as the origin.
  • the relative position determination unit 22 uses the second peripheral body 300 as the origin, the relative coordinates (x1, y1) of the target body 100, and the relative coordinates (x2, y2) of the first peripheral body 200. calculate.
  • the relative position determination unit 22 determines the relative area of the target body 100 and the first peripheral body 200 starting from the second peripheral body 300 using the relative coordinates and the relative orientation. At this time, the relative position determination unit 22 uses the travel history or the predicted trajectory and the like, as shown in FIG. 13, the relative coordinates (x1 ′′, y1) of the target object 100 starting from the second peripheral body 300. And relative coordinates (x2 ′′, y2) of the first peripheral body 200 may be calculated to determine the relative area.
  • step S105 the driving support device 10A determines the relative area of the target body 100 starting from the second peripheral body 300 and the relative area of the first peripheral body 200 starting from the second peripheral body 300. Using the result, the driving assistance device 10A determines the relative area of the first peripheral body 200 starting from the target body 100 (step S106). The determination of the relative area in step S106 is performed using the peripheral information 32 of the second peripheral body 300, and is also referred to as a first determination.
  • the relative position determination unit 22 converts the coordinate system starting from the second peripheral body 300 shown in FIG. 11 into a coordinate system starting from the object 100 shown in FIG.
  • the relative coordinates (x2 ′, y2 ′) of the second peripheral body 300 starting from the target object 100 are represented as (x2-x1, y2-y1), and the relative coordinates (x2 ′, y2 ⁇ y1) of the first peripheral body 200 starting from the target object 100 are expressed.
  • the relative coordinates (x1 ′, y1 ′) are represented as ( ⁇ x1, ⁇ y1).
  • the relative position determination unit 22 determines the relative area of the first peripheral body 200 starting from the target body 100 using the relative coordinates of the first peripheral body 200 starting from the target body 100.
  • the relative position determination unit 22 calculates the relative coordinates of the target body 100 and the first peripheral body 200 starting from the second peripheral body 300 using a travel history or a predicted trajectory as shown in FIG. In this case, as shown in FIG. 14, the relative coordinates of the second peripheral body 300 starting from the target object 100 are ( ⁇ x1 ′′, ⁇ y1), and the relative coordinates of the first peripheral body 200 are (x2 ′′ ⁇ x1). '', Y2-y1), the relative area of the first peripheral body 200 starting from the object 100 is determined.
  • the relative position determination unit 22 has been described with respect to determining the relative area from the relative coordinates.
  • the relative relationship between the target body 100 starting from the second peripheral body 300 and the first peripheral body is relative.
  • the relative area of the first peripheral body 200 starting from the target body 100 may be calculated based on the area and the relative distance between the second peripheral body 300 and the target body 100 and the first peripheral body 200.
  • POS_HV in the first column indicates a relative area of the target object 100 starting from the second peripheral body 300
  • POS_RV in the first row is relative to the first peripheral body 200 starting from the second peripheral body 300. Shows the area. According to the example of FIG.
  • the relative position determination unit 22 determines that the relative area of the first peripheral body 200 starting from the target object 100 is area A when D1> D2, and determines area B when D1 ⁇ D2.
  • D1 is the distance between the second peripheral body 300 and the target body 100
  • D2 is the distance between the first peripheral body 200 and the target body 100.
  • the driving assistance apparatus 10A determines the relative area of the first peripheral body 200 starting from the final target object 100 based on the determination result of the relative area in step S106 and the determination result of the relative area in step S102. Confirm (step S107).
  • the relative position determination unit 22 determines the determination result in step S102 as a relative area.
  • the relative position determination unit 22 determines the determination result in step S106 as a relative area. Note that these are examples of the determination method, and the final relative area may be determined by another method.
  • the relative position determination unit 22 may observe two determination results for a certain period of time and determine the result with the highest occurrence frequency as a relative area, or weight the two determination results to obtain a final relative area. May be confirmed.
  • the driving assistance device 10 ⁇ / b> A may determine the relative area using the peripheral information 32 of the second peripheral body 300 when the traveling histories of the target body 100 and the first peripheral body 200 overlap.
  • the peripheral body search unit 24 has positional accuracy of the target body 100 and the first peripheral body 200 even when the traveling histories of the target body 100 and the first peripheral body 200 overlap. If it is low, it is determined that the peripheral information 32 of the second peripheral body 300 is used.
  • the driving assistance device 10A may determine the relative area using the peripheral information 32 of the second peripheral body 300 when the relative distance between the target body 100 and the first peripheral body 200 is short.
  • the peripheral body searching unit 24 may have a low positional accuracy of the target body 100 and the first peripheral body 200 even if the relative distance between the target body 100 and the first peripheral body 200 is not more than a certain value. It is determined that the peripheral information 32 of the second peripheral body 300 is used.
  • the peripheral body selecting unit 23 selects one second peripheral body 300 in accordance with the selection conditions shown in FIG.
  • the peripheral body selection unit 23 selects a plurality of second peripheral bodies 300
  • the relative position determination unit 22 performs the processes of Step S105 and Step S106 of FIG. 8 for each selected second peripheral body 300. May be.
  • the peripheral body selection unit 23 excludes the second peripheral body 300 notified by the peripheral body search unit 24 in step S104 of FIG. 8 with low position accuracy, and the relative position determination unit 22 remains.
  • the processes of step S105 and step S106 are performed on the two peripheral body 300.
  • the relative position determination unit 22 aggregates the relative areas determined based on the peripheral information 32 of the plurality of second peripheral bodies 300 in step S107, and adopts the most determined result as the final relative area. .
  • the driving support device 10A When the function of each functional component is realized by hardware, the driving support device 10A includes a communication interface 13, a sensor interface 14, and an electronic circuit.
  • the electronic circuit is a dedicated electronic circuit that realizes the function of each functional component of the driving support device 10A and the function of the storage device.
  • As the electronic circuit a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable Gate Array) are assumed. Is done.
  • the function of each functional component may be realized by one electronic circuit, or the function of each functional component may be distributed to a plurality of electronic circuits.
  • ⁇ A-7 Modification 5> Among the functions of the functional components of the driving support device 10A, some functions may be realized by hardware, and other functions may be realized by software.
  • the processor 11, the storage device 12, and the electronic circuit are collectively referred to as a processing circuit.
  • the driving support device 10A may use the operation status of the blinker of the moving body for the determination of the relative area.
  • the acquisition unit 21 acquires winker information indicating that the winker of the target object 100 has operated via the sensor interface 14, and the winker information is stored in the memory 121.
  • the relative position determination unit 22 refers to the winker information, excludes the peripheral information 32 and the target information 31 when the winker is generated from the peripheral information 32 and the target information 31 stored in the memory 121, and other peripherals
  • the relative area is determined using the information 32 and the target information 31.
  • the driving support device 10A uses the peripheral information 32 of the second peripheral body 300, the determination result (the first determination result) of the relative area of the first peripheral body starting from the target body 100, and the second peripheral
  • the result of determining the relative area of the first peripheral body starting from the target object 100 without using the peripheral information 32 of the body 300 (the result of the second determination)
  • the relative area may be determined with high accuracy and robustness by weighting according to whether or not the traveling histories overlap.
  • step S ⁇ b> 103 of FIG. 8 the relative position determination unit 22 determines to use the travel history of the second peripheral body 300 even when the travel history of the object 100 and the first peripheral body 200 overlaps. To do. Therefore, step S103 is always Yes, and the transition from step S103 to step S107 does not occur.
  • step S107 the relative position determination unit 22 determines that the determination result of step S106 (result of the first determination) is greater than the case where the travel histories of the object 100 and the first peripheral body 200 do not overlap. While increasing the weight, the weight of the determination result (second determination result) in step S102 is decreased, and the relative area is determined comprehensively.
  • the driving support device 10A has been described with respect to calculating relative coordinates from the absolute coordinates of each moving body and determining the relative positional relationship between the moving bodies.
  • the driving support device 10A may calculate the relative positional relationship range shown in FIG. 2 as absolute coordinates without calculating the relative coordinates, and determine the relative area based on the absolute coordinates.
  • the driving assistance apparatus 10A according to Embodiment 1 is based on the relative positional relationship between the second peripheral body 300 and the target body 100 and the relative positional relationship between the second peripheral body 300 and the first peripheral body 200.
  • the relative position determination unit 22 that determines the relative position relationship between the object 100 and the first peripheral body 200 as the first determination is provided.
  • the relative position determination unit 22 uses the peripheral information 32 of the second peripheral body 300 that is a third party other than the target body 100 and the first peripheral body 200, and uses the target body 100 and the first peripheral body 200.
  • the relative positional relationship is determined. Therefore, even if the traveling histories of the object 100 and the first peripheral body 200 do not overlap or the relative distance between the two moving bodies is large, the relative position determination unit 22 can determine the relative position with high accuracy. it can.
  • the relative position determination unit 22 calculates the relative coordinates of the target body 100 and the first peripheral body 200 with the second peripheral body 300 as the origin based on the target information 31 and the peripheral information 32, and based on the calculation result, The first determination can be made by calculating the relative coordinates of the first peripheral body 200 with the object 100 as the origin.
  • the relative position determination unit 22 is based on the target information and the peripheral information, the relative area of the target body 100 and the first peripheral body 200 starting from the second peripheral body 300, and the second peripheral body 300, the target body 100, and The relative distance from the first peripheral body 200 is calculated, and the relative area of the first peripheral body 200 starting from the target body 100 is determined as the first determination based on the calculation result.
  • the GPS error can be absorbed and the accumulation of the GPS error can be avoided.
  • the relative position determination unit 22 is based on the relationship between the traveling roads of the target body 100 and the first peripheral body 200 and the relative distance between the target body 100 and the first peripheral body 200, and the peripheral information 32 of the second peripheral body 300. Is determined to be necessary, the first determination is performed. Therefore, the peripheral information 32 of the second peripheral body 300 can be used efficiently.
  • the relative position determination unit 22 performs the first determination when the traveling histories of the target body 100 and the first peripheral body 200 do not partially overlap. Therefore, the estimated range of the road shape can be expanded by using the travel history of the second peripheral body 300 for the sections where the travel histories do not overlap.
  • the relative position determination unit 22 determines, as the second determination, the relative position relationship between the target body 100 and the first peripheral body 200 based on the target information 31 and the peripheral information about the first peripheral body 200 together with the first determination. If the running histories of the object 100 and the first peripheral body 200 do not partially overlap, the second determination is performed with a greater weighting on the result of the first determination than when the traveling histories partially overlap. A small weight is applied to the result of. Therefore, the relative area can be determined with high accuracy and robustness according to the overlapping situation of the travel histories of the object 100 and the first peripheral body 200.
  • the driving assistance apparatus 10A includes a second one based on the length of a section in which the traveling history partially overlaps with the target body 100 or the first peripheral body 200 from the plurality of second peripheral bodies 300.
  • the peripheral body selection unit 23 that selects the peripheral body 300 is provided.
  • the relative position determination unit 22 includes the relative positional relationship between the second peripheral body 300 and the target body 100 selected by the peripheral body selection unit 23, and the peripheral body selection unit 23 Based on the selected relative positional relationship between the second peripheral body 300 and the first peripheral body 200, the relative positional relationship between the target body 100 and the first peripheral body 200 is determined as the first determination. Therefore, when there are a plurality of second peripheral bodies 300, it is possible to use the second peripheral body 300 having a long overlapping section of travel histories with the target body 100 or the first peripheral body 200.
  • FIG. 16 shows the configuration of the driving support apparatus 10B according to the second embodiment.
  • the driving support device 10B further includes an altitude difference determination unit 25 in addition to the configuration of the driving support device 10A according to the first embodiment.
  • the configuration of the driving support device 10B other than the altitude difference determination unit 25 is the same as that of the driving support device 10A.
  • the altitude difference determination unit 25 uses the altitude information of the second peripheral body 300 to determine whether the target body 100 and the first peripheral body 200 are traveling on different roads having an altitude difference.
  • the object 100 and the first peripheral body 200 are traveling on different roads having different altitudes, one of the object 100 and the first peripheral body 200 travels on the elevated road, and the other is below the elevated road. There are cases where the vehicle travels on the road, or one travels on the upper road of the three-dimensional intersection and the other travels on the lower road of the three-dimensional intersection.
  • step S106A of the altitude difference determination process is provided between step S106 and step S107, and that the transition to step S106A instead of step S107 is made when the determination block of step S103 is No. This is different from the flowchart of FIG. 8 described in the first embodiment.
  • step S ⁇ b> 106 ⁇ / b> A the altitude difference determination unit 25 travels on different roads where the object 100 and the first peripheral body 200 have different altitudes using the altitude information of a plurality of moving objects existing around the object 100. It is determined whether or not.
  • FIG. 18 shows a detailed processing sequence of step S106A.
  • the altitude difference determination unit 25 analyzes the position and altitude information of a plurality of peripheral bodies including the target body 100 and the first peripheral body 200, and classifies the peripheral bodies into two clusters.
  • FIG. 19 shows a case where the altitude difference between the center of gravity G1 of the cluster C1 and the center of gravity G2 of the cluster C2 is less than the threshold value. In this case, the altitude difference determination unit 25 determines that the object 100 and the first peripheral body 200 are traveling on the same road.
  • FIG. 20 shows a case where the height difference between the center of gravity G1 of the cluster C1 and the center of gravity G2 of the cluster C2 is equal to or greater than a threshold value. In this case, the altitude difference determination unit 25 determines that the target object 100 and the first peripheral body 200 are traveling on different roads having an altitude difference.
  • the altitude difference determination unit 25 determines whether to perform cluster analysis (step S201). Here, if the altitude difference between the object 100 and the first peripheral body 200 is less than a certain value, the altitude difference determination unit 25 determines whether the two are traveling on different roads having an altitude difference from the altitude difference between the two. Since it cannot be determined whether or not, it is determined that cluster analysis is to be performed, and the process proceeds to step S202. On the other hand, if the altitude difference between the object 100 and the first peripheral body 200 is greater than or equal to a certain value, the altitude difference determination unit 25 determines that both are traveling on different roads having an altitude difference, and performs cluster analysis. It judges that there is no, and progresses to step S207. When calculating the height difference between the target object 100 and the first peripheral body 200, the height difference determination unit 25 estimates the height of an intersection or an intermediate point from the change in height of the travel history, and calculates the height difference at that point. You may do it.
  • step S ⁇ b> 202 the altitude difference determination unit 25 extracts a plurality of second peripheral bodies 300 existing around the target body 100, and acquires the peripheral information 32 of the extracted second peripheral bodies 300 from the memory 121.
  • the extraction range of the second peripheral body 300 is an area of 100 m square in the front-rear direction and the left-right direction with the object 100 as the origin.
  • the altitude difference determination unit 25 performs cluster analysis on the altitudes of the current positions and history points of the plurality of second peripheral bodies 300 extracted in step S202, and classifies the second peripheral body 300 into two clusters.
  • the altitude difference determination unit 25 may use hierarchical cluster analysis as cluster analysis or non-hierarchical cluster analysis.
  • the altitude difference determination unit 25 may use the shortest distance method, the longest distance method, or another method as a cluster analysis method.
  • the altitude difference determination unit 25 may classify the second peripheral body 300 with respect to altitude, or may classify altitude information with respect to relative distance, relative angle, relative position, and the like.
  • the altitude difference determination unit 25 calculates the centroid value of the altitude of each cluster, and determines whether or not the difference is equal to or greater than a threshold (step S204).
  • the altitude difference determination unit 25 determines that there is a possibility that the object 100 and the first peripheral body 200 are traveling on different roads having an altitude difference when the difference between the centroid values of altitudes between clusters is equal to or greater than a threshold value. Then, the process proceeds to step S205.
  • the altitude difference determination unit 25 determines that the object 100 and the first peripheral body 200 are traveling on the same road when the difference in the center of gravity of the altitude between the clusters is less than the threshold, and the flow of FIG. Exit.
  • the altitude difference determination unit 25 determines the difference between the altitude barycentric values here, an average value or a median value may be used instead of the barycentric value.
  • step S205 the altitude difference determination unit 25 determines whether the target body 100 and the first peripheral body 200 are included in the same cluster. When both are included in the same cluster, the altitude difference determination unit 25 determines that the object 100 and the first peripheral body 200 are traveling on the same road, and ends the flow of FIG. On the other hand, when the target object 100 and the first peripheral body 200 are included in different clusters, the altitude difference determination unit 25 travels on different roads having a difference in height. It is determined that there is a possibility, and the process proceeds to step S206.
  • step S206 the altitude difference determination unit 25 performs correlation analysis on altitude information for the relative distance or relative angle for the two clusters, and calculates a correlation coefficient. If the correlation coefficient is greater than or equal to the threshold value for both clusters, it can be determined that mobiles belonging to the same cluster are traveling on the same road. Therefore, the altitude difference determination unit 25 performs greater weighting on the determination result that the target object 100 and the first peripheral body 200 may be traveling on different roads having different altitudes. Then, the relative position determination unit 22 determines the relative area of the first peripheral body 200 starting from the target object 100 as another road (Other), and updates the determination result in step S106 of FIG. 17 (step S207).
  • step S107 of FIG. 17 the relative position determination unit 22 determines the relative area determination result in step S102 not using the second peripheral body 300 and the relative area determination result in step S106 using the second peripheral body 300. Based on this, the relative area is determined.
  • the relative position determination unit 22 determines the relative area determination result after update in step S207 as the relative area determination result in step S106. Is used. Specifically, when there is a relative area determination result in step S106, the relative position determination unit 22 determines the relative area determination result in step S106 as a relative area.
  • the relative area determination method is not limited to this.
  • the relative position determination unit 22 observes the determination result of the relative area not using the second peripheral body 300 and the determination result of the relative area using the second peripheral body 300 for a certain period of time, and the result with the highest occurrence frequency. May be adopted, or two results may be weighted.
  • FIGS. 19 and 20 show an example in which the altitude difference determination unit 25 determines different roads having an altitude difference based on whether or not the altitude difference of cluster centroids exceeds a fixed threshold value.
  • a fixed value can be set for the threshold value from a road structure ordinance that is a government ordinance that defines general technical standards for road structures.
  • the threshold value is not necessarily a fixed value, and may be a variable value based on the traveling speed of the moving body, for example.
  • step S203 of FIG. 18 it has been described that the altitude difference determination unit 25 performs cluster analysis on the absolute value of altitude.
  • the altitude difference determination unit 25 may perform cluster analysis on the altitude offset value with respect to the travel history.
  • step S206 of FIG. 18 it has been described that the altitude difference determination unit 25 performs correlation analysis on the absolute value of altitude. However, the altitude difference determination unit 25 may perform correlation analysis on the altitude offset value with respect to the travel history.
  • FIG. 17 illustrates an example in which the driving support device 10B performs the determination process (step S106A) of different roads having a difference in altitude after the processing of the first embodiment is performed in steps S101 to S106.
  • the driving support device 10B may skip the process of the first embodiment and perform only the determination process for different roads having a difference in altitude. That is, the processing from step S102 to step S106 does not have to be performed in the flowchart of FIG.
  • the altitude difference determination unit 25 performs a process of determining different roads having an altitude difference by performing cluster analysis on altitude information.
  • the altitude difference determination unit 25 may determine different roads having an altitude difference in consideration of speed information in addition to altitude information. Specifically, the altitude difference determination unit 25 can determine that there is a high possibility that the road is different when the speed difference between the clusters is different.
  • the driving assistance device 10B described in the second embodiment uses the altitude information included in the travel histories of the plurality of second peripheral bodies 300, so that the target body 100 and the first peripheral body 200 have an altitude difference.
  • An altitude difference determination unit 25 that determines whether or not the vehicle is traveling on a different road is provided. Therefore, the driving support device 10B accurately determines whether or not the target object 100 and the first peripheral body 200 are traveling on different roads having a difference in altitude, even if the altitude information includes errors or variations. Can do.
  • the altitude difference determination unit 25 classifies the altitude information included in the travel history of the object 100, the first peripheral body 200, and the plurality of second peripheral bodies 300 into a first cluster and a second cluster by cluster analysis, When the difference between the centroid value of one cluster and the centroid value of the second cluster is equal to or greater than the threshold value, it is determined that the object 100 and the first peripheral body 200 are traveling on different roads having different altitudes. As described above, the driving support device 10B can accurately determine by absorbing a high level error or variation by using the center of gravity value of the cluster.
  • the altitude difference determination unit 25 performs correlation analysis on each of the first cluster and the second cluster, and in the first cluster and the second cluster, when the correlation value by the correlation analysis is greater than or equal to the threshold, As compared with the above, the determination result that the object 100 and the first peripheral body 200 are traveling on different roads having different altitudes is weighted. Thereby, the driving assistance device 10B can accurately determine whether or not the target body 100 and the first peripheral body 200 travel on different roads having different altitudes.
  • FIG. 21 shows the configuration of the driving support apparatus 10C according to the third embodiment.
  • the driving support device 10C includes a lane number estimation unit 26 in addition to the configuration of the driving support device 10A according to the first embodiment.
  • the driving support device 10C uses the relative areas of the plurality of second peripheral bodies 300 starting from the target body 100 to estimate the number of lanes and determine whether the vehicle is in a position where a right or left turn is possible. Different from Form 1. In the third embodiment, this different point will be described, and the description of the same points as in the first embodiment will be omitted.
  • FIG. 22 is a table showing the number of lanes of the traveling lane of the object 100 and the determination result of the possibility of right and left turns by the lane number estimation unit 26.
  • the first column of the table in FIG. 22 shows the relative area of the second peripheral body 300 with respect to the target object 100.
  • the second column shows the estimation result of the number of lanes on the traveling road of the object 100 by the lane number estimation unit 26.
  • the third column shows the possibility that the object 100 cannot be turned left by the lane number estimation unit 26 as a “left turn impossible flag”.
  • the fourth column indicates the possibility that the object 100 cannot be turned right by the lane number estimation unit 26 as a “right turn impossible flag”.
  • the notation of the right turn impossible flag is the same as the notation of the left turn impossible flag.
  • the lane number estimation unit 26 determines that the right lane exists with respect to the traveling lane of the target object 100.
  • the number of lanes on the road is estimated to be 2 or more. Since there is a lane on the right side of the travel lane of the object 100, the lane number estimation unit 26 determines that there is a slight possibility that the right turn is impossible, but it cannot determine the possibility that the left turn is impossible.
  • the lane number estimation unit 26 determines that there are two left lanes with respect to the traveling lane of the target object 100. . Accordingly, the lane number estimation unit 26 estimates the number of lanes on the traveling road of the object 100 as three or more lanes. Since there are two lanes on the left side of the travel lane of the target object 100, the lane number estimation unit 26 determines that there is a high possibility that a left turn is not possible, but cannot determine the possibility that a right turn is impossible.
  • the lane number estimation unit 26 is relative to the traveling lane of the target object 100. It is determined that the right lane has two lanes and the left lane has two lanes. Therefore, the lane number estimation unit 26 estimates the number of lanes on the traveling road of the object 100 as five or more lanes. Since there are two lanes on the left side of the travel lane of the object 100, the lane number estimation unit 26 determines that there is a high possibility that a left turn is impossible. In addition, since there are two lanes on the right side of the travel lane of the object 100, the lane number estimation unit 26 determines that there is a high possibility that a right turn is impossible.
  • the lane number estimation unit 26 determines the number of lanes and the possibility of a right turn impossible and a left turn impossible according to the relative area of the second peripheral body 300 with respect to the object 100.
  • the lane number estimation unit 26 may estimate the occurrence of a right turn and a left turn from the travel history of the second peripheral body 300 and determine the possibility of a right turn and a left turn.
  • the lane number estimation unit 26 is not limited to the relative area between the target object 100 and the second peripheral body 300, and may use the relative area between the target object and the first peripheral body 200 to make a right turn impossible and a left turn impossible. May be determined.
  • the driving assistance device 10C described in the third embodiment is based on the relative area of the second peripheral body 300 starting from the target body 100 and the number of lanes in the travel lane of the target body 100 and the target body 100.
  • a lane number estimation unit 26 that determines the possibility of turning left or right is provided. Accordingly, the driving support device 10C can grasp the possibility of a lane change and a left / right turn when driving the object 100, thereby suppressing erroneous driving support.
  • 10A, 10B, 10C Driving support device 11 processor, 12 storage device, 13 communication interface, 14 sensor interface, 21 acquisition unit, 22 relative position determination unit, 23 peripheral body selection unit, 24 peripheral body search unit, 25 altitude difference determination Part, 26 lane number estimation part, 31 target information, 32 peripheral information, 40 relative area, 100 target object, 101 equipment, 121 memory, 122 storage, 200 first peripheral body, 300 second peripheral body.

Abstract

本発明は、地図情報を用いずに移動体間の相対的な位置関係を適切に認識することを目的とする。本発明の運転支援装置は、対象情報および周辺情報に基づき、第二周辺体(300)に対する対象体(100)および第一周辺体(200)の相対位置関係を判定し、当該判定結果に基づき、対象体(100)と第一周辺体(200)の相対位置関係を、第1判定として判定する相対位置判定部(22)を備える。

Description

運転支援装置、運転支援方法、運転支援プログラム
 この発明は、移動体間の相対的な位置関係を判定する技術に関する。
 車両の位置情報等を含む車両情報を無線通信により一定周期毎に送受信する車載通信装置を利用した運転支援システムが開発されている。運転支援システムは、送受信された車両情報に基づき衝突するリスクがあるか否かを判定し、ドライバーへの情報提供または車両の制御を行う。
 車両情報が示す車両の位置情報は、GNSS(Global Navigation Satellite System)といった測位衛星を利用して取得される。しかし、測位衛星を利用して取得された位置情報には、電離層における信号の遅延、ビル等によるマルチパス、およびシステム遅延に起因する誤差が含まれる。この誤差の影響により、運転支援システムが衝突するリスクを正確に判定できない可能性がある。また、カーナビゲーション装置の地図を利用することも考えられるが、その場合、処理遅延が大きくなったり、運転支援システムのコストが高くなったりするという問題が発生する。そこで、地図を利用しない運転支援システムが必要とされているが、地図を利用しない場合には道路形状を考慮した相対位置を推定することができない。
 特許文献1には、自車両の前方を走行する周辺車両の走行履歴を用いて、自車両が保有している地図情報が実際の道路形状を正しく表わしているか否かを評価する技術が記載されている。
 特許文献2には、地図情報を利用せずに、過去に走行した地点で周辺車両から受信した情報を記憶し、再度同じ地点を走行する際にその地点が立体交差であるか否かを判定する技術が記載されている。
特開2017-146724号公報 特開2016-110218号公報
 特許文献1に記載された技術では、先行車両の走行履歴から地図情報の正当性を評価している。しかし、先行車両が自車両の前方に存在することを、地図情報を用いて判定するため、地図情報を保持しないシステム構成においては、周辺車両の位置を正確に判定できない可能性がある。
 特許文献2では、過去に走行した際に周辺車両から受信した情報を記憶し、当該地点が立体交差であるか否かを判定している。しかし、対象車両が過去に走行した全ての道路について情報を記憶するため、必要な記憶量が膨大になり、もはや地図情報を内部で生成する場合と同等の処理量とコストが求められる可能性がある。
 本発明は上述の問題点に鑑み、地図情報を用いずに移動体間の相対的な位置関係を適切に認識することを目的とする。
 本発明の運転支援装置は、移動体である対象体の走行履歴を示す対象情報と、対象体の周辺を走行する移動体である周辺体の走行履歴を示す周辺情報とを取得する取得部を備える。周辺体は、運転支援装置が対象体との相対位置関係を判定する対象の移動体である第一周辺体と、対象体および第一周辺体の少なくとも一方と走行履歴が部分的に重複する第二周辺体とを含む。運転支援装置は、対象情報および周辺情報に基づき、第二周辺体に対する対象体および第一周辺体の相対位置関係を判定し、当該判定結果に基づき、対象体と第一周辺体の相対位置関係を、第1判定として判定する相対位置判定部を備える。
 本発明の運転支援装置は、第二周辺体の周辺情報を利用して、対象体と第一周辺体の相対位置関係を判定する。従って、地図情報を用いることなく移動体間の相対位置関係を適切に認識することができる。本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る運転支援装置の構成図である。 相対エリアを示す図である。 対象体、第一周辺体および第二周辺体を示す図である。 対象体と第一周辺体が同一方向に走行し、走行履歴が重複しない場合を示す図である。 対象体と第一周辺体が交差方向に走行し、走行履歴が重複しない場合を示す図である。 対象体と第一周辺体が同一方向に走行する場合の、第二周辺体の探索範囲を示す図である。 対象体と第一周辺体が交差方向に走行する場合の、第二周辺体の探索範囲を示す図である。 実施の形態1に係る運転支援装置の動作を示すフローチャートである。 第二周辺体の周辺情報の利用条件を示す図である。 第二周辺体の選択条件を示す図である。 第二周辺体を原点とする座標系を示す図である。 対象体を原点とする座標系を示す図である。 第二周辺体を原点とする座標系を示す図である。 対象体を原点とする座標系を示す図である。 対象体を起点とする第一周辺体の相対エリアの算出方法を示す図である。 実施の形態2に係る運転支援装置の構成図である。 実施の形態2に係る運転支援装置の動作を示すフローチャートである。 図17のステップS106Aの詳細な処理シーケンスを示すフローチャートである。 2つのクラスタの重心間の高度差が閾値未満の場合を示す図である。 2つのクラスタの重心間の高度差が閾値以上の場合を示す図である。 実施の形態3に係る運転支援装置の構成図である。 走行車線の車線数と右左折可能性の判定結果を示す図である。
 <A.実施の形態1>
 <A-1.構成>
 図1を参照して、実施の形態1に係る運転支援装置10Aの構成を説明する。運転支援装置10Aは、車両等の移動体である対象体100に搭載されたコンピュータである。実施の形態1において対象体100は車両である。運転支援装置10Aは、対象体100又は図示した他の構成要素と、一体化した形態又は分離不可能な形態で実装されてもよいし、取り外し可能な形態又は分離可能な形態で実装されてもよい。
 運転支援装置10Aは、ハードウェア構成として、プロセッサ11、記憶装置12、通信インタフェース13およびセンサインタフェース14を備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ11は、プログラムに記述された命令を実行して、データの転送、計算、加工、制御、管理といった処理を実行するためのIC(Integrated Circuit)である。プロセッサ11は、演算回路と、命令及び情報が格納されるレジスタ及びキャッシュメモリとを有する。プロセッサ11は、具体的には、CPU(Central Processing Unit)、DSP(Digital Signal Processor)またはGPU(Graphics Processing Unit)である。
 記憶装置12は、メモリ121と、ストレージ122とを備える。メモリ121は、具体的には、RAM(Random Access Memory)である。ストレージ122は、具体的には、HDD(Hard Disk Drive)である。また、ストレージ122は、SD(Secure Digital,登録商標)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬記憶媒体であってもよい。
 通信インタフェース13は、データを受信するレシーバーとデータを送信するトランスミッターとを含む装置である。通信インタフェース13は、具体的には、通信チップ又はNIC(Network Interface Card)である。通信インタフェース13は、車両通信専用のDSRC(Dedicated Short Range Communication)またはIEEE802.11pといった通信プロトコルを用いる。また、通信インタフェース13は、LTE(Long Term Evolution、登録商標)または4Gといった携帯電話網を用いてもよい。また、通信インタフェース13は、Bluetooth(登録商標)又はIEEE802.11a/b/g/nといった無線LANを用いてもよい。
 センサインタフェース14は、プロセッサ11を機器101と接続するための装置である。機器101には、車載ECU(Electronic Control Unit)、速度センサ、加速度センサ、方位センサ、およびEPS(Electric Power Steering)が含まれる。センサインタフェース14は、具体的には、センサECUである。
 運転支援装置10Aは、機能構成要素として、取得部21、相対位置判定部22、周辺体選択部23および周辺体探索部24を備える。運転支援装置10Aの各機能構成要素の機能は、ソフトウェアにより実現される。
 記憶装置12のストレージ122には、運転支援装置10Aの各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ121に読み込まれ、プロセッサ11によって実行される。これにより、運転支援装置10Aの各部の機能が実現される。
 プロセッサ11によって実現される各機能構成要素の処理の結果を示す情報とデータと信号値と変数値は、メモリ121もしくはプロセッサ11内のレジスタ又はキャッシュメモリに記憶される。以下の説明では、プロセッサ11によって実現される各機能構成要素の処理の結果を示す情報とデータと信号値と変数値は、メモリ121に記憶されるものとして説明する。
 図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
 <A-2.動作>
 図2から図11を参照して、実施の形態1に係る運転支援装置10Aの動作を説明する。実施の形態1に係る運転支援装置10Aの動作は、実施の形態1に係る運転支援方法に相当する。
 図2を参照して、実施の形態1に係る相対エリア40を説明する。相対エリア40は、運転支援装置10Aが搭載された移動体である対象体100の周辺エリアが複数に分割されたエリアである。対象体100の周辺エリアとは、例えば対象体100から300m以内のエリアである。図2の例では、相対エリア40は、エリアA(Ahead)、エリアAL(Ahead Left)、エリアAR(Ahead Right)、エリアAFL(Ahead Far Left)、エリアAFR(Ahead Far Right)、エリアB(Behind)、エリアBL(Behind Left)、エリアBR(Behind Right)、エリアBFL(Behind Far Left)、エリアBFR(Behind Far Right)、エリアIL(Intersecting Left)、およびエリアIR(Intersecting Right)と定義される。但し、相対エリア40は、より細かく分割するといった他の方法により定義されてもよい。
 エリアAは、対象体100のいる車線の前方エリアである。エリアALは、対象体100の左隣りの車線の前方エリアである。エリアARは、対象体100の右隣りの車線の前方エリアである。エリアAFLは、対象体100の2つ以上左の車線の前方エリアである。エリアAFRは、対象体100の2つ以上右の車線の前方エリアである。
 エリアBは、対象体100の同じ車線の後方エリアである。エリアBLは、対象体100の左隣りの車線の後方エリアである。エリアBRは、対象体100の右隣りの車線の後方エリアである。エリアBFLは、対象体100の2つ以上左の車線の後方エリアである。エリアBFRは、対象体100の2つ以上右の車線の後方エリアである。
 エリアILは、対象体100の前方にある交差点を左折した先の道路のエリアである。エリアIRは、対象体100の前方にある交差点を右折した先の道路のエリアである。
 なお、エリアILおよびエリアAFLの区別、並びにエリアIRおよびエリアAFRの区別は、相対位置だけでは難しい可能性がある。この場合、運転支援装置10Aは、過去基準期間における第一周辺体200の位置の変化から、第一周辺体200の移動方向を特定して、特定された移動方向によりエリアILとエリアAFLとの区別と、エリアIRとエリアAFRとの区別とを行ってもよい。
 図2に示すように、相対エリア40として、対象体100の前方に存在し、対象体100と向きが反対の周辺体が存在するエリアをエリアOC(OnComing)、エリアOCR(OnComing Right)、エリアOCL(OnComing Left)、エリアOCFR(OnComing FarRight)、エリアOCFL(OnComing FarLeft)と定義しても良い。
 図3を参照して、実施の形態1に係る対象体100、第一周辺体200および第二周辺体300を説明する。対象体100は基準となる移動体であり、第一周辺体200は対象体100との相対位置を判定する対象の移動体である。第二周辺体300は、対象体100および第一周辺体200とは別の第3者である。第二周辺体300は複数存在してもよい。
 走行履歴には、過去の複数の時刻における移動体の位置の情報が含まれる。図4および図5において、参照符号100が付された車両の図形は対象体100の現在の位置を表し、車両の図形と線で結ばれた枠体は対象体100の走行履歴で示される過去の位置を表している。以下、他の図面でも移動体の走行履歴を同様に表現する。図4及び図5は、対象体100と第一周辺体200の走行履歴が部分的にも重複しない場合を示している。図4は対象体100と第一周辺体200が同一方向に走行している場合の例であり、図5は対象体100と第一周辺体200の走行経路が交差する場合、すなわち両者が交差方向に走行する場合の例である。図4では、対象体100が先行する第一周辺体200に追従している。第一周辺体200の走行履歴が対象体の現在位置より前方で途切れているため、走行履歴が重複しない区間Rが存在する。このように走行履歴が重複しない区間Rでは、道路形状が変化している可能性があるため、道路形状を正確に推定することは困難である。また、図5では対象体100と第一周辺体200が互いに交差する方向に走行しているため、走行履歴が重複しない区間Rが存在する。そのため、双方の走行履歴から対象体100と第一周辺体200の走行経路が交差すると予測される場合でも、実際には第一周辺体200は対象体100の走行道路の対向道路または合流道路を走行する可能性がある。対象体100と第一周辺体200が互いに対向道路を走行する場合も、図5と同様に走行履歴が重複しない状況となる。このように、走行履歴が重複しない区間では、地図を保持していない場合に、実際の道路形状を把握することができない。本明細書では、図4および図5に示したように、走行履歴が部分的にも重複しないことを単に「走行履歴が重複しない」といい、走行履歴が部分的に重複することを、単に「走行履歴が重複する」という。
 運転支援装置10Aは、対象体100と第一周辺体200の角度差が0°±45°の範囲にある場合に、両移動体が同一方向に走行していると判断する。また、運転支援装置10Aは、対象体100と第一周辺体200の角度差が180±45°の範囲にある場合に、両移動体が対向方向に走行していると判断する。また、運転支援装置10Aは、対象体100と第一周辺体200の角度差が90°±45°または270°±45°の範囲にある場合に、両移動体が交差方向に走行していると判断する。
 なお、対象体100と第一周辺体200の角度差が45°または-45°など、両移動体の走行方向を判断する際の境界に位置する場合、運転支援装置10Aは両移動体の走行方向をいずれか一方の方向と判断する。本実施の形態では、運転支援装置10Aは、角度差が45°および-45°の場合に同一方向、135°および225°の場合に対向方向と判断する。
 図6および図7を参照して、周辺体探索部24による第二周辺体300の探索範囲を説明する。図6は、対象体100と第一周辺体200が同一方向に走行している場合の探索範囲Sを示し、図7は対象体100と第一周辺体200が交差方向に走行している場合の探索範囲Sを示している。
 対象体100と第一周辺体200が同一方向に走行している場合、周辺体探索部24は図6に示すように、対象体100および第一周辺体200の現在位置の間の区間を第二周辺体300の探索範囲Sとする。
 対象体100と第一周辺体200が交差方向に走行している場合、周辺体探索部24は図7に示すように、対象体100の前方区間および第一周辺体200の前方区間を第二周辺体300の探索範囲Sとする。図2に示した分割エリアの定義に従えば、探索範囲はエリアA、エリアILまたはエリアOCなどである。
 次に図8を用いて、実施の形態1に係る運転支援装置10Aの全体的な動作を説明する。運転支援装置10Aの全体的な動作には、対象体100の情報を取得して第一周辺体200および第二周辺体300に送信する処理と、第一周辺体200の情報を取得して相対エリア40を推定する処理とがある。図8のフローに示される運転支援装置10Aの動作は、対象体100の移動中および一時停止中に実行される。
 ステップS101は、周辺体との情報送受信処理である。なお、本ステップS101での周辺体は、第一周辺体200と第二周辺体300の他、対象体100の周辺エリアに存在する全ての移動体を含む。本処理において、運転支援装置10Aは対象体100の情報を取得して周辺体に送信する。また、運転支援装置10Aは周辺体から情報を受信する。本処理は、具体的には以下の手順により実施される。
 取得部21は、センサインタフェース14を介して、対象体100に搭載された機器101から対象体100の情報を取得する。対象体100の情報は、位置、速度、加速度、進行方向、ステアリング角度、ブレーキ制御状態、走行履歴、予測軌跡、ヨーレート、および各データの精度等を含む。
 取得部21は、取得した対象体100の情報を、対象体100の位置等の走行履歴を示す対象情報31としてメモリ121に蓄積する。具体的には、取得部21は、対象体100が一定距離移動する毎、対象体100が一定時間移動する毎、または対象体100の走行道路の曲率半径の誤差が一定値以下に抑えられる範囲毎に、取得した走行履歴情報をメモリ121に追記する。
 取得部21は、過去一定時間分の対象情報31を、通信インタフェース13を介して、対象体100の周辺を移動する周辺体に送信する。
 また、取得部21は、通信インタフェース13を介して、周辺体の位置等の走行履歴を示す周辺情報32を取得する。具体的には、取得部21は、一定時間毎に、周辺体または路側機等の外部装置から、通信インタフェース13を介して周辺情報32を受信する。取得部21は、受信した周辺情報32をメモリ121に書き込む。以上が、ステップS101における情報送受信処理である。
 次に、相対位置判定部22が、対象体100を起点とする第一周辺体200の相対エリアを判定する(ステップS102)。相対位置判定部22は、第一周辺体200の対象体100に対する相対位置を、ステップS101で第一周辺体200から受信した情報に基づいて判定する。具体的な処理は以下の通りである。
 相対位置判定部22は、メモリ121から対象情報31と周辺情報32を読み出す。そして、相対位置判定部22は、対象体100の現在位置を原点、対象体100の方位をY軸方向の向きとする直交座標系において、第一周辺体200の現在位置を算出し、対象体100を起点とする第一周辺体200の相対エリア40を判定する。ステップS102における相対エリアの判定は、第二周辺体300の周辺情報32を利用せずに行われるものであり、第2判定とも称する。
 相対位置判定部22は、ステップS101で取得部21が周辺情報32を取得した後に、相対エリア40の判定処理(ステップS102)を実施する。しかし、相対位置判定部22は、一定時間毎、または対象体100が一定距離走行する毎に、直近の対象情報31及び周辺情報32に基づき、相対エリア40の判定処理を実施しても良い。また、ここでは相対位置判定部22が、対象体100と第一周辺体200の現在位置を基に相対エリア40を判定することについて説明したが、他の方法で相対エリア40を判定しても良い。例えば、相対位置判定部22は、走行履歴から道路形状を推定し、走行履歴の特定地点を基準に相対エリア40を判定しても良い。
 次に、相対位置判定部22が、第一周辺体200との相対位置を算出するために第二周辺体300の周辺情報32を利用するか否かを判断する(ステップS103)。具体的には、相対位置判定部22は、対象情報31および周辺情報32をメモリ121から読み出し、対象体100と第一周辺体200の走行履歴が重複しているか否かをチェックする。また、相対位置判定部22は、対象体100の方位と第一周辺体200の方位との関係から、両移動体の走行方向が、同一道路、対向道路、交差道路、およびその他のいずれであるかを判定する。そして、相対位置判定部22は、対象体100と第一周辺体200の走行方向、走行履歴の重複有無、相対距離に基づき、第二周辺体300の周辺情報32を利用するか否かを判断する。
 図9は、対象体100と第一周辺体200の走行道路の関係ごとに、第二周辺体300の周辺情報32の利用条件を例示している。相対位置判定部22は、この利用条件に従って第二周辺体300の周辺情報32を利用するか否かを判断する。図9の例によれば、対象体100と第一周辺体200が同一道路を走行する場合、走行履歴が重複せず、相対距離が相対エリア内の上限値以下であることが、第二周辺体300の周辺情報32を利用する条件となる。対象体100と第一周辺体200の相対距離が相対エリア内の上限値以下であるとは、第一周辺体200が対象体100のいずれかの相対エリア内に位置することを意味する。例えば、相対エリアが対象体100から300m以内のエリアで定義される場合、対象体100と第一周辺体200の相対距離が相対エリア内の上限値以下であるとは、対象体100と第一周辺体200の相対距離が300m以下であることを意味する。
 また、対象体100と第一周辺体200の走行道路の関係が、対向道路、交差道路、またはその他の道路である場合は、走行履歴が重複せず、相対距離が閾値以上である場合に、相対位置判定部22は第二周辺体300の周辺情報32を利用すると判断する。この閾値は上述した相対エリア内の上限値より小さく、例えば50mとする。
 対象体100と第一周辺体200との間で、道路関係、走行履歴の重複有無、および相対距離が図9に示す条件を満たさない場合、相対位置判定部22は第二周辺体300の周辺情報32を利用しないと判断する。そして、運転支援装置10Aの動作はステップS107に進み、本処理を完了する。
 ステップS103で相対位置判定部22が第二周辺体300の周辺情報32を利用すると判断した場合、運転支援装置10Aは条件を満たす第二周辺体300を選択する(ステップS104)。本ステップでは、まず周辺体探索部24が、対象体100と第一周辺体200以外の移動体の周辺情報32をメモリ121から読み出し、当該周辺情報32から第3者の探索範囲に存在する移動体を第二周辺体300として抽出し、周辺体選択部23に通知する。そして、周辺体選択部23は、周辺体探索部24から通知された第二周辺体300のうち、図10に示す選択条件に合致する第二周辺体300を選択する。
 図10は、対象体100と第一周辺体200の走行道路の関係によって、異なる選択条件を示している。対象体100と第一周辺体200が同一道路に走行する場合、周辺体選択部23は以下の優先順位に従って第二周辺体300を選択する。第1の条件は、対象体100および第一周辺体200の双方と走行履歴が重複することである。第2の条件は、位置精度が高い、すなわち閾値以上であることである。第3の条件は、対象体100または第一周辺体と走行履歴が重複する区間が長い、すなわち閾値以上であることである。第4の条件は、対象体100との併走時間が長い、すなわち閾値以上であることである。周辺体選択部23は、第1の条件を満たす第二周辺体300が複数ある場合には、そのうち第2の条件を満たす第二周辺体300を選択する。第1の条件と第2の条件を満たす第二周辺体300が複数ある場合、周辺体選択部23は、そのうち第3の条件を満たす第二周辺体300を選択する。第1の条件から第3の条件を満たす第二周辺体300が複数ある場合、周辺体選択部23は、そのうち第4の条件を満たす第二周辺体300を選択する。第1の条件から第4の条件を満たす第二周辺体300が複数ある場合、周辺体選択部23は、そのうち一つの第二周辺体300をランダムに選択する。なお、上記では、対象体100および第一周辺体200の双方と走行履歴が重複することを第1の条件としたが、これは一例である。対象体100と第一周辺体200の少なくとも一方と走行履歴が重複することを第1の条件としても良い。
 対象体100と第一周辺体200の走行道路が、対向道路、交差道路またはその他の道路の関係にある場合、周辺体選択部23は以下の優先順位に従って第二周辺体300を選択する。第1の条件は、対象体100と第一周辺体200の進行エリアを走行することである。第2の条件は、対象体100と第一周辺体200との走行履歴の非重複区間が最大であることである。第3の条件は、位置精度が高いことである。
 周辺体選択部23が第二周辺体300を選択すると、運転支援装置10Aの処理はステップS105に移行する。なお、周辺体選択部23は、図10の条件に基づき第二周辺体300を選択するが、第二周辺体300の位置精度が低い場合には、第二周辺体300を選択しなくても良い。ステップS104において条件を満たす第二周辺体300が存在しない場合、続くステップS105およびステップS106の処理はスキップされる。
 ステップS105において、運転支援装置10AはステップS104で選択した第二周辺体300を起点として、対象体100および第一周辺体200が存在する相対エリアを判定する。ここで、相対位置判定部22は、第二周辺体300の位置および方位を起点として、対象体100および第一周辺体200の位置を座標変換し、図2に示すような相対エリアを判定する。本ステップの処理は、起点を対象体100から第二周辺体300に置き換え、相対エリアの判定対象を第一周辺体200から、対象体100および第一周辺体200に置き換えれば、ステップS102の処理と同様である。
 図11は、第二周辺体300を原点とする座標系を示している。図11に示すように、相対位置判定部22は、第二周辺体300を原点とし、対象体100の相対座標(x1、y1)、および第一周辺体200の相対座標(x2、y2)を算出する。
 相対位置判定部22は、相対座標と相対方位を用いて、第二周辺体300を起点とする対象体100および第一周辺体200の相対エリアを判定する。この際、相対位置判定部22は、走行履歴または予測軌跡などを利用して、図13に示すように、第二周辺体300を起点とする対象体100の相対座標(x1’’、y1)、および第一周辺体200の相対座標(x2’’、y2)を算出して、相対エリアを判定しても良い。
 運転支援装置10Aは、ステップS105において、第二周辺体300を起点とする対象体100の相対エリアと、第二周辺体300を起点とする第一周辺体200の相対エリアとを判定した。その結果を用いて、運転支援装置10Aは、対象体100を起点とする第一周辺体200の相対エリアを判定する(ステップS106)。ステップS106における相対エリアの判定は、第二周辺体300の周辺情報32を利用して行われるものであり、第1判定とも称する。
 相対位置判定部22は、図11に示す第二周辺体300を起点とする座標系を、図12に示す対象体100を起点とする座標系に変換する。対象体100を起点とした第二周辺体300の相対座標(x2´,y2´)は、(x2-x1,y2-y1)と表され、対象体100を起点とした第一周辺体200の相対座標(x1´、y1´)は、(-x1、-y1)と表される。
 相対位置判定部22は対象体100を起点とした第一周辺体200の相対座標を用いて、対象体100を起点とする第一周辺体200の相対エリアを判定する。
 なお、相対位置判定部22は、図13に示すように走行履歴または予測軌跡などを利用して、第二周辺体300を起点とする対象体100および第一周辺体200の相対座標を算出した場合、図14に示すように、対象体100を起点とする第二周辺体300の相対座標を(-x1’’,-y1)、第一周辺体200の相対座標を(x2’’-x1’’,y2-y1)として、対象体100を起点とする第一周辺体200の相対エリアを判定する。
 上記では、相対位置判定部22は、相対座標から相対エリアを判定することについて説明したが、図15に示すように、第二周辺体300を起点とする対象体100および第一周辺体の相対エリアと、第二周辺体300と対象体100および第一周辺体200との相対距離に基づき、対象体100を起点とする第一周辺体200の相対エリアを算出しても良い。図15において、第1列のPOS_HVは第二周辺体300を起点とする対象体100の相対エリアを示し、第1行のPOS_RVは第二周辺体300を起点とする第一周辺体200の相対エリアを示している。図15の例によれば、対象体100および第二周辺体300を起点とする第一周辺体200の相対エリアが共にエリアAの場合、対象体100を起点とする第一周辺体200の相対エリアは、エリアAまたはエリアBとなる。相対位置判定部22は、対象体100を起点とする第一周辺体200の相対エリアを、D1>D2の場合にエリアAと判定し、D1<D2の場合にエリアBと判定する。なお、D1は第二周辺体300と対象体100の距離であり、D2は第一周辺体200と対象体100の距離である。
 次に、運転支援装置10Aは、ステップS106における相対エリアの判定結果と、ステップS102における相対エリアの判定結果に基づいて、最終的な対象体100を起点とする第一周辺体200の相対エリアを確定する(ステップS107)。ここで、相対位置判定部22は、ステップS106の判定結果がない場合には、ステップS102の判定結果を相対エリアと確定する。また、ステップS106の判定結果がある場合、相対位置判定部22は、ステップS106の判定結果を相対エリアと確定する。なお、これらは確定方法の一例であり、他の方法で最終的な相対エリアを確定しても良い。例えば、相対位置判定部22は、2つの判定結果を一定時間観測して、最も発生頻度の多い結果を相対エリアとして確定しても良いし、2つの判定結果に重み付けを行い最終的な相対エリアを確定しても良い。
 <A-3.変形例1>
 図9では、対象体100と第一周辺体200の走行履歴が重複していないことが、第二周辺体300の周辺情報32を利用する条件として挙げられている。しかし、運転支援装置10Aは、対象体100と第一周辺体200の走行履歴が重複している場合に、第二周辺体300の周辺情報32を利用して相対エリアを判定しても良い。この場合、例えば図8のステップS103において周辺体探索部24は、対象体100と第一周辺体200の走行履歴が重複している場合でも、対象体100および第一周辺体200の位置精度が低ければ、第二周辺体300の周辺情報32を利用すると判断する。
 <A-4.変形例2>
 図9では、対象体100と第一周辺体200の関係が対向、交差、またはその他の場合には、両者の相対距離が一定以上離れていることが、第二周辺体300の周辺情報32を利用するための条件として挙げられている。しかし、運転支援装置10Aは、対象体100と第一周辺体200の相対距離が近い場合に、第二周辺体300の周辺情報32を利用して相対エリアを判定しても良い。この場合、例えば図8のステップS103において周辺体探索部24は、対象体100と第一周辺体200の相対距離が一定以下でも、対象体100および第一周辺体200の位置精度が低ければ、第二周辺体300の周辺情報32を利用すると判断する。
 <A-5.変形例3>
 実施の形態1では、周辺体選択部23が図10に示される選択条件に従って、第二周辺体300を1台選択することについて説明した。しかし、周辺体選択部23は複数台の第二周辺体300を選択し、相対位置判定部22は、選択された各第二周辺体300について図8のステップS105およびステップS106の処理を実施しても良い。例えば、周辺体選択部23は、図8のステップS104において、周辺体探索部24から通知された第二周辺体300のうち位置精度が低いものを除外し、相対位置判定部22は残った第二周辺体300についてステップS105およびステップS106の処理を実施する。また、相対位置判定部22は、ステップS107において、複数台の第二周辺体300の周辺情報32に基づいて判定した相対エリアを集計し、最も判定の多い結果を最終的な相対エリアとして採用する。
 <A-6.変形例4>
 実施の形態1では、運転支援装置10Aの各機能構成要素の機能がソフトウェアで実現された。しかし、変形例4では、運転支援装置10Aの各機能構成要素の機能がハードウェアで実現される。以下、変形例4について実施の形態1と異なる点を説明する。
 各機能構成要素の機能がハードウェアで実現される場合、運転支援装置10Aは、通信インタフェース13と、センサインタフェース14と、電子回路とを備える。電子回路は、運転支援装置10Aの各機能構成要素の機能及び記憶装置の機能を実現する専用の電子回路である。電子回路には、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。各機能構成要素の機能を1つの電子回路で実現してもよいし、各機能構成要素の機能を複数の電子回路に分散させて実現してもよい。
 <A-7.変形例5>
 運転支援装置10Aの各機能構成要素の機能のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。プロセッサ11と記憶装置12と電子回路とを、総称して処理回路という。
 <A-8.変形例6>
 実施の形態1では、対象体100、第一周辺体200および第二周辺体300の走行履歴から、対象体100を起点とする第一周辺体200の相対エリアを判定する例を説明した。運転支援装置10Aは移動体のウィンカの動作状況を相対エリアの判定に使用しても良い。具体的には、取得部21がセンサインタフェース14を介して対象体100のウィンカが動作したことを示すウィンカ情報を取得し、ウィンカ情報はメモリ121に格納される。相対位置判定部22は、ウィンカ情報を参照し、メモリ121に格納される周辺情報32および対象情報31のうち、ウィンカが発生した際の周辺情報32および対象情報31を除外し、それ以外の周辺情報32および対象情報31を用いて相対エリアを判定する。
 <A-9.変形例7>
 図9では、対象体100と第一周辺体200の走行履歴が重複していないことが、第二周辺体300の周辺情報32を利用して第一周辺体200と対象体100の相対位置関係を判定するための条件として挙げられている。しかし、運転支援装置10Aは、走行履歴が重複するか否かに関わらず、第二周辺体300の周辺情報32を利用しても良い。そして、運転支援装置10Aは、第二周辺体300の周辺情報32を利用した、対象体100を起点とする第一周辺体の相対エリアの判定結果(第1判定の結果)と、第二周辺体300の周辺情報32を利用せずに、対象体100を起点とする第一周辺体の相対エリアを判定した結果(第2判定の結果)とを、対象体100と第一周辺体200の走行履歴の重複有無に応じて重みづけし、高精度かつロバストネスに相対エリアを判定しても良い。
 具体例としては、図8のステップS103において相対位置判定部22は、対象体100と第一周辺体200の走行履歴が重複している場合でも、第二周辺体300の走行履歴を利用すると判断する。従って、ステップS103は必ずYesとなり、ステップS103からステップS107への遷移は発生しない。ステップS107において、相対位置判定部22は、対象体100と第一周辺体200の走行履歴が重複しない場合には、重複する場合と比べて、ステップS106の判定結果(第1判定の結果)の重み付けを大きくする一方、ステップS102の判定結果(第2判定の結果)の重み付けを小さくし、総合的に相対エリアを判定する。
 <A-10.変形例8>
 実施の形態1では、運転支援装置10Aは、各移動体の絶対座標から相対座標を算出し、各移動体の相対的な位置関係を判定することについて説明した。しかし、運転支援装置10Aは、相対座標を算出せず、図2に示す相対的な位置関係の範囲を絶対座標で算出し、絶対座標により相対エリアを判定しても良い。
 <A-11.効果>
 以上のように、実施の形態1に係る運転支援装置10Aは、第二周辺体300と対象体100の相対位置関係と、第二周辺体300と第一周辺体200の相対位置関係とに基づき、対象体100と第一周辺体200の相対位置関係を、第1判定として判定する相対位置判定部22を備える。このように、相対位置判定部22は、対象体100と第一周辺体200以外の第3者である第二周辺体300の周辺情報32を利用して、対象体100と第一周辺体200の相対位置関係を判定する。従って、対象体100と第一周辺体200の走行履歴が重複していなくても、また両移動体の相対距離が大きくても、相対位置判定部22は高精度に相対位置を判定することができる。
 また、相対位置判定部22は、対象情報31及び周辺情報32に基づき、第二周辺体300を原点とした対象体100および第一周辺体200の相対座標を算出し、当該算出結果に基づき、対象体100を原点とした第一周辺体200の相対座標を算出することにより、第1判定を行うことが可能である。
 あるいは、相対位置判定部22は、対象情報および周辺情報に基づき、第二周辺体300を起点とする対象体100および第一周辺体200の相対エリア、並びに第二周辺体300と対象体100および第一周辺体200との相対距離を算出し、当該算出結果に基づき、対象体100を起点とする第一周辺体200の相対エリアを、第1判定として判定する。このように、座標ではなく、相対エリアと相対距離から判定を行うことにより、GPS誤差を吸収し、GPS誤差の累積を回避できる。
 また、相対位置判定部22は、対象体100および第一周辺体200の走行道路の関係と、対象体100および第一周辺体200の相対距離とに基づき、第二周辺体300の周辺情報32を利用要と判断した場合に、第1判定を行う。従って、効率的に第二周辺体300の周辺情報32を利用することができる。
 また、相対位置判定部22は、対象体100と第一周辺体200の走行履歴が部分的にも重複しない場合に、第1判定を行う。従って、走行履歴が重複しない区間に対して第二周辺体300の走行履歴を利用することで、道路形状の推定範囲を拡大することができる。
 また、相対位置判定部22は、第1判定と共に、対象情報31と第一周辺体200の周辺情報に基づく、対象体100と第一周辺体200の相対位置関係の判定を、第2判定として行い、対象体100と第一周辺体200の走行履歴が部分的にも重複しない場合には、部分的に重複する場合に比べて、第1判定の結果に大きな重み付けを実施し、第2判定の結果に小さな重み付けを実施する。従って、対象体100と第一周辺体200の走行履歴の重複状況に応じて、高精度かつロバストネスに相対エリアを判定することができる。
 実施の形態1に係る運転支援装置10Aは、複数の第二周辺体300から、対象体100または第一周辺体200と走行履歴が部分的に重複する区間の長さに基づいて一つの第二周辺体300を選択する周辺体選択部23を備え、相対位置判定部22は、周辺体選択部23が選択した第二周辺体300と対象体100の相対位置関係と、周辺体選択部23が選択した第二周辺体300と第一周辺体200の相対位置関係とに基づき、対象体100と第一周辺体200の相対位置関係を、第1判定として判定する。従って、複数の第二周辺体300が存在する場合には、対象体100または第一周辺体200との走行履歴の重複区間が長い第二周辺体300を利用することができる。
 <B.実施の形態2>
 <B-1.構成>
 図16は、実施の形態2に係る運転支援装置10Bの構成を示している。運転支援装置10Bは、実施の形態1に係る運転支援装置10Aの構成に加えて、高度差判定部25をさらに備える。高度差判定部25以外の運転支援装置10Bの構成は運転支援装置10Aと同様である。
 高度差判定部25は、第二周辺体300の高度情報を用いて、対象体100と第一周辺体200が高度差のある異なる道路を走行しているか否かを判断する。対象体100と第一周辺体200が高度差のある異なる道路を走行している場合には、対象体100と第一周辺体200の一方が高架道路を走行し、他方が高架道路の下の道路を走行する場合、または一方が立体交差の上側道路を走行し、他方が立体交差の下側道路を走行する場合などがある。
 <B-2.動作>
 図17を用いて、実施の形態2に係る運転支援装置10Bの動作を説明する。図17のフローチャートは、ステップS106とステップS107の間に高度差判定処理のステップS106Aを有する点と、ステップS103の判断ブロックでNoの場合にステップS107ではなくステップS106Aに遷移する点が、実施の形態1で説明した図8のフローチャートと異なる。
 ステップS106Aにおいて、高度差判定部25は、対象体100の周辺に存在する複数の移動体の高度情報を用いて、対象体100と第一周辺体200とが高度差のある異なる道路を走行しているか否かを判定する。
 図18は、ステップS106Aの詳細な処理シーケンスを示している。高度差判定部25は、対象体100と第一周辺体200を含む複数の周辺体の位置と高度の情報を分析し、周辺体を2つのクラスタに分類する。図19は、クラスタC1の重心G1とクラスタC2の重心G2との高度差が閾値未満の場合を示している。この場合、高度差判定部25は、対象体100と第一周辺体200が同一道路を走行していると判断する。図20は、クラスタC1の重心G1とクラスタC2の重心G2との高度差が閾値以上の場合を示している。この場合、高度差判定部25は、対象体100と第一周辺体200が高度差のある異なる道路を走行していると判定する。
 まず、高度差判定部25は、クラスタ分析を行うかを判断する(ステップS201)。ここで、高度差判定部25は、対象体100と第一周辺体200の高度差が一定値未満であれば、両者の高度差からは、両者が高度差のある異なる道路を走行しているか否かを判別できないため、クラスタ分析を行うと判断し、ステップS202の処理に進む。一方、高度差判定部25は、対象体100と第一周辺体200の高度差が一定値以上であれば、両者が高度差のある異なる道路を走行していると判断し、クラスタ分析を行わないと判断してステップS207へ進む。なお、高度差判定部25は、対象体100と第一周辺体200の高度差を算出する際、走行履歴の高度変化から交差地点または中間地点の高度を推定し、当該地点における高度差を算出しても良い。
 ステップS202において、高度差判定部25は、対象体100の周辺に存在する複数の第二周辺体300を抽出し、抽出した第二周辺体300の周辺情報32をメモリ121から取得する。例えば、第二周辺体300の抽出範囲は、対象体100を原点とした前後左右100m四方のエリアとする。
 次に、高度差判定部25は、ステップS202で抽出した複数の第二周辺体300の現在位置および履歴点の高度に対してクラスタ分析を実施し、第二周辺体300を2つのクラスタに分類する(ステップS203)。なお、高度差判定部25は、クラスタ分析として階層クラスタ分析を利用しても良いし、非階層クラスタ分析を利用しても良い。また、高度差判定部25は、クラスタ分析の手法として最短距離法を用いても良いし、最長距離法を用いても良いし、他の方法を用いても良い。また、高度差判定部25は、第二周辺体300を高度に対して分類しても良いし、相対距離、相対角度、相対位置等に対する高度情報を分類しても良い。
 次に、高度差判定部25は、各クラスタの高度の重心値を算出し、それらの差分が閾値以上か否かを判定する(ステップS204)。高度差判定部25は、クラスタ間の高度の重心値の差分が閾値以上の場合に、対象体100と第一周辺体200は高度差のある異なる道路を走行している可能性があると判断し、ステップS205に進む。一方、高度差判定部25は、クラスタ間の高度の重心値の差分が閾値未満の場合、対象体100と第一周辺体200は同一の道路を走行していると判断し、図18のフローを終了する。なお、ここで高度差判定部25は高度の重心値の差分を判断しているが、重心値に代えて平均値または中央値を用いても良い。
 ステップS205において、高度差判定部25は、対象体100と第一周辺体200が同じクラスタに含まれているかを判断する。両者が同じクラスタに含まれている場合、高度差判定部25は対象体100と第一周辺体200は同一の道路を走行していると判断し、図18のフローを終了する。一方、高度差判定部25は、対象体100と第一周辺体200が異なるクラスタに含まれている場合に、対象体100と第一周辺体200は高度差のある異なる道路を走行している可能性があると判断し、ステップS206へ進む。
 ステップS206において、高度差判定部25は、2つのクラスタに対し、それぞれ相対距離または相対角度に対する高度情報に相関分析を実施して、相関係数を算出する。2つのクラスタ共に相関係数が閾値以上であれば、同じクラスタに属する移動体は同じ道路を走行していると判定できる。従って、高度差判定部25は、対象体100と第一周辺体200が高度差のある異なる道路を走行している可能性ありとの判定結果により大きな重み付けを実施する。そして、相対位置判定部22は、対象体100を起点とする第一周辺体200の相対エリアを別道路(Other)と判定し、図17のステップS106における判定結果を更新する(ステップS207)。
 図17のステップS107において、相対位置判定部22は、第二周辺体300を利用しないステップS102における相対エリアの判定結果と、第二周辺体300を利用するステップS106における相対エリアの判定結果とに基づき、相対エリアを確定する。なお、ステップS106における相対エリアの判定結果が図17のステップS207で更新される場合、相対位置判定部22は、ステップS106における相対エリアの判定結果として、ステップS207の更新後の相対エリアの判定結果を用いる。具体的には、相対位置判定部22は、ステップS106における相対エリアの判定結果がある場合には、ステップS106における相対エリアの判定結果を相対エリアとして確定する。但し、相対エリアの確定方法はこれに限らない。例えば、相対位置判定部22は、第二周辺体300を利用しない相対エリアの判定結果と、第二周辺体300を利用する相対エリアの判定結果を一定時間観測して、最も発生頻度の多い結果を採用しても良いし、2つの結果に重みづけを行っても良い。
 <B-3.変形例1>
 図19および図20では、高度差判定部25が、クラスタ重心点の高度差が固定の閾値を超過しているか否かに基づいて高度差のある異なる道路の判定を行う例を示した。当該閾値には、道路の構造の一般的技術基準を定めた政令である道路構造令などから固定値を設定可能である。しかし、当該閾値は必ずしも固定値ではなく、例えば移動体の走行速度に基づく可変値であっても良い。
 <B-4.変形例2>
 図18のステップS203では、高度差判定部25が高度の絶対値に対してクラスタ分析を実施することについて説明した。しかし、高度差判定部25は走行履歴に対する高度のオフセット値に対してクラスタ分析を実施しても良い。
 <B-5.変形例3>
 図18のステップS206では、高度差判定部25が高度の絶対値に対して相関分析を実施することについて説明した。しかし、高度差判定部25は走行履歴に対する高度のオフセット値に対して相関分析を実施しても良い。
 <B-6.変形例4>
 図17には、運転支援装置10BがステップS101からステップS106において実施の形態1の処理を実施した後に、高度差のある異なる道路の判定処理(ステップS106A)を実施する例を示している。しかし、運転支援装置10Bは実施の形態1の処理をスキップして高度差のある異なる道路の判定処理だけを実施しても良い。すなわち、図17のフローチャートにおいてステップS102からステップS106の処理は実施されなくても良い。
 <B-7.変形例5>
 図18では、高度差判定部25が高度情報をクラスタ分析することにより、高度差のある異なる道路の判定処理を行うことについて説明した。しかし、高度差判定部25は高度情報に加えて速度情報を考慮して高度差のある異なる道路の判定を行っても良い。具体的には、高度差判定部25はクラスタ間の速度差が異なる場合に、異なる道路である可能性が高いと判定することができる。
 <B-8.効果>
 以上のように、実施の形態2に記載の運転支援装置10Bは、複数の第二周辺体300の走行履歴に含まれる高度情報を用いて、対象体100と第一周辺体200が高度差のある異なる道路を走行しているか否かを判定する高度差判定部25を備える。従って、運転支援装置10Bは、高度情報に誤差やバラつきが含まれていても、対象体100と第一周辺体200が高度差のある異なる道路を走行しているか否かを精度良く判定することができる。
 また、高度差判定部25は、対象体100、第一周辺体200および複数の第二周辺体300の走行履歴に含まれる高度情報をクラスタ分析により第1クラスタと第2クラスタに分類し、第1クラスタの重心値と第2クラスタの重心値の差分が閾値以上の場合に、対象体100と第一周辺体200が高度差のある異なる道路を走行していると判定する。このように、運転支援装置10Bは、クラスタの重心値を用いることによって、高度の誤差またはバラつきを吸収して精度良く判定を行うことができる。
 また、高度差判定部25は、第1クラスタと第2クラスタの夫々に相関分析を実施し、第1クラスタおよび第2クラスタにおいて、相関分析による相関値が閾値以上の場合には閾値未満の場合に比べて、対象体100と第一周辺体200が高度差のある異なる道路を走行するとの判定結果に、大きな重み付けを行う。これにより、運転支援装置10Bは、対象体100と第一周辺体200が高度差のある異なる道路を走行するか否かの判定を精度良く行うことができる。
 <C.実施の形態3>
 <C-1.構成>
 図21は、実施の形態3に係る運転支援装置10Cの構成を示している。運転支援装置10Cは、実施の形態1に係る運転支援装置10Aの構成に加えて車線数推定部26を備える。運転支援装置10Cは、対象体100を起点とする複数の第二周辺体300の相対エリアを用いて、車線数を推定して右左折が可能な位置に存在するかを判定する点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、実施の形態1と同一の点については説明を省略する。
 <C-2.動作>
 図22は、車線数推定部26による、対象体100の走行車線の車線数と、右折および左折の可能性の判定結果を示すテーブルである。図22のテーブルの第1列は、対象体100に対する第二周辺体300の相対エリアを示している。第2列は、車線数推定部26による対象体100の走行道路の車線数の推定結果を示している。第3列は、車線数推定部26による対象体100の左折不可の可能性を「左折不可フラグ」として示している。この列の「△」は左折不可の可能性が少しあることを示し、「○」は左折不可の可能性が大きいことを示し、「‐」は左折不可の可能性を判断できないことを示している。第4列は、車線数推定部26による対象体100の右折不可の可能性を「右折不可フラグ」として示している。右折不可フラグの表記は左折不可フラグの表記と同様である。
 図22の例で、対象体100に対する第二周辺体300の相対エリアがAhead RightまたはBehind Rightである場合、車線数推定部26は対象体100の走行車線に対して右車線が存在すると判断し、走行道路の車線数を2車線以上と推定する。対象体100の走行車線の右側に車線が存在するため、車線数推定部26は、右折不可の可能性が少しあると判断するが、左折不可の可能性は判断できない。
 また、対象体100に対する第二周辺体300の相対エリアがAhead Far LeftまたはBehind Far Leftである場合、車線数推定部26は対象体100の走行車線に対して左車線が2車線存在すると判断する。従って、車線数推定部26は対象体100の走行道路の車線数を3車線以上と推定する。対象体100の走行車線の左側に2車線が存在するため、車線数推定部26は左折不可の可能性が大きいと判断するが、右折不可の可能性は判断できない。
 また、対象体100に対する第二周辺体300の相対エリアがAhead Far RightまたはBehind Far Right、並びにAhead Far LeftまたはBehind Far Leftである場合、車線数推定部26は対象体100の走行車線に対して右車線が2車線、左車線が2車線存在すると判断する。従って、車線数推定部26は対象体100の走行道路の車線数を5車線以上と推定する。対象体100の走行車線の左側に2車線が存在するため、車線数推定部26は左折不可の可能性が大きいと判断する。また、対象体100の走行車線の右側に2車線が存在するため、車線数推定部26は右折不可の可能性が大きいと判断する。
 上記では、車線数推定部26が、対象体100に対する第二周辺体300の相対エリアに応じて、車線数、並びに右折不可および左折不可の可能性を判定することについて説明した。しかし、車線数推定部26は第二周辺体300の走行履歴から右折および左折の発生を推定し、右折および左折の可能性を判定しても良い。また、車線数推定部26は、対象体100と第二周辺体300との相対エリアに限らず、対象体と第一周辺体200との相対エリアを用いて、右折不可および左折不可の可能性を判定しても良い。
 <C-3.効果>
 以上のように、実施の形態3に記載の運転支援装置10Cは、対象体100を起点とする第二周辺体300の相対エリアに基づき、対象体100の走行車線の車線数と対象体100の右左折可能性を判定する車線数推定部26を備える。従って、運転支援装置10Cは対象体100に運転支援を行う際に、車線変更および右左折の可能性を把握することができるので、誤った運転支援を抑制することができる。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。この発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 10A,10B,10C 運転支援装置、11 プロセッサ、12 記憶装置、13 通信インタフェース、14 センサインタフェース、21 取得部、22 相対位置判定部、23 周辺体選択部、24 周辺体探索部、25 高度差判定部、26 車線数推定部、31 対象情報、32 周辺情報、40 相対エリア、100 対象体、101 機器、121 メモリ、122 ストレージ、200 第一周辺体、300 第二周辺体。

Claims (13)

  1.  移動体である対象体(100)の走行履歴を示す対象情報(31)と、前記対象体(100)の周辺を走行する移動体である周辺体の走行履歴を示す周辺情報(32)とを取得する取得部(21)を備える運転支援装置であって、
     前記周辺体は、
     前記運転支援装置が前記対象体との相対位置関係を判定する対象の移動体である第一周辺体(200)と、
     前記対象体(100)および前記第一周辺体(200)の少なくとも一方と走行履歴が部分的に重複する第二周辺体(300)とを含み、
     前記運転支援装置は、前記対象情報および前記周辺情報に基づき、前記第二周辺体(300)に対する前記対象体(100)および前記第一周辺体(200)の相対位置関係を判定し、当該判定結果に基づき、前記対象体(100)と前記第一周辺体(200)の相対位置関係を、第1判定として判定する相対位置判定部(22)を備える、
    運転支援装置。
  2.  前記相対位置判定部(22)は、前記対象情報および前記周辺情報に基づき、前記第二周辺体(300)を原点とした前記対象体(100)および前記第一周辺体(200)の相対座標を算出し、当該算出結果に基づき、前記対象体(100)を原点とした前記第一周辺体(200)の相対座標を算出することにより、前記第1判定を行う、
    請求項1に記載の運転支援装置。
  3.  前記相対位置判定部(22)は、前記対象情報および前記周辺情報に基づき、前記第二周辺体(300)を起点とする前記対象体(100)および前記第一周辺体(200)の相対エリア、並びに前記第二周辺体(300)と前記対象体(100)および前記第一周辺体(200)との相対距離を算出し、当該算出結果に基づき、前記対象体(100)を起点とする前記第一周辺体(200)の相対エリアを、前記第1判定として判定する、
    請求項1に記載の運転支援装置。
  4.  前記相対位置判定部(22)は、前記対象体(100)および前記第一周辺体(200)の走行道路の関係と、前記対象体(100)および前記第一周辺体(200)の相対距離とに基づき、第二周辺体(300)の前記周辺情報(32)を利用要と判断した場合に、前記第1判定を行う、
    請求項1から3のいずれか1項に記載の運転支援装置。
  5.  前記相対位置判定部(22)は、前記対象体(100)と前記第一周辺体(200)の前記走行履歴が部分的にも重複しない場合に、前記第1判定を行う、
    請求項1から4のいずれか1項に記載の運転支援装置。
  6.  前記相対位置判定部(22)は、前記第1判定と共に、前記対象情報(31)と前記第一周辺体(200)の前記周辺情報に基づく、前記対象体(100)と前記第一周辺体(200)の相対位置関係の判定を、第2判定として行い、前記対象体(100)と前記第一周辺体(200)の走行履歴が部分的にも重複しない場合には、部分的に重複する場合に比べて、前記第1判定の結果に大きな重み付けを実施し、前記第2判定の結果に小さな重み付けを実施する、
    請求項1から5のいずれか1項に記載の運転支援装置。
  7.  複数の前記第二周辺体(300)から、前記対象体(100)または前記第一周辺体(200)と走行履歴が部分的に重複する区間の長さに基づいて一つの前記第二周辺体(300)を選択する周辺体選択部(23)をさらに備え、
     前記相対位置判定部(22)は、前記周辺体選択部(23)が選択した前記第二周辺体(300)と前記対象体(100)の相対位置関係と、前記周辺体選択部(23)が選択した前記第二周辺体(300)と前記第一周辺体(200)の相対位置関係とに基づき、前記対象体(100)と前記第一周辺体(200)の相対位置関係を、第1判定として判定する、
    請求項1から6のいずれか1項に記載の運転支援装置。
  8.  複数の前記第二周辺体(300)の前記走行履歴に含まれる高度情報を用いて、前記対象体(100)と前記第一周辺体(200)が高度差のある異なる道路を走行しているか否かを判定する高度差判定部(25)をさらに備える、
    請求項1から7のいずれか1項に記載の運転支援装置。
  9.  前記高度差判定部(25)は、前記対象体(100)、前記第一周辺体(200)および複数の第二周辺体(300)の前記走行履歴に含まれる高度情報をクラスタ分析により第1クラスタと第2クラスタに分類し、前記第1クラスタの重心値と前記第2クラスタの重心値の差分が閾値以上の場合に、前記対象体(100)と前記第一周辺体(200)が高度差のある異なる道路を走行していると判定する、
    請求項8に記載の運転支援装置。
  10.  前記高度差判定部(25)は、前記第1クラスタと前記第2クラスタの夫々に相関分析を実施し、前記第1クラスタおよび前記第2クラスタにおいて、前記相関分析による相関値が閾値以上の場合には閾値未満の場合に比べて、前記対象体(100)と前記第一周辺体(200)が高度差のある異なる道路を走行するとの判定結果に、大きな重み付けを行う、
    請求項9に記載の運転支援装置。
  11.  前記対象体(100)を起点とする前記第二周辺体(300)の相対エリアに基づき、前記対象体(100)の走行車線の車線数と、前記対象体(100)の右左折可能性を判定する車線数推定部(26)をさらに備える、
    請求項1から10のいずれか1項に記載の運転支援装置。
  12.  移動体である対象体(100)の走行履歴を示す対象情報(31)と、前記対象体(100)の周辺を走行する移動体である周辺体の走行履歴を示す周辺情報(32)とを取得し、
     前記周辺体は、
     前記運転支援装置が前記対象体との相対的な位置関係を判定する対象の移動体である第一周辺体(200)と、
     前記対象体(100)および前記第一周辺体(200)の少なくとも一方と走行履歴が部分的に重複する第二周辺体(300)とを含み、
     前記対象情報および前記周辺情報に基づき、前記第二周辺体(300)に対する前記対象体(100)および前記第一周辺体(200)の相対位置関係を判定し、当該判定結果に基づき、前記対象体(100)と前記第一周辺体(200)の相対位置関係を、第1判定として判定する、
    運転支援方法。
  13.  コンピュータを、
     移動体である対象体(100)の走行履歴を示す対象情報(31)と、前記対象体(100)の周辺を走行する移動体である周辺体の走行履歴を示す周辺情報(32)とを取得する取得部(21)を備える運転支援装置として機能させるための運転支援プログラムであって、
     前記周辺体は、
     前記運転支援装置が前記対象体との相対位置関係を判定する対象の移動体である第一周辺体(200)と、
     前記対象体(100)および前記第一周辺体(200)の少なくとも一方と走行履歴が部分的に重複する第二周辺体(300)とを含み、
     前記コンピュータを、前記対象情報および前記周辺情報に基づき、前記第二周辺体(300)に対する前記対象体(100)および前記第一周辺体(200)の相対位置関係を判定し、当該判定結果に基づき、前記対象体(100)と前記第一周辺体(200)の相対位置関係を、第1判定として判定する相対位置判定部(22)として機能させるための、
    運転支援プログラム。
PCT/JP2018/019118 2018-05-17 2018-05-17 運転支援装置、運転支援方法、運転支援プログラム WO2019220590A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112018007624.5T DE112018007624T5 (de) 2018-05-17 2018-05-17 Fahrassistenzeinrichtung, fahrassistenzverfahren und fahrassistenzprogramm
PCT/JP2018/019118 WO2019220590A1 (ja) 2018-05-17 2018-05-17 運転支援装置、運転支援方法、運転支援プログラム
US16/980,865 US11491978B2 (en) 2018-05-17 2018-05-17 Driving assistance device and method that judge a target object based on neighboring objects
CN201880092721.6A CN112106125B (zh) 2018-05-17 2018-05-17 驾驶支援装置、驾驶支援方法
JP2020518899A JP6882601B2 (ja) 2018-05-17 2018-05-17 運転支援装置、運転支援方法、運転支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/019118 WO2019220590A1 (ja) 2018-05-17 2018-05-17 運転支援装置、運転支援方法、運転支援プログラム

Publications (1)

Publication Number Publication Date
WO2019220590A1 true WO2019220590A1 (ja) 2019-11-21

Family

ID=68539739

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019118 WO2019220590A1 (ja) 2018-05-17 2018-05-17 運転支援装置、運転支援方法、運転支援プログラム

Country Status (5)

Country Link
US (1) US11491978B2 (ja)
JP (1) JP6882601B2 (ja)
CN (1) CN112106125B (ja)
DE (1) DE112018007624T5 (ja)
WO (1) WO2019220590A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013047903A (ja) * 2011-08-29 2013-03-07 Denso Corp 車両用無線通信装置及び通信システム
JP2014102802A (ja) * 2012-11-22 2014-06-05 Suzuki Motor Corp 車両用運転支援装置
JP2015001773A (ja) * 2013-06-13 2015-01-05 ボッシュ株式会社 車線推定装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005055347A1 (de) * 2005-11-21 2007-05-24 Robert Bosch Gmbh Fahrerassistenzsystem
JP5152677B2 (ja) * 2009-02-26 2013-02-27 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション用プログラム
JP5585177B2 (ja) * 2010-04-12 2014-09-10 トヨタ自動車株式会社 先行車位置判定装置
FR2988507B1 (fr) * 2012-03-23 2014-04-25 Inst Francais Des Sciences Et Technologies Des Transports De Lamenagement Et Des Reseaux Systeme d'assistance pour vehicule routier
EP2826687B1 (en) * 2013-07-16 2019-03-06 Honda Research Institute Europe GmbH Technique for lane assignment in a vehicle
JP6123556B2 (ja) 2013-08-06 2017-05-10 トヨタ自動車株式会社 車両認証システム
JP6325806B2 (ja) * 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
JPWO2015151192A1 (ja) 2014-03-31 2017-04-13 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理用プログラム
JP6174514B2 (ja) * 2014-04-14 2017-08-02 本田技研工業株式会社 衝突可能性判定装置、運転支援装置、衝突可能性判定方法、及び衝突可能性判定プログラム
JP6174516B2 (ja) * 2014-04-24 2017-08-02 本田技研工業株式会社 衝突回避支援装置、衝突回避支援方法、及びプログラム
KR102263731B1 (ko) * 2014-11-11 2021-06-11 현대모비스 주식회사 주변차량의 위치정보 보정 시스템 및 방법
JP6160840B2 (ja) 2014-12-02 2017-07-12 パナソニックIpマネジメント株式会社 無線装置
US9423278B1 (en) * 2015-03-09 2016-08-23 Laser Projection Technologies, Inc. 3D laser projection, scanning and object tracking
JP6553930B2 (ja) * 2015-04-14 2019-07-31 日立オートモティブシステムズ株式会社 車両情報処理装置、及び車両情報処理プログラム
JP6582925B2 (ja) 2015-11-27 2019-10-02 株式会社デンソー 自車位置認識装置
JP6129428B1 (ja) * 2016-01-15 2017-05-17 三菱電機株式会社 位置推定装置、位置推定方法及び位置推定プログラム
JP6654923B2 (ja) 2016-02-16 2020-02-26 株式会社Subaru 地図情報出力装置
US10687189B2 (en) * 2016-03-20 2020-06-16 Maxwell Joseph Breton Emergency vehicle locator
EP3518210A4 (en) * 2016-09-26 2020-07-08 Limited Liability Company "Nilar" COLLISION AVOIDANCE PROCEDURE BASED ON RELATIVE RADIO NAVIGATION
DE102016118497A1 (de) * 2016-09-29 2018-03-29 Valeo Schalter Und Sensoren Gmbh Ermittlung einer virtuellen Fahrspur für eine von einem Kraftfahrzeug befahrene Straße
JP6895634B2 (ja) * 2016-12-16 2021-06-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
WO2018216058A1 (ja) 2017-05-22 2018-11-29 三菱電機株式会社 位置推定装置、位置推定方法及び位置推定プログラム
GB201804195D0 (en) * 2018-03-15 2018-05-02 Blue Vision Labs Uk Ltd Visual vehicle tracking through noise and occlusions using crowd-sourced maps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013047903A (ja) * 2011-08-29 2013-03-07 Denso Corp 車両用無線通信装置及び通信システム
JP2014102802A (ja) * 2012-11-22 2014-06-05 Suzuki Motor Corp 車両用運転支援装置
JP2015001773A (ja) * 2013-06-13 2015-01-05 ボッシュ株式会社 車線推定装置

Also Published As

Publication number Publication date
US11491978B2 (en) 2022-11-08
JP6882601B2 (ja) 2021-06-02
JPWO2019220590A1 (ja) 2020-12-10
US20210009120A1 (en) 2021-01-14
DE112018007624T5 (de) 2021-03-11
CN112106125A (zh) 2020-12-18
CN112106125B (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
WO2017217265A1 (ja) 周辺環境認識装置
TW202019743A (zh) 自動駕駛車輛之行駛軌跡規劃系統及方法
US20170154531A1 (en) Drive support apparatus
US9830822B2 (en) Driving assistance apparatus
WO2018025341A1 (ja) 道路状態診断システム、診断用情報生成装置及び診断用情報生成方法
JP2018167699A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6129428B1 (ja) 位置推定装置、位置推定方法及び位置推定プログラム
JP5590064B2 (ja) 車両用無線通信装置
JP6671570B1 (ja) 位置推定装置および位置推定方法
JP2020087191A (ja) 車線境界設定装置、車線境界設定方法
CN111176270A (zh) 使用动态地标的定位
US20200296334A1 (en) Information processing device and automatic traveling control system including information processing device
KR102611507B1 (ko) 주행 지원 방법 및 주행 지원 장치
US20210118302A1 (en) Position estimation apparatus, position estimation method, and computer readable medium
WO2019220590A1 (ja) 運転支援装置、運転支援方法、運転支援プログラム
JP6903225B2 (ja) 運転支援装置
WO2020100451A1 (ja) 情報処理装置及び運転支援装置
JP2019196941A (ja) 自車位置推定装置
JP7321034B2 (ja) 走行支援方法及び走行支援装置
JP7111024B2 (ja) 情報処理装置、及び情報処理方法
JP7074087B2 (ja) 走行経路予測装置
WO2020202498A1 (ja) 位置推定装置、位置推定システム、位置推定方法、および位置推定プログラム
JP2023007914A (ja) 推定システム、推定装置、推定方法、推定プログラム
JP2020135244A (ja) 情報処理装置、運転支援装置、情報処理方法、運転支援方法、及びプログラム
JP2019096153A (ja) 車載装置、同一道路走行判定方法、及び同一道路走行判定プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18918726

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020518899

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18918726

Country of ref document: EP

Kind code of ref document: A1