WO2016167085A1 - 車両情報処理装置、及び車両情報処理プログラム - Google Patents

車両情報処理装置、及び車両情報処理プログラム Download PDF

Info

Publication number
WO2016167085A1
WO2016167085A1 PCT/JP2016/059007 JP2016059007W WO2016167085A1 WO 2016167085 A1 WO2016167085 A1 WO 2016167085A1 JP 2016059007 W JP2016059007 W JP 2016059007W WO 2016167085 A1 WO2016167085 A1 WO 2016167085A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lane
vehicles
information
group
Prior art date
Application number
PCT/JP2016/059007
Other languages
English (en)
French (fr)
Inventor
勇樹 堀田
祖父江 恒夫
工藤 真
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to CN201680013818.4A priority Critical patent/CN107430819B/zh
Priority to US15/556,529 priority patent/US10922963B2/en
Priority to EP16779876.8A priority patent/EP3285244B1/en
Publication of WO2016167085A1 publication Critical patent/WO2016167085A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the present invention relates to a vehicle information processing apparatus and a vehicle information processing program.
  • a system that automatically estimates driving support and driving of a vehicle by estimating the relative relationship between the host vehicle and the other vehicle based on driving information such as latitude, longitude, and speed of the other vehicle acquired by inter-vehicle communication is known.
  • driving information such as latitude, longitude, and speed of the other vehicle acquired by inter-vehicle communication
  • the latitude / longitude transmitted by inter-vehicle communication is generally based on GNSS (Global Navigation / Satellite System) positioning, and positioning errors of several tens of meters can occur. It is difficult to estimate the relationship accurately.
  • GNSS Global Navigation / Satellite System
  • Patent Document 1 the similarity between the speed patterns of the host vehicle and the other vehicle is calculated, and when the similarity is higher than a threshold value, it is determined that the other vehicle is traveling in the same lane as the host vehicle. An apparatus has been proposed.
  • Patent Document 1 since it is determined whether or not the lane is the same lane depending on the similarity of the speed pattern, for example, when there are vehicles having the same speed pattern in different lanes, the same lane is mistakenly detected. There is a problem of judging it as a lane.
  • One aspect of the present invention for achieving the above object is a vehicle information processing apparatus for detecting a relative positional relationship between a plurality of vehicles traveling in the same direction on a road having a plurality of lanes, First vehicle travel information including at least one of position information and speed information measured for a first vehicle included in the plurality of vehicles, position information measured for a second vehicle included in the plurality of vehicles, and A vehicle travel information acquisition unit configured to acquire second vehicle travel information including at least one of the speed information; the first vehicle travel information acquired by the vehicle travel information acquisition unit; and the second vehicle.
  • Vehicle and said The reciprocity that is attribute information indicating the state in which the first vehicle and the second vehicle are traveling in different lanes is determined between the two vehicles.
  • a vehicle travel information processing unit When it is determined that an event that cannot occur when the first vehicle and the second vehicle are traveling in the same lane is sequentially compared with travel information, Vehicle and said The reciprocity that is attribute information indicating the state in which the first vehicle and the second vehicle are traveling in different lanes is determined between the two vehicles.
  • Another aspect of the present invention for achieving the above object is a vehicle information processing program for detecting a relative positional relationship between a plurality of vehicles traveling in the same direction on a road having a plurality of lanes. And a memory including a first vehicle travel information including at least one of position information and speed information measured for the first vehicle included in the plurality of vehicles, and a second included in the plurality of vehicles.
  • Second vehicle travel information including at least one of position information and speed information measured for the vehicle, the first vehicle travel information acquired by the vehicle travel information acquisition unit, and the second vehicle
  • a reciprocity that is attribute information indicating a state in which the first vehicle and the second vehicle are traveling in different lanes is established between the first vehicle and the second vehicle. And a step of determining.
  • FIG. 1 is a functional block diagram showing an example of the configuration of the vehicle periphery recognition system 1 according to the first embodiment of the present invention.
  • FIG. 2 is an explanatory diagram illustrating an example of a traveling road environment of the vehicle according to the first embodiment of the present invention.
  • FIG. 3 is an explanatory diagram illustrating an example of a data structure of the vehicle travel data group 122 held by the vehicle periphery recognition device 10 according to the first embodiment of this invention.
  • FIG. 4 is an explanatory diagram illustrating an example of a data structure of the inter-vehicle relative relationship data group 123 held by the vehicle periphery recognition device 10 according to the first embodiment of this invention.
  • FIG. 1 is a functional block diagram showing an example of the configuration of the vehicle periphery recognition system 1 according to the first embodiment of the present invention.
  • FIG. 2 is an explanatory diagram illustrating an example of a traveling road environment of the vehicle according to the first embodiment of the present invention.
  • FIG. 3 is an explanatory diagram
  • FIG. 5 is an explanatory diagram illustrating an example of a data structure of the vehicle group data group 124 held by the vehicle periphery recognition device 10 according to the first embodiment of this invention.
  • FIG. 6 is an explanatory diagram of a processing flow example of the vehicle periphery recognition process 500 executed in the vehicle periphery recognition device 10 according to the first embodiment of the present invention.
  • FIG. 7 is an explanatory diagram of a processing flow example of the inter-vehicle relative relationship refresh processing 600 executed in the vehicle periphery recognition device 10 according to the first embodiment of this invention.
  • FIG. 8 is an explanatory diagram of a processing flow example of the inter-vehicle reciprocity determination processing 700 executed in the vehicle periphery recognition device 10 according to the first embodiment of the present invention.
  • FIG. 9 is an explanatory diagram of an example of a specific scene for explaining the means for determining the reciprocal relationship using the front-rear relationship of two vehicles in the vehicle periphery recognition device 10 according to the first embodiment of the present invention.
  • FIG. 10 is an explanatory diagram of an example of a specific scene for explaining the reciprocal relationship determination means using the left-right relationship between the two vehicles in the vehicle periphery recognition device 10 according to the first embodiment of the present invention.
  • FIG. 11 is an explanatory diagram of a processing flow example of the inter-vehicle relative relationship determination processing 800 executed in the vehicle periphery recognition device 10 according to the first embodiment of the present invention.
  • FIG. 10 is an explanatory diagram of an example of a specific scene for explaining the reciprocal relationship determination means using the left-right relationship between the two vehicles in the vehicle periphery recognition device 10 according to the first embodiment of the present invention.
  • FIG. 11 is an explanatory diagram of a processing flow example of the inter-vehicle relative relationship determination processing 800 executed
  • FIG. 12 is an explanatory diagram of an example of a specific scene for explaining the inter-vehicle relative relationship determination processing 800 in the vehicle periphery recognition device 10 according to the first embodiment of the present invention.
  • FIG. 13 is an explanatory diagram illustrating an example of a format of the vehicle periphery recognition information message 900 output by the vehicle periphery recognition device 10 according to the first embodiment of this invention.
  • FIG. 14 is a functional block diagram showing another example of the configuration of the vehicle periphery recognition system 1 according to the second embodiment of the present invention.
  • FIG. 15 is an explanatory diagram of a processing flow example of the vehicle periphery recognition processing 500 executed in the vehicle periphery recognition device 10 according to the second embodiment of the present invention.
  • FIG. 16 is an explanatory diagram of a processing flow example of the vehicle group lane position determination processing 1000 executed in the vehicle periphery recognition device 10 according to the second embodiment of this invention.
  • FIG. 17 is an explanatory diagram of an example of a specific scene for explaining the vehicle group lane position determination process 1000 in the vehicle periphery recognition device 10 of the second exemplary embodiment of the present invention.
  • FIG. 1 is a functional block diagram showing an example of a configuration of a vehicle periphery recognition system 1 (vehicle information processing apparatus) according to a first embodiment of the present invention. As shown in FIG. 1
  • a vehicle periphery recognition system 1 is a system that is mounted on a vehicle 2 and recognizes the state of an obstacle such as a traveling road or a surrounding vehicle around the vehicle 2,
  • Vehicle periphery recognition device 10 vehicle information processing device
  • driving support device 20 wireless communication unit 30
  • own vehicle position positioning device 40 external sensor group 50
  • vehicle sensor group 60 actuator group 70
  • in-vehicle HMI Human Machine Interface
  • the apparatus 80 etc. are comprised.
  • the vehicle 2 includes all vehicles capable of traveling on the ground, such as electric vehicles and fuel cell vehicles, in addition to conventional vehicles.
  • the vehicle periphery recognition device 10 is, for example, an ECU (Electronic Control Unit) mounted on the vehicle 2 and includes a processing unit, a storage unit 120, and a communication unit 130.
  • ECU Electronic Control Unit
  • the vehicle periphery recognition apparatus 10 may integrate with the apparatus of the driving assistance apparatus 20 and the external sensor group 50, or the smart phone etc. which the user of the vehicle 2 connected to the vehicle network An external device may be used.
  • the processing unit includes, for example, a memory such as a CPU 100 (Central Processing Unit) and a RAM (Random Access Memory), and executes a predetermined operation program stored in the storage unit 120. Thus, processing for realizing the function of the vehicle periphery recognition device 10 is performed.
  • a memory such as a CPU 100 (Central Processing Unit) and a RAM (Random Access Memory)
  • CPU 100 Central Processing Unit
  • RAM Random Access Memory
  • the storage unit 120 includes a storage device such as an HDD (Hard Disk Drive), a flash memory, and a ROM (Read Only Memory), and includes a program executed by the processing unit and a data group necessary for realizing the system. Etc. are stored.
  • various information necessary for processing related to vehicle periphery recognition of the vehicle 2 is acquired.
  • a related information acquisition unit 101 vehicle travel information acquisition unit
  • a vehicle periphery recognition information generation unit 102 that generates information for recognizing the situation around the vehicle 2 based on external environment information acquired by the related information acquisition unit 101
  • Inter-vehicle reciprocity determination unit 103 vehicle travel information processing unit
  • the vehicle periphery that outputs the vehicle periphery recognition information generated by the vehicle periphery recognition information generation unit 102 to other devices, and determines the relative relationship between the vehicles using the reciprocity of the vehicle Identification information output unit 105, etc. of the program, and, surrounding road map data group 121, the vehicle running data group 122, the inter-vehicle relative relationship data group 123, the vehicle group data group 124, etc. are stored in the storage unit 120.
  • the surrounding road map data group 121 of the vehicle periphery recognition device 10 is a digital road map data related to roads around the vehicle 2 that is necessary for determining the traveling road of the own vehicle and recognizing attribute information (number of lanes, etc.) relating to the traveling road. It is an aggregate, and includes information such as the network structure of the road, attributes (road type, speed limit, number of lanes, traffic directions, etc.), shape (road shape, intersection shape, etc.), and the like.
  • the entire map data may be stored in advance in the vehicle periphery recognition device 10, or received from another device having map data, such as a navigation device. Or may be configured to receive from the outside of the vehicle 2 via the wireless communication unit 30.
  • the vehicle travel data group 122 of the vehicle periphery recognition device 10 is a collection of data related to travel information of the vehicle 2 or other vehicles.
  • the traveling information includes, for example, position information such as the latitude, longitude, and traveling road of the vehicle, movement information such as speed, traveling direction, acceleration, and yaw rate, control information such as blinker and accelerator opening, and the like.
  • various information is acquired from the own vehicle position measurement device 40, the vehicle sensor group 60, and the like.
  • various types of information are acquired by direct (for example, inter-vehicle communication) or indirect (for example, communication via the center) communication means via the wireless communication unit 30.
  • the inter-vehicle relative relationship data group 123 of the vehicle periphery recognition device 10 is a collection of data related to the relative relationship between the vehicle 2 and other vehicles.
  • the relative relationship between vehicles in this embodiment means whether the vehicle is traveling in the same lane.
  • a relative relationship between vehicles that are traveling in the same lane is expressed as “common”, and a relative relationship between vehicles that are traveling in different lanes is expressed as “reciprocal”.
  • the vehicle group data group 124 of the vehicle periphery recognition device 10 is a collection of data related to vehicle groups in the vehicle 2 and a plurality of other vehicles.
  • a vehicle group is a group of vehicles having the same relative relationship. For example, a group of vehicles determined to be traveling in the same lane is associated with the same group.
  • the communication unit 130 includes, for example, a network card conforming to a communication standard such as Ethernet (registered trademark) or CAN (Controller Area Network), and the like, and data based on various devices and various protocols mounted on the vehicle 2. Send and receive.
  • the connection form between the communication unit 130 and another device mounted on the vehicle 2 is not limited to a wired connection such as Ethernet, but is not limited to Bluetooth (registered trademark) or a wireless LAN (Local Area Network). It may be a short-range wireless connection.
  • the driving assistance device 20 is, for example, an ECU for realizing an advanced driving assistance system (ADAS) of the vehicle 2 and recognizes the surroundings of the vehicle for the purpose of improving fuel efficiency, safety, and convenience. Based on the vehicle periphery recognition information output from the device 10, for example, an instruction is given to the actuator group 70 to automatically control acceleration / deceleration and steering of the vehicle 2, and information is provided to the driver via the in-vehicle HMI device 80. And output warnings.
  • ADAS advanced driving assistance system
  • the wireless communication unit 30 includes, for example, a network card that conforms to a long-range wireless communication standard such as LTE (Long Term Evolution), or a short-range wireless communication standard such as a wireless LAN or DSRC (Dedicated Short Range Communications).
  • a center 3 that supports the traveling of one or more vehicles, a roadside device (not shown) installed on one or more roads, wireless communication mounted on one or more other vehicles
  • the unit 30 is configured to be able to perform data communication with at least one of communication terminals (not shown) held by one or a plurality of persons.
  • the own vehicle position measuring device 40 is a device that measures the geographical position of the vehicle 2 and provides the information, and corresponds to, for example, a global navigation satellite system (GNSS) receiving device.
  • the host vehicle positioning device 40 may be configured to simply provide positioning results based on radio waves received from GNSS satellites, or may include an external sensor group 50 such as a moving speed and a traveling azimuth angle of the vehicle 2.
  • Information that can be acquired from the vehicle sensor group 60 may be used to perform position interpolation and error correction.
  • the information indicating the position of the vehicle 2 acquired by the vehicle positioning device 40 is typically a value in a predetermined geographic coordinate system such as latitude and longitude, but the road on which the vehicle 2 is traveling. Information other than the above may be used as long as the information can be used to identify the information.
  • the information indicating the position of the vehicle 2 may be information indicating a road on which the vehicle 2 is traveling and a position on the road.
  • the outside world sensor group 50 is a sensor group capable of recognizing obstacles (other vehicles, bicycles, pedestrians, fallen objects, etc.) and characteristic objects (road signs, white lines, landmarks, etc.) around the vehicle 2. Yes, for example, a camera device, radar, laser radar, sonar, etc.
  • the outside sensor group 50 outputs information on obstacles and features around the detected vehicle 2 (for example, relative distance and relative angle from the vehicle 2) on the in-vehicle network, and the vehicle periphery recognition device 10 is in-vehicle.
  • the output result can be acquired through a network.
  • the external sensor group 50 is configured to perform processing for detecting obstacles and features, but the external sensor group 50 outputs data without processing, and the vehicle periphery recognition device 10
  • the detection process may be performed by another device.
  • the vehicle sensor group 60 is a group of devices that detect the state of various components of the vehicle 2 (for example, travel speed, steering angle, accelerator operation amount, brake operation amount, etc.). In addition, the detected state quantity is periodically output.
  • a device connected to the in-vehicle network including the vehicle periphery recognition device 10 is configured to be able to acquire state quantities of various components.
  • the actuator group 70 is a device group that controls control elements such as steering, brakes, and accelerators that determine the movement of the vehicle 2, and is output from the driver's operation information such as steering wheel, brake pedal, and accelerator pedal, and the driving support device 20. The movement of the vehicle 2 is controlled based on the target control value.
  • the in-vehicle HMI device 80 is, for example, a display device mounted on the vehicle 2, and includes vehicle periphery recognition information output from the vehicle periphery recognition device 10 and information related to driving support output from the driving support device 20. It is configured to notify the driver through voice or a screen.
  • the center 3 is, for example, a collection of servers that collect and manage information on one or a plurality of vehicles 2 and provide information that supports driving of the vehicles 2.
  • the vehicle 2 is configured to be communicable with a long-range wireless communication standard such as LTE or a short-range wireless communication standard such as wireless LAN or DSRC.
  • FIG. 2 is an example of a traveling road environment of a vehicle used for explaining the terms and data contents in the present embodiment.
  • the road is treated as an aggregate of road sections.
  • a road section represents a section having the same lane configuration on a road along the road, for example. Therefore, it means that road sections are switched when the number of lanes is changed.
  • a road section is assigned to each traveling direction.
  • Each road section has an identifier called a road section ID.
  • road section IDs 6000 to 6002 are shown as examples of road sections.
  • the value of the road section ID is also used as a reference code of the road section identified by the road section ID.
  • a road section identified by the road section ID 6000 is also simply referred to as a road section 6000.
  • the road section has one or more lanes.
  • Each lane has an identifier called a lane ID, and represents the lane ID of the nth lane from the outside of the corresponding road section in the form of “road section ID-n”.
  • the road section 6000 has two lanes, and the respective lane IDs are represented as 6000-1 and 6000-2 from the outside.
  • the vehicle 5000 (own vehicle), 5100 is in the lane 6000-1 of the road section 6000, the vehicles 5150, 5200 are in the lane 6000-2 of the road section 6000, and the vehicle 5250 is in the road section 6001-. 1 shows that the vehicle 5300 is traveling on the road section 6001-2.
  • the data group of this embodiment is held in the storage unit 120 in a table format.
  • an example of the data structure of the vehicle travel data group 122 of the vehicle periphery recognition device 10 will be described with reference to FIG.
  • the vehicle travel data group 122 comprehensively stores information related to the travel state of each vehicle.
  • Vehicle ID 201 is an identifier of a vehicle related to the data entry.
  • the vehicle ID may be, for example, a vehicle identification number defined in the industry as long as it can be identified between vehicles, or may be an ID for vehicle identification that is temporarily generated and used for inter-vehicle communication or the like.
  • the time 202 represents the target time of data specified by reference numerals 203 to 209 in the data entry or the data acquisition time.
  • Position information 203 and position error information 204 indicate position information (latitude / longitude) measured at time 202 and error information thereof.
  • the position error information 204 is represented by, for example, a major axis, a minor axis, and an inclination of the major axis (rotation angle viewed clockwise with 0 ° as the north) regarding the error ellipse indicating the standard deviation of the error.
  • Speed 205, direction 206, and blinker 207 indicate the vehicle speed, traveling direction, and blinker state of vehicle 2 specified by vehicle ID 201, respectively.
  • the state of other lighting devices that are useful for estimating the behavior of the vehicle 2 such as a hazard lamp, may be stored.
  • the traveling road section ID 208 and the lane ID 209 are identifiers of the traveling road section and the lane in which the vehicle ID 201 is traveling.
  • the traveling road section ID and the lane ID are not necessarily specified. If the traveling road section ID and the lane ID cannot be specified, an invalid value “N / A” is stored.
  • the data of each vehicle is managed as time series data.
  • it is configured to hold data for a predetermined number of data or a predetermined time and to refer to past data to some extent.
  • the inter-vehicle relative relationship data group 123 comprehensively stores information on the relative positional relationship between the specific vehicle 2 and other vehicles.
  • the vehicle ID 301 is an identifier for specifying the vehicle related to the data entry, similar to the vehicle ID 201 of FIG.
  • the vehicle group ID 302 is an identifier of a vehicle group to which the vehicle belongs.
  • the target vehicle ID 303 is an identifier of a vehicle having a relative relationship indicated by reference numerals 304 to 307 with the vehicle (vehicle ID 301).
  • the front-rear relationship 304 represents the front-rear relationship between the vehicle corresponding to the target vehicle ID 303 and the vehicle corresponding to the vehicle ID 301 with respect to the road traveling direction. Specifically, a value indicating whether the vehicle corresponding to the target vehicle ID 303 is ahead or behind the vehicle corresponding to the vehicle ID 301 is stored. If neither can be determined, the invalid value “N / A” is stored.
  • the left-right relationship 305 represents the left-right relationship between the vehicle corresponding to the target vehicle ID 303 and the vehicle corresponding to the vehicle ID 301 with respect to the road traveling direction.
  • the value “left” is stored, and in the opposite case, the value “right” is stored. . If neither can be determined, the invalid value “N / A” is stored.
  • the relative relationship 306 represents a determination situation as to whether the vehicle corresponding to the target vehicle ID 303 and the vehicle corresponding to the vehicle ID 301 have a conflict relationship or a common relationship.
  • the relative relationship final determination time 307 indicates the time at which the determination result stored in the relative relationship 306 was last derived.
  • the vehicle group data group 124 comprehensively stores attribute information regarding the vehicle group acquired by the vehicle periphery recognition device 10.
  • the vehicle group ID 401 is an identifier of a vehicle group that means a vehicle group determined to have a common relationship.
  • the target road section ID 402 and the lane ID 403 are identifiers of the road section and the lane in which the vehicle group belonging to the vehicle group is traveling. When the determination is impossible, the invalid value “N / A” is stored.
  • the conflicting vehicle group ID group 404 is a list of identifiers of vehicle groups determined to have a conflicting relationship with the vehicle group corresponding to the vehicle group ID 401.
  • a conflicting vehicle group in a vehicle group with a vehicle group ID of 1 in the first row means a vehicle group with a vehicle group ID of 2.
  • the target vehicle ID group 405 is a list of identifiers of vehicle groups belonging to the vehicle group corresponding to the vehicle group ID 401.
  • the vehicle periphery recognition device 10 of the vehicle periphery recognition system 1 is based on the traveling data of other vehicles around the vehicle acquired through the wireless communication unit 30 of the vehicle 2 as a main process.
  • the vehicle periphery recognition process is executed to grasp the relative relationship between the vehicle and the other vehicle and output information related to the relative relationship to the outside.
  • step 500 An example of a flow 500 of the vehicle periphery recognition process executed in the vehicle periphery recognition system 1 of the present embodiment is shown in FIG.
  • the vehicle periphery recognition device 10 is activated by starting the engine of the vehicle 2, turning on the power, and the like and starting this processing (step 500, hereinafter “step” is abbreviated as “S”)
  • step 500 hereinafter “step” is abbreviated as “S”
  • the recognition information generation unit 102 first waits for a predetermined time (S501), and then acquires various types of information necessary for the vehicle periphery recognition process (S502).
  • waiting for a predetermined time is waiting for a time until a trigger for generating the vehicle periphery recognition information is activated.
  • the trigger may be applied by a timer so as to be executed at regular intervals, or may be applied on demand by detecting the necessity of updating the vehicle periphery recognition information.
  • the various types of information specified in S502 are obtained from the own vehicle information such as the positioning information and sensor information of the vehicle 2, which is necessary for generating the vehicle periphery recognition information, the wireless communication unit 30, the external sensor group 50, and the like.
  • Information on (moving) obstacles such as other vehicles, road environment information around the host vehicle, and the like, obtained from the surrounding road map data group 121 and the vehicle travel data group 122 in the storage unit 120.
  • the peripheral road map data group 121 and the vehicle travel data group 122 are updated by acquiring the latest data from an external device or the like at an appropriate timing via the vehicle network or the like by the related information acquisition unit 101 of the vehicle periphery recognition device 10. It is assumed that
  • the vehicle periphery recognition information generation unit 102 of the vehicle periphery recognition device 10 uses the position measurement information acquired in step S502 and road environment information around the vehicle to travel the host vehicle and other vehicles. Determine the road section. Specifically, a technique such as map matching used in a navigation device or the like is used. When the road section in which each vehicle is traveling is determined, the determined road section ID is stored in the traveling road section ID 208 in the data entry of the corresponding vehicle in the vehicle traveling data group 122.
  • the inter-vehicle relative relationship determination unit 104 of the vehicle periphery recognition device 10 confirms the validity of the information on the vehicle relative relationship determined in the previous cycle, and performs an inter-vehicle relative relationship refresh process for deleting invalid information. Execute.
  • FIG. 7 shows an example of the inter-vehicle relative relationship refresh processing flow 600.
  • the inter-vehicle relative relationship determination unit 104 of the vehicle periphery recognition device 10 acquires a relative data entry group relating to each vehicle stored in the inter-vehicle relative relationship data group 123 in S601.
  • a set of target vehicles from which the relative relationship data has been acquired is represented by V.
  • the vehicle set V includes the own vehicle in addition to other vehicles around the own vehicle.
  • the current time is acquired. This time information is used to calculate an elapsed time from a predetermined time stamp in subsequent steps.
  • step S603 the inter-vehicle relative relationship determining unit 104 checks whether there is an unchecked vehicle v in the vehicle set V (the processing after step S604 is not executed). If it does not exist (No in S603), the process is terminated (S611). If there is an unchecked vehicle v (Yes in S603), the process proceeds to S604.
  • the final confirmation time of the data entry of the vehicle v is compared with the current time, and it is confirmed whether or not a predetermined time (T1) or more has elapsed.
  • the final confirmation time of the data entry of the vehicle v corresponds to, for example, the time 202 of the latest data entry corresponding to the vehicle v in the vehicle travel data group 122.
  • T1 or more has elapsed since the last confirmation time it means that the data of the corresponding vehicle has not been received for a while, so that the process proceeds to S607 and the inter-vehicle relative relationship is reset.
  • T1 if it is less than T1 (Yes in S604), the process proceeds to S605 and a lane departure determination process is performed.
  • the lane departure determination process of S605 is a process of determining whether or not the vehicle has left the lane in which it was traveling.
  • the determination of lane departure does not necessarily determine the lane departure accurately, but determines whether there is a suspicion of lane departure.
  • the determination is made by detecting that the vehicle has moved to a different road section. Movement to a different road section means that the vehicle has deviated from the road due to a right or left turn, or the number of lanes on the traveling road has changed. Therefore, it can be said that there is a high suspicion of leaving the previous lane.
  • the possibility of lane departure may be determined by referring to blinker information that can be acquired by inter-vehicle communication or the like and detecting that the blinker is lit.
  • the process proceeds to S607, and all the inter-vehicle relative relationship data regarding the vehicle v is reset (deleted), and then the process returns to S603.
  • the processing target is transferred to the unchecked vehicle v.
  • the inter-vehicle relative relationship data regarding the vehicle v corresponds to a data entry in which the vehicle ID 301 corresponds to the vehicle v and a data entry in which the target vehicle ID 303 corresponds to the vehicle v in the inter-vehicle relative relationship data group 123.
  • the vehicle group ID of the vehicle that has left the lane may be set. For example, when a lane change is detected on a road section with two lanes, it is clear that the vehicle moves to a vehicle group that is in conflict with the previous vehicle group, so even if the vehicle group ID of the conflicting vehicle group is set good.
  • the process proceeds to S608. Since it has been confirmed that the information about the vehicle v is valid in S604 to S607 so far, it is next checked whether the relative information of the vehicle v with other vehicles is valid. If there is no unchecked relative relationship entry (entry) related to the vehicle v (No in S608), the process returns to S603, and the process proceeds to the next vehicle v. On the other hand, if it exists (Yes in S608), the relative relative final determination time 307 of the tentry is compared with the current time in S609 to check whether or not a predetermined time (T2) or more has elapsed.
  • T2 predetermined time
  • the processing flow returns to FIG.
  • the inter-vehicle relative relationship refresh process (S504) is completed, the inter-vehicle reciprocity determination unit 103 of the vehicle periphery recognition device 10 executes an inter-vehicle reciprocity determination process (S505) that extracts the inter-vehicle reciprocity.
  • an example of an inter-vehicle reciprocity determination process flow 700 is shown in FIG.
  • the inter-vehicle reciprocity determination unit 103 of the vehicle periphery recognition device 10 starts the processing in S700, and acquires travel data related to the vehicle group stored in the vehicle travel data group 122 in S701.
  • the set of vehicle groups from which the travel data is acquired is V and that n elements (vehicles v1,..., Vn) are included.
  • the vehicle set V includes the own vehicle in addition to other vehicles around the own vehicle.
  • Judgment processing (S703 to S706) is performed to determine whether or not there is a reciprocity for any combination of two vehicles from among the n elements.
  • the fact that the relationship between the two vehicles is switched means that the vehicle vk and the vehicle vm are not traveling in the same lane, that is, have a “reciprocal” relationship. For this reason, when a change in the context is detected (Yes in S704), the relative relationship between the vehicle vk and the vehicle vm is set to “reciprocal” (S706), and the relative relationship final determination time 307 is updated (S707).
  • the upper diagram shows the position information (corresponding to the position information 203 of the vehicle travel data group 122) and the position error information (position error information 204 of the vehicle travel data group 122) at a certain time (time t0). Equivalent).
  • the error ellipse indicates a position range that can be statistically determined that the vehicle surely exists, such as 2 ⁇ or 3 ⁇ with respect to the standard deviation ⁇ of error variance.
  • the front-rear relationship between the vehicle 5000 and the vehicle 5200 can be clearly separated. Therefore, it can be determined that the vehicle 5200 is located behind the vehicle 5000, and “rear” is set in the context 304 of the data entry of the inter-vehicle relative relationship data group 123.
  • the reciprocity relationship determination means in S705 determines reciprocity based on the left-right relationship between the vehicle vk and the vehicle vm.
  • the principle is the same as the context determination method, and when the two vehicles are positioned in such a manner that the error ellipses do not overlap in the left-right direction, the left-right relation can be separated.
  • the number of lanes is small, it is difficult to determine the left-right relationship because the distance between the different lanes is short, but when the number of lanes is large, it is possible to determine the left-right relationship because there is enough distance between the left lane and the right lane There is a case.
  • FIG. 10 illustrates position information and error ellipses (error ellipses 5001 and 5201, respectively) of the vehicles 5000 and 5200 at time t0 and time t1 (> t0). Further, virtual ellipse regions 5002 and 5202 are shown as virtual regions in which error ellipse regions of the vehicle 5000 and the vehicle 5200 are connected in time series.
  • the left-right relationship between the two vehicles can be determined when there is a portion where the error ellipses do not overlap in the left-right direction. That is, it results in a problem of determining whether or not there is a place where the error ellipse history areas 5002 and 5202 do not overlap.
  • the lower diagram is a graph showing the distance 5102 between each error ellipse history area along the road section axis.
  • the distance when there is no overlapping region is a positive value, and when there is overlapping region, it is a negative value.
  • the distance 5102 between the error ellipse history areas has a positive value in a predetermined section.
  • the margin for determination is ⁇
  • the inter-vehicle relative relationship data group 123 “Left” is set in the left-right relationship 305 of the vehicle 5200 with respect to the vehicle 5000.
  • the “reciprocal” is immediately set in the corresponding relative relationship 306 by the inter-vehicle reciprocity determining unit 103 (S706).
  • the relative time final determination time 307 is updated (S707).
  • the process proceeds to S708, and the process proceeds to the next two-vehicle combination.
  • k n is established in S711, and the present process ends (S713).
  • the inter-vehicle reciprocity determination process the method for determining the reciprocity based on the front-rear relationship and the left-right relationship of the positions of the two vehicles has been described, but other reciprocity determination methods may be incorporated.
  • the reciprocity may be determined by comparing speed patterns with respect to the vehicle vk and the vehicle vm located in the vicinity. Whether it is located in the vicinity is determined to be located in the vicinity when the relative distance between the two vehicles is within a predetermined value, for example.
  • the rear vehicle When two nearby vehicles are traveling in the same lane, the rear vehicle needs to travel in accordance with the acceleration / deceleration of the preceding vehicle. On the other hand, it is possible to determine that there is a reciprocity when there is a large difference between the speed patterns of the vehicle vk and the vehicle vm despite traveling in the vicinity. It is also possible to determine the reciprocity of the running pattern by comparing the control information of each vehicle such as brake and accelerator information.
  • FIG. 11 shows an example of an inter-vehicle relative relationship determination processing flow 800.
  • the inter-vehicle relative relationship determining unit 104 of the vehicle periphery recognizing device 10 starts processing in S800, and first refers to the inter-vehicle relative relationship data group 123 to acquire inter-vehicle relative relationship information (S801). If there is no vehicle v whose vehicle group ID 302 is not set (N / A) in the information (No in S802), the process proceeds to S808. On the other hand, when there is a vehicle v for which the vehicle group ID 302 is not set (N / A) (Yes in S802), the processing of S803 to S807 is executed for all corresponding vehicles, and the vehicle group ID is assigned. .
  • the inter-vehicle relative relationship determination unit 104 acquires the number of lanes n of the road section on which the vehicle v travels in S803.
  • the number n of lanes in the traveling road section of the vehicle v is determined by, for example, identifying the traveling road section ID of the vehicle v by referring to the traveling road section ID 208 of the vehicle traveling data group 122 related to the vehicle v, and the traveling road section It can be acquired by referring to the surrounding road map data group 121 using the ID.
  • the vehicle-to-vehicle relative relationship determination unit 104 checks whether or not the lane number n is 1 in S804. If the number of lanes is 1 (Yes in S804), it is determined that the vehicle v is traveling in the lane, so the vehicle group ID in the travel road section is set in the vehicle group ID 302 of the vehicle v. To do. Therefore, in S805, whether or not the vehicle group ID in the travel road section has already been assigned is confirmed by, for example, whether or not there is a data entry in which the target road section ID 402 in the vehicle group data group 124 is the travel road section ID. To do.
  • the same ID as the vehicle group ID 401 of the corresponding data entry is set in the vehicle group ID 302 of the vehicle v (S806).
  • the vehicle group ID 302 of the vehicle v is set in (S807).
  • the vehicle-to-vehicle relative relationship determination unit 104 first uses the relative relationship 306 of the vehicle-to-vehicle relative relationship data group 123 to identify a vehicle group ID that conflicts with each vehicle group ID, and stores vehicle group data.
  • the reciprocal vehicle group group 404 of the group 124 is set.
  • the vehicle group ID 302 and the vehicle group ID 302 assigned to the vehicle indicated by the target vehicle ID 303 are It is possible to identify a pair of conflicting vehicle group IDs.
  • the vehicle group ID 302 assigned to the vehicle indicated by the target vehicle ID 303 can be specified by referring to the vehicle group ID 302 of the data entry in which the vehicle ID 301 matches the target vehicle ID 303.
  • the relative relationship between the vehicle groups may be determined only when there is a relative relationship between m (m is an integer of 1 or more) corresponding vehicles. By setting a large number of m, it is possible to further increase the accuracy of determining the relative relationship between vehicle groups.
  • g1 and g2 having a reciprocal relationship correspond to “a combination (CG) of n vehicle groups having a reciprocal relationship with each other” as they are.
  • CG combinatorial relationship
  • CG1 and g2, g2 and g3, and g3 and g1 are in a reciprocal relationship in three vehicle groups (g1, g2, and g3).
  • a combination (CG1, CG2) of CG that is common to n-1 vehicle groups is extracted from the CGG.
  • the vehicle groups ga and gb, but ga ⁇ CG1, gb ⁇ CG2 that are not common to CG1 and CG2 are integrated (S811).
  • the vehicle group gb is integrated into the vehicle group ga, all the parts corresponding to the vehicle group ID of gb in the inter-vehicle relative relationship data group 123 and the vehicle group data group 124 are replaced with the vehicle group ID of ga.
  • the 403 to 405 of the vehicle group data group 124 are integrated by taking a set sum.
  • vehicle group information is not constructed.
  • the relative relationship between the vehicles is not clear, nothing occurs in the processing of the vehicle group integration in the latter half of the processing flow 800.
  • the vehicle group information at this time is as shown in the table 6011.
  • the vehicle 6004 descends backward, and the front-rear relationship with the vehicle 6002 and the vehicle 6003 changes, so that it is specified that the vehicle 6004 is in a reciprocal relationship with the vehicle 6002 and the vehicle 6003.
  • the reciprocal relationship of the vehicle group is updated as shown in the table 6013.
  • a new vehicle 6005 enters the road section to be processed from the rear. Since the vehicle 6005 cannot initially identify the vehicle group to which the vehicle 6005 belongs, a new vehicle group ID (for example, 5) is also assigned in S807.
  • the vehicle 6005 is in a reciprocal relationship with the vehicle 6002 and the vehicle 6004. That is, in S808, it can be seen that the vehicle group 5 of the vehicle 6005 is in a reciprocal relationship with the vehicle group 2 of the vehicle 6002 and the vehicle group 4 of the vehicle 6004.
  • step 809 since the vehicle group 2 and the vehicle group 4 are also in a contradictory relationship, in the step 809, (2, 4, 5) and (2, 4, 5) are also elements of the CGG. Then, in the same manner as above, vehicle groups 1 and 5 are integrated in S811, resulting in a vehicle group relationship as shown in table 6015. That is, the vehicle 6005 is traveling in the same lane as the vehicle 6001 and is traveling in a lane different from that of the vehicle 6003 even though only the reciprocal relationship between the vehicle 6002 and the vehicle 6004 is determined. Means that In this way, by utilizing the relationship between vehicles determined in the past, even when a new vehicle appears, it is possible to immediately derive the relative relationship with other vehicles from the limited relative relationship. is there.
  • the vehicle 6001 has advanced forward, and it is difficult to directly estimate the relationship between the vehicle 6001 and the vehicle 6005.
  • the relationship between the vehicle groups is determined using the relationship between the vehicle groups even for distant vehicles whose relative relationship cannot be estimated directly. It is possible.
  • FIG. 13 is an explanatory diagram of an example of a format 900 of the vehicle periphery recognition information message transmitted by the vehicle periphery recognition device 10 of the present embodiment. However, illustration of header information related to the communication protocol is omitted.
  • the vehicle periphery recognition information message includes information on a predetermined number of other vehicles around the host vehicle.
  • the number of vehicles 901 represents the number of other vehicle information included in this message.
  • the traveling information of each other vehicle includes, for example, a vehicle ID 903, position related information 904, movement information 905, control information 906, and the like.
  • the position related information 904 is information regarding the position of the other vehicle or the positional relationship between the other vehicle and the host vehicle. For example, position information 203 (latitude / longitude) of the vehicle travel data group 122, position error information 204, The traveling road section ID 208, the relative distance to the host vehicle, the front-rear relationship 304 of the inter-vehicle relative relationship data group 123, and the like are applicable.
  • the movement information 905 is information related to the movement of the other vehicle, and corresponds to, for example, speed 205, direction 206, yaw rate, acceleration, and the like.
  • the control information 906 is information related to the control of the other vehicle, and corresponds to, for example, the blinker 207, the brake, the accelerator opening, and the like.
  • information on other vehicles traveling in the same lane as the host vehicle is output.
  • the driving assistance device 20 uses the other vehicle information in the same lane received from the vehicle periphery recognition device 10 to determine the relative relationship (front-rear relationship, relative distance, etc.) and behavior (acceleration / deceleration, etc.) with the other vehicle ahead.
  • the various information included in the vehicle periphery recognition information message is not limited to the above example. By collecting information on many vehicles including the own vehicle at the center 3 of the vehicle periphery recognition system 1 or the like, Various applications such as use for general traffic control are conceivable.
  • the vehicle periphery recognition information generation unit 102 determines whether an end instruction for the vehicle periphery recognition process is input. If it is determined that there is an end instruction (Yes in S508), the process Is finished (S509). This end instruction corresponds to power-off of the vehicle periphery recognition apparatus 10, power-off of the vehicle 2, and the like. When it is determined that there is no termination instruction (No in S508), the process returns to S501 again, and the series of processes as described above are repeatedly executed.
  • the inter-vehicle relative relationship data group 123 and the vehicle group data group 124 are also retained in the next processing cycle, and data related to the inter-vehicle relative relationship determined in the past is accumulated. Thereby, even if the relative relationship between the vehicles cannot be sufficiently determined in one processing cycle, the information acquired newly from the wireless communication unit 30 is added, so that the relative relationship between the vehicles is determined as time passes. Has the effect of being. In addition, the larger the amount of accumulated data in the past, the more base points from which relative relationships with newly appearing vehicles can be determined.Once sufficient information on the relative relationships between vehicles is established, new vehicles appear. However, it can be expected that the relative relationship between the vehicles can be determined relatively quickly.
  • the vehicle periphery recognition device 10 of the vehicle 2 uses the position information on the plurality of other vehicles obtained by inter-vehicle communication or the like, and the position information of the own vehicle. It is determined whether or not the front-rear relationship has changed, that is, the reciprocity between the vehicles, that is, the corresponding two vehicles are traveling in different lanes. Further, by determining the left-right relationship between the two vehicles, it is determined that the two corresponding vehicles are traveling in different lanes. These can statistically determine the front-rear relationship and the left-right relationship in consideration of the positioning error of the position, so that it is possible to suppress misjudgment regarding the relationship of the traveling lanes between vehicles.
  • the relationship of the driving lanes between the plurality of undetermined vehicles is also derived by the combination of the reciprocity between the vehicles determined as described above and the constraint logic based on the number of lanes of the road section.
  • the vehicles A and B and the vehicles B and C have reciprocity in a two-lane road section, it can be determined from the constraint logic that the vehicles A and C are traveling in the same lane. In this way, it is possible to determine the relationship between the driving lanes between the vehicles (the same lane or different lanes) with higher accuracy by using only the reciprocity between the vehicles that are unlikely to cause erroneous determination.
  • the present embodiment not only the combination of reciprocity between vehicles determined only between two vehicles, but also the relationship between traveling lanes between vehicles newly found by the constraint logic based on the number of lanes in the road section. It is possible to further determine the relationship of the driving lane between other undetermined vehicles by further using Thereby, in the same road section, it is possible to determine the relationship of the driving lanes between vehicles even between two vehicles that are so far apart that the reciprocity / similarity between the vehicles cannot be directly determined.
  • the vehicle periphery recognition device 10 is configured to determine the relationship of travel lanes between vehicles.
  • the vehicle periphery recognition device 10 according to the first embodiment further includes means for determining a traveling lane of each vehicle.
  • FIG. 14 is a functional block diagram showing an example of the configuration of the vehicle periphery recognition system 1 in the second embodiment.
  • the device configuration of the large frame is not different from that of the first embodiment, the difference from the first embodiment is that the storage unit 120 further includes a vehicle group lane position determination unit 106.
  • Other functional configurations are the same as those in the first embodiment.
  • FIG. 15 shows an example of a flow 550 of the vehicle periphery recognition process executed in the vehicle periphery recognition device 10 of the vehicle periphery recognition system 1 of the present embodiment.
  • This processing flow is the same as the vehicle periphery recognition processing flow 500 of the first embodiment, except that the processing for determining the lane position of each vehicle (S510) between S503 and S504 is between S506 and S507.
  • a vehicle group lane position determination process (S511) is newly added. The other steps are the same as those in the first embodiment, and thus newly added S510 and S511 will be described.
  • the vehicle group lane position determination unit 106 of the vehicle periphery recognition device 10 determines the travel lane of the vehicle as much as possible mainly using the information of the single vehicle.
  • the driving lane relating to the host vehicle is the road segment that can be acquired from the surrounding road map data group 121, the type (broken line, solid line, double line, etc.) and color of the lane boundary lines on both sides detected by the external sensor group 50. It is also possible to specify this by collating the lane boundary information.
  • the vehicle travel data group 122 by analyzing the behavior of the vehicle travel data group 122, it is also possible to determine the lane in which the vehicle is traveling or was traveling. For example, when a certain vehicle moves to a different road section (for example, detected by a time-series change of the traveling road section ID 208), the blinker (light) blinks (winker 207) (light condition) and the traveling direction (direction) 206), it can be determined that the vehicle has made a left turn or a right turn (vehicle behavior estimation unit). In other words, while the vehicle is traveling on the previous road section, it can be determined that the vehicle is located in a lane that can make a left turn or a lane that can make a right turn (vehicle behavior possible lane identifying unit).
  • the surrounding road map data group 121 it is possible to specify a lane that can be turned left or a lane that can be turned right. Therefore, if there is only one lane corresponding to the lane, the vehicle travels in the previous road section. A lane can be determined. That is, the travel lane of the vehicle group ID to which the vehicle belonged in the previous road section can be determined, and the lane ID 403 of the vehicle group ID in the vehicle group data group 124 can be updated.
  • the vehicle group lane position determination unit 106 can estimate that the vehicle is temporarily stopped on the road shoulder or the like. Since it is the outermost (left in Japan) lane that can be temporarily stopped on the shoulder, it can be determined that the vehicle was traveling in the lane. In this way, it is possible to determine the lane while the vehicle is traveling or the vehicle has been traveling, based on the determination of the behavior of the vehicle and the constraint condition on the road attribute of the lane capable of the behavior.
  • FIG. 16 shows an example of an inter-vehicle group lane position determining process flow 1000.
  • Vehicle group lane position determination unit 106 of vehicle periphery recognition device 10 starts processing in S1000, and first acquires vehicle group set G by referring to vehicle group data group 124 (S1001). If the vehicle group set G is an empty set ( ⁇ ) (Yes in S1002), the process ends. When the vehicle group set G is not an empty set (No in S1002), the process proceeds to S1012 and the lane position information of each vehicle group is updated. Specifically, the lane ID 209 of the vehicle travel data group 122 corresponding to the vehicle belonging to the vehicle group is referred to, and if there is a specified lane ID, the lane ID 403 of the vehicle group is set.
  • the lane positions of all the vehicles in the vehicle group can be specified. Note that it is possible not to determine the lane ID of the vehicle group unless k (k> 1) constituent vehicles specify the same lane ID. By increasing k, the lane ID can be determined with higher accuracy.
  • a set (CGG) of n vehicle group combinations that are in a mutually conflicting relationship is specified from the vehicle group set G (S1003).
  • the vehicle group lane position determination unit 106 confirms whether or not there are n combinations (CG) of vehicle groups including vehicle groups whose lane positions have not been determined from the set CGG. If it does not exist (No in S1004), the process ends. If a CG satisfying the condition exists (Yes in S1004), the process proceeds to S1005. If the number of vehicle groups for which the lane position is undetermined in the CG is one (Yes in S1005), the unassigned lane position (lane ID) is automatically identified as the lane position of the undetermined vehicle group by the constraint logic. Therefore, such a setting is made (S1007). Then, after removing the CG from the set CGG (S1011), the process returns to S1004, and the same processing is performed for another CG that satisfies the condition.
  • the value of m is increased, the variance of the statistic of the offset value is reduced and the significant difference is improved. Since vehicle information is required, the ease of establishment of a determinable environment is reduced.
  • the value of m may be determined by a trade-off between such a statistical difference and ease of determination.
  • the offset value is calculated, for example, as the distance to the closest point to the center line of the road section based on the position information (latitude / longitude) of the constituent vehicle group and the position information of the center line of the road section. If there is a statistically significant difference between the offset values (Yes in S1009), the left-right relationship of each vehicle group can be determined based on the magnitude of the offset value, and accordingly the lane position of each vehicle group is determined accordingly. Set (S1010) and proceed to S1011. If it is not possible to determine a significant difference between the offset values (No in S1009), the process proceeds to S1011 without doing anything, and the process related to the CG ends.
  • the processing of S1008 to S1010 in the vehicle group lane position determination processing will be described with reference to FIG. 17 shows the position information 203 of the vehicles (vehicles 1101-1 to 3, vehicle 1102-1 to 3, vehicle 1103-1 to 3) in a predetermined road section in the vehicle travel data group 122, and the vehicle group. 1101 to 1103 are illustrated.
  • the offset value from the center line of the road section of the constituent vehicle group calculated in S1008 of the vehicle group lane position determination process is, for example, from the road section center line 1110 as indicated by the offset value 1103-3 of the vehicle 1103-3. This is the length of the deviation.
  • the offset value is a value for comparing the positional relationship of each vehicle in the vertical direction with respect to the lane of the road section, and the road section center line is only an example of a reference point until it gets tired.
  • the lower table of FIG. 17 shows a specific example of the statistical value of the offset value.
  • the offset data string 1121 is a data string of offset values of the constituent vehicle groups of each vehicle group.
  • the average value 1122 is an average value of the offset data string 1121.
  • the variance value (standard deviation) is the variance value (standard deviation) of the offset data string 1121. Since the position information of each vehicle has a variation due to an error, it is difficult to determine which lane the vehicle is traveling with only single data. For example, the vehicle 1101-3 and the vehicle 1102-2 are different from each other by 1.5 m even though they are in different vehicle groups (running in different lanes).
  • the lane ID from the left side is assigned in the order of the offset value. For example, if “vehicle group 1101> vehicle group 1102> vehicle group 1103” can be specified, lanes 6100-1 to 3100 are assigned to vehicle groups 1101 to 1103, respectively.
  • the vehicle periphery recognition device 10 of the vehicle 2 estimates vehicle behavior such as a right / left turn by using movement information such as the traveling direction of the vehicle and control information such as a blinker, It is possible to specify the lane in which the vehicle is traveling in combination with the constraint condition of the vehicle behavior in the lane in the corresponding road section.
  • the commonality between vehicles identified in the same manner as in the first embodiment by identifying the lane position of the predetermined vehicle using the predetermined means as described above.
  • the lane positions of all the vehicles in the same vehicle group can be specified.
  • the vehicle periphery recognition device 10 of the vehicle 2 utilizes the commonality (vehicle group) between the vehicles specified in the same manner as in the first embodiment, and the vehicle is traveling in the same lane.
  • the vehicle group the commonality between the vehicles specified in the same manner as in the first embodiment, and the vehicle is traveling in the same lane.
  • the method of identifying the lane position based on the statistics for each vehicle group can be applied to the inter-vehicle relative relationship determination process (S506) in the vehicle periphery recognition process flow 550.
  • S808 to 811 in the inter-vehicle relative relationship determination processing flow 800 of FIG. 11, which is an example of the inter-vehicle relative relationship determination processing integrates vehicle group groups to which different vehicle group IDs are assigned to the same lane. However, it can also be used for such processing. If it can be determined that the offset values of the vehicle group A and the vehicle group B are statistically based on the same population, the vehicle group A and the vehicle group B can be integrated.
  • each process of the vehicle periphery recognition device 10 is realized by executing a predetermined operation program using a processor and a RAM, but is realized by original hardware as necessary. It is also possible.
  • the vehicle periphery recognition device, the driving support device, the wireless communication unit, the vehicle position measurement device, the external sensor group, the vehicle sensor group, the actuator group, and the in-vehicle HMI device are described as individual devices. However, it can be realized by combining any two or more as required.
  • the processing for determining the relative relationship between the vehicles is executed by the vehicle periphery recognition device 10, but the center 3 or the roadside machine (non-side) configured to be communicable with the vehicle 2 is realized.
  • the same function may be realized by providing each vehicle 2 with wireless communication information regarding the relative relationship between the vehicles that is executed on the display).
  • control lines and information lines considered necessary for describing the embodiment are shown, and all control lines and information lines included in an actual product to which the present invention is applied are not necessarily shown. Not necessarily. Actually, it may be considered that almost all the components are connected to each other.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

複数の車両における走行車線の関係性をより高精度に判定する。 複数の車線を有する道路を同一方向に走行する複数の車両間の相対位置関係を検出するための車両情報処理装置。第1の車両について計測された位置情報及び速度情報の少なくともいずれかと、前記複数の車両に含まれる第2の車両について計測された位置情報及び速度情報の少なくともいずれかを取得するように構成された車両走行情報取得部と、取得された第1車両走行情報と第2車両走行情報とを逐次比較して、第1の車両と第2の車両とが同一車線を走行している場合には発生し得ない事象が発生していると判定した場合、第1の車両と第2の車両との間に、当該第1の車両と当該第2の車両とが異なる車線を走行している状態を示す属性情報である相反性が成立していると判定するように構成された車両走行情報処理部とを備える。

Description

車両情報処理装置、及び車両情報処理プログラム
 本発明は、車両情報処理装置、及び車両情報処理プログラムに関する。
 車車間通信により取得した他車両の緯度・経度や速度等の走行情報に基づいて、自車両と該他車両との相対関係を推測し、運転支援や車両の走行を自動制御するシステムが知られている。しかし、車車間通信で送信される緯度・経度は、一般的にGNSS(Global Navigation Satellite System)の測位によるもので、数10メートル程度の測位誤差が発生し得るため、自車両と他車両の相対関係を正確に推定することは困難である。
 それに対し、特許文献1では、自車両と他車両の速度パターンの類似性を算出し、類似性がある閾値よりも高い場合に、当該他車両が自車両と同一車線を走行していると判定する装置が提案されている。
特開2013-84126号公報
 しかし、上記特許文献1では、速度パターンの類似性に依存して同一車線かどうかを判定しているため、例えば、異なる車線で同様な速度パターンを持つ車両が存在していた場合、誤って同一車線と判断してしまうという問題がある。
 以上を踏まえ、本発明では、複数の車両における走行車線の関係性をより高精度に判定することが可能な車両情報処理装置、及び車両情報処理プログラムを提供することを目的とする。
 上記の目的を達成するための本発明の一つの態様は、複数の車線を有する道路を同一方向に走行する複数の車両間の相対位置関係を検出するための車両情報処理装置であって、前記複数の車両に含まれる第1の車両について計測された位置情報及び速度情報の少なくともいずれかを含む第1車両走行情報と、前記複数の車両に含まれる第2の車両について計測された位置情報及び速度情報の少なくともいずれかを含む第2車両走行情報とを取得するように構成された車両走行情報取得部と、前記車両走行情報取得部で取得された前記第1車両走行情報と前記第2車両走行情報とを逐次比較して、前記第1の車両と前記第2の車両とが同一車線を走行している場合には発生し得ない事象が発生していると判定した場合、前記第1の車両と前記第2の車両との間に、当該第1の車両と当該第2の車両とが異なる車線を走行している状態を示す属性情報である相反性が成立していると判定するように構成された車両走行情報処理部とを備える。
 上記の目的を達成するための本発明の他の態様は、複数の車線を有する道路を同一方向に走行する複数の車両間の相対位置関係を検出するための車両情報処理プログラムであって、プロセッサとメモリとを有するコンピュータに、前記複数の車両に含まれる第1の車両について計測された位置情報及び速度情報の少なくともいずれかを含む第1車両走行情報と、前記複数の車両に含まれる第2の車両について計測された位置情報及び速度情報の少なくともいずれかを含む第2車両走行情報とを取得するステップと、前記車両走行情報取得部で取得された前記第1車両走行情報と前記第2車両走行情報とを逐次比較して、前記第1の車両と前記第2の車両とが同一車線を走行している場合には発生し得ない事象が発生していると判定した場合、前記第1の車両と前記第2の車両との間に、当該第1の車両と当該第2の車両とが異なる車線を走行している状態を示す属性情報である相反性が成立していると判定するステップとを実行させる。
 本発明によれば、複数の車両における走行車線の関係性をより高精度に判定することができる。
図1は、本発明の第1実施形態による車両周辺認識システム1の構成の一例を示す機能ブロック図である。 図2は、本発明の第1実施形態における車両の走行道路環境の一例の説明図である。 図3は、本発明の第1実施形態の車両周辺認識装置10が保持する車両走行データ群122のデータ構造の一例の説明図である。 図4は、本発明の第1実施形態の車両周辺認識装置10が保持する車両間相対関係データ群123のデータ構造の一例の説明図である。 図5は、本発明の第1実施形態の車両周辺認識装置10が保持する車両グループデータ群124のデータ構造の一例の説明図である。 図6は、本発明の第1実施形態の車両周辺認識装置10において実行される車両周辺認識処理500の処理フロー例の説明図である。 図7は、本発明の第1実施形態の車両周辺認識装置10において実行される車両間相対関係リフレッシュ処理600の処理フロー例の説明図である。 図8は、本発明の第1実施形態の車両周辺認識装置10において実行される車両間相反性判定処理700の処理フロー例の説明図である。 図9は、本発明の第1実施形態の車両周辺認識装置10における2車両の前後関係を用いた相反関係の判定手段を説明するための具体的なシーンの一例の説明図である。 図10は、本発明の第1実施形態の車両周辺認識装置10における2車両の左右関係を用いた相反関係の判定手段を説明するための具体的なシーンの一例の説明図である。 図11は、本発明の第1実施形態の車両周辺認識装置10において実行される車両間相対関係判定処理800の処理フロー例の説明図である。 図12は、本発明の第1実施形態の車両周辺認識装置10における車両間相対関係判定処理800を説明するための具体的なシーンの一例の説明図である。 図13は、本発明の第1実施形態の車両周辺認識装置10が出力する車両周辺認識情報メッセージ900のフォーマットの一例の説明図である。 図14は、本発明の第2実施形態による車両周辺認識システム1の構成の他の例を示す機能ブロック図である。 図15は、本発明の第2実施形態の車両周辺認識装置10において実行される車両周辺認識処理500の処理フロー例の説明図である。 図16は、本発明の第2実施形態の車両周辺認識装置10において実行される車両グループ車線位置判定処理1000の処理フロー例の説明図である。 図17は、本発明の第2実施形態の車両周辺認識装置10における車両グループ車線位置判定処理1000を説明するための具体的なシーンの一例の説明図である。
 以下,図面を参照して,本発明の実施形態について説明する。
第1実施形態
 図1は、本発明の第1実施形態による車両周辺認識システム1(車両情報処理装置)の構成の一例を示す機能ブロック図である。図1に示すように、本実施形態に係る車両周辺認識システム1は、車両2に搭載され、車両2の周辺における走行道路や周辺車両等の障害物の状況を認識するためのシステムであり、車両周辺認識装置10(車両情報処理装置)、運転支援装置20、無線通信部30、自車位置測位装置40、外界センサ群50、車両センサ群60、アクチュエータ群70、車載用HMI(Human Machine Interface)装置80、等を含んで構成される。なお、車両2は、従来の自動車の他、電気自動車、燃料電池車等の種々の地上走行可能な車両をすべて含む。
 車両周辺認識装置10は、例えば、車両2に搭載されたECU(Electronic Control Unit)等であり、処理部と、記憶部120と、通信部130と、を有する。なお、車両周辺認識装置10の形態に特に制限はなく、例えば、運転支援装置20や外界センサ群50の装置に統合されていてもよいし、車両2のユーザが車両ネットワークに接続したスマートフォン等の外部装置でもよい。
 処理部は、例えば、CPU100(Central Processing Unit:中央演算処理装置)及びRAM(Random Access Memory)などのメモリなどを含んで構成され、記憶部120に格納されている所定の動作プログラムを実行することで、車両周辺認識装置10の機能を実現する処理を行う。
 記憶部120は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)などの記憶装置を含んで構成され、処理部が実行するプログラム、及び本システムの実現に必要なデータ群などを格納している。本実施形態では、特に、車両2の車両周辺認識に関する処理に必要な各種情報(周辺道路地図、無線通信部30の受信情報、自車位置測位情報、外界認識情報、車両センサ情報等)を取得する関連情報取得部101(車両走行情報取得部),前記関連情報取得部101で取得した外界情報に基づいて車両2周辺の状況を認識するための情報を生成する車両周辺認識情報生成部102、自車両及び無線通信部30等を介して取得された他車両の情報に基づいて車両間の相反性を判定する車両間相反性判定部103(車両走行情報処理部)、前記判定された車両間の相反性等を用いて車両間の相対関係を判定する車両間相対関係判定部104、前記車両周辺認識情報生成部102が生成した車両周辺認識情報を他の装置に対して出力する車両周辺認識情報出力部105、等のプログラム、及び、周辺道路地図データ群121、車両走行データ群122、車両間相対関係データ群123、車両グループデータ群124、等が記憶部120に格納される。
 車両周辺認識装置10の周辺道路地図データ群121は,自車の走行道路の判定や走行道路に関する属性情報(車線数等)の認識のために必要な車両2周辺の道路に関するデジタル道路地図データの集合体であり、例えば、道路のネットワーク構造、属性(道路の種別,制限速度,車線数、通行可能方向等)、形状(道路の形状,交差点の形状等),等の情報が含まれる。なお、この周辺道路地図データ群121の管理方法としては、車両周辺認識装置10に予め全体の地図データを格納していても良いし、ナビゲーション装置のような地図データを有する他装置から受信するように構成されていても良いし、無線通信部30を経由して車両2の外部から受信するように構成されていても良い。
 車両周辺認識装置10の車両走行データ群122は、車両2あるいは他車両の走行情報に関するデータの集合体である。走行情報とは、例えば、当該車両の緯度、経度、走行道路等の位置情報や、速度や進行方位、加速度、ヨーレート等の移動情報、ウィンカーやアクセル開度等の制御情報、等が含まれる。車両2の場合は、自車位置測位装置40や車両センサ群60等から各種情報が取得される。一方、他車両の場合は、無線通信部30を介して直接的(例えば、車車間通信等)あるいは間接的な(例えば、センタ経由の通信等)通信手段により各種情報が取得される。
 車両周辺認識装置10の車両間相対関係データ群123は、車両2あるいは他車両との間の相対関係に関するデータの集合体である。本実施形態における車両間の相対関係とは、同一車線を走行しているかどうかを意味する。本実施形態では、同一車線を走行している関係にある車両間の相対関係を「共通」、互いに異なる車線を走行している関係にある車両間の相対関係を「相反」と表現する。
 車両周辺認識装置10の車両グループデータ群124は、車両2及び複数の他車両における車両グループに関するデータの集合体である。車両グループとは、同様な相対関係にある車両群を関連付けしたものであり、例えば、同一車線を走行していると判定された車両群が同一グループとして関連付けられる。
 通信部130は、例えば、Ethernet(登録商標)又はCAN(Controller Area Network)等の通信規格に準拠したネットワークカード等を含んで構成され、車両2に搭載された他の装置と各種プロトコルに基づきデータの送受信を行う。なお、通信部130と車両2に搭載された他の装置との間の接続形態は、Ethernetのような有線接続に限定されることはなく、Bluetooth(登録商標)や無線LAN(Local Area Network)などの近距離無線接続であってもよい。
 運転支援装置20は、例えば、車両2の先進運転支援システム(ADAS:Advanced Driver Assistance Systems)を実現するためのECUであり、燃費性能や安全性、利便性を高めることを目的として、車両周辺認識装置10から出力される車両周辺認識情報に基づいて、例えば、アクチュエータ群70に指示を出して車両2の加減速や操舵を自動で制御したり、車載用HMI装置80を介してドライバに情報提供や警告を出力したりする。
 無線通信部30は、例えば、LTE(Long Term Evolution)等の長距離無線通信規格、あるいは無線LAN、DSRC(Dedicated Short Range Communications)等の近距離無線通信規格に準拠したネットワークカード等を有し、例えば、1台又は複数台の車両の走行を支援するセンタ3、1台又は複数台の道路上に設置される路側機(図示省略)、1台又は複数台の他車両に搭載された無線通信部30、1台又は複数台の人等が保有する通信端末(図示省略)、等の少なくともいずれかとデータ通信が可能となるように構成される。
 自車位置測位装置40は、車両2の地理的な位置を測位し、その情報を提供する装置であり、例えば、全地球航法衛星システム(GNSS)受信装置が相当する。自車位置測位装置40は、単純にGNSS衛星から受信する電波に基づいた測位結果を提供するように構成されていても良いし、車両2の移動速度及び進行方位角等、外界センサ群50や車両センサ群60から取得可能な情報を活用して位置補間及び誤差補正を行うように構成されていても良い。また、自車位置測位装置40が取得する車両2の位置を示す情報は、典型的には、緯度及び経度のような所定の地理座標系の値であるが、車両2が走行している道路を特定するために使用できる情報であれば、上記以外の情報であってもよい。例えば、車両2の位置を示す情報は、車両2が走行している道路及びその道路上の位置を示す情報であってもよい。
 外界センサ群50は,車両2周辺の一定範囲の障害物(他車両、自転車、歩行者、落下物等)や特徴物(道路標識、白線、ランドマーク等)を認識することができるセンサ群であり、例えば、カメラ装置、レーダ、レーザーレーダ、ソナー等が該当する。外界センサ群50は、検出した車両2周辺の障害物や特徴物の情報(例えば、車両2からの相対距離と相対角度等)を車載ネットワーク上に出力しており、車両周辺認識装置10は車載ネットワークを通じて前記出力結果を取得できるように構成されている。なお、本実施形態では、外界センサ群50で障害物や特徴物を検出する処理を実施する構成になっているが、外界センサ群50が未処理のままデータを出力し、車両周辺認識装置10等の他装置で検出処理を行っても良い。
 車両センサ群60は、車両2の各種部品の状態(例えば走行速度、操舵角、アクセルの操作量、ブレーキの操作量等)を検出している装置群であり、例えば、CAN等の車載ネットワーク上に、検出した状態量を定期的に出力している。車両周辺認識装置10を含む車載ネットワークに接続された装置は、各種部品の状態量を取得することが可能となるように構成されている。
 アクチュエータ群70は、車両2の動きを決定する操舵、ブレーキ、アクセル等の制御要素を制御する装置群であり、運転者によるハンドル、ブレーキペダル、アクセルペダル等の操作情報や運転支援装置20から出力される目標制御値に基づいて、車両2の動きを制御するように構成されている。
 車載用HMI装置80は、例えば、車両2に搭載されたディスプレイ装置等であり、車両周辺認識装置10から出力される車両周辺認識情報や、運転支援装置20から出力される運転支援に関する情報を、音声や画面を通じてドライバに通知するように構成されている。
 センタ3は、例えば、1台又は複数台の車両2の情報を収集・管理し、車両2の走行を支援する情報を提供するサーバの集合体である。1台又は複数台の車両2とは、例えば、LTE等の長距離無線通信規格、あるいは無線LAN、DSRC等の近距離無線通信規格を通じて通信可能なように構成されている。
 図2は、本実施形態における用語やデータの内容を説明するために用いる、車両の走行道路環境の一例である。
 本実施形態において、道路は道路区間の集合体として扱われる。道路区間とは、例えば、道なりに沿った道路において車線構成が同一である区間を表す。そのため、車線数が変更される時点で、道路区間が切り替わることを意味する。また、車線が存在する双方向道路の場合は、各進行方向に対して道路区間が割り当てられるものとする。
 各道路区間は、道路区間IDと呼ばれる識別子を持つ。図2では、道路区間の例として道路区間ID6000~6002を示してある。以下、道路区間IDの値を、その道路区間IDによって識別される道路区間の参照符号としても用いる。例えば、道路区間ID6000によって識別される道路区間を単に道路区間6000とも記載する。
 道路区間は、1つ以上の車線を有する。各車線は、車線IDと呼ばれる識別子を持ち、該当道路区間の外側からn番目の車線の車線IDを、「道路区間ID-n」という形式で表現するものとする。例えば、図2において、道路区間6000は2つの車線を有しているが、それぞれの車線IDは外側から6000-1、6000-2と表される。
 図2の走行道路環境例では、車両5000(自車両)、5100が道路区間6000の車線6000-1を、車両5150、5200が道路区間6000の車線6000-2を、車両5250が道路区間6001-1を、車両5300が道路区間6001-2を、それぞれ走行している様子を表している。
 次に、本実施形態の車両周辺認識装置10において利用されるデータ群について説明する。本実施形態のデータ群は、テーブル形式で記憶部120に保持されている。まず、車両周辺認識装置10の車両走行データ群122のデータ構造の一例を、図3を用いて説明する。車両走行データ群122は、各車両の走行状態に関する情報を包括的に格納している。
 車両ID201は、当該データエントリに関連する車両の識別子である。車両IDは、車両相互間で識別可能であれば、例えば、業界で規定されている車両識別番号でも良いし、車車間通信等に用いる一時的に生成される車両識別のためのIDでも良い。
 時刻202は、当該データエントリにおける符号203~209で特定されるデータの対象時刻、あるいはデータの取得時刻を表す。位置情報203及び位置誤差情報204は、時刻202において測位された位置情報(緯度・経度)及びその誤差情報を示す。位置誤差情報204は、例えば、誤差の標準偏差を示す誤差楕円に関する長径、短径、長径の傾き(北を0°として時計回りに見た回転角度)で表現される。
 速度205、方位206、ウィンカー207は、それぞれ車両ID201で特定される車両2の車速、進行方位、ウィンカーの状態を示す。なお、ウィンカーの他、ハザードランプなど、車両2の挙動推定に役立つ他の灯火機器の状態を格納するようにしてもよい。
 走行道路区間ID208、車線ID209は、車両ID201が走行している走行道路区間及び車線の識別子である。走行道路区間ID及び車線IDは、必ずしも特定できるとは限らず、特定できない場合は無効値「N/A」が格納される。
 本実施形態では、各車両のデータは時系列データとして管理される。例えば、所定のデータ数あるいは所定時間の分だけデータを保持し、ある程度過去のデータを参照できるように構成されている。
 次に、車両周辺認識装置10の車両間相対関係データ群123のデータ構造の一例を、図4を用いて説明する。車両間相対関係データ群123は、特定の車両2と他の車両との間の相対的位置関係に関する情報を包括的に格納している。
 車両ID301は、図3の車両ID201と同様で、当該データエントリに関連する車両を特定するための識別子である。
 車両グループID302は、当該車両が属する車両グループの識別子である。
 対象車両ID303は、当該車両(車両ID301)と符号304~307に示す相対関係にある車両の識別子である。
 前後関係304は、対象車両ID303に相当する車両と、車両ID301に相当する車両との、道路の進行方向に対する前後関係を表す。具体的には、対象車両ID303に相当する車両が、車両ID301に相当する車両に対して前方にいるか後方にいるかを示す値が格納される。どちらとも判定できない場合は、無効値「N/A」が格納される。
 左右関係305は、対象車両ID303に相当する車両と、車両ID301に相当する車両との、道路の進行方向に対する左右関係を表す。対象車両ID303に相当する車両が、進行方向に関して車両ID301に相当する車両よりも左側の車線に位置すると判定できる場合は、「左方」、逆の場合は「右方」という値が格納される。どちらとも判定できない場合は、無効値「N/A」が格納される。
 相対関係306は、対象車両ID303に相当する車両と、車両ID301に相当する車両が、相反関係にあるか共通関係にあるかの判定状況を表す。お互いに相反関係にある場合は、「相反」、共通の関係にある場合は「共通」、どちらとも判定できない場合は無効値「N/A」が格納される。
 相対関係最終判定時刻307は、相対関係306に格納されている判定結果を最後に導出した時刻を示す。
 次に、車両周辺認識装置10の車両グループデータ群124のデータ構造の一例を、図5を用いて説明する。車両グループデータ群124は、車両周辺認識装置10が取得している車両グループに関する属性情報を包括的に格納している。
 車両グループID401は、共通関係にあると判定された車両群を意味する車両グループの識別子である。
 対象道路区間ID402及び車線ID403は、当該車両グループに属する車両群が走行している道路区間及び車線の識別子である。判定不可の場合は、無効値「N/A」が格納される。
 相反車両グループID群404は、車両グループID401に相当する車両グループと相反関係にあると判定された車両グループの識別子のリストである。例えば、1行目の車両グループIDが1の車両グループにおける相反車両グループは、車両グループIDが2の車両グループであることを意味している。
 対象車両ID群405は、車両グループID401に相当する車両グループに属する車両群の識別子のリストである。
 続いて,車両周辺認識システム1の動作について説明する。本実施形態における車両周辺認識システム1の車両周辺認識装置10は、主要な処理として、車両2の無線通信部30を介して取得された自車周辺の他車両の走行データに基づいて、車両2と他車両の相対関係を把握し、その相対関係に関する情報を外部に出力する車両周辺認識処理を実行する。
 本実施形態の車両周辺認識システム1において実行される車両周辺認識処理のフロー500の例を図6に示す。
 車両2のエンジン始動、電源投入等により車両周辺認識装置10が起動し、本処理を開始すると(ステップ500、以下「ステップ」を「S」と略記する。)、車両周辺認識装置10の車両周辺認識情報生成部102は、まず、所定時間待機後(S501)、車両周辺認識処理に必要な各種情報を取得する(S502)。ここでの所定時間待機とは,車両周辺認識情報の生成のトリガーがかかるまでの時間を待機することである。同トリガーは、一定時間毎に実施されるようにタイマーでかけても良いし、車両周辺認識情報の更新の必要性を検知してオンデマンドにかけても良い。S502で特定する各種情報とは、車両周辺認識情報を生成するのに必要となる、車両2の位置測位情報やセンサ情報等の自車情報や、無線通信部30及び外界センサ群50等から得られる他車両等の(移動)障害物に関する情報、自車周辺の道路環境情報等であり、記憶部120の周辺道路地図データ群121及び車両走行データ群122から取得される。なお、周辺道路地図データ群121や車両走行データ群122は、車両周辺認識装置10の関連情報取得部101によって車両ネットワーク等を介して適切なタイミングで外部装置等から最新のデータが取得され、更新されているものとする。
 次にS503で、車両周辺認識装置10の車両周辺認識情報生成部102は、S502で取得した位置測位情報及び自車周辺の道路環境情報等を用いて、自車両及び他車両が走行している道路区間を決定する。具体的には、ナビゲーション装置等で用いられているマップマッチング等の手法を用いる。各車両が走行している道路区間が決定されると、車両走行データ群122における該当車両のデータエントリにおける走行道路区間ID208に決定された道路区間のIDが格納される。
 続いて、S504で、車両周辺認識装置10の車両間相対関係判定部104は、前サイクルで決定した車両相対関係の情報の有効性を確認し、無効情報を消去する車両間相対関係リフレッシュ処理を実行する。
 車両間相対関係リフレッシュ処理の具体例として、図7に車両間相対関係リフレッシュ処理フロー600の一例を示す。
 まず、車両周辺認識装置10の車両間相対関係判定部104は、S600で処理を開始すると、S601で車両間相対関係データ群123に格納されている各車両に関する相対関係データエントリ群を取得する。ここで相対関係データを取得した対象の車両の集合をVとする。なお、この車両集合Vには、自車周辺の他車両に加えて、自車両も含まれる。
 次に、S602において現在時刻を取得しておく。この時刻情報は、以降のステップで所定のタイムスタンプからの経過時間を算出するために用いられる。
 S603に進み、車両間相対関係判定部104は、車両集合Vの中に未チェックの(S604以降の処理を実行していない)車両vが存在するかをチェックする。もしも存在しない場合は(S603でNo)、本処理を終了する(S611)。もしも未チェックの車両vがあれば(S603でYes)、S604に進む。
 S604では、車両vのデータエントリの最終確認時刻と現在時刻とを比較して、所定時間(T1)以上経過していないかを確認する。ここで、車両vのデータエントリの最終確認時刻は、例えば、車両走行データ群122の車両vに相当する最新データエントリの時刻202に相当する。最終確認時刻からT1以上経過していた場合(S604でNo)、しばらく該当車両のデータを受信していないことを意味しているので、S607に進み、車両間相対関係をリセットする。一方、T1未満だった場合は(S604でYes)、S605に進み車線離脱判定処理を行う。
 S605の車線離脱判定処理とは、車両がそれまで走行していた車線を離脱したかどうかを判定する処理である。なお、ここでの車線離脱の判定とは、必ずしも正確に車線の離脱を判定する必要はなく、車線の離脱の疑いがあるかどうかを判定するものである。具体的には、例えば、当該車両がそれまでとは異なる道路区間に移動したことを検出することにより判定する。異なる道路区間への移動は、右左折により道なりの道路から外れた、あるいは、走行道路の車線数が変化したということを意味する。そのため、それまでの走行車線から離脱した疑いが高いと言える。また、例えば、車車間通信等により取得できるウィンカー情報を参照し、ウィンカーが点灯していることを検出することにより車線離脱の可能性を判定しても良い。
 S605の車線離脱判定処理の結果、車線離脱の疑いがある場合(S606でYes)は、S607に進み、当該車両vに関する車両間相対関係データを全てリセット(削除)した後、S603に戻り、別の未チェックの車両vに処理対象を移行する。ここで、当該車両vに関する車両間相対関係データとは、車両間相対関係データ群123における、車両ID301が車両vに相当するデータエントリ及び対象車両ID303が車両vに相当するデータエントリが該当する。
 なお、S605の車線離脱判定処理において、車線を離脱した先の車両グループが明らかである場合は、すべての車両間相対関係データをリセットする必要はなく、当該車両vのデータエントリの車両グループID302に、車線を離脱した先の車両グループIDを設定してもよい。例えば、車線数が2の道路区間上で車線変更を検出した場合は、それまでの車両グループと相反する車両グループに移動することは明らかなので、相反する車両グループの車両グループIDを設定しても良い。
 S606に戻り、車線離脱の疑いがない場合は(S606でNo)、S608に進む。これまでのS604~S607で車両vに関する情報が有効であることが確かめられているので、次に車両vにおける他の車両との相対関係情報が有効かどうかを確認する。車両vに関する未チェックの相対関係エントリ(rentry)がない場合は(S608でNo)、S603に戻り、次の車両vに処理を移行する。一方、存在する場合は(S608でYes)、S609でrentryの相対関係最終判定時刻307と現在時刻を比較して所定時間(T2)以上経過していないかどうかを確認する。T2以上経過している場合は(S609でNo)、rentryに関する相対関係(車両間相対関係データ群123の303~307)をリセット(削除)し(S610)、S608に戻る。一方、T2未満の場合は(S609でYes)、何もせずにS608に戻る。
 以上の車両間相対関係リフレッシュ処理により、車両間の相対関係が所定時間以上確認されていない、相対関係が変化したリスクが高いと判定された場合は、車両間相対関係データ群123から該当エントリがリセット(削除)される。これにより、車線変更等により車両間相対関係が変化することによる相反性の誤判断を抑制することができる。
 ここで、図6の処理フローに戻る。車両間相対関係リフレッシュ処理(S504)が完了すると、車両周辺認識装置10の車両間相反性判定部103は車両間の相反性を抽出する車両間相反性判定処理(S505)を実行する。
 車両間相反性判定処理の具体例として、図8に車両間相反性判定処理フロー700の一例を示す。
 まず、車両周辺認識装置10の車両間相反性判定部103は、S700で処理を開始すると、S701で車両走行データ群122に格納されている車両群に関する走行データを取得する。ここで走行データを取得した車両群の集合を改めてVとし、n個の要素(車両v1、…、vn)が含まれているとする。なお、この車両集合Vには、自車周辺の他車両に加えて、自車両も含まれるものとする。n個の要素の中から任意の2車両の組合せについて、相反性があるかどうかの判定処理(S703~S706)を行う。なお、S702、S708~S712は、任意の2車両の組合せに対してS703~S706を実行するための、パラメータk,mを利用した形式的処理(S702では、まず車両v1、v2を対象として選択し、以下車両の組合せを順次変更していく。)であるため、説明は割愛する。
 車両集合Vに含まれる任意の2車両vk及びvmに対して、まず同一道路区間を走行しているかどうかを確認する(S703)。走行している道路区間が異なる場合は(S703でNo)、両者に関係性はないため、S708に進み、次の2車両の組合せに処理を移行する。
 一方、走行している道路区間が同一の場合は(S703でYes)、例えば、S704~S706等の判定手段を用いて、車両vkと車両vmの相反性を判定する。まず、S704に進み、車両vkと車両vmの前後関係が入れ替わったかどうかを確認する。2車両の前後関係が入れ替わったということは、車両vkと車両vmが同一車線を走行していない、即ち「相反」関係にあることを意味する。そのため、前後関係の入れ替わりを検出した場合は(S704でYes)、車両vkと車両vmの相対関係に「相反」と設定し(S706)、相対関係最終判定時刻307を更新する(S707)。
 ここで、図9の具体例を用いて2車両の前後関係を用いた相反関係の判定手段を説明する。
 上段の図は、ある時点(時刻t0)での車両5000と車両5200の位置情報(車両走行データ群122の位置情報203に相当)及び位置誤差情報(車両走行データ群122の位置誤差情報204に相当)を表している。なお、ここでの誤差楕円とは、例えば、誤差分散の標準偏差σに対して2σや3σのように、当該車両が確実に存在すると統計的に判断できる位置範囲を示しているものとする。この時点では、双方の誤差楕円が重なっていないため、車両5000と車両5200の前後関係を明確に分離することができる。そのため、車両5200が車両5000の後方に位置すると判定することができ、車両間相対関係データ群123の当該データエントリの前後関係304には「後方」が設定される。
 一方、中段の図の時刻t1(>t0)における各車両の位置関係を見ると、車両5200が車両5000の前方にあることがわかる。ところが、それぞれの誤差楕円が重なっているため、車両周辺認識装置10の車両間相反性判定部103は、車両5200が車両5000の前方に位置していると判定することはできない。そのため、車両間相対関係データ群123の対応する前後関係304は「後方」のまま維持される。
 最後に、下段の図の時刻t2(>t1)における各車両の位置関係を見ると、誤差楕円が重ならない形で車両5200が車両5000の前方に位置している。そのため、前後関係304には「前方」が設定される。ここで、これまで前後関係304が「後方」だったものが「前方」に変化したため、位置関係が前後で入れ替わったことを意味する。すなわち、車両5000と車両5200は別車線を走行していた(相反関係にある)ということがわかり、車両間相対関係データ群123の相対関係306には「相反」が設定される。
 なお、上述の説明では、前後関係を切り分けるためのマージンとして誤差楕円情報を用いたが、誤差楕円情報を入手できない場合は所定の閾値を設けて対応しても良い。
 図8のフローに戻り、S704で相反性の判定ができなかった場合は(S704でNo)、S705に進む。S705の相反関係判定手段は、車両vkと車両vmの左右関係により相反性を判定する。原理としては、前後関係の判定方法と同様で、左右方向に対して誤差楕円が重ならない形で2つの車両が位置している場合に、左右関係を切り分けることができる。車線数が少ない場合は異なる車線間の距離が短いため左右関係を判定するのは困難だが、車線数が多い場合は最左車線と最右車線で十分距離があるため左右関係の判定が可能となる場合がある。
 ここで、図10に示す具体例を用いて車両の左右関係による相反関係の判定手段を説明する。図10の上段の図は、時刻t0と時刻t1(>t0)での車両5000と車両5200の位置情報及び誤差楕円(それぞれ誤差楕円5001及び5201)を図示している。また、車両5000と車両5200の誤差楕円の領域を時系列上につなげていった仮想的な領域を誤差楕円履歴領域5002と5202として示している。
 2車両の左右関係は、左右方向に対して誤差楕円が重ならない箇所が存在するときに判定することが可能である。つまり、誤差楕円履歴領域5002と5202が重複しない箇所が存在するかどうかを判定する問題に帰着される。
 下段の図は、道路区間軸に沿ってそれぞれの誤差楕円履歴領域間の距離5102をグラフ化したものである。領域の重複がない場合の距離は正値、領域の重複がある場合は負値を取るものとする。このグラフの例では、誤差楕円履歴領域間の距離5102が所定区間で正値を取っている。判定のためのマージンをεとすると、値がεを超える5103の存在を確認した時点で車両5000と車両5200の左右関係を判定することが可能であり、例えば、車両間相対関係データ群123において車両5000に対する車両5200の左右関係305には「左方」が設定される。また、左右関係が決定されたということは走行している車線が異なることを意味するので、車両間相反性判定部103によりにより該当する相対関係306には「相反」が直ちに設定され(S706)、相対時刻最終判定時刻307が更新される(S707)。一方で、S705で左右関係を判定できなかった場合は(S705でNo)、S708に進み、次の2車両の組合せに処理を移行する。
 すべての車両の組合せに対して確認が終わると、S711においてk=nが成立し、本処理が終了する(S713)。
 以上の処理により、相反関係にある2車両の組合せが抽出され、車両間相対関係データ群306に設定される。なお、車両間相反性判定処理の具体例として、2車両の位置の前後関係及び左右関係に基づいて相反性を判定する方式を説明したが、その他の相反性判定方式を組み込んでも良い。例えば、近傍に位置する車両vkと車両vmに対して速度パターンの比較をすることによって相反性を判定しても良い。近傍に位置するかどうかは、例えば、2車両の相対距離が所定値以内であるときに近傍に位置すると判定する。近傍の2つの車両が同一車線を走行している場合、前方車両の加減速に合せるようにして後方車両は走行する必要がある。それに対し、近傍を走行しているにも関わらず、車両vkと車両vmの速度パターンに大きな相違がある場合は、相反性があると判定することも可能である。また、ブレーキやアクセルの情報等、各車両の制御情報を比較することによって、走行パターンの相反性を判断することも可能である。
 ここで、図6の処理フローに戻る。車両間相反性判定処理(S505)が完了すると、車両周辺認識装置10の車両間相対関係判定部104は、前記判定した車両間の相反性と車線数による制約条件に基づいて車両間の相対関係を判定していく車両間相対関係判定処理(S506)を実行する。
 車両間相対関係判定処理の具体例として、図11に車両間相対関係判定処理フロー800の一例を示す。
 車両周辺認識装置10の車両間相対関係判定部104は、S800で処理を開始すると、まず、車両間相対関係データ群123を参照し、車両間相対関係情報を取得する(S801)。その情報の中に車両グループID302が非設定(N/A)の車両vが存在しない場合は(S802でNo)、S808に進む。一方で車両グループID302が非設定(N/A)の車両vが存在した場合は(S802でYes)、全ての該当車両に対して、S803~S807の処理を実行し、車両グループIDを付与する。
 まず、車両間相対関係判定部104は、S803で、該当車両vが走行する道路区間の車線数nを取得する。なお、車両vの走行道路区間の車線数nは、例えば、車両vに関する車両走行データ群122の走行道路区間ID208を参照することにより車両vの走行道路区間IDを特定し、さらにその走行道路区間IDを用いて周辺道路地図データ群121を参照することで、取得することができる。
 次に、車両間相対関係判定部104は、S804で車線数nが1であるかどうかを確認する。もしも、車線数が1だった場合は(S804でYes)、当該車両vがその車線を走行していることが自ずと定まるため、車両vの車両グループID302に当該走行道路区間における車両グループIDを設定する。そこで、S805で当該走行道路区間における車両グループIDが既に付与されているかどうかを、例えば、車両グループデータ群124における対象道路区間ID402が当該走行道路区間IDであるデータエントリが存在するかどうかにより確認する。もしも付与済だった場合は(S805でYes)、該当するデータエントリの車両グループID401と同一のIDを、車両vの車両グループID302に設定する(S806)。一方、車線数が2以上である場合(S804でNo)、あるいは車線数が1でも当該走行道路区間における車両グループIDがまだ付与されていない場合は(S805でNo)、車両vの車両グループID302に新しい車両グループIDを設定する(S807)。
 全ての車両に対して車両グループIDが設定されると(S802でNo)、次に重複する車両グループIDを統合する処理(S808~S811)を実行する。そのために、車両間相対関係判定部104は、S808で、まず車両間相対関係データ群123の相対関係306を用いて、各車両グループIDに対して相反する車両グループIDを特定し、車両グループデータ群124の相反車両グループ群404に設定する。具体的には、車両間相対関係データ群123の相対関係306が「相反」であるデータエントリを参照することにより、車両グループID302と、対象車両ID303で示す車両に付与されている車両グループID302が相反する車両グループIDのペアであることを特定することが可能である。対象車両ID303で示す車両に付与されている車両グループID302は、車両ID301が当該対象車両ID303と一致するデータエントリの車両グループID302を参照することにより特定することができる。なお、m(mは1以上の整数)個以上の該当する車両間の相対関係が存在した場合に限り、車両グループ間の相対関係を判定するようにしても良い。mの数を大きく設定することにより、車両グループ間の相対関係の判定精度をより高めることが可能となる。
 次に、S809で、互いに相反関係にある車両グループn個(g1、…、gn)の組合せ(CG)の集合(CGG)を特定する。なお、nは車線数である。まず、車両グループn個が互いに相反関係にあるとは、全てのgk(k=1、…、n)において他の車両グループn-1個と相反関係があることを意味している。例えば、車線数が2のときは、相反関係を持つg1とg2がそのまま「互いに相反関係にある車両グループn個の組合せ(CG)」に該当する。また、例えば、車線数が3のときは、3個の車両グループ(g1、g2、g3)において、g1とg2、g2とg3、g3とg1がそれぞれ相反関係にあることを意味する。このような「互いに相反関係にある車両グループn個の組合せ(CG)」は、複数個存在する(CG1、…、CGm)可能性があり、その組合せ(CG)の集合をCGGとする。
 続いて、S810で、CGGの中からn-1個の車両グループが共通するCGの組合せ(CG1、CG2)を抽出する。該当するCG1とCG2が存在した場合は(S810でYes)、CG1とCG2で共通していない車両グループ(ga及びgb、但しga∈CG1、gb∈CG2)を統合する(S811)。例えば、車両グループgbを車両グループgaに統合する場合は、車両間相対関係データ群123及び車両グループデータ群124においてgbの車両グループIDに相当する部分を、全てgaの車両グループIDに置き換えることになる。また、車両グループgbの情報は、車両グループgaの情報として扱うことができるため、例えば、車両グループデータ群124の403~405は集合和を取ることにより統合される。
 当該車両グループの統合処理が完了すると、S809に戻り、再度同様の処理を行う。これは、車両グループの統合により、互いに相反関係にある車両グループn個の組合せが新たに生成される可能性があるためである。そして、最終的にS810でn-1個の車両グループを共通するCGの組合せが見つからなくなると(S810でNo)、本処理を終了する(S812)。
 ここで、図12の具体例を用いて車両間相対関係判定処理フロー800により車両グループが構築されていく様子を説明する。
 初期状態では、車両グループ情報が構築されていないものとする。シーン6021で、車両6001~6004が検出されると、いずれも車両グループIDが未設定、かつ車線数n=3であるため、S807を経由することで、各車両に対して新しい車両グループIDが付与される(それぞれ1~4)。一方、各車両の相対関係は明確ではないため、処理フロー800の後半の車両グループ統合の処理では何も発生しない。この時点での車両グループ情報は、テーブル6011に示されるようになる。
 続いて、シーン6022に移行すると、前後関係が変化している車両6001と車両6002~6004との相反関係が特定される。その相反関係を用いて、S808で車両グループ間の相反関係を特定すると、テーブル6012に示されるようになる。この時点では、S809において、互いに相反関係にある車両グループ3個の組合せは存在しないので、車両グループは統合されることなく処理を終了する。
 さらに、シーン6023に移行すると、車両6004が後方に下がり、車両6002及び車両6003と前後関係が変化するため、車両6004が車両6002及び車両6003と相反関係にあることが特定される。これにより、S808において、テーブル6013に示されるように車両グループの相反関係が更新される。ここで、車両グループ集合(1、2、4)及び車両グループ集合(1,3,4)は、互いに相反関係にある車両グループ3個の組合せCGに該当し、S809でCGG={(1,2,4)、(1,3,4)}と求まる。そして、(1,2,4)と(1,3,4)は、2個の共通する車両グループ1と4を有するため、S810の条件が満たされ、S811で双方の車両グループで共通しない車両グループ2と3を統合する。例えば、車両グループ3を車両グループ2に統合すると、テーブル6014に示されるような車両グループ関係が構築される。すなわち、これは車両6002と車両6003が同一車線を走行していることを意味する。車両6002と車両6003の走行車線の関係性は直接的には判明していないにも関わらず、他の車両間の相反性と車線数の制約を用いることで、間接的に両者の走行車線の関係性の判定を可能としている。
 また、さらにシーン6024では、新たに車両6005が後方から処理対象となっている道路区間に入ってきている。車両6005は、初めは属する車両グループを特定できないため、やはりS807で新しい車両グループID(例えば5)が付与される。シーン6024では、車両6002と車両6004との前後関係が入れ替わっているため、車両6005は、車両6002と車両6004と相反関係にある。つまり、S808で、車両6005の車両グループ5は、車両6002の車両グループ2と、車両6004の車両グループ4と相反関係にあることがわかる。また、車両グループ2と車両グループ4も相反関係にあるため、ステップ809では、既存の(1,2,4)と共に(2,4,5)もCGGの要素となる。そして、先と同様にして、S811にて車両グループ1と5が統合され、テーブル6015に示されるような車両グループ関係になる。すなわち、車両6005は、車両6002及び車両6004との相反関係しか判定していないにも関わらず、車両6001と同一車線を走行しており、車両6003とは異なる車線を走行していることが判明したことを意味している。このように、過去に定まった車両間の関係性も活用することにより、新たに車両が出現した場合でも、限られた相対関係から即座に他の車両との相対関係を導出することが可能である。また、シーン6024では、車両6001は前方に進んでしまっており、車両6001と車両6005の関係性を直接的に推定することが困難な状況である。このように、本実施形態では、直接的には相対関係を推定不可能な離れた車両間に対しても、車両グループ間の関係性を用いることで、相対関係を芋づる式に判定していくことが可能である。
 再び図6の処理フローに戻る。車両間相対関係判定処理(S506)が完了すると、車両周辺認識装置10の車両周辺認識情報出力部105は、上述の処理により決定した車両周辺認識情報を外部に出力する(S507)。
 図13は、本実施形態の車両周辺認識装置10が送信する車両周辺認識情報メッセージのフォーマット900の一例の説明図である。ただし、通信プロトコルに関するヘッダ情報等の図示は割愛した。
 車両周辺認識情報メッセージには、自車周辺の所定数の他車両の情報が含まれる。車両数901は、本メッセージに含まれる他車両情報の数を表す。各他車両の走行情報には、例えば、車両ID903、位置関連情報904、移動情報905、制御情報906、等が含まれる。位置関連情報904とは、当該他車両の位置あるいは当該他車両と自車両の位置関係に関する情報であり、例えば、車両走行データ群122の位置情報203(緯度・経度)、位置誤差情報204や、走行道路区間ID208,自車両との相対距離、車両間相対関係データ群123の前後関係304等が該当する。移動情報905とは、当該他車両の移動に関する情報であり、例えば、速度205、方位206、ヨーレート、加速度等が該当する。制御情報906とは、当該他車両の制御に関する情報であり、例えば、ウィンカー207やブレーキ、アクセル開度等が該当する。
 本実施形態では、例えば、自車両と同一の車線を走行している他車両の情報を出力対象とする。これにより、例えば、運転支援装置20は、車両周辺認識装置10から受信した同一車線における他車両情報から、前方の他車両との相対関係(前後関係、相対距離等)や挙動(加減速等)を把握することができ、最適な速度制御を行うことが可能である。なお、車両周辺認識情報メッセージに含まれる各種情報は、上の例に限定されることなく、車両周辺認識システム1のセンタ3等で自車両を含む多数の車両の情報を収集することにより、広域的なトラフィック制御等に利用するといった様々な用途が考えられる。
 再び図6の処理フローに戻る。車両周辺認識情報出力処理S507が終了すると、車両周辺認識情報生成部102は、車両周辺認識処理の終了指示が入力されているか判定し、終了指示があると判定した場合(S508でYes)、処理を終了する(S509)。この終了指示は、車両周辺認識装置10の電源切断、車両2の主電源断等が該当する。終了指示がないと判定した場合(S508でNo)、再びS501に戻り、上述したような一連の処理を繰り返し実行する。車両間相対関係データ群123や車両グループデータ群124は、次の処理サイクルでも保持されており、過去に決定した車両間相対関係に関するデータは蓄積されていく。これにより、たとえ1回の処理サイクルで車両間相対関係を十分決定できなかったとしても、無線通信部30から新しく取得される情報が追加されることによって、時間経過と共に、車両間相対関係が決定されていく効果を持つ。また、過去の蓄積データ量が多いほど、新規に現れた車両との相対関係を決定可能な基点が多くなるため、ひとたび車両間の相対関係に関する情報が十分構築されると、新規に車両が現れても比較的迅速に車両間の相対関係を決定できることが期待できる。
 以上のように,本実施形態によれば、車両2の車両周辺認識装置10は、車車間通信等により得られた複数の他車両に関する位置情報や自車両の位置情報を用いて、2つの車両の前後関係が入れ替わったかどうかを判定することで、車両間の相反性、即ち該当する2車両が異なる車線を走行していることを決定している。また、2つの車両の左右関係を判定することで、該当する2車両が異なる車線を走行していることを決定している。これらは、位置の測位誤差を考慮した上で前後関係及び左右関係を統計学的に決定できるため、車両間の走行車線の関係性に関する誤判断を抑制することが可能である。
 また、本実施形態によれば、上述のように判定した車両間の相反性の組合せと、当該道路区間の車線数に基づく制約論理により、未判定の複数車両間の走行車線の関係性も導出することが可能である。例えば、2車線の道路区間において、車両Aと車両B、車両Bと車両Cがそれぞれ相反性を有する場合、その制約論理から車両Aと車両Cが同一車線を走行していることを判定できる。このように、誤判断が発生しにくい車両間の相反性のみを用いて、より高精度に車両間の走行車線の関係性(同一車線か異なる車線か)を判定することが可能である。
 また、本実施形態によれば、2車両間のみで判定した車両間の相反性の組合せだけでなく、当該道路区間の車線数に基づく制約論理により新たに判明した車両間の走行車線の関係性をさらに用いて、他の未判定の車両間の走行車線の関係性をさらに芋づる式に判定していくことが可能である。これにより、同一道路区間において、車両間の相反性・類似性を直接判定できないほど離れた2車両間に対しても、車両間の走行車線の関係性を判定することが可能である。
第2実施形態
 第1実施形態では車両周辺認識装置10は、車両間の走行車線の関係性を判定する構成になっていた。第2実施形態では、第1実施形態の車両周辺認識装置10が、さらに各車両の走行車線を判定する手段を有する構成について説明する。
 図14は、第2実施形態における車両周辺認識システム1の構成の一例を示す機能ブロック図である。大枠の機器構成としては第1実施形態と変わらないが、第1実施形態と異なるのは、記憶部120がさらに車両グループ車線位置判定部106を有する点である。その他の機能構成については、第1実施形態と同等である。
 本実施形態の車両周辺認識システム1の車両周辺認識装置10において実行される車両周辺認識処理のフロー550の一例を図15に示す。本処理フローは、第1実施形態の車両周辺認識処理フロー500と同等であり、異なるのは、S503とS504の間に各車両の車線位置を決定する処理(S510)が、S506とS507の間に車両グループ車線位置判定処理(S511)が、新たに追加されている点である。その他のステップについては、第1実施形態と同等であるため、新たに追加されたS510とS511について説明する。
 S510では、車両周辺認識装置10の車両グループ車線位置判定部106は、主に車両単体の情報を用いて、可能な限りにおいて当該車両の走行車線を判定する。例えば、自車両に関する走行車線は、外界センサ群50で検出した両脇の車線境界線の種別(破線、実線、二本線等)や色と、周辺道路地図データ群121から取得可能な当該道路区間の車線境界線情報を照合することにより、特定することも可能である。
 また、車両走行データ群122の挙動を解析することにより、当該車両が走行中あるいは走行していた車線を判定することも可能である。例えば、ある車両が異なる道路区間に移動した際(例えば、走行道路区間ID208の時系列変化で検出)、ウィンカー(灯火)が点滅(ウィンカー207)という状態であり(灯火状態)かつ進行方位(方位206)がウィンカーの方向に旋回していたことが確認できれば、当該車両が左折あるいは右折したと判定することができる(車両挙動推定部)。即ち、当該車両が前の道路区間の走行中は、それぞれ左折可能な車線あるいは右折可能な車線に位置していたと判定することができる(車両挙動可能車線特定部)。周辺道路地図データ群121を参照することで、左折可能な車線あるいは右折可能な車線を特定することが可能なので、もしも該当する車線が1つしか存在しなかった場合は、前の道路区間の走行車線を判定することができる。つまり、当該車両が前の道路区間において属していた車両グループIDの走行車線を判定することができ、車両グループデータ群124の当該車両グループIDの車線ID403を更新することが可能である。
 また、当該車両の両ウィンカーが点滅中で、停止したことを確認した場合、車両グループ車線位置判定部106は、当該車両が路肩等に一時停止したと推定することができる。路肩への一時停止が可能なのは、最も外側の(日本では左)車線であるため、当該車両がその車線を走行していたと判定することができる。
 このように、車両の挙動の判定と、その挙動が可能な車線という道路属性上の制約条件に基づいて、車両の走行中あるいは走行していた車線を判定することが可能である。
 車両単体の情報を用いて当該車両の走行車線を判定するS510に対して、S511の車両グループ車線位置判定処理では、車両グループ全体の情報を用いて当該車両グループの走行車線を判定する。
 車両間グループ車線位置判定処理の具体例として、図16に車両間グループ車線位置判定処理フロー1000の一例を示す。
 車両周辺認識装置10の車両グループ車線位置判定部106は、S1000で処理を開始すると、まず車両グループデータ群124を参照し、車両グループ集合Gを取得する(S1001)。車両グループ集合Gが空集合(φ)だった場合は(S1002でYes)、処理を終了する。車両グループ集合Gが空集合でない場合は(S1002でNo)、S1012に進み、各車両グループの車線位置情報を更新する。具体的には、当該車両グループに属する車両に該当する車両走行データ群122の車線ID209を参照し、特定されている車線IDがあれば当該車両グループの車線ID403に設定する。これにより、車両グループ内で一つの車両の車線位置を特定できれば、車両グループ内のすべての車両の車線位置を特定することができる。なお、k個の(k>1)構成車両が同一の車線IDを指定しない限り、車両グループの車線IDを決定しないようにすることも可能である。kを増やすことにより、より精度高く車線IDを判定することができる。
 次に、車両グループ集合Gの中から互いに相反関係にある車両グループn個の組合せの集合(CGG)を特定する(S1003)。
 続いて、車両グループ車線位置判定部106は、集合CGGの中から、車線位置が未決定の車両グループを含む車両グループn個の組合せ(CG)が存在するかどうかを確認する。もしも存在しない場合は(S1004でNo)は、処理を終了する。もしも条件を満たすCGが存在した場合は(S1004でYes)、S1005に進む。当該CGで車線位置が未決定の車両グループ数が1つの場合は(S1005でYes)、制約論理により未割当の車線位置(車線ID)が未決定の車両グループの車線位置であることが自ずと特定されるため、そのように設定する(S1007)。そして、集合CGGから当該CGを除いた上で(S1011)、S1004に戻り、条件を満たす別のCGについて同様の処理を行う。
 S1005において、未決定の車両グループ数が2つ以上だった場合は(S1005でNo)、S1006に進む。当該CGの車両グループのいずれかの構成車両数(車両グループデータ群124の対象車両ID群405の数に相当)がm以下(mは0以上の整数値)だった場合は(S1006でNo)、S1011に進み、当該CGに関する処理を終了する。もしも、全ての構成車両数がmよりも多かった場合は(S1006でYes)、S1008に進み、各車両グループに対して構成車両群の道路区間の中心線からのオフセット値の統計量を算出する。ここで、mはオフセット値の統計量としての有意性を出すためのパラメータであり、mの値を大きくするほどオフセット値の統計量の分散が縮小され有意差が向上するのに対し、それだけ他車両の情報を必要とするため、判定可能な環境の成立し易さは低下する。mの値は、このような統計量の有意差と判定のし易さとのトレードオフで決定すればよい。オフセット値は、例えば、当該構成車両群の位置情報(緯度・経度)と道路区間の中心線の位置情報に基づいて、道路区間の中心線に対して最も近い点までの距離として算出される。もしも、互いのオフセット値に統計学的に有意差がある場合は(S1009でYes)、そのオフセット値の大小により各車両グループの左右関係を判定できるため、それに応じて各車両グループの車線位置を設定し(S1010)、S1011に進む。互いのオフセット値に有意差を判定できない場合は(S1009でNo)、何もせずにS1011に進み、当該CGに関する処理を終了する。
 図17を用いて、車両グループ車線位置判定処理におけるS1008~S1010の処理を説明する。
 図17の上段の図は、車両走行データ群122における所定の道路区間における車両(車両1101-1~3、車両1102-1~3、車両1103-1~3)の位置情報203、及び車両グループ1101~1103を図示したものである。車両グループ車線位置判定処理のS1008で算出する構成車両群の道路区間の中心線からのオフセット値とは、例えば、車両1103-3のオフセット値1103-3が示すように、道路区間中心線1110からのズレの長さである。なお、このオフセット値は、道路区間の車線に対して垂直方向における各車両の位置関係を比較するための値であり、道路区間中心線は飽くまで基準点の一例に過ぎない。
 図17の下段の表は、オフセット値の統計量の具体例を示している。オフセットデータ列1121は、各車両グループの構成車両群のオフセット値のデータ列である。平均値1122は、前記オフセットデータ列1121の平均値である。分散値(標準偏差)は、前記オフセットデータ列1121の分散値(標準偏差)である。各車両の位置情報はそれぞれ誤差によるばらつきがあるため、単体のデータだけではどの車線を走行しているか判定することは難しい。例えば、車両1101-3と車両1102-2は、異なる車両グループ(異なる車線を走行)であるにも関わらず1.5mの差しかない。ところが、本実施形態では、同一車線を走行しているという車両グループ内の関係性を活用して、グループ内での統計量(平均値や分散値)という形で判定可能であるため、誤差によるばらつきの影響を低減することができる。図17の例では、各車線に3車両しか存在しないが、車両数が多いほど分散値が縮小していき、より精度良く各車両グループの車線位置を判定することができる。
 仮にS1109で各車両グループ間に有意差があると判定した場合、オフセット値の大きさの順番に、左側からの車線IDを割り当てる。例えば、「車両グループ1101>車両グループ1102>車両グループ1103」であることが特定できた場合、車両グループ1101~1103には、それぞれ車線6100-1~3が割り当てられることになる。
 図16に戻ると、車両グループ車線位置判定処理のS1004~S1010の一連の処理が終了すると、S1011で当該CGが集合CGGから取り除かれ、再度一連の処理を繰り返し実行するように構成されている。やがて、集合CGGから、S1004の条件を満たすCGがなくなると、本処理を終了する(S1012)。
 以上のように,本実施形態によれば、車両2の車両周辺認識装置10は、車両の進行方位等の移動情報やウィンカー等の制御情報を活用して右左折等の車両挙動を推定し、該当する道路区間における車線における車両挙動の制約条件と組み合わせて、当該車両の走行していた車線を特定することが可能である。
 また、本実施形態によれば、上述のような所定の手段を用いて所定の車両の車線位置を特定することにより、第1実施形態と同様にして特定した車両間の共通性(車両グループ)と組み合わせて、同一の車両グループ内のすべての車両の車線位置を特定することができる。
 また、本実施形態によれば、車両2の車両周辺認識装置10は、第1実施形態と同様にして特定した車両間の共通性(車両グループ)を活用し、同一車線を走行している車両群の位置情報の統計量を比較することで、車両単体の位置情報に含まれる誤差の影響を抑制し、より精度良く各車両グループの車線位置を判定することが可能である。
 また、車両グループ毎の統計量に基づいて車線位置を特定する方式は、車両周辺認識処理フロー550の車両間相対関係判定処理(S506)にも応用することが可能である。例えば、車両間相対関係判定処理の一例である図11の車両間相対関係判定処理フロー800におけるS808~811は、同一車線に対して異なる車両グループIDが割り当てられている車両グループ群を統合していく処理になるが、その処理に活用することも可能である。車両グループAと車両グループBのオフセット値が、統計的に同じ母集団によるものと判定することができれば、車両グループAと車両グループBを統合することが可能である。
 なお、以上で説明した実施形態は一例であり、本発明はこれらに限られない。すなわち、本発明は様々な応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。例えば、上記実施形態では、車両周辺認識装置10の各処理を、プロセッサとRAMを用いて、所定の動作プログラムを実行することで実現しているが、必要に応じて独自のハードウェアで実現することも可能である。また、上記の実施形態では、車両周辺認識装置、運転支援装置、無線通信部、自車位置測位装置、外界センサ群、車両センサ群、アクチュエータ群、車載用HMI装置を個別の装置として記載しているが、必要に応じて任意のいずれか2つ以上を組合せて実現することも可能である。
 例えば、上記実施形態では、車両間の相対関係を決定する処理を車両周辺認識装置10で実行することで実現しているが、車両2と通信可能に構成されているセンタ3や路側機(非表示)上で実行し、決定された車両間の相対関係に関する情報を無線通信で各車両2に提供することで、同様の機能を実現しても良い。
 上記の各処理が、プロセッサが所定の動作プログラムを実行することで実現される場合、各処理を実現する動作プログラム、テーブル、ファイル等の情報は、不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
 また、図面には、実施形態を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。

Claims (12)

  1.  複数の車線を有する道路を同一方向に走行する複数の車両間の相対位置関係を検出するための車両情報処理装置であって、
     前記複数の車両に含まれる第1の車両について計測された位置情報及び速度情報の少なくともいずれかを含む第1車両走行情報と、前記複数の車両に含まれる第2の車両について計測された位置情報及び速度情報の少なくともいずれかを含む第2車両走行情報とを取得するように構成された車両走行情報取得部と、
     前記車両走行情報取得部で取得された前記第1車両走行情報と前記第2車両走行情報とを逐次比較して、前記第1の車両と前記第2の車両とが同一車線を走行している場合には発生し得ない事象が発生していると判定した場合、前記第1の車両と前記第2の車両との間に、当該第1の車両と当該第2の車両とが異なる車線を走行している状態を示す属性情報である相反性が成立していると判定するように構成された車両走行情報処理部と、
    を備える、
    車両情報処理装置。
  2.  請求項1に記載の車両情報処理装置であって、
     前記車両走行情報処理部は、前記第1の車両の位置情報と前記第2の車両の位置情報とを逐次比較して、前記第1の車両と前記第2の車両の前後関係が変化したことを検出した場合、前記第1の車両と前記第2の車両との間に相反性が成立していると判定する、
    車両情報処理装置。
  3.  請求項1に記載の車両情報処理装置であって、
     前記複数の車両が走行している道路の前記車線数を取得するように構成された車線数特定部と、
     前記車両走行情報処理部が前記相反性を有していると判定した2車両の複数の組合せ、各々複数の車両を含む車両グループの複数の組合せ、又は車両と車両グループとの複数の組合せについて、前記車両又は前記車両グループに含まれる車両相互間に存在している相反性を対照し、前記取得した車線数が互いに相反性を有する車両又は車両グループの組合せ数の最大値であることを制約条件として適用し、同一の車両又は車両グループとの間に相反性を有する車両又は車両グループが複数存在すると判定した場合、当該複数の車両又は車両グループを一の車両グループに統合する車両間相対関係判定部と、
    を備える車両情報処理装置。 
  4.  請求項3に記載の車両情報処理装置であって、
     前記取得した車線数を制約条件として、前記車両間相対関係判定部は、前記車両走行情報処理部により相反性を有すると判定された車両又は車両グループの複数の組合せを相互に比較し、前記制約条件のもとで、すでに相反性があると判定された車両又は車両グループの組合せのいずれとも異なる車線を走行している、又はすでに相反性があると判定された車両又は車両グループの組合せのいずれかと同一の車線を走行していると判定する、
    車両情報処理装置。
  5.  請求項3に記載の車両情報処理装置であって、
     前記取得した車線数が2である場合、前記車両間相対関係判定部は、前記複数の車両のうち、第1の車両と第2の車両との間に相反性があると判定し、前記第2の車両と第3の車両との間に相反性がないと判定した場合、前記第1の車両と前記第3の車両との間に相反性があると判定する、
    車両情報処理装置。
  6.  請求項3に記載の車両周辺認識装置であって、
     前記取得した車線数が2である場合、前記車両間相対関係判定部は、前記複数の車両のうち、第1の車両と第2の車両、第3の車両と第4の車両との間に相反性があると判定しており、第2の車両と第3の車両との間に相反性がないと判定した場合、前記第1の車両と前記第4の車両が同一の車線を走行していると判定する、
    車両情報処理装置。
  7.  請求項3に記載の車両情報処理装置であって、さらに、
     前記複数の車両のうち、第1の車両に対して現在もしくは過去の走行車線位置を判定するように構成された車線位置判定部を備え、
     前記判定された前記第1の車両の走行車線位置と、前記第1の車両に関する他の車両の走行車線の相対的位置関係とに基いて、前記取得した車線数を制約条件として、前記他の車両の走行車線位置を判定する、
    車両情報処理装置。
  8.  請求項7に記載の車両情報処理装置であって、
     前記車両走行情報取得部は、前記複数の車両の灯火の点灯状態に関する情報である灯火状態情報をさらに取得し、
     前記車線位置判定部は、
     前記第1の車両から取得した灯火状態情報に基づき前記第1の車両の挙動を推定するように構成された車両挙動推定部と、
     前記第1の車両が存在する道路区間において、前記推定した車両挙動が可能な車線を特定するように構成された車両挙動可能車線特定部と、
    を備え、
     前記車両挙動可能車線特定部は、前記特定した車線が1つのみであると判定した場合、前記第1の車両の走行車線位置を前記特定した車線であると判定する、
    車両情報処理装置。
  9.  請求項3に記載の車両情報処理装置であって、
     前記車両間相対関係判定部により同一車線を走行していると判定された複数の車両からなる前記車両グループを複数含む車両グループ群において、相反性があると判定されている第1の車両グループ及び第2の車両グループを取得し、第1の車両グループを構成している車両の当該道路区間における車線横断方向の位置と、第2の車両グループを構成している車両の当該道路区間における車線横断方向の位置とを比較することにより、第1の車両グループと第2の車両グループの走行車線の左右関係を判定するように構成された車両グループ間車線位置関係判定部を備えている、
    車両情報処理装置。
  10.  請求項9に記載の車両情報処理装置であって、
     前記各車両グループの当該道路区間における車線横断方向の位置として、当該車両グループを構成する各車両の車線横断方向の位置に関する統計量が使用される、
    車両情報処理装置。
  11.  請求項9又は10に記載の車両情報処理装置であって、さらに、
     前記車両グループ間車線位置関係判定部が判定した前記車両グループ間の車線位置関係の組合せを互いに比較し、前記取得した車線数を車両グループ数の上限値である制約条件として、当該車両グループの走行車線位置を特定するように構成されている、
    車両情報処理装置。
  12.  複数の車線を有する道路を同一方向に走行する複数の車両間の相対位置関係を検出するための車両情報処理プログラムであって、プロセッサとメモリとを有するコンピュータに、
     前記複数の車両に含まれる第1の車両について計測された位置情報及び速度情報の少なくともいずれかを含む第1車両走行情報と、前記複数の車両に含まれる第2の車両について計測された位置情報及び速度情報の少なくともいずれかを含む第2車両走行情報とを取得するステップと、
     前記車両走行情報取得部で取得された前記第1車両走行情報と前記第2車両走行情報とを逐次比較して、前記第1の車両と前記第2の車両とが同一車線を走行している場合には発生し得ない事象が発生していると判定した場合、前記第1の車両と前記第2の車両との間に、当該第1の車両と当該第2の車両とが異なる車線を走行している状態を示す属性情報である相反性が成立していると判定するステップと、
    を実行させる車両情報処理プログラム。
PCT/JP2016/059007 2015-04-14 2016-03-22 車両情報処理装置、及び車両情報処理プログラム WO2016167085A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680013818.4A CN107430819B (zh) 2015-04-14 2016-03-22 车辆信息处理装置及车辆信息处理方法
US15/556,529 US10922963B2 (en) 2015-04-14 2016-03-22 Vehicle information processing apparatus and vehicle information processing program
EP16779876.8A EP3285244B1 (en) 2015-04-14 2016-03-22 Vehicle information processing device and vehicle information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-082152 2015-04-14
JP2015082152A JP6553930B2 (ja) 2015-04-14 2015-04-14 車両情報処理装置、及び車両情報処理プログラム

Publications (1)

Publication Number Publication Date
WO2016167085A1 true WO2016167085A1 (ja) 2016-10-20

Family

ID=57125805

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/059007 WO2016167085A1 (ja) 2015-04-14 2016-03-22 車両情報処理装置、及び車両情報処理プログラム

Country Status (5)

Country Link
US (1) US10922963B2 (ja)
EP (1) EP3285244B1 (ja)
JP (1) JP6553930B2 (ja)
CN (1) CN107430819B (ja)
WO (1) WO2016167085A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3321914A3 (en) * 2016-11-14 2018-05-30 Hitachi, Ltd. Abnormality detection device and abnormality detection method

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10486701B2 (en) * 2015-03-18 2019-11-26 Nec Corporation Driving control device, driving control method and vehicle-to-vehicle communication system
US9646493B2 (en) 2015-06-19 2017-05-09 International Business Machines Corporation Management of moving objects
US10749734B2 (en) 2015-07-07 2020-08-18 International Business Machines Corporation Management of events and moving objects
JP6447554B2 (ja) 2016-03-18 2019-01-09 株式会社デンソー 移動体間通信システムおよび移動体用受信制御装置
DE102016214855A1 (de) * 2016-08-10 2018-02-15 Audi Ag Verfahren zum Austausch von Informationen
US10540895B2 (en) 2017-06-21 2020-01-21 International Business Machines Corporation Management of mobile objects
US10585180B2 (en) * 2017-06-21 2020-03-10 International Business Machines Corporation Management of mobile objects
US10546488B2 (en) 2017-06-21 2020-01-28 International Business Machines Corporation Management of mobile objects
US10504368B2 (en) 2017-06-21 2019-12-10 International Business Machines Corporation Management of mobile objects
US10535266B2 (en) 2017-06-21 2020-01-14 International Business Machines Corporation Management of mobile objects
US10600322B2 (en) 2017-06-21 2020-03-24 International Business Machines Corporation Management of mobile objects
JP6850065B2 (ja) * 2017-08-07 2021-03-31 フォルシアクラリオン・エレクトロニクス株式会社 車車間通信装置および走行支援装置
EP3754372A4 (en) * 2018-03-30 2021-02-24 Mitsubishi Electric Corporation OBJECT IDENTIFICATION DEVICE
US11491978B2 (en) * 2018-05-17 2022-11-08 Mitsubishi Electric Corporation Driving assistance device and method that judge a target object based on neighboring objects
KR101972273B1 (ko) * 2018-09-07 2019-04-24 강릉원주대학교산학협력단 차량 탑승자의 모바일 디바이스를 이용한 커넥티드 카 서비스 지원 방법 및 장치
US11472405B2 (en) * 2018-12-28 2022-10-18 Qualcomm Incorporated Method and apparatus related to intra-lane position data indicative of a lateral distance to a lane reference point
JP7106477B2 (ja) * 2019-03-20 2022-07-26 本田技研工業株式会社 車両制御装置
WO2020255296A1 (ja) * 2019-06-19 2020-12-24 三菱電機株式会社 相対位置判定装置、相対位置判定方法、および相対位置判定プログラム
CN112735130B (zh) * 2020-12-25 2022-05-10 阿波罗智联(北京)科技有限公司 交通数据的处理方法、装置、电子设备和介质
JP2022123940A (ja) * 2021-02-15 2022-08-25 本田技研工業株式会社 車両制御装置
US20220315047A1 (en) * 2021-03-30 2022-10-06 Honda Research Institute Europe Gmbh Method, system and vehicle with an uncertainty-based lane positioning control
US20240046783A1 (en) * 2022-08-03 2024-02-08 Qualcomm Incorporated Filtering v2x sensor data messages

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152125A (ja) * 2002-10-31 2004-05-27 Nissan Motor Co Ltd 車両用推奨操作量生成装置
JP2012234373A (ja) * 2011-05-02 2012-11-29 Mitsubishi Motors Corp 運転支援装置
JP2013161113A (ja) * 2012-02-01 2013-08-19 Toyota Motor Corp 走行車線認識装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257410B2 (ja) * 1995-11-24 2002-02-18 トヨタ自動車株式会社 車載走査型レーダ装置
DE10007501A1 (de) * 2000-02-18 2001-09-13 Daimler Chrysler Ag Verfahren und Vorrichtung zur Erfassung und Überwachung einer Mehrzahl von vorausfahrenden Fahrzeugen
JP2004217175A (ja) * 2003-01-17 2004-08-05 Toyota Motor Corp 車間距離制御装置
US7729857B2 (en) * 2005-08-18 2010-06-01 Gm Global Technology Operations, Inc. System for and method of detecting a collision and predicting a vehicle path
JP4886597B2 (ja) * 2007-05-25 2012-02-29 アイシン・エィ・ダブリュ株式会社 レーン判定装置及びレーン判定方法、並びにそれを用いたナビゲーション装置
US20080300776A1 (en) * 2007-06-01 2008-12-04 Petrisor Gregory C Traffic lane management system
CN100492437C (zh) * 2007-06-01 2009-05-27 清华大学 一种目标车换道工况下的快速识别方法
JP5181744B2 (ja) * 2008-03-11 2013-04-10 日産自動車株式会社 車線逸脱防止装置及びその方法
US8510027B2 (en) * 2009-06-11 2013-08-13 Toyota Jidosha Kabushiki Kaisha Method for judging vehicle traveling position and vehicle traveling position judgment device
US20120109521A1 (en) * 2010-10-27 2012-05-03 Reagan Inventions, Llc System and method of integrating lane position monitoring with locational information systems
GB2485606A (en) * 2010-11-22 2012-05-23 J P M Ltd Vehicle control system
JP5768646B2 (ja) * 2011-10-11 2015-08-26 トヨタ自動車株式会社 走行車線認識装置
JP6015329B2 (ja) * 2012-10-11 2016-10-26 株式会社デンソー 隊列走行システム及び隊列走行装置
US9460624B2 (en) * 2014-05-06 2016-10-04 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for determining lane identification in a roadway

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152125A (ja) * 2002-10-31 2004-05-27 Nissan Motor Co Ltd 車両用推奨操作量生成装置
JP2012234373A (ja) * 2011-05-02 2012-11-29 Mitsubishi Motors Corp 運転支援装置
JP2013161113A (ja) * 2012-02-01 2013-08-19 Toyota Motor Corp 走行車線認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3285244A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3321914A3 (en) * 2016-11-14 2018-05-30 Hitachi, Ltd. Abnormality detection device and abnormality detection method
US10423841B2 (en) 2016-11-14 2019-09-24 Hitachi, Ltd. Abnormality detection device and abnormality detection method

Also Published As

Publication number Publication date
EP3285244A1 (en) 2018-02-21
US10922963B2 (en) 2021-02-16
US20180053404A1 (en) 2018-02-22
JP2016201051A (ja) 2016-12-01
JP6553930B2 (ja) 2019-07-31
CN107430819B (zh) 2020-09-25
EP3285244B1 (en) 2024-02-07
EP3285244A4 (en) 2019-04-24
CN107430819A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
WO2016167085A1 (ja) 車両情報処理装置、及び車両情報処理プログラム
CN107683234B (zh) 周边环境识别装置以及计算机程序产品
US10520949B2 (en) Method and device for localizing a vehicle in its surroundings
CN110809790B (zh) 车辆用信息存储方法、车辆的行驶控制方法、以及车辆用信息存储装置
KR102182664B1 (ko) 예상 주행 의도에 관한 정보를 제공하기 위한 장치, 방법 및 컴퓨터 프로그램
JP6666075B2 (ja) 道路の車線識別子を決定する方法及び装置
CN107826104B (zh) 用于提供关于运输工具的预计行驶意图的信息的方法
EP3667638A1 (en) Traffic lane information management method, running control method, and traffic lane information management device
JP6734668B2 (ja) 基盤的地図データ
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
CN109564095B (zh) 出于路径选择或导航目的使用虚拟探测点的方法和设备
JP6903598B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、および移動体
US11935417B2 (en) Systems and methods for cooperatively managing mixed traffic at an intersection
JP7035204B2 (ja) 車両制御装置、自動運転車開発システム、車両制御方法、およびプログラム
CN109313851B (zh) 用于逆行驾驶员识别的方法、设备和系统
CN109313852B (zh) 用于逆行驾驶员识别的方法、设备和系统
US20210048819A1 (en) Apparatus and method for determining junction
JP6714944B2 (ja) 運転支援装置、運転支援プログラム、運転支援方法および運転支援システム
KR102473392B1 (ko) 섹션 노드 및 섹션 링크를 이용한 차로 중심선 네트워크를 결정하기 위한 방법 및 장치
CN114987529A (zh) 地图生成装置
EP3640679B1 (en) A method for assigning ego vehicle to a lane
JP2022139009A (ja) 運転支援装置、運転支援方法及びプログラム
JP2016162197A (ja) 遭遇車両判定装置
JPWO2020136893A1 (ja) 通信システム、通信端末、制御方法、プログラム、およびプログラムを記憶する記憶媒体
EP4130669A1 (en) Device and method for generating lane information

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16779876

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15556529

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2016779876

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE