WO2021009534A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2021009534A1
WO2021009534A1 PCT/IB2019/000872 IB2019000872W WO2021009534A1 WO 2021009534 A1 WO2021009534 A1 WO 2021009534A1 IB 2019000872 W IB2019000872 W IB 2019000872W WO 2021009534 A1 WO2021009534 A1 WO 2021009534A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
area
information
information processing
unit
Prior art date
Application number
PCT/IB2019/000872
Other languages
English (en)
French (fr)
Inventor
中村光範
Original Assignee
日産自動車株式会社
ルノー エス. ア. エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, ルノー エス. ア. エス. filed Critical 日産自動車株式会社
Priority to US17/626,740 priority Critical patent/US20220262128A1/en
Priority to EP19937368.9A priority patent/EP3998592A4/en
Priority to PCT/IB2019/000872 priority patent/WO2021009534A1/ja
Priority to CN201980098406.9A priority patent/CN114127822A/zh
Priority to JP2021532531A priority patent/JP7346569B2/ja
Publication of WO2021009534A1 publication Critical patent/WO2021009534A1/ja
Priority to JP2023143822A priority patent/JP2023162408A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Definitions

  • the present invention relates to information processing technology.
  • the present invention relates to a technique for setting an area for sensing in a vehicle and distributing object information in the area.
  • Patent Document 1 discloses a method of requesting information on a blind spot range that is a blind spot for the own vehicle from another vehicle and receiving image information corresponding to the blind spot range from the other vehicle.
  • the blind spot range information is randomly requested from other vehicles and the image information corresponding to the blind spot range is received indiscriminately, it is useful blind spot information for the driver of the own vehicle and the automatic driving system. Whether or not it cannot be determined until all the image information is received.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to efficiently acquire useful information for a driver and an automatic driving system.
  • the information processing apparatus, the information processing method, and the information processing program according to the present invention set a predetermined area as a priority area among the areas where the object cannot be detected, and set the object information included in the priority area as the priority area. Request to the vehicle.
  • FIG. 7A and FIG. 7B It is a figure which shows the structure of the vehicle X which concerns on 1st Embodiment. It is a figure which shows the hardware configuration of each component part shown in FIG. It is a flowchart which shows the processing procedure of an information processing method. It is a supplementary figure at the time of the processing explanation shown in FIG. It is a sequence showing information transmission / reception processing. It is a figure which shows the structure of the vehicle A, B which concerns on 2nd Embodiment. It is a flowchart which shows the processing procedure of an information processing method. It is a flowchart which shows the processing procedure of an information processing method. It is a supplementary figure at the time of the processing explanation shown in FIG. 7A and FIG. 7B.
  • the vehicle traveling on the road executes the object detection process, and sets a predetermined blind spot area as a priority area among the blind spot areas where the object cannot be detected.
  • the vehicle has priority areas of lanes and roads on the planned travel route, which are shielded by the preceding vehicle, and lanes that intersect the planned travel route.
  • the vehicle transmits the request data to the neighboring vehicles by using the existing V2X (Vehicle to Everything) communication.
  • the other vehicle When there is another vehicle capable of V2X communication in the priority area, the other vehicle preferentially detects an object included in the priority area among all areas where the object can be detected by the own vehicle after receiving the request data. In addition, even if the other vehicle is outside the priority area, if there is a possibility that the planned travel route of the own vehicle may become impossible due to a parked vehicle or the like, the requesting vehicle will also change the planned travel route in the near future. Therefore, of all the above areas, the priority of the non-priority area related to the changed route is increased to make it a further priority area (extended area), and the objects included in the further priority area are also preferentially detected. .. For example, in the other vehicle, in addition to the traveling lane corresponding to the priority area to be requested, an adjacent lane adjacent to the traveling lane is added as a further priority area.
  • each lane link ID corresponding to each priority area is set to 1.
  • the delivery order information in which the lane link IDs corresponding to the non-priority areas other than the priority areas are set to the third and subsequent areas is transmitted to the requesting vehicle.
  • the other vehicle transmits the object information of each priority area and the non-priority area to the requesting vehicle in the distribution order of the distribution order information.
  • FIG. 1 is a diagram showing a configuration of a vehicle X according to the first embodiment.
  • the vehicle X mainly includes a sensor 101, a position measurement unit 102, a first viewpoint object detection unit 103, a second viewpoint object detection unit 104, an object information collection unit 105, an area setting unit 106, and an object selection unit. It is configured to include 107 and an object communication unit 116.
  • the information processing device 1 mainly includes a first viewpoint object detection unit 103, a second viewpoint object detection unit 104, an object information collection unit 105, an area setting unit 106, and an object selection unit 107. And the object communication unit 116.
  • the sensor 101 is mounted inside, outside, the upper part, the side portion, etc. of the vehicle X, and has a function of measuring the distance to an object existing around the vehicle X, the direction of the object, and the like. Further, the sensor 101 has a function of outputting the measured distance, direction, etc. of the object in association with the current time transmitted from the position measurement unit 102.
  • the sensor 101 is a laser range finder and a visible light camera.
  • the laser range finder irradiates an object around the road located about 150 m away within the 360-degree direction with near-infrared light, and from the response time until the response wave is received, the intensity of the response wave and the object. Measure the distance of the object and the direction of the object. Then, the laser range finder outputs raw data (intensity, distance, direction) in a point cloud format that summarizes 180-degree directions with a 0.25-degree direction as a unit point, for example.
  • the visible light camera captures the surroundings of the road and outputs image data.
  • the laser range finder has a feature of high position measurement accuracy, and the visible light camera has a feature of being able to recognize not only the position of an object but also figures, characters, colors, etc. on the road by combining recognition processing such as machine learning. ..
  • the position measurement unit 102 has a function of measuring the current position of the vehicle X and outputting it in association with the current time.
  • the position measuring unit 102 is a position measuring device and a three-dimensional position measuring system.
  • the first viewpoint object detection unit 103 calculates the relative position of the object as seen from the vehicle X by using the measurement data (distance, direction, etc. of the object) measured by the sensor 101 in the first viewpoint of the vehicle X. It has a function of calculating the absolute position of an object on a map by using the measurement data (position information of the vehicle X) measured by the position measurement unit 102.
  • the coordinate system of the absolute position is expressed by the distance from a predetermined reference point located at an intersection or the like on a high-precision map such as the world geodetic system.
  • the first viewpoint object detection unit 103 detects the object existing on the road at the current time. Then, the first viewpoint object detection unit 103 outputs the object detection result to the object information collection unit 105 and the area setting unit 106. If the sensor 101 also measures the type, speed, etc. of the object, the first viewpoint object detection unit 103 also outputs the information.
  • the second viewpoint object detection unit 104 detects an object existing on the road at the current time in the second viewpoint of the vehicle X, and collects the object detection result as an object information collection unit. Output to 105 and object selection unit 107.
  • the second viewpoint object detection unit 104 uses a viewpoint different from the first viewpoint, for example, measurement data measured by a sensor at a position different from the sensor 101 and measurement by a sensor in the sensor spindle direction different from the sensor 101.
  • the measured data obtained and the measurement data having different measurement times are used.
  • the object information collection unit 105 has a function of collecting and storing the detection results of the objects detected by the first viewpoint object detection unit 103 and the second viewpoint object detection unit 104 in association with the detection time.
  • the object communication unit 116 has a function of transmitting and receiving data to and from a vehicle and various servers via a predetermined communication network. For example, the object communication unit 116 transmits the detection result of the object stored in the object information collection unit 105 to another vehicle or various servers. Further, the object communication unit 116 receives the detection result of the object transmitted from another vehicle or various servers and transmits it to the object information collection unit 105.
  • the predetermined communication network is, for example, a communication network based on the DSRC (Dedicated Short Range Communications) system based on the IEEE (Institute of Electrical and Electronics Engineers) 802.11p, and a communication network based on the DSRC (Dedicated Short Range Communications) system, 3GPP (Releasure) 14 ) It is a wireless communication network based on the cellular V2X system. Not limited to the communication network of the specific method, an existing communication network and an arbitrary communication network that can be used in the future (for example, a next-generation mobile communication network such as 5G) can be used. Further, it may be a plurality of communication networks to which different types of communication networks are connected, may be wireless, or may be wired.
  • the area setting unit 106 has a function of setting a predetermined area in the first viewpoint object detection unit 103 in order to supplement the area that could not be detected within the sensor viewing angle of the sensor 101 with other viewpoint information. Specifically, the area setting unit 106 has a function of setting a predetermined area as a priority area among the areas where the object cannot be detected based on the object detection result of the first viewpoint object detection unit 103.
  • the area setting unit 106 sets the blind spot area, which is useful for the driver of the vehicle X and the automatic driving system, as the priority area among the plurality of blind spot areas shielded by the object in front of the vehicle X.
  • the priority area is, for example, a traveling area in front and an intersection area in front, which are shielded by the preceding vehicle.
  • the rear area shielded by the rear vehicle is not set as a priority area.
  • the object selection unit 107 selects an object in an area that can be newly detected by the second viewpoint by using the object detection result of the second viewpoint object detection unit 104 with respect to the priority area set by the area setting unit 106. However, it has a function of giving priority to the selected object information and outputting it to the object information collecting unit 105.
  • the object information is data detected as a result of performing object detection processing in a predetermined area, and is a predetermined predetermined object (for example, a person, a vehicle (ordinary vehicle, a large vehicle, a two-wheeled vehicle, etc.), a bicycle, etc.).
  • a predetermined predetermined object for example, a person, a vehicle (ordinary vehicle, a large vehicle, a two-wheeled vehicle, etc.), a bicycle, etc.
  • the following data are related to road structures, road obstacles, etc.) and objects having a size larger than a predetermined value.
  • the object information is data indicating the geographical position of the detected object. Specifically, it is a position specified by latitude and longitude, a position specified by a predetermined parameter (node, link, etc.) existing on a road map, a relative position from a sensor or the like that detects an object, and the like.
  • the object information is data indicating the type of the detected object.
  • type information such as people, vehicles (ordinary vehicles, large vehicles, motorcycles, etc.), bicycles, road structures, road obstacles, and the like.
  • the object information is data (length, width, height, etc.) indicating the size of the detected object.
  • the object information is still image data, moving image data, and point cloud data including the detected object. Further, the object information may include the speed of the detected object, the detection time, the observation time, and the like.
  • the information processing device 1 further includes a monitoring sensor (not shown) for monitoring the side of the road, a road boundary line detecting means (not shown), and a stationary object area estimating means (not shown).
  • the stationary object area estimation means detects the road boundary line or the background object, detects the object on the road, and detects based on the "detection result of the road boundary line or the background object" and the "detection result of the object on the road”. It has a function to detect a vehicle or an obstacle by finding the intersection of an object and a parting line and estimating and calculating a stationary object area.
  • the information processing device 1 displays the stationary object area as area information on the driving support system or the automatic driving system of the vehicle X, and notifies the existence of the stationary object by voice.
  • the area information includes, for example, GNSS (Global Navigation Satellite System) latitude / longitude coordinates and connection information, section information based on the lane ID and distance of a high-precision map, lane link ID and coordinate information, and the like.
  • GNSS Global Navigation Satellite System
  • FIG. 2 is a diagram showing a hardware configuration of each component shown in FIG.
  • Each component is composed of, for example, a sensor device H101, a position measuring device H102, a communication device H103, and an arithmetic processing unit H104.
  • the sensor device H101 is the sensor 101 shown in FIG. 1, and is composed of a front sensor H101a, a rear sensor H101b, a right side sensor H101c, and a left side sensor H101d.
  • the front sensor H101a is equipped with a 4K resolution camera and a lens having an angle of view of 90 degrees in order to capture a visible image in front of the vehicle X.
  • the front sensor H101a is installed at the center of the camera toward the traveling direction of the vehicle X, and outputs image data according to the detection result of the road boundary line by the road boundary line detecting means (not shown).
  • the rear sensor H101b is equipped with the same camera and lens as the front sensor H101a.
  • the rear sensor H101b is installed at the center of the camera 180 degrees backward with respect to the traveling direction of the vehicle X, and is forward according to the detection result of the road boundary line by the road boundary line detecting means (not shown).
  • the image data captured at the timing closest to the imaging timing of the sensor H101a is output.
  • the right side sensor H101c is equipped with a 4K resolution camera and a lens with an angle of view of 180 degrees in order to capture a visible image on the right side of the vehicle X.
  • the right side sensor H101c is installed at the center of the camera 90 degrees to the right with respect to the traveling direction of the vehicle X, and is most suitable for the imaging timing of the front sensor H101a according to the output of the road boundary line detecting means (not shown). Outputs image data taken at close timing.
  • the left side sensor H101d is equipped with the same camera and lens as the right side sensor H101c.
  • the left side sensor H101d is installed at the center of the camera 90 degrees to the left with respect to the traveling direction of the vehicle X, and is most suitable for the imaging timing of the front sensor H101a according to the output of the road boundary line detecting means (not shown). Outputs image data taken at close timing.
  • the position measuring device H102 is the position measuring unit 102 shown in FIG. 1, is mounted inside the vehicle X, receives a GNSS signal from another device, and calculates the position of the vehicle X and the traveling direction of the vehicle X at the current time. To do.
  • the communication device H103 is composed of a first communication device H103a, a second communication device H103b, and a third communication device H103c.
  • the first communication device H103a and the second communication device H103b are used when the sensor 101 and the position measuring unit 102 shown in FIG. 1 are mounted on the vehicle X and the information processing device 1 is mounted on a vehicle other than the vehicle X. ..
  • the third communication device H103c is used when the information processing device 1 communicates with another vehicle or various servers.
  • the second communication device H103b and the third communication device H103c may be configured by one wireless communication circuit.
  • the first communication device H103a controls communication of data transmitted and received by the sensor 101 and the position measurement unit 102 to and from the information processing device 1. Specifically, the first communication device H103a distributes the current time of the position measuring device H102 to the sensor device H101, and also via the second communication device H103b, the first arithmetic processing unit H104a and the second arithmetic processing unit H104a. Data is transmitted and received between the H104b and the third arithmetic processing unit H104c.
  • the second communication device H103b controls communication of data transmitted and received by the information processing device 1 between the sensor 101 and the position measurement unit 102. Specifically, the second communication device H103b transmits / receives data between the sensor 101 and the position measurement unit 102 via the first communication device H103a.
  • the third communication device H103c controls communication of data transmitted and received by the information processing device 1 to and from other vehicles and various servers.
  • the third communication device H103c includes an object communication unit 116, and transmits / receives data to / from other vehicles and various servers via a predetermined communication network.
  • the arithmetic processing unit H104 is composed of a first arithmetic processing unit H104a, a second arithmetic processing unit H104b, and a third arithmetic processing unit H104c.
  • the first arithmetic processing unit H104a executes each process of the first viewpoint object detection unit 103 and the area setting unit 106 based on the data output from the sensor device H101 and the position measurement device H102. Further, the first arithmetic processing unit H104a transmits the object detection result of the first viewpoint object detection unit 103 to the third arithmetic processing unit H104c, and transmits the area setting information of the area setting unit 106 to the second arithmetic processing unit H104b. ..
  • the second arithmetic processing unit H104b executes each processing of the second viewpoint object detection unit 104 and the object selection unit 107 based on the data output from the sensor device H101, the position measurement device H102, and the first arithmetic processing unit 104a. To do. Further, the second arithmetic processing unit H104b transmits the object detection result of the second viewpoint object detection unit 104 and the object information of the object selection unit 107 to the third arithmetic processing unit H104c.
  • the third arithmetic processing unit H104c executes the processing of the object information collecting unit 105 based on the data output from the first arithmetic processing unit H104a and the second arithmetic processing unit H104b. Further, the third arithmetic processing unit H104c transmits the data collected by the object information collecting unit 105 to other vehicles and various servers through the third communication device H103c provided with the object communication unit 116. Further, the third arithmetic processing unit H104c receives the detection result of the object transmitted from another vehicle or various servers to the object communication unit 116 of the third communication device H103c, and outputs the detection result to the object information collection unit 105.
  • the arithmetic processing device H104 can be realized by a computer equipped with a CPU, a memory, a hard disk, an input / output interface, and the like. Further, the arithmetic processing device H104 can be mounted on a vehicle, a mobile phone terminal, a mobile edge computer on a mobile communication network, a road traffic equipment server installed on a roadside, a cloud server on the Internet, or the like.
  • FIG. 3 is a flowchart showing a processing procedure of the information processing method.
  • the vehicle X has a shield O1 in front and is approaching at a vehicle speed of 20 km / h.
  • the shield O1 is immovable and occupies a part of the traveling road of the vehicle X.
  • Step S101 First, the first viewpoint object detection unit 103 detects an object at the first viewpoint shown on the upper side of FIG. After that, the first viewpoint object detection unit 103 stores the object detection result in the object information collection unit 105 and transmits it to the area setting unit 106. From the first viewpoint, the shield O1 is detected as an object.
  • the area setting unit 106 sets an area in which object information of a predetermined area cannot be obtained by the sensor of the own vehicle due to the presence of a shield or the like as a priority area. For example, as shown on the upper side of FIG. 4, the area setting unit 106 finds the intersection of the shield O1 and the parting lines L1 and L2, is the rear area of the shield O1, and is from the parting lines L1 and L2.
  • the area S1 on the shield O1 side is set as the priority area S1.
  • Step S103 the second viewpoint object detection unit 104 detects the object at the second viewpoint shown on the lower side of FIG. 4 in which the vehicle X has moved. After that, the second viewpoint object detection unit 104 transmits the object detection result to the object information collection unit 105 and transmits it to the object selection unit 107. In the second viewpoint, the triangular cone O2 is detected as an object.
  • the object selection unit 107 is a newly detected area for preferential transmission of the area S2 within the range overlooking the road surrounded by the parting line L1 in contact with the shield O1 and the lane on the right side. It is defined as the temporary shielding area S2 that was temporarily shielded from the first viewpoint. Then, the object selection unit 107 preferentially selects the triangular cone O2 of the temporary shielding area S2 that can be newly detected from the second viewpoint in the priority area S1 where the object could not be detected from the first viewpoint. It is transmitted to the object information collecting unit 105. For example, the object selection unit 107 transmits the object information of the traffic cone O2 first, and then transmits the object information of the shield O1.
  • the object selection unit 107 transmits the object information of the triangular cone O2, and also provides information indicating the temporary shielding area S2 in which the object cannot be detected from the first viewpoint and a new object can be detected from the second viewpoint. It is transmitted to the object information collecting unit 105. That is, the object selection unit 107 transmits the area information of the temporary shielding area S2 in addition to the object information included in the temporary shielding area S2. For example, the object selection unit 107 transmits information indicating the geographical position of the temporary shielding area S2 and information indicating the geographical position of the second viewpoint in which the temporary shielding area S2 can be detected.
  • the object information of the traffic cone O2 cannot be detected at the first position of the first viewpoint due to the presence of the shield O1 in the foreground, and the second object is closer to the object of the traffic cone O2 than the first viewpoint.
  • Object information temporary occlusion object information
  • step S104 After the object selection unit 107 transmits the temporarily shielded object information to the object information collecting unit 105 of the vehicle X, the object information collecting unit 105 transmits the temporarily shielded object information from the vehicle X to another vehicle or another vehicle via the object communication unit 116. It is also possible to give priority to various servers for transmission.
  • the object of the temporary shielding object information can be detected in advance based on the temporary shielding object information transmitted from the vehicle X.
  • the object information collecting unit 105 may transmit the temporary shielding object information to other vehicles and various servers, and may also transmit information (area information) indicating the temporary shielding area S2 to other vehicles and various servers.
  • the information indicating the temporary shielding area S2 is an area in which the object could not be detected from the first viewpoint, and the object can be newly detected from the second viewpoint different from the first viewpoint.
  • Information about the area For example, the object information collecting unit 105 transmits information indicating the geographical position or range of the temporary shielding area S2 and information indicating the geographical position of the vehicle X at the second viewpoint in which the temporary shielding area S2 can be detected. ..
  • the other vehicle can detect the object in the temporary shielding area S2 by the sensor of the own vehicle while traveling. Can be memorized and recognized.
  • the other vehicle cannot detect the object by the sensor from the first viewpoint, but the object detection of the temporary shielding area S2 is performed at the second viewpoint after passing the first viewpoint. Can be determined to be possible. Therefore, for example, another vehicle can plan in advance a travel plan that controls the vehicle on the premise of object detection by the sensor of the own vehicle from the second viewpoint.
  • the object information collecting unit 105 uses the object communication unit 116 to provide information (non-detection area information) indicating an area (non-detection area) in which the object cannot be detected from the first viewpoint and the object cannot be detected even from the second viewpoint. It may be transmitted from the vehicle X to another vehicle or various servers via the vehicle X.
  • the information indicating the non-detection area is, for example, information indicating the geographical position or range of the priority area S1 that does not include the temporary shielding area S2, and information indicating the geographical position of the second viewpoint.
  • the other vehicle can use the sensor of the own vehicle to detect the non-detection area even when traveling on the road. It can be memorized and recognized as an undetectable area requiring attention. Therefore, for example, another vehicle can reflect the non-detection area in the control of vehicle travel, such as decelerating the speed when traveling on the road.
  • the object information stored in the object information collecting unit 105 is utilized as an information source for generating a traveling route for avoiding the existence area of the object.
  • the object information stored in the object information collecting unit 105 is transmitted to another vehicle or various servers via the object communication unit 116, and is used in the other vehicle or various servers.
  • Object information transmitted to other vehicles and various servers is illustrated in Table 1 described later.
  • FIG. 5 is a sequence showing a processing procedure of information transmission / reception processing performed by the information processing device 1.
  • Time t0 First, in the sensor 101, a visible light camera photographs the surroundings of the vehicle X, and a laser range finder measures the distance, direction, and the like of objects existing around the vehicle X. After that, the sensor 101 distributes the captured image data and the measurement data to the first viewpoint object detection unit 103. At the same time, the position measurement unit 102 measures the current position of the vehicle X and delivers it to the first viewpoint object detection unit 103 together with the current time.
  • the first viewpoint object detection unit 103 performs object detection by calculating the position of an object on or around the road from the first viewpoint, and outputs the object detection result to the area setting unit 106 and the object information collection unit 105. To deliver.
  • the area setting unit 106 is useful for the driver of the vehicle X and the automatic driving system among the plurality of blind spot areas that could not be detected within the sensor viewing angle range of the sensor 101 due to the object existing in front of the vehicle X.
  • the blind spot area is set as the priority area S1.
  • the area setting unit 106 distributes the area identification information of the priority area S1 to the object selection unit 107.
  • the object selection unit 107 receives the area identification information of the priority area S1.
  • the visible light camera photographs the surroundings of the vehicle X, and the laser range finder measures the distance, direction, and the like of the objects existing around the vehicle X.
  • the sensor 101 distributes the captured image data and the measurement data to the second viewpoint object detection unit 104.
  • the position measurement unit 102 measures the current position of the vehicle X and delivers it to the second viewpoint object detection unit 104 together with the current time.
  • the second viewpoint object detection unit 104 detects the object by calculating the position of the object on the road in the second viewpoint, and distributes the object detection result to the object selection unit 107 and the object information collection unit 105. ..
  • the object selection unit 107 is an area that can be newly detected at the second viewpoint by using the area identification information of the priority area S1 and the object information of the second viewpoint, and is temporarily shielded at the first viewpoint.
  • the temporary shield object information included in the temporary shield area S2 that has been set is preferentially distributed to the object information collection unit 105.
  • the object information collecting unit 105 integrates the object information received from the object selection unit 107 with the existing object information.
  • the first viewpoint object detection unit 103 detects an object at the first viewpoint, and the area setting unit 106 cannot detect an object based on the object detection result.
  • a predetermined blind spot area is set as the priority area S1.
  • the second viewpoint object detection unit 104 detects the object in the second viewpoint, and the object selection unit 107 can newly detect the object in the second viewpoint in the priority area S1 in which the object could not be detected in the first viewpoint. Select an object from the temporary shielding area S2.
  • the driver of the vehicle X and the automatic driving system can grasp the possibility of the existence of the object in advance, and can plan a traveling route to avoid the stationary object on the road with a margin. As a result, useful information for the driver and the autonomous driving system can be efficiently obtained.
  • FIG. 6 is a diagram showing the configurations of vehicles A and B according to the second embodiment.
  • the vehicle A may further include the configuration of the vehicle B
  • the vehicle B may further include the configuration of the vehicle A. That is, both the vehicle A and the vehicle B may be configured so that one vehicle includes all the functional units shown in FIG.
  • the vehicle A includes a sensor 101A, a position measurement unit 102A, a second viewpoint object detection unit 104A, an object selection unit 107A, a map information storage unit 111A, an object selection area correction unit 112A, and a communication unit 113A. Mount.
  • the vehicle A may be further equipped with all the functional parts included in the vehicle B.
  • the sensor 101A has a function of measuring the distance, direction, etc. to an object existing around the vehicle A.
  • the position measurement unit 102A has a function of measuring the current position of the vehicle A.
  • the second viewpoint object detection unit 104A has a function of detecting an object existing on the road from the viewpoint of the vehicle A by using the measurement data of the sensor 101A and the measurement data of the position measurement unit 102A. For example, the second viewpoint object detection unit 104A detects the position information of a vehicle, an obstacle, or the like existing in the 360-degree directional area of the vehicle A.
  • the object selection unit 107A uses the object detection result of the second viewpoint object detection unit 104A to detect the priority area set by the area setting unit 106B of the vehicle B, which will be described later, from the viewpoint of the vehicle A. Is provided, and the selected object information is given priority and output to the communication unit 113A.
  • the object selection unit 107A when the priority area set by the vehicle B is expanded (added) by the object selection area correction unit 112A, the object selection unit 107A also selects the object of the expanded priority area (extension area) and vehicles. It has a function of giving priority to the selected object information and outputting it to the communication unit 113A with the same priority as the priority area set by the area setting unit 106B of B.
  • the object selection unit 107A selects an object from the non-priority areas other than the above priority area (including the extension area) among all the detected areas, and the selected object information is transferred to the communication unit 113A with the next priority. It has a function to output to.
  • the map information storage unit 111A has a function of storing map information including road information, lane information, traffic light information, building information, etc., and outputting map information of the vicinity where the vehicle A is located to the object selection area correction unit 112A.
  • the object selection area correction unit 112A detects the second viewpoint object based on the lane information of the map output from the map information storage unit 111A, the object detection result of the second viewpoint object detection unit 104A, and the position information of the vehicle A. It has a function of determining the necessity of changing lanes based on the influence of the object detected by the unit 104A (for example, lane blockage).
  • the function to determine the necessity of changing lanes is when it detects that there is a stationary object such as a road obstacle or a stopped vehicle in the planned driving lane in front of the own vehicle and detects the stationary object. Is a function for determining whether or not the vehicle can travel in an adjacent lane, and if it is possible to drive, it is determined that a lane change is necessary.
  • the object selection area correction unit 112A sets the priority area set by the vehicle B based on the road boundary line information detected by the road boundary line detecting means (not shown). It has a function to expand (add).
  • the road boundary line for example, a white line on the road, a boundary line between a curb and a road, a boundary line between a road structure such as a roadside tree shrub and a road, a boundary line between a building and a road, a vehicle, and the like are used.
  • the communication unit 113A has a function of receiving request data for requesting object information included in the priority area set by the vehicle B from the vehicle B.
  • the request data transmitted from the vehicle B to the vehicle A includes, for example, data for identifying the requesting vehicle (identification code of the vehicle B, etc.) and a flag indicating the priority for requesting the object information (high priority). It includes a flag to that effect), a search area for detecting an object (data indicating the geographical range of a priority area, etc.), and an expiration date for requesting object information (expiration date and time for sending the object information, etc.).
  • the data indicating the geographical range may be data represented by latitude and longitude, or may be represented by data indicating nodes and links included in the road map.
  • the communication unit 113A has a function of giving priority to the object information of the priority area set by the vehicle B and transmitting it to the vehicle B. Further, the communication unit 113A has a function of transmitting the object information of the expanded future-detectable priority area to the vehicle B with the same priority when the priority area is expanded by the object selection area correction unit 112A. Further, the communication unit 113A has a function of transmitting the object information of the non-priority area to the vehicle B with the next priority. As described in the first embodiment, the object information is position information of vehicles, obstacles, etc. existing on the road.
  • the communication unit 113A sets each lane link ID corresponding to each priority area as the first and second.
  • the distribution order information in which each lane link ID corresponding to the non-priority area other than the priority area is set to the third and subsequent lanes is transmitted to the requesting vehicle in advance.
  • the communication unit 113A transmits the object information of each priority area and each non-priority area to the vehicle B in the distribution order of the distribution order information.
  • the communication unit 113A is, for example, a DSRC (Datad Short Range Communications) method compliant with IEEE (Institute of Electrical and Electronics Engineers) 802.11p, or a DSRC (Data Short Range Communications) method or 3GP3G based on the IEEE (Institute of Electrical and Electronics Engineers) 802.11p. Data is transmitted and received by direct communication between vehicles based on the LTE (Long Term Evolution) cellular V2X method. The same applies to the communication unit 110B described later.
  • the communication unit 113A together with the object information of the priority area (which may include the extension area), is a detection area in which the object is detected by the sensor 101A of the vehicle A in the priority area and is temporarily shielded.
  • Information indicating the area (temporary shielding area referred to in the first embodiment) may be further transmitted.
  • the information indicating the temporary shielding area is information indicating the geographical position or range of the temporary shielding area, and information indicating the geographical position of the vehicle A when the temporary shielding area is detected.
  • the vehicle B By transmitting the information indicating the temporary shielding area from the vehicle A to the vehicle B in this way, the vehicle B remembers that the temporary shielding area is an area where the object can be detected by the sensor of the own vehicle when traveling. It becomes recognizable.
  • the vehicle B can determine that the object in the temporary shielding area can be detected at the position of the vehicle A when the temporary shielding area is detected. Therefore, for example, the vehicle B can plan in advance a travel plan that controls the vehicle at the position of the vehicle A when the temporary shielding area is detected, on the premise of object detection by the sensor of the own vehicle.
  • the communication unit 113A also includes information indicating an area (non-detection area referred to in the first embodiment) in which the vehicle A could not detect the object when the vehicle A traveled around the priority area received from the vehicle B. May be sent.
  • the information indicating the non-detection area is, for example, information indicating the geographical position or range of the non-detection area, and information indicating the geographical position of the vehicle A when the object cannot be detected by the vehicle A (traveling of the vehicle A). Completed route information, etc.).
  • the vehicle B by transmitting the non-detection area from the vehicle A to the vehicle B in which the object cannot be detected even when the vehicle A travels, the vehicle B detects the object by the sensor of the own vehicle even when the vehicle travels on the road. It can be memorized and recognized as an area requiring attention that cannot be done. Therefore, the vehicle B can reflect the non-detection area in the control of vehicle travel, such as decelerating the speed when traveling on the road.
  • the temporary shielding area and non-detection area described in variations 1 and 2 of the communication unit 113A can be applied not only to the priority area before expansion set by vehicle B but also to the priority area after expansion expanded by vehicle A. is there. That is, when the vehicle A travels around the vehicle B, the information indicating the temporary shielding area in which the object is detected by the sensor of the vehicle A among the priority areas expanded by the own vehicle, and the surrounding of the expanded priority area. In the vehicle A, it is possible to transmit information indicating a non-detection area where the object could not be detected.
  • the temporary shielding area is an area that is shielded by the influence of a shield located in front of the traveling lane in a predetermined vehicle, and is temporarily moved and moved to avoid the shield. This is an area where objects can sometimes be detected. For example, it is an area that can be detected when the preceding vehicle that is stopped is avoided, and is an area for object detection that targets both the original traveling lane and the adjacent lane of the traveling lane.
  • the priority area is an area set by another vehicle to acquire object information, and in the above example, it refers to the area of the original driving lane.
  • the extended area is an area in which the priority area is expanded, and in the above example, it is an area adjacent to the priority area and refers to an area of a lane adjacent to the traveling lane.
  • Table 1 shows an example of the object information transmitted from the vehicle A to the vehicle B.
  • the object information is object information and area information that are the result of sensing by vehicle A based on a request from vehicle B, and is an example of a data structure of response content data in which vehicle A responds to vehicle B.
  • the vehicle B includes a sensor 101B, a position measurement unit 102B, a first viewpoint object detection unit 103B, an object information collection unit 105B, an area setting unit 106B, a map / travel schedule information storage unit 108B, and an area correction unit.
  • the 109B and the communication unit 110B are mounted.
  • the vehicle B may be further equipped with all the functional parts included in the vehicle A.
  • the sensor 101B has a function of measuring the distance, direction, etc. to an object existing around the vehicle B.
  • the position measurement unit 102B has a function of measuring the current position of the vehicle B.
  • the first viewpoint object detection unit 103B has a function of detecting an object existing on the road from the viewpoint of the vehicle B by using the measurement data of the sensor 101B and the measurement data of the position measurement unit 102B. For example, the first viewpoint object detection unit 103B detects the position information of a vehicle, an obstacle, or the like existing in the 360-degree directional area of the vehicle B.
  • It has a function of collecting and storing the detection results of the objects detected by the object information collection unit 105B, the first viewpoint object detection unit 103B, and the second viewpoint object detection unit 104A of the vehicle A in association with the detection time.
  • the area setting unit 106B supplements the blind spot area that could not be detected within the sensor viewing angle of the sensor 101B by the first viewpoint object detection unit 103B with other viewpoint information, a plurality of areas that could not be detected or were difficult to detect. It has a function of setting a monitoring area which is a predetermined blind spot area among the blind spot areas and which is determined by the area correction unit 109B as a priority area.
  • the priority area is an area based on a boundary based on a predetermined object (for example, a white line on the road, a vehicle on the road) detected by the vehicle B at least at a predetermined timing.
  • the area setting unit 106B is an area in which the object could not be detected in the first viewpoint based on the detection result of detecting the object on the road, and the object is in the second viewpoint whose time is different from that of the first viewpoint. It has a function to set a temporary shielding area that can detect.
  • the vehicle B further includes the configuration of the vehicle A (second viewpoint object detection unit 104A, etc.).
  • the map / planned travel route information storage unit 108B stores map information including road information, lane information, traffic light information, building information, etc., and is based on the route plan specified by the driver of vehicle B or the automatic driving system. It has a function to store information on future planned routes and speed plans.
  • the area correction unit 109B acquires the future planned travel route and speed plan of the vehicle B, and based on the planned travel route and speed plan, among the priority areas set by the area setting unit 106B, the driver of the vehicle B or It has a function to determine the monitoring area that should be prioritized in the future for the autonomous driving system.
  • the area correction unit 109B determines the road area up to about 15 seconds ahead along the planned travel route as the monitoring area.
  • the area correction unit 109B also determines the road in the oncoming lane that flows into the branch point as a monitoring area.
  • the area correction unit 109B sets the road on the inflow side corresponding to, for example, the same distance as the distance from the vehicle B to the branch point, or the same time as the traveling time when the vehicle B reaches the branch point. It will be a monitoring area.
  • the area setting unit 106B and the area correction unit 109B use the map information stored in the map / planned travel route information storage unit 108B to lane on the map. Set based on the link ID and so on.
  • the communication unit 110B has a function of transmitting request data for requesting object information included in the priority area set by the area setting unit 106B to a nearby vehicle.
  • the request data includes, for example, information on the priority area, information on the position of the vehicle B requesting object information, information on the planned travel route, and the like.
  • the communication unit 110B has a function of transmitting the temporary shielding area to the vehicle A such as the vehicle B, the vehicle other than the vehicle A, or various servers.
  • the communication unit 110B has a function of selecting one or more of the plurality of vehicles in the vicinity of the vehicle B when there are a plurality of vehicles capable of V2X communication within the radio wave reachable range.
  • the communication unit 110B has a function of receiving the object information transmitted from the request destination vehicle (vehicle A) that has transmitted the request data.
  • Table 2 shows an example of the request data transmitted from the vehicle B to the vehicle A.
  • the request data is an example of a data structure for requesting object information in the priority area.
  • FIG. 7A and 7B are flowcharts showing a processing procedure of the information processing method.
  • Vehicle B has a planned travel route for turning left at an intersection without a traffic light, and has a travel plan for traveling at a maximum of 40 km / h. Vehicle B is passing a position 50 m before the intersection. In front of the vehicle B, there is a leading vehicle C1 that cannot communicate with V2X. The parked vehicle C2 exists at a predetermined position when the intersection in the planned travel route of the vehicle B is turned left. Then, the vehicle A is at the timing of overtaking the parked vehicle C2 in the planned travel route of the vehicle B. The vehicle A is in a position that may exist 15 seconds ahead of the vehicle B, and is 130 m ahead.
  • Step S201 First, in the vehicle B, the first viewpoint object detection unit 103B detects an object in the 360-degree directional area of the vehicle B. After that, the first viewpoint object detection unit 103B stores the object detection result in the object information collection unit 105B and transmits it to the area setting unit 106B. Here, as an object, the vehicle C1 in front in the front area is detected.
  • the area setting unit 106 finds the intersection of the vehicle C1 and the parting lines L1 and L2, is an area on the rear side of the vehicle C1, and is on the vehicle C1 side from the parting lines L1 and L2. Set the area of as the priority area.
  • Step S203 the area correction unit 109B sets the monitoring target distance in the priority area by using the travel schedule route and speed information of the vehicle B acquired from the map / travel schedule route information storage unit 108B.
  • the maximum vehicle speed is 40 km / h, so the area correction unit 109B is 162 m from the current position along the planned travel route.
  • the distance up to the point is the monitoring target distance.
  • the area is designated by the lane link ID on the map and the distance from the intersection.
  • the high-precision map is provided in the road infrastructure network or in the vehicle, only the lane link ID may be used.
  • 4 or more points may be set as the position coordinates of the road / lane boundary by complementing or substituting.
  • Step S205 Further, the area correction unit 109B also monitors the lane and the road in the section 50 m ahead of the intersection as the monitoring area S2 because the road in the oncoming lane entering the intersection along the planned travel route is also a blind spot area for the vehicle B. And set.
  • Step S206 Next, in the priority area set in step S202, the area setting unit 106B determines the monitoring areas S1 and S2 set by the area correction unit 109B in step S204 and step S205 as the priority areas S1 and S2 of the vehicle B. ..
  • the area setting unit 106B can detect an object from a second viewpoint whose time is different from that of the first viewpoint and which is an area where the object could not be detected from the first viewpoint.
  • a temporary shielding area may be set.
  • Step S207 After that, in order to request the object information included in the priority areas S1 and S2 of the determined vehicle B, the communication unit 110B selects one of a plurality of vehicles that can communicate in the vicinity, and the one vehicle. Request data is transmitted to (Vehicle A). When the temporary shielding area is set, the communication unit 110B further transmits the temporary shielding area. At this time, the communication unit 110B may request the object information included in the temporary shielding area.
  • the request data (packet data structure) transmitted from the vehicle B to the vehicle A is as shown in Table 2 described above.
  • Step S208 Next, in the vehicle A, the communication unit 113A receives the request data from the vehicle B.
  • the request data includes information on priority areas S1 and S2, information on the position of vehicle B requesting object information, information on a planned travel route, and the like.
  • Step S210 the object selection area correction unit 112A observes the state of the monitoring lane based on the lane information of the map acquired from the map information storage unit 111A and the object detection result of the second viewpoint object detection unit 104A.
  • Step S212 When it is necessary to change lanes, the object selection area correction unit 112A raises the priority of the non-priority area of the adjacent lane and adds it as the priority area S3 (extended area).
  • the priority of the priority area S3 is the same as or higher than that of the priority areas S1 and S2. For example, it is assumed that vehicle A arrives at the closed area after 13 to 25 seconds (upper limit), and since the added area is the oncoming lane, the moving speed is 0 km / h-50 km / h (speed limit).
  • the area up to 13-25 seconds (upper limit) is set as the priority area S3, and the range is up to 337 m based on the lane blockage point.
  • the priority area S3 can be said to be an area added by the correction because the road through which the vehicle A passes is not properly selected even if the object on the lane blockade lane is selected.
  • Step S214 the communication unit 113A sets each lane link ID corresponding to each priority area S1 to S3 (may include the end point corresponding to the distance from the intersection which is the start point) as the first to third, respectively, and gives priority.
  • the delivery order information in which each lane link ID corresponding to the non-priority area other than the area is set to the fourth and subsequent lanes is set in the header part of the packet.
  • the communication unit 113A sets the object information of each priority area S1 to S3 and each non-priority area in the data unit of the packet in the distribution order. After that, the communication unit 113A transmits the packet to the vehicle B. At this time, the vehicle A may raise the priority of the priority area S3 higher than the priority areas S1 and S2.
  • the object information (packet data structure) transmitted from the vehicle A to the vehicle B is as shown in Table 1 described above.
  • the predetermined road shape is, for example, an intersection, a curve, an S-shaped curve, a curve gradient inflection point, or the like.
  • the area setting unit 106B is involved in the display pattern of the traffic light. It is held as the monitoring area S2.
  • the area setting unit 106B sets the monitoring area based on the forest portion M displayed on the map or detected by the vehicle B and the current position of the vehicle B. For example, the area setting unit 106B sets the parting line L so as to be in contact with the forest portion M, and obtains an intersection O'where the parting line L passes through the bisector of the road width (intermediate line of the road width).
  • the area setting unit 106B uses the intersection near the current position of the vehicle B as the reference point O, and the area S farther than the distance from the reference point O to the intersection O'as the shielding area of the vehicle B, and sets the monitoring area S. Set as.
  • the area setting unit 106B sets the parting line L so as to be in contact with the curved road surface while traveling on a curved road surface having an uphill slope, and the sensor mounting angle of the sensor 101 is wider than the reference height surface of the vehicle B (-10 degrees).
  • the following area S is set as the shielding area of the vehicle B and is set as the monitoring area S.
  • the area setting unit 106B sets the parting line L in contact with the flat road surface during traveling as the road reference surface L, and observes the change point P in which the road gradient changes on the road route on the map. Then, the area setting unit 106B sets the area S at a point lower than the road reference plane L as the shielding area of the vehicle B and sets it as the monitoring area S.
  • the area setting unit 106B is a predetermined blind spot area among a plurality of blind spot areas that could not be detected by the sensor 101B, and the future travel schedule route and speed plan of the vehicle B. Based on this, the monitoring areas S1 and S2 that should be preferentially set in the future for the driver of the vehicle B and the automatic driving system are determined as the priority areas S1 and S2.
  • the object selection area correction unit 112A adds the adjacent lane of the traveling lane as the priority area S3, and the object selection unit 107A selects an object from the priority areas S1 and S2 determined by the vehicle B, and at the same time, An object is also selected from the added priority area S3. Then, the communication unit 113A preferentially transmits the object information in the priority areas S1, S2, and S3 to the vehicle A.
  • the vehicle B can grasp that the object information in the priority area is delivered first, and can receive the object information in the priority area with priority. It is not necessary to wait until the reception of object information related to all blind spot areas is completed, and useful information for the driver and the automatic driving system can be efficiently acquired.
  • the area setting unit 106B acquires the future position information of the vehicle B requesting the object information, and based on the future position information and the object detection result, the object in the future of the vehicle B. Since the monitoring areas where the above cannot be detected are set as the priority areas S1 and S2, useful information for the driver and the automatic driving system can be obtained.
  • the map / planned travel route information storage unit 108B that stores the map information is provided, and the map / planned travel route information storage unit 108B uses the map information as a lane link ID on the map. Since the priority area is set based on, the priority area can be surely specified.
  • the priority area is an area based on the boundary based on the predetermined object detected by the vehicle B at least at a predetermined timing, so that the priority area can be reliably specified.
  • the predetermined object is a white line or a vehicle on the road
  • the priority area can be reliably specified.
  • the communication unit 110B selects one of the plurality of communicable vehicles and transmits the request data to the one vehicle, so that the amount of data in the V2X communication network It is possible to suppress the increase in the number of vehicles and obtain useful information for the driver and the autonomous driving system more efficiently.
  • the request data includes information on the position of the vehicle B requesting the object information and the planned travel route in addition to the information on the priority area. Therefore, the requested vehicle A is the vehicle B. The position and planned travel route can be surely grasped, and the requested area can be clearly specified.
  • the area setting unit 106B sets the area having a predetermined road shape as the priority area, the object information included in the area of various road shapes can be acquired.
  • the predetermined road shape is any one of an intersection, a curve, and a curve gradient inflection point
  • the object information included in the area having the intersection, the curve, and the curve gradient inflection point is obtained. You can get it.
  • the object information can be detected in the future in an area different from the priority area or an object information detected in an area different from the priority area in addition to the object information detected by the vehicle B in the priority area. Since the object information is included, more useful information can be obtained for the driver of the vehicle B and the automatic driving system.
  • the object information includes the vehicle information on the road or the position information of the obstacle detected by the vehicle B, the driver of the vehicle B and the automatic driving system surely grasp the object information. it can.
  • the vehicle B is provided with a monitoring sensor that monitors the side of the road, detects a road boundary line or a background object, detects an object on the road, and detects an object and a parting line.
  • the information processing device 1 since the information processing device 1 is provided in the vehicles A and B, internal communication in the vehicle is possible and the processing speed can be improved.
  • FIG. 13 is a diagram showing the configurations of vehicles A, B, and D according to the third embodiment.
  • the vehicle A is equipped with a second viewpoint object detection unit 104A and an object selection unit 107A.
  • the vehicle A is also equipped with other functional units shown in FIG.
  • the second viewpoint object detection unit 104A has a function of detecting an object existing on the road from the viewpoint of the vehicle A.
  • the object selection unit 107A has a function of selecting an object in the priority area detected from the viewpoint of the vehicle A for the priority area set by the vehicle B and transmitting the selected object information to the vehicle B. Further, the object selection unit 107A has a function of transmitting the object information of the expanded priority area to the vehicle B when the vehicle A expands (adds) the priority area.
  • the vehicle D is equipped with a third viewpoint object detection unit 114D and an object selection unit 107D.
  • the vehicle D is equipped with the same functional unit as the vehicle A shown in FIG.
  • the third viewpoint object detection unit 114D has a function of detecting an object existing on the road from the viewpoint of the vehicle D.
  • the object selection unit 107D has a function of selecting an object in the priority area detected from the viewpoint of the vehicle D with respect to the priority area set by the vehicle B, and transmitting the selected object information to the vehicle B. Further, the object selection unit 107D has a function of transmitting the object information of the expanded priority area to the vehicle B when the vehicle D expands (adds) the priority area.
  • Vehicle B is equipped with an area setting unit 106B and an overlapping area adjustment unit 115B.
  • the vehicle B is also equipped with other functional units shown in FIG.
  • the area setting unit 106B is a predetermined blind spot area among a plurality of blind spot areas in order to supplement the blind spot area that could not be detected within the sensor viewing angle of the vehicle B with other viewpoint information, and the area correction unit 109B (non-existence). It has a function to set the monitoring area set by (shown in the figure) as a priority area. However, the priority area is set based on the area designation information in which the designated area to be monitored is set for each request destination vehicle.
  • the overlapping area adjustment unit 115B is connected to the area setting unit 106B and the object selection units 107A and 107D, compares the object information transmitted from the object selection units 107A and 107D, and determines the identity of the object information and the area of the object information. It has a function to judge the identity.
  • the overlapping area adjustment unit 115B overlaps each other's object information (area), the center of gravity of the overlapping area is obtained, and the vehicle whose distance is shorter than the respective distances from the positions of the vehicles A and D is the above area.
  • the area designation of the designated information is maintained, and the vehicle with the longer distance has a function to temporarily cancel the area designation.
  • the overlapping area adjusting unit 115B has a function of continuously monitoring the presence or absence of duplication of object information in the overlapping area, and returning the area designation of the area designation information to the initial value when the object information disappears in the overlapping area.
  • FIG. 14 is a flowchart showing a processing procedure of the information processing method.
  • FIG. 1 There are vehicles B that receive object information and vehicles A and D that simultaneously transmit object information. Based on the second embodiment, three monitoring areas S1-S3 are set.
  • Step S301 First, in the vehicle B, the overlapping area adjusting unit 115B receives the object information transmitted from the object selection unit 107A of the vehicle A and the object information transmitted from the object selection unit 107D of the vehicle D.
  • the overlapping area SX in which the area SA and the area SD are overlapped is It is as shown in FIG.
  • step S303 the process proceeds to step S307.
  • Step S303 When there is an overlapping area, the overlapping area adjusting unit 115B obtains the center of gravity point of the overlapping area SX and calculates the distance from each vehicle A and D to the center of gravity point. Then, the overlapping area adjusting unit 115B excludes the vehicle having a long distance from the area designation at the time of the next transmission.
  • the overlapping area adjusting unit 115B obtains the center of gravity point O of the overlapping area SX1 and the distance between the vehicle A and the center of gravity point O.
  • the OA and the distance OD between the vehicle D and the center of gravity point O are calculated.
  • the overlapping area adjusting unit 115B determines that the vehicle A is easier to recognize the overlapping area SX1 due to the relationship of distance OA ⁇ distance OD, and temporarily excludes the overlapping area SX1 from the designated range of the designated area for the vehicle D.
  • the overlapping area adjusting unit 115B specifies an area for the vehicle D which is closer to the own vehicle (vehicle B) and capable of stable communication. Maintain and release the designated area for vehicle A. Regarding the overlapping area SX3, the designated area for the vehicle D closer to the center of gravity of the overlapping area SX3 is maintained, and the designated area for the vehicle A is released.
  • the area setting unit 106B applies the area designation of the monitoring area to be included in the request data based on the new designated area by the overlapping area adjustment unit 115B.
  • the overlapping area adjusting unit 115B changes the area designation information so that the monitoring area requested from the vehicle A does not include the overlapping area SX1 and the monitoring area requested from the vehicle D does not include the overlapping area SX1. ..
  • the area setting unit 106B requests only the vehicle A from the next time onward, for example, for the overlapping area SX1 based on the changed area designation information.
  • the vehicle D does not receive the request for the object information of the overlapping area SX1 from the vehicle B, so that the object information of the overlapping area SX1 is not transmitted.
  • Step S305 After that, the overlapping area adjusting unit 115B receives the object information transmitted from the vehicles A and D, respectively, and continuously monitors the presence or absence of the object information in the overlapping area. Then, the area setting unit 106B transitions to step S306 when the object information cannot be acquired in the overlapping area, and when the object information can be continuously acquired in the overlapping area (that is, when the object still exists in the overlapping area). Transition to step S307.
  • Step S306 When the object information disappears in the overlapping area, the overlapping area adjusting unit 115B restores the area designation of the area designation information in order to resume the transmission of the object information from both the vehicles A and D.
  • Step S307 Finally, the vehicle B determines whether or not the vehicle A has passed the overlapping area, and if the vehicle A has not passed the overlapping area, the process proceeds to step S301, and if the vehicle A has passed the overlapping area, the process ends.
  • the object information transmitted from the vehicle A to the vehicle B shown in Table 1 of the second embodiment can be realized by, for example, the data structure shown in Table 4 below.

Abstract

情報処理装置1において、第1視点オプジェクト検知部103が、第1視点においてオブジェクト検知を行い、エリア設定部106が、当該オブジェクト検知結果に基づき、オブジェクトを検知できない死角エリアのうち所定の死角エリアを優先エリアとして設定する。また、第2視点オブジェクト検知部104が、第2視点においてオプジェクト検知を行い、オブジェクト選択部107が、第1視点でオブジェクトを検出できなかった優先エリアにおいて、第2視点で新たに検知できるようになったエリアからオブジェクトを選択する。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本発明は、情報処理技術に関する。特に、車両においてセンシングを行うエリアを設定し、当該エリアのオブジェクト情報を配信する技術に関する。
 特許文献1は、自車にとって死角となる死角範囲に関する情報を他車に要求し、当該死角範囲に対応する画像情報を他車から受信する方法を開示する。
特開2008−299676号公報
 しかしながら、他車に対して死角範囲の情報を無作為に要求し、当該死角範囲に対応する画像情報を無分別に受信するため、自車の運転者や自動運転システムにとって有益な死角情報であるか否かを全ての画像情報を受信するまで判定できない。
 本発明は、上記事情を鑑みてなされたものであり、運転者や自動運転システムにとって有益な情報を効率的に取得することを目的とする。
 上記課題を解決するため、本発明に係る情報処理装置、情報処理方法及び情報処理プログラムは、オブジェクトを検知できないエリアのうち所定のエリアを優先エリアとして設定し、当該優先エリアに含まれるオブジェクト情報を車両へ要求する。
 本発明によれば、運転者や自動運転システムにとって有益な情報を効率的に取得できる。
第1実施形態に係る車両Xの構成を示す図である。 図1に示した各構成部のハードウェア構成を示す図である。 情報処理方法の処理手順を示すフローチャートである。 図3に示した処理説明時の補足図である。 情報の送受信処理を示すシーケンスである。 第2実施形態に係る車両A,Bの構成を示す図である。 情報処理方法の処理手順を示すフローチャートである。 情報処理方法の処理手順を示すフローチャートである。 図7A及び図7Bに示した処理説明時の補足図である。 エリア設定方法(バリエーション1)の説明時の補足図である。 エリア設定方法(バリエーション2)の説明時の補足図である。 エリア設定方法(バリエーション3)の説明時の補足図である。 エリア設定方法(バリエーション4)の説明時の補足図である。 第3実施形態に係る車両A,B,Dの構成を示す図である。 情報処理方法の処理手順を示すフローチャートである。 図14に示した処理説明時の補足図である。 図14に示した処理説明時の補足図である。 図14に示した処理説明時の補足図である。 図14に示した処理説明時の補足図である。 図14に示した処理説明時の補足図である。
 [概要]
 まず、道路走行中の車両が、オブジェクト検知処理を実行し、オブジェクトを検知できない死角エリアのうち所定の死角エリアを優先エリアとして設定する。例えば、上記車両は、先行車両により遮蔽された、走行予定経路上の車線及び道路と、当該走行予定経路と交錯する車線と、をそれぞれ優先エリアとする。その後、上記車両は、当該2つの優先エリアに含まれるオブジェクト情報を要求するため、近隣の車両に対して、既存のV2X(Vehicle to Everything)通信を用いて要求データを送信する。
 優先エリア内にV2X通信可能な他車両が存在する場合、当該他車両は、要求データを受信後、自車でオブジェクト検知可能な全エリアのうち上記優先エリアに含まれるオブジェクトを優先検知する。また、上記他車両は、当該優先エリア以外であっても、駐車車両等で自車両の走行予定経路が走行不能になる可能性がある場合、要求元の車両も近い将来において走行予定経路を変更する可能性があるので、上記全エリアのうち変更後の経路に係る非優先エリアの優先度を高めて更なる優先エリア(拡張エリア)とし、当該更なる優先エリアに含まれるオブジェクトも優先検知する。例えば、上記他車両は、要求対象の優先エリアに対応する走行車線に加え、当該走行車線に隣接する隣接車線を更なる優先エリアとして追加する。
 そして、上記他車両は、要求対象の優先エリアと追加した更なる優先エリア(拡張エリア)とでそれぞれ検知したオブジェクト情報を優先送信するため、当該各優先エリアにそれぞれ対応する各車線リンクIDを1番目、2番目とし、当該各優先エリア以外の非優先エリアに対応する車線リンクIDを3番目以降に設定した配信順序情報を要求元の車両へ送信する。その後、上記他車両は、当該配信順序情報の配信順序で各優先エリア及び非優先エリアのオブジェクト情報をそれぞれ要求元の車両へ送信する。
 これにより、運転者や自動運転システムにとって有益な情報を効率的に取得する。
 [第1実施形態]
 本発明を適用した第1実施形態を説明する。
 [車両及び情報処理装置の構成]
 図1は、第1実施形態に係る車両Xの構成を示す図である。車両Xは、主として、センサ101と、位置計測部102と、第1視点オブジェクト検知部103と、第2視点オブジェクト検知部104と、オブジェクト情報収集部105と、エリア設定部106と、オブジェクト選択部107と、オブジェクト通信部116と、を備えて構成される。
 情報処理装置1は、図1に示すように、主として、第1視点オブジェクト検知部103と、第2視点オブジェクト検知部104と、オブジェクト情報収集部105と、エリア設定部106と、オブジェクト選択部107と、オブジェクト通信部116と、を構成する。
 センサ101は、車両Xの内部、外部、上部、側部等に搭載され、車両Xの周囲に存在するオブジェクトまでの距離、オブジェクトの方向等を測定する機能を備える。また、センサ101は、測定したオブジェクトの距離、方向等を、位置計測部102から送信された現在時刻に関連付けて出力する機能を備える。
 例えば、センサ101は、レーザレンジファインダ、可視光カメラである。レーザレンジファインダは、360度方位の範囲内で約150m先に位置する道路周辺のオブジェクトに近赤外光を照射し、応答波を受信するまでの応答時間等より、応答波の強度、オブジェクトまでの距離、オブジェクトの方向を測定する。そして、レーザレンジファインダは、例えば0.25度方位を単位ポイントとして180度方位分を纏めたポイントクラウド形式の生データ(強度、距離、方向)を出力する。可視光カメラは、道路周囲を撮影して画像データを出力する。レーザレンジファインダは位置測定精度が高い特徴があり、可視光カメラは機械学習等の認識処理を組み合わせることで、オブジェクトの位置に加え、道路上の図形、文字、色等も認識可能な特徴がある。
 位置計測部102は、車両Xの現在位置を計測し、現在時刻に関連付けて出力する機能を備える。例えば、位置計測部102は、位置計測装置、3次元位置計測システムである。
 第1視点オブジェクト検知部103は、車両Xの第1視点において、センサ101が測定した測定データ(オブジェクトの距離、方向等)を用いて、車両Xから見たオブジェクトの相対的位置を算出し、位置計測部102が計測した計測データ(車両Xの位置情報)を用いて、地図上におけるオブジェクトの絶対的位置を算出する機能を備える。絶対的位置の座標系は、世界測地系等、高精度地図上交差点等に所在する所定基準点からの道のり距離等で表現する。
 これにより、第1視点オブジェクト検知部103は、現在時刻において道路上に存在するオブジェクトを検知する。そして、第1視点オブジェクト検知部103は、オブジェクトの検知結果をオブジェクト情報収集部105及びエリア設定部106に出力する。尚、第1視点オブジェクト検知部103は、センサ101がオブジェクトの種類、速度等も測定していた場合、それらの情報も併せて出力する。
 第2視点オブジェクト検知部104は、車両Xの第2視点において、第1視点オブジェクト検知部103と同様に、現在時刻において道路上に存在するオブジェクトを検知し、オブジェクトの検知結果をオブジェクト情報収集部105及びオブジェクト選択部107に出力する。このとき、第2視点オブジェクト検知部104は、第1視点とは異なる視点を用いるため、例えば、センサ101と異なる位置のセンサで測定された測定データ、センサ101と異なるセンサ主軸方向のセンサで測定された測定データ、同じセンサ101を用いる場合には測定時刻の異なる測定データを用いる。
 オブジェクト情報収集部105は、第1視点オブジェクト検知部103と第2視点オブジェクト検知部104とでそれぞれ検知されたオブジェクトの検知結果を検知時刻に関連付けて収集して記憶する機能を備える。
 オブジェクト通信部116は、所定の通信ネットワークを介して、車両や各種サーバとデータを送受信する機能を備える。例えば、オブジェクト通信部116は、オブジェクト情報収集部105に記憶されたオブジェクトの検知結果等を他車両や各種サーバに送信する。また、オブジェクト通信部116は、他車両や各種サーバから送信されたオブジェクトの検知結果等を受信してオブジェクト情報収集部105に送信する。
 所定の通信ネットワークとは、例えば、IEEE(Institute of Electrical and Electronics Engineers)802.11pに準拠したDSRC(Dedicated Short Range Communications)方式に基づく通信ネットワーク、3GPP(Release 14)に準拠したLTE(Long Term Evolution)セルラV2X方式に基づく無線通信ネットワークである。特定方式の通信ネットワークに限らず、既存の通信ネットワーク、将来利用可能な任意の通信ネットワーク(例えば、5G等の次世代モバイル通信網等)も利用可能である。また、種類の異なる通信ネットワークが接続された複数の通信ネットワークでもよいし、無線でもよいし、有線でもよい。
 エリア設定部106は、第1視点オブジェクト検知部103において、センサ101のセンサ視野角内で検知できなかったエリアを他の視点情報で補うため、所定のエリアを設定する機能を備える。具体的には、エリア設定部106は、第1視点オブジェクト検知部103におけるオブジェクト検知結果に基づき、オブジェクトを検知できないエリアのうち所定のエリアを優先エリアとして設定する機能を備える。
 例えば、エリア設定部106は、車両Xの手前のオブジェクトにより遮蔽された複数の死角エリアのうち、車両Xの運転者や自動運転システムにとって有益な死角エリアを優先エリアに設定する。優先エリアとしては、例えば、先行車両により遮蔽された、前方の走行エリア、前方の交差点エリアである。一方、後方車両により遮蔽された後方エリアは、優先エリアとして設定しない。
 オブジェクト選択部107は、エリア設定部106が設定した優先エリアに対し、第2視点オブジェクト検知部104のオブジェクト検知結果を用いて、第2視点で新たに検知できるようになったエリアのオブジェクトを選択し、選択したオブジェクト情報を優先してオブジェクト情報収集部105に出力する機能を備える。
 オブジェクト情報とは、所定エリアのオブジェクト検知処理を行った結果として検知されたデータであって、予め設定された所定の物体(例えば、人、車両(普通車、大型車、二輪車等)、自転車、道路構造物、路上障害物等)、所定以上の大きさを有する物体に関する、次のデータである。
 例えば、オブジェクト情報とは、検知された物体の地理的位置を示すデータである。具体的には、緯度経度により特定される位置、道路地図に存在する所定パラメータ(ノード、リンク等)により特定される位置、オブジェクトを検知したセンサ等からの相対的な位置等である。
 また、オブジェクト情報とは、検知された物体の種別を示すデータである。例えば、人、車両(普通車、大型車、二輪車等)、自転車、道路構造物、路上障害物等といった種別情報である。また、オブジェクト情報とは、検知された物体の大きさを示すデータ(長さ、幅、高さ等)である。また、オブジェクト情報とは、検知された物体が含まれる静止画データ、動画データ、ポイントクラウドデータである。更に、オブジェクト情報として、検知された物体の速度、検知時刻、観測時刻等を含めてもよい。
 その他、情報処理装置1は、道路側方を監視する監視センサ(不図示)と、道路境界線検出手段(不図示)と、静止オブジェクトエリア推定手段(不図示)と、を更に備える。静止オブジェクトエリア推定手段は、道路境界線又は背景オブジェクトを検知し、道路上オブジェクトを検知して、「道路境界線又は背景オブジェクトの検知結果」及び「道路上オブジェクトの検知結果」に基づき、検知したオブジェクトと見切り線との交点を求め、静止オブジェクトエリアを推定計算することにより、車両又は障害物を検知する機能を備える。
 車両又は障害物を検知した場合、情報処理装置1は、車両Xの運転支援システム又は自動運転システムに静止オブジェクトエリアを領域情報で表示し、静止オブジェクトの存在を音声で通知する。尚、領域情報とは、例えば、GNSS(Global Navigation Satellite System)緯度経度座標と接続情報、高精度マップのレーンIDと道のり距離による区間情報、車線リンクIDと座標情報等である。
 [車両及び情報処理装置のハードウェア構成]
 図2は、図1に示した各構成部のハードウェア構成を示す図である。各構成部は、例えば、センサデバイスH101と、位置計測装置H102と、通信機H103と、演算処理装置H104と、で構成される。
 センサデバイスH101は、図1に示したセンサ101であり、前方センサH101aと、後方センサH101bと、右側センサH101cと、左側センサH101dと、で構成される。
 前方センサH101aは、車両Xの前方の可視画像を撮像するため、画角90度の4K解像度カメラ及びレンズを搭載する。前方センサH101aは、車両Xの進行方向に向けてカメラの中央が設置され、道路境界線検出手段(不図示)での道路境界線の検出結果に応じて画像データを出力する。
 後方センサH101bは、前方センサH101aと同じカメラ及びレンズを搭載する。後方センサH101bは、車両Xの進行方向に対して180度後方の方向に向けてカメラの中央が設置され、道路境界線検出手段(不図示)での道路境界線の検出結果に応じて、前方センサH101aの撮像タイミングに最も近いタイミングで撮影した画像データを出力する。
 右側センサH101cは、車両Xの右側の可視画像を撮像するため、画角180度の4K解像度カメラ及びレンズを搭載する。右側センサH101cは、車両Xの進行方向に対して90度右方向に向けてカメラの中央が設置され、道路境界線検出手段(不図示)の出力に応じて、前方センサH101aの撮像タイミングに最も近いタイミングで撮影した画像データを出力する。
 左側センサH101dは、右側センサH101cと同じカメラ及びレンズを搭載する。左側センサH101dは、車両Xの進行方向に対して90度左方向に向けてカメラの中央が設置され、道路境界線検出手段(不図示)の出力に応じて、前方センサH101aの撮像タイミングに最も近いタイミングで撮影した画像データを出力する。
 位置計測装置H102は、図1に示した位置計測部102であり、車両Xの内部に搭載され、他装置からGNSS信号を受信し、現在時刻における車両Xの位置、車両Xの進行方向を算出する。
 通信機H103は、第1通信機H103aと、第2通信機H103bと、第3通信機H103cと、で構成される。第1通信機H103aと第2通信機H103bは、図1に示したセンサ101及び位置計測部102が車両Xに搭載され、かつ、情報処理装置1が車両X以外に搭載される場合に用いられる。第3通信機H103cは、情報処理装置1が他車両や各種サーバとの間で通信する際に用いられる。尚、第2通信機H103b及び第3通信機H103cは、1つの無線通信回路で構成してもよい。
 第1通信機H103aは、センサ101及び位置計測部102が情報処理装置1との間で送受信するデータを通信制御する。具体的には、第1通信機H103aは、位置計測装置H102の現在時刻をセンサデバイスH101に配信すると共に、第2通信機H103bを介して、第1演算処理装置H104aと、第2演算処理装置H104bと、第3演算処理装置H104cと、の間でデータ送受信を行う。
 第2通信機H103bは、情報処理装置1がセンサ101及び位置計測部102との間で送受信するデータを通信制御する。具体的には、第2通信機H103bは、第1通信機H103aを介して、センサ101と、位置計測部102と、の間でデータ送受信を行う。
 第3通信機H103cは、情報処理装置1が他車両や各種サーバとの間で送受信するデータを通信制御する。具体的には、第3通信機H103cは、オブジェクト通信部116を備え、所定の通信ネットワークを介して、他車両や各種サーバとの間でデータ送受信を行う。
 演算処理装置H104は、第1演算処理装置H104aと、第2演算処理装置H104bと、第3演算処理装置H104cと、で構成される。
 第1演算処理装置H104aは、センサデバイスH101及び位置計測装置H102から出力されたデータをもとに、第1視点オブジェクト検知部103とエリア設定部106の各処理を実行する。また、第1演算処理装置H104aは、第1視点オブジェクト検知部103のオブジェクト検知結果を第3演算処理装置H104cに送信し、エリア設定部106のエリア設定情報を第2演算処理装置H104bに送信する。
 第2演算処理装置H104bは、センサデバイスH101、位置計測装置H102、第1演算処理装置104aから出力されたデータをもとに、第2視点オブジェクト検知部104とオブジェクト選択部107の各処理を実行する。また、第2演算処理装置H104bは、第2視点オブジェクト検知部104のオブジェクト検知結果と、オブジェクト選択部107のオブジェクト情報とを、第3演算処理装置H104cに送信する。
 第3演算処理装置H104cは、第1演算処理装置H104a及び第2演算処理装置H104bから出力されたデータをもとに、オブジェクト情報収集部105の処理を実行する。また、第3演算処理装置H104cは、オブジェクト情報収集部105が収集したデータを、オブジェクト通信部116を備えた第3通信機H103cを通じて、他車両や各種サーバへ送信する。また、第3演算処理装置H104cは、第3通信機H103cのオブジェクト通信部116に対して他車両や各種サーバから送信されたオブジェクトの検知結果等を受信し、オブジェクト情報収集部105に出力する。
 尚、演算処理装置H104は、CPU、メモリ、ハードディスク、入出力インタフェース等を備えるコンピュータで実現可能である。また、演算処理装置H104は、車両、携帯電話端末、移動体通信網上のモバイルエッジコンピュータ、路側に設置された道路交通設備サーバ、インターネット上のクラウドサーバ等に搭載可能である。
 [情報処理方法]
 次に、情報処理装置1で行う情報処理方法について説明する。図3は、情報処理方法の処理手順を示すフローチャートである。
 最初に、図4を用いて前提条件を説明する。車両Xは、図4の上側に示す第1視点では、前方に遮蔽物O1が存在し、車速20km/hで接近している。遮蔽物O1は、不動であり車両Xの走行道路の一部を占有している。
 ステップS101;
 まず、第1視点オブジェクト検知部103は、図4の上側に示す第1視点において、オブジェクト検知を行う。その後、第1視点オブジェクト検知部103は、オブジェクト検知結果をオブジェクト情報収集部105に格納し、エリア設定部106に送信する。第1視点ではオブジェクトとして遮蔽物O1を検出する。
 ステップS102;
 次に、エリア設定部106は、遮蔽物O1によりオブジェクトを検知できなかった死角エリアのうち所定の死角エリアを優先エリアに設定し、オブジェクト選択部107に送信する。ここでは、エリア設定部106は、遮蔽物等の存在により、自車両のセンサにより所定エリアのオブジェクト情報が得られないエリアを優先エリアとして設定する。例えば、エリア設定部106は、図4の上側に示すように、遮蔽物O1と見切り線L1,L2との交点を求め、遮蔽物O1の後側エリアであり、かつ、見切り線L1,L2より遮蔽物O1側のエリアS1を優先エリアS1として設定する。
 ステップS103;
 次に、第2視点オブジェクト検知部104は、車両Xが移動した図4の下側に示す第2視点において、オブジェクト検知を行う。その後、第2視点オブジェクト検知部104は、オブジェクトの検知結果をオブジェクト情報収集部105に送信し、オブジェクト選択部107に送信する。第2視点ではオブジェクトとして三角コーンO2を検出する。
 ステップS104;
 最後に、オブジェクト選択部107は、遮蔽物O1に接する見切り線L1と右側の車線とで囲まれる道路を見通す範囲内のエリアS2を、優先送信する新たに検知できるようになったエリアであって第1視点で一時遮蔽されていた一時遮蔽エリアS2として定める。そして、オブジェクト選択部107は、第1視点でオブジェクトを検出できなかった優先エリアS1において、第2視点で新たに検知できるようになった一時遮蔽エリアS2の三角コーンO2を選択し、優先的にオブジェクト情報収集部105に送信する。例えば、オブジェクト選択部107は、三角コーンO2のオブジェクト情報を先に送信し、遮蔽物O1のオブジェクト情報を次に送信する。
 また、オブジェクト選択部107は、三角コーンO2のオブジェクト情報を送信すると共に、第1視点ではオブジェクトを検知できず第2視点で新たにオブジェクトを検知できるようになった一時遮蔽エリアS2を示す情報をオブジェクト情報収集部105に送信する。つまり、オブジェクト選択部107は、一時遮蔽エリアS2に含まれるオブジェクト情報に加え、一時遮蔽エリアS2のエリア情報も併せて送信する。例えば、オブジェクト選択部107は、一時遮蔽エリアS2の地理的位置を示す情報、一時遮蔽エリアS2を検知可能となった第2視点の地理的位置を示す情報を送信する。
 尚、三角コーンO2のオブジェクト情報とは、手前の遮蔽物O1の存在により、第1視点の第1位置では検知できず、第1視点よりも三角コーンO2のオブジェクトに対して更に接近した第2視点でないと検知できないオブジェクト情報(一時遮蔽オブジェクト情報)である。
 [ステップS104のバリエーション1]
 オブジェクト選択部107が一時遮蔽オブジェクト情報を車両Xのオブジェクト情報収集部105に送信した後、オブジェクト情報収集部105は、オブジェクト通信部116を介して、当該一時遮蔽オブジェクト情報を車両Xから他車両や各種サーバに優先して送信することも可能である。
 これにより、三角コーンO2に接近していない他車両であっても、車両Xから送信された当該一時遮蔽オブジェクト情報に基づき、事前に当該一時遮蔽オブジェクト情報のオブジェクトを検知可能となる。
 [ステップS104のバリエーション2]
 また、オブジェクト情報収集部105は、一時遮蔽オブジェクト情報を他車両や各種サーバに送信すると共に、一時遮蔽エリアS2を示す情報(エリア情報)を他車両や各種サーバに送信してもよい。一時遮蔽エリアS2を示す情報とは、上述したように、第1視点ではオブジェクトを検知できなかったエリアであって、第1視点とは異なる第2視点で新たにオブジェクトを検知できるようになったエリアに関する情報である。例えば、オブジェクト情報収集部105は、一時遮蔽エリアS2の地理的位置又は範囲を示す情報、一時遮蔽エリアS2を検知可能となった第2視点での車両Xの地理的位置を示す情報を送信する。
 このように、一時遮蔽エリアS2を示す情報を車両Xから他車両に送信することにより、他車両は、当該一時遮蔽エリアS2を、走行時に自車両のセンサによりオブジェクト検知が可能なエリアであることを記憶し認識可能となる。他車両は、当該一時遮蔽エリアS2を示す情報を受信することで、第1視点ではセンサによるオブジェクト検知できないものの、第1視点を通過した後の第2視点においては、一時遮蔽エリアS2のオブジェクト検知が可能になることを判断できる。それ故、例えば、他車両は、第2視点において自車両のセンサによるオブジェクト検知を前提とした車両制御を行うような走行計画を事前に計画可能となる。
 [ステップS104のバリエーション3]
 更に、オブジェクト情報収集部105は、第1視点ではオブジェクトを検出できず、更に第2視点でもオブジェクトが検知できないエリア(非検知エリア)を示す情報(非検知エリア情報)を、オブジェクト通信部116を介して、車両Xから他車両や各種サーバに送信してもよい。非検知エリアを示す情報とは、例えば、優先エリアS1のうち一時遮蔽エリアS2を含まないエリアの地理的位置又は範囲を示す情報、及び第2視点の地理的位置を示す情報である。
 このように、第2視点でもオブジェクトが検知できない非検知エリアを車両Xから他車両や各種サーバに送信することにより、他車両は、当該非検知エリアを、道路走行によっても自車両のセンサによりオブジェクト検知できない要注意エリアとして記憶し認識可能となる。それ故、例えば、他車両は、道路走行時に速度を減速する等、当該非検知エリアを車両走行の制御に反映可能となる。
 ステップS104の後、車両Xにおいて、オブジェクト情報収集部105に格納されたオブジェクト情報は、オブジェクトの存在エリアを回避するための走行経路を生成するための情報元として活用される。
 また、車両Xにおいて、オブジェクト情報収集部105に格納されたオブジェクト情報は、オブジェクト通信部116を介して他車両や各種サーバに送信され、他車両や各種サーバにおいて利用される。他車両や各種サーバに送信されるオブジェクト情報については、後述する表1に例示する。
 [情報の送受信処理シーケンス]
 次に、各機能部間で行う情報の送受信処理について説明する。図5は、情報処理装置1で行う情報の送受信処理の処理手順を示すシーケンスである。
 時刻t0;
 まず、センサ101において、可視光カメラが車両Xの周囲を撮影し、レーザレンジファインダが車両Xの周囲に存在するオブジェクトの距離、方向等を測定する。その後、センサ101は、撮影した画像データ及び測定データを第1視点オブジェクト検知部103に配信する。同時に、位置計測部102は、車両Xの現在位置を測定し、現在時刻と共に第1視点オブジェクト検知部103に配信する。
 時刻t1;
 次に、第1視点オブジェクト検知部103は、第1視点において、道路上又は周辺のオブジェクトの位置を算出することでオブジェクト検知を行い、オブジェクト検知結果をエリア設定部106及びオブジェクト情報収集部105に配信する。
 時刻t2;
 次に、エリア設定部106は、車両Xの手前に存在するオブジェクトにより、センサ101のセンサ視野角範囲内で検知できなかった複数の死角エリアのうち、車両Xの運転者や自動運転システムにとって有益な死角エリアを優先エリアS1に設定する。その後、エリア設定部106は、当該優先エリアS1のエリア特定情報をオブジェクト選択部107に配信する。
 時刻t3;
 次に、オブジェクト選択部107は、上記優先エリアS1のエリア特定情報を受信する。
 時刻t4;
 次に、センサ101において、可視光カメラが車両Xの周囲を撮影し、レーザレンジファインダが車両Xの周囲に存在するオブジェクトの距離、方向等を測定する。その後、センサ101は、撮影した画像データ及び測定データを第2視点オブジェクト検知部104に配信する。同時に、位置計測部102は、車両Xの現在位置を測定し、現在時刻と共に第2視点オブジェクト検知部104に配信する。
 時刻t5;
 次に、第2視点オブジェクト検知部104は、第2視点において、道路上のオブジェクトの位置を算出することでオブジェクト検知を行い、オブジェクト検知結果をオブジェクト選択部107及びオブジェクト情報収集部105に配信する。
 時刻t6;
 次に、オブジェクト選択部107は、上記優先エリアS1のエリア特定情報及び第2視点のオブジェクト情報を用いて、第2視点で新たに検知できるようになったエリアであって第1視点で一時遮蔽されていた一時遮蔽エリアS2に含まれる一時遮蔽オブジェクト情報を優先してオブジェクト情報収集部105に配信する。
 時刻t7;
 最後に、オブジェクト情報収集部105は、オブジェクト選択部107から受信したオブジェクト情報を既存のオブジェクト情報に統合する。
 [第1実施形態の効果]
 本実施形態によれば、情報処理装置1において、第1視点オブジェクト検知部103が、第1視点においてオブジェクト検知を行い、エリア設定部106が、当該オブジェクト検知結果に基づき、オブジェクトを検知できない死角エリアのうち所定の死角エリアを優先エリアS1として設定する。
 また、第2視点オブジェクト検知部104が、第2視点においてオブジェクト検知を行い、オブジェクト選択部107が、第1視点でオブジェクトを検出できなかった優先エリアS1のうち、第2視点で新たに検知できるようになった一時遮蔽エリアS2からオブジェクトを選択する。
 これにより、車両Xの運転者や自動運転システムは、オブジェクトの存在可能性を予め把握でき、余裕をもって道路上の静止オブジェクトを回避する走行経路を計画できる。その結果、運転者や自動運転システムにとって有益な情報を効率的に取得できる。
 [第2実施形態]
 本発明を適用した第2実施形態を説明する。
 [車両及び情報処理装置の構成]
 図6は、第2実施形態に係る車両A,Bの構成を示す図である。車両Aは車両Bの構成を更に備えてもよいし、車両Bも車両Aの構成を更に備えてもよい。すなわち、車両Aと車両Bは、いずれも、一の車両で図6に示した全ての機能部を備えるように構成してもよい。
 [車両Aの構成]
 車両Aは、センサ101Aと、位置計測部102Aと、第2視点オブジェクト検知部104Aと、オブジェクト選択部107Aと、地図情報記憶部111Aと、オブジェクト選択エリア補正部112Aと、通信部113Aと、を搭載する。車両Aは、車両Bが備える全ての機能部を更に搭載してもよい。
 センサ101Aは、車両Aの周囲に存在するオブジェクトまでの距離、方向等を測定する機能を備える。
 位置計測部102Aは、車両Aの現在位置を計測する機能を備える。
 第2視点オブジェクト検知部104Aは、センサ101Aの測定データ及び位置計測部102Aの計測データを用いて、車両Aの視点において道路上に存在するオブジェクトを検知する機能を備える。例えば、第2視点オブジェクト検知部104Aは、車両Aの360度方位エリアに存在する車両、障害物等の位置情報を検知する。
 オブジェクト選択部107Aは、後述する車両Bのエリア設定部106Bが設定した優先エリアに対し、第2視点オブジェクト検知部104Aのオブジェクト検知結果を用いて、車両Aの視点で検知した当該優先エリアのオブジェクトを選択し、選択したオブジェクト情報を優先して通信部113Aに出力する機能を備える。
 また、オブジェクト選択部107Aは、オブジェクト選択エリア補正部112Aにより、車両Bが設定した優先エリアが拡張(追加)されている場合、当該拡張された優先エリア(拡張エリア)のオブジェクトも選択し、車両Bのエリア設定部106Bが設定した優先エリアと同じ優先度で、当該選択したオブジェクト情報も優先して通信部113Aに出力する機能を備える。
 さらに、オブジェクト選択部107Aは、検知した全てのエリアの中で上記優先エリア(拡張エリアを含む)以外の非優先エリアからもオブジェクトを選択し、選択したオブジェクト情報を次の優先度で通信部113Aに出力する機能を備える。
 地図情報記憶部111Aは、道路情報、車線情報、信号機情報、建物情報等を含む地図情報を記憶し、車両Aの位置する周辺の地図情報をオブジェクト選択エリア補正部112Aに出力する機能を備える。
 オブジェクト選択エリア補正部112Aは、地図情報記憶部111Aから出力された地図の車線情報と、第2視点オブジェクト検知部104Aのオブジェクト検知結果と、車両Aの位置情報とに基づき、第2視点オブジェクト検知部104Aが検知したオブジェクトによる影響(例えば、車線封鎖等)により車線変更の必要性を判定する機能を備える。
 車線変更の必要性を判定する機能とは、自車両の前方にある走行予定車線内に、例えば、路上障害物や停車車両等の静止オブジェクトがあることを検知し、静止オブジェクトを検知した場合には、隣接する車線の走行可否を判定し、走行が可能な場合には、車線変更が必要であることを判定する機能である。
 また、オブジェクト選択エリア補正部112Aは、車両Aにおいて車線変更等が必要な場合、道路境界線検出手段(不図示)で検出した道路境界線情報に基づき、車両Bが設定していた優先エリアを拡張(追加)する機能を備える。
 例えば、オブジェクト選択エリア補正部112Aは、車両Bが設定していた優先エリアを、車両Aの走行車線(=当該優先エリア)と当該走行車線の隣接車線(=当該優先エリアに追加する拡張エリア)とを含む道路幅全体に拡張する。対向車線を拡張エリアにする場合、オブジェクト選択エリア補正部112Aは、車両Aの道のり方向で15秒分遠方のエリアを追加する。また、オブジェクト選択エリア補正部112Aは、地図情報記憶部111Aに車線情報が掲載されていない場合、上記優先エリアが道路上の道路境界線の内側になるように補正(拡張)する。道路境界線としては、例えば、道路上の白線、縁石と道路の境界線、街路樹低木等の道路構造物と道路の境界線、建物と道路の境界線、車両等を用いる。
 通信部113Aは、車両Bから、車両Bが設定した優先エリアに含まれるオブジェクト情報を要求するための要求データを受信する機能を備える。車両Bから車両Aに送信される要求データには、例えば、要求元の車両を識別するためのデータ(車両Bの識別符号等)、オブジェクト情報を要求する優先度を示すフラグ(優先度が高い旨のフラグ等)、オブジェクトを検知する探索エリア(優先エリアの地理的範囲を示すデータ等)、オブジェクト情報を要求する有効期限(当該オブジェクト情報の送信日時の期限等)が含まれる。尚、地理的範囲を示すデータとは、緯度経度により表現されるデータであってもよいし、道路地図に含まれるノードやリンクを示すデータによって表現されてもよい。
 また、通信部113Aは、車両Bが設定した優先エリアのオブジェクト情報を優先して車両Bに送信する機能を備える。また、通信部113Aは、オブジェクト選択エリア補正部112Aにより当該優先エリアが拡張されている場合、拡張された将来検知可能な優先エリアのオブジェクト情報を同じ優先度で車両Bに送信する機能を備える。さらに、通信部113Aは、非優先エリアのオブジェクト情報を次の優先度で車両Bに送信する機能を備える。オブジェクト情報とは、第1実施形態で説明した通り、道路上に存在する車両、障害物等の位置情報等である。
 例えば、通信部113Aは、要求対象の優先エリアと拡張した優先エリアとでそれぞれ検知したオブジェクト情報を優先送信するため、当該各優先エリアにそれぞれ対応する各車線リンクIDを1番目、2番目とし、優先エリア以外の非優先エリアに対応する各車線リンクIDを3番目以降に設定した配信順序情報を予め要求元車両へ送信する。その後、通信部113Aは、当該配信順序情報の配信順序で各優先エリア及び各非優先エリアのオブジェクト情報をそれぞれ車両Bへ送信する。
 尚、通信部113Aは、第1実施形態で説明した通り、例えば、IEEE(Institute of Electrical and Electronics Engineers)802.11pに準拠したDSRC(Dedicated Short Range Communications)方式、又は3GPP(Release 14)に準拠したLTE(Long Term Evolution)セルラV2X方式に基づき、車両間の直接通信でデータを送受信する。後述する通信部110Bも同様である。
 [通信部113Aのバリエーション1]
 通信部113Aは、上記優先エリア(拡張エリアを含めてもよい)のオブジェクト情報と共に、当該優先エリアのうち、車両Aのセンサ101Aによりオブジェクト検知が行われた検知エリアであって一時遮蔽されていたエリア(第1実施形態でいう一時遮蔽エリア)を示す情報を更に送信するようにしてもよい。一時遮蔽エリアを示す情報とは、一時遮蔽エリアの地理的位置又は範囲を示す情報、当該一時遮蔽エリアを検知した際の車両Aの地理的位置を示す情報である。
 このように、一時遮蔽エリアを示す情報を車両Aから車両Bへ送信することにより、車両Bは、当該一時遮蔽エリアを、走行時に自車両のセンサによりオブジェクト検知が可能なエリアであることを記憶し認識可能となる。車両Bは、当該一時遮蔽エリアを示す情報を受信することで、一時遮蔽エリアを検知した際の車両Aの位置において、一時遮蔽エリア内のオブジェクト検知が可能になることを判断できる。それ故、例えば、車両Bは、一時遮蔽エリアを検知した際の車両Aの位置において、自車両のセンサによるオブジェクト検知を前提とした車両制御を行うような走行計画を事前に計画可能となる。
 [通信部113Aのバリエーション2]
 通信部113Aは、車両Aが、車両Bから受信した優先エリアの周囲を走行した際に、車両Aではオブジェクト検知ができなかったエリア(第1実施形態でいう非検知エリア)を示す情報を併せて送信してもよい。非検知エリアを示す情報とは、例えば、非検知エリアの地理的位置又は範囲を示す情報、及び車両Aによりオブジェクト検知ができなかった際の車両Aの地理的位置を示す情報(車両Aの走行済ルート情報等)である。
 このように、車両Aの走行によってもオブジェクトが検知できない非検知エリアを車両Aから車両Bに送信することにより、車両Bは、当該非検知エリアを、道路走行によっても自車両のセンサによりオブジェクト検知できない要注意エリアとして記憶し認識可能となる。それ故、車両Bは、道路走行時に速度を減速する等、当該非検知エリアを車両走行の制御に反映可能となる。
 [通信部113Aのバリエーション1,2の共通事項]
 通信部113Aのバリエーション1,2で説明した一時遮蔽エリア及び非検知エリアは、車両Bが設定した拡張前の優先エリアのみに限らず、車両Aが拡張した拡張後の優先エリアにも適用可能である。つまり、車両Aは、車両Bに対して、自車両で拡張した優先エリアのうち車両Aのセンサによりオブジェクト検知がなされた一時遮蔽エリアを示す情報、及び拡張した優先エリアの周囲を走行した際に車両Aではオブジェクト検知ができなかった非検知エリアを示す情報を送信することができる。
 ここで、一時遮蔽エリア、優先エリア、拡張エリアについて、改めて説明する。
 一時遮蔽エリアとは、所定の車両において、走行車線上の前方等に位置する遮蔽物の影響により遮蔽されていたエリアであって、かつ、当該遮蔽物を避けるために一時的に移動して移動時にオブジェクト検知可能となったエリアである。例えば、停止中の先行車両を避けた際に検知可能となったエリアであって、もともとの走行車線と当該走行車線の隣接車線との両方を対象エリアにしたオブジェクト検知のためのエリアである。
 一方、優先エリアとは、他車両がオブジェクト情報を取得するために設定したエリアであって、上記例の場合、もともとの走行車線のエリアを指す。また、拡張エリアとは、優先エリアを拡張したエリアであって、上記例の場合、優先エリアに隣接するエリアであって、上記走行車線に隣接する車線のエリアを指す。
 [車両Aから車両Bへ送信されるオブジェクト情報]
 車両Aから車両Bへ送信されるオブジェクト情報の例を表1に示す。当該オブジェクト情報は、車両Bからの要求に基づき、車両Aがセンシングを行った結果であるオブジェクト情報及びエリア情報であり、車両Aが車両Bに応答する回答コンテンツデータのデータ構造の一例である。
Figure JPOXMLDOC01-appb-T000001
 [車両Bの構成]
 引き続き、車両Bについて説明する。
 車両Bは、センサ101Bと、位置計測部102Bと、第1視点オブジェクト検知部103Bと、オブジェクト情報収集部105Bと、エリア設定部106Bと、地図・走行予定経路情報記憶部108Bと、エリア補正部109Bと、通信部110Bと、を搭載する。車両Bは、車両Aが備える全ての機能部を更に搭載してもよい。
 センサ101Bは、車両Bの周囲に存在するオブジェクトまでの距離、方向等を測定する機能を備える。
 位置計測部102Bは、車両Bの現在位置を計測する機能を備える。
 第1視点オブジェクト検知部103Bは、センサ101Bの測定データ及び位置計測部102Bの計測データを用いて、車両Bの視点において道路上に存在するオブジェクトを検知する機能を備える。例えば、第1視点オブジェクト検知部103Bは、車両Bの360度方位エリアに存在する車両、障害物等の位置情報を検知する。
 オブジェクト情報収集部105Bと、第1視点オブジェクト検知部103Bと車両Aの第2視点オブジェクト検知部104Aとでそれぞれ検知されたオブジェクトの検知結果を検知時刻に関連付けて収集して記憶する機能を備える。
 エリア設定部106Bは、第1視点オブジェクト検知部103Bにおいて、センサ101Bのセンサ視野角内で検知できなかった死角エリアを他の視点情報で補うため、検知できなかった又は検知困難であった複数の死角エリアのうち所定の死角エリアであり、かつ、エリア補正部109Bが決定した監視エリアを優先エリアとして設定する機能を備える。優先エリアとは、少なくとも所定のタイミングにおいて、車両Bにより検知された所定対象物(例えば、道路上の白線、道路上の車両)に基づく境界を基準としたエリアである。
 また、エリア設定部106Bは、道路上のオブジェクトを検知した検知結果に基づき、第1視点でオブジェクトを検知できなかったエリアであって、かつ、当該第1視点と時刻の異なる第2視点でオブジェクトを検知可能となった一時遮蔽エリアを設定する機能を備える。この場合、車両Bは、車両Aの構成(第2視点オブジェクト検知部104A等)を更に備えている。
 地図・走行予定経路情報記憶部108Bは、道路情報、車線情報、信号機情報、建物情報等を含む地図情報を記憶し、車両Bの運転者や自動運転システムが指定したルートプランに基づく車両Bの将来の走行予定経路及び速度計画の情報を記憶する機能を備える。
 エリア補正部109Bは、車両Bの将来の走行予定経路及び速度計画を取得し、当該走行予定経路及び速度計画に基づき、エリア設定部106Bで設定された優先エリアのうち、車両Bの運転者や自動運転システムにとって将来において優先的に設定すべき監視エリアを決定する機能を備える。
 例えば、エリア補正部109Bは、走行予定経路に沿って15秒程度先までの道路エリアを監視エリアとして決定する。その他、走行予定経路に交差点、合流点等の分岐点がある場合、エリア補正部109Bは、当該分岐点に流入する対向車線の道路についても監視エリアとして決定する。具体的には、エリア補正部109Bは、例えば、車両Bから分岐点までの距離と同じ距離、又は車両Bが分岐点に到達する走行時間と同じ時間分の距離に対応する流入側の道路を監視エリアとする。
 尚、エリア設定部106B及びエリア補正部109Bは、死角エリア、優先エリア、監視エリアを設定又は決定する場合、地図・走行予定経路情報記憶部108Bに格納された地図情報を用いて地図上の車線リンクID等に基づき設定する。
 通信部110Bは、エリア設定部106Bで設定された優先エリアに含まれるオブジェクト情報を要求するための要求データを近隣の車両へ送信する機能を備える。要求データには、例えば、優先エリアに関する情報、オブジェクト情報を要求する車両Bの位置及び走行予定経路に関する情報等が含まれる。また、通信部110Bは、一時遮蔽エリアを車両B等の車両A、車両A以外の車両、又は各種サーバへ送信する機能を備える。また、通信部110Bは、車両Bの近隣において、電波到達範囲内にV2X通信可能な車両が複数ある場合、当該複数の車両のうちいずれか一以上の車両を選択する機能を備える。さらに、通信部110Bは、当該要求データを送信した要求先の車両(車両A)から送信されたオブジェクト情報を受信する機能を備える。
 [車両Bから車両Aへ送信される要求データ]
 車両Bから車両Aへ送信される要求データの例を表2に示す。当該要求データは、優先エリアにおけるオブジェクト情報を要求するためのデータ構造の一例である。
Figure JPOXMLDOC01-appb-T000002
 [情報処理方法]
 次に、情報処理装置1で行う情報処理方法について説明する。図7A及び図7Bは、情報処理方法の処理手順を示すフローチャートである。
 最初に、図8を用いて前提条件を説明する。車両Bは、信号のない交差点で左折する走行予定経路を持ち、最大40km/hで走行する走行計画を持つ。車両Bは、交差点の手前50mの位置を通過中である。車両Bの前方には、V2X通信できない先行中の車両C1が存在する。車両Bの走行予定経路内にある交差点を左折した所定位置には、駐車中の車両C2が存在している。そして、車両Aは、車両Bの走行予定経路内において、当該駐車中の車両C2を追い越すタイミングにいる。車両Aは、車両Bにとって15秒先に存在する可能性のある位置に存在しており、130m先の位置にいる。
 ステップS201;
 まず、車両Bにおいて、第1視点オブジェクト検知部103Bは、車両Bの360度方位エリアについてオブジェクト検知を行う。その後、第1視点オブジェクト検知部103Bは、オブジェクト検知結果をオブジェクト情報収集部105Bに格納し、エリア設定部106Bに送信する。ここでは、オブジェクトとして、前方エリアで先行中の車両C1を検出する。
 ステップS202;
 次に、エリア設定部106Bは、オブジェクトを検知できなかった死角エリアのうち先行中の車両C1によりオブジェクトを検知できなかった死角エリアを優先エリアに設定する。例えば、エリア設定部106は、図8に示すように、車両C1と見切り線L1,L2との交点を求め、車両C1の後側のエリアであり、かつ、見切り線L1,L2より車両C1側のエリアを優先エリアとして設定する。
 ステップS203;
 次に、エリア補正部109Bは、当該優先エリアにおいて、地図・走行予定経路情報記憶部108Bから取得した車両Bの走行予定経路及び速度情報を用いて、監視対象距離を設定する。走行予定経路に沿って15秒程度先までの道路エリアを監視エリアとする場合、最大車両速度が40km/hであることから、エリア補正部109Bは、走行予定経路に沿って現在の位置から162m先までを監視対象距離とする。
 ステップS204;
 次に、エリア補正部109Bは、走行予定経路に沿って車両Bの走行中の道路区間50m及び交差点左折後112mの車線及び道路を監視エリアS1と設定する。尚、エリアの指定方法は、地図上の車線リンクIDと交差点からの道のり距離とする。高精度マップを道路インフラ網内又は車載上に備えている場合、車線リンクIDのみでもよい。尚、補完又は代替して、道路・車線境界の位置座標を4点以上設定してもよい。
 ステップS205;
 また、エリア補正部109Bは、走行予定経路に沿って、交差点に進入する対向車線の道路についても、車両Bにとっては死角エリアであることから、交差点から先50m区間の車線及び道路を監視エリアS2と設定する。
 ステップS206;
 次に、エリア設定部106Bは、ステップS202で設定していた優先エリアにおいて、ステップS204及びステップS205でエリア補正部109Bが設定した監視エリアS1,S2を車両Bの優先エリアS1,S2として決定する。
 尚、ステップS205、S206において、エリア設定部106Bは、第1視点でオブジェクトを検知できなかったエリアであって、かつ、当該第1視点と時刻の異なる第2視点でオブジェクトを検知可能となった一時遮蔽エリアを設定してもよい。
 ステップS207;
 その後、通信部110Bは、決定した車両Bの優先エリアS1,S2に含まれるオブジェクト情報を要求するため、近隣で通信可能な複数の車両のうちいずれか一の車両を選択し、当該一の車両(車両A)へ要求データを送信する。通信部110Bは、一時遮蔽エリアが設定されている場合、当該一時遮蔽エリアを更に送信する。このとき、通信部110Bは、当該一時遮蔽エリアに含まれるオブジェクト情報を要求するようにしてもよい。尚、車両Bから車両Aへ送信される要求データ(パケットのデータ構造)は、上述した表2の通りである。
 ステップS208;
 次に、車両Aにおいて、通信部113Aは、車両Bから上記要求データを受信する。要求データには、優先エリアS1,S2に関する情報、オブジェクト情報を要求する車両Bの位置及び走行予定経路に関する情報等が含まれている。
 ステップS209;
 次に、第2視点オブジェクト検知部104Aは、車両Aの360度方位エリアについてオブジェクト検知を行う。その後、第2視点オブジェクト検知部104Aは、オブジェクトの検知結果をエリア設定部106B及びオブジェクト選択エリア補正部112Aに送信する。ここでは、オブジェクトとして、前方エリアで駐車中の車両C2を検出する。
 ステップS210;
 次に、オブジェクト選択エリア補正部112Aは、地図情報記憶部111Aから取得した地図の車線情報と、第2視点オブジェクト検知部104Aのオブジェクト検知結果とに基づき、監視車線の状況を観測する。
 ステップS211;
 次に、オブジェクト選択エリア補正部112Aは、車両Aの位置情報及び速度情報を更に用いて、第2視点オブジェクト検知部104Aが検知したオブジェクトによる車線封鎖により車線変更の必要性を判定する。例えば、オブジェクト選択エリア補正部112Aは、地図上に検知オブジェクトをマッピングした際、当該検知オブジェクトの移動速度がないこと等に基づき、駐車車両、工事、落下物等で一時的に車線封鎖されていることを判定する。車線変更が必要である場合、ステップS212へ遷移し、車線変更が必要でない場合、ステップS213へ遷移する。
 ステップS212;
 車線変更が必要である場合、オブジェクト選択エリア補正部112Aは、隣接車線の非優先エリアの優先度を高めて優先エリアS3(拡張エリア)として追加する。優先エリアS3の優先度は、優先エリアS1,S2と同一又は同一以上とする。例えば、車両Aが13秒−25秒(上限値)後に封鎖エリアに到着すると想定し、かつ、追加したエリアは対向車線であることから、移動速度0km/h−50km/h(制限速度)で13−25秒(上限値)後までのエリアを優先エリアS3とし、車線封鎖点を基準に337mまでの範囲とする。
 ステップS213;
 次に、オブジェクト選択部107Aは、車両Bが設定していた優先エリアS1,S2のオブジェクトを選択すると共に、オブジェクト選択エリア補正部112Aが追加した優先エリアS3のオブジェクトも選択する。非優先エリアにオブジェクトがあれば、オブジェクト選択部107Aは、当該非優先エリアのオブジェクトも選択する。優先エリアS3については、車線封鎖レーン上のオブジェクトが選択されていても、車両Aが通過する道路が適切に選択されていないので、補正により追加されたエリアと言える。
 ステップS214;
 最後に、通信部113Aは、各優先エリアS1~S3に対応する各車線リンクID(始点である交差点からの道のり距離に対応する終点を含めてもよい)をそれぞれ1番目~3番目とし、優先エリア以外の非優先エリアに対応する各車線リンクIDを4番目以降に設定した配信順序情報をパケットのヘッダ部に設定する。また、通信部113Aは、当該配信順序で各優先エリアS1~S3及び各非優先エリアのオブジェクト情報を当該パケットのデータ部に設定する。その後、通信部113Aは、当該パケットを車両Bへ送信する。このとき、車両Aは、優先エリアS3の優先度を優先エリアS1,S2よりも高くしてもよい。車両Aから車両Bへ送信されるオブジェクト情報(パケットのデータ構造)は、上述した表1の通りである。
 [エリア補正部109Bにおける優先エリア設定方法のバリエーション]
 次に、車両Bが所定の道路形状を有するエリアを走行中の場合における、優先エリアの設定方法について説明する。所定の道路形状とは、例えば、交差点、カーブ、S字カーブ、カーブ勾配変曲点等である。
 [バリエーション1]
 図9に示すように、車両Bの進行方向の交差点に信号機Zがある場合について説明する。信号機がある場合、当該信号機による車両Bの一時停車により、将来において走行予定経路の状況が変動する可能性が高い。そこで、エリア設定部106Bは、交通設備サーバ等より受信する信号パタン情報より、走行予定経路上の信号機が赤で継続する場合、車両Bから信号機手前の停止線迄のエリアS1’を監視エリアS1’として設定する。ただし、上記交差点に流入する流入側の対向エリアについては、走行予定経路に対して右折侵入し交錯可能性ある車両を監視する必要があるため、エリア設定部106Bは、信号機の現示パタンにかかわらず監視エリアS2として保持する。
 [バリエーション2]
 図10に示すように、車両Bの進行方向に右カーブがあり山林部Mにより見通しが悪い場合について説明する。見通し外のカーブの場合、エリア設定部106Bは、地図上に表示され又は車両Bで検知した山林部Mと車両Bの現在位置とに基づき、監視エリアを設定する。例えば、エリア設定部106Bは、山林部Mに接するように見切り線Lを設定し、当該見切り線Lが道路幅の二等分線(道路幅の中間線)を通る交点O’を求める。そして、エリア設定部106Bは、車両Bの現在位置に近い交差点を基準点Oとして、基準点Oから交点O’までの道のり距離よりも遠方のエリアSを車両Bの遮蔽エリアとし、監視エリアSとして設定する。
 [バリエーション3]
 図11に示すように、車両Bの進行方向に上り勾配がある場合について説明する。エリア設定部106Bは、上り勾配のある湾曲路面を走行中、当該湾曲路面に接するように見切り線Lを設定し、車両Bの基準高さ面よりもセンサ101のセンサ搭載角度拡がり(−10度)以下のエリアSを車両Bの遮蔽エリアとし、監視エリアSとして設定する。
 [バリエーション4]
 図12に示すように、車両Bの進行途中で道路勾配が下り方向に変化する場合について説明する。エリア設定部106Bは、走行中の平坦路面に接する見切り線Lを道路基準面Lとし、地図上の道のり経路上で道路勾配が変化する変化点Pを観測する。そして、エリア設定部106Bは、当該道路基準面Lよりも高度が低い地点にあるエリアSを車両Bの遮蔽エリアとし、監視エリアSとして設定する。
 [第2実施形態の効果]
 本実施形態によれば、車両Bにおいて、エリア設定部106Bが、センサ101Bで検知できなかった複数の死角エリアのうち所定の死角エリアであり、かつ、車両Bの将来の走行予定経路及び速度計画に基づき車両Bの運転者や自動運転システムにとって将来において優先的に設定すべき監視エリアS1,S2を優先エリアS1,S2として決定する。
 また、車両Aにおいて、オブジェクト選択エリア補正部112Aが、走行車線の隣接車線を優先エリアS3として追加し、オブジェクト選択部107Aが、車両Bが決定した優先エリアS1,S2からオブジェクトを選択すると共に、追加した優先エリアS3からもオブジェクトを選択する。そして、通信部113Aは、優先エリアS1,S2,S3におけるオブジェクト情報を優先的に車両Aに送信する。
 これにより、車両Bは、優先エリアのオブジェクト情報が先に配信されることを把握でき、優先エリアのオブジェクト情報を優先して受信できる。全ての死角エリアに関するオブジェクト情報の受信完了まで待つ必要がなくなり、運転者や自動運転システムにとって有益な情報を効率的に取得できる。
 また、本実施形態によれば、エリア設定部106Bは、オブジェクト情報を要求する車両Bの将来の位置情報を取得し、当該将来の位置情報とオブジェクト検知結果とに基づき、車両Bの将来においてオブジェクトを検知できない監視エリアを優先エリアS1,S2として設定するので、運転者や自動運転システムにとって有益な情報を取得できる。
 また、本実施形態によれば、地図情報を記憶した地図・走行予定経路情報記憶部108Bを備え、地図・走行予定経路情報記憶部108Bは、当該地図情報を用いて地図上の車線リンクIDに基づき優先エリアを設定するので、優先エリアを確実に特定できる。
 また、本実施形態によれば、優先エリアは、少なくとも所定のタイミングにおいて、車両Bにより検知される所定対象物に基づく境界を基準としたエリアであるので、優先エリアを確実に特定できる。
 また、本実施形態によれば、当該所定対象物は、道路上の白線又は車両であるので、優先エリアを確実に特定できる。
 また、本実施形態によれば、通信部110Bは、通信可能な複数の車両のうちいずれか一の車両を選択し、当該一の車両へ当該要求データを送信するので、V2X通信ネットワークのデータ量の増大を抑制し、運転者や自動運転システムにとって有益な情報をより効率的に取得できる。
 また、本実施形態によれば、要求データは、優先エリアに関する情報に加えて、オブジェクト情報を要求する車両Bの位置及び走行予定経路に関する情報を含むので、要求を受けた車両Aは車両Bの位置及び走行予定経路を確実に把握でき、要求されたエリアを明確に特定できる。
 また、本実施形態によれば、エリア設定部106Bは、所定の道路形状を有するエリアを優先エリアとして設定するので、様々な道路形状のエリアに含まれるオブジェクト情報を取得できる。
 また、本実施形態によれば、所定の道路形状は、交差点、カーブ、カーブ勾配変曲点のうちいずれかであるので、交差点、カーブ、カーブ勾配変曲点のあるエリアに含まれるオブジェクト情報を取得できる。
 また、本実施形態によれば、オブジェクト情報は、車両Bが優先エリアで検知したオブジェクト情報に加えて、当該優先エリアと異なるエリアで検知したオブジェクト情報、又は優先エリアと異なるエリアで将来検知可能なオブジェクト情報を含むので、車両Bの運転者や自動運転システムにとってより有益な情報を取得できる。
 また、本実施形態によれば、オブジェクト情報は、車両Bにより検知された道路上の車両情報又は障害物の位置情報を含むので、車両Bの運転者や自動運転システムはオブジェクト情報を確実に把握できる。
 また、本実施形態によれば、車両Bは、道路側方を監視する監視センサを備え、道路境界線又は背景物体を検知し、道路上物体を検知して、検知した対象物と見切り線との交点を求めることにより、車両又は障害物を検知するので、静止オブジェクトを確実に特定できる。
 また、本実施形態によれば、情報処理装置1は、車両A,Bに具備されているので、車両内の内部通信可能となり、処理速度を向上できる。
 [第3実施形態]
 本発明を適用した第3実施形態を説明する。第3実施形態では、複数の車両が同時に同じエリアを観測した場合、次回以降、同じオブジェクト情報の重複受信を排除する方法について説明する。
 [情報処理装置の構成]
 図13は、第3実施形態に係る車両A,B,Dの構成を示す図である。
 車両Aは、第2視点オブジェクト検知部104Aと、オブジェクト選択部107Aと、を搭載する。尚、車両Aは、図6に示した他の機能部も搭載している。
 第2視点オブジェクト検知部104Aは、車両Aの視点において道路上に存在するオブジェクトを検知する機能を備える。
 オブジェクト選択部107Aは、車両Bが設定した優先エリアに対し、車両Aの視点で検知した当該優先エリアのオブジェクトを選択し、選択したオブジェクト情報を車両Bに送信する機能を備える。また、オブジェクト選択部107Aは、車両Aが優先エリアを拡張(追加)した場合、当該拡張した優先エリアのオブジェクト情報も車両Bに送信する機能を備える。
 車両Dは、第3視点オブジェクト検知部114Dと、オブジェクト選択部107Dと、を搭載する。尚、車両Dは、図6に示した車両Aと同様の機能部を搭載している。
 第3視点オブジェクト検知部114Dは、車両Dの視点において道路上に存在するオブジェクトを検知する機能を備える。
 オブジェクト選択部107Dは、車両Bが設定した優先エリアに対し、車両Dの視点で検知した当該優先エリアのオブジェクトを選択し、選択したオブジェクト情報を車両Bに送信する機能を備える。また、オブジェクト選択部107Dは、車両Dが優先エリアを拡張(追加)した場合、当該拡張した優先エリアのオブジェクト情報も車両Bに送信する機能を備える。
 車両Bは、エリア設定部106Bと、重複エリア調整部115Bと、を搭載する。尚、車両Bは、図6に示した他の機能部も搭載している。
 エリア設定部106Bは、車両Bのセンサ視野角内で検知できなかった死角エリアを他の視点情報で補うため、複数の死角エリアのうち所定の死角エリアであり、かつ、エリア補正部109B(不図示)が設定した監視エリアを優先エリアとして設定する機能を備える。但し、優先エリアの設定は、要求先の車両毎に監視すべき指定エリアを設定したエリア指定情報に基づき行われる。
 重複エリア調整部115Bは、エリア設定部106Bとオブジェクト選択部107A,107Dとに接続され、オブジェクト選択部107A,107Dから送信されたオブジェクト情報を比較し、オブジェクト情報の同一性、オブジェクト情報のエリアの同一性を判定する機能を備える。
 また、重複エリア調整部115Bは、互いのオブジェクト情報(エリア)が重複した場合、重複エリアの重心点を求め、車両A,Dの位置からの各距離より、距離が短い方の車両は上記エリア指定情報のエリア指定を維持し、距離が長い方の車両はエリア指定を一時解除する機能を備える。また、重複エリア調整部115Bは、重複エリアにおいてオブジェクト情報の重複の有無を継続監視し、重複エリアでオブジェクト情報がなくなった場合、エリア指定情報のエリア指定を初期値に戻す機能を備える。
 [情報処理方法]
 次に、情報処理装置1で行う情報処理方法について説明する。図14は、情報処理方法の処理手順を示すフローチャートである。
 最初に、図15を用いて前提条件を説明する。オブジェクト情報を受ける車両Bと、オブジェクト情報を同時に送信する車両A,Dが存在する。第2実施形態に基づき、3つの監視エリアS1−S3が設定されている。
 ステップS301;
 まず、車両Bにおいて、重複エリア調整部115Bが、車両Aのオブジェクト選択部107Aから送信されたオブジェクト情報と、車両Dのオブジェクト選択部107Dから送信されたオブジェクト情報と、を受信する。
 ステップS302;
 次に、重複エリア調整部115Bは、オブジェクト選択部107Aからのオブジェクト情報に係るエリアと、オブジェクト選択部107Dからのオブジェクト情報に係るエリアと、の位置、大きさ等を比較する。車両Aによる初回設定エリアSAが図16のように設定され、車両Dによる初回設定エリアSDが図17のように設定されている場合、エリアSAとエリアSDとを重複させた重複エリアSXは、図18に示す通りとなる。エリアを比較した結果、重複エリアがある場合、ステップS303へ遷移し、重複エリアがない場合、ステップS307へ遷移する。
 ステップS303;
 重複エリアがある場合、重複エリア調整部115Bは、重複エリアSXの重心点を求め、各車両A,Dから当該重心点までの距離をそれぞれ算出する。そして、重複エリア調整部115Bは、距離の遠い方の車両を次回送信時のエリア指定から排除する。
 例えば、図19に示すように、車両Aの側方に重複エリアSX1がある場合、重複エリア調整部115Bは、重複エリアSX1の重心点Oを求め、車両Aと重心点Oとの間の距離OAと、車両Dと重心点Oとの間の距離ODと、を算出する。そして、重複エリア調整部115Bは、距離OA<距離ODの関係より、重複エリアSX1については車両Aの方が認識しやすいと判定し、車両Dに対する指定エリアの指定範囲から一時的に除外する。
 重複エリアSX2については、各車両A,Dから等距離にあるので、重複エリア調整部115Bは、自車(車両B)との間で距離がより近くて安定通信可能な車両Dに対するエリア指定を維持し、車両Aに対する指定エリアを解除する。重複エリアSX3については、重複エリアSX3の重心点により近い車両Dに対する指定エリアを維持し、車両Aに対する指定エリアを解除する。
 ステップS304;
 次に、エリア設定部106Bは、重複エリア調整部115Bによる新たな指定エリアに基づき、要求データに含める監視エリアのエリア指定を適用する。例えば、重複エリア調整部115Bは、車両Aに要求する監視エリアについては、重複エリアSX1を含め、車両Dに要求する監視エリアについては、重複エリアSX1を含めないように、エリア指定情報を変更する。
 そして、エリア設定部106Bは、変更後のエリア指定情報に基づき、例えば重複エリアSX1については、次回以降、車両Aに対してのみ要求する。これにより、車両Dは、車両Bから重複エリアSX1のオブジェクト情報の要求を受けなくなるので、重複エリアSX1のオブジェクト情報を送信することはない。
 ステップS305;
 その後、重複エリア調整部115Bは、車両A,Dからそれぞれ送信されるオブジェクト情報を受信し、重複エリアにおけるオブジェクト情報の有無を継続監視する。そして、エリア設定部106Bは、重複エリアでオブジェクト情報を取得できなくなった場合、ステップS306へ遷移し、重複エリアでオブジェクト情報を引き続き取得できる場合(つまり、重複エリアにオブジェクトが引き続き存在する場合)、ステップS307へ遷移する。
 ステップS306;
 重複エリアでオブジェクト情報がなくなった場合、重複エリア調整部115Bは、車両A,Dの両方からのオブジェクト情報の送信を再開するため、エリア指定情報のエリア指定を元に戻す。
 ステップS307;
 最後に、車両Bは、車両Aが重複エリアを通過したか否かを判定し、重複エリアを通過していない場合、ステップS301へ遷移し、重複エリアを通過した場合、処理を終了する。
 [第3実施形態の効果]
 本実施形態によれば、重複エリア調整部115Bが、車両A,Dで要求された各エリアが重複する場合、重複エリアに近い方の車両のエリア指定を維持し、遠い方の車両のエリア指定を解除するので、車両Bの運転者や自動運転システムにとって有益なオブジェクト情報をより正確な状態で取得できる。また、車両間の通信量を削減可能となる。
 [第2実施形態で示したオブジェクト情報及び要求データの別例]
 [車両Bから車両Aへ送信される要求データの別例]
 第2実施形態の表2に示した車両Bから車両Aへ送信される要求データについては、例えば、下記表3に示すデータ構造で実現することも可能である。
Figure JPOXMLDOC01-appb-T000003
 [車両Aから車両Bへ送信されるオブジェクト情報の別例]
 第2実施形態の表1に示した車両Aから車両Bへ送信されるオブジェクト情報については、例えば、下記表4に示すデータ構造で実現することも可能である。
Figure JPOXMLDOC01-appb-T000004
 1…情報処理装置
 101…センサ
 102…位置計測部
 103…第1視点オブジェクト検知部
 104…第2視点オブジェクト検知部
 105…オブジェクト情報収集部
 106…エリア設定部
 107…オブジェクト選択部
 108…地図・走行予定経路情報記憶部
 109…エリア補正部
 110…通信部
 111…地図情報記憶部
 112…オブジェクト選択エリア補正部
 113…通信部
 114…第3視点オブジェクト検知部
 115…重複エリア調整部
 116…オブジェクト通信部
 H101…センサデバイス
 H102…位置計測装置
 H103…通信機
 H104…演算処理装置

Claims (19)

  1.  道路上のオブジェクトを検知した検知結果に基づき、オブジェクトを検知できないエリアのうち所定のエリアを優先エリアとして設定する設定部と、
     前記優先エリアに含まれるオブジェクト情報を要求する要求データを要求先車両へ送信し、前記要求先車両からの前記優先エリアにおける前記オブジェクト情報を受信する通信部と、
     を備えることを特徴とする情報処理装置。
  2.  前記設定部は、
     前記オブジェクト情報を要求する要求元車両の将来の位置情報を取得し、前記将来の位置情報と前記検知結果とに基づき、将来において前記要求元車両がオブジェクトを検知できないエリアを前記優先エリアとして設定することを特徴とする請求項1に記載の情報処理装置。
  3.  地図情報を記憶した記憶部を備え、
     前記設定部は、
     前記地図情報を用いて地図上の車線リンクIDに基づき前記優先エリアを設定することを特徴とする請求項1又は2に記載の情報処理装置。
  4.  前記優先エリアは、
     少なくとも所定のタイミングにおいて、前記要求先車両により検知される所定対象物に基づく境界を基準としたエリアであることを特徴とする請求項1乃至3のいずれかに記載の情報処理装置。
  5.  前記所定対象物は、
     道路上の白線又は車両であることを特徴とする請求項4に記載の情報処理装置。
  6.  前記設定部は、前記検知結果に基づき、第1視点でオブジェクトを検知できなかったエリアであって、かつ、前記第1視点と時刻の異なる第2視点でオブジェクトを検知可能となった一時遮蔽エリアを設定し、
     前記通信部は、
     前記一時遮蔽エリアを、前記要求先車両、前記要求先車両以外の車両、サーバのうちいずれかへ送信することを特徴とする請求項1乃至5のいずれかに記載の情報処理装置。
  7.  前記要求データは、
     前記優先エリアに関する情報に加えて、前記オブジェクト情報を要求する要求元車両の位置及び走行予定経路に関する情報を含むことを特徴とする請求項1乃至6のいずれかに記載の情報処理装置。
  8.  前記設定部は、
     所定の道路形状を有するエリアを前記優先エリアとして設定することを特徴とする請求項1乃至7のいずれかに記載の情報処理装置。
  9.  前記所定の道路形状は、
     交差点、カーブ、カーブ勾配変曲点のうちいずれかであることを特徴とする請求項8に記載の情報処理装置。
  10.  前記オブジェクト情報は、
     前記要求先車両が前記優先エリアで検知したオブジェクト情報に加えて、前記優先エリアと異なるエリアで検知したオブジェクト情報、又は前記優先エリアと異なるエリアで将来検知可能なオブジェクト情報を含むことを特徴とする請求項1乃至9のいずれかに記載の情報処理装置。
  11.  前記オブジェクト情報は、
     前記要求先車両により検知された道路上の車両情報又は障害物の位置情報を含むことを特徴とする請求項1乃至10のいずれかに記載の情報処理装置。
  12.  前記要求先車両は、
     道路側方を監視するセンサを備え、道路境界線又は背景物体を検知し、道路上物体を検知して、検知した対象物と見切り線との交点を求めることにより、車両又は障害物を検知することを特徴とする請求項1乃至11のいずれかに記載の情報処理装置。
  13.  前記情報処理装置は、
     車両に具備されていることを特徴とする請求項1乃至12のいずれかに記載の情報処理装置。
  14.  要求先車両が検知した道路上のオブジェクト情報のうち要求元車両が設定した優先エリアに含まれるオブジェクト情報を選択する選択部と、
     前記優先エリアに含まれるオブジェクト情報を要求する要求データを前記要求元車両から受信し、前記選択部により選択された前記優先エリアに含まれるオブジェクト情報を前記要求元車両へ送信する通信部と、
     を備えることを特徴とする情報処理装置。
  15.  前記選択部は、前記要求先車両が前記優先エリアを走行できない場合、前記優先エリアに隣接するエリアを拡張エリアとして選択し、
     前記通信部は、
     前記優先エリアに含まれるオブジェクト情報に加えて、前記拡張エリアで検知したオブジェクト情報を前記要求元車両へ送信することを特徴とする請求項14に記載の情報処理装置。
  16.  情報処理装置で行う情報処理方法において、
     道路上のオブジェクトを検知した検知結果に基づき、オブジェクトを検知できないエリアのうち所定のエリアを優先エリアとして設定し、
     前記優先エリアに含まれるオブジェクト情報を要求する要求データを要求先車両へ送信し、
     前記要求先車両からの前記優先エリアにおける前記オブジェクト情報を受信する、
     ことを特徴とする情報処理方法。
  17.  情報処理装置で行う情報処理方法において、
     要求元車両が設定した優先エリアに含まれるオブジェクト情報を要求する要求データを前記要求元車両から受信し、
     要求先車両が検知した道路上のオブジェクト情報のうち前記優先エリアに含まれるオブジェクト情報を選択し、
     前記優先エリアに含まれるオブジェクト情報を前記要求元車両へ送信する、
     ことを特徴とする情報処理方法。
  18.  情報処理装置に、
     道路上のオブジェクトを検知した検知結果に基づき、オブジェクトを検知できないエリアのうち所定のエリアを優先エリアとして設定する手順と、
     前記優先エリアに含まれるオブジェクト情報を要求する要求データを要求先車両へ送信する手順と、
     前記要求先車両からの前記優先エリアにおける前記オブジェクト情報を受信する手順と、
     を実行させることを特徴とする情報処理プログラム。
  19.  情報処理装置に、
     要求元車両が設定した優先エリアに含まれるオブジェクト情報を要求する要求データを前記要求元車両から受信する手順と、
     要求先車両が検知した道路上のオブジェクト情報のうち前記優先エリアに含まれるオブジェクト情報を選択する手順と、
     前記優先エリアに含まれるオブジェクト情報を前記要求元車両へ送信する手順と、
     を実行させることを特徴とする情報処理プログラム。
PCT/IB2019/000872 2019-07-12 2019-07-12 情報処理装置、情報処理方法及び情報処理プログラム WO2021009534A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US17/626,740 US20220262128A1 (en) 2019-07-12 2019-07-12 Information processing device, information processing method, and information processing program
EP19937368.9A EP3998592A4 (en) 2019-07-12 2019-07-12 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM
PCT/IB2019/000872 WO2021009534A1 (ja) 2019-07-12 2019-07-12 情報処理装置、情報処理方法及び情報処理プログラム
CN201980098406.9A CN114127822A (zh) 2019-07-12 2019-07-12 信息处理装置、信息处理方法以及信息处理程序
JP2021532531A JP7346569B2 (ja) 2019-07-12 2019-07-12 情報処理装置、情報処理方法及び情報処理プログラム
JP2023143822A JP2023162408A (ja) 2019-07-12 2023-09-05 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2019/000872 WO2021009534A1 (ja) 2019-07-12 2019-07-12 情報処理装置、情報処理方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
WO2021009534A1 true WO2021009534A1 (ja) 2021-01-21

Family

ID=74210228

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2019/000872 WO2021009534A1 (ja) 2019-07-12 2019-07-12 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (5)

Country Link
US (1) US20220262128A1 (ja)
EP (1) EP3998592A4 (ja)
JP (2) JP7346569B2 (ja)
CN (1) CN114127822A (ja)
WO (1) WO2021009534A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022187896A (ja) * 2021-06-08 2022-12-20 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム
JP2023000673A (ja) * 2021-06-18 2023-01-04 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム
JP2023000913A (ja) * 2021-06-18 2023-01-04 本田技研工業株式会社 警告制御装置、移動体、警告制御方法及びプログラム
JP7203907B1 (ja) 2021-06-22 2023-01-13 本田技研工業株式会社 制御装置、移動体、制御方法、及び端末
JP7203908B1 (ja) 2021-06-22 2023-01-13 本田技研工業株式会社 制御装置、移動体、制御方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225786A (ja) * 2007-03-12 2008-09-25 Toyota Motor Corp 道路状況検出システム
JP2008299676A (ja) 2007-05-31 2008-12-11 Toyota Motor Corp 死角情報要求/提供装置及びこれらを利用した車車間通信システム
JP2017207967A (ja) * 2016-05-19 2017-11-24 本田技研工業株式会社 車両制御システム、交通情報共有システム、車両制御方法、および車両制御プログラム
JP2018133072A (ja) * 2017-02-16 2018-08-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4862774B2 (ja) * 2006-12-20 2012-01-25 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
JP5003465B2 (ja) * 2007-12-25 2012-08-15 住友電気工業株式会社 運転支援システム、路上通信装置、および、情報提供装置
JP5613398B2 (ja) * 2009-10-29 2014-10-22 富士重工業株式会社 交差点運転支援装置
JP5113881B2 (ja) * 2010-06-03 2013-01-09 株式会社デンソー 車両周辺監視装置
WO2016051460A1 (ja) * 2014-09-29 2016-04-07 日産自動車株式会社 走行制御装置および走行制御方法
JP6394914B2 (ja) * 2015-11-11 2018-09-26 トヨタ自動車株式会社 運転支援装置
BR112018077393A2 (pt) * 2016-06-30 2019-04-09 Nissan Motor Co., Ltd. método de rastreio de objeto e aparelho de rastreio de objeto
US10453344B2 (en) * 2017-02-16 2019-10-22 Panasonic Intellectual Corporation Of America Information processing apparatus and non-transitory recording medium
CN106846915A (zh) * 2017-04-11 2017-06-13 湛引根 智能交通防撞系统及实现方法
US10497265B2 (en) * 2017-05-18 2019-12-03 Panasonic Intellectual Property Corporation Of America Vehicle system, method of processing vehicle information, recording medium storing a program, traffic system, infrastructure system, and method of processing infrastructure information
JP6815958B2 (ja) * 2017-09-19 2021-01-20 トヨタ自動車株式会社 車両周辺監視装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225786A (ja) * 2007-03-12 2008-09-25 Toyota Motor Corp 道路状況検出システム
JP2008299676A (ja) 2007-05-31 2008-12-11 Toyota Motor Corp 死角情報要求/提供装置及びこれらを利用した車車間通信システム
JP2017207967A (ja) * 2016-05-19 2017-11-24 本田技研工業株式会社 車両制御システム、交通情報共有システム、車両制御方法、および車両制御プログラム
JP2018133072A (ja) * 2017-02-16 2018-08-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置およびプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022187896A (ja) * 2021-06-08 2022-12-20 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム
JP7203902B2 (ja) 2021-06-08 2023-01-13 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム
JP2023000673A (ja) * 2021-06-18 2023-01-04 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム
JP2023000913A (ja) * 2021-06-18 2023-01-04 本田技研工業株式会社 警告制御装置、移動体、警告制御方法及びプログラム
JP7203905B2 (ja) 2021-06-18 2023-01-13 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム
JP7256233B2 (ja) 2021-06-18 2023-04-11 本田技研工業株式会社 警告制御装置、移動体、警告制御方法及びプログラム
JP7203907B1 (ja) 2021-06-22 2023-01-13 本田技研工業株式会社 制御装置、移動体、制御方法、及び端末
JP7203908B1 (ja) 2021-06-22 2023-01-13 本田技研工業株式会社 制御装置、移動体、制御方法、及びプログラム
JP2023011080A (ja) * 2021-06-22 2023-01-24 本田技研工業株式会社 制御装置、移動体、制御方法、及びプログラム
JP2023011079A (ja) * 2021-06-22 2023-01-24 本田技研工業株式会社 制御装置、移動体、制御方法、及び端末

Also Published As

Publication number Publication date
EP3998592A4 (en) 2022-07-13
JP2023162408A (ja) 2023-11-08
JP7346569B2 (ja) 2023-09-19
US20220262128A1 (en) 2022-08-18
EP3998592A1 (en) 2022-05-18
CN114127822A (zh) 2022-03-01
JPWO2021009534A1 (ja) 2021-01-21

Similar Documents

Publication Publication Date Title
WO2021009534A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7070974B2 (ja) 自律車両ナビゲーションのための疎な地図
US11092456B2 (en) Object location indicator system and method
US10917808B2 (en) Extra-vehicular communication device, onboard device, onboard communication system, communication control method, and communication control program
US20130162448A1 (en) Traffic information distribution system and traffic information system, traffic information distribution program, and traffic information distribution method
CN111724616B (zh) 基于人工智能的数据获取及共享的方法与装置
JP2021099793A (ja) インテリジェント交通管制システム及びその制御方法
JP2024038331A (ja) 車両ナビゲーションのためのイベント情報のクラスタ化
WO2018189913A1 (ja) 情報処理装置および情報処理方法
WO2021012153A1 (en) System for sensor synchronization data analysis in autonomous driving vehicle
KR102599273B1 (ko) 도로 합류 지점에서 차량의 주행 우선순위를 제어하는장치 및 방법
CN110962744A (zh) 车辆盲区检测方法和车辆盲区检测系统
JP7250135B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN112305499A (zh) 一种根据光源进行定位的方法及装置
JP2019095875A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021068315A (ja) 車線状態の推定方法及び推定システム
JP2021060941A (ja) 物体認識方法及び物体認識システム
KR102600313B1 (ko) 교차로 통행 정보 분석 방법
CN116405905B (zh) 信息处理方法、装置、设备及存储介质
JP7325296B2 (ja) 物体認識方法及び物体認識システム
JP7468075B2 (ja) 管制制御システム
US20230403471A1 (en) Multiple position rolling shutter imaging device
JP2019008350A (ja) 地図データ構造、送信装置、及び、運転支援装置
US20240123975A1 (en) Guided generation of trajectories for remote vehicle assistance
US20240129248A1 (en) Communicating precedence using vehicle to everything (v2x) messages

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19937368

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021532531

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019937368

Country of ref document: EP

Effective date: 20220214