WO2019171441A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2019171441A1
WO2019171441A1 PCT/JP2018/008410 JP2018008410W WO2019171441A1 WO 2019171441 A1 WO2019171441 A1 WO 2019171441A1 JP 2018008410 W JP2018008410 W JP 2018008410W WO 2019171441 A1 WO2019171441 A1 WO 2019171441A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor data
vehicle
detection points
moving body
sensor
Prior art date
Application number
PCT/JP2018/008410
Other languages
English (en)
French (fr)
Inventor
尚之 対馬
昌彦 谷本
雅浩 虻川
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201880090278.9A priority Critical patent/CN111788620B/zh
Priority to US16/961,721 priority patent/US20210065553A1/en
Priority to PCT/JP2018/008410 priority patent/WO2019171441A1/ja
Priority to JP2020504503A priority patent/JP6695516B2/ja
Priority to DE112018006982.6T priority patent/DE112018006982B4/de
Publication of WO2019171441A1 publication Critical patent/WO2019171441A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating

Definitions

  • the present invention relates to a technique for processing sensor data obtained by a sensor.
  • a sensor that emits radio waves or light such as millimeter wave radar or LiDAR (Light Detection And Ranging)
  • the sensor for realizing the driving support function cannot sense an area covered by a shield or the like.
  • a vehicle equipped with a driving support function hereinafter referred to as a driving support function-equipped vehicle
  • V2X Vehicle to Everything
  • the detection result of the sensor received by the vehicle with the driving support function includes the vehicle with the driving support function itself, the driving support function incorrectly recognizes that an object exists in the immediate vicinity of the vehicle with the driving support function. May cause incorrect operation.
  • Patent Document 1 describes that a driving support function excludes a vehicle with a driving support function from other vehicle target information.
  • Patent Document 1 when an error component exists in other vehicle target information, the vehicle equipped with the driving support function in the other vehicle target information is accurately identified, and driving assistance is performed from the other vehicle target information. There is a problem that it is difficult to exclude functional vehicles.
  • the main object of the present invention is to solve such problems.
  • the present invention provides a configuration capable of accurately removing detection points for a moving object from sensor data even when an error component exists in sensor data obtained by a sensor located around the moving object. Main purpose.
  • An information processing apparatus includes: An information processing apparatus mounted on a moving body, Calculation for acquiring sensor data indicating detection points obtained by scanning the periphery of the sensor by a sensor located around the moving body, and calculating the distribution range of the detection points by analyzing the acquired sensor data And Based on the distribution range of the detection points calculated by the calculation unit, the detection points for the moving body are extracted from the detection points indicated in the sensor data, and the extracted detection points for the moving body are removed from the sensor data. And a removing unit.
  • the detection point for the moving object can be accurately removed from the sensor data.
  • FIG. 3 is a diagram illustrating a hardware configuration example of the in-vehicle system according to the first embodiment.
  • FIG. 3 is a diagram illustrating a hardware configuration example of the information processing apparatus according to the first embodiment.
  • FIG. 3 is a diagram illustrating a functional configuration example of the information processing apparatus according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a vehicle position according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a vehicle position according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a sensing range according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a distribution range of detection points according to the first embodiment.
  • FIG. 3 illustrates an operation example of the information processing apparatus according to the first embodiment.
  • FIG. 5 is a flowchart illustrating an operation example of a calculation unit according to the first embodiment.
  • 6 is a flowchart showing an operation example of a removal unit according to the first embodiment.
  • FIG. 10 illustrates an operation example of the information processing apparatus according to the second embodiment.
  • 9 is a flowchart showing an operation example of a removal unit according to the second embodiment.
  • FIG. *** Explanation of configuration *** FIG. 1 shows a hardware configuration example of an in-vehicle system 1 according to the present embodiment.
  • the in-vehicle system 1 is mounted on the vehicle 50.
  • the vehicle 50 is a vehicle equipped with a driving support function.
  • the in-vehicle system 1 includes an in-vehicle network 11, a vehicle information management device 12, a communication device 13, an information processing device 14, and a display device 15.
  • the in-vehicle network 11 is a network such as CAN (Control Area Network) or in-vehicle Ethernet (registered trademark).
  • the vehicle information management device 12 manages vehicle information of the vehicle 50.
  • the vehicle information is, for example, information on the current position of the vehicle 50 and information on the speed of the vehicle 50.
  • the communication device 13 communicates with other vehicles or roadside devices.
  • the roadside device is an example of a stationary object that is disposed on the moving path of the vehicle 50.
  • Other vehicles or roadside devices are located around the vehicle 50.
  • the information processing device 14 calculates an error component included in sensor data obtained from a sensor of another vehicle or a sensor of a roadside device, and removes a detection point for the vehicle 50 from the sensor data based on the calculated error component.
  • the sensor data indicates a detection point obtained by scanning the periphery of the sensor of another vehicle or the sensor of the roadside device. The detection points will be described later.
  • the operation performed by the information processing apparatus 14 corresponds to an information processing method.
  • the display device 15 displays information to the passenger of the vehicle 50.
  • the display device 15 is a display, for example.
  • FIG. 2 shows a hardware configuration example of the information processing apparatus 14.
  • the information processing apparatus 14 includes a processor 101, a memory 102, an input interface 103, and an output interface 104.
  • the processor 101 reads and executes a program stored in the memory 102.
  • the program implements a calculation unit 141 and a removal unit 142 described later.
  • the program corresponds to an information processing program.
  • the processor 300 is, for example, a CPU (Central Processing Unit) or a GPU (Graphical Processing Unit).
  • the memory 102 stores the aforementioned program and various data.
  • the memory 102 stores sensor data of sensors of other vehicles or roadside devices.
  • the memory 102 is, for example, a RAM (Ramdam Access Memory), an HDD (Hard Disk Drive), or a flash memory.
  • the input interface 103 acquires data from the vehicle information management device 12 or the communication device 13. For example, the input interface 103 acquires sensor data of sensors of other vehicles or roadside devices from the communication device 13.
  • the output interface 104 outputs data indicating the processing result of the processor 101 to the display device 15. For example, the output interface 104 outputs the sensor data after the detection points for the vehicle 50 are removed to the display device 15.
  • FIG. 3 shows a functional configuration example of the information processing apparatus 14.
  • the information processing apparatus 14 includes a calculation unit 141 and a removal unit 142. Note that FIG. 3 schematically illustrates a state in which the processor 101 is executing a program that implements the calculation unit 141 and the removal unit 142.
  • the calculation unit 141 acquires sensor data of a sensor of another vehicle or a sensor of a roadside device from the input interface 103. Then, the calculation unit 141 analyzes the acquired sensor data and calculates a distribution range of detection points. More specifically, the calculation unit 141 analyzes a plurality of sensor data in time series, and calculates a distribution range of detection points for the same stationary object with the plurality of sensor data.
  • the removal unit 142 extracts detection points for the vehicle 50 from the detection points indicated by the sensor data based on the distribution range of detection points calculated by the calculation unit 141. More specifically, the removal unit 142 detects, from the detection points indicated in the sensor data, detection points for the vehicle 50 that are within the detection point distribution range calculated by the calculation unit 141 from the location of the vehicle 50. Extract as a point. And the removal part 142 removes the detection point with respect to the extracted vehicle 50 from sensor data.
  • FIG. 4 shows an example of the positions of the vehicle 50 and the other vehicle 60 according to the present embodiment.
  • the vehicle 50 is traveling at a speed v1.
  • the vehicle 60 is traveling in the opposite lane toward the vehicle 50 at a speed v2.
  • a utility pole 70 that is a stationary object is disposed on the road side of the road, which is the moving path of the vehicle 50 and the vehicle 60.
  • FIG. 5 illustrates a state in which the direction from the vehicle 50 to the vehicle 60 (front) is viewed.
  • a sensor is provided in the vehicle 60.
  • the sensor of the vehicle 60 is, for example, a millimeter wave radar or LiDAR.
  • the sensor of the vehicle 60 scans the periphery. That is, the sensor of the vehicle 60 detects the presence or absence of an obstacle by irradiating the periphery with a radio wave or a laser and obtaining the reflection.
  • FIG. 6 shows a sensing range 80 and detection points of the sensor of the vehicle 60.
  • the sensor is attached to the front surface of the vehicle 60, and a fan-shaped sensing range 80 is obtained as shown in FIG.
  • An essential part of the fan shape is a sensor mounting position, from which radio waves or lasers are irradiated radially.
  • a radio wave or laser forms a reflection point when reflected by an object.
  • the detection point 51 exists on the vehicle 50 and the detection point 71 exists on the utility pole 70.
  • vehicle data and sensor data are transmitted wirelessly by a communication device mounted on the vehicle 60.
  • the vehicle data indicates the position, speed, and traveling direction of the vehicle 60.
  • the sensor data indicates an obstacle ID that is an ID (Identifier) of an object (hereinafter referred to as an obstacle) from which the detection point is detected, and the position, speed, and progress of the detection point in association with the obstacle ID.
  • the direction is shown.
  • the same obstacle ID is provided with respect to the object which the computer mounted in the vehicle 60 determined to be the same obstacle from the position of a detection point.
  • the position of the detection point indicated in the sensor data may be an absolute position such as the latitude and longitude of the detection point, or may be a relative position with the center of the vehicle 60 or the sensor as the center.
  • the information processing device 14 provided in the vehicle 50 performs time-series processing of the position notified from the vehicle 60, and the speed and traveling direction of the vehicle 60 and detection points. May be calculated.
  • the wireless communication between the vehicle 60 and the vehicle 50 is assumed to be based on IEEE802.11p, but other methods may be used as long as vehicle data and sensor data can be transmitted and received. In the vehicle 60, scanning by a sensor and transmission of vehicle data and sensor data by a communication device are repeatedly performed.
  • step ST101 the calculation unit 141 acquires vehicle data and sensor data transmitted from the vehicle 60 via the communication device 13 and the input interface 130. In addition, when the position indicated by the vehicle data and the sensor data is a relative position, the calculation unit 141 converts the position indicated by the vehicle data and the sensor data into absolute coordinates.
  • step ST103 the calculation unit 141 determines whether or not the obstacle ID indicated in the sensor data has already been registered in the memory 102. If the obstacle ID is already registered in the memory 102, the process proceeds to step ST104. On the other hand, when the obstacle ID is not registered in the memory 102, the process proceeds to step ST105.
  • step ST103 the calculation unit 141 determines whether the obstacle indicated by the obstacle ID in the sensor data is a stationary object. Specifically, the calculation unit 141 is in a state where the obstacle is moving toward the vehicle 60 at the traveling speed of the vehicle 60 indicated by the vehicle data from the speed and the traveling direction associated with the obstacle ID. Determine whether or not. If the obstacle is moving toward the vehicle 60 at the traveling speed of the vehicle 60, the calculation unit 141 determines that the obstacle is a stationary object. If the obstacle is a stationary object, the process proceeds to step ST104. On the other hand, if the obstacle is not a stationary object, the process ends.
  • step ST104 the calculation unit 141 registers the obstacle ID and the position of the corresponding detection point in the memory 102.
  • step ST105 the calculation unit 141 refers to the memory 102 and determines whether or not there are a predetermined number or more of detection points of the same obstacle.
  • the predetermined number is 2 or more.
  • the predetermined number is preferably 5 or more. If there are more than the predetermined number of detection points of the same obstacle, the process proceeds to step ST106. On the other hand, when the number of detection points of the same obstacle is less than the predetermined number, the process ends.
  • the calculation unit 141 calculates the radius and center point of a circle that includes all detection points of the same obstacle. For example, as shown in FIG. 7, it is assumed that there are seven detection points 71 for the utility pole 70. In this example, seven detection points 71 are obtained for the utility pole 70 by seven sensor data. The calculation unit 41 calculates a radius and a center point of a circle that includes the seven detection points 71. Such a circle including a plurality of detection points corresponds to a distribution range of detection points. That is, the calculation unit 141 calculates the distribution range of detection points for the same stationary object in step ST106. In the example of FIG. 7, the circle indicated by reference numeral 90 is the distribution range of the detection points 71 of the utility pole 70.
  • the calculation unit 141 excludes detection points located at positions far from the size of an object that may exist on the roadside, such as two meters or more away from other detection points, from the calculation of the distribution range.
  • the calculating unit 141 outputs the calculated radius and center point of the circle to the removing unit 142 as obstacle error distribution range information. Further, the calculation unit 141 outputs the latest vehicle data and the latest sensor data to the removal unit 142.
  • step ST201 the removal unit 142 acquires obstacle error distribution range information, vehicle data, and sensor data from the calculation unit 141.
  • the removal unit 142 acquires information on the current position of the vehicle 50 and size information on the vehicle 50.
  • the removal unit 142 acquires information on the current position of the vehicle 50 from the vehicle information management device 12. Further, the removal unit 142 acquires size information of the vehicle 50 from the memory 102. Note that once the size information of the vehicle 50 is acquired, it is not necessary to acquire it again.
  • step S ⁇ b> 203 the removal unit 142 determines whether or not a detection point exists in the vicinity of the current position of the vehicle 50, that is, whether or not the detection point of the vehicle 50 is included in the sensor data. Specifically, first, the removal unit 142 obtains an intersection between a line segment connecting the vehicle 60 and the vehicle 50 and the outer shape of the vehicle 50. The outer shape of the vehicle 50 is obtained from the current position and size information of the vehicle 50 acquired in step S202. Next, the removal unit 142 calculates a circle with a radius notified by the obstacle error distribution range information, centered on the intersection of the line segment connecting the vehicle 60 and the vehicle 50 and the outer shape of the vehicle 50. This circle range corresponds to the detection point distribution range 90 shown in FIG. Next, the removal unit 142 determines whether or not a detection point included in the calculated circle range exists in the sensor data. The detection points included in the circle range are detection points for the vehicle 50.
  • a point represented by reference numeral 55 is an intersection of a line segment connecting the vehicle 60 and the vehicle 50 and the outer shape of the vehicle 50.
  • the circle in the detection point distribution range 90 is the same as that shown in FIG. In FIG. 8, for easy understanding, the circle of the distribution range 90 of the detection points is drawn larger than the actual size.
  • the detection point 51 is included in a circle of the detection point distribution range 90 with the intersection point 55 as the center.
  • the detection point 81 is not included in the circle of the detection point distribution range 90 centered on the intersection 55. For this reason, in the determination in step S203, the detection point 51 is true, and the detection point 81 is false.
  • a line segment connecting the vehicle 50 and the center of the vehicle 60 is drawn. However, if the sensor mounting position of the vehicle 60 is known, the sensor mounting position of the vehicle 60 and the vehicle 50 are The accuracy can be improved by using the connecting line segment.
  • the removal unit 142 removes the detection points determined to be true in step ST203 from the sensor data.
  • the removal unit 142 removes the detection point 51 from the sensor data. Since the detection point 51 is included in a circle from the intersection 55 to the detection point distribution range 90, it is considered to be a detection point for the vehicle 50 including an error component.
  • the example which removed the detection point of the vehicle 50 from the sensor data obtained by the sensor installed in the vehicle 60 which is a moving body was demonstrated.
  • the detection points of the vehicle 50 are removed from the sensor data obtained by the sensor installed in the roadside device by applying the procedure shown in FIGS. 9 and 10 to the sensor data obtained by the sensor installed in the roadside device. You can also
  • the detection point for the vehicle 50 can be accurately removed from the sensor data. That is, in the present embodiment, the information processing apparatus 14 calculates the detection point distribution range 90 for the same stationary object as the error distribution range, and detects detection points within the distribution range 90 calculated from the location of the vehicle 50. Extracted as detection points of the vehicle 50. For this reason, the detection point with respect to the vehicle 50 can be accurately removed from the sensor data without grasping the error characteristics of the sensor installed in the vehicle 60 or the sensor installed in the roadside device in advance.
  • Embodiment 2 the detection point for the vehicle 50 is removed from the sensor data using the position information of the detection point.
  • the detection point of the object may be recognized as the detection point of the vehicle 50 and removed. . Therefore, in the present embodiment, a configuration that can extract only detection points of the vehicle 50 with higher accuracy based on the relative speed between the vehicle 50 and the sensor will be described. In the present embodiment, differences from the first embodiment will be mainly described. Note that matters not described below are the same as those in the first embodiment.
  • Steps ST201, ST203, and ST204 are the same as those shown in FIG.
  • step ST301 the removal unit 142 acquires information on the current position of the vehicle 50, information on the speed of the vehicle 50, and size information on the vehicle 50.
  • the removal unit 142 determines whether or not the speed of the detection point that is true in S203 is equal to the sum of the speed of the vehicle 50 and the speed of the sensor data transmission source (vehicle 60). .
  • the removal unit 142 has a speed difference between the speed of the detection point that is true in step S203, the speed of the vehicle 50, and the speed of the transmission source of the sensor data (vehicle 60) within 10%. If there is, it is determined to be equivalent.
  • step S302 will be described with reference to FIG. In FIG. 11, it is assumed that the vehicle 50 is traveling at the speed v1, and the vehicle 60 is traveling at the speed v2.
  • the detection points 51 and 82 are both in the circle of the detection point distribution range 90.
  • the speed of the detection point 51 is a relative speed v1 + v2 obtained by adding the speed v1 of the vehicle 50 and the speed v2 of the vehicle 60.
  • the speed of the detection point 82 is the speed v ⁇ b> 2 of the vehicle 60. Since the vehicle 60 travels at the speed v2, the vehicle 60 senses that the vehicle 50 comes toward the vehicle 60 at the speed v1 + v2.
  • the vehicle 60 senses that an object comes toward the vehicle 60 at a speed v2. For this reason, in the determination in step S302, the detection point 51 is true, and the detection point 82 is false. That is, the detection point 51 is a detection point for the vehicle 50, and the detection point 82 is a detection point for a stationary object in the vicinity of the vehicle 50.
  • step ST204 the removal unit 142 removes the detection points determined to be true in step ST302 from the sensor data.
  • the removal unit 142 removes the detection point 51 from the sensor data.
  • the detection point of the vehicle 50 may be removed from the sensor data obtained by the sensor installed on the roadside device. It can.
  • the removal unit 142 sets the speed of the sensor data transmission source to 0 and performs the determination in step S302.
  • each detection point is a detection point for the vehicle 50 or a detection point for another object using the speed. For this reason, according to the present embodiment, even when an object other than the vehicle 50 exists in the vicinity of the vehicle 50, the detection point for the vehicle 50 is more accurately removed from the sensor data than in the first embodiment. be able to.
  • the procedure shown in the first embodiment or the second embodiment may be applied to sensor data of a sensor attached to the rear surface of the vehicle traveling in the same traveling direction as the vehicle 50 in front of the vehicle 50.
  • the procedure shown in the first embodiment or the second embodiment may be applied to sensor data of a sensor attached to the front surface of the vehicle that travels behind the vehicle 50 in the same traveling direction as the vehicle 50.
  • the information processing device 14 mounted on the vehicle 50 has been described as an example.
  • the information processing device 14 may be replaced with another mobile object such as a ship or a train. Etc. may be mounted.
  • the memory 102 also stores an OS (Operating System). At least a part of the OS is executed by the processor 101.
  • the processor 101 executes a program that realizes the functions of the calculation unit 141 and the removal unit 142 while executing at least a part of the OS.
  • the processor 101 executes the OS, task management, memory management, file management, communication control, and the like are performed.
  • at least one of information, data, a signal value, and a variable value indicating the processing results of the calculation unit 141 and the removal unit 142 is stored in at least one of the memory 102, the register in the processor 101, and the cache memory.
  • the program for realizing the functions of the calculation unit 141 and the removal unit 142 may be stored in a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD.
  • a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD.
  • the information processing device 14 may be realized by a processing circuit.
  • the processing circuit is, for example, a logic IC (Integrated Circuit), a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array).
  • the superordinate concept of the processor 101, the memory 102, the combination of the processor 101 and the memory 102, and the processing circuit is referred to as “processing circuitry”. That is, the processor 101, the memory 102, the combination of the processor 101 and the memory 102, and the processing circuit are specific examples of “processing circuitries”.
  • 1 in-vehicle system 11 in-vehicle network, 12 vehicle information management device, 13 communication device, 14 information processing device, 15 display device, 50 vehicle, 51 detection point, 60 vehicle, 70 utility pole, 71 detection point, 80 sensing range, 90 detection Point distribution range, 101 processor, 102 memory, 103 input interface, 104 output interface, 141 calculation unit, 142 removal unit.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

情報処理装置(14)は、移動体に搭載される。算出部(141)は、移動体の周辺に所在するセンサがセンサの周辺を走査して得た検出点が示されるセンサデータを取得し、取得した前記センサデータを解析して、検出点の分布範囲を算出する。除去部(142)は、算出部(141)により算出された検出点の分布範囲に基づき、センサデータに示される検出点の中から移動体に対する検出点を抽出し、抽出した移動体に対する検出点をセンサデータから除去する。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本発明は、センサにより得られたセンサデータを処理する技術に関する。
 安全意識の高まりと利便性の追求とから、緊急自動ブレーキ機能といった運転支援機能が搭載された車両が増加している。運転支援機能を実現するために、ミリ波レーダーやLiDAR(Light Detection And Ranging)といった、電波又は光を放射するセンサが用いられる場合がある。
 運転支援機能を実現するためのセンサは、遮蔽物などにより覆い隠された領域はセンシングできない。このため、遮蔽物などにより覆い隠された領域については、運転支援機能が搭載された車両(以下、運転支援機能搭載車両という)が、通信を用いたV2X(Vehicle to Everything)という手段により、他の車両やインフラストラクチャ設備に搭載されたセンサによる検出結果を受信する方法がある。
 しかしながら、運転支援機能搭載車両が受信するセンサの検出結果に、運転支援機能搭載車両自身が含まれている場合は、運転支援機能が、運転支援機能搭載車両のすぐ近くに物体が存在すると誤認識してしまい、誤った動作をしてしまう可能性がある。
 特許文献1には、運転支援機能が、他車物標情報から運転支援機能搭載車両を除外することが記載されている。
特開2008-293099号公報
 特許文献1の技術では、他車物標情報に誤差成分が存在していた場合に、正確に他車物標情報内の運転支援機能搭載車両を特定して、他車物標情報から運転支援機能搭載車両を除外することが困難であるという課題がある。
 本発明は、このような課題を解決することを主な目的とする。
 具体的には、本発明は、移動体の周辺に所在するセンサにより得られたセンサデータに誤差成分が存在する場合でも、正確にセンサデータから移動体に対する検出点を除去できる構成を得ることを主な目的とする。
 本発明に係る情報処理装置は、
 移動体に搭載される情報処理装置であって、
 前記移動体の周辺に所在するセンサが前記センサの周辺を走査して得た検出点が示されるセンサデータを取得し、取得した前記センサデータを解析して、検出点の分布範囲を算出する算出部と、
 前記算出部により算出された検出点の分布範囲に基づき、前記センサデータに示される検出点の中から前記移動体に対する検出点を抽出し、抽出した前記移動体に対する検出点を前記センサデータから除去する除去部とを有する。
 本発明によれば、センサデータに誤差成分が存在する場合でも、正確にセンサデータから移動体に対する検出点を除去することができる。
実施の形態1に係る車載システムのハードウェア構成例を示す図。 実施の形態1に係る情報処理装置のハードウェア構成例を示す図。 実施の形態1に係る情報処理装置の機能構成例を示す図。 実施の形態1に係る車両位置の例を示す図。 実施の形態1に係る車両位置の例を示す図。 実施の形態1に係るセンシング範囲の例を示す図。 実施の形態1に係る検出点の分布範囲の例を示す図。 実施の形態1に係る情報処理装置の動作例を示す図。 実施の形態1に係る算出部の動作例を示すフローチャート。 実施の形態1に係る除去部の動作例を示すフローチャート。 実施の形態2に係る情報処理装置の動作例を示す図。 実施の形態2に係る除去部の動作例を示すフローチャート。
 以下、本発明の実施の形態について、図を用いて説明する。以下の実施の形態の説明及び図面において、同一の符号を付したものは、同一の部分又は相当する部分を示す。
 実施の形態1.
***構成の説明***
 図1は、本実施の形態に係る車載システム1のハードウェア構成例を示す。
 車載システム1は、車両50に搭載されている。車両50は、運転支援機能搭載車両である。
 車載システム1は、車載ネットワーク11、車両情報管理装置12、通信装置13、情報処理装置14及び表示装置15で構成される。
 車載ネットワーク11は、CAN(Control Area Network)、車載Ethernet(登録商標)等のネットワークである。
 車両情報管理装置12は、車両50の車両情報を管理する。車両情報は例えば、車両50の現在位置の情報及び車両50の速度の情報である。
 通信装置13は、他の車両又は路側器と通信する。路側器は、車両50の移動経路に配備されている静止物の例である。
 他の車両又は路側器は、車両50の周辺に所在する。
 情報処理装置14は、他車両のセンサ又は路側器のセンサから得たセンサデータに含まれる誤差成分を算出し、算出した誤差成分に基づき、センサデータから車両50に対する検出点を除去する。
 センサデータには、他車両のセンサ又は路側器のセンサが周辺を走査して得た検出点が示される。検出点については後述する。
 なお、情報処理装置14で行われる動作は、情報処理方法に相当する。
 表示装置15は、車両50の搭乗者に情報を表示する。表示装置15は、例えば、ディスプレイである。
 図2は、情報処理装置14のハードウェア構成例を示す。
 情報処理装置14は、プロセッサ101、メモリ102、入力インタフェース103及び出力インタフェース104で構成される。
 プロセッサ101は、メモリ102に格納されたプログラムを読み出して実行する。
 プログラムは、後述する算出部141及び除去部142を実現する。なお、当該プログラムは、情報処理プログラムに相当する。
 プロセッサ300は、例えば、CPU(Central Processing Unit)又はGPU(Graphical Processing Unit)である。
 メモリ102には、前述のプログラム及び各種データが格納される。また、メモリ102には、他の車両又は路側器のセンサのセンサデータが格納される。
 メモリ102は、例えば、RAM(Ramdam Access Memory)、HDD(Hard Disk Drive)又はフラッシュメモリである。
 入力インタフェース103は、車両情報管理装置12又は通信装置13からデータを取得する。
 例えば、入力インタフェース103は、通信装置13から他の車両のセンサ又は路側器のセンサのセンサデータを取得する。
 出力インタフェース104は、プロセッサ101の処理結果が示されるデータを表示装置15に出力する。
 例えば、出力インタフェース104は、車両50に対する検出点が除去された後のセンサデータを表示装置15に出力する。
 図3は、情報処理装置14の機能構成例を示す。
 情報処理装置14は、算出部141及び除去部142で構成される。
 なお、図3では、プロセッサ101が算出部141及び除去部142を実現するプログラムを実行している状態を模式的に表している。
 算出部141は、入力インタフェース103から、他の車両のセンサ又は路側器のセンサのセンサデータを取得する。そして、算出部141は、取得したセンサデータを解析して、検出点の分布範囲を算出する。
 より具体的には、算出部141は、複数のセンサデータを時系列に解析して、複数のセンサデータでの同一静止物に対する検出点の分布範囲を算出する。
 除去部142は、算出部141により算出された検出点の分布範囲に基づき、センサデータに示される検出点の中から車両50に対する検出点を抽出する。より具体的には、除去部142は、センサデータに示される検出点のうち、車両50の所在位置から算出部141により算出された検出点の分布範囲内にある検出点を、車両50に対する検出点として抽出する。
 そして、除去部142は、抽出した車両50に対する検出点をセンサデータから除去する。
***動作の説明***
 次に、本実施の形態に係る情報処理装置14の動作例を説明する。
 図4は、本実施の形態に係る車両50及び他の車両60の位置の例を示す。
 図4では、車両50は速度v1で走行している。車両60は、反対車線を速度v2で車両50に向かって走行している。
 車両50及び車両60の移動経路である道路の路側には、静止物である電柱70が配置されている。
 図5は、車両50から車両60の方向(前方)をみた状態を表している。
 車両60には、センサが配備されている。車両60のセンサは、例えば、ミリ波レーダー又はLiDARである。車両60のセンサは、周辺を走査する。つまり、車両60のセンサは、電波又はレーザーを周辺に照射し、その反射を得ることで障害物の有無を検出する。
 図6は、車両60のセンサのセンシング範囲80と検出点を示す。
 センサは、車両60の前面に取り付けられており、図6で示すように扇形のセンシング範囲80が得られる。
 扇形の要の部分がセンサの取り付け位置であり、そこから放射状に電波又はレーザーが照射されている。
 電波又はレーザーは物体に反射すると反射点を形成する。センサの構造上、電波又はレーザーが到達する範囲に反射点が存在しており、電波又はレーザーが到達しない物体の裏側には反射点が存在しない。物体の角又はセンサに近い点が反射の強い代表的な反射点である。このような代表的な反射点を検出点という。
 図6の例では、車両50に検出点51が存在し、電柱70に検出点71が存在する。
 車両60では、車両60に搭載されている通信装置により車両データとセンサデータとが無線により送信される。
 車両データには、車両60の位置、速度及び進行方位が示される。
 センサデータには、検出点が検出された物体(以下、障害物という)のID(Identifier)である障害物IDが示され、また、障害物IDに対応付けて検出点の位置、速度及び進行方位とが示される。
 センサデータに示される障害物IDについては、車両60に搭載されるコンピュータが検出点の位置から同一の障害物と判定した物体に対して、同一の障害物IDが付与される。
 また、センサデータに示される検出点の位置は、検出点の緯度経度のような絶対位置でもよいし、車両60の中心点あるいはセンサを中心とした相対位置でもよい。
 また、車両60が位置の情報のみしか送信できない場合は、車両50に備えられた情報処理装置14が車両60から通知された位置の時系列処理を行い、車両60及び検出点の速度及び進行方位を算出するようにしてもよい。
 車両60と車両50との間の無線通信は、IEEE802.11pによるものを想定するが、車両データ及びセンサデータの送受信が可能であれば、他の方式でもよい。
 車両60では、センサによる走査と通信装置による車両データ及びセンサデータの送信が繰り返し行われる。
 次に、図9のフローチャートを用いて、算出部141の動作例を説明する。
 図9の処理は、通信装置13が車両60から車両データとセンサデータとを受信する度に行われる。
 ステップST101において、算出部141は、通信装置13及び入力インタフェース130を介して車両60から送信された車両データ及びセンサデータを取得する。
 また、算出部141は、車両データ及びセンサデータに示される位置が相対位置であれば、車両データ及びセンサデータに示される位置を絶対座標に変換する。
 次に、ステップST103において、算出部141は、センサデータに示される障害物IDが既にメモリ102に登録されているか否かを判定する。
 障害物IDが既にメモリ102に登録されている場合は、処理がステップST104に進む。一方、障害物IDがメモリ102に未登録である場合は、処理がステップST105に進む。
 ステップST103では、算出部141は、センサデータに障害物IDとして示される障害物が静止物であるか否かを判定する。具体的には、算出部141は、障害物IDに対応付けられた速度及び進行方位から、車両データに示される車両60の進行速度で障害物が車両60に向かって移動している状態であるかどうかを判定する。車両60の進行速度で障害物が車両60に向かって移動している状態であれば、算出部141は、障害物は静止物であると判定する。
 障害物が静止物であれば、処理がステップST104に進む。一方、障害物が静止物でない場合は、処理が終了する。
 ステップST104では、算出部141は、障害物IDと、対応する検出点の位置をメモリ102に登録する。
 ステップST105では、算出部141は、メモリ102を参照し、同一の障害物の検出点が既定数以上あるかどうかを判定する。既定数は、2以上である。既定数は5以上が望ましい。
 同一の障害物の検出点が既定数以上ある場合は、処理がステップST106に進む。一方、同一の障害物の検出点が既定数未満である場合は、処理が終了する。
 ステップST106では、算出部141は、同一の障害物の全ての検出点を包含する円の半径と中心点を算出する。
 例えば、図7に示すように、電柱70に対して7つの検出点71が存在するとする。この例では、7つのセンサデータにより電柱70に対して7つの検出点71が得られている。
 算出部41は、7つの検出点71を包含することになる円の半径と中心点とを算出する。
 このような複数の検出点を包含する円は検出点の分布範囲に相当する。つまり、算出部141は、ステップST106において、同一静止物に対する検出点の分布範囲を算出する。
 図7の例では、符号90で示す円が、電柱70の検出点71の分布範囲である。
 なお、同一の障害物IDに対応付けられている検出点であっても、明らかに他の検出点と異なる位置の検出点は、分布範囲の計算からは除外する。算出部141は、例えば、他の検出点と2メートル以上離れているなど、路側に存在し得る物体のサイズよりも大きく乖離した位置にある検出点は分布範囲の計算から除外する。
 算出部141は、算出した円の半径と中心点を障害物誤差分布範囲情報として除去部142に出力する。また、算出部141は、最新の車両データと最新のセンサデータを除去部142に出力する。
 次に、図10のフローチャートを用いて、除去部142の動作例を説明する。
 図10の処理は、算出部141から障害物誤差分布範囲情報、最新の車両データ及び最新のセンサデータが出力される度に行われる。
 ステップST201において、除去部142は、算出部141から障害物誤差分布範囲情報、車両データ及びセンサデータを取得する。
 次に、ステップST202において、除去部142は、車両50の現在位置の情報と車両50のサイズ情報を取得する。
 例えば、除去部142は、車両情報管理装置12から車両50の現在位置の情報を取得する。
 また、除去部142は、メモリ102から車両50のサイズ情報を取得する。なお、車両50のサイズ情報は一度取得すれば、再度取得する必要はない。
 次に、ステップS203において、除去部142は、車両50の現在位置の付近に検出点が存在するか否か、すなわち、センサデータに車両50の検出点が含まれているか否かを判定する。
 具体的には、先ず、除去部142は、車両60と車両50とを結ぶ線分と車両50の外形との交点を求める。車両50の外形は、ステップS202で取得された車両50の現在位置とサイズ情報で得られる。
 次に、除去部142は、車両60と車両50とを結ぶ線分と車両50の外形との交点を中心にした、障害物誤差分布範囲情報で通知されている半径の円を算出する。この円の範囲は、図7に示す検出点の分布範囲90に相当する。
 次に、除去部142は、算出した円の範囲に含まれる検出点がセンサデータに存在するか否かを判定する。
 当該円の範囲に含まれる検出点は車両50に対する検出点である。
 ステップS203の処理を、図8を用いて説明する。
 図8では、符号55で表される点が、車両60と車両50とを結ぶ線分と車両50の外形との交点である。
 検出点の分布範囲90の円は図7に示すものと同様である。なお、図8では、理解を容易にするために、検出点の分布範囲90の円を実際の大きさよりも大きく描画している。
 そして、図8では、検出点51は、交点55を中心とする検出点の分布範囲90の円の中に含まれる。
 一方で、検出点81は、交点55を中心とする検出点の分布範囲90の円の中には含まれない。
 このため、ステップS203の判定では、検出点51については真となり、検出点81については偽となる。
 なお、図8の例では車両50と車両60の中心とを結ぶ線分を引いているが、車両60のセンサの取り付け位置が既知であれば、車両60のセンサの取り付け位置と車両50とを結ぶ線分を用いることで、精度を向上させることができる。
 次に、ステップST204において、除去部142は、ステップST203で真と判定された検出点をセンサデータから除去する。
 図8の例では、除去部142は、検出点51をセンサデータから除去する。
 検出点51は、交点55から検出点の分布範囲90の円の中に含まれているので、誤差成分を含む車両50についての検出点であると考えられる。
 以上では、移動体である車両60に設置されたセンサにより得られたセンサデータから車両50の検出点を除去する例を説明した。図9及び図10に示す手順を路側器に設置されたセンサで得られたセンサデータに適用することで、路側器に設置されたセンサで得られたセンサデータから、車両50の検出点を除去することもできる。
***実施の形態の効果の説明***
 以上述べたように、本実施の形態では、センサデータに誤差成分が存在する場合でも、正確にセンサデータから車両50に対する検出点を除去することができる。
 つまり、本実施の形態では、情報処理装置14が、誤差分布範囲として、同一静止物に対する検出点の分布範囲90を算出し、車両50の所在位置から算出した分布範囲90内にある検出点を車両50の検出点として抽出する。
 このため、事前に車両60に設置されたセンサ又は路側器に設置されたセンサの誤差特性を把握することなく、正確に、センサデータから車両50に対する検出点を除去することができる。
実施の形態2.
 実施の形態1では、検出点の位置情報を用いて車両50に対する検出点をセンサデータから除去している。しかし、実施の形態1の手法では、実際に車両50の近傍に物体が存在している場合にも、当該物体の検出点を車両50の検出点と認識して除去してしまう可能性がある。
 そこで、本実施の形態では、車両50とセンサとの相対速度とに基づき、より高精度に車両50の検出点のみを抽出できる構成を説明する。
 本実施の形態では、主に実施の形態1との差異を説明する。
 なお、以下で説明していない事項は、実施の形態1と同様である。
 図12のフローチャートを用いて、本実施の形態に係る除去部142の動作例を説明する。
 ステップST201、ST203及びST204は、図10に示したものと同じであるため、説明を省略する。
 ステップST301では、除去部142は、車両50の現在位置の情報、車両50の速度の情報及び車両50のサイズ情報を取得する。
 ステップST302では、除去部142は、S203で真となった検出点の速度が、車両50の速度とセンサデータの送信元(車両60)の速度とを加算したものと同等か否かを判定する。
 例えば、除去部142は、ステップS203で真となった検出点の速度と、車両50の速度とセンサデータの送信元(車両60)の速度とを加算したものとの速度差が10%以内であれば、同等と判定する。
 ステップS302の処理を、図11を用いて説明する。
 図11では、車両50は速度v1で走行し、車両60は速度v2で走行しているものとする。
 また、検出点51及び検出点82は共に検出点の分布範囲90の円の中に入っている。
 図11の例では、検出点51の速度は車両50の速度v1と車両60の速度v2との加算により得られる相対速度v1+v2となっている。一方、検出点82の速度は、車両60の速度v2である。
 車両60は速度v2で走行するため、車両60では、車両50が速度v1+v2で車両60に向かってくるように感知される。一方、静止物の場合は、車両60では、速度v2で物体が車両60に向かってくるように感知される。
 このため、ステップS302の判定では、検出点51については真となり、検出点82については偽となる。つまり、検出点51は、車両50に対する検出点であり、検出点82は、車両50の近傍の静止物に対する検出点である。
 ステップST204では、除去部142が、ステップST302で真と判定された検出点をセンサデータから除去する。
 図11の例では、除去部142は検出点51をセンサデータから除去する。
 以上では、移動体である車両60に設置されたセンサにより得られたセンサデータから車両50の検出点を除去する例を説明した。図12に示す手順を路側器に設置されたセンサで得られたセンサデータに適用することで、路側器に設置されたセンサで得られたセンサデータから、車両50の検出点を除去することもできる。この場合は、路側器の速度は0であるため、除去部142は、センサデータの送信元の速度を0にしてステップS302の判定を行う。
***実施の形態の効果の説明***
 以上述べたように、本実施の形態では、速度を用いて各検出点が車両50に対する検出点であるのか他の物体に対する検出点であるのかを判定する。このため、本実施の形態によれば、車両50の近傍に車両50以外の物体が存在している場合でも、実施の形態1に比べてより正確に車両50に対する検出点をセンサデータから除去することができる。
 以上の実施の形態1及び実施の形態2では、車両50に対向する方向で進行する車両60の前面に取り付けられているセンサのセンサデータを用いる例を説明した。更に、車両50の前方を車両50と同じ進行方向で進行する車両の後面に取り付けられているセンサのセンサデータに対して実施の形態1又は実施の形態2に示す手順を適用してもよい。また、車両50の後方を車両50と同じ進行方向で進行する車両の前面に取り付けられているセンサのセンサデータに対して実施の形態1又は実施の形態2に示す手順を適用してもよい。
 また、以上の実施の形態1及び実施の形態2では、車両50に搭載された情報処理装置14を例にして説明を行ったが、情報処理装置14を他の移動体、例えば、船舶、電車等に搭載してもよい。
 以上、本発明の実施の形態について説明したが、これら2つの実施の形態を組み合わせて実施しても構わない。
 あるいは、これら2つの実施の形態のうち、1つを部分的に実施しても構わない。
 あるいは、これら2つの実施の形態を部分的に組み合わせて実施しても構わない。
 なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
***ハードウェア構成の説明***
 最後に、情報処理装置14のハードウェア構成の補足説明を行う。
 メモリ102には、OS(Operating System)も記憶されている。
 そして、OSの少なくとも一部がプロセッサ101により実行される。
 プロセッサ101はOSの少なくとも一部を実行しながら、算出部141及び除去部142の機能を実現するプログラムを実行する。
 プロセッサ101がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
 また、算出部141及び除去部142の処理の結果を示す情報、データ、信号値及び変数値の少なくともいずれかが、メモリ102、プロセッサ101内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
 また、算出部141及び除去部142の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記録媒体に格納されていてもよい。
 また、算出部141及び除去部142の「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
 また、情報処理装置14は、処理回路により実現されてもよい。処理回路は、例えば、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)である。
 なお、本明細書では、プロセッサ101と、メモリ102と、プロセッサ101とメモリ102の組合せと、処理回路との上位概念を、「プロセッシングサーキットリー」という。
 つまり、プロセッサ101と、メモリ102と、プロセッサ101とメモリ102の組合せと、処理回路とは、それぞれ「プロセッシングサーキットリー」の具体例である。
 1 車載システム、11 車載ネットワーク、12 車両情報管理装置、13 通信装置、14 情報処理装置、15 表示装置、50 車両、51 検出点、60 車両、70 電柱、71 検出点、80 センシング範囲、90 検出点の分布範囲、101 プロセッサ、102 メモリ、103 入力インタフェース、104 出力インタフェース、141 算出部、142 除去部。

Claims (7)

  1.  移動体に搭載される情報処理装置であって、
     前記移動体の周辺に所在するセンサが前記センサの周辺を走査して得た検出点が示されるセンサデータを取得し、取得した前記センサデータを解析して、検出点の分布範囲を算出する算出部と、
     前記算出部により算出された検出点の分布範囲に基づき、前記センサデータに示される検出点の中から前記移動体に対する検出点を抽出し、抽出した前記移動体に対する検出点を前記センサデータから除去する除去部とを有する情報処理装置。
  2.  前記算出部は、
     複数のセンサデータを解析して、前記複数のセンサデータでの同一静止物に対する検出点の分布範囲を算出する請求項1に記載の情報処理装置。
  3.  前記除去部は、
     前記センサデータに示される検出点のうち、前記移動体の所在位置から前記算出部により算出された検出点の分布範囲内にある検出点を、前記移動体に対する検出点として抽出する請求項1に記載の情報処理装置。
  4.  前記除去部は、
     前記算出部により算出された検出点の分布範囲と、前記移動体と前記センサとの相対速度とに基づき、前記センサデータに示される検出点の中から前記移動体に対する検出点を抽出する請求項1に記載の情報処理装置。
  5.  前記取得部は、
     前記移動体の移動経路を移動する他の移動体に設置されたセンサのセンサデータ及び前記移動経路に配備されている静止物に設置されたセンサのセンサデータのうちの少なくともいずれかを取得する請求項1に記載の情報処理装置。
  6.  移動体に搭載されるコンピュータが行う情報処理方法であって、
     前記コンピュータが、前記移動体の周辺に所在するセンサが前記センサの周辺を走査して得た検出点が示されるセンサデータを取得し、取得した前記センサデータを解析して、検出点の分布範囲を算出し、
     前記コンピュータが、算出された検出点の分布範囲に基づき、前記センサデータに示される検出点の中から前記移動体に対する検出点を抽出し、抽出した前記移動体に対する検出点を前記センサデータから除去する情報処理方法。
  7.  移動体に搭載されるコンピュータに、
     前記移動体の周辺に所在するセンサが前記センサの周辺を走査して得た検出点が示されるセンサデータを取得し、取得した前記センサデータを解析して、検出点の分布範囲を算出する算出処理と、
     前記算出処理により算出された検出点の分布範囲に基づき、前記センサデータに示される検出点の中から前記移動体に対する検出点を抽出し、抽出した前記移動体に対する検出点を前記センサデータから除去する除去処理とを実行させる情報処理プログラム。
PCT/JP2018/008410 2018-03-05 2018-03-05 情報処理装置、情報処理方法及び情報処理プログラム WO2019171441A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201880090278.9A CN111788620B (zh) 2018-03-05 2018-03-05 信息处理装置、信息处理方法及计算机可读取的记录介质
US16/961,721 US20210065553A1 (en) 2018-03-05 2018-03-05 Information processing device, information processing method, and computer readable medium
PCT/JP2018/008410 WO2019171441A1 (ja) 2018-03-05 2018-03-05 情報処理装置、情報処理方法及び情報処理プログラム
JP2020504503A JP6695516B2 (ja) 2018-03-05 2018-03-05 情報処理装置、情報処理方法及び情報処理プログラム
DE112018006982.6T DE112018006982B4 (de) 2018-03-05 2018-03-05 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund informationsverarbeitungsprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/008410 WO2019171441A1 (ja) 2018-03-05 2018-03-05 情報処理装置、情報処理方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
WO2019171441A1 true WO2019171441A1 (ja) 2019-09-12

Family

ID=67846528

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/008410 WO2019171441A1 (ja) 2018-03-05 2018-03-05 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (5)

Country Link
US (1) US20210065553A1 (ja)
JP (1) JP6695516B2 (ja)
CN (1) CN111788620B (ja)
DE (1) DE112018006982B4 (ja)
WO (1) WO2019171441A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146898B (zh) * 2018-09-07 2020-07-24 百度在线网络技术(北京)有限公司 一种仿真数据量增强方法、装置以及终端
CN109215136B (zh) * 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007298430A (ja) * 2006-05-01 2007-11-15 Honda Motor Co Ltd 車両用物体検知装置
JP2008293099A (ja) * 2007-05-22 2008-12-04 Mazda Motor Corp 車両の運転支援装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100019964A1 (en) * 2008-07-24 2010-01-28 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition and road condition recognition
JP5506803B2 (ja) * 2009-08-26 2014-05-28 三菱電機株式会社 駐車支援装置
JP4968412B2 (ja) * 2010-01-29 2012-07-04 トヨタ自動車株式会社 道路情報検出装置、および車両走行制御装置
JP5926208B2 (ja) * 2013-02-12 2016-05-25 株式会社デンソー 車載レーダ装置
JP6100581B2 (ja) * 2013-03-29 2017-03-22 株式会社デンソーウェーブ 監視装置
JP5714075B2 (ja) * 2013-10-24 2015-05-07 三菱電機株式会社 車載用レーダ装置およびターゲット検出方法
US9664784B2 (en) * 2013-12-04 2017-05-30 Trimble Inc. System and methods for data point detection and spatial modeling
JP5962706B2 (ja) * 2014-06-04 2016-08-03 トヨタ自動車株式会社 運転支援装置
US10061020B2 (en) * 2015-09-20 2018-08-28 Qualcomm Incorporated Light detection and ranging (LIDAR) system with dual beam steering

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007298430A (ja) * 2006-05-01 2007-11-15 Honda Motor Co Ltd 車両用物体検知装置
JP2008293099A (ja) * 2007-05-22 2008-12-04 Mazda Motor Corp 車両の運転支援装置

Also Published As

Publication number Publication date
JP6695516B2 (ja) 2020-05-20
CN111788620A (zh) 2020-10-16
DE112018006982T5 (de) 2020-10-08
DE112018006982B4 (de) 2021-07-08
CN111788620B (zh) 2022-07-19
JPWO2019171441A1 (ja) 2020-05-28
US20210065553A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
US20200081119A1 (en) Method and apparatus for determining relative pose, device and medium
US9928734B2 (en) Vehicle-to-pedestrian communication systems
JP5821419B2 (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出用コンピュータプログラム
CN110867132B (zh) 环境感知的方法、装置、电子设备和计算机可读存储介质
JP5316572B2 (ja) 物体認識装置
JP2015155878A (ja) 車両用障害物検出装置
CN110696826B (zh) 用于控制车辆的方法和装置
JP2015161968A (ja) 走行車線識別装置、車線変更支援装置、走行車線識別方法
US10043391B2 (en) Fine grained location-based services
CN113386785B (zh) 用于显示增强现实警示信息的方法和装置
CN109637148B (zh) 车载鸣笛监控系统、方法、存储介质及设备
WO2019171441A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR102279754B1 (ko) 충돌 사고 방지 방법, 장치, 서버, 및 컴퓨터 프로그램
JP6647466B2 (ja) 故障検出装置、故障検出方法及び故障検出プログラム
US20200262449A1 (en) Alarming method, device, server and system for dangerous road behavior
US20220092981A1 (en) Systems and methods for controlling vehicle traffic
JP5446559B2 (ja) 車両位置演算装置及び車両位置演算方法
JP5436652B1 (ja) 車両の周辺監視装置及び車両の周辺監視方法
JP2007212418A (ja) 車載レーダ装置
JP2020154913A (ja) 物体検出装置及び方法、交通支援サーバ、コンピュータプログラム及びセンサ装置
CN111615083B (zh) 一种伪基站检测方法、终端设备及存储介质
JP2006126133A (ja) 特定エリアを検出対象とするレーダ
KR20150133472A (ko) 차량 내 레이더들을 이용한 정보 공유 시스템 및 방법
JP7126629B1 (ja) 情報統合装置、情報統合方法、及び情報統合プログラム
JP6321138B2 (ja) 移動支援装置、移動支援方法及び移動支援用プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18909245

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020504503

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18909245

Country of ref document: EP

Kind code of ref document: A1