WO2019172341A1 - 物体検知装置、物体検知方法、および記録媒体 - Google Patents

物体検知装置、物体検知方法、および記録媒体 Download PDF

Info

Publication number
WO2019172341A1
WO2019172341A1 PCT/JP2019/008953 JP2019008953W WO2019172341A1 WO 2019172341 A1 WO2019172341 A1 WO 2019172341A1 JP 2019008953 W JP2019008953 W JP 2019008953W WO 2019172341 A1 WO2019172341 A1 WO 2019172341A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
data
vehicle
sensor
azimuth
Prior art date
Application number
PCT/JP2019/008953
Other languages
English (en)
French (fr)
Inventor
真 大門
直広 藤原
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to EP19764676.3A priority Critical patent/EP3764339A4/en
Priority to CN201980016991.3A priority patent/CN111801718B/zh
Publication of WO2019172341A1 publication Critical patent/WO2019172341A1/ja
Priority to US17/012,046 priority patent/US11954918B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present disclosure relates to an object detection technique for detecting an object existing around a vehicle.
  • Patent Document 1 discloses a technique for ensuring safe driving of a vehicle based on a measurement result by measuring not only the distance to the front obstacle but also the lateral position of the obstacle. This technique calculates the lateral position of two obstacles based on image information and distance information for the purpose of detecting the lateral spread of the obstacle, and based on the calculated lateral position and distance information. Then, the two-dimensional position of the two obstacles is measured.
  • Patent Document 2 discloses a technique for recognizing a three-dimensional object with excellent resolution.
  • a planar distribution of distance information to the surface of an object is measured by ultrasonic sensors arranged on a plane, and a first stereoscopic image of the object is extracted based on the measured distance information.
  • a planar image of the object is extracted from the image captured using the camera.
  • the extracted planar image and the first stereoscopic image are combined to generate a fine second stereoscopic image.
  • This disclosure provides a technique for easily detecting an object based on two one-dimensional information of azimuth data and distance data.
  • An object detection device includes an orientation sensor (11, 12) that measures the orientation of an object existing around a vehicle, and a distance sensor (21) that measures a distance from the vehicle to the object. ) And the azimuth data measured using the azimuth sensor (11, 12) and the distance data measured using the distance sensor (21) to superimpose the position of the object. (30).
  • the position specifying unit (30) has a grid map of a polar coordinate system centered on a vehicle, and specifies a grid where an object exists on the grid map based on the distance data and the orientation data. May be.
  • the object detection device of the present disclosure superimposes one-dimensional information, ie, azimuth data measured using the azimuth sensor (11, 12) and distance data measured using the distance sensor (21), in a predetermined coordinate space. .
  • a common data area is specified for the orientation data and the distance data.
  • the position where the object exists can be easily specified based on the one-dimensional information of the azimuth and the distance.
  • the object detection device specifies a grid area including azimuth data measured using an azimuth sensor and a grid area including distance data measured using a distance sensor in a grid map of a polar coordinate system. Then, in the two specified grid areas, a common grid (a grid in which an object exists) may be specified.
  • the object detection device of the present disclosure includes a plurality of distance sensors (21) having different detection ranges, and the position specifying unit (30) includes the azimuth data, the distance data, and the distance sensor (21).
  • the position of the object may be specified based on detection range data.
  • the object detection device of the present disclosure can identify the position of each object based on the distance data and the azimuth data even when there are a plurality of objects around the vehicle.
  • the object detection device of the present disclosure includes an orientation sensor ECU (12) that controls the orientation sensor (11, 12), and a distance sensor ECU (22) that controls the distance sensor (21),
  • the azimuth sensor ECU (12) stores azimuth data measured using the azimuth sensors (11, 12) in a memory
  • the distance sensor ECU (22) uses the distance sensor (21).
  • the measured distance data is stored in a memory
  • the position specifying unit (30) stores the direction data stored in the direction sensor ECU (12) and the distance data stored in the distance sensor ECU (22).
  • the position of the object may be specified by superimposing the data. In this way, by adopting a configuration in which the distance data is stored, for example, the distance data can be used for vehicle control (short distance PCS, prevention of misstepping, etc.).
  • An object detection device of the present disclosure detects a camera (11) that captures an object existing around a vehicle, and detects the object from an image captured using the camera (11), and determines a direction in which the object exists.
  • An image processing unit (12) for specifying, a distance sensor (21) for measuring a distance from the vehicle to the object, data of a direction specified by the image processing unit (12), and the distance sensor (21)
  • a position specifying unit (30) for specifying a grid in which an object is present on a grid map of a polar coordinate system centered on a vehicle based on distance data measured by using the position specifying unit (30 ) Across multiple grids based on the detection results of the objects from the image data obtained from the image processing unit (12) when the objects are detected in the multiple grids. Identifying the same object to be stationary. With this configuration, the object detection device of the present disclosure can recognize whether the objects detected in the plurality of grids are the same object.
  • the object detection method of the present disclosure includes a step of acquiring azimuth data of an object existing around the vehicle from a direction sensor (11, 12) provided in the vehicle, and a distance sensor (21 provided in the vehicle). ) To acquire the distance data from the vehicle to the object, and superimpose the azimuth data and the distance data to specify the position of the object.
  • the recording medium of the present disclosure is a recording medium that records a program for detecting an object present around a vehicle, and is present around the vehicle from an orientation sensor (11, 12) provided in the vehicle. Obtaining data on the direction of the object to be obtained, obtaining data on the distance from the vehicle to the object from a distance sensor (21) provided in the vehicle, data on the direction and data on the distance And the step of specifying the position of the object is recorded, and the program for causing the ECU to execute is recorded.
  • the technique of the present disclosure can specify a position where an object exists with a simple configuration using one-dimensional information obtained from an orientation sensor and a distance sensor.
  • FIG. 1 is a diagram illustrating a configuration of an object detection device 1 according to the first embodiment.
  • the object detection device 1 is used by being mounted on a vehicle, and has a function of detecting an object existing around the vehicle.
  • the object detection device 1 includes a camera 11, a sonar 21, a position specifying unit 30, and an output unit 31.
  • the camera 11 is connected to the camera ECU 12.
  • the camera ECU 12 has an image processing function (corresponding to an image processing unit).
  • the camera ECU 12 performs predetermined image processing on an image captured using the camera 11 and detects an object from the captured image.
  • the camera ECU 12 obtains azimuth data in which the detected object exists.
  • the azimuth angle indicating the azimuth is calculated from the angle with respect to the reference azimuth and used as azimuth data.
  • the camera ECU 12 constitutes an orientation sensor by the camera 11 and the image processing function.
  • the orientation data obtained by the camera ECU 12 is stored in the storage unit 13 connected to the camera ECU 12.
  • the storage unit 13 is a storage device such as a memory.
  • the sonar 21 is a device that measures the distance to an object using, for example, ultrasonic waves, and corresponds to a distance sensor.
  • the sonar 21 is connected to the sonar ECU 22.
  • the sonar ECU 22 obtains distance data from the detection result of the sonar 21.
  • the time required from transmission of a radio wave to reception of a reflected wave from an object is converted into distance and used as distance data.
  • the distance data obtained by the sonar ECU 22 is stored in the storage unit 23 connected to the sonar ECU 22.
  • the storage unit 23 is a storage device such as a memory.
  • the position specifying unit 30 acquires the orientation data of the object from the camera ECU 12 and the distance data from the sonar ECU 22 to the object.
  • the position specifying unit 30 detects the position of the object based on the azimuth data and the distance data.
  • FIG. 2 is a diagram illustrating the principle of the position detection of the object by the position specifying unit 30.
  • FIG. 2A is a diagram showing a grid map viewed from the vehicle.
  • the position specifying unit 30 has a grid map GM of a polar coordinate system having the installation position of the camera 11 and the sonar 21 in the vehicle 90 as the origin (pole).
  • the grid map GM has a azimuth coordinate axis and a distance coordinate axis.
  • the position specifying unit 30 includes a grid area R1 (first grid area) including object orientation data obtained by the camera ECU 12, and a grid area R2 (second grid) containing object distance data obtained by the sonar ECU 22. Area) is specified on the grid map GM.
  • the position specifying unit 30 specifies the grid A where the two specified grid regions R1 and R2 overlap as a grid in which an object exists. That is, the position specifying unit 30 specifies the common grid A in the two specified grid regions R1 and R2.
  • the object T1 is present obliquely to the left of the vehicle 90.
  • the azimuth data azimuth angle
  • the distance to the object T1 is not known.
  • the object T1 is located in the third grid region R1 from the left (within a range of ⁇ 20 ° to ⁇ 30 °) in the grid map GM.
  • the object T1 exists in the sixth concentric grid region R2 counted from the polar coordinate origin in the grid map GM.
  • the position specifying unit 30 superimposes the grid region R1 including the azimuth data and the grid region R2 including the distance data on the grid map GM of the polar coordinate system. Accordingly, it can be seen that the object T1 exists in the grid A, which is an area where the grid area R1 of the orientation data and the grid area R2 of the distance data overlap. That is, it can be seen that the object T1 exists in a common data area for the azimuth data and the distance data.
  • the above is the principle of object detection by the object detection apparatus 1 of the present embodiment.
  • the object detection device 1 of the present embodiment includes a plurality of sonars 21.
  • FIG. 3 is a diagram showing an example of the camera 11 and the sonars 21a to 21d attached to the vehicle 90.
  • Sonars 21 a and 21 b are installed on the left side of the camera 11, and sonars 21 c and 21 d are installed on the right side of the camera 11. According to this configuration, it is possible to detect the position of an object existing in a range where the shooting range D1 of the camera 11 and the detection ranges D2a to D2d of the sonars 21a to 21d overlap.
  • the detection ranges D2a to D2d of the sonars 21a to 21d are different.
  • the installation position of the camera 11 and the installation positions of the sonars 21a to 21d are shifted. Considering this point, the distance data detected by the sonars 21a to 21d is converted into a polar coordinate system of the azimuth data detected by the camera 11.
  • FIG. 4 is a diagram for explaining object detection when there are two objects T1 and T2.
  • FIG. 4A is a diagram showing a grid map GM viewed from the position where the camera 11 is mounted.
  • the objects T1 and T2 exist on the left oblique front and right oblique front of the vehicle 90.
  • the object T1 is located in the third grid region R11 from the left (within a range of ⁇ 20 ° to ⁇ 30 °) in the grid map GM from the orientation data obtained from the captured image of the camera 11. I understand. It can also be seen that the object T2 is located in the third grid region R12 from the right (within a range of 20 ° to 30 °).
  • the object detection apparatus 1 has a third concentric circle shape from the third grid region R11 (from ⁇ 20 ° to ⁇ 30 °) from the left and the polar coordinate origin on the grid map GM. Are overlapped with the grid region R21.
  • the object detection apparatus 1 detects that the object T1 exists in the grid A where two grid area
  • the right sonar 21c also detects the object T2, and its distance data indicates that the object T2 is located in the fourth concentric grid region R22 counted from the polar coordinate origin.
  • the right sonar 21c has a detection range D2c diagonally forward to the right. Therefore, it can be seen that the object detected by the right sonar 21c is not the object T1 located in the third grid region R11 from the left (within a range of ⁇ 20 ° to ⁇ 30 °).
  • the object detection device 1 Similar to when the object T1 is detected, the object detection device 1 has a fourth concentric grid region R22 from the origin of polar coordinates and a third grid region R12 (20 ° from the right) on the polar coordinate grid map GM. Over the range of ⁇ 30 °. Thereby, the object detection apparatus 1 detects that the object T2 exists in the grid B where two grid area
  • FIG. 5 is a flowchart showing the object detection process executed by the object detection apparatus 1.
  • the object detection device 1 detects an object from the photographed image of the camera 11 by the camera ECU 12, and acquires azimuth data (azimuth angle) of the object (S10).
  • the camera ECU 12 stores the acquired data in the storage unit 13.
  • the object detection device 1 acquires distance data in which an object exists from the detection result of the sonar 21 by the sonar ECU 22 (S11).
  • the sonar ECU 22 stores the acquired data in the storage unit 23.
  • the object detection device 1 causes the position specifying unit 30 to superimpose the azimuth data and the distance data of the sonar 21 whose detection range is the azimuth indicated by the data on the grid map GM.
  • the grid to be specified is specified (S12).
  • the position specifying unit 30 specifies a grid area R1 including orientation data and a grid area R2 including distance data on the grid map GM of the polar coordinate system.
  • the position specifying unit 30 specifies a common grid A in the two specified grid regions R1 and R2.
  • the object detection device 1 outputs the specified grid data as an object detection result to the external device via the output unit 31 (S13).
  • An example of the external device is an operation control device (not shown).
  • the driving control device performs various driving controls on the vehicle based on the detected position data of the object (output data from the object detecting device 1).
  • the operation control device controls the operation of the vehicle as follows.
  • the vehicle includes various actuators such as a steering drive device, an accelerator drive device, and a brake drive device.
  • the steering drive device rotationally drives the steering shaft.
  • the accelerator driving device drives an accelerator pedal.
  • the brake drive device drives a brake pedal.
  • the driving control device detects outputs from a vehicle speed sensor, a steering angle sensor, an accelerator sensor, and a brake sensor, and generates control signals for various actuators to be driven.
  • the operation control device transmits the generated control signal to the actuator. Accordingly, the driving control device controls driving of the steering driving device, the accelerator driving device, the brake driving device, and the like, thereby controlling the driving of the vehicle.
  • the function of the position specifying unit 30 that realizes the operation of the object detection device 1 described above is realized by executing a program in an electronic control unit (ECU).
  • ECU electronice control unit
  • a non-transitional tangible recording medium in which such a program is recorded is also included in the technology of the present disclosure.
  • a schematic configuration of the ECU that realizes the function of the position specifying unit 30 will be described with reference to FIG. 6.
  • the ECU 100 includes a power supply circuit 101, an MPU 102, an input / output circuit 103, and the like.
  • the power supply circuit 101 controls power supplied to the MPU 102.
  • the input / output circuit 103 controls signal input to the MPU 102 and signal output from the MPU 102.
  • the output function of the input / output circuit 103 corresponds to the output unit 31.
  • the MPU 102 includes a CPU 201, a memory 202, an I / O unit 203, and the like.
  • the CPU 201 is a processing device that includes an arithmetic circuit, a control circuit, a register, and the like.
  • the memory 202 is a storage device such as a semiconductor memory such as a ROM or a RAM.
  • the I / O unit 203 is an input / output interface with an external device. These are connected to the bus B so that they can communicate with each other.
  • the ECU 100 reads out a program stored in the memory 202, for example, and the CPU 201 executes the read program.
  • the ECU 100 provides various functions with such a configuration.
  • the position specifying unit 30 is not limited to the implementation method using the software configuration as described above, and may be implemented using a hardware configuration.
  • the position specifying unit 30 can be realized using, for example, an electronic circuit including an LSI and a memory. Further, the position specifying unit 30 may be realized by combining a software configuration (function provided by the ECU) and a hardware configuration (function provided by an electronic circuit).
  • the object detection apparatus 1 is based on a grid map GM in a polar coordinate system in which the orientation of the object detected by the camera 11 and the distance to the object detected by the sonar 21 are the origins of the installation positions of the camera 11 and sonar 21. To map. Then, the object detection device 1 identifies, on the grid map GM, a grid where the orientation mapping result (grid region including the orientation data) and the distance mapping result (grid region including the distance data) overlap as the position of the object. To do. Thereby, the advantages of the camera 11 and the sonar 21 can be integrated, and the position of the object can be detected easily and accurately.
  • the object detection device 1 of the present embodiment includes a plurality of sonars 21 having different detection ranges. Thereby, even when there are a plurality of objects in the vicinity of the vehicle 90, the detection results of the camera 11 and the sonar 21 can be superimposed on the grid map GM to specify the position of the object.
  • the object detection apparatus of 2nd Embodiment is demonstrated.
  • the basic configuration of the object detection device of this embodiment is the same as that of the first embodiment (see FIG. 1).
  • the object detection device of this embodiment is different from the first embodiment in the following points.
  • the position specifying unit 30 detects that the objects detected in the plurality of grids are the same based on the detection result of the object from the image data. Judge whether the object.
  • the position specifying unit 30 associates the object detected from the image data received from the camera ECU 12 with the grid where the object exists.
  • the object detection device of the present embodiment detects an object detection result (image) in addition to azimuth data and distance data. Analysis result) is used.
  • object detection result image
  • analysis result is used.
  • FIG. 7 is a flowchart showing object detection processing executed by the object detection device 1 of the present embodiment.
  • the object detection process of this embodiment is the same as the object detection process executed by the object detection apparatus 1 of the first embodiment.
  • Steps S20 to S22 and S24 shown in FIG. 7 correspond to steps S10 to S13 of FIG. 5, respectively.
  • the position specifying unit 30 specifies the grid where the object exists based on the azimuth data and the distance data (S22).
  • FIG. 8 is a diagram for explaining object detection when the same object exists across a plurality of grids.
  • the object T3 exists on the left front side of the vehicle 90.
  • the object detection apparatus may specify a plurality of discontinuous grids as the grid on which the object exists. Specifically, in the example illustrated in FIG. 8A, it is desirable to specify four consecutive grids as the grid on which the object T3 exists.
  • FIG. 8 it is desirable to specify four consecutive grids as the grid on which the object T3 exists.
  • the position specifying unit 30 specifies an object based on the detection result of the object from the image data, and associates the specified object with the grid in which the object exists ( S23). Specifically, the position specifying unit 30 first performs edge detection processing (feature extraction processing) on the image data acquired from the camera ECU 12.
  • the edge detection process may be executed by the camera ECU 12, and in this case, the processing result may be input to the position specifying unit 30.
  • the position specifying unit 30 determines whether the objects detected in the plurality of grids are the same object based on the edge detection result. For example, the edge detection result (feature point extraction result) in the same image area is different between the case where one object exists in the image area and the case where a plurality of different objects exist.
  • the position specifying unit 30 uses this detection characteristic to specify objects detected in a plurality of grids. In other words, the position specifying unit 30 specifies an object that exists across a plurality of grids based on the detection result of the object from the image data.
  • the position specifying unit 30 associates the specified object with the grid in which the object exists.
  • the position specifying unit 30 also includes grids E and F positioned between the grids C and D in addition to the grids C and D specified as the grid on which the object T3 exists.
  • the object T3 is associated as a grid. That is, the position specifying unit 30 associates four consecutive grids C, D, E, and F as the grid on which the object T3 exists.
  • the object detection device 1 specifies a grid where an object exists based on the azimuth data and the distance data. Furthermore, the object detection apparatus 1 associates the object specified based on the detection result from the image data with the grid on which the object exists. As a result, the object detection apparatus 1 according to the present embodiment, for example, as shown in FIG. 8B, even if an object T3 that exists across a plurality of grids is detected in a missing state on the grid map GM of the polar coordinate system. Based on the image analysis result, the position where the object is present can be specified with high accuracy.
  • the object detection device 1 uses the image analysis result to determine the azimuth data and the distance data even when a plurality of discontinuous grids are specified as the grid where the same object exists.
  • the accuracy of the technique for specifying the position of the object based on the above can be improved.
  • image analysis since image analysis has already been performed, there is an effect that it is not necessary to perform object recognition processing in a later process.
  • the object detection device and the object detection method of the present disclosure have been described in detail with specific embodiments, but the technology of the present disclosure is not limited to the above content.
  • the sonar 21 is exemplified as the distance sensor.
  • the distance sensor is not limited to the sonar, and for example, a millimeter wave radar or a Lidar sensor may be used.
  • the orientation sensor is not limited to the camera, and for example, a Lidar sensor can be used.
  • the distance data is stored in the storage unit 23 connected to the sonar ECU 22 and the azimuth data is stored in the storage unit 13 connected to the camera ECU 12 in the above embodiment, the present invention is not limited to this.
  • the distance data may be stored in a memory included in the sonar ECU 22.
  • the azimuth data may be stored in a memory provided in the camera ECU 12.
  • the storage destination of the distance data and the azimuth data may be either a memory provided in the ECU or a storage device connected to the ECU, as long as each data can be used in other functions such as vehicle control.
  • the ECU that realizes the function of the position specifying unit 30 is an ECU different from the camera ECU 12 or the sonar ECU 22 is described, but the present invention is not limited thereto.
  • the camera ECU 12 may be an ECU that realizes the function of the position specifying unit 30.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

物体検知装置(1)は、カメラ(11)の撮影画像から物体を検出し、当該物体が存在する方向を特定することで、物体の方位を測定するカメラ用ECU(12)と、車両の周辺に存在する物体までの距離を測定するソナー(21)と、測定された方位データと距離データとを極座標系のグリッドマップ(GM)上で重ね合わせて、グリッドマップ上において、物体が存在するグリッドを特定することで、物体の位置を特定する位置特定部(30)と、を備える。

Description

物体検知装置、物体検知方法、および記録媒体
 本開示は、車両の周辺に存在する物体を検知する物体検知技術に関する。
 車両の運転支援を行うため、あるいは、自動運転制御等のために、車両の周辺に存在する物体を検知する技術が研究、開発されている。特許文献1は、前方障害物までの距離だけでなく、障害物の横位置をも測定することにより、測定結果に基づき車両の安全運転を確保する技術を開示している。この技術は、障害物の横方向の広がりも検知することを目的として、画像情報と距離情報とに基づいて、2つの障害物の横位置を算出し、算出した横位置と距離情報とに基づいて、2つの障害物の2次元位置を測定する。
 特許文献2は、分解能に優れた3次元物体の認識を行う技術を開示している。この技術は、まず、平面上に配列された超音波センサによって、物体の表面までの距離情報の平面分布を測定し、測定した距離情報に基づいて、物体の第1立体像を抽出する。続いて、第1立体像の位置情報に基づいて、カメラを用いて撮像された画像から物体の平面像を抽出する。そして、抽出した平面像と第1立体像とを合成して、精細な第2立体像を生成する。
特開2000-123298号公報 特開平6-174839号公報
 本開示は、方位データと距離データとの2つの1次元情報に基づいて、簡易に物体を検知する技術を提供する。
 本開示は、上記課題を解決するために、以下の技術的構成を採用する。なお、括弧内の符号は、ひとつの態様として後述する実施の形態に記載の構成との対応関係を示す一例である。よって、本開示の技術的範囲を限定するものではない。
 本開示の技術の一態様である物体検知装置は、車両の周辺に存在する物体の方位を測定する方位センサ(11,12)と、前記車両から前記物体までの距離を測定する距離センサ(21)と、前記方位センサ(11,12)を用いて測定した方位のデータと前記距離センサ(21)を用いて測定した距離のデータとを重ね合わせて、前記物体の位置を特定する位置特定部(30)と、を備える。前記位置特定部(30)は、車両を中心とする極座標系のグリッドマップを有し、前記距離のデータと前記方位のデータとに基づいて、前記グリッドマップ上において物体が存在するグリッドを特定してもよい。
 本開示の物体検知装置は、方位センサ(11,12)を用いて測定した方位データと距離センサ(21)を用いて測定した距離データという、それぞれ1次元の情報を所定の座標空間において重ね合わせる。その結果、方位データと距離データとで共通するデータ領域を特定する。これにより、方位と距離との1次元情報に基づいて、容易に物体が存在する位置を特定することができる。例えば物体検知装置は、極座標系のグリッドマップにおいて、方位センサを用いて測定した方位データを含むグリッド領域と距離センサを用いて測定した距離データを含むグリッド領域とを特定する。そして、特定した2つのグリッド領域において、共通するグリッド(物体が存在するグリッド)を特定してもよい。
 本開示の物体検知装置は、検知範囲の異なる複数の距離センサ(21)を有し、前記位置特定部(30)は、前記方位のデータ、前記距離のデータ、および前記距離センサ(21)の検知範囲のデータに基づいて、前記物体の位置を特定してもよい。この構成により、本開示の物体検知装置では、車両の周辺に複数の物体が存在する場合であっても、距離データと方位データとに基づいて、各物体の位置を特定することができる。
 本開示の物体検知装置は、前記方位センサ(11,12)を制御する方位センサ用ECU(12)と、前記距離センサ(21)を制御する距離センサ用ECU(22)と、を備え、前記方位センサ用ECU(12)は、前記方位センサ(11,12)を用いて測定した方位のデータをメモリに記憶し、前記距離センサ用ECU(22)は、前記距離センサ(21)を用いて測定した距離のデータをメモリに記憶し、前記位置特定部(30)は、前記方位センサ用ECU(12)に記憶された方位のデータと前記距離センサ用ECU(22)に記憶された距離のデータとを重ね合わせて、物体の位置を特定してもよい。このように、距離のデータを記憶しておく構成とすることで、例えば、距離のデータを、車両制御(近距離PCS、踏み間違え防止など)に活用することができる。
 本開示の物体検知装置は、車両の周辺に存在する物体を撮影するカメラ(11)と、前記カメラ(11)を用いて撮影された画像から前記物体を検出し、当該物体が存在する方向を特定する画像処理部(12)と、前記車両から前記物体までの距離を測定する距離センサ(21)と、前記画像処理部(12)によって特定された方位のデータと前記距離センサ(21)を用いて測定した距離のデータとに基づいて、車両を中心とする極座標系のグリッドマップ上において、物体が存在するグリッドを特定する位置特定部(30)と、を備え、前記位置特定部(30)は、複数のグリッドにおいて物体が検知されたときに、前記画像処理部(12)から得られる画像データからの前記物体の検出結果に基づいて、複数のグリッドにまたがって存在する同一の物体を特定する。この構成により、本開示の物体検知装置は、複数のグリッドにおいて検知された物体が同一の物体かを認識することができる。
 本開示の物体検知方法は、車両に備えられた方位センサ(11,12)から、前記車両の周辺に存在する物体の方位のデータを取得するステップと、前記車両に備えられた距離センサ(21)から、前記車両から前記物体までの距離のデータを取得するステップと、前記方位のデータと前記距離のデータとを重ね合わせて、前記物体の位置を特定するステップと、を含む。
 本開示の記録媒体は、車両の周辺に存在する物体を検知するためのプログラムを記録した記録媒体であって、前記車両に備えられた方位センサ(11,12)から、前記車両の周辺に存在する物体の方位のデータを取得するステップと、前記車両に備えられた距離センサ(21)から、前記車両から前記物体までの距離のデータを取得するステップと、前記方位のデータと前記距離のデータとを重ね合わせて、前記物体の位置を特定するステップと、をECUに実行させる前記プログラムを記録する。
 本開示の技術は、方位センサと距離センサとから得られる1次元情報を用いて、簡易な構成で物体が存在する位置を特定することができる。
第1実施形態の物体検知装置の構成を示す図である。 物体の位置検知の原理を示す図である。 物体の位置検知の原理を示す図である。 車両におけるカメラおよびソナーの取り付け例を示す図である。 複数の物体が存在するときの物体検知の例を示す図である。 複数の物体が存在するときの物体検知の例を示す図である。 第1実施形態の物体検知装置で実行される処理を示すフローチャートである。 ECUの概略構成を示す図である。 第2実施形態の物体検知装置で実行される処理を示すフローチャートである。 同一の物体が複数のグリッドにまたがって存在するときの物体検知の例を示す図である。 同一の物体が複数のグリッドにまたがって存在するときの物体検知の例を示す図である。 同一の物体が複数のグリッドにまたがって存在するときの物体検知の例を示す図である。 変形例の物体検知装置の構成を示す図である。
 以下、本開示の技術の一態様である実施形態について図面を参照しながら説明する。
(第1実施形態)
 図1は、第1実施形態の物体検知装置1の構成を示す図である。物体検知装置1は、車両に搭載されて用いられ、車両の周辺に存在する物体を検知する機能を有する。物体検知装置1は、カメラ11と、ソナー21と、位置特定部30と、出力部31と、を有している。
 カメラ11は、カメラ用ECU12に接続されている。カメラ用ECU12は、画像処理機能(画像処理部に相当する)を有している。カメラ用ECU12は、カメラ11を用いて撮影された画像に対し、所定の画像処理を行い、撮影画像から物体を検出する。カメラ用ECU12は、検出した物体が存在する方位のデータを求める。本実施形態では、基準方位に対する角度によって方位を示す方位角を算出し、方位のデータとする。このように、カメラ用ECU12は、カメラ11と画像処理機能とによって、方位センサを構成している。カメラ用ECU12によって求められた方位データは、カメラ用ECU12に接続された記憶部13に記憶される。なお、記憶部13は、例えばメモリ等の記憶装置である。
 ソナー21は、例えば超音波によって物体までの距離を測定する機器であり、距離センサに相当する。ソナー21は、ソナー用ECU22に接続されている。ソナー用ECU22は、ソナー21の検知結果から物体までの距離のデータを求める。本実施形態では、電波を送信してから物体からの反射波を受信するまでの所要時間を距離に換算し、距離のデータとする。ソナー用ECU22によって求められた距離データは、ソナー用ECU22に接続された記憶部23に記憶される。なお、記憶部23は、例えばメモリ等の記憶装置である。
 位置特定部30は、カメラ用ECU12から物体の方位データを取得すると共に、ソナー用ECU22から物体までの距離データを取得する。位置特定部30は、方位データと距離データとに基づいて、物体の位置を検知する。
 図2は、位置特定部30による物体の位置検知の原理を示す図である。図2Aは、車両から見たグリッドマップを示す図である。位置特定部30は、車両90におけるカメラ11およびソナー21の設置位置を原点(極)とする極座標系のグリッドマップGMを有する。グリッドマップGMは、方位の座標軸と距離の座標軸とを有する。位置特定部30は、カメラ用ECU12によって求められた物体の方位データを含むグリッド領域R1(第1グリッド領域)と、ソナー用ECU22によって求められた物体の距離データを含むグリッド領域R2(第2グリッド領域)とを、グリッドマップGM上において特定する。そして、位置特定部30は、特定した2つのグリッド領域R1,R2が重なり合うグリッドAを、物体が存在するグリッドとして特定する。つまり、位置特定部30は、特定した2つのグリッド領域R1,R2において、共通するグリッドAを特定する。図2Aに示す例では、車両90の左斜め前方に物体T1が存在する。この場合、カメラ11の撮影画像から求められる方位データ(方位角)からは、物体T1までの距離は分からない。しかし、方位データからは、物体T1が、グリッドマップGMにおいて、左から3番目のグリッド領域R1内(-20°~-30°の範囲内)に位置することが分かる。また、ソナー21の検知結果から求められる距離データからは、物体T1がどの方向に存在するかは分からない。しかし、距離データからは、物体T1が、グリッドマップGMにおいて、極座標の原点から数えて6番目の同心円状のグリッド領域R2内に位置することが分かる。図2Bに示すように、位置特定部30は、極座標系のグリッドマップGM上で、方位データを含むグリッド領域R1と距離データを含むグリッド領域R2とを重ね合わせる。これにより、物体T1が、方位データのグリッド領域R1と距離データのグリッド領域R2とが重なり合う領域であるグリッドAに存在することが分かる。つまり、物体T1が、方位データと距離データとで共通するデータ領域に存在することが分かる。以上が、本実施形態の物体検知装置1による物体検知の原理である。
 本実施形態の物体検知装置1は、複数のソナー21を備えている。図3は、車両90に取り付けられたカメラ11及びソナー21a~21dの例を示す図である。カメラ11の左側には、ソナー21a,21bが設置され、カメラ11の右側には、ソナー21c,21dが設置されている。この構成によれば、カメラ11の撮影範囲D1とソナー21a~21dの検知範囲D2a~D2dとが重なる範囲に存在する物体の位置を検知できる。ソナー21a~21dの検知範囲D2a~D2dは異なっている。また、カメラ11の設置位置とソナー21a~21dの設置位置はずれている。この点を考慮し、ソナー21a~21dによって検知した距離データは、カメラ11で検知した方位データの極座標系に変換される。
 本実施形態の物体検知装置1は、検知範囲の異なる複数のソナー21を備えているので、車両90の周辺に複数の物体が存在する場合であっても、各物体の位置を検知することができる。図4は、2つの物体T1,T2が存在する場合の物体検知について説明をするための図である。図4Aは、カメラ11が搭載された位置から見たグリッドマップGMを示す図である。図4Aに示す例では、車両90の左斜め前方と右斜め前方に物体T1,T2が存在する。この場合、カメラ11の撮影画像から求められる方位データからは、物体T1が、グリッドマップGMにおいて、左から3番目のグリッド領域R11内(-20°~-30°の範囲内)に位置することが分かる。また、物体T2が、右から3番目のグリッド領域R12内(20°~30°の範囲内)に位置することが分かる。
 カメラ11の左側に設置されたソナー21bは、左斜め前方に検知範囲D2bを有し、カメラ11の右側に設定されたソナー21cは、右斜め前方に検知範囲D2cを有するとする。左側のソナー21bによって物体T1を検知し、その距離データからは、物体T1が、グリッドマップGMにおいて、極座標の原点から数えて6番目の同心円状のグリッド領域R21内に位置することが分かる。したがって、図4Bに示すように、物体検知装置1は、グリッドマップGM上において、左から3番目のグリッド領域R11(-20°~-30°の範囲)と極座標の原点から6番目の同心円状のグリッド領域R21とを重ね合わせる。これにより、物体検知装置1は、2つのグリッド領域R11,R21が重なり合うグリッドAに物体T1が存在することを検知する。右側のソナー21cも物体T2を検知し、その距離データからは、物体T2が、極座標の原点から数えて4番目の同心円状のグリッド領域R22内に位置することを示している。しかし、右側のソナー21cは、右斜め前方に検知範囲D2cを有する。よって、右側のソナー21cが検知した物体は、左から3番目のグリッド領域R11内(-20°~-30°の範囲内)に位置する物体T1でないことが分かる。
 物体T1を検知したときと同様に、物体検知装置1は、極座標系のグリッドマップGM上において、極座標の原点から4番目の同心円状のグリッド領域R22と右から3番目のグリッド領域R12(20°~30°の範囲)とを重ね合わせる。これにより、物体検知装置1は、2つのグリッド領域R12,R22が重なり合うグリッドBに物体T2が存在することを検知する。このように、物体検知装置1では、ソナー21a~21dの検知範囲D2a~D2dを考慮することで、複数の物体が存在する場合であっても、各物体の位置を特定することができる。
 図5は、物体検知装置1で実行される物体検知処理を示すフローチャートである。物体検知装置1は、カメラ用ECU12によって、カメラ11の撮影画像から物体を検出し、物体の方位データ(方位角)を取得する(S10)。カメラ用ECU12は、取得したデータを記憶部13に記憶する。物体検知装置1は、ソナー用ECU22によって、ソナー21の検知結果から物体が存在する距離データを取得する(S11)。ソナー用ECU22は、取得したデータを記憶部23に記憶する。
 次に、物体検知装置1は、位置特定部30によって、方位データと、当該データによって示される方位を検知範囲とするソナー21の距離データと、をグリッドマップGM上で重ね合わせて、物体が存在するグリッドを特定する(S12)。具体的には、位置特定部30は、極座標系のグリッドマップGM上において、方位データを含むグリッド領域R1と距離データを含むグリッド領域R2とを特定する。そして、位置特定部30は、特定した2つのグリッド領域R1,R2において、共通するグリッドAを特定する。物体検知装置1は、特定したグリッドのデータを物体検知結果として、出力部31を介して外部装置に出力する(S13)。外部装置としては、例えば運転制御装置(非図示)等が挙げられる。これにより、運転制御装置は、検知された物体の位置のデータ(物体検知装置1からの出力データ)に基づいて、車両に対する各種運転制御を行う。その結果、例えば、車両の進行方向に物体が検知された場合には、物体を避けるような走行経路を計算し、車両の走行を制御したり、車両の至近距離において物体が検知された場合には、車両を停止させたりできる。なお、運転制御装置は、次のように車両の運転を制御する。車両は、ステアリング駆動装置、アクセル駆動装置、ブレーキ駆動装置等の各種アクチュエータを備える。ステアリング駆動装置は、ステアリングシャフトを回転駆動する。アクセル駆動装置は、アクセルペダルを駆動する。ブレーキ駆動装置は、ブレーキペダルを駆動する。これらの駆動装置は、通信可能な状態で運転制御装置に接続されている。運転制御装置は、車速センサ、操舵角センサ、アクセルセンサ、ブレーキセンサからの出力を検出し、駆動させる各種アクチュエータに対する制御信号を生成する。運転制御装置は、生成した制御信号をアクチュエータに送信する。これにより、運転制御装置は、ステアリング駆動装置、アクセル駆動装置、ブレーキ駆動装置等の駆動を制御し、車両の運転を制御する。
 以上に説明した物体検知装置1の動作を実現する位置特定部30の機能は、電子制御ユニット(ECU)にてプログラムを実行することによって実現される。このようなプログラムを記録した非遷移的実体的記録媒体も本開示の技術に含まれる。ここで位置特定部30の機能を実現するECUの概略構成について図6を用いて説明する。なお、以降に説明する概略構成については、他のECU12,22においても同様である。ECU100は、電源回路101、MPU102、および入出力回路103等を備える。電源回路101は、MPU102への供給電力を制御する。入出力回路103は、MPU102への信号入力、および、MPU102からの信号出力を制御する。入出力回路103の出力機能は、出力部31に相当する。MPU102は、CPU201、メモリ202、およびI/Oユニット203等を備える。CPU201は、演算回路、制御回路、およびレジスタ等を備える処理装置である。メモリ202は、ROMやRAMといった半導体メモリ等の記憶装置である。I/Oユニット203は、外部デバイスとの入出力インタフェースである。これらは、相互に通信可能となるようにバスBに接続されている。ECU100は、例えばメモリ202に記憶されたプログラムを読み出し、読み出したプログラムをCPU201が実行する。ECU100は、このような構成により、各種機能を提供する。なお、位置特定部30は、上述したようなソフトウェア構成による実現方法に限らず、ハードウェア構成によって実現してもよい。位置特定部30は、例えばLSIやメモリを含む電子回路を用いて実現できる。さらに、位置特定部30は、ソフトウェア構成(ECUにより提供される機能)およびハードウェア構成(電子回路により提供される機能)を組合せることによって実現してもよい。
 本実施形態の物体検知装置1は、カメラ11で検知した物体の方位とソナー21で検知した物体までの距離とを、カメラ11およびソナー21の設置位置を原点とする極座標系のグリッドマップGM上にマッピングする。そして、物体検知装置1は、グリッドマップGM上において、方位のマッピング結果(方位データを含むグリッド領域)と距離のマッピング結果(距離データを含むグリッド領域)とが重なり合うグリッドを、物体の位置として特定する。これにより、カメラ11とソナー21との長所を融合して、簡易かつ正確に物体の位置を検知できる。
 また、本実施形態の物体検知装置1は、検知範囲の異なる複数のソナー21を備える。これにより、車両90の周辺に複数の物体が存在する場合であっても、カメラ11とソナー21とによる検知結果を、グリッドマップGM上で重ね合わせて、物体の位置を特定することができる。
(第2実施形態)
 次に、第2実施形態の物体検知装置について説明する。本実施形態の物体検知装置の基本的な構成は、第1実施形態と同じである(図1参照)。本実施形態の物体検知装置は、次の点で第1実施形態と異なる。本実施形態の物体検知装置は、複数のグリッドにおいて物体が検知された場合に、位置特定部30が、画像データからの物体の検出結果に基づいて、複数のグリッドにおいて検知された物体が同一の物体か否かを判断する。複数のグリッドにおいて検知された物体が同一の物体と判断された場合、位置特定部30は、カメラ用ECU12から受信した画像データから検出された物体と、物体が存在するグリッドと、を対応付ける。本実施形態の物体検知装置は、方位データと距離データとに基づいて物体の位置を特定する技術の精度を高めるために、方位データと距離データに加え、画像データからの物体の検出結果(画像解析結果)を用いる。なお、以降の説明では、第1実施形態と同じ点については同一の参照符号を付し、その説明を省略する。
 図7は、本実施形態の物体検知装置1で実行される物体検知処理を示すフローチャートである。本実施形態の物体検知処理は、第1実施形態の物体検知装置1で実行される物体検知処理と、基本的な処理が同じである。図7に示すステップS20~S22、S24は、それぞれ図5のステップS10~S13に対応する。
 本実施形態の物体検知装置1は、位置特定部30によって、方位データと距離データとに基づいて、物体が存在するグリッドを特定する(S22)。図8は、同一の物体が複数のグリッドにまたがって存在するときの物体検知について説明するための図である。図8Aに示す例では、車両90の左斜め前方に物体T3が存在する。このように、同一の物体が複数のグリッドにまたがって存在する場合、物体検知装置は、物体が存在するグリッドとして、非連続な複数のグリッドを特定してしまうことが考えられる。具体的には、図8Aに示す例では、物体T3が存在するグリッドとして、連続する4つのグリッドを特定することが望ましい。しかしながら、物体検知装置では、図8Bに示すように、物体T3が存在するグリッドとして、非連続な2つのグリッドC,Dを特定してしまう場合がある。つまり、物体検知装置では、同一の物体が複数のグリッドにまたがって存在する場合、同一の物体を異なる複数の物体として検知してしまうことが考えられる。このような事象が発生する理由には、例えば方位センサや距離センサ等の検出範囲の有限性や検出結果のデータ特性が挙げられる。そこで、本実施形態の物体検知装置1では、位置特定部30が、画像データからの物体の検出結果に基づいて物体を特定し、特定した物体と、当該物体が存在するグリッドと、を対応付ける(S23)。具体的には、位置特定部30は、まず、カメラ用ECU12から取得した画像データに対し、エッジ検出処理(特徴抽出処理)を行う。なお、エッジ検出処理については、カメラ用ECU12によって実行されてもよく、この場合には、処理結果が位置特定部30に入力される構成であってもよい。位置特定部30は、エッジの検出結果に基づいて、複数のグリッドにおいて検知された物体が同一の物体か否かを判断する。例えば同じ画像領域におけるエッジの検出結果(特徴点の抽出結果)は、当該画像領域に1つの物体が存在する場合と異なる複数の物体が存在する場合とでは異なる。位置特定部30は、この検出特性を利用して、複数のグリッドにおいて検知された物体を特定する。換言すれば、位置特定部30は、画像データからの物体の検出結果に基づいて、複数のグリッドにまたがって存在する物体を特定する。その結果、複数のグリッドにおいて検知された物体が同一の物体である場合、位置特定部30は、特定した物体と、当該物体が存在するグリッドと、を対応付ける。具体的には、位置特定部30は、図8Cに示すように、物体T3が存在するグリッドとして特定したグリッドC,Dに加えて、当該グリッドC,Dの間に位置するグリッドE,Fも、物体T3が存在するグリッドとして対応付ける。つまり、位置特定部30は、物体T3が存在するグリッドとして、連続する4つのグリッドC,D,E,Fを対応付ける。
 本実施形態の物体検知装置1は、方位データと距離データとに基づいて、物体が存在するグリッドを特定する。さらに、物体検知装置1は、画像データからの検出結果を基に特定した物体と、当該物体が存在するグリッドと、を対応付ける。これにより、本実施形態の物体検知装置1は、例えば図8Bに示すように、複数のグリッドにまたがって存在する物体T3が極座標系のグリッドマップGM上において歯抜けの状態で検知されたとしても、画像解析結果に基づいて、精度良く物体がある位置を特定することができる。換言すれば、本実施形態の物体検知装置1は、同一の物体が存在するグリッドとして非連続な複数のグリッドが特定されたとしても、画像解析結果を利用することで、方位データと距離データとに基づいて物体の位置を特定する技術の精度を高めることができる。また、すでに画像解析を行っていることから、後の工程で物体の認識処理を行なう必要がなくなるという効果もある。
 以上、本開示の物体検知装置、及び、物体検知方法について、具体的な実施形態を挙げて詳細に説明したが、本開示の技術は、上記内容に限定されるものではない。
 上記実施形態では、距離センサとしてソナー21を例として挙げたが、距離センサはソナーに限らず、例えば、ミリ波レーダーやLidarセンサを用いることもできる。また、方位センサについても、カメラに限らず、例えば、Lidarセンサを用いることもできる。
 上記実施形態では、距離データはソナー用ECU22に接続された記憶部23に記憶され、方位データはカメラ用ECU12に接続された記憶部13に記憶される例について説明したが、この限りでない。例えば、距離データは、ソナー用ECU22が備えるメモリに記憶されてもよい。方位データは、カメラ用ECU12が備えるメモリに記憶されてもよい。つまり、距離データや方位データの記憶先は、ECUが備えるメモリであってもECUに接続された記憶装置であっても、どちらでもよく、車両制御等の他の機能において各データが利用できればよい。
 上記実施形態では、位置特定部30の機能を実現するECUが、カメラ用ECU12やソナー用ECU22と異なるECUである例について説明したが、この限りでない。例えば図9に示す物体検知装置2のように、カメラ用ECU12が位置特定部30の機能を実現するECUであってもよい。このように、本開示の技術を実現するために必要なECUは少ない方が好ましい。
1,2 物体検知装置
11 カメラ
12 カメラ用ECU
13 記憶部
21 ソナー
22 ソナー用ECU
23 記憶部
30 位置特定部
31 出力部

Claims (10)

  1.  車両の周辺に存在する物体の方位を測定する方位センサ(11,12)と、
     前記車両から前記物体までの距離を測定する距離センサ(21)と、
     前記方位センサ(11,12)を用いて測定した方位のデータと前記距離センサ(21)を用いて測定した距離のデータとを重ね合わせて、前記物体の位置を特定する位置特定部(30)と、
     を備える、物体検知装置。
  2.  前記位置特定部(30)は、前記車両を中心とする極座標系のグリッドマップ(GM)を有し、
     前記距離のデータと前記方位のデータとに基づいて、前記グリッドマップ上において、前記物体が存在するグリッドを特定することによって、前物体の位置を特定する、請求項1に記載の物体検知装置。
  3.  検知範囲の異なる複数の距離センサ(21)を有し、
     前記位置特定部(30)は、前記方位のデータ、前記距離のデータ、および前記距離センサ(21)の前記検知範囲のデータに基づいて、前記物体の位置を特定する、請求項1または2に記載の物体検知装置。
  4.  前記距離センサ(21)は、ソナー(21)、ミリ波レーダー、またはLidarセンサである、請求項1乃至3のいずれか一項に記載の物体検知装置。
  5.  前記方位センサ(11,12)は、
     前記車両の周辺に存在する前記物体を撮影するカメラ(11)と、
     前記カメラ(11)を用いて撮影された画像から前記物体を検出し、当該物体が存在する方向を特定する画像処理部(12)と、
     を備える、請求項1乃至3のいずれか一項に記載の物体検知装置。
  6.  前記方位センサ(11,12)は、Lidarセンサである、請求項1乃至3のいずれか一項に記載の物体検知装置。
  7.  前記方位センサ(11,12)を制御する方位センサ用ECU(12)と、
     前記距離センサ(21)を制御する距離センサ用ECU(22)と、
     を備え、
     前記方位センサ用ECU(12)は、前記方位センサ(11,12)を用いて測定した前記方位のデータをメモリに記憶し、
     前記距離センサ用ECU(22)は、前記距離センサ(21)を用いて測定した距離のデータをメモリに記憶し、
     前記位置特定部(30)は、前記方位センサ用ECU(12)に記憶された前記方位のデータと前記距離センサ用ECU(22)に記憶された前記距離のデータとを重ね合わせて、前記物体の位置を特定する、請求項1乃至6のいずれか一項に記載の物体検知装置。
  8.  車両の周辺に存在する物体を撮影するカメラ(11)と、
     前記カメラ(11)を用いて撮影された画像から前記物体を検出し、当該物体が存在する方向を特定する画像処理部(12)と、
     前記車両から前記物体までの距離を測定する距離センサ(21)と、
     前記画像処理部(12)にて求めた方位のデータと前記距離センサ(21)を用いて測定した距離のデータとに基づいて、前記車両を中心とする極座標系のグリッドマップ(GM)上において、前記物体が存在するグリッドを特定する位置特定部(30)とを備え、
     前記位置特定部(30)は、複数のグリッドにおいて前記物体が検知されたときに、前記画像処理部(12)から得られる画像データからの前記物体の検出結果に基づいて、複数のグリッドにまたがって存在する同一の物体を特定する、物体検知装置。
  9.  車両に備えられた方位センサ(11,12)から、前記車両の周辺に存在する物体の方位のデータを取得するステップと、
     前記車両に備えられた距離センサ(21)から、前記車両から前記物体までの距離のデータを取得するステップと、
     前記方位のデータと前記距離のデータとを重ね合わせて、前記物体の位置を特定するステップと、
     を含む、物体検知方法。
  10.  車両の周辺に存在する物体を検知するためのプログラムを記録した記録媒体であって、
     前記車両に備えられた方位センサ(11,12)から、前記車両の周辺に存在する前記物体の方位のデータを取得するステップと、
     前記車両に備えられた距離センサ(21)から、前記車両から前記物体までの距離のデータを取得するステップと、
     前記方位のデータと前記距離のデータとを重ね合わせて、前記物体の位置を特定するステップと、
     をECUに実行させる前記プログラムを記録した記録媒体。
PCT/JP2019/008953 2018-03-07 2019-03-06 物体検知装置、物体検知方法、および記録媒体 WO2019172341A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19764676.3A EP3764339A4 (en) 2018-03-07 2019-03-06 OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND RECORDING MEDIA
CN201980016991.3A CN111801718B (zh) 2018-03-07 2019-03-06 物体探测装置、物体探测方法、以及记录介质
US17/012,046 US11954918B2 (en) 2018-03-07 2020-09-04 Object detection device, object detection method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-040816 2018-03-07
JP2018040816A JP2019159380A (ja) 2018-03-07 2018-03-07 物体検知装置、物体検知方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/012,046 Continuation US11954918B2 (en) 2018-03-07 2020-09-04 Object detection device, object detection method, and storage medium

Publications (1)

Publication Number Publication Date
WO2019172341A1 true WO2019172341A1 (ja) 2019-09-12

Family

ID=67847054

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/008953 WO2019172341A1 (ja) 2018-03-07 2019-03-06 物体検知装置、物体検知方法、および記録媒体

Country Status (5)

Country Link
US (1) US11954918B2 (ja)
EP (1) EP3764339A4 (ja)
JP (1) JP2019159380A (ja)
CN (1) CN111801718B (ja)
WO (1) WO2019172341A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6649865B2 (ja) * 2016-10-27 2020-02-19 株式会社Soken 物体検知装置
DE102018115895A1 (de) * 2018-06-30 2020-01-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Erkennung von Hindernissen
JP7406350B2 (ja) * 2019-11-15 2023-12-27 日本信号株式会社 物体検知装置及び物体検知プログラム
US20220185324A1 (en) * 2020-12-10 2022-06-16 Motional Ad Llc Merging LiDAR Information and Camera Information

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06174839A (ja) 1992-12-08 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> 3次元物体像の生成方法
JP2000123298A (ja) 1998-10-13 2000-04-28 Japan Aviation Electronics Industry Ltd 障害物位置検出装置およびその検出方法
JP2001063500A (ja) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd 車両周辺障害物監視装置
JP2015125760A (ja) * 2013-12-27 2015-07-06 日立建機株式会社 鉱山用作業機械
JP2016080539A (ja) * 2014-10-17 2016-05-16 トヨタ自動車株式会社 車載センサ
JP2016101055A (ja) * 2014-11-26 2016-05-30 アイシン精機株式会社 移動体

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2532344B2 (ja) * 1993-08-24 1996-09-11 日東紡音響エンジニアリング株式会社 航空機飛行コ―ス測定方法及び装置
JPH0966900A (ja) * 1995-09-01 1997-03-11 Hitachi Ltd 飛行状態監視方法とその装置
US20070182623A1 (en) * 2006-02-03 2007-08-09 Shuqing Zeng Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP4544233B2 (ja) * 2006-10-11 2010-09-15 株式会社デンソー 車両検出装置及びヘッドランプ制御装置
CN102385060A (zh) * 2006-11-06 2012-03-21 电子地图有限公司 用于二维和三维精确位置和定向确定的布置和方法
ATE459061T1 (de) * 2006-11-21 2010-03-15 Harman Becker Automotive Sys Darstellung von videobildern einer fahrzeugumgebung
JP2009169776A (ja) * 2008-01-18 2009-07-30 Hitachi Ltd 検出装置
JP2009180536A (ja) * 2008-01-29 2009-08-13 Omron Corp 画像処理装置、画像処理方法、およびプログラム
JP4453775B2 (ja) * 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
DE102010012187B4 (de) * 2010-03-19 2020-12-31 Sew-Eurodrive Gmbh & Co Kg Verfahren zur Bestimmung der Position zumindest eines ersten und eines zweiten Fahrzeuges innerhalb einer Anlage
EP2551695A1 (en) * 2011-07-25 2013-01-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for determining an orientation of a mobile device
DE102013102153A1 (de) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
US9429650B2 (en) * 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
US9834207B2 (en) * 2014-04-15 2017-12-05 GM Global Technology Operations LLC Method and system for detecting, tracking and estimating stationary roadside objects
JP6260462B2 (ja) * 2014-06-10 2018-01-17 株式会社デンソー 運転支援装置
CN106463064B (zh) * 2014-06-19 2020-06-26 日立汽车系统株式会社 物体识别装置和使用该物体识别装置的车辆行驶控制装置
JP6408860B2 (ja) * 2014-10-22 2018-10-17 株式会社デンソー 物体検知装置
US9563808B2 (en) * 2015-01-14 2017-02-07 GM Global Technology Operations LLC Target grouping techniques for object fusion
DE102015201747A1 (de) * 2015-02-02 2016-08-04 Continental Teves Ag & Co. Ohg Sensorsystem für ein fahrzeug und verfahren
JP6635428B2 (ja) * 2015-05-20 2020-01-22 修一 田山 自動車周辺情報表示システム
CN105044754A (zh) * 2015-07-01 2015-11-11 西安交通大学 一种基于多传感器融合的移动平台室外定位方法
CN106842231B (zh) * 2016-11-08 2019-03-22 长安大学 一种道路边界检测及跟踪方法
US20190132555A1 (en) * 2017-10-30 2019-05-02 Qualcomm Incorporated Methods and systems to broadcast sensor outputs in an automotive environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06174839A (ja) 1992-12-08 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> 3次元物体像の生成方法
JP2000123298A (ja) 1998-10-13 2000-04-28 Japan Aviation Electronics Industry Ltd 障害物位置検出装置およびその検出方法
JP2001063500A (ja) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd 車両周辺障害物監視装置
JP2015125760A (ja) * 2013-12-27 2015-07-06 日立建機株式会社 鉱山用作業機械
JP2016080539A (ja) * 2014-10-17 2016-05-16 トヨタ自動車株式会社 車載センサ
JP2016101055A (ja) * 2014-11-26 2016-05-30 アイシン精機株式会社 移動体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3764339A4

Also Published As

Publication number Publication date
CN111801718A (zh) 2020-10-20
CN111801718B (zh) 2022-08-02
EP3764339A1 (en) 2021-01-13
US11954918B2 (en) 2024-04-09
US20200401825A1 (en) 2020-12-24
EP3764339A4 (en) 2021-04-28
JP2019159380A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
WO2019172341A1 (ja) 物体検知装置、物体検知方法、および記録媒体
JP5152244B2 (ja) 追従対象車特定装置
US11762071B2 (en) Multi-mode multi-sensor calibration
JP6885721B2 (ja) 物体検出装置、物体検出方法
JP6622167B2 (ja) 軸ずれ推定装置
WO2014136718A1 (ja) 物標認識装置
CN107004360A (zh) 车辆雷达方法和系统
WO2018043028A1 (ja) 周辺監視装置及び周辺監視方法
JP2017111803A (ja) 駐車スペースの検出装置、方法及び画像処理装置
US20160307026A1 (en) Stereoscopic object detection device and stereoscopic object detection method
JP6394228B2 (ja) 物体検出装置
JP2016065760A (ja) 物体検出装置
CN106605153B (zh) 轴偏移诊断装置
WO2021172535A1 (ja) 物体検知装置
JP2021049843A (ja) 遠隔駐車システム
CN109715465B (zh) 用于运行第一车辆的方法和设备
US20200284899A1 (en) Radar apparatus, method for controlling radar apparatus and detection system using radar apparatus
CN113091756A (zh) 位置推定装置、以及位置推定方法
WO2020021596A1 (ja) 車両位置推定装置および車両位置推定方法
JP2007085825A (ja) 到来方向推定装置
US20230194659A1 (en) Target-based sensor calibration
JP6930512B2 (ja) 物体検知装置、物体検知方法およびプログラム
US20210278500A1 (en) Method and device for calibrating a sensor system of a moving object
JP2024013990A (ja) 情報処理システム、情報処理装置、及び情報処理方法
WO2019151109A1 (ja) 路面情報取得方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19764676

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019764676

Country of ref document: EP

Effective date: 20201007