WO2019124118A1 - 検出装置及び検出方法並びに検出用プログラム - Google Patents

検出装置及び検出方法並びに検出用プログラム Download PDF

Info

Publication number
WO2019124118A1
WO2019124118A1 PCT/JP2018/045102 JP2018045102W WO2019124118A1 WO 2019124118 A1 WO2019124118 A1 WO 2019124118A1 JP 2018045102 W JP2018045102 W JP 2018045102W WO 2019124118 A1 WO2019124118 A1 WO 2019124118A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
detection
shape
wall
area
Prior art date
Application number
PCT/JP2018/045102
Other languages
English (en)
French (fr)
Inventor
良司 野口
宏 永田
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2019124118A1 publication Critical patent/WO2019124118A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes

Definitions

  • the present application belongs to the technical field of a detection apparatus, a detection method, and a program for detection. More specifically, the present invention belongs to the technical field of a detection device and a detection method for detecting an object existing in the surroundings, and a program for the detection device.
  • the LiDAR system described above when the light beam is emitted uniformly around the vehicle, data (for example, represented as an image) of an object present around the vehicle obtained by receiving the reflected light
  • the data of the object includes the detection result of the wall of the building and the vegetation planted long in the moving direction of the vehicle beside the road.
  • the shapes of building walls, vegetation, etc. including the case where it is a plane and the case where it is a curved surface. The same applies hereinafter). , Simply referred to as "wall-like shape".
  • the detection result of the wall-like shape is removed in advance from the data of the object existing around the vehicle, and if the processing ability of the recognition device can be used to recognize the object other than the wall-like shape, The burden of the object recognition process can be reduced, which can contribute to downsizing and cost reduction of the object recognition device.
  • a threshold value for removing the detection result from the data is calculated in the vehicle based on the detection result of the wall-like shape
  • the method of excluding the said detection result from said data is considered.
  • the present invention has been made in view of the above problems. It is an object of the present invention to provide a detection device and detection method and a program for the detection device capable of detecting an object having a wall-like shape by eliminating the influence of the surrounding environment of a place where the vehicle actually moves.
  • the invention according to claim 1 is a first acquisition means for acquiring shape information indicating the shape of an object existing in the periphery, and a wall set in advance based on the shape information. Based on a second acquisition unit for acquiring detection data used to detect the object having the detection wall shape which is a shape of a circle, the acquired shape information, and the acquired detection data And object detection means for detecting the object having the to-be-detected wall shape from among the objects.
  • the invention according to claim 11 is a detection method executed in a detection apparatus provided with a first acquisition means, a second acquisition means, and an object detection means
  • the object having a to-be-detected wall-like shape which is a wall-like shape set in advance based on the shape information and a first acquisition step of acquiring, by the first acquisition means, shape information indicating a shape of an object that actually exists Of the object based on a second acquisition step of acquiring detection data used for detecting the second information by the second acquisition unit, the acquired shape information, and the acquired detection data And D. an object detecting step of detecting the object having a wall shape to be detected by the object detecting means.
  • Claim 12 is functioned as a detection device according to any one of Claims 1-10.
  • FIG. 1 It is a block diagram showing a schematic structure of a detection device concerning an embodiment. It is a block diagram which shows the outline
  • FIG. 7 is a flowchart showing map data recording processing according to the second embodiment, and FIG.
  • FIG. 7A is a diagram (I) for explaining the map data recording processing
  • FIG. 7B is a diagram for explaining the map data recording processing It is II
  • (c) is figure (III) explaining the said map data recording process
  • (d) is the said flowchart. It is a flowchart which shows the map data utilization process which concerns on 2nd Example.
  • FIG. 1 is a block diagram showing a schematic configuration of a detection device according to the embodiment.
  • the first acquisition unit 21 acquires shape information indicating the shape of an object existing in the surroundings.
  • the second acquisition unit 30 uses detection data used to detect an object having a wall shape to be detected which is a preset wall shape based on the shape information acquired by the first acquisition unit. get.
  • the object detection means 24 detects the shape of the wall to be detected from among the objects existing after the week based on the shape information acquired by the first acquisition means 21 and the detection data acquired by the second acquisition means 30. Detect an object having a shape.
  • shape information indicating the shape of an object existing in the periphery, detection data used to detect an object having a wall shape to be detected Since an object having a to-be-detected wall-like shape is detected based on the above, by using detection data in addition to the shape information, the influence of the surrounding environment of the detection device C is eliminated and an object having a to-be-detected wall-like shape is detected. It can be distinguished from other objects and accurately detected. Therefore, an object having a wall shape to be detected can be distinguished from other objects without being affected by the surrounding environment, so that it is possible to accurately detect, for example, the shape of an object other than the wall shape to be detected. Can be reduced.
  • FIGS. 2 to 9 Each example described below is an example at the time of applying this application to recording of a parameter etc. which are used for object detection using a LiDAR system carried in vehicles, and its use.
  • FIG. 2 is a block diagram showing a schematic configuration of the map data recording and utilizing system according to the first embodiment
  • FIG. 3 is a view showing contents of parameters recorded by the data structure according to the first embodiment.
  • FIG. 4 is a view showing the structure of map data according to the first embodiment.
  • 5 is a flowchart showing map data recording processing according to the first embodiment
  • FIG. 6 is a flowchart showing map data utilization processing according to the first embodiment
  • FIG. 7 is a map according to the first embodiment It is a figure explaining the conversion process in data utilization processing.
  • FIG. 2 and FIG. 4 the same components as the respective constituent members in the detection device C regarding the respective constituent members of the first example corresponding to the respective constituent members in the detection device C according to the embodiment shown in FIG. The number is used.
  • the map data recording and utilizing system SS is mounted on a map server apparatus SV capable of exchanging data via a network NW such as the Internet and a vehicle used by a user.
  • a wall shape determination apparatus C a wall shape determination apparatus
  • the map server device SV includes the processing area determination unit 11, the map database 12, the elevation image generation unit 13, the identifier 14, the length parameter threshold calculation unit 15, the height maximum value calculation unit 16, and irradiation.
  • the unit 18 comprises a number maximum value calculation unit 17 and a two-dimensional map generation unit 18, and a length parameter threshold calculation unit 15, a height maximum value calculation unit 16, an irradiation number maximum value calculation unit 17 and a two-dimensional map generation
  • the unit 18 is connected to a map database (shown as "map DB" in FIG. 2) D.
  • the map database D may be provided separately from the map server SV, or may be provided in the map server SV.
  • the processing area determination unit 11, elevation image generation unit 13, length parameter threshold calculation unit 15, height maximum value calculation unit 16, irradiation number maximum value calculation unit 17, and two-dimensional map generation unit 18 are map server devices. It may be realized by a hardware logic circuit including a CPU and the like (not shown) provided in the SV, and the CPU and the like read and execute a program corresponding to a map data recording process according to the first embodiment described later. And may be realized as software.
  • the wall shape determination apparatus C includes a data conversion unit 21 connected to the network NW and the LiDAR sensor 20, a processing area determination unit 22 connected to the LiDAR sensor 20 and the map database 23, and a length parameter threshold utilization unit 24.
  • the maximum height value utilization unit 25, the irradiation number maximum value utilization unit 26, and the two-dimensional map utilization unit 27 determine the wall shape It may be realized by a hardware logic circuit including a CPU and the like (not shown) provided in the device C, and the CPU and the like read and execute a program corresponding to map data utilization processing according to the first embodiment described later. May be realized as software.
  • the data conversion unit 21 corresponds to an example of the first acquisition unit 21 and an example of the second acquisition unit 30 according to the embodiment, and the length parameter threshold utilization unit 24 and the height maximum value utilization unit 25.
  • Either the irradiation number maximum value utilization unit 26 or the two-dimensional map utilization unit 27 corresponds to an example of the object detection unit 24 according to the embodiment and an example of the “angle detection unit” according to the present application.
  • the map database 12 of the map server SV records the map data of the area scanned by the LiDAR sensor 10.
  • the processing area determination unit 11 of the map server SV reads out the map data from the map database 12 and uses, according to a preset method, an area on the map to be a target of generation of parameters according to the first embodiment. decide. The determination of this area may be done manually.
  • the elevation image generation unit 13 is a vehicle for the map management on which the LiDAR sensor 10 is mounted, or three-dimensional existing around the fixedly installed LiDAR sensor 10.
  • the elevation image data corresponding to the so-called elevation image (Elevation Image) is generated by projecting the object of the above as a two-dimensional image vertically downward from above.
  • the elevation image (Elevation Image) is, for example, a wall-like shape detection expressed based on the height of the three-dimensional object to be targeted or the number of irradiations in the vertical direction of the light beam irradiated to the target.
  • Image for The elevation image generation unit 13 outputs the generated elevation image data to the length parameter threshold calculation unit 15, the height maximum value calculation unit 16, the irradiation number maximum value calculation unit 17, and the two-dimensional map generation unit 18, respectively.
  • the "object” refers to an object such as a building, a traffic sign, a vegetation such as a street tree, and a fence on the roadside, which exist around the LiDAR sensor 10.
  • the discriminator 14 uses identification data for identifying a wall-like shape corresponding to a building wall or the like from among shapes corresponding to the object included in the elevation image by a machine learning algorithm or the like set in advance or manually. It is generated and output to the length parameter threshold calculation unit 15, the height maximum value calculation unit 16, the irradiation number maximum value calculation unit 17 and the two-dimensional map generation unit 18, respectively.
  • the length parameter threshold calculation unit 15, the height maximum value calculation unit 16, the irradiation number maximum value calculation unit 17, and the two-dimensional map generation unit 18 select from among the objects corresponding to the elevation image. It becomes possible to identify wall-shaped objects.
  • the length parameter threshold calculation unit 15 is preset to include a grid in which a wall-like object exists (ie, a geographical grid as map data; see the above-mentioned article), or the grid A length parameter threshold value A satisfying the following condition (a) is calculated for a wide area (that is, an area of a predetermined size as map data including the grid).
  • a the above-mentioned grid or an area of a preset size including it is simply referred to as "grid or the like".
  • the above “S (X)” is the area of the object in the elevation image
  • the above “L (X)” is a parameter (Geodes Diameter) indicating the length of the object in the elevation image.
  • the above-mentioned length parameter threshold A is a threshold for sorting the length parameter corresponding to the shape of the object other than the wall-like shape and the length parameter corresponding to the wall-like shape below condition (a).
  • the length parameter threshold calculation unit 15 records the length parameter threshold A in the map database D together with the specifications of the LiDAR sensor 10 in association with the data indicating the grid or area to which it is applied.
  • the specifications of the LiDAR sensor 10 include, for example, the height from the ground of the LiDAR sensor 10 provided or fixedly installed in the vehicle for managing the map, the number of light beams irradiated in the vertical direction, the installation angle , Information about the specification of the LiDAR sensor 10 such as the density of the grid.
  • the height maximum value calculation unit 16 generates height maximum value data Hmax, which is data indicating the maximum value of the height of the reflection point on the one wall-shaped object of the light beam emitted from the LiDAR sensor 10,
  • the information is recorded in the map database D together with the specifications of the LiDAR sensor 10 in association with the grid or the like in which the one wall-shaped object is present.
  • the maximum value of the heights of the reflection points among the plurality of wall-shaped objects is The maximum value data Hmax for the object with the highest wall shape is the height maximum value data Hmax associated with the grid or the like.
  • the height maximum value data Hmax as shown in FIG. 3A, for example, a building BD higher than the highest reach point of the light beam LD irradiated from the LiDAR sensor 10 of the vehicle SC for map management. If there is, the height of the highest reaching point of the wall FD becomes the height maximum value data Hmax for the wall FD.
  • the irradiation number maximum value calculation unit 17 applies irradiation number maximum value data Nmax, which is data indicating the maximum value of the number of light beams emitted from the LiDAR sensor 10 to one wall-shaped object.
  • irradiation number maximum value data Nmax which is data indicating the maximum value of the number of light beams emitted from the LiDAR sensor 10 to one wall-shaped object.
  • Nmax data indicating the maximum value of the number of light beams emitted from the LiDAR sensor 10.
  • Nmax is data indicating the maximum value of the number of light beams emitted from the LiDAR sensor 10.
  • the irradiation number maximum value data Nmax for the wall-shaped object is the irradiation number maximum value data Nmax associated with the grid or the like.
  • the irradiation number maximum value data Nmax as shown in FIG. 3B, for example, when there is a building BD higher than the highest arrival point, the irradiation of the light beam up to the highest arrival point The number is the irradiation number maximum value data Nmax for the building BD.
  • the two-dimensional map generation unit 18 determines the position where the wall-like object exists. Map data corresponding to the two-dimensional map shown is generated and recorded in the map database D.
  • the administrator of the map data recording and utilizing system SS according to the first embodiment arbitrarily determines, for example, which one of the parameters or the map data is to be recorded in the map database D. Can be set in advance.
  • the data conversion unit 21 of the wall-like shape determination apparatus C acquires the above-mentioned parameters recorded in the map database D of the map server apparatus SV via the network NW. Thereafter, the data conversion unit 21 converts the above parameters into values corresponding to the specifications of the LiDAR sensor 20. Then, the data conversion unit 21 converts the length parameter threshold value A after the conversion process to the length parameter threshold value using unit 24, and converts the height maximum value data Hmax after the conversion process to the height maximum value using unit 25. The irradiation number maximum value data Nmax after the processing is output to the irradiation number maximum value utilization unit 26, respectively. The conversion process by the data conversion unit 21 will be described in detail later.
  • the map database 23 stores map data of an area scanned by the LiDAR sensor 20 (that is, an area traveled by a vehicle equipped with the LiDAR sensor 20). Then, the processing area determination unit 22 reads map data around the current position of the vehicle (more specifically, for example, an automatically driven vehicle) on which the wall shape determination apparatus C is mounted from the map database 23, and the first embodiment Identify the area on the map that is the target of the detection of the wall-like shape according to.
  • the length parameter using unit 24 acquires, from the data conversion unit 21, the length parameter threshold value A after the conversion processing for the grid or the like corresponding to the area determined by the processing area determination unit 22, and the determination is performed. A wall-shaped object present in the area is detected.
  • the length parameter using unit 24 corresponds to the area determined by the processing area determination unit 22.
  • the length parameter threshold value A for the grid etc. to be obtained is acquired from the map database D, and a wall-like shaped object present in the determined area is detected.
  • the maximum height value utilization unit 25 acquires the maximum height value data Hmax after the conversion processing for the grid or the like corresponding to the area determined by the processing area determination unit 22 from the data conversion unit 21 and makes the determination. Detecting an object having a wall-like shape present in the selected area.
  • the height maximum value using unit 25 determines the area determined by the processing area determination unit 22. The above-mentioned maximum height value data Hmax for a grid or the like corresponding to is acquired from the map database D, and an object having a wall-like shape present in the determined area is detected.
  • the irradiation number maximum value utilization unit 26 acquires, from the data conversion unit 21, the irradiation number maximum value data Nmax after the conversion processing for the grid or the like corresponding to the area determined by the processing area determination unit 22, Detecting an object having a wall-like shape present in the selected area.
  • the irradiation number maximum value using unit 26 determines the area determined by the processing area determination unit 22.
  • the irradiation number maximum value data Nmax is acquired from the map database D for grids and the like corresponding to ⁇ , and an object having a wall-like shape present in the determined area is detected.
  • the two-dimensional map utilization unit 27 detects an object having a wall-like shape present in the determined area using map data acquired from the map database D.
  • the data representing an object having a wall-like shape detected by any of the length parameter utilization unit 24, height maximum value utilization unit 25, irradiation number maximum value utilization unit 26 or two-dimensional map utilization unit 27 is LiDAR. It is removed from among data of a plurality of objects present around the vehicle on which the LiDAR sensor 20 is mounted, which is detected using the sensor 20. Thereby, an object recognition device (not shown) mounted on a vehicle (that is, a vehicle used by a user) on which the LiDAR sensor 20 is mounted for object recognition processing for objects other than wall-shaped objects existing in the periphery. More processing power can be allocated.
  • the position of the wall-like shape is recorded as the map data in the map database D, as illustrated in FIG. 4A, a two-dimensional gray scale map associated with each grid etc.
  • the presence data FEx and the presence data FE0 are recorded in the positions of the respective grids and the like.
  • the size that is, the height in the vertical direction or the length in the horizontal direction
  • the presence data FE0 it may be recorded that no wall-like shape exists at the position of the grid or the like.
  • Presence data F1 indicating that a wall-like shape is present at a position such as an associated grid as dimensional OGM (Occupancy Grid Maps), and presence data F0 indicating that a wall-like shape does not exist at a position such as an associated grid , May be configured to be recorded.
  • the parameters 19B and grid data etc. 19C showing grids etc. with which they are associated Are recorded in association with identification data 19A that associates them.
  • the parameter 19B is associated with the area A1 to the area A20 for each of the area A1 to the area A20 equally dividing the road on which the vehicle CC travels in the traveling direction.
  • the parameter 19B is recorded.
  • Each of the area A1 to the area A20 in this case is an area corresponding to a grid or the like associated with the corresponding parameter 19B.
  • the parameter 19B may be recorded for each of the area A1 to the area A6 divided freely (optionally) with respect to the road R.
  • the map data recording process according to the first embodiment which is executed in the map server SV according to the first embodiment, will be specifically described with reference to FIG.
  • the map data recording process according to the first embodiment is started, for example, at the timing when the power switch of the map server SV is turned on.
  • the processing area determination unit 11 selects, for example, one of the areas A1 and the like illustrated in FIG. 4 (step S2).
  • step S1 when the area to be processed is determined (step S1: YES or step S2), the elevation image generation unit 13 generates elevation image data corresponding to the above elevation image by the method described in the above-mentioned article for the determined area. Are generated (step S3).
  • step S3 the identifier 14 generates the identification data for the area determined above (step S4).
  • step S5 the two-dimensional map generation unit 18 determines whether or not recording of the map data is set in the map database D in advance (step S5). If it is determined in step S5 that recording of the map data is not set (step S5: NO), the two-dimensional map generation unit 18 proceeds to step S8 described later.
  • step S5 if it is determined in step S5 that recording of the map data is set (step S5: YES), then the two-dimensional map generation unit 18 generates the map data by the method described above, and the map database D is generated. (Step S6).
  • step S7 determines whether or not the process for the next area is to be performed (step S7), and if the process is to be performed continuously (step S7: YES), the processes after step S1 are repeated. On the other hand, when the process is ended in the determination of step S7 (step S7: NO), the map server SV ends the process as it is.
  • step S5 the length parameter threshold calculation unit 15 sets the length in the map database D as step S8 executed when the recording of the map data is not set (step S5: NO). It is determined whether or not recording of the parameter parameter threshold A is set in advance (step S8). If it is determined in step S8 that the length parameter threshold A is not set in the map database D (step S8: NO), the length parameter threshold calculator 15 proceeds to step S11 described later. On the other hand, if it is determined in step S8 that the length parameter threshold A is to be recorded (step S8: YES), the length parameter threshold calculator 15 satisfies the above-described condition (a). A is calculated and recorded in the map database D together with grid data etc. indicating a grid etc. to be associated (step S10, refer to FIG. 4 (c) to FIG. 4 (e)). Thereafter, the length parameter threshold calculation unit 15 proceeds to step S7.
  • step S8 the height maximum value calculation unit 16 determines the map database D as step S11 to be executed when the recording of the length parameter threshold A is not set (step S8: NO). It is determined whether or not recording of the height maximum value data Hmax is set in advance (step S11). If it is determined in step S11 that the maximum height data Hmax is not stored in the map database D (step S11: NO), the maximum height calculator 16 proceeds to step S13 described later. On the other hand, if it is determined in step S11 that the maximum height data Hmax is to be recorded (step S11: YES), the maximum height calculator 16 calculates the maximum height data Hmax according to the method described above. Are calculated and recorded in the map database D together with grid data etc. indicating grids to be associated (step S12, see FIG. 4 (c) to FIG. 4 (e)). Thereafter, the height maximum value calculation unit 16 proceeds to step S7.
  • step S11 the irradiation number maximum value calculation unit 17 sets a map as the step S13 to be executed when the recording of the maximum height value data Hmax is not set (step S11: NO). It is determined whether the fact that the irradiation number maximum value data Nmax is to be recorded is set in advance in the database D (step S13). If it is determined in step S13 that the irradiation number maximum value data Nmax is not stored in the map database D (step S13: NO), the irradiation number maximum value calculation unit 17 proceeds to step S7.
  • step S13 when it is set in the determination in step S13 that the irradiation number maximum value data Nmax is to be recorded (step S13: YES), the irradiation number maximum value calculation unit 17 calculates the irradiation number maximum value data Nmax by the method described above. Are calculated and recorded in the map database D together with grid data etc. indicating a grid etc. to be associated (step S14, see FIG. 4 (c) to FIG. 4 (e)). Thereafter, the irradiation number maximum value calculation unit 17 proceeds to step S7.
  • the said map data utilization process is a process performed by the wall-like-shape determination apparatus C mounted, for example in the automatic driving vehicle which a user utilizes.
  • the LiDAR sensor 20 mounted on the autonomous driving vehicle scans by irradiating the light beam to the surroundings, the shape of the object existing around the autonomous driving vehicle, the distance from the LiDAR sensor 20 of the object, and The direction can be detected.
  • the map data utilization process according to the first embodiment is started, for example, at the timing when the power switch of the wall shape determination apparatus C is turned on. Then, in the map data utilization process according to the first embodiment, it is first determined whether the necessary parameters or the map data have been acquired from the map database D of the map server SV (step S20). If the parameter or the like is not acquired in the determination of step S20 (step S20: NO), the map database D of the map server SV is accessed to acquire the necessary parameter or the like (step S21).
  • step S20 If necessary parameters and the like are acquired (step S20: YES or step S21), then the wall-like shape determination device C is data indicating the grid and the like acquired from the map database D together with the parameters and the like, and the LiDAR sensor The specifications of 10, the specifications of the map data recorded in the map database 23, and the specifications of the LiDAR sensor 20 connected to the wall shape determination apparatus C are compared, and conversion by the data conversion unit 21 is performed. It is determined whether a process is necessary (step S22). If it is determined in step S22 that the conversion process is required (step S22: YES), the data conversion unit 21 executes the conversion process (step S23).
  • the data conversion unit 21 converts the density of the grid GD or the like into the density of the grid gd by, for example, a conventional thinning process or the like, and also converts parameters such as the grid associated with the grid gd after the conversion process.
  • the maximum value of the parameter in each of the original grid etc. Gd which will be included in the grid etc. gd after conversion processing is set.
  • the density on the map data of the grid or the like indicated by the data indicating the grid or the like corresponding to the parameter acquired from the map database D may be greater than the density on map data such as a grid in the map database recorded in the map database 23 of the wall-like shape determination device C.
  • the data conversion unit 21 performs conversion processing for complementing the area where the density in the grid or the like corresponding to the parameter acquired from the map database D is insufficient with the map data recorded in the map database 23. Do.
  • FIG. 7C it is mounted on the height H from the ground of the LiDAR sensor 10 used in generating the parameters acquired from the map database D and on the vehicle UC used by the user.
  • the latter may be lower as illustrated in FIG. 7 (d).
  • the data conversion unit 21 converts the height maximum value data Hmax into “height maximum value data Hmax ⁇ (H ⁇ h), and the subsequent judgment of the wall-like shape is performed.
  • the height H may be lower than the height h, contrary to the case illustrated in FIGS. 7 (c) and 7 (d). Also in this case, the data conversion unit 21 performs replacement for the maximum height value data Hmax described above, and performs the subsequent determination of the wall-like shape.
  • the number N1 of vertical irradiations of the light beam in the LiDAR sensor 10 used when generating the parameters acquired from the map database D and the vehicle UC are mounted on the vehicle
  • the number N2 of irradiations of the light beam in the vertical direction in the LiDAR sensor 20 connected to the wall-shaped shape determination device C may be smaller as illustrated in FIG. 7 (f).
  • the data conversion unit 21 converts the irradiation number maximum value data Nmax into “the irradiation number maximum value data Nmax ⁇ N2 / N1. Then, the judgment of the wall shape is performed.
  • the number of irradiations N1 may be smaller than the number of irradiations N2. Also in this case, similarly, the data conversion unit 21 performs the replacement of the irradiation number maximum value data Nmax and performs the subsequent determination of the wall shape.
  • step S24 determines whether the map data is acquired from the map database D (step S24). If it is determined in step S24 that the map data is not acquired (step S24: NO), the two-dimensional map utilization unit 27 proceeds to step S28 described later. On the other hand, in the determination of step S24, when the map data is acquired (step S24: YES), the two-dimensional map utilization unit 27 uses elevation data of the elevation image data corresponding to the elevation image using data from the LiDAR sensor 20. It generates (step S25). After that, the two-dimensional map utilization unit 27 detects the wall-like shape and the position thereof based on the generated elevation image data and the map data acquired from the map database D or the map data after conversion processing at step S23. (Step S26).
  • the wall shape determination apparatus C determines whether to end the map data utilization process according to the first embodiment, for example, because the power of the wall shape determination apparatus C is turned off (step S27). ).
  • the wall-like shape determination device C ends the map data utilization process as it is.
  • wall shape determination apparatus C repeats the process after the said step S20.
  • the length parameter threshold utilization unit 24 corresponds to the area scanned by the LiDAR sensor 20 as step S28 executed when the map data is not acquired in the determination of step S24 (step S24: NO) It is determined whether the said length parameter threshold value A is acquired from the map database D about a grid etc. (step S28). If it is determined in step S28 that the length parameter threshold A has not been acquired (step S28: NO), the length parameter threshold using unit 24 proceeds to step S31 described later.
  • the length parameter threshold using unit 24 acquires the surroundings of the LiDAR sensor 20 acquired by the LiDAR sensor 20 ( In other words, elevation image data corresponding to the elevation image is generated using data on the shape, distance, and direction of an object present in the periphery of an autonomous vehicle on which the LiDAR sensor 20 is mounted. (Step S29). Thereafter, based on the generated elevation image data and the length parameter threshold A obtained from the map database D or the length parameter threshold A after conversion processing in step S23, the length parameter threshold using unit 24 performs the process. A shape of an object having a length parameter larger than the length parameter threshold A is detected as a wall-like shape present in a grid or the like associated with the length parameter threshold A (step S30). After that, the length parameter threshold value using unit 24 proceeds to step S27.
  • the height maximum value utilization unit 25 corresponds to the area scanned by the LiDAR sensor 20 as step S31 executed when the length parameter threshold value A is not acquired in the determination of step S28 (step S28: NO) It is determined whether or not the height maximum value data Hmax is acquired from the map database D for grids and the like (step S31). In the determination of step S31, when the height maximum value data Hmax is not acquired (step S31: NO), the height maximum value using unit 25 proceeds to step S35 described later.
  • step S31 when the height maximum value data Hmax is acquired in the determination of step S31 (step S31: YES), the height maximum value utilization unit 25 determines the height maximum value data Hmax acquired from the map database D or The height maximum value data Hmax after conversion processing in step S23 and data indicating the height of an object around the LiDAR sensor 20 acquired by the LiDAR sensor 20 are used to correspond to the elevation image An elevation image data is generated (step S32). After that, the maximum height value using unit 25 sets the length parameter threshold individually for the wall-shaped shape determination apparatus C manually or by a preset method using map data stored in the map database 23 (step S33). ).
  • the maximum height value using unit 25 has a length parameter larger than the original length parameter threshold based on the length parameter threshold set in step S33 and the elevation image data generated in step S32.
  • the shape of the object is detected as a wall-like shape present in a grid or the like associated with the length parameter threshold (step S34). Thereafter, the height maximum value utilization unit 25 proceeds to the above-described step S27.
  • the irradiation number maximum value using unit 26 is an area scanned by the LiDAR sensor 20 as step S35 executed when the maximum height value data Hmax is not acquired in the determination of step S31 (step S31: NO). It is determined whether or not the irradiation number maximum value data Nmax is acquired from the map database D for a grid or the like corresponding to (step S35). If it is determined in step S35 that the irradiation number maximum value data Nmax is not acquired (step S35: NO), the height maximum value using unit 25 proceeds to step S27.
  • step S35 when the irradiation number maximum value data Nmax is acquired (step S35: YES), the irradiation number maximum value utilization unit 26 determines the irradiation number maximum value data Nmax acquired from the map database D. Equivalent to the above elevation image using the irradiation number maximum value data Nmax after the conversion processing in step S23 and the irradiation number data of the light beam to the object around the LiDAR sensor 20 acquired by the LiDAR sensor 20 Elevation image data to be generated (step S36). Thereafter, the irradiation number maximum value utilization unit 26 proceeds to the above step S33, and executes the same processing as the above steps S33 and S34.
  • the map data utilization process according to the first embodiment, it has a wall-like shape based on the data from the LiDAR 20 indicating the shape of the object existing in the surroundings and the detection data f. Since an object is detected, by using the detection data f, it is possible to exclude the influence of the surrounding environment of the wall-like shape detection device C and distinguish an object having a wall-like shape from other objects and accurately detect it. . Therefore, an object having a wall-like shape can be distinguished from other objects without being affected by the surrounding environment and can be accurately detected. For example, the burden of processing for an object having a shape other than the wall-like shape is reduced. can do.
  • position / area data p indicating position / area p where an object having a wall-like shape corresponding to detection data f is present, which is associated with detection data f for each position or area Since p is acquired and an object having a wall-like shape is detected based on these data, an object having a wall-like shape can be detected accurately and accurately while specifying its position.
  • an object having a wall-like shape can be separated from other objects with a small amount of data while eliminating the influence of the surrounding environment. It can be detected separately.
  • the parameter is any of the length parameter threshold A, the height maximum value data Hmax or the irradiation number maximum value data Nmax, the wall-like shape is reduced with a small amount of data while eliminating the influence of the surrounding environment. It is possible to distinguish an object having from other objects and to detect it more specifically and accurately.
  • the area A1 etc. associated with the parameter etc. is a region obtained by dividing the perimeter of the wall-like shape determination device C at constant intervals (see FIG. 4D), an object having a wall-like shape is finely divided. It can be detected.
  • the area A1 or the like associated with the parameter or the like is a region obtained by dividing the periphery in advance according to the characteristics of the periphery of the wall-like shape determination device C (see FIG. 4E), An object having a wall-like shape can be accurately detected according to the characteristics.
  • an object having a wall-like shape can be distinguished from other objects and detected quickly and accurately while eliminating the influence of the surrounding environment.
  • conditions such as specifications of the LiDAR sensor 10 at the time of generation of the detection data f are acquired together with the detection data f, and conditions such as the specifications of the LiDAR sensor 20 of the wall-like shape detection device C Since the object having the wall-like shape is detected while aligning the and, the object having the wall-like shape can be detected more accurately.
  • FIG. 8 is a flowchart showing map data recording processing according to the second embodiment
  • FIG. 9 is a flowchart showing map data utilization processing according to the second embodiment.
  • the map data recording process in the map server device according to the second embodiment and the map data utilization process in the wall-like shape determination device according to the second embodiment are connected to the map server device.
  • Map data utilization processing is performed according to the angle ⁇ ′.
  • the composition and processing concerning a 2nd example the same thing as the composition and processing concerning a 1st example attaches the same member number or step number, and omits explanation of details.
  • the vehicle SC for map management on which the LiDAR sensor 10 connected to the map server SV is mounted is placed on the horizontal ground. Even when the traveling direction is in the Xa direction (see FIG. 8 (b)) by traveling on a slope with a pitch angle ⁇ a while traveling (see FIG. 8 (a)), the wall FD of the building BD with respect to the ground The angle does not change. Therefore, in this case, the reflection point of the light beam from the LiDAR sensor 10 is changed to the reflection point X1 to the reflection point X5 moved upward as illustrated in FIG. Therefore, in the map data recording process according to the second embodiment, as illustrated in FIG.
  • the emission elevation angle of each light beam from the LiDAR sensor 10 (in FIG. 8C, the angle ⁇ 2, the angle ⁇ 3.
  • the position XBD of each reflection point on the X axis (that is, the traveling direction when the vehicle SC travels horizontally) is calculated using the following equation (b).
  • the position on the Xa axis of the reflection point of the light beam emitted from the LiDAR sensor 10 at the emission elevation angle ⁇ n with the Xa axis as a reference is “Xn”.
  • step S30 a step in which the above correction is performed Elevation image data corresponding to the elevation image according to the second embodiment is generated by S30 (step S30).
  • the processes other than the above-described step S30 in the map data recording process according to the second embodiment are the same as the corresponding processes in the map data recording process according to the first embodiment, and thus the detailed description will be omitted.
  • the elevation angle of each light beam from the LiDAR sensor 20 connected to the wall shape determination apparatus C includes a pitch angle ⁇ ′ similar to the above pitch angle ⁇ a
  • the detection accuracy of the wall shape is on the other hand, the same effect as the pitch angle ⁇ a occurs. Therefore, in the map data utilization process according to the second embodiment, the influence of the pitch angle ⁇ ′ is corrected in the same manner as the map data recording process according to the second embodiment.
  • the LiDAR sensor 20 is used instead of steps S25, S29, S32 and S36 in the map data utilization process according to the first embodiment.
  • the elevation image data corresponding to the elevation image according to the second embodiment is generated by the steps S40, S41, S42 and S43 added to the step S32 and the step S36, respectively (steps S40, S41 and S42). And step S43).
  • the processes other than the above steps S40, S41, S42 and S43 in the map data utilization process according to the second embodiment are the same as the corresponding processes in the map data utilization process according to the first embodiment. Description of details will be omitted.
  • programs corresponding to the flowcharts shown in FIG. 5, FIG. 6, FIG. 8 (d) and FIG. 9 are recorded in a recording medium such as an optical disk or hard disk, or acquired via a network such as the Internet. It is also possible to configure the microcomputer or the like to execute the map data recording process and the map data utilization process according to each embodiment by reading and executing these on a general-purpose microcomputer or the like.
  • Detection apparatus LiDAR sensor 13 Elevation image generation part 15 Length parameter threshold value calculation part 16 Height maximum value calculation part 17 Irradiation number maximum value calculation part 18 Two-dimensional map generation part 20 Detection apparatus (LiDAR sensor) 21 First acquisition means (data converter) 24 Object Detection Means (Length Parameter Threshold Using Unit) 25 height maximum value utilization unit 26 irradiation number maximum value utilization unit 27 two-dimensional map utilization unit 30 second acquisition means f1, f2, f3, fn detection data p1, p2, p3, pn position / region data D map database C Detection device (wall-like shape determination device) SV map server device SS map data record using system

Abstract

車両が実際に移動する場所の周囲環境の影響を排除して壁状形状を有する物体を的確に検出することを可能とする検出装置を提供する。 周囲に実在する壁状形状を示す形状情報と、既定の長さ又は高さ以上の当該壁状形状である被検出壁状形状を有する物体を検出するために用いられる検出用データと、に基づいて壁状形状を有する物体を検出する長さパラメータ閾値利用部24を備える。

Description

検出装置及び検出方法並びに検出用プログラム
 本願は、検出装置及び検出方法並びに検出用プログラムの技術分野に属する。より詳細には、周囲に実在する物体を検出する検出装置及び検出方法並びに当該検出装置用のプログラムの技術分野に属する。
 近年、車両におけるいわゆる自動運転に関する研究が盛んに行われている。自動運転の実現に当たって必要な技術の一つに、移動中の車両の周囲にある物体の検出がある。この場合の物体とは、例えば、車両の進行方向前方の地面(道路)にある障害物や、当該前方にある建物、或いは、交通標識や街路樹、路側にある柵等が挙げられる。そして、このような車両上での物体の検出に用いることができる技術の一つに、レーザ光等のパルス状の光ビームを用いたLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)システムがある。このLiDARシステムを用いた物体の検出では、車両の周囲に上記光ビームを照射し、上記各物体からのその反射光を受光して得られたデータにより当該各物体を検出し、その検出結果を当該車両の案内等に活用する。
 なお上記背景技術に関連する技術の一例としては、例えば下記特許文献1に記載された技術がある。下記特許文献1に記載されている技術では、上記光ビームの反射光に基づき、例えば道路脇の縁石の高さ等に基づいて移動方向前方の地面の高さを検出し、当該地面の高さとの比較において、既定の高さ以上にある光ビームの反射点及び当該既定の高さ以下にある光ビームの反射点をそれぞれ抽出する。そして、当該抽出した各反射点の位置を二次元平面に投影することにより、車両の移動案内用の俯瞰画像を生成する構成とされている。
 一方、上述したLiDARシステムおいて、車両の周囲に均等に上記光ビームが出射される場合、その反射光を受光して得られた車両の周囲に存在する物体のデータ(例えば画像として表現される当該物体のデータ)の中には、建物の壁や、道路脇の車両の移動方向に長く植えられた植生の検出結果も含まれる。ここで、上述したような、車両の周囲に存在する物体のうち、建物の壁や植生等の形状(それが平面である場合と曲面である場合とを含む。以下、同様。)を、以下、単に「壁状形状」と称する。そして、車両の周囲に存在する物体のデータの中から、当該壁状形状の検出結果を予め除いた上で、壁状形状以外の物体の認識に認識装置の処理能力を供させることができれば、物体認識処理の負担を軽減することができ、物体認識装置の小型化や安価化に寄与することができる。
 このとき、上記データから当該壁状形状の検出結果を予め除く方法としては、例えば、壁状形状の検出結果に基づいて当該検出結果を上記データから除くための閾値を車両において算出し、当該閾値を用いて当該検出結果を上記データから除外する方法が考えられる。
特許第4832596号公報
 しかしながら、実際の例えば道路環境等においては、以下のi)乃至iii)に例示する理由により、上記閾値を車両において適切に算出することが困難な場合があるという問題点があった。そしてこのことは、壁状形状の検出結果を上記データから除くための閾値自体が適切でないことから、結果的に、除外されるべき壁状形状の検出結果を正確に特定(検出)することができないという問題点に繋がる。
i)様々な高さ又は長さの壁状形状が存在すること
ii)鉛直方向に一様な形状ではない壁状形状が存在すること
iii)前方又は対向車線上の車両や街路樹等、車両から出射された光ビームに対して遮蔽物となる物体が存在すること
 そこで本願は、上記の各問題点に鑑みて為されたもので、車両が実際に移動する場所の周囲環境の影響を排除して壁状形状を有する物体を検出することを可能とする検出装置及び検出方法並びに当該検出装置用のプログラムを提供することにある。
 上記の課題を解決するために、請求項1に記載の発明は、周囲に実在する物体の形状を示す形状情報を取得する第1取得手段と、前記形状情報に基づいて、予め設定された壁状形状である被検出壁状形状を有する前記物体を検出するために用いられる検出用データを取得する第2取得手段と、前記取得した形状情報と、前記取得した検出用データと、に基づいて、前記物体の中から前記被検出壁状形状を有する前記物体を検出する物体検出手段と、を備える。
 上記の課題を解決するために、請求項11に記載の発明は、第1取得手段と、第2取得手段と、物体検出手段と、を備える検出装置において実行される検出方法であって、周囲に実在する物体の形状を示す形状情報を前記第1取得手段により取得する第1取得工程と、前記形状情報に基づいて、予め設定された壁状形状である被検出壁状形状を有する前記物体を検出するために用いられる検出用データを前記第2取得手段により取得する第2取得工程と、前記取得した形状情報と、前記取得した検出用データと、に基づいて、前記物体の中から前記被検出壁状形状を有する前記物体を前記物体検出手段により検出する物体検出工程と、を含む。
 上記の課題を解決するために、請求項12に記載の発明は、請求項1から請求項10のいずれか一項に記載の検出装置として機能させる。
実施形態に係る検出装置の概要構成を示すブロック図である。 第1実施例に係る地図データ記録利用システムの概要構成を示すブロック図である。 第1実施例に係るデータ構造により記録されるパラメータ等の内容を示す図であり、(a)は当該内容の第1例を示す図であり、(b)は当該内容の第2例を示す図である。 第1実施例に係る地図データの構造を示す図であり、(a)は当該構造の第1例を示す図であり、(b)は当該構造の第2例を示す図であり、(c)は当該構造の第3例を示す図(I)であり、(d)は当該構造の第3例を示す図(II)であり、(e)は当該構造の第3例を示す図(III)である。 第1実施例に係る地図データ記録処理を示すフローチャートである。 第1実施例に係る地図データ利用処理を示すフローチャートである。 第1実施例に係る地図データ利用処理における変換処理を説明する図であり、(a)は当該変換処理の第1例を示す図(I)であり、(b)は当該変換処理の第1例を示す図(II)であり、(c)は当該変換処理の第2例を示す図(I)であり、(d)は当該変換処理の第2例を示す図(II)であり、(e)は当該変換処理の第3例を示す図(I)であり、(f)は当該変換処理の第3例を示す図(II)である。 第2実施例に係る地図データ記録処理を示すフローチャート等であり、(a)は当該地図データ記録処理を説明する図(I)であり、(b)は当該地図データ記録処理を説明する図(II)であり、(c)は当該地図データ記録処理を説明する図(III)であり、(d)は当該フローチャートである。 第2実施例に係る地図データ利用処理を示すフローチャートである。
 次に、本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態に係る検出装置の概要構成を示すブロック図である。
 図1に示すように、実施形態に係る検出装置Cは、第1取得手段21と、第2取得手段30と、物体検出手段24と、を備えて構成されている。
 この構成において第1取得手段21は、周囲に実在する物体の形状を示す形状情報を取得する。一方第2取得手段30は、第1取得手段により取得された形状情報に基づいて、予め設定された壁状形状である被検出壁状形状を有する物体を検出するために用いられる検出用データを取得する。
 これらにより物体検出手段24は、第1取得手段21により取得した形状情報と、第2取得手段30により取得した検出用データと、に基づいて、週次に実在する物体の中から被検出壁状形状を有する物体を検出する。
 以上説明したように、実施形態に係る検出装置Cによれば、周囲に実在する物体の形状を示す形状情報と、被検出壁状形状を有する物体を検出するために用いられる検出用データと、に基づいて被検出壁状形状を有する物体を検出するので、形状情報に加えて検出用データを用いることで、検出装置Cの周囲環境の影響を排除して被検出壁状形状を有する物体を他の物体から区別して的確に検出することができる。従って、周囲環境の影響を受けることなく被検出壁状形状を有する物体を他の物体から区別して的確に検出できるので、例えば、当該被検出壁状形状以外物体の形状を対象とした処理の負担を軽減することができる。
 次に、上述した実施形態に対応する具体的な実施例について、図2乃至図9を用いて説明する。なお以下に説明する各実施例は、車両に搭載されたLiDARシステムを用いた物体検出に用いられるパラメータ等の記録及びその利用に本願を適用した場合の実施例である。
(I)第1実施例
 始めに、実施形態に係る第1実施例について、図2乃至図7を用いて説明する。なお、図2は第1実施例に係る地図データ記録利用システムの概要構成を示すブロック図であり、図3は第1実施例に係るデータ構造により記録されるパラメータ等の内容を示す図であり、図4は第1実施例に係る地図データの構造を示す図である。また、図5は第1実施例に係る地図データ記録処理を示すフローチャートであり、図6は第1実施例に係る地図データ利用処理を示すフローチャートであり、図7は第1実施例に係る地図データ利用処理における変換処理を説明する図である。このとき図2及び図4では、図1に示した実施形態に係る検出装置Cにおける各構成部材に対応する第1実施例の構成部材それぞれについて、当該検出装置Cにおける各構成部材と同一の部材番号を用いている。
 図2に示すように、第1実施例に係る地図データ記録利用システムSSは、インターネット等のネットワークNWを介してデータの授受が可能な地図サーバ装置SVと、ユーザが利用する車両に搭載されている壁状形状判定装置Cと、により構成されている。
 また地図サーバ装置SVには、地図管理用の車両に搭載されるか又は固定設置された一又は複数のLiDARセンサ10からのデータが入力されている。LiDARセンサ10は、それから照射された光ビームが周囲の物体で反射した反射光を受光することで、周囲の当該物体の存在を認識すると共に、当該物体の高さを示す情報、又は当該物体に対して照射された光ビームの照射数(即ち、パルス状の光ビームの高さ方向への照射スポット数。以下、同様。)を示す情報等を取得することができる。そして地図サーバ装置SVは、処理エリア決定部11と、地図データベース12と、標高画像生成部13と、識別器14と、長さパラメータ閾値計算部15と、高さ最大値計算部16と、照射数最大値計算部17と、二次元マップ生成部18と、により構成されており、長さパラメータ閾値計算部15、高さ最大値計算部16、照射数最大値計算部17及び二次元マップ生成部18は地図データベース(図2において「地図DB」と示す)Dに接続されている。この地図データベースDは地図サーバ装置SVとは別個に設けられてもよいし、地図サーバ装置SV内に設けられてもよい。なお、上記処理エリア決定部11、標高画像生成部13、長さパラメータ閾値計算部15、高さ最大値計算部16、照射数最大値計算部17及び二次元マップ生成部18は、地図サーバ装置SVに備えられた図示しないCPU等を含むハードウェアロジック回路により実現されてもよいし、後述する第1実施例に係る地図データ記録処理に相当するプログラムを上記CPU等が読み出して実行することにより、ソフトウェア的に実現されるものであってもよい。
 一方壁状形状判定装置Cには、ユーザが利用する車両(より具体的には、例えば自動運転車両)に搭載されたLiDARセンサ20からのデータが入力されている。LiDARセンサ20は、それから照射された光ビームが周囲の物体で反射した反射光を受光することで、周囲の当該物体の存在を認識すると共に、当該物体の高さを示す情報、又は当該物体に対して照射した光ビームの照射数を示す情報等を取得することができる。そして壁状形状判定装置Cは、ネットワークNW及びLiDARセンサ20に接続されたデータ変換部21と、LiDARセンサ20及び地図データベース23に接続された処理エリア決定部22と、長さパラメータ閾値利用部24と、高さ最大値利用部25と、照射数最大値利用部26と、二次元マップ利用部27と、により構成されている。このとき、データ変換部21、処理エリア決定部21、長さパラメータ閾値利用部24、高さ最大値利用部25、照射数最大値利用部26及び二次元マップ利用部27は、壁状形状判定装置Cに備えられた図示しないCPU等を含むハードウェアロジック回路により実現されてもよいし、後述する第1実施例に係る地図データ利用処理に相当するプログラムを上記CPU等が読み出して実行することにより、ソフトウェア的に実現されるものであってもよい。
 なお上記の構成において、データ変換部21が実施形態に係る第1取得手段21の一例及び第2取得手段30の一例にそれぞれ相当し、長さパラメータ閾値利用部24、高さ最大値利用部25、照射数最大値利用部26又は二次元マップ利用部27のいずれかが実施形態に係る物体検出手段24の一例及び本願に係る「角度検出手段」の一例に相当する。
 以上の構成において地図サーバ装置SVの地図データベース12は、LiDARセンサ10が走査するエリアの地図データを記録している。そして地図サーバ装置SVの処理エリア決定部11は、当該地図データを地図データベース12から読み出しつつ、第1実施例に係るパラメータ等の生成の対象となる地図上のエリアを、予め設定された方法により決定する。このエリアの決定は手動で行われてもよい。
 次に標高画像生成部13は、LiDARセンサ10からのデータに基づき、当該LiDARセンサ10が搭載されている上記地図管理用の車両、又は固定設置された当該LiDARセンサ10の周囲に存在する三次元の物体を、その上方から鉛直方向下向きに二次元画像として投影したいわゆる標高画像(Elevation Image)に相当する標高画像データを生成する。ここで上記標高画像(Elevation Image)とは、例えば、対象となる三次元物体の高さ、又は当該対象に照射された光ビームの縦方向における照射数に基づいて表現される、壁状形状検出用の画像である。そして標高画像生成部13は、当該生成された標高画像データを、長さパラメータ閾値計算部15、高さ最大値計算部16、照射数最大値計算部17及び二次元マップ生成部18にそれぞれ出力する。このとき上記「物体」とは上述したように、LiDARセンサ10の周囲に存在する、建物、交通標識、街路樹等の植生、及び路側にある柵等の物体をいう。
 ここで、標準画像生成部13における上記標高画像の生成について詳細には、例えば、論文「”Comprehensive Automated 3D Urban Environment Modelling Using Terrestrial Laser Scanning Point Cloud”, Pouria Babahajiani, Fan Lixin, Kamarainen Joni-Kristian, Gabbouj Moncef, 2016 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2016, Nokia Technologies, Tampere, Finland.」に記載されている。
 一方識別器14は、予め設定された機械学習アルゴリズム等又は手動により、標高画像に含まれる上記物体に相当する形状の中から建物の壁等に相当する壁状形状を識別するための識別データを生成し、長さパラメータ閾値計算部15、高さ最大値計算部16、照射数最大値計算部17及び二次元マップ生成部18にそれぞれ出力する。この識別データを用いることで、長さパラメータ閾値計算部15、高さ最大値計算部16、照射数最大値計算部17及び二次元マップ生成部18において、上記標高画像に対応する物体の中から壁状形状の物体を特定することができるようになる。
 より具体的に、先ず長さパラメータ閾値計算部15は、壁状形状の物体が存在するグリッド(即ち、地図データとしての地理的なグリッド。上記論文参照。)、又は当該グリッドを含む予め設定された広さのエリア(即ち、当該グリッドを含む地図データとしての予め設定された広さのエリア)について、以下の条件(a)を満たす長さパラメータ閾値Aを算出する。なお以下の説明では、上記グリッド又はそれを含む予め設定された広さのエリアを、単に「グリッド等」と称する。
 壁状形状以外の物体の形状に対応する長さパラメータの最大値<長さパラメータ閾値A<壁状形状に対応する長さパラメータの最小値 …(a)
 このとき、実施例に係る上記「長さパラメータ」とは、上記論文におけるGeodesic elongation E(X)のことをいい、
 E(X)=πL2(X)/4×S(X)
 によって定義され、図形(即ち物体の形状)の細長さの程度を示すパラメータである。ここで、上記「S(X)」は標高画像における物体の面積であり、上記「L(X)」は標高画像における物体の長さを示すパラメータ(Geodesic Diameter)である。そして上記長さパラメータ閾値Aは、下記条件(a)は、壁状形状以外の物体の形状に対応する長さパラメータと壁状形状に対応する長さパラメータとを仕分けるための閾値である。
 その後長さパラメータ閾値計算部15は、上記長さパラメータ閾値Aを、それが適用されるグリッド又はエリアを示すデータと関連付けて、LiDARセンサ10の諸元と共に地図データベースDに記録する。なお上記LiDARセンサ10の諸元とは、例えば、上記地図管理用の車両に備えられた又は固定設置されたLiDARセンサ10の地上からの高さや、その鉛直方向の光ビームの照射数、設置角度、グリッドの密度等のLiDARセンサ10の仕様に関する情報をいう。
 一方高さ最大値計算部16は、LiDARセンサ10から出射された光ビームの、一の壁状形状の物体における反射点の高さの最大値を示すデータである高さ最大値データHmaxを、当該一の壁状形状の物体が存在する上記グリッド等に関連付けて、LiDARセンサ10の諸元と共に地図データベースDに記録する。なお、一の高さ最大値データHmaxが関連付けられているグリッド等に壁状形状の物体が複数存在する場合には、当該複数の壁状形状の物体うち上記反射点の高さの最大値が最も高かった壁状形状の物体についての最大値データHmaxが、そのグリッド等に関連付けられる高さ最大値データHmaxとなる。ここで当該高さ最大値データHmaxについては、図3(a)に示すように、例えば上記地図管理用の車両SCのLiDARセンサ10から照射される光ビームLDの最高到達点よりも高い建物BDが存在している場合には、その壁FDの当該最高到達点の高さが、その壁FDについての上記高さ最大値データHmaxとなる。
 他方照射数最大値計算部17は、LiDARセンサ10から出射された光ビームが、一の壁状形状の物体に照射された数の最大値を示すデータである照射数最大値データNmaxを、当該一の壁状形状の物体が存在する上記グリッド等に関連付けて、LiDARセンサ10の諸元と共に地図データベースDに記録する。なお、一の照射数最大値データNmaxが関連付けられているグリッド等に壁状形状の物体が複数存在する場合には、当該複数の壁状形状の物体うち上記照射数の最大値が最も大きかった壁状形状の物体についての照射数最大値データNmaxが、そのグリッド等に関連付けられる照射数最大値データNmaxとなる。ここで当該照射数最大値データNmaxについては、図3(b)に示すように、例えば上記最高到達点よりも高い建物BDがある場合には、当該最高到達点に至るまでの光ビームの照射数が、その建物BDについての上記照射数最大値データNmaxとなる。
 なお以下の説明において、上記長さパラメータ閾値A、上記高さ最大値データHmax及び上記照射数最大値データNmaxを纏めて説明する場合、単に「パラメータ」と称する。
 最後に二次元マップ生成部18は、上記パラメータのうちの一つ以上と、標準画像生成部13からの標高画像データと、上記識別データと、に基づき、壁状形状の物体が存在する位置を示す二次元マップに相当するマップデータを生成し、地図データベースDに記録する。
 なお、第1実施例に係る地図サーバ装置SVにおいて、上記パラメータ又は上記マップデータのいずれを地図データベースDに記録させるかは、例えば第1実施例に係る地図データ記録利用システムSSの管理者が任意に予め設定し得る。
 次に壁状形状判定装置Cのデータ変換部21は、地図サーバ装置SVの地図データベースDに記録されている上記パラメータを、ネットワークNWを介して取得する。その後データ変換部21は、上記パラメータをLiDARセンサ20の諸元に対応した値に変換する。そしてデータ変換部21は、当該変換処理後の長さパラメータ閾値Aを長さパラメータ閾値利用部24へ、当該変換処理後の高さ最大値データHmaxを高さ最大値利用部25へ、当該変換処理後の照射数最大値データNmaxを照射数最大値利用部26へ、それぞれ出力する。なお、データ変換部21による変換処理については、後ほど詳述する。
 他方地図データベース23は、LiDARセンサ20が走査するエリア(即ちLiDARセンサ20が搭載された車両が走行するエリア)の地図データを記録している。そして処理エリア決定部22は、壁状形状判定装置Cが搭載された車両(より具体的には、例えば自動運転車)の現在位置の周囲の地図データを地図データベース23から読み出し、第1実施例に係る壁状形状の検出の対象となる地図上のエリアを特定する。
 そして長さパラメータ利用部24は、処理エリア決定部22により決定されたエリアに対応するグリッド等についての上記変換処理後の長さパラメータ閾値Aをデータ変換部21から取得して、当該決定されたエリアに存在する壁状形状の物体を検出する。なお、データ変換部21による長さパラメータ閾値Aの変換処理が不要である場合(後述のステップS22:NO参照)、長さパラメータ利用部24は、処理エリア決定部22により決定されたエリアに対応するグリッド等についての上記長さパラメータ閾値Aを地図データベースDから取得し、当該決定されたエリアに存在する壁状形状の物体を検出する。
 一方高さ最大値利用部25は、処理エリア決定部22により決定されたエリアに対応するグリッド等についての上記変換処理後の高さ最大値データHmaxをデータ変換部21から取得して、当該決定されたエリアに存在する壁状形状を有する物体を検出する。なお、データ変換部21による高さ最大値データHmaxの変換処理が不要である場合(後述のステップS22:NO参照)、高さ最大値利用部25は、処理エリア決定部22により決定されたエリアに対応するグリッド等についての上記高さ最大値データHmaxを地図データ
ベースDから取得し、当該決定されたエリアに存在する壁状形状を有する物体を検出する。
 更に照射数最大値利用部26は、処理エリア決定部22により決定されたエリアに対応するグリッド等についての上記変換処理後の照射数最大値データNmaxをデータ変換部21から取得して、当該決定されたエリアに存在する壁状形状を有する物体を検出する。なお、データ変換部21による照射数最大値データNmaxの変換処理が不要である場合(後述のステップS22:NO参照)、照射数最大値利用部26は、処理エリア決定部22により決定されたエリアに対応するグリッド等について上記照射数最大値データNmaxを地図データベースDから取得し、当該決定されたエリアに存在する壁状形状を有する物体を検出する。
 最後に二次元マップ利用部27は、当該決定されたエリアに存在する壁状形状を有する物体を、地図データベースDから取得したマップデータを用いて検出する。
 なお、長さパラメータ利用部24、高さ最大値利用部25、照射数最大値利用部26又は二次元マップ利用部27のいずれかにより検出された壁状形状を有する物体を示すデータは、LiDARセンサ20を用いて検出された、LiDARセンサ20が搭載された車両の周囲に存在する複数の物体のデータの中から取り除かれる。これにより、当該周囲に存在する壁状形状の物体以外の物体についての物体認識処理に、LiDARセンサ20が搭載された車両(即ち、ユーザが利用する車両)に搭載されている図示しない物体認識装置の処理能力をより多く割り当てることができることになる。
 次に、第1実施例に係る地図データベースDに記録される、第1実施例に係る地図データのデータ構造について、図4を用いて説明する。
 先ず、地図データベースDに上記マップデータとして壁状形状の位置が記録される場合の一態様としては、図4(a)に例示するように、グリッド等ごとに関連付けられたグレースケールの二次元マップとして、存在データFEx及び存在データFE0がそれぞれのグリッド等の位置に記録される。このとき、存在データFExにより壁状形状自体の大きさ(即ち、鉛直方向の高さ又は水平方向の長さ)を具体的に記録することが好ましい。また存在データFE0として、そのグリッド等の位置には壁状形状が存在しない旨を記録してもよい。
 次に、地図データベースDに上記マップデータとして壁状形状の位置が記録される場合の他の態様としては、図4(b)に例示するように、グリッド等ごとに関連付けられたグレースケールの二次元OGM(Occupancy Grid Maps)として、関連付けられるグリッド等の位置に壁状形状が存在する旨を示す存在データF1と、関連付けられるグリッド等の位置に壁状形状が存在しない旨を示す存在データF0と、を記録するように構成してもよい。
 また図4(c)に示すように、マップデータ以外の上記パラメータのいずれかを地図データベースDに記録する場合、当該パラメータ19Bと、それらが関連付けられているグリッド等を示すグリッド等データ19Cと、が、それらを関連付ける識別データ19Aに関連付けられて記録される。このとき当該パラメータ19Bは、例えば図4(d)に例示するように、車両CCが進行する道路をその進行方向に等分したエリアA1乃至エリアA20ごとに、当該エリアA1乃至エリアA20それぞれに関連付けて上記パラメータ19Bが記録される。この場合のエリアA1乃至エリアA20のそれぞれは、対応するパラメータ19Bに関連付けられているグリッド等に対応するエリアである。なお、例えば図4(e)に例示するように、道路Rに対して自由に(任意に)分割されたエリアA1乃至エリアA6ごとに上記パラメータ19Bが記録されていてもよい。
 次に、第1実施例に係る地図サーバ装置SVにおいて実行される、第1実施例に係る地図データ記録処理について、図5を用いて具体的に説明する。図5に示すように、第1実施例に係る地図データ記録処理は、例えば地図サーバ装置SVの電源スイッチがオンとされたタイミングで開始される。そして第1実施例に係る地図データ記録処理では、先ず処理エリア決定部11により処理対象となるエリアが決定されたか否かが確認される(ステップS1)。ステップS1の確認において当該エリアが決定されていない場合(ステップS1:NO)、処理エリア決定部11により、例えば図4にそれぞれ例示するエリアA1等のいずれかが選択される(ステップS2)。次に、処理対象のエリアが決定されたら(ステップS1:YES又はステップS2)、標高画像生成部13は、当該決定されたエリアについて上記論文に記載の方法により上記標高画像に相当する標高画像データを生成する(ステップS3)。次に識別器14は、上記決定されたエリアについて上記識別データを生成する(ステップS4)。次に二次元マップ生成部18は、地図データベースDに上記マップデータを記録する旨が予め設定されているか否かを判定する(ステップS5)。ステップS5の判定において、当該マップデータを記録する旨が設定されていない場合(ステップS5:NO)、二次元マップ生成部18は後述するステップS8に移行する。一方ステップS5の判定において、当該マップデータを記録する旨が設定されている場合(ステップS5:YES)、次に二次元マップ生成部18は上述した方法により当該マップデータを生成し、地図データベースDに記録する(ステップS6)。
 その後地図サーバ装置SVは、次のエリアについての処理を行うか否かを判定し(ステップS7)、当該処理を引き続き行う場合は(ステップS7:YES)、上記ステップS1以降の処理を繰り返す。一方ステップS7の判定において当該処理を終了する場合(ステップS7:NO)、地図サーバ装置SVはそのまま当該処理を終了する。
 他方上記ステップS5の判定において、当該マップデータを記録する旨が設定されていない場合(ステップS5:NO)に実行されるステップS8として、長さパラメータ閾値計算部15は、地図データベースDに上記長さパラメータ閾値Aを記録する旨が予め設定されているか否かを判定する(ステップS8)。ステップS8の判定において、地図データベースDに上記長さパラメータ閾値Aを記録する旨が設定されていない場合(ステップS8:NO)、長さパラメータ閾値計算部15は後述するステップS11に移行する。一方ステップS8の判定において、当該長さパラメータ閾値Aを記録する旨が設定されている場合(ステップS8:YES)、長さパラメータ閾値計算部15は上述した条件(a)を満たす長さパラメータ閾値Aを算出し、関連付けられるグリッド等を示すグリッド等データ19Cと共に地図データベースDに記録する(ステップS10。図4(c)乃至図4(e)参照)。その後長さパラメータ閾値計算部15は、上記ステップS7に移行する。
 他方上記ステップS8の判定において、当該長さパラメータ閾値Aを記録する旨が設定されていない場合(ステップS8:NO)に実行されるステップS11として、高さ最大値計算部16は、地図データベースDに上記高さ最大値データHmaxを記録する旨が予め設定されているか否かを判定する(ステップS11)。ステップS11の判定において、地図データベースDに上記高さ最大値データHmaxを記録する旨が設定されていない場合(ステップS11:NO)、高さ最大値計算部16は後述するステップS13に移行する。一方ステップS11の判定において、当該高さ最大値データHmaxを記録する旨が設定されている場合(ステップS11:YES)、高さ最大値計算部16は上述した方法により当該高さ最大値データHmaxを算出し、関連付けられるグリッド等を示すグリッド等データ19Cと共に地図データベースDに記録する(ステップS12。図4(c)乃至図4(e)参照)。その後高さ最大値計算部16は、上記ステップS7に移行する。
 最後に上記ステップS11の判定において、当該高さ最大値データHmaxを記録する旨が設定されていない場合(ステップS11:NO)に実行されるステップS13として、照射数最大値計算部17は、地図データベースDに上記照射数最大値データNmaxを記録する旨が予め設定されているか否かを判定する(ステップS13)。ステップS13の判定において、地図データベースDに上記照射数最大値データNmaxを記録する旨が設定されていない場合(ステップS13:NO)、照射数最大値計算部17は上記ステップS7に移行する。一方ステップS13の判定において、当該照射数最大値データNmaxを記録する旨が設定されている場合(ステップS13:YES)、照射数最大値計算部17は上述した方法により当該照射数最大値データNmaxを算出し、関連付けられるグリッド等を示すグリッド等データ19Cと共に地図データベースDに記録する(ステップS14。図4(c)乃至図4(e)参照)。その後照射数最大値計算部17は、上記ステップS7に移行する。
 次に、第1実施例に係る地図データ利用処理について、図6及び図7を用いて説明する。当該地図データ利用処理は、例えばユーザが利用する自動運転車両に搭載された壁状形状判定装置Cによって行われる処理である。当該自動運転車両に搭載されたLiDARセンサ20は、周囲に上記光ビームを照射することによって走査を行い、自動運転車両の周囲に存在する物体の形状、及び当該物体のLiDARセンサ20からの距離及び方向を検出することができる。
 即ち図6に示すように、第1実施例に係る地図データ利用処理は、例えば壁状形状判定装置Cの電源スイッチがオンとされたタイミングで開始される。そして第1実施例に係る地図データ利用処理では、先ず地図サーバ装置SVの地図データベースDから必要な上記パラメータ又は上記マップデータを取得済みであるか否かが判定される(ステップS20)。ステップS20の判定において当該パラメータ等が取得されていない場合(ステップS20:NO)、地図サーバ装置SVの地図データベースDにアクセスして当該必要なパラメータ等が取得される(ステップS21)。必要なパラメータ等が取得されたら(ステップS20:YES又はステップS21)、次に壁状形状判定装置Cは、上記パラメータ等と共に地図データベースDから取得されている上記グリッド等を示すデータ、及びLiDARセンサ10の諸元と、地図データベース23に記録されている地図データの諸元、及び壁状形状判定装置Cに接続されているLiDARセンサ20の諸元と、を比較し、データ変換部21による変換処理が必要か否かを判定する(ステップS22)。ステップS22の判定において、当該変換処理が必要とされる場合(ステップS22:YES)、データ変換部21は当該変換処理を実行する(ステップS23)。
 ここで、データ変換部21による当該変換処理について、より具体的に図7を用いて説明する。
 即ち図7(a)及び図7(b)に例示するように、地図データベースDから取得されたパラメータに対応するグリッド等を示すデータにより示される当該グリッド等GDの地図データ上の密度と、壁状形状判定装置Cの地図データベース23に記録されている地図データベースにおけるグリッド等gdの地図データ上の密度と、を比較したとき、図7(b)に例示するように後者の方が粗い場合がある。このような場合にデータ変換部21は、例えば従来の間引き処理等により、上記当該グリッド等GDの密度をグリッド等gdの密度に変換すると共に、変換処理後のグリッド等gdに関連付けられるパラメータ等の具体的値として、変換処理後のグリッド等gdに含まれることとなった元のグリッド等GDそれぞれにおけるパラメータの最大値を設定する。なお、図7(a)及び図7(b)に例示する場合とは逆に、地図データベースDから取得されたパラメータに対応するグリッド等を示すデータにより示される当該グリッド等の地図データ上の密度が、壁状形状判定装置Cの地図データベース23に記録されている地図データベースにおけるグリッド等の地図データ上の密度より粗い場合があり得る。この場合にデータ変換部21は、地図データベースDから取得されたパラメータに対応するグリッド等における密度が不足している領域を、地図データベース23に記録されている地図データにより補完するための変換処理を行う。
 一方図7(c)に例示するように、地図データベースDから取得されたパラメータを生成する際に用いられたLiDARセンサ10の地上からの高さHと、ユーザが利用する車両UCに搭載される壁状形状判定装置Cに接続されるLiDARセンサ20の地上からの高さhと、を比較したとき、図7(d)に例示するように後者の方が低い場合がある。このような場合であって地図データベースDから上記高さ最大値データHmaxが取得されているときにデータ変換部21は、上記高さ最大値データHmaxを「高さ最大値データHmax-(H-h)」に置き換えて、以後の壁状形状の判定を行う。なお、図7(c)及び図7(d)に例示する場合とは逆に、上記高さHが上記高さhより低い場合もある。この場合も同様に、データ変換部21は上記の高さ最大値データHmaxについての置き換えを行って、以降の壁状形状の判定を行う。
 更に図7(e)に例示するように、地図データベースDから取得されたパラメータを生成する際に用いられたLiDARセンサ10における光ビームの鉛直方向の照射数N1と、上記車両UCに搭載される壁状形状判定装置Cに接続されるLiDARセンサ20における光ビームの鉛直方向の照射数N2と、を比較したとき、図7(f)に例示するように後者の方が少ない場合がある。このような場合であって地図データベースDから上記照射数最大値データNmaxが取得されているときにデータ変換部21は、上記照射数最大値データNmaxを「照射数最大値データNmax×N2/N1」に置き換えて、以後の壁状形状の判定を行う。なお、図7(e)及び図7(f)に例示する場合とは逆に、照射数N1の方が上記照射数N2より少ない場合がある。この場合も同様に、データ変換部21は上記の照射数最大値データNmaxについての置き換えを行って、以降の壁状形状の判定を行う。
 図6に戻って、データ変換部21による変換処理が不要である場合(ステップS22:NO)、又はデータ変換部21による当該変換処理が終了した(ステップS23)場合、次に二次元マップ利用部27は、地図データベースDから上記マップデータが取得されているか否かを判定する(ステップS24)。ステップS24の判定において、当該マップデータが取得されていない場合(ステップS24:NO)、二次元マップ利用部27は後述するステップS28に移行する。一方ステップS24の判定において、当該マップデータが取得されている場合(ステップS24:YES)、二次元マップ利用部27は、LiDARセンサ20からのデータを用いて上記標高画像に相当する標高画像データを生成する(ステップS25)。その後二次元マップ利用部27は、生成された標高画像データと、地図データベースDから取得されたマップデータ又は上記ステップS23による変換処理後のマップデータと、に基づき、壁状形状及びその位置を検出する(ステップS26)。
 その後壁状形状判定装置Cは、例えば当該壁状形状判定装置Cの電源がオフとされた等の理由により第1実施例に係る地図データ利用処理を終了するか否かを判定する(ステップS27)。ステップS27の判定において当該地図データ利用処理を終了する場合(ステップS27:YES)、壁状形状判定装置Cはそのまま当該地図データ利用処理を終了する。一方ステップS27の判定において当該地図データ利用処理を継続する場合(ステップS27:NO)、壁状形状判定装置Cは上記ステップS20以降の処理を繰り返す。
 次に、上記ステップS24の判定において当該マップデータが取得されていない場合(ステップS24:NO)に実行されるステップS28として長さパラメータ閾値利用部24は、LiDARセンサ20が走査するエリアに対応するグリッド等について、地図データベースDから上記長さパラメータ閾値Aが取得されているか否かを判定する(ステップS28)。ステップS28の判定において、当該長さパラメータ閾値Aが取得されていない場合(ステップS28:NO)、長さパラメータ閾値利用部24は後述するステップS31に移行する。一方ステップS28の判定において、当該長さパラメータ閾値Aが取得されている場合(ステップS28:YES)、長さパラメータ閾値利用部24は、LiDARセンサ20によって取得された、当該LiDARセンサ20の周囲(換言すれば、LiDARセンサ20が搭載されている自動運転車両の周囲。以下、同様)に存在する物体の形状、距離及び方向のデータを用いて、上記標高画像に相当する標高画像データを生成する(ステップS29)。その後長さパラメータ閾値利用部24は、生成された標高画像データと、地図データベースDから取得された長さパラメータ閾値A又は上記ステップS23による変換処理後の長さパラメータ閾値Aと、に基づき、当該長さパラメータ閾値Aより大きい長さパラメータを有する物体の形状を、当該長さパラメータ閾値Aに関連付けられているグリッド等に存在する壁状形状と検出する(ステップS30)。その後長さパラメータ閾値利用部24は、上記ステップS27に移行する。
 他方上記ステップS28の判定において当該長さパラメータ閾値Aが取得されていない場合(ステップS28:NO)に実行されるステップS31として高さ最大値利用部25は、LiDARセンサ20が走査するエリアに対応するグリッド等について、地図データベースDから上記高さ最大値データHmaxが取得されているか否かを判定する(ステップS31)。ステップS31の判定において、当該高さ最大値データHmaxが取得されていない場合(ステップS31:NO)、高さ最大値利用部25は後述するステップS35に移行する。一方ステップS31の判定において、当該高さ最大値データHmaxが取得されている場合(ステップS31:YES)、高さ最大値利用部25は、地図データベースDから取得された高さ最大値データHmax又は上記ステップS23による変換処理後の高さ最大値データHmaxと、LiDARセンサ20によって取得された、当該LiDARセンサ20の周囲の物体の高さを示すデータと、を用いて、上記標高画像に相当する標高画像データを生成する(ステップS32)。その後高さ最大値利用部25は、手動、又は地図データベース23に記録されている地図データを用いた予め設定された方法により長さパラメータ閾値を壁状形状判定装置C独自に設定する(ステップS33)。そして高さ最大値利用部25は、ステップS33で設置された長さパラメータ閾値と、ステップS32で生成された標高画像データと、に基づき、当該独自の長さパラメータ閾値より大きい長さパラメータを有する物体の形状を、当該長さパラメータ閾値に関連付けられているグリッド等に存在する壁状形状と検出する(ステップS34)。その後高さ最大値利用部25は、上記ステップS27に移行する。
 最後に上記ステップS31の判定において当該高さ最大値データHmaxが取得されていない場合(ステップS31:NO)に実行されるステップS35として照射数最大値利用部26は、LiDARセンサ20が走査するエリアに対応するグリッド等について、地図データベースDから上記照射数最大値データNmaxが取得されているか否かを判定する(ステップS35)。ステップS35の判定において、当該照射数最大値データNmaxが取得されていない場合(ステップS35:NO)、高さ最大値利用部25は上記ステップS27に移行する。一方ステップS35の判定において、当該照射数最大値データNmaxが取得されている場合(ステップS35:YES)、照射数最大値利用部26は、地図データベースDから取得された照射数最大値データNmax又は上記ステップS23による変換処理後の照射数最大値データNmaxと、LiDARセンサ20によって取得された、当該LiDARセンサ20の周囲の物体に対する光ビームの照射数のデータと、を用いて上記標高画像に相当する標高画像データを生成する(ステップS36)。その後照射数最大値利用部26は上記ステップS33に移行して、上述したステップS33及びステップS34と同様の処理を実行する。
 以上それぞれ説明したように、第1実施例に係る地図データ利用処理によれば、周囲に実在する物体の形状を示すLiDAR20からのデータと、検出用データfと、に基づいて壁状形状を有する物体を検出するので、検出用データfを用いることで、壁状形状検出装置Cの周囲環境の影響を排除して壁状形状を有する物体を他の物体から区別して的確に検出することができる。従って、周囲環境の影響を受けることなく壁状形状を有する物体を他の物体から区別して的確に検出できるので、例えば、当該壁状形状以外の形状を有する物体を対象とした処理の負担を軽減することができる。
 また、検出用データfに対応する壁状形状を有する物体が実在する位置又は領域を示す位置/領域データpであって、位置ごと又は領域ごとに検出用データfと関連付けられた位置/領域データpを取得し、これらのデータに基づいて壁状形状を有する物体を検出するので、その位置を特定しつつ正確且つ的確に壁状形状を有する物体を検出することができる。
 更に、長さパラメータ閾値A等のパラメータ及びグリッド等データ19Cが相互に関連付けられている場合は、周囲環境の影響を排除しつつ、少ないデータ量で壁状形状を有する物体を他の物体から区別して的確に検出することができる。
 更にまた、当該パラメータが、長さパラメータ閾値A、高さ最大値データHmax又は照射数最大値データNmaxのいずれかであるので、周囲環境の影響を排除しつつ、少ないデータ量で壁状形状を有する物体を他の物体から区別してより具体的且つ的確に検出することができる。
 また、長さパラメータ閾値Aを用いる場合に、長さパラメータ閾値Aが上記式(a)の関係を有するので、長さパラメータ閾値Aを用いる場合において、より正確に壁状形状を有する物体を的確に検出することができる。
 更に、パラメータ等に関連付けられたエリアA1等が、壁状形状判定装置Cの周囲を一定間隔で分割した領域とされる場合(図4(d)参照)は、壁状形状を有する物体をきめ細かく検出することができる。
 更にまた、パラメータ等に関連付けられたエリアA1等が、壁状形状判定装置Cの周囲の特性に応じて当該周囲を予め分割した領域とされる場合(図4(e)参照)は、周囲の特性に応じて壁状形状を有する物体を的確に検出することができる。
 また、壁状形状及びその位置を含むマップデータを用いる場合は、周囲環境の影響を排除しつつ壁状形状を有する物体を他の物体から区別して迅速且つ的確に検出することができる。
 更に、検出用データfが生成された際のLiDARセンサ10の諸元等の条件を検出用データfと共に取得し、その条件と、壁状形状検出装置CのLiDARセンサ20の諸元等の条件と、を整合させつつ壁状形状を有する物体を検出するので、より正確に壁状形状を有する物体を検出することができる。
(II)第2実施例
 次に、実施形態に係る他の実施例である第2実施例について、図8及び図9を用いて説明する。なお、図8は第2実施例に係る地図データ記録処理を示すフローチャート等であり、図9は第2実施例に係る地図データ利用処理を示すフローチャートである。
 以下に説明する第2実施例では、第2実施例に係る地図サーバ装置における地図データ記録処理、及び第2実施例に係る壁状形状判定装置における地図データ利用処理として、当該地図サーバ装置に接続されたLiDARセンサの出射光の鉛直方向の傾きの角度(即ちピッチ角。以下同様。)θに応じた地図データ記録処理、及び当該壁状形状判定装置に接続されたLiDARセンサの出射光のピッチ角θ’に応じた地図データ利用処理を行う。なお、第2実施例に係る構成及び処理について、第1実施例に係る構成及び処理と同一のものは、同一の部材番号又はステップ番号を付して、細部の説明は省略する。
 即ち、先ず図8(a)及び図8(b)に例示するように、地図サーバ装置SVに接続されているLiDARセンサ10が搭載されている地図管理用の車両SCが、水平な地面上を走行中(図8(a)参照)からピッチ角θaの坂道上を走行することでその進行方向がXa方向(図8(b)参照)となった場合でも、地面に対する建物BDの壁FDの角度は変わらない。従ってこの場合は、LiDARセンサ10からの光ビームの反射点が、水平走行時に比して、図8(b)に例示するように上方に移動した反射点X1乃至反射点X5に変わってしまう。従って第2実施例に係る地図データ記録処理では、図8(c)に例示するように、LiDARセンサ10からの各光ビームの出射仰角(図8(c)において、角度θ2、角度θ3…と示す)を用いて、各反射点のX軸(即ち、車両SCの水平走行時の進行方向)上の位置XBDを、以下の式(b)により算出する。但し式(b)では、Xa軸を基準としてLiDARセンサ10から出射仰角θnで出射された光ビームの反射点のXa軸上の位置を「Xn」としている。
 XBD=(Xn/cos(θn)×cos(θa+θn) …(b)
 そして、上記式(b)により各光ビームの反射点の位置XBD(結果的に、一の壁FDについては全ての反射点で同一となる)を求め、これらにより上記ピッチ角θaの影響を補正して正しくパラメータ等を算出する。
 より具体的に、第2実施例に係る地図データ記録処理では、図8(d)に示すように、第1実施例に係る地図データ記録処理におけるステップS3に代えて、上記補正を行ったステップS30により第2実施例に係る標高画像に相当する標高画像データが生成される(ステップS30)。なお、第2実施例に係る地図データ記録処理における上記ステップS30以外の処理は、第1実施例に係る地図データ記録処理において対応する各処理と同様であるので、細部の説明は省略する。
 次に、壁状形状判定装置Cに接続されているLiDARセンサ20からの各光ビームの出射仰角に上記ピッチ角θaと同様のピッチ角θ’が含まれる場合も、壁状形状の検出精度に対して上記ピッチ角θaと同様の影響が生じる。そこで第2実施例に係る地図データ利用処理でも、第2実施例に係る地図データ記録処理と同様にして上記ピッチ角θ’の影響を補正する。
 即ち図9に示すように、第2実施例に係る地図データ利用処理では、第1実施例に係る地図データ利用処理におけるステップS25、ステップS29、ステップS32及びステップS36に代えて、LiDARセンサ20からの各光ビームの出射仰角に含まれる上記ピッチ角θ’の影響の補正として、図8に示した第2実施例に係る地図データ記録処理と同様の補正を当該ステップS25、当該ステップS29、当該ステップS32及び当該ステップS36にそれぞれ加えたステップS40、ステップS41、ステップS42及びステップS43により、第2実施例に係る標高画像に相当する標高画像データが生成される(ステップS40、ステップS41、ステップS42及びステップS43)。なお、第2実施例に係る地図データ利用処理における上記ステップS40、ステップS41、ステップS42及びステップS43以外の処理は、第1実施例に係る地図データ利用処理において対応する各処理と同様であるので、細部の説明は省略する。
 以上説明した第2実施例に係る地図データ記録処理及び地図データ利用処理によれば、LiDARセンサ10からの各光ビームの出射仰角に上記ピッチ角θaが含まれる場合、及び、LiDARセンサ20からの各光ビームの出射仰角に上記ピッチ角θ’が含まれる場合のいずれであっても、より正確に、上記パラメータ等の算出及び利用が可能となる。
 なお、図5、図6、図8(d)及び図9にそれぞれ示したフローチャートに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これらを汎用のマイクロコンピュータ等に読み出して実行することにより、当該マイクロコンピュータ等に各実施例に係る地図データ記録処理及び地図データ利用処理を実行させるように構成することも可能である。
 10  LiDARセンサ
 13  標高画像生成部
 15  長さパラメータ閾値計算部
 16  高さ最大値計算部
 17  照射数最大値計算部
 18  二次元マップ生成部
 20  検出装置(LiDARセンサ)
 21  第1取得手段(データ変換部)
 24  物体検出手段(長さパラメータ閾値利用部)
 25  高さ最大値利用部
 26  照射数最大値利用部
 27  二次元マップ利用部
 30  第2取得手段
 f1、f2、f3、fn  検出用データ
 p1、p2、p3、pn  位置/領域データ
 D  地図データベース
 C  検出装置(壁状形状判定装置)
 SV  地図サーバ装置
 SS  地図データ記録利用システム

Claims (12)

  1.  周囲に実在する物体の形状を示す形状情報を取得する第1取得手段と、
     前記形状情報に基づいて、予め設定された壁状形状である被検出壁状形状を有する前記物体を検出するために用いられる検出用データを取得する第2取得手段と、
     前記取得した形状情報と、前記取得した検出用データと、に基づいて、前記物体の中から前記被検出壁状形状を有する前記物体を検出する物体検出手段と、
     を備えることを特徴とする検出装置。
  2.  請求項1に記載の検出装置において、
     前記第2取得手段は、前記検出用データに対応する前記被検出壁状形状を有する前記物体が実在する位置又は領域を示す位置/領域データであって、前記位置ごと又は前記領域ごとに前記検出用データと関連付けられた位置/領域テデータを更に取得し、
     前記物体検出手段は、前記取得された形状情報と、前記取得された検出用データと、前記取得された位置/領域データと、に基づいて前記被検出壁状形状を有する前記物体を検出することを特徴とする検出装置。
  3.  請求項2に記載の検出装置において、
     前記検出用データが、前記被検出壁状形状であることを判定するための高さ又は長さに対応する閾値データであり、
     前記位置/領域データが、前記閾値データに対応する前記被検出壁状形状を有する前記物体が実在する前記領域を示す領域データであり、
     前記閾値データと、前記領域データと、が、前記領域ごとに関連付けられていることを特徴とする検出装置。
  4.  請求項3に記載の検出装置において、
     前記第1取得手段は、前記周囲に出射された光ビームの、前記周囲に実在する前記物体からの反射光を受光することにより得られた受光情報に基づく前記形状情報を取得し、
     前記閾値データは、
    i)前記受光情報により示される前記物体から、前記被検出壁状形状を有する前記物体を判別するための長さ閾値データ、
    ii)前記受光情報により示される複数の前記被検出壁状形状を有する前記物体のうち、前記光ビームの反射位置が最も高い位置を示す高さ最大値データ、又は、
    iii)前記受光情報により示される複数の前記被検出壁状形状を有する前記物体のうち、前記光ビームの前記被検出壁状形状を有する前記物体の高さ方向への照射数が最も多い照射数である照射数最大値データ、
     のいずれかであることを特徴とする検出装置。
  5.  請求項4に記載の検出装置において、
     前記光ビームの出射方向の水平に対する角度を検出する角度検出手段を更に備え、
     前記物体検出手段は、前記閾値データと、前記領域データと、前記検出された角度と、に基づいて前記被検出壁状形状を有する前記物体を検出することを特徴とする検出装置。
  6.  請求項4又は請求項5に記載の検出装置において、
     前記閾値データが前記長さ閾値データである場合において、
     当該長さ閾値データが、
     前記被検出壁状形状を除く他の前記物体の形状に対応する前記長さ閾値データの最大値<前記長さ閾値データ<前記被検出壁状形状に対応する前記長さ閾値データの最小値
     の関係にあることを特徴とする検出装置。
  7.  請求項3から請求項6のいずれか一項に記載の検出装置において、
     前記領域は、前記周囲を一定間隔で分割した領域であることを特徴とする検出装置。
  8.  請求項3から請求項6のいずれか一項に記載の検出装置において、
     前記領域は、前記周囲の特性に応じて当該周囲を予め分割した領域であることを特徴とする検出装置。
  9.  請求項2に記載の検出装置において、
     前記検出用データが、前記被検出壁状形状を有する前記物体の存在を示す存在データであり、
     前記位置/領域データが、前記存在データに対応する前記被検出壁状形状を有する前記物体が実在する位置を示す位置データであり、
     前記存在データと、前記位置データと、が、前記位置ごとに関連付けられていることを特徴とする検出装置。
  10.  請求項1から請求項9のいずれか一項に記載の検出装置において、
     前記第2取得手段は、前記検出用データが生成された際の条件を示す条件情報を、当該条件情報が対応する前記検出用データと共に取得し、
     前記物体検出手段は、前記取得された条件情報により示される前記条件と、前記形状情報が取得された際の条件と、を整合させつつ前記被検出壁状形状を有する前記物体を検出することを特徴とする検出装置。
  11.  第1取得手段と、第2取得手段と、物体検出手段と、を備える検出装置において実行される検出方法であって、
     周囲に実在する物体の形状を示す形状情報を前記第1取得手段により取得する第1取得工程と、
     前記形状情報に基づいて、予め設定された壁状形状である被検出壁状形状を有する前記物体を検出するために用いられる検出用データを前記第2取得手段により取得する第2取得工程と、
     前記取得した形状情報と、前記取得した検出用データと、に基づいて、前記物体の中から前記被検出壁状形状を有する前記物体を前記物体検出手段により検出する物体検出工程と、
     を含むことを特徴とする検出方法。
  12.  コンピュータを、請求項1から請求項10のいずれか一項に記載の検出装置として機能させることを特徴とする検出用プログラム。
PCT/JP2018/045102 2017-12-18 2018-12-07 検出装置及び検出方法並びに検出用プログラム WO2019124118A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-242117 2017-12-18
JP2017242117 2017-12-18

Publications (1)

Publication Number Publication Date
WO2019124118A1 true WO2019124118A1 (ja) 2019-06-27

Family

ID=66994636

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/045102 WO2019124118A1 (ja) 2017-12-18 2018-12-07 検出装置及び検出方法並びに検出用プログラム

Country Status (1)

Country Link
WO (1) WO2019124118A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013053915A (ja) * 2011-09-02 2013-03-21 Pasuko:Kk データ解析装置、データ解析方法、及びプログラム
JP2016161340A (ja) * 2015-02-27 2016-09-05 株式会社デンソー ノイズ除去方法および物体認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013053915A (ja) * 2011-09-02 2013-03-21 Pasuko:Kk データ解析装置、データ解析方法、及びプログラム
JP2016161340A (ja) * 2015-02-27 2016-09-05 株式会社デンソー ノイズ除去方法および物体認識装置

Similar Documents

Publication Publication Date Title
CN110286387B (zh) 应用于自动驾驶系统的障碍物检测方法、装置及存储介质
US11455565B2 (en) Augmenting real sensor recordings with simulated sensor data
CN109993780B (zh) 一种三维高精度地图生成方法及装置
JP5161936B2 (ja) データ解析装置、データ解析方法、及びプログラム
CN111736616A (zh) 扫地机器人的避障方法、装置、扫地机器人及可读介质
KR101913835B1 (ko) 장애물 감지장치 및 감지방법
CN109583280A (zh) 车道线识别方法、装置、设备及存储介质
JP2005222538A (ja) 車道上のマークの認識方法
JP2015518600A5 (ja)
US11204243B2 (en) Point cloud data extraction method and point cloud data extraction device
JP2011232325A (ja) 物体認識装置
JP2017167092A (ja) 地物検出装置、地物検出方法及びプログラム
CN113538966B (zh) 车载传感器系统
JP4279302B2 (ja) 検知装置
JP2006012178A (ja) 駐車車両検知方法及び駐車車両検知システム
CN112698301A (zh) 基于距离强度关联的激光雷达目标识别方法、装置及设备
JPH0933232A (ja) 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置
CN115546749A (zh) 基于摄像机和激光雷达的路面坑洼检测及清扫和避让方法
WO2019124118A1 (ja) 検出装置及び検出方法並びに検出用プログラム
JP2019109705A (ja) データ構造、記録装置及び記録方法並びに記録用プログラム
JP4230373B2 (ja) 検知装置及び検知方法
CN110176000A (zh) 道路质量检测方法及装置、存储介质、电子设备
JP4098253B2 (ja) 検知装置及び検知方法
CN115290092A (zh) 机器人导航方法、装置、电子设备及计算机可读存储介质
CN112286178B (zh) 识别系统、车辆控制系统、识别方法及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18890323

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18890323

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP