WO2021084583A1 - 障害物検知装置、障害物検知方法、及び、障害物検知プログラム - Google Patents

障害物検知装置、障害物検知方法、及び、障害物検知プログラム Download PDF

Info

Publication number
WO2021084583A1
WO2021084583A1 PCT/JP2019/042200 JP2019042200W WO2021084583A1 WO 2021084583 A1 WO2021084583 A1 WO 2021084583A1 JP 2019042200 W JP2019042200 W JP 2019042200W WO 2021084583 A1 WO2021084583 A1 WO 2021084583A1
Authority
WO
WIPO (PCT)
Prior art keywords
water surface
reflection
point
detection unit
point cloud
Prior art date
Application number
PCT/JP2019/042200
Other languages
English (en)
French (fr)
Inventor
航平 廣松
道学 吉田
康 洲鎌
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2019/042200 priority Critical patent/WO2021084583A1/ja
Priority to JP2021553905A priority patent/JP7109685B2/ja
Priority to US17/766,821 priority patent/US20240085553A1/en
Publication of WO2021084583A1 publication Critical patent/WO2021084583A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Definitions

  • the present invention relates to an obstacle detection device, an obstacle detection method, and an obstacle detection program.
  • Three-dimensional LiDAR may be used to detect objects such as ships and piers on the water.
  • LiDAR can determine the distance to an object by projecting a laser beam and measuring the time until it receives the reflected light from the object.
  • the three-dimensional LiDAR can project a laser beam in a plurality of directions such as up, down, left and right, and generate a three-dimensional position of an object as point cloud data based on the obtained distance and the laser projection angle.
  • the three-dimensional LiDAR can receive reflected light having an intensity equal to or higher than a constant value. Therefore, according to the three-dimensional LiDAR, not only the ship, the pier, etc., but also the water surface may be erroneously detected as an object depending on the state of the incident angle, the water surface, and the like.
  • Patent Document 1 proposes a method of setting the assumed maximum height of a wave as an upper limit value and excluding data whose height is equal to or less than the upper limit value from the point cloud data as a method of preventing the water surface from being erroneously detected as an object. There is.
  • the target is the three-dimensional LiDAR that generates the point cloud data obtained by scanning the laser beam in the vertical direction in the measurement range
  • the three-dimensional LiDAR that generates the point cloud data by a different method is targeted.
  • the assumed maximum height of the wave is assumed to be sufficiently smaller than that of the ship or the like to be detected, the assumed maximum height of the wave and the height of the object to be detected When the difference from the detection target is small, it may not be possible to detect most of the detection target, or the detection target may not be detected.
  • An object of the present invention is to detect an obstacle on the water surface, regardless of the method of generating point cloud data, and to detect an object to be detected that does not have a sufficient height with respect to the assumed height of the wave. ..
  • the obstacle detection device is It is the information of the observation point cloud consisting of a plurality of reflection points observed in the measurement range including the water surface, and receives the information including the position information of each reflection point.
  • a plane detection unit that detects a plane passing near a plurality of reflection points included in the observation point cloud data, and a plane detection unit.
  • a pseudo water surface detection unit that detects a pseudo water surface that is a plane detected by the plane detection unit and passes through a relatively low portion of the water surface. From the upper point cloud data consisting of reflection points excluding the reflection points corresponding to the pseudo-water surface from the reflection points included in the observation point cloud data, it corresponds to the wave vertices consisting of other than the relatively low portion of the wave on the water surface.
  • Wave apex detector that detects reflection points and The reflection point corresponding to the pseudo water surface and the reflection point corresponding to the wave apex are designated as reflection points included in the water surface point cloud data, and are reflection points included in the observation point cloud data, which are the water surface point cloud data. It is provided with an obstacle detection unit that determines a reflection point not included in the above as an obstacle reflection point.
  • the observation point cloud data is separated into data acquired from the water surface and other data by detecting the pseudo water surface by the pseudo water surface detection unit and detecting the wave apex by the wave apex detection unit. Therefore, it is possible to acquire a detection object that does not have a sufficient height with respect to the assumed height of the wave.
  • FIG. 3 is a configuration diagram of an obstacle detection system 1 including an obstacle detection device 3 according to the first embodiment.
  • the side view which shows typically the example of the data acquisition by 3D LiDAR2.
  • the block diagram of the water surface separation part 3d which concerns on Embodiment 1.
  • FIG. The hardware block diagram of the obstacle detection apparatus 3 which concerns on Embodiment 1.
  • FIG. The flowchart which shows the operation of the water surface separation part 3d which concerns on Embodiment 1.
  • the conceptual diagram which shows the process of the pseudo water surface detection part 32 which concerns on Embodiment 1.
  • FIG. The conceptual diagram which shows the processing of the grouping part 33 which concerns on Embodiment 1.
  • FIG. 1 It is a figure which shows the example of the wave apex 16 which the wave apex detection unit 34 which concerns on Embodiment 1 has detected, (a) is the figure which shows the characteristic of the wave apex 16a which forms a long wave linearly, (b). ) Is a diagram showing the characteristics of the wave apex 16b forming a pyramid-shaped wave generated by synthesizing waves from a plurality of directions, and (c) is a diagram showing a wave apex model 19 represented by a statistic. The conceptual diagram which shows the example of the processing of the boundary detection part 35 which concerns on Embodiment 1. FIG.
  • FIG. 1 is an outline of a configuration example of an obstacle detection system 1 including an obstacle detection device 3 according to the present embodiment.
  • the obstacle detection system 1 includes a three-dimensional LiDAR (Light Detection and Ranking) 2, an obstacle detection device 3, and a display device 4.
  • LiDAR Light Detection and Ranking
  • the three-dimensional LiDAR2 irradiates the laser beam, receives the reflected light from the object, and outputs the three-dimensional point cloud data summarizing the three-dimensional position information for each reflection point 14. That is, the three-dimensional LiDAR2 outputs information including the position information of each reflection point 14.
  • the reflection point 14 is a point representing the surface of the object, and is a point where the object reflects the laser beam when the obstacle detection system 1 includes the three-dimensional LiDAR2.
  • the reflection point 14 may be expressed as a “point”.
  • 3D LiDAR2 is The floating body 11 is installed so that the water surface 10 is included in the measurement range. It has a laser projection unit (not shown), a laser light receiving unit, and a drive unit that changes these directions up, down, left, and right.
  • the laser beam 12 is projected a plurality of times while changing the projection direction.
  • the time until the reflected light that hits the reflection point 14 of the water surface 10 or the obstacle 13 in the measurement range and returns to the laser light receiving portion is detected is measured.
  • the distance R to the reflection point 14 and the reflection intensity I which is the intensity of the reflected light, are measured.
  • the water surface 10 is typically a liquid-gas interface. Reflection intensity is synonymous with reflectance.
  • FIG. 2 is a side view schematically showing an example of data acquisition by the three-dimensional LiDAR2.
  • the floating body 11 is floating without being fixed to the water surface 10.
  • be the vertical angle
  • be the horizontal angle in the local coordinate system of the right-handed system with the laser receiving part of the three-dimensional LiDAR2 as the origin.
  • the z direction of the local coordinate system of the three-dimensional LiDAR2 is the height direction, typically the vertical direction when the levitation body 11 is placed on the wave-free water surface 10, and the inclination of the levitation body 11. It depends on.
  • 3D LiDAR2 is Scan the measurement range with a fixed resolution
  • the range to be scanned within a certain time is set to one frame.
  • the distance R and the intensity I for each reflection point 14 included in one frame are measured, and the distance R and the intensity I are measured.
  • the distance R, the intensity I, ⁇ , and ⁇ are output to the obstacle detection device 3.
  • the measurement range is at least a part of the range that the three-dimensional LiDAR2 can measure.
  • the obstacle detection device 3 It has an input / output unit 3a, a storage unit 3b, a coordinate conversion unit 3c, a water surface separation unit 3d, and an obstacle detection unit 3e. Detects an object based on 3D point cloud data, Output the information of the detected object.
  • the input / output unit 3a has a digital input / output function, an analog input / output function, and / or a communication input / output function, inputs data from the three-dimensional LiDAR2, and outputs a calculation result of the obstacle detection unit 3e. Output to display device 4.
  • the storage unit 3b stores the threshold value and / or the model data for fitting used by the coordinate conversion unit 3c, the water surface separation unit 3d, and the obstacle detection unit 3e.
  • ⁇ N N is the number of reflection points 14 included in one frame
  • (K) ((X (k) Y (k) Z (k) I (k)) T is calculated.
  • I (k) is the reflection intensity and no calculation is required.
  • D (k) Part or all of the data may be referred to as observation point group data.
  • FIG. 3 is a diagram showing a configuration example of the water surface separating portion 3d and an example of data flow.
  • the water surface separation unit 3d is composed of a plane detection unit 31, a pseudo water surface detection unit 32, a grouping unit 33, a wave apex detection unit 34, and a boundary detection unit 35.
  • the data flow of the water surface separating unit 3d will be described.
  • FIG. 4 is an example of the hardware configuration of the obstacle detection device 3.
  • the obstacle detection device 3 is composed of a general computer 100.
  • the processor 5 is a processing device that executes an obstacle detection program, an OS (Operating System) 23, and the like.
  • the processing device is sometimes called an IC (Integrated Circuit), and the processor 5 is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).
  • the processor 5 is connected to the memory 6 by the data bus 22, temporarily stores the data necessary for the calculation and / or stores the data, and reads and executes the program stored in the memory 6.
  • the obstacle detection device 3 in this figure includes only one processor 5, but the obstacle detection device 3 may include a plurality of processors that replace the processor 5. These plurality of processors share the execution of programs and the like.
  • the memory 6 is a storage device that temporarily stores data, can hold the calculation result of the processor 5, and functions as a main memory used as a work area of the processor 5.
  • the memory 6 corresponds to the storage unit 3b, and can store each process such as the water surface separation unit 3d and the obstacle detection unit 3e, and the setting information from the display device 4.
  • Each process stored in the memory 6 is expanded to the processor 5.
  • the memory 6 is a RAM (Random Access Memory) such as a SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory). At least a part of the storage unit 3b may be composed of the auxiliary storage device 21.
  • the auxiliary storage device 21 stores an obstacle detection program, various programs executed by the processor 5, data used when executing each program, and the like.
  • the auxiliary storage device 21 is an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • the auxiliary storage device 21 includes a memory card, an SD (Secure Digital, registered trademark) memory card, a CF (Compact Flash), a NAND flash, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD (registered trademark). It may be a portable recording medium such as Digital Versail Disc).
  • the obstacle detection program may be provided as a program product.
  • the sensor interface 7, the display interface 8, and the setting interface 9 correspond to the input / output unit 3a of the obstacle detection device 3, and specific examples thereof include Ethernet (registered trademark) or USB (Universal Bus). It is a port.
  • the sensor interface 7 receives information from the three-dimensional LiDAR2.
  • the display interface 8 and the setting interface 9 can communicate with the display device 4.
  • the sensor interface 7, the display interface 8, and the setting interface 9 may be composed of one port.
  • the OS 23 is loaded from the auxiliary storage device 21 by the processor 5, expanded into the memory 6, and executed on the processor 5.
  • the OS 23 may be anything that is compatible with the processor 5.
  • the OS 23 and the obstacle detection program may be stored in the memory 6.
  • the obstacle detection program may be provided as a program product.
  • the display device 4 It includes an input / output unit 4a, an operation unit 4b, and a display unit 4c. Display the detected object information from the obstacle detection device 3 Typically, the setting information set by a human is output to the obstacle detection device 3.
  • the input / output unit 4a As a specific example, it has digital input / output, analog input / output, and / or communication input / output functions. Input the calculation result of the obstacle detection unit 3e, The set value set by the operation unit 4b, which will be described later, is output to be stored in the storage unit 3b.
  • the operation unit 4b is a keyboard as a specific example, and a human can perform an operation for changing the display content of the display unit 4c, the set value stored in the storage unit 3b, and the like.
  • the display unit 4c is a liquid crystal display as a specific example, and can display the position, speed, and / or type of surrounding obstacles 13 based on the calculation result of the obstacle detection unit 3e.
  • FIG. 5 is an example of a flowchart showing the operation of the water surface separating unit 3d.
  • the water surface separating unit 3d may appropriately change the order of the processes shown in this flowchart.
  • Step S1 Plane detection process
  • the plane detection unit 31 detects a plane by using the fitting to the plane model, and generates point cloud data by using the detected plane.
  • the plane detection unit 31 selects a maximum of K points from the point group data P and belongs to the vicinity of a certain plane, and the point group data P v (l) (1 ⁇ l ⁇ l MAX , l MAX is The upper limit number of planes detected by the plane detection unit 31) is generated.
  • K the value of the l MAX may be of any type.
  • the plane model is represented using four parameters a, b, c, and d as shown in the equation (Equation 4).
  • the plane detection unit 31 Detects a plane passing near a plurality of reflection points 14, Any method can be used to detect the plane,
  • RANSAC Random Sample Consensus
  • the definition of the distance L (k) between P (k) and the obtained plane model may be the one shown in (Equation 5), or another definition may be used. good.
  • any definition of distance may be used unless otherwise specified.
  • the plane detection unit 31 typically has P v (l 1 ) (1 ⁇ l 1 ⁇ l MAX ) and P v (l 2 ) (1 ⁇ l 2 ⁇ l MAX , l 1 ⁇ l 2 ).
  • the point group data Pr, 1 obtained by excluding all the points selected as points belonging to the vicinity of the existing plane from P is used for the plane detection.
  • the plane detection unit 31 proceeds to step S2 when the total number of points belonging to the point cloud data Pr, 1 is less than 3, or when l MAX planes are detected.
  • FIG. 6 is a conceptual diagram showing an example of the processing of this step.
  • the reflection points 14 located in the vicinity of the plane determined by the pseudo water surface detection unit 32 to be the pseudo water surface are indicated by black circles, and the reflection points 14 corresponding to the plane determined by the pseudo water surface detection unit 32 to be not the pseudo water surface are indicated by black circles. It is indicated by a white circle.
  • the pseudo water surface is It is a plane for finding the water surface 10. Typically, it is a horizontal or near-horizontal plane that passes through a relatively low portion of the water surface 10.
  • the pseudo water surface detection unit 32 detects the pseudo water surface corresponding to the water surface 10 from the plane corresponding to the point cloud data generated in step S1.
  • the three-dimensional LiDAR2 cannot acquire the obstacle 13 in the water through the water surface 10 except when the laser beam 12 is applied to the highly transparent water surface 10 at an angle close to perpendicular to the water surface 10.
  • the pseudo water surface detection unit 32 Whether or not each plane detected in step S1 is a pseudo water surface is determined based on the degree and height of deviation from the horizontal, and point cloud data P w and v located in the vicinity of the pseudo water surface are detected. Exclude P w and v from P. P w and v are composed of reflection points 14 on the water surface 10. Point cloud data obtained by removing P w and v from P may be referred to as upper point cloud data.
  • the pseudo water surface detection unit 32 Select the plane of 1 detected in step S1 and select The angle formed by the height direction (z direction) in the local coordinate system shown in FIG. 2 and the normal of the selected plane is calculated as the degree of deviation of the plane from the horizontal.
  • the selected plane is used as a candidate for the pseudo water surface.
  • the inclination threshold value may be any value, and as a specific example, it may be a fixed value or a variable value depending on the inclination of the floating body 11.
  • the threshold value is referred to, the same applies to other types of threshold values unless otherwise specified. Not all points belonging to P v (l) exist on the plane of 1.
  • the plane detected in step S1 may not be a pseudo-water surface such as an upper surface of an object floating on water, a pier, or the like, even if it is horizontal or close to horizontal. Therefore, the pseudo water surface detection unit 32 determines whether or not the surface is a pseudo water surface based on the height of the plane. As a specific example, the pseudo water surface detection unit 32 determines that a plane in which the height of the point cloud data corresponding to the plane is lower than the plane threshold value which is a predetermined threshold value is a pseudo water surface, and the height is the highest among the plurality of groups. P w and v are extracted by judging the point cloud data with a low value as a pseudo water surface.
  • the height of the point cloud data is the average of the heights of all the points belonging to the point cloud data corresponding to the plane, the height of the highest point among the points belonging to the point cloud data, or the height of the lowest point. That's right.
  • the pseudo water surface detection unit 32 may assume that P w and v do not exist when there is no plane satisfying this condition.
  • the threshold value of the angle formed by the height direction (z direction) and the normal of the plane is the maximum swing angle in the usage environment of the floating body 11 in consideration of the fact that the three-dimensional LiDAR2 is installed on the floating body 11. It is desirable to set a value.
  • the maximum value of the swing angle is a value calculated based on a preset value or an actual measured value, and may be a variable value.
  • the pseudo water surface detection unit 32 A point located within a certain range above and below the pseudo water surface is determined to be a reflection point 14 on the water surface 10. P a, P w, v and separates P w, v the point group data P r, 2 of points excluding from P.
  • the pseudo water surface detection unit 32 may change a certain range up and down in consideration of the situation of the water surface 10 and the like.
  • the obstacle detection device 3 does not determine the reflection point 14 on the water surface 10 and remains, the point cloud data on the water surface 10 forming the wave surface and / or the water surface 10 adhering to the obstacle 13. Remove the point cloud data of.
  • Step S3 Grouping process
  • the grouping unit 33 executes preprocessing for extracting the vertices of the wave.
  • the grouping unit 33 generates point cloud data P b (m) (1 ⁇ m) composed of points included in Pr and 2 by connecting points that are close to each other.
  • Each P b (m) is called a "point cloud group”.
  • M point cloud groups are generated in this step.
  • the grouping unit 33 Any method may be used, such as combining a plurality of points belonging to Pr and 2 to generate a set of points and connecting sets having a short distance to each other. Any kind of distance may be used as a definition of a distance and a criterion for judging whether or not points are close to each other.
  • FIG. 7 is a conceptual diagram showing an example of the result of the processing of this step.
  • Grouping unit 33 in this example, the length of one side of a plane perpendicular to the height direction in the local coordinate system depicted in FIG. 2 is divided into a grid 15 of square S g, points in the adjacent grid Connect the grids until no longer exists.
  • the grouping unit 33 may divide the plane by using one or more types of polygons instead of dividing by the square grid 15, and may divide a certain range above and below the plane into a rectangular parallelepiped grid or one or more types of solids. It may be divided using a figure.
  • P b (m) may consist only of points belonging to one grid.
  • Step S4 Wave vertex detection process
  • the pseudo water surface detection unit 32 may not include the reflection point 14 that hits the wave apex 16 in P w and v.
  • the wave apex 16 refers to a portion of the wave on the water surface 10 excluding a relatively low portion of the wave.
  • the wave apex detection unit 34 detects the wave apex 16 by using the fitting to the wave apex model 19.
  • the wave apex model 19 is a model that abstracts the wave apex 16.
  • the height of the point cloud group is similar to the height of the point cloud data.
  • the wave apex detection unit 34 detects the reflection point 14 on the wave apex 16 from each P b (m).
  • FIG. 8 is a diagram showing an example of the wave apex 16 to be detected by the wave apex detection unit 34, and the white circles indicate points in the point cloud group.
  • FIG. 8A shows an example of the characteristics of the wave apex 16a forming a linearly long wave
  • FIG. 8B shows a pyramid-shaped wave generated by synthesizing waves from a plurality of directions.
  • An example of the characteristics of the wave apex 16b forming the wave apex 16b is shown
  • FIG. 8C shows an example of the wave apex model 19 represented by statistics such as mean and dispersion.
  • the wave vertex model 19 may be generated by another method.
  • the storage unit 3b stores at least one wave apex model 19, and the wave apex detection unit 34 determines whether or not to fit the wave apex model 19 to determine whether or not to fit the wave apex model 19 in FIGS. b)
  • the wave apex 16 having a shape such as the above is extracted.
  • the wave apex detection unit 34 Create a circumscribed rectangular parallelepiped 17 on a plane perpendicular to the height direction, A point in the circumscribed rectangular parallelepiped 17 is projected onto a plane 18 perpendicular to the long side direction of the circumscribed quadrangle.
  • P b (m) is determined to be the wave apex 16.
  • the wave apex detection unit 34 shall determine M t P b (m) as the wave apex 16.
  • the wave apex detection unit 34 extracts a wave apex having a height presumed to be a wave, considering that the point cloud group at a high position is likely not the reflection point 14 on the water surface 10.
  • the wave apex detection unit 34 obtains the center of gravity positions P g and t (m) of each P b (m) determined to be fitted to the wave apex model 19.
  • the wave apex detection unit 34 If P w and v exist, the following process (A) is executed. In other cases, the following process (B) is executed.
  • P b (m) is determined to be the wave apex 16.
  • the wave apex detection unit 34 does not execute the process (A), but instead executes the process (A).
  • Each P b that is determined not to fit the wave apex model 19 (m), i.e., included in each P b (m) which is determined not even the reflection point 14 on the water surface 10 even reflection point 14 on the wave apex 16 The center of gravity positions P g and b (m) of all the points are obtained, and the lowest height among all P g and b (m) is set as the water surface threshold value.
  • each P b (m) the point cloud group P w corresponding to m), and t (m t), to the other each P b (m) is of P b, and r (m r).
  • Step S5 Boundary detection process Because the boundary detection unit 35 is attached to or along the obstacle 13 by removing the point data corresponding to the reflection point 14 on the water surface 10 included in P b, r (m r).
  • the pseudo water surface detection unit 32 and the wave apex detection unit 34 are reflection points 14 that are not determined to be the water surface 10, and the reflection points 14 considered to be the water surface 10 are extracted.
  • the boundary detection unit 35 utilizes the fact that I (k) of the reflection point 14 on the water surface 10 is small in this step.
  • the boundary detection unit 35 may extract the reflection point 14 on the obstacle 13.
  • a part of the water surface 10 may be included in P b, r (m r ) because the water surface 10 near the boundary between the obstacle 13 and the water surface 10 tends to rise.
  • the boundary detection unit 35 determines that the points having low reflection intensity among the points included in P b, r (m r) are a part of the water surface 10.
  • FIG. 9 is a conceptual diagram showing an example of processing of the boundary detection unit 35.
  • white circles indicate points with high reflection intensity
  • black circles indicate points with low reflection intensity.
  • Boundary detection unit 35 is typically, for all m r, P b, a r (m r) low reflection intensity contained in the reflection point 14, reflection point 14 below the predetermined threshold Remove from P b, r (m r).
  • the boundary detection unit 35 typically The average value of the reflection intensities of all the points included in P b, r (m r ) was obtained as the average reflection intensity I b, r (m r ).
  • the boundary reflection point is a point determined by the boundary detection unit 35 to be a reflection point 14 on the water surface 10.
  • the reflection threshold value may be a variable value depending on the weather and the like.
  • the boundary detection unit 35 When P w, v exists, the boundary detection unit 35 has a plane corresponding to P w, v and a boundary reflection point for all boundary reflection points, as in the process (A) of the wave vertex detection unit 34.
  • the boundary reflection point When the distance is equal to or less than the boundary water surface threshold value, the boundary reflection point is determined to be a point on the water surface 10 and removed from P b, r (m r).
  • the boundary water surface threshold value may be the same as the water surface threshold value.
  • the boundary detection unit 35 obtains the water surface threshold value in the same manner as in the process (B) of the wave apex detection unit 34, and sets the boundary reflection point located at a height equal to or lower than the water surface threshold value on the water surface 10. Judged as a point and removed from P b, r (m r).
  • Boundary detection unit 35 for all m r, and P b, r (m r) point cloud data point group obtained by removing a point on the water surface 10 from the data P o, and r (m r), removed in this step
  • the point cloud data P w caused by reflection point 14 on the water surface 10, P w, and v, and P w, t (m t) is obtained by combining the P w, o, on the obstacle 13
  • the point cloud data Po by the reflection point 14 is a combination of all Po and r (m r).
  • the obstacle detection unit 3e Using the point cloud data Po by the reflection points 14 on the obstacle 13 separated from the point cloud data forming one frame by the water surface separation unit 3d or the point cloud data Po, r ( mr ) of the individual obstacles 13. Then, the process related to the detection of the obstacle 13 in the measurement range of the three-dimensional LiDAR2 is performed. The processing result is transmitted to the display device 4 via the input / output unit 3a.
  • the obstacle detection unit 3e identifies the obstacle 13 by fitting with the model of the pier and / or the ship stored in the storage unit 3b, and the similarity between frames using the shape feature amount of the point cloud. Processing such as speed calculation of the obstacle 13 by tracking the moving obstacle 13 using the search is executed.
  • the obstacle detection device 3 It is the information of the observation point cloud consisting of a plurality of reflection points observed in the measurement range including the water surface 10, and receives the information including the position information of each reflection point.
  • a plane detection unit 31 that detects a plane passing near a plurality of reflection points included in the observation point cloud data, and a plane detection unit 31.
  • a pseudo water surface detection unit 32 that detects a pseudo water surface that is a plane detected by the plane detection unit 31 and passes through a relatively low portion of the water surface 10.
  • Wave apex detection unit 34 that detects points, The reflection points corresponding to the pseudo water surface and the reflection points corresponding to the wave vertices 16 are the reflection points included in the water surface point cloud data, and are the reflection points included in the observation point cloud data and are included in the water surface point cloud data. It is provided with an obstacle detection unit 3e that determines a non-reflective point as a reflection point of an obstacle.
  • the plane detection unit 31 detects a plane by using the fitting to the plane model.
  • the inclination between the normal line of the plane detected by the plane detection unit 31 and the height direction of the obstacle detection device 3 is equal to or less than the inclination threshold value, and the height of the detected plane is the plane threshold value.
  • the plane is determined to be a pseudo-water surface.
  • the obstacle detection device 3 includes a storage unit 3b that stores a wave apex model 19 representing the wave apex 16.
  • the wave apex detection unit 34 determines that the portion of the upper point cloud data that can be fitted to the wave apex model 19 is the wave apex 16.
  • the obstacle detection device 3 divides the measurement range using figures, and connects the two figures when any of the two figures adjacent in the horizontal direction includes a reflection point included in the upper point cloud data. It is provided with a grouping unit in which the reflection points included in the connected figures of 1 are grouped into a point cloud of 1.
  • the wave apex detection unit 34 determines whether or not there is a reflection point corresponding to the wave apex 16 for each point cloud group.
  • the wave apex detection unit 34 obtains the position of the center of gravity of each of the point group groups, and when the distance between the obtained center of gravity position and the pseudo water surface is equal to or less than the water surface threshold, the reflection included in the point group group corresponding to the obtained center of gravity position.
  • the point is determined to be a reflection point corresponding to the wave apex 16.
  • the obstacle detection device 3 receives information on the reflection intensity of each reflection point and receives information on the reflection intensity. Reflection points located on the water surface 10 near the boundary between the water surface 10 and obstacles on the water surface 10 from the reflection points excluding the reflection points corresponding to the pseudo water surface and the reflection points corresponding to the wave vertices 16 from the observation point group data. Is provided with a boundary detection unit 35 that detects using the reflection intensity as a boundary reflection point. The obstacle detection unit 3e sets the boundary reflection point as the reflection point included in the water surface point cloud data.
  • the boundary detection unit 35 determines a reflection point whose reflection intensity is equal to or less than the reflection threshold value as a boundary reflection point.
  • the boundary detection unit 35 determines that the reflection point whose height of the boundary reflection point is equal to or less than the boundary water surface threshold value is regarded as the boundary reflection point.
  • Embodiment 1 *** Conventionally, in obstacle detection on the water surface, it is assumed that the assumed maximum height of the wave is sufficiently lower than the detection target based on the knowledge that the detection target of 3D LiDAR is at a higher position than the wave on the sea. Then, a threshold value was set, and point data from a position lower than the threshold value was excluded as point data from the water surface. Therefore, it has been difficult to apply the prior art to small vessels that need to detect objects with a height similar to the height of the waves and perform actions such as avoidance and / or berthing.
  • the pseudo water surface determination process S2 and the wave apex detection unit 34 detect by fitting the reflection point 14 on the water surface 10 or the wave apex 16 to the wave apex model 19 from the point cloud data acquired from the three-dimensional LiDAR2.
  • the pseudo water surface determination process S2 selects the point cloud data at the lowest position in the height direction based on the fact that the laser projected by the three-dimensional LiDAR2 does not easily pass through the water surface 10. Therefore, according to the present embodiment, even when the height of the obstacle 13 which is the detection target and the height of the wave are about the same, the reflection point 14 on the obstacle 13 on the water surface 10 and the water surface It can be distinguished from the reflection point 14 on 10.
  • the boundary detection unit 35 detects the obstacle 13 by determining the reflection point 14 whose reflection intensity is the reflection threshold value as the reflection point on the water surface 10 in the vicinity of the obstacle 13. The accuracy of
  • the obstacle detection device 3 may be composed of a plurality of computers.
  • the obstacle detection device 3 may receive point cloud data from a device other than the three-dimensional LiDAR2. In this modification, the obstacle detection device 3 receives point cloud data from the depth camera as a specific example.
  • the water surface 10 may be the surface of a liquid other than water.
  • the obstacle detection device 3 may receive the point cloud data P. In this modification, the obstacle detection device 3 does not have to include the coordinate conversion unit 3c.
  • the floating body 11 may be a device fixed to an embankment or the like, or may be a device flying near the water surface 10.
  • the obstacle detection device 3 may return to step S1 when the pseudo water surface does not exist in step S2.
  • the obstacle detection device 3 may learn and / or generate the wave apex model 19 based on the observation data or the like.
  • the pseudo water surface detection unit 32 may detect the pseudo water surface based on an angle from the vertical direction.
  • step S4 the wave apex detection unit 34 may set a position other than the exact center of gravity position as the center of gravity position.
  • the obstacle detection device 3 does not have to include the boundary detection unit 35.
  • the obstacle detection device 3 uses the reflection point 14 corresponding to the pseudo water surface and the reflection point 14 corresponding to the wave apex as water surface point cloud data.
  • the boundary detection unit 35 does not have to determine in step S5 whether or not all the points are equal to or less than the reflection intensity. As a specific example, the boundary detection unit 35 randomly extracts the reflection points 14 and confirms the reflection intensity of the points around the extracted points when the reflection intensity of the extracted points is low.
  • Boundary detection unit 35 in step S5, I b, r a (m r), rather than P b, the average value of the reflection intensity of all points contained in the r (m r), P b , r ( It may be the average value of the reflection intensities of some points included in mr).
  • the boundary detection unit 35 uses random sampling as a specific example in this modification.
  • each functional component is realized by software has been described.
  • each functional component may be realized by hardware.
  • the obstacle detection device 3 When each functional component is realized by hardware, the obstacle detection device 3 includes an electronic circuit 20 instead of the processor 5. Alternatively, although not shown, the obstacle detection device 3 includes an electronic circuit 20 instead of the processor 5, the memory 6, and the auxiliary storage device 21.
  • the electronic circuit 20 is a dedicated electronic circuit that realizes the functions of each functional component (and the memory 6 and the auxiliary storage device 21). Electronic circuits are sometimes called processing circuits.
  • the electronic circuit 20 is assumed to be a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array). Will be done.
  • Each functional component may be realized by one electronic circuit 20, or each functional component may be distributed and realized by a plurality of electronic circuits 20.
  • processor 5, memory 6, auxiliary storage device 21, and electronic circuit 20 are collectively referred to as "processing circuit Lee". That is, the function of each functional component is realized by the processing circuit.
  • the embodiment is not limited to the one shown in the first embodiment, and various changes can be made as needed.
  • 1 Obstacle detection system 2 3D LiDAR, 3 Obstacle detection device, 4 Display device, 3a Input / output unit, 3b Storage unit, 3c Coordinate conversion unit, 3d Water surface separation unit, 31 Plane detection unit, 32 Pseudo water surface detection unit , 33 grouping unit, 34 wave peak detection unit, 35 boundary detection unit, 3e obstacle detection unit, 4a input / output unit, 4b operation unit, 4c display unit, 5 processor, 6 memory, 7 sensor interface, 8 display interface, 9 setting interface, 10 water surface, 11 levitation body, 12 laser beam, 13 obstacle, 14 reflection point, 15 lattice, 16 wave apex, 16a wave apex, 16b wave apex, 17 extrinsic rectangular body, 18 plane, 19 wave apex model, 20 electronic circuits, 21 auxiliary storage devices, 22 data buses, 23 OS, 100 computers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

障害物検知装置(3)は、水面(10)を含む測定範囲において観測した複数の反射点(14)から成る観測点群データの情報を受信し、観測点群データに含まれる複数の反射点(14)の付近を通る平面を検出する平面検出部(31)と、疑似水面を検出する疑似水面検出部(32)と、波頂点(16)に対応する反射点(14)を検出する波頂点検出部(34)と、疑似水面に対応する反射点(14)と、波頂点(16)に対応する反射点(14)とを水面点群データに含まれる反射点(14)とし、水面点群データに含まれない反射点(14)を障害物の反射点(14)と判定する障害物検知部(3e)とを備える。

Description

障害物検知装置、障害物検知方法、及び、障害物検知プログラム
 本発明は、障害物検知装置、障害物検知方法、及び、障害物検知プログラムに関する。
 水上において船舶、桟橋等の物体を検知するために、3次元LiDAR(Light Detection and Ranging)が用いられることがある。
 LiDARは、レーザ光を投射し、物体からの反射光を受光するまでの時間を計測することにより物体までの距離を求めることができる。
 3次元LiDARは、レーザ光を上下左右等の複数方向に向けて投射し、求めた距離と、レーザ投射角度とに基づいて物体の3次元位置を点群データとして生成することができる。
 3次元LiDARは、定値以上の強度を持つ反射光を受光することができる。そのため、3次元LiDARによれば、船舶、桟橋等だけでなく、入射角、水面等の状態によっては水面を物体と誤検知することがある。
 特許文献1では、水面を物体と誤検知することを防ぐ方法として、波の想定最大高さを上限値とし、点群データから高さが上限値以下であるデータを除外する方法が提案されている。
特開2012-237592号公報
 特許文献1の技術によれば、測定範囲においてレーザ光を鉛直方向に走査させて得られる点群データを生成する3次元LiDARを対象としているため、異なる方法により点群データを生成する3次元LiDAR、デプスカメラ等により生成された点群データを用いることができない場合がある。
 さらに、特許文献1の技術によれば、波の想定最大高さは検知対象である船舶等と比較して十分に小さいと仮定しているため、波の想定最大高さと、検知対象物の高さとの差が小さい場合に、検知対象物のほとんどの部分を検知することができない、又は、検知対象物を検知することができないことがある。
 本発明は、水面上における障害物検知において、点群データの生成方法に関係なく、かつ、波の想定高さに対して十分な高さを有しない検知対象物を検知することを目的とする。
 本発明に係る障害物検知装置は、
 水面を含む測定範囲において観測した複数の反射点から成る観測点群データの情報であって、各反射点の位置情報を含む情報を受信し、
 前記観測点群データに含まれる複数の反射点の付近を通る平面を検出する平面検出部と、
 前記平面検出部が検出した平面であって、前記水面の相対的に低い部分を通る平面である疑似水面を検出する疑似水面検出部と、
 前記観測点群データに含まれる反射点から前記疑似水面に対応する反射点を除いた反射点から成る上部点群データから、前記水面の波の相対的に低い部分以外から成る波頂点に対応する反射点を検出する波頂点検出部と、
 前記疑似水面に対応する反射点と、前記波頂点に対応する反射点とを水面点群データに含まれる反射点とし、前記観測点群データに含まれる反射点であって、前記水面点群データに含まれない反射点を障害物の反射点と判定する障害物検知部と
を備える。
 本発明によれば、疑似水面検出部が疑似水面を検出することと、波頂点検出部が波頂点を検出することとにより、観測点群データを水面から取得したデータとそれ以外のデータに分離することができるため、波の想定高さに対して十分な高さを有しない検知対象物を取得することができる。
実施の形態1に係る障害物検知装置3を備える障害物検知システム1の構成図。 3次元LiDAR2によるデータ取得の例を模式的に示す側面図。 実施の形態1に係る水面分離部3dの構成図。 実施の形態1に係る障害物検知装置3のハードウェア構成図。 実施の形態1に係る水面分離部3dの動作を示すフローチャート。 実施の形態1に係る疑似水面検出部32の処理を示す概念図。 実施の形態1に係るグループ化部33の処理を示す概念図。 実施の形態1に係る波頂点検出部34が検出対象とする波頂点16の例を示す図であり、(a)は直線状に長い波を形成する波頂点16aの特徴を示す図、(b)は複数の方向からの波が合成されて発生するピラミッド状の波を形成する波頂点16bの特徴を示す図、(c)は統計量によって表される波頂点モデル19を示す図。 実施の形態1に係る境界検出部35の処理の例を示す概念図。
 実施の形態1.
 以下、本実施の形態について、図面を参照しながら詳細に説明する。
***構成の説明***
 以下、図面を参照して、本実施の形態に係る障害物検知装置3を説明する。
 図1は、本実施の形態に係る障害物検知装置3を備える障害物検知システム1の構成例の概略である。
 本図に示すように、障害物検知システム1は、3次元LiDAR(Light Detection and Ranging)2と、障害物検知装置3と、表示装置4とを備える。
 3次元LiDAR2は、レーザ光を照射して物体からの反射光を受信し、反射点14毎の3次元位置情報をまとめた3次元点群データを出力する。即ち、3次元LiDAR2は、各反射点14の位置情報を含む情報を出力する。
 反射点14は、物体の表面を表す点であり、障害物検知システム1が3次元LiDAR2を備える場合においては物体がレーザ光を反射した点である。以下、反射点14を「点」と表現することもある。
 3次元LiDAR2は、
 浮上体11に、測定範囲に水面10が含まれるように設置され、
 図示していないレーザ投射部と、レーザ受光部と、これらの方向を上下左右に変化させる駆動部とを有し、
 投射する方向を変えながらレーザ光12を複数回投射し、
 測定範囲の水面10又は障害物13の反射点14に当たってレーザ受光部に戻った反射光を検知するまでの時間を計測し、
 反射点14毎に、反射点14までの距離Rと、反射光の強度である反射強度Iとを測定する。
 水面10は、典型的には液体と気体の境界面である。
 反射強度は、反射率と同義である。
 図2は、3次元LiDAR2によるデータ取得の例を模式的に示す側面図である。
 本図において、浮上体11は水面10に固定されずに浮かんでいる。
 3次元LiDAR2のレーザ受光部を原点とする右手系のローカル座標系における上下方向の角度をφとし、左右方向の角度をθとする。
 3次元LiDAR2のローカル座標系のz方向は、高さ方向であり、典型的には、浮上体11が波のない水面10に置かれている場合には鉛直方向であり、浮上体11の傾きに依存する方向である。
 3次元LiDAR2は、
 測定範囲を決められた分解能で走査し、
 ある時間内に走査する範囲を1フレームとし、
 1フレームに含まれる反射点14ごとの距離Rと強度Iとを測定し、
 距離Rと強度Iとφとθとを障害物検知装置3へ出力する。
 測定範囲は、3次元LiDAR2が測定することができる範囲の少なくとも一部のことである。
 障害物検知装置3は、
 入出力部3aと、記憶部3bと、座標変換部3cと、水面分離部3dと、障害物検知部3eとを有し、
 3次元点群データに基づいて物体を検知し、
 検知した物体の情報を出力する。
 入出力部3aは、具体例として、デジタル入出力機能、アナログ入出力機能、及び/又は、通信入出力機能を有し、3次元LiDAR2からデータを入力し、障害物検知部3eの演算結果を表示装置4へ出力する。
 記憶部3bは、座標変換部3c、水面分離部3d、障害物検知部3eが用いる閾値及び/又はフィッティング用のモデルデータ等を記憶している。
 座標変換部3cは、3次元LiDAR2が取得した1フレーム分の反射点14のデータD(k)=((R(k) φ(k) θ(k) I(k))(1≦k≦N、Nは1フレームに含まれる反射点14の数)から、(式1)、(式2)、及び、(式3)を用いて3次元LiDAR2のローカル座標系における3次元点データP(k)=((X(k) Y(k) Z(k) I(k))を算出する。ここで、I(k)は反射強度であり、演算不要である。D(k)の一部又は全てを観測点群データと呼ぶこともある。
X(k)=R(k)sinφ(k)cosθ(k)  (式1)
Y(k)=R(k)sinφ(k)sinθ(k)  (式2)
Z(k)=R(k)cosφ(k)         (式3)
 水面分離部3dは、
 座標変換部3cが算出した全ての3次元点データから成る点群データP(={P(1),…,P(N)})を入力とし、
 Pを、水面10上の反射点14による点群データPと、障害物13上の反射点14による点群データPとに分離して出力する。Pを水面点群データと呼ぶこともある。
 なお、特に断りがない限り、本実施の形態の説明において、ある領域における全ての点への言及は典型的な例としての言及に過ぎず、ある領域における全ての点の代わりにある領域における一部の点であっても良い。
 図3は、水面分離部3dの構成例とデータの流れの例とを示す図である。
 本図に示すように、水面分離部3dは、平面検出部31と、疑似水面検出部32と、グループ化部33と、波頂点検出部34と、境界検出部35とから構成される。
 動作の説明において、水面分離部3dのデータの流れを説明する。
 図4は、障害物検知装置3のハードウェア構成例である。障害物検知装置3は、一般的なコンピュータ100から構成される。
 プロセッサ5は、障害物検知プログラムと、OS(Operating System)23と等を実行するプロセッシング装置である。プロセッシング装置は、IC(Integrated Circuit)と呼ぶこともあり、プロセッサ5は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
 プロセッサ5は、メモリ6とデータバス22により接続されており、演算に必要なデータの一時記憶、及び/又は、データの保存を行い、メモリ6に格納されたプログラムを読み出して実行する。
 本図の障害物検知装置3は、プロセッサ5を1つだけ備えているが、障害物検知装置3は、プロセッサ5を代替する複数のプロセッサを備えていても良い。これら複数のプロセッサは、プログラムの実行等を分担する。
 メモリ6は、データを一時的に記憶する記憶装置であり、プロセッサ5の演算結果を保持することができ、プロセッサ5の作業領域として使用されるメインメモリとして機能する。メモリ6は、記憶部3bに対応し、水面分離部3dと、障害物検知部3eと等の各処理と、表示装置4からの設定情報とを格納することができる。メモリ6が格納している各処理は、プロセッサ5に展開される。
 メモリ6は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等のRAM(Random Access Memory)である。
 記憶部3bの少なくとも一部が、補助記憶装置21から構成されても良い。
 補助記憶装置21は、障害物検知プログラムと、プロセッサ5によって実行される各種プログラムと、各プログラムの実行時に使用されるデータと等を記憶する。補助記憶装置21は、具体例としては、HDD(Hard Disk Drive)又は、SSD(Solid State Drive)である。また、補助記憶装置21は、メモリカード、SD(Secure Digital、登録商標)メモリカード、CF(Compact Flash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、又は、DVD(Digital Versatile Disk)等の可搬記録媒体であってもよい。
 障害物検知プログラムは、プログラムプロダクトとして提供されてもよい。
 センサインタフェース7と、表示インタフェース8と、設定インタフェース9とは、障害物検知装置3の入出力部3aに対応し、具体例としては、Ethernet(登録商標)、又は、USB(Universal Serial Bus)のポートである。
 センサインタフェース7は、3次元LiDAR2からの情報を受け付ける。表示インタフェース8と、設定インタフェース9とは、表示装置4と通信することができる。
 センサインタフェース7と、表示インタフェース8と、設定インタフェース9とは、1のポートから構成されても良い。
 OS23は、プロセッサ5によって補助記憶装置21からロードされ、メモリ6に展開され、プロセッサ5上で実行される。OS23は、プロセッサ5に適合するどのようなものであっても良い。
 OS23と、障害物検知プログラムとは、メモリ6に記憶されていても良い。
 障害物検知プログラムは、プログラムプロダクトとして提供されてもよい。
 表示装置4は、
 入出力部4aと、操作部4bと、表示部4cとを備え、
 障害物検知装置3からの検知物体情報を表示し、
 典型的には人間が設定した設定情報を、障害物検知装置3に出力する。
 入出力部4aは、
 具体例として、デジタル入出力、アナログ入出力、及び/又は、通信入出力機能を有し、
 障害物検知部3eの演算結果を入力し、
 後述する操作部4bによる設定値を記憶部3bに記憶するために出力する。
 操作部4bは、具体例としてキーボードであり、人間が表示部4cの表示内容、記憶部3bが記憶している設定値等を変更するための操作をすることができるものである。
 表示部4cは、具体例として液晶ディスプレイであり、障害物検知部3eの演算結果に基づいて周囲の障害物13の位置、速度、及び/又は、種類等を表示することができるものである。
***動作の説明***
 障害物検知装置3の動作手順は、障害物検知方法に相当する。また、障害物検知装置3の動作を実現するプログラムは、障害物検知プログラムに相当する。
 図5は、水面分離部3dの動作を示すフローチャートの例である。水面分離部3dは、本フローチャートに示す処理の順序を適宜変更しても良い。
(ステップS1:平面検出処理)
 平面検出部31は、平面モデルへのフィッティングを利用して平面を検出し、検出した平面を利用して点群データを生成する。
 平面検出部31は、点群データPから最大K個の点であって、ある平面の近傍に属する点を選択して点群データP(l)(1≦l≦lMAX、lMAXは平面検出部31が検出する平面の上限数)を生成する。
 Kと、lMAXとの値は、どのようなものであっても良い。
 平面モデルは、方程式(式4)に示すように4つのパラメータaと、bと、cと、dとを用いて表される。
ax+by+cz+d=0  ただし、√(a+b+c)=1  (式4)
 平面検出部31は、
 複数の反射点14の付近を通る平面を検出し、
 平面の検出にどのような手法を用いても良く、
 RANSAC(Random Sample Consensus)を用いる場合、P(k)と求めた平面モデルとの距離L(k)の定義として、(式5)に示すものを用いても良く、他の定義を用いても良い。
 以下、距離に言及する場合、特に断りがない限り、距離の定義はどのようなものであっても良い。
L(k)=|aX(k)+bY(k)+cZ(k)+d|  (式5)
 平面検出部31は、典型的には、P(l)(1≦l≦lMAX)と、P(l)(1≦l≦lMAX、l≠l)とに同じ点が所属しないようにするために、既にある平面の近傍に属する点として選択した全ての点をPから除いた点群データPr,1を平面検出に用いる。
 平面検出部31は、点群データPr,1に属する点の総数が3個未満になった場合、又は、lMAX個の平面を検出した場合に、ステップS2に進む。
(ステップS2:疑似水面検出処理)
 図6は、本ステップの処理の例を示す概念図である。本図において、疑似水面検出部32が疑似水面と判定した平面の近傍に位置する反射点14を黒丸で示し、疑似水面検出部32が疑似水面ではないと判定した平面に対応する反射点14を白抜きの丸で示す。
 疑似水面は、
 水面10を求めるための平面であり、
 典型的には、水面10の相対的に低い部分を通る水平又は水平に近い平面である。
 疑似水面検出部32は、ステップS1において生成した点群データに対応する平面から水面10に対応する疑似水面を検出する。
 なお、3次元LiDAR2は、透明度が高い水面10に対して垂直に近い角度でレーザ光12を当てた場合等を除いて、水面10を透過して水中の障害物13を取得することができない。
 疑似水面検出部32は、
 ステップS1で検出した各平面が疑似水面であるか否かを水平からのずれの度合いと高さと等に基づいて判定し、疑似水面の近傍に位置する点群データPw,vを検出し、
 Pw,vをPから除く。
 Pw,vは、水面10上の反射点14から成る。PからPw,vを除いた点群データを、上部点群データと呼ぶこともある。
 疑似水面検出部32は、
 ステップS1で検出した1の平面を選択し、
 図2に示すローカル座標系における高さ方向(z方向)と、選択した平面の法線との成す角度を平面の水平からのずれの度合いとして算出し、
 算出した角度が傾き閾値以下である場合に、選択した平面を疑似水面の候補とする。
 傾き閾値はどのような値であっても良く、具体例として、固定値であっても良く、浮上体11の傾き等に依存する可変値であっても良い。以下、閾値に言及する場合、他種の閾値であっても、特に断りがなければ同様である。
 なお、P(l)に属する全ての点が1の平面上に存在するとは限らない。
 ステップS1で検出した平面は、水平又は水平に近い場合であっても、水上に浮遊する物体の上面、桟橋等、疑似水面ではないこともある。そのため、疑似水面検出部32は、平面の高さに基づいて疑似水面であるか否かを判断する。
 疑似水面検出部32は、具体例として、平面に対応する点群データの高さが所定の閾値である平面閾値よりも低い平面を疑似水面と判断すること、複数のグループの内、最も高さの低い点群データを疑似水面と判断すること等によりPw,vを抽出する。点群データの高さは、具体例として、平面に対応する点群データに属する全ての点の高さの平均、点群データに属する点の中で最も高い点、又は、最も低い点の高さである。以下、点群データの高さに言及する場合、特に断りがなければ同様である。
 疑似水面検出部32は、この条件を満たす平面が存在しない場合、Pw,vは存在しないものとして良い。
 ここで、高さ方向(z方向)と平面の法線のなす角の閾値は、3次元LiDAR2が浮上体11に設置されていることを考慮し、浮上体11の使用環境における揺れ角の最大値を設定することが望ましい。揺れ角の最大値は、具体例として、事前に設定した値、実際の計測値に基づいて算出した値であり、可変値であっても良い。
 疑似水面検出部32は、
 疑似水面の上下一定の範囲内に位置する点を水面10上の反射点14と判定し、
 Pを、Pw,vと、PからPw,vを除いた点から成る点群データPr,2に分離する。
 疑似水面検出部32は、水面10の状況等を考慮して上下一定の範囲を変更して良い。
 障害物検知装置3は、以降の処理において、水面10上の反射点14と判定されずに残った、波面を形成する水面10上の点群データ及び/又は、障害物13に付着した水面10の点群データを除去する。
(ステップS3:グループ化処理)
 グループ化部33は、波の頂点を抽出するための前処理を実行する。
 グループ化部33は、Pr,2に含まれる点から成る点群データP(m)(1≦m)を、距離が近い点同士を連結することにより生成する。各P(m)を「点群グループ」と呼ぶ。以下、本ステップにおいてM個の点群グループが生成されたものとする。
 グループ化部33は、
 Pr,2に属する複数の点をまとめて点の集合を生成して距離が近い集合同士を連結する等、どのように連結しても良く、
 距離の定義、点同士が近いか否かの判定基準としてどのようなものを用いても良い。
 図7は、本ステップの処理の結果の一例を示す概念図である。
 グループ化部33は、本例において、図2に図示するローカル座標系における高さ方向に垂直な平面を一辺の長さがSの正方形の格子15で分割し、隣接する格子の中に点が存在しなくなるまで格子同士を連結する。
 グループ化部33は、正方形の格子15で分割する代わりに、1種類以上の多角形を用いて平面を分割しても良く、平面の上下一定範囲を直方体の格子、又は、1種類以上の立体図形を用いて分割しても良い。
 P(m)は、1の格子に属する点のみから成り立っていても良い。
(ステップS4:波頂点検出処理)
 疑似水面検出部32は、水面10に波が立っている場合、波頂点16に当たった反射点14をPw,vに含めないことがある。波頂点16は、水面10の波の内、波の相対的に低い部分を除いた部分を指す。
 波頂点検出部34は、波頂点モデル19にフィッティングさせることを利用して波頂点16を検出する。波頂点モデル19は、波頂点16を抽象化したモデルである。
 点群グループの高さは、点群データの高さと同様である。
 波頂点検出部34は、各P(m)から波頂点16上の反射点14を検出する。
 図8は、波頂点検出部34が検出対象とする波頂点16の例を示す図であり、白抜きの丸は点群グループ内の点を示す。図8の(a)は直線状に長い波を形成する波頂点16aの特徴の例を示しており、図8の(b)は複数の方向からの波が合成されて発生するピラミッド状の波を形成する波頂点16bの特徴の例を示しており、図8の(c)は平均、分散等の統計量によって表される波頂点モデル19の一例を示している。波頂点モデル19は、他の方法により生成されたものであっても良い。
 記憶部3bは少なくとも1の波頂点モデル19を記憶しており、波頂点検出部34は波頂点モデル19にフィッティングするか否かを判定することにより、図8の(a)、図8の(b)等の形状の波頂点16を抽出する。
 波頂点検出部34は、具体例として、
 高さ方向に垂直な平面で外接直方体17を作成し、
 外接四角形の長辺方向と垂直な平面18に外接直方体17内の点を射影し、
 射影した点を緩い勾配の山型の波頂点モデル19にフィッティングすることができる場合に、P(m)を波頂点16と判定する。
 以下、本ステップにおいて、波頂点検出部34は、M個のP(m)を波頂点16と判定するものとする。
 波頂点検出部34は、高い位置の点群グループは水面10の反射点14ではない可能性が高いことを考慮し、波であると推定される高さの波頂点を抽出する。
 波頂点検出部34は、波頂点モデル19にフィッティングすると判定した各P(m)の重心位置Pg,t(m)を求める。
 波頂点検出部34は、
 Pw,vが存在する場合、以下の処理(A)を実行し、
 それ以外の場合、以下の処理(B)を実行する。
 処理(A)
 波頂点検出部34は、
 Pw,vに対応する平面と、Pg,t(m)との距離が水面閾値以内であればP(m)を波頂点16と判定し、
 波頂点16と判定した各P(m)を点群グループPw,t(m)(1≦m≦M)とし、それ以外の各P(m)を点群グループPb,r(m)(1≦m≦M、M+M=M)とする。
 処理(B)
 波頂点検出部34は、Pw,vが存在しない場合、処理(A)を実行しない代わりに、
 波頂点モデル19にフィッティングしないと判定した各P(m)、即ち、波頂点16上の反射点14でも水面10上の反射点14でもないと判定されている各P(m)に含まれている全ての点の重心位置Pg,b(m)を求め、Pg,b(m)全ての内、最も低い高さを水面閾値とし、
 波頂点モデル19にフィッティングすると判定した各P(m)に含まれている全ての点の重心位置Pg,t(m)を求め、高さが水面閾値以下である各Pg,t(m)に対応する各P(m)を点群グループPw,t(m)とし、それ以外の各P(m)をPb,r(m)とする。
(ステップS5:境界検出処理)
 境界検出部35は、Pb,r(m)に含まれている水面10上の反射点14に対応する点データを除去することにより、障害物13に付着している又は沿っているために疑似水面検出部32と波頂点検出部34とが水面10と判定しなかった反射点14であって、水面10と考えられる反射点14を抽出する。
 境界検出部35は、本ステップにおいて、水面10上の反射点14のI(k)が小さいことを利用する。
 境界検出部35は、障害物13上の反射点14を抽出しても良い。
 障害物13と水面10との境界付近の水面10が盛り上がりやすいこと等の理由により、Pb,r(m)に水面10の一部が含まれていることがある。
 ステップS4までの処理のみでは、水面10上の反射点14がPb,r(m)に含まれている場合、1フレーム毎に同一の障害物13の形状が変化することが起こり得、障害物13検出の精度、障害物13に対応する点群グループの品質等が低下することがある。
 そこで、境界検出部35は、Pb,r(m)に含まれる点の内、反射強度が低い点を水面10の一部と判定する。
 図9は、境界検出部35の処理の例を示す概念図である。本図において、白抜きの丸は反射強度が高い点を示し、黒抜きの丸は反射強度が低い点を示す。
 境界検出部35は、典型的には、全てのmについて、Pb,r(m)に含まれている反射強度の低い反射点14であって、所定の閾値以下の反射点14をPb,r(m)から除去する。
 境界検出部35は、典型的には、
 Pb,r(m)に含まれている全ての点の反射強度の平均値を、平均反射強度Ib,r(m)として求め、
 Pb,r(m)に含まれている全ての点について、点に対応する反射強度I(k)であって、3次元LiDAR2が点の位置情報と併せて取得する反射強度I(k)がIb,r(m)よりも十分に小さい値である反射閾値以下である場合、その点を境界反射点として抽出する。境界反射点は、境界検出部35が水面10上の反射点14と判断した点である。
 反射閾値は、天候等に依存する可変値であっても良い。
 境界検出部35は、Pw,vが存在する場合、波頂点検出部34の処理(A)と同様に、全ての境界反射点について、Pw,vに対応する平面と境界反射点との距離が境界水面閾値以下である場合、境界反射点を水面10上の点と判定し、Pb,r(m)から除去する。境界水面閾値は、水面閾値と同じであっても良い。
 境界検出部35は、Pw,vが存在しない場合、波頂点検出部34の処理(B)と同様に水面閾値を求め、水面閾値以下の高さに位置する境界反射点を水面10上の点と判定し、Pb,r(m)から除去する。
 境界検出部35は、全てのmについて、Pb,r(m)から水面10上の点を除去した点群データを点群データPo,r(m)とし、本ステップにおいて除去した水面10上の点全てから成る点群データを点群データPw,oとする。
 従って、水面10上の反射点14による点群データPは、Pw,vと、Pw,t(m)と、Pw,oとを結合したものであり、障害物13上の反射点14による点群データPは、Po,r(m)を全て結合したものである。
 障害物検知部3eは、
 水面分離部3dで1フレームを構成する点群データから分離した障害物13上の反射点14による点群データP又は個別の障害物13の点群データPo,r(m)を用いて、3次元LiDAR2の測定範囲の障害物13の検知に関する処理を行い、
 入出力部3aを介して処理結果を表示装置4に送信する。
 障害物検知部3eは、具体例として、記憶部3bが記憶している桟橋及び/又は船舶のモデルとのフィッティングによる障害物13の識別、点群の形状特徴量を利用したフレーム間の類似度検索を用いて動いている障害物13を追跡することによる障害物13の速度算出等の処理を実行する。
***実施の形態1の特徴***
 障害物検知装置3は、
 水面10を含む測定範囲において観測した複数の反射点から成る観測点群データの情報であって、各反射点の位置情報を含む情報を受信し、
 観測点群データに含まれる複数の反射点の付近を通る平面を検出する平面検出部31と、
 平面検出部31が検出した平面であって、水面10の相対的に低い部分を通る平面である疑似水面を検出する疑似水面検出部32と、
 観測点群データに含まれる反射点から疑似水面に対応する反射点を除いた反射点から成る上部点群データから、水面10の波の相対的に低い部分以外から成る波頂点16に対応する反射点を検出する波頂点検出部34と、
 疑似水面に対応する反射点と、波頂点16に対応する反射点とを水面点群データに含まれる反射点とし、観測点群データに含まれる反射点であって、水面点群データに含まれない反射点を障害物の反射点と判定する障害物検知部3eと
を備える。
 平面検出部31は、平面モデルへのフィッティングを利用して平面を検出する。
 疑似水面検出部32は、平面検出部31が検出した平面の法線と、障害物検知装置3の高さ方向との傾きが傾き閾値以下であり、かつ、検出した平面の高さが平面閾値以下である場合に、平面を疑似水面と判定する。
 障害物検知装置3は、波頂点16を表す波頂点モデル19を記憶している記憶部3bを備え、
 波頂点検出部34は、上部点群データの内、波頂点モデル19にフィッティングすることができる部分を波頂点16と判定する。
 障害物検知装置3は、測定範囲を図形を用いて分割し、水平方向に隣接する2の図形のいずれにも上部点群データに含まれる反射点が含まれている場合に2の図形を連結し、1の連結された図形内に含まれている反射点を1の点群グループとするグループ化部を備え、
 波頂点検出部34は、点群グループ毎に波頂点16に対応する反射点が存在するか否か判定する。
 波頂点検出部34は、点群グループそれぞれの重心位置を求め、求めた重心位置と疑似水面との距離が水面閾値以下である場合に、求めた重心位置に対応する点群グループに含まれる反射点を波頂点16に対応する反射点と判定する。
 障害物検知装置3は、各反射点の反射強度の情報を受信し、
 観測点群データから疑似水面に対応する反射点と波頂点16に対応する反射点とを除いた反射点から、水面10と水面10上の障害物との境界付近の水面10に位置する反射点を境界反射点として反射強度を利用して検出する境界検出部35を備え、
 障害物検知部3eは、境界反射点を水面点群データに含まれる反射点とする。
 境界検出部35は、反射強度が反射閾値以下である反射点を境界反射点と判定する。
 境界検出部35は、境界反射点の高さが境界水面閾値以下である反射点を境界反射点と判定する。
***実施の形態1の効果の説明***
 従来、水面上における障害物検知において、3次元LiDARの検知対象物が海上における波と比較して高い位置にあるという知見に基づき、波の想定最大高が検知対象物よりも十分低いものと仮定して閾値を設定し、当該閾値よりも低い位置からの点データを水面からの点データとして除外していた。そのため、波の高さと同程度の高さを持つ対象物を検知し、回避及び/又は着岸などの動作を行う必要がある小型の船舶に従来技術を適用することは困難であった。
 本実施の形態によれば、
 疑似水面判定処理S2と波頂点検出部34とが、3次元LiDAR2から取得した点群データから水面10上又は波頂点16上の反射点14を波頂点モデル19にフィッティングすることにより検知し、
 疑似水面判定処理S2が、3次元LiDAR2が投射するレーザが水面10を透過しにくいことに基づき、高さ方向の最も低い位置にある点群データを選択する。
 従って、本実施の形態によれば、検知対象物である障害物13の高さと波の高さとが同程度の場合であっても、水面10上の障害物13上の反射点14と、水面10上の反射点14とを区別することができる。
 さらに、本実施の形態によれば、境界検出部35が、障害物13の付近において、反射強度が反射閾値である反射点14を水面10上の反射点と判定することにより、障害物13検出の精度を高めることができる。
<変形例1>
 障害物検知装置3は、複数のコンピュータから構成されても良い。
<変形例2>
 障害物検知装置3は、3次元LiDAR2以外の機器から点群データを受信しても良い。
 本変形例において、障害物検知装置3は、具体例として、デプスカメラから点群データを受信する。
<変形例3>
 水面10は、水以外の液体の表面であって良い。
<変形例4>
 障害物検知装置3は、点群データPを受信しても良い。
 本変形例において、障害物検知装置3は座標変換部3cを備えなくても良い。
<変形例5>
 浮上体11は、堤防等に固定されている機器であっても良く、水面10付近を飛行している機器であっても良い。
<変形例6>
 平面検出部31は、(式4)に示す係数に関する制約を考慮しなくても良い。
<変形例7>
 障害物検知装置3は、ステップS2において、疑似水面が存在しない場合に、ステップS1に戻っても良い。
<変形例8>
 障害物検知装置3は、観測データ等に基づいて、波頂点モデル19を学習及び/又は生成しても良い。
<変形例9>
 疑似水面検出部32は、ステップS2において、障害物検知装置3が鉛直方向を求められる場合、鉛直方向から角度に基づいて疑似水面を検出しても良い。
<変形例10>
 波頂点検出部34は、ステップS4において、厳密な重心位置以外の位置を重心位置としても良い。
<変形例11>
 障害物検知装置3は、境界検出部35を備えなくても良い。
 本変形例において、障害物検知装置3は、疑似水面に対応する反射点14と、前記波頂点に対応する反射点14とを水面点群データとする。
<変形例12>
 境界検出部35は、ステップS5において、全ての点が反射強度以下であるか否かを判定しなくても良い。
 境界検出部35は、本変形例において、具体例として、反射点14をランダムに抽出し、抽出した点の反射強度が低い場合に、抽出した点の周囲の点の反射強度を確認する。
<変形例13>
 境界検出部35は、ステップS5において、Ib,r(m)を、Pb,r(m)に含まれている全ての点の反射強度の平均値ではなく、Pb,r(m)に含まれている一部の点の反射強度の平均値としても良い。
 境界検出部35は、本変形例において、具体例として、ランダムサンプリングを用いる。
<変形例14>
 本実施の形態では、各機能構成要素をソフトウェアで実現する場合を説明した。しかし、変形例として、各機能構成要素はハードウェアで実現されても良い。
 各機能構成要素がハードウェアで実現される場合には、障害物検知装置3は、プロセッサ5に代えて、電子回路20を備える。あるいは、図示しないが、障害物検知装置3は、プロセッサ5、メモリ6、及び補助記憶装置21に代えて、電子回路20を備える。電子回路20は、各機能構成要素(及びメモリ6と補助記憶装置21)の機能を実現する専用の電子回路である。電子回路を、処理回路と呼ぶこともある。
 電子回路20は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
 各機能構成要素を1つの電子回路20で実現してもよいし、各機能構成要素を複数の電子回路20に分散させて実現してもよい。
 あるいは、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
 前述したプロセッサ5とメモリ6と補助記憶装置21と電子回路20とを、総称して「プロセッシングサーキットリー」という。つまり、各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。
***他の実施の形態***
 実施の形態1の任意の構成要素の変形、もしくは実施の形態1において任意の構成要素の省略が可能である。
 また、実施の形態は、実施の形態1で示したものに限定されるものではなく、必要に応じて種々の変更が可能である。
 1 障害物検知システム、2 3次元LiDAR、3 障害物検知装置、4 表示装置、3a 入出力部、3b 記憶部、3c 座標変換部、3d 水面分離部、31 平面検出部、32 疑似水面検出部、33 グループ化部、34 波頂点検出部、35 境界検出部、3e 障害物検知部、4a 入出力部、4b 操作部、4c 表示部、5 プロセッサ、6 メモリ、7 センサインタフェース、8 表示インタフェース、9 設定インタフェース、10 水面、11 浮上体、12 レーザ光、13 障害物、14 反射点、15 格子、16 波頂点、16a 波頂点、16b 波頂点、17 外接直方体、18 平面、19 波頂点モデル、20 電子回路、21 補助記憶装置、22 データバス、23 OS、100 コンピュータ。

Claims (11)

  1.  水面を含む測定範囲において観測した複数の反射点から成る観測点群データの情報であって、各反射点の位置情報を含む情報を受信する障害物検知装置において、
     前記観測点群データに含まれる複数の反射点の付近を通る平面を検出する平面検出部と、
     前記平面検出部が検出した平面であって、前記水面の相対的に低い部分を通る平面である疑似水面を検出する疑似水面検出部と、
     前記観測点群データに含まれる反射点から前記疑似水面に対応する反射点を除いた反射点から成る上部点群データから、前記水面の波の相対的に低い部分以外から成る波頂点に対応する反射点を検出する波頂点検出部と、
     前記疑似水面に対応する反射点と、前記波頂点に対応する反射点とを水面点群データに含まれる反射点とし、前記観測点群データに含まれる反射点であって、前記水面点群データに含まれない反射点を障害物の反射点と判定する障害物検知部と
    を備える障害物検知装置。
  2.  前記平面検出部は、平面モデルへのフィッティングを利用して平面を検出する請求項1に記載の障害物検知装置。
  3.  前記疑似水面検出部は、前記平面検出部が検出した平面の法線と、前記障害物検知装置の高さ方向との傾きが傾き閾値以下であり、かつ、前記検出した平面の高さが平面閾値以下である場合に、前記平面を前記疑似水面と判定する請求項1又は2に記載の障害物検知装置。
  4.  前記波頂点を表す波頂点モデルを記憶している記憶部を備え、
     前記波頂点検出部は、前記上部点群データの内、前記波頂点モデルにフィッティングすることができる部分を前記波頂点と判定する請求項1から3のいずれか1項に記載の障害物検知装置。
  5.  前記測定範囲を図形を用いて分割し、水平方向に隣接する2の図形のいずれにも前記上部点群データに含まれる反射点が含まれている場合に前記2の図形を連結し、1の連結された図形内に含まれている反射点を1の点群グループとするグループ化部を備え、
     前記波頂点検出部は、前記点群グループ毎に前記波頂点に対応する反射点が存在するか否か判定する請求項1から4のいずれか1項に記載の障害物検知装置。
  6.  前記波頂点検出部は、前記点群グループそれぞれの重心位置を求め、求めた重心位置と前記疑似水面との距離が水面閾値以下である場合に、前記求めた重心位置に対応する前記点群グループに含まれる反射点を前記波頂点に対応する反射点と判定する請求項5に記載の障害物検知装置。
  7.  前記障害物検知装置は、各反射点の反射強度の情報を受信し、
     前記観測点群データから前記疑似水面に対応する反射点と前記波頂点に対応する反射点とを除いた反射点から、前記水面と前記水面上の障害物との境界付近の水面に位置する反射点を境界反射点として前記反射強度を利用して検出する境界検出部を備え、
     前記障害物検知部は、前記境界反射点を前記水面点群データに含まれる反射点とする請求項1から6のいずれか1項に記載の障害物検知装置。
  8.  前記境界検出部は、反射強度が反射閾値以下である反射点を前記境界反射点と判定する請求項7に記載の障害物検知装置。
  9.  前記境界検出部は、前記境界反射点の高さが境界水面閾値以下である反射点を前記境界反射点と判定する請求項7又は8に記載の障害物検知装置。
  10.  水面を含む測定範囲において観測した複数の反射点から成る観測点群データの情報であって、各反射点の位置情報を含む情報を受信する障害物検知装置における障害物検知方法において、
     平面検出部が、前記観測点群データに含まれる複数の反射点の付近を通る平面を検出し、
     疑似水面検出部が、前記平面検出部が検出した平面であって、前記水面の相対的に低い部分を通る平面である疑似水面を検出し、
     波頂点検出部が、前記観測点群データに含まれる反射点から前記疑似水面に対応する反射点を除いた反射点から成る上部点群データから、前記水面の波の相対的に低い部分以外から成る波頂点に対応する反射点を検出し、
     障害物検知部が、前記疑似水面に対応する反射点と、前記波頂点に対応する反射点とを水面点群データに含まれる反射点とし、前記観測点群データに含まれる反射点であって、前記水面点群データに含まれない反射点を障害物の反射点と判定する障害物検知方法。
  11.  水面を含む測定範囲において観測した複数の反射点から成る観測点群データの情報であって、各反射点の位置情報を含む情報を受信する障害物検知装置であるコンピュータに、
     前記観測点群データに含まれる複数の反射点の付近を通る平面を検出させ、
     検出させた平面であって、前記水面の相対的に低い部分を通る平面である疑似水面を検出させ、
     前記観測点群データに含まれる反射点から前記疑似水面に対応する反射点を除いた反射点から成る上部点群データから、前記水面の波の相対的に低い部分以外から成る波頂点に対応する反射点を検出させ、
     前記疑似水面に対応する反射点と、前記波頂点に対応する反射点とを水面点群データに含まれる反射点とさせ、前記観測点群データに含まれる反射点であって、前記水面点群データに含まれない反射点を障害物の反射点と判定させる障害物検知プログラム。
PCT/JP2019/042200 2019-10-28 2019-10-28 障害物検知装置、障害物検知方法、及び、障害物検知プログラム WO2021084583A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/042200 WO2021084583A1 (ja) 2019-10-28 2019-10-28 障害物検知装置、障害物検知方法、及び、障害物検知プログラム
JP2021553905A JP7109685B2 (ja) 2019-10-28 2019-10-28 障害物検知装置、障害物検知方法、及び、障害物検知プログラム
US17/766,821 US20240085553A1 (en) 2019-10-28 2019-10-28 Obstacle detection device, obstacle detection method, and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/042200 WO2021084583A1 (ja) 2019-10-28 2019-10-28 障害物検知装置、障害物検知方法、及び、障害物検知プログラム

Publications (1)

Publication Number Publication Date
WO2021084583A1 true WO2021084583A1 (ja) 2021-05-06

Family

ID=75715877

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/042200 WO2021084583A1 (ja) 2019-10-28 2019-10-28 障害物検知装置、障害物検知方法、及び、障害物検知プログラム

Country Status (3)

Country Link
US (1) US20240085553A1 (ja)
JP (1) JP7109685B2 (ja)
WO (1) WO2021084583A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176639A1 (ja) * 2022-03-15 2023-09-21 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281380A (ja) * 2007-05-09 2008-11-20 Ihi Corp 三次元センサのデータ補正装置及び方法
US20110271752A1 (en) * 2010-05-06 2011-11-10 Riegl Laser Measurement Systems Gmbh Laser Hydrography
JP2012237592A (ja) * 2011-05-10 2012-12-06 Ihi Corp レーザレーダ装置及びレーザレーダ法
JP2017133902A (ja) * 2016-01-27 2017-08-03 国立大学法人 千葉大学 波浪計測装置及び物標探知装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281380A (ja) * 2007-05-09 2008-11-20 Ihi Corp 三次元センサのデータ補正装置及び方法
US20110271752A1 (en) * 2010-05-06 2011-11-10 Riegl Laser Measurement Systems Gmbh Laser Hydrography
JP2012237592A (ja) * 2011-05-10 2012-12-06 Ihi Corp レーザレーダ装置及びレーザレーダ法
JP2017133902A (ja) * 2016-01-27 2017-08-03 国立大学法人 千葉大学 波浪計測装置及び物標探知装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MORI, YASUKUNI ET AL: "Analysis of Sea-wave Data Measured by LEDLidar. 3.3 Measurement Data", IEICE TECHNICAL REPORT, vol. 115, no. 451, 11 February 2016 (2016-02-11), pages 43 - 48 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176639A1 (ja) * 2022-03-15 2023-09-21 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
US20240085553A1 (en) 2024-03-14
JPWO2021084583A1 (ja) 2021-05-06
JP7109685B2 (ja) 2022-07-29

Similar Documents

Publication Publication Date Title
JP5501176B2 (ja) 船舶探知装置、船舶探知プログラムおよび船舶探知装置の船舶探知方法
JP7088288B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US10497128B2 (en) Method and system for sea background modeling and suppression on high-resolution remote sensing sea images
Guldur Laser-based structural sensing and surface damage detection
US20160283619A1 (en) Sonar-image-simulation method for image prediction of imaging sonar and apparatus using the sonar-image-simulation method
CN113031004A (zh) 基于三维激光雷达的无人船水面目标检测及路径规划方法
US20100002942A1 (en) Target orientation
WO2021084583A1 (ja) 障害物検知装置、障害物検知方法、及び、障害物検知プログラム
Negaharipour On 3-D scene interpretation from FS sonar imagery
CN114187579A (zh) 自动驾驶的目标检测方法、装置和计算机可读存储介质
JP6919764B2 (ja) レーダ画像処理装置、レーダ画像処理方法、および、プログラム
Xie et al. Surface reconstruction from normals: A robust dgp-based discontinuity preservation approach
KR101392222B1 (ko) 표적 윤곽을 추출하는 레이저 레이더, 그것의 표적 윤곽 추출 방법
Maleika et al. Multibeam echosounder simulator applying noise generator for the purpose of sea bottom visualisation
Moszyński et al. Reconstruction of 3D shape from sidescan sonar images using shape from shading technique
KR102604408B1 (ko) 라이다 기반 지도 생성 방법 및 그 장치
JP2005309796A (ja) 構造特徴抽出装置及び同一目標判定装置及び構造特徴抽出方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム
KR102539136B1 (ko) 전자 장치 및 전자 장치의 제어 방법
CN117893412B (zh) 一种点云数据滤除方法、装置、设备及存储介质
US20230114731A1 (en) Methods and system for generating virtual sensor data of a virtual single-photon avalanche diode (spad) lidar sensor of a virtual vehicle simulator
US20220057499A1 (en) System and techniques for clipping sonar image data
WO2023176640A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
WO2023176639A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
KR20220143353A (ko) 경계선 검출에 기초하여 포인트 클라우드에서 아웃라이어를 제거하는 방법 및 장치
WO2023175714A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19950482

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021553905

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 17766821

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19950482

Country of ref document: EP

Kind code of ref document: A1