WO2024005607A1 - 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템 - Google Patents

플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템 Download PDF

Info

Publication number
WO2024005607A1
WO2024005607A1 PCT/KR2023/009271 KR2023009271W WO2024005607A1 WO 2024005607 A1 WO2024005607 A1 WO 2024005607A1 KR 2023009271 W KR2023009271 W KR 2023009271W WO 2024005607 A1 WO2024005607 A1 WO 2024005607A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
detection area
recognition system
unit
object recognition
Prior art date
Application number
PCT/KR2023/009271
Other languages
English (en)
French (fr)
Inventor
지창현
Original Assignee
주식회사 나노시스템즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 나노시스템즈 filed Critical 주식회사 나노시스템즈
Priority claimed from KR1020230084627A external-priority patent/KR20240002961A/ko
Publication of WO2024005607A1 publication Critical patent/WO2024005607A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61BRAILWAY SYSTEMS; EQUIPMENT THEREFOR NOT OTHERWISE PROVIDED FOR
    • B61B1/00General arrangement of stations, platforms, or sidings; Railway networks; Rail vehicle marshalling systems
    • B61B1/02General arrangement of stations and platforms including protection devices for the passengers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Definitions

  • the technology disclosed in this specification generally relates to an object recognition system, and more specifically, to an object recognition system within a detection area using flash LiDAR, which recognizes objects within the detection area using flash LIDAR.
  • 2D LIDAR data mainly serves to provide depth information and find the region of interest (ROI) of objects, and recognizes the surrounding environment and objects using image data obtained from cameras.
  • ROI region of interest
  • Rotating laser scanners are mainly used as sensors to detect the space between the platform screen door and the track section. Because rotary laser scanners mechanically scan the monitoring area, they have problems such as low durability such as mechanical wear and the need to increase the number of channels to monitor a wide area. In addition, there are difficulties in installation and maintenance, such as the need to accurately align the space between the laser scanner, the platform screen door, and the track section to ensure that the laser's scanning range accurately passes through the podium.
  • the technology disclosed in this specification was developed to solve the problems of the prior art described above, and provides pulse light modulated with a modulation frequency in the direction of the detection area as a pulse-burst without the need to scan the detection area through a LiDAR scanner. It provides a technology for an object recognition system that can capture distance information of objects within the detection area in an entire frame at once by simply receiving reflected light through the light receiving element array of the light receiving unit.
  • a technology related to an object recognition system within a detection area using flash lidar includes an optical transmitter that provides pulse light modulated with a modulation frequency as a pulse-burst in the direction of the detection area, an optical receiver that receives reflected light of the pulse light, and the pulse light and the reflected light. and a determination unit that determines whether an object exists within the detection area.
  • the light receiving unit includes a lens unit that receives the reflected light, and a light receiving element array unit that receives the reflected light received by the lens unit.
  • the determination unit extracts three-dimensional point cloud information of the object from the phase difference between the pulsed light and the reflected light and the position information of the reflected light on the light receiving element array.
  • the object recognition system within the detection area using the flash LIDAR may further include a light guide unit provided on the path of the pulse light and provided with a slit through which the pulse light can pass.
  • the pulsed light may be provided in the form of a point light source.
  • the detection area may be provided in the shape of a virtual hexahedron.
  • the optical transmitting unit and the optical receiving unit may each be provided adjacent to one corner of the virtual cube (hereinafter referred to as a first corner), and may be provided to face a direction from the first corner to the second corner.
  • the second edge is another edge of the virtual hexahedron located diagonally opposite the first edge.
  • the viewing angle of the lens unit may be set to include the entire virtual hexahedron area.
  • the slit is provided so that when parallel light passing through the slit is applied, the parallel light moves limited to a space between the first surface and the second surface located on both sides of the first edge and the second edge. You can.
  • the detection area may include an additional virtual hexahedral-shaped area of interest provided in an area where the pulse light passing through the slit intersects with the detection area.
  • the determination unit may determine whether the object exists in the region of interest based on the pulsed light and the reflected light.
  • the phase difference is extracted from the amplitude of each of the reflected light at the 0-degree phase and 90-degree phase of the pulse light or the amplitude of each of the reflected light at the 0-degree phase, 90-degree phase, 180-degree phase, and 270-degree phase of the pulse light It can be.
  • the 3D point cloud information of the object may include virtual image information of the object.
  • the determination unit may extract the virtual image information from any one selected from the distance between adjacent points in the three-dimensional point cloud, the arrangement direction of the adjacent points with respect to the direction of travel of the pulse light, and a combination thereof.
  • the determination unit may extract an area surrounded by points corresponding to the virtual image information among the 3D point cloud information as real image information of the object.
  • the technology disclosed in this specification provides pulse light modulated with a modulation frequency as a pulse-burst in the direction of the detection area and receives reflected light through the light reception element array of the light receiver, thereby detecting objects within the detection area in the entire frame at once. It can provide the effect of capturing distance information.
  • the technology disclosed in this specification provides a light guide with a slit on the path of the pulse light, so that the pulse light is guided in the direction of the detection area through the slit, so that the pulse light is guided to the obstacle located on the side of the detection area. It can provide the effect of minimizing interference.
  • the technology disclosed in this specification can provide an effect that can be used for detecting railway platform screen doors (PSD), that is, detecting the space between the platform screen door and the track section.
  • PSD railway platform screen doors
  • Figure 1 is a diagram showing an object recognition system in a detection area using a flash lidar disclosed herein according to an embodiment.
  • Figure 2 is a diagram for explaining the operation of the object recognition system in the detection area using the flash lidar disclosed in this specification.
  • Figure 3 is a diagram showing the detection area for each placement position of the object recognition system within the detection area using the flash lidar disclosed in this specification according to the field of view (FOV) of the lens unit.
  • FOV field of view
  • Figure 4 is a diagram showing the arrangement position of the object recognition system in the detection area using the flash lidar disclosed in this specification for detecting the detection area provided as a virtual hexahedron.
  • Figure 5 is a diagram showing pulse light modulated with a modulation frequency being provided as a pulse-burst and the phase difference between pulse light and reflected light.
  • Figure 6 is a diagram showing the transformation of the spherical coordinate system into the Cartesian coordinate system and the transformation of the Cartesian coordinate system of the light receiver into the Cartesian coordinate system of the detection area.
  • Figures 7 and 8 are diagrams showing images received by a light receiver of virtual and real images of an object and their three-dimensional point clouds obtained through an object recognition system within a detection area using a flash lidar disclosed in this specification.
  • ком ⁇ онент When a component is referred to as being “provided” to another component, this may include not only the case where the component is provided directly to the other component, but also the case where additional components are interposed between them.
  • ком ⁇ онент When a component is referred to as being “provided” to another component, this may include not only the case where the component is provided directly to the other component, but also the case where additional components are interposed between them.
  • Figure 1 is a diagram showing an object recognition system in a detection area using a flash lidar disclosed herein according to an embodiment.
  • Figure 2 is a diagram for explaining the operation of the object recognition system in the detection area using the flash lidar disclosed in this specification.
  • Figure 3 is a diagram showing the detection area for each placement position of the object recognition system within the detection area using the flash lidar disclosed in this specification according to the field of view (FOV) of the lens unit.
  • Figure 3 (a) is a diagram showing a rectangular area when an object recognition system within the detection area using flash lidar is placed on one side of the detection area with a rectangular vertical cross-section.
  • Figure 3 (b) is a diagram showing that a blind area is removed when an object recognition system within the detection area using a flash lidar is placed at one corner of the detection area with a rectangular vertical cross-section.
  • Figure 4 is a diagram showing the arrangement position of the object recognition system in the detection area using the flash lidar disclosed in this specification for detecting the detection area provided as a virtual hexahedron.
  • Figure 5 is a diagram showing pulse light modulated with a modulation frequency being provided as a pulse-burst and the phase difference between pulse light and reflected light.
  • Figure 5(a) is a diagram showing how pulsed light modulated with a modulation frequency is provided as a pulse-burst at predetermined time intervals.
  • FIG. 5(b) is a diagram showing the phase difference between the pulse light corresponding to the portion indicated by the dotted line in FIG. 5(a) and the reflected light returned when the pulse light is reflected from the object.
  • Figure 6 is a diagram showing the transformation of the spherical coordinate system into the Cartesian coordinate system and the transformation of the Cartesian coordinate system of the light receiver into the Cartesian coordinate system of the detection area.
  • Figure 6(a) is a diagram showing the relationship between a spherical coordinate system and a Cartesian coordinate system.
  • Figure 6(b) is a diagram showing reflected light forming on the light receiving element array of the light receiving unit.
  • Figure 6 (c) is a diagram showing the rotation conversion of the orthogonal coordinate system (XYZ) of the light receiver into the orthogonal coordinate system (X'Y'Z') of the detection area.
  • Figures 7 and 8 are diagrams showing images received by a light receiver of virtual and real images of an object and their three-dimensional point clouds obtained through an object recognition system within a detection area using a flash lidar disclosed in this specification.
  • Figure 7 is a diagram showing objects provided at different distances from the object recognition system within the detection area using the flash lidar disclosed in this specification.
  • Figures 8 (a) and (b) are diagrams showing a virtual image of reflected light formed on the light receiving element array of the light receiving unit and a three-dimensional point cloud of the virtual image of the reflected light under the orthogonal coordinate system (XYZ) of the light receiving unit, respectively.
  • Figures 8 (c) and (d) are diagrams showing the actual image of reflected light formed on the light receiving element array of the light receiving unit and a three-dimensional point cloud of the real image of the reflected light under the orthogonal coordinate system (XYZ) of the light receiving unit, respectively.
  • the object recognition system 100 in the detection area using flash LIDAR includes an optical transmitter 110, an optical receiver 120, and a determination unit (not shown).
  • the object recognition system 100 in the detection area using flash LIDAR may optionally further include a light guide unit 130 and a housing 140.
  • object recognition system 100 in the detection area using flash lidar disclosed in this specification will be abbreviated as object recognition system 100.
  • the optical transmitter 110 provides pulsed light (S, see FIG. 5) modulated with a modulation frequency (f 0 ) as a pulse-burst in the direction of the detection area (10, see FIG. 4).
  • pulsed light S provided as a pulse-burst is shown as an example.
  • Pulse light (S) provided as a pulse-burst can be obtained, for example, by periodically turning on and off pulse light (S) modulated with a modulation frequency (f 0 ).
  • the above example is for understanding, and there is no limitation to the method of providing pulsed light (S) modulated with a modulation frequency (f 0 ) as a pulse-burst.
  • a near-infrared light source with a wavelength of about 940 nm may be used as the light source of the pulsed light (S), but there is no limit to the wavelength as long as it can perform the function disclosed in this specification.
  • Pulse light S may be provided in the form of a point light source.
  • the size of the modulation frequency (f 0 ) can be determined based on the detection distance according to the size of the set detection area 10.
  • the detection area 10 may be determined as the space between the platform screen door and the track section.
  • the modulation frequency (f 0 ) may be set to about 12MHz, but there is no limit to the size of the modulation frequency (f 0 ) as long as the function disclosed in this specification can be performed.
  • the light receiver 120 receives the reflected light (R, see FIG. 5) of the pulsed light (S).
  • the light receiving unit 120 includes a lens unit 122 (see FIG. 2) that receives the reflected light (R) and a light receiving element array unit 124 (see FIG. 2) that receives the reflected light (R) received by the lens unit 122. ) includes.
  • a CCD array charge coupled device array
  • a photodiode array a CMOS array (complementary metal-oxide semiconductor array), etc.
  • the reflected light (R) is transmitted on a pixel basis.
  • the type of the light receiving element array unit 124 there is no limitation on the type of the light receiving element array unit 124 as long as it can receive light.
  • a CCD array with a resolution of 320x240 is shown as an example of the light receiving element array unit 124.
  • the determination unit determines whether an object (20, 20a, 20b, see FIGS. 2 and 7) exists within the detection area (10) from the pulse light (S) and the reflected light (R).
  • the determination unit determines a three-dimensional point cloud of the objects (20, 20a, 20b) from the phase difference ( ⁇ ) between the pulsed light (S) and the reflected light (R) and the position information of the reflected light (S) on the light receiving element array 124. Extract information. The process of extracting the 3D point cloud information of the objects 20, 20a, and 20b of the determination unit will be described later.
  • the light guide unit 130 may be provided on the path of the pulse light S, and a slit 132 through which the pulse light S may pass is provided. Meanwhile, the slit 132 may be provided to be rotatable.
  • the object recognition system 100 can adjust the direction and range of the detection area 10 by rotating the slit 132 after installation of the object recognition system 100.
  • the pulse light S is guided toward the detection area 10 through the slit 132, thereby forming the detection area ( 10) It can provide the effect of minimizing interference caused by obstacles located on the side.
  • the object recognition system 100 disclosed in this specification can be effectively used for detecting railway platform safety doors (PSD), that is, for detecting the space between the platform screen door and the track section.
  • PSD railway platform safety doors
  • the slit 132 may rotate through rotation of the light guide unit 130.
  • the slit 132 may rotate through rotation of the slit 132 itself.
  • the slit 132 may be provided on a rotating plate (not shown) rotatably provided on the light guide unit 130, and the slit 132 may rotate through rotation of the rotating plate.
  • each of the plurality of optical transmitters 110 is synchronized with each other and transmits pulse light (S) modulated with the same modulation frequency. It can be provided in the direction of the detection area (10) in bursts.
  • S pulse light
  • the rectangular-shaped slit 132 is shown as an example in the drawing, there is no limitation on the shape of the slit 132 as long as it can perform the function disclosed in this specification.
  • the detection area 10 may be provided in the shape of a virtual hexahedron.
  • the optical transmitting unit 110 and the optical receiving unit 120 may each be provided adjacent to one corner of the virtual cube (hereinafter referred to as the first corner 10a).
  • the optical transmitting unit 110 and the optical receiving unit 120 may be arranged to face from the first edge 10a to the second edge 10b.
  • the second edge 10b is another edge of the virtual hexahedron located diagonally opposite the first edge 10a.
  • the field of view (FOV) of the lens unit 122 may be set to include the entire virtual hexahedron area.
  • the viewing angle of the lens unit 122 may be provided at an angle of approximately 45 degrees based on the central axis of the lens unit 122.
  • the above example is for understanding, and there is no limit to the field of view (FOV) of the lens unit 122 as long as it can include all of the virtual hexahedron area.
  • the slit 132 allows parallel light (not shown) passing through the slit 132 to be directed to the first surface 10c and the second surface (10c) located on both sides of the first edge 10a and the second edge 10b. 10d) It can be arranged to move only in the space between.
  • the pulsed light S passing through the slit 132 can be focused on the detection area 10.
  • the object recognition system 100 of the present specification can minimize interference caused by obstacles located on the side of the detection area 10 by guiding the pulse light (S) toward the detection area 10 through the slit 132. It can provide effective effects.
  • the object recognition system 100 disclosed in this specification is provided with a slit 132.
  • the light guide unit 130 to focus the pulse light (S) on the detection area (10)
  • the effect of minimizing interference caused by obstacles such as walls and door frames located on the side of the object recognition system (100) is achieved. We can provide it.
  • the detection area 10 is an area where the pulse light S passing through the slit 132 passes (see FIG. 2) and the detection area 10 intersect. It may include an additional virtual hexahedral-shaped region of interest (ROI) 12 provided within the region.
  • the determination unit may determine whether the object 20 exists in the region of interest 12 from the pulsed light (S) and the reflected light (R).
  • the region of interest 12 may change location, size, etc. as needed.
  • the object recognition system 100 disclosed in this specification introduces a separate area of interest 12 within the detection area 10, and defines the area of interest 120 as an area that requires intensive observation regarding the presence or absence of the object 20. By setting this, the amount of data required to extract 3D point cloud information of the object 20 can be reduced, providing the effect of quickly determining whether the object 20 exists within the detection area 10.
  • the optical transmitting unit 110, the optical receiving unit 120, and the optical guide unit 130 may be provided in the housing 140.
  • the determination unit may be provided inside the housing 140 or may be provided outside the housing 140. There are no restrictions on the location of the determination unit as long as it can perform the functions disclosed in this specification.
  • the determination unit extracts the phase difference ( ⁇ ) between the pulsed light (S) and the reflected light (R)
  • the process of extracting three-dimensional point cloud information of the objects 20, 20a, and 20b from the phase difference ( ⁇ ) extracted by the determination unit and the position information of the reflected light (R) on the light receiving element array 124 will be described. do.
  • the process described later may be performed for each pixel of the light receiving element array unit 124 of the light receiving unit 120.
  • the phase difference ( ⁇ ) is the amplitude of the reflected light (R) at the 0-degree phase and 90-degree phase of the pulsed light (S), or the respective amplitudes at the 0-degree phase, 90-degree phase, 180-degree phase, and 270-degree phase of the pulsed light (S).
  • the amplitude of the reflected light (R) for each phase is measured by measuring the electrical signal at the pixel corresponding to P 1 ′, which is an orthogonal projection on the XY plane of an arbitrary point P 1 on the object 20 where the pulse light (S) is reflected. It can be obtained through .
  • Pulsed light (S) and reflected light (R) can be expressed as follows.
  • R A R sin( ⁇ o t - ⁇ )
  • the amplitude R o of the reflected light (R) at the 0 degree phase of the pulsed light (S) can be expressed as follows.
  • the amplitude R 1 of the reflected light (R) at a 90-degree phase of the pulsed light (S) can be expressed as follows.
  • phase difference ( ⁇ ) can be extracted from [Equation 1] and [Equation 2] above through the following process.
  • the reflected light R received by the light receiver 120 may be in an excited state.
  • the reflected light (R) can be expressed as follows.
  • R A R sin( ⁇ o t - ⁇ ) + B
  • the amplitude R o of the reflected light (R) at the 0 degree phase of the pulsed light (S) can be expressed as follows.
  • the amplitude R 1 of the reflected light (R) at a 90-degree phase of the pulsed light (S) can be expressed as follows.
  • the amplitude R 2 of the reflected light (R) at a 180-degree phase of the pulsed light (S) can be expressed as follows.
  • the amplitude R 3 of the reflected light (R) at a 270-degree phase of the pulsed light (S) can be expressed as follows.
  • phase difference ( ⁇ ) can be extracted from [Equation 3] to [Equation 6] above through the following process.
  • T c ⁇ 1 ⁇ ⁇ o ⁇ ⁇ (unit: m)
  • the distance D to the objects (20, 20a, 20b) is as follows.
  • the spherical coordinates of an arbitrary point P 1 on the object 20 where the pulse light S is reflected can be expressed as (R, ⁇ , ⁇ ).
  • R can be obtained from D in [Equation 8].
  • ⁇ and ⁇ can be obtained through the process below.
  • the Z-axis of the spherical coordinates and the Z'-axis of the light receiving element array unit 124 are in the same direction.
  • Figure 6(b) shows the X'Y' plane of the light receiving element array 124 corresponding to the XY plane of Figure 6(a).
  • P 1 ′ which is an orthogonal projection of P 1 in FIG. 6 (a) onto the XY plane, corresponds to P 1 ⁇ in FIG. 6 (b).
  • the included angle ⁇ can be extracted from the coordinates of P 1 ⁇ based on the origin of the light receiving element array unit 124, and this is the same value as ⁇ in spherical coordinates.
  • can be obtained from the distance from the origin of the light receiving element array 124 to the coordinate of P 1 ⁇ .
  • the obtained R, ⁇ and ⁇ are converted from P 1 (R, ⁇ , ⁇ ), which is the spherical coordinate for point P 1 , to P 1 (R, ⁇ , ⁇ ) , which is the orthogonal coordinate for point P 1 ( X 1 , Y 1 , Z 1 ) can be obtained.
  • the optical transmitting unit 110 and the optical receiving unit 120 may be arranged to face from the first edge 10a to the second edge 10b.
  • the orthogonal coordinate system of the light transmitting unit 110 and the light receiving unit 120 and the orthogonal coordinate system of the detection area 10 become different from each other into an XYZ coordinate system and an X'Y'Z' coordinate system, respectively.
  • the coordinate system of the optical transmitter 110 and the optical receiver 120 is a first orthogonal coordinate system
  • the coordinate system of the detection area 10 is a second orthogonal coordinate system.
  • the X-axis of the first orthogonal coordinate system and the It can be defined as a relationship rotated by ⁇ 1 as a standard.
  • P 1 (R, ⁇ , ⁇ ) which is the spherical coordinate of an arbitrary point P 1 on the object 20 where the pulse light (S) is reflected, is the phase difference ( ⁇ ) and the reflected light on the light receiving element array 124. It is extracted from the location information of (R), and the extracted P 1 (R, ⁇ , ⁇ ) can be converted into the X ⁇ Y ⁇ Z ⁇ coordinate system, which is the orthogonal coordinate system of the detection area 10, through the above-described process. This process can be performed for all points on the object 20 where the pulsed light S is reflected. Through this, it is possible to obtain 3D point cloud information of the object 20 based on the X ⁇ Y ⁇ Z ⁇ coordinate system, which is the Cartesian coordinate system of the detection area 10.
  • errors may occur in the acquired three-dimensional point cloud information of the object 20 due to the difference between the location of the optical transmitter 110 and the location of the optical receiver 120.
  • the error may become larger. This error can be reduced by placing the optical transmitting unit 110 and the optical receiving unit 120 as close to each other as possible. In connection with this, these errors can also be corrected using a database (not shown) previously measured for each position of the detection area 10 with respect to the standard object.
  • the object recognition system 100 disclosed in this specification provides pulse light (S) modulated at a modulation frequency (f o ) through the optical transmitter 110 in the direction of the detection area 10 as a pulse-burst, and provides a light receiver ( 120), it is possible to obtain 3D point cloud information of the object 20 based on the Through this, the object recognition system 100 disclosed in this specification can confirm whether the object 20 exists within the detection area 10.
  • the object recognition system 100 disclosed in this specification can be used to detect railway platform safety doors (PSD) by setting the detection area 10 to the space between the platform screen door and the track section of the railway platform.
  • PSD railway platform safety doors
  • pulse light (S) provided as a pulse-burst provided by the object recognition system 100 disclosed herein, that is, flash LIDAR, Therefore, in the 3D point cloud information of the object 20, information on a virtual image 40 of the object 20 may exist in addition to information on the real image 30 of the object 20. Virtual image information may be due to the distance between the optical transmitter 110 and the object 20 or the intensity of light transmitted by the optical transmitter 110.
  • the object 20 existing in the detection area 10 can be divided into, for example, an object 20a located close to the object recognition system 100 and an object 20b located far away.
  • the intensity of the pulse light (S) provided by the optical transmitter 110 is matched to the object (20a)
  • the pulse light (S) of weak intensity reaches the object (20b), so that the light receiver (120) receives
  • the intensity of the reflected light R of the object 20b also becomes weaker. Because of this, it may be difficult for the determination unit to properly distinguish between surrounding noise and the reflected light R of the object 20b.
  • the intensity of the pulse light (S) provided by the optical transmitter 110 is matched to the object 20b, the pulse light (S) having a strong intensity reaches the object 20a, thereby causing the light receiver 120 ) receives the reflected light (R) corresponding to the virtual image 40 of the object 20a, rather than the reflected light (R) corresponding to the real image 30 of the object 20a. Therefore, in order to obtain 3D point cloud information of the object 20a and object 20b within the detection area 10 based on the actual image 30 of the object 20, the intensity of the pulse light S is adjusted in number 2. After providing pulse light (S) to the object 20a and object 20b, the real image 30 information of the object 20a and the real image of the object 20b are obtained from the reflected light (R) received by the light receiver 120. (30) Information must be extracted.
  • the object recognition system 100 disclosed in this specification is a technology that can simultaneously utilize not only real image 40 information but also virtual image 40 information in the process of extracting 3D point cloud information of the object 20. commences.
  • the object recognition system 100 disclosed in the present specification provides pulse light (S) modulated with a modulation frequency (f o ) once in the direction of the detection area 10 as a pulse-burst and It is possible to provide the effect of capturing distance information of the object 20 within the detection area 10 in the entire frame by simply receiving the reflected light (R) once through the light receiving element array unit 124.
  • the light receiving element array unit 124 When providing pulse light (S) to the object 20a through the optical transmitter 110, the light receiving element array unit 124 receives light from the object 20a, as shown as an example in (a) of FIG. 8.
  • the directly reflected reflected light (R) is not a real image, which is a shape projected on the XY plane, but a virtual image 40, where the reflected light (R is a shape projected on the
  • the light receiving element array unit 124 contains the object, as shown as an example in (c) of FIG. 8.
  • the object recognition system 100 disclosed in this specification is the XYZ coordinate system, which is the orthogonal coordinate system of the light transmitting unit 110 and the light receiving unit 120, or the ⁇ Three-dimensional point cloud information of the object 20 can be obtained based on the coordinate system.
  • the determination unit of the object recognition system 100 selects among the distance between adjacent points among the three-dimensional point cloud of the object 20, the arrangement direction of the adjacent points relative to the direction of movement of the pulse light S, and combinations thereof.
  • Virtual image 40 information can be extracted from any of the available information.
  • the distance between adjacent points among the three-dimensional point cloud of the object 20 is closer in the case of the real image 30 than in the case of the virtual image 40. Accordingly, a reference distance can be set, and a case shorter than the reference distance can be classified as a 3D point of the real image 30, and a case longer than the reference distance can be classified as a 3D point of the virtual image 40.
  • the arrangement direction of adjacent points among the three-dimensional point cloud of the object 20 has a predetermined angle with the direction of pulse light S in the case of the real image 30, but in the case of the virtual image 40 It has an angle close to being parallel to the direction of travel of the pulse light (S).
  • a reference angle is set, and when the angle between the arrangement direction of adjacent points among the three-dimensional point cloud of the object 20 and the direction in which the pulse light s travels is greater than the reference angle, the three-dimensional image of the real image 30 As a point, a case that is smaller than the reference angle can be classified as a three-dimensional point of the virtual image 30. Meanwhile, compared to the case where the object 20 is located closer to the object recognition system 100, the farther away the object 20 is located, the farther the distance between adjacent points in the 3D point cloud of the object 20 becomes. Accordingly, an error may occur when distinguishing between the real image 30 and the virtual image 40 among the three-dimensional point cloud of the object 20 using the above-mentioned reference distance. As another example, the real image 30 and the virtual image 40 among the three-dimensional point cloud of the object 20 may be distinguished by simultaneously considering the reference distance and the reference angle.
  • the determination unit determines a point corresponding to the virtual image 40 information among the three-dimensional point cloud information of the object 20.
  • the area surrounded by can be extracted as real image information of the object 20.
  • a 3D point cloud corresponding to the circumference of the inner circle of the virtual image 40 in (a) of FIG. 8 can be used as real image information of the object 20a.
  • the object recognition system 100 disclosed in this specification distinguishes between real image 30 and virtual image 40 information among the three-dimensional point cloud of the object 20, and generates corresponding real image 40 information from the virtual image 40 information. By extracting , it is possible to provide the effect of more accurately recognizing whether the object 20 exists within the detection area 10.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템에 관한 기술이 개시된다. 상기 객체 인식 시스템은 변조주파수로 변조된 펄스 광을 펄스-버스트로 검지영역 방향으로 제공하는 광송신부, 상기 펄스 광의 반사광을 수신하는 광수신부 및 상기 펄스 광과 상기 반사광으로부터 상기 검지영역 내에 물체의 존재를 판단하는 판단부를 포함한다. 상기 광수신부는 상기 반사광을 수광하는 렌즈부 및 상기 렌즈부에 의해 수광된 상기 반사광을 수신하는 광수신소자 배열부를 포함한다. 상기 판단부는 상기 펄스 광과 상기 반사광 사이의 위상차 및 상기 광수신소자 배열부 상의 상기 반사광의 위치정보로부터 상기 물체의 3차원 포인트 클라우드 정보를 추출한다. 본 기술은 상기 펄스 광의 진행경로 상에 슬릿이 마련된 광가이드부를 통해 상기 펄스 광이 상기 검지영역 방향으로 안내되도록 하여 상기 검지영역의 측면에 위치하는 장애물에 의한 간섭을 최소화할 수 있다. 이를 통해 본 명세서에서 개시하는 기술은 철도 승강장 안전문(PSD) 검지 용도로 활용될 수 있는 효과를 제공한다.

Description

플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템
본 명세서에 개시하는 기술은 대체로 객체 인식 시스템에 관한 것으로, 보다 구체적으로는 플래시 라이다를 이용하여 검지영역 내의 객체를 인식하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템에 관한 것이다.
최근 자율 주행 자동차나 무인로봇 분야 등에서 주변 환경을 인식하기 위하여 카메라, 라이다, 레이더 등의 다중 센서기반의 주변 환경인식 연구가 진행 중에 있다. 주변 환경인식을 위해 하나의 단일 센서를 활용하기 보다는 다중 센서를 이용하여 이들 센서 정보를 융합하여 활용하고 있다.
고가의 3D 라이다, 다수의 2D 라이다 또는 2대 이상의 카메라 등을 이용한 초기의 연구는 정확한 객체의 인식을 위해서는 비용이 많이 드는 문제가 있었다.
최근 이러한 고비용의 문제를 해결하여 그 응용 범위를 넓히기 위해 카메라와 저가의 2D 라이다를 이용한 대체 인식 기술 연구가 활발히 진행 중이다. 이때의 2D 라이다 데이터는 주로 깊이(depth) 정보제공과 객체의 관심영역(ROI)을 찾는 역할을 하고, 카메라로 얻은 영상 데이터로 주변환경 및 객체를 인식한다.
한편, 최근 지하철 승강장에서의 사건 사고가 빈발하고 있어 이를 방지하기 위한 기술 개발이 진행 중에 있다.
이와 관련하여 종래에는 2D 레이저 스캐너를 통해서 플랫폼 스크린도어와 선로부 사이의 공간을 검지하고 있으나, 플랫폼 스크린도어와 선로부 사이의 공간이 넓어서 종래의 2D 레이저 스캐너를 통해서는 검지가 불가능한 영역이 발생하는 문제점이 있다.
플랫폼 스크린도어와 선로부 사이의 공간을 검지하는 센서로는 회전형 레이저 스캐너가 주로 사용되고 있다. 회전형 레이저 스캐너는 기계적으로 감시영역을 스캔하기 때문에 기계적 마모 등 내구성이 떨어지고 넓은 폭을 감시하기 위하여 채널 수를 증가시켜야 하는 문제점이 있다. 또한 레이저의 스캔 범위가 연단부에 정확히 지나가도록 하기 위하여 레이저 스캐너와 플랫폼 스크린도어와 선로부 사이의 공간을 정확히 정렬시켜야 하는 등의 설치 및 유지/보수에 어려움이 있다.
주변환경 인식 기술과 관련한 종래 기술로는 대한민국등록특허 KR 10-1491314 "레이저 스캐너를 이용한 장애물 인식 장치 및 방법" 등이 있다.
본 명세서에서 개시하는 기술은 상기한 종래기술의 문제점을 해결하기 위하여 도출된 것으로서, 라이다 스캐너를 통해 검지영역을 스캔할 필요없이 변조주파수로 변조된 펄스 광을 펄스-버스트로 검지영역 방향으로 제공하고 광수신부의 광수신소자 배열부를 통해 반사광을 수신하는 것만으로 한 번에 전체 프레임으로 검지영역 내의 물체의 거리정보를 포착할 수 있는 객체 인식 시스템에 관한 기술을 제공하는 것이다.
일 실시 예에 있어서, 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템에 관한 기술이 개시(disclosure)된다. 상기 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템은 변조주파수로 변조된 펄스 광을 펄스-버스트로 검지영역 방향으로 제공하는 광송신부, 상기 펄스 광의 반사광을 수신하는 광수신부 및 상기 펄스 광과 상기 반사광으로부터 상기 검지영역 내에 물체의 존재여부를 판단하는 판단부를 포함한다. 상기 광수신부는 상기 반사광을 수광하는 렌즈부 및 상기 렌즈부에 의해 수광된 상기 반사광을 수신하는 광수신소자 배열부를 포함한다. 상기 판단부는 상기 펄스 광과 상기 반사광 사이의 위상차 및 상기 광수신소자 배열부 상의 상기 반사광의 위치정보로부터 상기 물체의 3차원 포인트 클라우드 정보를 추출한다.
상기 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템은 상기 펄스 광의 진행경로 상에 마련되며, 상기 펄스 광이 통과할 수 있는 슬릿이 마련되는 광가이드부를 더 포함할 수 있다. 상기 펄스 광은 점 광원 형태로 마련될 수 있다.
상기 검지영역은 가상의 육면체 형상으로 마련될 수 있다. 상기 광송신부 및 상기 광수신부는 각각 상기 가상의 육면체의 어느 한 모서리-이하 제1모서리라 함-에 인접하게 마련되고, 상기 제1모서리에서 제2모서리 방향을 향하도록 마련할 수 있다. 상기 제2모서리는 상기 제1모서리에서 대각선 방향으로 마주보게 위치하는 상기 가상의 육면체의 다른 한 모서리이다. 상기 렌즈부의 시야각은 상기 가상의 육면체 영역을 모두 포함하도록 마련될 수 있다.
상기 슬릿은 상기 슬릿을 통과하는 평행광이 인가될 경우에 상기 평행광이 상기 제1모서리 및 상기 제2모서리의 양측에 위치하는 제1면 및 제2면 사이의 공간에 국한하여 이동하도록 마련될 수 있다.
상기 검지영역은 상기 슬릿을 통과한 상기 펄스 광이 경유하는 영역과 상기 검지영역이 상호 교차하는 영역 내에 마련되는 추가적인 가상의 육면체 형상의 관심영역을 포함할 수 있다. 상기 판단부는 상기 펄스 광과 상기 반사광으로부터 상기 관심영역 내에 상기 물체의 존재여부를 판단할 수 있다.
한편, 상기 위상차는 상기 펄스 광의 0도 위상 및 90도 위상에서의 상기 반사광 각각의 진폭 또는 상기 펄스 광의 0도 위상, 90도 위상, 180도 위상 및 270도 위상에서의 상기 반사광 각각의 진폭으로부터 추출될 수 있다.
또 한편, 상기 물체의 상기 3차원 포인트 클라우드 정보는 상기 물체의 허상 정보를 포함할 수 있다. 상기 판단부는 상기 3차원 포인트 클라우드 중 서로 인접한 포인트 사이의 거리, 상기 펄스 광의 진행방향에 대한 상기 서로 인접한 포인트의 배열방향 및 이들의 조합 중에서 선택되는 어느 하나로부터 상기 허상 정보를 추출할 수 있다.
상기 판단부는 상기 3차원 포인트 클라우드 정보 중 상기 허상 정보에 대응되는 포인트로 둘러싸인 영역을 상기 물체의 실상 정보로서 추출할 수 있다.
본 명세서에서 개시하는 기술은 변조주파수로 변조된 펄스 광을 펄스-버스트로 검지영역 방향으로 제공하고 광수신부의 광수신소자 배열부를 통해 반사광을 수신하는 것만으로 한 번에 전체 프레임으로 검지영역 내의 물체의 거리정보를 포착할 수 있는 효과를 제공해 줄 수 있다.
또한, 본 명세서에서 개시하는 기술은 상기 펄스 광의 진행경로 상에 슬릿이 마련된 광가이드부를 마련함으로써 상기 펄스 광이 상기 슬릿을 통해 상기 검지영역 방향으로 안내되도록 하여 상기 검지영역의 측면에 위치하는 장애물에 의한 간섭을 최소화할 수 있는 효과를 제공해 줄 수 있다. 이를 통해 본 명세서에서 개시하는 기술은 철도 승강장 안전문(Platform Screen Door, PSD) 검지용 즉, 플랫폼 스크린도어와 선로부 사이의 공간을 검지하는 용도로 활용될 수 있는 효과를 제공해 줄 수 있다.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
전술한 내용은 이후 보다 자세하게 기술되는 사항에 대해 간략화된 형태로 선택적인 개념만을 제공한다. 본 내용은 특허 청구 범위의 주요 특징 또는 필수적 특징을 한정하거나, 특허청구범위의 범위를 제한할 의도로 제공되는 것은 아니다.
도 1은 일 실시 예에 따른 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템을 보여주는 도면이다.
도 2는 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템의 동작을 설명하기 위한 도면이다.
도 3은 렌즈부의 시야각(Field of View, FOV)에 따른 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템의 배치 위치별 검지영역을 보여주는 도면이다.
도 4는 가상의 육면체로 마련된 검지영역을 검지하기 위한 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템의 배치 위치를 보여주는 도면이다.
도 5는 변조주파수로 변조된 펄스 광을 펄스-버스트로 제공하는 모습 및 펄스 광과 반사광 사이의 위상차를 보여주는 도면이다.
도 6은 구면좌표계를 직교 좌표계로 변환하는 모습 및 광수신부의 직교 좌표계를 검지영역의 직교 좌표계로 회전변환하는 모습을 보여주는 도면이다.
도 7 및 도 8은 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템을 통해 얻어지는 물체의 허상 및 실상의 광수신부 수신 이미지 및 이들의 3차원 포인트 클라우드를 보여주는 도면이다.
이하, 본 명세서에 개시된 실시 예들을 도면을 참조하여 상세하게 설명하고 자 한다. 본문에서 달리 명시하지 않는 한, 도면의 유사한 참조번호들은 유사한 구성요소들을 나타낸다. 상세한 설명, 도면들 및 청구항들에서 상술하는 예시적인 실시 예들은 한정을 위한 것이 아니며, 다른 실시 예들이 이용될 수 있으며, 여기서 개시되는 기술의 사상이나 범주를 벗어나지 않는 한 다른 변경들도 가능하다. 본 기술분야의 통상의 기술자는 본 개시의 구성요소들, 즉 여기서 일반적으로 기술되고, 도면에 기재되는 구성요소들을 다양하게 다른 구성으로 배열, 구성, 결합, 도안할 수 있으며, 이것들의 모두는 명백하게 고안되며, 본 개시의 일부를 형성하고 있음을 용이하게 이해할 수 있을 것이다. 도면에서 여러 층(또는 막), 영역 및 형상을 명확하게 표현하기 위하여 구성요소의 폭, 길이, 두께 또는 형상 등은 과장되어 표현될 수도 있다.
일 구성요소가 다른 구성요소에 "마련"이라고 언급되는 경우, 상기 일 구성요소가 상기 다른 구성요소에 직접 마련되는 경우는 물론, 이들 사이에 추가적인 구성요소가 개재되는 경우도 포함할 수 있다.
일 구성요소가 다른 구성요소에 "제공"이라고 언급되는 경우, 상기 일 구성요소가 상기 다른 구성요소에 직접 제공되는 경우는 물론, 이들 사이에 추가적인 구성요소가 개재되는 경우도 포함할 수 있다.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시 예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시 예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시 예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물을 포함하는 것으로 이해되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다” 또는 “가지다” 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용된 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 기술자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 일 실시 예에 따른 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템을 보여주는 도면이다. 도 2는 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템의 동작을 설명하기 위한 도면이다. 도 3은 렌즈부의 시야각(Field of View, FOV)에 따른 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템의 배치 위치별 검지영역을 보여주는 도면이다. 도 3의 (a)는 수직 단면이 사각형인 검지영역의 한 측면에 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템이 배치된 경우에 사각 영역을 보여주는 도면이다. 도 3의 (b)는 수직 단면이 사각형인 검지영역의 한 꼭지점에 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템이 배치된 경우에 사각 영역이 제거되는 보여주는 도면이다. 도 4는 가상의 육면체로 마련된 검지영역을 검지하기 위한 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템의 배치 위치를 보여주는 도면이다. 도 5는 변조주파수로 변조된 펄스 광을 펄스-버스트로 제공하는 모습 및 펄스 광과 반사광 사이의 위상차를 보여주는 도면이다. 도 5의 (a)는 소정의 시간 간격으로 변조주파수로 변조된 펄스 광을 펄스-버스트로 제공하는 모습을 보여주는 도면이다. 도 5의 (b)는 도 5의 (a)의 점선으로 표시한 부분에 해당하는 펄스 광과 펄스 광이 물체에 반사되어 돌아오는 반사광 사이의 위상차를 보여주는 도면이다. 도 6은 구면좌표계를 직교 좌표계로 변환하는 모습 및 광수신부의 직교 좌표계를 검지영역의 직교 좌표계로 회전변환하는 모습을 보여주는 도면이다. 도 6의 (a)는 구면좌표계와 직교좌표계 사이의 관계를 보여주는 도면이다. 도 6의 (b)는 광수신부의 광수신소자 배열부에 맺힌 반사광을 보여주는 도면이다. 도 6의 (c)는 광수신부의 직교 좌표계(XYZ)를 검지영역의 직교 좌표계(X'Y'Z')로 회전변환하는 모습을 보여주는 도면이다. 도 7 및 도 8은 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템을 통해 얻어지는 물체의 허상 및 실상의 광수신부 수신 이미지 및 이들의 3차원 포인트 클라우드를 보여주는 도면이다. 도 7은 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템으로부터 서로 다른 거리에 마련되는 물체를 보여주는 도면이다. 도 8의 (a) 및 (b)는 각각 광수신부의 광수신소자 배열부에 맺힌 반사광의 허상 및 광수신부의 직교 좌표계(XYZ) 하에서 반사광의 허상의 3차원 포인트 클라우드를 보여주는 도면이다. 도 8의 (c) 및 (d)는 각각 광수신부의 광수신소자 배열부에 맺힌 반사광의 실상 및 광수신부의 직교 좌표계(XYZ) 하에서 반사광의 실상의 3차원 포인트 클라우드를 보여주는 도면이다.
이하 도면을 참조하여 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템에 대하여 설명하기로 한다.
도면을 참조하면, 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템(100)은 광송신부(110), 광수신부(120) 및 판단부(미도시)를 포함한다. 몇몇 다른 실시 예들에 있어서, 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템(100)은 선택적으로(optionally) 광가이드부(130) 및 하우징(140)을 더 포함할 수 있다. 이하 설명의 편의상 본 명세서에서 개시하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템(100)을 객체 인식 시스템(100)으로 약칭하기로 한다.
광송신부(110)는 변조주파수(f0)로 변조된 펄스 광(S, 도 5 참조)을 펄스-버스트로 검지영역(10, 도 4 참조) 방향으로 제공한다. 도 5에는 펄스-버스트(pulse-burst)로 제공되는 펄스 광(S)이 예로서 표현되어 있다. 펄스-버스트로 제공되는 펄스 광(S)은 예로서 변조주파수(f0)로 변조된 펄스 광(S)을 주기적으로 ON-OFF하여 얻어질 수 있다. 상기의 예시는 이해를 위한 예시로서 변조주파수(f0)로 변조된 펄스 광(S)을 펄스-버스트로 제공하는 방법에는 그 제한이 없다. 펄스 광(S)의 광원으로는 약 940nm의 파장의 근적외선 광원이 사용될 수 있으나, 본 명세서에서 개시하는 기능을 수행할 수 있는 한 그 파장에는 제한이 없다. 펄스 광(S)은 점 광원 형태로 마련될 수 있다.
변조주파수(f0)의 크기는 설정된 검지영역(10)의 크기에 따른 검지거리에 근거하여 정해질 수 있다. 객체 인식 시스템(100)이 철도 승강장 안전문(PSD) 검지용으로 활용될 경우 검지영역(10)은 플랫폼 스크린도어와 선로부 사이의 공간으로 정해질 수 있다. 이 경우 변조주파수(f0)는 약 12MHz로 정해질 수 있으나 본 명세서에서 개시하는 기능을 수행할 수 있는 한 변조주파수(f0)의 크기에는 그 제한이 없다.
광수신부(120)는 펄스 광(S)의 반사광(R, 도 5 참조)을 수신한다. 광수신부(120)는 반사광(R)을 수광하는 렌즈부(122, 도 2 참조) 및 렌즈부(122)에 의해 수광된 반사광(R)을 수신하는 광수신소자 배열부(124, 도 2 참조)를 포함한다.
광수신소자 배열부(124)로는 CCD 어레이(charge coupled device array), 포토 다이오드 어레이(photodiode array), CMOS 어레이(complementary metal-oxide semiconductor array) 등이 사용될 수 있으나, 픽셀 단위로 반사광(R)을 수광할 수 있는 한 광수신소자 배열부(124)의 종류에는 그 제한이 없다. 도 6의 (b)에는 광수신소자 배열부(124)로서 320x240의 해상도를 가지는 CCD 어레이가 예로서 표현되어 있다.
판단부(미도시)는 펄스 광(S)과 반사광(R)으로부터 검지영역(10) 내에 물체(20, 20a, 20b, 도 2 및 도 7 참조)의 존재여부를 판단한다. 상기 판단부는 펄스 광(S)과 반사광(R) 사이의 위상차(φ) 및 광수신소자 배열부(124) 상의 반사광(S)의 위치정보로부터 물체(20, 20a, 20b)의 3차원 포인트 클라우드 정보를 추출한다. 상기 판단부의 물체(20, 20a, 20b)의 상기 3차원 포인트 클라우드 정보를 추출 과정에 대해서는 후술하기로 한다.
도 2에 예로서 도시한 바와 같이, 광가이드부(130)는 펄스 광(S)의 진행경로 상에 마련될 수 있으며, 펄스 광(S)이 통과할 수 있는 슬릿(132)이 마련된다. 한편, 슬릿(132)은 회전 가능하도록 마련될 수 있다. 객체 인식 시스템(100)은 객체 인식 시스템(100)의 설치 후 슬릿(132)의 회전을 통하여 검지영역(10)의 방향, 범위 등을 조절할 수 있다. 펄스 광(S)의 진행경로 상에 슬릿(132)이 마련된 광가이드부(130)를 마련함으로써 펄스 광(S)이 슬릿(132)을 통해 검지영역(10) 방향으로 안내되도록 하여 검지영역(10)의 측면에 위치하는 장애물에 의한 간섭을 최소화할 수 있는 효과를 제공해 줄 수 있다. 이를 통해 본 명세서에서 개시하는 객체 인식 시스템(100)은 철도 승강장 안전문(PSD) 검지용 즉, 플랫폼 스크린도어와 선로부 사이의 공간을 검지하는 용도로 효과적으로 활용될 수 있다.
일례로, 슬릿(132)은 광가이드부(130)의 회전을 통해 회전할 수 있다. 다른 예로, 슬릿(132)은 슬릿(132) 자체의 회전을 통해 회전할 수 있다. 이 경우, 슬릿(132)은 광가이드부(130)에 회전 가능하게 마련되는 회전판(미도시)에 마련될 수 있고, 상기 회전판의 회전을 통해 슬릿(132)은 회전할 수 있다.
한편, 도면에는 광가이이드부(130)에 마련된 8개의 슬릿(132) 및 8개의 슬릿(132) 각각에 대향하여 마련되는 8개의 광송신부(110)가 예로서 표현되어 있으나, 본 명세서에서 개시하는 기능을 수행할 수 있는 한 슬릿(132) 및 슬릿(132)에 대향하는 광송신부(110)의 개수에는 그 제한이 없다. 복수의 슬릿(132)과 이에 대응되는 복수의 광송신부(110)가 사용되는 경우에 복수의 광송신부(110) 각각은 서로 동기화되며, 서로 동일한 변조주파수로 변조된 펄스 광(S)를 펄스-버스트로 검지영역(10) 방향으로 제공할 수 있다. 또한, 도면에는 직사각형 형상의 슬릿(132)이 예로서 표현되어 있으나, 본 명세서에서 개시하는 기능을 수행할 수 있는 한 슬릿(132)의 형상에는 그 제한이 없다.
도 4에 예로서 도시한 바와 같이, 검지영역(10)은 가상의 육면체 형상으로 마련될 수 있다. 광송신부(110) 및 광수신부(120)는 각각 상기 가상의 육면체의 어느 한 모서리-이하 제1모서리(10a)라 함-에 인접하게 마련될 수 있다. 이 경우, 광송신부(110) 및 광수신부(120)는 제1모서리(10a)에서 제2모서리(10b) 방향으로 향하도록 마련될 수 있다. 제2모서리(10b)는 제1모서리(10a)에서 대각선 방향으로 마주보게 위치하는 상기 가상의 육면체의 다른 한 모서리이다. 렌즈부(122)의 시야각(FOV)은 상기 가상의 육면체 영역을 모두 포함하도록 마련될 수 있다. 일례로, 제1모서리(10a) 및 제2모서리(10b)의 양측에 위치하는 제1면(10c) 및 제2면(10d)이 각각 정사각형 형상을 가지는 경우, 렌즈부(122)의 상기 시야각은 렌즈부(122)의 중심축을 기준으로 약 45도로 마련될 수 있다. 상기의 예시는 이해를 위한 예시로서 상기 가상의 육면체 영역을 모두 포함할 수 있는 한 렌즈부(122)의 시야각(FOV)에는 그 제한이 없다.
도 3의 (a)에 예로서 도시한 바와 같이, 광송신부(110) 및 광수신부(120)를 상기 가상의 육면체 형상의 검지영역(10)의 측면에 인접하여 마련하는 경우 렌즈부(122)의 시야각(FOV)에 의해 검지할 수 없는 영역인 사각이 존재하게 된다. 이에 반하여, 도 3의 (b)에 예로서 도시한 바와 같이, 광송신부(110) 및 광수신부(120)를 각각 제1모서리(10a)에 인접하게 마련하고 제2모서리(10b)를 향하도록 마련함으로써 사각을 최소화할 수 있는 효과를 제공해 줄 수 있다.
한편, 슬릿(132)은 슬릿(132)을 통과하는 평행광(미도시)이 제1모서리(10a) 및 제2모서리(10b)의 양측에 위치하는 제1면(10c) 및 제2면(10d) 사이의 공간에 국한하여 이동하도록 마련될 수 있다. 상술한 방식으로 슬릿(132)의 방향을 마련함으로써 슬릿(132)을 통과하는 펄스 광(S)은 검지영역(10)으로 집중되도록 할 수 있다. 본 명세서의 객체 인식 시스템(100)은 펄스 광(S)이 슬릿(132)을 통해 검지영역(10) 방향으로 안내되도록 함으로써 검지영역(10)의 측면에 위치하는 장애물에 의한 간섭을 최소화할 수 있는 효과를 제공해 줄 수 있다. 특히, 벽, 문틀 등이 인접해 있는 철도 승강장의 플랫폼 스크린도어와 선로부 사이의 공간을 검지영역(10)으로 설정할 경우, 본 명세서에서 개시하는 객체 인식 시스템(100)은 슬릿(132)이 마련된 광가이드부(130)를 활용하여 펄스 광(S)이 검지영역(10)에 집중되도록 함으로써 객체 인식 시스템(100) 측면에 위치하는 벽, 문틀 등의 장애물에 의한 간섭을 최소화할 수 있는 효과를 제공해 줄 수 있다.
또 한편, 도 4에 예로서 도시한 바와 같이, 검지영역(10)은 슬릿(132)을 통과한 펄스 광(S)이 경유하는 영역(도 2 참조)과 검지영역(10)이 상호 교차하는 영역 내에 마련되는 추가적인 가상의 육면체 형상의 관심영역(12, region of interest, ROI)을 포함할 수 있다. 상기 판단부는 펄스 광(S)과 반사광(R)으로부터 관심영역(12) 내에 물체(20)의 존재여부를 판단할 수 있다. 관심영역(12)은 필요에 따라 위치, 크기 등이 변경될 수 있다. 본 명세서에서 개시하는 객체 인식 시스템(100)은 검지영역(10) 내에 별도의 관심영역(12)을 도입하고, 관심영역(120)을 물체(20)의 존재 여부에 대하여 집중 관찰이 필요한 영역으로 설정함으로써 물체(20)의 3차원 포인트 클라우드 정보 추출에 필요한 데이터 량을 줄여 검지영역(10) 내에서 물체(20)의 존재여부에 대한 빠른 판단을 수행할 수 있는 효과를 제공해 줄 수 있다.
광송신부(110), 광수신부(120) 및 광가이드부(130)는 하우징(140)에 마련될 수 있다. 상기 판단부는 하우징(140) 내부에 마련되거나, 하우징(140) 외부에 마련될 수 있다. 본 명세서에서 개시하는 기능을 수행할 수 있는 한 상기 판단부의 위치에는 그 제한이 없다.
이하 상기 판단부가 펄스 광(S)과 반사광(R) 사이의 위상차(φ)를 추출하는 과정을 설명하기로 한다. 또한, 상기 판단부가 추출한 위상차(φ) 및 광수신소자 배열부(124) 상의 반사광(R)의 위치정보로부터 물체(20, 20a, 20b)의 3차원 포인트 클라우드 정보를 추출하는 과정을 설명하기로 한다. 후술하는 과정은 광수신부(120)의 광수신소자 배열부(124)의 픽셀 각각에 대하여 수행될 수 있다.
위상차(φ)는 펄스 광(S)의 0도 위상 및 90도 위상에서의 반사광(R) 각각의 진폭 또는 펄스 광(S)의 0도 위상, 90도 위상, 180도 위상 및 270도 위상에서의 반사광(R) 각각의 진폭으로부터 추출될 수 있다. 일례로, 각 위상별 반사광(R)의 진폭은 펄스 광(S)이 반사되는 물체(20) 상의 임의의 포인트 P1의 XY평면으로의 정사영인 P1´에 대응되는 픽셀에서의 전기신호 측정을 통해 구할 수 있다.
위상차(φ)를 추출하는 과정을 도 5을 참조하여 설명하기로 한다. 펄스 광(S) 및 반사광(R)은 다음과 같이 표현할 수 있다.
S = ASsin(ωot)
R = ARsin(ωot - φ)
펄스 광(S)의 0도 위상에서 반사광(R)의 진폭 Ro는 다음과 같이 표현할 수 있다.
[수식 1] Ro = ARsin(-φ)
펄스 광(S)의 90도 위상에서 반사광(R)의 진폭 R1은 다음과 같이 표현할 수 있다.
[수식 2] R1 = ARsin(90o - φ) = ARcos(-φ)
위의 [수식 1]와 [수식 2]로부터 위상차(φ)를 다음의 과정을 통해 추출할 수 있다.
Ro ÷ R1 = -tan(φ)
φ = -tan-1(Ro ÷ R1) = tan-1(tan(φ))
한편, 광수신부(120)에 수신되는 반사광(R)은 들뜬 상태일 수 있다. 이 경우, 반사광(R)은 다음과 같이 표현할 수 있다.
R = ARsin(ωot -φ) + B
위상차(φ)를 추출하는 과정에서 아래의 과정을 통해 들뜬 상태를 표현한 B에 의한 효과를 제거할 수 있다.
펄스 광(S)의 0도 위상에서 반사광(R)의 진폭 Ro는 다음과 같이 표현할 수 있다.
[수식 3] Ro = ARsin(-φ) + B = -ARsin(φ) + B
펄스 광(S)의 90도 위상에서 반사광(R)의 진폭 R1은 다음과 같이 표현할 수 있다.
[수식 4] R1 = ARsin(90o - φ) + B = ARcos(-φ) + B = ARcos(φ) + B
펄스 광(S)의 180도 위상에서 반사광(R)의 진폭 R2는 다음과 같이 표현할 수 있다.
[수식 5] R2 = ARsin(180o - φ) + B = -ARsin(-φ) + B = ARsin(φ) + B
펄스 광(S)의 270도 위상에서 반사광(R)의 진폭 R3은 다음과 같이 표현할 수 있다.
[수식 6] R3 = ARsin(270o - φ) + B = -ARcos(-φ) + B = -ARcos(φ) + B
위의 [수식 3] 내지 [수식 6]으로부터 위상차(φ)를 다음의 과정을 통해 추출할 수 있다.
(R2 - Ro) ÷ (R1 - R3) = 2ARsin(φ) ÷ 2ARcos(φ) = tan(φ)
φ = tan-1[(R2 - Ro) ÷ (R1 - R3)] = tan-1(tan(φ))
빛의 속도를 c(단위: m/s)라고 할 경우, 위상차(φ) 동안 빛이 이동한 거리 T는 아래와 같다.
[수식 7] T = c × 1 ÷ ωo × φ (단위: m)
빛이 이동한 거리 T는 물체(20, 20a, 20b)까지의 왕복 거리이므로 물체(20, 20a, 20b)까지의 거리 D는 아래와 같다.
[수식 8] D = c × 1 ÷ ωo × φ ÷ 2 (단위: m)
도 6의 (a)를 참조하면, 펄스 광(S)이 반사되는 물체(20) 상의 임의의 포인트 P1의 구면 좌표는 (R, θ, φ)로 표현할 수 있다. 이 경우, R은 [수식 8]의 D로부터 구할 수 있다.
θ와 φ는 아래의 과정을 통해 구해질 수 있다. 이하 구면 좌표의 Z축과 광수신소자 배열부(124)의 Z'축이 서로 같은 방향이라고 가정하자.
도 6의 (b)는 도 6의 (a)의 XY 평면에 대응되는 광수신소자 배열부(124)의 X´Y´ 평면을 보여준다. 도 6의 (a)의 P1의 XY평면으로의 정사영인 P1´은 도 6의 (b)의 P1˝에 대응된다. 광수신소자 배열부(124)의 원점을 기준으로 P1˝의 좌표로부터 사잇각 φ를 추출할 수 있고, 이는 구면 좌표의 φ와 같은 값이다. θ는 광수신소자 배열부(124)의 원점을 기준으로 P1˝의 좌표까지의 거리로부터 얻을 수 있다. 이렇게 얻은 R, θ 및 φ를 도 6의 (a)에 도시한 수식을 활용하여 포인트 P1에 대한 구면 좌표인 P1(R, θ, φ)로부터 포인트 P1에 대한 직교 좌표인 P1(X1, Y1, Z1)을 얻을 수 있다.
한편, 앞서 상술한 바와 같이, 광송신부(110) 및 광수신부(120)는 제1모서리(10a)에서 제2모서리(10b) 방향으로 향하도록 마련될 수 있다. 이로 인해 광송신부(110) 및 광수신부(120)의 직교 좌표계와 검지영역(10)의 직교 좌표계는 각각 XYZ 좌표계와 X´Y´Z´ 좌표계로 서로 달라지게 된다.
광송신부(110) 및 광수신부(120)의 상기 좌표계를 제1직교좌표계라 하고, 검지영역(10)의 상기 좌표계를 제2직교좌표계라고 하자. 상기 제1직교좌표계의 X축과 상기 제2직교좌표계의 X´축을 서로 일치시키면, 상기 제1직교좌표계의 YZ평면과 상기 제2직교좌표계의 Y´Z´평면은 서로 X축 또는 X´축을 기준으로 θ1 만큼 회전시킨 관계로 정의할 수 있다.
도 6의 (c)에 도시한 수식을 통해 상기 제1직교좌표계에서의 포인트 P1에 대한 좌표인 P1(X1, Y1, Z1)는 아래와 같이 상기 제2직교좌표계에서의 좌표로 변환될 수 있다.
X1´ = X1
Y1´ = Y1cosθ1 - Z1sinθ1
Z1´ = Y1sinθ1 + Z1cosθ1
정리하면, 펄스 광(S)이 반사되는 물체(20) 상의 임의의 포인트 P1의 구면 좌표인 P1(R, θ, φ)는 위상차(φ) 및 광수신소자 배열부(124) 상의 반사광(R)의 위치정보로부터 추출되며, 추출된 P1(R, θ, φ)는 상술한 과정을 통해 검지영역(10)의 직교 좌표계인 X´Y´Z´ 좌표계로 변환될 수 있다. 이러한 과정은 펄스 광(S)이 반사되는 물체(20) 상의 모든 포인트들에 대해 수행될 수 있다. 이를 통해 검지영역(10)의 직교 좌표계인 X´Y´Z´ 좌표계를 기준으로 물체(20)의 3차원 포인트 클라우드 정보를 획득할 수 있다.
도 2에 예로서 도시한 바와 같이, 광송신부(110)가 마련된 위치와 광수신부(120)가 마련된 위치의 차이로 인해 획득한 물체(20)의 3차원 포인트 클라우드 정보에는 오차가 발생할 수 있다. 도 1에 예로서 도시한 바와 같이, 복수의 광송신부(110)를 사용하는 경우 오차는 더 커질 수 있다. 이러한 오차는 광송신부(110)와 광수신부(120)를 서로 가급적 가까이에 위치시킴으로써 줄일 수 있다. 이와 연계하여 이러한 오차는 표준 대상체에 대하여 검지영역(10)의 위치별로 미리 측정한 데이터베이스(미도시)를 활용하여 보정할 수도 있다.
본 명세서에서 개시하는 객체 인식 시스템(100)은 광송신부(110)를 통해 변조주파수(fo)로 변조된 펄스 광(S)을 펄스-버스트로 검지영역(10) 방향으로 제공하고 광수신부(120)로 반사광(R)을 수신하는 것만으로 검지영역(10)의 직교 좌표계인 X´Y´Z´ 좌표계를 기준으로 물체(20)의 3차원 포인트 클라우드 정보를 획득할 수 있다. 이를 통해 본 명세서에서 개시하는 객체 인식 시스템(100)은 검지영역(10) 내에 물체(20)의 존재여부를 확인할 수 있다. 특히, 본 명세서에서 개시하는 객체 인식 시스템(100)은 검지영역(10)을 철도 승강장의 플랫폼 스크린도어와 선로부 사이의 공간으로 설정함으로써 철도 승강장 안전문(PSD) 검지용으로 활용할 수 있다.
한편, 도 7 및 도 8에 예로서 도시한 바와 같이, 본 명세서에서 개시하는 객체 인식 시스템(100)이 제공하는 펄스-버스트로 제공되는 펄스 광(S) 즉, 플래시 라이다(flash LIDAR)로 인해 물체(20)의 3차원 포인트 클라우드 정보에는 물체(20)의 실상(30) 정보 이외에 물체(20)의 허상(40) 정보가 존재할 수 있다. 허상 정보는 광송신부(110)와 물체(20) 사이의 거리 또는 광송신부(110)가 송출하는 광의 세기에 기인할 수 있다.
도 7 및 도 8을 활용하여 물체(20)의 실상(30) 정보와 허상(40) 정보에 대해 보다 구체적으로 설명하면 다음과 같다.
검지영역(10) 내에 존재하는 물체(20)는 예로서 객체 인식 시스템(100)에 가까이 위치하는 물체(20a)와 멀리 위치하는 물체(20b)로 구분할 수 있다. 광송신부(110)가 제공하는 펄스 광(S)의 세기를 물체(20a)에 맞추어 제공하는 경우에 물체(20b)에는 약한 세기의 펄스 광(S)이 도달함으로써 광수신부(120)가 수신하는 물체(20b)의 반사광(R)의 세기 또한 약해지게 된다. 이로 인해 상기 판단부는 주변 노이즈와 물체(20b)의 반사광(R)을 제대로 구별해내기 어려울 수 있다. 반면에, 광송신부(110)가 제공하는 펄스 광(S)의 세기를 물체(20b)에 맞추어 제공하는 경우에 물체(20a)에는 강한 세기를 가지는 펄스 광(S)이 도달함으로써 광수신부(120)는 물체(20a)의 실상(30)에 대응되는 반사광(R)이 아닌 물체(20a)의 허상(40)에 대응되는 반사광(R)을 수신하게 된다. 따라서 물체(20)의 실상(30)을 기준으로 검지영역(10) 내의 물체(20a)와 물체(20b)의 3차원 포인트 클라우드 정보를 얻기 위해서는 펄스 광(S)의 세기를 조절하여 2번에 나누어 물체(20a) 및 물체(20b)에 펄스 광(S)을 제공한 후 광수신부(120)가 수신한 반사광(R)으로부터 물체(20a)의 실상(30) 정보와 물체(20b)의 실상(30) 정보를 추출하여야 한다.
후술하는 바와 같이, 본 명세서에서 개시하는 객체 인식 시스템(100)은 물체(20)의 3차원 포인트 클라우드 정보를 추출하는 과정에서 실상(40) 정보 뿐만 아니라 허상(40) 정보를 동시에 활용할 수 있는 기술을 개시한다. 이를 통해 본 명세서에서 개시하는 객체 인식 시스템(100)은 변조주파수(fo)로 변조된 펄스 광(S)을 펄스-버스트로 검지영역(10) 방향으로 1회 제공하고 광수신부(120)의 광수신소자 배열부(124)를 통해 반사광(R)을 1회 수신하는 것만으로 전체 프레임으로 검지영역(10) 내의 물체(20)의 거리정보를 포착할 수 있는 효과를 제공해 줄 수 있다.
광송신부(110)를 통해 펄스 광(S)을 물체(20a)에 제공할 경우, 광수신소자 배열부(124)에는 도 8의 (a)에 예로서 도시한 바와 같이, 물체(20a)로부터 직접 반사되는 반사광(R)이 XY평면에 투영된 형상인 실상이 아니라 물체(20a)의 경계면에서부터 바깥 방향으로 소정의 거리 범위 내의 반사광(R이 XY평면에 투영된 형상인 허상(40)이 수신된다. 이와 달리 광송신부(110)를 통해 펄스 광(S)을 물체(20b)에 제공할 경우, 광수신소자 배열부(124)에는 도 8의 (c)에 예로서 도시한 바와 같이, 물체(20a)로부터 직접 반사되는 반사광(R)이 XY평면에 투영된 형상인 실상(30)이 수신된다. 물체(20a, 20b)가 검지영역(10) 내에 존재하는지 여부를 판단하기 위해서는 실상(30)과 허상(40)을 구분할 필요가 있다.
앞서 상술한 바와 같이, 본 명세서에서 개시하는 객체 인식 시스템(100)은 광송신부(110) 및 광수신부(120)의 직교 좌표계인 XYZ 좌표계 또는 검지영역(10)의 직교 좌표계인 X´Y´Z´ 좌표계를 기준으로 물체(20)의 3차원 포인트 클라우드 정보를 획득할 수 있다. 객체 인식 시스템(100)의 상기 판단부는 물체(20)의 3차원 포인트 클라우드 중 서로 인접한 포인트 사이의 거리, 펄스 광(S)의 진행방향에 대한 상기 서로 인접한 포인트의 배열방향 및 이들의 조합 중에서 선택되는 어느 하나로부터 허상(40) 정보를 추출할 수 있다.
도 8의 (b)와 (d)를 활용하여 상기 판단부가 물체(20)의 3차원 포인트 클라우드 정보에서 허상(40) 정보를 추출하는 과정을 설명하면 다음과 같다.
일례로, 물체(20)의 3차원 포인트 클라우드 중 서로 인접한 포인트 사이의 거리는 실상(30)의 경우가 허상(40)의 경우보다 가깝다. 이에 기준 거리를 설정하고, 상기 기준 거리 보다 짧은 경우를 실상(30)의 3차원 포인트로, 상기 기준 거리 보다 긴 경우를 허상(40)의 3차원 포인트로 구분할 수 있다. 다른 예로, 물체(20)의 3차원 포인트 클라우드 중 서로 인접한 포인트의 배열방향은 실상(30)의 경우에는 펄스 광(S)의 진행방향과 소정의 각도를 가지게 되나, 허상(40)의 경우에는 펄스 광(S)의 진행방향과 평행에 가까운 각도를 가지게 된다. 이에 기준 각도를 설정하고, 물체(20)의 3차원 포인트 클라우드 중 서로 인접한 포인트의 배열방향과 펄스 광(s)의 진행방향 사이의 각도가 상기 기준 각도 보다 큰 경우를 실상(30)의 3차원 포인트로, 상기 기준 각도 보다 작은 경우를 허상(30)의 3차원 포인트로 구분할 수 있다. 한편, 물체(20)가 객체 인식 시스템(100)에서 가까이에 위치한 경우에 비하여 멀리 위치할수록 물체(20)의 3차원 포인트 클라우드 중 서로 인접한 포인트 사이의 거리는 멀어지게 된다. 이에 상술한 상기 기준 거리를 통해 물체(20)의 3차원 포인트 클라우드 중 실상(30)과 허상(40)을 구분하는 경우에 오차가 발생할 수 있다. 이에 또 다른 예로, 상기 기준 거리 및 상기 기준 각도를 동시에 고려하여 물체(20)의 3차원 포인트 클라우드 중 실상(30)과 허상(40)을 구분할 수도 있다.
상술한 방식으로 상기 판단부를 통해 물체(20)의 3차원 포인트 클라우드 중 허상(40) 정보가 확인되면, 상기 판단부는 물체(20)의 3차원 포인트 클라우드 정보 중 허상(40) 정보에 대응되는 포인트로 둘러싸인 영역을 물체(20)의 실상 정보로서 추출할 수 있다. 도 8의 (a)의 허상(40)의 내부 원의 원주에 대응되는 3차원 포인트 클라우드가 물체(20a)의 실상 정보로서 활용될 수 있다.
본 명세서에서 개시하는 객체 인식 시스템(100)은 물체(20)의 3차원 포인트 클라우드 중 실상(30) 정보와 허상(40) 정보를 구분하고, 허상(40) 정보로부터 대응되는 실상(40) 정보를 추출함으로써 검지영역(10) 내에 물체(20)가 존재하는지 여부를 보다 더 정확하게 인식할 수 있는 효과를 제공해 줄 수 있다.
상기로부터, 본 개시의 다양한 실시 예들이 예시를 위해 기술되었으며, 아울러 본 개시의 범주 및 사상으로부터 벗어나지 않고 가능한 다양한 변형 예들이 존재함을 이해할 수 있을 것이다. 그리고 개시되고 있는 상기 다양한 실시 예들은 본 개시된 사상을 한정하기 위한 것이 아니며, 진정한 사상 및 범주는 하기의 청구항으로부터 제시될 것이다.

Claims (8)

  1. 변조주파수로 변조된 펄스 광을 펄스-버스트로 검지영역 방향으로 제공하는 광송신부;
    상기 펄스 광의 반사광을 수신하는 광수신부; 및
    상기 펄스 광과 상기 반사광으로부터 상기 검지영역 내에 물체의 존재여부를 판단하는 판단부를 포함하되,
    상기 광수신부는
    상기 반사광을 수광하는 렌즈부; 및
    상기 렌즈부에 의해 수광된 상기 반사광을 수신하는 광수신소자 배열부를 포함하며,
    상기 판단부는 상기 펄스 광과 상기 반사광 사이의 위상차 및 상기 광수신소자 배열부 상의 상기 반사광의 위치정보로부터 상기 물체의 3차원 포인트 클라우드 정보를 추출하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템.
  2. 제1항에 있어서,
    상기 펄스 광의 진행경로 상에 마련되며, 상기 펄스 광이 통과할 수 있는 슬릿이 마련되는 광가이드부를 더 포함하되,
    상기 펄스 광은 점 광원 형태로 마련되는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템.
  3. 제2항에 있어서,
    상기 검지영역은 가상의 육면체 형상으로 마련되며,
    상기 광송신부 및 상기 광수신부는 각각 상기 가상의 육면체의 어느 한 모서리-이하 제1모서리라 함-에 인접하게 마련되고, 상기 제1모서리에서 제2모서리 방향을 향하도록 마련하되,
    상기 제2모서리는 상기 제1모서리에서 대각선 방향으로 마주보게 위치하는 상기 가상의 육면체의 다른 한 모서리이며,
    상기 렌즈부의 시야각은 상기 가상의 육면체 영역을 모두 포함하도록 마련되는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템.
  4. 제3항에 있어서,
    상기 슬릿은 상기 슬릿을 통과하는 평행광이 상기 제1모서리 및 상기 제2모서리의 양측에 위치하는 제1면 및 제2면 사이의 공간에 국한하여 이동하도록 마련되는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템.
  5. 제3항에 있어서,
    상기 검지영역은 상기 슬릿을 통과한 상기 펄스 광이 경유하는 영역과 상기 검지영역이 상호 교차하는 영역 내에 마련되는 추가적인 가상의 육면체 형상의 관심영역을 포함하며,
    상기 판단부는 상기 펄스 광과 상기 반사광으로부터 상기 관심영역 내에 상기 물체의 존재여부를 판단하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템.
  6. 제1항에 있어서,
    상기 위상차는 상기 펄스 광의 0도 위상 및 90도 위상에서의 상기 반사광 각각의 진폭 또는 상기 펄스 광의 0도 위상, 90도 위상, 180도 위상 및 270도 위상에서의 상기 반사광 각각의 진폭으로부터 추출되는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템.
  7. 제1항에 있어서,
    상기 물체의 상기 3차원 포인트 클라우드 정보는 상기 물체의 허상 정보를 포함하며,
    상기 판단부는 상기 3차원 포인트 클라우드 중 서로 인접한 포인트 사이의 거리, 상기 펄스 광의 진행방향에 대한 상기 서로 인접한 포인트의 배열방향 및 이들의 조합 중에서 선택되는 어느 하나로부터 상기 허상 정보를 추출하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템.
  8. 제7항에 있어서,
    상기 판단부는 상기 3차원 포인트 클라우드 정보 중 상기 허상 정보에 대응되는 포인트로 둘러싸인 영역을 상기 물체의 실상 정보로서 추출하는 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템.
PCT/KR2023/009271 2022-06-30 2023-06-30 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템 WO2024005607A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0080384 2022-06-30
KR20220080384 2022-06-30
KR1020230084627A KR20240002961A (ko) 2022-06-30 2023-06-30 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템
KR10-2023-0084627 2023-06-30

Publications (1)

Publication Number Publication Date
WO2024005607A1 true WO2024005607A1 (ko) 2024-01-04

Family

ID=89381157

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/009271 WO2024005607A1 (ko) 2022-06-30 2023-06-30 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템

Country Status (1)

Country Link
WO (1) WO2024005607A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090074326A1 (en) * 2007-09-14 2009-03-19 Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd. Method for aligning point clouds
KR20180049934A (ko) * 2016-11-04 2018-05-14 한국광기술원 동적 제어를 이용한 적응형 수광 신호의 감도 제어장치
KR102207549B1 (ko) * 2020-07-13 2021-01-26 (주)카네비컴 감지 영역 설정이 가능한 라이다 시스템
KR102311021B1 (ko) * 2020-11-30 2021-10-08 주식회사 나노시스템즈 빛의 발산각도를 조절할 수 있는 플래시형 라이다 시스템 및 그 시스템을 이용한 피사체 시야각 측정방법
KR102376701B1 (ko) * 2021-03-17 2022-03-21 주식회사 나노시스템즈 라이다 3차원 감지 영역 설정 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090074326A1 (en) * 2007-09-14 2009-03-19 Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd. Method for aligning point clouds
KR20180049934A (ko) * 2016-11-04 2018-05-14 한국광기술원 동적 제어를 이용한 적응형 수광 신호의 감도 제어장치
KR102207549B1 (ko) * 2020-07-13 2021-01-26 (주)카네비컴 감지 영역 설정이 가능한 라이다 시스템
KR102311021B1 (ko) * 2020-11-30 2021-10-08 주식회사 나노시스템즈 빛의 발산각도를 조절할 수 있는 플래시형 라이다 시스템 및 그 시스템을 이용한 피사체 시야각 측정방법
KR102376701B1 (ko) * 2021-03-17 2022-03-21 주식회사 나노시스템즈 라이다 3차원 감지 영역 설정 방법

Similar Documents

Publication Publication Date Title
WO2016175395A2 (ko) 미러 회전 방식의 다채널 라이더 스캐너 광학계
US10516489B1 (en) Underwater wireless communication apparatus and communication method thereof
WO2019022304A1 (ko) 하이브리드 라이다 스캐너
WO2016153233A1 (ko) 라이다 장치
US5903355A (en) Method and apparatus for checking a predetermined monitoring area
WO2018056516A1 (ko) 광학계 모듈 및 그를 갖는 스캐닝 라이다
WO2018124413A1 (ko) 송수광 일체형 광학계 모듈 및 이를 구비하는 스캐닝 라이다
WO2017171140A1 (ko) 오목 반사 미러를 가지는 스캐닝 라이다
WO2013176362A1 (ko) 3차원 스캐닝 시스템 및 이를 이용한 3차원 영상획득방법
WO2017023106A1 (ko) 광파 탐지 및 거리 측정 장치
WO2017073982A1 (ko) 3차원 스캐닝 시스템
WO2019027100A1 (ko) 다채널 라이다 센서 모듈
WO2019112164A1 (ko) 3차원 라이다 장치 및 거리측정 방법
WO2021096095A1 (ko) 라이다 시스템
WO2019031701A1 (ko) 다중 라이다 시스템 및 그 구동방법
WO2020204458A1 (ko) 광각 고해상도 거리 측정 장치
WO2019022549A1 (ko) 라이다 장치
WO2017200226A1 (ko) 다파장 광 주사 간섭계를 이용한 3차원 형상 측정장치
WO2024005607A1 (ko) 플래시 라이다를 이용한 검지영역 내의 객체 인식 시스템
WO2013058422A1 (ko) 거리 측정 장치
WO2022196884A1 (ko) 스테레오 카메라 및 레이더를 이용한 차량 감지 시스템 및 차량 감지 방법
WO2019022548A1 (ko) 비회전형 전방향 라이다 장치
WO2022114455A1 (ko) 노면 영상정보를 이용한 자율주행 차량의 위치신호 보정장치
WO2021060919A1 (ko) 라이다 광학 장치 및 이의 스캐닝 방법
WO2013094791A1 (ko) 거리 측정 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23831965

Country of ref document: EP

Kind code of ref document: A1