KR20220080359A - Apparatus for LIDAR - Google Patents

Apparatus for LIDAR Download PDF

Info

Publication number
KR20220080359A
KR20220080359A KR1020200169382A KR20200169382A KR20220080359A KR 20220080359 A KR20220080359 A KR 20220080359A KR 1020200169382 A KR1020200169382 A KR 1020200169382A KR 20200169382 A KR20200169382 A KR 20200169382A KR 20220080359 A KR20220080359 A KR 20220080359A
Authority
KR
South Korea
Prior art keywords
line
pattern
laser
image
detection image
Prior art date
Application number
KR1020200169382A
Other languages
Korean (ko)
Inventor
김은지
온백산
여태운
김대언
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020200169382A priority Critical patent/KR20220080359A/en
Publication of KR20220080359A publication Critical patent/KR20220080359A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4008Means for monitoring or calibrating of parts of a radar system of transmitters
    • G06T5/006
    • G06T5/007
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 출원은 라이다 장치에 관한 것으로서, 본 발명의 일 실시예에 의한 라이다 장치는 대상 공간 내에 라인 레이저(line laser)를 조사(照射)하는 레이저광원부; 상기 대상 공간 내에서 반사된 상기 라인 레이저를 감지하여 검출이미지를 생성하는 이미지센서부; 및 상기 검출이미지 내에 나타난 레이저 패턴을 이용하여, 상기 대상 공간에 대한 3차원좌표지도를 생성하는 이미지처리부를 포함하며, 상기 레이저 패턴은 기준패턴과, 상기 기준패턴으로부터 단락되어 수직방향으로 이격된 형상의 대상 패턴을 포함할 수 있다. The present application relates to a lidar device, and the lidar device according to an embodiment of the present invention includes a laser light source unit for irradiating a line laser (line laser) in a target space; an image sensor unit for generating a detection image by detecting the line laser reflected in the target space; and an image processing unit generating a three-dimensional coordinate map for the target space by using the laser pattern displayed in the detection image, wherein the laser pattern is short-circuited from the reference pattern and vertically spaced apart from the reference pattern. of the target pattern.

Description

라이다 장치 {Apparatus for LIDAR}LIDAR device {Apparatus for LIDAR}

본 출원은 라인 레이저(line laser)를 이용하는 라이다 장치에 관한 것으로, 더욱 상세하게는 검출이미지에 대한 영상처리를 수행하여 대상공간 내 3차원 좌표지도를 생성할 수 있는 라이다 장치에 관한 것이다. The present application relates to a lidar device using a line laser, and more particularly, to a lidar device capable of generating a three-dimensional coordinate map in a target space by performing image processing on a detected image.

레이저(Light Amplification by the Stimulated Emission of Radiation, LASER)는 유도방출(stimulated emission)에 의해 증폭된 빛으로, 전자공학, 광통신, 의약학, 국방분야 등 많은 분야에서 핵심기술로 활용되고 있다. Laser (Light Amplification by the Stimulated Emission of Radiation, LASER) is light amplified by stimulated emission and is used as a core technology in many fields such as electronics, optical communication, medicine, and national defense.

또한, 라이다(Light Detection and Ranging, LiDAR) 장치는 레이저를 이용하여 대상체까지의 거리를 측정하는 것으로, 최근 자율주행 자동차, 이동 로봇, 드론 등의 핵심 기술로 주목을 받고 있다.In addition, a LiDAR (Light Detection and Ranging, LiDAR) device uses a laser to measure the distance to an object, and has recently attracted attention as a core technology for autonomous vehicles, mobile robots, and drones.

종래의 라이다 장치는 레이저의 비행시간을 통한 거리를 산출하는 TOF(Time of Flight) 방식을 적용하므로, 고정밀도 및 고해상도의 측정이 가능한 장점이 있으나, 가격이 비싸고, 전체 크기가 커지게 되는 등의 단점이 존재한다.Since the conventional lidar device applies the TOF (Time of Flight) method that calculates the distance through the flight time of the laser, it has the advantage of being able to measure with high precision and high resolution, but it is expensive, the overall size is large, etc. disadvantages exist.

본 출원은 라인레이저를 검출한 검출이미지를 영상처리하여, 대상공간에 대한 정밀한 3차원 좌표 정보를 생성할 수 있는 라이다 장치를 제공하고자 한다.An object of the present application is to provide a lidar device capable of image processing a detection image detected by a line laser to generate precise three-dimensional coordinate information for a target space.

본 출원은 검출이미지의 해상도를 향상시켜, 보다 정밀한 거리 측정을 수행할 수 있는 라이다 장치를 제공하고자 한다. An object of the present application is to provide a lidar device capable of performing more precise distance measurement by improving the resolution of a detection image.

본 출원은 검출이미지 내에 포함된 복수의 라인 레이저들에 대한 구분오류로 인한 잘못된 거리측정을 방지할 수 있는 라이다 장치를 제공하고자 한다.An object of the present application is to provide a lidar device capable of preventing erroneous distance measurement due to a classification error with respect to a plurality of line lasers included in a detection image.

본 발명의 일 실시예에 의한 라이다 장치는, 이미지 기반의 3차원 라이다(LiDAR) 장치에 관한 것으로, 대상 공간 내에 라인 레이저(line laser)를 조사(照射)하는 레이저광원부; 상기 대상 공간 내에서 반사된 상기 라인 레이저를 감지하여 검출이미지를 생성하는 이미지센서부; 및 상기 검출이미지 내에 나타난 레이저 패턴을 이용하여, 상기 대상 공간에 대한 3차원좌표지도를 생성하는 이미지처리부를 포함할 수 있으며, 이때 상기 레이저 패턴은 기준패턴과, 상기 기준패턴으로부터 단락되어 수직방향으로 이격된 형상의 대상 패턴을 포함할 수 있다. A lidar device according to an embodiment of the present invention relates to an image-based three-dimensional lidar (LiDAR) device, comprising: a laser light source unit for irradiating a line laser (line laser) in a target space; an image sensor unit for generating a detection image by detecting the line laser reflected in the target space; and an image processing unit generating a three-dimensional coordinate map for the target space by using the laser pattern displayed in the detection image, wherein the laser pattern is short-circuited from the reference pattern and the reference pattern in a vertical direction. It may include a target pattern of a spaced apart shape.

여기서 상기 이미지처리부는, 상기 대상 패턴이 상기 검출이미지의 중심선으로부터 수직방향으로 이격된 높이위치값을 이용하여 상기 대상 패턴에 포함된 각 지점들에 대한 z축 좌표를 추출하고, 상기 대상 패턴이 상기 기준 패턴로부터 수직방향으로 이격된 수직위치값을 이용하여 상기 대상 패턴에 포함된 각 지점들에 대한 y축좌표를 추출하고, 상기 대상 패턴 내에 포함된 각 지점이 상기 검출이미지의 기준점으로부터 수평방향으로 이격된 수평위치값을 이용하여 상기 각 지점들의 x축좌표를 추출하며, 상기 x축좌표, y축좌표 및 z축좌표를 이용하여, 상기 대상 패턴 내의 각 지점에 대한 3차원 좌표를 생성할 수 있다.Here, the image processing unit extracts z-axis coordinates for each point included in the target pattern by using a height position value at which the target pattern is vertically spaced apart from the center line of the detection image, and the target pattern is The y-axis coordinates for each point included in the target pattern are extracted using a vertical position value spaced from the reference pattern in the vertical direction, and each point included in the target pattern moves horizontally from the reference point of the detection image. Extracting the x-axis coordinates of the respective points by using the spaced horizontal position values, and using the x-axis coordinates, y-axis coordinates, and z-axis coordinates to generate three-dimensional coordinates for each point in the target pattern have.

여기서, 상기 기준점은 상기 검출이미지의 중심점이고, 상기 중심선은 상기 검출이미지의 중심점을 지나는 수평선일 수 있다. Here, the reference point may be a center point of the detection image, and the center line may be a horizontal line passing through the center point of the detection image.

여기서 상기 이미지처리부는, 상기 y축좌표 추출시, 상기 수평위치값을 이용하여 상기 y축좌표를 보정할 수 있으며, 구체적으로 상기 수직위치값 및 수평위치값에 대응하는 상기 지점까지의 거리정보가 저장된 테이블표를 이용하여, 상기 y축좌표를 보정할 수 있다. Here, when the y-axis coordinate is extracted, the image processing unit may correct the y-axis coordinate using the horizontal position value, and specifically, the distance information to the point corresponding to the vertical position value and the horizontal position value is The y-axis coordinate can be corrected by using the stored table table.

여기서 상기 이미지처리부는, 상기 검출이미지로부터 상기 레이저 패턴에 대응하는 패턴픽셀들을 추출하고, 상기 패턴픽셀들을 분할하여 복수의 가상 픽셀들을 추가할 수 있다. Here, the image processing unit may extract pattern pixels corresponding to the laser pattern from the detection image, and divide the pattern pixels to add a plurality of virtual pixels.

여기서 상기 이미지처리부는, 상기 검출이미지로부터 상기 레이저 패턴에 대응하는 패턴픽셀들을 추출하고, 상기 패턴 픽셀 내에 복수의 가상 픽셀들을 삽입하여, 상기 가상 픽셀들이 상기 패턴 픽셀 내에 수직방향 또는 수평방향의 층을 형성하도록 할 수 있다. Here, the image processing unit extracts pattern pixels corresponding to the laser pattern from the detection image and inserts a plurality of virtual pixels into the pattern pixels so that the virtual pixels form a vertical or horizontal layer within the pattern pixels. can be made to form.

여기서 상기 이미지처리부는, 문턱값을 기준으로 상기 패턴 픽셀 및 가상 픽셀을 이진화하여 이진화영상을 생성하고, 상기 이진화영상으로부터 상기 레이저 패턴을 추출할 수 있다. Here, the image processing unit may generate a binarized image by binarizing the pattern pixel and the virtual pixel based on a threshold value, and extract the laser pattern from the binarized image.

여기서, 상기 이미지센서부는 상기 라인 레이저를 수신하는 렌즈부를 더 포함할 수 있으며, 상기 이미지처리부는 보정테이블을 참조하여, 상기 렌즈부에 의한 왜곡 보정한 3차원 좌표 정보를 생성할 수 있다. Here, the image sensor unit may further include a lens unit for receiving the line laser, and the image processing unit may generate 3D coordinate information obtained by correcting distortion by the lens unit with reference to a correction table.

여기서, 본 발명의 일 실시예에 의한 라이다 장치는, 상기 라인 레이저를 상기 대상공간 내에 조사하는 방출타이밍 및 방출유지시간을 제어하는 출력제어부; 및 상기 이미지센서부를 노출하여 상기 라인 레이저를 감지하는 노출타이밍 및 노출유지시간을 제어하는 노출제어부를 더 포함할 수 있다. Here, the lidar device according to an embodiment of the present invention, the output control unit for controlling the emission timing and emission holding time for irradiating the line laser into the target space; and an exposure control unit configured to control an exposure timing and exposure holding time for detecting the line laser by exposing the image sensor unit.

여기서 상기 출력제어부는, 동기화신호를 이용하여, 상기 노출타이밍과 상기 방출타이밍을 일치시킬 수 있다. Here, the output control unit may use a synchronization signal to match the exposure timing and the emission timing.

여기서 상기 출력제어부는, 홀수번째 동기화신호를 수신하면 상기 라인 레이저를 제1 방출유지시간동안 방출하고, 짝수번째 동기화신호를 수신하면 상기 라인 레이저를 제2 방출유지시간동안 방출하도록 제어할 수 있다. Here, the output control unit may control to emit the line laser for a first emission duration when an odd-numbered synchronization signal is received, and to emit the line laser for a second emission duration when an even-numbered synchronization signal is received.

여기서 상기 출력제어부는, 상기 제1 방출유지시간은 상기 노출유지시간과 일치하고, 상기 제2 방출유지시간은 상기 노출유지시간 보다 짧게 유지할 수 있다. Here, the output control unit, the first emission holding time may be consistent with the exposure holding time, and the second emission holding time may be maintained shorter than the exposure holding time.

여기서 상기 이미지센서부는, 상기 홀수번째 동기화신호에 대응하는 제1 검출이미지와, 상기 짝수번째 동기화신호에 대응하는 제2 검출이미지를 각각 생성하고, 상기 제1 검출이미지는 상기 제2 검출이미지보다 높은 밝기 이득값을 가지도록 영상처리하여 생성할 수 있다.Here, the image sensor unit generates a first detection image corresponding to the odd-numbered synchronization signal and a second detection image corresponding to the even-numbered synchronization signal, respectively, and the first detection image is higher than the second detection image. It can be generated by image processing to have a brightness gain value.

여기서 상기 이미지처리부는, 상기 제1 검출이미지에서 검출된 라인 레이저의 개수가 상기 레이저 광원부에서 출력한 라인 레이저의 개수와 같으면, 상기 제1 검출이미지 내의 최하단에 위치하는 상기 라인 레이저부터 오름차순으로 각각의 라인번호를 부여할 수 있다. Here, when the number of line lasers detected in the first detection image is the same as the number of line lasers output from the laser light source unit, the image processing unit may Line numbers can be assigned.

여기서 상기 이미지처리부는, 상기 기준 패턴과 대상 패턴을 구분하여, 각각 상기 라인번호를 부여할 수 있다. Here, the image processing unit may classify the reference pattern and the target pattern and assign the line number to each.

여기서 상기 이미지처리부는, 상기 제1 검출이미지에서 검출된 라인 레이저의 개수가 상기 레이저 광원부에서 출력한 라인 레이저의 개수보다 적으면, 상기 제2 검출이미지를 참조하여 상기 라인 레이저 각각에 대한 라인번호를 부여할 수 있다.Here, when the number of line lasers detected in the first detection image is less than the number of line lasers output by the laser light source unit, the image processing unit may refer to the second detection image to determine a line number for each of the line lasers. can be given

여기서 상기 이미지처리부는, 상기 제1 검출이미지에서 검출된 라인 레이저의 개수가 상기 레이저광원부에서 출력한 라인 레이저의 개수보다 적으면, 상기 제1 검출이미지 내에 포함된 상기 라인 레이저들의 라인번호의 후보를 각각 x, (x-1)로 설정한 후, 상기 제2 검출이미지에 동일하게 검출된 라인 레이저의 라인번호는 (x-1), 상기 검출이미지에 검출되지 않은 라인 레이저의 라인번호는 x로 각각 부여할 수 있다. Here, the image processing unit, when the number of line lasers detected in the first detection image is less than the number of line lasers output from the laser light source unit, selects candidates for line numbers of the line lasers included in the first detection image After setting x and (x-1) respectively, the line number of the line laser identically detected in the second detection image is (x-1), and the line number of the line laser not detected in the detection image is x. Each can be given.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.Incidentally, the means for solving the above problems do not enumerate all the features of the present invention. Various features of the present invention and its advantages and effects may be understood in more detail with reference to the following specific embodiments.

본 발명의 일 실시예에 의한 라이다 장치는, TOF를 대신하여 영상처리를 이용하여 대상공간 내의 거리 등을 측정할 수 있으므로, 라이다 장치 제조에 필요한 비용절감 및 제품 사이즈 축소를 구현할 수 있다. Since the lidar device according to an embodiment of the present invention can measure the distance in the target space using image processing instead of the TOF, it is possible to reduce the cost and reduce the product size required for manufacturing the lidar device.

본 발명의 일 실시예에 의한 라이다 장치는, 레이저 패턴의 수직위치값 이외에 수평위치값을 더 고려하여 거리정보를 생성할 수 있으므로, 보다 정확한 거리정보를 생성하는 것이 가능하다. Since the lidar device according to an embodiment of the present invention can generate distance information by further considering a horizontal position value in addition to a vertical position value of a laser pattern, it is possible to generate more accurate distance information.

본 발명의 일 실시예에 의한 라이다 장치는, 영상처리를 이용하여 검출이미지의 해상도를 높일 수 있으므로, 정밀한 레이저 패턴 추출이 가능하며, 이를 이용한 정확한 거리정보 생성이 가능하다. Since the lidar device according to an embodiment of the present invention can increase the resolution of a detected image by using image processing, it is possible to extract a precise laser pattern and to generate accurate distance information using the same.

본 발명의 일 실시예에 의한 라이다 장치는, 검출이미지 내에 포함된 복수의 라인 레이저들을 정확하게 구분할 수 있으므로, 라인 레이저의 구분오류로 인한 잘못된 거리측정을 방지하는 것이 가능하다. Since the lidar device according to an embodiment of the present invention can accurately distinguish a plurality of line lasers included in a detection image, it is possible to prevent erroneous distance measurement due to a classification error of the line lasers.

도1은 본 발명의 일 실시예에 의한 라이다 장치를 나타내는 블록도이다.
도2는 본 발명의 일 실시예에 의한 라이다 장치를 이용한 대상공간 내 라인 레이저의 방출을 나타내는 개략도이다.
도3 및 도4는 본 발명의 일 실시예에 의한 라이다 장치를 이용하여, 싱글라인의 라인 레이저에 대한 3차원 좌표 생성을 나타내는 개략도이다.
도5 및 도6은 본 발명의 일 실시예에 의한 라이다 장치를 이용하여, 멀티라인의 라인 레이저에 대한 3차원 좌표 생성을 나타내는 개략도이다.
도7 및 도8은 렌즈에 의한 검출이미지의 왜곡을 나타내는 개략도이다.
도9는 본 발명의 일 실시예에 의한 라이다 장치의 검출이미지 왜곡에 대한 보정을 나타내는 개략도이다.
도10 및 도11은 본 발명의 일 실시예에 의한 라이다 장치를 이용한 거리정보 생성을 나타내는 개략도이다.
도12 및 도13은 본 발명의 일 실시예에 의한 라이다 장치를 이용한 거리정보 생성을 나타내는 예시도이다.
도14는 본 발명의 일 실시예에 의한 라이다 장치의 가상픽셀 생성을 나타내는 개략도이다.
도15는 본 발명의 일 실시예에 의한 라이다 장치의 가상픽셀을 이용한 레이저 패턴의 검출을 나타내는 개략도이다.
도16은 본 발명의 일 실시예에 의한 라이다 장치의 레이저 패턴을 이용한 거리정보 생성을 나타내는 개략도이다.
도17 및 도18은 대상공간 내 객체와의 거리에 따른 검출이미지를 나타내는 개략도이다.
도19는 본 발명의 일 실시예에 의한 라이다 장치의 라인 레이저 방출 타이밍 및 방출유지시간을 나타내는 블록도이다.
도20은 본 발명의 일 실시예에 의한 라이다 장치의 제1 검출이미지 및 제2 검출이미지의 생성을 나타내는 블록도이다.
도21은 검출된 라인 레이저의 개수가 방출된 라인 레이저의 개수와 동일한 경우, 각 라인 레이저에 대한 라인 번호 설정을 나타내는 예시도이다.
도22는 검출된 라인 레이저의 개수가 방출된 라인 레이저의 개수와 상이한 경우, 각 라인 레이저에 대한 라인 번호 설정을 나타내는 예시도이다.
1 is a block diagram showing a lidar device according to an embodiment of the present invention.
2 is a schematic diagram illustrating emission of a line laser in a target space using a lidar device according to an embodiment of the present invention.
3 and 4 are schematic diagrams illustrating the generation of three-dimensional coordinates for a single-line laser using a lidar device according to an embodiment of the present invention.
5 and 6 are schematic diagrams illustrating the generation of 3D coordinates for a multi-line line laser using a lidar device according to an embodiment of the present invention.
7 and 8 are schematic diagrams showing distortion of a detected image by a lens.
9 is a schematic diagram showing correction for distortion of a detected image of a lidar device according to an embodiment of the present invention.
10 and 11 are schematic diagrams illustrating distance information generation using a lidar device according to an embodiment of the present invention.
12 and 13 are exemplary views showing generation of distance information using a lidar device according to an embodiment of the present invention.
14 is a schematic diagram illustrating virtual pixel generation of a lidar device according to an embodiment of the present invention.
15 is a schematic diagram illustrating detection of a laser pattern using virtual pixels of a lidar device according to an embodiment of the present invention.
16 is a schematic diagram illustrating distance information generation using a laser pattern of a lidar device according to an embodiment of the present invention.
17 and 18 are schematic diagrams illustrating a detection image according to a distance from an object in a target space.
19 is a block diagram illustrating a line laser emission timing and emission holding time of a lidar device according to an embodiment of the present invention.
20 is a block diagram illustrating generation of a first detection image and a second detection image of the lidar device according to an embodiment of the present invention.
Fig. 21 is an exemplary diagram showing line number setting for each line laser when the number of detected line lasers is the same as the number of emitted line lasers.
Fig. 22 is an exemplary diagram showing line number setting for each line laser when the number of detected line lasers is different from the number of emitted line lasers.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those of ordinary skill in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing the preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 명세서에 기재된 "~부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. In addition, throughout the specification, when a part is 'connected' with another part, it is not only 'directly connected' but also 'indirectly connected' with another element interposed therebetween. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "~ unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

도1은 본 발명의 일 실시예에 의한 라이다 장치를 나타내는 블록도이고, 도2는 본 발명의 일 실시예에 의한 라이다 장치를 이용한 대상공간 내 라인 레이저의 방출을 나타내는 개략도이다. 1 is a block diagram illustrating a lidar device according to an embodiment of the present invention, and FIG. 2 is a schematic diagram illustrating emission of a line laser in a target space using a lidar device according to an embodiment of the present invention.

도1 및 도2를 참조하면, 본 발명의 일 실시예에 의한 라이다 장치(100)는 레이저 광원부(110), 이미지센서부(120), 이미지처리부(130), 출력제어부(140) 및 노출제어부(150)를 포함할 수 있다. 1 and 2 , the lidar device 100 according to an embodiment of the present invention includes a laser light source unit 110 , an image sensor unit 120 , an image processing unit 130 , an output control unit 140 , and exposure. A control unit 150 may be included.

이하, 도1 및 도2를 참조하여 본 발명의 일 실시예에 의한 라이다 장치(100)를 설명한다. Hereinafter, the lidar device 100 according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2 .

레이저 광원부(110)는 대상공간(A) 내 라인 레이저(Line Laser)를 조사(照射)할 수 있다. 레이저 광원부(110)는 대상공간(A) 내 단일의 라인 레이저 또는 복수의 라인 레이저를 출력할 수 있으며, 실시예에 따라서는 출력하는 라인 레이저의 투광각도를 조절하여 조사하는 것도 가능하다.The laser light source unit 110 may irradiate a line laser in the target space (A). The laser light source unit 110 may output a single line laser or a plurality of line lasers in the target space A, and according to an embodiment, it is also possible to irradiate by adjusting the projection angle of the output line laser.

여기서, 라인 레이저의 파장은 미리 설정될 수 있으며, 실시예에 따라서는 라인 레이저의 파장을 적외선 파장 영역으로 설정하는 것도 가능하다. 즉, 적외선의 라인 레이저를 조사하도록 하여, 대상공간(A) 내 위치하는 사람들은 라인 레이저를 인식하지 못하도록 할 수 있다. Here, the wavelength of the line laser may be preset, and it is also possible to set the wavelength of the line laser to an infrared wavelength region according to an embodiment. That is, by irradiating the line laser of infrared rays, it is possible to prevent people located in the target space A from recognizing the line laser.

또한, 라인 레이저는 Eye-safety 1 class 기준을 충족하도록 에너지 설계될 수 있다. 예를들어, 레이저 광원부(110)는 미리 설정된 에너지 설계에 따라 펄스형으로 레이저 광을 방출할 수 있으며, 이를 통해 대상공간(A) 내에 방출된 라인 레이저에 의해 유발되는 눈 상해 등의 사고 위험을 최소화할 수 있다. In addition, line lasers can be energized to meet Eye-safety 1 class standards. For example, the laser light source unit 110 may emit laser light in a pulsed form according to a preset energy design, thereby reducing the risk of accidents such as eye injuries caused by the line laser emitted in the target space (A). can be minimized

한편, 라인 레이저가 출력되는 대상공간(A)은, 가정집이나 상점 등의 경비구역이나, 주행 또는 주차 중인 차량의 주변공간 등일 수 있다. 다만, 이에 한정되는 것은 아니며, 라이다 장치(100)가 설치되어 라인 레이저를 조사할 수 있는 공간이면 어떠한 공간도 해당할 수 있다. On the other hand, the target space (A) to which the line laser is output may be a security area such as a house or a store, or a space around a vehicle being driven or parked. However, the present invention is not limited thereto, and any space may correspond to a space in which the lidar device 100 is installed and irradiating a line laser.

이미지센서부(120)는 복수의 픽셀들을 포함할 수 있으며, 대상 공간(A) 내에서 반사된 라인 레이저들을 픽셀들의 픽셀값으로 감지하여 검출이미지를 생성할 수 있다. 예를들어, 이미지 센서부(130)는 CCD(Charge-Coupled Device) 센서 또는 CMOS(Complementary Metal-Oxide Semiconductor) 센서 등의 센서 어레이로 구현할 수 있으며, 대상 공간(A) 내에서 감지되는 빛을 전기적 신호로 변환할 수 있다. 즉, 대상 공간(A) 내에서 반사된 라인 레이저의 휘도값을 대응하는 각각의 픽셀들의 픽셀값으로 설정하여, 2차원의 검출이미지를 생성할 수 있다.The image sensor unit 120 may include a plurality of pixels, and may generate a detection image by detecting line lasers reflected in the target space A as pixel values of the pixels. For example, the image sensor unit 130 may be implemented as a sensor array such as a CCD (Charge-Coupled Device) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) sensor, and electrically transmits light detected in the target space (A). can be converted into a signal. That is, a two-dimensional detection image may be generated by setting the luminance value of the line laser reflected in the target space A to the pixel value of each pixel.

이미지처리부(130)는 검출이미지 내에 나타난 레이저 패턴을 이용하여, 대상 공간(A)에 대한 3차원좌표지도를 생성할 수 있다. 구체적으로, 이미지처리부(130)는 레이저 광원부(110)와 이미지센서부(120) 사이의 기하학적인 거리와 각도 등을 이용하여, 대상공간(A) 내의 각각의 지점까지의 거리를 측정할 수 있다. 여기서, 이미지처리부(130)는 삼각측량기법을 이용할 수 있으며, 이를 바탕으로 각 지점에 대한 3차원 좌표를 설정할 수 있다. 이후, 이미지처리부(130)는 각각의 레이저 패턴에 대한 3차원 좌표를 취합하여 대상공간(A)에 대한 3차원 좌표지도를 생성할 수 있다.The image processing unit 130 may generate a three-dimensional coordinate map for the target space A by using the laser pattern displayed in the detection image. Specifically, the image processing unit 130 may measure the distance to each point in the target space A using the geometric distance and angle between the laser light source unit 110 and the image sensor unit 120 . . Here, the image processing unit 130 may use a triangulation technique, and may set three-dimensional coordinates for each point based on this. Thereafter, the image processing unit 130 may generate a three-dimensional coordinate map for the target space A by collecting the three-dimensional coordinates for each laser pattern.

다만, 대상공간(A) 내에 객체(S)가 존재하는 경우, 검출 이미지(i) 내의 레이저 패턴은 기준 패턴과, 기준 패턴으로부터 단락되어 수직방향으로 이격된 형상의 대상패턴으로 표시될 수 있다. 즉, 도3에 도시한 바와 같이, 대상공간(A) 내에 객체(S)가 위치하는 경우에는, 레이저 패턴이 기준패턴(La)로부터 이격된 대상패턴(Lb)을 포함하는 형태로 나타날 수 있다. 이 경우, 삼각측량법을 이용한 객체(S)까지의 거리측정은 어려울 수 있으며, 이미지처리부(130)는 대상패턴(Lb)과 기준패턴(La) 사이의 관계를 이용하여, 객체(S)에 대한 3차원 좌표를 설정할 수 있다.However, when the object S is present in the target space A, the laser pattern in the detection image i may be displayed as a reference pattern and a target pattern short-circuited from the reference pattern and vertically spaced apart. That is, as shown in FIG. 3 , when the object S is located in the target space A, the laser pattern may appear in a form including the target pattern Lb spaced apart from the reference pattern La. . In this case, it may be difficult to measure the distance to the object S using the triangulation method, and the image processing unit 130 uses the relationship between the target pattern Lb and the reference pattern La, 3D coordinates can be set.

구체적으로, 도3(a)에 도시한 바와 같이, 대상공간 내에 라인 레이저를 수평으로 조사하는 경우, 기준패턴(La)은 검출이미지(i)의 중심에 위치하게 된다. 여기서, 레이저 패턴의 높이위치값은 검출이미지(i)의 중심선(RL)의 위치를 기준으로 할 수 있으며, 도3(a)의 경우 기준 패턴(La)이 중심선(RL)에 위치하므로 높이위치값은 0에 해당한다. 따라서, 기준패턴(La)의 z축 좌표도 0으로 설정할 수 있다. Specifically, as shown in FIG. 3( a ), when the line laser is horizontally irradiated into the target space, the reference pattern La is located at the center of the detection image i. Here, the height position value of the laser pattern may be based on the position of the center line RL of the detection image i, and in the case of FIG. The value corresponds to 0. Accordingly, the z-axis coordinate of the reference pattern La may also be set to 0.

이후, 도3(b)와 같이 대상공간 내에 객체(S)가 위치하는 경우에는, 검출이미지(i)에 대상패턴(Lb)이 기준패턴(La)로부터 이격하여 나타날 수 있다. 그러나, 레이저 광원부(110)는 실제 대상공간 내에 라인 레이저를 수평하게 출력하고 있으므로, 해당 라인 레이저에 대응하는 높이위치값은 모두 동일하다. 즉, 레이저 광원부(110)와 이미지 센서부(120)의 사이의 간격이나 각도 등에 따라 검출이미지(i) 내에 기준패턴(La)과 대상패턴(Lb) 사이의 간격이 나타나는 것이다. 따라서, 도3(b)에 나타난 대상패턴(Lb)의 높이위치값도 0으로 설정할 수 있으며, 그에 따라 객체(S)의 z축 좌표도 0으로 설정할 수 있다. 또한, 도3(b)에 도시한 바와 같이, 대상공간 내에 객체(S)가 위치하여 대상패턴(Lb)이 나타나는 경우, 기준점(RP)으로부터 수평방향으로 이격된 대상패턴(Lb)까지 거리를 측정하여 수평위치값으로 설정할 수 있다. 예를들어, 대상패턴(Lb)의 중심점을 기준으로, 기준점(RP)과의 수평방향 이격거리를 측정할 수 있다. 도3(b)의 경우 대상패턴(Lb)의 중심점은 기준점(RP)으로부터 수평방향의 이격거리가 0에 해당하므로, 해당 대상패턴(Lb)의 수평위치값을 0으로 설정할 수 있다. 또한, 수평위치값이 0이므로, 객체(S)가 검출이미지(i) 내의 중심에 위치하고 있는 것으로 판별할 수 있다.Thereafter, when the object S is located in the target space as shown in FIG. 3B , the target pattern Lb may appear in the detection image i while being spaced apart from the reference pattern La. However, since the laser light source unit 110 horizontally outputs the line laser in the actual target space, the height position values corresponding to the line laser are all the same. That is, the interval between the reference pattern La and the target pattern Lb appears in the detection image i according to the interval or angle between the laser light source unit 110 and the image sensor unit 120 . Accordingly, the height position value of the target pattern Lb shown in FIG. 3(b) may also be set to 0, and accordingly, the z-axis coordinate of the object S may also be set to 0. In addition, as shown in Figure 3 (b), when the object (S) is located in the target space and the target pattern (Lb) appears, the distance from the reference point (RP) to the horizontally spaced target pattern (Lb) It can be measured and set as a horizontal position value. For example, based on the central point of the target pattern (Lb), it is possible to measure the horizontal separation distance from the reference point (RP). In the case of Figure 3 (b), since the horizontal distance from the reference point (RP) to the center point of the target pattern (Lb) corresponds to 0, the horizontal position value of the target pattern (Lb) can be set to 0. In addition, since the horizontal position value is 0, it can be determined that the object S is located at the center in the detection image i.

이외에도, 실시예에 따라서는, 대상패턴(Lb)에 포함되는 각각의 지점들마다 기준점(RP)으로부터 수평방향으로 이격된 수평위치값들을 측정할 수 있으며, 이때 수평위치값들은 각각의 지점들에 대한 x축 좌표에 대응한다. 여기서는 기준점(RP)이 검출이미지(i)의 중심점(RP)인 경우를 예로들어 설명하였으나, 실시예에 따라서는 중심점 이외에 다양한 지점을 기준점(RP)으로 설정하는 것도 가능하다.In addition, according to the embodiment, horizontal position values spaced apart from the reference point RP in the horizontal direction may be measured for each point included in the target pattern Lb, and in this case, the horizontal position values are at each point. corresponding to the x-axis coordinates for Here, the case where the reference point RP is the center point RP of the detection image i has been described as an example, but according to embodiments, it is also possible to set various points other than the center point as the reference point RP.

한편, 라이다장치(100)와 객체(S) 사이의 거리는, 검출 이미지(i) 내의 대상패턴(Lb)이 기준패턴(La)으로부터 수직방향으로 이격된 수직위치값(P)에 비례한다. 따라서, 이미지처리부(130)는 수직위치값(p)을 이용하여 객체(S)까지의 거리(D1)를 산출할 수 있다. 여기서, 각각의 수직위치값(p)에 대응하는 객체(S)까지의 거리값을 구하기 위한 함수 또는 테이블표 등이 미리 설정되어 있을 수 있으며, 이미지처리부(130)는 이를 이용하여 수직위치값(P)으로부터 y축 좌표를 설정할 수 있다.On the other hand, the distance between the lidar device 100 and the object S is proportional to the vertical position value P at which the target pattern Lb in the detection image i is vertically spaced apart from the reference pattern La. Accordingly, the image processing unit 130 may calculate the distance D1 to the object S by using the vertical position value p. Here, a function or table for obtaining the distance value to the object S corresponding to each vertical position value p may be preset, and the image processing unit 130 uses this to determine the vertical position value ( You can set the y-axis coordinates from P).

따라서, 이미지처리부(130)는 수직위치값, 수평위치값 및 높이위치값을 이용하여, 해당 레이저 패턴에 포함된 각 지점들에 대한 3차원 좌표값을 생성할 수 있다.Accordingly, the image processing unit 130 may generate a three-dimensional coordinate value for each point included in the corresponding laser pattern by using the vertical position value, the horizontal position value, and the height position value.

또한, 대상 공간(A)에 대한 3차원좌표지도를 생성하기 위하여, 레이저 광원부(110)는 대상공간(A) 내의 다양한 위치에 라인 레이저를 조사할 수 있으며, 실시예에 따라서는, 도4(a)와 같이 라인 레이저의 투광각도를 달리하여 조사할 수 있다. 즉, 도4(a)에 도시한 바와 같이, 대상 공간 내에 라인 레이저를 설정한 투광각도(θ)로 조사하는 경우에는, 기준패턴(La)이 검출이미지(i)의 중심선(RL)보다 아래에 위치할 수 있다. 이 경우, 이미지처리부(130)는 수직위치값, 수평위치값 및 높이위치값에 라인 레이저들의 투광각도(θ)를 더 적용하여, 각각의 3차원 좌표값을 생성할 수 있다. In addition, in order to generate a three-dimensional coordinate map for the target space (A), the laser light source unit 110 may irradiate a line laser to various positions in the target space (A). As in a), it is possible to irradiate the line laser by changing the light emission angle. That is, as shown in Fig. 4(a), in the case of irradiating the line laser in the target space at the set light projection angle θ, the reference pattern La is lower than the center line RL of the detection image i. can be located in In this case, the image processing unit 130 may generate each three-dimensional coordinate value by further applying the projection angle θ of the line lasers to the vertical position value, the horizontal position value, and the height position value.

구체적으로, 도4(b)와 같이 대상공간(A) 내에 객체(S)가 위치하는 경우, 라이다장치(100)와 객체(S) 사이의 거리(D2)는, 검출이미지(i) 내의 대상패턴(Lb)이 기준 패턴(La)으로부터 수직방향으로 이격된 수직위치값(p)에 비례한다. 따라서, 이미지처리부(130)는 수직위치값(p)을 이용하여 객체(S)까지의 거리(D2)를 산출할 수 있다. 여기서, 각각의 수직위치값(p)에 대응하는 객체(S)까지의 거리(D2)을 구하기 위한 함수 또는 테이블표 등이 미리 설정되어 있을 수 있으며, 이미지처리부(130)는 이를 이용하여 수직위치값(p)으로부터 객체(S)까지의 거리(D2)를 산출할 수 있다. 이후, 객체(S)의 y축 좌표는, 투광각도(θ)를 반영하여, D2*cos(θ)로 구할 수 있다.Specifically, when the object S is located in the target space A as shown in Fig. 4(b), the distance D2 between the lidar device 100 and the object S is, in the detection image i The target pattern Lb is proportional to the vertical position value p that is vertically spaced from the reference pattern La. Accordingly, the image processing unit 130 may calculate the distance D2 to the object S by using the vertical position value p. Here, a function or table table for obtaining the distance D2 to the object S corresponding to each vertical position value p may be preset, and the image processing unit 130 uses this to determine the vertical position The distance D2 from the value p to the object S can be calculated. Thereafter, the y-axis coordinate of the object S may be obtained as D2*cos(θ) by reflecting the light transmission angle θ.

또한, 높이위치값은 검출이미지(i)의 중심선(RL)을 기준으로 설정할 수 있으며, 기준 패턴(La)과 중심선(RL) 사이의 간격을 높이위치값으로 산출할 수 있다. 여기서, 기준 패턴(La)이 위치하는 높이값(z축 좌표)은 기준 패턴(La)과 중심선(RL) 사이의 간격과 비례하므로, 높이위치값에 대응하는 기준패턴(La)까지의 높이값을 구하기 위한 함수 또는 테이블표 등이 미리 설정되어 있을 수 있다. 이미지처리부(130)는 이를 이용하여 높이위치값으로부터 z축 좌표를 설정할 수 있다. In addition, the height position value may be set based on the center line RL of the detection image i, and the interval between the reference pattern La and the center line RL may be calculated as the height position value. Here, since the height value (z-axis coordinate) at which the reference pattern La is located is proportional to the interval between the reference pattern La and the center line RL, the height value up to the reference pattern La corresponding to the height position value A function or table table for obtaining ? may be preset. The image processing unit 130 may use this to set the z-axis coordinate from the height position value.

다만, 도4(b)에 도시한 바와 같이, 객체(S)는 기준패턴(La)보다 z축 방향으로 상단에 위치하므로, 객체(S)의 z축 좌표를 얻기 위해서는 기준패턴(La)의 z축 좌표에 추가적인 연산을 더 수행할 필요가 있다. 예를들어, D2*cos(θ)*tan(θ)를 이용하여 객체(S)의 z축 좌표를 구할 수 있으며, 이외에도 다양한 방식을 활용하여 객체(S)의 z축 좌표를 구할 수 있다. However, as shown in Fig. 4(b), since the object S is located at the upper end in the z-axis direction than the reference pattern La, in order to obtain the z-axis coordinates of the object S, the reference pattern La is It is necessary to perform additional calculations on the z-axis coordinates. For example, the z-axis coordinates of the object S may be obtained using D2*cos(θ)*tan(θ), and the z-axis coordinates of the object S may be obtained using various other methods.

추가적으로, 실시예에 따라서는 투광각도(θ)가 주어지지 않는 경우가 있을 수 있다. 이 경우 이미지처리부(130)는 대상패턴(Lb)이 검출이미지(i)의 중심선(RL)으로부터 수직방향으로 이격된 높이위치값(C)을 이용하여, 객체(s)의 z축 좌표를 도출할 수 있다. 즉, 객체(S)가 위치하는 높이값(z축 좌표)는 높이위치값(C)과 비례하므로, 각각의 높이위치값(C)에 대응하는 객체(S)의 z축좌표를 구하기 위한 함수 또는 테이블표 등이 미리 설정되어 있을 수 있다. 따라서, 이미지처리부(130)는 이를 이용하여 높이위치값(C)으로부터 객체(S)의 z축좌표를 구할 수 있다. 이 경우, 중심선(RL)의 높이를 임의의 상수(예를들어, 0)로 지정하는 방식에 비하여, 정확하게 높이 정보를 얻을 수 있는 것이 가능하다.Additionally, depending on the embodiment, there may be a case where the light transmission angle θ is not given. In this case, the image processing unit 130 derives the z-axis coordinates of the object s by using the height position value C at which the target pattern Lb is vertically spaced from the center line RL of the detection image i. can do. That is, since the height value (z-axis coordinate) at which the object S is located is proportional to the height position value C, a function for obtaining the z-axis coordinate of the object S corresponding to each height position value C Alternatively, a table table may be preset. Accordingly, the image processing unit 130 may obtain the z-axis coordinate of the object S from the height position value C using this. In this case, it is possible to accurately obtain height information compared to a method in which the height of the center line RL is designated as an arbitrary constant (eg, 0).

한편, 수평위치값은 라인 레이저를 수평으로 조사하는 경우와 동일한 방법으로 측정할 수 있다. 즉, 기준점(RP)으로부터 대상패턴(Lb)이 수평방향으로 이격된 수평위치값을 측정거리를 측정할 수 있으며, 이때 기준점(RP)은 검출이미지(i)의 중심점일 수 있다. 여기서, 수평위치값은 x축 좌표에 대응하므로, 대상패턴(Lb)에 포함되는 각각의 지점들의 수평위치값들을 이용하여 각각의 지점들에 대한 x축 좌표를 설정할 수 있다. On the other hand, the horizontal position value can be measured in the same way as in the case of horizontally irradiating the line laser. That is, the target pattern Lb from the reference point RP may measure a horizontal position value spaced apart in the horizontal direction to measure a measurement distance, and in this case, the reference point RP may be the center point of the detection image i. Here, since the horizontal position value corresponds to the x-axis coordinate, it is possible to set the x-axis coordinate for each point by using the horizontal position values of each point included in the target pattern Lb.

상술한 바와 같이, 이미지처리부(130)는 투광각도를 변화시키면서, 레이저 패턴에 포함된 각 지점들에 대한 3차원 좌표값을 생성할 수 있다. 즉, 이미지처리부(130)는 검출이미지에서 추출한 레이저 패턴을 이용하여, 대상공간(A)에 대한 3차원 좌표를 각각 연산할 수 있으며, 이를 바탕으로 3차원 좌표지도를 생성할 수 있다.As described above, the image processing unit 130 may generate 3D coordinate values for each point included in the laser pattern while changing the light transmission angle. That is, the image processing unit 130 may calculate each of the three-dimensional coordinates for the target space A by using the laser pattern extracted from the detected image, and may generate a three-dimensional coordinate map based on this.

정리하면, 이미지처리부(130)는 대상패턴(Lb)이 검출이미지(i)의 중심선(RL)으로부터 수직방향으로 이격된 높이위치값을 이용하여 대상패턴(Lb)에 포함된 각 지점들에 대한 z축 좌표를 추출할 수 있다. 또한, 대상패턴(Lb)이 기준패턴(La)로부터 수직방향으로 이격된 수직위치값(P)을 이용하여 대상패턴(Lb)에 포함된 각 지점들에 대한 y축좌표를 추출할 수 있다. 이후, 대상패턴(Lb) 내에 포함된 각 지점이 검출이미지(i)의 기준점(RP)으로부터 수평방향으로 이격된 수평위치값을 이용하여 각 지점들의 x축좌표를 추출할 수 있다. x축 좌표, y축 좌표 및 z축 좌표가 추출되면, 이미지처리부(130)는 대상패턴(Lb)의 각 지점에 대한 3차원 좌표를 생성할 수 있다. In summary, the image processing unit 130 uses a height position value at which the target pattern Lb is vertically spaced from the center line RL of the detection image i for each point included in the target pattern Lb. You can extract the z-axis coordinates. In addition, the y-axis coordinates for each point included in the target pattern Lb may be extracted using the vertical position value P at which the target pattern Lb is vertically spaced from the reference pattern La. Thereafter, the x-axis coordinates of each point may be extracted using a horizontal position value at which each point included in the target pattern Lb is horizontally spaced apart from the reference point RP of the detection image i. When the x-axis coordinates, the y-axis coordinates, and the z-axis coordinates are extracted, the image processing unit 130 may generate three-dimensional coordinates for each point of the target pattern Lb.

한편, 도4는 대상공간(A) 내에 단일의 라인 레이저를 투광각도를 변경하면서 조사하는 경우를 나타내는 것이나, 실시예에 따라서는 도5에 도시한 바와 같이, 멀티 라인 레이저를 동시에 조사하는 것도 가능하다. 즉, 도5(a) 및 도5(b)에 도시한 바와 같이, 라이다 장치(100)는 4개의 라인 레이저를 동시에 조사할 수 있으며, 각각의 라인 레이저들은 평평한 형상의 벽에서 반사될 수 있다. 여기서, 4개의 라인 레이저가 나타난 4개의 끝점을 비교하면, 균일한 벽에 조사되었으므로, 높이를 나타내는 z좌표(z1, z2, z3, z4)만 상이하고, 나머지 x, y 좌표는 동일함을 확인할 수 있다. 즉, 멀티 라인 레이저를 조사하는 경우, 각각의 라인 레이저에 대한 높이에 대한 z좌표를 산출할 필요가 있다. On the other hand, FIG. 4 shows a case in which a single line laser is irradiated in the target space A while changing the projection angle, but depending on the embodiment, as shown in FIG. 5 , it is also possible to simultaneously irradiate a multi-line laser. do. That is, as shown in FIGS. 5 (a) and 5 (b), the lidar device 100 can irradiate four line lasers at the same time, and each line laser can be reflected from a flat wall. have. Here, when comparing the four endpoints where the four line lasers appeared, it can be confirmed that only the z coordinates (z1, z2, z3, z4) indicating the height are different, and the remaining x and y coordinates are the same because it is irradiated to a uniform wall. can That is, when irradiating a multi-line laser, it is necessary to calculate the z-coordinate for the height of each line laser.

도5와 같이 멀티 라인 레이저를 조사하는 경우, x축 좌표는 각각의 라인 레이저의 대상패턴(Lb)에 대한 수평위치값으로부터 구할 수 있다. 즉, 싱글 라인 레이저의 경우와 동일한 방식으로 구할 수 있다. y축 좌표는 각각의 라인 레이저의 기준패턴과 대상패턴 사이의 수직위치값으로부터 구할 수 있다. 즉, 각각의 라인 레이저들에 대응하는 각각의 기준패턴과 대상패턴을 구별하고, 기준패턴과 대상패턴 사이의 수직위치값을 이용하여 각각의 라인레이저들에 대응하는 y축 좌표를 구할 수 있다. Z축 좌표의 경우, 싱글 라인 레이저의 경우와 동일하게, 각각의 라인레이저들의 투광각도와 기준패턴과 중심선 사이의 간격으로부터 구하거나, 대상패턴과 중심선 사이의 높이위치값으로부터 산출할 수 있다.When irradiating a multi-line laser as shown in FIG. 5 , the x-axis coordinate may be obtained from a horizontal position value of the target pattern Lb of each line laser. That is, it can be obtained in the same way as in the case of a single-line laser. The y-axis coordinate can be obtained from the vertical position value between the reference pattern and the target pattern of each line laser. That is, each reference pattern and a target pattern corresponding to each line laser may be distinguished, and a y-axis coordinate corresponding to each of the line lasers may be obtained using a vertical position value between the reference pattern and the target pattern. In the case of the Z-axis coordinate, as in the case of single-line lasers, it can be obtained from the light projection angle of each line laser and the distance between the reference pattern and the center line, or it can be calculated from the height position value between the target pattern and the center line.

구체적으로, 도6(a)를 참조하면, 각각의 라인 레이저에 대한 기준 패턴과 대상패턴을 설정하고, 각각의 기준 패턴과 대상패턴 사이의 수직위치값(P1, P2, P3)를 구할 수 있다. 이후, 각각의 수직위치값(P1, P2, P3)으로부터 각각의 대상패턴들의 y축 좌표를 산출할 수 있다. 또한, 도6(b)를 참조하면, 각각의 대상패턴과 중심선(RL) 사이의 높이위치값(C1, C2, C3)을 산출한 후, 각각의 높이위치값(C1, C2, C3)에 대응하는 z축 좌표를 설정할 수 있다. Specifically, referring to FIG. 6( a ), a reference pattern and a target pattern for each line laser are set, and vertical position values ( P1 , P2 , P3 ) between each reference pattern and the target pattern can be obtained. . Thereafter, the y-axis coordinates of the respective target patterns may be calculated from the respective vertical position values P1, P2, and P3. In addition, referring to Figure 6 (b), after calculating the height position values (C1, C2, C3) between each target pattern and the center line (RL), each of the height position values (C1, C2, C3) You can set the corresponding z-axis coordinates.

즉, 멀티 라인 레이저를 조사하는 경우, 싱글 라인 레이저와 동일한 방식을, 각각의 라인 레이저에 반복적으로 적용함으로써, 각각의 지점들에 대한 3차원 좌표를 추출할 수 있다.That is, when irradiating a multi-line laser, by repeatedly applying the same method as a single-line laser to each line laser, three-dimensional coordinates for each point can be extracted.

추가적으로, 본 발명의 일 실시예에 의하면, 이미지 센서부(120)는 렌즈를 통하여 대상공간(A) 내에서 반사된 라인 레이저를 수신할 수 있다. 즉, 이미지센서부(120)는 수신효율을 높이기 위하여 카메라와 유사하게 렌즈를 통하여 빛을 모아서 수신할 수 있다.Additionally, according to an embodiment of the present invention, the image sensor unit 120 may receive the line laser reflected in the target space A through the lens. That is, the image sensor unit 120 may collect and receive light through a lens similar to a camera in order to increase reception efficiency.

이 경우, 도7에 도시한 바와 같이, 렌즈에 의해 검출이미지(i)에 포함된 레이저 패턴의 형태가 왜곡될 수 있다. 즉, 중심선(RL)과 라인 레이저 사이의 간격이, 끝단에서는 20 픽셀간격만큼 차이나지만 중심부에서는 30 픽셀간격만큼 차이가 나는 것을 확인할 수 있다. 나아가, 도8(a)에 나타난 바와 같이, 라인 레이저의 끝단과 중심부 사이의 간격 차이가 발생하는 경우에는, 도8(b)와 같이, 실제 라인 레이저가 반사되는 벽은 평평한 형상임에 불구하고, 휘어진 형상으로 잘못 인식될 수 있다. In this case, as shown in FIG. 7 , the shape of the laser pattern included in the detection image i may be distorted by the lens. That is, it can be seen that the distance between the center line RL and the line laser differs by 20 pixels at the end, but by 30 pixels at the center. Furthermore, as shown in Fig. 8(a), when a difference in the distance between the end and the center of the line laser occurs, as shown in Fig. 8(b), although the wall on which the line laser is actually reflected is flat, , may be mistakenly recognized as a curved shape.

따라서, 본 발명의 일 실시예에 의한 이미지처리부(130)는, 보정테이블을 이용하여, 검출이미지(i) 내에 포함된 렌즈에 의한 왜곡을 보정하도록 할 수 있다. 즉, 렌즈 등에 의하여 발생하는 왜곡의 정도를 보정 테이블에 미리 저장한 후, 이를 바탕으로 왜곡을 보정하도록 할 수 있다. 예를들어, 보정 테이블 내에는 왜곡되지 않은 직선 형태의 라인 레이저와, 왜곡에 의해 휘어진 라인 레이저 사이의 차이가 저장되어 있을 수 있으며, 이미지처리부(130)는 보정 테이블을 이용하여, 검출이미지(i) 내의 휘어진 라인 레이저가 펼쳐지도록 보정할 수 있다. 이 경우, 도9(a)의 왜곡된 검출이미지(i)가 도9(b)와 같이 직선형태로 보정될 수 있다. 이후, 보정된 검출이미지(i)를 이용하면, 도9(c)와 같이 평평한 벽 형상으로 나타나도록 3차원 좌표지도를 생성하는 것이 가능하다. 따라서, 렌즈에 의해 왜곡된 검출이미지(i)를 보정한 후, 대상공간(A)에 대한 정확한 3차원 좌표지도를 생성할 수 있다. Accordingly, the image processing unit 130 according to an embodiment of the present invention may correct distortion due to a lens included in the detection image i by using the correction table. That is, after pre-stored in the correction table the degree of distortion caused by the lens or the like, it is possible to correct the distortion based on this. For example, a difference between a non-distorted straight line laser and a line laser bent by distortion may be stored in the correction table, and the image processing unit 130 uses the correction table to generate the detected image (i). ) can be corrected so that the curved line laser in the inside is spread out. In this case, the distorted detection image (i) of FIG. 9(a) may be corrected in a straight line form as shown in FIG. 9(b). Then, by using the corrected detection image (i), it is possible to generate a three-dimensional coordinate map to appear as a flat wall shape as shown in Fig. 9(c). Therefore, after correcting the detected image (i) distorted by the lens, it is possible to generate an accurate three-dimensional coordinate map for the target space (A).

또한, 본 발명의 일 실시예에 의하면, 이미지처리부(130)는 y축 좌표 추출시, 수직위치값 이외에 수평위치값을 더 이용하여 y축 좌표를 보정할 수 있다. 즉, 객체의 거리측정시 객체의 x축상 위치를 더 고려함으로써, 보다 정확한 거리정보를 측정하도록 할 수 있다.Also, according to an embodiment of the present invention, when extracting the y-axis coordinates, the image processing unit 130 may correct the y-axis coordinates by using a horizontal position value in addition to a vertical position value. That is, by further considering the position of the object on the x-axis when measuring the distance of the object, more accurate distance information can be measured.

구체적으로, 이미지처리부(130)는 검출이미지에 대한 영상처리를 통하여 객체까지의 거리정보를 생성하므로, 객체와 라이다장치(100) 사이의 거리가 멀어질수록 검출이미지 내의 하나의 픽셀에 대응하는 실제 거리가 커지게 되는 현상이 발생할 수 있다. 따라서, 라이다장치(100)와 객체 사이의 거리가 먼 경우에는, 객체까지의 거리를 정확하게 구별하기 어려워질 수 있으며, 레이저 패턴 등에 발생하는 작은 오차에도 객체에 대한 거리정보가 크게 변할 수 있다. 즉, 검출이미지 내에 나타난 대상 패턴의 수직위치값만을 이용하여 객체까지의 거리를 연산하는 경우에는, 연산된 객체까지의 거리정보가 상대적으로 부정확해질 수 있다. Specifically, since the image processing unit 130 generates distance information to an object through image processing for the detected image, as the distance between the object and the lidar device 100 increases, the corresponding one pixel in the detected image increases. A phenomenon in which the actual distance increases may occur. Accordingly, when the distance between the lidar device 100 and the object is long, it may be difficult to accurately distinguish the distance to the object, and even a small error occurring in a laser pattern, etc. may greatly change the distance information about the object. That is, when the distance to the object is calculated using only the vertical position value of the target pattern displayed in the detection image, the calculated distance information to the object may be relatively inaccurate.

예를들어, 도10의 제1 객체(S1)까지의 거리(D1)는 3m이고, 제2 객체(S2)까지의 거리(D2)는 4m일 수 있다. 그러나, 검출이미지(i) 내에서는, 도11과 같이 제1 객체(S1)와 제2 객체(S2)의 수직위치값(p1, p2)이 동일하게 측정될 수 있다. 즉, 수직위치값(p1, p2)이 동일하므로, 실제 제1 객체(S1)와 제2 객체(S2)의 거리차이에 불구하고, 라이다 장치(100)는 동일한 거리에 위치하는 것으로 측정하는 등의 문제가 발생할 수 있다. For example, the distance D1 to the first object S1 of FIG. 10 may be 3m, and the distance D2 to the second object S2 may be 4m. However, in the detection image i, the vertical position values p1 and p2 of the first object S1 and the second object S2 may be equally measured as shown in FIG. 11 . That is, since the vertical position values p1 and p2 are the same, despite the difference in distance between the actual first object S1 and the second object S2, the lidar device 100 is measured as being located at the same distance. problems such as

이를 해결하기 위하여, 본 발명의 일 실시예에 의한 이미지처리부(130)는, 대상패턴(Lb)의 수직위치값와 함께 수평위치값을 반영하여, 객체까지의 거리정보를 보다 정확하게 생성할 수 있다.In order to solve this problem, the image processing unit 130 according to an embodiment of the present invention may more accurately generate distance information to the object by reflecting the horizontal position value together with the vertical position value of the target pattern Lb.

도11은 도10의 제1 객체(S1) 및 제2 객체(S2)에 대한 각각의 검출이미지로, 검출이미지(i) 내에는 라인 레이저에 대응하는 레이저 패턴(La, Lb)이 포함될 수 있으며, 객체(S1, S2)에 의해 레이저 패턴이 단락될 수 있다. 여기서, 제1 객체(S1)는 라이다 장치(100)의 정면에 위치하므로, 도11(a)에 도시한 바와 같이 대상패턴(Lb)은 검출이미지(i)의 중심에 위치할 수 있다. 반면에, 제2 객체(S2)는 라이다 장치(100)로부터 우측으로 치우쳐 있으므로, 도11(b)에 도시한 바와 같이, 대상패턴(Lb)도 검출이미지(i)의 중심으로부터 우측에 위치함을 확인할 수 있다. 11 is a detection image of each of the first object S1 and the second object S2 of FIG. 10, and laser patterns La and Lb corresponding to the line laser may be included in the detection image i. , the laser pattern may be shorted by the objects S1 and S2. Here, since the first object S1 is located in front of the lidar device 100 , the target pattern Lb may be located in the center of the detection image i as shown in FIG. 11A . On the other hand, since the second object S2 is biased to the right from the lidar device 100, as shown in FIG. 11(b), the target pattern Lb is also located to the right from the center of the detection image i. can be checked.

이 경우, 이미지처리부(130)는 대상 패턴(Lb)이 기준 패턴(La)으로부터 수직방향으로 이격된 수직위치값(p1, p2)과, 대상 패턴(Lb)이 기준점으로부터 수평방향으로 이격된 수평위치값(x1, x2)을 각각 산출하고, 수직위치값(p1, p2) 및 수평위치값(x1, x2)을 이용하여 객체(S1, S2)까지의 거리정보를 각각 생성할 수 있다. 여기서, 기준점은 검출이미지(i) 내 좌측단부, 우측단부 또는 검출이미지(i)의 중심점(RP) 등 임의의 지점으로 설정할 수 있으며, 실시예에 따라서는 검출이미지(i) 내의 레이저광원부(110)의 위치에 대응하는 지점 등으로 설정하는 것도 가능하다. In this case, the image processing unit 130 determines that the target pattern Lb is vertically spaced apart from the reference pattern La in vertical position values p1 and p2, and the target pattern Lb is horizontally spaced apart from the reference point in the horizontal direction. Position values (x1, x2) may be calculated, respectively, and distance information to the objects (S1, S2) may be generated using vertical position values (p1, p2) and horizontal position values (x1, x2), respectively. Here, the reference point may be set to an arbitrary point such as the left end, right end, or center point RP of the detection image (i) in the detection image (i). ), it is also possible to set a point corresponding to the position of the

여기서, 대상패턴(Lb)의 수직위치값(p1, p2) 및 수평위치값(x1, x2)에 대응하는 각각의 거리정보가 저장된 테이블표가 존재할 수 있으며, 이미지처리부(130)는 이를 이용하여 객체(S1, S2)에 대응하는 거리정보를 추출할 수 있다. 실시예에 따라서는, 기계학습 또는 딥러닝 등을 활용하여 테이블표를 생성하는 것도 가능하다. 도11의 경우, 제1 객체(S1)와 제2 객체(S2)의 수직위치값(p1, p2)이 동일하게 측정되었으나 수평위치값(x1, x2)가 상이하므로, 각각의 제1 객체(S1)와 제2 객체(S2)에 대한 거리정보는 상이하게 설정될 수 있다. 따라서, 보다 정확하게 객체의 거리정보를 생성하는 것이 가능하다. Here, there may exist a table in which distance information corresponding to the vertical position values p1 and p2 and the horizontal position values x1 and x2 of the target pattern Lb is stored, and the image processing unit 130 uses them to Distance information corresponding to the objects S1 and S2 may be extracted. According to an embodiment, it is also possible to generate a table table by using machine learning or deep learning. In the case of FIG. 11 , although the vertical position values p1 and p2 of the first object S1 and the second object S2 are identically measured, the horizontal position values x1 and x2 are different, so each of the first objects ( Distance information for S1) and the second object S2 may be set differently. Accordingly, it is possible to more accurately generate distance information of an object.

한편, 도12 및 도13은 본 발명의 일 실시예에 의한 대상패턴(Lb)의 수직위치값 및 수평위치값을 모두 반영한 거리정보 산출을 나타내는 도면이다. 도12는 각각 라이다장치(100)로부터 100cm, 150cm, 200cm, 250cm 떨어진 위치에 위치하는 객체(S)에 대한 거리 산출 결과이다. 여기서, 라이다장치(100)로부터 멀어질수록 대상패턴(Lb)의 수직위치값의 크기가 작아지며, 이에 따라 수직위치값만으로는 점차 객체(S)까지의 정확한 거리정보를 추출하기 어려움을 확인할 수 있다. Meanwhile, FIGS. 12 and 13 are diagrams illustrating distance information calculation by reflecting both the vertical position value and the horizontal position value of the target pattern Lb according to an embodiment of the present invention. 12 is a distance calculation result for an object S located at a distance of 100 cm, 150 cm, 200 cm, and 250 cm from the lidar device 100, respectively. Here, as the distance from the lidar device 100 increases, the size of the vertical position value of the target pattern Lb decreases, and accordingly, it can be confirmed that it is difficult to gradually extract accurate distance information to the object S only with the vertical position value. have.

또한, 도13은 객체(S)가 라이다장치(100)의 반경 2m 원을 따라 움직일 때의 거리정보의 산출을 나타내는 도면이다. 도13을 참조하면, 객체(S)의 수평위치값 변경에 불구하고, 각각의 객체(S)까지의 거리정보는 동일하게 2m로 산출됨을 확인할 수 있다. 즉, 대상패턴(Lb)에 대한 수직위치값과 함께 수평위치값을 동시에 고려할 수 있으므로, 보다 정확하게 거리정보를 산출하는 것이 가능하다. 13 is a diagram illustrating the calculation of distance information when the object S moves along a circle with a radius of 2 m of the lidar device 100 . Referring to FIG. 13 , it can be confirmed that, despite the change in the horizontal position value of the object S, the distance information to each object S is equally calculated to be 2m. That is, since the horizontal position value and the vertical position value for the target pattern Lb can be considered at the same time, it is possible to more accurately calculate the distance information.

한편, 본 발명의 일 실시예에 의한 이미지처리부(130)는, 검출이미지(i)에 대한 영상처리를 수행하여, 검출이미지(i) 내에 포함된 레이저 패턴의 해상도(resolution)을 높일 수 있다.Meanwhile, the image processing unit 130 according to an embodiment of the present invention may perform image processing on the detected image i to increase the resolution of the laser pattern included in the detected image i.

검출이미지(i)에는 라인 레이저에 대응하는 레이저 패턴(La, Lb)이 포함될 수 있으며, 레이저 패턴(La, Lb)을 나타내는 각각의 픽셀들에 미리 설정한 테이블표를 적용하면 각각의 픽셀별 거리정보를 산출할 수 있다. 여기서, 테이블표는 삼각측량방법을 이용하여 미리 설정한 것일 수 있다. The detection image (i) may include laser patterns (La, Lb) corresponding to the line laser, and when a preset table is applied to each pixel representing the laser pattern (La, Lb), the distance for each pixel information can be calculated. Here, the table may be preset using a triangulation method.

다만, 레이저 광원부(110), 이미지센서부(120) 등의 하드웨어 성능과, 검출이미지(i) 내에 포함되는 노이즈 등 의하여, 레이저 패턴은 매 프레임마다 달라질 수 있으며, 이에 따라 객체(S)까지의 거리정보가 변동할 수 있다. 이러한 거리정보의 변동은, 객체(S)까지의 거리가 가까운 경우에는 변동폭이 작게 나타나지만, 객체(S)까지의 거리가 멀어질수록 변동폭이 크게 나타날 수 있다. 예를들어, 객체(S)까지의 거리가 200cm인 경우에는, 레이저 패턴의 1 픽셀 차이에 의한 실제거리 차이가 5cm 정도로 나타날 수 있으나, 객체(S)까지의 거리가 700cm인 경우에는, 레이저 패턴의 1 픽셀에 의한 실제거리 차이가 50cm로 크게 발생할 수 있다.However, due to the hardware performance of the laser light source unit 110 and the image sensor unit 120 and noise included in the detected image i, the laser pattern may vary for every frame, and accordingly, Distance information may change. The variation of the distance information has a small variation when the distance to the object S is short, but may appear larger as the distance to the object S increases. For example, when the distance to the object S is 200 cm, the actual distance difference due to 1 pixel difference of the laser pattern may appear about 5 cm, but when the distance to the object S is 700 cm, the laser pattern The difference in the actual distance by 1 pixel can be as large as 50 cm.

이는 레이저 패턴의 경계가 불명확하게 나타나기 때문에 발생하는 것으로, 레이저 패턴의 경계가 검출이미지(i) 내에서 명확하게 나타나는 경우에는 해소할 수 있다. 간단하게는 높은 해상도를 지원하는 이미지 센서를 이미지센서부(120)에 적용하거나, 레이저광원부(110)와 이미지센서부(120) 사이의 이격거리를 늘리는 방안을 고려할 수 있으나, 이는 물리적 한계가 있으므로, 여기서는 영상처리를 통해 해상도를 향상시키는 방안을 제안한다. This occurs because the boundary of the laser pattern is unclear, and can be resolved when the boundary of the laser pattern is clearly displayed in the detection image (i). A method of simply applying an image sensor supporting a high resolution to the image sensor unit 120 or increasing the separation distance between the laser light source unit 110 and the image sensor unit 120 may be considered, but this has a physical limitation. , here we propose a method of improving the resolution through image processing.

구체적으로, 도14(a)에 도시한 바와 같이, 일반적으로 레이저 패턴을 나타내는 패턴픽셀(Pa)을 특정할 수 있으며, 이를 활용하여 레이저 패턴을 추출할 수 있다. 다만, 본 발명의 일 실시예에 의한 이미지처리부(130)는 도14(b)에 도시한 바와 같이, 레이저 패턴을 나타내는 패턴픽셀들을 분할하여 복수의 가상 픽셀(Pb)들을 추가할 수 있다. 즉, 가상 픽셀(Pb)을 이용하여 레이저 패턴을 보다 세밀하게 표시할 수 있다. Specifically, as shown in FIG. 14( a ), a pattern pixel Pa representing a laser pattern in general can be specified, and a laser pattern can be extracted using this. However, the image processing unit 130 according to an embodiment of the present invention may add a plurality of virtual pixels Pb by dividing the pattern pixels representing the laser pattern as shown in FIG. 14(b) . That is, the laser pattern can be displayed more precisely by using the virtual pixel Pb.

가상 픽셀(Pb)들은 패턴 픽셀(Pa) 내에 수직방향 또는 수평방향의 층을 형성하도록 추가될 수 있으며, 가상 픽셀(Pb)들의 픽셀값은 주변에 위치하는 다른 패턴픽셀(Pa)들의 픽셀값을 이용하여 설정할 수 있다. 예를들어, 가상 픽셀(Pb)의 상하 또는 좌우에 위치하는 픽셀들의 평균값으로 픽셀값을 설정할 수 있으며, 이외에도 다양한 필링(filling) 방법을 활용할 수 있다.The virtual pixels Pb may be added to form a layer in a vertical direction or a horizontal direction within the pattern pixel Pa, and the pixel value of the virtual pixels Pb is the pixel value of other pattern pixels Pa located in the periphery. can be set using For example, the pixel value may be set as an average value of pixels located above, below, or left and right of the virtual pixel Pb, and in addition, various filling methods may be used.

이후, 도15에 도시한 바와 같이, 이미지처리부(130)는 문턱값을 기준으로 패턴 픽셀(Pa) 또는 가상 픽셀(Pb)을 이진화할 수 있으며, 이진화영상으로부터 레이저 패턴을 추출할 수 있다. 일반적으로는 도14(a) 및 도15(a)에 도시한 바와 같이, 가상 픽셀을 추가하지 않고, 문턱값 0.75를 기준으로 이진화하여 대응하는 레이저 패턴을 추출할 수 있다. Thereafter, as shown in FIG. 15 , the image processing unit 130 may binarize the pattern pixel Pa or the virtual pixel Pb based on the threshold value, and may extract a laser pattern from the binarized image. In general, as shown in FIGS. 14A and 15A , a corresponding laser pattern can be extracted by binarizing it based on a threshold value of 0.75 without adding a virtual pixel.

그러나, 본 발명의 일 실시예에 의한 이미지처리부(130)는 도14(b) 및 도15(b)에 도시한 바와 같이, 가상 픽셀(Pb)들을 추가할 수 있으며, 가상 픽셀에 대해 문턱값 0.75를 기준으로 이진화를 수행할 수 있다. 이 경우, 가상 픽셀 중 첫번째와 두번째 행은 모두 "1"로 설정되어 레이저 패턴으로 추출되지만, 세번째 행은 모두 "0"으로 설정되므로 레이저 패턴에서 제외될 수 있다. 즉, 도15(a)와 비교하면, 도15(b)는 가상픽셀을 추가하여 레이저 패턴에 대한 해상도를 높인 후, 보다 세밀하게 레이저 패턴을 설정함을 확인할 수 있다. However, the image processing unit 130 according to an embodiment of the present invention may add virtual pixels Pb as shown in FIGS. 14(b) and 15(b), and a threshold value for the virtual pixel Binarization can be performed based on 0.75. In this case, the first and second rows of the virtual pixels are both set to “1” and extracted as a laser pattern, but the third row may be excluded from the laser pattern because both are set to “0”. That is, compared with FIG. 15( a ), it can be seen that in FIG. 15 ( b ), the laser pattern is set more precisely after increasing the resolution of the laser pattern by adding virtual pixels.

구체적으로, 도16을 참조하면, 도16(a)는 가상 픽셀의 추가없이 레이저 패턴을 추출하여 객체(S)까지의 거리정보를 생성한 결과이고, 도16(b)는 가상 픽셀을 추가하여 레이저 패턴을 추출한 후 객체(S)까지의 거리정보를 생성한 결과이다. 도16(a)에 의하면, 검출이미지(i)의 100번째 행을 기준으로 객체(S)까지의 거리정보를 산출할 수 있으나, 도16(b)에 의하면, 검출이미지(i)의 99.75번째 행을 기준으로 객체(S)까지의 거리정보를 산출하는 것이 가능하다. 이를 통하여, 객체(S)까지의 거리정보를 보다 정밀하게 산출할 수 있음을 확인할 수 있다. Specifically, referring to Fig. 16, Fig. 16 (a) is a result of generating distance information to an object (S) by extracting a laser pattern without adding a virtual pixel, and Fig. 16 (b) is a result of generating a distance information by adding a virtual pixel This is the result of generating distance information to the object S after extracting the laser pattern. According to Fig. 16 (a), distance information to the object (S) can be calculated based on the 100th row of the detection image (i). It is possible to calculate distance information to the object S based on the row. Through this, it can be confirmed that distance information to the object S can be more precisely calculated.

한편, 도17(a) 및 도17(b)를 참조하면, 라이다 장치(100)를 이용하여 대상공간(A) 내에 라인 레이저를 조사하게 되면, 객체(S)의 위치에 따라 라인 레이저가 맺히는 높이가 달라질 수 있다. 다만, 도17에 도시한 바와 같이 복수의 라인 레이저가 동시에 조사되는 경우에는, 각 라인 레이저들을 구분할 필요가 있으며, 실시예에 따라서는 각각의 라인 레이저들에 대한 라인번호를 부여하여 구분하는 것도 가능하다. 이후, 각각의 라인 번호에 해당하는 라인 레이저들의 대상 패턴이 기준선 또는 기준 패턴에 비하여 수직위치값이 얼마인지에 따라 거리정보를 산출할 수 있다.On the other hand, referring to FIGS. 17A and 17B , when the line laser is irradiated into the target space A using the lidar device 100 , the line laser is irradiated according to the position of the object S. The forming height may vary. However, as shown in FIG. 17 , when a plurality of line lasers are simultaneously irradiated, it is necessary to distinguish each line laser, and depending on the embodiment, it is possible to distinguish by assigning a line number to each line laser. do. Thereafter, distance information may be calculated according to a vertical position value of the target pattern of the line lasers corresponding to each line number compared to the reference line or the reference pattern.

다만, 복수의 라인 레이저를 이용하는 경우, 검출이미지에서 거리에 따라 라인 레이저의 위치가 변화하므로, 다른 라인 레이저들과의 구분이 명확하지 않을 수 있다. 즉, 도18에 도시한 바와 같이, 객체(S)의 위치에 따라 라인 레이저가 기준선 이상으로 올라가는 경우가 발생할 수 있으며, 경우에 따라서는 라인 레이저 중 하나가 검출이미지(i) 내에 맺히지 않는 경우가 발생할 수 있다. 이 경우, 대상패턴에 해당하는 3개의 라인들에 대하여는 몇번째 라인 레이저에 해당하는지 알 수 없으며, 잘못된 라인번호 부여에 따른 거리계산 결과의 오류가 발생할 수 있다. 이러한 문제점을 해결하기 위하여, 본 발명의 일 실시예에 의한 라이다 장치(100)는 출력제어부(140) 및 노출제어부(150)를 활용할 수 있다. However, in the case of using a plurality of line lasers, since the position of the line laser changes according to the distance in the detection image, the distinction from other line lasers may not be clear. That is, as shown in FIG. 18, depending on the position of the object S, the line laser may rise above the reference line, and in some cases, one of the line lasers is not focused in the detection image (i). can occur In this case, it is not possible to know which line laser corresponds to the three lines corresponding to the target pattern, and an error in the distance calculation result may occur due to incorrect line number assignment. In order to solve this problem, the lidar device 100 according to an embodiment of the present invention may utilize the output control unit 140 and the exposure control unit 150 .

여기서, 출력제어부(140)는 레이저 광원부(110)가 출력하는 라인 레이저의 방출타이밍 및 방출유지시간을 제어할 수 있으며, 출력제어부(140)의 방출타이밍은 동기화신호에 의하여 이미지센서부(120)의 노출타이밍과 일치시킬 수 있다. 또한, 노출제어부(150)는 이미지센서부(120)의 노출타이밍 및 노출유지시간을 제어할 수 있다. 이미지센서부(120)는 동기화신호에 따라 노출을 시작할 수 있으며, 노출유지시간 동안 대상공간(A) 내에서 반사되는 빛을 감지하여 검출이미지(i)를 생성할 수 있다.Here, the output control unit 140 can control the emission timing and the emission holding time of the line laser output from the laser light source unit 110, and the emission timing of the output control unit 140 is the image sensor unit 120 by the synchronization signal. can match the exposure timing of In addition, the exposure control unit 150 may control the exposure timing and the exposure holding time of the image sensor unit 120 . The image sensor unit 120 may start exposure according to the synchronization signal, and may generate a detection image (i) by detecting light reflected in the target space (A) during the exposure holding time.

도19를 참조하면, 본 발명의 일 실시예에 의한 출력제어부(140)는 각각의 검출이미지(i) 생성을 위한 동기화신호를 이미지센서부(120)로부터 입력받을 수 있으며, 각각의 동기화신호를 홀수번째 동기화신호와 짝수번째 동기화신호로 구분할 수 있다.Referring to FIG. 19 , the output control unit 140 according to an embodiment of the present invention may receive a synchronization signal for generating each detected image i from the image sensor unit 120, and receive each synchronization signal. It can be divided into an odd-numbered synchronization signal and an even-numbered synchronization signal.

이후, 홀수번째 동기화신호를 수신하면 라인 레이저를 제1 방출유지시간(T1)동안 방출하고, 짝수번째 동기화신호를 수신하면 라인 레이저를 제2 방출유지시간(T2)동안 방출하도록 제어할 수 있다. 여기서, 제1 방출유지시간(T1)은 제2 방출유지시간(T2)보다 길게 설정할 수 있다. 실시예에 따라서는 제1 방출유지시간(T1)을 노출유지시간과 일치시키고, 제2 방출유지시간(T2)은 노출유지시간 보다 짧게 유지하도록 하는 것도 가능하다.Thereafter, when an odd-numbered synchronization signal is received, the line laser is emitted for the first emission duration T1, and when an even-numbered synchronization signal is received, the line laser can be controlled to be emitted for a second emission duration T2. Here, the first emission holding time (T1) may be set longer than the second emission holding time (T2). According to the embodiment, it is also possible to make the first emission holding time (T1) coincide with the exposure holding time, and to keep the second emission holding time (T2) shorter than the exposure holding time.

출력제어부(140)가 방출유지시간을 길게 설정하면 라인 레이저는 대상공간(A) 내의 끝에 위치하는 벽에서 반사되어 돌아올 수 있도록 충분한 에너지로 방출될 수 있으며, 방출유지시간을 짧게 설정하면 라인 레이저는 근거리에 위치하는 객체(S)에서만 반사되어 돌아올 수 있을 정도의 적은 에너지로 방출될 수 있다. 따라서, 제1 방출유지시간(T1)과 제2 방출유지시간(T2)을 상이하게 설정함으로써, 검출하는 범위를 원거리와 근거리로 각각 구분하는 것이 가능하다, 즉, 제1 방출유지시간(T1) 동안에는 원거리에 위치하는 객체들을 검출하고, 제2 방출유지시간(T2) 동안에는 근거리에 위치하는 객체들을 검출할 수 있다.If the output control unit 140 sets the emission holding time to be long, the line laser can be emitted with sufficient energy to be reflected from the wall located at the end of the target space (A) and return. It can be emitted with a small amount of energy that can be reflected and returned only from the object S located in a short distance. Therefore, by setting the first emission holding time T1 and the second emission holding time T2 differently, it is possible to separate the detection range into a long distance and a short distance, respectively, that is, the first emission holding time T1. During the detection of objects located at a long distance, during the second emission holding time T2, it is possible to detect objects located at a short distance.

또한, 이미지센서부(120)는 도20에 도시한 바와 같이, 홀수번째 동기화신호에 대응하는 제1 검출이미지와, 짝수번째 동기화신호에 대응하는 제2 검출이미지를 각각 생성한 후, 각각의 제1 검출이미지와 제2 검출이미지에 상이한 ISP(Image Signal Processor) 처리를 적용할 수 있다. 즉, 제1 검출이미지는 제2 검출이미지보다 높은 밝기 이득값을 가지도록 영상처리하여 생성할 수 있다. 이 경우, 제2 검출이미지는 원거리에서 반사된 라인 레이저는 더욱 어둡게 표시되므로, 근거리에서 반사된 라인 레이저가 강조되어 나타날 수 있다. In addition, as shown in FIG. 20 , the image sensor unit 120 generates a first detection image corresponding to an odd-numbered synchronization signal and a second detection image corresponding to an even-numbered synchronization signal, respectively, and then Different ISP (Image Signal Processor) processing may be applied to the first detection image and the second detection image. That is, the first detection image may be generated by image processing to have a higher brightness gain value than that of the second detection image. In this case, in the second detection image, since the line laser reflected from a distance is displayed darker, the line laser reflected from a short distance may be highlighted.

이후, 이미지처리부(140)는 제1 검출이미지에서 라인 레이저를 검출하여, 라인 레이저의 개수를 확인할 수 있다. 여기서, 검출된 라인 레이저의 개수가 레이저 광원부(110)에서 출력하는 라인 레이저의 개수와 일치하면, 제1 검출이미지 내의 최하단에 위치하는 라인 레이저부터 오름차순으로 각각의 라인번호를 부여할 수 있다. 즉, 도21에 도시한 바와 같이, 레이저 광원부(110)에서 출력하는 라인 레이저의 개수가 4개이고, 제1 검출이미지(i1)에서 검출한 라인 레이저의 개수도 4개인 경우에는, 최하단의 라인 레이저부터 순차적으로 라인번호를 1, 2, 3, 4로 각각 설정할 수 있다. Thereafter, the image processing unit 140 may detect the line lasers in the first detection image and check the number of line lasers. Here, when the detected number of line lasers matches the number of line lasers output from the laser light source unit 110 , each line number may be assigned in an ascending order from the line laser positioned at the bottom in the first detection image. That is, as shown in FIG. 21 , when the number of line lasers output from the laser light source unit 110 is 4 and the number of line lasers detected in the first detection image i1 is also 4, the lowest line laser Line numbers can be set to 1, 2, 3, 4 in sequence from

여기서, 이미지처리부(140)는 라인 레이저를 기준 패턴과 대상 패턴을 각각 구분한 후, 각각의 기준 패턴과 대상 패턴에 대해 개별적으로 라인번호를 부여할 수 있다. Here, the image processing unit 140 may separate the line laser into a reference pattern and a target pattern, respectively, and then may individually assign a line number to each of the reference pattern and the target pattern.

한편, 검출된 라인 레이저의 개수가 레이저 광원부(110)에서 출력하는 라인 레이저보다 적으면, 이미지처리부(140)는 제2 검출이미지를 참조하여 라인 레이저 각각에 대한 라인번호를 부여할 수 있다. 즉, 도22(a)에 도시한 바와 같이, 레이저 광원부(110)에서 출력하는 라인 레이저의 개수가 4개이고, 검출된 라인 레이저가 3개인 경우에는, 제2 검출이미지(i2)를 참조하여 라인 레이저들의 라인번호를 부여할 수 있다. On the other hand, if the number of detected line lasers is smaller than that of the line lasers output from the laser light source unit 110 , the image processing unit 140 may assign a line number to each of the line lasers with reference to the second detection image. That is, as shown in FIG. 22( a ), when the number of line lasers output from the laser light source unit 110 is 4 and the number of detected line lasers is 3, line lasers are referenced to the second detection image i2 . Line numbers of lasers can be assigned.

구체적으로, 제1 검출이미지(i) 내에 포함된 라인 레이저들의 라인번호의 후보를 각각 x, (x-1)로 설정할 수 있으며, 이 중에서 제2 검출이미지(i2)에 동일하게 검출된 라인 레이저에는 (x-1)을 라인번호로 설정할 수 있다. 반면에, 제2 검출이미지(i2)에 검출되지 않은 라인 레이저의 라인번호는, x로 각각 부여할 수 있다. Specifically, candidates for line numbers of the line lasers included in the first detection image (i) may be set to x and (x-1), respectively, and among them, the line lasers identically detected in the second detection image (i2) (x-1) can be set as the line number. On the other hand, the line number of the line laser that is not detected in the second detection image i2 may be assigned as x.

도22를 참조하면, 제1 검출이미지(i1)에 포함된 각각의 라인 레이저들은, 1, 2, 3 또는 2, 3, 4의 라인 번호 후보를 가질 수 있다. 여기서, 대상 패턴 부분은 제2 검출이미지(i2)에서 동일하게 검출되고 있으므로, 대상패턴부분에는 각각 (x-1)을 라인번호로 설정할 수 있다. 따라서, 대상패턴부분은 2, 3, 4가 아니라 1, 2, 3으로 각각 라인 번호를 설정할 수 있다. 또한, 나머지 기준패턴부분은 제2 검출이미지(i2) 내에 검출되지 않았으므로, (x)를 라인번호로 설정할 수 있다. 따라서, 기준패턴부분은 각각 2, 3, 4로 라인 번호를 설정할 수 있다. Referring to FIG. 22 , each of the line lasers included in the first detection image i1 may have 1, 2, 3 or 2, 3, 4 line number candidates. Here, since the target pattern portion is detected in the same manner in the second detection image i2, (x-1) may be set as a line number for each target pattern portion. Accordingly, the target pattern portion can set the line number to 1, 2, and 3 instead of 2, 3, and 4, respectively. In addition, since the remaining reference pattern portion is not detected in the second detection image i2, (x) may be set as the line number. Accordingly, the reference pattern portion can set the line number to 2, 3, and 4, respectively.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above embodiments and the accompanying drawings. For those of ordinary skill in the art to which the present invention pertains, it will be apparent that the components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.

100: 라이다 장치 110: 레이저광원부
120: 이미지센서부 130: 이미지처리부
140: 출력제어부 150: 노출제어부
100: lidar device 110: laser light source unit
120: image sensor unit 130: image processing unit
140: output control unit 150: exposure control unit

Claims (18)

이미지 기반의 3차원 라이다(LiDAR) 장치에 있어서,
대상 공간 내에 라인 레이저(line laser)를 조사(照射)하는 레이저광원부;
상기 대상 공간 내에서 반사된 상기 라인 레이저를 감지하여 검출이미지를 생성하는 이미지센서부; 및
상기 검출이미지 내에 나타난 레이저 패턴을 이용하여, 상기 대상 공간에 대한 3차원좌표지도를 생성하는 이미지처리부를 포함하며,
상기 레이저 패턴은
기준패턴과, 상기 기준패턴으로부터 단락되어 수직방향으로 이격된 형상의 대상 패턴을 포함하는 라이다(Lidar) 장치.
In the image-based three-dimensional LiDAR (LiDAR) device,
A laser light source for irradiating a line laser (line laser) in the target space;
an image sensor unit for generating a detection image by detecting the line laser reflected in the target space; and
An image processing unit for generating a three-dimensional coordinate map for the target space by using the laser pattern displayed in the detection image,
The laser pattern is
A lidar device comprising a reference pattern and a target pattern having a shape that is short-circuited from the reference pattern and spaced vertically from the reference pattern.
제1항에 있어서, 상기 이미지처리부는
상기 대상 패턴이 상기 검출이미지의 중심선으로부터 수직방향으로 이격된 높이위치값을 이용하여 상기 대상 패턴에 포함된 각 지점들에 대한 z축 좌표를 추출하고,
상기 대상 패턴이 상기 기준 패턴로부터 수직방향으로 이격된 수직위치값을 이용하여 상기 대상 패턴에 포함된 각 지점들에 대한 y축좌표를 추출하고,
상기 대상 패턴 내에 포함된 각 지점이 상기 검출이미지의 기준점으로부터 수평방향으로 이격된 수평위치값을 이용하여 상기 각 지점들의 x축좌표를 추출하며,
상기 x축좌표, y축좌표 및 z축좌표를 이용하여, 상기 대상 패턴 내의 각 지점에 대한 3차원 좌표를 생성하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the image processing unit
extracting z-axis coordinates for each point included in the target pattern by using the height position value of the target pattern vertically spaced apart from the center line of the detection image,
Extracting the y-axis coordinates for each point included in the target pattern by using the vertical position value of the target pattern spaced from the reference pattern in the vertical direction,
Extracting the x-axis coordinates of each point included in the target pattern by using a horizontal position value that is horizontally spaced apart from the reference point of the detection image,
Using the x-axis coordinates, y-axis coordinates and z-axis coordinates, lidar device, characterized in that for generating three-dimensional coordinates for each point in the target pattern.
제2항에 있어서,
상기 기준점은 상기 검출이미지의 중심점, 좌측단부 및 우측단부 중 어느 하나이고,
상기 중심선은 상기 검출이미지의 중심점을 지나는 수평선인 것을 특징으로 하는 라이다 장치.
3. The method of claim 2,
The reference point is any one of the center point, the left end and the right end of the detection image,
The center line is a lidar device, characterized in that it is a horizontal line passing through the center point of the detection image.
제2항에 있어서, 상기 이미지처리부는
상기 y축좌표 추출시, 상기 수평위치값을 더 이용하여 상기 y축좌표를 보정하는 것을 특징으로 하는 라이다 장치.
The method of claim 2, wherein the image processing unit
When the y-axis coordinate is extracted, the lidar device, characterized in that the y-axis coordinate is corrected by further using the horizontal position value.
제4항에 있어서, 상기 이미지처리부는
상기 수직위치값 및 수평위치값에 대응하는 상기 지점까지의 거리정보가 저장된 테이블표를 이용하여, 상기 y축좌표를 보정하는 것을 특징으로 하는 라이다 장치.
5. The method of claim 4, wherein the image processing unit
LiDAR apparatus, characterized in that the y-axis coordinate is corrected by using a table in which distance information to the point corresponding to the vertical position value and the horizontal position value is stored.
제1항에 있어서, 상기 이미지처리부는
상기 검출이미지로부터 상기 레이저 패턴에 대응하는 패턴픽셀들을 추출하고, 상기 패턴픽셀들을 분할하여 복수의 가상 픽셀들을 추가하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the image processing unit
Extracting pattern pixels corresponding to the laser pattern from the detection image, and dividing the pattern pixels to add a plurality of virtual pixels.
제1항에 있어서, 상기 이미지처리부는
상기 검출이미지로부터 상기 레이저 패턴에 대응하는 패턴픽셀들을 추출하고, 상기 패턴 픽셀 내에 복수의 가상 픽셀들을 삽입하여, 상기 가상 픽셀들이 상기 패턴 픽셀 내에 수직방향 또는 수평방향의 층을 형성하도록 하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the image processing unit
extracting pattern pixels corresponding to the laser pattern from the detection image and inserting a plurality of virtual pixels into the pattern pixels so that the virtual pixels form a layer in a vertical direction or a horizontal direction within the pattern pixels a lidar device.
제6항 또는 제7항에 있어서, 상기 이미지처리부는
문턱값을 기준으로 상기 패턴 픽셀 및 가상 픽셀을 이진화하여 이진화영상을 생성하고, 상기 이진화영상으로부터 상기 레이저 패턴을 추출하는 것을 특징으로 하는 라이다 장치.
The method of claim 6 or 7, wherein the image processing unit
A binarization of the pattern pixel and the virtual pixel based on a threshold value to generate a binarized image, and extracting the laser pattern from the binarized image.
제1항에 있어서,
상기 이미지센서부는 상기 라인 레이저를 수신하는 렌즈부를 더 포함하고,
상기 이미지처리부는
보정테이블을 참조하여, 상기 렌즈부에 의한 왜곡 보정한 3차원 좌표 정보를 생성하는 것을 특징으로 하는 라이다 장치.
According to claim 1,
The image sensor unit further comprises a lens unit for receiving the line laser,
The image processing unit
With reference to the correction table, the lidar device, characterized in that for generating three-dimensional coordinate information corrected by the lens unit.
제1항에 있어서,
상기 라인 레이저를 상기 대상공간 내에 조사하는 방출타이밍 및 방출유지시간을 제어하는 출력제어부; 및
상기 이미지센서부를 노출하여 상기 라인 레이저를 감지하는 노출타이밍 및 노출유지시간을 제어하는 노출제어부를 더 포함하는 것을 특징으로 하는 라이다 장치.
According to claim 1,
an output control unit for controlling an emission timing and an emission holding time of irradiating the line laser into the target space; and
LiDAR device, characterized in that it further comprises an exposure control unit for controlling the exposure timing and exposure holding time for detecting the line laser by exposing the image sensor unit.
제10항에 있어서, 상기 출력제어부는
동기화신호를 이용하여, 상기 노출타이밍과 상기 방출타이밍을 일치시키는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the output control unit
Using a synchronization signal, the lidar device, characterized in that the exposure timing and the emission timing coincide.
제11항에 있어서, 상기 출력제어부는
홀수번째 동기화신호를 수신하면 상기 라인 레이저를 제1 방출유지시간동안 방출하고, 짝수번째 동기화신호를 수신하면 상기 라인 레이저를 제2 방출유지시간동안 방출하도록 제어하는 것을 특징으로 하는 라이다 장치.
12. The method of claim 11, wherein the output control unit
When an odd-numbered synchronization signal is received, the line laser is emitted for a first emission duration, and when an even-numbered synchronization signal is received, the line laser is controlled to be emitted for a second emission duration.
제12항에 있어서, 상기 출력제어부는
상기 제1 방출유지시간은 상기 노출유지시간과 일치하고, 상기 제2 방출유지시간은 상기 노출유지시간 보다 짧게 유지하는 것을 특징으로 하는 라이다 장치.
13. The method of claim 12, wherein the output control unit
The first emission holding time coincides with the exposure holding time, and the second emission holding time is maintained shorter than the exposure holding time.
제13항에 있어서, 상기 이미지센서부는
상기 홀수번째 동기화신호에 대응하는 제1 검출이미지와, 상기 짝수번째 동기화신호에 대응하는 제2 검출이미지를 각각 생성하고,
상기 제1 검출이미지는 상기 제2 검출이미지보다 높은 밝기 이득값을 가지도록 영상처리하여 생성하는 것을 특징으로 하는 라이다 장치.
14. The method of claim 13, wherein the image sensor unit
generating a first detection image corresponding to the odd-numbered synchronization signal and a second detection image corresponding to the even-numbered synchronization signal, respectively;
The first detection image is generated by image processing so as to have a higher brightness gain value than that of the second detection image.
제14항에 있어서, 상기 이미지처리부는
상기 제1 검출이미지에서 검출된 라인 레이저의 개수가 상기 레이저 광원부에서 출력한 라인 레이저의 개수와 같으면, 상기 제1 검출이미지 내의 최하단에 위치하는 상기 라인 레이저부터 오름차순으로 각각의 라인번호를 부여하는 것을 특징으로 하는 라이다 장치.
15. The method of claim 14, wherein the image processing unit
When the number of line lasers detected in the first detection image is the same as the number of line lasers output from the laser light source unit, each line number is assigned in ascending order from the line laser located at the bottom of the first detection image. Features a lidar device.
제15항에 있어서, 상기 이미지처리부는
상기 기준 패턴과 대상 패턴을 구분하여, 각각 상기 라인번호를 부여하는 것을 특징으로 하는 라이다 장치.
16. The method of claim 15, wherein the image processing unit
The lidar device, characterized in that by distinguishing the reference pattern and the target pattern, and assigning the line number to each.
제16항에 있어서, 상기 이미지처리부는
상기 제1 검출이미지에서 검출된 라인 레이저의 개수가 상기 레이저 광원부에서 출력한 라인 레이저의 개수보다 적으면, 상기 제2 검출이미지를 참조하여 상기 라인 레이저 각각에 대한 라인번호를 부여하는 것을 특징으로 하는 라이다 장치.
The method of claim 16, wherein the image processing unit
When the number of line lasers detected in the first detection image is less than the number of line lasers output from the laser light source unit, a line number is assigned to each of the line lasers with reference to the second detection image lidar device.
제17항에 있어서, 상기 이미지처리부는
상기 제1 검출이미지에서 검출된 라인 레이저의 개수가 상기 레이저광원부에서 출력한 라인 레이저의 개수보다 적으면, 상기 제1 검출이미지 내에 포함된 상기 라인 레이저들의 라인번호의 후보를 각각 x, (x-1)로 설정한 후, 상기 제2 검출이미지에 동일하게 검출된 라인 레이저의 라인번호는 (x-1), 상기 제2 검출이미지에 검출되지 않은 라인 레이저의 라인번호는 x로 각각 부여하는 것을 특징으로 하는 라이다 장치.
18. The method of claim 17, wherein the image processing unit
When the number of line lasers detected in the first detection image is less than the number of line lasers output from the laser light source unit, candidates for line numbers of the line lasers included in the first detection image are respectively x, (x- After setting to 1), the line number of the line laser identically detected in the second detection image is (x-1), and the line number of the line laser that is not detected in the second detection image is given as x, respectively. Features a lidar device.
KR1020200169382A 2020-12-07 2020-12-07 Apparatus for LIDAR KR20220080359A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200169382A KR20220080359A (en) 2020-12-07 2020-12-07 Apparatus for LIDAR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200169382A KR20220080359A (en) 2020-12-07 2020-12-07 Apparatus for LIDAR

Publications (1)

Publication Number Publication Date
KR20220080359A true KR20220080359A (en) 2022-06-14

Family

ID=81980038

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200169382A KR20220080359A (en) 2020-12-07 2020-12-07 Apparatus for LIDAR

Country Status (1)

Country Link
KR (1) KR20220080359A (en)

Similar Documents

Publication Publication Date Title
US10884129B2 (en) Detecting system fusing lidar point cloud and image
US10156437B2 (en) Control method of a depth camera
KR101891907B1 (en) Distance measuring device and parallax calculation system
US9483895B2 (en) Paper money identification method and device
US8482720B2 (en) Method and optical sensor for the detection of objects
CN103443838B (en) Object recognition device
WO2018123642A1 (en) Stereo camera
JP2015075800A (en) Object detection device and vehicle using object detection device
EP3279691B1 (en) Rangefinder based on parallax calculation
US11019249B2 (en) Mapping three-dimensional depth map data onto two-dimensional images
JP2012022573A (en) Mobile body detection device
US7525114B2 (en) Multiple axis multipoint non-contact measurement system
US11320537B2 (en) Enhancing triangulation-based three-dimensional distance measurements with time of flight information
EP3596425B1 (en) Optoelectronic devices for collecting three-dimensional data
JP2020160044A (en) Distance measuring device and distance measuring method
US20230122788A1 (en) Method and device for the recognition of blooming in a lidar measurement
KR20220080359A (en) Apparatus for LIDAR
EP3217191B1 (en) Distance measuring apparatus and method for measuring a distance
US20220364849A1 (en) Multi-sensor depth mapping
US7420196B2 (en) Multiple axis multipoint non-contact measurement system
KR20220147812A (en) Apparatus for LIDAR based on images and method for measuring distance by using the same
US11448758B2 (en) Method and device for optical distance measurement
WO2023047886A1 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
US20220268902A1 (en) Lidar system and method for determining distances of targets
KR20220153804A (en) LIDAR apparatus