KR20220153804A - LIDAR apparatus - Google Patents

LIDAR apparatus Download PDF

Info

Publication number
KR20220153804A
KR20220153804A KR1020210061242A KR20210061242A KR20220153804A KR 20220153804 A KR20220153804 A KR 20220153804A KR 1020210061242 A KR1020210061242 A KR 1020210061242A KR 20210061242 A KR20210061242 A KR 20210061242A KR 20220153804 A KR20220153804 A KR 20220153804A
Authority
KR
South Korea
Prior art keywords
laser
image
line
lidar device
target space
Prior art date
Application number
KR1020210061242A
Other languages
Korean (ko)
Inventor
여태운
김대언
김은지
온백산
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020210061242A priority Critical patent/KR20220153804A/en
Publication of KR20220153804A publication Critical patent/KR20220153804A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/095Refractive optical elements
    • G02B27/0955Lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/02Simple or compound lenses with non-spherical faces
    • G02B3/04Simple or compound lenses with non-spherical faces with continuous faces that are rotationally symmetrical but deviate from a true sphere, e.g. so called "aspheric" lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01SDEVICES USING THE PROCESS OF LIGHT AMPLIFICATION BY STIMULATED EMISSION OF RADIATION [LASER] TO AMPLIFY OR GENERATE LIGHT; DEVICES USING STIMULATED EMISSION OF ELECTROMAGNETIC RADIATION IN WAVE RANGES OTHER THAN OPTICAL
    • H01S5/00Semiconductor lasers
    • H01S5/02Structural details or components not essential to laser action
    • H01S5/022Mountings; Housings
    • H01S5/0225Out-coupling of light
    • H01S5/02253Out-coupling of light using lenses

Abstract

The present invention relates to a Lidar device. According to an embodiment of the present invention, a Lidar device includes: a laser light source unit for outputting a plurality of line lasers arranged to cover different horizontal angular ranges among the total 360 degree horizontal angular ranges in a target space; an image sensor unit for generating a detection image by sensing an image formed by reflection of the plurality of line lasers within the target space; and an image processing unit for processing the detection image and extracting a laser pattern corresponding to the plurality of line lasers. Accordingly, it is possible to generate accurate 3D coordinate information about an object in the target space by correcting image distortion which may occur when a fisheye lens is used.

Description

라이다 장치 {LIDAR apparatus}LIDAR apparatus {LIDAR apparatus}

본 발명은 대상공간 내에서 물체 등의 3차원 좌표정보를 회전 또는 2대 이상의 장치 연동 등의 필요없이 넓은 수평방향 각도범위(예컨대, 360도 등)로 제공할 수 있는, 이미지 분석 기반의 3차원 라이다 장치에 관한 것이다. The present invention is an image analysis-based 3D image analysis capable of providing 3D coordinate information of an object in a target space in a wide horizontal angular range (eg, 360 degrees, etc.) without the need for rotation or interlocking of two or more devices. It's about lidar devices.

레이저(Light Amplification by the Stimulated Emission of Radiation, LASER)는 유도방출(stimulated emission)에 의해 증폭된 빛으로, 전자공학, 광통신, 의약학, 국방분야 등 많은 분야에서 활용되고 있다.A laser (Light Amplification by the Stimulated Emission of Radiation, LASER) is light amplified by stimulated emission, and is used in many fields such as electronics, optical communication, medicine and pharmacy, and national defense.

또한, 라이다(Light Detection and Ranging, LiDAR) 장치는 레이저를 이용하여 대상체까지의 거리를 측정하는 기술을 말하며, 최근 자율주행 자동차, 이동 로봇, 드론 등의 핵심 기술로 주목을 받고 있다.In addition, a LiDAR (Light Detection and Ranging) device refers to a technology for measuring a distance to an object using a laser, and has recently been attracting attention as a core technology for autonomous vehicles, mobile robots, drones, and the like.

최근 라이다 장치는, 소정 대상공간 내에서 사람 또는 물체에 대한 정확한 감지가 요구되는 보안 분야, 안전상 움직임이 감지되는지 관제할 필요가 있는 스마트 팩토리 등의 분야, 근거리의 물체나 지형을 감지하여 거리/방향을 스스로 찾아가는 무인 이동체(AGV, 무인로봇 등) 분야, 가상현실(VR) 서비스 분야 등에서 폭넓은 활용이 기대되고 있다.Recently, lidar devices are used in security fields that require accurate detection of people or objects within a certain target space, fields such as smart factories that need to control whether safety movements are detected, and distance// It is expected to be widely used in the field of unmanned mobile vehicles (AGVs, unmanned robots, etc.) that find their own direction, and the field of virtual reality (VR) service.

그러나, 종래의 라이다 장치는 레이저의 비행시간을 통한 거리를 산출하는 TOF(Time of Flight) 방식을 적용하므로, 고정밀도 및 고해상도의 측정이 가능한 장점이 있으나, 가격이 비싸고, 전체 장치 크기가 크다는 등의 단점이 존재한다.However, since the conventional lidar device applies the Time of Flight (TOF) method that calculates the distance through the time of flight of the laser, it has the advantage of being able to measure with high precision and high resolution, but the price is expensive and the overall device size is large. There are disadvantages such as

도1a는 대상공간 내에서 물체 등의 2차원 좌표정보를 얻기 위한 종래의 회전 미러형 스캔 타입의 2차원 TOF 방식 라이다 장치(1)를 예시하는데, 이 장치에서는 미러의 회전에 의해 레이저 빔(B)이 대략 수평방향 180도 범위에서 스캔된다. 또한, 도1b는 4채널의 2차원 수직 배치형 TOF 방식 라이다 장치(2)를 예시하는데, 이 장치는 4채널의 라인 레이저(C)를 이용한다.1A illustrates a conventional rotating mirror scan type 2D TOF type LIDAR device 1 for obtaining 2D coordinate information of an object or the like in a target space. In this device, a laser beam ( B) is scanned in a range of approximately 180 degrees in the horizontal direction. In addition, FIG. 1B illustrates a 4-channel 2-dimensional vertically-arranged TOF type lidar device 2, which uses a 4-channel line laser C.

이러한 종래기술의 라이다 장치들은 TOF 방식이 갖는 고가, 대형이라는 문제점 이외에도, 넓은 수평방향 각도범위(가령 360도)에서 대상공간 내 물체 등의 2차원 또는 3차원 좌표정보를 제공하지 못하므로 대상공간 내에 사각지대가 발생하게 된다는 한계가 있다.In addition to the high cost and large size of the TOF method, these prior art lidar devices do not provide 2D or 3D coordinate information such as objects in the target space in a wide horizontal angular range (eg 360 degrees), so the target space There is a limit that blind spots occur within.

도1c의 라이다 장치(3)는 거리측정 TOF 모듈(4) 전체가 회전 모터 제어를 통해 회전하면서 수직으로 소정 각도로 배치된 2차원 라이다를 회전시키는 방식으로, 360도의 넓은 수평방향 각도범위의 3차원 좌표정보를 얻을 수 있어 대상공간 내에 사각지대가 발생하는 문제점은 해결되지만, 회전 모터 구동을 위한 제어 회로 등이 장치 내에 구비되어야 하며, 이 역시 TOF 방식으로서 가격이 비싸고, 전체 장치 크기가 커진다는 등의 단점을 갖고 있다.In the LiDAR device 3 of FIG. 1C, the entire distance measurement TOF module 4 rotates through rotation motor control and rotates a two-dimensional lidar vertically arranged at a predetermined angle, and has a wide horizontal angular range of 360 degrees. 3D coordinate information can be obtained to solve the problem of blind spots in the target space, but a control circuit for driving a rotating motor must be provided in the device, which is also a TOF method, which is expensive and the size of the entire device is small. There are downsides to being bigger.

공개특허공보 제10-2019-0059823호Publication No. 10-2019-0059823

한편, TOF 방식의 문제점을 극복하고 저가, 소형의 라이다 장치를 구현하기 위하여, 이미지센서 소자 등에 의해 얻어진 이미지를 분석하여 대상 공간 내의 물체 등의 3차원 좌표정보를 도출하는 방식의 라이다 장치가, 본 발명자에 의해 도 1d와 같이 제안된 바 있다(출원 번호: 10-2020-0169382). 그러나 이 경우, 대상공간 내에서 물체 등의 3차원 좌표정보 분석이 가능하지만, 제공되는 수평방향 각도범위가 100~180도 정도에 지나지 않아 대상공간 내에 사각지대가 발생하게 되고, 그러한 문제점을 해결하기 위해서는 2대 이상의 장치를 연동하여 사용하여야만 한다는 한계가 있다.On the other hand, in order to overcome the problems of the TOF method and implement a low-cost, small-sized lidar device, a lidar device of a method of deriving 3-dimensional coordinate information such as an object in the target space by analyzing an image obtained by an image sensor element, etc. , has been proposed by the present inventors as shown in FIG. 1d (Application No.: 10-2020-0169382). However, in this case, although it is possible to analyze 3D coordinate information such as an object within the target space, the provided horizontal angular range is only about 100 to 180 degrees, resulting in blind spots within the target space, and it is difficult to solve such a problem. However, there is a limitation that two or more devices must be used in conjunction with each other.

따라서, 본 발명은, 대상공간 내에 사각지대의 발생을 없애거나 최소화할 수 있도록, 넓은 수평방향 각도범위(예컨대, 360도 등)의 3차원 좌표정보를 생성할 수 있는, 이미지 분석 기반의 3차원 라이다 장치를 제공하기 위한 것이다.Therefore, the present invention is an image analysis-based 3D coordinate information capable of generating 3D coordinate information in a wide horizontal angular range (eg, 360 degrees, etc.) so as to eliminate or minimize the occurrence of blind spots in the target space. It is to provide a lidar device.

본 발명은, 넓은 수평방향 각도범위(예컨대, 360도 등)의 3차원 좌표정보를 회전 또는 2대 이상의 장치 연동 등의 필요 없이 생성할 수 있는, 이미지 분석 기반의 3차원 라이다 장치를 제공하기 위한 것이다.The present invention provides an image analysis-based 3D lidar device capable of generating 3D coordinate information in a wide horizontal angular range (eg, 360 degrees, etc.) without the need for rotation or linkage of two or more devices. it is for

본 발명은, 어안렌즈 사용시 발생할 수 있는 이미지 왜곡을 용이하게 보정할 수 있는 전방위 무회전 3차원 라이다 장치를 제공하기 위한 것이다.The present invention is to provide an omnidirectional non-rotating 3D lidar device capable of easily correcting image distortion that may occur when a fisheye lens is used.

본 발명은, 저가, 소형의 이미지센서 방식의 라이다 장치를 통해 넓은 수평방향 각도범위의 3차원 좌표정보의 효율적인 생성이 가능하도록 함으로써, 보안, 스마트 팩토리, 무인 이동체(AGV, 무인로봇 등), 가상현실(VR) 서비스 등의 분야에서 더욱 폭넓게 활용될 수 있는 방안을 제공하기 위한 것이다.The present invention enables efficient generation of three-dimensional coordinate information in a wide horizontal angular range through a low-cost, small-sized image sensor type lidar device, thereby enabling security, smart factories, unmanned mobile vehicles (AGV, unmanned robots, etc.), It is intended to provide a method that can be used more widely in the field of virtual reality (VR) services.

본 발명의 일 실시예에 의한 라이다 장치는, 대상공간 내의 전체 360도의 수평방향 각도범위 중에서 각각 상이한 수평방향 각도범위를 커버하도록 배열되는 복수개의 라인 레이저를 출력하는 레이저광원부; 상기 대상공간 내에서 상기 복수개의 라인 레이저의 반사에 의해 형성되는 이미지를 감지하여 검출이미지를 생성하는 이미지센서부; 및 상기 검출이미지를 처리하여 상기 복수의 라인 레이저에 대응하는 레이저 패턴을 추출하는 이미지처리부를 포함할 수 있다. LiDAR device according to an embodiment of the present invention, a laser light source unit for outputting a plurality of line lasers arranged to cover different horizontal angular ranges, respectively, among a total 360 degree horizontal angular range in a target space; an image sensor unit generating a detection image by sensing an image formed by reflection of the plurality of line lasers within the target space; And it may include an image processing unit for processing the detection image to extract a laser pattern corresponding to the plurality of line lasers.

여기서, 상기 레이저광원부는, 상기 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함하고, 상기 복수개의 라인 레이저는 수평방향에서 방사상으로 배치되는 것일 수 있다. Here, the laser light source unit may include a plurality of laser modules outputting the plurality of line lasers, and the plurality of line lasers may be radially arranged in a horizontal direction.

여기서 상기 레이저광원부는, 상기 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함하고, 상기 복수개의 라인 레이저가 커버하는 각각의 수평방향 각도범위를 합치면 상기 대상공간 내의 전체 360도의 수평방향 각도범위가 커버되도록 상기 복수개의 레이저 모듈 각각의 설치방향을 설정하는 것일수 있다. Here, the laser light source unit includes a plurality of laser modules that output the plurality of line lasers, and when the horizontal angular ranges covered by the plurality of line lasers are added together, a total 360-degree horizontal angular range within the target space is obtained. It may be to set the installation direction of each of the plurality of laser modules to be covered.

여기서 상기 레이저 모듈은, 도트(dot) 레이저를 출력하는 레이저 다이오드; 및 상기 도트 레이저를 상기 라인 레이저로 변환하는 1차 렌즈를 포함할 수 있다. Here, the laser module includes a laser diode outputting a dot laser; and a primary lens that converts the dot laser into the line laser.

여기서 상기 레이저광원부는, 상기 복수개의 레이저 모듈을 내부에 포함하고, 상기 라인 레이저의 수평방향 각도범위를 확장시키는 2차 렌즈를 더 포함할 수 있으며, 상기 2차 렌즈는 비구면 렌즈일 수 있다. Here, the laser light source unit may further include a secondary lens including the plurality of laser modules therein and extending an angular range of the line laser in a horizontal direction, and the secondary lens may be an aspherical lens.

여기서 상기 레이저 모듈은, 도트 레이저를 출력하는 복수의 레이저 다이오드; 상기 복수의 레이저 다이오드 각각의 수직방향 각도를 미리 설정된 각도로 고정시키는 홀더; 및 상기 복수의 레이저 다이오드 각각에 개별적으로 구비되어, 상기 도트 레이저를 상기 라인 레이저로 변환하는 1차 렌즈를 포함할 수 있다. Here, the laser module includes a plurality of laser diodes outputting dot lasers; a holder for fixing a vertical angle of each of the plurality of laser diodes to a preset angle; and a primary lens individually provided on each of the plurality of laser diodes to convert the dot laser into the line laser.

여기서 상기 레이저광원부는, 전방으로 라인 레이저를 출력하는 제1 레이저 모듈; 및 후방으로 라인 레이저를 출력하는 제2 레이저 모듈을 포함하고, 상기 제1 레이저 모듈 및 제2 레이저 모듈은 각각 전방 180도, 후방 180도의 수평방향 각도범위를 커버하는 라인 레이저를 출력하여, 상기 대상공간 내의 전체 360도의 수평방향 각도범위가 커버되도록 라인 레이저를 출력할 수 있다. Here, the laser light source unit, a first laser module for outputting a line laser forward; and a second laser module for outputting a line laser backward, wherein the first laser module and the second laser module output line lasers covering a horizontal angular range of 180 degrees forward and 180 degrees backward, respectively, so that the target The line laser can be output so that the entire horizontal angular range of 360 degrees within the space is covered.

여기서 상기 레이저광원부는, 상기 제1 레이저 모듈 및 제2 레이저 모듈을 내부에 포함하며, 상기 라인 레이저들의 수평방향 각도범위를 180도로 확장시키는 2차 렌즈를 포함할 수 있다. Here, the laser light source unit includes the first laser module and the second laser module therein, and may include a secondary lens that expands an angular range of the line lasers in a horizontal direction by 180 degrees.

여기서 상기 이미지센서부는, 상기 대상공간 내에서 상기 복수개의 라인 레이저의 반사에 의해 형성되는 이미지를 감지하는 어안렌즈를 포함할 수 있다. Here, the image sensor unit may include a fish-eye lens that senses an image formed by reflection of the plurality of line lasers within the target space.

여기서 상기 이미지센서부는, 상기 어안렌즈를 복수개 포함하고, 상기 대상공간 내의 전체 360도의 수평방향 각도범위로부터 얻어지는 상기 라인 레이저들에 의한 이미지를 포착하도록, 상기 복수개 어안렌즈 각각의 설치방향을 설정할 수 있다. Here, the image sensor unit may include a plurality of fisheye lenses, and may set an installation direction of each of the plurality of fisheye lenses to capture an image by the line lasers obtained from a horizontal angular range of 360 degrees in the target space. .

여기서 상기 이미지처리부는, 상기 어안렌즈에 의해 포착된이미지에 나타나는 이미지 왜곡을 보정할 수 있다. Here, the image processing unit may correct image distortion appearing in the image captured by the fish-eye lens.

여기서 상기 이미지처리부는, 상기 검출이미지를 임계값을 기준으로 이진화하여 이진 이미지를 생성하고, 상기 이진 이미지로부터 상기 라인 레이저에 대응하는 레이저 패턴을 추출하되, 상기 이진 이미지 생성은, 상기 검출이미지 중 이미지 왜곡에 의해 픽셀 데이터가 부족한 영역에 대하여 가상 픽셀들을 추가하고, 상기 임계값을 점차 증가시키면서, 각각의 상기 임계값을 기준으로 얻어지는 이진 이미지의 각 픽셀값들로부터 상기 가상 픽셀들의 이진 이미지 픽셀값들을 도출하여, 픽셀 데이터의 부족을 상기 가상 픽셀들의 이진 이미지 픽셀값들로 보충한 최종 이진 이미지를 얻는 것일 수 있다.Here, the image processing unit generates a binary image by binarizing the detection image based on a threshold value, and extracts a laser pattern corresponding to the line laser from the binary image, Virtual pixels are added for regions where pixel data is insufficient due to distortion, and while the threshold value is gradually increased, the binary image pixel values of the virtual pixels are obtained from each pixel value of the binary image obtained based on each threshold value. By deriving, a final binary image may be obtained by supplementing the lack of pixel data with binary image pixel values of the virtual pixels.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.In addition, the solution to the above problem does not enumerate all the features of the present invention. Various features of the present invention and the advantages and effects thereof will be understood in more detail with reference to specific embodiments below.

본 발명의 일 실시예에 의한 라이다 장치는, 저가, 소형인 이미지센서 방식의 라이다 장치로도 넓은 수평방향 각도범위(예컨대, 360도 등)의 3차원 좌표정보를 생성할 수 있으므로, 대상공간 내에 사각지대의 발생을 없애거나 최소화할 수 있어, 보안, 실내공간 안전, 로봇, VR 서비스 등의 분야에 널리 활용될 수 있다.Since the lidar device according to an embodiment of the present invention can generate 3D coordinate information in a wide horizontal angular range (eg, 360 degrees, etc.) even with a low-cost, small-sized image sensor type lidar device, the target It can eliminate or minimize the occurrence of blind spots in space, so it can be widely used in areas such as security, indoor space safety, robots, and VR services.

본 발명의 일 실시예에 의한 라이다 장치에 의하면, 회전모터 구동 또는 2대 이상의 장치 연동 등의 필요 없이 대상공간 내 물체 등의 3차원 좌표 정보를 용이하게 얻을 수 있게 된다.According to the lidar device according to an embodiment of the present invention, it is possible to easily obtain 3D coordinate information of an object in a target space without the need for driving a rotary motor or linking two or more devices.

본 발명의 일 실시예에 의한 라이다 장치에 의하면, 어안렌즈 사용시 발생할 수 있는 이미지 왜곡을 보정하여, 대상공간 내 물체 등에 대한 정확한 3차원 좌표정보를 생성하는 것이 가능하다.According to the LiDAR device according to an embodiment of the present invention, it is possible to generate accurate 3D coordinate information about an object in a target space by correcting image distortion that may occur when a fisheye lens is used.

도1a는 종래기술의 회전 미러형 스캔 타입의 2차원 TOF 방식 라이다 장치를 예시하는 개략도이다.
도1b는 종래기술의 4채널의 2차원 수직 배치형 TOF 방식 라이다 장치를 예시하는 개략도이다.
도1c는 종래기술의 거리측정 TOF 모듈 전체가 회전 모터 제어를 통해 회전하면서 수직으로 배치된 2차원 라이다를 회전시키는 방식의 라이다 장치를 예시하는 개략도이다.
도1d는 저가, 소형의 라이다 장치 구현을 위해, 이미지 센서 소자 등에 의해 얻어진 이미지를 분석하여 대상 공간 내의 물체 등의 3차원 좌표정보를 도출하는 이미지 기반의 라이다 장치를 예시한다.
도2는 본 발명의 일 실시예에 의한 3차원 라이다 장치를 나타내는 블록도이다.
도3은 본 발명의 일 실시예에 의한 3차원 라이다 장치를 이용한 대상공간 내 라인 레이저의 방출을 나타내는 개략도이다.
도4는 본 발명의 일 실시예에 의한 레이저 모듈을 포함하는 레이저광원부를 나타내는 예시도이다.
도5는 본 발명의 다른 실시예에 의한 레이저 모듈을 포함하는 레이저광원부를 나타내는 예시도이다.
도6은 본 발명의 일 실시예에 의한 레이저 모듈 및 2차 렌즈를 포함하는 레이저광원부를 나타내는 예시도이다.
도7은 본 발명의 일 실시예에 의한 레이저 모듈을 나타내는 개략도이다.
도8은 본 발명의 일 실시예에 의한 검출 이미지의 왜곡을 나타내는 예시도이다.
도9는 본 발명의 일 실시예에 의한 이진 이미지 내의 왜곡영역을 나타내는 예시도이다.
도10은 본 발명의 일 실시예에 의한 이미지 왜곡을 보정한 이진 이미지를 나타내는 예시도이다.
도11은 본 발명의 일 실시예에 의한 다중 임계값을 이용한 이미지 왜곡 보정을 설명하기 위한 예시도이다.
도12는 대상공간 내 물체가 위치하는 경우의 이진 이미지를 나타내는 예시도이다.
도13은 이진 이미지에서 기준 패턴을 제거한 예시도이다.
도14는 하나의 라인 레이저의 수직방향 각도를 조절하여 순차적으로 대상 공간 내에 조사한 이진 이미지를 나타내는 예시도이다.
도15는 복수의 라인 레이저의 수직방향 각도를 조절하여 순차적으로 대상 공간 내에 조사한 이진 이미지를 나타내는 예시도이다.
도16은 본 발명의 일 실시예에 의한 이진 이미지를 이용한 대상 공간 내 객체검출을 나타내는 예시도이다.
도17은 본 발명의 일 실시예에 의한 라이다 장치를 이용하여 생성한 3차원 좌표 정보를 나타내는 예시도이다.
1A is a schematic diagram illustrating a conventional rotating mirror scan type two-dimensional TOF type LiDAR device.
Figure 1b is a schematic diagram illustrating a prior art 4-channel, 2-dimensional vertically-arranged TOF type lidar device.
Figure 1c is a schematic diagram illustrating a lidar device of a method of rotating a vertically arranged two-dimensional lidar while the entire distance measuring TOF module of the prior art rotates through rotation motor control.
1D illustrates an image-based lidar device that derives three-dimensional coordinate information of an object in a target space by analyzing an image obtained by an image sensor device, etc., in order to implement a low-cost, small-sized lidar device.
Figure 2 is a block diagram showing a three-dimensional lidar device according to an embodiment of the present invention.
3 is a schematic diagram showing emission of a line laser in a target space using a 3D LIDAR device according to an embodiment of the present invention.
4 is an exemplary view showing a laser light source including a laser module according to an embodiment of the present invention.
5 is an exemplary view showing a laser light source including a laser module according to another embodiment of the present invention.
6 is an exemplary view showing a laser light source including a laser module and a secondary lens according to an embodiment of the present invention.
7 is a schematic diagram showing a laser module according to an embodiment of the present invention.
8 is an exemplary diagram illustrating distortion of a detected image according to an embodiment of the present invention.
9 is an exemplary view showing a distortion area in a binary image according to an embodiment of the present invention.
10 is an exemplary diagram illustrating a binary image in which image distortion is corrected according to an embodiment of the present invention.
11 is an exemplary diagram for explaining image distortion correction using multiple thresholds according to an embodiment of the present invention.
12 is an exemplary diagram illustrating a binary image when an object is located in a target space.
13 is an exemplary diagram in which a reference pattern is removed from a binary image.
14 is an exemplary view showing binary images sequentially irradiated into a target space by adjusting the vertical direction angle of one line laser.
15 is an exemplary diagram illustrating binary images sequentially irradiated into a target space by adjusting vertical angles of a plurality of line lasers.
16 is an exemplary diagram illustrating object detection in a target space using a binary image according to an embodiment of the present invention.
17 is an exemplary diagram illustrating three-dimensional coordinate information generated using a LIDAR device according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and actions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 명세서에 기재된 "~부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case where it is 'directly connected', but also the case where it is 'indirectly connected' with another element in between. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components unless otherwise stated. In addition, terms such as “~unit” and “module” described in the specification refer to a unit that processes at least one function or operation, and may be implemented as hardware or software or a combination of hardware and software.

도2는 본 발명의 일 실시예에 의한 라이다 장치를 나타내는 블록도이고, 도3은 본 발명의 일 실시예에 의한 라이다 장치를 이용한 대상공간 내 라인 레이저의 방출을 나타내는 개략도이다. Figure 2 is a block diagram showing a lidar device according to an embodiment of the present invention, Figure 3 is a schematic diagram showing the emission of a line laser in the target space using the lidar device according to an embodiment of the present invention.

도2 및 도3을 참조하면, 본 발명의 일 실시예에 의한 라이다 장치(100)는 레이저광원부(110), 이미지센서부(120) 및 이미지처리부(130)를 포함할 수 있다.Referring to Figures 2 and 3, the lidar apparatus 100 according to an embodiment of the present invention may include a laser light source unit 110, an image sensor unit 120 and an image processing unit 130.

이하, 도2 및 도3를 참조하여 본 발명의 일 실시예에 의한 라이다 장치(100)에 관해 설명한다.Hereinafter, a lidar apparatus 100 according to an embodiment of the present invention will be described with reference to FIGS. 2 and 3.

레이저광원부(110)는 대상공간(A) 내의 전체 360도의 수평방향 각도범위 중에서 각각 상이한 수평방향 각도범위를 커버하도록 배열된 복수개의 라인 레이저(Line Laser)를 출력할 수 있다. 여기서, 레이저광원부(110)는 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함할 수 있으며, 레이저 모듈에서 출력되는 복수개의 라인 레이저들은 수평방향에서 방사상으로 배치될 수 있다. 이때, 복수개의 라인 레이저들이 커버하는 수평방향 각도범위들을 합치면, 대상공간(A) 내의 전체 360도의 수평방향 각도범위가 커버되도록 구현하는 것도 가능하다.The laser light source unit 110 may output a plurality of line lasers arranged to cover different horizontal angular ranges among the total 360 degree horizontal angular ranges in the target space A. Here, the laser light source unit 110 may include a plurality of laser modules outputting a plurality of line lasers, and the plurality of line lasers output from the laser modules may be radially arranged in a horizontal direction. At this time, if the horizontal angular ranges covered by the plurality of line lasers are combined, it is also possible to implement the entire 360-degree horizontal angular range within the target space A to be covered.

즉, 도4 및 도5에 도시한 바와 같이, 레이저광원부(110)는 복수개의 레이저 모듈(10)들을 포함할 수 있으며, 레이저광원부(110) 내 레이저 모듈(10)들은, 각각의 라인 레이저(L)들이 라이다 장치(100)의 주변 360도 방위로 출력되도록 설치방향이 설정될 수 있다.That is, as shown in FIGS. 4 and 5, the laser light source unit 110 may include a plurality of laser modules 10, and the laser modules 10 in the laser light source unit 110 are each line laser ( L) can be set to the installation direction so that they are output in the 360-degree orientation around the lidar device (100).

여기서, 레이저 모듈(10)은 레이저 다이오드(11) 및 1차 렌즈(12)를 포함할 수 있다. 레이저 다이오드(11)는 단면이 점 형상인 도트(dot) 레이저를 출력할 수 있으며, 1차 렌즈(12)는 각각의 레이저 다이오드(11)에 개별적으로 구비될 수 있으며, 레이저 다이오드(11)에서 출력되는 도트 레이저를 라인 레이저로 변환시킬 수 있다. 즉, 1차 렌즈(12)는 도트 레이저를 수평방향으로 평행한 라인 레이저 형태로 변환할 수 있으며, 이 경우 1차 렌즈(12)는 수평방향으로 100 내지 120도 범위로 출력되는 라인 레이저를 생성할 수 있다.Here, the laser module 10 may include a laser diode 11 and a primary lens 12 . The laser diode 11 may output a dot laser having a point-shaped cross section, and the primary lens 12 may be individually provided in each laser diode 11, and in the laser diode 11 The outputted dot laser can be converted into a line laser. That is, the primary lens 12 can convert the dot laser into a parallel line laser form in the horizontal direction. In this case, the primary lens 12 generates a line laser output in the range of 100 to 120 degrees in the horizontal direction. can do.

도4와 같이, 전방으로 라인 레이저를 출력하는 제1 레이저 모듈과, 후방으로 라인 레이저를 출력하는 제2 레이저 모듈을 이용하여 레이저광원부(110)를 구현하는 경우에는, 제1 레이저 모듈 및 제2 레이저 모듈은 각각 전방 180도와 후방 180도의 수평방향 각도범위를 커버하는 라인 레이저를 출력할 수 있다. 즉, 대상공간(A) 내의 전체 360도의 수평방향 각도범위가 커버되도록 라인 레이저를 출력할 수 있다. As shown in FIG. 4, when the laser light source unit 110 is implemented using a first laser module that outputs a line laser forwardly and a second laser module that outputs a line laser backward, the first laser module and the second laser module The laser module can output a line laser covering a horizontal angular range of 180 degrees forward and 180 degrees backward, respectively. That is, the line laser can be output so that the entire horizontal angular range of 360 degrees within the target space A is covered.

또한, 도5에 도시한 바와 같이 4개의 레이저 모듈을 이용하여 360도 범위의 라인 레이저를 출력하도록 하는 것도 가능하며, 이 경우, 각각의 레이저 모듈들은 적어도 90도의 수평방향 각도범위를 커버하도록 라인 레이저를 출력할 수 있다. 이때, 이들 라인 레이저들이 전체 360도를 커버하도록 4개의 레이저 모듈들의 설치방향이 설정될 수 있다.In addition, as shown in FIG. 5, it is also possible to use four laser modules to output line lasers in a range of 360 degrees. In this case, each laser module covers a horizontal angular range of at least 90 degrees. can output At this time, the installation direction of the four laser modules may be set so that these line lasers cover the entire 360 degrees.

이외에도 레이저광원부(110) 내에 포함되는 레이저 모듈(10)의 개수는 실시예에 따라 다양하게 변경가능하다.In addition, the number of laser modules 10 included in the laser light source unit 110 can be variously changed according to embodiments.

다만, 도4와 같이 2개의 레이저 모듈(10)을 이용하는 경우에는, 레이저 모듈(10)에서 출력된 라인 레이저들이 360도를 충분히 커버하지 못하는 경우가 발생할 수 있다. 이를 방지하기 위하여, 본 발명의 일 실시예에 의한 라이다 장치는, 도6에 도시한 바와 같이 2차 렌즈(20)를 더 구비하여, 라인 레이저의 수평방향 각도범위를 확장시킬 수 있다.However, when two laser modules 10 are used as shown in FIG. 4 , line lasers output from the laser modules 10 may not sufficiently cover 360 degrees. In order to prevent this, the lidar apparatus according to an embodiment of the present invention, as shown in FIG. 6, may further include a secondary lens 20 to expand the horizontal angular range of the line laser.

2차 렌즈(20)는 내부에 복수의 레이저 모듈(10)들이 포함되도록 일체형으로 형성될 수 있으며, 2차 렌즈(20)를 통하여 방출되는 각각의 라인 레이저들은 수평방향으로 각도범위가 확장될 수 있다. 여기서, 2차 렌즈(20)는 1차 렌즈(12)를 통하여 라인 레이저들이, 180도 각도범위로 확장되도록 설계된 것일 수 있다.The secondary lens 20 may be integrally formed so that a plurality of laser modules 10 are included therein, and each line laser emitted through the secondary lens 20 may extend an angular range in the horizontal direction. have. Here, the secondary lens 20 may be designed so that the line lasers are extended to an angular range of 180 degrees through the primary lens 12 .

한편, 도7에 도시한 바와 같이, 각각의 레이저 모듈(10) 내에는 복수의 레이저 다이오드(11)가 수직방향으로 배열되어 있을 수 있다. 여기서, 홀더(13)는 복수의 레이저 다이오드(11)들의 수직방향 각도를 각각 미리 설정된 각도로 고정시키므로, 라이다 장치(100)는 미리 설정된 각각의 수직방향 각도로 복수의 라인 레이저들을 출력하는 것이 가능하다. 즉, 실시예에 따라서는, 레이저광원부(110)가 단일 채널이 아니라 복수의 채널로 대상공간(A)을 스캐닝할 수 있다. 이때, 2차 렌즈(20)는, 각각의 레이저 다이오드(11)에서 출력되는 라인 레이저들이 개별적으로 수평방향으로 확장되도록 설계될 수 있으므로, 1개의 2차 렌즈(20)로 다채널의 라인 레이저를 지원하는 것이 가능하다. Meanwhile, as shown in FIG. 7, a plurality of laser diodes 11 may be vertically arranged in each laser module 10. Here, since the holder 13 fixes the vertical angles of the plurality of laser diodes 11 at preset angles, the LiDAR device 100 outputs a plurality of line lasers at each preset vertical angle. It is possible. That is, depending on the embodiment, the laser light source unit 110 may scan the target space A with a plurality of channels instead of a single channel. At this time, since the secondary lens 20 can be designed so that the line lasers output from each laser diode 11 are individually expanded in the horizontal direction, multi-channel line lasers can be produced with one secondary lens 20. it is possible to support

추가적으로, 2차 렌즈(20)는 비구면 렌즈일 수 있다. 이 경우, 레이저 다이오드(11)에서 출력된 라인 레이저들은 2차 렌즈(20)에서 굴절되거나 각도가 변하지 않고 평행하게 유지하면서 발산할 수 있다. Additionally, the secondary lens 20 may be an aspherical lens. In this case, the line lasers output from the laser diode 11 may diverge while being kept parallel without being refracted by the secondary lens 20 or changing an angle.

여기서, 레이저광원부(110)가 출력하는 라인 레이저의 파장은 미리 설정될 수 있으며, 실시예에 따라서는 라인 레이저의 파장을 적외선 파장 영역으로 설정하는 것도 가능하다. 즉, 적외선의 라인 레이저를 조사하도록 하여, 대상공간(A) 내 위치하는 사람들은 라인 레이저를 인식하지 못하도록 할 수 있다. Here, the wavelength of the line laser output from the laser light source unit 110 may be set in advance, and depending on embodiments, it is also possible to set the wavelength of the line laser to an infrared wavelength range. That is, by radiating an infrared line laser, people located in the target space A may not recognize the line laser.

또한, 라인 레이저는 Eye-safety 1 class 기준을 충족하도록 에너지 설계될 수 있다. 예를 들어, 레이저광원부(110)는 미리 설정된 에너지 설계에 따라 펄스형으로 레이저 광을 방출할 수 있으며, 이를 통해 대상공간(A) 내에 방출된 라인 레이저에 의해 유발되는 눈 상해 등의 사고 위험을 최소화할 수 있다. Also, line lasers can be energy designed to meet Eye-safety 1 class standards. For example, the laser light source unit 110 may emit laser light in a pulsed manner according to a preset energy design, thereby reducing the risk of accidents such as eye injuries caused by the line laser emitted within the target space A. can be minimized.

한편, 라인 레이저가 출력되는 대상공간(A)은, 가정집이나 상점 등의 경비구역이나, 주행 또는 주차 중인 차량의 주변공간 등일 수 있다. 다만, 이에 한정되는 것은 아니며, 라이다 장치(100)가 설치되어 라인 레이저를 조사할 수 있는 공간이면 어떠한 공간도 그에 해당할 수 있다.On the other hand, the target space (A) where the line laser is output may be a security area such as a private house or a store, or a space around a driving or parked vehicle. However, it is not limited thereto, and any space may correspond thereto as long as the space in which the lidar device 100 is installed to irradiate the line laser.

이미지센서부(120)는 대상공간(A) 내에서 반사된 라인 레이저를 감지하여, 검출이미지를 생성할 수 있다. 이미지센서부(120)는 소정의 형태로 배열된 복수의 픽셀들을 포함할 수 있으며, 대상공간(A) 내의 빛을 각 픽셀들의 픽셀값을 통해 감지하여 검출이미지를 생성할 수 있다. 예를들어, 이미지센서부(120)는 CCD(Charge-Coupled Device) 센서 또는 CMOS(Complementary Metal-Oxide Semiconductor) 센서 등의 센서 어레이로 구현할 수 있으며, 대상공간(A) 내에서 감지되는 빛을 전기적 신호로 변환할 수 있다. 즉, 대상공간(A) 내에서 반사된 라인 레이저의 휘도값을 대응하는 각각의 픽셀들의 픽셀값으로 변환하여, 2차원의 검출이미지를 생성할 수 있다.The image sensor unit 120 may sense the reflected line laser within the target space A to generate a detection image. The image sensor unit 120 may include a plurality of pixels arranged in a predetermined shape, and may generate a detection image by detecting light in the target space A through pixel values of each pixel. For example, the image sensor unit 120 may be implemented as a sensor array such as a CCD (Charge-Coupled Device) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) sensor. can be converted into signals. That is, a 2D detection image may be generated by converting the luminance value of the line laser reflected in the target space A into pixel values of corresponding pixels.

여기서, 이미지센서부(120)는 어안렌즈(미도시)를 포함할 수 있으며, 어안렌즈를 이용하여 대상공간(A) 내에서 복수개의 라인 레이저의 반사에 의해 형성되는 이미지를 감지할 수 있다. 즉, 레이저광원부(110)에서 출력되는 360도 전방위의 라인 레이저를 동시에 입력받기 위하여, 이미지센서부(120)는 어안렌즈를 활용할 수 있다. 실시예에 따라서는, 복수의 어안렌즈를 이용하는 것도 가능하며, 어안렌즈들의 설치방향을 설정하여 대상공간(A) 내 전체 360도의 수평방향 각도범위로부터 얻어지는 라인 레이저들에 의한 이미지를 포착하도록 구현할 수 있다.Here, the image sensor unit 120 may include a fisheye lens (not shown), and may detect an image formed by reflection of a plurality of line lasers in the target space A using the fisheye lens. That is, in order to simultaneously receive the 360-degree omnidirectional line laser output from the laser light source unit 110, the image sensor unit 120 may utilize a fish-eye lens. Depending on the embodiment, it is also possible to use a plurality of fisheye lenses, and by setting the installation direction of the fisheye lenses, it can be implemented to capture images by line lasers obtained from a horizontal angular range of 360 degrees in the target space (A). have.

예를들어, 대상공간(A)에 대한 180도 범위의 라인 레이저에 의한 이미지를 감지할 수 있는 어안렌즈 2개를 서로 맞닿도록 배치하여, 전체 360도에 대한 이미지를 포착하도록 할 수 있다. 실시예에 따라서는, 이미지센서부(120)가 복수의 어안렌즈로부터 입력되어 생성된 각각의 검출이미지들을 합성하여 하나의 검출이미지로 생성하는 것도 가능하다.For example, two fish-eye lenses capable of detecting an image of a line laser in a range of 180 degrees of the target space A may be disposed so as to come into contact with each other so as to capture images of the entire 360 degrees. Depending on the embodiment, it is also possible for the image sensor unit 120 to generate a single detection image by synthesizing detection images generated by input from a plurality of fish-eye lenses.

이미지처리부(130)는 검출이미지를 처리하여 복수의 라인 레이저에 대응하는 레이저 패턴을 추출할 수 있다. 실시예에 따라서는, 이미지처리부(130)가 검출이미지를 임계값을 기준으로 이진화하여 이진 이미지를 생성하고, 이진 이미지로부터 라인 레이저에 대응하는 레이저 패턴을 추출하는 것도 가능하다. 여기서, 레이저 패턴을 이용하면, 대상공간(A) 내 객체까지의 거리를 측정할 수 있으며, 실시예에 따라서는, 대상공간(A) 내의 각각의 지점들에 대한 좌표정보를 생성하여 대상공간(A)에 대한 3차원 좌표지도를 생성하는 것도 가능하다.The image processing unit 130 may process the detected image to extract a laser pattern corresponding to a plurality of line lasers. Depending on the embodiment, it is also possible for the image processing unit 130 to generate a binary image by binarizing the detected image based on a threshold value, and to extract a laser pattern corresponding to the line laser from the binary image. Here, by using a laser pattern, it is possible to measure the distance to an object in the target space (A), and according to an embodiment, coordinate information for each point in the target space (A) is generated to target the target space ( It is also possible to create a three-dimensional coordinate map for A).

구체적으로, 이미지처리부(130)는 이진 이미지 내에 나타난 레이저 패턴의 수평위치와 수직위치를 이용하여 각각의 지점들에 대한 x축 좌표와 y축 좌표를 생성할 수 있다. 또한, 레이저광원부(110)와 이미지센서부(120) 사이의 기하학적인 거리와 각도 등을 이용한 삼각측량법을 활용하면 해당 지점까지의 거리를 측정할 수 있으므로, 이를 활용하여 각각의 지점들에 대한 z축 좌표를 생성할 수 있다. 즉, 이미지처리부(130)는 대상공간(A) 내의 각 지점에 대한 3차원 좌표를 생성할 수 있으며, 각각의 3차원 좌표들을 취합하여 대상공간(A)에 대한 3차원 좌표지도를 생성할 수 있다.Specifically, the image processing unit 130 may generate x-axis coordinates and y-axis coordinates for each point using the horizontal and vertical positions of the laser pattern shown in the binary image. In addition, since the distance to a corresponding point can be measured by using triangulation using the geometric distance and angle between the laser light source unit 110 and the image sensor unit 120, z for each point can be measured using this. Axis coordinates can be created. That is, the image processing unit 130 may generate 3D coordinates for each point in the target space A, and may generate a 3D coordinate map for the target space A by collecting the respective 3D coordinates. have.

다만, 본 발명의 일 실시예에 의한 이미지센서부(120)는 어안렌즈를 이용하여 검출이미지를 생성하므로, 도8에 도시한 바와 같이 검출이미지 내에 이미지 왜곡이 포함될 수 있다. 이 경우, 도9에 도시한 바와 같이, 검출이미지로부터 생성한 이진 이미지에도 이미지 왜곡이 반영되어 나타나게 된다. 여기서, 도8의 검출이미지에 대한 이미지 처리를 통하여 이미지 왜곡을 보정하는 것도 가능하지만, 이 경우 이진 이미지에 비하여 처리해야할 데이터량이 많으므로, 이진 이미지에 대한 이미지 처리를 수행하여 이미지 왜곡을 수행하는 것이 바람직하다.However, since the image sensor unit 120 according to an embodiment of the present invention generates a detection image using a fish-eye lens, image distortion may be included in the detection image as shown in FIG. 8 . In this case, as shown in FIG. 9, the image distortion is reflected in the binary image generated from the detection image. Here, it is also possible to correct image distortion through image processing of the detection image of FIG. desirable.

구체적으로, 도8을 참조하면, P1 영역과 P2 영역은 실제 대상공간(A) 내에서는 동일한 크기의 영역에 해당하지만, 어안 렌즈에 의한 이미지 왜곡으로 인하여, 검출이미지 내에서는 P1 영역과 P2 영역의 크기가 상이하게 나타날 수 있다. 이 상태에서 이진화를 수행하면 도9에 도시한 바와 같이 나타날 수 있다. 이 경우, 대상공간(A) 내 수평방향으로 평행하게 출력된 라인 레이저(L)도 이진 이미지 상에서 휘어진 형태로 왜곡되어 나타남을 확인할 수 있다. 도9을 참조하면, P1영역과 P2영역의 경우 실제 동일한 크기의 영역에 해당하지만 이를 나타내기 위해 사용된 수직방향의 픽셀의 개수가 상이함을 확인할 수 있다. 즉, 이미지 왜곡에 의하여 P1 영역에 대한 픽셀 데이터가 P2 영역에 비하여 누락되어 있는 것이므로, 보정을 위해서는 P1 영역에 대한 픽셀 데이터를 보간 등을 통하여 추가할 필요가 있다. 이후, 이미지처리부(130)에서 이미지 왜곡에 대한 보정이 완료되면, 도9의 이진 이미지로부터 도10의 이진 이미지를 생성할 수 있다.Specifically, referring to FIG. 8, the P1 area and the P2 area correspond to areas of the same size in the actual target space (A), but due to the image distortion caused by the fisheye lens, the P1 area and the P2 area are separated in the detection image. Sizes may appear different. If binarization is performed in this state, it may appear as shown in FIG. 9 . In this case, it can be confirmed that the line laser L outputted in parallel in the horizontal direction within the target space A is also distorted in a curved form on the binary image. Referring to FIG. 9, it can be seen that the P1 area and the P2 area actually correspond to areas of the same size, but the number of pixels in the vertical direction used to represent them is different. That is, since pixel data for area P1 is missing compared to area P2 due to image distortion, it is necessary to add pixel data for area P1 through interpolation or the like for correction. Thereafter, when correction for image distortion is completed in the image processing unit 130, the binary image of FIG. 10 may be generated from the binary image of FIG.

실시예에 따라서는, 이미지처리부(130)가 검출이미지 중 이미지 왜곡에 의해 픽셀 데이터가 부족한 영역에 대하여 가상 픽셀들을 추가할 수 있으며, 이후 임계값을 점차 증가시키면서, 각각의 임계값을 기준으로 얻어지는 이진 이미지의 각 픽셀값들로부터 가상 픽셀들의 이진 이미지 픽셀값들을 도출할 수 있다. 즉, 이미지처리부(130)는 픽셀 데이터의 부족을 가상 픽셀들의 이진 이미지 픽셀값들로 보충한 최종 이진 이미지를 생성함으로써, 이진 이미지에 대한 이미지 왜곡을 보정할 수 있다.Depending on the embodiment, the image processing unit 130 may add virtual pixels to a region of the detected image in which pixel data is insufficient due to image distortion, and then gradually increase the threshold value, and obtain based on each threshold value. Binary image pixel values of virtual pixels may be derived from each pixel value of the binary image. That is, the image processing unit 130 may correct image distortion of the binary image by generating a final binary image in which the lack of pixel data is supplemented with binary image pixel values of virtual pixels.

보다 구체적으로는, 예컨대 도9에서 픽셀 데이터가 부족하지 않은 영역(P2)에 대응되는 도8의 검출이미지 영역의 픽셀이 6개이고, 각각의 픽셀값이 255, 30, 24, 12, 6, 3인 경우를 가정하면, 임계값을 150으로 설정하면 255의 픽셀값을 갖는 픽셀만 임계값을 넘으므로 해당 픽셀에만 1의 이진값이 주어지고, 나머지 픽셀들은 임계값을 넘지 못하므로 0의 이진값이 주어져, 레이저 패턴을 높은 해상도로 정확히 구별해 낼 수 있는 이진 이미지를 얻을 수 있게 된다.More specifically, for example, there are 6 pixels in the detection image area of FIG. 8 corresponding to the area P2 in which the pixel data is not insufficient in FIG. 9, and each pixel value is 255, 30, 24, 12, 6, 3 , if the threshold is set to 150, only the pixel with a pixel value of 255 crosses the threshold, so only that pixel is given a binary value of 1, and the rest of the pixels do not cross the threshold, so a binary value of 0. Given this, it is possible to obtain a binary image capable of accurately distinguishing a laser pattern with high resolution.

그러나, 도9에서 이미지의 왜곡에 의해 영역이 축소됨에 띠라 픽셀 데이터가 부족한 영역(P1)의 경우는, 최종적으로 도10의 이진 이미지에서는 데이터가 부족하게 되는데, 예컨대 픽셀 데이터 부족 영역(P1)이 픽셀 데이터가 부족하지 않은 영역(P2)에 비하여 면적이 1/2이라면 픽셀의 개수도 1/2에 불과하게 된다. 도11은 이러한 상황을 예시한 것으로서, 도표 좌측 컬럼에서 상단으로부터 2~4번째의 3개 픽셀의 데이터(즉, 255, 40, 10)가 위에서 예시한 도9의 6개 픽셀의 데이터(즉, 255, 30, 24, 12, 6, 3)에 대응된다.However, in FIG. 9, as the area is reduced due to image distortion, in the case of the area P1 lacking pixel data, the binary image of FIG. 10 finally lacks data. If the area is 1/2 compared to the area P2 where the pixel data is not insufficient, the number of pixels is only 1/2. Fig. 11 illustrates this situation. In the left column of the chart, the data of 3 pixels in the 2nd to 4th rows from the top (i.e., 255, 40, 10) is the data of the 6 pixels of Fig. 9 illustrated above (i.e., 255, 40, 10). 255, 30, 24, 12, 6, 3).

도11의 도표 좌측 컬럼의 상단 1번째 픽셀과 맨 하단의 픽셀은 각각 80, 5의 픽셀값을 갖는데, 이들은 도8에서 위 3개 픽셀의 데이터에 인접한 픽셀의 데이터들이다. 즉, 도8의 픽셀 데이터가 부족한 영역(P1)의 수직방향의 픽셀 3개와 이에 상하로 각각 인접한 두개의 데이터가 순서대로 각각 80, 255, 40, 10, 5의 픽셀값을 갖는 경우를 예시한다. 이때, 도11의 도표 3, 5, 7, 9번째 컬럼에 도시된 바와 같이, 픽셀값이 255, 40, 10인 픽셀들을 각각 2개로 분할하여 총 6개의 가상픽셀을 형성할 수 있다.The first pixel at the top and the pixel at the bottom of the left column of the diagram in FIG. 11 have pixel values of 80 and 5, respectively, which are data of pixels adjacent to the data of the three pixels above in FIG. That is, a case in which three pixels in the vertical direction of the area P1 lacking pixel data in FIG. 8 and two data adjacent to the three pixels in the vertical direction respectively have pixel values of 80, 255, 40, 10, and 5, respectively, is exemplified. . At this time, as shown in the 3rd, 5th, 7th, and 9th columns of Table 11, a total of six virtual pixels may be formed by dividing pixels having pixel values of 255, 40, and 10 into two.

이러한 영역에 대한 이진 이미지를 얻기 위한 구체적인 처리 과정은, 먼저, 제1 임계값으로 20을 설정하여 80, 255, 40, 10, 5의 5개 픽셀값을 이진화할 수 있으며, 이 경우 각각의 픽셀값은 1, 1, 1, 0, 0으로 설정될 수 있다(도11의 도표 2번째 컬럼 참조). 여기서 제1 임계값의 경우, 노이즈 제거를 위한 최소한의 크기를 가지는 임계값일 수 있는데, 이 경우, 가상픽셀에 대한 픽셀값은 각각 1, 1, 1, 0.5, 0.5, 0으로 설정될 수 있다(도11의 도표 3번째 컬럼 참조). 즉, 인접하는 픽셀들의 이진화된 픽셀값의 평균을 이용하여 가상픽셀의 픽셀값을 설정할 수 있다.In the specific processing process for obtaining a binary image for this region, first, 20 is set as the first threshold value to binarize 5 pixel values of 80, 255, 40, 10, and 5. In this case, each pixel The value can be set to 1, 1, 1, 0, 0 (see the second column of the table in FIG. 11). Here, the first threshold may be a threshold having a minimum size for removing noise. In this case, pixel values for virtual pixels may be set to 1, 1, 1, 0.5, 0.5, and 0, respectively ( see Figure 11, column 3 of the diagram). That is, a pixel value of a virtual pixel may be set using an average of binarized pixel values of adjacent pixels.

이후, 제2 임계값을 점차 상승시켜 50으로 설정하면 위의 5개 픽셀에 대한 각각의 픽셀값은 1, 1, 0, 0, 0으로 설정될 수 있으며(도11의 도표 4번째 컬럼 참조), 이때, 이전 단계와 동일한 방식으로 각각의 가상픽셀의 픽셀값은 1, 0.5, 0.5, 0, 0, 0으로 설정될 수 있다(도11의 도표 5번째 컬럼 참조).Then, if the second threshold value is gradually raised and set to 50, each pixel value for the above five pixels can be set to 1, 1, 0, 0, 0 (see the fourth column of the table in FIG. 11). , At this time, the pixel value of each virtual pixel may be set to 1, 0.5, 0.5, 0, 0, 0 in the same manner as in the previous step (see the fifth column of the table in FIG. 11).

계속하여, 제3 임계값으로 보다 상승시킨 100을 적용하면, 위의 5개 픽셀에 대한 각각의 픽셀값은 0, 1, 0, 0, 0으로 설정되며(도11의 도표 6번째 컬럼 참조), 이때, 이전 단계와 동일한 방식으로, 각각의 가상픽셀의 픽셀값은 0.5, 0.5, 0, 0, 0, 0으로 설정될 수 있다(도11의 도표 7번째 컬럼 참조).Subsequently, if 100, which is higher than the third threshold, is applied, each pixel value for the above 5 pixels is set to 0, 1, 0, 0, 0 (see the 6th column of the table in Fig. 11) , At this time, in the same manner as in the previous step, the pixel value of each virtual pixel can be set to 0.5, 0.5, 0, 0, 0, 0 (see the 7th column of the table in FIG. 11).

마지막으로, 제4 임계값으로 보다 상승시킨 150을 적용하면, 위의 5개 픽셀에 대한 각각의 픽셀값은 0, 1, 0, 0, 0으로 설정되며(도11의 도표 8번째 컬럼 참조), 이때, 이전 단계와 동일한 방식으로, 각각의 가상픽셀의 픽셀값들은 0.5, 0.5, 0, 0, 0, 0로 설정될 수 있다(도11의 도표 9번째 컬럼 참조).Finally, when 150, which is higher than the fourth threshold, is applied, each pixel value for the above 5 pixels is set to 0, 1, 0, 0, 0 (see the 8th column of the table in Fig. 11) , At this time, the pixel values of each virtual pixel may be set to 0.5, 0.5, 0, 0, 0, 0 in the same manner as in the previous step (see the ninth column of the table in FIG. 11).

여기서, 최종적으로 픽셀값이 255인 픽셀에 대응되는 두개의 가상 픽셀의 값이 높으므로 이들 중에 레이저 패턴이 위치하는 것으로 판별할 수 있으나, 구체적으로 첫번째 가상 픽셀인지, 두번째 가상 픽셀인지를 판별하기 어려울 수 있다. 실시예에 따라서는, 상술한 이진 이미지를 얻기 위한 처리 과정 중에, 각각의 가상픽셀들의 픽셀값들 중에서 1이 나온 빈도수를 고려하여, 최종적으로 첫번째 가상 픽셀에 레이저 패턴이 위치하는 것으로(즉, 1의 이진값이 주어지는 것으로) 판별할 수 있다. 이를 통하여, 이진 이미지 내에 가상 픽셀들이 추가하는 경우에도, 보다 높은 확률로 정확한 레이저 패턴을 설정하는 것이 가능하다.Here, since the value of the two virtual pixels corresponding to the pixel whose pixel value is 255 is finally high, it can be determined that the laser pattern is located among them, but it is difficult to determine whether it is the first virtual pixel or the second virtual pixel. can Depending on the embodiment, during the process of obtaining the above-described binary image, the laser pattern is finally located in the first virtual pixel (ie, 1 Given the binary value of ), it can be determined. Through this, even when virtual pixels are added in the binary image, it is possible to set an accurate laser pattern with a higher probability.

추가적으로, 이미지처리부(130)는 왜곡이 보정된 도10의 이진 이미지를 이용하여 대상공간(A)의 형상이나, 대상공간(A) 내 위치하는 물체나 인물 등 객체를 감지할 수 있다.Additionally, the image processing unit 130 may detect the shape of the target space A or an object such as an object or person located in the target space A using the distortion-corrected binary image of FIG. 10 .

구체적으로, 대상공간(A) 내에 객체가 존재하지 않는 경우에는 도10과 같이 하나의 라인 레이저가 표시되는 레이저 패턴이 나타날 수 있으며, 이때의 레이저 페턴을 기준 패턴으로 설정할 수 있다.Specifically, when an object does not exist in the target space A, a laser pattern in which a single line laser is displayed may appear as shown in FIG. 10, and the laser pattern at this time may be set as a reference pattern.

반면에, 대상공간(A) 내에 객체가 존재하는 경우에는, 도12와 같이 기준 패턴과 단절되어 이격하게 나타나는 대상 패턴이 존재할 수 있으며, 대상 패턴을 이용하여 대상공간(A) 내의 객체의 위치나, 객체의 크기 등을 추출하는 것이 가능하다. 실시예에 따라서는, 도13과 같이, 기준 패턴과 대상 패턴 사이의 차영상을 구하여 대상 패턴을 추출하는 것도 가능하다.On the other hand, when an object exists in the target space (A), there may be a target pattern that is disconnected from the reference pattern and appears at a distance as shown in FIG. 12, and the location of the object in the target space (A) , it is possible to extract the size of the object, etc. Depending on the embodiment, as shown in FIG. 13, it is also possible to extract the target pattern by obtaining a difference image between the reference pattern and the target pattern.

여기서, 레이저광원부(110)는 하나의 라인 레이저에 대한 수직방향 조사각도를 조절하면서 반복 출력할 수 있으며, 이 경우 도14에 도시한 바와 같이, 수직방향의 위치가 상이한 대상 패턴들을 가지는 복수의 이진 이미지들을 생성할 수 있다. 즉, 객체의 수직 방향 위치에 대한 정보를 얻기 위하여, 수직방향 조사각도가 상이한 복수의 라인 레이저를 대상공간(A) 내에 출력할 수 있다. 여기서, 각각의 수직방향 조사각도에 따른 라인 레이저들은, 객체를 측정하기 위한 각각의 채널에 해당한다.Here, the laser light source unit 110 can repeatedly output while adjusting the irradiation angle in the vertical direction for one line laser, and in this case, as shown in FIG. 14, a plurality of binary binary patterns having different target patterns in vertical directions. images can be created. That is, in order to obtain information about the vertical position of the object, a plurality of line lasers having different vertical irradiation angles may be output into the target space A. Here, line lasers corresponding to respective vertical irradiation angles correspond to respective channels for measuring an object.

실시예에 따라서는, 레이저광원부(110)가 복수의 라인 레이저들에 대한 수직방향 조사각도를 조절하여 동시에 출력하는 것도 가능하며, 이 경우 도15에 도시한 바와 같이, 각각의 수직방향의 위치가 상이한 복수의 대상 패턴들을 가지는 복수의 이진 이미지들을 생성할 수 있다. 즉, 복수의 채널을 이용하여 동시에 대상공간(A) 내의 객체를 검출할 수 있다.Depending on the embodiment, it is also possible for the laser light source unit 110 to simultaneously output the plurality of line lasers by adjusting the vertical irradiation angles. In this case, as shown in FIG. 15, each vertical position is A plurality of binary images having a plurality of different target patterns may be generated. That is, an object within the target space A can be simultaneously detected using a plurality of channels.

한편, 이미지처리부(130)는 미리 설정된 원점을 기준으로, 대상패턴의 수평위치를 0 내지 360도나, -180 내지 +180도 범위를 이용하여 나타낼 수 있다. 대상패턴의 수평위치는 이를 이용하여 나타낼 수 있으며, 객체의 x축 좌표에 대응한다.Meanwhile, the image processing unit 130 may indicate the horizontal position of the target pattern using a range of 0 to 360 degrees or -180 to +180 degrees based on a preset origin. The horizontal position of the target pattern can be represented using this, and corresponds to the x-axis coordinate of the object.

또한, 대상 패턴과 기준패턴 사이의 이격거리는 라이다 장치(100)로부터 객체까지의 거리에 비례하므로, 이격거리를 측정하여 라이다 장치(100)로부터 객체까지의 거리정보도 판별할 수 있다. 여기서, 이격거리는 대상패턴과 기준패턴 사이의 픽셀개수로 측정할 수 있으며, 이때 각각의 픽셀개수에 대응하는 실제 거리값은 미리 저장되어 있을 수 있다. 객체까지의 거리정보는 객체에 대한 z축 좌표에 대응한다.In addition, since the separation distance between the target pattern and the reference pattern is proportional to the distance from the lidar device 100 to the object, it is possible to determine the distance information from the lidar device 100 to the object by measuring the separation distance. Here, the separation distance may be measured by the number of pixels between the target pattern and the reference pattern, and in this case, an actual distance value corresponding to each pixel number may be stored in advance. The distance information to the object corresponds to the z-axis coordinate of the object.

y축 좌표의 경우, 레이저광원부(110)가 출력하는 각각의 라인 레이저들의 수직방향 출력각도와, 객체까지의 거리정보 등에 의하여 결정될 수 있다. 즉, y축 좌표는 각각의 채널에 대응하여 결정될 수 있다. In the case of the y-axis coordinate, it can be determined by the vertical direction output angle of each line laser output from the laser light source unit 110 and the distance information to the object. That is, the y-axis coordinate may be determined corresponding to each channel.

이후, 이미지처리부(130)는 복수의 라인 레이저를 동시 또는 순차적으로 출력하여 얻은 검출이미지들을 결합하여, 전체 N(N은 1이상의 자연수) 개의 채널을 포함하는 하나의 검출이미지를 생성할 수 있으며, 이에 대한 이진 이미지를 생성할 수 있다. 실시예에 따라서는, 이미지처리부(130)가 이진 이미지 내에 나타난 각각의 대상 패턴이 각각 어느 채널에 대응하는 것이고, 대상 패턴의 수평위치와, 이격거리(d)에 대응하는 픽셀개수는 어떻게 되는지를 나타내는 매트릭스를 생성하는 것도 가능하다. Thereafter, the image processing unit 130 may combine detection images obtained by simultaneously or sequentially outputting a plurality of line lasers to generate one detection image including a total of N (N is a natural number equal to or greater than 1) channels, You can create a binary image for it. Depending on the embodiment, the image processing unit 130 determines which channel each target pattern appearing in the binary image corresponds to, the horizontal position of the target pattern, and the number of pixels corresponding to the separation distance d. It is also possible to create a matrix representing

예를들어, 도16(a)와 같이, 제1 채널에 대하여 140도 내지 142도의 범위에서 40 픽셀만큼 이격된 대상 패턴이 검출되는 경우, 도16(b)와 같이 매트릭스를 생성할 수 있다. 여기서, 수평위치를 이용하면 객체의 x좌표와 객체의 너비를 특정할 수 있으며, 대상 패턴이 나타난 채널을 이용하면 객체의 y좌표와 객체의 높이를 특정할 수 있다. 또한, 이격거리(d)를 이용하여 객체의 z좌표와 객체까지의 거리를 특정하는 것이 가능하다.For example, as shown in FIG. 16(a), when target patterns spaced apart by 40 pixels in the range of 140 degrees to 142 degrees with respect to the first channel are detected, a matrix may be generated as shown in FIG. 16(b). Here, the x-coordinate of the object and the width of the object can be specified using the horizontal position, and the y-coordinate of the object and the height of the object can be specified using the channel where the target pattern appears. In addition, it is possible to specify the z-coordinate of the object and the distance to the object using the separation distance d.

즉, 각각의 검출 이미지에 대하여 매트릭스를 생성하는 경우, 매트릭스 내의 정보들을 이용하여, 대상공간(A)에 대한 포인트 클라우드를 생성하는 것이 가능하다. 이 경우, 도17과 같이, 대상공간 내의 조사된 각각의 라인 레이저들에 대응하는 3차원 좌표정보를 생성할 수 있으며, 각각의 3차원 좌표들을 3차원 공간 상에 표시하여, 대상공간에 대응하는 포인트 클라우드를 생성할 수 있다.That is, when generating a matrix for each detected image, it is possible to generate a point cloud for the target space A using information in the matrix. In this case, as shown in FIG. 17, it is possible to generate 3D coordinate information corresponding to each of the irradiated line lasers in the target space, and each 3D coordinate is displayed on the 3D space, thereby corresponding to the target space. A point cloud can be created.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the foregoing embodiments and accompanying drawings. It will be clear to those skilled in the art that the components according to the present invention can be substituted, modified, and changed without departing from the technical spirit of the present invention.

100: 라이다 장치 110: 레이저광원부
120: 이미지센서부 130: 이미지처리부
100: lidar device 110: laser light source
120: image sensor unit 130: image processing unit

Claims (13)

대상공간 내의 전체 360도의 수평방향 각도범위 중에서 각각 상이한 수평방향 각도범위를 커버하도록 배열된 복수개의 라인 레이저를 출력하는 레이저광원부;
상기 대상공간 내에서 상기 복수개의 라인 레이저의 반사에 의해 형성된 이미지를 감지하여 검출이미지를 생성하는 이미지센서부; 및
상기 검출이미지를 처리하여 상기 복수의 라인 레이저에 대응하는 레이저 패턴을 추출하는 이미지처리부를 포함하는 라이다 장치.
a laser light source unit outputting a plurality of line lasers arranged to cover different horizontal angular ranges among the total 360 degree horizontal angular ranges in the target space;
an image sensor unit generating a detection image by sensing an image formed by reflection of the plurality of line lasers within the target space; and
LIDAR device comprising an image processing unit for processing the detection image to extract a laser pattern corresponding to the plurality of line lasers.
제1항에 있어서, 상기 레이저광원부는,
상기 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함하고,
상기 복수개의 라인 레이저는 수평방향에서 방사상으로 배치되는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the laser light source unit,
Including a plurality of laser modules for outputting the plurality of line lasers,
LiDAR device, characterized in that the plurality of line lasers are arranged radially in the horizontal direction.
제1항에 있어서, 상기 레이저광원부는,
상기 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함하고,
상기 복수개의 라인 레이저가 커버하는 각각의 수평방향 각도범위를 합치면 상기 대상공간 내의 전체 360도의 수평방향 각도범위가 커버되도록 상기 복수개의 레이저 모듈 각각의 설치방향을 설정하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the laser light source unit,
Including a plurality of laser modules for outputting the plurality of line lasers,
When the horizontal angular ranges covered by the plurality of line lasers are combined, the installation direction of each of the plurality of laser modules is set so that the total horizontal angular range of 360 degrees in the target space is covered.
제3항에 있어서, 상기 레이저 모듈은,
도트(dot) 레이저를 출력하는 레이저 다이오드; 및
상기 도트 레이저를 상기 라인 레이저로 변환하는 1차 렌즈를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 3, wherein the laser module,
a laser diode that outputs a dot laser; and
LiDAR device comprising a primary lens for converting the dot laser into the line laser.
제4항에 있어서, 상기 레이저광원부는,
상기 복수개의 레이저 모듈을 내부에 포함하고, 상기 라인 레이저의 수평방향 각도범위를 확장시키는 2차 렌즈를 더 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 4, wherein the laser light source unit,
The lidar device further comprises a secondary lens including the plurality of laser modules therein and extending an angular range in a horizontal direction of the line laser.
제5항에 있어서, 상기 2차 렌즈는,
비구면 렌즈인 것을 특징으로 하는 라이다 장치.
The method of claim 5, wherein the secondary lens,
LiDAR device, characterized in that the aspherical lens.
제3항에 있어서, 상기 레이저 모듈은,
도트 레이저를 출력하는 복수의 레이저 다이오드;
상기 복수의 레이저 다이오드 각각의 수직방향 각도를 미리 설정된 각도로 고정시키는 홀더; 및
상기 복수의 레이저 다이오드 각각에 개별적으로 구비되어, 상기 도트 레이저를 상기 라인 레이저로 변환하는 1차 렌즈를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 3, wherein the laser module,
a plurality of laser diodes outputting dot lasers;
a holder for fixing a vertical angle of each of the plurality of laser diodes to a preset angle; and
LiDAR device, characterized in that it comprises a primary lens that is provided individually on each of the plurality of laser diodes, converting the dot laser into the line laser.
제1항에 있어서, 상기 레이저광원부는,
전방으로 라인 레이저를 출력하는 제1 레이저 모듈; 및
후방으로 라인 레이저를 출력하는 제2 레이저 모듈을 포함하고,
상기 제1 레이저 모듈 및 제2 레이저 모듈은 각각 전방 180도, 후방 180도의 수평방향 각도범위를 커버하는 라인 레이저를 출력하여, 상기 대상공간 내의 전체 360도의 수평방향 각도범위가 커버되도록 라인 레이저를 출력하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the laser light source unit,
A first laser module that outputs a line laser forward; and
Including a second laser module that outputs a line laser to the rear,
The first laser module and the second laser module output line lasers covering a horizontal angular range of 180 degrees forward and 180 degrees backward, respectively, and output line lasers to cover a horizontal angular range of 360 degrees in the target space. Lidar device, characterized in that for doing.
제8항에 있어서, 상기 레이저광원부는,
상기 제1 레이저 모듈 및 제2 레이저 모듈을 내부에 포함하며, 상기 라인 레이저들의 수평방향 각도범위를 180도로 확장시키는 2차 렌즈를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 8, wherein the laser light source unit,
LiDAR device comprising the first laser module and the second laser module therein, characterized in that it comprises a secondary lens for extending the angular range of the horizontal direction of the line lasers to 180 degrees.
제1항에 있어서, 상기 이미지센서부는,
상기 대상공간 내에서 상기 복수개의 라인 레이저의 반사에 의해 형성되는 이미지를 감지하는 어안렌즈를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the image sensor unit,
LiDAR device characterized in that it comprises a fish-eye lens for detecting the image formed by the reflection of the plurality of line lasers in the target space.
제10항에 있어서, 상기 이미지센서부는,
상기 어안렌즈를 복수개 포함하고, 상기 대상공간 내의 전체 360도의 수평방향 각도범위로부터 얻어지는 상기 라인 레이저들에 의한 이미지를 포착하도록, 상기 복수개 어안렌즈 각각의 설치방향을 설정하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the image sensor unit,
LiDAR device comprising a plurality of fish-eye lenses, and setting the installation direction of each of the plurality of fish-eye lenses to capture images by the line lasers obtained from a horizontal angular range of 360 degrees in the target space. .
제10항에 있어서, 상기 이미지처리부는,
상기 어안렌즈에 의해 포착된이미지에 나타나는 이미지 왜곡을 보정하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the image processing unit,
LiDAR device, characterized in that for correcting the image distortion appearing in the image captured by the fish-eye lens.
제10항에 있어서, 상기 이미지처리부는,
상기 검출이미지를 임계값을 기준으로 이진화하여 이진 이미지를 생성하고, 상기 이진 이미지로부터 상기 라인 레이저에 대응하는 레이저 패턴을 추출하되,
상기 이진 이미지 생성은, 상기 검출이미지 중 이미지 왜곡에 의해 픽셀 데이터가 부족한 영역에 대하여 가상 픽셀들을 추가하고, 상기 임계값을 점차 증가시키면서, 각각의 상기 임계값을 기준으로 얻어지는 이진 이미지의 각 픽셀값들로부터 상기 가상 픽셀들의 이진 이미지 픽셀값들을 도출하여, 픽셀 데이터의 부족을 상기 가상 픽셀들의 이진 이미지 픽셀값들로 보충한 최종 이진 이미지를 얻는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the image processing unit,
The detection image is binarized based on a threshold value to generate a binary image, and a laser pattern corresponding to the line laser is extracted from the binary image,
In the binary image generation, each pixel value of the binary image obtained based on each threshold value is added by adding virtual pixels to a region in which pixel data is insufficient due to image distortion in the detection image and gradually increasing the threshold value. Deriving binary image pixel values of the virtual pixels from the LIDAR device, characterized in that to obtain a final binary image in which the lack of pixel data is compensated for by the binary image pixel values of the virtual pixels.
KR1020210061242A 2021-05-12 2021-05-12 LIDAR apparatus KR20220153804A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210061242A KR20220153804A (en) 2021-05-12 2021-05-12 LIDAR apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210061242A KR20220153804A (en) 2021-05-12 2021-05-12 LIDAR apparatus

Publications (1)

Publication Number Publication Date
KR20220153804A true KR20220153804A (en) 2022-11-21

Family

ID=84233611

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210061242A KR20220153804A (en) 2021-05-12 2021-05-12 LIDAR apparatus

Country Status (1)

Country Link
KR (1) KR20220153804A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190059823A (en) 2017-11-23 2019-05-31 전자부품연구원 Omnidirectional rotationless scanning lidar system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190059823A (en) 2017-11-23 2019-05-31 전자부품연구원 Omnidirectional rotationless scanning lidar system

Similar Documents

Publication Publication Date Title
JP6825569B2 (en) Signal processor, signal processing method, and program
CN107944422B (en) Three-dimensional camera device, three-dimensional camera method and face recognition method
Kuhnert et al. Fusion of stereo-camera and pmd-camera data for real-time suited precise 3d environment reconstruction
US6259803B1 (en) Simplified image correlation method using off-the-shelf signal processors to extract edge information using only spatial data
US7684590B2 (en) Method of recognizing and/or tracking objects
KR102020037B1 (en) Hybrid LiDAR scanner
CN111344647A (en) Intelligent laser radar system with low-latency motion planning update
US20150288948A1 (en) System and method for night vision object detection and driver assistance
US20160146940A1 (en) Opto-electronic detection device and method for sensing the surroundings of a motor vehicle by scanning
US20080197284A1 (en) Method and system for detecting objects using far infrared images
US20210141094A1 (en) Optoelectronic sensor and method of detecting objects
WO2011104706A1 (en) A system and method for providing 3d imaging
Yang et al. A simple and effective extrinsic calibration method of a camera and a single line scanning lidar
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
Kang et al. Accurate fruit localisation using high resolution LiDAR-camera fusion and instance segmentation
US20210286082A1 (en) Distance measuring device and distance measuring device control method
JP2018031776A (en) System and method for stereo triangulation
KR101275823B1 (en) Device for detecting 3d object using plural camera and method therefor
KR20150091779A (en) Image processing system using multiple sensor
JP2022045947A5 (en)
CN112184793A (en) Depth data processing method and device and readable storage medium
CN114424022A (en) Distance measuring apparatus, distance measuring method, program, electronic device, learning model generating method, manufacturing method, and depth map generating method
KR20120108256A (en) Robot fish localization system using artificial markers and method of the same
CN114073075A (en) Mapping three-dimensional depth map data onto two-dimensional images
Dodge et al. Convex vision-based negative obstacle detection framework for autonomous vehicles