KR20220153804A - LIDAR apparatus - Google Patents
LIDAR apparatus Download PDFInfo
- Publication number
- KR20220153804A KR20220153804A KR1020210061242A KR20210061242A KR20220153804A KR 20220153804 A KR20220153804 A KR 20220153804A KR 1020210061242 A KR1020210061242 A KR 1020210061242A KR 20210061242 A KR20210061242 A KR 20210061242A KR 20220153804 A KR20220153804 A KR 20220153804A
- Authority
- KR
- South Korea
- Prior art keywords
- laser
- image
- line
- lidar device
- target space
- Prior art date
Links
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims description 20
- 238000009434 installation Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 18
- 238000000926 separation method Methods 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000002366 time-of-flight method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000020564 Eye injury Diseases 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/06—Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/09—Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
- G02B27/0938—Using specific optical elements
- G02B27/095—Refractive optical elements
- G02B27/0955—Lenses
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/02—Simple or compound lenses with non-spherical faces
- G02B3/04—Simple or compound lenses with non-spherical faces with continuous faces that are rotationally symmetrical but deviate from a true sphere, e.g. so called "aspheric" lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/001—Image restoration
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01S—DEVICES USING THE PROCESS OF LIGHT AMPLIFICATION BY STIMULATED EMISSION OF RADIATION [LASER] TO AMPLIFY OR GENERATE LIGHT; DEVICES USING STIMULATED EMISSION OF ELECTROMAGNETIC RADIATION IN WAVE RANGES OTHER THAN OPTICAL
- H01S5/00—Semiconductor lasers
- H01S5/02—Structural details or components not essential to laser action
- H01S5/022—Mountings; Housings
- H01S5/0225—Out-coupling of light
- H01S5/02253—Out-coupling of light using lenses
Abstract
Description
본 발명은 대상공간 내에서 물체 등의 3차원 좌표정보를 회전 또는 2대 이상의 장치 연동 등의 필요없이 넓은 수평방향 각도범위(예컨대, 360도 등)로 제공할 수 있는, 이미지 분석 기반의 3차원 라이다 장치에 관한 것이다. The present invention is an image analysis-based 3D image analysis capable of providing 3D coordinate information of an object in a target space in a wide horizontal angular range (eg, 360 degrees, etc.) without the need for rotation or interlocking of two or more devices. It's about lidar devices.
레이저(Light Amplification by the Stimulated Emission of Radiation, LASER)는 유도방출(stimulated emission)에 의해 증폭된 빛으로, 전자공학, 광통신, 의약학, 국방분야 등 많은 분야에서 활용되고 있다.A laser (Light Amplification by the Stimulated Emission of Radiation, LASER) is light amplified by stimulated emission, and is used in many fields such as electronics, optical communication, medicine and pharmacy, and national defense.
또한, 라이다(Light Detection and Ranging, LiDAR) 장치는 레이저를 이용하여 대상체까지의 거리를 측정하는 기술을 말하며, 최근 자율주행 자동차, 이동 로봇, 드론 등의 핵심 기술로 주목을 받고 있다.In addition, a LiDAR (Light Detection and Ranging) device refers to a technology for measuring a distance to an object using a laser, and has recently been attracting attention as a core technology for autonomous vehicles, mobile robots, drones, and the like.
최근 라이다 장치는, 소정 대상공간 내에서 사람 또는 물체에 대한 정확한 감지가 요구되는 보안 분야, 안전상 움직임이 감지되는지 관제할 필요가 있는 스마트 팩토리 등의 분야, 근거리의 물체나 지형을 감지하여 거리/방향을 스스로 찾아가는 무인 이동체(AGV, 무인로봇 등) 분야, 가상현실(VR) 서비스 분야 등에서 폭넓은 활용이 기대되고 있다.Recently, lidar devices are used in security fields that require accurate detection of people or objects within a certain target space, fields such as smart factories that need to control whether safety movements are detected, and distance// It is expected to be widely used in the field of unmanned mobile vehicles (AGVs, unmanned robots, etc.) that find their own direction, and the field of virtual reality (VR) service.
그러나, 종래의 라이다 장치는 레이저의 비행시간을 통한 거리를 산출하는 TOF(Time of Flight) 방식을 적용하므로, 고정밀도 및 고해상도의 측정이 가능한 장점이 있으나, 가격이 비싸고, 전체 장치 크기가 크다는 등의 단점이 존재한다.However, since the conventional lidar device applies the Time of Flight (TOF) method that calculates the distance through the time of flight of the laser, it has the advantage of being able to measure with high precision and high resolution, but the price is expensive and the overall device size is large. There are disadvantages such as
도1a는 대상공간 내에서 물체 등의 2차원 좌표정보를 얻기 위한 종래의 회전 미러형 스캔 타입의 2차원 TOF 방식 라이다 장치(1)를 예시하는데, 이 장치에서는 미러의 회전에 의해 레이저 빔(B)이 대략 수평방향 180도 범위에서 스캔된다. 또한, 도1b는 4채널의 2차원 수직 배치형 TOF 방식 라이다 장치(2)를 예시하는데, 이 장치는 4채널의 라인 레이저(C)를 이용한다.1A illustrates a conventional rotating mirror scan type 2D TOF
이러한 종래기술의 라이다 장치들은 TOF 방식이 갖는 고가, 대형이라는 문제점 이외에도, 넓은 수평방향 각도범위(가령 360도)에서 대상공간 내 물체 등의 2차원 또는 3차원 좌표정보를 제공하지 못하므로 대상공간 내에 사각지대가 발생하게 된다는 한계가 있다.In addition to the high cost and large size of the TOF method, these prior art lidar devices do not provide 2D or 3D coordinate information such as objects in the target space in a wide horizontal angular range (eg 360 degrees), so the target space There is a limit that blind spots occur within.
도1c의 라이다 장치(3)는 거리측정 TOF 모듈(4) 전체가 회전 모터 제어를 통해 회전하면서 수직으로 소정 각도로 배치된 2차원 라이다를 회전시키는 방식으로, 360도의 넓은 수평방향 각도범위의 3차원 좌표정보를 얻을 수 있어 대상공간 내에 사각지대가 발생하는 문제점은 해결되지만, 회전 모터 구동을 위한 제어 회로 등이 장치 내에 구비되어야 하며, 이 역시 TOF 방식으로서 가격이 비싸고, 전체 장치 크기가 커진다는 등의 단점을 갖고 있다.In the LiDAR
한편, TOF 방식의 문제점을 극복하고 저가, 소형의 라이다 장치를 구현하기 위하여, 이미지센서 소자 등에 의해 얻어진 이미지를 분석하여 대상 공간 내의 물체 등의 3차원 좌표정보를 도출하는 방식의 라이다 장치가, 본 발명자에 의해 도 1d와 같이 제안된 바 있다(출원 번호: 10-2020-0169382). 그러나 이 경우, 대상공간 내에서 물체 등의 3차원 좌표정보 분석이 가능하지만, 제공되는 수평방향 각도범위가 100~180도 정도에 지나지 않아 대상공간 내에 사각지대가 발생하게 되고, 그러한 문제점을 해결하기 위해서는 2대 이상의 장치를 연동하여 사용하여야만 한다는 한계가 있다.On the other hand, in order to overcome the problems of the TOF method and implement a low-cost, small-sized lidar device, a lidar device of a method of deriving 3-dimensional coordinate information such as an object in the target space by analyzing an image obtained by an image sensor element, etc. , has been proposed by the present inventors as shown in FIG. 1d (Application No.: 10-2020-0169382). However, in this case, although it is possible to analyze 3D coordinate information such as an object within the target space, the provided horizontal angular range is only about 100 to 180 degrees, resulting in blind spots within the target space, and it is difficult to solve such a problem. However, there is a limitation that two or more devices must be used in conjunction with each other.
따라서, 본 발명은, 대상공간 내에 사각지대의 발생을 없애거나 최소화할 수 있도록, 넓은 수평방향 각도범위(예컨대, 360도 등)의 3차원 좌표정보를 생성할 수 있는, 이미지 분석 기반의 3차원 라이다 장치를 제공하기 위한 것이다.Therefore, the present invention is an image analysis-based 3D coordinate information capable of generating 3D coordinate information in a wide horizontal angular range (eg, 360 degrees, etc.) so as to eliminate or minimize the occurrence of blind spots in the target space. It is to provide a lidar device.
본 발명은, 넓은 수평방향 각도범위(예컨대, 360도 등)의 3차원 좌표정보를 회전 또는 2대 이상의 장치 연동 등의 필요 없이 생성할 수 있는, 이미지 분석 기반의 3차원 라이다 장치를 제공하기 위한 것이다.The present invention provides an image analysis-based 3D lidar device capable of generating 3D coordinate information in a wide horizontal angular range (eg, 360 degrees, etc.) without the need for rotation or linkage of two or more devices. it is for
본 발명은, 어안렌즈 사용시 발생할 수 있는 이미지 왜곡을 용이하게 보정할 수 있는 전방위 무회전 3차원 라이다 장치를 제공하기 위한 것이다.The present invention is to provide an omnidirectional non-rotating 3D lidar device capable of easily correcting image distortion that may occur when a fisheye lens is used.
본 발명은, 저가, 소형의 이미지센서 방식의 라이다 장치를 통해 넓은 수평방향 각도범위의 3차원 좌표정보의 효율적인 생성이 가능하도록 함으로써, 보안, 스마트 팩토리, 무인 이동체(AGV, 무인로봇 등), 가상현실(VR) 서비스 등의 분야에서 더욱 폭넓게 활용될 수 있는 방안을 제공하기 위한 것이다.The present invention enables efficient generation of three-dimensional coordinate information in a wide horizontal angular range through a low-cost, small-sized image sensor type lidar device, thereby enabling security, smart factories, unmanned mobile vehicles (AGV, unmanned robots, etc.), It is intended to provide a method that can be used more widely in the field of virtual reality (VR) services.
본 발명의 일 실시예에 의한 라이다 장치는, 대상공간 내의 전체 360도의 수평방향 각도범위 중에서 각각 상이한 수평방향 각도범위를 커버하도록 배열되는 복수개의 라인 레이저를 출력하는 레이저광원부; 상기 대상공간 내에서 상기 복수개의 라인 레이저의 반사에 의해 형성되는 이미지를 감지하여 검출이미지를 생성하는 이미지센서부; 및 상기 검출이미지를 처리하여 상기 복수의 라인 레이저에 대응하는 레이저 패턴을 추출하는 이미지처리부를 포함할 수 있다. LiDAR device according to an embodiment of the present invention, a laser light source unit for outputting a plurality of line lasers arranged to cover different horizontal angular ranges, respectively, among a total 360 degree horizontal angular range in a target space; an image sensor unit generating a detection image by sensing an image formed by reflection of the plurality of line lasers within the target space; And it may include an image processing unit for processing the detection image to extract a laser pattern corresponding to the plurality of line lasers.
여기서, 상기 레이저광원부는, 상기 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함하고, 상기 복수개의 라인 레이저는 수평방향에서 방사상으로 배치되는 것일 수 있다. Here, the laser light source unit may include a plurality of laser modules outputting the plurality of line lasers, and the plurality of line lasers may be radially arranged in a horizontal direction.
여기서 상기 레이저광원부는, 상기 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함하고, 상기 복수개의 라인 레이저가 커버하는 각각의 수평방향 각도범위를 합치면 상기 대상공간 내의 전체 360도의 수평방향 각도범위가 커버되도록 상기 복수개의 레이저 모듈 각각의 설치방향을 설정하는 것일수 있다. Here, the laser light source unit includes a plurality of laser modules that output the plurality of line lasers, and when the horizontal angular ranges covered by the plurality of line lasers are added together, a total 360-degree horizontal angular range within the target space is obtained. It may be to set the installation direction of each of the plurality of laser modules to be covered.
여기서 상기 레이저 모듈은, 도트(dot) 레이저를 출력하는 레이저 다이오드; 및 상기 도트 레이저를 상기 라인 레이저로 변환하는 1차 렌즈를 포함할 수 있다. Here, the laser module includes a laser diode outputting a dot laser; and a primary lens that converts the dot laser into the line laser.
여기서 상기 레이저광원부는, 상기 복수개의 레이저 모듈을 내부에 포함하고, 상기 라인 레이저의 수평방향 각도범위를 확장시키는 2차 렌즈를 더 포함할 수 있으며, 상기 2차 렌즈는 비구면 렌즈일 수 있다. Here, the laser light source unit may further include a secondary lens including the plurality of laser modules therein and extending an angular range of the line laser in a horizontal direction, and the secondary lens may be an aspherical lens.
여기서 상기 레이저 모듈은, 도트 레이저를 출력하는 복수의 레이저 다이오드; 상기 복수의 레이저 다이오드 각각의 수직방향 각도를 미리 설정된 각도로 고정시키는 홀더; 및 상기 복수의 레이저 다이오드 각각에 개별적으로 구비되어, 상기 도트 레이저를 상기 라인 레이저로 변환하는 1차 렌즈를 포함할 수 있다. Here, the laser module includes a plurality of laser diodes outputting dot lasers; a holder for fixing a vertical angle of each of the plurality of laser diodes to a preset angle; and a primary lens individually provided on each of the plurality of laser diodes to convert the dot laser into the line laser.
여기서 상기 레이저광원부는, 전방으로 라인 레이저를 출력하는 제1 레이저 모듈; 및 후방으로 라인 레이저를 출력하는 제2 레이저 모듈을 포함하고, 상기 제1 레이저 모듈 및 제2 레이저 모듈은 각각 전방 180도, 후방 180도의 수평방향 각도범위를 커버하는 라인 레이저를 출력하여, 상기 대상공간 내의 전체 360도의 수평방향 각도범위가 커버되도록 라인 레이저를 출력할 수 있다. Here, the laser light source unit, a first laser module for outputting a line laser forward; and a second laser module for outputting a line laser backward, wherein the first laser module and the second laser module output line lasers covering a horizontal angular range of 180 degrees forward and 180 degrees backward, respectively, so that the target The line laser can be output so that the entire horizontal angular range of 360 degrees within the space is covered.
여기서 상기 레이저광원부는, 상기 제1 레이저 모듈 및 제2 레이저 모듈을 내부에 포함하며, 상기 라인 레이저들의 수평방향 각도범위를 180도로 확장시키는 2차 렌즈를 포함할 수 있다. Here, the laser light source unit includes the first laser module and the second laser module therein, and may include a secondary lens that expands an angular range of the line lasers in a horizontal direction by 180 degrees.
여기서 상기 이미지센서부는, 상기 대상공간 내에서 상기 복수개의 라인 레이저의 반사에 의해 형성되는 이미지를 감지하는 어안렌즈를 포함할 수 있다. Here, the image sensor unit may include a fish-eye lens that senses an image formed by reflection of the plurality of line lasers within the target space.
여기서 상기 이미지센서부는, 상기 어안렌즈를 복수개 포함하고, 상기 대상공간 내의 전체 360도의 수평방향 각도범위로부터 얻어지는 상기 라인 레이저들에 의한 이미지를 포착하도록, 상기 복수개 어안렌즈 각각의 설치방향을 설정할 수 있다. Here, the image sensor unit may include a plurality of fisheye lenses, and may set an installation direction of each of the plurality of fisheye lenses to capture an image by the line lasers obtained from a horizontal angular range of 360 degrees in the target space. .
여기서 상기 이미지처리부는, 상기 어안렌즈에 의해 포착된이미지에 나타나는 이미지 왜곡을 보정할 수 있다. Here, the image processing unit may correct image distortion appearing in the image captured by the fish-eye lens.
여기서 상기 이미지처리부는, 상기 검출이미지를 임계값을 기준으로 이진화하여 이진 이미지를 생성하고, 상기 이진 이미지로부터 상기 라인 레이저에 대응하는 레이저 패턴을 추출하되, 상기 이진 이미지 생성은, 상기 검출이미지 중 이미지 왜곡에 의해 픽셀 데이터가 부족한 영역에 대하여 가상 픽셀들을 추가하고, 상기 임계값을 점차 증가시키면서, 각각의 상기 임계값을 기준으로 얻어지는 이진 이미지의 각 픽셀값들로부터 상기 가상 픽셀들의 이진 이미지 픽셀값들을 도출하여, 픽셀 데이터의 부족을 상기 가상 픽셀들의 이진 이미지 픽셀값들로 보충한 최종 이진 이미지를 얻는 것일 수 있다.Here, the image processing unit generates a binary image by binarizing the detection image based on a threshold value, and extracts a laser pattern corresponding to the line laser from the binary image, Virtual pixels are added for regions where pixel data is insufficient due to distortion, and while the threshold value is gradually increased, the binary image pixel values of the virtual pixels are obtained from each pixel value of the binary image obtained based on each threshold value. By deriving, a final binary image may be obtained by supplementing the lack of pixel data with binary image pixel values of the virtual pixels.
덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.In addition, the solution to the above problem does not enumerate all the features of the present invention. Various features of the present invention and the advantages and effects thereof will be understood in more detail with reference to specific embodiments below.
본 발명의 일 실시예에 의한 라이다 장치는, 저가, 소형인 이미지센서 방식의 라이다 장치로도 넓은 수평방향 각도범위(예컨대, 360도 등)의 3차원 좌표정보를 생성할 수 있으므로, 대상공간 내에 사각지대의 발생을 없애거나 최소화할 수 있어, 보안, 실내공간 안전, 로봇, VR 서비스 등의 분야에 널리 활용될 수 있다.Since the lidar device according to an embodiment of the present invention can generate 3D coordinate information in a wide horizontal angular range (eg, 360 degrees, etc.) even with a low-cost, small-sized image sensor type lidar device, the target It can eliminate or minimize the occurrence of blind spots in space, so it can be widely used in areas such as security, indoor space safety, robots, and VR services.
본 발명의 일 실시예에 의한 라이다 장치에 의하면, 회전모터 구동 또는 2대 이상의 장치 연동 등의 필요 없이 대상공간 내 물체 등의 3차원 좌표 정보를 용이하게 얻을 수 있게 된다.According to the lidar device according to an embodiment of the present invention, it is possible to easily obtain 3D coordinate information of an object in a target space without the need for driving a rotary motor or linking two or more devices.
본 발명의 일 실시예에 의한 라이다 장치에 의하면, 어안렌즈 사용시 발생할 수 있는 이미지 왜곡을 보정하여, 대상공간 내 물체 등에 대한 정확한 3차원 좌표정보를 생성하는 것이 가능하다.According to the LiDAR device according to an embodiment of the present invention, it is possible to generate accurate 3D coordinate information about an object in a target space by correcting image distortion that may occur when a fisheye lens is used.
도1a는 종래기술의 회전 미러형 스캔 타입의 2차원 TOF 방식 라이다 장치를 예시하는 개략도이다.
도1b는 종래기술의 4채널의 2차원 수직 배치형 TOF 방식 라이다 장치를 예시하는 개략도이다.
도1c는 종래기술의 거리측정 TOF 모듈 전체가 회전 모터 제어를 통해 회전하면서 수직으로 배치된 2차원 라이다를 회전시키는 방식의 라이다 장치를 예시하는 개략도이다.
도1d는 저가, 소형의 라이다 장치 구현을 위해, 이미지 센서 소자 등에 의해 얻어진 이미지를 분석하여 대상 공간 내의 물체 등의 3차원 좌표정보를 도출하는 이미지 기반의 라이다 장치를 예시한다.
도2는 본 발명의 일 실시예에 의한 3차원 라이다 장치를 나타내는 블록도이다.
도3은 본 발명의 일 실시예에 의한 3차원 라이다 장치를 이용한 대상공간 내 라인 레이저의 방출을 나타내는 개략도이다.
도4는 본 발명의 일 실시예에 의한 레이저 모듈을 포함하는 레이저광원부를 나타내는 예시도이다.
도5는 본 발명의 다른 실시예에 의한 레이저 모듈을 포함하는 레이저광원부를 나타내는 예시도이다.
도6은 본 발명의 일 실시예에 의한 레이저 모듈 및 2차 렌즈를 포함하는 레이저광원부를 나타내는 예시도이다.
도7은 본 발명의 일 실시예에 의한 레이저 모듈을 나타내는 개략도이다.
도8은 본 발명의 일 실시예에 의한 검출 이미지의 왜곡을 나타내는 예시도이다.
도9는 본 발명의 일 실시예에 의한 이진 이미지 내의 왜곡영역을 나타내는 예시도이다.
도10은 본 발명의 일 실시예에 의한 이미지 왜곡을 보정한 이진 이미지를 나타내는 예시도이다.
도11은 본 발명의 일 실시예에 의한 다중 임계값을 이용한 이미지 왜곡 보정을 설명하기 위한 예시도이다.
도12는 대상공간 내 물체가 위치하는 경우의 이진 이미지를 나타내는 예시도이다.
도13은 이진 이미지에서 기준 패턴을 제거한 예시도이다.
도14는 하나의 라인 레이저의 수직방향 각도를 조절하여 순차적으로 대상 공간 내에 조사한 이진 이미지를 나타내는 예시도이다.
도15는 복수의 라인 레이저의 수직방향 각도를 조절하여 순차적으로 대상 공간 내에 조사한 이진 이미지를 나타내는 예시도이다.
도16은 본 발명의 일 실시예에 의한 이진 이미지를 이용한 대상 공간 내 객체검출을 나타내는 예시도이다.
도17은 본 발명의 일 실시예에 의한 라이다 장치를 이용하여 생성한 3차원 좌표 정보를 나타내는 예시도이다.1A is a schematic diagram illustrating a conventional rotating mirror scan type two-dimensional TOF type LiDAR device.
Figure 1b is a schematic diagram illustrating a prior art 4-channel, 2-dimensional vertically-arranged TOF type lidar device.
Figure 1c is a schematic diagram illustrating a lidar device of a method of rotating a vertically arranged two-dimensional lidar while the entire distance measuring TOF module of the prior art rotates through rotation motor control.
1D illustrates an image-based lidar device that derives three-dimensional coordinate information of an object in a target space by analyzing an image obtained by an image sensor device, etc., in order to implement a low-cost, small-sized lidar device.
Figure 2 is a block diagram showing a three-dimensional lidar device according to an embodiment of the present invention.
3 is a schematic diagram showing emission of a line laser in a target space using a 3D LIDAR device according to an embodiment of the present invention.
4 is an exemplary view showing a laser light source including a laser module according to an embodiment of the present invention.
5 is an exemplary view showing a laser light source including a laser module according to another embodiment of the present invention.
6 is an exemplary view showing a laser light source including a laser module and a secondary lens according to an embodiment of the present invention.
7 is a schematic diagram showing a laser module according to an embodiment of the present invention.
8 is an exemplary diagram illustrating distortion of a detected image according to an embodiment of the present invention.
9 is an exemplary view showing a distortion area in a binary image according to an embodiment of the present invention.
10 is an exemplary diagram illustrating a binary image in which image distortion is corrected according to an embodiment of the present invention.
11 is an exemplary diagram for explaining image distortion correction using multiple thresholds according to an embodiment of the present invention.
12 is an exemplary diagram illustrating a binary image when an object is located in a target space.
13 is an exemplary diagram in which a reference pattern is removed from a binary image.
14 is an exemplary view showing binary images sequentially irradiated into a target space by adjusting the vertical direction angle of one line laser.
15 is an exemplary diagram illustrating binary images sequentially irradiated into a target space by adjusting vertical angles of a plurality of line lasers.
16 is an exemplary diagram illustrating object detection in a target space using a binary image according to an embodiment of the present invention.
17 is an exemplary diagram illustrating three-dimensional coordinate information generated using a LIDAR device according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and actions.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 명세서에 기재된 "~부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case where it is 'directly connected', but also the case where it is 'indirectly connected' with another element in between. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components unless otherwise stated. In addition, terms such as “~unit” and “module” described in the specification refer to a unit that processes at least one function or operation, and may be implemented as hardware or software or a combination of hardware and software.
도2는 본 발명의 일 실시예에 의한 라이다 장치를 나타내는 블록도이고, 도3은 본 발명의 일 실시예에 의한 라이다 장치를 이용한 대상공간 내 라인 레이저의 방출을 나타내는 개략도이다. Figure 2 is a block diagram showing a lidar device according to an embodiment of the present invention, Figure 3 is a schematic diagram showing the emission of a line laser in the target space using the lidar device according to an embodiment of the present invention.
도2 및 도3을 참조하면, 본 발명의 일 실시예에 의한 라이다 장치(100)는 레이저광원부(110), 이미지센서부(120) 및 이미지처리부(130)를 포함할 수 있다.Referring to Figures 2 and 3, the
이하, 도2 및 도3를 참조하여 본 발명의 일 실시예에 의한 라이다 장치(100)에 관해 설명한다.Hereinafter, a
레이저광원부(110)는 대상공간(A) 내의 전체 360도의 수평방향 각도범위 중에서 각각 상이한 수평방향 각도범위를 커버하도록 배열된 복수개의 라인 레이저(Line Laser)를 출력할 수 있다. 여기서, 레이저광원부(110)는 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함할 수 있으며, 레이저 모듈에서 출력되는 복수개의 라인 레이저들은 수평방향에서 방사상으로 배치될 수 있다. 이때, 복수개의 라인 레이저들이 커버하는 수평방향 각도범위들을 합치면, 대상공간(A) 내의 전체 360도의 수평방향 각도범위가 커버되도록 구현하는 것도 가능하다.The laser
즉, 도4 및 도5에 도시한 바와 같이, 레이저광원부(110)는 복수개의 레이저 모듈(10)들을 포함할 수 있으며, 레이저광원부(110) 내 레이저 모듈(10)들은, 각각의 라인 레이저(L)들이 라이다 장치(100)의 주변 360도 방위로 출력되도록 설치방향이 설정될 수 있다.That is, as shown in FIGS. 4 and 5, the laser
여기서, 레이저 모듈(10)은 레이저 다이오드(11) 및 1차 렌즈(12)를 포함할 수 있다. 레이저 다이오드(11)는 단면이 점 형상인 도트(dot) 레이저를 출력할 수 있으며, 1차 렌즈(12)는 각각의 레이저 다이오드(11)에 개별적으로 구비될 수 있으며, 레이저 다이오드(11)에서 출력되는 도트 레이저를 라인 레이저로 변환시킬 수 있다. 즉, 1차 렌즈(12)는 도트 레이저를 수평방향으로 평행한 라인 레이저 형태로 변환할 수 있으며, 이 경우 1차 렌즈(12)는 수평방향으로 100 내지 120도 범위로 출력되는 라인 레이저를 생성할 수 있다.Here, the
도4와 같이, 전방으로 라인 레이저를 출력하는 제1 레이저 모듈과, 후방으로 라인 레이저를 출력하는 제2 레이저 모듈을 이용하여 레이저광원부(110)를 구현하는 경우에는, 제1 레이저 모듈 및 제2 레이저 모듈은 각각 전방 180도와 후방 180도의 수평방향 각도범위를 커버하는 라인 레이저를 출력할 수 있다. 즉, 대상공간(A) 내의 전체 360도의 수평방향 각도범위가 커버되도록 라인 레이저를 출력할 수 있다. As shown in FIG. 4, when the laser
또한, 도5에 도시한 바와 같이 4개의 레이저 모듈을 이용하여 360도 범위의 라인 레이저를 출력하도록 하는 것도 가능하며, 이 경우, 각각의 레이저 모듈들은 적어도 90도의 수평방향 각도범위를 커버하도록 라인 레이저를 출력할 수 있다. 이때, 이들 라인 레이저들이 전체 360도를 커버하도록 4개의 레이저 모듈들의 설치방향이 설정될 수 있다.In addition, as shown in FIG. 5, it is also possible to use four laser modules to output line lasers in a range of 360 degrees. In this case, each laser module covers a horizontal angular range of at least 90 degrees. can output At this time, the installation direction of the four laser modules may be set so that these line lasers cover the entire 360 degrees.
이외에도 레이저광원부(110) 내에 포함되는 레이저 모듈(10)의 개수는 실시예에 따라 다양하게 변경가능하다.In addition, the number of
다만, 도4와 같이 2개의 레이저 모듈(10)을 이용하는 경우에는, 레이저 모듈(10)에서 출력된 라인 레이저들이 360도를 충분히 커버하지 못하는 경우가 발생할 수 있다. 이를 방지하기 위하여, 본 발명의 일 실시예에 의한 라이다 장치는, 도6에 도시한 바와 같이 2차 렌즈(20)를 더 구비하여, 라인 레이저의 수평방향 각도범위를 확장시킬 수 있다.However, when two
2차 렌즈(20)는 내부에 복수의 레이저 모듈(10)들이 포함되도록 일체형으로 형성될 수 있으며, 2차 렌즈(20)를 통하여 방출되는 각각의 라인 레이저들은 수평방향으로 각도범위가 확장될 수 있다. 여기서, 2차 렌즈(20)는 1차 렌즈(12)를 통하여 라인 레이저들이, 180도 각도범위로 확장되도록 설계된 것일 수 있다.The
한편, 도7에 도시한 바와 같이, 각각의 레이저 모듈(10) 내에는 복수의 레이저 다이오드(11)가 수직방향으로 배열되어 있을 수 있다. 여기서, 홀더(13)는 복수의 레이저 다이오드(11)들의 수직방향 각도를 각각 미리 설정된 각도로 고정시키므로, 라이다 장치(100)는 미리 설정된 각각의 수직방향 각도로 복수의 라인 레이저들을 출력하는 것이 가능하다. 즉, 실시예에 따라서는, 레이저광원부(110)가 단일 채널이 아니라 복수의 채널로 대상공간(A)을 스캐닝할 수 있다. 이때, 2차 렌즈(20)는, 각각의 레이저 다이오드(11)에서 출력되는 라인 레이저들이 개별적으로 수평방향으로 확장되도록 설계될 수 있으므로, 1개의 2차 렌즈(20)로 다채널의 라인 레이저를 지원하는 것이 가능하다. Meanwhile, as shown in FIG. 7, a plurality of
추가적으로, 2차 렌즈(20)는 비구면 렌즈일 수 있다. 이 경우, 레이저 다이오드(11)에서 출력된 라인 레이저들은 2차 렌즈(20)에서 굴절되거나 각도가 변하지 않고 평행하게 유지하면서 발산할 수 있다. Additionally, the
여기서, 레이저광원부(110)가 출력하는 라인 레이저의 파장은 미리 설정될 수 있으며, 실시예에 따라서는 라인 레이저의 파장을 적외선 파장 영역으로 설정하는 것도 가능하다. 즉, 적외선의 라인 레이저를 조사하도록 하여, 대상공간(A) 내 위치하는 사람들은 라인 레이저를 인식하지 못하도록 할 수 있다. Here, the wavelength of the line laser output from the laser
또한, 라인 레이저는 Eye-safety 1 class 기준을 충족하도록 에너지 설계될 수 있다. 예를 들어, 레이저광원부(110)는 미리 설정된 에너지 설계에 따라 펄스형으로 레이저 광을 방출할 수 있으며, 이를 통해 대상공간(A) 내에 방출된 라인 레이저에 의해 유발되는 눈 상해 등의 사고 위험을 최소화할 수 있다. Also, line lasers can be energy designed to meet Eye-
한편, 라인 레이저가 출력되는 대상공간(A)은, 가정집이나 상점 등의 경비구역이나, 주행 또는 주차 중인 차량의 주변공간 등일 수 있다. 다만, 이에 한정되는 것은 아니며, 라이다 장치(100)가 설치되어 라인 레이저를 조사할 수 있는 공간이면 어떠한 공간도 그에 해당할 수 있다.On the other hand, the target space (A) where the line laser is output may be a security area such as a private house or a store, or a space around a driving or parked vehicle. However, it is not limited thereto, and any space may correspond thereto as long as the space in which the
이미지센서부(120)는 대상공간(A) 내에서 반사된 라인 레이저를 감지하여, 검출이미지를 생성할 수 있다. 이미지센서부(120)는 소정의 형태로 배열된 복수의 픽셀들을 포함할 수 있으며, 대상공간(A) 내의 빛을 각 픽셀들의 픽셀값을 통해 감지하여 검출이미지를 생성할 수 있다. 예를들어, 이미지센서부(120)는 CCD(Charge-Coupled Device) 센서 또는 CMOS(Complementary Metal-Oxide Semiconductor) 센서 등의 센서 어레이로 구현할 수 있으며, 대상공간(A) 내에서 감지되는 빛을 전기적 신호로 변환할 수 있다. 즉, 대상공간(A) 내에서 반사된 라인 레이저의 휘도값을 대응하는 각각의 픽셀들의 픽셀값으로 변환하여, 2차원의 검출이미지를 생성할 수 있다.The
여기서, 이미지센서부(120)는 어안렌즈(미도시)를 포함할 수 있으며, 어안렌즈를 이용하여 대상공간(A) 내에서 복수개의 라인 레이저의 반사에 의해 형성되는 이미지를 감지할 수 있다. 즉, 레이저광원부(110)에서 출력되는 360도 전방위의 라인 레이저를 동시에 입력받기 위하여, 이미지센서부(120)는 어안렌즈를 활용할 수 있다. 실시예에 따라서는, 복수의 어안렌즈를 이용하는 것도 가능하며, 어안렌즈들의 설치방향을 설정하여 대상공간(A) 내 전체 360도의 수평방향 각도범위로부터 얻어지는 라인 레이저들에 의한 이미지를 포착하도록 구현할 수 있다.Here, the
예를들어, 대상공간(A)에 대한 180도 범위의 라인 레이저에 의한 이미지를 감지할 수 있는 어안렌즈 2개를 서로 맞닿도록 배치하여, 전체 360도에 대한 이미지를 포착하도록 할 수 있다. 실시예에 따라서는, 이미지센서부(120)가 복수의 어안렌즈로부터 입력되어 생성된 각각의 검출이미지들을 합성하여 하나의 검출이미지로 생성하는 것도 가능하다.For example, two fish-eye lenses capable of detecting an image of a line laser in a range of 180 degrees of the target space A may be disposed so as to come into contact with each other so as to capture images of the entire 360 degrees. Depending on the embodiment, it is also possible for the
이미지처리부(130)는 검출이미지를 처리하여 복수의 라인 레이저에 대응하는 레이저 패턴을 추출할 수 있다. 실시예에 따라서는, 이미지처리부(130)가 검출이미지를 임계값을 기준으로 이진화하여 이진 이미지를 생성하고, 이진 이미지로부터 라인 레이저에 대응하는 레이저 패턴을 추출하는 것도 가능하다. 여기서, 레이저 패턴을 이용하면, 대상공간(A) 내 객체까지의 거리를 측정할 수 있으며, 실시예에 따라서는, 대상공간(A) 내의 각각의 지점들에 대한 좌표정보를 생성하여 대상공간(A)에 대한 3차원 좌표지도를 생성하는 것도 가능하다.The
구체적으로, 이미지처리부(130)는 이진 이미지 내에 나타난 레이저 패턴의 수평위치와 수직위치를 이용하여 각각의 지점들에 대한 x축 좌표와 y축 좌표를 생성할 수 있다. 또한, 레이저광원부(110)와 이미지센서부(120) 사이의 기하학적인 거리와 각도 등을 이용한 삼각측량법을 활용하면 해당 지점까지의 거리를 측정할 수 있으므로, 이를 활용하여 각각의 지점들에 대한 z축 좌표를 생성할 수 있다. 즉, 이미지처리부(130)는 대상공간(A) 내의 각 지점에 대한 3차원 좌표를 생성할 수 있으며, 각각의 3차원 좌표들을 취합하여 대상공간(A)에 대한 3차원 좌표지도를 생성할 수 있다.Specifically, the
다만, 본 발명의 일 실시예에 의한 이미지센서부(120)는 어안렌즈를 이용하여 검출이미지를 생성하므로, 도8에 도시한 바와 같이 검출이미지 내에 이미지 왜곡이 포함될 수 있다. 이 경우, 도9에 도시한 바와 같이, 검출이미지로부터 생성한 이진 이미지에도 이미지 왜곡이 반영되어 나타나게 된다. 여기서, 도8의 검출이미지에 대한 이미지 처리를 통하여 이미지 왜곡을 보정하는 것도 가능하지만, 이 경우 이진 이미지에 비하여 처리해야할 데이터량이 많으므로, 이진 이미지에 대한 이미지 처리를 수행하여 이미지 왜곡을 수행하는 것이 바람직하다.However, since the
구체적으로, 도8을 참조하면, P1 영역과 P2 영역은 실제 대상공간(A) 내에서는 동일한 크기의 영역에 해당하지만, 어안 렌즈에 의한 이미지 왜곡으로 인하여, 검출이미지 내에서는 P1 영역과 P2 영역의 크기가 상이하게 나타날 수 있다. 이 상태에서 이진화를 수행하면 도9에 도시한 바와 같이 나타날 수 있다. 이 경우, 대상공간(A) 내 수평방향으로 평행하게 출력된 라인 레이저(L)도 이진 이미지 상에서 휘어진 형태로 왜곡되어 나타남을 확인할 수 있다. 도9을 참조하면, P1영역과 P2영역의 경우 실제 동일한 크기의 영역에 해당하지만 이를 나타내기 위해 사용된 수직방향의 픽셀의 개수가 상이함을 확인할 수 있다. 즉, 이미지 왜곡에 의하여 P1 영역에 대한 픽셀 데이터가 P2 영역에 비하여 누락되어 있는 것이므로, 보정을 위해서는 P1 영역에 대한 픽셀 데이터를 보간 등을 통하여 추가할 필요가 있다. 이후, 이미지처리부(130)에서 이미지 왜곡에 대한 보정이 완료되면, 도9의 이진 이미지로부터 도10의 이진 이미지를 생성할 수 있다.Specifically, referring to FIG. 8, the P1 area and the P2 area correspond to areas of the same size in the actual target space (A), but due to the image distortion caused by the fisheye lens, the P1 area and the P2 area are separated in the detection image. Sizes may appear different. If binarization is performed in this state, it may appear as shown in FIG. 9 . In this case, it can be confirmed that the line laser L outputted in parallel in the horizontal direction within the target space A is also distorted in a curved form on the binary image. Referring to FIG. 9, it can be seen that the P1 area and the P2 area actually correspond to areas of the same size, but the number of pixels in the vertical direction used to represent them is different. That is, since pixel data for area P1 is missing compared to area P2 due to image distortion, it is necessary to add pixel data for area P1 through interpolation or the like for correction. Thereafter, when correction for image distortion is completed in the
실시예에 따라서는, 이미지처리부(130)가 검출이미지 중 이미지 왜곡에 의해 픽셀 데이터가 부족한 영역에 대하여 가상 픽셀들을 추가할 수 있으며, 이후 임계값을 점차 증가시키면서, 각각의 임계값을 기준으로 얻어지는 이진 이미지의 각 픽셀값들로부터 가상 픽셀들의 이진 이미지 픽셀값들을 도출할 수 있다. 즉, 이미지처리부(130)는 픽셀 데이터의 부족을 가상 픽셀들의 이진 이미지 픽셀값들로 보충한 최종 이진 이미지를 생성함으로써, 이진 이미지에 대한 이미지 왜곡을 보정할 수 있다.Depending on the embodiment, the
보다 구체적으로는, 예컨대 도9에서 픽셀 데이터가 부족하지 않은 영역(P2)에 대응되는 도8의 검출이미지 영역의 픽셀이 6개이고, 각각의 픽셀값이 255, 30, 24, 12, 6, 3인 경우를 가정하면, 임계값을 150으로 설정하면 255의 픽셀값을 갖는 픽셀만 임계값을 넘으므로 해당 픽셀에만 1의 이진값이 주어지고, 나머지 픽셀들은 임계값을 넘지 못하므로 0의 이진값이 주어져, 레이저 패턴을 높은 해상도로 정확히 구별해 낼 수 있는 이진 이미지를 얻을 수 있게 된다.More specifically, for example, there are 6 pixels in the detection image area of FIG. 8 corresponding to the area P2 in which the pixel data is not insufficient in FIG. 9, and each pixel value is 255, 30, 24, 12, 6, 3 , if the threshold is set to 150, only the pixel with a pixel value of 255 crosses the threshold, so only that pixel is given a binary value of 1, and the rest of the pixels do not cross the threshold, so a binary value of 0. Given this, it is possible to obtain a binary image capable of accurately distinguishing a laser pattern with high resolution.
그러나, 도9에서 이미지의 왜곡에 의해 영역이 축소됨에 띠라 픽셀 데이터가 부족한 영역(P1)의 경우는, 최종적으로 도10의 이진 이미지에서는 데이터가 부족하게 되는데, 예컨대 픽셀 데이터 부족 영역(P1)이 픽셀 데이터가 부족하지 않은 영역(P2)에 비하여 면적이 1/2이라면 픽셀의 개수도 1/2에 불과하게 된다. 도11은 이러한 상황을 예시한 것으로서, 도표 좌측 컬럼에서 상단으로부터 2~4번째의 3개 픽셀의 데이터(즉, 255, 40, 10)가 위에서 예시한 도9의 6개 픽셀의 데이터(즉, 255, 30, 24, 12, 6, 3)에 대응된다.However, in FIG. 9, as the area is reduced due to image distortion, in the case of the area P1 lacking pixel data, the binary image of FIG. 10 finally lacks data. If the area is 1/2 compared to the area P2 where the pixel data is not insufficient, the number of pixels is only 1/2. Fig. 11 illustrates this situation. In the left column of the chart, the data of 3 pixels in the 2nd to 4th rows from the top (i.e., 255, 40, 10) is the data of the 6 pixels of Fig. 9 illustrated above (i.e., 255, 40, 10). 255, 30, 24, 12, 6, 3).
도11의 도표 좌측 컬럼의 상단 1번째 픽셀과 맨 하단의 픽셀은 각각 80, 5의 픽셀값을 갖는데, 이들은 도8에서 위 3개 픽셀의 데이터에 인접한 픽셀의 데이터들이다. 즉, 도8의 픽셀 데이터가 부족한 영역(P1)의 수직방향의 픽셀 3개와 이에 상하로 각각 인접한 두개의 데이터가 순서대로 각각 80, 255, 40, 10, 5의 픽셀값을 갖는 경우를 예시한다. 이때, 도11의 도표 3, 5, 7, 9번째 컬럼에 도시된 바와 같이, 픽셀값이 255, 40, 10인 픽셀들을 각각 2개로 분할하여 총 6개의 가상픽셀을 형성할 수 있다.The first pixel at the top and the pixel at the bottom of the left column of the diagram in FIG. 11 have pixel values of 80 and 5, respectively, which are data of pixels adjacent to the data of the three pixels above in FIG. That is, a case in which three pixels in the vertical direction of the area P1 lacking pixel data in FIG. 8 and two data adjacent to the three pixels in the vertical direction respectively have pixel values of 80, 255, 40, 10, and 5, respectively, is exemplified. . At this time, as shown in the 3rd, 5th, 7th, and 9th columns of Table 11, a total of six virtual pixels may be formed by dividing pixels having pixel values of 255, 40, and 10 into two.
이러한 영역에 대한 이진 이미지를 얻기 위한 구체적인 처리 과정은, 먼저, 제1 임계값으로 20을 설정하여 80, 255, 40, 10, 5의 5개 픽셀값을 이진화할 수 있으며, 이 경우 각각의 픽셀값은 1, 1, 1, 0, 0으로 설정될 수 있다(도11의 도표 2번째 컬럼 참조). 여기서 제1 임계값의 경우, 노이즈 제거를 위한 최소한의 크기를 가지는 임계값일 수 있는데, 이 경우, 가상픽셀에 대한 픽셀값은 각각 1, 1, 1, 0.5, 0.5, 0으로 설정될 수 있다(도11의 도표 3번째 컬럼 참조). 즉, 인접하는 픽셀들의 이진화된 픽셀값의 평균을 이용하여 가상픽셀의 픽셀값을 설정할 수 있다.In the specific processing process for obtaining a binary image for this region, first, 20 is set as the first threshold value to
이후, 제2 임계값을 점차 상승시켜 50으로 설정하면 위의 5개 픽셀에 대한 각각의 픽셀값은 1, 1, 0, 0, 0으로 설정될 수 있으며(도11의 도표 4번째 컬럼 참조), 이때, 이전 단계와 동일한 방식으로 각각의 가상픽셀의 픽셀값은 1, 0.5, 0.5, 0, 0, 0으로 설정될 수 있다(도11의 도표 5번째 컬럼 참조).Then, if the second threshold value is gradually raised and set to 50, each pixel value for the above five pixels can be set to 1, 1, 0, 0, 0 (see the fourth column of the table in FIG. 11). , At this time, the pixel value of each virtual pixel may be set to 1, 0.5, 0.5, 0, 0, 0 in the same manner as in the previous step (see the fifth column of the table in FIG. 11).
계속하여, 제3 임계값으로 보다 상승시킨 100을 적용하면, 위의 5개 픽셀에 대한 각각의 픽셀값은 0, 1, 0, 0, 0으로 설정되며(도11의 도표 6번째 컬럼 참조), 이때, 이전 단계와 동일한 방식으로, 각각의 가상픽셀의 픽셀값은 0.5, 0.5, 0, 0, 0, 0으로 설정될 수 있다(도11의 도표 7번째 컬럼 참조).Subsequently, if 100, which is higher than the third threshold, is applied, each pixel value for the above 5 pixels is set to 0, 1, 0, 0, 0 (see the 6th column of the table in Fig. 11) , At this time, in the same manner as in the previous step, the pixel value of each virtual pixel can be set to 0.5, 0.5, 0, 0, 0, 0 (see the 7th column of the table in FIG. 11).
마지막으로, 제4 임계값으로 보다 상승시킨 150을 적용하면, 위의 5개 픽셀에 대한 각각의 픽셀값은 0, 1, 0, 0, 0으로 설정되며(도11의 도표 8번째 컬럼 참조), 이때, 이전 단계와 동일한 방식으로, 각각의 가상픽셀의 픽셀값들은 0.5, 0.5, 0, 0, 0, 0로 설정될 수 있다(도11의 도표 9번째 컬럼 참조).Finally, when 150, which is higher than the fourth threshold, is applied, each pixel value for the above 5 pixels is set to 0, 1, 0, 0, 0 (see the 8th column of the table in Fig. 11) , At this time, the pixel values of each virtual pixel may be set to 0.5, 0.5, 0, 0, 0, 0 in the same manner as in the previous step (see the ninth column of the table in FIG. 11).
여기서, 최종적으로 픽셀값이 255인 픽셀에 대응되는 두개의 가상 픽셀의 값이 높으므로 이들 중에 레이저 패턴이 위치하는 것으로 판별할 수 있으나, 구체적으로 첫번째 가상 픽셀인지, 두번째 가상 픽셀인지를 판별하기 어려울 수 있다. 실시예에 따라서는, 상술한 이진 이미지를 얻기 위한 처리 과정 중에, 각각의 가상픽셀들의 픽셀값들 중에서 1이 나온 빈도수를 고려하여, 최종적으로 첫번째 가상 픽셀에 레이저 패턴이 위치하는 것으로(즉, 1의 이진값이 주어지는 것으로) 판별할 수 있다. 이를 통하여, 이진 이미지 내에 가상 픽셀들이 추가하는 경우에도, 보다 높은 확률로 정확한 레이저 패턴을 설정하는 것이 가능하다.Here, since the value of the two virtual pixels corresponding to the pixel whose pixel value is 255 is finally high, it can be determined that the laser pattern is located among them, but it is difficult to determine whether it is the first virtual pixel or the second virtual pixel. can Depending on the embodiment, during the process of obtaining the above-described binary image, the laser pattern is finally located in the first virtual pixel (ie, 1 Given the binary value of ), it can be determined. Through this, even when virtual pixels are added in the binary image, it is possible to set an accurate laser pattern with a higher probability.
추가적으로, 이미지처리부(130)는 왜곡이 보정된 도10의 이진 이미지를 이용하여 대상공간(A)의 형상이나, 대상공간(A) 내 위치하는 물체나 인물 등 객체를 감지할 수 있다.Additionally, the
구체적으로, 대상공간(A) 내에 객체가 존재하지 않는 경우에는 도10과 같이 하나의 라인 레이저가 표시되는 레이저 패턴이 나타날 수 있으며, 이때의 레이저 페턴을 기준 패턴으로 설정할 수 있다.Specifically, when an object does not exist in the target space A, a laser pattern in which a single line laser is displayed may appear as shown in FIG. 10, and the laser pattern at this time may be set as a reference pattern.
반면에, 대상공간(A) 내에 객체가 존재하는 경우에는, 도12와 같이 기준 패턴과 단절되어 이격하게 나타나는 대상 패턴이 존재할 수 있으며, 대상 패턴을 이용하여 대상공간(A) 내의 객체의 위치나, 객체의 크기 등을 추출하는 것이 가능하다. 실시예에 따라서는, 도13과 같이, 기준 패턴과 대상 패턴 사이의 차영상을 구하여 대상 패턴을 추출하는 것도 가능하다.On the other hand, when an object exists in the target space (A), there may be a target pattern that is disconnected from the reference pattern and appears at a distance as shown in FIG. 12, and the location of the object in the target space (A) , it is possible to extract the size of the object, etc. Depending on the embodiment, as shown in FIG. 13, it is also possible to extract the target pattern by obtaining a difference image between the reference pattern and the target pattern.
여기서, 레이저광원부(110)는 하나의 라인 레이저에 대한 수직방향 조사각도를 조절하면서 반복 출력할 수 있으며, 이 경우 도14에 도시한 바와 같이, 수직방향의 위치가 상이한 대상 패턴들을 가지는 복수의 이진 이미지들을 생성할 수 있다. 즉, 객체의 수직 방향 위치에 대한 정보를 얻기 위하여, 수직방향 조사각도가 상이한 복수의 라인 레이저를 대상공간(A) 내에 출력할 수 있다. 여기서, 각각의 수직방향 조사각도에 따른 라인 레이저들은, 객체를 측정하기 위한 각각의 채널에 해당한다.Here, the laser
실시예에 따라서는, 레이저광원부(110)가 복수의 라인 레이저들에 대한 수직방향 조사각도를 조절하여 동시에 출력하는 것도 가능하며, 이 경우 도15에 도시한 바와 같이, 각각의 수직방향의 위치가 상이한 복수의 대상 패턴들을 가지는 복수의 이진 이미지들을 생성할 수 있다. 즉, 복수의 채널을 이용하여 동시에 대상공간(A) 내의 객체를 검출할 수 있다.Depending on the embodiment, it is also possible for the laser
한편, 이미지처리부(130)는 미리 설정된 원점을 기준으로, 대상패턴의 수평위치를 0 내지 360도나, -180 내지 +180도 범위를 이용하여 나타낼 수 있다. 대상패턴의 수평위치는 이를 이용하여 나타낼 수 있으며, 객체의 x축 좌표에 대응한다.Meanwhile, the
또한, 대상 패턴과 기준패턴 사이의 이격거리는 라이다 장치(100)로부터 객체까지의 거리에 비례하므로, 이격거리를 측정하여 라이다 장치(100)로부터 객체까지의 거리정보도 판별할 수 있다. 여기서, 이격거리는 대상패턴과 기준패턴 사이의 픽셀개수로 측정할 수 있으며, 이때 각각의 픽셀개수에 대응하는 실제 거리값은 미리 저장되어 있을 수 있다. 객체까지의 거리정보는 객체에 대한 z축 좌표에 대응한다.In addition, since the separation distance between the target pattern and the reference pattern is proportional to the distance from the
y축 좌표의 경우, 레이저광원부(110)가 출력하는 각각의 라인 레이저들의 수직방향 출력각도와, 객체까지의 거리정보 등에 의하여 결정될 수 있다. 즉, y축 좌표는 각각의 채널에 대응하여 결정될 수 있다. In the case of the y-axis coordinate, it can be determined by the vertical direction output angle of each line laser output from the laser
이후, 이미지처리부(130)는 복수의 라인 레이저를 동시 또는 순차적으로 출력하여 얻은 검출이미지들을 결합하여, 전체 N(N은 1이상의 자연수) 개의 채널을 포함하는 하나의 검출이미지를 생성할 수 있으며, 이에 대한 이진 이미지를 생성할 수 있다. 실시예에 따라서는, 이미지처리부(130)가 이진 이미지 내에 나타난 각각의 대상 패턴이 각각 어느 채널에 대응하는 것이고, 대상 패턴의 수평위치와, 이격거리(d)에 대응하는 픽셀개수는 어떻게 되는지를 나타내는 매트릭스를 생성하는 것도 가능하다. Thereafter, the
예를들어, 도16(a)와 같이, 제1 채널에 대하여 140도 내지 142도의 범위에서 40 픽셀만큼 이격된 대상 패턴이 검출되는 경우, 도16(b)와 같이 매트릭스를 생성할 수 있다. 여기서, 수평위치를 이용하면 객체의 x좌표와 객체의 너비를 특정할 수 있으며, 대상 패턴이 나타난 채널을 이용하면 객체의 y좌표와 객체의 높이를 특정할 수 있다. 또한, 이격거리(d)를 이용하여 객체의 z좌표와 객체까지의 거리를 특정하는 것이 가능하다.For example, as shown in FIG. 16(a), when target patterns spaced apart by 40 pixels in the range of 140 degrees to 142 degrees with respect to the first channel are detected, a matrix may be generated as shown in FIG. 16(b). Here, the x-coordinate of the object and the width of the object can be specified using the horizontal position, and the y-coordinate of the object and the height of the object can be specified using the channel where the target pattern appears. In addition, it is possible to specify the z-coordinate of the object and the distance to the object using the separation distance d.
즉, 각각의 검출 이미지에 대하여 매트릭스를 생성하는 경우, 매트릭스 내의 정보들을 이용하여, 대상공간(A)에 대한 포인트 클라우드를 생성하는 것이 가능하다. 이 경우, 도17과 같이, 대상공간 내의 조사된 각각의 라인 레이저들에 대응하는 3차원 좌표정보를 생성할 수 있으며, 각각의 3차원 좌표들을 3차원 공간 상에 표시하여, 대상공간에 대응하는 포인트 클라우드를 생성할 수 있다.That is, when generating a matrix for each detected image, it is possible to generate a point cloud for the target space A using information in the matrix. In this case, as shown in FIG. 17, it is possible to generate 3D coordinate information corresponding to each of the irradiated line lasers in the target space, and each 3D coordinate is displayed on the 3D space, thereby corresponding to the target space. A point cloud can be created.
본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the foregoing embodiments and accompanying drawings. It will be clear to those skilled in the art that the components according to the present invention can be substituted, modified, and changed without departing from the technical spirit of the present invention.
100: 라이다 장치
110: 레이저광원부
120: 이미지센서부
130: 이미지처리부100: lidar device 110: laser light source
120: image sensor unit 130: image processing unit
Claims (13)
상기 대상공간 내에서 상기 복수개의 라인 레이저의 반사에 의해 형성된 이미지를 감지하여 검출이미지를 생성하는 이미지센서부; 및
상기 검출이미지를 처리하여 상기 복수의 라인 레이저에 대응하는 레이저 패턴을 추출하는 이미지처리부를 포함하는 라이다 장치.
a laser light source unit outputting a plurality of line lasers arranged to cover different horizontal angular ranges among the total 360 degree horizontal angular ranges in the target space;
an image sensor unit generating a detection image by sensing an image formed by reflection of the plurality of line lasers within the target space; and
LIDAR device comprising an image processing unit for processing the detection image to extract a laser pattern corresponding to the plurality of line lasers.
상기 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함하고,
상기 복수개의 라인 레이저는 수평방향에서 방사상으로 배치되는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the laser light source unit,
Including a plurality of laser modules for outputting the plurality of line lasers,
LiDAR device, characterized in that the plurality of line lasers are arranged radially in the horizontal direction.
상기 복수개의 라인 레이저를 출력하는 복수개의 레이저 모듈을 포함하고,
상기 복수개의 라인 레이저가 커버하는 각각의 수평방향 각도범위를 합치면 상기 대상공간 내의 전체 360도의 수평방향 각도범위가 커버되도록 상기 복수개의 레이저 모듈 각각의 설치방향을 설정하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the laser light source unit,
Including a plurality of laser modules for outputting the plurality of line lasers,
When the horizontal angular ranges covered by the plurality of line lasers are combined, the installation direction of each of the plurality of laser modules is set so that the total horizontal angular range of 360 degrees in the target space is covered.
도트(dot) 레이저를 출력하는 레이저 다이오드; 및
상기 도트 레이저를 상기 라인 레이저로 변환하는 1차 렌즈를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 3, wherein the laser module,
a laser diode that outputs a dot laser; and
LiDAR device comprising a primary lens for converting the dot laser into the line laser.
상기 복수개의 레이저 모듈을 내부에 포함하고, 상기 라인 레이저의 수평방향 각도범위를 확장시키는 2차 렌즈를 더 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 4, wherein the laser light source unit,
The lidar device further comprises a secondary lens including the plurality of laser modules therein and extending an angular range in a horizontal direction of the line laser.
비구면 렌즈인 것을 특징으로 하는 라이다 장치.
The method of claim 5, wherein the secondary lens,
LiDAR device, characterized in that the aspherical lens.
도트 레이저를 출력하는 복수의 레이저 다이오드;
상기 복수의 레이저 다이오드 각각의 수직방향 각도를 미리 설정된 각도로 고정시키는 홀더; 및
상기 복수의 레이저 다이오드 각각에 개별적으로 구비되어, 상기 도트 레이저를 상기 라인 레이저로 변환하는 1차 렌즈를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 3, wherein the laser module,
a plurality of laser diodes outputting dot lasers;
a holder for fixing a vertical angle of each of the plurality of laser diodes to a preset angle; and
LiDAR device, characterized in that it comprises a primary lens that is provided individually on each of the plurality of laser diodes, converting the dot laser into the line laser.
전방으로 라인 레이저를 출력하는 제1 레이저 모듈; 및
후방으로 라인 레이저를 출력하는 제2 레이저 모듈을 포함하고,
상기 제1 레이저 모듈 및 제2 레이저 모듈은 각각 전방 180도, 후방 180도의 수평방향 각도범위를 커버하는 라인 레이저를 출력하여, 상기 대상공간 내의 전체 360도의 수평방향 각도범위가 커버되도록 라인 레이저를 출력하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the laser light source unit,
A first laser module that outputs a line laser forward; and
Including a second laser module that outputs a line laser to the rear,
The first laser module and the second laser module output line lasers covering a horizontal angular range of 180 degrees forward and 180 degrees backward, respectively, and output line lasers to cover a horizontal angular range of 360 degrees in the target space. Lidar device, characterized in that for doing.
상기 제1 레이저 모듈 및 제2 레이저 모듈을 내부에 포함하며, 상기 라인 레이저들의 수평방향 각도범위를 180도로 확장시키는 2차 렌즈를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 8, wherein the laser light source unit,
LiDAR device comprising the first laser module and the second laser module therein, characterized in that it comprises a secondary lens for extending the angular range of the horizontal direction of the line lasers to 180 degrees.
상기 대상공간 내에서 상기 복수개의 라인 레이저의 반사에 의해 형성되는 이미지를 감지하는 어안렌즈를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the image sensor unit,
LiDAR device characterized in that it comprises a fish-eye lens for detecting the image formed by the reflection of the plurality of line lasers in the target space.
상기 어안렌즈를 복수개 포함하고, 상기 대상공간 내의 전체 360도의 수평방향 각도범위로부터 얻어지는 상기 라인 레이저들에 의한 이미지를 포착하도록, 상기 복수개 어안렌즈 각각의 설치방향을 설정하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the image sensor unit,
LiDAR device comprising a plurality of fish-eye lenses, and setting the installation direction of each of the plurality of fish-eye lenses to capture images by the line lasers obtained from a horizontal angular range of 360 degrees in the target space. .
상기 어안렌즈에 의해 포착된이미지에 나타나는 이미지 왜곡을 보정하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the image processing unit,
LiDAR device, characterized in that for correcting the image distortion appearing in the image captured by the fish-eye lens.
상기 검출이미지를 임계값을 기준으로 이진화하여 이진 이미지를 생성하고, 상기 이진 이미지로부터 상기 라인 레이저에 대응하는 레이저 패턴을 추출하되,
상기 이진 이미지 생성은, 상기 검출이미지 중 이미지 왜곡에 의해 픽셀 데이터가 부족한 영역에 대하여 가상 픽셀들을 추가하고, 상기 임계값을 점차 증가시키면서, 각각의 상기 임계값을 기준으로 얻어지는 이진 이미지의 각 픽셀값들로부터 상기 가상 픽셀들의 이진 이미지 픽셀값들을 도출하여, 픽셀 데이터의 부족을 상기 가상 픽셀들의 이진 이미지 픽셀값들로 보충한 최종 이진 이미지를 얻는 것을 특징으로 하는 라이다 장치.11. The method of claim 10, wherein the image processing unit,
The detection image is binarized based on a threshold value to generate a binary image, and a laser pattern corresponding to the line laser is extracted from the binary image,
In the binary image generation, each pixel value of the binary image obtained based on each threshold value is added by adding virtual pixels to a region in which pixel data is insufficient due to image distortion in the detection image and gradually increasing the threshold value. Deriving binary image pixel values of the virtual pixels from the LIDAR device, characterized in that to obtain a final binary image in which the lack of pixel data is compensated for by the binary image pixel values of the virtual pixels.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210061242A KR20220153804A (en) | 2021-05-12 | 2021-05-12 | LIDAR apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210061242A KR20220153804A (en) | 2021-05-12 | 2021-05-12 | LIDAR apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220153804A true KR20220153804A (en) | 2022-11-21 |
Family
ID=84233611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210061242A KR20220153804A (en) | 2021-05-12 | 2021-05-12 | LIDAR apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220153804A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190059823A (en) | 2017-11-23 | 2019-05-31 | 전자부품연구원 | Omnidirectional rotationless scanning lidar system |
-
2021
- 2021-05-12 KR KR1020210061242A patent/KR20220153804A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190059823A (en) | 2017-11-23 | 2019-05-31 | 전자부품연구원 | Omnidirectional rotationless scanning lidar system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6825569B2 (en) | Signal processor, signal processing method, and program | |
CN107944422B (en) | Three-dimensional camera device, three-dimensional camera method and face recognition method | |
Kuhnert et al. | Fusion of stereo-camera and pmd-camera data for real-time suited precise 3d environment reconstruction | |
US6259803B1 (en) | Simplified image correlation method using off-the-shelf signal processors to extract edge information using only spatial data | |
US7684590B2 (en) | Method of recognizing and/or tracking objects | |
KR102020037B1 (en) | Hybrid LiDAR scanner | |
CN111344647A (en) | Intelligent laser radar system with low-latency motion planning update | |
US20150288948A1 (en) | System and method for night vision object detection and driver assistance | |
US20160146940A1 (en) | Opto-electronic detection device and method for sensing the surroundings of a motor vehicle by scanning | |
US20080197284A1 (en) | Method and system for detecting objects using far infrared images | |
US20210141094A1 (en) | Optoelectronic sensor and method of detecting objects | |
WO2011104706A1 (en) | A system and method for providing 3d imaging | |
Yang et al. | A simple and effective extrinsic calibration method of a camera and a single line scanning lidar | |
US20180276844A1 (en) | Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device | |
Kang et al. | Accurate fruit localisation using high resolution LiDAR-camera fusion and instance segmentation | |
US20210286082A1 (en) | Distance measuring device and distance measuring device control method | |
JP2018031776A (en) | System and method for stereo triangulation | |
KR101275823B1 (en) | Device for detecting 3d object using plural camera and method therefor | |
KR20150091779A (en) | Image processing system using multiple sensor | |
JP2022045947A5 (en) | ||
CN112184793A (en) | Depth data processing method and device and readable storage medium | |
CN114424022A (en) | Distance measuring apparatus, distance measuring method, program, electronic device, learning model generating method, manufacturing method, and depth map generating method | |
KR20120108256A (en) | Robot fish localization system using artificial markers and method of the same | |
CN114073075A (en) | Mapping three-dimensional depth map data onto two-dimensional images | |
Dodge et al. | Convex vision-based negative obstacle detection framework for autonomous vehicles |