KR20220060891A - Apparatus for LIDAR - Google Patents

Apparatus for LIDAR Download PDF

Info

Publication number
KR20220060891A
KR20220060891A KR1020200147027A KR20200147027A KR20220060891A KR 20220060891 A KR20220060891 A KR 20220060891A KR 1020200147027 A KR1020200147027 A KR 1020200147027A KR 20200147027 A KR20200147027 A KR 20200147027A KR 20220060891 A KR20220060891 A KR 20220060891A
Authority
KR
South Korea
Prior art keywords
unit
laser
line
target space
lidar
Prior art date
Application number
KR1020200147027A
Other languages
Korean (ko)
Inventor
여태운
김대언
김은지
온백산
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020200147027A priority Critical patent/KR20220060891A/en
Priority to PCT/KR2021/014323 priority patent/WO2022097952A1/en
Publication of KR20220060891A publication Critical patent/KR20220060891A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/18Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
    • G02B7/182Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/18Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
    • G02B7/182Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
    • G02B7/1821Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors for rotating or oscillating mirrors

Abstract

The present application relates to a lidar device. According to an embodiment of the present invention, the lidar device may include: a laser light source unit which outputs line laser beams into a target space; and an image processing unit which generates a detection image including the line laser beams reflected in the target space and generates a 3D coordinate map of the target space by using the detection image. Accordingly, processing speed for generating the 3D coordinate map of the target space can be improved.

Description

라이다 장치 {Apparatus for LIDAR}LIDAR device {Apparatus for LIDAR}

본 출원은 이미지 기반의 라이다 장치에 관한 것으로, 이미치 처리를 통하여 대상 공간에 대한 3차원 지도를 생성할 수 있는 라이다 장치에 관한 것이다. The present application relates to an image-based lidar device, and to a lidar device capable of generating a three-dimensional map of a target space through image processing.

레이저(Light Amplification by the Stimulated Emission of Radiation, LASER)는 유도방출(stimulated emission)에 의해 증폭된 빛으로, 전자공학, 광통신, 의약학, 국방분야 등 많은 분야에서 핵심기술로 활용되고 있다. Laser (Light Amplification by the Stimulated Emission of Radiation, LASER) is light amplified by stimulated emission and is used as a core technology in many fields such as electronics, optical communication, medicine, and national defense.

또한, 라이다(Light Detection and Ranging, LiDAR) 장치는 레이저를 이용하여 대상체까지의 거리를 측정하는 것으로, 최근 자율주행 자동차, 이동 로봇, 드론 등의 핵심 기술로 주목을 받고 있다.In addition, a LiDAR (Light Detection and Ranging, LiDAR) device uses a laser to measure the distance to an object, and has recently attracted attention as a core technology for autonomous vehicles, mobile robots, and drones.

종래의 라이다 장치는 레이저의 비행시간을 통한 거리를 산출하는 TOF(Time of Flight) 방식을 적용하므로, 고정밀도 및 고해상도의 측정이 가능한 장점이 있으나, 가격이 비싸고, 전체 크기가 커지게 되는 등의 단점이 존재한다.Since the conventional lidar device applies the TOF (Time of Flight) method that calculates the distance through the flight time of the laser, it has the advantage of being able to measure with high precision and high resolution, but it is expensive, the overall size is large, etc. disadvantages exist.

본 출원은 대상 공간에 대해 획득한 검출이미지를 이용하여, 대상공간에 대한 3차원 좌표지도를 생성할 수 있는 라이다 장치를 제공하고자 한다.An object of the present application is to provide a lidar device capable of generating a three-dimensional coordinate map for a target space by using a detection image acquired for the target space.

본 출원은 TOF 방식을 이용하는 경우와 비교하여, 제조 비용절감 및 제품 사이즈 축소를 구현할 수 있는 라이다 장치를 제공하고자 한다. An object of the present application is to provide a lidar device capable of reducing manufacturing cost and reducing product size compared to the case of using the TOF method.

본 출원은 대상 공간 내에 위치하는 객체를 검출하고, 객체의 동작 등을 인식할 수 있는 라이다 장치를 제공하고자 한다.An object of the present application is to provide a lidar device capable of detecting an object located in a target space and recognizing the motion of the object.

본 발명의 일 실시예에 의한 라이다 장치는, 이미지 기반의 3차원 라이다(LiDAR) 장치에 관한 것으로, 대상 공간 내 라인 레이저를 출력하는 레이저 광원부; 및 상기 대상 공간 내에서 반사된 상기 라인 레이저들을 포함하는 검출이미지를 생성하고, 상기 검출이미지를 이용하여 상기 대상 공간에 대한 3차원좌표지도를 생성하는 이미지처리부를 포함할 수 있다. A lidar device according to an embodiment of the present invention relates to an image-based three-dimensional lidar (LiDAR) device, comprising: a laser light source unit for outputting a line laser in a target space; and an image processing unit generating a detection image including the line lasers reflected in the target space, and generating a 3D coordinate map of the target space using the detection image.

여기서 상기 레이저 광원부는, 트리거 신호에 따라, 점 형상의 레이저 광을 생성하는 레이저 출력부; 상기 레이저 광을 싱글 라인 또는 멀티 라인의 라인 레이저로 변환하여, 상기 대상 공간 내에 출력하는 스캐닝부; 및 상기 대상 공간 내에 상기 라인 레이저를 출력하도록, 상기 레이저 출력부 및 스캐닝부의 동작을 제어하는 제어부를 포함할 수 있다. Here, the laser light source unit, according to a trigger signal, a laser output unit for generating a point-shaped laser light; a scanning unit converting the laser light into a single-line or multi-line laser and outputting it in the target space; and a control unit controlling operations of the laser output unit and the scanning unit to output the line laser in the target space.

여기서 상기 스캐닝부는, 상기 레이저 광을 서로 다른 광 경로로 진행하는 복수의 라인 레이저로 분할하여 멀티 라인의 상기 라인 레이저를 생성하는 회절격자부를 포함할 수 있다. Here, the scanning unit may include a diffraction grating unit configured to generate the multi-line line laser by dividing the laser light into a plurality of line lasers traveling in different optical paths.

여기서 상기 스캐닝부는, 상기 싱글 라인 또는 멀티 라인의 라인 레이저를 반사시키는 반사체; 및 상기 반사체의 반사각도를 조절하는 구동부를 더 포함할 수 있다. Here, the scanning unit may include: a reflector that reflects the single-line or multi-line line laser; And it may further include a driving unit for adjusting the reflection angle of the reflector.

여기서 상기 제어부는, 상기 구동부의 동작을 제어하여, 상기 라인 레이저가 상기 대상 공간 내에 조사되는 투광각도를 제어할 수 있다. Here, the control unit may control the operation of the driving unit to control a light projection angle at which the line laser is irradiated into the target space.

여기서 상기 스캐닝부는, 갈바노미터(galvanometer) 또는 MEMS(Micro-Electro Mechanical Systems) 미러(mirror)를 더 포함할 수 있다. Here, the scanning unit may further include a galvanometer or a micro-electro mechanical systems (MEMS) mirror.

여기서 상기 제어부는, 상기 이미지처리부로부터 프레임 시작신호를 수신하면 상기 트리거 신호를 전송하여, 상기 레이저 출력부가 레이저 광을 지속시간동안 방출하도록 제어하고, 상기 지속시간이 종료되면 상기 투광각도를 변경하도록 상기 구동부를 제어할 수 있다. Here, the control unit transmits the trigger signal upon receiving the frame start signal from the image processing unit, controls the laser output unit to emit laser light for a duration, and changes the projection angle when the duration ends. The drive unit can be controlled.

여기서 상기 제어부는, 하나의 프레임 노출 시간 내에, 복수의 투광각도를 가지는 라인 레이저들이 출력되도록 제어할 수 있다. Here, the controller may control the line lasers having a plurality of light transmission angles to be output within one frame exposure time.

여기서 상기 제어부는, 상기 이미지처리부로부터 홀수번째 프레임 시작신호를 수신하면, 상기 트리거 신호를 전송하여 상기 레이저 출력부가 레이저 광을 지속시간동안 방출하도록 제어하고, 짝수번째 프레임 시작신호를 수신하면, 상기 트리거 신호의 전송을 생략하여 상기 레이저 출력부가 레이저 광을 방출하지 않도록 제어할 수 있다. Here, the control unit, when receiving an odd-numbered frame start signal from the image processing unit, transmits the trigger signal to control the laser output unit to emit laser light for a duration, and when receiving an even-numbered frame start signal, the trigger By omitting signal transmission, it is possible to control the laser output unit not to emit laser light.

여기서 상기 이미지처리부는, 상기 라인 레이저를 포함하는 검출이미지를 생성하는 이미지센서부; 및 상기 검출이미지들을 이용하여 라이다 프레임을 생성하고, 상기 라이다 프레임으로부터 추출한 대상공간의 3차원 좌표를 이용하여, 상기 3차원 좌표지도를 생성하는 연산부를 포함할 수 있다. Here, the image processing unit may include: an image sensor unit generating a detection image including the line laser; and a calculating unit that generates a lidar frame using the detected images and generates the three-dimensional coordinate map by using the three-dimensional coordinates of the target space extracted from the lidar frame.

여기서 상기 이미지센서부는, 글로벌 셔터(global shutter) 방식을 채택하여, 상기 이미지센서부에 포함된 전체 픽셀들이, 동일한 프레임 노출시간 동안 상기 라인 레이저를 감지할 수 있다. Here, the image sensor unit adopts a global shutter method, so that all pixels included in the image sensor unit may sense the line laser during the same frame exposure time.

여기서 상기 연산부는, 상기 이미지센서부로부터 수신한 N 개(N은 1 이상의 자연수)의 검출이미지들을 결합하여 1개의 라이다 프레임을 생성하고, 상기 라이다 프레임 내에 포함된 복수의 라인 레이저들을 추출할 수 있다. Here, the calculation unit generates one lidar frame by combining N detection images (N is a natural number greater than or equal to 1) received from the image sensor unit, and extracts a plurality of line lasers included in the lidar frame. can

여기서 상기 연산부는, 삼각측량기법을 이용하여, 상기 라이다 프레임 내에 나타난 각각의 라인 레이저의 3차원좌표를 설정할 수 있다. Here, the calculator may set the three-dimensional coordinates of each line laser displayed in the lidar frame by using a triangulation technique.

여기서 상기 연산부는, 상기 라인레이저가 기준 패턴과, 상기 기준 패턴으로부터 단락되어 수직방향으로 이격된 형상의 대상패턴을 포함하면, 상기 대상 패턴이 상기 기준 패턴으로부터 수직방향으로 이격된 수직위치값, 상기 대상 패턴이 기준점으로부터 수평방향으로 이격된 수평위치값 및 상기 기준 패턴에 대응하는 높이위치값을 각각 산출하고, 상기 수직위치값, 수평위치값 및 높이위치값을 이용하여, 상기 3차원 좌표값을 생성할 수 있다. Here, the calculation unit, when the line laser includes a reference pattern and a target pattern of a shape that is short-circuited from the reference pattern and spaced in a vertical direction, the target pattern is a vertical position value that is vertically spaced from the reference pattern, the A target pattern is horizontally spaced apart from a reference point by calculating a horizontal position value and a height position value corresponding to the reference pattern, respectively, and using the vertical position value, horizontal position value and height position value, the three-dimensional coordinate value can create

여기서 상기 연산부는, 상기 수직위치값, 수평위치값 및 높이위치값에 상기 라인 레이저들의 투광각도를 더 적용하여, 상기 3차원 좌표값을 생성할 수 있다. Here, the calculating unit may generate the three-dimensional coordinate value by further applying the projection angles of the line lasers to the vertical position value, the horizontal position value, and the height position value.

여기서 상기 이미지처리부는, 상기 3차원 좌표지도를 이용하여 대상 공간 내에 위치하는 객체들을 검출하고, 상기 객체의 종류를 인식하는 인식부를 더 포함할 수 있다. Here, the image processing unit may further include a recognition unit that detects objects located in the target space using the three-dimensional coordinate map and recognizes the type of the object.

본 발명의 일 실시예에 의한 3차원 지도 생성 방법은, 레이저 광원부 및 이미지처리부를 포함하는 라이다 장치를 이용한 3차원 지도 생성 방법에 관한 것으로, 레이저 광원부가 대상 공간 내 라인 레이저를 출력하는 단계; 및 이미지 처리부가 상기 대상 공간 내에서 반사된 상기 라인 레이저들을 포함하는 검출 이미지를 생성하고, 상기 검출이미지를 이용하여 상기 대상 공간에 대한 3차원좌표지도를 생성하는 단계를 포함할 수 있다. A 3D map generation method according to an embodiment of the present invention relates to a 3D map generation method using a lidar device including a laser light source unit and an image processing unit, comprising: outputting a line laser in a target space by the laser light source unit; and generating, by an image processing unit, a detection image including the line lasers reflected in the target space, and generating a 3D coordinate map of the target space by using the detection image.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.Incidentally, the means for solving the above problems do not enumerate all the features of the present invention. Various features of the present invention and its advantages and effects may be understood in more detail with reference to the following specific embodiments.

본 발명의 일 실시예에 의한 라이다 장치는, 라인 레이저의 투광각도를 변경하여 조사할 수 있으므로, 대상공간 내에 조사되는 라인 레이저의 개수를 용이하게 증가시키는 것이 가능하다. 이를 통해, 대상 공간에 대한 3차원 좌표지도 생성을 위한 처리속도를 향상시킬 수 있다. Since the lidar device according to an embodiment of the present invention can irradiate by changing the light projection angle of the line laser, it is possible to easily increase the number of line lasers irradiated into the target space. Through this, it is possible to improve the processing speed for generating a three-dimensional coordinate map for the target space.

본 발명의 일 실시예에 의한 라이다 장치는, 글로벌 셔터 방식을 적용하는 동시에, 프레임 노출시간과 레이저의 지속시간을 동기화시키므로, 외부광에 의한 간섭을 최소화하는 것이 가능하다. 즉, 검출 이미지의 SNR(Signal to Noise Ratio)을 향상시킬 수 있다. 또한, 하나의 프레임 내에 복수의 라인 레이저들을 포함시킬 수 있으므로, 라이다 프레임의 프레임 레이트(frame rate)를 높이는 것이 가능하다. Since the lidar device according to an embodiment of the present invention applies the global shutter method and synchronizes the frame exposure time and the laser duration, it is possible to minimize interference by external light. That is, the signal to noise ratio (SNR) of the detected image may be improved. In addition, since a plurality of line lasers can be included in one frame, it is possible to increase the frame rate of the lidar frame.

본 발명의 일 실시예에 의한 라이다 장치에 의하면, 영상처리를 이용하여 대상공간에 대한 3차원 지도를 생성할 수 있으므로, TOF를 이용하는 등의 경우와 비교할 때, 제조 비용절감 및 제품 사이즈 축소를 구현할 수 있다. According to the lidar device according to an embodiment of the present invention, since a three-dimensional map of the target space can be generated using image processing, manufacturing cost reduction and product size reduction can be achieved compared to the case of using TOF, etc. can be implemented

도1은 본 발명의 일 실시예에 의한 라이다 장치를 이용한 3차원 좌표지도 생성을 나타내는 개략도이다.
도2는 본 발명의 일 실시예에 의한 라이다 장치를 나타내는 블록도이다.
도3은 본 발명의 일 실시예에 의한 레이저 광원부를 나타내는 블록도이다.
도4는 본 발명의 일 실시예에 의한 레이저 출력부를 나타내는 개략도이다.
도5 내지 도7은 본 발명의 일 실시예에 의한 스캐닝부의 투광각도 조절을 나타내는 개략도이다.
도8은 본 발명의 일 실시예에 의한 스캐닝부의 회절격자부를 이용한 멀티라인 라인 레이저 생성을 나타내는 개략도이다.
도9 내지 도10은 본 발명의 일 실시예에 의한 레이저 광원부에 의한 라인 레이저 생성을 나타내는 예시도이다.
도11 및 도12는 본 발명의 일 실시예에 의한 레이저 광원부와 이미지처리부 사이의 동기화를 나타내는 그래프이다.
도13은 본 발명의 일 실시예에 의한 이미지처리부를 나타내는블록도이다.
도14는 글로벌 셔터 방식과 롤링 셔터 방식에 따른 이미지센서부의 동작을 각각 나타내는 그래프이다.
도15는 본 발명의 일 실시예에 의한 검출 이미지를 나타내는 예시도이다.
도16 및 도17은 본 발명의 일 실시예에 의한 3차원 좌표 생성을 나타내는 개략도이다.
도18는 본 발명의 일 실시예에 의한 라이다 장치를 이용한 3차원 지도를 나타내는 개략도이다.
도19는 본 발명의 일 실시예에 의한 라이다 장치를 이용한 3차원 지도 생성 방법을 나타내는 순서도이다.
1 is a schematic diagram showing the generation of a three-dimensional coordinate map using a lidar device according to an embodiment of the present invention.
2 is a block diagram illustrating a lidar device according to an embodiment of the present invention.
3 is a block diagram illustrating a laser light source unit according to an embodiment of the present invention.
4 is a schematic diagram showing a laser output unit according to an embodiment of the present invention.
5 to 7 are schematic diagrams showing the adjustment of the light transmission angle of the scanning unit according to an embodiment of the present invention.
8 is a schematic diagram illustrating generation of a multi-line laser using a diffraction grating unit of a scanning unit according to an embodiment of the present invention.
9 to 10 are exemplary views showing generation of a line laser by a laser light source according to an embodiment of the present invention.
11 and 12 are graphs illustrating synchronization between a laser light source unit and an image processing unit according to an embodiment of the present invention.
13 is a block diagram illustrating an image processing unit according to an embodiment of the present invention.
14 is a graph showing the operation of the image sensor unit according to the global shutter method and the rolling shutter method, respectively.
15 is an exemplary diagram illustrating a detection image according to an embodiment of the present invention.
16 and 17 are schematic diagrams illustrating three-dimensional coordinate generation according to an embodiment of the present invention.
18 is a schematic diagram showing a three-dimensional map using a lidar device according to an embodiment of the present invention.
19 is a flowchart illustrating a 3D map generation method using a lidar device according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those of ordinary skill in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing the preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 명세서에 기재된 "~부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. In addition, throughout the specification, when a part is 'connected' with another part, it is not only 'directly connected' but also 'indirectly connected' with another element interposed therebetween. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "~ unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

도1은 본 발명의 일 실시예에 의한 라이다 장치를 이용한 3차원 좌표지도 생성을 나타내는 개략도이고, 도2는 본 발명의 일 실시예에 의한 라이다 장치를 이용한 라이다 장치를 나타내는 블록도이다. 1 is a schematic diagram illustrating the generation of a three-dimensional coordinate map using a lidar device according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a lidar device using a lidar device according to an embodiment of the present invention. .

도1 및 도2를 참조하면, 본 발명의 일 실시예에 의한 라이다 장치(1000)는 레이저 광원부(100) 및 이미지 처리부(200)를 포함할 수 있다. 1 and 2 , the lidar apparatus 1000 according to an embodiment of the present invention may include a laser light source unit 100 and an image processing unit 200 .

이하 도1 및 도2를 참조하여 본 발명의 일 실시예에 의한 라이다 장치(1000)를 설명한다. Hereinafter, a lidar device 1000 according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2 .

레이저광원부(100)는 대상 공간(A) 내 라인 레이저(Line laser)를 출력할 수 있다. 구체적으로, 도3을 참조하면, 레이저광원부(100)는 레이저 출력부(110), 스캐닝부(120) 및 제어부(130)를 포함할 수 있다. The laser light source unit 100 may output a line laser in the target space (A). Specifically, referring to FIG. 3 , the laser light source unit 100 may include a laser output unit 110 , a scanning unit 120 , and a control unit 130 .

레이저 출력부(110)는 트리거 신호에 따라 점 형상의 레이저 광을 생성할 수 있으며, 도4에 도시한 바와 같이, 레이저 다이오드(111) 및 콜리메이터(collimator, 112)를 포함할 수 있다. The laser output unit 110 may generate a point-shaped laser light according to a trigger signal, and as shown in FIG. 4 , may include a laser diode 111 and a collimator 112 .

레이저 다이오드(111)는 레이저 드라이버(미도시)에 의하여 여기되어 레이저 광을 발생시킬 수 있으며, 발생된 레이저 광은 콜리메이터(112)를 통해 한 점으로 모아져 점 형상의 레이저 광을 생성할 수 있다. 여기서, 레이저 드라이버는 트리거 신호에 따라 레이저 다이오드(111)를 여기시켜 레이저 광을 발생시키도록 할 수 있다. The laser diode 111 may be excited by a laser driver (not shown) to generate laser light, and the generated laser light may be collected at a point through the collimator 112 to generate point-shaped laser light. Here, the laser driver may generate laser light by exciting the laser diode 111 according to a trigger signal.

구체적으로, 레이저 다이오드(111)는 설정파장의 레이저 광을 생성할 수 있으며, 이때 설정파장은 적외선 파장 영역으로 설정할 수 있다. 즉, 적외선 레이저가 조사되도록 하여, 대상공간(A) 내에서는 레이저 광이 육안으로 확인되지 않도록 할 수 있다. Specifically, the laser diode 111 may generate laser light having a set wavelength, and in this case, the set wavelength may be set to an infrared wavelength region. That is, the infrared laser is irradiated so that the laser light is not visually confirmed in the target space (A).

여기서, 레이저 다이오드(111)는 Eye-safety 1 class 기준을 충족하도록 에너지 설계될 수 있다. 레이저 다이오드(111)는 설정된 에너지 설계에 따라 펄스형으로 레이저 광을 방출할 수 있으며, 이 경우 Eye-safety 1 class 기준을 만족하기 위한 레이저 펄스의 지속시간은, 적외선 레이저의 설정파장에 따라 결정될 수 있다.Here, the laser diode 111 may be energy designed to meet the Eye-safety 1 class standard. The laser diode 111 may emit laser light in a pulsed form according to a set energy design. In this case, the duration of the laser pulse to satisfy the eye-safety 1 class standard may be determined according to the set wavelength of the infrared laser. there is.

한편, 라인 레이저가 출력되는 대상공간(A)은, 가정집이나 상점 등의 경비구역이나, 주행 또는 주차 중인 차량의 주변공간 등일 수 있다. 다만, 이에 한정되는 것은 아니며, 라이다 장치(1000)가 설치되어 라인 레이저를 조사할 수 있는 공간이면 어떠한 공간도 해당할 수 있다. On the other hand, the target space (A) to which the line laser is output may be a security area such as a house or a store, or a space around a vehicle being driven or parked. However, the present invention is not limited thereto, and any space may correspond to a space in which the lidar device 1000 is installed to irradiate the line laser.

스캐닝부(120)는 레이저 광을 싱글 라인 또는 멀티 라인의 라인 레이저로 변환하여, 대상 공간 내에 출력할 수 있다. 여기서, 스캐닝부(120)가 레이저광을 변환하는 방식은 크게 3가지 실시예를 포함할 수 있다. The scanning unit 120 may convert the laser light into a single-line or multi-line line laser, and output the converted laser light in the target space. Here, the method in which the scanning unit 120 converts the laser light may largely include three embodiments.

첫번째 실시예에 의하면, 스캐닝부(120)는 싱글 라인의 라인 레이저를 생성한 후, 싱글 라인의 투광각도를 변경시키면서, 대상 공간(A) 내에 조사할 수 있다. 이 경우, 스캐닝부(120)는 도5(a)에 도시한 바와 같이, 반사체(121), 구동부(122) 및 렌즈부(124)를 포함할 수 있다.According to the first embodiment, the scanning unit 120 may generate a single-line line laser and then irradiate the single-line laser beam into the target space A while changing the light-transmitting angle of the single line. In this case, the scanning unit 120 may include a reflector 121 , a driving unit 122 , and a lens unit 124 as shown in FIG. 5A .

반사체(121)는 거울 등 싱글 라인의 라인 레이저를 반사시키는 부재이고, 구동부(122)는 반사체(121)를 회전시켜 반사체(121)의 반사각도를 조절하는 구성에 해당한다. 즉, 구동부(122)는 제어부(130)로부터 수신하는 제어신호에 따라 반사체(121)를 회전시키거나 이동시킬 수 있으며, 이를 통해 라인 레이저가 대상 공간(A) 내에 조사되는 투광각도를 제어하는 것이 가능하다. The reflector 121 is a member that reflects a single-line line laser such as a mirror, and the driving unit 122 corresponds to a configuration that adjusts the reflection angle of the reflector 121 by rotating the reflector 121 . That is, the driving unit 122 may rotate or move the reflector 121 according to the control signal received from the control unit 130 , and through this, controlling the light projection angle at which the line laser is irradiated into the target space A is It is possible.

렌즈부(124)는 레이저 출력부(110)로부터 입사된 점 형상의 레이저 광을 넓게 펴서 라인 형상의 라인 레이저로 변환할 수 있다. 실시예에 따라서는, 렌즈부(124)를 반원기둥 형상의 실린더 렌즈로 형성할 수 있으며, 이를 통해 점 형상의 레이저 광을 싱글 라인의 라인 레이저로 변환시킬 수 있다. The lens unit 124 may spread the point-shaped laser light incident from the laser output unit 110 and convert it into a line-shaped line laser. In some embodiments, the lens unit 124 may be formed as a semi-cylindrical cylinder lens, and through this, a point-shaped laser light may be converted into a single-line line laser.

여기서, 스캐닝부(120)는 구현예에 따라서, 갈바노미터(galvanometer)를 이용하거나, MEMS(Micro-Electro Mechanical Systems) 미러(mirror)를 이용하여 구현할 수 있다. 도5(a)는 갈바노미터(121, 122)를 이용하는 경우이고, 도5(b)는 MEMS 미러(123)를 이용하는 경우에 대한 예시에 해당한다. Here, the scanning unit 120 may be implemented using a galvanometer or a MEMS (Micro-Electro Mechanical Systems) mirror, depending on the embodiment. FIG. 5(a) is a case in which the galvanometers 121 and 122 are used, and FIG. 5(b) corresponds to an example in which the MEMS mirror 123 is used.

이 경우, 도9(a) 내지 도9(c)에 도시된 바와 같이, 라인 레이저가 대상 공간(A) 내의 위에서부터 아래로 순차적으로 출력될 수 있다. 여기서, 라인 레이저의 이동순서나 개수는 실시예에 따라 다양하게 변형가능하다. 또한, 여기서는 각각의 프레임마다 하나의 라인 레이저가 생성되는 것으로 도시되어 있으나, 실시예에 따라서는 프레임 노출시간 내에 라인 레이저의 투광각도를 여러 번 변경하여, 하나의 프레임 이미지 내에 복수의 라인 레이저들이 표시되도록 하는 것도 가능하다. In this case, as shown in FIGS. 9(a) to 9(c), the line laser may be sequentially output from top to bottom in the target space A. Here, the movement order or number of line lasers may be variously modified according to embodiments. In addition, although it is shown here that one line laser is generated for each frame, according to an embodiment, a plurality of line lasers are displayed in one frame image by changing the light emission angle of the line laser several times within the frame exposure time. It is also possible to make

또한, 두번째 실시예로는, 스캐닝부(120)가 멀티 라인의 라인 레이저를 생성한 후, 멀티 라인의 투광각도를 변경시키면서, 대상 공간(A) 내에 조사하도록 할 수 있다. 이 경우, 스캐닝부(120)는 도6에 도시한 바와 같이, 회절격자부(125)를 포함할 수 있다. Also, in the second embodiment, after the scanning unit 120 generates a multi-line line laser, the multi-line light transmission angle may be changed while irradiating the multi-line laser beam into the target space (A). In this case, the scanning unit 120 may include a diffraction grating unit 125 as shown in FIG. 6 .

레이저 다이오드(111)에서 방출된 레이저 광은 콜리메이터(112)를 통하여 단면이 점 형상인 레이저 광을 형성할 수 있으며, 이후 회절격자부(125)에 의하여 복수의 라인 레이저 형태를 포함하는 멀티 라인 레이저로 가공될 수 있다. 즉, 회절격자부(125)는 콜리메이팅된 레이저 광을 다양한 형태로 가공할 수 있으며, 실시예에 따라서는, 복수의 라인 레이저 형태로 분할하는 것도 가능하다.The laser light emitted from the laser diode 111 may form a laser light having a point shape in cross section through the collimator 112 , and then a multi-line laser including a plurality of line laser shapes by the diffraction grating unit 125 . can be processed into That is, the diffraction grating unit 125 may process the collimated laser light in various shapes, and according to an embodiment, it is also possible to divide the collimated laser light into a plurality of line laser shapes.

여기서, 회절격자부(125)는 수평방향으로 평행한 라인 레이저들을 복수개 생성할 수 있으며, 이때 복수의 라인 레이저들은 각각 수직방향으로 상이한 각도의 광 경로로 진행하도록 분할될 수 있다. 실시예에 따라서는, 수직방향으로 평행한 라인 레이저들을 복수개 생성하여, 각각 수평방향으로 상이한 각도의 광 경로로 진행하도록 분할하는 것도 가능하다. 또한, 회절격자부(125)가 생성하는 멀티 라인의 개수나 멀티 라인들 사이의 간격은, 실시예에 따라 다양하게 설정가능하다.Here, the diffraction grating unit 125 may generate a plurality of line lasers parallel to the horizontal direction, and in this case, the plurality of line lasers may be divided to proceed in optical paths of different angles in the vertical direction. According to an embodiment, it is also possible to generate a plurality of line lasers parallel to the vertical direction, and divide the line lasers so as to proceed in optical paths of different angles in the horizontal direction. In addition, the number of multi-lines generated by the diffraction grating unit 125 or an interval between the multi-lines may be variously set according to embodiments.

이후, 반사체(121)는 회절격자부(125)로부터 입사되는 멀티 라인의 라인 레이저를 반사시킬 수 있으며, 이때 구동부(미도시)에 의해 반사체의 반사각도를 조절하여 라인 레이저들의 투광각도를 설정할 수 있다. 즉, 회절격자부(125)를 통해 입사된 멀티 라인 레이저는, 반사체(121)에 의해 반사된 후 대상공간(A)으로 방출될 수 있으며, 이때 반사체의 반사각도에 따라 멀티 라인 레이저의 투광각도가 결정될 수 있다. 따라서, 도6 및 도7에 도시한 바와 같이, 멀티 라인 레이저(M1, M2)가 대상 공간(A) 내 조사되는 위치를 변경시킬 수 있으며, 멀티 라인 레이저(M1, M2)는 상하 방향으로 순차적으로 대상 공간(A) 내에 조사될 수 있다.Thereafter, the reflector 121 may reflect the multi-line line laser incident from the diffraction grating unit 125, and at this time, the light transmission angle of the line lasers may be set by adjusting the reflection angle of the reflector by the driving unit (not shown). there is. That is, the multi-line laser incident through the diffraction grating unit 125 may be emitted to the target space A after being reflected by the reflector 121 , and in this case, the light transmission angle of the multi-line laser according to the reflection angle of the reflector can be determined. Therefore, as shown in FIGS. 6 and 7 , the position at which the multi-line lasers M1 and M2 are irradiated in the target space A can be changed, and the multi-line lasers M1 and M2 are sequentially arranged in the vertical direction. can be irradiated in the target space (A).

이 경우, 도10(a) 및 도10(b)에 도시한 바와 같이, 멀티 라인 레이저가 나타날 수 있다. 즉, 도10(a)와 같이 대상공간의 상단에 3개의 멀티라인을 가지는 라인 레이저를 출력한 후, 투광각도를 변경하여 도10(b)와 같이 하단에 3개의 멀티라인을 가지는 라인 레이저를 출력할 수 있다. In this case, as shown in FIGS. 10(a) and 10(b), a multi-line laser may appear. That is, after outputting a line laser having three multi-lines at the upper end of the target space as shown in Fig. 10(a), a line laser having three multi-lines at the bottom as shown in Fig. can be printed out.

실시예에 따라서는 프레임 노출시간 내에서 라인 레이저의 투광각도를 여러 번 변경하여, 하나의 프레임 이미지 내에 복수의 멀티 라인 레이저들이 표시되도록 하는 것도 가능하다.According to an embodiment, it is also possible to display a plurality of multi-line lasers in one frame image by changing the light emission angle of the line laser several times within the frame exposure time.

세번째 실시예는, 도8에 도시한 바와 같이, 스캐닝부(120)가 회절격자부(125)를 이용하여, 멀티 라인의 라인 레이저들을 대상공간(A) 내에 출력하는 것일 수 있다. 즉, 스캐닝부(120)는 회절격자부(125)를 이용하여, 레이저 출력부(110)로부터 수신한 레이저 광을 서로 다른 광 경로로 진행하는 복수의 라인 레이저로 분할하여 멀티 라인의 라인 레이저를 생성할 수 있다. 이 경우, 도10(c)와 같이 대상공간(A) 내에 멀티 라인 레이저를 출력할 수 있다. In the third embodiment, as shown in FIG. 8 , the scanning unit 120 may output multi-line line lasers into the target space A using the diffraction grating unit 125 . That is, the scanning unit 120 uses the diffraction grating unit 125 to divide the laser light received from the laser output unit 110 into a plurality of line lasers that travel through different optical paths to generate a multi-line line laser. can create In this case, a multi-line laser may be output in the target space A as shown in FIG. 10( c ).

실시예에 따라서는, 도8(b)에 도시한 바와 같이, 레이저 출력부(110)와 회절격자부(125)를 포함하는 결합체를 복수개 구비한 후, 이들을 순차적으로 조사하여 대상공간(A) 내에 멀티라인의 라인 레이저를 출력하도록 하는 것도 가능하다.In some embodiments, as shown in FIG. 8(b), a plurality of combinations including the laser output unit 110 and the diffraction grating unit 125 are provided, and then sequentially irradiated to the target space (A) It is also possible to output a multi-line line laser within.

제어부(130)는 대상 공간 내에 라인 레이저를 출력하도록, 레이저 출력부(110) 및 스캐닝부(120)의 동작을 제어할 수 있다. 구체적으로, 도5 내지 도7과 같이, 라인 레이저의 투광각도를 조절하는 실시예의 경우, 제어부(130)는 도11에 도시한 바와 같이, 레이저 출력부(110) 및 스캐닝부(120)의 동작을 제어할 수 있다. The controller 130 may control the operation of the laser output unit 110 and the scanning unit 120 to output a line laser in the target space. Specifically, as shown in FIGS. 5 to 7 , in the case of adjusting the light emission angle of the line laser, the control unit 130 operates the laser output unit 110 and the scanning unit 120 as shown in FIG. 11 . can be controlled.

도11을 참조하면, 제어부(130)는 이미지처리부(200)로부터 프레임 시작신호(Signal of Start frame)를 수신할 수 있으며, 프레임 시작신호에 대응하여 트리거 신호를 레이저 출력부(110)로 전송할 수 있다. 이 경우, 레이저 출력부(110)는 레이저 광을 지속시간(IR Laser On/Off) 동안 방출할 수 있으며, 이때 레이저 출력부(110)의 레이저 광 지속시간은 미리 설정되어 있을 수 있다. 실시예에 따라서는, 지속시간이 eye-safety 1 class를 만족하도록 설정될 수 있다. 11 , the control unit 130 may receive a signal of start frame from the image processing unit 200 and transmit a trigger signal to the laser output unit 110 in response to the frame start signal. there is. In this case, the laser output unit 110 may emit laser light for a duration (IR Laser On/Off), and in this case, the laser light duration of the laser output unit 110 may be preset. According to an embodiment, the duration may be set to satisfy eye-safety 1 class.

이후, 지속시간이 종료되면, 제어부(130)는 라인 레이저의 투광각도를 변경하도록 스캐닝부(120)를 제어할 수 있다. 즉, 제어부(130)는 이미지처리부(200)의 프레임 노출시간(frame exposure time) 내에서 라인 레이저에 대한 투광각도를 변경시키도록 제어할 수 있다. 따라서, 도11과 같이 제어하는 경우, 싱글 라인 레이저를 출력하는 경우에도, 하나의 프레임 내에 멀티 라인 레이저가 포함되도록 검출이미지를 생성하는 것이 가능하다.Thereafter, when the duration is over, the controller 130 may control the scanning unit 120 to change the light transmission angle of the line laser. That is, the controller 130 may control to change the light projection angle for the line laser within the frame exposure time of the image processing unit 200 . Therefore, when controlling as shown in FIG. 11, it is possible to generate a detection image so that a multi-line laser is included in one frame even when a single-line laser is output.

구체적으로, 제어부(130)는 투광 각도를 기준위치로부터 수직방향 또는 수평방향으로 설정각도변화량만큼 순차적으로 변경하도록 스캐닝부(120)를 제어할 수 있다. 예를들어, 기준위치를 수평선에서 수직방향 위로 30도로 설정한 후, 15도씩 아래로 내리도록 투광각도를 제어할 수 있다. 도11에서는 하나의 프레임노출시간 내 2번 투광각도를 조절하는 것을 예시하고 있으나, 투광각도 조절 횟수는 실시예에 따라 다양하게 변형가능하다.Specifically, the control unit 130 may control the scanning unit 120 to sequentially change the light projection angle by a set angle change amount in the vertical or horizontal direction from the reference position. For example, after setting the reference position to 30 degrees vertically upward from the horizontal line, the light projection angle can be controlled to descend by 15 degrees. Although FIG. 11 exemplifies the adjustment of the light transmission angle twice within one frame exposure time, the number of times the light transmission angle is adjusted may be variously modified according to embodiments.

한편, 제어부(130)는 생성되는 프레임의 개수가 설정개수에 도달할 때까지 반복하여 수행할 수 있다. 예를들어, 대상공간(A)을 3개의 영역으로 분할한 경우에는, 3개의 영역에 대응하는 각각의 검출 이미지들을 생성할 때까지 반복하여 라인 레이저를 출력할 수 있다. 이후 설정개수의 검출이미지들을 결합하여 1개의 라이다 프레임(Lidar frame)으로 생성할 수 있다. Meanwhile, the controller 130 may repeatedly perform the operation until the number of generated frames reaches a set number. For example, when the target space A is divided into three regions, the line laser may be repeatedly output until each detection image corresponding to the three regions is generated. Thereafter, a set number of detection images can be combined to create one lidar frame.

또한, 도8(a)과 같이, 고정된 상태에서 멀티 라인 레이저를 대상공간(A) 내에 출력하는 실시예의 경우, 제어부(130)는 도12에 도시한 바와 같이 레이저 출력부(110)의 동작을 제어할 수 있다. In addition, as shown in FIG. 8( a ), in the case of an embodiment in which a multi-line laser is output in the target space A in a fixed state, the control unit 130 operates the laser output unit 110 as shown in FIG. 12 . can be controlled.

구체적으로, 제어부(130)는 이미지처리부(200)로부터 프레임 시작신호를 수신할 수 있으며, 제어부(130)는 트리거 신호를 레이저 출력부(110)로 전송할 수 있다. 이 경우, 레이저 출력부(110)가 레이저 광을 지속시간 동안 방출할 수 있으며, 이때 지속시간은 프레임 노출시간과 일치하도록 동기화될 수 있다. 프레임 노출시간이 종료되면 이미지처리부(200)는 검출이미지를 생성할 수 있으며, 이 경우 해당 검출이미지가 라이다 프레임을 해당할 수 있다.Specifically, the control unit 130 may receive a frame start signal from the image processing unit 200 , and the control unit 130 may transmit a trigger signal to the laser output unit 110 . In this case, the laser output unit 110 may emit laser light for a duration, and in this case, the duration may be synchronized to match the frame exposure time. When the frame exposure time is over, the image processing unit 200 may generate a detection image, and in this case, the detection image may correspond to a lidar frame.

여기서, 라인 레이저를 효율적으로 검출하기 위하여, 라인 레이저를 출력한 경우와, 출력하지 않은 경우를 비교하고자 할 수 있다. 이를 위하여, 제어부(130)는 대상 공간(A) 내에 라인 레이저를 출력한 검출이미지와, 라인 레이저를 출력하지 않은 검출이미지를 연속적으로 생성하도록 제어할 수 있다. 즉, 라인 레이저의 출력여부에 따른 검출이미지를 비교하여, 라인 레이저를 보다 정확하게 검출하도록 할 수 있다. Here, in order to efficiently detect the line laser, a case in which the line laser is output and a case in which the line laser is not output may be compared. To this end, the controller 130 may control to continuously generate a detection image to which the line laser is output and a detection image to which the line laser is not output in the target space A. That is, it is possible to more accurately detect the line laser by comparing the detected images according to whether the line laser is output or not.

구체적으로, 제어부(130)는 이미지처리부(200)로부터 홀수번째 프레임 시작신호를 수신하면, 트리거 신호를 전송하여 레이저 출력부(110)가 레이저 광을 지속시간동안 방출하도록 제어할 수 있다. 반면에, 짝수번째 프레임 시작신호를 수신하는 경우, 트리거 신호의 전송을 생략하여 레이저 출력부가 레이저 광을 방출하지 않도록 제어할 수 있다. 여기서는 홀수번째에 트리거 신호를 전송하는 것으로 하였으나, 실시예에 따라서는 짝수번째에 트리거 신호를 전송하고 홀수번째에 트리거 신호를 전송하지 않도록 하는 것도 가능하다. 또한, 이외에도 3의 배수나 4의 배수에 해당하는 프레임마다 트리거 신호를 전송하지 않도록 하는 등 다양한 변형이 가능하다.Specifically, when receiving the odd-numbered frame start signal from the image processing unit 200 , the control unit 130 may transmit a trigger signal to control the laser output unit 110 to emit laser light for a duration. On the other hand, when the even-numbered frame start signal is received, transmission of the trigger signal may be omitted to control the laser output unit not to emit laser light. Although it is assumed here that the trigger signal is transmitted at the odd-numbered time, it is also possible to transmit the trigger signal at the even-numbered time and not transmit the trigger signal at the odd-numbered time according to an embodiment. In addition, various modifications are possible, such as not transmitting a trigger signal for every frame corresponding to a multiple of 3 or a multiple of 4.

추가적으로, 도8(b)와 같이, 레이저 출력부(110)와 회절격자부(125)를 포함하는 결합체를 복수개 구비한 경우에는, 제어부(130)가 각각의 결합체들이 순차적으로 대상공간(A) 내에 멀티라인의 라인 레이저를 출력하도록 제어할 수 있다. 즉, N 개의 결합체가 존재하는 경우, 각각의 결합체에 의한 멀티 라인 레이저를 포함하는 검출 이미지를 N개 생성할 수 있으며, 이후 N 개의 검출이미지를 결합하여 1개의 라이다 프레임을 생성하도록 할 수 있다. Additionally, as shown in Fig. 8 (b), when a plurality of combinations including the laser output unit 110 and the diffraction grating unit 125 are provided, the control unit 130 controls each of the assemblies sequentially in the target space (A). It can be controlled to output a multi-line line laser inside. That is, when there are N binders, N detection images including multi-line lasers can be generated by each combination, and then N detection images can be combined to generate one lidar frame. .

이미지 처리부(200)는 대상 공간 내에서 반사된 라인 레이저들을 포함하는 검출이미지를 생성하고, 검출이미지를 이용하여 대상 공간에 대한 3차원 좌표지도를 생성할 수 있다. 구체적으로, 이미지처리부(200)는 도13에 도시한 바와 같이, 이미지센서부(210), 연산부(220) 및 인식부(230)를 포함할 수 있다. The image processing unit 200 may generate a detection image including line lasers reflected in the target space, and generate a 3D coordinate map of the target space by using the detection image. Specifically, as shown in FIG. 13 , the image processing unit 200 may include an image sensor unit 210 , an operation unit 220 , and a recognition unit 230 .

이미지센서부(210)는 라인 레이저를 포함하는 검출이미지를 생성할 수 있다. 실시예에 따라서는, CCD(Charge-Coupled Device) 센서 또는 CMOS(Complementary Metal-Oxide Semiconductor) 센서 등의 센서 어레이로 이미지센서부(210)를 구현할 수 있으며, 이미지센서부(210)는 대상 공간(A) 내에서 반사된 멀티 라인 레이저들의 휘도를 측정하여 전기적 신호로 변환할 수 있다. 즉, 측정된 멀티 라인 레이저의 휘도값을 대응하는 각각의 픽셀들의 픽셀값으로 설정하여, 2차원의 검출이미지를 생성할 수 있다. The image sensor unit 210 may generate a detection image including a line laser. Depending on the embodiment, the image sensor unit 210 may be implemented as a sensor array such as a charge-coupled device (CCD) sensor or a complementary metal-oxide semiconductor (CMOS) sensor, and the image sensor unit 210 may include a target space ( A) It is possible to measure the luminance of the multi-line lasers reflected within and convert it into an electrical signal. That is, a two-dimensional detection image may be generated by setting the measured luminance value of the multi-line laser to the pixel value of each pixel.

여기서, 이미지센서부(210)는 글로벌 셔터(global shutter) 방식을 채택할 수 있으며, 이 경우 이미지센서부(210)에 포함된 전체 픽셀들이 동일한 프레임 노출시간 동안 멀티 라인 레이저를 감지하도록 할 수 있다. 구체적으로, 도14(a)는 글로벌 셔터 방식, 도14(b)는 롤링 셔터(rolling shutter) 방식에서의 동작을 나타내는 그래프이다. Here, the image sensor unit 210 may adopt a global shutter method, and in this case, all pixels included in the image sensor unit 210 may detect a multi-line laser during the same frame exposure time. . Specifically, FIG. 14(a) is a graph illustrating an operation in a global shutter method and FIG. 14(b) is a rolling shutter method.

먼저, 도14(b)의 롤링 셔터 방식을 확인하면, 픽셀 행(pixel row)들은 각각 행마다 개별적으로 초기화(line reset)될 수 있으며, 초기화된 순서에 따라 각각의 픽셀 행들에 대한 프레임 노출(exposure start)과 노출중단(exposure stop), 리드아웃(line readout)이 순차적으로 진행될 수 있다. First, confirming the rolling shutter method of FIG. 14(b), pixel rows may be individually reset for each row, and frame exposure ( Exposure start, exposure stop, and line readout may be sequentially performed.

반면에, 도14(a)의 글로벌 셔터 방식에서는, 전체 픽셀 행를 동시에 초기화한 후(global reset), 전체 픽셀 행을 동시에 노출시킬 수 있다. 이후, 프레임 노출시간이 도과하면, 상위 픽셀 행부터 순차적으로 리드아웃을 수행하게 된다. 즉, 전체 픽셀 행들에 대한 프레임 노출시간이 동일하게 적용되며, 프레임 노출시간 이후 전체 픽셀 행들이 모두 리드아웃되기까지의 시간을 처리시간 등으로 확보하는 것이 가능하다. On the other hand, in the global shutter method of FIG. 14A , all pixel rows may be simultaneously exposed after initializing all pixel rows (global reset). Thereafter, when the frame exposure time elapses, readout is sequentially performed from the upper pixel row. That is, the frame exposure time for all the pixel rows is applied equally, and it is possible to secure the time until all the pixel rows are read out after the frame exposure time as a processing time or the like.

롤링 셔터 방식과 글로벌 셔터 방식을 비교하면, 글로벌 셔터의 경우 픽셀 행들이 노출되는 시간이 상대적으로 짧으므로, 롤링셔터에 비하여 외부광을 받아들이는 시간이 줄어들 수 있으며, 이에 따라 SNR(Signal to Noise Ratio)을 개선시킬 수 있으며, 프레임 노출시간 이후 처리시간 등을 확보하는 것이 가능하다.Comparing the rolling shutter method with the global shutter method, in the case of the global shutter, the exposure time of the pixel rows is relatively short, so the time for receiving external light may be reduced compared to the rolling shutter method, and accordingly, the signal to noise ratio (SNR) ) can be improved, and it is possible to secure the processing time after the frame exposure time.

따라서, 이미지센서부(210)는 글로벌 셔터 방식을 채택하여, 이미지센서부(210)에 포함된 전체 픽셀들이, 동일한 프레임 노출시간 동안 라인 레이저를 감지하도록 할 수 있다. 다만, 이미지센서부(210)가 글로벌 셔터 방식에 따라 검출이미지를 생성하기 위해서는, 프레임 노출이 시작되는 시점에 라인 레이저가 투광되기 시작하여, 프레임 노출이 중단되는 시점에 정확히 라인 레이저의 방출이 중단될 필요가 있다. 이를 위하여, 제어부(130)는 레이저 광의 지속시간과 프레임 노출시간이 일치하도록 동기화시킬 수 있다.Accordingly, the image sensor unit 210 may adopt a global shutter method so that all pixels included in the image sensor unit 210 detect the line laser during the same frame exposure time. However, in order for the image sensor unit 210 to generate a detected image according to the global shutter method, the line laser starts to be projected at the time frame exposure starts, and emission of the line laser stops exactly when the frame exposure stops. need to be To this end, the controller 130 may synchronize the duration of the laser light to the frame exposure time.

추가적으로, 이미지센서부(210)에는 외부광원을 차단하고, 라인 레이저를 효과적으로 수신하기 위한 대역통과필터(미도시), 편광필터(미도시), 수신광학계(미도시) 등이 더 구비될 수 있다. 즉, 수신광학계, 편광필터 및 대역통과필터를 통과한 레이저 광이 CCD 센서 또는 CMOS 센서 등으로 입사되도록 할 수 있다. 여기서, 편광필터는 기존의 자연광 등을 제거할 수 있으며, 대역통과필터는 태양이나 실내 조명 등 외부광에 해당하는 주파수를 차단하고, 라인 레이저에 대응하는 주파수는 통과시킬 수 있다. 수신광학계는 렌즈를 이동시켜, 반사되는 멀티 라인 레이저에 대한 초점거리 또는 FOV(Field of View)를 자동 또는 수동으로 맞출 수 있다.Additionally, the image sensor unit 210 may further include a band-pass filter (not shown), a polarizing filter (not shown), and a receiving optical system (not shown) for blocking an external light source and effectively receiving a line laser. . That is, the laser light that has passed through the receiving optical system, the polarization filter, and the bandpass filter may be incident on the CCD sensor or the CMOS sensor. Here, the polarizing filter may remove existing natural light, etc., and the band-pass filter may block a frequency corresponding to external light such as the sun or indoor lighting, and pass a frequency corresponding to the line laser. By moving the lens, the receiving optical system can automatically or manually adjust the focal length or FOV (Field of View) for the reflected multi-line laser.

실시예에 따라서는, 이미지센서부(210)가 연산효율성을 위하여, ROI(Region of Interest)를 설정하여, 해당 영역의 픽셀에 대하여만 노출을 수행하도록 하는 것도 가능하다. 예를들어, 대상공간(A) 내에서 생성한 검출이미지들을 이용하면, 라인 레이저가 위치할 것으로 예상되는 픽셀위치들을 미리 확인할 수 있으며, 해당 위치를 ROI로 설정할 수 있다. According to an exemplary embodiment, it is also possible for the image sensor unit 210 to set an ROI (Region of Interest) to perform exposure only for pixels in a corresponding area for operational efficiency. For example, by using the detection images generated in the target space A, pixel positions where the line laser is expected to be located can be confirmed in advance, and the corresponding positions can be set as ROIs.

연산부(220)는 검출이미지들을 이용하여 라이다 프레임을 생성하고, 라이다 프레임으로부터 추출한 대상공간의 3차원 좌표를 이용하여, 3차원 좌표지도를 생성할 수 있다. The operation unit 220 may generate a LIDAR frame using the detected images, and may generate a 3D coordinate map using 3D coordinates of the target space extracted from the LIDAR frame.

먼저, 연산부(220)는 이미지센서부로부터 수신한 N 개(N은 1 이상의 자연수)의 검출이미지들을 결합하여 1개의 라이다 프레임을 생성할 수 있다. 여기서, 라이다 프레임을 생성하기 위해 결합하는 검출이미지들의 개수 N은 각각의 실시예마다 상이하게 설정될 수 있다. First, the operation unit 220 may generate one lidar frame by combining the N detection images (N is a natural number greater than or equal to 1) received from the image sensor unit. Here, the number N of detection images combined to generate a lidar frame may be set differently for each embodiment.

라이다 프레임을 생성한 이후, 연산부(220)는 라이다 프레임 내에 포함된 복수의 라인 레이저들을 추출할 수 있다. 일반적으로, 라이다 프레임 내에서 라인 레이저들은 높은 휘도값을 가지므로, 고정 임계값으로 이진화하는 방식으로 라인 레이저들을 추출할 수 있다. 다만, 대상 공간(A) 내에 존재할 수 있는 다양한 객체들의 표면반사율, 조도변화 등 환경적 요인에 의하여, 레이저 번짐, 흐려짐, 직사광선 영향으로 인한 라인 레이저의 미검출, 오검출 등이 발생하여, 정확한 라인 레이저의 검출이 어려울 수 있다. 이를 해결하기 위하여, 연산부(220)는 딥러닝(Deep Learning) 학습 기법을 활용하여, 라인 레이저를 추출하는 것도 가능하다. After generating the lidar frame, the operation unit 220 may extract a plurality of line lasers included in the lidar frame. In general, since the line lasers have a high luminance value in the lidar frame, the line lasers can be extracted by binarizing them with a fixed threshold value. However, due to environmental factors such as surface reflectance and illuminance change of various objects that may exist in the target space (A), laser blurring, blurring, and non-detection or erroneous detection of the line laser due to the influence of direct sunlight occur, and the correct line Detection of the laser can be difficult. In order to solve this, the operation unit 220 may use a deep learning learning technique to extract a line laser.

이후, 라이다 프레임 내에서 라인 레이저가 추출되면, 연산부(220)는 레이저 광원부(110)와 이미지센서부(210) 사이의 기하학적인 거리와 각도 등을 이용하여, 대상공간 내의 라인 레이저까지의 거리를 측정할 수 있다. 여기서, 실시예에 따라서는, 연산부(220)가 삼각측량기법을 적용하여 라인 레이저까지의 거리를 측정할 수 있다. After that, when the line laser is extracted from within the lidar frame, the calculating unit 220 uses the geometric distance and angle between the laser light source unit 110 and the image sensor unit 210, and the distance to the line laser within the target space. can be measured. Here, according to an embodiment, the calculating unit 220 may measure the distance to the line laser by applying a triangulation technique.

구체적으로, 레이저 광원부(110)가 대상공간으로 라인 레이저를 조사하는 투광각도와, 레이저광원부(110)와 이미지센서부(210) 사이의 이격거리는, 라이다 장치(1000)의 설계과정에서 결정되는 것으로, 미리 알고 있는 값에 해당한다. 또한, 연산부(220)는 라인 레이저 중에서 임의로 설정된 특정지점의 레이저광이, 이미지센서부(210) 내의 픽셀 어레이 중에서 어느 픽셀에서 감지되는지를 확인할 수 있으며, 이를 이용하면 이미지센서부(210)와 특정지점 사이의 입사각도를 파악할 수 있다. Specifically, the projection angle at which the laser light source unit 110 irradiates the line laser into the target space and the separation distance between the laser light source unit 110 and the image sensor unit 210 are determined in the design process of the lidar device 1000 . It corresponds to a value known in advance. In addition, the operation unit 220 may check which pixel among the pixel arrays in the image sensor unit 210 is detected in which laser light at a specific point arbitrarily set among the line lasers is detected, and using this, the image sensor unit 210 and a specific The angle of incidence between points can be determined.

여기서, 레이저 광원부(110), 이미지센서부(210) 및 특정지점을 연결하면 하나의 삼각형을 형성할 수 있으며, 그 중 한변의 길이(이격거리)와 두 개의 끼인각(투광각도 및 입사각도)을 알고 있는 경우 해당한다. 따라서, 삼각측량법을 이용하면, 레이저 광원부(110)와 특정지점까지의 거리, 이미지센서부(210)와 특정지점까지의 거리를 용이하게 구할 수 있다. Here, by connecting the laser light source unit 110, the image sensor unit 210, and a specific point, a triangle can be formed. applicable if known. Accordingly, by using the triangulation method, the distance between the laser light source unit 110 and a specific point and the distance between the image sensor unit 210 and the specific point can be easily obtained.

또한, 삼각형의 두 변의 길이와 그 사이 끼인각을 알고 있으므로, 삼각함수 등을 이용하면 특정지점과 라이다 장치(1000) 사이의 거리를 용이하게 도출할 수 있다.In addition, since the length of the two sides of the triangle and the included angle therebetween are known, the distance between the specific point and the lidar device 1000 can be easily derived by using a trigonometric function.

즉, 삼각측량법을 이용하면, 라이다 프레임 내에 나타난 각각의 라인 레이저까지의 거리를 측정할 수 있으며, 이를 바탕으로 라인 레이저에 포함된 각각의 지점에 대한 3차원좌표를 설정하는 것이 가능하다. That is, using the triangulation method, it is possible to measure the distance to each line laser displayed in the lidar frame, and based on this, it is possible to set 3D coordinates for each point included in the line laser.

이후, 연산부(220)는 각각의 라인 레이저에 대한 3차원 좌표를 취합하여 대상공간(A)에 대한 3차원 좌표지도를 생성할 수 있다. 실시예에 따라서는 3차원 좌표지도를 각각의 라이다 프레임마다 생성하는 것도 가능하다.Thereafter, the calculator 220 may generate a three-dimensional coordinate map for the target space A by collecting the three-dimensional coordinates for each line laser. According to an embodiment, it is also possible to generate a three-dimensional coordinate map for each lidar frame.

다만, 대상공간(A) 내에 객체(S)가 존재하는 경우, 라이다 프레임 내의 라인레이저는 기준 패턴과, 기준 패턴으로부터 단락되어 수직방향으로 이격된 형상의 대상패턴을 포함할 수 있다. 즉, 도15 등에 도시한 바와 같이, 대상공간 내 객체가 존재하는 경우, 라인 레이저는 기준 패턴으로부터 이격된 대상패턴을 포함하는 형태로 나타날 수 있다. However, when the object S is present in the target space A, the line laser in the lidar frame may include a reference pattern and a target pattern of a shape that is short-circuited from the reference pattern and spaced in the vertical direction. That is, as shown in FIG. 15 or the like, when an object exists in the target space, the line laser may appear in a form including the target pattern spaced apart from the reference pattern.

이 경우, 삼각측량법을 이용한 객체(S)까지의 거리측정은 어려울 수 있으며, 연산부(220)는 대상 패턴과 기준 패턴들 사이의 관계를 이용하여, 객체(S)에 대한 3차원 좌표를 설정할 수 있다. 즉, 연산부(220)는 대상 패턴이 기준 패턴으로부터 수직방향으로 이격된 수직위치값, 대상 패턴이 기준점으로부터 수평방향으로 이격된 수평위치값 및 기준 패턴에 대응하는 높이위치값을 각각 산출할 수 있으며, 이들을 이용하여 객체에 대한 3차원 좌표를 설정할 수 있다. In this case, it may be difficult to measure the distance to the object S using the triangulation method, and the operation unit 220 may set the three-dimensional coordinates for the object S by using the relationship between the target pattern and the reference patterns. there is. That is, the calculating unit 220 may calculate a vertical position value at which the target pattern is vertically spaced from the reference pattern, a horizontal position value at which the target pattern is horizontally spaced apart from the reference point, and a height position value corresponding to the reference pattern, respectively. , can be used to set three-dimensional coordinates for an object.

구체적으로, 도16(a)에 도시한 바와 같이, 대상 공간 내에 라인 레이저를 수평으로 조사하는 경우, 기준 패턴(P1)은 라이다 프레임의 중심에 위치하게 된다. 여기서, 높이위치값은 라이다 프레임의 중심선(RL)의 위치를 기준으로 설정할 수 있으며, 도16(a)와 같이 기준 패턴(P1)이 중심선(RL)에 위치하는 경우에는 기준 패턴(P1)의 높이위치값을 0으로 설정할 수 있다. Specifically, as shown in FIG. 16( a ), when the line laser is horizontally irradiated into the target space, the reference pattern P1 is located at the center of the lidar frame. Here, the height position value can be set based on the position of the center line (RL) of the lidar frame, and when the reference pattern (P1) is located on the center line (RL) as shown in FIG. 16 (a), the reference pattern (P1) You can set the height position value to 0.

한편, 도16(b)와 같이 대상 공간 내에 객체(S)가 위치하는 경우에는, 라이다 프레임 내에 대상 패턴(P2)이 기준 패턴(P1)으로부터 이격하여 나타날 수 있다. 다만, 대상패턴(P2)은 객체(S)와의 원근관계에 의하여 라이다 프레임 상에 왜곡되어 나타나는 것으로, 실제 라인 레이저는 대상 공간(A) 내의 동일한 높이에 수평으로 조사된다. 따라서, 해당 라인레이저들의 높이위치값들은 모두 동일하며, 대상패턴(P2)의 높이위치값은 기준패턴(P1)의 높이위치값과 동일한 값으로 설정할 수 있다. 여기서, 높이위치값은 라인레이저에 대응하는 각 지점들의 z축 좌표에 대응한다. On the other hand, when the object S is located in the target space as shown in FIG. 16( b ), the target pattern P2 may appear spaced apart from the reference pattern P1 in the lidar frame. However, the target pattern P2 appears distorted on the lidar frame due to the perspective relationship with the object S, and the actual line laser is horizontally irradiated to the same height in the target space A. Accordingly, the height position values of the corresponding line lasers are all the same, and the height position value of the target pattern P2 may be set to the same value as the height position value of the reference pattern P1 . Here, the height position value corresponds to the z-axis coordinates of each point corresponding to the line laser.

또한, 도16(b)에 도시한 바와 같이, 대상 공간(A) 내에 객체(S)가 위치하는 경우, 라이다 프레임 내에는 기준 패턴(P1)과 함께 대상 패턴(P2)이 함께 나타나게 된다. 이때, 라이다 프레임의 중심점을 기준점(RP)으로 설정할 수 있으며, 기준점(RP)으로부터 수평방향으로 이격된 대상 패턴(P2)까지 거리를 측정하여 수평위치값으로 설정할 수 있다. 즉, 대상 패턴(P2)에 포함되는 각각의 지점들마다 기준점(RP)으로부터 수평방향으로 이격된 수평위치값들을 측정할 수 있으며, 이때 각각의 수평위치값들은 각각의 지점들에 대한 x축 좌표에 대응한다. 실시예에 따라서는, 대상 패턴(P2)의 수평방향 길이를 측정하여 객체(S)의 폭을 구하는 것도 가능하다. In addition, as shown in Fig. 16(b), when the object S is located in the target space A, the target pattern P2 and the reference pattern P1 are displayed together in the lidar frame. In this case, the center point of the lidar frame may be set as the reference point RP, and the distance from the reference point RP to the target pattern P2 spaced apart in the horizontal direction may be measured and set as a horizontal position value. That is, for each point included in the target pattern P2, horizontal position values spaced apart from the reference point RP in the horizontal direction can be measured, and in this case, each horizontal position value is the x-axis coordinate for each point. respond to According to the embodiment, it is also possible to obtain the width of the object (S) by measuring the horizontal length of the target pattern (P2).

한편, 라이다장치(100)와 객체(S) 사이의 거리는, 라이다 프레임 내의 대상 패턴(P2)이 기준 패턴(P1)으로부터 수직방향으로 이격된 수직위치값(p)에 비례한다. 따라서, 연산부(220)는 수직위치값(p)을 이용하여 객체(S)까지의 거리(D1)를 산출할 수 있다. 여기서, 각각의 수직위치값(p)에 대응하는 객체(S)까지의 거리값을 구하기 위한 함수 또는 테이블표 등이 미리 설정되어 있을 수 있으며, 연산부(220)는 이를 이용하여 수직위치값(p)으로부터 y축 좌표를 설정할 수 있다.On the other hand, the distance between the lidar device 100 and the object S is proportional to the vertical position value p at which the target pattern P2 in the lidar frame is vertically spaced from the reference pattern P1. Accordingly, the calculator 220 may calculate the distance D1 to the object S by using the vertical position value p. Here, a function or table table for obtaining the distance value to the object S corresponding to each vertical position value p may be preset, and the operation unit 220 uses this to determine the vertical position value p ) to set the y-axis coordinates.

따라서, 연산부(220)는 수직위치값, 수평위치값 및 높이위치값을 이용하여, 해당 객체에 대한 3차원 좌표값을 생성할 수 있다.Accordingly, the calculator 220 may generate a three-dimensional coordinate value for the object by using the vertical position value, the horizontal position value, and the height position value.

추가적으로, 도17에 도시한 바와 같이, 라인 레이저의 투광각도가 달라지는 경우에는, 연산부(220)가 수직위치값, 수평위치값 및 높이위치값에 라인 레이저들의 투광각도(θ)를 더 적용하여, 3차원 좌표값을 생성할 수 있다. Additionally, as shown in FIG. 17, when the emission angle of the line laser is changed, the calculation unit 220 further applies the emission angle θ of the line lasers to the vertical position value, the horizontal position value, and the height position value, 3D coordinate values can be generated.

구체적으로, 도17(a)와 같이 대상 공간 내에 라인 레이저를 투광각도(θ)로 조사하는 경우, 기준 패턴(P1)은 라이다 프레임의 중심선(RL)보다 아래에 위치하게 된다. Specifically, when irradiating a line laser into the target space at a light transmission angle θ as shown in FIG. 17( a ), the reference pattern P1 is positioned below the center line RL of the lidar frame.

도17(b)와 같이 라이다장치(1000)와 객체(S) 사이의 거리(D2)는, 라이다 프레임 내의 대상 패턴(P2)이 기준 패턴(P1)으로부터 수직방향으로 이격된 수직위치값(p)에 비례한다. 따라서, 연산부(220)는 수직위치값(p)을 이용하여 객체(S)까지의 거리(D2)를 산출할 수 있다. 여기서, 각각의 수직위치값(p)에 대응하는 객체(S)까지의 거리(D2)을 구하기 위한 함수 또는 테이블표 등이 미리 설정되어 있을 수 있으며, 연산부(220)는 이를 이용하여 수직위치값(p)으로부터 객체(S)까지의 거리(D2)를 산출할 수 있다. 이후, 객체(S)의 y축 좌표는 D2*cos(θ)로 구할 수 있다.As shown in Fig. 17(b), the distance D2 between the lidar device 1000 and the object S is a vertical position value at which the target pattern P2 in the lidar frame is vertically spaced apart from the reference pattern P1. It is proportional to (p). Accordingly, the calculator 220 may calculate the distance D2 to the object S by using the vertical position value p. Here, a function or table table for obtaining the distance D2 to the object S corresponding to each vertical position value p may be preset, and the operation unit 220 uses this to determine the vertical position value The distance D2 from (p) to the object S can be calculated. Thereafter, the y-axis coordinate of the object S can be obtained as D2*cos(θ).

또한, 높이위치값은 라이다 프레임의 중심선(RL)을 기준으로 하므로, 기준 패턴(P1)과 중심선(RL) 사이의 간격을 이용하여 높이위치값을 산출할 수 있다. 여기서, 높이위치값은 기준 패턴(P1)의 z축 좌표에 대응한다. 다만, 도17(b)에 도시한 바와 같이, 객체(S)는 라인 레이저보다 z축 방향으로 상단에 위치하므로, 객체(S)의 z축 좌표를 얻기 위해서는 높이위치값에 추가적인 연산을 더 수행할 필요가 있다. 여기서 다양한 방식의 삼각함수를 이용하여 z축 좌표를 구할 수 있으며, 예를들어, D2*cos(θ)*tan(θ)를 이용하여 객체의 z축 좌표를 구하는 것도 가능하다. In addition, since the height position value is based on the center line RL of the lidar frame, the height position value can be calculated using the interval between the reference pattern P1 and the center line RL. Here, the height position value corresponds to the z-axis coordinate of the reference pattern P1. However, as shown in FIG. 17(b), since the object S is located at the upper end in the z-axis direction than the line laser, additional calculation is performed on the height position value to obtain the z-axis coordinates of the object S. Needs to be. Here, it is possible to obtain the z-axis coordinates by using various trigonometric functions. For example, it is also possible to obtain the z-axis coordinates of the object using D2*cos(θ)*tan(θ).

한편, 수평위치값은 라인 레이저를 수평으로 조사하는 경우와 동일한 방법으로 측정할 수 있다. 즉, 기준점(RP)으로부터 대상 패턴(P2)이 수평방향으로 이격된 수평위치값을 측정거리를 측정할 수 있으며, 이때 기준점(RP)은 라이다 프레임의 중심점일 수 있다. 여기서, 수평위치값은 x축 좌표에 대응하므로, 대상 패턴(P2)에 포함되는 각각의 지점들의 수평위치값들을 이용하여 각각의 지점들에 대한 x축 좌표를 설정할 수 있다. On the other hand, the horizontal position value can be measured in the same way as in the case of horizontally irradiating the line laser. That is, the target pattern P2 from the reference point RP may measure a horizontal position value spaced apart in the horizontal direction to measure a distance, and in this case, the reference point RP may be the center point of the lidar frame. Here, since the horizontal position value corresponds to the x-axis coordinate, it is possible to set the x-axis coordinate for each point by using the horizontal position values of each point included in the target pattern P2.

따라서, 연산부(220)는 라이다 프레임에서 추출한 라인 레이저를 이용하여, 대상공간(A)에 대한 3차원 좌표를 각각 연산할 수 있으며, 이를 바탕으로 3차원 좌표지도를 생성할 수 있다. 즉, 도18에 도시한 바와 같이, 대상공간에 대한 3차원 좌표지도를 생성할 수 있다. Accordingly, the calculator 220 may calculate the three-dimensional coordinates for the target space A by using the line laser extracted from the lidar frame, and may generate a three-dimensional coordinate map based on this. That is, as shown in FIG. 18, a three-dimensional coordinate map for the target space can be generated.

인식부(230)는 3차원 좌표지도를 이용하여 대상 공간 내에 위치하는 객체들을 검출하고, 객체의 종류를 인식할 수 있다. 구체적으로, 3차원 좌표지도 내에 포함되는 복수의 3D 포인트 클라우드 군집들 중에서, 관심객체가 어느 위치에 존재하는지를 판단하는 방식으로, 객체를 검출할 수 있다. 즉, 사전에 학습된 모델을 이용하여, 일정 밀집도 이상의 후보 3D 포인트 클라우드 군집들 과 관심객체와의 유사도를 측정하고, 후보 3D 포인트 클라우드 군집들이 관심 객체와 설정값 이상의 유사도를 가질 경우, 해당 객체의 3차원 좌표정보를 검출하여 객체 검출을 수행할 수 있다. The recognition unit 230 may detect objects located in the target space using the 3D coordinate map and recognize the type of the object. Specifically, it is possible to detect an object by determining at which location the object of interest exists among a plurality of 3D point cloud clusters included in the 3D coordinate map. That is, by using the pre-trained model, the degree of similarity between candidate 3D point cloud clusters over a certain density and the object of interest is measured, and when the candidate 3D point cloud clusters have a similarity greater than or equal to a set value with the object of interest, Object detection may be performed by detecting 3D coordinate information.

또한, 인식부(230)는 검출된 관심 객체에 대해, 사람, 동물, 차량 등 어떤 종류에 속하는지 분류하거나, 검출된 객체가 사람인 경우 어떤 포즈를 취하고 있는지 추론하는 등의 방식으로, 객체를 인식할 수 있다. 실시예에 따라서는, 관심 객체의 3D 포인트 클라우드를 심층 신경망(deep neural network)에 입력하는 방식으로, 각각의 객체에 대한 인식을 수행할 수 있다. 여기서, 심층 신경망에는, 각각의 객체들의 종류나 포즈 등에 대한 학습이 미리 수행되어 있을 수 있다.In addition, the recognition unit 230 recognizes the object in a manner such as classifying a type of the detected object of interest, such as a person, an animal, a vehicle, or inferring a pose when the detected object is a person. can do. According to an embodiment, the recognition of each object may be performed by inputting the 3D point cloud of the object of interest to a deep neural network. Here, in the deep neural network, learning about the type or pose of each object may be performed in advance.

도19는 본 발명의 일 실시예에 의한 라이다 장치를 이용한 3차원 지도 생성 방법을 나타내는 순서도이다. 여기서, 라이다 장치는 레이저 광원부와 이미지처리부를 포함할 수 있다. 19 is a flowchart illustrating a 3D map generation method using a lidar device according to an embodiment of the present invention. Here, the lidar device may include a laser light source unit and an image processing unit.

도19를 참조하면, 먼저 레이저 광원부가 대상 공간 내 라인 레이저를 출력할 수 있다(S10). 여기서 레이저광원부는 싱글 라인 레이저, 또는 서로 다른 광 경로로 진행하는 복수의 라인 레이저를 포함하는 멀티 라인 레이저를 생성할 수 있으며, 생성한 라인 레이저의 투광각도를 변경하여 대상 공간 내에 조사할 수 있다. 이때, 라이다 장치는 갈바노미터나 MEMS 미러 등을 이용하여 라인 레이저의 투광각도를 변경시킬 수 있으며, 투광각도의 각도변화량과 변화방향 등은 미리 설정되어 있을 수 있다. 다만, 투광각도와 라인 레이저의 방출 타이밍 제어 등에 대하여는 앞서 설명하였으므로, 여기서는 구체적인 설명을 생략한다.Referring to FIG. 19 , first, the laser light source may output a line laser in the target space ( S10 ). Here, the laser light source unit may generate a single-line laser or a multi-line laser including a plurality of line lasers traveling in different optical paths, and may irradiate the generated line laser into the target space by changing the emitting angle. In this case, the LIDAR device may change the emission angle of the line laser by using a galvanometer or MEMS mirror, and the angular change amount and change direction of the emission angle may be preset. However, since the light projection angle and the emission timing control of the line laser have been described above, a detailed description thereof will be omitted.

이후, 이미지 처리부가 대상 공간 내에서 반사된 라인 레이저들을 포함하는 검출 이미지를 생성할 수 있으며, 검출이미지를 이용하여 대상 공간에 대한 3차원좌표지도를 생성할 수 있다(S20). Thereafter, the image processing unit may generate a detection image including the line lasers reflected in the target space, and may generate a 3D coordinate map of the target space using the detection image ( S20 ).

구체적으로, CCD 센서 또는 CMOS 센서 등의 이미지센서부는 반사된 멀티 라인 레이저를 감지하여 검출이미지를 생성할 수 있으며, 연산부는 생성된 검출이미지들을 취합하여 라이다 프레임을 생성할 수 있다Specifically, an image sensor unit such as a CCD sensor or a CMOS sensor may generate a detection image by detecting a reflected multi-line laser, and the operation unit may generate a lidar frame by collecting the generated detection images.

라이다 프레임이 생성되면, 연산부는 라이다 프레임으로부터 라인 레이저를 추출할 수 있으며, 라인 레이저에 대한 대상 공간 내 3차원좌표정보를 생성할 수 있다. 여기서, 라인 레이저는 딥러닝 모델 등을 이용하여 추출할 수 있으며, 삼각측량법을 이용하여 라이다 프레임 내에 나타난 각각 라인레이저에 대한 3차원좌표정보를 생성할 수 있다. 이후, 각각의 3차원좌표정보들을 취합하여 대상공간에 대한 3차원 지도를 생성할 수 있다. 실시예에 따라서는, 생성된 3차원 좌표지도를 이용하여 대상 공간 내에 위치하는 객체들을 검출하고, 객체의 종류를 인식하는 등의 동작을 수행하는 것도 가능하다. When the lidar frame is generated, the operation unit may extract a line laser from the lidar frame, and may generate 3D coordinate information in a target space for the line laser. Here, the line laser may be extracted using a deep learning model, etc., and 3D coordinate information for each line laser displayed in the lidar frame may be generated using triangulation. Thereafter, each 3D coordinate information may be collected to generate a 3D map for the target space. According to an embodiment, it is possible to detect objects located in the target space using the generated 3D coordinate map, and perform an operation such as recognizing the type of the object.

한편, 본 발명의 일 실시예에 의한 라이다 장치(1000)는, AGV(Automated Guided Vehicle) 등 무인이동로봇이나, 협동로봇, 산업용 로봇 등에 적용가능하다. 즉, 로봇 주위의 주변 환경을 감지하거나, 물체의 크기나 형태를 감지하기 위한 센서로 활용될 수 있다. On the other hand, the lidar device 1000 according to an embodiment of the present invention is applicable to an unmanned mobile robot such as an AGV (Automated Guided Vehicle), a cooperative robot, an industrial robot, and the like. That is, it can be used as a sensor for detecting the surrounding environment around the robot or detecting the size or shape of an object.

또한, 본 발명의 일 실시예에 의한 라이다 장치(1000)는, 자동차의 자율주행 보조 시스템에서 충돌 방지를 위해 자동차의 근거리 주변 환경을 감지하거나, 카메라로 감지하지 못하는 야간환경, 어두운 실내 환경이나 프라이버시 문제로 카메라를 사용할 수 없는 장소에 대한 보안, 안전 등을 위한 감시를 수행할 수 있다. In addition, the lidar device 1000 according to an embodiment of the present invention detects a nearby environment of the vehicle to prevent collision in the autonomous driving assistance system of the vehicle, or a night environment that cannot be detected by a camera, a dark indoor environment, or Surveillance for security and safety in places where cameras cannot be used due to privacy concerns can be performed.

이외에도, 본 발명의 일 실시예에 의한 라이다 장치(1000)는, 사람의 몸동작, 형태 등을 인식하는 기능을 필요로 하는 게임, VR 등과 같은 엔터테이먼트 시스템에 활용 가능하다. In addition, the lidar device 1000 according to an embodiment of the present invention can be utilized in an entertainment system such as a game or VR that requires a function of recognizing a human body motion, shape, and the like.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

실시예들에서 설명된 구성요소들은 하나 이상의 DSP (Digital Signal Processor), 프로세서 (Processor), 컨트롤러 (Controller), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array)와 같은 프로그래머블 논리 소자 (Programmable Logic Element), 다른 전자 기기들 및 이것들의 조합 중 하나 이상을 포함하는 하드웨어 구성 요소들(hardware components)에 의해 구현될 수 있다. 실시예들에서 설명된 기능들(functions) 또는 프로세스들(processes) 중 적어도 일부는 소프트웨어(software)에 의해 구현될 수 있고, 해당 소프트웨어는 기록 매체(recording medium)에 기록될 수 있다. 실시예들에서 설명된 구성요소들, 기능들 및 프로세스들은 하드웨어와 소프트웨어의 조합에 의해 구현될 수 있다.The components described in the embodiments are one or more of a digital signal processor (DSP), a processor, a controller, an application specific integrated circuit (ASIC), a programmable logic device such as a field programmable gate array (FPGA). Logic Element), other electronic devices, and hardware components including one or more of combinations thereof. At least some of the functions or processes described in the embodiments may be implemented by software, and the software may be recorded on a recording medium. Components, functions and processes described in the embodiments may be implemented by a combination of hardware and software.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

1000: 라이다 장치 100: 레이저광원부
110: 레이저 출력부 111: 레이저다이오드
112: 콜리메이터 120: 스캐닝부
121: 반사체 122: 구동부
123: MEMS 미러 124: 렌즈부
125: 회절격자부 130: 제어부
200: 이미지처리부 210: 이미지센서부
220: 연산부 230: 인식부
1000: lidar device 100: laser light source unit
110: laser output unit 111: laser diode
112: collimator 120: scanning unit
121: reflector 122: driving unit
123: MEMS mirror 124: lens unit
125: diffraction grating unit 130: control unit
200: image processing unit 210: image sensor unit
220: calculation unit 230: recognition unit

Claims (17)

이미지 기반의 3차원 라이다(LiDAR) 장치에 있어서,
대상 공간 내 라인 레이저를 출력하는 레이저 광원부; 및
상기 대상 공간 내에서 반사된 상기 라인 레이저들을 포함하는 검출이미지를 생성하고, 상기 검출이미지를 이용하여 상기 대상 공간에 대한 3차원좌표지도를 생성하는 이미지처리부를 포함하는 라이다 장치.
In the image-based three-dimensional LiDAR (LiDAR) device,
a laser light source for outputting a line laser in the target space; and
and an image processing unit for generating a detection image including the line lasers reflected in the target space, and generating a 3D coordinate map for the target space by using the detection image.
제1항에 있어서, 상기 레이저 광원부는
트리거 신호에 따라, 점 형상의 레이저 광을 생성하는 레이저 출력부;
상기 레이저 광을 싱글 라인 또는 멀티 라인의 라인 레이저로 변환하여, 상기 대상 공간 내에 출력하는 스캐닝부; 및
상기 대상 공간 내에 상기 라인 레이저를 출력하도록, 상기 레이저 출력부 및 스캐닝부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 하는 라이다 장치.
According to claim 1, wherein the laser light source unit
a laser output unit that generates a point-shaped laser light according to a trigger signal;
a scanning unit converting the laser light into a single-line or multi-line laser and outputting it in the target space; and
and a controller for controlling operations of the laser output unit and the scanning unit to output the line laser in the target space.
제2항에 있어서, 상기 스캐닝부는
상기 레이저 광을 서로 다른 광 경로로 진행하는 복수의 라인 레이저로 분할하여 멀티 라인의 상기 라인 레이저를 생성하는 회절격자부를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 2, wherein the scanning unit
and a diffraction grating unit configured to divide the laser light into a plurality of line lasers traveling in different optical paths to generate the multi-line lasers.
제2항에 있어서, 상기 스캐닝부는
상기 싱글 라인 또는 멀티 라인의 라인 레이저를 반사시키는 반사체; 및
상기 반사체의 반사각도를 조절하는 구동부를 더 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 2, wherein the scanning unit
a reflector for reflecting the single-line or multi-line line laser; and
Lidar device, characterized in that it further comprises a driving unit for adjusting the reflection angle of the reflector.
제4항에 있어서, 상기 제어부는
상기 구동부의 동작을 제어하여, 상기 라인 레이저가 상기 대상 공간 내에 조사되는 투광각도를 제어하는 것을 특징으로 하는 라이다 장치.
5. The method of claim 4, wherein the control unit
LiDAR device, characterized in that by controlling the operation of the driving unit to control a light projection angle at which the line laser is irradiated into the target space.
제2항에 있어서, 상기 스캐닝부는
갈바노미터(galvanometer) 또는 MEMS(Micro-Electro Mechanical Systems) 미러(mirror)를 더 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 2, wherein the scanning unit
Lidar device, characterized in that it further comprises a galvanometer (galvanometer) or MEMS (Micro-Electro Mechanical Systems) mirror (mirror).
제5항에 있어서, 상기 제어부는
상기 이미지처리부로부터 프레임 시작신호를 수신하면 상기 트리거 신호를 전송하여, 상기 레이저 출력부가 레이저 광을 지속시간동안 방출하도록 제어하고, 상기 지속시간이 종료되면 상기 투광각도를 변경하도록 상기 구동부를 제어하는 것을 특징으로 하는 라이다 장치.
According to claim 5, wherein the control unit
When receiving the frame start signal from the image processing unit, transmitting the trigger signal, controlling the laser output unit to emit laser light for a duration, and controlling the driving unit to change the projection angle when the duration ends Features a lidar device.
제7항에 있어서, 상기 제어부는
하나의 프레임 노출 시간 내에, 복수의 투광각도를 가지는 라인 레이저들이 출력되도록 제어하는 것을 특징으로 하는 라이다 장치.
The method of claim 7, wherein the control unit
A lidar device, characterized in that the line lasers having a plurality of light transmission angles are controlled to be output within one frame exposure time.
제2항에 있어서, 상기 제어부는
상기 이미지처리부로부터 홀수번째 프레임 시작신호를 수신하면, 상기 트리거 신호를 전송하여 상기 레이저 출력부가 레이저 광을 지속시간동안 방출하도록 제어하고, 짝수번째 프레임 시작신호를 수신하면, 상기 트리거 신호의 전송을 생략하여 상기 레이저 출력부가 레이저 광을 방출하지 않도록 제어하는 것을 특징으로 하는 라이다 장치.
According to claim 2, wherein the control unit
When an odd-numbered frame start signal is received from the image processing unit, the trigger signal is transmitted to control the laser output unit to emit laser light for a duration, and when an even-numbered frame start signal is received, transmission of the trigger signal is omitted. to control the laser output unit not to emit laser light.
제1항에 있어서, 상기 이미지처리부는
상기 라인 레이저를 포함하는 검출이미지를 생성하는 이미지센서부; 및
상기 검출이미지들을 이용하여 라이다 프레임을 생성하고, 상기 라이다 프레임으로부터 추출한 대상공간의 3차원 좌표를 이용하여, 상기 3차원 좌표지도를 생성하는 연산부를 포함하는 것을 특징으로 하는 라이다 장치.
The method of claim 1, wherein the image processing unit
an image sensor unit generating a detection image including the line laser; and
LiDAR device, comprising: a arithmetic unit for generating a lidar frame using the detection images, and generating the three-dimensional coordinate map by using the three-dimensional coordinates of the target space extracted from the lidar frame.
제10항에 있어서, 상기 이미지센서부는
글로벌 셔터(global shutter) 방식을 채택하여, 상기 이미지센서부에 포함된 전체 픽셀들이, 동일한 프레임 노출시간 동안 상기 라인 레이저를 감지하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the image sensor unit
By adopting a global shutter method, all pixels included in the image sensor unit detect the line laser during the same frame exposure time.
제10항에 있어서, 상기 연산부는
상기 이미지센서부로부터 수신한 N 개(N은 1 이상의 자연수)의 검출이미지들을 결합하여 1개의 라이다 프레임을 생성하고, 상기 라이다 프레임 내에 포함된 복수의 라인 레이저들을 추출하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the operation unit
Ra, characterized in that by combining N detection images (N is a natural number greater than or equal to 1) received from the image sensor unit to generate one lidar frame, and extracting a plurality of line lasers included in the lidar frame is the device.
제10항에 있어서, 상기 연산부는
삼각측량기법을 이용하여, 상기 라이다 프레임 내에 나타난 각각의 라인 레이저의 3차원좌표를 설정하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the operation unit
A lidar device, characterized in that by using a triangulation technique, to set the three-dimensional coordinates of each line laser displayed in the lidar frame.
제10항에 있어서, 상기 연산부는
상기 라인레이저가 기준 패턴과, 상기 기준 패턴으로부터 단락되어 수직방향으로 이격된 형상의 대상패턴을 포함하면,
상기 대상 패턴이 상기 기준 패턴으로부터 수직방향으로 이격된 수직위치값, 상기 대상 패턴이 기준점으로부터 수평방향으로 이격된 수평위치값 및 상기 기준 패턴에 대응하는 높이위치값을 각각 산출하고, 상기 수직위치값, 수평위치값 및 높이위치값을 이용하여, 상기 3차원 좌표값을 생성하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the operation unit
When the line laser includes a reference pattern and a target pattern in a shape that is vertically spaced apart from the reference pattern by short circuit,
A vertical position value in which the target pattern is vertically spaced apart from the reference pattern, a horizontal position value in which the target pattern is horizontally spaced apart from a reference point, and a height position value corresponding to the reference pattern are calculated, respectively, and the vertical position value , using the horizontal position value and the height position value, the lidar device, characterized in that for generating the three-dimensional coordinate value.
제14항에 있어서, 상기 연산부는
상기 수직위치값, 수평위치값 및 높이위치값에 상기 라인 레이저들의 투광각도를 더 적용하여, 상기 3차원 좌표값을 생성하는 것을 특징으로 하는 라이다 장치.
15. The method of claim 14, wherein the operation unit
The three-dimensional coordinate value is generated by further applying the projection angles of the line lasers to the vertical position value, the horizontal position value, and the height position value.
제10항에 있어서, 상기 이미지처리부는
상기 3차원 좌표지도를 이용하여 대상 공간 내에 위치하는 객체들을 검출하고, 상기 객체의 종류를 인식하는 인식부를 더 포함하는 것을 특징으로 하는 라이다 장치.
11. The method of claim 10, wherein the image processing unit
LiDAR device, characterized in that it detects objects located in the target space using the three-dimensional coordinate map, and further comprises a recognition unit for recognizing the type of the object.
레이저 광원부 및 이미지처리부를 포함하는 라이다 장치를 이용한 3차원 지도 생성 방법에 있어서,
레이저 광원부가 대상 공간 내 라인 레이저를 출력하는 단계; 및
이미지 처리부가 상기 대상 공간 내에서 반사된 상기 라인 레이저들을 포함하는 검출 이미지를 생성하고, 상기 검출이미지를 이용하여 상기 대상 공간에 대한 3차원좌표지도를 생성하는 단계를 포함하는 3차원 지도 생성 방법.

A 3D map generation method using a lidar device including a laser light source unit and an image processing unit, the method comprising:
The laser light source unit outputting a line laser in the target space; and
and generating, by an image processing unit, a detection image including the line lasers reflected in the target space, and generating a 3D coordinate map of the target space by using the detection image.

KR1020200147027A 2020-11-05 2020-11-05 Apparatus for LIDAR KR20220060891A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200147027A KR20220060891A (en) 2020-11-05 2020-11-05 Apparatus for LIDAR
PCT/KR2021/014323 WO2022097952A1 (en) 2020-11-05 2021-10-15 Lidar device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200147027A KR20220060891A (en) 2020-11-05 2020-11-05 Apparatus for LIDAR

Publications (1)

Publication Number Publication Date
KR20220060891A true KR20220060891A (en) 2022-05-12

Family

ID=81457175

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200147027A KR20220060891A (en) 2020-11-05 2020-11-05 Apparatus for LIDAR

Country Status (2)

Country Link
KR (1) KR20220060891A (en)
WO (1) WO2022097952A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014014838A2 (en) * 2012-07-15 2014-01-23 2R1Y Interactive illumination for gesture and/or object recognition
US20170374342A1 (en) * 2016-06-24 2017-12-28 Isee, Inc. Laser-enhanced visual simultaneous localization and mapping (slam) for mobile devices
US10884127B2 (en) * 2016-08-02 2021-01-05 Samsung Electronics Co., Ltd. System and method for stereo triangulation
WO2018055449A2 (en) * 2016-09-20 2018-03-29 Innoviz Technologies Ltd. Lidar systems and methods
KR102059244B1 (en) * 2017-12-20 2019-12-24 주식회사 에스오에스랩 Apparatus for Light Detection and Ranging
KR20210153913A (en) * 2020-06-11 2021-12-20 주식회사 케이티 Apparatus for LIDAR

Also Published As

Publication number Publication date
WO2022097952A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
JP6387407B2 (en) Perimeter detection system
JP7197571B2 (en) Intelligent LADAR system with low-latency motion plan updates
US10183541B2 (en) Surround sensing system with telecentric optics
US11579254B2 (en) Multi-channel lidar sensor module
JP7203217B2 (en) Time-of-flight sensor with structured light illumination
US10488192B2 (en) Distance sensor projecting parallel patterns
KR101949565B1 (en) Lidar sensor system for near field detection
JP6528447B2 (en) Disparity calculation system and distance measuring device
EP3834000A1 (en) Improved 3d sensing
JP2006505784A (en) Ranging device
EP3045935A1 (en) Surround sensing system with dome-filter assembly
KR102059244B1 (en) Apparatus for Light Detection and Ranging
WO2018094307A1 (en) Sensing system and method
JP2023510286A (en) Sensor system calibration
JP7140474B2 (en) A system for stereo triangulation
RU2669200C2 (en) Obstacle detection device with crossing planes and method of detecting thereby
EP3372508A1 (en) Method and system for aircraft taxi strike alerting
CN107076553B (en) Enhanced object detection using structured light
Bartels et al. Agile depth sensing using triangulation light curtains
JP7135081B2 (en) Apparatus and method
US11619725B1 (en) Method and device for the recognition of blooming in a lidar measurement
CN115248440A (en) TOF depth camera based on dot matrix light projection
KR20220060891A (en) Apparatus for LIDAR
KR101868293B1 (en) Apparatus for Providing Vehicle LIDAR
WO2021199888A1 (en) Method and device for controlling distance measurement device