KR20200023006A - Method and system for controlling lidar sensor - Google Patents
Method and system for controlling lidar sensor Download PDFInfo
- Publication number
- KR20200023006A KR20200023006A KR1020180099330A KR20180099330A KR20200023006A KR 20200023006 A KR20200023006 A KR 20200023006A KR 1020180099330 A KR1020180099330 A KR 1020180099330A KR 20180099330 A KR20180099330 A KR 20180099330A KR 20200023006 A KR20200023006 A KR 20200023006A
- Authority
- KR
- South Korea
- Prior art keywords
- lidar sensor
- density
- angular velocity
- measurement object
- tilting
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
Abstract
Description
본 발명은 라이다 센서 제어 방법에 연관되며, 보다 특정하게는 라이다 센서의 스캔 방식의 개선에 연관된다.The present invention relates to a method for controlling a lidar sensor, and more particularly, to an improvement in the scanning scheme of a lidar sensor.
본 발명의 배경이 되는 기술은 다음의 문헌에 개시되어 있다.The background technology of the present invention is disclosed in the following documents.
1) 등록번호: 10-1733521 (2017.04.28), "항공 라이다 자료를 이용한 지형기복 확인과 사각지대 복구 방식의 정사보정방법"1) Registration No. 10-1733521 (April 28, 2017), "Checking Terrain Relief Using Aviation Lidar Data and Orthodontic Correction of Blind Spot Restoration"
2) 등록번호: 10-1843866 (2018.03.26), "라이다 데이터를 이용하여 도로 영역과 차선을 검출하는 방법 및 그 시스템"2) Registration No .: 10-1843866 (March 26, 2018), "Method and system for detecting road area and lane using lidar data"
최근 자율주행을 위한 정밀한 지도 제작을 위해, 주변 환경을 인식하는 카메라, 레이더, 라이다, 초음파 센서 등 여러 종류의 센서가 활용되면서, 센서의 기능을 높이기 위한 기술의 개발이 이루어지고 있다.Recently, various types of sensors such as cameras, radars, lidars, ultrasonic sensors, etc., which recognizes the surrounding environment, have been developed for precise mapping for autonomous driving, and technology for improving the function of the sensors has been made.
예를 들어 카메라는 기존의 단안에서 두 개의 렌즈 간 시각차를 이용해 물체를 3차원으로 인지하는 스테레오 카메라로 발전하고 있다.For example, cameras are being developed into stereo cameras that recognize objects in three dimensions using the difference in angle between two lenses in a conventional monocular.
또한 카메라 외에 레이더를 조합해서 주변 환경을 인식하는 기술이 제안되고 상용화 되어 있으며 이처럼 여러 센서를 조합해서 사용하는 것 외에도, 센서 간 부족 부분을 보완한 통합 센서를 통해 가격을 낮출 수 있는 기술도 제안되고 있다.In addition to the camera, a technology for recognizing the surrounding environment by combining radar has been proposed and commercialized.In addition to using a combination of these sensors, a technology for lowering the price through an integrated sensor that compensates for the shortcomings between the sensors is proposed. have.
뿐만 아니라 주변 환경을 인식한 정보를 바탕으로 충돌 위험을 감지하거나 전방 차량과의 간격을 조절하는 등의 상황 정보를 부가적으로 제공 가능한 센서도 개발되고 있다.In addition, based on information that recognizes the surrounding environment, sensors that can additionally provide situational information such as detecting a collision risk or adjusting a distance from a vehicle ahead of the vehicle are being developed.
이 중에서 특히 라이다 센서는, 이동 중에 일정 개수의 레이저 광원을 360도 회전시켜서 출력한 다수의 레이저빔을 감지해서 주변 환경을 인식하는 레이저 센서로서, 무인 자동차, 드론 및 로봇 등의 이동 중인 물체에 장착되어 주변의 환경을 인식하는 데 널리 사용되고 있다.Among them, the lidar sensor is a laser sensor that detects a plurality of laser beams output by rotating a predetermined number of laser light sources 360 degrees while moving, and recognizes the surrounding environment, and is used for moving objects such as driverless cars, drones, and robots. It is widely used to recognize the surrounding environment.
기존의 라이다 센서는 다수의 레이저빔을 이용해 획득한 스캔 평면들 사이를, 이동체의 움직임으로 채워서 주변 환경을 3차원으로 재구성하고 있으나, 이동체의 정지 상태에서는 라이다 센서에 지정된 각도로 획득한 스캔 평면들 만으로 주변 환경을 재구성하게 되기 때문에, 부족한 정보를 기반으로 지도를 제작해야 하는 어려움이 있고, 이 경우 완성된 지도의 정밀도(해상도, 밀도)가 필요로 하는 수준(품질)에 미치지 않아 활용도 역시 떨어질 수 있다.Conventional lidar sensor reconstructs the surrounding environment in three dimensions by filling the movement of the moving object between the scan planes acquired using a plurality of laser beams, but in the stationary state of the moving object, the scan acquired at the angle specified by the lidar sensor Since only the planes are used to reconstruct the surrounding environment, it is difficult to create a map based on insufficient information. In this case, the degree of utilization is not sufficient because the accuracy (resolution and density) of the completed map is not required. Can fall.
이로 인해 라이다 센서의 레이저 광원의 개수를 늘리는 방식이 차용되고 있으나, 광원의 개수가 많아질수록 라이다 센서는 대형화되어 드론과 같은 소형의 이동체에 장착하기 어렵고 가격도 급격히 높아질 수 있다.For this reason, the method of increasing the number of laser light sources of the lidar sensor is borrowed. However, as the number of light sources increases, the lidar sensor becomes larger, making it difficult to be mounted on a small moving object such as a drone, and the price may increase rapidly.
이에 따라, 이동체가 정지한 상태에서도, 소망하는 수준의 3차원 형상 정보를 제공할 수 있는 센서의 개발이 요구되고 있다.Accordingly, there is a demand for the development of a sensor capable of providing three-dimensional shape information of a desired level even in a state where the moving object is stopped.
본 발명의 실시예는 이동체가 정지한 경우에도, 이동체에 장착된 라이다 센서를 임의의 방향으로 구동하도록 제어하여, 원하는 영역에 대해, 소망하는 수준의 밀도(해상도)를 가지는 3차원 형상 정보를 구성할 수 있도록 하는 것을 목적으로 한다.According to an embodiment of the present invention, even when the moving object is stopped, the lidar sensor mounted on the moving object is controlled to be driven in an arbitrary direction so that three-dimensional shape information having a desired level of density (resolution) is desired for a desired area. The purpose is to be able to configure.
또한, 본 발명의 실시예는 특정 거리로 이격된 측정 대상에 대해 선택적으로 틸팅 각속도를 제어하여, 상기 3차원 형상 정보의 밀도를 향상시키는 것을 목적으로 한다.In addition, an embodiment of the present invention aims to improve the density of the three-dimensional shape information by selectively controlling the tilting angular velocity with respect to the measurement target spaced apart by a certain distance.
본 발명의 일실시예에 따른 라이다 센서 제어 방법은, 측정 대상을 중심으로 움직이는 라이다 센서가 상기 측정 대상을 인식하는 인식거리를 확인하는 단계, 상기 인식거리에 따라, 상기 라이다 센서의 틸팅 각속도를 조정하는 단계, 및 상기 조정된 틸팅 각속도로 상기 측정 대상을 스캔하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, a method of controlling a lidar sensor may include: determining a recognition distance at which a lidar sensor moving around a measurement object recognizes the measurement object, and tilting of the lidar sensor according to the recognition distance And adjusting the angular velocity, and scanning the measurement object at the adjusted tilting angular velocity to construct three-dimensional shape information about the measurement object.
또한, 본 발명의 실시예에 따른 라이다 센서 제어 시스템은, 측정 대상을 중심으로 움직이는 라이다 센서가 상기 측정 대상을 인식하는 인식거리를 확인하는 확인부, 상기 인식거리에 따라, 상기 라이다 센서의 틸팅 각속도를 조정하는 제어부, 및 상기 조정된 틸팅 각속도로 상기 측정 대상을 스캔하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성하는 처리부를 포함하여 구성할 수 있다.In addition, the lidar sensor control system according to an embodiment of the present invention, a confirmation unit for confirming the recognition distance for the lidar sensor moving around the measurement object to recognize the measurement object, according to the recognition distance, the lidar sensor And a controller configured to adjust the tilting angular velocity of the scanning target, and a processing unit configured to scan the measurement target at the adjusted tilting angular velocity and configure three-dimensional shape information about the measurement target.
본 발명의 일실시예에 따르면, 예를 들어 2축 자유도를 가지는 구동기를 통해 라이다 센서를 임의의 방향으로 움직이도록 제어 함으로써, 이동체의 주행 여부와 관계 없이 원하는 영역 내 측정 대상에 관한 3차원 형상정보를 높은 수준의 밀도로 구성할 수 있다.According to one embodiment of the invention, for example, by controlling the movement of the lidar sensor in any direction through a driver having a two-axis degrees of freedom, three-dimensional shape of the object to be measured in the desired area regardless of whether the moving object Information can be organized at high levels of density.
본 발명의 일실시예에 따르면, 측정 대상과의 거리를 기반으로 3차원 형상 정보의 밀도를 원하는 수준에 도달하도록 할 수 있다.According to an embodiment of the present invention, the density of the 3D shape information may be reached to a desired level based on the distance from the measurement object.
본 발명의 일실시예에 따르면, 이동체가 정지된 상태에서도 주변 물체를 정확하게 인식할 수 있어, 이동체를 통한 해당 물체의 파지 등의 동작 수행의 정밀도를 높일 수 있다.According to one embodiment of the present invention, even when the moving object is stopped, the surrounding object can be accurately recognized, thereby increasing the precision of performing an operation such as holding the corresponding object through the moving object.
본 발명의 일실시예에 따르면, 이동체(또는 이동체에 부착된 라이다 센서)와 물체와의 거리를 고려해, 라이다 센서의 틸팅 각속도를 조절 함으로써, 원거리 물체에 대한 인식률을 높일 수 있다.According to one embodiment of the present invention, in consideration of the distance between the moving object (or the lidar sensor attached to the moving object) and the object, by adjusting the tilting angular velocity of the lidar sensor, it is possible to increase the recognition rate for the remote object.
본 발명의 일실시예에 따르면, 측정 대상과의 거리에 따라 선택적으로 라이다 센서의 틸팅 각속도를 조절하여, 원하는 영역에서의 주 관심 물체(측정 대상)에 대한 선택적인 고밀도 3차원 형상 정보의 추출이 가능해질 수 있다.According to an embodiment of the present invention, by selectively adjusting the tilting angular velocity of the lidar sensor in accordance with the distance to the measurement object, the selective high-density three-dimensional shape information for the main object of interest (measurement object) in the desired area This can be made possible.
도 1은 본 발명의 일실시예에 따른 라이다 센서 제어 시스템과, 라이다 센서가 부착된 이동체 및 측정 대상을 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 라이다 센서 제어 시스템의 내부 구성을 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따른 라이다 센서 제어 시스템에서, 2축 자유도를 가지는 구동기로, 라이다 센서를 구동 제어하는 일례를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 라이다 센서 제어 시스템에서, 스캔 평면의 일례를 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 라이다 센서 제어 시스템에서, 3차원 형상 정보의 이례를 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 라이다 센서 제어 방법의 순서를 도시한 흐름도이다.1 is a diagram illustrating a lidar sensor control system according to an embodiment of the present invention, a moving object to which a lidar sensor is attached, and a measurement target.
Figure 2 is a block diagram showing the internal configuration of a lidar sensor control system according to an embodiment of the present invention.
3 is a diagram illustrating an example of driving control of a lidar sensor with a driver having two axes of freedom in a lidar sensor control system according to an exemplary embodiment of the present invention.
4 is a diagram illustrating an example of a scan plane in a lidar sensor control system according to an exemplary embodiment of the present invention.
5 is a diagram illustrating an example of three-dimensional shape information in the lidar sensor control system according to an embodiment of the present invention.
6 is a flowchart illustrating a procedure of a lidar sensor control method according to an embodiment of the present invention.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, various changes may be made to the embodiments so that the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, and substitutes for the embodiments are included in the scope of rights.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of description and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components will be given the same reference numerals regardless of the reference numerals and duplicate description thereof will be omitted. In the following description of the embodiment, if it is determined that the detailed description of the related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
도 1은 본 발명의 일실시예에 따른 라이다 센서 제어 시스템과, 라이다 센서가 부착된 이동체 및 측정 대상을 도시한 도면이다.1 is a diagram illustrating a lidar sensor control system according to an embodiment of the present invention, a moving object to which a lidar sensor is attached, and a measurement target.
도 1을 참조하면, 본 발명의 일실시예에 따른 라이다 센서 제어 시스템(100)은, 측정 명령의 발생에 연동하여 라이다 센서(110)를 임의의 방향으로 움직이도록 구동 제어 함으로써, 측정 대상에 관해 구성되는 3차원 형상 정보를 소망하는 수준의 밀도에 도달하도록 할 수 있다.1, the lidar
특히, 본 발명의 라이다 센서 제어 시스템(100)은, 거리가 먼 곳의 측정 대상에 대해 라이다 센서를 천천히 틸팅 제어하고, 반면 거리가 가까운 곳의 측정 대상에 대해 라이다 센서를 상대적으로 빠르게 틸팅 제어 함으로써, 라이다 센서와 측정 대상 과의 이격된 거리에 따른, 라이다 센서의 틸팅 각속도가 유연하게 조절되도록 하고 있다.In particular, the lidar
라이다 센서는, 수직방향으로 일렬 배치된 광원-반사광센서 어레이를 상기 측정 대상의 주변을 회전하면서 라인 스캐닝하는 것이고, 또한 시야 범위를 위 아래로 확대하기 위해 상하로 틸팅시키고 있다.The lidar sensor is line scanning the array of light source-reflected light sensors arranged in a vertical direction while rotating the periphery of the measurement object, and tilts up and down to enlarge the field of view up and down.
하지만, 종래의 라이다 센서에 대한 제어는, 상기 틸팅하는 속도를 정해진 일률적인 속도로 만 하고 있어, 멀리 있는 측정 대상에 대해 상대적으로 빠른 스캔 만이 할당되어, 촘촘한 스캔이 이루어질 수 없었고, 이로 인해 측정 대상의 3차원 이미지가 비교적 낮은 정확도로 출력되는 문제점이 있어 왔다.However, in the control of the conventional lidar sensor, the tilting speed is only a fixed speed, and only a relatively fast scan is assigned to a distant measurement target, and thus a detailed scan cannot be performed. There has been a problem that a three-dimensional image of an object is output with relatively low accuracy.
이를 개선하기 위해, 본 발명의 라이다 센서 제어 시스템(100)은, 멀리 있는 측정 대상(또는 측정 대상 중 원거리의 부분)에 대한 스캔이라면, 라이다 센서의 틸팅 각속도를 느리게 조정하고, 반면 가까이 있는 측정 대상(또는 측정 대상 중 근거리의 부분)에 대한 스캔이라면, 라이다 센서의 틸팅 각속도를 빠르게 조정할 수 있다.To improve this, the lidar
이때, 라이다 센서 제어 시스템(100)은 차량, 드론, 로봇 등의 이동체(101)가 정지 상태인 경우에, 라이다 센서(110)를 임의의 방향으로 움직이도록 제어 함으로써, 이동체(101)의 움직임이 없더라도, 라이다 센서(110)의 움직임에 의해 다수의 레이저빔을 이용해 생성한 복수의 스캔 평면들 간 간격을 좁힘으로써, 상기 3차원 형상 정보의 밀도를 향상시킬 수 있다.In this case, the lidar
도 1에 도시된 것처럼, 라이다 센서 제어 시스템(100)은 상기 측정 명령에 따라, 이동체(101)에 장착된 라이다 센서(110)를, 그 하부에 부착된 2축 구동기(120)를 통해 임의의 방향으로 상하 운동하도록 제어할 수 있다.As shown in FIG. 1, the lidar
여기서, 2축의 자유도를 가지는 구동기(120)는, 가로축(pitch) 방향, 세로축(roll) 방향 및 수직축(yaw) 방향 중 두 방향으로 회전 가능하며, 일례로 라이다 센서 제어 시스템(100)은 2축 구동기(120)를 통해 라이다 센서(110)를 측정 대상(102)을 중심으로 한 pitch 방향으로 상하 운동하도록 제어할 수 있다.Here, the
일례로, 라이다 센서 제어 시스템(100)은 이동체(101)와, 주변 물체 중 주 관심 물체로 지정된 측정 대상(102) 간 거리를 고려하여, 라이다 센서(110)의 틸팅 각도 또는 틸팅 각속도를 조절 함으로써 3차원 형상 정보의 밀도를 높일 수 있다.For example, the lidar
구체적으로, 라이다 센서 제어 시스템(100)은 측정 대상(102)과의 거리가 멀수록 스캔 평면들 간 간격이 넓어지게 되므로, 상기 간격이, 구현하려는 목표 밀도에 따른 간격의 범위 내에 포함되도록, 틸팅 각도를 감소시켜 틸팅 각속도가 천천히 조정되도록 하는 조절을 할 수 있다.Specifically, the distance between the scan planes becomes wider as the distance between the Lidar
즉, 라이다 센서 제어 시스템(100)은 라이다 센서(110)를 짧은 각도 내에서 상하 운동을 반복하도록 제어하여, 원거리의 측정 대상(102)에 관해 구성되는 3차원 형상 정보의 밀도를 원하는 수준까지 높일 수 있다.That is, the lidar
또한 라이다 센서 제어 시스템(100)은 라이다 센서(110)와의 거리가 기준치를 초과하는 원거리의 측정 대상에 대해, 측정 대상을 틸팅(tilting)하여 스캔하는 틸팅 각속도를 느리게 조정하여, 3차원 형상 정보의 밀도를 상기 목표 밀도로 높이기 위한 컴퓨팅 처리를 위한 시간을 확보할 수 있다.In addition, the lidar
이처럼, 라이다 센서 제어 시스템(100)은 이동체가 정지한 상태에서도, 이동체에 장착된 라이다 센서를 임의의 방향으로 구동하도록 제어하여, 원하는 영역에 대해, 소망하는 수준의 밀도(해상도)를 가지는 3차원 형상 정보를 구성할 수 있다. 또한 라이다 센서 제어 시스템(100)은 특정 거리로 이격된 측정 대상에 대해 선택적으로 틸팅 각도 또는 틸팅 각속도를 제어하여, 상기 3차원 형상 정보의 밀도를 향상시킬 수 있다.As such, the lidar
도 2는 본 발명의 일실시예에 따른 라이다 센서 제어 시스템의 내부 구성을 도시한 블록도이다.Figure 2 is a block diagram showing the internal configuration of a lidar sensor control system according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일실시예에 따른 라이다 센서 제어 시스템(200)은, 확인부(210), 제어부(220), 처리부(230), 및 생성부(240)를 포함하여 구성할 수 있다. 또한, 실시예에 따라 라이다 센서 제어 시스템(200)은, 검증부(250) 및 데이터베이스(260)를 각각 추가하여 구성할 수 있다.2, the lidar
우선, 확인부(210)는 측정 대상을 중심으로 움직이는 라이다 센서가 상기 측정 대상을 인식하는 인식거리를 확인한다. 즉, 확인부(210)는, 측정 대상을 원운동하면서 스캔하는 라이다 센서에서, 상기 측정 대상까지의 이격된 거리를 추정하여, 인식거리를 확인하는 역할을 할 수 있다.First, the
확인부(210)는 라이다 센서에서 방출된 광원이, 상기 측정 대상에 의해 반사되어 리턴되어 들어온 시간격을, 거리값으로 환산 함으로써, 상기 인식거리를 확인할 수 있다.The
제어부(220)는 상기 인식거리에 따라, 상기 라이다 센서의 틸팅 각속도를 조정한다. 즉, 제어부(220)는 확인된 인식거리를 통해, 측정 대상이, 라이다 센서로부터 원거리에 있는지 또는 근거리에 있는지를 식별하고, 식별 결과에 맞춰, 라이다 센서가 측정 대상을 틸팅하는 속도를 조절하는 역할을 할 수 있다.The
예컨대, 제어부(220)는 상기 인식거리가 짧을수록, 상기 측정 대상을 스캔하는 상기 라이다 센서의 틸팅 각속도를 빠르게 조정할 수 있고, 반대로 인식거리가 길수록, 상기 측정 대상을 스캔하는 상기 라이다 센서의 틸팅 각속도를 느리게 조정할 수 있다.For example, the
이에 따라, 제어부(220)는 근거리의 측정 대상을 스캔하는 것에 비해, 원거리의 측정 대상을 상기 라이다 센서로 스캔할 시에, 스캔하는 시간이 충분히 할당되도록 함으로써, 측정 대상을 보다 촘촘하게 스캔할 수 있게 하는 환경을 마련할 수 있다.Accordingly, the
다른 실시예에서, 상기 라이다 센서가, 일렬로 배치된 복수의 센서를 포함하는 어레이 형태인 경우, 제어부(220)는 상기 복수의 센서 중, 상기 인식거리가 가장 짧은 제1 센서를 선별할 수 있다. 즉, 제어부(220)는 수직으로 배열되는 복수의 센서로 구성된 라이다 센서로 측정 대상을 스캔함에 따라, 복수의 센서 중에서, 상기 측정 대상과 가장 근접해 있는 센서를 상기 제1 센서로 선별한다.In another embodiment, when the lidar sensor is an array including a plurality of sensors arranged in a line, the
이후, 제어부(220)는 상기 제1 센서의 인식거리와, 상기 복수의 센서 중, 상기 제1 센서를 제외한 제2 센서의 인식거리의 차에 비례하여, 상기 제2 센서의 틸팅 각속도를 상기 제1 센서의 틸팅 각속도 보다 느리게 조정할 수 있다.Thereafter, the
즉, 제어부(220)는 상기 제1 센서의 틸팅 각속도를 기준으로, 측정 대상과 점차 멀어지는 제2 센서의 틸팅 각속도를, 순차적으로 느리게 조절할 수 있다.That is, the
예컨대, 제1 센서의 틸팅 각속도가 10m/s이고, 측정 대상과의 인식거리가, 제1 센서 '1.0', 2개의 제2 센서 각각이 '1.1'와 '1.2'일 경우, 제어부(220)은 인식거리 '1.1'의 제2 센서에 대한 틸팅 각속도는 제1 센서와의 거리 차 '0.1'에 해당하는 9m/s(10m/s - (10m/s * 0.1))로 조정할 수 있다.For example, when the tilting angular velocity of the first sensor is 10 m / s and the recognition distance with the measurement target is the first sensor '1.0' and the two second sensors are '1.1' and '1.2', the
또한, 제어부(220)는 인식거리 '1.2'의 제2 센서에 대한 틸팅 각속도는 제1 센서와의 거리 차 '0.2'에 해당하는 8m/s(10m/s - (10m/s * 0.2))로 조정 함으로써, 제1 센서에 비해 측정 대상과의 인식거리 더 먼 것으로 확인되는 제2 센서에 대해, 틸팅 각속도를 비례적으로 느리게 조절되게 할 수 있다.In addition, the
또 다른 실시예에서, 상기 라이다 센서가, 일렬로 배치된 복수의 센서를 포함하는 어레이 형태인 경우, 제어부(220)는 상기 복수의 센서 각각의 인식거리를 평균하여, 평균 인식거리를 산출할 수 있다. 즉, 제어부(220)는 라이다 센서를 구성하는 복수의 센서 각각과 측정 대상과의 평균 거리를 계산할 수 있다.In another embodiment, when the LiDAR sensor is in the form of an array including a plurality of sensors arranged in a line, the
앞서의 예시에서, 측정 대상과의 인식거리가, 제1 센서 '1.0', 2개의 제2 센서 각각이 '1.1'와 '1.2'일 경우, 제어부(220)는 평균 인식거리를 1.1((1.0+1.1+1.2)/3)로 계산할 수 있다.In the above example, when the recognition distance from the measurement target is the first sensor '1.0' and each of the two second sensors is '1.1' and '1.2', the
또한, 제어부(220)는 상기 복수의 센서 중, 상기 평균 인식거리 미만의, 짧은 인식거리의 센서에 대해 상기 틸팅 각속도를 빠르게 조정하고, 또한 상기 복수의 센서 중, 상기 평균 인식거리 이상의, 긴 인식거리의 센서에 대해 상기 틸팅 각속도를 느리게 조정할 수 있다.Further, the
상기 예시에서, 제어부(220)는 평균 인식거리 1.1 보다 짧은 제1 센서를, 짧은 인식거리의 센서로 확정하여, 틸팅 각속도를 다른 센서 보다 상대적으로 빠르게 되도록 조정할 수 있다. 반면, 제어부(220)는 평균 인식거리 1.1 이상인, 2개의 제2 센서(인식거리 1.1과 1.2)를, 긴 인식거리의 센서로 확정하여, 틸팅 각속도를 제2 센서 보다 상대적으로 느리게 되도록 조정할 수 있다.In the above example, the
이외에 제어부(220)는 측정 대상과, 어레이 내의 복수의 센서 사이에 정상적인 스캔이 가능한 가상의 스캔라인을 설정하고, 설정된 스캔라인을 벗어난 센서(아웃라이어)를 제외한, 스캔라인 상의 센서 만의 평균 인식거리를 구해, 이를 기준으로, 근거리의 센서와 , 원거리의 센서를 구분할 수도 있다.In addition, the
처리부(230)는 상기 조정된 틸팅 각속도로 상기 측정 대상을 스캔하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성한다. 처리부(230)에 의한 3차원 형상 정보의 구성은 후술한다.The
상기 틸팅 각속도의 조정에 있어, 제어부(220)는, 처리부(230)에 의해 구성된 3차원 형상 정보를 더 고려하여, 상기 복수의 센서 각각에 대한 틸팅 각속도를 조정할 수 있다. 즉, 제어부(220)는 이전에 도출된 결과로서의 3차원 형상 정보를 가지고 공간을 재구성한 3D 데이터를 보면서, 개별 센서들의 틸팅 각속도를 미세 조정할 수 있다.In adjusting the tilting angular velocity, the
실시예 따라, 제어부(220)는 이동체에 장착되어, 일정 주기로 회전하는 라이다 센서를, 측정 대상을 중심으로 임의의 방향으로 움직이도록 구동한다.According to an embodiment, the
여기서, 측정 대상은 이동체 주변의 물체 중 주 관심 물체로 지정되는 물체를 지칭할 수 있다.Here, the measurement object may refer to an object designated as the main object of interest among objects around the moving object.
일례로 제어부(220)는 측정 명령의 발생에 연동하여 라이다 센서를 일정 주기로 회전 함으로써, 상기 라이다 센서 내 복수의 레이저 광원으로부터, 측정 대상을 향해 광원의 수 만큼 레이저빔을 발사하도록 제어할 수 있다.For example, the
이때, 제어부(220)는 이동체의 움직임이 없는 정지 상태인 경우, 2축 자유도를 가지는 구동기를 통해, 상기 레이저빔으로 측정 대상을 스캔 가능한 범위 내에서 라이다 센서에 움직임을 가할 수 있다.In this case, the
일례로, 제어부(220)는 라이다 센서의 하부에 장착된 2축 구동기를, 가로축(roll) 방향, 세로축(pitch) 방향 및 수직축(yaw) 방향 중 적어도 두 방향으로 회전하여, 라이다 센서를 구동 제어할 수 있다.For example, the
예를 들어, 제어부(220)는 2축 구동기를, 세로축과 가로축 방향으로 각각 회전하거나, 또는 가로축과 수직축 방향으로 각각 회전하여, 라이다 센서를 상하로 움직이도록 제어할 수 있다.For example, the
이하, 도 3을 참조하여 제어부(220)를 설명한다.Hereinafter, the
도 3은 본 발명의 일실시예에 따른 라이다 센서 제어 시스템에서, 2축 자유도를 가지는 구동기로, 라이다 센서를 구동 제어하는 일례를 도시한 도면이다.3 is a diagram illustrating an example of driving control of a lidar sensor with a driver having two axes of freedom in a lidar sensor control system according to an exemplary embodiment of the present invention.
도 3을 참조하면, 제어부(220)는 2축 구동기를 구성하는 제1 구동기를 세로축-가로축(roll-pitch) 방향으로 회전하거나, 또는 2축 구동기를 구성하는 제2 구동기를 가로축-수직축(pitch-yaw) 방향으로 회전하여, 라이다 센서를 상하로 움직이도록 제어할 수 있다.Referring to FIG. 3, the
또한, 제어부(220)는 라이다 센서의 하부에 장착된 선형 구동기(linear actuator)를 통해, 상기 라이다 센서를 상하로 움직이도록 제어할 수 있다.In addition, the
생성부(240)는 라이다 센서 내 복수의 레이저 광원으로부터 발사되는 레이저빔에 의해 상기 측정 대상을 스캔하여, 복수의 스캔 평면을 생성한다.The
일례로, 생성부(240)는 상기 측정 대상을 포함한 주변 물체에 의해 반사되어, 상기 라이다 센서로 수신되는 상기 레이저빔을 측정한 값에 따른 스캔 평면을, 상기 레이저빔을 발사하는 상기 레이저 광원의 수 만큼 생성할 수 있다.In one example, the
이하 도 4를 참조하여 생성부(240)를 설명한다.Hereinafter, the
도 4는 본 발명의 일실시예에 따른 라이다 센서 제어 시스템에서, 스캔 평면의 일례를 도시한 도면이다.4 is a diagram illustrating an example of a scan plane in a lidar sensor control system according to an exemplary embodiment of the present invention.
도 4를 참조하면, 생성부(240)는 이동체가 정지 상태인 경우, 라이다 센서 내 레이저 광원으로부터 발사된 레이저빔이 상기 측정 대상에 의해 반사되어 수신되는 양을 측정한 레이저 측정면을, 스캔 평면(410)으로서 생성할 수 있으며, 상기 레이저빔을 발사한 레이저 광원의 개수('32개') 만큼의 스캔 평면(410)을 생성할 수 있다.Referring to FIG. 4, when the moving object is in a stationary state, the
처리부(230)는 상기 복수의 스캔 평면을 조합하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성한다.The
제어부(220)는 초기 측정에 의해 주어진 라이다 센서의 레이저 광원 간 각도와 물체와의 거리에 의해 구해진 스캔 평면 간 간격을, 라이다 각도 변환 프로파일에 적용했을 때 실험적으로 구해진 틸팅 각속도로, 라이다 센서의 상하 운동을 수행할 수 있으며, 처리부(230)는 이동체가 정지 상태이더라도 라이다 센서의 상하 운동을 통해 스캔 평면들 간 간격을 좁혀서 목표로 하는 측정 대상에 대한 3차원 형상 정보를 밀도 높게 구성할 수 있다.The
이하, 도 5를 참조하여 처리부(230)를 설명한다.Hereinafter, the
도 5는 본 발명의 일실시예에 따른 라이다 센서 제어 시스템에서, 3차원 형상 정보의 이례를 도시한 도면이다.5 is a diagram illustrating an example of three-dimensional shape information in the lidar sensor control system according to an embodiment of the present invention.
도 5를 참조하면, 처리부(230)는 라이다 센서를 임의의 방향으로 상하 구동 함으로써, 도 4와 같이 생성한 복수의 스캔 평면(410)들 간의 간격을 좁혀서, 도 5와 같이 측정 대상의 3차원 형상 정보(510)를 구성할 수 있다.Referring to FIG. 5, the
이와 같이, 본 발명의 일실시예에 따르면, 2축 자유도를 가지는 구동기를 통해 라이다 센서를 임의의 방향으로 움직이도록 제어 함으로써, 이동체의 주행 여부와 관계 없이 원하는 영역 내 측정 대상에 관한 3차원 형상정보를 높은 수준의 밀도로 구성할 수 있다.As described above, according to an embodiment of the present invention, the lidar sensor is controlled to move in an arbitrary direction through a driver having a two-axis degree of freedom, so that the three-dimensional shape of the object to be measured in the desired area regardless of whether the moving object is driven or not. Information can be organized at high levels of density.
실시예에 따라 라이다 센서 제어 시스템(200)은, 검증부(250)를 더 포함하여 구성할 수 있다.According to an embodiment, the lidar
검증부(250)는 복수의 레이저 광원 간 각도와, 라이다 센서 및 측정 대상 간 인식거리를 이용하여, 복수의 스캔 평면 간 간격을 구하고, 상기 간격에 따라 상기 3차원 형상 정보의 밀도를 산출하고, 상기 3차원 형상 정보의 밀도가, 구현하려는 목표 밀도에 도달하는지 검증한다.The
처리부(230)는 상기 검증 결과, 산출된 상기 밀도가 목표 밀도에 도달하는 경우, 상기 3차원 형상 정보를, 시점과 연관시켜 데이터베이스(260)에 유지할 수 있다.The
제어부(220)는 산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우, 상기 밀도를 구현하려는 목표 밀도로 높이기 위한 라이다 센서의 제어를 실시할 수 있다.If the calculated density does not reach the target density, the
즉 제어부(220)는 산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우, 측정 대상을 스캔 가능하도록 설정된 범위 내에서, 라이다 센서의 틸팅 각도 또는 틸팅 각속도를 조절할 수 있다.That is, when the calculated density does not reach the target density, the
일례로, 제어부(220)는 상기 측정 대상을 스캔 가능하도록 설정된 범위 내에서, 라이다 센서의 틸팅 각도를 감소시키는 조절을 할 수 있다. 즉 제어부(220)는 라이다 센서 내 상기 복수의 레이저 광원 간 각도를 감소시키는 조절을 할 수 있다.For example, the
이를 통해, 제어부(220)는 라이다 센서를, 틸팅 각도의 조절 전 보다 작은 각도로 상하 운동을 반복하도록 함으로써, 생성되는 스캔 평면들 간 간격을 좁힐 수 있다.In this way, the
이때, 제어부(220)는 라이다 센서 및 측정 대상 간 인식거리를 고려하여, 라이다 센서 내 복수의 레이저 광원 간 각도를 상이하게 조절 함으로써, 재산출되는 상기 밀도가 상기 목표 밀도에 도달되도록 할 수 있다.In this case, the
예를 들어, 도 3을 참조하면, 제어부(220)는 정지 상태의 이동체에 장착된 라이다 센서(310)와 이격된 거리가 기준치를 초과하는 원거리의 측정 대상 A(301)에 대해, 틸팅 각도를 감소시키는 조절을 할 수 있다.For example, referring to FIG. 3, the
즉 제어부(220)는 목표 물체의 거리가 멀수록 스캔 평면들 간 간격이 넓어지므로, 이 간격이, 구현하고자 하는 목표 밀도에 따른 간격의 범위에 도달할 수 있게 레이저 광원 간 각도를 감소시켜 상하 운동을 반복하도록 함으로써, 3차원 형상 정보의 밀도를 높일 수 있다.That is, since the distance between the target planes increases as the distance of the target object increases, the
또한 제어부(220)는 라이다 센서의 틸팅 각도를 감소시키는 조절을 통해, 기존에 큰 각도로 상하 운동하는 경우 측정 대상의 상/하 부분과 같은 지속적으로 관측되지 않는 영역의 범위가 커져 측정 효율이 떨어지는 문제를 최소로 할 수 있다.In addition, the
또한, 제어부(220)는 정지 상태의 이동체에 장착된 라이다 센서(310)와 이격된 거리가 기준치 미만인 근거리의 측정 대상 B(302)에 대해, 틸팅 각도를 증가시키는 조절을 할 수 있다.In addition, the
즉 제어부(220)는 거리가 가까울수록 스캔 평면들 간 간격이 좁아서 중첩되는 경우가 발생할 수 있으므로, 이 간격이, 구현하고자 하는 목표 밀도에 따른 간격의 범위를 벗어나지 않게 레이저 광원 간 각도를 증가시켜 상하 운동하도록 함으로써, 원하는 수준의 밀도를 가지는 3차원 형상 정보의 구성이 가능하도록 할 수 있다.That is, since the distance between the scan planes becomes narrower as the distance is closer, the
다른 일례로, 제어부(220)는 산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우, 라이다 센서 및 측정 대상 간 인식거리에 따라, 라이다 센서를 구동하는 속도를 조절하여, 재산출되는 상기 밀도가 상기 목표 밀도에 도달되도록 할 수 있다.As another example, when the calculated density does not reach the target density, the
구체적으로, 제어부(220)는 복수의 측정 대상 중, 라이다 센서와의 거리가 기준치를 초과하는 원거리의 측정 대상에 대해, 라이다 센서의 틸팅 각도를 감소시켜, 측정 대상을 틸팅(tilting)하여 스캔하는 상기 라이다 센서의 틸팅 각속도를 느리게 조정할 수 있다.Specifically, the
이와 같이, 제어부(220)는 라이다 센서의 틸팅 각속도를 느리게 조정 함으로써, 처리부(230)에서 상기 원거리의 측정 대상에 대해, 밀도 변환 함수에 의해 산출된 상기 3차원 형상 정보의 밀도를 상기 목표 밀도로 높이기 위한 컴퓨팅 처리를 수행하는 시간을 확보할 수 있다.As described above, the
즉 제어부(220)는 멀리 있는 물체일수록 스캔 평면들 간의 간격이 더 넓어지므로, 가까운 곳에 있는 물체 보다 더 느리게 상하 운동을 수행할 수 있도록 틸팅 각속도를 조절하여, 측정 대상에 관해 구성되는 3차원 형상 정보의 밀도가 원하는 수준에 도달하도록 할 수 있다.That is, since the distance between the scanning planes is wider as the object is farther away, the
또한, 제어부(220)는 복수의 측정 대상 중, 라이다 센서와의 거리가 기준치 이하인 근거리의 측정 대상에 대해, 라이다 센서의 틸팅 각도를 증가시켜, 상기 라이다 센서의 틸팅 각속도를 빠르게 조절할 수 있다.In addition, the
즉, 제어부(220)는 근거리의 측정 대상에 대해서는 상기 컴퓨팅 처리를 생략한 시간 만큼, 라이다 센서의 틸팅 각속도를 빠르게 할 수 있다.That is, the
예를 들어, 도 3을 참조하면, 제어부(220)는 원거리의 측정 대상 A(301)에 대해서는 밀도를 높이기 위한 컴퓨팅 처리 시간 만큼 틸팅 각속도를 감소시키는 조절을 하고, 근거리의 측정 대상 B(302)에 대해서는 밀도를 높이기 위한 컴퓨팅 처리를 생략하여 틸팅 각속도를 증가시켜 3차원 형상 정보를 빠르게 구성하도록 할 수 있다.For example, referring to FIG. 3, the
또한, 제어부(220)는 산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우, 라이다 센서 및 측정 대상 간 인식거리에 따라, 라이다 센서를 구동하는 시간 또는 구동을 반복하는 횟수를 조절하여, 라이다 센서를 구동하는 속도를 조절할 수도 있다.In addition, when the calculated density does not reach the target density, the
또한, 제어부(220)는 산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우, 상기 라이다 센서를 구동하는 속도를 단계적으로 조절하여, 상기 간격을 조절 함으로써, 재산출되는 상기 밀도가 상기 목표 밀도에 도달되도록 할 수도 있다.In addition, when the calculated density does not reach the target density, the
이처럼, 제어부(220)는 측정 대상과의 거리를 고려해 임의의 방향으로 상하 운동하는 라이다 센서의 틸팅 각도 또는 틸팅 각속도를 변경하여, 3차원 형상 정보의 밀도를 원하는 수준에 도달하도록 할 수 있다.As such, the
이하, 도 6에서는 본 발명의 실시예들에 따른 라이다 센서 제어 시스템(200)의 작업 흐름을 상세히 설명한다.Hereinafter, FIG. 6 will be described in detail the workflow of the lidar
도 6은 본 발명의 일실시예에 따른 라이다 센서 제어 방법의 순서를 도시한 흐름도이다.6 is a flowchart illustrating a procedure of a lidar sensor control method according to an embodiment of the present invention.
본 실시예에 따른 라이다 센서 제어 방법은 상술한 라이다 센서 제어 시스템(200)에 의해 수행될 수 있다.The lidar sensor control method according to the present embodiment may be performed by the lidar
도 6을 참조하면, 단계(610)에서, 라이다 센서 제어 시스템(200)은, 측정 명령의 발생에 연동하여, 이동체에 장착되는 라이다 센서를 일정 주기로 회전한다.Referring to FIG. 6, in
단계(620)에서, 라이다 센서 제어 시스템(200)은, 상기 이동체가 정지 상태이면, 상기 라이다 센서를, 측정 대상을 중심으로 설정된 범위 내에서 임의의 방향으로 구동하도록 제어한다.In
단계(630)에서, 라이다 센서 제어 시스템(200)은, 상기 회전에 따라 상기 라이다 센서 내 복수의 레이저 광원으로부터 발사되는 레이저빔을 이용하여, 상기 측정 대상을 스캔한 복수의 스캔 평면을 생성한다.In
단계(640)에서, 라이다 센서 제어 시스템(200)은, 상기 복수의 스캔 평면을 조합하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성한다.In
단계(650)에서, 라이다 센서 제어 시스템(200)은, 상기 3차원 형상 정보의 밀도를 산출하고, 산출한 밀도가, 구현하려는 목표 밀도에 도달하는지 검증한다.In
상기 검증 결과, 목표 밀도에 도달하지 않는 경우, 단계(660)에서, 라이다 센서 제어 시스템(200)은, 라이다 센서 및 측정 대상 간 인식거리에 따라, 라이다 센서의 틸팅 각속도 또는 틸팅 각도를 조절한다.If the verification result does not reach the target density, in step 660, the lidar
이후 라이다 센서 제어 시스템(200)은, 산출한 밀도가, 구현하려는 목표 밀도에 도달할 때까지 상기 단계(630 내지 660)을 재수행한다.The lidar
상기 검증 결과, 목표 밀도에 도달하는 경우, 단계(670)에서, 라이다 센서 제어 시스템(200)은, 상기 3차원 형상 정보를, 시점과 연관시켜 데이터베이스(260)에 유지한다.When the verification result reaches the target density, in
본 발명에 따른 라이다 센서 제어 방법의 다른 실시예에서, 라이다 센서 제어 시스템(200)은 측정 대상을 중심으로 움직이는 라이다 센서가 상기 측정 대상을 인식하는 인식거리를 확인할 수 있다. 즉, 라이다 센서 제어 시스템은, 측정 대상을 원운동하면서 스캔하는 라이다 센서에서, 상기 측정 대상까지의 이격된 거리를 추정하여, 인식거리를 확인할 수 있다. 예컨대, 라이다 센서 제어 시스템(200)은 라이다 센서에서 방출된 광원이, 상기 측정 대상에 의해 반사되어 리턴되어 들어온 시간격을, 거리값으로 환산 함으로써, 상기 인식거리를 확인할 수 있다.In another embodiment of the method for controlling a lidar sensor according to the present invention, the lidar
또한, 라이다 센서 제어 시스템(200)은 상기 인식거리에 따라, 상기 라이다 센서의 틸팅 각속도를 조정할 수 있다. 즉, 라이다 센서 제어 시스템(200)은 확인된 인식거리를 통해, 측정 대상이, 라이다 센서로부터 원거리에 있는지 또는 근거리에 있는지를 식별하고, 식별 결과에 맞춰, 라이다 센서가 측정 대상을 틸팅하는 속도를 조절할 수 있다.In addition, the lidar
예컨대, 라이다 센서 제어 시스템(200)은 상기 인식거리가 짧을수록, 상기 측정 대상을 스캔하는 상기 라이다 센서의 틸팅 각속도를 빠르게 조정할 수 있고, 반대로 인식거리가 길수록, 상기 측정 대상을 스캔하는 상기 라이다 센서의 틸팅 각속도를 느리게 조정할 수 있다.For example, the rider
이에 따라, 라이다 센서 제어 시스템(200)은 근거리의 측정 대상을 스캔하는 것에 비해, 원거리의 측정 대상을 상기 라이다 센서로 스캔할 시에, 스캔하는 시간이 충분히 할당되도록 함으로써, 측정 대상을 보다 촘촘하게 스캔할 수 있게 하는 환경을 마련할 수 있다.Accordingly, the lidar
다른 실시예에서, 상기 라이다 센서가, 일렬로 배치된 복수의 센서를 포함하는 어레이 형태인 경우, 라이다 센서 제어 시스템(200)은 상기 복수의 센서 중, 상기 인식거리가 가장 짧은 제1 센서를 선별할 수 있다. 즉, 라이다 센서 제어 시스템(200)은 수직으로 배열되는 복수의 센서로 구성된 라이다 센서로 측정 대상을 스캔함에 따라, 복수의 센서 중에서, 상기 측정 대상과 가장 근접해 있는 센서를 상기 제1 센서로 선별한다.In another embodiment, when the lidar sensor is in the form of an array including a plurality of sensors arranged in a line, the lidar
이후, 라이다 센서 제어 시스템(200)은 상기 제1 센서의 인식거리와, 상기 복수의 센서 중, 상기 제1 센서를 제외한 제2 센서의 인식거리의 차에 비례하여, 상기 제2 센서의 틸팅 각속도를 상기 제1 센서의 틸팅 각속도 보다 느리게 조정할 수 있다.Thereafter, the lidar
즉, 라이다 센서 제어 시스템(200)은 상기 제1 센서의 틸팅 각속도를 기준으로, 측정 대상과 점차 멀어지는 제2 센서의 틸팅 각속도를, 순차적으로 느리게 조절할 수 있다.That is, the lidar
또 다른 실시예에서, 상기 라이다 센서가, 일렬로 배치된 복수의 센서를 포함하는 어레이 형태인 경우, 라이다 센서 제어 시스템(200)은 상기 복수의 센서 각각의 인식거리를 평균하여, 평균 인식거리를 산출할 수 있다. 즉, 라이다 센서 제어 시스템(200)은 라이다 센서를 구성하는 복수의 센서 각각과 측정 대상과의 평균 거리를 계산할 수 있다.In another embodiment, when the lidar sensor is in the form of an array including a plurality of sensors arranged in a line, the lidar
또한, 라이다 센서 제어 시스템(200)은 상기 복수의 센서 중, 상기 평균 인식거리 미만의, 짧은 인식거리의 센서에 대해 상기 틸팅 각속도를 빠르게 조정하고, 또한 상기 복수의 센서 중, 상기 평균 인식거리 이상의, 긴 인식거리의 센서에 대해 상기 틸팅 각속도를 느리게 조정할 수 있다.In addition, the lidar
또한, 라이다 센서 제어 시스템(200)은 측정 대상과, 어레이 내의 복수의 센서 사이에 정상적인 스캔이 가능한 가상의 스캔라인을 설정하고, 설정된 스캔라인을 벗어난 센서(아웃라이어)를 제외한, 스캔라인 상의 센서 만의 평균 인식거리를 구해, 이를 기준으로, 근거리의 센서와 , 원거리의 센서를 구분할 수도 있다.In addition, the lidar
또한, 라이다 센서 제어 시스템(200)은 상기 조정된 틸팅 각속도로 상기 측정 대상을 스캔하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성할 수 있다.In addition, the lidar
상기 틸팅 각속도의 조정에 있어, 라이다 센서 제어 시스템(200)은 처리부(230)에 의해 구성된 3차원 형상 정보를 더 고려하여, 상기 복수의 센서 각각에 대한 틸팅 각속도를 조정할 수 있다. 즉, 라이다 센서 제어 시스템(200)은 이전에 도출된 결과로서의 3차원 형상 정보를 가지고 공간을 재구성한 3D 데이터를 보면서, 개별 센서들의 틸팅 각속도를 미세 조정할 수 있다.In adjusting the tilting angular velocity, the lidar
이와 같이, 본 발명의 일실시예에 따르면, 이동체가 정지된 상태에서도 주변 물체를 정확하게 인식할 수 있어, 이동체를 통한 해당 물체의 파지 등의 동작 수행의 정밀도를 높일 수 있다.As described above, according to an exemplary embodiment of the present invention, even when the moving object is stopped, the surrounding object can be accurately recognized, thereby increasing the precision of performing an operation such as holding the corresponding object through the moving object.
본 발명의 일실시예에 따르면, 이동체(또는 이동체에 부착된 라이다 센서)와 물체와의 거리를 고려해, 라이다 센서의 틸팅 각도나 틸팅 각속도를 조절 함으로써, 원거리 물체에 대한 인식률을 높일 수 있다.According to an embodiment of the present invention, in consideration of the distance between the moving object (or the lidar sensor attached to the moving object) and the object, by adjusting the tilting angle or tilting angular velocity of the lidar sensor, it is possible to increase the recognition rate for the remote object. .
본 발명의 일실시예에 따르면, 측정 대상과의 거리에 따라 선택적으로 라이다 센서의 틸팅 각도나 틸팅 각속도를 조절하여, 원하는 영역에서의 주 관심 물체(측정 대상)에 대한 선택적인 고밀도 3차원 형상 정보의 추출이 가능해질 수 있다.According to one embodiment of the present invention, by selectively adjusting the tilting angle or tilting angular velocity of the lidar sensor according to the distance to the measurement object, an optional high density three-dimensional shape for the main object of interest (a measurement object) in the desired area Extraction of information can be made possible.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and may configure the processing device to operate as desired, or process independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the accompanying drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or, even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the following claims.
200: 라이다 센서 제어 시스템
210 : 확인부
220 : 제어부
230 : 처리부
240 : 생성부
250 : 검증부
260 : 데이터베이스200: lidar sensor control system
210: confirmation unit
220: control unit
230: processing unit
240: generation unit
250: verification unit
260: database
Claims (20)
상기 인식거리에 따라, 상기 라이다 센서의 틸팅 각속도를 조정하는 단계; 및
상기 조정된 틸팅 각속도로 상기 측정 대상을 스캔하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성하는 단계
를 포함하는 라이다 센서 제어 방법.Confirming a recognition distance at which a lidar sensor moving around the measurement object recognizes the measurement object;
Adjusting the tilting angular velocity of the lidar sensor according to the recognition distance; And
Scanning the measurement object at the adjusted tilting angular velocity to construct three-dimensional shape information about the measurement object.
Lidar sensor control method comprising a.
상기 틸팅 각속도를 조정하는 단계는,
상기 인식거리가 짧을수록, 상기 측정 대상을 스캔하는 상기 라이다 센서의 틸팅 각속도를 빠르게 조정하는 단계
를 포함하는 라이다 센서 제어 방법.The method of claim 1,
Adjusting the tilting angular velocity,
Adjusting the tilting angular velocity of the lidar sensor scanning the measurement object as the recognition distance is shorter
Lidar sensor control method comprising a.
상기 라이다 센서가, 일렬로 배치된 복수의 센서를 포함하는 어레이 형태인 경우,
상기 틸팅 각속도를 조정하는 단계는,
상기 복수의 센서 중, 상기 인식거리가 가장 짧은 제1 센서를 선별하는 단계;
상기 제1 센서의 인식거리와, 상기 복수의 센서 중, 상기 제1 센서를 제외한 제2 센서의 인식거리의 차에 비례하여, 상기 제2 센서의 틸팅 각속도를 상기 제1 센서의 틸팅 각속도 보다 느리게 조정하는 단계
를 포함하는 라이다 센서 제어 방법.The method of claim 1,
When the lidar sensor is in the form of an array including a plurality of sensors arranged in a line,
Adjusting the tilting angular velocity,
Selecting a first sensor having the shortest recognition distance among the plurality of sensors;
The tilting angular velocity of the second sensor is slower than the tilting angular velocity of the first sensor in proportion to the difference between the recognition distance of the first sensor and the recognition distance of the second sensor except the first sensor among the plurality of sensors. Step to adjust
Lidar sensor control method comprising a.
상기 라이다 센서가, 일렬로 배치된 복수의 센서를 포함하는 어레이 형태인 경우,
상기 틸팅 각속도를 조정하는 단계는,
상기 복수의 센서 각각의 인식거리를 평균하여, 평균 인식거리를 산출하는 단계; 및
상기 복수의 센서 중, 상기 평균 인식거리 미만의, 짧은 인식거리의 센서에 대해 상기 틸팅 각속도를 빠르게 조정하는 단계; 또는
상기 복수의 센서 중, 상기 평균 인식거리 이상의, 긴 인식거리의 센서에 대해 상기 틸팅 각속도를 느리게 조정하는 단계
를 포함하는 라이다 센서 제어 방법.The method of claim 1,
When the lidar sensor is in the form of an array including a plurality of sensors arranged in a line,
Adjusting the tilting angular velocity,
Calculating an average recognition distance by averaging recognition distances of each of the plurality of sensors; And
Rapidly adjusting the tilting angular velocity with respect to a sensor having a shorter recognition distance than the average recognition distance among the plurality of sensors; or
Slowly adjusting the tilting angular velocity with respect to a sensor having a long recognition distance that is greater than the average recognition distance among the plurality of sensors.
Lidar sensor control method comprising a.
상기 라이다 센서가, 일렬로 배치된 복수의 센서를 포함하는 어레이 형태인 경우,
상기 3차원 형상 정보를 더 고려하여, 상기 복수의 센서 각각에 대한 틸팅 각속도를 조정하는 단계
를 더 포함하는 라이다 센서 제어 방법.The method of claim 1,
When the lidar sensor is in the form of an array including a plurality of sensors arranged in a line,
Adjusting the tilting angular velocity for each of the plurality of sensors in consideration of the three-dimensional shape information
Lidar sensor control method further comprising.
상기 라이다 센서 내 복수의 레이저 광원으로부터 발사되는 레이저빔에 의해 상기 측정 대상을 스캔하여, 복수의 스캔 평면을 생성하는 단계
를 더 포함하고,
상기 3차원 형상 정보를 구성하는 단계는,
상기 복수의 스캔 평면을 조합하여, 상기 3차원 형상 정보를 구성하는 단계
를 포함하는 라이다 센서 제어 방법.The method of claim 1,
Scanning the measurement object with a laser beam emitted from a plurality of laser light sources in the lidar sensor to generate a plurality of scan planes
More,
Comprising the three-dimensional shape information,
Combining the plurality of scan planes to form the three-dimensional shape information
Lidar sensor control method comprising a.
상기 라이다 센서 제어 방법은,
상기 복수의 레이저 광원 간 각도와, 상기 라이다 센서 및 상기 측정 대상 간의 상기 인식거리를 이용하여, 상기 복수의 스캔 평면 간 간격을 구하고, 상기 간격에 따라 상기 3차원 형상 정보의 밀도를 산출하는 단계;
상기 3차원 형상 정보의 밀도가, 구현하려는 목표 밀도에 도달하는지 검증하는 단계; 및
산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우, 상기 측정 대상을 스캔 가능하도록 설정된 범위 내에서, 상기 라이다 센서의 틸팅 각도를 감소시키는 조절을 하는 단계
를 더 포함하는 라이다 센서 제어 방법.The method of claim 6,
The lidar sensor control method,
Calculating intervals between the plurality of scan planes by using angles between the plurality of laser light sources and the recognition distance between the lidar sensor and the measurement target, and calculating density of the three-dimensional shape information according to the intervals ;
Verifying that the density of the three-dimensional shape information reaches a target density to be implemented; And
If the calculated density does not reach a target density, adjusting the tilt angle of the lidar sensor within a range set to be capable of scanning the measurement object;
Lidar sensor control method further comprising.
상기 라이다 센서 제어 방법은,
상기 라이다 센서 및 상기 측정 대상 간의 상기 인식거리를 고려하여, 상기 라이다 센서 내 상기 복수의 레이저 광원 간 각도를 상이하게 조절하여, 재산출되는 상기 밀도가 상기 목표 밀도에 도달되도록 하는 단계
를 포함하는 라이다 센서 제어 방법.The method of claim 7, wherein
The lidar sensor control method,
Taking into account the recognition distance between the lidar sensor and the measurement target, differently adjusting the angles between the plurality of laser light sources in the lidar sensor so that the recalculated density reaches the target density;
Lidar sensor control method comprising a.
상기 라이다 센서 제어 방법은,
산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우,
상기 라이다 센서 및 상기 측정 대상 간 인식거리에 따라, 상기 라이다 센서를 구동하는 시간 또는 구동을 반복하는 횟수를 조절하여, 상기 라이다 센서를 구동하는 속도를 조절하는 단계
를 더 포함하는 라이다 센서 제어 방법.The method of claim 7, wherein
The lidar sensor control method,
If the calculated density does not reach the target density,
Controlling the speed of driving the lidar sensor by adjusting the time of driving the lidar sensor or the number of times of repeating the driving according to the recognition distance between the lidar sensor and the measurement target;
Lidar sensor control method further comprising.
상기 라이다 센서 제어 방법은,
산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우,
상기 라이다 센서를 구동하는 속도를 단계적으로 조절하여, 상기 간격을 조절 함으로써, 재산출되는 상기 밀도가 상기 목표 밀도에 도달되도록 하는 단계; 또는
상기 라이다 센서 및 상기 측정 대상 간 인식거리에 따라, 상기 라이다 센서를 구동하는 속도를 조절하여, 재산출되는 상기 밀도가 상기 목표 밀도에 도달되도록 하는 단계
를 더 포함하는 라이다 센서 제어 방법.The method of claim 8,
The lidar sensor control method,
If the calculated density does not reach the target density,
Stepwise adjusting the speed at which the lidar sensor is driven such that the recalculated density reaches the target density; or
Adjusting the speed of driving the lidar sensor according to the recognition distance between the lidar sensor and the measurement target so that the recalculated density reaches the target density
Lidar sensor control method further comprising.
상기 복수의 스캔 평면을 생성하는 단계는,
상기 측정 대상을 포함한 주변 물체에 의해 반사되어, 상기 라이다 센서로 수신되는 상기 레이저빔을 측정한 값에 따른 스캔 평면을, 상기 레이저빔을 발사하는 상기 레이저 광원의 수 만큼 생성하는 단계
를 포함하는 라이다 센서 제어 방법.The method of claim 6,
Generating the plurality of scan planes,
Generating as many scan planes as the number of the laser light sources that emits the laser beam, the scan plane being reflected by a peripheral object including the object to be measured and corresponding to the measured value of the laser beam received by the lidar sensor
Lidar sensor control method comprising a.
상기 라이다 센서의 하부에 장착된 2축 구동기를 구성하는 제1 구동기를 세로축-가로축(roll-pitch) 방향으로 회전하거나, 또는 상기 2축 구동기를 구성하는 제2 구동기를 가로축-수직축(pitch-yaw) 방향으로 회전하여, 상기 라이다 센서를 상하로 움직이도록 제어하는 단계; 또는
상기 라이다 센서의 하부에 장착된 선형 구동기(linear actuator)를 통해, 상기 라이다 센서를 상하로 움직이도록 제어하는 단계
를 포함하는 라이다 센서 제어 방법.The method of claim 1,
The first driver constituting the two-axis driver mounted on the lower part of the lidar sensor is rotated in the vertical axis-roll-pitch direction, or the second driver constituting the two-axis driver is horizontal-pitch-vertical. rotating in the yaw) direction to control the lidar sensor to move up and down; or
Controlling the lidar sensor to move up and down through a linear actuator mounted under the lidar sensor
Lidar sensor control method comprising a.
복수의 측정 대상 중, 상기 라이다 센서와의 거리가 기준치를 초과하는 원거리의 측정 대상에 대해, 상기 라이다 센서의 틸팅 각도를 감소시켜, 상기 측정 대상을 틸팅하여 스캔하는 상기 라이다 센서의 틸팅 각속도를 느리게 조정하는 단계
를 더 포함하는 라이다 센서 제어 방법.The method of claim 1,
Tilting of the lidar sensor which scans by tilting and measuring the said measurement object by reducing the tilting angle of the said lidar sensor with respect to the measurement object of the long distance from which the distance with the said lidar sensor exceeds a reference value among a some measurement object. Step to slow the angular velocity
Lidar sensor control method further comprising.
상기 원거리의 측정 대상에 대해,
밀도 변환 함수에 의해 산출된 상기 3차원 형상 정보의 밀도를 상기 목표 밀도로 높이기 위한 컴퓨팅 처리를 수행하는 단계; 및
상기 라이다 센서의 틸팅 각속도를 느리게 조정하여, 상기 컴퓨팅 처리 시간을 확보하는 단계
를 더 포함하는 라이다 센서 제어 방법.The method of claim 13,
About the measurement object of the said long distance,
Performing computing processing to increase the density of the three-dimensional shape information calculated by the density conversion function to the target density; And
Slowing the tilting angular velocity of the lidar sensor to secure the computing processing time
Lidar sensor control method further comprising.
상기 인식거리에 따라, 상기 라이다 센서의 틸팅 각속도를 조정하는 제어부; 및
상기 조정된 틸팅 각속도로 상기 측정 대상을 스캔하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성하는 처리부
를 포함하는 라이다 센서 제어 시스템.A confirmation unit for recognizing a recognition distance at which a lidar sensor moving around the measurement object recognizes the measurement object;
A controller for adjusting the tilting angular velocity of the lidar sensor according to the recognition distance; And
A processor configured to scan the measurement object at the adjusted tilting angular velocity to form three-dimensional shape information about the measurement object
Lidar sensor control system comprising a.
상기 제어부는,
상기 인식거리가 짧을수록, 상기 측정 대상을 스캔하는 상기 라이다 센서의 틸팅 각속도를 빠르게 조정하는
라이다 센서 제어 시스템.The method of claim 15,
The control unit,
The shorter the recognition distance, the faster the tilting angular velocity of the lidar sensor scanning the measurement object
Lidar sensor control system.
상기 라이다 센서 내 복수의 레이저 광원으로부터 발사되는 레이저빔에 의해 상기 측정 대상을 스캔하여, 복수의 스캔 평면을 생성하는 생성부
를 더 포함하고,
상기 처리부는, ,
상기 복수의 스캔 평면을 조합하여, 상기 측정 대상에 관한 3차원 형상 정보를 구성하는
라이다 센서 제어 시스템.The method of claim 15,
A generator configured to scan the measurement target by a laser beam emitted from a plurality of laser light sources in the lidar sensor to generate a plurality of scan planes
More,
The processing unit,
Combining the plurality of scan planes to form three-dimensional shape information about the measurement object
Lidar sensor control system.
상기 라이다 센서 제어 시스템은,
상기 복수의 레이저 광원 간 각도와, 상기 라이다 센서 및 상기 측정 대상 간 인식거리를 이용하여, 상기 복수의 스캔 평면 간 간격을 구하고, 상기 간격에 따라 상기 3차원 형상 정보의 밀도를 산출하고, 상기 3차원 형상 정보의 밀도가, 구현하려는 목표 밀도에 도달하는지 검증하는 검증부
를 더 포함하고,
산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우,
상기 제어부는,
상기 측정 대상을 스캔 가능하도록 설정된 범위 내에서, 상기 라이다 센서의 틸팅 각도를 감소시키는 조절을 하는
라이다 센서 제어 시스템.The method of claim 17,
The lidar sensor control system,
The distance between the plurality of scan planes is obtained using angles between the plurality of laser light sources and the recognition distance between the lidar sensor and the measurement target, and the density of the three-dimensional shape information is calculated according to the interval. Verification unit for verifying that the density of the three-dimensional shape information reaches the target density to be implemented
More,
If the calculated density does not reach the target density,
The control unit,
Within a range set to be able to scan the measurement object, an adjustment is made to reduce the tilting angle of the lidar sensor.
Lidar sensor control system.
산출된 상기 밀도가 목표 밀도에 도달하지 않는 경우,
상기 제어부는,
상기 라이다 센서 및 상기 측정 대상 간 인식거리에 따라, 상기 라이다 센서를 구동하는 시간 또는 구동을 반복하는 횟수를 조절하여, 상기 라이다 센서를 구동하는 속도를 조절하는
라이다 센서 제어 시스템.The method of claim 18,
If the calculated density does not reach the target density,
The control unit,
According to the recognition distance between the lidar sensor and the measurement target, adjusting the time for driving the lidar sensor or the number of times to repeat the drive, to adjust the speed of driving the lidar sensor
Lidar sensor control system.
상기 제어부는,
복수의 측정 대상 중, 상기 라이다 센서와의 거리가 기준치를 초과하는 원거리의 측정 대상에 대해, 상기 라이다 센서의 틸팅 각도를 감소시켜, 상기 측정 대상을 틸팅하여 스캔하는 상기 라이다 센서의 틸팅 각속도를 느리게 조정하는
라이다 센서 제어 시스템.The method of claim 15,
The control unit,
Tilting of the lidar sensor which scans by tilting and measuring the said measurement object by reducing the tilting angle of the said lidar sensor with respect to the measurement object of the long distance from which the distance with the said lidar sensor exceeds a reference value among a some measurement object. To slow down the angular velocity
Lidar sensor control system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180099330A KR102137313B1 (en) | 2018-08-24 | 2018-08-24 | Method and system for controlling lidar sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180099330A KR102137313B1 (en) | 2018-08-24 | 2018-08-24 | Method and system for controlling lidar sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200023006A true KR20200023006A (en) | 2020-03-04 |
KR102137313B1 KR102137313B1 (en) | 2020-07-23 |
Family
ID=69783087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180099330A KR102137313B1 (en) | 2018-08-24 | 2018-08-24 | Method and system for controlling lidar sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102137313B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210116878A (en) * | 2020-03-18 | 2021-09-28 | 한양대학교 에리카산학협력단 | METHOD AND APPARATUS FOR LiDAR SENSOR |
KR20220009247A (en) * | 2020-07-15 | 2022-01-24 | 한국로봇융합연구원 | Method for constructing input data for deep neural network (DNN) based on Light Detection and Ranging (LiDAR) and Radio Azimuth Direction and Ranging (RADAR) signal |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002296034A (en) * | 2001-04-02 | 2002-10-09 | Sokkia Co Ltd | Laser surveying instrument |
JP2003315453A (en) * | 2002-04-24 | 2003-11-06 | Furuno Electric Co Ltd | Automatic tracking system scanning sonar |
KR20110060661A (en) * | 2009-11-30 | 2011-06-08 | 전자부품연구원 | Three dimension space sensing system and driving method thereof |
JP2014006072A (en) * | 2012-06-21 | 2014-01-16 | Nec Corp | Rader device, target data acquisition method, and target tracking system |
KR20140138724A (en) * | 2012-02-15 | 2014-12-04 | 애플 인크. | Scanning depth engine |
WO2016117159A1 (en) * | 2015-01-21 | 2016-07-28 | 三菱電機株式会社 | Laser radar device |
JP6309459B2 (en) * | 2012-02-15 | 2018-04-11 | ヘプタゴン・マイクロ・オプティクス・ピーティーイー・エルティーディーHeptagon Micro Optics Pte.Ltd. | Time-of-flight camera with stripe lighting |
KR20180059008A (en) * | 2016-11-25 | 2018-06-04 | (주)카네비컴 | Road-shape-recognition front-crash-prevention lidar system |
-
2018
- 2018-08-24 KR KR1020180099330A patent/KR102137313B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002296034A (en) * | 2001-04-02 | 2002-10-09 | Sokkia Co Ltd | Laser surveying instrument |
JP2003315453A (en) * | 2002-04-24 | 2003-11-06 | Furuno Electric Co Ltd | Automatic tracking system scanning sonar |
KR20110060661A (en) * | 2009-11-30 | 2011-06-08 | 전자부품연구원 | Three dimension space sensing system and driving method thereof |
KR20140138724A (en) * | 2012-02-15 | 2014-12-04 | 애플 인크. | Scanning depth engine |
JP6309459B2 (en) * | 2012-02-15 | 2018-04-11 | ヘプタゴン・マイクロ・オプティクス・ピーティーイー・エルティーディーHeptagon Micro Optics Pte.Ltd. | Time-of-flight camera with stripe lighting |
JP2014006072A (en) * | 2012-06-21 | 2014-01-16 | Nec Corp | Rader device, target data acquisition method, and target tracking system |
WO2016117159A1 (en) * | 2015-01-21 | 2016-07-28 | 三菱電機株式会社 | Laser radar device |
KR20180059008A (en) * | 2016-11-25 | 2018-06-04 | (주)카네비컴 | Road-shape-recognition front-crash-prevention lidar system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210116878A (en) * | 2020-03-18 | 2021-09-28 | 한양대학교 에리카산학협력단 | METHOD AND APPARATUS FOR LiDAR SENSOR |
KR20220009247A (en) * | 2020-07-15 | 2022-01-24 | 한국로봇융합연구원 | Method for constructing input data for deep neural network (DNN) based on Light Detection and Ranging (LiDAR) and Radio Azimuth Direction and Ranging (RADAR) signal |
Also Published As
Publication number | Publication date |
---|---|
KR102137313B1 (en) | 2020-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9239580B2 (en) | Autonomous mobile robot, self position estimation method, environmental map generation method, environmental map generation apparatus, and data structure for environmental map | |
US8744741B2 (en) | Lidars | |
EP3361279A1 (en) | Lidar system with synchronized mems mirrors | |
US9322646B2 (en) | Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning | |
WO2018055513A2 (en) | Methods circuits devices assemblies systems and functionally associated machine executable code for light detection and ranging based scanning | |
JP2013173523A (en) | Method for formation flying aided by relative navigation system | |
JP2008139035A (en) | 3-d environment measurement device and mobile robot provided with the same | |
US20150331421A1 (en) | Method for controlling a set of robots, and set of robots | |
US11726191B2 (en) | Lidar intensity calibration | |
KR102137313B1 (en) | Method and system for controlling lidar sensor | |
EP3296685A1 (en) | Phased array lidar in ordnance control | |
JP6186863B2 (en) | Ranging device and program | |
EP2113790A1 (en) | Improvements in LIDARs | |
JP6972456B1 (en) | Distance measuring sensor, image pickup device, control method, and program | |
CN110471070B (en) | Combined detection system and detection device | |
JP7223238B2 (en) | Measuring device and measuring method | |
JP6500385B2 (en) | Moving amount estimation device, autonomous moving body, and moving amount estimation method | |
CN116529630A (en) | Detection method, detection device, movable platform and storage medium | |
JP2018024374A (en) | Vehicular projection unit | |
WO2018180175A1 (en) | Mobile body, signal processing device, and computer program | |
WO2024007594A1 (en) | Laser radar detection method, system, and laser radar | |
JP7380298B2 (en) | autonomous mobile body | |
EP4202834A1 (en) | Systems and methods for generating three-dimensional reconstructions of environments | |
US20240012148A1 (en) | Optical sensing device, optical sensing system, and optical sensing method | |
US11587258B1 (en) | Focal length validation using three-dimensional pose estimates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |