KR20200023974A - Method and apparatus for synchronization of rotating lidar and multiple cameras - Google Patents

Method and apparatus for synchronization of rotating lidar and multiple cameras Download PDF

Info

Publication number
KR20200023974A
KR20200023974A KR1020180100545A KR20180100545A KR20200023974A KR 20200023974 A KR20200023974 A KR 20200023974A KR 1020180100545 A KR1020180100545 A KR 1020180100545A KR 20180100545 A KR20180100545 A KR 20180100545A KR 20200023974 A KR20200023974 A KR 20200023974A
Authority
KR
South Korea
Prior art keywords
angle
camera
prediction time
lidar
information
Prior art date
Application number
KR1020180100545A
Other languages
Korean (ko)
Other versions
KR102141647B1 (en
Inventor
안성용
심인욱
민지홍
곽기호
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020180100545A priority Critical patent/KR102141647B1/en
Publication of KR20200023974A publication Critical patent/KR20200023974A/en
Application granted granted Critical
Publication of KR102141647B1 publication Critical patent/KR102141647B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

According to the present invention, in the method for synchronizing a sensor between a rotating lidar and multiple cameras, the method is performed by a synchronization apparatus. The method comprises: an angle comparison step of comparing angle information obtained from the rotating lidar with a previously input target angle and searching for an angle closest to the target angle; a prediction time calculation step of calculating a camera shooting prediction time in the next frame in consideration of the offset between the detected angle and the actual angle according to the rotation of the rotating lidar and the rotation speed of the rotating lidar; and a process branch step of inputting a prediction time into a prediction time queue and branching the current process such that one of branched processes waits to receive information from the rotating lidar. According to the use of the present invention, errors between data between the rotating lidar and a multi-camera sensor can be reduced, thereby enhancing the results of all kinds of algorithms using visual sensors such as calibration, recognition, obstacle determination, autonomous action judgment and the like.

Description

회전형 라이다와 다중 카메라간의 센서 동기화 방법 및 그 장치 {METHOD AND APPARATUS FOR SYNCHRONIZATION OF ROTATING LIDAR AND MULTIPLE CAMERAS} METHOD AND APPARATUS FOR SYNCHRONIZING SENSOR BETWEEN ROTARY LIDAER AND MULTI-CAMERA {METHOD AND APPARATUS FOR SYNCHRONIZATION OF ROTATING LIDAR AND MULTIPLE CAMERAS}

본 발명은 회전형 라이다와 다중 카메라간의 센서 동기화를 수행하는 동기화 장치 및 이를 수행하는 동기화 방법에 관한 것이다. The present invention relates to a synchronization device for performing sensor synchronization between a rotary lidar and multiple cameras and a synchronization method for performing the same.

자율주행차량을 포함한 지상장비의 무인자율화 시스템은 주변 환경을 실시간으로 인식/판단하기 위해서 회전형 거리 측정 센서(라이다)와 카메라 같은 다양한 종류의 시각 센서들이 많이 사용되고 있고, 무인자율화 시스템은 이런 다양한 시각 센서들 간의 시간 동기화를 기본적으로 가정하고 동작하고 있다. 일반적으로 카메라 종류 간의 시각 센서 동기화는 GPS처럼 빠르게 시간 정보를 제공해주는 장치를 이용하면 상대적으로 쉽게 동기화가 가능하다. 하지만, 외부 장치에서 제공되는 시간 정보만으로 회전하며 주변의 거리 정보를 취득하는 회전형 라이다와 특정 범위의 시각 정보를 한번에 취득하는 카메라 간의 정교한 동기화를 확보하는 것은 불가능하다.Unmanned autonomous systems of ground equipment, including autonomous vehicles, are widely used with various types of visual sensors such as rotary distance sensors (lidars) and cameras to recognize and determine the environment in real time. Basically, time synchronization between visual sensors works. In general, visual sensor synchronization between camera types can be relatively easily synchronized using a device that provides time information such as GPS. However, it is impossible to ensure precise synchronization between a rotary lidar that acquires the distance information of the surroundings by only time information provided from an external device and a camera that acquires a specific range of visual information at once.

이와 같은 문제를 해결하기 위해 본 발명에서는 시각 정보를 확보하기 위해 필수적으로 사용되고 있는 회전형 라이다와 카메라간의 정확한 동기화 방법과 그 장치에 대한 기술을 포함하고 있다. 이와 관련하여, 현재 솔리드 스테이트(Solid-state) 형식의 라이다를 제외한 모든 라이다는 회전형 라이다이다. 앞서 언급한 것과 같이 기존의 회전형 라이다와 카메라간의 동기화 방법은 외부 장치의 시간 정보를 활용하여 카메라가 촬영되었을 때의 시간 정보와 라이다가 회전하면서 얻은 3차원 데이터들의 시간 정보들을 저장하고, 이렇게 기록된 시간 정보들 중 가장 유사한 시간 값을 매칭하여 사용하거나, 소프트웨어 수준에서 회전형 라이다로부터 데이터가 얻어진 시점에 카메라를 촬영하여 동기화를 맞추어 사용한다. 이렇게 동기화된 데이터는 일반적인 용도로는 충분히 사용가능지만, 라이다와 카메라간의 정교한 정합이 요구되는 무인자율화 시스템 등에 사용되는 알고리즘에 사용하기에는 적합하지 않다. 이를 해결하기 위해 독일의 카를스루에 공과대학교(Karlsruhe Institute of Technology)에서는 회전형 라이다에 하드웨어적 스위치를 설치하여 카메라에 동기화 신호를 물리적으로 제공하는 방식을 사용하여 시간동기화 문제를 해결하였다. 하지만, 이 방식은 물리적은 스위치로 인한 내구성 문제를 내포하고 있다. 특히, 야지/험지를 전천후 환경에서 주행하여야 하는 국방용 무인자율화 시스템에서는 물리적인 동기화 신호 장치는 현실적으로 사용하기 힘들다.  In order to solve such a problem, the present invention includes a technique for accurately synchronizing a method between a rotary lidar and a camera and a device, which are essentially used to secure visual information. In this regard, all lidars, except for solid-state lidars, are rotary lidars. As mentioned above, the conventional method of synchronizing between the rotary lidar and the camera uses the time information of an external device to store time information when the camera is photographed and time information of 3D data obtained by rotating the lidar. The most similar time value among the recorded time information is used for matching, or the camera is photographed at the point of time when data is obtained from the rotatable lidar at the software level, and the synchronization is used. This synchronized data is sufficient for general use, but is not suitable for use in algorithms used in unmanned autonomous systems that require sophisticated matching between Lidar and camera. To solve this problem, the Karlsruhe Institute of Technology in Germany solved the time synchronization problem by installing a hardware switch on a rotary lidar by physically providing a synchronization signal to the camera. However, this approach suffers from the durability issues associated with physical switches. In particular, in the unmanned autonomous system for defense that must travel in all-weather environment, it is difficult to use a physical synchronization signal device.

회전형 라이다와 카메라간의 정교하지 않은 시간 동기화는 데이터간의 정합에 근본적인 에러를 유발하고, 이는 매우 다양한 야외 환경에서 안정적인 결과를 보장해야 하는 무인자율화 시스템의 시각 센서 운용에 있어서 치명적으로 작용할 수 있다. 기존의 장치와 그 방법들로는 이런 단점을 근본적으로 극복하기에는 한계가 있다는 문제점이 있다.  Unsophisticated time synchronization between the rotating lidar and the camera introduces fundamental errors in the matching of data, which can be fatal in the operation of the visual sensor in an unmanned autonomous system, which must ensure stable results in a wide variety of outdoor environments. There is a problem that existing devices and methods have limitations to fundamentally overcome this disadvantage.

따라서, 본 발명의 목적은 회전형 라이다와 다중 카메라간의 센서 동기화 방법 및 그 장치를 제공하는데 그 목적이 있다.Accordingly, an object of the present invention is to provide a method and apparatus for synchronizing a sensor between a rotatable lidar and multiple cameras.

또한, 본 발명의 목적은 회전형 라이다와 카메라가 동시에 사용되는 시스템에서 회전형 라이다의 각도 정보를 통해 가장 정확한 카메라의 촬영 순간을 제공하는 방법과 그 장치를 제공하는데 그 목적이 있다.Another object of the present invention is to provide a method and an apparatus for providing the most accurate photographing moment of a camera through the angle information of the rotatable lidar in a system in which the rotatable lidar and the camera are used simultaneously.

상기와 같은 과제를 해결하기 위한 본 발명에 따른 회전형 라이다와 다중 카메라간의 센서 동기화 방법에 있어서, 상기 방법은 동기화 장치에 의해 수행되고, 상기 회전형 라이다로부터 획득된 각도 정보와 사전에 입력된 목표 각도를 비교하여, 상기 목표 각도와 가장 인접한 각도를 탐색하는 각도 비교 단계; 상기 탐색된 각도와 상기 회전형 라이다의 회전에 따른 실제 각도와의 오프셋과 상기 회전형 라이다의 회전 속도를 고려하여, 다음 프레임에서의 카메라 촬영 예측 시간을 계산하는 예측 시간 계산 단계; 및 상기 예측 시간을 예측 시간 대기열에 입력하고, 현재 프로세스를 분기하여 상기 분기된 프로세스 중 하나는 상기 회전형 라이다로부터 정보를 입력받기 위해 대기하는 프로세스 분기 단계를 포함한다.In the sensor synchronization method between a rotary lidar and multiple cameras according to the present invention for solving the above problems, the method is performed by a synchronization device, and input in advance with the angle information obtained from the rotary lidar An angle comparison step of searching for the closest angle to the target angle by comparing the target angles; A prediction time calculating step of calculating a camera photographing prediction time in a next frame in consideration of an offset between the found angle and an actual angle according to the rotation of the rotary lidar and the rotational speed of the rotary lidar; And a process branching step of inputting the prediction time to a prediction time queue, branching a current process and waiting for receiving information from the rotatable lidar.

일 실시 예에서, 상기 프로세스 분기 단계에서, 상기 분기된 프로세스 중 나머지 하나는 상기 예측 시간 대기열에 입력된 예측 시간들과 현재 시간을 실시간으로 비교할 수 있다.In one embodiment, in the process branching step, the other one of the branched processes may compare the current time with the prediction time input to the prediction time queue in real time.

일 실시 예에서, 상기 예측 시간들 중 해당 예측 시간이 상기 현재 시간에 도달하면, 상기 해당 예측 시간을 대기열에서 제거한 후, 촬영 동작 신호를 발생시켜 카메라 센서로 전달하는 촬영 동작 신호 발생 단계를 더 포함할 수 있다.According to an embodiment of the present disclosure, if the corresponding prediction time of the prediction times reaches the current time, after removing the corresponding prediction time from the queue, generating a photographing operation signal and transmitting the photographing operation signal to a camera sensor, further comprising: can do.

일 실시 예에서, 상기 촬영 동작 신호 발생 단계에서, 상기 탐색된 각도, 상기 오프셋, 상기 회전 속도 및 상기 해당 예측 시간에 기반하여 판단된 현재 각도에 대응하는 카메라를 상기 촬영 동작 신호에 의해 활성화시키고, 상기 다중 카메라 각각은 서로 다른 시간에 상기 촬영 동작 신호에 의해 트리거링될 수 있다.In an embodiment, in the photographing operation signal generating step, a camera corresponding to the current angle determined based on the found angle, the offset, the rotational speed, and the corresponding prediction time is activated by the photographing operation signal, Each of the multiple cameras may be triggered by the photographing operation signal at different times.

일 실시 예에서, 상기 촬영 동작 신호 발생 단계에서, 상기 회전형 라이다의 각도 오차와 상기 다중 카메라의 배치 위치와 커버리지 범위를 고려하여, 상기 다중 카메라 각각에 대해 서로 다른 예측 시간에 기반하여 동기화될 수 있다. 이때, 상기 다중 카메라 중 제1 카메라와 제2 카메라 간에 중복되는 영역에 객체가 배치된 것으로 상기 회전형 라이다에 의해 판단된 경우, 상기 제1 카메라와 제2 카메라를 동시에 트리거링될 수 있다.In an embodiment, in the photographing operation signal generating step, the angle of error of the rotatable lidar and the arrangement position and the coverage range of the multiple cameras may be synchronized based on different prediction times for each of the multiple cameras. Can be. In this case, when it is determined by the rotatable lidar that the object is disposed in a region overlapping between the first camera and the second camera among the multiple cameras, the first camera and the second camera may be simultaneously triggered.

일 실시 예에서, 상기 동기화 장치는 센서 정보 수신부, 각도 정보 연산부, 예측 시간 대기부 및 카메라 신호 발생부를 포함할 수 있다. 이때, 상기 센서 정보 수신부는 상기 회전형 라이다로부터 거리 정보와 상기 각도 정보를 모두 수신할 수 있다. 한편, 상기 획득된 각도 정보에 기반하여 상기 목표 각도에 임계치 범위 내로 수렴되지 않은 것으로 판단되면, 상기 센서 정보 수신부는 상기 회전형 라이다로부터 상기 거리 정보와 상기 각도 정보를 다시 수신할 수 있다. 이때, 상기 획득된 각도 정보에 기반하여 상기 목표 각도에 임계치 범위 내로 수렴된 것으로 판단되면, 상기예측 시간 대기부와 상기 센서 정보 수신부는 상기 예측 시간 계산 단계 및 상기 프로세스 분기 단계에 따른 상기 촬영 동작 신호 발생 단계를 수행할 수 있다.According to an embodiment, the synchronization device may include a sensor information receiver, an angle information calculator, a prediction time waiter, and a camera signal generator. In this case, the sensor information receiver may receive both the distance information and the angle information from the rotatable lidar. On the other hand, if it is determined that the target angle does not converge within the threshold range based on the obtained angle information, the sensor information receiver may receive the distance information and the angle information from the rotatable lidar again. In this case, when it is determined that the target angle is converged within the threshold range based on the obtained angle information, the prediction time waiting unit and the sensor information receiving unit are the photographing operation signals according to the prediction time calculating step and the process branching step. Development steps can be performed.

본 발명은 무인자율화 시스템에서 필수적으로 사용되고 있는 회전형 라이다와 카메라 센서의 정확한 동기화 방법을 제공한다.The present invention provides an accurate method of synchronizing a rotational lidar and a camera sensor which are essentially used in an autonomous system.

이에 따라, 센서 정보의 획득 단에서 최대한 정확한 데이터를 획득함으로서 상기 이종 센서 데이터 간의 에러를 줄이고, 이로 인한 캘리브레이션, 인식, 장애물 판단, 자율행동판단 등 시각 센서를 사용하는 모든 종류의 알고리즘의 결과를 향상시킬 수 있는 효과가 있다.Accordingly, by acquiring the most accurate data at the sensor information acquisition stage, the error between the heterogeneous sensor data is reduced and the results of all kinds of algorithms using the visual sensor such as calibration, recognition, obstacle determination, autonomous behavior determination, etc. are improved. There is an effect that can be done.

도 1은 본 발명에 따른 회전형 라이다와 카메라 동기화 방법의 순서도이다.
도 2는 본 발명에 따른 회전형 라이다와 카메라 동기화 방법의 장치도이다.
1 is a flow chart of a rotary lidar and a camera synchronization method according to the present invention.
2 is an apparatus diagram of a method for synchronizing a rotary lidar and a camera according to the present invention.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-described features and effects of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, and thus, those skilled in the art to which the present invention pertains may easily implement the technical idea of the present invention. Could be.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명을 하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.In describing each drawing, like reference numerals are used for like elements.

제1, 제2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Should not.

이하의 설명에서 사용되는 구성요소에 대한 접미사 모듈, 블록 및 부는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffix modules, blocks, and parts for components used in the following description are given or mixed in consideration of ease of specification, and do not have distinct meanings or roles from each other.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 당해 분야에 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명한다. 하기에서 본 발명의 실시 예를 설명함에 있어, 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described to be easily carried out by those of ordinary skill in the art. In the following description of the embodiments of the present invention, when it is determined that a detailed description of a related known function or known configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

이하에서는, 본 발명에 따른 회전형 라이다와 다중 카메라간의 센서 동기화 방법 및 이를 수행하는 동기화 장치 및 다중 카메라 시스템에 대해 살펴보기로 한다.Hereinafter, a method of synchronizing a sensor between a rotatable lidar and multiple cameras, a synchronization device for performing the same, and a multiple camera system will be described.

이와 관련하여, 본 발명은 회전형 라이다와 카메라가 동시에 사용되는 시스템에서 회전형 라이다의 각도 정보를 통해 가장 정확한 카메라의 촬영 순간을 제공하는 방법과 그 장치를 포함한다. 회전형 라이다 센서의 경우 내부의 거울이나 외부의 장치를 통해 레이저 거리 측정기를 회전시켜 주변의 거리 정보를 획득한다. 주변을 측정하는 물리적 방법이 카메라 센서와 다르기 때문에 두 센서의 촬영간 격차를 물리적으로 최소화시키기 위한 별도의 장치가 필요하다. 본 발명에 포함된 방법과 장치를 사용할 경우, 이러한 물리적 문제를 최소화하여 카메라로부터 얻은 영상 정보와 최대로 일치된 거리 정보를 획득할 수 있는 장점을 가질 수 있다. 본 발명은 센서 정보의 취득 단에서 최대한 정확한 정보를 추구함으로서 센서 정보 간의 에러를 줄임으로써 인한 캘리브레이션, 인식, 자율판단 등의 결과 향상 또한 기대할 수 있다. 이러한 발명에 포함된 방법의 순서도는 도 1과 같고, 도 2는 본 발명의 장치도를 표현한다. 순서도로 표현된 발명의 방법은 아래와 같다.In this regard, the present invention includes a method and an apparatus for providing the most accurate camera shooting moment through the angle information of the rotatable lidar in a system where the rotatable lidar and the camera are used simultaneously. In the case of a rotary lidar sensor, the laser rangefinder is rotated through an internal mirror or an external device to obtain peripheral distance information. Because the physical method of measuring the ambient is different from the camera sensor, a separate device is needed to physically minimize the gap between the shooting of the two sensors. When using the method and the apparatus included in the present invention, it is possible to minimize the physical problem to obtain the distance information that is the maximum match with the image information obtained from the camera. The present invention can also be expected to improve the results of calibration, recognition, autonomy, and the like caused by reducing errors between sensor information by seeking the most accurate information at the sensor information acquisition stage. The flowchart of the method included in this invention is the same as in FIG. 1, and FIG. 2 represents the device diagram of the present invention. The method of the invention expressed in flow chart is as follows.

도 1 및 도 2를 참조하며, 본 발명에 따른 회전형 라이다와 카메라 동기화 방법 및 장치에서 본 발명의 구체적인 구성과 동작은 다음과 같다.1 and 2, the detailed configuration and operation of the present invention in the method and apparatus for synchronizing a rotary lidar and a camera according to the present invention are as follows.

(1) 본 발명에서 제안하는 방법은 회전형 라이다 센서로부터 거리정보와 각도정보를 입력으로 받는다. 본 발명에서 언급하는 회전형 라이다 센서는 거리 측정 센서를 회전하면서 특정 분해능을 가지는 단일 혹은 n개의 거리 측정 모듈로 구성된 센서이다.(1) The method proposed in the present invention receives distance information and angle information from a rotary lidar sensor. The rotary lidar sensor referred to in the present invention is a sensor composed of a single or n distance measuring module having a specific resolution while rotating the distance measuring sensor.

(2) 회전형 라이다-카메라 동기화 장치는 입력 정보들 중에서 각도 정보를 실시간으로 추출하여, 사전에 입력된 목표 각도와 연속적으로 입력되고 있는 라이다의 각도를 비교하여, 가장 일치하는 각도를 찾아낸다. (2) The rotating lidar-camera synchronizing apparatus extracts angle information from input information in real time, compares the target angle previously input with the angle of the rider continuously input, and finds the most matching angle. Serve

(3) 상기 단계(2)에서 각도 정보를 연산하는 중에도 회전형 라이다는 계속해서 회전하고 있기 때문에 실제 현재의 라이다의 각도와는 차이(오프셋)가 발생한다. 이런 오프셋 때문에 단순히 각도 비교 후 카메라 카메라로 촬영 신호(트리거)를 발생시키면, 이미 카메라 촬영 시기를 놓치기 때문에 두 센서간의 촬영 격차를 최소화할 수 없다. 하지만, 이렇게 물리적인 시간 때문에 발생하는 오프셋은 매번 거의 균일한 값을 보이기 때문에 사전에 계산할 수 있다. 동기화 장치는 계산된 오프셋과 회전형 라이다의 회전 속도를 함께 고려하여 다음 프레임에서의 카메라 촬영 예측 시간을 계산한다.(3) Since the rotary lidar continues to rotate even while calculating the angle information in the above step (2), a difference (offset) from the actual current lidar's angle occurs. Because of this offset, if the camera signal (trigger) is generated by the camera camera after comparing the angles, the shooting gap between the two sensors cannot be minimized because the timing of the camera is already missed. However, the offset caused by this physical time can be calculated in advance because it shows a nearly uniform value each time. The synchronization device calculates the camera shooting prediction time in the next frame by considering the calculated offset and the rotational speed of the rotating lidar.

(4) 상기 단계(3)에서 계산된 예측 시간은 예측 시간 대기열에 입력하고, 현재 프로세스를 분기한다. 분기된 프로세스 중 하나는 다시 회전형 라이다로부터 정보를 입력받기 위해 대기하고, 나머지 하나는 예측 시간 대기열에 입력되어 있는 예측 시간들과 현재시간을 실시간으로 비교한다.(4) The predicted time calculated in step (3) is entered into the predictive time queue and branches the current process. One of the forked processes waits to receive information from the rotating lidar again, and the other compares the current time with the predicted time entered in the predicted time queue in real time.

(5) 상기 단계(4)에서 비교한 예측 시간들 중에서 현재 시간에 도달한 예측 시간이 존재하면, 해당 예측 시간을 대기열에서 제거한 후, 카메라 센서로 촬영 동작 신호를 발생시킨다. 그리고 해당 프로세스는 지속적으로 예측 시간 대기열을 감시한다.(5) If there is a predicted time that reaches the current time among the predicted times compared in the step (4), the corresponding predicted time is removed from the queue, and a photographing operation signal is generated by a camera sensor. The process continuously monitors the estimated time queue.

이와 관련하여, 도 1을 참조하여, 본 발명에 따른 회전형 라이다와 다중 카메라간의 센서 동기화 방법은 다음의 단계들을 수행할 수 있다. 이때, 각 단계는 그 순서에 한정되는 것이 아니라, 응용에 따라 순서를 변경하거나 또는 둘 이상의 단계가 동시에 수행될 수 있다.In this regard, referring to FIG. 1, the method for synchronizing a sensor between a rotatable lidar and multiple cameras according to the present invention may perform the following steps. At this time, each step is not limited to the order, the order may be changed or two or more steps may be performed simultaneously according to the application.

각도 비교 단계(S110)에서, 상기 회전형 라이다로부터 획득된 각도 정보와 사전에 입력된 목표 각도를 비교하여, 상기 목표 각도와 가장 인접한 각도를 탐색하다. 한편, 예측 시간 계산 단계(S120)에서, 상기 탐색된 각도와 상기 회전형 라이다의 회전에 따른 실제 각도와의 오프셋과 상기 회전형 라이다의 회전 속도를 고려하여, 다음 프레임에서의 카메라 촬영 예측 시간을 계산한다.In the angle comparison step (S110), the angle information obtained from the rotatable lidar is compared with a previously input target angle to search for an angle closest to the target angle. On the other hand, in the prediction time calculation step (S120), the camera photographing prediction in the next frame in consideration of the offset between the searched angle and the actual angle according to the rotation of the rotary lidar and the rotational speed of the rotary lidar. Calculate the time

한편, 프로세스 분기 단계(S130)에서, 상기 예측 시간을 예측 시간 대기열에 입력하고, 현재 프로세스를 분기하여 상기 분기된 프로세스 중 하나는 상기 회전형 라이다로부터 정보를 입력받기 위해 대기한다. 또한, 프로세스 분기 단계(S130)에서, 상기 분기된 프로세스 중 나머지 하나는 상기 예측 시간 대기열에 입력된 예측 시간들과 현재 시간을 실시간으로 비교할 수 있다. Meanwhile, in the process branching step S130, the prediction time is input to the prediction time queue, and the current process branches to wait for one of the branched processes to receive information from the rotatable lidar. In addition, in the process branching step S130, the other one of the branched processes may compare the prediction time input to the prediction time queue with the current time in real time.

한편, 촬영 동작 신호 발생 단계(S140)에서, 상기 예측 시간들 중 해당 예측 시간이 상기 현재 시간에 도달하면, 상기 해당 예측 시간을 대기열에서 제거한 후, 촬영 동작 신호를 발생시켜 카메라 센서로 전달할 수 있다.On the other hand, in the shooting operation signal generation step (S140), if the corresponding prediction time of the prediction time reaches the current time, after removing the corresponding prediction time in the queue, it is possible to generate a shooting operation signal and transfer it to the camera sensor. .

또한, 촬영 동작 신호 발생 단계(S140)에서, 상기 탐색된 각도, 상기 오프셋, 상기 회전 속도 및 상기 해당 예측 시간에 기반하여 판단된 현재 각도에 대응하는 카메라를 상기 촬영 동작 신호에 의해 활성화시킬 수 있다. 이때, 상기 다중 카메라 각각은 서로 다른 시간에 상기 촬영 동작 신호에 의해 트리거링될 수 있다.In addition, in operation S140 of generating a photographing operation signal, a camera corresponding to the current angle determined based on the found angle, the offset, the rotation speed, and the corresponding prediction time may be activated by the photographing operation signal. . In this case, each of the multiple cameras may be triggered by the photographing operation signal at different times.

또한, 촬영 동작 신호 발생 단계(S140)에서, 상기 회전형 라이다의 각도 오차와 상기 다중 카메라의 배치 위치와 커버리지 범위를 고려하여, 상기 다중 카메라 각각에 대해 서로 다른 예측 시간에 기반하여 동기화될 수 있다. 이때, 상기 다중 카메라 중 제1 카메라와 제2 카메라 간에 중복되는 영역에 객체가 배치된 경우, 상기 제1 카메라와 제2 카메라를 동시에 트리거링될 수 있다.In addition, in the photographing operation signal generation step (S140), in consideration of the angular error of the rotatable lidar, the arrangement position and the coverage range of the multiple cameras, the multiple cameras may be synchronized based on different prediction times. have. In this case, when an object is disposed in a region overlapping between the first camera and the second camera, the first camera and the second camera may be simultaneously triggered.

상기 기술된 방법으로 구현한 장치의 구성도는 도 2와 같다. 회전형 라이다로(100)부터 센서 정보를 입력받아 처리하는 센서 정보 수신부(210), 수신된 센서 정보로부터 각도 정보를 분리하고 목표 각도와의 비교 연산을 수행하는 각도 정보 연산부(220), 다음 프레임에서의 카메라 트리거 발생 시간을 예측하고 대기하는 예측 시간 대기부(230), 그리고 예측 시간과 현재 시간을 실시간으로 비교하면서 카메라 촬영 동작 신호를 발생시키는 카메라 신호 발생부(240)로 구성이 된다.2 is a block diagram of a device implemented by the method described above. Sensor information receiving unit 210 for receiving and processing the sensor information from the rotary lidar furnace 100, the angle information operation unit 220 for separating the angle information from the received sensor information and performing a comparison operation with the target angle, Next A prediction time waiting unit 230 for predicting and waiting for a camera trigger generation time in a frame, and a camera signal generator 240 for generating a camera photographing operation signal while comparing the prediction time with the current time in real time.

한편, 본 발명에 따른 회전형 라이다와 다중 카메라간의 센서 동기화 방법을 수행하는 동기화 장치(200)는 다음과 같은 동작을 수행할 수 있다. 상기 센서 정보 수신부(210)는 상기 회전형 라이다(100)로부터 거리 정보와 상기 각도 정보를 모두 수신하도록 구성된다. 한편, 각도 정보 연산부(220)는 상기 회전형 라이다(100)로부터 획득된 각도 정보와 사전에 입력된 목표 각도를 비교하여, 상기 목표 각도와 가장 인접한 각도를 탐색하도록 구성된다. 또한, 예측 시간 대기부(230)는 상기 탐색된 각도와 상기 회전형 라이다의 회전에 따른 실제 각도와의 오프셋과 상기 회전형 라이다의 회전 속도를 고려하여, 다음 프레임에서의 카메라 촬영 예측 시간을 계산한다.On the other hand, the synchronization device 200 for performing the sensor synchronization method between the rotary lidar and the multiple cameras according to the present invention can perform the following operations. The sensor information receiver 210 is configured to receive both distance information and the angle information from the rotatable lidar 100. Meanwhile, the angle information calculator 220 compares the angle information obtained from the rotatable lidar 100 with a target angle input in advance, and searches for an angle closest to the target angle. In addition, the prediction time waiting unit 230 considers the offset between the searched angle and the actual angle according to the rotation of the rotatable lidar and the rotational speed of the rotatable lidar. Calculate

또한, 카메라 신호 발생부(240)는 상기 예측 시간을 예측 시간 대기열에 입력하고, 현재 프로세스를 분기하여 상기 분기된 프로세스 중 하나는 상기 회전형 라이다로부터 정보를 입력받기 위해 대기한다. 한편, 예측 시간 대기부(230)는 상기 분기된 프로세스 중 나머지 하나는 상기 예측 시간 대기열에 입력된 예측 시간들과 현재 시간을 실시간으로 비교할 수 있다. 이에 따라, 카메라 신호 발생부(240)는 상기 예측 시간들 중 해당 예측 시간이 상기 현재 시간에 도달하면, 상기 해당 예측 시간을 대기열에서 제거한 후, 촬영 동작 신호를 발생시켜 카메라 센서로 전달할 수 있다.In addition, the camera signal generator 240 inputs the prediction time to a prediction time queue, and branches a current process so that one of the branched processes waits to receive information from the rotatable lidar. Meanwhile, the prediction time waiter 230 may compare the current time with the prediction times input to the prediction time queue in real time in the other branched process. Accordingly, when the corresponding prediction time among the prediction times reaches the current time, the camera signal generator 240 may remove the corresponding prediction time from the queue, generate a photographing operation signal, and transmit it to the camera sensor.

한편, 카메라 신호 발생부(240)는 상기 탐색된 각도, 상기 오프셋, 상기 회전 속도 및 상기 해당 예측 시간에 기반하여 판단된 현재 각도에 대응하는 카메라를 상기 촬영 동작 신호에 의해 활성화시킬 수 있다. 이때, 상기 다중 카메라 각각은 서로 다른 시간에 상기 촬영 동작 신호에 의해 트리거링될 수 있다.The camera signal generator 240 may activate a camera corresponding to the current angle determined based on the found angle, the offset, the rotation speed, and the corresponding prediction time, by the photographing operation signal. In this case, each of the multiple cameras may be triggered by the photographing operation signal at different times.

한편, 카메라 신호 발생부(240)는 상기 회전형 라이다의 각도 오차와 상기 다중 카메라의 배치 위치와 커버리지 범위를 고려하여, 상기 다중 카메라 각각에 대해 서로 다른 예측 시간에 기반하여 동기화를 수행할 수 있다. 이때, 상기 다중 카메라 중 제1 카메라와 제2 카메라 간에 중복되는 영역에 객체가 배치된 것으로 상기 회전형 라이다에 의해 판단된 경우, 상기 제1 카메라와 제2 카메라를 동시에 트리거링될 수 있다.Meanwhile, the camera signal generator 240 may perform synchronization based on different prediction times for each of the multiple cameras in consideration of an angle error of the rotatable lidar, an arrangement position and a coverage range of the multiple cameras. have. In this case, when it is determined by the rotatable lidar that the object is disposed in a region overlapping between the first camera and the second camera among the multiple cameras, the first camera and the second camera may be simultaneously triggered.

한편, 상기 획득된 각도 정보에 기반하여 상기 목표 각도에 임계치 범위 내로 수렴되지 않은 것으로 판단되면, 상기 센서 정보 수신부(210)는 상기 회전형 라이다로부터 상기 거리 정보와 상기 각도 정보를 다시 수신한다. 이에 따라, 상기 획득된 각도 정보에 기반하여 상기 목표 각도에 임계치 범위 내로 수렴된 것으로 판단되면, 상기 예측 시간 대기부(230)와 상기 센서 정보 수신부(240)는 상기 예측 시간 계산 단계(S120) 및 상기 프로세스 분기 단계(S130)에 따른 상기 촬영 동작 신호 발생 단계(S140)를 수행할 수 있다.On the other hand, if it is determined that the target angle does not converge within the threshold range based on the obtained angle information, the sensor information receiver 210 receives the distance information and the angle information from the rotatable lidar again. Accordingly, when it is determined that the target angle is converged within the threshold range based on the obtained angle information, the prediction time waiting unit 230 and the sensor information receiving unit 240 calculate the prediction time step (S120) and The photographing operation signal generation step S140 according to the process branching step S130 may be performed.

이상에서는 본 발명에 따른 본 발명에 따른 회전형 라이다와 다중 카메라간의 센서 동기화 방법 및 이를 수행하는 동기화 장치에 대해 살펴보았다. In the above, a sensor synchronization method between a rotary lidar and multiple cameras according to the present invention and a synchronization device for performing the same have been described.

본 발명은 무인자율화 시스템에서 필수적으로 사용되고 있는 회전형 라이다와 카메라 센서의 정확한 동기화 방법을 제공한다. The present invention provides an accurate method of synchronizing a rotational lidar and a camera sensor which are essentially used in an autonomous system.

이에 따라, 센서 정보의 획득 단에서 최대한 정확한 데이터를 획득함으로서 센서 데이터 간의 에러를 줄이고, 이로 인한 캘리브레이션, 인식, 장애물 판단, 자율행동판단 등 시각 센서를 사용하는 모든 종류의 알고리즘의 결과를 향상시킬 수 있는 효과가 있다.Accordingly, by acquiring the most accurate data from the sensor information acquisition stage, errors between the sensor data can be reduced, and the results of all kinds of algorithms using the visual sensor such as calibration, recognition, obstacle determination, and autonomous behavior determination can be improved. It has an effect.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능뿐만 아니라 각각의 구성 요소들에 대한 설계 및 파라미터 최적화는 별도의 소프트웨어 모듈로도 구현될 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리에 저장되고, 제어부(controller) 또는 프로세서(processor)에 의해 실행될 수 있다.According to the software implementation, the design and parameter optimization for each component as well as the procedures and functions described herein may be implemented as separate software modules. Software code may be implemented in software applications written in a suitable programming language. The software code may be stored in a memory and executed by a controller or a processor.

Claims (6)

회전형 라이다와 다중 카메라간의 센서 동기화 방법에 있어서, 상기 방법은 동기화 장치에 의해 수행되고, 상기 방법은,
상기 회전형 라이다로부터 획득된 각도 정보와 사전에 입력된 목표 각도를 비교하여, 상기 목표 각도와 가장 인접한 각도를 탐색하는 각도 비교 단계;
상기 탐색된 각도와 상기 회전형 라이다의 회전에 따른 실제 각도와의 오프셋과 상기 회전형 라이다의 회전 속도를 고려하여, 다음 프레임에서의 카메라 촬영 예측 시간을 계산하는 예측 시간 계산 단계; 및
상기 예측 시간을 예측 시간 대기열에 입력하고, 현재 프로세스를 분기하여 상기 분기된 프로세스 중 하나는 상기 회전형 라이다로부터 정보를 입력받기 위해 대기하는 프로세스 분기 단계를 포함하는, 센서 동기화 방법.
In a sensor synchronization method between a rotary lidar and multiple cameras, the method is performed by a synchronization device.
An angle comparison step of searching for an angle closest to the target angle by comparing the angle information obtained from the rotatable lidar with a previously input target angle;
A prediction time calculating step of calculating a camera photographing prediction time in a next frame in consideration of an offset between the found angle and an actual angle according to the rotation of the rotary lidar and the rotational speed of the rotary lidar; And
And a process branching step of inputting the prediction time into a prediction time queue, branching a current process and waiting for one of the branched processes to receive information from the rotatable lidar.
제1 항에 있어서,
상기 프로세스 분기 단계에서,
상기 분기된 프로세스 중 나머지 하나는 상기 예측 시간 대기열에 입력된 예측 시간들과 현재 시간을 실시간으로 비교하는 것을 특징으로 하는, 센서 동기화 방법.
According to claim 1,
In the process branching step,
And the other one of the branched processes compares the current time with the predicted time input to the predicted time queue in real time.
제2 항에 있어서,
상기 예측 시간들 중 해당 예측 시간이 상기 현재 시간에 도달하면, 상기 해당 예측 시간을 대기열에서 제거한 후, 촬영 동작 신호를 발생시켜 카메라 센서로 전달하는 촬영 동작 신호 발생 단계를 더 포함하는, 센서 동기화 방법.
The method of claim 2,
If the corresponding prediction time of the prediction time reaches the current time, after removing the corresponding prediction time in the queue, further comprising the step of generating a shooting operation signal for generating a shooting operation signal to the camera sensor, the sensor synchronization method .
제3 항에 있어서,
상기 촬영 동작 신호 발생 단계에서,
상기 탐색된 각도, 상기 오프셋, 상기 회전 속도 및 상기 해당 예측 시간에 기반하여 판단된 현재 각도에 대응하는 카메라를 상기 촬영 동작 신호에 의해 활성화시키고,
상기 다중 카메라 각각은 서로 다른 시간에 상기 촬영 동작 신호에 의해 트리거링되는 것을 특징으로 하는, 센서 동기화 방법.
The method of claim 3, wherein
In the photographing operation signal generation step,
Activate the camera corresponding to the current angle determined based on the found angle, the offset, the rotation speed, and the corresponding prediction time by the photographing operation signal,
And each of the multiple cameras is triggered by the photographing operation signal at different times.
제4 항에 있어서,
상기 촬영 동작 신호 발생 단계에서,
상기 회전형 라이다의 각도 오차와 상기 다중 카메라의 배치 위치와 커버리지 범위를 고려하여, 상기 다중 카메라 각각에 대해 서로 다른 예측 시간에 기반하여 동기화하고,
상기 다중 카메라 중 제1 카메라와 제2 카메라 간에 중복되는 영역에 객체가 배치된 경우, 상기 제1 카메라와 제2 카메라를 동시에 트리거링하는 것을 특징으로 하는, 센서 동기화 방법.
The method of claim 4, wherein
In the photographing operation signal generation step,
Synchronizing based on different prediction times for each of the multiple cameras, taking into account the angular error of the rotatable lidar and the placement position and coverage range of the multiple cameras,
And when an object is disposed in a region overlapping between a first camera and a second camera among the multiple cameras, simultaneously triggering the first camera and the second camera.
제 1항에 있어서,
상기 동기화 장치는
센서 정보 수신부, 각도 정보 연산부, 예측 시간 대기부 및 카메라 신호 발생부를 포함하고,
상기 센서 정보 수신부는 상기 회전형 라이다로부터 거리 정보와 상기 각도 정보를 모두 수신하고,
상기 획득된 각도 정보에 기반하여 상기 목표 각도에 임계치 범위 내로 수렴되지 않은 것으로 판단되면, 상기 센서 정보 수신부는 상기 회전형 라이다로부터 상기 거리 정보와 상기 각도 정보를 다시 수신하고,
상기 획득된 각도 정보에 기반하여 상기 목표 각도에 임계치 범위 내로 수렴된 것으로 판단되면, 상기예측 시간 대기부와 상기 센서 정보 수신부는 상기 예측 시간 계산 단계 및 상기 프로세스 분기 단계에 따른 상기 촬영 동작 신호 발생 단계를 수행하는 것을 특징으로 하는, 센서 동기화 방법.
The method of claim 1,
The synchronization device
A sensor information receiver, an angle information calculator, a prediction time waiter, and a camera signal generator;
The sensor information receiver receives both the distance information and the angle information from the rotatable lidar,
If it is determined that the target angle does not converge within the threshold range based on the obtained angle information, the sensor information receiver receives the distance information and the angle information from the rotatable lidar again.
When it is determined that the target angle converges within the threshold range based on the obtained angle information, the prediction time waiting unit and the sensor information receiving unit generate the photographing operation signal according to the prediction time calculating step and the process branching step. The sensor synchronization method, characterized in that for performing.
KR1020180100545A 2018-08-27 2018-08-27 Method and apparatus for synchronization of rotating lidar and multiple cameras KR102141647B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180100545A KR102141647B1 (en) 2018-08-27 2018-08-27 Method and apparatus for synchronization of rotating lidar and multiple cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180100545A KR102141647B1 (en) 2018-08-27 2018-08-27 Method and apparatus for synchronization of rotating lidar and multiple cameras

Publications (2)

Publication Number Publication Date
KR20200023974A true KR20200023974A (en) 2020-03-06
KR102141647B1 KR102141647B1 (en) 2020-08-05

Family

ID=69802802

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180100545A KR102141647B1 (en) 2018-08-27 2018-08-27 Method and apparatus for synchronization of rotating lidar and multiple cameras

Country Status (1)

Country Link
KR (1) KR102141647B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113674422A (en) * 2021-08-27 2021-11-19 中汽创智科技有限公司 Data synchronous acquisition method, control module, system and storage medium
CN113724338A (en) * 2021-08-31 2021-11-30 上海西井信息科技有限公司 Method, system, device and storage medium for shooting moving object based on table
CN116679290A (en) * 2023-08-02 2023-09-01 东莞市沃百泰优电子科技有限公司 Method, system and medium for testing rotation center offset of rotary laser radar
KR102633224B1 (en) * 2022-11-30 2024-02-06 (주)에스유엠 Object recognition apparatus and method for autonomous vehicles
CN113724338B (en) * 2021-08-31 2024-05-03 上海西井科技股份有限公司 Method, system, equipment and storage medium for shooting mobile object based on table

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Sebastian Schneider 외 3인. Fusing Vision and LIDAR - Synchronization, Correction and Occlusion Reasoning. 2010 IEEE Intelligent Vehicles Symposium, 2010년 6월 1부.* *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113674422A (en) * 2021-08-27 2021-11-19 中汽创智科技有限公司 Data synchronous acquisition method, control module, system and storage medium
CN113724338A (en) * 2021-08-31 2021-11-30 上海西井信息科技有限公司 Method, system, device and storage medium for shooting moving object based on table
CN113724338B (en) * 2021-08-31 2024-05-03 上海西井科技股份有限公司 Method, system, equipment and storage medium for shooting mobile object based on table
KR102633224B1 (en) * 2022-11-30 2024-02-06 (주)에스유엠 Object recognition apparatus and method for autonomous vehicles
CN116679290A (en) * 2023-08-02 2023-09-01 东莞市沃百泰优电子科技有限公司 Method, system and medium for testing rotation center offset of rotary laser radar
CN116679290B (en) * 2023-08-02 2024-04-19 东莞市沃百泰优电子科技有限公司 Method, system and medium for testing rotation center offset of rotary laser radar

Also Published As

Publication number Publication date
KR102141647B1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
US8180107B2 (en) Active coordinated tracking for multi-camera systems
US9031809B1 (en) Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
CN110246182B (en) Vision-based global map positioning method and device, storage medium and equipment
US11788845B2 (en) Systems and methods for robust self-relocalization in a visual map
WO2018217260A3 (en) Systems and methods for tracking and controlling a mobile camera to image objects of interest
US9383170B2 (en) Laser-aided passive seeker
KR102141647B1 (en) Method and apparatus for synchronization of rotating lidar and multiple cameras
CN109829933B (en) Image target tracking method and device
US20210080259A1 (en) System and method for enhancing non-inertial tracking system with inertial constraints
US10551474B2 (en) Delay compensation while controlling a remote sensor
Xu et al. FollowUpAR: Enabling follow-up effects in mobile AR applications
KR101140558B1 (en) Autonomous mobile robot and control method for the same
US20190272426A1 (en) Localization system and method and computer readable storage medium
US20200182590A1 (en) Method and system of determining miss-distance
KR20120090866A (en) Tracking method of multiple objects using mobile device in augumented reality environment and system using the same
Lukashevich et al. The new approach for reliable UAV navigation based on onboard camera image processing
EP4078089B1 (en) Localization using sensors that are tranportable with a device
Sanders-Reed Multitarget multisensor closed-loop tracking
KR102490523B1 (en) Synchronization method and device for rotating lidar and camera using multiple signals
US11653082B2 (en) Method and device for synchronizing between rotary lidar and camera
CN117706544B (en) Intelligent environment-friendly remote monitoring system
KR102490525B1 (en) Synchronization method of rotating lidar and camera in consideration of camera reaction time and device therefor
US11763494B2 (en) Mobile surveillance apparatus and operation method thereof
KR102212268B1 (en) Localization system and means of transportation with the same and computing device for executing the same
US20220130058A1 (en) Mission early launch tracker

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant