KR102451797B1 - Modeling method, modeling device and modeling system for modeling target object - Google Patents

Modeling method, modeling device and modeling system for modeling target object Download PDF

Info

Publication number
KR102451797B1
KR102451797B1 KR1020210071134A KR20210071134A KR102451797B1 KR 102451797 B1 KR102451797 B1 KR 102451797B1 KR 1020210071134 A KR1020210071134 A KR 1020210071134A KR 20210071134 A KR20210071134 A KR 20210071134A KR 102451797 B1 KR102451797 B1 KR 102451797B1
Authority
KR
South Korea
Prior art keywords
target
lidar
lidar points
modeling
points
Prior art date
Application number
KR1020210071134A
Other languages
Korean (ko)
Inventor
박별터
김한근
김동훈
Original Assignee
씨드로닉스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 씨드로닉스(주) filed Critical 씨드로닉스(주)
Priority to KR1020210071134A priority Critical patent/KR102451797B1/en
Priority to PCT/KR2022/007743 priority patent/WO2022255777A1/en
Priority to KR1020220125834A priority patent/KR102613257B1/en
Application granted granted Critical
Publication of KR102451797B1 publication Critical patent/KR102451797B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a modeling method, a modeling apparatus, and a modeling system for modeling a target object. The modeling method, according to the present invention, comprises the steps of: obtaining first target lidar points; obtaining second target lidar points; generating a plurality of planes; converting coordinates of the first target lidar points; and modeling a target object. Accordingly, an object can be modeled even when the point density of a lidar point cloud is sparse.

Description

타겟 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템{MODELING METHOD, MODELING DEVICE AND MODELING SYSTEM FOR MODELING TARGET OBJECT}A modeling method for modeling a target object, a modeling device, and a modeling system

본 출원은 타겟 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템에 관한 것으로, 보다 상세하게는 라이다 포인트 클라우드를 누적하여 타겟 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템에 관한 것이다.The present application relates to a modeling method, a modeling apparatus, and a modeling system for modeling a target object, and more particularly, to a modeling method, a modeling apparatus, and a modeling system for modeling a target object by accumulating lidar point clouds.

최근 객체를 모델링하는 기술에 대한 개발이 활발이 이루어지고 있다. 객체 모델링을 위한 센서로는 카메라, 라이다, 레이더 등이 이용되고 있다. Recently, the development of technology for modeling an object is actively being made. As sensors for object modeling, cameras, lidars, radars, etc. are used.

이중 라이다는 공간 분해능 및 야간 성능의 뛰어남 등의 장점으로 인해 널리 쓰이고 있다. 이에 따라 라이다 포인트 클라우드를 이용하여 객체를 모델링하는 기술 또한 다양하게 개발되고 있다.Dual lidar is widely used due to its advantages such as spatial resolution and excellent night performance. Accordingly, various technologies for modeling objects using lidar point clouds are being developed.

그러나, 종래의 ICP, G-ICP와 같은 라이다 포인트 registration 방법을 이용해서는 라이다 포인트가 sparse 또는 extremely sparse한 경우에 대해서 객체를 모델링하기 어려운 문제가 있었다.However, there is a problem in that it is difficult to model an object when the lidar point is sparse or extremely sparse by using the conventional lidar point registration method such as ICP or G-ICP.

본 출원에서 해결하고자 하는 일 과제는 라이다 포인트 클라우드의 점밀도가 희박(sparse)한 경우에도 객체를 모델링할 수 있는 모델링 방법, 모델링 장치 및 모델링 시스템을 제공하는 것에 있다.One problem to be solved in the present application is to provide a modeling method, a modeling apparatus, and a modeling system capable of modeling an object even when the point density of the lidar point cloud is sparse.

본 출원에서 해결하고자 하는 일 과제는 객체의 움직임을 반영하여 상기 객체를 모델링할 수 있는 모델링 방법, 모델링 장치 및 모델링 시스템을 제공하는 것에 있다.An object to be solved in the present application is to provide a modeling method, a modeling apparatus, and a modeling system capable of modeling the object by reflecting the movement of the object.

본 출원에서 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 출원으로부터 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved in the present application are not limited to the above-described problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present application belongs from the present application.

일 실시예에 의하면, 컴퓨팅 장치에 의해 수행되는 타겟 객체를 모델링하는 모델링 방법에 있어서, 제1 이미지 프레임 및 제1 라이다 포인트 클라우드를 획득하는 단계, 상기 제1 이미지 프레임 및 상기 제1 라이다 포인트 클라우드는 제1 시점에 대응함; 상기 제1 이미지 프레임으로부터 상기 타겟 객체와 관련된 제1 타겟 특징 정보를 획득하는 단계, 상기 제1 타겟 특징 정보는 상기 제1 시점에서의 상기 타겟 객체의 형상을 반영함; 상기 제1 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제1 타겟 라이다 포인트들을 결정하는 단계; 제2 이미지 프레임 및 제2 라이다 포인트 클라우드를 획득하는 단계, 상기 제2 이미지 프레임 및 상기 제2 라이다 포인트 클라우드는 상기 제1 시점의 이후인 제2 시점에 대응함; 상기 제2 이미지 프레임으로부터 상기 타겟 객체와 관련된 제2 타겟 특징 정보를 획득하는 단계, 상기 제2 타겟 특징 정보는 상기 제2 시점에서의 상기 타겟 객체의 형상을 반영함; 상기 제2 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제2 타겟 라이다 포인트들을 결정하는 단계; 상기 제1 이미지 프레임으로부터 획득한 상기 제1 타겟 특징 정보 및 상기 제2 이미지 프레임으로부터 획득한 상기 제2 타겟 특징 정보에 기초하여 상기 제1 시점 및 상기 제2 시점 사이의 상기 타겟 객체의 움직임을 반영하는 변환 정보를 획득하는 단계; 상기 제1 이미지 프레임 및 상기 제2 이미지 프레임으로부터 획득한 상기 변환 정보에 적어도 일부분 기초하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하는 단계; 및 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링하는 단계를 포함하는 모델링 방법이 제공될 수 있다.According to an embodiment, in the modeling method of modeling a target object performed by a computing device, the steps of obtaining a first image frame and a first lidar point cloud, the first image frame and the first lidar point the cloud corresponds to the first point in time; obtaining first target characteristic information related to the target object from the first image frame, wherein the first target characteristic information reflects a shape of the target object at the first viewpoint; determining one or more first target lidar points associated with the target object from among the first lidar point clouds; acquiring a second image frame and a second lidar point cloud, wherein the second image frame and the second lidar point cloud correspond to a second time point that is after the first time point; obtaining second target characteristic information related to the target object from the second image frame, wherein the second target characteristic information reflects a shape of the target object at the second viewpoint; determining one or more second target lidar points associated with the target object from among the second lidar point clouds; Reflecting the movement of the target object between the first viewpoint and the second viewpoint based on the first target characteristic information acquired from the first image frame and the second target characteristic information acquired from the second image frame obtaining conversion information; transforming the coordinates of the first target lidar points based at least in part on the transformation information obtained from the first image frame and the second image frame; and modeling the target object using the converted first target LIDAR points and the second target LIDAR points.

일 실시예에 의하면, 타겟 객체를 모델링하는 모델링 장치에 있어서, 이미지 프레임 및 라이다 포인트 클라우드를 수신하는 통신부; 및 상기 통신부를 통해 수신된 이미지 프레임 및 라이다 포인트 클라우드를 이용하여 상기 타겟 객체를 모델링하는 제어부를 포함하고, 상기 제어부는, 상기 통신 모듈을 통해 제1 이미지 프레임 및 제1 라이다 포인트 클라우드를 획득하고 - 상기 제1 이미지 프레임 및 상기 제1 라이다 포인트 클라우드는 제1 시점에 대응함 - , 상기 제1 이미지 프레임으로부터 상기 타겟 객체와 관련된 제1 타겟 특징 정보를 획득하고 - 상기 제1 타겟 특징 정보는 상기 제1 시점에서의 상기 타겟 객체의 형상을 반영함 - , 상기 제1 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제1 타겟 라이다 포인트들을 결정하고, 상기 통신 모듈을 통해 제2 이미지 프레임 및 제2 라이다 포인트 클라우드를 획득하고 - 상기 제2 이미지 프레임 및 상기 제2 라이다 포인트 클라우드는 상기 제1 시점의 이후인 제2 시점에 대응함 - , 상기 제2 이미지 프레임으로부터 상기 타겟 객체와 관련된 제2 타겟 특징 정보를 획득하고 - 상기 제2 타겟 특징 정보는 상기 제2 시점에서의 상기 타겟 객체의 형상을 반영함 - , 상기 제2 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제2 타겟 라이다 포인트들을 결정하고, 상기 제1 이미지 프레임으로부터 획득한 상기 제1 타겟 특징 정보 및 상기 제2 이미지 프레임으로부터 획득한 상기 제2 타겟 특징 정보에 기초하여 상기 제1 시점 및 상기 제2 시점 사이의 상기 타겟 객체의 움직임을 반영하는 변환 정보를 획득하고, 상기 제1 이미지 프레임 및 상기 제2 이미지 프레임으로부터 획득한 상기 변환 정보에 적어도 일부분 기초하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하고, 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링하는 모델링 장치가 제공될 수 있다.According to an embodiment, in a modeling apparatus for modeling a target object, the communication unit for receiving an image frame and lidar point cloud; and a control unit for modeling the target object using the image frame and lidar point cloud received through the communication unit, wherein the control unit acquires a first image frame and a first lidar point cloud through the communication module and - the first image frame and the first lidar point cloud correspond to a first viewpoint - obtain first target characteristic information related to the target object from the first image frame, - the first target characteristic information reflecting the shape of the target object at the first time point - determining one or more first target LIDAR points related to the target object among the first LIDAR point clouds, and a second image frame through the communication module and obtaining a second lidar point cloud, wherein the second image frame and the second lidar point cloud correspond to a second viewpoint that is after the first viewpoint, wherein the second image frame is associated with the target object. obtain second target characteristic information, wherein the second target characteristic information reflects a shape of the target object at the second viewpoint; one or more second targets related to the target object in the second lidar point cloud LiDAR points are determined, and based on the first target characteristic information obtained from the first image frame and the second target characteristic information obtained from the second image frame, between the first time point and the second time point. Obtaining transformation information reflecting the movement of the target object, transforming the coordinates of the first target LiDAR points based at least in part on the transformation information obtained from the first image frame and the second image frame, and A modeling apparatus for modeling the target object using the converted first target LIDAR points and the second target LIDAR points may be provided.

일 실시예에 의하면, 타겟 객체를 모델링하는 모델링 시스템에 있어서, 제1 시점에 대응하는 제1 이미지 프레임 및 상기 제1 시점의 이후인 제2 시점에 대응하는 제2 이미지 프레임을 생성하는 카메라 모듈; 상기 제1 시점에 대응하는 제1 라이다 포인트 클라우드 및 상기 제2 시점에 대응하는 제2 라이다 포인트 클라우드를 생성하는 라이다 모듈; 및 상기 이미지 프레임들 및 상기 라이다 포인트 클라우드들을 이용하여 상기 타겟 객체를 모델링하는 모델링 장치를 포함하고, 상기 모델링 장치는, 상기 카메라 모듈로부터 상기 제1 및 제2 이미지 프레임들을 획득하고, 상기 제1 이미지 프레임으로부터 상기 타겟 객체와 관련된 제1 타겟 특징 정보를 획득하고 - 상기 제1 타겟 특징 정보는 상기 제1 시점에서의 상기 타겟 객체의 형상을 반영함 - , 상기 제2 이미지 프레임으로부터 상기 타겟 객체와 관련된 제2 타겟 특징 정보를 획득하고 - 상기 제2 타겟 특징 정보는 상기 제2 시점에서의 상기 타겟 객체의 형상을 반영함 - , 상기 라이다 모듈로부터 상기 제1 및 제2 라이다 포인트 클라우드들을 획득하고, 상기 제1 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제1 타겟 라이다 포인트들을 결정하고, 상기 제2 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제2 타겟 라이다 포인트들을 결정하고, 상기 제1 이미지 프레임으로부터 획득한 상기 제1 타겟 특징 정보 및 상기 제2 이미지 프레임으로부터 획득한 상기 제2 타겟 특징 정보에 기초하여 상기 제1 시점 및 상기 제2 시점 사이의 상기 타겟 객체의 움직임을 반영하는 변환 정보를 획득하고, 상기 제1 이미지 프레임 및 상기 제2 이미지 프레임으로부터 획득한 상기 변환 정보에 적어도 일부분 기초하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하고, 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링하는 모델링 시스템이 제공될 수 있다.According to one embodiment, a modeling system for modeling a target object, comprising: a camera module that generates a first image frame corresponding to a first viewpoint and a second image frame corresponding to a second viewpoint that is after the first viewpoint; a lidar module that generates a first lidar point cloud corresponding to the first viewpoint and a second lidar point cloud corresponding to the second viewpoint; and a modeling apparatus for modeling the target object using the image frames and the lidar point clouds, wherein the modeling apparatus obtains the first and second image frames from the camera module, and obtain first target characteristic information related to the target object from an image frame, wherein the first target characteristic information reflects a shape of the target object at the first viewpoint; and the target object from the second image frame obtain related second target characteristic information, wherein the second target characteristic information reflects the shape of the target object at the second time point, and obtain the first and second lidar point clouds from the lidar module and determining one or more first target lidar points related to the target object from among the first lidar point clouds, and determining one or more second target lidar points related to the target object from among the second lidar point clouds. and, based on the first target characteristic information acquired from the first image frame and the second target characteristic information acquired from the second image frame, the movement of the target object between the first viewpoint and the second viewpoint obtain transformation information reflecting A modeling system for modeling the target object using lidar points and the second target lidar points may be provided.

일 실시예에 의하면, 하나 이상의 프로세서에 의해 수행되는 타겟 객체를 모델링하는 모델링 방법에 있어서, 제1 시점에 대응하는 제1 타겟 라이다 포인트들을 획득함; 상기 제1 시점과 상이한 제2 시점에 대응하는 제2 타겟 라이다 포인트들을 획득함; 상기 제2 타겟 라이다 포인트들 각각마다, 상기 각각의 제2 타겟 라이다 포인트 및 이와 인접한 상기 제2 타겟 라이다 포인트들을 이용하여 상기 각각의 제2 타겟 라이다 포인트와 관련된 복수의 평면들을 생성함; 상기 제1 타겟 라이다 포인트들, 상기 제2 타겟 라이다 포인트들 및 상기 복수의 평면들에 기초하여 산출된 변환 정보를 이용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환함, 상기 변환 정보는 상기 타겟 객체의 상기 제1 시점과 상기 제2 시점 사이의 움직임을 반영함; 및 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링함을 포함하고, 상기 좌표를 변환함은, 상기 제1 타겟 라이다 포인트들 각각마다, 상기 복수의 평면들 중 상기 각각의 제1 타겟 라이다 포인트와 대응하는 평면을 결정함; 상기 제1 타겟 라이다 포인트들 및 이에 대응하는 평면들에 기초하여 상기 변환 정보를 산출함; 및 상기 변환 정보를 상기 제1 타겟 라이다 포인트들의 좌표에 적용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환함을 미리 정해진 조건을 만족할 때까지 반복 수행하는 것을 포함하는 모델링 방법이 제공될 수 있다.According to an embodiment, there is provided a modeling method for modeling a target object performed by one or more processors, comprising: acquiring first target lidar points corresponding to a first viewpoint; obtaining second target lidar points corresponding to a second viewpoint different from the first viewpoint; For each of the second target lidar points, generating a plurality of planes associated with each second target lidar point by using the respective second target lidar point and the second target lidar points adjacent thereto ; The first target lidar points, the second target lidar points, and transform the coordinates of the first target lidar points using transformation information calculated based on the plurality of planes, the transformation information reflecting movement between the first and second viewpoints of the target object; and modeling the target object using the transformed first target lidar points and the second target lidar points, wherein transforming the coordinates includes, for each of the first target lidar points, determining a plane of the plurality of planes corresponding to each of the first target lidar points; calculating the transformation information based on the first target LIDAR points and corresponding planes; and applying the transformation information to the coordinates of the first target lidar points to repeatedly transform the coordinates of the first target lidar points until a predetermined condition is satisfied. .

본 출원의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 출원으로부터 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions of the problems of the present application are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those of ordinary skill in the art to which the present application belongs from the present application.

본 출원의 실시예에 따르면, 라이다 포인트 클라우드의 점밀도가 희박(sparse)한 경우에도 이를 누적하여 객체를 모델링할 수 있는 모델링 방법, 모델링 장치 및 모델링 시스템이 제공될 수 있다.According to the embodiment of the present application, even when the point density of the lidar point cloud is sparse, it is possible to provide a modeling method, a modeling apparatus, and a modeling system capable of modeling an object by accumulating the point density.

본 출원의 실시예에 따르면, 이미지로부터 획득한 변환 정보를 이용한 라이다 포인트 클라우드의 좌표 변환을 통해 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템이 제공될 수 있다.According to an embodiment of the present application, a modeling method, a modeling apparatus, and a modeling system for modeling an object through coordinate transformation of a lidar point cloud using transformation information obtained from an image may be provided.

본 출원의 발명의 효과가 상술한 효과로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 출원으로부터 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects of the invention of the present application are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art to which this application belongs from this application.

도 1은 일 실시예에 따른 타겟 라이다 포인트의 누적을 통한 타겟 객체 모델링에 관한 도면이다.
도 2는 일 실시예에 따른 타겟 라이다 포인트 누적을 통한 움직이는 타겟 객체 모델링에 관한 도면이다.
도 3은 일 실시예에 따른 모델링 시스템에 관한 도면이다.
도 4는 일 실시예에 따른 모델링 장치에 관한 도면이다.
도 5는 일 실시예에 따른 이미지 프레임에 기초하여 산출된 변환 정보를 이용한 모델링 방법에 관한 도면이다.
도 6은 일 실시예에 따른 이미지 좌표에 관한 도면이다.
도 7은 일 실시예에 따른 타겟 라이다 포인트에 관한 도면이다.
도 8은 일 실시예에 따른 변환 정보를 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 변환 정보 획득에 관한 도면이다.
도 10은 변환 정보 산출 알고리즘의 예시들에 관한 도면이다.
도 11은 일 실시예에 따른 제1 타겟 라이다 포인트의 제1 좌표를 제2 좌표로 변환하는 것에 관한 도면이다.
도 12 및 도 13은 일 실시예에 따른 타겟 라이다 포인트들이 누적되는 시간 구간을 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 이미지 프레임에 기초하여 생성되는 객체 종류 정보를 설명하기 위한 도면이다.
도 15는 일 실시예에 따른 객체 종류 정보를 이용하여 라이다 포인트 클라우드 중 타겟 라이다 포인트를 결정하는 것에 관한 도면이다.
도 16은 일 실시예에 따른 객체 종류 정보를 이용하여 특징 정보로부터 타겟 특징 정보를 획득하는 것에 관한 도면이다.
도 17은 일 실시예에 따른 복셀화에 관한 도면이다.
도 18은 일 실시예에 따른 라이다 포인트에 기초하여 산출된 변환 정보를 이용한 모델링 방법에 관한 도면이다.
도 19는 일 실시예에 따른 라이다 포인트들을 이용하여 평면들을 생성하는 것에 관한 도면이다.
도 20은 일 실시예에 따른 라이다 포인트들의 좌표 변환에 관한 도면이다.
도 21은 라이다 포인트에 기초하여 산출된 변환 정보를 이용한 모델링 방법에 관한 알고리즘의 예시에 관한 도면이다.
도 22는 모델링 방법의 일 실시예인 SP-ICP의 정확도에 관한 표이다.
도 23 및 도 24는 모델링 방법의 일 실시예인 SP-ICP를 이용한 모델링 결과의 시각화에 관한 도면이다.
도 25는 도 23 및 도 24의 테스트 결과의 정확도를 보다 수치적으로 표현한 것이다.
1 is a diagram illustrating target object modeling through accumulation of target lidar points according to an embodiment.
2 is a diagram of a moving target object modeling through accumulation of target lidar points according to an embodiment.
3 is a diagram of a modeling system according to an embodiment.
4 is a diagram of a modeling apparatus according to an exemplary embodiment.
5 is a diagram illustrating a modeling method using transformation information calculated based on an image frame according to an exemplary embodiment.
6 is a diagram of image coordinates according to an exemplary embodiment.
7 is a diagram of a target lidar point according to an embodiment.
8 is a diagram for explaining conversion information according to an embodiment.
9 is a diagram for obtaining conversion information according to an embodiment.
10 is a diagram of examples of a transform information calculation algorithm.
11 is a diagram for converting first coordinates of a first target lidar point into second coordinates according to an embodiment.
12 and 13 are diagrams for explaining a time period in which target LiDAR points are accumulated, according to an embodiment.
14 is a diagram for describing object type information generated based on an image frame according to an exemplary embodiment.
15 is a diagram for determining a target lidar point from among lidar point clouds by using object type information according to an embodiment.
16 is a diagram illustrating obtaining target characteristic information from characteristic information using object type information according to an embodiment.
17 is a diagram related to voxelization according to an embodiment.
18 is a diagram illustrating a modeling method using transformation information calculated based on a lidar point according to an embodiment.
19 is a diagram for generating planes using lidar points according to an embodiment.
20 is a diagram illustrating coordinate transformation of lidar points according to an embodiment.
21 is a diagram illustrating an example of an algorithm for a modeling method using transformation information calculated based on a lidar point.
22 is a table regarding the accuracy of SP-ICP, which is an embodiment of a modeling method.
23 and 24 are diagrams illustrating visualization of a modeling result using SP-ICP, which is an embodiment of a modeling method.
25 is a more numerical representation of the accuracy of the test results of FIGS. 23 and 24 .

본 출원에 기재된 실시예는 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 출원의 사상을 명확히 설명하기 위한 것이므로, 본 출원에 기재된 실시예에 의해 한정되는 것은 아니며, 본 출원의 범위는 본 출원의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.The embodiments described in the present application are for clearly explaining the idea of the present application to those of ordinary skill in the technical field to which the present application belongs, so it is not limited by the embodiments described in the present application, and the scope of the present application is It should be construed as including modifications or variations without departing from the spirit of the present application.

본 출원에서 사용되는 용어는 본 출원에서의 기능을 고려하여 가능한 현재 널리 사용되고 있는 일반적인 용어를 선택하였으나 이는 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 이와 달리 특정한 용어를 임의의 의미로 정의하여 사용하는 경우에는 그 용어의 의미에 관하여 별도로 기재할 것이다. 따라서 본 출원에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 출원의 전반에 걸친 내용을 토대로 해석되어야 한다.The terms used in the present application have been selected as widely used general terms as possible in consideration of the functions in the present application, but they may vary depending on the intention, custom, or emergence of new technology of those of ordinary skill in the art to which this application belongs. can However, when a specific term is defined and used in an arbitrary sense, the meaning of the term will be separately described. Therefore, the terms used in the present application should be interpreted based on the actual meaning of the term and the overall content of the present application, rather than the simple name of the term.

본 출원의 도면은 본 출원을 용이하게 설명하기 위한 것으로 도면에 도시된 형상은 본 출원의 이해를 돕기 위하여 필요에 따라 과장되어 표시된 것일 수 있으므로 본 출원이 도면에 의해 한정되는 것은 아니다.The drawings of the present application are for easy explanation of the present application, and the shapes shown in the drawings may be exaggerated as necessary to help understand the present application, so the present application is not limited by the drawings.

본 출원에서 본 출원에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 출원의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략하기로 한다. 또한, 본 출원의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별 기호에 불과하다.In the present application, when it is determined that a detailed description of a known configuration or function related to the present application may obscure the gist of the present application, a detailed description thereof will be omitted if necessary. In addition, the numbers (eg, first, second, etc.) used in the description of the present application are merely identification symbols for distinguishing one component from other components.

일 실시예에 의하면, 컴퓨팅 장치에 의해 수행되는 타겟 객체를 모델링하는 모델링 방법에 있어서, 상기 모델링 방법은, 제1 이미지 프레임 및 제1 라이다 포인트 클라우드를 획득하는 단계, 상기 제1 이미지 프레임 및 상기 제1 라이다 포인트 클라우드는 제1 시점에 대응함; 상기 제1 이미지 프레임으로부터 상기 타겟 객체와 관련된 제1 타겟 특징 정보를 획득하는 단계, 상기 제1 타겟 특징 정보는 상기 제1 시점에서의 상기 타겟 객체의 형상을 반영함; 상기 제1 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제1 타겟 라이다 포인트들을 결정하는 단계; 제2 이미지 프레임 및 제2 라이다 포인트 클라우드를 획득하는 단계, 상기 제2 이미지 프레임 및 상기 제2 라이다 포인트 클라우드는 상기 제1 시점의 이후인 제2 시점에 대응함; 상기 제2 이미지 프레임으로부터 상기 타겟 객체와 관련된 제2 타겟 특징 정보를 획득하는 단계, 상기 제2 타겟 특징 정보는 상기 제2 시점에서의 상기 타겟 객체의 형상을 반영함; 상기 제2 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제2 타겟 라이다 포인트들을 결정하는 단계; 상기 제1 이미지 프레임으로부터 획득한 상기 제1 타겟 특징 정보 및 상기 제2 이미지 프레임으로부터 획득한 상기 제2 타겟 특징 정보에 기초하여 상기 제1 시점 및 상기 제2 시점 사이의 상기 타겟 객체의 움직임을 반영하는 변환 정보를 획득하는 단계; 상기 제1 이미지 프레임 및 상기 제2 이미지 프레임으로부터 획득한 상기 변환 정보에 적어도 일부분 기초하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하는 단계; 및 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링하는 단계를 포함할 수 있다.According to an embodiment, in the modeling method of modeling a target object performed by a computing device, the modeling method includes: obtaining a first image frame and a first lidar point cloud; the first lidar point cloud corresponds to the first time point; obtaining first target characteristic information related to the target object from the first image frame, wherein the first target characteristic information reflects a shape of the target object at the first viewpoint; determining one or more first target lidar points associated with the target object from among the first lidar point clouds; acquiring a second image frame and a second lidar point cloud, wherein the second image frame and the second lidar point cloud correspond to a second time point that is after the first time point; obtaining second target characteristic information related to the target object from the second image frame, wherein the second target characteristic information reflects a shape of the target object at the second viewpoint; determining one or more second target lidar points associated with the target object from among the second lidar point clouds; Reflecting the movement of the target object between the first viewpoint and the second viewpoint based on the first target characteristic information acquired from the first image frame and the second target characteristic information acquired from the second image frame obtaining conversion information; transforming the coordinates of the first target lidar points based at least in part on the transformation information obtained from the first image frame and the second image frame; and modeling the target object using the converted first target LIDAR points and the second target LIDAR points.

상기 변환 정보는 2차원 좌표를 변환하는 정보일 수 있고, 상기 변환 정보에 기초하여 변환되는 상기 제1 타겟 라이다 포인트들의 좌표는 3차원 좌표일 수 있다.The transformation information may be information for transforming two-dimensional coordinates, and the coordinates of the first target lidar points that are transformed based on the transformation information may be three-dimensional coordinates.

상기 모델링 방법은, 상기 이미지 프레임들을 생성한 카메라 모듈 및 상기 라이다 포인트 클라우드들을 생성한 라이다 모듈 사이의 캘리브레이션 정보를 획득하는 단계 - 상기 캘리브레이션 정보는 상기 카메라 모듈 및 상기 라이다 모듈 사이의 상대적인 위치를 반영하는 평행 이동(translation) 정보, 상기 카메라 모듈 및 상기 라이다 모듈 사이의 상대적인 방향을 반영하는 회전(rotation) 정보 및 상기 카메라 모듈의 이미지 평면 상으로의 투영을 위한 카메라 캘리브레이션 정보 중 적어도 하나를 포함함 - 을 더 포함할 수 있고, 상기 제1 타겟 라이다 포인트들의 좌표를 변환함에 있어 상기 캘리브레이션 정보에 더 기초하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환할 수 있다.The modeling method includes: obtaining calibration information between a camera module generating the image frames and a lidar module generating the lidar point clouds - The calibration information is a relative position between the camera module and the lidar module At least one of translation information reflecting the, rotation information reflecting the relative direction between the camera module and the lidar module, and camera calibration information for projection onto the image plane of the camera module It may further include, and in transforming the coordinates of the first target lidar points, the coordinates of the first target lidar points may be transformed further based on the calibration information.

상기 제1 타겟 라이다 포인트들의 좌표를 변환하는 단계는, 상기 캘리브레이션 정보에 기초하여 상기 제1 시점에 대응하는 제1 좌표를 갖는 상기 제1 타겟 라이다 포인트들을 상기 이미지 평면 상에 투영하여 상기 제1 좌표에 대응하는 이미지 좌표를 획득하는 단계; 상기 이미지 좌표에 상기 변환 정보를 적용하여 상기 이미지 좌표의 좌표값을 변환하는 단계; 및 상기 캘리브레이션 정보에 기초하여 상기 변환된 이미지 좌표로부터 상기 제1 타겟 라이다 포인트들의 상기 제2 시점에 대응하는 제2 좌표를 생성하는 단계를 포함할 수 있다.The converting of the coordinates of the first target LiDAR points may include projecting the first target LiDAR points having first coordinates corresponding to the first viewpoint on the image plane based on the calibration information on the image plane. obtaining image coordinates corresponding to one coordinate; converting the coordinate values of the image coordinates by applying the transformation information to the image coordinates; and generating second coordinates corresponding to the second viewpoints of the first target lidar points from the converted image coordinates based on the calibration information.

상기 제2 좌표는, 상기 변환된 이미지 좌표와 매핑되는 좌표의 그룹 중 상기 제1 좌표와 동일한 높이값을 갖는 특정 좌표로 결정될 수 있다.The second coordinates may be determined as specific coordinates having the same height value as the first coordinates among a group of coordinates mapped with the transformed image coordinates.

상기 제1 타겟 라이다 포인트들의 좌표를 변환하는 단계는, 상기 타겟 객체가 미리 정해진 평면 상에서 움직이는 것으로 가정하고 상기 제1 타겟 라이다 포인트들의 좌표를 변환할 수 있다.The converting of the coordinates of the first target LIDAR points may include converting the coordinates of the first target LIDAR points assuming that the target object moves on a predetermined plane.

상기 변환 정보를 획득하는 단계는, 상기 제1 타겟 특징 정보 및 상기 제2 타겟 특징 정보를 매칭하는 단계; 상기 매칭된 제1 타겟 특징 정보 및 제2 타겟 특징 정보에 기초하여 상기 변환 정보를 산출하는 단계; 상기 변환 정보를 상기 제1 타겟 특징 정보에 적용하여 상기 제1 타겟 특징 정보의 이미지 좌표를 변환하는 단계; 및 상기 변환된 제1 타겟 특징 정보 및 상기 제2 타겟 특징 정보를 비교하는 단계를 포함할 수 있다.The obtaining of the transformation information may include: matching the first target characteristic information and the second target characteristic information; calculating the transformation information based on the matched first target characteristic information and second target characteristic information; converting image coordinates of the first target characteristic information by applying the transformation information to the first target characteristic information; and comparing the converted first target characteristic information and the second target characteristic information.

상기 모델링 방법은, 상기 제1 이미지 프레임 내에서의 상기 타겟 객체와 관련된 제1 타겟 영역을 반영하는 제1 객체 종류 정보를 생성하는 단계; 및 상기 제2 이미지 프레임 내에서의 상기 타겟 객체와 관련된 제2 타겟 영역을 반영하는 제2 객체 종류 정보를 생성하는 단계를 더 포함할 수 있다.The modeling method may include: generating first object type information reflecting a first target area related to the target object in the first image frame; and generating second object type information reflecting a second target area related to the target object in the second image frame.

상기 제1 타겟 특징 정보를 획득하는 단계는, 상기 제1 이미지 프레임으로부터 제1 특징 정보를 생성하는 단계; 및 상기 제1 객체 종류 정보를 이용하여, 상기 생성된 제1 특징 정보 중 상기 제1 타겟 영역에 대응하는 특징 정보를 상기 제1 타겟 특징 정보로 결정하는 단계를 포함할 수 있고, 상기 제2 타겟 특징 정보를 획득하는 단계는, 상기 제2 이미지 프레임으로부터 제2 특징 정보를 생성하는 단계; 및 상기 제2 객체 종류 정보를 이용하여, 상기 생성된 제2 특징 정보 중 상기 제2 타겟 영역에 대응하는 특징 정보를 상기 제2 타겟 특징 정보로 결정하는 단계를 포함할 수 있다.The obtaining of the first target characteristic information may include: generating first characteristic information from the first image frame; and determining, among the generated first characteristic information, characteristic information corresponding to the first target area as the first target characteristic information, by using the first object type information, and the second target The obtaining of the characteristic information may include: generating second characteristic information from the second image frame; and determining, as the second target characteristic information, characteristic information corresponding to the second target area from among the generated second characteristic information, by using the second object type information.

상기 제1 타겟 라이다 포인트들을 결정하는 단계는, 상기 제1 객체 종류 정보를 이용하여, 상기 제1 라이다 포인트 클라우드 중 상기 제1 타겟 영역에 대응하는 하나 이상의 라이다 포인트들을 상기 제1 타겟 라이다 포인트들로 결정하는 단계를 포함할 수 있고, 상기 제2 타겟 라이다 포인트들을 결정하는 단계는, 상기 제2 객체 종류 정보를 이용하여, 상기 제2 라이다 포인트 클라우드 중 상기 제2 타겟 영역에 대응하는 하나 이상의 라이다 포인트들을 상기 제2 타겟 라이다 포인트들로 결정하는 단계를 포함할 수 있다.The determining of the first target LIDAR points may include selecting one or more LIDAR points corresponding to the first target area from among the first LIDAR point clouds as the first target LIDAR by using the first object type information. The method may include determining the IDA points, wherein the determining of the second target LIDAR points may include: using the second object type information to be located in the second target area of the second LIDAR point cloud. and determining corresponding one or more lidar points as the second target lidar points.

상기 제1 시점 및 상기 제2 시점은 미리 정해진 시간 구간에 포함되는 것을 특징으로 할 수 있다.The first time point and the second time point may be included in a predetermined time interval.

상기 변환 정보는 상기 제1 타겟 특징 정보 및 상기 제2 타겟 특징 정보에 기초하여 생성된 호모그래피 행렬을 포함할 수 있다.The transformation information may include a homography matrix generated based on the first target characteristic information and the second target characteristic information.

일 실시예에 의하면, 타겟 객체를 모델링하는 모델링 장치에 있어서, 상기 모델링 장치는, 이미지 프레임 및 라이다 포인트 클라우드를 수신하는 통신부; 및 상기 통신부를 통해 수신된 이미지 프레임 및 라이다 포인트 클라우드를 이용하여 상기 타겟 객체를 모델링하는 제어부를 포함할 수 있고, 상기 제어부는, 상기 통신 모듈을 통해 제1 이미지 프레임 및 제1 라이다 포인트 클라우드를 획득하고 - 상기 제1 이미지 프레임 및 상기 제1 라이다 포인트 클라우드는 제1 시점에 대응함 - , 상기 제1 이미지 프레임으로부터 상기 타겟 객체와 관련된 제1 타겟 특징 정보를 획득하고 - 상기 제1 타겟 특징 정보는 상기 제1 시점에서의 상기 타겟 객체의 형상을 반영함 - , 상기 제1 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제1 타겟 라이다 포인트들을 결정하고, 상기 통신 모듈을 통해 제2 이미지 프레임 및 제2 라이다 포인트 클라우드를 획득하고 - 상기 제2 이미지 프레임 및 상기 제2 라이다 포인트 클라우드는 상기 제1 시점의 이후인 제2 시점에 대응함 - , 상기 제2 이미지 프레임으로부터 상기 타겟 객체와 관련된 제2 타겟 특징 정보를 획득하고 - 상기 제2 타겟 특징 정보는 상기 제2 시점에서의 상기 타겟 객체의 형상을 반영함 - , 상기 제2 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제2 타겟 라이다 포인트들을 결정하고, 상기 제1 이미지 프레임으로부터 획득한 상기 제1 타겟 특징 정보 및 상기 제2 이미지 프레임으로부터 획득한 상기 제2 타겟 특징 정보에 기초하여 상기 제1 시점 및 상기 제2 시점 사이의 상기 타겟 객체의 움직임을 반영하는 변환 정보를 획득하고, 상기 제1 이미지 프레임 및 상기 제2 이미지 프레임으로부터 획득한 상기 변환 정보에 적어도 일부분 기초하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하고, 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링할 수 있다.According to one embodiment, in the modeling apparatus for modeling a target object, the modeling apparatus, the communication unit for receiving the image frame and the lidar point cloud; and a control unit for modeling the target object using the image frame and lidar point cloud received through the communication unit, wherein the control unit includes a first image frame and a first lidar point cloud through the communication module obtain - the first image frame and the first lidar point cloud correspond to a first viewpoint - obtain first target characteristic information related to the target object from the first image frame - the first target characteristic information reflects the shape of the target object at the first point in time; determines one or more first target LIDAR points associated with the target object among the first LIDAR point clouds; obtain an image frame and a second lidar point cloud, wherein the second image frame and the second lidar point cloud correspond to a second viewpoint that is after the first viewpoint, the target object from the second image frame obtain second target characteristic information related to - the second target characteristic information reflects the shape of the target object at the second time point; 2 target LiDAR points are determined, and the first viewpoint and the second viewpoint based on the first target characteristic information acquired from the first image frame and the second target characteristic information acquired from the second image frame obtaining transformation information reflecting the movement of the target object between , the target object may be modeled using the converted first target LIDAR points and the second target LIDAR points.

일 실시예에 의하면, 타겟 객체를 모델링하는 모델링 시스템에 있어서, 상기 모델링 시스템은, 제1 시점에 대응하는 제1 이미지 프레임 및 상기 제1 시점의 이후인 제2 시점에 대응하는 제2 이미지 프레임을 생성하는 카메라 모듈; 상기 제1 시점에 대응하는 제1 라이다 포인트 클라우드 및 상기 제2 시점에 대응하는 제2 라이다 포인트 클라우드를 생성하는 라이다 모듈; 및 상기 이미지 프레임들 및 상기 라이다 포인트 클라우드들을 이용하여 상기 타겟 객체를 모델링하는 모델링 장치를 포함할 수 있고, 상기 모델링 장치는, 상기 카메라 모듈로부터 상기 제1 및 제2 이미지 프레임들을 획득하고, 상기 제1 이미지 프레임으로부터 상기 타겟 객체와 관련된 제1 타겟 특징 정보를 획득하고 - 상기 제1 타겟 특징 정보는 상기 제1 시점에서의 상기 타겟 객체의 형상을 반영함 - , 상기 제2 이미지 프레임으로부터 상기 타겟 객체와 관련된 제2 타겟 특징 정보를 획득하고 - 상기 제2 타겟 특징 정보는 상기 제2 시점에서의 상기 타겟 객체의 형상을 반영함 - , 상기 라이다 모듈로부터 상기 제1 및 제2 라이다 포인트 클라우드들을 획득하고, 상기 제1 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제1 타겟 라이다 포인트들을 결정하고, 상기 제2 라이다 포인트 클라우드 중 상기 타겟 객체와 관련된 하나 이상의 제2 타겟 라이다 포인트들을 결정하고, 상기 제1 이미지 프레임으로부터 획득한 상기 제1 타겟 특징 정보 및 상기 제2 이미지 프레임으로부터 획득한 상기 제2 타겟 특징 정보에 기초하여 상기 제1 시점 및 상기 제2 시점 사이의 상기 타겟 객체의 움직임을 반영하는 변환 정보를 획득하고, 상기 제1 이미지 프레임 및 상기 제2 이미지 프레임으로부터 획득한 상기 변환 정보에 적어도 일부분 기초하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하고, 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링할 수 있다.According to an embodiment, in the modeling system for modeling a target object, the modeling system is configured to generate a first image frame corresponding to a first viewpoint and a second image frame corresponding to a second viewpoint that is after the first viewpoint. generating camera module; a lidar module that generates a first lidar point cloud corresponding to the first viewpoint and a second lidar point cloud corresponding to the second viewpoint; and a modeling apparatus for modeling the target object using the image frames and the lidar point clouds, wherein the modeling apparatus obtains the first and second image frames from the camera module, obtain first target characteristic information related to the target object from a first image frame, wherein the first target characteristic information reflects a shape of the target object at the first viewpoint; obtain second target characteristic information related to an object, wherein the second target characteristic information reflects the shape of the target object at the second time point, and the first and second lidar point clouds from the lidar module , determine one or more first target lidar points associated with the target object in the first lidar point cloud, and one or more second target lidar points associated with the target object in the second lidar point cloud. determine the target object between the first viewpoint and the second viewpoint based on the first target characteristic information acquired from the first image frame and the second target characteristic information acquired from the second image frame obtain transformation information reflecting the movement of The target object may be modeled using the first target lidar points and the second target lidar points.

일 실시예에 의하면, 하나 이상의 프로세서에 의해 수행되는 타겟 객체를 모델링하는 모델링 방법에 있어서, 상기 모델링 방법은, 제1 시점에 대응하는 제1 타겟 라이다 포인트들을 획득함; 상기 제1 시점과 상이한 제2 시점에 대응하는 제2 타겟 라이다 포인트들을 획득함; 상기 제2 타겟 라이다 포인트들 각각마다, 상기 각각의 제2 타겟 라이다 포인트 및 이와 인접한 상기 제2 타겟 라이다 포인트들을 이용하여 상기 각각의 제2 타겟 라이다 포인트와 관련된 복수의 평면들을 생성함; 상기 제1 타겟 라이다 포인트들, 상기 제2 타겟 라이다 포인트들 및 상기 복수의 평면들에 기초하여 산출된 변환 정보를 이용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환함, 상기 변환 정보는 상기 타겟 객체의 상기 제1 시점과 상기 제2 시점 사이의 움직임을 반영함; 및 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링함을 포함할 수 있고, 상기 좌표를 변환함은, 상기 제1 타겟 라이다 포인트들 각각마다, 상기 복수의 평면들 중 상기 각각의 제1 타겟 라이다 포인트와 대응하는 평면을 결정함; 상기 제1 타겟 라이다 포인트들 및 이에 대응하는 평면들에 기초하여 상기 변환 정보를 산출함; 및 상기 변환 정보를 상기 제1 타겟 라이다 포인트들의 좌표에 적용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환함을 미리 정해진 조건을 만족할 때까지 반복 수행하는 것을 포함할 수 있다.According to an embodiment, in a modeling method for modeling a target object performed by one or more processors, the modeling method includes: acquiring first target LIDAR points corresponding to a first viewpoint; obtaining second target lidar points corresponding to a second viewpoint different from the first viewpoint; For each of the second target lidar points, generating a plurality of planes associated with each second target lidar point by using the respective second target lidar point and the second target lidar points adjacent thereto ; The first target lidar points, the second target lidar points, and transform the coordinates of the first target lidar points using transformation information calculated based on the plurality of planes, the transformation information reflecting movement between the first and second viewpoints of the target object; and modeling the target object using the transformed first target lidar points and the second target lidar points, wherein transforming the coordinates includes each of the first target lidar points every time, determining a plane corresponding to the respective first target lidar point of the plurality of planes; calculating the transformation information based on the first target LIDAR points and corresponding planes; and applying the transformation information to the coordinates of the first target lidar points to repeatedly transform the coordinates of the first target lidar points until a predetermined condition is satisfied.

상기 제2 타겟 라이다 포인트들은 제1 타겟 포인트 및 제2 타겟 포인트를 포함할 수 있고, 상기 복수의 평면들은, 상기 제1 타겟 포인트 및 이와 인접한 상기 제2 타겟 라이다 포인트들을 이용하여 생성되고 상기 제1 타겟 포인트와 관련된 복수의 제1 평면들 및 상기 제2 타겟 포인트 및 이와 인접한 상기 제2 타겟 라이다 포인트들을 이용하여 생성되고 상기 제2 타겟 포인트와 관련된 복수의 제2 평면들을 포함할 수 있다.The second target LIDAR points may include a first target point and a second target point, and the plurality of planes are generated using the first target point and the second target LIDAR points adjacent thereto and the It may include a plurality of first planes related to the first target point and a plurality of second planes generated using the second target point and the second target lidar points adjacent thereto and related to the second target point. .

상기 복수의 평면들을 생성함은, 상기 복수의 제1 평면들 사이의 유사도를 고려하여 상기 복수의 제1 평면들 중 적어도 일부를 하나의 평면으로 병합함을 포함할 수 있다.The generating of the plurality of planes may include merging at least some of the plurality of first planes into one plane in consideration of a degree of similarity between the plurality of first planes.

상기 평면을 결정함은, 상기 제1 타겟 라이다 포인트들 각각에 대해, 상기 제2 타겟 라이다 포인트들 중 상기 각 제1 타겟 라이다 포인트와 대응하는 포인트를 결정함; 및 상기 각 제1 타겟 라이다 포인트와 대응하는 포인트와 관련된 하나 이상의 평면들 중 상기 각 제1 타겟 라이다 포인트와 대응하는 평면을 결정함을 포함할 수 있다.The determining of the plane may include: for each of the first target LiDAR points, determining a point corresponding to each of the first target LiDAR points among the second target LiDAR points; and determining a plane corresponding to each of the first target LiDAR points from among one or more planes related to each of the first target LiDAR points and corresponding points.

본 출원은 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템에 대해 개시한다. 본 출원에서는 그 위치가 3차원 좌표로 표현되는 라이다 포인트들을 누적하여 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템에 대해 개시하나, 이에 한정되는 것은 아니고 본 출원은 라이다 포인트 외의 다른 3차원 좌표로 표현되는 데이터를 누적하여 객체를 모델링하는 경우에도 적용될 수 있다.The present application discloses a modeling method for modeling an object, a modeling apparatus, and a modeling system. Although the present application discloses a modeling method, a modeling apparatus, and a modeling system for modeling an object by accumulating lidar points whose positions are expressed in three-dimensional coordinates, the present application is not limited thereto, and the present application is not limited thereto. It can also be applied to modeling an object by accumulating data expressed in coordinates.

또한, 본 출원에서는 주로 선박의 운항이나 정박 등 해상 상황에 대해 설명하나 이에 한정되는 것은 아니고 차량의 주행과 같은 도로 상황 등 다른 경우에도 마찬가지로 적용될 수 있다.In addition, although the present application mainly describes maritime conditions such as operation or anchoring of a ship, the present application is not limited thereto, and may be similarly applied to other cases such as road conditions such as driving of a vehicle.

본 출원에서는 모델링의 대상이 되는 객체를 타겟 객체라 지칭한다. 또한, 본 출원에서는 상기 타겟 객체에 대응하는 라이다 포인트를 타겟 라이다 포인트라 지칭한다. 본 출원에서, 라이다 포인트가 특정 객체에 대응한다는 것은 상기 라이다 포인트가 상기 특정 객체로부터 반사되는 것 또는 반사되었다고 예측되는 것을 의미할 수 있다. In the present application, an object to be modeled is referred to as a target object. In addition, in the present application, a lidar point corresponding to the target object is referred to as a target lidar point. In the present application, that the lidar point corresponds to a specific object may mean that the lidar point is reflected from the specific object or is predicted to be reflected.

본 출원에서, 라이다 포인트(또는 라이다 포인트 클라우드, 타겟 라이다 포인트)가 특정 시점 또는 특정 시간 구간에 대응한다는 것은 라이다 모듈에 의해 상기 라이다 포인트(또는 라이다 포인트 클라우드, 타겟 라이다 포인트)가 상기 특정 시점에 또는 상기 특정 시간 구간 내에 생성된 것을 의미할 수 있다. 또는, 라이다 포인트(또는 라이다 포인트 클라우드, 타겟 라이다 포인트)가 특정 시점 또는 특정 시간 구간에 대응한다는 것은 모델링 장치가 상기 라이다 포인트(또는 라이다 포인트 클라우드, 타겟 라이다 포인트)를 상기 특정 시점에 또는 상기 특정 시간 구간 내에 획득한 것을 의미할 수 있다.In the present application, that a lidar point (or lidar point cloud, target lidar point) corresponds to a specific point in time or a specific time interval means that the lidar point (or lidar point cloud, target lidar point) corresponds to the lidar module by the lidar module. ) may mean generated at the specific time point or within the specific time interval. Alternatively, that the lidar point (or lidar point cloud, target lidar point) corresponds to a specific time point or a specific time period means that the modeling device selects the lidar point (or lidar point cloud, target lidar point) as the specific It may mean acquired at a time point or within the specific time period.

본 출원에서, 이미지 프레임이 특정 시점 또는 특정 시간 구간에 대응한다는 것은 카메라 모듈에 의해 상기 이미지 프레임이 상기 특정 시점에 또는 상기 특정 시간 구간 내에 생성된 것을 의미할 수 있다. 또는, 이미지 프레임이 특정 시점 또는 특정 시간 구간에 대응한다는 것은 모델링 장치가 상기 이미지 프레임을 상기 특정 시점에 또는 상기 특정 시간 구간 내에 획득한 것을 의미할 수 있다.In the present application, that the image frame corresponds to a specific time point or a specific time period may mean that the image frame is generated at the specific time point or within the specific time period by the camera module. Alternatively, that the image frame corresponds to a specific time point or a specific time period may mean that the modeling apparatus acquires the image frame at the specific time point or within the specific time period.

본 출원의 실시예들에 의하면, 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템이 개시된다.According to embodiments of the present application, a modeling method, a modeling apparatus, and a modeling system for modeling a target object by accumulating target LiDAR points are disclosed.

도 1은 일 실시예에 따른 타겟 라이다 포인트의 누적을 통한 타겟 객체 모델링에 관한 도면으로, 움직이지 않는 타겟 객체에 대응하는 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링하는 것에 관한 것이다. 이때, 타겟 객체가 움직이지 않는다는 것은 라이다 모듈에 대한 상대적인 움직임이 없다는 것을 의미할 수 있다.1 is a diagram of a target object modeling through accumulation of target LiDAR points according to an embodiment, and relates to modeling a target object by accumulating target LiDAR points corresponding to a non-moving target object. In this case, that the target object does not move may mean that there is no relative movement with respect to the lidar module.

도 1을 참고하면, 제1 시점(t1), 제2 시점(t2) 및 제3 시점(t3) 각각에서 획득한 라이다 포인트 클라우드들은 타겟 객체(10)에 대응하는 타겟 라이다 포인트들(black filled circles, 1a, 1b, 1c) 및 상기 타겟 객체(10)에 대응하지 않는 라이다 포인트들(empty circles)을 포함할 수 있다. 이때 상기 타겟 라이다 포인트들(1a, 1b, 1c)을 시간에 따라 누적하여 상기 타겟 객체(10)를 모델링할 수 있다. 보다 구체적으로, 상기 제1 시점(t1)에서 획득한 라이다 포인트 클라우드 중 타겟 라이다 포인트들(1a)을 선택하고, 상기 제2 시점(t2)에서 획득한 라이다 포인트 클라우드 중 타겟 라이다 포인트들(1b)을 상기 제1 시점(t1)에서 선택된 타겟 라이다 포인트들(1a)에 누적하여 상기 제2 시점(t2)의 누적된 타겟 라이다 포인트들(1d)을 획득하고, 상기 제3 시점(t3)에서 획득한 라이다 포인트 클라우드 중 타겟 라이다 포인트들(1c)을 상기 제2 시점(t2)에서 획득한 누적된 타겟 라이다 포인트들(1d)에 누적하여 상기 제3 시점(t3)의 누적된 타겟 라이다 포인트들(1e)을 획득할 수 있다. 이때 상기 제1 시점(t1)의 타겟 라이다 포인트들(1a), 상기 제2 시점(t2)의 누적된 타겟 라이다 포인트들(1d) 및 상기 제3 시점(t3)의 누적된 타겟 라이다 포인트들(1e)은 각각 상기 타겟 객체(10)를 모델링한다. 다만, 타겟 라이다 포인트들을 누적하는 시간이 증가함에 따라 상기 타겟 객체(10)를 보다 자세히 모델링할 수 있다. 즉, 상기 제2 시점(t2)의 누적된 타겟 라이다 포인트들(1d)은 상기 제1 시점(t1)의 타겟 라이다 포인트들(1a)에 비해 상기 타겟 객체(10)를 보다 자세히 모델링하고, 상기 제3 시점(t3)의 누적된 타겟 라이다 포인트들(1e)은 상기 제2 시점(t2)의 누적된 타겟 라이다 포인트들(1d)에 비해 상기 타겟 객체(10)를 보다 자세히 모델링할 수 있다.Referring to FIG. 1 , the lidar point clouds obtained at each of the first time point t 1 , the second time point t 2 , and the third time point t 3 are target LIDAR points corresponding to the target object 10 . It may include black filled circles (1a, 1b, 1c) and LiDAR points (empty circles) that do not correspond to the target object 10 . In this case, the target object 10 may be modeled by accumulating the target lidar points 1a, 1b, and 1c over time. More specifically, target LIDAR points 1a are selected from the LIDAR point clouds obtained at the first time point t 1 , and target LIDAR points 1a are selected from the LIDAR point clouds obtained at the second time point t 2 . Accumulating the IDA points 1b at the target LIDAR points 1a selected at the first time point t 1 to obtain the accumulated target LIDAR points 1d at the second time point t 2 , , by accumulating target lidar points 1c from the lidar point cloud acquired at the third time t 3 to the accumulated target lidar points 1d acquired at the second time t 2 , The accumulated target LIDAR points 1e of the third time point t 3 may be obtained. At this time, the target LiDAR points 1a at the first time point t 1 , the accumulated target LiDAR points 1d at the second time point t 2 , and the accumulated target LIDAR points 1d at the third time point t 3 ) The target lidar points 1e each model the target object 10 . However, as the time for accumulating the target LIDAR points increases, the target object 10 may be modeled in more detail. That is, the accumulated target LiDAR points 1d at the second time point t 2 provide more detailed information about the target object 10 than the target LiDAR points 1a at the first time point t 1 . modeled, and the accumulated target LiDAR points 1e at the third time point t 3 are compared to the accumulated target LiDAR points 1d at the second time point t 2 , the target object 10 can be modeled in more detail.

한편, 움직이는 타겟 객체에 대응하는 타겟 라이다 포인트들을 누적하기 위해서는 시간에 따른 상기 타겟 객체의 움직임에 대한 정보가 필요하다. 다시 말해, 타겟 라이다 포인트를 누적하여 움직이는 타겟 객체를 모델링하기 위해서는 시간에 따른 상기 타겟 객체의 움직임에 대한 정보가 필요하다. 이때, 타겟 객체가 움직인다는 것은 라이다 모듈에 대한 상대적인 움직임(예: 타겟 객체의 위치 변화, 타겟 객체의 방향(orientation) 변화 등)이 존재한다는 것을 의미할 수 있다. 이 경우 상기 타겟 객체의 움직임에 대한 정보를 타겟 라이다 포인트들에 반영하며 상기 타겟 라이다 포인트들을 누적해야 한다. 타겟 객체가 움직이지 않는 경우와 비교하면, 타겟 객체에 대응하는 타겟 라이다 포인트를 선택하는 것뿐만 아니라 상기 타겟 객체에 대응하는 타겟 라이다 포인트의 시간에 따른 움직임을 파악해야 한다. 예를 들어, 특정 시점까지 누적된 타겟 라이다 포인트들을 획득하기 위해서는 상기 특정 시점보다 이전 시점의 타겟 라이다 포인트들의 상기 특정 시점에서의 위치를 파악해야 한다. 즉, 상기 이전 시점의 타겟 라이다 포인트들의 상기 특정 시점에서의 좌표를 알아야 한다. 이를 위해서는 상기 이전 시점의 타겟 라이다 포인트들의 좌표를 상기 특정 시점에서의 좌표로 변환해야 한다.Meanwhile, in order to accumulate target lidar points corresponding to the moving target object, information on the movement of the target object over time is required. In other words, in order to model a moving target object by accumulating target LiDAR points, information on the movement of the target object over time is required. In this case, the movement of the target object may mean that there is a relative movement with respect to the lidar module (eg, a change in the position of the target object, a change in the orientation of the target object, etc.). In this case, information on the movement of the target object should be reflected in target lidar points and the target lidar points should be accumulated. Compared with the case in which the target object does not move, it is necessary to not only select a target lidar point corresponding to the target object, but also determine the movement of the target lidar point corresponding to the target object over time. For example, in order to acquire target LIDAR points accumulated up to a specific point in time, locations of target LIDAR points of a time prior to the specific point in time should be identified at the specific point in time. That is, it is necessary to know the coordinates of the target lidar points of the previous time point at the specific time point. To this end, the coordinates of the target lidar points of the previous time should be converted into coordinates of the specific time.

도 2는 일 실시예에 따른 타겟 라이다 포인트 누적을 통한 움직이는 타겟 객체 모델링에 관한 도면이다. 2 is a diagram of a moving target object modeling through accumulation of target lidar points according to an embodiment.

도 2의 (a)를 참고하면, 제1 시점(t1), 제2 시점(t2) 및 제3 시점(t3)을 지남에 따라 타겟 객체(20)는 움직이고, 각 시점에서 획득한 라이다 포인트 클라우드들은 상기 타겟 객체(20)에 대응하는 타겟 라이다 포인트들(black filled circles, 2a, 2b, 2c) 및 상기 타겟 객체(20)에 대응하지 않는 라이다 포인트들(empty circles)을 포함할 수 있다. 이때, 상기 타겟 라이다 포인트들(2a, 2b, 2c)을 상기 타겟 객체(20)의 움직임을 고려하지 않고 누적하면 누적된 타겟 라이다 포인트들이 상기 타겟 객체(20)를 정확하게 모델링할 수 없게 된다. 보다 구체적으로, 도 2의 (b)를 참고하면, 이전 시점에 획득한 타겟 라이다 포인트들(hatched circles)은 상기 타겟 객체(20)를 정확하게 모델링하지 못한다. 따라서, 도 2의 (c)와 같이 이전 시점에 획득한 타겟 라이다 포인트들(hatched circles)을 상기 타겟 객체(20)의 움직임을 고려하여 누적해야 누적된 타겟 라이다 포인트들이 상기 타겟 객체(20)를 정확하게 모델링할 수 있다. Referring to (a) of FIG. 2 , the target object 20 moves as it passes through the first time point t 1 , the second time point t 2 , and the third time point t 3 , and the The lidar point clouds include target lidar points (black filled circles, 2a, 2b, 2c) corresponding to the target object 20 and lidar points not corresponding to the target object 20 (empty circles). may include In this case, if the target lidar points 2a, 2b, and 2c are accumulated without considering the movement of the target object 20, the accumulated target lidar points cannot accurately model the target object 20. . More specifically, referring to (b) of FIG. 2 , target lidar points (hatched circles) acquired at a previous point in time do not accurately model the target object 20 . Accordingly, as shown in (c) of FIG. 2 , the target lidar points acquired at a previous time (hatched circles) should be accumulated in consideration of the movement of the target object 20 so that the accumulated target lidar points are not generated by the target object 20 ) can be accurately modeled.

이하에서는 모델링 시스템에 대해 설명한다.Hereinafter, a modeling system will be described.

도 3은 일 실시예에 따른 모델링 시스템에 관한 도면이다. 도 3을 참고하면, 일 실시예에 따른 모델링 시스템은 센서 장치(100), 모델링 장치(200), 출력 장치(300), 서버(400) 및 사용자 단말(500)을 포함할 수 있다.3 is a diagram of a modeling system according to an embodiment. Referring to FIG. 3 , a modeling system according to an embodiment may include a sensor device 100 , a modeling device 200 , an output device 300 , a server 400 , and a user terminal 500 .

센서 장치(100)는 타겟 객체에 관한 정보를 감지할 수 있다. 센서 장치(100)의 예로는 라이다 모듈, 카메라 모듈 등이 있을 수 있으나 이에 한정되는 것은 아니다.The sensor device 100 may detect information about the target object. Examples of the sensor device 100 may include a lidar module, a camera module, and the like, but is not limited thereto.

센서 장치(100)가 라이다 모듈을 포함하는 경우, 상기 센서 장치(100)는 라이다 포인트 클라우드를 생성할 수 있다. 상기 센서 장치(100)는 타겟 객체를 스캔하여 하나 이상의 타겟 라이다 포인트들을 포함하는 라이다 포인트 클라우드를 생성할 수 있다.When the sensor device 100 includes a lidar module, the sensor device 100 may generate a lidar point cloud. The sensor device 100 may scan a target object to generate a lidar point cloud including one or more target lidar points.

센서 장치(100)가 카메라 모듈을 포함하는 경우, 상기 센서 장치(100)는 이미지 프레임 또는 비디오를 생성할 수 있다. 상기 센서 장치(100)는 타겟 객체를 촬영하여 상기 타겟 객체가 포함된 이미지 프레임 또는 비디오를 생성할 수 있다. 카메라 모듈의 예로는 RGB 카메라, 열화상 카메라, 나이트 비전 등이 있을 수 있으나 이에 한정되는 것은 아니다.When the sensor device 100 includes a camera module, the sensor device 100 may generate an image frame or a video. The sensor device 100 may generate an image frame or video including the target object by photographing the target object. Examples of the camera module may include, but are not limited to, an RGB camera, a thermal imaging camera, night vision, and the like.

모델링 장치(200)는 타겟 객체를 모델링할 수 있다. 모델링 장치(200)는 라이다 포인트 클라우드에 기초하여 타겟 객체를 모델링할 수 있다. 모델링 장치(200)는 라이다 포인트 클라우드 중 하나 이상의 타겟 라이다 포인트들을 결정할 수 있다. 모델링 장치(200)는 이미지 프레임 또는 비디오에 기초하여 하나 이상의 타겟 라이다 포인트들을 결정할 수 있다. 모델링 장치(200)는 하나 이상의 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. The modeling apparatus 200 may model the target object. The modeling apparatus 200 may model the target object based on the lidar point cloud. The modeling apparatus 200 may determine one or more target lidar points from among lidar point clouds. The modeling apparatus 200 may determine one or more target LiDAR points based on an image frame or a video. The modeling apparatus 200 may model the target object by accumulating one or more target LIDAR points.

모델링 장치(200)는 라이다 포인트 클라우드 또는 이와 관련된 데이터를 획득할 수 있다. 예를 들어, 모델링 장치(200)는 라이다 모듈을 포함하는 센서 장치(100)로부터 라이다 포인트 클라우드 또는 이와 관련된 데이터를 획득할 수 있다.The modeling apparatus 200 may acquire a lidar point cloud or data related thereto. For example, the modeling apparatus 200 may obtain a lidar point cloud or data related thereto from the sensor apparatus 100 including a lidar module.

모델링 장치(200)는 이미지 프레임, 비디오 또는 이와 관련된 데이터를 획득할 수 있다. 예를 들어, 모델링 장치(200)는 카메라 모듈을 포함하는 센서 장치(100)로부터 이미지 프레임, 비디오 또는 이와 관련된 데이터를 획득할 수 있다.The modeling apparatus 200 may acquire an image frame, a video, or data related thereto. For example, the modeling apparatus 200 may obtain an image frame, a video, or data related thereto from the sensor apparatus 100 including a camera module.

모델링 장치(200)는 모델링 결과를 출력 장치(300) 및 서버(400) 중 적어도 하나로 전송할 수 있다. The modeling apparatus 200 may transmit the modeling result to at least one of the output apparatus 300 and the server 400 .

출력 장치(300)는 모델링 장치(200)로부터 수신한 모델링 결과를 출력할 수 있다. 모델링 결과의 출력은 시각적, 청각적 출력이거나 이에 한정되지 않고 다양한 형태로 이루어질 수 있다.The output device 300 may output the modeling result received from the modeling device 200 . The output of the modeling result is not limited to visual or auditory output, but may be formed in various forms.

출력 장치(300)는 영상을 출력하는 디스플레이, 소리를 출력하는 스피커, 진동을 발생시키는 햅틱 장치 및/또는 그 외 다양한 형태의 출력 수단으로 구현될 수 있다. 또는, 출력 장치(300)는 자체적으로 외부로 정보를 출력하는 장치 대신 출력 인터페이스(USB 포트, PS/2 포트 등)의 형태로 구현될 수도 있다.The output device 300 may be implemented as a display that outputs an image, a speaker that outputs a sound, a haptic device that generates vibration, and/or other various types of output means. Alternatively, the output device 300 may be implemented in the form of an output interface (USB port, PS/2 port, etc.) instead of a device that outputs information to the outside by itself.

서버(400)는 모델링 장치(200)로부터 수신한 모델링 결과를 관리할 수 있다. 서버(400)는 모델링 장치(200)로부터 수신한 모델링 결과를 사용자 단말(500)로 전송할 수 있다. 사용자 단말(500)의 예로는 스마트폰, 태블릿, PC 등이 있으나 이에 한정되는 것은 아니다. 서버(400)는 사용자 단말(500)로부터 사용자의 요청을 수신하고 이에 대응하는 정보를 상기 사용자 단말(500)을 통해 상기 사용자에게 제공할 수 있다. 예를 들어, 서버(400)는 사용자 단말(500)로부터 사용자의 모델링 결과 요청을 수신하는 경우 모델링 결과를 상기 사용자 단말(500)을 통해 상기 사용자에게 제공할 수 있다.The server 400 may manage the modeling result received from the modeling apparatus 200 . The server 400 may transmit the modeling result received from the modeling apparatus 200 to the user terminal 500 . Examples of the user terminal 500 include, but are not limited to, a smartphone, a tablet, and a PC. The server 400 may receive a user's request from the user terminal 500 and provide corresponding information to the user through the user terminal 500 . For example, when receiving a user's modeling result request from the user terminal 500 , the server 400 may provide the modeling result to the user through the user terminal 500 .

도 3에 도시된 구성 요소 모두가 모델링 시스템의 필수 구성 요소인 것은 아니다. 모델링 시스템은 도 3에 도시되지 않은 구성 요소를 추가로 포함할 수 있다. 뿐만 아니라, 도 3에 도시된 모델링 시스템의 구성 요소 중 적어도 일부가 생략될 수도 있다.Not all of the components shown in FIG. 3 are essential components of the modeling system. The modeling system may further include components not shown in FIG. 3 . In addition, at least some of the components of the modeling system shown in FIG. 3 may be omitted.

또한, 도 3에서는 모델링 장치(200)와 서버(400)를 별도의 구성 요소로 설명하였으나 모델링 장치(200)와 서버(400)는 동일한 하나의 구성 요소일 수도 있다.Also, although the modeling apparatus 200 and the server 400 are described as separate components in FIG. 3 , the modeling apparatus 200 and the server 400 may be the same single component.

이하에서는 모델링 장치에 대해 보다 자세히 설명한다.Hereinafter, the modeling apparatus will be described in more detail.

도 4는 일 실시예에 따른 모델링 장치에 관한 도면이다. 상기 모델링 장치는 후술할 타겟 객체를 모델링하는 모델링 방법을 수행할 수 있다.4 is a diagram of a modeling apparatus according to an exemplary embodiment. The modeling apparatus may perform a modeling method of modeling a target object, which will be described later.

도 4를 참고하면, 일 실시예에 따른 모델링 장치(200)는 통신부(210), 저장부(220) 및 제어부(230)를 포함할 수 있다.Referring to FIG. 4 , the modeling apparatus 200 according to an embodiment may include a communication unit 210 , a storage unit 220 , and a control unit 230 .

통신부(210)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신부(210)는 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다. 통신부(210)는 유선 또는 무선으로 통신을 수행할 수 있다. 통신부(210)의 예로는 트랜시버, 셀룰러 모듈, WiFi 모듈, 블루투스 모듈, GNSS 모듈, NFC 모듈, RF 모듈, 지그비 모듈 등이 있을 수 있으나 이에 한정되는 것은 아니다.The communication unit 210 may communicate with various types of external devices according to various types of communication methods. The communication unit 210 may perform bi-directional or unidirectional communication. The communication unit 210 may perform communication by wire or wirelessly. Examples of the communication unit 210 may include a transceiver, a cellular module, a WiFi module, a Bluetooth module, a GNSS module, an NFC module, an RF module, a Zigbee module, and the like, but is not limited thereto.

통신부(210)는 외부로부터 라이다 포인트 클라우드 또는 이와 관련된 데이터를 수신할 수 있다. 예를 들어, 통신부(210)는 센서 장치(100)로부터 라이다 포인트 클라우드 또는 이와 관련된 데이터를 수신할 수 있다. The communication unit 210 may receive the lidar point cloud or data related thereto from the outside. For example, the communication unit 210 may receive a lidar point cloud or data related thereto from the sensor device 100 .

통신부(210)는 외부로부터 이미지 프레임, 비디오 또는 이와 관련된 데이터를 수신할 수 있다. 예를 들어, 통신부(210)는 센서 장치(100)로부터 이미지 프레임, 비디오 또는 이와 관련된 데이터를 수신할 수 있다.The communication unit 210 may receive an image frame, a video, or data related thereto from the outside. For example, the communication unit 210 may receive an image frame, a video, or data related thereto from the sensor device 100 .

통신부(210)는 모델링 결과를 출력 장치(300) 및 서버(400) 중 적어도 하나로 전송할 수 있다. The communication unit 210 may transmit the modeling result to at least one of the output device 300 and the server 400 .

저장부(220)는 모델링 장치(200)가 동작하는데 필요한 각종 데이터 및 프로그램 등을 저장할 수 있다. 저장부(220)는 모델링 장치(200)가 획득하는 데이터를 저장할 수 있다. 일 예로, 저장부(220)는 라이다 포인트 클라우드, 타겟 라이다 포인트 또는 이와 관련된 데이터를 저장할 수 있다. 다른 예로, 저장부(220)는 이미지 프레임, 비디오 또는 이와 관련된 데이터를 저장할 수 있다. 저장부(220)의 예로는 비휘발성 반도체 메모리, 하드 디스크, 플래시 메모리, RAM(Random Access Memory), ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 또는 그 외에 유형의(tangible) 비휘발성의 기록 매체 등이 있을 수 있으나 이에 한정되는 것은 아니다.The storage 220 may store various data and programs necessary for the modeling apparatus 200 to operate. The storage 220 may store data obtained by the modeling apparatus 200 . For example, the storage unit 220 may store a lidar point cloud, a target lidar point, or data related thereto. As another example, the storage 220 may store an image frame, a video, or data related thereto. Examples of the storage unit 220 include non-volatile semiconductor memory, hard disk, flash memory, random access memory (RAM), read only memory (ROM), electrically erasable programmable read-only memory (EEPROM), or other tangible (tangible) memory. ) may be a non-volatile recording medium, but is not limited thereto.

제어부(230)는 모델링 장치(200) 내에서 각종 정보의 처리와 연산을 수행할 수 있다. 제어부(230)는 모델링 장치(200)를 구성하는 다른 구성 요소를 제어할 수 있다. The controller 230 may process and calculate various types of information in the modeling apparatus 200 . The controller 230 may control other components constituting the modeling apparatus 200 .

제어부(230)는 하드웨어, 소프트웨어 또는 이들의 조합에 따라 컴퓨터나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 제어부(230)는 하나 또는 복수의 프로세서(processor)일 수 있다. 또는, 제어부(230)는 물리적으로 이격되어 통신을 통해 협업하는 프로세서들로 제공될 수도 있다. 제어부(230)의 예로는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU), 디지털 신호 처리 장치(Digital Signal Processor, DSP), 상태 기계(state machine), 주문형 반도체(Application Specific Integrated Circuit, ASIC), 무선 주파수 집적 회로(Radio-Frequency Integrated Circuit, RFIC) 등이 있을 수 있으나 이에 한정되는 것은 아니다. 소프트웨어적으로 제어부(230)는 하드웨어적인 제어부(230)를 구동시키는 프로그램 형태로 제공될 수 있다.The controller 230 may be implemented as a computer or a similar device according to hardware, software, or a combination thereof. In terms of hardware, the controller 230 may be one or a plurality of processors. Alternatively, the control unit 230 may be provided to processors that are physically spaced apart and cooperate through communication. Examples of the control unit 230 include a central processing unit (CPU), a graphics processing unit (GPU), a digital signal processing unit (DSP), a state machine, and an application-specific semiconductor. (Application Specific Integrated Circuit, ASIC), may be a radio-frequency integrated circuit (Radio-Frequency Integrated Circuit, RFIC), but is not limited thereto. The software control unit 230 may be provided in the form of a program for driving the hardware control unit 230 .

제어부(230)는 타겟 객체를 모델링할 수 있다. 제어부(230)는 라이다 포인트 클라우드에 기초하여 타겟 객체를 모델링할 수 있다. 제어부(230)는 라이다 포인트 클라우드 중 하나 이상의 타겟 라이다 포인트들을 결정할 수 있다. 제어부(230)는 이미지 프레임 또는 비디오에 기초하여 하나 이상의 타겟 라이다 포인트들을 결정할 수 있다. 제어부(230)는 하나 이상의 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. The controller 230 may model the target object. The controller 230 may model the target object based on the lidar point cloud. The controller 230 may determine one or more target lidar points from among the lidar point clouds. The controller 230 may determine one or more target LiDAR points based on an image frame or a video. The controller 230 may model the target object by accumulating one or more target LIDAR points.

제어부(230)는 통신부(210)가 라이다 포인트 클라우드 또는 이와 관련된 데이터를 수신하도록 제어할 수 있다.The controller 230 may control the communication unit 210 to receive the lidar point cloud or data related thereto.

제어부(230)는 통신부(210)가 이미지 프레임, 비디오 또는 이와 관련된 데이터를 수신하도록 제어할 수 있다.The controller 230 may control the communication unit 210 to receive an image frame, a video, or data related thereto.

제어부(230)는 통신부(210)가 모델링 결과를 출력 장치(300) 및 서버(400) 중 적어도 하나로 전송하도록 제어할 수 있다.The controller 230 may control the communication unit 210 to transmit the modeling result to at least one of the output device 300 and the server 400 .

제어부(230)는 모델링 장치(200)가 동작하는데 필요한 각종 데이터 및 프로그램 등을 저장부(220)에 저장하도록 제어할 수 있다. 제어부(230)는 통신부(210)를 통해 획득한 데이터를 저장부(220)에 저장하도록 제어할 수 있다.The controller 230 may control the storage 220 to store various data and programs necessary for the modeling apparatus 200 to operate. The control unit 230 may control to store the data acquired through the communication unit 210 in the storage unit 220 .

이하에서 특별한 언급이 없는 경우에는 모델링 장치(200)가 수행하는 동작은 제어부(230)에 의해 수행되거나 제어부(230)가 모델링 장치(200)의 다른 구성 요소를 제어하여 수행되는 것으로 해석될 수 있다. Hereinafter, unless otherwise specified, an operation performed by the modeling apparatus 200 may be interpreted as being performed by the controller 230 or performed by the controller 230 controlling other components of the modeling apparatus 200 . .

도 4에 도시된 구성 요소 모두가 모델링 장치(200)의 필수 구성 요소인 것은 아니다. 모델링 장치(200)는 도 4에 도시되지 않은 구성 요소를 추가로 포함할 수 있다. 뿐만 아니라, 도 4에 도시된 모델링 장치(200)의 구성 요소 중 적어도 일부가 생략될 수도 있다. Not all of the components shown in FIG. 4 are essential components of the modeling apparatus 200 . The modeling apparatus 200 may further include components not shown in FIG. 4 . In addition, at least some of the components of the modeling apparatus 200 shown in FIG. 4 may be omitted.

이하에서는 모델링 방법에 대해 보다 자세히 설명한다.Hereinafter, the modeling method will be described in more detail.

본 출원에서는 일 실시예에 따른 모델링 방법이 모델링 장치에서 수행되는 것으로 가정하여 설명하나, 이는 다양한 실시의 형태 중 일 예를 들어 설명한 것일 뿐 모델링 방법이 모델링 장치에 의해서만 수행되어야 함을 의미하는 것은 아니다. 예를 들어, 모델링 방법의 일부는 모델링 장치에서 수행되고, 나머지는 서버에서 수행될 수 있다.In the present application, it is assumed that the modeling method according to an embodiment is performed by the modeling apparatus, but this is only described as an example of various embodiments, and does not mean that the modeling method should be performed only by the modeling apparatus . For example, a part of the modeling method may be performed in a modeling device, and the rest may be performed in a server.

일 실시예에 의하면, 모델링 장치는 타겟 객체에 대응하는 하나 이상의 타겟 라이다 포인트들을 일정 시간 구간동안 누적하여 상기 타겟 객체를 모델링할 수 있다. 이때, 상기 일정 시간 구간 내의 제1 시점에 대응하는 타겟 라이다 포인트(이하 "제1 타겟 라이다 포인트"라 함)와 상기 일정 시간 구간 내의 제2 시점 - 상기 제2 시점은 상기 제1 시점의 이후임 - 에 대응하는 타겟 라이다 포인트(이하 "제2 타겟 라이다 포인트"라 함)를 이용하여 타겟 객체를 모델링할 수 있다.According to an embodiment, the modeling apparatus may model the target object by accumulating one or more target lidar points corresponding to the target object for a predetermined time period. In this case, a target lidar point (hereinafter referred to as a “first target lidar point”) corresponding to the first time point within the predetermined time period and a second time point within the predetermined time period - the second time point is the The target object may be modeled using a target lidar point (hereinafter, referred to as a “second target lidar point”) corresponding to -.

1. 이미지 프레임에 기초하여 산출된 변환 정보를 이용한 모델링 방법1. Modeling method using conversion information calculated based on the image frame

도 5는 일 실시예에 따른 이미지 프레임에 기초하여 산출된 변환 정보를 이용한 모델링 방법에 관한 도면이다. 5 is a diagram illustrating a modeling method using transformation information calculated based on an image frame according to an exemplary embodiment.

일 실시예에 따르면, 모델링 방법은 이미지 프레임을 획득함을 포함할 수 있다. 예를 들어, 모델링 장치는 이미지 프레임을 획득할 수 있다. 상기 이미지 프레임은 카메라 모듈로부터 생성된 것일 수 있다. 모델링 장치는 복수의 이미지 프레임들을 획득할 수 있다. 상기 복수의 이미지 프레임들은 제1 시점에 대응하는 이미지 프레임(이하 "제1 이미지 프레임"이라 함) 및 상기 제1 시점의 이후인 제2 시점에 대응하는 이미지 프레임(이하 "제2 이미지 프레임"이라 함)을 포함할 수 있다. According to an embodiment, the modeling method may include acquiring an image frame. For example, the modeling apparatus may acquire an image frame. The image frame may be generated from a camera module. The modeling apparatus may acquire a plurality of image frames. The plurality of image frames include an image frame corresponding to a first time point (hereinafter referred to as a “first image frame”) and an image frame corresponding to a second time point subsequent to the first time point (hereinafter referred to as a “second image frame”). ) may be included.

이미지 프레임 내에서의 픽셀 또는 객체의 위치는 이미지 좌표로 표현될 수 있다. 상기 이미지 좌표는 2차원 좌표일 수 있다.The position of a pixel or object within an image frame may be expressed in image coordinates. The image coordinates may be two-dimensional coordinates.

도 6은 일 실시예에 따른 이미지 좌표에 관한 도면이다. 이미지 프레임 내에서 특정 픽셀의 위치는 기준 픽셀을 원점으로 정의한 xy 이미지 좌표계 상에서 표현될 수 있다. 예를 들어, 도 6을 참고하면, 좌측 상단의 픽셀(3a)을 기준으로 특정 픽셀의 좌표가 결정될 수 있다. 이 경우 도 6의 좌측 상단의 픽셀(3a)의 이미지 좌표는 (0,0)이고, 특정 픽셀(3b)의 이미지 좌표는 (5,3)으로 표현될 수 있다.6 is a diagram of image coordinates according to an exemplary embodiment. A position of a specific pixel in an image frame may be expressed on an xy image coordinate system in which a reference pixel is defined as an origin. For example, referring to FIG. 6 , the coordinates of a specific pixel may be determined based on the upper left pixel 3a. In this case, the image coordinates of the upper left pixel 3a of FIG. 6 may be (0,0), and the image coordinates of the specific pixel 3b may be expressed as (5,3).

일 실시예에 따르면, 모델링 방법은 하나 이상의 타겟 라이다 포인트들을 획득함을 포함할 수 있다. 예를 들어, 모델링 장치는 하나 이상의 타겟 라이다 포인트들을 획득할 수 있다. 상기 타겟 라이다 포인트들은 라이다 모듈로부터 생성된 것일 수 있다. 상기 타겟 라이다 포인트들은 제1 시점에 대응하는 하나 이상의 타겟 라이다 포인트들(이하 "제1 타겟 라이다 포인트들"이라 함) 및 상기 제1 시점의 이후인 제2 시점에 대응하는 하나 이상의 타겟 라이다 포인트들(이하 "제2 타겟 라이다 포인트들"이라 함)을 포함할 수 있다. According to one embodiment, the modeling method may include obtaining one or more target lidar points. For example, the modeling apparatus may acquire one or more target lidar points. The target LIDAR points may be generated from the LIDAR module. The target lidar points are one or more target lidar points corresponding to a first viewpoint (hereinafter referred to as “first target lidar points”) and one or more targets corresponding to a second viewpoint that is after the first viewpoint. It may include lidar points (hereinafter referred to as “second target lidar points”).

도 7은 일 실시예에 따른 타겟 라이다 포인트에 관한 도면으로, 항만 근처에서 획득한 라이다 포인트 클라우드에 관한 개념도이다. 7 is a diagram of a target lidar point according to an embodiment, and is a conceptual diagram of a lidar point cloud obtained near a port.

라이다 모듈은 라이다 포인트 클라우드를 생성할 수 있다. 도 7을 참고하면, 라이다 포인트 클라우드는 선박에 대응하는 라이다 포인트들(4a), 안벽에 대응하는 라이다 포인트들(4b) 및 해수면에 대응하는 라이다 포인트들(4c)을 포함할 수 있다. The lidar module may create lidar point clouds. Referring to FIG. 7 , the lidar point cloud may include lidar points 4a corresponding to the ship, lidar points 4b corresponding to the quay wall, and lidar points 4c corresponding to the sea level. have.

전술한 바와 같이, 타겟 라이다 포인트는 라이다 포인트 클라우드 중 타겟 객체에 대응하는 것이다. 따라서, 타겟 객체가 선박인 경우, 타겟 라이다 포인트는 라이다 포인트 클라우드 중 상기 선박에 대응하는 라이다 포인트들(4a)이다.As described above, the target lidar point corresponds to the target object in the lidar point cloud. Accordingly, when the target object is a vessel, the target lidar point is the lidar points 4a corresponding to the vessel in the lidar point cloud.

일 실시예에 따르면, 모델링 방법은 라이다 포인트 클라우드를 획득함을 포함할 수 있다. 예를 들어, 모델링 장치는 라이다 포인트 클라우드를 획득할 수 있다. 상기 라이다 포인트 클라우드는 제1 시점에 대응하는 제1 라이다 포인트 클라우드 및 제2 시점에 대응하는 제2 라이다 포인트 클라우드를 포함할 수 있다.According to an embodiment, the modeling method may include obtaining a lidar point cloud. For example, the modeling device may acquire a lidar point cloud. The lidar point cloud may include a first lidar point cloud corresponding to a first viewpoint and a second lidar point cloud corresponding to a second viewpoint.

일 실시예에 따르면, 모델링 방법은 라이다 포인트 클라우드 중 타겟 라이다 포인트를 결정함을 포함할 수 있다. 예를 들어, 모델링 장치는 라이다 포인트 클라우드 중 타겟 라이다 포인트를 결정할 수 있다. 도 7을 참고하면, 모델링 장치는 선박에 대응하는 라이다 포인트들(4a), 안벽에 대응하는 라이다 포인트들(4b) 및 해수면에 대응하는 라이다 포인트들(4c) 중 타겟 객체인 선박에 대응하는 라이다 포인트들(4a)을 타겟 라이다 포인트로 결정할 수 있다. 라이다 포인트 클라우드 중 타겟 라이다 포인트를 결정하는 것에 대한 보다 구체적인 내용은 후술한다.According to an embodiment, the modeling method may include determining a target lidar point from among lidar point clouds. For example, the modeling apparatus may determine a target lidar point from among lidar point clouds. Referring to FIG. 7 , the modeling apparatus is applied to a ship as a target object among lidar points 4a corresponding to the ship, lidar points 4b corresponding to the quay wall, and lidar points 4c corresponding to the sea level. Corresponding lidar points 4a may be determined as target lidar points. A more detailed description of determining a target lidar point from among lidar point clouds will be described later.

다시 도 5를 참고하면, 일 실시예에 따른 모델링 방법은 제1 이미지 프레임을 획득함을 포함할 수 있다. 예를 들어, 단계 S1100에서, 모델링 장치는 제1 이미지 프레임을 획득할 수 있다. 일 실시예에 따른 모델링 방법은 하나 이상의 제1 타겟 라이다 포인트들을 획득함을 포함할 수 있다. 예를 들어, 단계 S1100에서, 모델링 장치는 하나 이상의 제1 타겟 라이다 포인트들을 획득할 수 있다. 이때, 상기 제1 이미지 프레임 및 상기 제1 타겟 라이다 포인트들은 동일한 시점에 대응할 수 있다.Referring back to FIG. 5 , a modeling method according to an embodiment may include acquiring a first image frame. For example, in step S1100, the modeling apparatus may acquire a first image frame. A modeling method according to an embodiment may include acquiring one or more first target LIDAR points. For example, in step S1100, the modeling apparatus may acquire one or more first target LIDAR points. In this case, the first image frame and the first target lidar points may correspond to the same viewpoint.

일 실시예에 따른 모델링 방법은 제2 이미지 프레임을 획득함을 포함할 수 있다. 예를 들어, 단계 S1200에서, 모델링 장치는 제2 이미지 프레임을 획득할 수 있다. 일 실시예에 따른 모델링 방법은 하나 이상의 제2 타겟 라이다 포인트들을 획득함을 포함할 수 있다. 예를 들어, 단계 S1200에서, 모델링 장치는 하나 이상의 제2 타겟 라이다 포인트들을 획득할 수 있다. 이때, 상기 제2 이미지 프레임 및 상기 제2 타겟 라이다 포인트들은 동일한 시점에 대응할 수 있다. A modeling method according to an embodiment may include acquiring a second image frame. For example, in step S1200 , the modeling apparatus may acquire the second image frame. A modeling method according to an embodiment may include acquiring one or more second target LiDAR points. For example, in step S1200, the modeling apparatus may acquire one or more second target LiDAR points. In this case, the second image frame and the second target lidar points may correspond to the same viewpoint.

일 실시예에 따르면, 모델링 방법은 제1 이미지 프레임 및 제2 이미지 프레임에 기초하여 변환 정보를 산출함(S1300)을 포함할 수 있다. 예를 들어, 모델링 장치는 제1 이미지 프레임 및 제2 이미지 프레임에 기초하여 변환 정보를 산출할 수 있다. 상기 변환 정보는 타겟 객체의 움직임을 반영할 수 있다. 예를 들어, 상기 변환 정보는 제1 시점 및 제2 시점 사이의 타겟 객체의 움직임을 반영할 수 있다. 상기 변환 정보는 이미지 좌표에 적용될 수 있다. 예를 들어, 모델링 장치는 제1 시점에 대응하는 이미지 좌표에 상기 변환 정보를 적용하여 제2 시점에 대응하는 이미지 좌표를 산출할 수 있다.According to an embodiment, the modeling method may include calculating transformation information based on the first image frame and the second image frame ( S1300 ). For example, the modeling apparatus may calculate transformation information based on the first image frame and the second image frame. The transformation information may reflect the movement of the target object. For example, the transformation information may reflect the movement of the target object between the first viewpoint and the second viewpoint. The transformation information may be applied to image coordinates. For example, the modeling apparatus may calculate image coordinates corresponding to the second viewpoint by applying the transformation information to the image coordinates corresponding to the first viewpoint.

도 8은 일 실시예에 따른 변환 정보를 설명하기 위한 도면으로, 도 8의 (a)는 제1 시점에 대응하는 제1 이미지 프레임(50a)이고, (b)는 제2 시점에 대응하는 제2 이미지 프레임(50b)이며, 타겟 객체가 선박인 경우이다.FIG. 8 is a view for explaining conversion information according to an exemplary embodiment, in which (a) of FIG. 8 is a first image frame 50a corresponding to a first view, and (b) is a second image corresponding to a second view. 2 is an image frame 50b, and the target object is a ship.

모델링 장치는 제1 이미지 프레임(50a)의 타겟 객체에 대응하는 영역에 변환 정보를 적용하여 제2 이미지 프레임의 타겟 객체에 대응하는 영역을 획득할 수 있다. The modeling apparatus may obtain a region corresponding to the target object of the second image frame by applying transformation information to the region corresponding to the target object of the first image frame 50a.

픽셀 단위에서 보면, 모델링 장치는 제1 이미지 프레임(50a)의 타겟 객체에 대응하는 픽셀들(이하 "제1 픽셀들"이라 함, 5a, 5b, 5c, 5d)의 이미지 좌표에 변환 정보를 적용하여 제2 이미지 프레임의 타겟 객체에 대응하는 픽셀들(이하 "제2 픽셀들"이라 함, 5a', 5b', 5c', 5d')의 이미지 좌표를 획득할 수 있다. 이때 상기 제1 픽셀들(5a, 5b, 5c, 5d)은 각각 상기 제2 픽셀들(5a', 5b', 5c', 5d')에 대응될 수 있다. 즉, 상기 제1 픽셀들(5a, 5b, 5c, 5d) 및 제2 픽셀들(5a', 5b', 5c', 5d') 중 서로 대응하는 픽셀들은 타겟 객체의 동일한 부분에 대응할 수 있다.In terms of pixels, the modeling apparatus applies transformation information to the image coordinates of pixels (hereinafter referred to as “first pixels” 5a, 5b, 5c, 5d) corresponding to the target object of the first image frame 50a. Thus, image coordinates of pixels corresponding to the target object of the second image frame (hereinafter referred to as “second pixels”, 5a', 5b', 5c', 5d') may be obtained. In this case, the first pixels 5a, 5b, 5c, and 5d may correspond to the second pixels 5a', 5b', 5c', and 5d', respectively. That is, pixels corresponding to each other among the first pixels 5a, 5b, 5c, and 5d and the second pixels 5a', 5b', 5c', and 5d' may correspond to the same portion of the target object.

하기 [식 1]은 변환 정보의 일 예인 호모그래피 행렬(homography matrix)에 관한 것이다.The following [Equation 1] relates to a homography matrix, which is an example of transformation information.

[식 1][Equation 1]

Figure 112021063482707-pat00001
Figure 112021063482707-pat00001

여기서, (x,y) 및 (x',y')은 서로 다른 시점의 이미지 좌표를, 우변의 3x3 행렬은 호모그래피 행렬을 의미한다. 이 경우 특정 시점의 이미지 좌표 (x,y)에 호모그래피 행렬을 적용하여 상기 특정 시점과 상이한 시점의 이미지 좌표 (x',y')를 산출할 수 있다.Here, (x,y) and (x',y') denote image coordinates of different viewpoints, and the 3x3 matrix on the right side denotes a homography matrix. In this case, the image coordinates (x',y') of a viewpoint different from the specific viewpoint may be calculated by applying the homography matrix to the image coordinates (x,y) of the specific viewpoint.

모델링 장치는 이미지 프레임으로부터 획득한 타겟 객체와 관련된 특징 정보(이하 "타겟 특징 정보"라 함)에 기초하여 변환 정보를 획득할 수 있다. 상기 타겟 특징 정보는 상기 타겟 객체의 형상을 반영할 수 있다. 예를 들어, 상기 타겟 특징 정보는 상기 이미지 프레임에 포함된 상기 타겟 객체의 형상을 반영할 수 있다. 상기 특징 정보는 이에 대응하는 이미지 좌표를 가질 수 있다. 상기 특징 정보의 예로는 특징점, 코너, 에지 등이 있으나 이에 한정되는 것은 아니다. The modeling apparatus may obtain transformation information based on characteristic information (hereinafter, referred to as “target characteristic information”) related to the target object obtained from the image frame. The target characteristic information may reflect the shape of the target object. For example, the target characteristic information may reflect the shape of the target object included in the image frame. The feature information may have image coordinates corresponding thereto. Examples of the characteristic information include, but are not limited to, a characteristic point, a corner, an edge, and the like.

모델링 장치는 이미지 프레임으로부터 획득한 특징 정보 중 타겟 특징 정보를 결정할 수 있다. 이에 대한 보다 구체적인 내용은 후술한다.The modeling apparatus may determine target characteristic information among the characteristic information obtained from the image frame. More specific details on this will be described later.

도 9는 일 실시예에 따른 변환 정보 획득에 관한 도면이다.9 is a diagram for obtaining conversion information according to an embodiment.

일 실시예에 따르면, 모델링 방법은 제1 이미지 프레임으로부터 타겟 특징 정보를 획득함(S1310)을 포함할 수 있다. 예를 들어, 모델링 장치는 제1 이미지 프레임으로부터 타겟 특징 정보를 획득할 수 있다. 이하에서는 제1 이미지 프레임으로부터 획득된 타겟 특징 정보를 제1 타겟 특징 정보라 한다. 일 실시예에 따르면, 모델링 방법은 제2 이미지 프레임으로부터 타겟 특징 정보를 획득함(S1320)을 포함할 수 있다. 예를 들어, 모델링 장치는 제2 이미지 프레임으로부터 타겟 특징 정보를 획득할 수 있다. 이하에서는 제2 이미지 프레임으로부터 획득된 타겟 특징 정보를 제2 타겟 특징 정보라 한다. According to an embodiment, the modeling method may include acquiring target feature information from the first image frame ( S1310 ). For example, the modeling apparatus may obtain target feature information from the first image frame. Hereinafter, target characteristic information obtained from the first image frame is referred to as first target characteristic information. According to an embodiment, the modeling method may include obtaining target feature information from the second image frame (S1320). For example, the modeling apparatus may obtain target feature information from the second image frame. Hereinafter, target characteristic information obtained from the second image frame is referred to as second target characteristic information.

일 실시예에 따르면, 모델링 방법은 제1 타겟 특징 정보 및 제2 타겟 특징 정보를 매칭함(S1330)을 포함할 수 있다. 예를 들어, 모델링 장치는 제1 타겟 특징 정보 및 제2 타겟 특징 정보를 매칭할 수 있다. 이 경우 서로 매칭되는 제1 타겟 특징 정보 및 제2 타겟 특징 정보는 타겟 객체의 동일한 부분에 대응하거나 동일한 부분에 대응하는 것으로 예측되는 것일 수 있다. 또는, 서로 매칭되는 제1 타겟 특징 정보 및 제2 타겟 특징 정보는 이미지 프레임 상에서의 거리가 최소인 것일 수 있다. According to an embodiment, the modeling method may include matching the first target characteristic information and the second target characteristic information ( S1330 ). For example, the modeling apparatus may match the first target characteristic information and the second target characteristic information. In this case, the first target characteristic information and the second target characteristic information matching each other may correspond to the same part of the target object or may be predicted to correspond to the same part. Alternatively, the first target characteristic information and the second target characteristic information that match each other may have a minimum distance on the image frame.

일 실시예에 따르면, 모델링 방법은 매칭된 타겟 특징 정보들에 기초하여 변환 정보를 산출함(S1340)을 포함할 수 있다. 예를 들어, 모델링 장치는 매칭된 타겟 특징 정보들에 기초하여 변환 정보를 산출할 수 있다. According to an embodiment, the modeling method may include calculating transformation information based on the matched target feature information ( S1340 ). For example, the modeling apparatus may calculate transformation information based on the matched target characteristic information.

일 실시예에 따르면, 모델링 방법은 변환 정보를 제1 타겟 특징 정보에 적용하여 제1 타겟 특징 정보의 이미지 좌표를 변환함(S1350)을 포함할 수 있다. 예를 들어, 모델링 장치는 변환 정보를 제1 타겟 특징 정보에 적용하여 제1 타겟 특징 정보의 이미지 좌표를 변환할 수 있다. According to an embodiment, the modeling method may include converting image coordinates of the first target characteristic information by applying the transformation information to the first target characteristic information ( S1350 ). For example, the modeling apparatus may convert the image coordinates of the first target characteristic information by applying the transformation information to the first target characteristic information.

일 실시예에 따르면, 모델링 방법은 변환된 제1 타겟 특징 정보 및 제2 타겟 특징 정보를 비교함(S1360)을 포함할 수 있다. 예를 들어, 모델링 장치는 변환된 제1 타겟 특징 정보 및 제2 타겟 특징 정보를 비교할 수 있다. 변환된 제1 타겟 특징 정보 및 제2 타겟 특징 정보를 비교한다는 것은 상기 변환된 제1 타겟 특징 정보 및 상기 제2 타겟 특징 정보 사이의 거리를 미리 정해진 값과 비교하는 것일 수 있다. 보다 구체적으로, 변환된 제1 타겟 특징 정보 및 제2 타겟 특징 정보를 비교한다는 것은 상기 변환된 제1 타겟 특징 정보 및 상기 제2 타겟 특징 정보의 이미지 좌표계 상에서의 거리를 미리 정해진 값과 비교하는 것일 수 있다.According to an embodiment, the modeling method may include comparing the transformed first target characteristic information and the second target characteristic information ( S1360 ). For example, the modeling apparatus may compare the converted first target characteristic information and the second target characteristic information. Comparing the transformed first target characteristic information and the second target characteristic information may include comparing a distance between the transformed first target characteristic information and the second target characteristic information with a predetermined value. More specifically, comparing the transformed first target characteristic information and the second target characteristic information is comparing the transformed first target characteristic information and the second target characteristic information with a predetermined value and the distance on the image coordinate system. can

상기 비교한 결과가 미리 정해진 조건을 만족할 때까지 모델링 장치는 단계 S1330 내지 S1360을 반복 수행할 수 있다. 상기 비교한 결과가 미리 정해진 조건을 만족한다는 것은 변환된 제1 타겟 특징 정보 및 제2 타겟 특징 정보 사이의 거리가 미리 정해진 값 이하인 것을 의미할 수 있다. 보다 구체적으로, 상기 비교한 결과가 미리 정해진 조건을 만족한다는 것은 변환된 제1 타겟 특징 정보 및 제2 타겟 특징 정보의 이미지 좌표계 상에서의 거리가 미리 정해진 값 이하인 것을 의미할 수 있다. 이때 모델링 장치는 단계 S1330 내지 S1360을 반복 수행함에 따라 변환 정보를 반복하여 산출(변환 정보를 갱신하는 것으로 볼 수도 있을 것이다.)하고, 제1 타겟 특징 정보의 이미지 좌표를 반복하여 변환(제1 타겟 특징 정보의 이미지 좌표를 갱신하는 것으로 볼 수도 있을 것이다.)할 수 있다.The modeling apparatus may repeatedly perform steps S1330 to S1360 until the comparison result satisfies a predetermined condition. That the comparison result satisfies the predetermined condition may mean that the distance between the converted first target characteristic information and the second target characteristic information is less than or equal to a predetermined value. More specifically, that the comparison result satisfies the predetermined condition may mean that the distances of the transformed first target characteristic information and the second target characteristic information in the image coordinate system are less than or equal to a predetermined value. At this time, the modeling apparatus repeatedly calculates the transformation information by repeatedly performing steps S1330 to S1360 (it may be regarded as updating the transformation information), and repeats the image coordinates of the first target characteristic information to transform (the first target). It may be seen as updating the image coordinates of the feature information).

도 10은 변환 정보 산출 알고리즘의 예시들에 관한 도면으로, (a)는 종래의 iterative closest point(ICP) 알고리즘이고, (b)는 호모그래피 ICP 알고리즘이다. 호모그래피 ICP 알고리즘을 종래의 ICP 알고리즘과 비교하면, 호모그래피 ICP 알고리즘에서는 비용 함수(cost function)가 호모그래피 행렬 solver로 변경되었다. 이에 따라, 종래의 ICP 알고리즘에서는 제1 타겟 특징 정보 및 제2 타겟 특징 정보 사이의 평행 이동 및 회전만 고려할 수 있었지만 호모그래피 ICP 알고리즘에서는 평행 이동 및 회전뿐만 아니라 스케일링 또한 함께 고려하여 보다 일반적으로 변환 정보를 산출할 수 있다.10 is a diagram of examples of conversion information calculation algorithms. (a) is a conventional iterative closest point (ICP) algorithm, and (b) is a homography ICP algorithm. Comparing the homography ICP algorithm with the conventional ICP algorithm, in the homography ICP algorithm, a cost function is changed to a homography matrix solver. Accordingly, in the conventional ICP algorithm, only translation and rotation between the first target characteristic information and the second target characteristic information could be considered, but in the homography ICP algorithm, not only translation and rotation but also scaling are considered together, and transformation information is more generally can be calculated.

다시 도 5를 참고하면, 일 실시예에 따른 모델링 방법은 변환 정보에 적어도 일부분 기초하여 하나 이상의 제1 타겟 라이다 포인트들의 좌표를 변환함(S1400)을 포함할 수 있다. 예를 들어, 모델링 장치는 변환 정보에 적어도 일부분 기초하여 하나 이상의 제1 타겟 라이다 포인트들의 좌표를 변환할 수 있다. 보다 구체적인 예로, 모델링 장치는 변환 정보에 적어도 일부분 기초하여 상기 제1 타겟 라이다 포인트들의 제1 시점에 대응하는 좌표(이하 "제1 좌표"라 함)를 제2 시점에 대응하는 좌표(이하 "제2 좌표"라 함)로 변환할 수 있다.Referring back to FIG. 5 , the modeling method according to an embodiment may include transforming the coordinates of one or more first target LiDAR points based at least in part on the transformation information ( S1400 ). For example, the modeling apparatus may transform the coordinates of the one or more first target LiDAR points based at least in part on the transformation information. As a more specific example, the modeling apparatus converts the coordinates (hereinafter referred to as "first coordinates") corresponding to the first viewpoints of the first target lidar points to the coordinates corresponding to the second viewpoints (hereinafter, " referred to as "second coordinates").

도 11은 일 실시예에 따른 제1 타겟 라이다 포인트의 제1 좌표를 제2 좌표로 변환하는 것에 관한 도면이다. 도 11에서는 라이다 좌표계 상의 상기 제1 좌표 및 상기 제2 좌표를 변환하는 경우에 대해 설명하나 이에 한정되는 것은 아니다. 즉, 상기 제1 좌표 및 상기 제2 좌표는 상기 라이다 좌표계와 차원이 같은 다른 좌표계 상에서의 좌표일 수 있다. 또한, 도 11에서 OL은 라이다 좌표계의 원점을 의미하고, XL, YL 및 ZL은 각각 상기 라이다 좌표계의 x축, y축 및 z축을 의미한다. Oc는 카메라 좌표계의 원점을 의미하고, Xc, Yc, Zc는 각각 상기 카메라 좌표계의 x축, y축 및 z축을 의미한다. 11 is a diagram for converting first coordinates of a first target lidar point into second coordinates according to an embodiment. In FIG. 11 , a case in which the first coordinate and the second coordinate on the lidar coordinate system are transformed will be described, but the present invention is not limited thereto. That is, the first coordinate and the second coordinate may be coordinates in another coordinate system having the same dimension as the lidar coordinate system. In addition, in FIG. 11 , O L denotes the origin of the lidar coordinate system, and X L , Y L and Z L denote the x-axis, y-axis, and z-axis of the lidar coordinate system, respectively. O c denotes the origin of the camera coordinate system, and X c , Y c , and Z c denote the x-axis, y-axis, and z-axis of the camera coordinate system, respectively.

도 11의 (a)를 참고하면, 모델링 장치는 캘리브레이션 정보에 기초하여 제1 타겟 라이다 포인트(6a)를 이미지 평면(60)에 투영할 수 있다. 이 경우 모델링 장치는 상기 제1 타겟 라이다 포인트(6a)의 제1 좌표 (xL,yL,zL)에 대응하는 이미지 좌표 (x,y)를 획득할 수 있다. 이때 상기 제1 좌표 (xL,yL,zL)의 차원이 상기 이미지 좌표 (x,y)의 차원보다 높으므로 상기 제1 좌표 (xL,yL,zL)를 상기 이미지 평면(60)에 투영하여 하나의 상기 이미지 좌표 (x,y)를 획득할 수 있다.Referring to FIG. 11A , the modeling apparatus may project the first target lidar point 6a to the image plane 60 based on the calibration information. In this case, the modeling apparatus may acquire image coordinates (x,y) corresponding to the first coordinates (x L ,y L ,z L ) of the first target lidar point 6a. At this time, since the dimension of the first coordinate (x L ,y L ,z L ) is higher than the dimension of the image coordinate (x,y), the first coordinate (x L ,y L ,z L ) is set to the image plane ( 60) to obtain one of the image coordinates (x,y).

캘리브레이션 정보는 라이다-카메라 캘리브레이션 정보 및 카메라 캘리브레이션 정보를 포함할 수 있다. The calibration information may include lidar-camera calibration information and camera calibration information.

라이다-카메라 캘리브레이션 정보는 카메라 모듈 및 라이다 모듈 사이의 상대적인 위치 및 방향 중 적어도 하나를 반영할 수 있다. 라이다-카메라 캘리브레이션 정보는 카메라 모듈 및 라이다 모듈 사이의 상대적인 위치를 반영하는 평행 이동(translation) 정보 및 상대적인 방향을 반영하는 회전(rotation) 정보 중 적어도 하나를 포함할 수 있다. 모델링 장치는 라이다-카메라 캘리브레이션 정보를 이용하여 상기 제1 타겟 라이다 포인트(6a)의 라이다 좌표계 상의 상기 제1 좌표 (xL,yL,zL)를 카메라 좌표계 상의 좌표 (xc,yc,zc)로 변환할 수 있다.The lidar-camera calibration information may reflect at least one of a relative position and direction between the camera module and the lidar module. The lidar-camera calibration information may include at least one of translation information reflecting a relative position between the camera module and the lidar module and rotation information reflecting a relative direction. The modeling apparatus uses the lidar-camera calibration information to convert the first coordinates (x L , y L , z L ) on the lidar coordinate system of the first target lidar point 6a to the coordinates on the camera coordinate system (x c , y c ,z c ).

카메라 캘리브레이션 정보는 카메라 모듈의 내부 파라미터를 반영할 수 있다. 모델링 장치는 카메라 캘리브레이션 정보를 이용하여 카메라 좌표계 상의 좌표 (xc,yc,zc)를 이미지 평면 상으로 투영할 수 있다. 이 경우 모델링 장치는 상기 제1 타겟 라이다 포인트(6a)에 대응하는 이미지 좌표 (x,y)를 획득할 수 있다.The camera calibration information may reflect internal parameters of the camera module. The modeling apparatus may project the coordinates (x c , y c , z c ) on the camera coordinate system onto the image plane by using the camera calibration information. In this case, the modeling apparatus may acquire image coordinates (x, y) corresponding to the first target lidar point 6a.

하기 [식 2]는 캘리브레이션 정보의 일 예에 관한 것이다.The following [Equation 2] relates to an example of calibration information.

[식 2][Equation 2]

Figure 112021063482707-pat00002
Figure 112021063482707-pat00002

여기서, x, y는 이미지 좌표, xc, yc, zc는 제1 타겟 라이다 포인트의 카메라 좌표계 상의 좌표, xL, yL, zL은 제1 타겟 라이다 포인트의 라이다 좌표계 상의 좌표이고, A 행렬은 하기 [식 3]과 같은 카메라 캘리브레이션 정보의 일 예이고, R 및 t는 각각 하기 [식 4]와 같은 회전 정보의 일 예인 회전 행렬 및 평행 이동 정보의 일 예인 평행 이동 행렬이다. Here, x, y are image coordinates, x c , y c , z c are coordinates on the camera coordinate system of the first target lidar point, and x L , y L , z L are coordinates on the lidar coordinate system of the first target lidar point. coordinates, the A matrix is an example of camera calibration information as shown in [Equation 3] below, and R and t are a rotation matrix that is an example of rotation information as shown in [Equation 4] and a translation matrix that is an example of translation information, respectively to be.

[식 3][Equation 3]

Figure 112021063482707-pat00003
Figure 112021063482707-pat00003

[식 4][Equation 4]

Figure 112021063482707-pat00004
Figure 112021063482707-pat00004

여기서, fx 및 fy는 각각 수평 및 수직 방향의 유효 초점 거리(effective focal length), skewc는 비대칭 계수(skew coefficient), cx 및 cy는 주점(principal point)의 좌표이다.Here, f x and f y are effective focal lengths in horizontal and vertical directions, respectively, skew c is a skew coefficient, and c x and c y are coordinates of principal points.

따라서, 식 2에서는 상기 제1 타겟 라이다 포인트(6a)의 라이다 좌표계 상의 좌표 (xL,yL,zL)에 회전 행렬 및 평행 이동 행렬 [R|t]를 적용하여 상기 제1 타겟 라이다 포인트(6a)의 카메라 좌표계 상의 좌표 (xc,yc,zc)를 획득하고, 이에 A 행렬을 적용하여 이미지 좌표 (x,y)를 획득한다.Accordingly, in Equation 2, a rotation matrix and a translation matrix [R|t] are applied to the coordinates (x L , y L , z L ) of the first target lidar point 6a on the lidar coordinate system to apply the first target The coordinates (x c ,y c ,z c ) on the camera coordinate system of the lidar point 6a are obtained, and the image coordinates (x,y) are obtained by applying the A matrix.

도 11의 (b)를 참고하면, 모델링 장치는 이미지 평면(60) 상에 투영된 상기 제1 타겟 라이다 포인트(6a)에 대응하는 이미지 좌표 (x,y)를 변환할 수 있다. 모델링 장치는 타겟 객체의 움직임을 반영하여 이미지 좌표 (x,y)를 변환할 수 있다. 예를 들어, 모델링 장치는 제1 시점 및 제2 시점 사이의 타겟 객체의 움직임을 반영하여 이미지 좌표 (x,y)를 변환할 수 있다. 모델링 장치는 전술한 변환 정보에 기초하여 이미지 좌표를 변환할 수 있다. 모델링 장치는 이미지 좌표 (x,y)를 변환하여 변환된 이미지 좌표 (x',y')를 획득할 수 있다. Referring to FIG. 11B , the modeling apparatus may transform image coordinates (x,y) corresponding to the first target lidar point 6a projected on the image plane 60 . The modeling apparatus may convert image coordinates (x,y) by reflecting the movement of the target object. For example, the modeling apparatus may convert the image coordinates (x,y) by reflecting the movement of the target object between the first viewpoint and the second viewpoint. The modeling apparatus may convert image coordinates based on the above-described transformation information. The modeling apparatus may obtain the transformed image coordinates (x',y') by transforming the image coordinates (x,y).

도 11의 (c)를 참고하면, 모델링 장치는 캘리브레이션 정보에 기초하여 변환된 이미지 좌표 (x',y')로부터 상기 제1 타겟 라이다 포인트(6a)의 라이다 좌표계 상의 제2 좌표 (xL',yL',zL') 및 카메라 좌표계 상의 좌표 (xc',yc',zc') 중 적어도 하나를 생성할 수 있다. 이 경우 상기 변환된 이미지 좌표 (x',y')의 차원보다 상기 제2 좌표 (xL',yL',zL') 및 카메라 좌표계 상의 좌표 (xc',yc',zc')의 차원이 높으므로 상기 변환된 이미지 좌표 (x',y')에는 복수의 좌표를 포함하는 좌표의 그룹이 매핑될 수 있다. (식 2 참고) 따라서, 상기 복수의 좌표 중 특정 좌표를 상기 제2 좌표 (xL',yL',zL') 또는 카메라 좌표계 상의 좌표 (xc',yc',zc')로 선택해야 한다.Referring to (c) of FIG. 11 , the modeling apparatus provides a second coordinate (x) on the lidar coordinate system of the first target lidar point 6a from the image coordinates (x',y') converted based on the calibration information. At least one of L ',y L ',z L ') and coordinates on the camera coordinate system (x c ',y c ',z c ') may be generated. In this case, the second coordinates (x L ', y L ', z L ') and the coordinates on the camera coordinate system (x c ', y c ', z c ) rather than the dimensions of the transformed image coordinates (x',y') Since the dimension of ') is high, a group of coordinates including a plurality of coordinates may be mapped to the transformed image coordinates (x',y'). ( refer to Equation 2 ) should be selected as

모델링 장치는 상기 제1 좌표 (xL,yL,zL)에 기초하여 복수의 좌표 중 특정 좌표를 상기 제2 좌표 (xL',yL',zL')로 선택할 수 있다. 예를 들어, 모델링 장치는 상기 제1 좌표 및 상기 제2 좌표의 높이값이 동일하도록 상기 제2 좌표를 선택할 수 있다. 보다 구체적인 예로, 라이다 좌표계에서 XL-YL 평면이 지면 또는 해수면과 평행하고 ZL이 지면 또는 해수면으로부터의 높이에 대응하는 경우, 상기 변환된 이미지 좌표 (x',y')에 대응하는 복수의 좌표 중 zL' = zL 인 좌표를 상기 제2 좌표로 선택할 수 있다. 이 경우 상기 제1 타겟 라이다 포인트(6a)의 제1 좌표와 제2 좌표의 높이값이 동일한 것이므로, 제1 시점과 제2 시점 사이에서 타겟 객체가 미리 정해진 평면(예: 지면 또는 해수면) 상에서 움직이는 것으로 가정하고 상기 제2 좌표를 선택하는 것으로 볼 수 있다. 즉, 해상 상황에서는 제1 시점과 제2 시점 사이에서 선박이 해수면 상에서 해수면을 따라 움직인 것으로 볼 수 있고, 도로 상황에서는 자동차가 지면 상에서 지면을 따라 움직인 것으로 볼 수 있다. 이와 유사하게, 모델링 장치는 제1 시점의 카메라 좌표계 상의 좌표 (xc,yc,zc)에 기초하여 복수의 좌표 중 특정 좌표를 제2 시점의 카메라 좌표계 상의 좌표 (xc',yc',zc')로 선택할 수 있다. 이에 대한 중복되는 설명은 생략한다.The modeling apparatus may select a specific coordinate from among a plurality of coordinates as the second coordinate (x L ',y L ',z L ') based on the first coordinate (x L ,y L ,z L ). For example, the modeling apparatus may select the second coordinates so that the height values of the first coordinates and the second coordinates are the same. As a more specific example, when the X L -Y L plane in the LIDAR coordinate system is parallel to the ground or sea level and Z L corresponds to the height from the ground or sea level, the transformed image coordinates (x',y') A coordinate in which z L '=z L among a plurality of coordinates may be selected as the second coordinate. In this case, since the height values of the first coordinates and the second coordinates of the first target lidar point 6a are the same, the target object is located on a predetermined plane (eg, the ground or sea level) between the first and second viewpoints. It can be seen that it is assumed that it is moving and that the second coordinate is selected. That is, in a sea situation, it can be seen that the ship moves along the sea level on the sea level between the first time point and the second time point, and in a road condition, it can be seen that the vehicle moves along the ground on the ground. Similarly, the modeling apparatus converts a specific coordinate among a plurality of coordinates based on the coordinates (x c ,y c ,z c ) on the camera coordinate system of the first viewpoint to the coordinates (x c ',y c ) on the camera coordinate system of the second viewpoint. ',z c ') can be selected. A redundant description thereof will be omitted.

다시 도 5를 참고하면, 일 실시예에 따른 모델링 방법은 변환된 하나 이상의 제1 타겟 라이다 포인트들 및 하나 이상의 제2 타겟 라이다 포인트들을 이용하여 타겟 객체를 모델링함(S1500)을 포함할 수 있다. 예를 들어, 모델링 장치는 변환된 하나 이상의 제1 타겟 라이다 포인트들 및 하나 이상의 제2 타겟 라이다 포인트들을 이용하여 타겟 객체를 모델링할 수 있다.Referring back to FIG. 5 , the modeling method according to an embodiment may include modeling the target object using the converted one or more first target lidar points and one or more second target lidar points ( S1500 ). have. For example, the modeling apparatus may model the target object using the converted one or more first target lidar points and one or more second target lidar points.

모델링 장치는 일정 시간 구간 동안 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. 이 경우 상기 제1 타겟 라이다 포인트들에 대응하는 제1 시점 및 상기 제2 타겟 라이다 포인트들에 대응하는 제2 시점은 상기 일정 시간 구간 내에 포함될 수 있다.The modeling apparatus may model the target object by accumulating target lidar points for a predetermined time period. In this case, the first viewpoint corresponding to the first target lidar points and the second viewpoint corresponding to the second target lidar points may be included in the predetermined time period.

도 12 및 도 13은 일 실시예에 따른 타겟 라이다 포인트들이 누적되는 시간 구간을 설명하기 위한 도면이다.12 and 13 are diagrams for explaining a time period in which target LiDAR points are accumulated, according to an embodiment.

모델링 장치는 기준 시점부터 현재 시점 사이의 시간 구간에 대응하는 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. 도 12의 (a)를 참고하면, 모델링 장치는 기준 시점 t1부터 현재 시점 t2 사이의 시간 구간 Δt12에 대응하는 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. 도 12의 (b)를 참고하면, 시간이 흘러 현재 시점이 t2에서 t3로 변화한 경우, 모델링 장치는 기준 시점 t1부터 현재 시점 t3 사이의 시간 구간 Δt13에 대응하는 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. 이 경우 타겟 라이다 포인트들을 누적하는 시간 구간은 시간이 흐름에 따라 늘어날 수 있다.The modeling apparatus may model the target object by accumulating target lidar points corresponding to a time interval between the reference viewpoint and the current viewpoint. Referring to FIG. 12A , the modeling apparatus may model the target object by accumulating target LiDAR points corresponding to the time interval Δt 12 between the reference time t 1 and the current time t 2 . Referring to (b) of FIG. 12 , when time passes and the current time point changes from t 2 to t 3 , the modeling device is a target lid corresponding to the time interval Δt 13 between the reference time point t 1 and the current time point t 3 . A target object may be modeled by accumulating points. In this case, the time period for accumulating the target lidar points may increase as time passes.

모델링 장치는 현재 시점과 상기 현재 시점으로부터 미리 정해진 시간만큼 이전인 시점 사이의 시간 구간에 대응하는 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. 도 13의 (a)를 참고하면, 모델링 장치는 현재 시점 t5와 이로부터 미리 정해진 시간만큼 이전인 시점 t4 사이의 시간 구간 Δt45에 대응하는 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. 도 13의 (b)를 참고하면, 시간이 흘러 현재 시점이 t5에서 t7로 변화한 경우, 모델링 장치는 현재 시점 t7과 이로부터 미리 정해진 시간만큼 이전인 시점 t6 사이의 시간 구간 Δt67에 대응하는 타겟 라이다 포인트들을 누적하여 타겟 객체를 모델링할 수 있다. 이 경우 타겟 라이다 포인트들을 누적하는 시간 구간은 시간이 흐르더라도 변화하지 않을 수 있다(Δt45 = Δt67).The modeling apparatus may model the target object by accumulating target LiDAR points corresponding to a time section between the current time point and a time point earlier than the current time point by a predetermined time. Referring to (a) of FIG. 13 , the modeling apparatus accumulates target LiDAR points corresponding to a time interval Δt 45 between a current time t 5 and a time t 4 that is a predetermined time earlier therefrom to model the target object. can Referring to (b) of FIG. 13 , when time passes and the current time point changes from t 5 to t 7 , the modeling apparatus calculates the time interval Δt between the current time point t 7 and the time point t 6 that is a predetermined time earlier therefrom. The target object may be modeled by accumulating target lidar points corresponding to 67 . In this case, the time interval for accumulating the target LiDAR points may not change even if time passes (Δt 45 = Δt 67 ).

이하에서는 라이다 포인트 클라우드 중 타겟 라이다 포인트를 결정하는 방법에 대해 보다 구체적으로 설명한다.Hereinafter, a method of determining a target lidar point among lidar point clouds will be described in more detail.

일 실시예에 따르면, 모델링 방법은 객체 종류 정보를 이용하여 라이다 포인트 클라우드 중 타겟 라이다 포인트를 결정함을 포함할 수 있다. 예를 들어, 모델링 장치는 객체 종류 정보를 이용하여 라이다 포인트 클라우드 중 타겟 라이다 포인트를 결정할 수 있다. 상기 객체 종류 정보는 이미지 프레임에 기초하여 생성될 수 있다. 상기 객체 종류 정보는 상기 이미지 프레임에 포함된 객체의 종류에 대한 정보를 반영할 수 있다. 상기 객체 종류 정보는 상기 이미지 프레임에 포함된 타겟 객체에 대응하고 상기 타겟 객체를 지시하는 데이터를 포함할 수 있다. 상기 객체 종류 정보는 상기 타겟 객체의 상기 이미지 프레임 내에서의 위치를 반영할 수 있다.According to an embodiment, the modeling method may include determining a target lidar point from among lidar point clouds by using object type information. For example, the modeling apparatus may determine a target lidar point from among lidar point clouds by using object type information. The object type information may be generated based on an image frame. The object type information may reflect information on the type of object included in the image frame. The object type information may include data corresponding to a target object included in the image frame and indicating the target object. The object type information may reflect a location of the target object in the image frame.

도 14는 일 실시예에 따른 이미지 프레임에 기초하여 생성되는 객체 종류 정보를 설명하기 위한 도면이다. 도 14의 (a)는 카메라 모듈이 촬영한 이미지 프레임(70a)이고, (b)는 상기 이미지 프레임(70a)에 기초하여 생성된 객체 종류 정보의 일 예인 세그멘테이션 정보를 시각화한 세그멘테이션 이미지(70b)이고, (c)는 상기 이미지(70a)에 기초하여 생성된 객체 종류 정보의 다른 예인 디텍션 정보를 시각화한 디텍션 이미지(70c)이다.14 is a diagram for describing object type information generated based on an image frame according to an exemplary embodiment. (a) of FIG. 14 is an image frame 70a captured by the camera module, and (b) is a segmentation image 70b that visualizes segmentation information, which is an example of object type information generated based on the image frame 70a. and (c) is a detection image 70c in which detection information, which is another example of object type information generated based on the image 70a, is visualized.

일 실시예에 의하면, 모델링 장치는 이미지 프레임(70a)에 기초하여 세그멘테이션 정보를 생성할 수 있다. 상기 세그멘테이션 정보는 복수의 세그멘테이션 데이터를 포함할 수 있다. 상기 복수의 세그멘테이션 데이터 각각은 상기 이미지 프레임(70a)의 각 픽셀에 대응할 수 있다. 상기 복수의 세그멘테이션 데이터 각각은 이에 대응하는 픽셀이 나타내는 객체의 종류를 반영할 수 있다. 이에 따라 상기 세그멘테이션 정보는 상기 이미지 프레임(70a)에 포함된 객체 또는 상기 객체를 나타내는 픽셀의 상기 이미지 프레임(70a) 내에서의 위치를 반영할 수 있다. 상기 세그멘테이션 정보는 선박에 대응하는 세그멘테이션 데이터, 안벽에 대응하는 세그멘테이션 데이터, 바다 또는 해수면에 대응하는 세그멘테이션 데이터, 지형에 대응하는 세그멘테이션 데이터 및 하늘에 대응하는 세그멘테이션 데이터 중 적어도 하나를 포함할 수 있다.According to an embodiment, the modeling apparatus may generate segmentation information based on the image frame 70a. The segmentation information may include a plurality of segmentation data. Each of the plurality of segmentation data may correspond to each pixel of the image frame 70a. Each of the plurality of segmentation data may reflect the type of object represented by the corresponding pixel. Accordingly, the segmentation information may reflect the position of an object included in the image frame 70a or a pixel representing the object within the image frame 70a. The segmentation information may include at least one of segmentation data corresponding to a ship, segmentation data corresponding to a quay wall, segmentation data corresponding to the sea or sea level, segmentation data corresponding to a terrain, and segmentation data corresponding to the sky.

세그멘테이션 정보는 시각화될 수 있다. 예를 들어, 세그멘테이션 정보는 상기 세그멘테이션 정보의 복수의 세그멘테이션 데이터가 반영하는 객체의 종류에 따라 별도의 색상 등으로 구분되도록 표현되는 세그멘테이션 이미지(70b)의 형태로 시각화될 수 있다. 이 경우, 도 14의 (b)를 참고하면, 세그멘테이션 이미지(70b)는 선박에 대응하는 영역(7a), 안벽에 대응하는 영역(7b), 바다 또는 해수면에 대응하는 영역(7c), 지형에 대응하는 영역(7d) 및 하늘에 대응하는 영역(7e)을 포함할 수 있다. The segmentation information may be visualized. For example, the segmentation information may be visualized in the form of a segmentation image 70b expressed to be distinguished by a separate color or the like according to the type of object reflected by the plurality of segmentation data of the segmentation information. In this case, referring to FIG. 14(b), the segmentation image 70b is a region 7a corresponding to a ship, an area 7b corresponding to a quay wall, an area 7c corresponding to the sea or sea level, and the terrain. It may include a corresponding area 7d and an area 7e corresponding to the sky.

다른 실시예에 의하면, 모델링 장치는 이미지 프레임(70a)에 기초하여 디텍션 정보를 생성할 수 있다. 상기 디텍션 정보는 하나 이상의 디텍션 데이터를 포함할 수 있다. 상기 하나 이상의 디텍션 데이터 각각은 상기 이미지 프레임(70a)에 포함된 객체에 대응할 수 있다. 상기 하나 이상의 디텍션 데이터 각각은 이에 대응하는 객체의 종류를 반영할 수 있다. 상기 하나 이상의 디텍션 데이터 각각은 이에 대응하는 객체의 상기 이미지 프레임(70a) 내에서의 위치를 반영할 수 있다. 상기 디텍션 정보는 선박에 대응하는 디텍션 데이터, 안벽에 대응하는 디텍션 데이터, 바다 또는 해수면에 대응하는 디텍션 데이터, 지형에 대응하는 디텍션 데이터 및 하늘에 대응하는 디텍션 데이터 중 적어도 하나를 포함할 수 있다.According to another embodiment, the modeling apparatus may generate detection information based on the image frame 70a. The detection information may include one or more detection data. Each of the one or more detection data may correspond to an object included in the image frame 70a. Each of the one or more detection data may reflect a type of an object corresponding thereto. Each of the one or more detection data may reflect a position of a corresponding object within the image frame 70a. The detection information may include at least one of detection data corresponding to a ship, detection data corresponding to a quay wall, detection data corresponding to the sea or sea level, detection data corresponding to a terrain, and detection data corresponding to the sky.

디텍션 정보는 시각화될 수 있다. 예를 들어, 디텍션 정보는 상기 디텍션 정보의 하나 이상의 디텍션 데이터가 반영하는 객체의 이미지 프레임(70a) 내에서의 위치가 바운딩 박스 형태로 표현되는 디텍션 이미지(70c)의 형태로 시각화될 수 있다. 이 경우, 도 14의 (c)를 참고하면, 디텍션 이미지(70c)는 선박에 대응하는 영역(7f)을 포함할 수 있다.The detection information may be visualized. For example, the detection information may be visualized in the form of a detection image 70c in which a position in an image frame 70a of an object reflected by one or more detection data of the detection information is expressed in the form of a bounding box. In this case, referring to FIG. 14C , the detection image 70c may include a region 7f corresponding to the vessel.

모델링 장치는 인공 신경망을 이용하여 객체 종류 정보를 생성할 수 있다. 상기 인공 신경망의 예로는 CNN(convolution neural network), YOLO(you only look once), SSD(single shot multibox detector) 등이 있으나 이에 한정되는 것은 아니다. 상기 인공 신경망은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning), 모방 학습(imitation learning) 등 다양한 방법을 통해 학습될 수 있다. 또한, 모델링 장치는 반드시 인공 신경망을 이용하여 객체 종류 정보를 생성해야 하는 것은 아니며 이 외의 방법으로 객체 종류 정보를 생성할 수도 있다.The modeling apparatus may generate object type information using an artificial neural network. Examples of the artificial neural network include, but are not limited to, a convolution neural network (CNN), you only look once (YOLO), and a single shot multibox detector (SSD). The artificial neural network may be learned through various methods such as supervised learning, unsupervised learning, reinforcement learning, and imitation learning. Also, the modeling apparatus does not necessarily need to generate the object type information using the artificial neural network, and may generate the object type information by other methods.

모델링 장치는 객체 종류 정보를 이용하여 라이다 포인트 클라우드에 포함된 하나 이상의 라이다 포인트들에 대응하는 객체의 종류를 식별할 수 있다. 예를 들어, 모델링 장치는 라이다 포인트 클라우드를 이미지 평면 상에 투영시키고, 상기 라이다 포인트 클라우드에 포함된 하나 이상의 라이다 포인트들 각각이 상기 이미지 평면 상에 투영되는 지점이 어떠한 종류의 객체에 대응하는지를 상기 객체 종류 정보를 이용하여 판단함으로써 상기 라이다 포인트들 각각에 대응하는 객체의 종류를 식별할 수 있다. The modeling apparatus may identify the type of object corresponding to one or more lidar points included in the lidar point cloud by using the object type information. For example, the modeling apparatus projects the lidar point cloud on an image plane, and a point at which each of one or more lidar points included in the lidar point cloud is projected on the image plane corresponds to a certain type of object. It is possible to identify the type of object corresponding to each of the lidar points by determining whether or not the object type is determined using the object type information.

모델링 장치는 상기 식별한 결과에 기초하여 라이다 포인트 클라우드 중 하나 이상의 타겟 라이다 포인트들을 결정할 수 있다. 예를 들어, 모델링 장치는 라이다 포인트 클라우드 중 타겟 객체에 대응하는 것으로 식별된 하나 이상의 라이다 포인트들을 하나 이상의 타겟 라이다 포인트들로 결정할 수 있다.The modeling apparatus may determine one or more target LiDAR points from among the LiDAR point clouds based on the identified result. For example, the modeling apparatus may determine one or more lidar points identified as corresponding to the target object in the lidar point cloud as one or more target lidar points.

도 15는 일 실시예에 따른 객체 종류 정보를 이용하여 라이다 포인트 클라우드 중 타겟 라이다 포인트를 결정하는 것에 관한 도면으로, 선박이 타겟 객체인 경우이다. 15 is a diagram for determining a target LIDAR point from among LIDAR point clouds using object type information according to an exemplary embodiment, when a vessel is a target object.

도 15의 (a)를 참고하면, 모델링 장치는 라이다 포인트 클라우드(8a)를 획득할 수 있다.Referring to FIG. 15A , the modeling apparatus may acquire a lidar point cloud 8a.

도 15의 (b)를 참고하면, 모델링 장치는 라이다 포인트 클라우드(8a)를 이미지 평면(80a) 상에 투영시킬 수 있다. 이 경우 모델링 장치는 투영된 라이다 포인트 클라우드(8b)를 획득할 수 있다.Referring to FIG. 15B , the modeling apparatus may project the lidar point cloud 8a onto the image plane 80a. In this case, the modeling device may acquire the projected lidar point cloud 8b.

도 15의 (c)를 참고하면, 모델링 장치는 세그멘테이션 정보를 이용하여 투영된 라이다 포인트 클라우드(8b) 중 하나 이상의 타겟 라이다 포인트들을 결정할 수 있다. 모델링 장치는 세그멘테이션 정보를 이용하여 투영된 라이다 포인트 클라우드(8b)에 대응하는 객체의 종류를 식별할 수 있다. 예를 들어, 투영된 라이다 포인트 클라우드(8b)는 타겟 객체인 선박에 대응하는 하나 이상의 라이다 포인트들(8c) 및 바다 또는 해수면에 대응하는 하나 이상의 라이다 포인트들(8d)을 포함할 수 있다. 모델링 장치는 상기 식별한 결과에 기초하여 타겟 객체에 대응하는 하나 이상의 라이다 포인트들(8c)을 하나 이상의 타겟 라이다 포인트들(8c)로 결정할 수 있다. 예를 들어, 모델링 장치는 선박에 대응하는 하나 이상의 라이다 포인트들(8c) 및 바다 또는 해수면에 대응하는 하나 이상의 라이다 포인트들(8d) 중 선박에 대응하는 하나 이상의 라이다 포인트들(8c)을 하나 이상의 타겟 라이다 포인트들(8c)로 결정할 수 있다.Referring to FIG. 15C , the modeling apparatus may determine one or more target LiDAR points from among the projected LiDAR point clouds 8b using segmentation information. The modeling apparatus may identify the type of object corresponding to the projected lidar point cloud 8b using the segmentation information. For example, the projected lidar point cloud 8b may include one or more lidar points 8c corresponding to a ship as a target object and one or more lidar points 8d corresponding to sea or sea level. have. The modeling apparatus may determine one or more lidar points 8c corresponding to the target object as one or more target lidar points 8c based on the identified result. For example, the modeling device may include one or more lidar points 8c corresponding to the vessel and one or more lidar points 8c corresponding to the vessel among the one or more lidar points 8d corresponding to the sea or sea level. may be determined as one or more target lidar points 8c.

도 15의 (d)를 참고하면, 모델링 장치는 디텍션 정보를 이용하여 투영된 라이다 포인트 클라우드(8b) 중 하나 이상의 타겟 라이다 포인트들을 결정할 수 있다. 모델링 장치는 디텍션 정보를 이용하여 투영된 라이다 포인트 클라우드(8b)에 대응하는 객체의 종류를 식별할 수 있다. 모델링 장치는 상기 식별한 결과에 기초하여 타겟 객체에 대응하는 하나 이상의 라이다 포인트들(8c, 8d)을 하나 이상의 타겟 라이다 포인트들(8c, 8d)로 결정할 수 있다. 도 15의 (c)의 세그멘테이션 정보를 이용하는 경우와 비교하면, 세그멘테이션 정보의 경우에는 이미지 프레임에 포함된 객체를 픽셀별로 구분하는 반면 디텍션 정보의 경우에는 바운딩 박스 형태로 구분하므로 실제로는 타겟 객체에 대응하지 않는 라이다 포인트(8d)도 타겟 라이다 포인트로 결정될 수 있다. 따라서 모델링 장치는 세그멘테이션 정보를 이용하는 경우 디텍션 정보를 이용하는 것보다 정확하게 타겟 라이다 포인트를 결정할 수 있다.Referring to (d) of FIG. 15 , the modeling apparatus may determine one or more target lidar points from among the projected lidar point clouds 8b using detection information. The modeling apparatus may identify the type of object corresponding to the projected lidar point cloud 8b by using the detection information. The modeling apparatus may determine one or more lidar points 8c and 8d corresponding to the target object as one or more target lidar points 8c and 8d based on the identified result. Compared to the case of using the segmentation information of FIG. 15(c), in the case of segmentation information, objects included in an image frame are divided by pixels, whereas in the case of detection information, objects are classified in the form of a bounding box, so it actually corresponds to the target object. A lidar point 8d that does not do so may also be determined as a target lidar point. Accordingly, when the modeling apparatus uses segmentation information, the modeling apparatus may determine the target lidar point more accurately than using the detection information.

이하에서는 이미지 프레임으로부터 획득한 특징 정보 중 타겟 특징 정보를 결정하는 방법에 대해 보다 구체적으로 설명한다.Hereinafter, a method of determining target characteristic information among the characteristic information obtained from the image frame will be described in more detail.

모델링 장치는 전술한 객체 종류 정보를 이용하여 특징 정보 중 타겟 특징 정보를 결정할 수 있다. 모델링 장치는 객체 종류 정보를 이용하여 특징 정보에 대응하는 객체의 종류를 식별할 수 있다. 모델링 장치는 상기 식별한 결과에 기초하여 특징 정보 중 타겟 특징 정보를 결정할 수 있다. 예를 들어, 모델링 장치는 특징 정보 중 타겟 객체에 대응하는 것으로 식별된 것을 타겟 특징 정보로 결정할 수 있다. The modeling apparatus may determine target characteristic information among the characteristic information by using the above-described object type information. The modeling apparatus may identify the type of object corresponding to the feature information by using the object type information. The modeling apparatus may determine target characteristic information among the characteristic information based on the identified result. For example, the modeling apparatus may determine, as the target characteristic information, that which is identified as corresponding to the target object among the characteristic information.

도 16은 일 실시예에 따른 객체 종류 정보를 이용하여 특징 정보로부터 타겟 특징 정보를 획득하는 것에 관한 도면으로, 선박이 타겟 객체인 경우이다.16 is a diagram illustrating obtaining target characteristic information from characteristic information using object type information according to an exemplary embodiment, wherein a vessel is a target object.

도 16의 (a)를 참고하면, 모델링 장치는 이미지 프레임(90a)을 획득할 수 있다.Referring to FIG. 16A , the modeling apparatus may acquire an image frame 90a.

도 16의 (b)를 참고하면, 모델링 장치는 이미지 프레임(90a)으로부터 특징 정보(9a)를 획득할 수 있다.Referring to FIG. 16B , the modeling apparatus may acquire the feature information 9a from the image frame 90a.

도 16의 (c)를 참고하면, 모델링 장치는 세그멘테이션 정보를 이용하여 특징 정보(9a) 중 타겟 특징 정보를 결정할 수 있다. 모델링 장치는 세그멘테이션 정보를 이용하여 특징 정보(9a)에 대응하는 객체의 종류를 식별할 수 있다. 예를 들어, 특징 정보(9a)는 타겟 객체인 선박에 대응하는 특징 정보(9b) 및 바다 또는 해수면에 대응하는 특징 정보(9c)를 포함할 수 있다. 모델링 장치는 상기 식별한 결과에 기초하여 타겟 객체에 대응하는 특징 정보(9b)를 타겟 특징 정보(9b)로 결정할 수 있다. 예를 들어, 모델링 장치는 선박에 대응하는 특징 정보(9b) 및 바다 또는 해수면에 대응하는 특징 정보(9c) 중 선박에 대응하는 특징 정보(9b)를 타겟 특징 정보(9b)로 결정할 수 있다.Referring to FIG. 16C , the modeling apparatus may determine target characteristic information among the characteristic information 9a by using the segmentation information. The modeling apparatus may identify the type of object corresponding to the feature information 9a by using the segmentation information. For example, the characteristic information 9a may include characteristic information 9b corresponding to a ship as a target object and characteristic information 9c corresponding to the sea or sea level. The modeling apparatus may determine the characteristic information 9b corresponding to the target object as the target characteristic information 9b based on the identified result. For example, the modeling apparatus may determine the characteristic information 9b corresponding to the vessel among the characteristic information 9b corresponding to the vessel and the characteristic information 9c corresponding to the sea or sea level as the target characteristic information 9b.

도 16의 (d)를 참고하면, 모델링 장치는 디텍션 정보를 이용하여 특징 정보(9a) 중 타겟 특징 정보를 결정할 수 있다. 모델링 장치는 디텍션 정보를 이용하여 특징 정보(9a)에 대응하는 객체의 종류를 식별할 수 있다. 모델링 장치는 상기 식별한 결과에 기초하여 타겟 객체에 대응하는 특징 정보(9b, 9c)를 타겟 특징 정보(9b, 9c)로 결정할 수 있다. 도 16의 (c)의 세그멘테이션 정보를 이용하는 경우와 비교하면, 세그멘테이션 정보의 경우에는 이미지 프레임에 포함된 객체를 픽셀별로 구분하는 반면 디텍션 정보의 경우에는 바운딩 박스 형태로 구분하므로 실제로는 타겟 객체에 대응하지 않는 특징 정보(9c)도 타겟 특징 정보로 결정될 수 있다. 따라서 모델링 장치는 세그멘테이션 정보를 이용하는 경우 디텍션 정보를 이용하는 것보다 정확하게 타겟 특징 정보를 결정할 수 있다.Referring to FIG. 16D , the modeling apparatus may determine target characteristic information among the characteristic information 9a by using the detection information. The modeling apparatus may identify the type of object corresponding to the feature information 9a by using the detection information. The modeling apparatus may determine the characteristic information 9b and 9c corresponding to the target object as the target characteristic information 9b and 9c based on the identified result. Compared with the case of using the segmentation information of FIG. 16(c), in the case of segmentation information, objects included in an image frame are divided by pixels, whereas in the case of detection information, objects are classified in the form of a bounding box, so it actually corresponds to the target object. The feature information 9c that is not used may also be determined as the target feature information. Accordingly, when the modeling apparatus uses the segmentation information, the modeling apparatus may determine the target characteristic information more accurately than using the detection information.

모델링 장치는 복셀화(voxelization)된 타겟 라이다 포인트에 기초하여 타겟 객체를 모델링할 수 있다.The modeling apparatus may model the target object based on the voxelized target lidar point.

도 17은 일 실시예에 따른 복셀화에 관한 도면이다. 17 is a diagram related to voxelization according to an embodiment.

도 17을 참고하면, 3차원 공간은 복셀화를 통해 복수의 복셀 그리드(voxel grid, 9d)로 분할될 수 있다. 각 복셀 그리드(9d)에 포함되는 하나 이상의 타겟 라이다 포인트들(9e)은 하나의 대표 라이다 포인트(9f)로 취급될 수 있다. 이에 따라 모델링 장치가 취급해야 하는 라이다 포인트의 개수가 감소하고, 따라서 모델링 장치가 타겟 객체를 모델링하는데 필요한 계산 비용(computational cost)이 감소하게 된다.Referring to FIG. 17 , the 3D space may be divided into a plurality of voxel grids 9d through voxelization. One or more target lidar points 9e included in each voxel grid 9d may be treated as one representative lidar point 9f. Accordingly, the number of lidar points to be handled by the modeling apparatus is reduced, and thus, a computational cost required for the modeling apparatus to model the target object is reduced.

상기 대표 라이다 포인트(9f)의 좌표는 상기 복셀 그리드(9d) 내의 임의의 지점의 좌표일 수 있다. 예를 들어, 상기 대표 라이다 포인트(9f)의 좌표는 상기 복셀 그리드(9d)의 중심점의 좌표일 수 있으나 이에 한정되는 것은 아니다.The coordinates of the representative lidar point 9f may be coordinates of any point within the voxel grid 9d. For example, the coordinates of the representative lidar point 9f may be coordinates of the center point of the voxel grid 9d, but is not limited thereto.

2. 라이다 포인트에 기초하여 산출된 변환 정보를 이용한 모델링 방법2. Modeling method using conversion information calculated based on lidar points

이상에서는 이미지 프레임에 기초하여 산출된 변환 정보를 이용한 모델링 방법에 대해 설명하였다. 이하에서는 라이다 포인트에 기초하여 산출된 변환 정보를 이용한 모델링 방법에 대해 목차 1. 이미지 프레임에 기초하여 산출된 변환 정보를 이용한 모델링 방법과의 차이점을 위주로 설명한다. 또한, 목차 1. 이미지 프레임에 기초하여 산출된 변환 정보를 이용한 모델링 방법에서 설명한 내용이 라이다 포인트에 기초하여 산출된 변환 정보를 이용한 모델링 방법에도 적용될 수 있다.In the above, a modeling method using conversion information calculated based on an image frame has been described. Hereinafter, the modeling method using the transformation information calculated based on the lidar point will be mainly described with respect to the difference from the modeling method using the transformation information calculated based on the table of contents 1. The image frame. Also, the contents described in Table of Contents 1. A modeling method using transformation information calculated based on an image frame can be applied to a modeling method using transformation information calculated based on a lidar point.

도 18은 일 실시예에 따른 라이다 포인트에 기초하여 산출된 변환 정보를 이용한 모델링 방법에 관한 도면이다.18 is a diagram illustrating a modeling method using transformation information calculated based on a lidar point according to an embodiment.

일 실시예에 따르면, 모델링 방법은 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들을 획득함(S2100)을 포함할 수 있다. 예를 들어, 모델링 장치는 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들을 획득할 수 있다. 상기 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들의 획득에 대해서는 목차 1. 이미지 프레임에 기초하여 산출된 변환 정보를 이용한 모델링 방법에서 설명한 내용이 적용될 수 있으므로 중복되는 설명은 생략한다.According to an embodiment, the modeling method may include acquiring first target lidar points and second target lidar points ( S2100 ). For example, the modeling apparatus may acquire first target LIDAR points and second target LIDAR points. For the acquisition of the first target LIDAR points and the second target LIDAR points, the contents described in Table of Contents 1. Modeling method using transformation information calculated based on an image frame may be applied, and thus a redundant description will be omitted.

일 실시예에 따르면, 모델링 방법은 제2 타겟 라이다 포인트들을 이용하여 복수의 평면들을 생성함(S2200)을 포함할 수 있다. 예를 들어, 모델링 장치는 제2 타겟 라이다 포인트들을 이용하여 복수의 평면들을 생성할 수 있다.According to an embodiment, the modeling method may include generating a plurality of planes using the second target lidar points ( S2200 ). For example, the modeling apparatus may generate a plurality of planes using the second target lidar points.

도 19는 일 실시예에 따른 라이다 포인트들을 이용하여 평면들을 생성하는 것에 관한 도면이다.19 is a diagram for generating planes using lidar points according to an embodiment.

모델링 장치는 제2 타겟 라이다 포인트들 각각에 대해 상기 각 제2 타겟 라이다 포인트와 관련된 평면들을 생성할 수 있다. 이하에서는 상기 각 제2 타겟 라이다 포인트를 타겟 포인트라 한다. 이에 따라, 모델링 장치는 제2 타겟 라이다 포인트들 중 하나를 타겟 포인트로 하여 이와 관련된 평면들을 생성하고, 상기 제2 타겟 라이다 포인트들 중 다른 하나를 타겟 포인트로 하여 다시 이와 관련된 평면들을 생성하고, 이를 상기 제2 타겟 라이다 포인트들 전체에 대해 반복 수행하여 상기 제2 타겟 라이다 포인트들 각각에 대해 이와 관련된 평면들을 생성할 수 있다.The modeling apparatus may generate planes related to each of the second target LiDAR points for each of the second target LiDAR points. Hereinafter, each of the second target LiDAR points is referred to as a target point. Accordingly, the modeling apparatus generates planes related thereto by using one of the second target lidar points as a target point, and generates planes related thereto again using the other one of the second target lidar points as a target point, , this may be repeatedly performed for all of the second target LIDAR points to generate planes related thereto for each of the second target LIDAR points.

모델링 장치는 타겟 포인트에 대해 상기 타겟 포인트 및 이와 인접한 라이다 포인트들을 이용하여 상기 타겟 포인트와 관련된 평면들을 생성할 수 있다. 상기 타겟 포인트 및 이와 인접한 라이다 포인트들은 제2 타겟 라이다 포인트들에 포함될 수 있다. 도 19를 참고하면, 타겟 포인트 p 0에 대해 상기 타겟 포인트 p 0 및 이와 인접한 라이다 포인트들 p 1, p 2, p 3, p 4를 이용하여 평면들 Π1, Π2, Π3, Π4를 생성할 수 있다. 이와 유사하게, 타겟 포인트가 p 2인 경우에는 이와 인접한 라이다 포인트들 p 0, p 5, p 6, p 7을 이용하여 평면들을 생성할 수 있을 것이다.The modeling apparatus may generate planes related to the target point by using the target point and LiDAR points adjacent thereto. The target point and LiDAR points adjacent thereto may be included in the second target LiDAR points. Referring to FIG. 19 , planes Π 1 , Π 2 , Π 3 , Π using the target point p 0 and LiDAR points p 1 , p 2 , p 3 , and p 4 adjacent thereto for the target point p 0 . 4 can be created. Similarly, when the target point is p 2 , planes may be generated using LiDAR points p 0 , p 5 , p 6 , and p 7 adjacent thereto.

도 19에서는 타겟 포인트와 인접한 4개의 라이다 포인트들을 이용하여 평면들을 생성하는 것으로 도시하였으나, 인접한 라이다 포인트들의 개수는 이와 달라질 수 있다.19 shows that planes are generated using four LiDAR points adjacent to the target point, but the number of adjacent LiDAR points may be different.

또한, 도 19에서는 라이다가 회전형 라이다인 경우에 대한 것으로, 타겟 포인트와 인접한 라이다 포인트들이 상기 타겟 포인트와 좌우로 인접한 라이다 포인트들 및 상하로 인접한 라이다 포인트들을 포함하고, 상기 좌우로 인접한 라이다 포인트들은 상기 타겟 포인트와 동일한 링에 존재하고 그 순서가 상기 타겟 포인트의 직전과 직후인 라이다 포인트들이고, 상기 상하로 인접한 라이다 포인트들은 상기 타겟 포인트의 위아래 링들에 존재하고 거리가 가장 가까운 라이다 포인트들인 것으로 도시하였으나, 상기 타겟 포인트와 인접한 라이다 포인트들이 반드시 이와 같이 결정되어야 하는 것은 아니다. 예를 들어, 타겟 포인트와 인접한 라이다 포인트들 모두 상기 타겟 포인트와의 거리를 기준(예: 타겟 포인트와 거리가 가까운 소정의 개수의 라이다 포인트들을 상기 타겟 포인트와 인접한 라이다 포인트들로 결정)으로 결정되거나, 또는 이와 다른 방식으로 결정될 수도 있다.In addition, in FIG. 19 , the lidar is a rotating lidar, wherein lidar points adjacent to the target point include lidar points adjacent to the target point left and right and lidar points vertically adjacent to the target point, and the left and right lidar points LiDAR points adjacent to are LiDAR points that exist in the same ring as the target point and whose order is immediately before and after the target point, and the upper and lower adjacent LiDAR points are in rings above and below the target point and the distance is Although illustrated as being the closest lidar points, lidar points adjacent to the target point are not necessarily determined in this way. For example, both the target point and the adjacent LIDAR points are based on the distance from the target point (eg, a predetermined number of LIDAR points that are close to the target point are determined as LIDAR points adjacent to the target point) may be determined, or may be determined in another way.

일부 실시예에서, 모델링 장치는 타겟 포인트와 관련된 평면들 중 적어도 일부를 서로 병합할 수 있다. 이때, 모델링 장치는 상기 평면들 사이의 유사도를 고려하여 상기 평면들을 병합할 수 있다. 예를 들어, 도 19를 참고하면, 모델링 장치는 하기 식 5와 같이 제1 평면 Π1과 제2 평면 Π2 사이의 거리 d 12를 산출할 수 있다.In some embodiments, the modeling apparatus may merge at least some of the planes related to the target point with each other. In this case, the modeling apparatus may merge the planes in consideration of the similarity between the planes. For example, referring to FIG. 19 , the modeling apparatus may calculate a distance d 12 between the first plane Π 1 and the second plane Π 2 as shown in Equation 5 below.

[식 5][Equation 5]

Figure 112021063482707-pat00005
Figure 112021063482707-pat00005

여기서, x0, x1 및 x2는 각각 p 0, p 1p 2의 좌표이고, n1 및 n2는 각각 제1 평면 Π1 및 제2 평면 Π2의 법선 벡터(normal vector)이다. 이때, 상기 산출된 거리 d 12가 문턱값(threshold)보다 작은 경우 상기 제1 평면과 상기 제2 평면을, 예를 들어 하기 식 6과 같이, 하나의 평면 Π12으로 병합할 수 있다.Here, x 0 , x 1 and x 2 are coordinates of p 0 , p 1 and p 2 , respectively, and n 1 and n 2 are normal vectors of the first plane Π 1 and the second plane Π 2 , respectively. . In this case, when the calculated distance d 12 is smaller than a threshold, the first plane and the second plane may be merged into one plane Π 12 , for example, as in Equation 6 below.

[식 6][Equation 6]

Figure 112021063482707-pat00006
Figure 112021063482707-pat00006

여기서, n12는 병합된 평면 Π12의 법선 벡터이다. 이와 유사하게 도 19의 제3 평면 Π3 및 제4 평면 Π4이 하나의 평면 Π34으로 병합될 수 있다. 또한, 병합된 평면들 Π12 및 Π34도 이와 유사하게 하나의 평면 Π1234으로 병합될 수 있다.Here, n 12 is the normal vector of the merged plane Π 12 . Similarly, the third plane Π 3 and the fourth plane Π 4 of FIG. 19 may be merged into one plane Π 34 . Also, the merged planes Π 12 and Π 34 may similarly be merged into one plane Π 1234 .

상기와 같이, 타겟 포인트에 대하여 이와 관련된 평면들은 서로 병합될 수 있으므로, 타겟 포인트와 관련된 평면들의 개수는 타겟 포인트별로 상이할 수 있다. 예를 들어, 제2 타겟 라이다 포인트들 중 제1 타겟 포인트와 관련된 평면들의 개수는 상기 제2 타겟 라이다 포인트들 중 상기 제1 타겟 포인트와 상이한 제2 타겟 포인트와 관련된 평면들의 개수와 상이할 수 있다. As described above, since planes related to the target point may be merged with each other, the number of planes related to the target point may be different for each target point. For example, the number of planes associated with a first target point of the second target LiDAR points may be different from the number of planes associated with a second target point that is different from the first one of the second target LiDAR points. can

한편, 타겟 포인트와 관련된 평면들이 상기와 동일한 방식으로 병합되어야 하는 것은 아니다. 예를 들어, 상기 식 5와 다른 방식으로 평면들 사이의 거리를 산출하거나, 상기 식 6과 다른 방식으로 병합된 평면을 생성할 수 있다.On the other hand, the planes related to the target point do not have to be merged in the same way as above. For example, the distance between the planes may be calculated using a method different from Equation 5, or a merged plane may be generated using a method different from Equation 6 above.

다시 도 18을 참고하면, 일 실시예에 따른 모델링 방법은 제1 타겟 라이다 포인트들, 제2 타겟 라이다 포인트들 및 복수의 평면들에 기초하여 산출된 변환 정보를 이용하여 제1 타겟 라이다 포인트들의 좌표를 변환함(S2300)을 포함할 수 있다. 예를 들어, 모델링 장치는 제1 타겟 라이다 포인트들, 제2 타겟 라이다 포인트들 및 복수의 평면들에 기초하여 산출된 변환 정보를 이용하여 제1 타겟 라이다 포인트들의 좌표를 변환할 수 있다.Referring back to FIG. 18 , the modeling method according to an embodiment is a first target lidar using transformation information calculated based on first target lidar points, second target lidar points, and a plurality of planes. It may include transforming the coordinates of the points (S2300). For example, the modeling apparatus may transform the coordinates of the first target lidar points using transformation information calculated based on the first target lidar points, the second target lidar points, and the plurality of planes. .

도 20은 일 실시예에 따른 라이다 포인트들의 좌표 변환에 관한 도면이다.20 is a diagram illustrating coordinate transformation of lidar points according to an embodiment.

일 실시예에 따르면, 모델링 방법은 제1 타겟 라이다 포인트들 각각에 대해, 복수의 평면들 중 각 제1 타겟 라이다 포인트와 대응하는 평면을 결정함(S2310)을 포함할 수 있다. 예를 들어, 모델링 장치는 제1 타겟 라이다 포인트들 각각에 대해, 복수의 평면들 중 각 제1 타겟 라이다 포인트와 대응하는 평면을 결정할 수 있다. 여기서, 상기 복수의 평면들은 단계 S2200에서 제2 타겟 라이다 포인트들을 이용하여 생성된 것일 수 있다. 이하에서는 상기 각 제1 타겟 라이다 포인트를 쿼리 포인트라 한다. 이에 따라, 모델링 장치는 제1 타겟 라이다 포인트들 중 하나를 쿼리 포인트로 하여 이에 대응하는 평면을 결정하고, 상기 제1 타겟 라이다 포인트들 중 다른 하나를 쿼리 포인트로 하여 다시 이에 대응하는 평면을 결정하고, 이를 상기 제1 타겟 라이다 포인트들 전체에 대해 반복 수행하여 상기 제1 타겟 라이다 포인트들 각각에 대해 이에 대응하는 평면을 결정할 수 있다.According to an embodiment, the modeling method may include determining a plane corresponding to each first target lidar point from among a plurality of planes for each of the first target lidar points ( S2310 ). For example, the modeling apparatus may determine, for each of the first target LiDAR points, a plane corresponding to each of the first target LiDAR points from among a plurality of planes. Here, the plurality of planes may be generated using the second target LiDAR points in step S2200. Hereinafter, each of the first target LiDAR points is referred to as a query point. Accordingly, the modeling apparatus uses one of the first target LiDAR points as a query point to determine a plane corresponding thereto, and uses the other one of the first target LiDAR points as a query point to select a plane corresponding thereto again. determined, and repeating this for all of the first target LiDAR points to determine a corresponding plane for each of the first target LiDAR points.

모델링 장치는 쿼리 포인트 및 복수의 평면들 사이의 거리에 기초하여 상기 쿼리 포인트에 대응하는 평면을 결정할 수 있다. 예를 들어, 모델링 장치는 복수의 평면들 중 쿼리 포인트와의 거리가 최소가 되는 평면을 상기 쿼리 포인트에 대응하는 평면으로 결정할 수 있다.The modeling apparatus may determine a plane corresponding to the query point based on a distance between the query point and the plurality of planes. For example, the modeling apparatus may determine, among the plurality of planes, a plane having a minimum distance to the query point as a plane corresponding to the query point.

모델링 장치는 제2 타겟 라이다 포인트들 중 쿼리 포인트에 대응하는 특정 포인트를 결정하고, 상기 특정 포인트와 관련된 평면들 중 상기 쿼리 포인트에 대응하는 평면을 결정할 수 있다. 예를 들어, 모델링 장치는 제2 타겟 라이다 포인트들 중 쿼리 포인트와의 거리가 최소인 특정 포인트를 결정하고, 상기 특정 포인트와 관련된 평면들 중 상기 쿼리 포인트와의 거리가 최소가 되는 평면을 상기 쿼리 포인트에 대응하는 평면으로 결정할 수 있다.The modeling apparatus may determine a specific point corresponding to the query point among the second target LIDAR points, and determine a plane corresponding to the query point from among planes related to the specific point. For example, the modeling apparatus determines a specific point having a minimum distance to a query point from among the second target LiDAR points, and selects a plane having a minimum distance to the query point from among planes related to the specific point. It can be determined as a plane corresponding to the query point.

일 실시예에 따르면, 모델링 방법은 제1 타겟 라이다 포인트들 및 이에 대응하는 평면들에 기초하여 변환 정보를 산출함(S2320)을 포함할 수 있다. 예를 들어, 모델링 장치는 제1 타겟 라이다 포인트들 및 이에 대응하는 평면들에 기초하여 변환 정보를 산출할 수 있다. 상기 변환 정보는 타겟 객체의 움직임을 반영할 수 있다. 예를 들어, 상기 변환 정보는 제1 시점 및 제2 시점 사이의 타겟 객체의 움직임을 반영할 수 있다. 상기 변환 정보는 3차원 좌표에 적용될 수 있다. 예를 들어, 모델링 장치는 라이다 포인트의 제1 시점에 대응하는 3차원 좌표에 상기 변환 정보를 적용하여 상기 라이다 포인트의 제2 시점에 대응하는 3차원 좌표를 산출할 수 있다.According to an embodiment, the modeling method may include calculating transformation information based on the first target LiDAR points and corresponding planes ( S2320 ). For example, the modeling apparatus may calculate transformation information based on the first target LIDAR points and corresponding planes. The transformation information may reflect the movement of the target object. For example, the transformation information may reflect the movement of the target object between the first viewpoint and the second viewpoint. The transformation information may be applied to 3D coordinates. For example, the modeling apparatus may calculate 3D coordinates corresponding to the second viewpoint of the LiDAR point by applying the transformation information to the 3D coordinates corresponding to the first viewpoint of the LIDAR point.

모델링 장치는 제1 타겟 라이다 포인트들 및 이에 대응하는 평면들 사이의 거리에 기초하여 변환 정보를 산출할 수 있다. 예를 들어, 모델링 장치는 제1 타겟 라이다 포인트들 및 이에 대응하는 평면들 사이의 거리가 최소가 되도록 변환 정보를 산출할 수 있다. 모델링 장치는 제1 타겟 라이다 포인트들 중 하나 및 이에 대응하는 평면 사이의 거리를 산출하고, 상기 제1 타겟 라이다 포인트들 중 다른 하나 및 이에 대응하는 평면 사이의 거리를 산출하고, 이를 상기 제1 타겟 라이다 포인트들 전체에 대해 반복 수행하여 상기 제1 타겟 라이다 포인트들 각각에 대해 이에 대응하는 평면 사이의 거리를 산출하고, 이에 기초하여 변환 정보를 산출할 수 있다.The modeling apparatus may calculate transformation information based on a distance between the first target LIDAR points and corresponding planes. For example, the modeling apparatus may calculate transformation information such that a distance between the first target LiDAR points and corresponding planes is minimized. The modeling apparatus calculates a distance between one of the first target LiDAR points and a corresponding plane, calculates a distance between the other one of the first target LiDAR points and a corresponding plane, and calculates the distance between the first target LiDAR points and a corresponding plane. A distance between planes corresponding to each of the first target LiDAR points may be calculated by repeatedly performing all one target LiDAR points, and conversion information may be calculated based on the distance between the corresponding planes.

변환 정보는 평행 이동 정보 및 회전 정보 중 적어도 하나를 포함할 수 있다. 하기 식 7은 평행 이동 정보의 일 예인 평행 이동 행렬을 나타내고, 하기 식 8은 회전 정보의 일 예인 회전 행렬로, 회전 각도가 작은 경우를 가정하여 근사한 경우를 나타낸다.The transformation information may include at least one of translation information and rotation information. Equation 7 below represents a translation matrix, which is an example of translation information, and Equation 8 below is a rotation matrix, which is an example of rotation information, which approximates a case with a small rotation angle.

[식 7][Equation 7]

Figure 112021063482707-pat00007
Figure 112021063482707-pat00007

여기서, t1, t2 및 t3는 각각 x축, y축 및 z축 방향으로의 평행 이동이다.Here, t 1 , t 2 , and t 3 are parallel movements in the x-axis, y-axis, and z-axis directions, respectively.

[식 8][Equation 8]

Figure 112021063482707-pat00008
Figure 112021063482707-pat00008

여기서, α, β 및 γ는 각각 x축, y축 및 z축에 대한 회전 각도이다.Here, α, β and γ are rotation angles about the x-axis, y-axis, and z-axis, respectively.

일 실시예에 따르면, 모델링 방법은 변환 정보를 제1 타겟 라이다 포인트들의 좌표에 적용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환함(S2330)을 포함할 수 있다. 예를 들어, 모델링 장치는 변환 정보를 제1 타겟 라이다 포인트들의 좌표에 적용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환할 수 있다.According to an embodiment, the modeling method may include transforming the coordinates of the first target lidar points by applying the transformation information to the coordinates of the first target lidar points ( S2330 ). For example, the modeling apparatus may transform the coordinates of the first target lidar points by applying the transformation information to the coordinates of the first target lidar points.

일 실시예에 따르면, 모델링 방법은 변환된 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들을 비교함(S2340)을 포함할 수 있다. 예를 들어, 모델링 장치는 변환된 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들을 비교할 수 있다. 변환된 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들을 비교한다는 것은 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들 사이의 거리를 미리 정해진 값과 비교하는 것일 수 있다. 보다 구체적으로, 변환된 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들을 비교한다는 것은 상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들의 3차원 좌표계(예: 라이다 좌표계) 상에서의 거리를 미리 정해진 값과 비교하는 것일 수 있다.According to an embodiment, the modeling method may include comparing the converted first target LIDAR points and the second target LIDAR points ( S2340 ). For example, the modeling apparatus may compare the converted first target LIDAR points and the second target LIDAR points. Comparing the transformed first target lidar points and the second target lidar points is comparing a distance between the transformed first target lidar points and the second target lidar points with a predetermined value. can More specifically, comparing the transformed first target lidar points and the second target lidar points means that the transformed first target lidar points and the second target lidar points have a three-dimensional coordinate system (eg, la It may be comparing the distance on the coordinate system with a predetermined value.

상기 비교한 결과가 미리 정해진 조건을 만족할 때까지 모델링 장치는 단계 S2310 내지 S2340을 반복 수행할 수 있다. 상기 비교한 결과가 미리 정해진 조건을 만족한다는 것은 변환된 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들 사이의 거리가 미리 정해진 값 이하인 것을 의미할 수 있다. 보다 구체적으로, 상기 비교한 결과가 미리 정해진 조건을 만족한다는 것은 변환된 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들의 3차원 좌표계(예: 라이다 좌표계) 상에서의 거리가 미리 정해진 값 이하인 것을 의미할 수 있다. 모델링 장치는 단계 S2310 내지 S2340을 반복 수행함에 따라 변환 정보를 반복하여 산출(변환 정보를 갱신하는 것으로 볼 수도 있을 것이다.)하고, 제1 타겟 라이다 포인트들의 좌표를 반복하여 변환(제1 타겟 라이다 포인트들의 좌표를 갱신하는 것으로 볼 수도 있을 것이다.)할 수 있다.The modeling apparatus may repeatedly perform steps S2310 to S2340 until the comparison result satisfies a predetermined condition. That the comparison result satisfies the predetermined condition may mean that the distance between the converted first target lidar points and the second target lidar points is less than or equal to a predetermined value. More specifically, that the comparison result satisfies the predetermined condition means that the distances in the three-dimensional coordinate system (eg, the lidar coordinate system) of the transformed first target lidar points and the second target lidar points are predetermined values. It may mean the following. As the modeling apparatus repeatedly performs steps S2310 to S2340, it repeatedly calculates the transformation information (it may be seen as updating the transformation information), and repeats the coordinates of the first target LiDAR points and transforms them (the first target LA). It can also be seen as updating the coordinates of the points.)

일 실시예에 따르면, 모델링 방법은 변환된 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들을 이용하여 타겟 객체를 모델링함(S2400)을 포함할 수 있다. 예를 들어, 모델링 장치는 변환된 제1 타겟 라이다 포인트들 및 제2 타겟 라이다 포인트들을 이용하여 타겟 객체를 모델링할 수 있다. 상기 타겟 객체의 모델링에 대해서는 목차 1. 이미지 프레임에 기초하여 산출된 변환 정보를 이용한 모델링 방법에서 설명한 내용이 적용될 수 있으므로 중복되는 설명은 생략한다.According to an embodiment, the modeling method may include modeling the target object using the converted first target LIDAR points and the second target LIDAR points ( S2400 ). For example, the modeling apparatus may model the target object using the converted first target LIDAR points and the second target LIDAR points. For the modeling of the target object, since the contents described in Table of Contents 1. A modeling method using transformation information calculated based on an image frame may be applied, a redundant description will be omitted.

도 21은 라이다 포인트에 기초하여 산출된 변환 정보를 이용한 모델링 방법에 관한 알고리즘의 예시에 관한 도면으로, (a)는 전체 알고리즘에 관한 것이고, (b)는 (a)의 전체 알고리즘 중 쿼리 포인트에 대응하는 평면을 결정하는 세부 알고리즘에 관한 것이다. 여기서, 도 21의 (a)의 알고리즘은 Switchable Plane ICP(SP-ICP)로 명명되었다. 도 21의 (a)에서, P 및 Q는 각각 타겟 포인트들 및 쿼리 포인트들이고, xP, rP 및 sP는 각각 타겟 포인트의 좌표, 타겟 포인트에 대응하는 링, 타겟 포인트에 대응하는 시퀀스이고, xQ는 쿼리 포인트의 좌표이다. R 및 t는 각각 회전 행렬 및 평행 이동 행렬이다. SP-ICP는 특정 타겟 포인트에 대해 이와 관련된 복수의 평면들을 생성하고(라인 3), 특정 쿼리 포인트에 대해 상기 복수의 평면들 중 이에 대응하는 평면을 결정하는데(라인 8, 9), 이때 특정 쿼리 포인트에 대응하는 평면을 매 iteration 과정에서 결정하는 것을 포함하는 알고리즘이다.21 is a diagram of an example of an algorithm related to a modeling method using transformation information calculated based on a LiDAR point. (a) relates to the entire algorithm, (b) is a query point among the entire algorithm of (a). It relates to a detailed algorithm for determining the plane corresponding to . Here, the algorithm of Figure 21 (a) was named Switchable Plane ICP (SP-ICP). In Figure 21 (a), P and Q are target points and query points, respectively, xP, rP and sP are the coordinates of the target point, the ring corresponding to the target point, the sequence corresponding to the target point, respectively, xQ is Coordinates of the query point. R and t are rotation and translation matrices, respectively. SP-ICP generates a plurality of planes associated therewith for a specific target point (line 3), and determines a corresponding plane among the plurality of planes for a specific query point (lines 8, 9), wherein the specific query point It is an algorithm that includes determining the plane corresponding to the point in every iteration process.

도 22는 모델링 방법의 일 실시예인 SP-ICP의 정확도에 관한 표로, KITTI 벤치마크 테스트 결과이다.22 is a table regarding the accuracy of SP-ICP, which is an embodiment of a modeling method, and is a KITTI benchmark test result.

도 22에 대해 보다 자세히 설명하면, 비교를 위해 G-ICP, NDT 및 point-to-plane ICP에 대해서도 함께 테스트하였고, KITTI 벤치마크의 모든 시퀀스 00-10에 대해 테스트를 진행하였다. 오도메트리(odometry) 측정은 3D 라이다 데이터만을 이용하였고, 초기 자세는 이전 매칭 결과를 이용하였다. 입력 데이터 및 초기 자세는 각 알고리즘에서 가져왔다. 모든 알고리즘에서 동일하게 타겟 포인트들에 대해서는 원본 클라우드, 소스 포인트들에 대해서는 20cm 복셀화된 클라우드가 이용되었다. G-ICP, NDT 및 point-to-plane ICP에 대해서는 PCL 라이브러리의 기본 파라미터가 사용되었다. Point-to-plane ICP에서의 각 포인트에 대한 법선 벡터는 상기 각 포인트를 기준으로 20cm 반경 내의 인접한 포인트들로 추정되었다. Sparse한 상황에 대해 테스트하기 위해서는 KITTI 벤치마크 데이터는 너무 dense하기 때문에, extra normal이 추가된 SP-ICP에 대해서 테스트하였고, 공정한 비교를 위해 point-to-plane ICP에서도 extra normal이 추가되었다. Extra normal이 추가되지 않은 SP-ICP에 대해서도 함께 테스트하였다.22, for comparison, G-ICP, NDT, and point-to-plane ICP were also tested together, and all sequences 00-10 of the KITTI benchmark were tested. Only 3D LiDAR data was used for odometry measurement, and the previous matching results were used for initial posture. Input data and initial posture were taken from each algorithm. In all algorithms, the original cloud for the target points and the 20 cm voxelized cloud were used for the source points. For G-ICP, NDT and point-to-plane ICP, the default parameters of the PCL library were used. The normal vector for each point in the point-to-plane ICP was estimated as adjacent points within a radius of 20 cm based on each point. In order to test the sparse situation, since the KITTI benchmark data is too dense, we tested SP-ICP with extra normal added, and extra normal was added for point-to-plane ICP for fair comparison. SP-ICP without extra normal was also tested.

도 22는 각 알고리즘에 대해 평행 이동 에러 및 회전 에러를 나타낸다. Point-to-plane ICP의 평행 이동 에러는 3.93%, 회전 에러는 0.0344 deg/m이었고, NDT의 평행 이동 에러는 2.01%, 회전 에러는 0.0164 deg/m이었고, G-ICP의 평행 이동 에러는 1.83%, 회전 에러는 0.0133 deg/m이었다. 반면, SP-ICP의 평행 이동 에러는 1.28%, 회전 에러는 0.0087 deg/m이었고, extra normal이 추가된 SP-ICP의 평행 이동 에러는 1.17%, 회전 에러는 0.0082 deg/m이었다. 이를 통해, SP-ICP 계열을 이용하는 경우 다른 알고리즘에 비해 정확도가 향상됨을 확인할 수 있었다.22 shows the translation and rotation errors for each algorithm. The translation error of the point-to-plane ICP was 3.93% and the rotation error was 0.0344 deg/m, the translation error of the NDT was 2.01% and the rotation error was 0.0164 deg/m, and the translation error of the G-ICP was 1.83 %, the rotation error was 0.0133 deg/m. On the other hand, the translation error of the SP-ICP was 1.28% and the rotation error was 0.0087 deg/m, and the translation error of the SP-ICP with extra normal added was 1.17% and the rotation error was 0.0082 deg/m. Through this, it was confirmed that when using the SP-ICP series, the accuracy was improved compared to other algorithms.

도 23 및 도 24는 모델링 방법의 일 실시예인 SP-ICP를 이용한 모델링 결과의 시각화에 관한 도면으로, 항만에서 선박 등을 감지하는 상황에 대한 테스트 결과이다. 도 23은 3차원 시점, 도 24는 2차원으로 투영된 시점을 나타내고, 도 23 및 도 24 각각에서 (a)는 SP-ICP 결과, (b)는 G-ICP 결과, (c)는 NDT 결과이고, 왼쪽 그림은 1번 데이터셋, 가운데 그림은 2번 데이터셋, 오른쪽 그림은 3번 데이터셋에 대한 결과이다.23 and 24 are diagrams for visualization of a modeling result using SP-ICP, which is an embodiment of a modeling method, and are test results for a situation in which a vessel is detected in a port. 23 is a three-dimensional view, FIG. 24 is a two-dimensional projected view, in each of FIGS. 23 and 24 (a) is SP-ICP result, (b) is G-ICP result, (c) is NDT result , the left figure shows the results for dataset 1, the middle figure shows the results for dataset 2, and the figure on the right shows the results for dataset 3.

도 23 및 도 24에 대해 보다 자세히 설명하면, 비교를 위해 G-ICP 및 NDT에 대해서도 함께 테스트하였고, KITTI 벤치마크 데이터보다 라이다 포인트 클라우드의 점밀도가 희박한 상황의 일 예로, 항만에서 선박 등을 감지하는 상황에 대해 테스트하였다. 라이다와 선박 사이의 거리는 대략 30m 내지 150m로, 도로에서 차량 등을 감지하는 상황과 비교할 때 라이다와 객체 사이의 거리가 멀어지므로 라이다 포인트 클라우드의 점밀도가 희박한 상황에 대해 테스트하기 적합하다. 테스트는 16채널 라이다(RS-LiDAR-16)와 두 대의 카메라를 이용하여 진행되었다. 거리에 따라 3개(약 100m)에서 8개(약 40m) 정도의 링이 객체에 도달할 수 있었고, 링 사이의 간격은 거리에 따라 2m 내지 4m 정도, 동일한 링 내에서의 인접한 라이다 포인트 사이의 간격은 대략 15cm 내지 30cm 정도였다. 감지된 객체인 선박의 대략적인 크기는 길이가 120m 내지 200m, 폭이 30m 정도였다. 1번의 스캔을 통해 거리에 따라 500개 내지 5000개 정도의 라이다 포인트를 획득할 수 있었다.23 and 24, for comparison, G-ICP and NDT were also tested together, and as an example of a situation in which the point density of the lidar point cloud is thinner than the KITTI benchmark data, a ship in a port, etc. The detection conditions were tested. The distance between the lidar and the ship is approximately 30m to 150m, which is suitable for testing the situation where the point density of the lidar point cloud is sparse because the distance between the lidar and the object increases compared to the situation of detecting a vehicle on the road. . The test was conducted using a 16-channel lidar (RS-LiDAR-16) and two cameras. Depending on the distance, 3 (approximately 100m) to 8 (approximately 40m) rings could reach the object, and the spacing between the rings was 2m to 4m depending on the distance, and between adjacent lidar points within the same ring. The spacing between the two was about 15 cm to 30 cm. The approximate size of the detected object, the vessel, was about 120m to 200m in length and 30m in width. In one scan, it was possible to acquire about 500 to 5000 LiDAR points depending on the distance.

선박의 접안 상황을 나타내는 3개의 데이터셋에 대해 테스트를 진행하였고, 실측 자료(ground truth)를 마련할 수 없어 시각화된 결과를 가지고 정확도를 비교하였다. 100개의 프레임의 라이다 데이터를 누적하였고, 라이다 포인트의 적색-녹색-청색 그라데이션은 시간적으로 가장 이른 라이다 포인트(적색)부터 가장 늦은 라이다 포인트(청색)를 의미한다. 선박이 선명하게 보일수록 알고리즘의 정확도가 높은 것으로 간주할 수 있다. G-ICP 및 NDT를 이용한 경우 모든 데이터셋에 대해 선박이 지저분하거나 왜곡되어 모델링된 반면, SP-ICP를 이용한 경우에는 G-ICP 및 NDT보다 선박이 선명하고 명확하게 모델링됨을 확인할 수 있었다.The test was conducted on three datasets representing the berthing situation of the vessel, and the accuracy was compared with the visualized results because the ground truth could not be prepared. 100 frames of LiDAR data were accumulated, and the red-green-blue gradation of LiDAR points means the earliest LiDAR point (red) to the latest LiDAR point (blue) in time. The clearer the vessel can be seen, the higher the accuracy of the algorithm can be considered. When G-ICP and NDT were used, the vessel was modeled dirty or distorted for all datasets, whereas when SP-ICP was used, it was confirmed that the vessel was modeled more clearly and clearly than G-ICP and NDT.

도 25는 도 23 및 도 24의 테스트 결과의 정확도를 보다 수치적으로 표현한 것으로, 2차원으로 투영된 데이터에서의 복셀화된 라이다 포인트들의 개수를 나타낸다. 일반적으로, 복셀화된 라이다 포인트들의 개수가 적을수록 객체가 더 선명하고 명확하게 모델링된 것을 의미한다. 도 25를 참고하면, 1번 데이터셋, 2번 데이터셋 및 3번 데이터셋 모두에 대해 SP-ICP의 복셀화된 라이다 포인트들의 개수가 적은 것으로 나타났고, 따라서 G-ICP 및 NDT에 비해 SP-ICP가 객체를 보다 정확하게 모델링한 것으로 볼 수 있다.25 is a more numerical expression of the accuracy of the test results of FIGS. 23 and 24 and shows the number of voxelized LiDAR points in two-dimensionally projected data. In general, the smaller the number of voxelized LiDAR points, the clearer and more clearly the object is modeled. Referring to FIG. 25 , it was found that the number of voxelized LiDAR points of SP-ICP was small for all datasets 1, 2, and 3, and thus SP compared to G-ICP and NDT. -It can be seen that the ICP modeled the object more accurately.

실시예에 따른 방법은 다양한 컴퓨팅 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computing means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

상기에서는 실시예를 기준으로 본 출원을 설명하였으나 본 출원은 이에 한정되지 않으며, 본 출원의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 출원이 속하는 기술 분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.Although the present application has been described with reference to the examples above, the present application is not limited thereto, and it is apparent to those skilled in the art that various changes or modifications can be made within the spirit and scope of the present application, and thus It is pointed out that such changes or modifications fall within the scope of the appended claims.

100: 센서 장치
200: 모델링 장치
210: 통신부
220: 저장부
230: 제어부
300: 출력 장치
400: 서버
500: 사용자 단말
100: sensor device
200: modeling device
210: communication unit
220: storage
230: control unit
300: output device
400: server
500: user terminal

Claims (19)

하나 이상의 프로세서에 의해 수행되는 타겟 객체를 모델링하는 모델링 방법에 있어서,
제1 시점에 대응하는 제1 타겟 라이다 포인트들을 획득하는 단계;
상기 제1 시점과 상이한 제2 시점에 대응하는 제2 타겟 라이다 포인트들을 획득하는 단계;
상기 제2 타겟 라이다 포인트들 각각마다, 상기 각각의 제2 타겟 라이다 포인트 및 이와 인접한 상기 제2 타겟 라이다 포인트들을 이용하여 상기 각각의 제2 타겟 라이다 포인트와 관련된 복수의 평면들을 생성하는 단계;
상기 제1 타겟 라이다 포인트들, 상기 제2 타겟 라이다 포인트들 및 상기 복수의 평면들에 기초하여 산출된 변환 정보를 이용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하는 단계 -상기 변환 정보는 상기 타겟 객체의 상기 제1 시점과 상기 제2 시점 사이의 움직임을 반영하고, 상기 변환 정보에 의해 상기 제1 타겟 라이다 포인트들의 상기 제1 시점에서의 좌표가 상기 제2 시점에서의 좌표로 변환됨- ; 및
상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링하는 단계를 포함하고,
상기 좌표를 변환하는 단계는,
상기 제1 타겟 라이다 포인트들 각각마다, 상기 복수의 평면들 중 상기 각각의 제1 타겟 라이다 포인트와의 거리가 최소가 되는 대응 평면을 결정하는 단계;
상기 제1 타겟 라이다 포인트들 및 상기 대응 평면에 기초하여 상기 변환 정보를 산출하는 단계; 및
상기 변환 정보를 상기 제1 타겟 라이다 포인트들의 좌표에 적용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하는 단계를 미리 정해진 조건을 만족할 때까지 반복 수행하는 단계를 포함하는
모델링 방법.
In the modeling method of modeling a target object performed by one or more processors,
acquiring first target lidar points corresponding to a first viewpoint;
acquiring second target lidar points corresponding to a second viewpoint different from the first viewpoint;
For each of the second target LiDAR points, generating a plurality of planes related to each of the second target LiDAR points by using the respective second target LiDAR points and the second target LiDAR points adjacent thereto step;
Transforming the coordinates of the first target lidar points using transformation information calculated based on the first target lidar points, the second target lidar points, and the plurality of planes - the transformation information reflects the movement between the first viewpoint and the second viewpoint of the target object, and the coordinates at the first viewpoint of the first target lidar points are converted to the coordinates at the second viewpoint by the transformation information. Converted- ; and
Modeling the target object using the converted first target lidar points and the second target lidar points,
The step of transforming the coordinates is
determining, for each of the first target lidar points, a corresponding plane of the plurality of planes having a minimum distance to each of the first target lidar points;
calculating the transformation information based on the first target lidar points and the corresponding plane; and
and repeating the transforming of the coordinates of the first target lidar points by applying the transformation information to the coordinates of the first target lidar points until a predetermined condition is satisfied.
modeling method.
제1 항에 있어서,
상기 제2 타겟 라이다 포인트들은 제1 타겟 포인트 및 제2 타겟 포인트를 포함하고,
상기 복수의 평면들은,
상기 제1 타겟 포인트 및 이와 인접한 상기 제2 타겟 라이다 포인트들을 이용하여 생성되고 상기 제1 타겟 포인트와 관련된 복수의 제1 평면들 및
상기 제2 타겟 포인트 및 이와 인접한 상기 제2 타겟 라이다 포인트들을 이용하여 생성되고 상기 제2 타겟 포인트와 관련된 복수의 제2 평면들을 포함하는
모델링 방법.
The method of claim 1,
The second target lidar points include a first target point and a second target point,
The plurality of planes are
a plurality of first planes generated using the first target point and the second target LiDAR points adjacent thereto and related to the first target point; and
The second target point and the second target LiDAR points adjacent thereto are generated using the second target point and include a plurality of second planes related to the second target point.
modeling method.
제2 항에 있어서,
상기 복수의 평면들을 생성하는 단계는,
상기 복수의 제1 평면들 사이의 유사도를 고려하여 상기 복수의 제1 평면들 중 적어도 일부를 하나의 평면으로 병합하는 단계를 포함하는
모델링 방법.
3. The method of claim 2,
Creating the plurality of planes comprises:
merging at least some of the plurality of first planes into one plane in consideration of the similarity between the plurality of first planes
modeling method.
제2 항에 있어서,
상기 대응 평면을 결정하는 단계는,
상기 제1 타겟 라이다 포인트들 각각에 대해, 상기 제2 타겟 라이다 포인트들 중 상기 각각의 제1 타겟 라이다 포인트와의 거리가 최소가 되는 대응 포인트를 결정하는 단계; 및
상기 대응 포인트와 관련된 하나 이상의 평면들 중 상기 각각의 제1 타겟 라이다 포인트와의 거리가 최소가 되는 상기 대응 평면을 결정하는 단계를 포함하는
모델링 방법.
3. The method of claim 2,
The step of determining the corresponding plane comprises:
determining, for each of the first target LiDAR points, a corresponding point, among the second target LiDAR points, having a minimum distance to each of the first target LiDAR points; and
determining the corresponding plane from among one or more planes related to the corresponding point having a minimum distance to each of the first target LiDAR points;
modeling method.
제1 항에 있어서,
상기 제1 타겟 라이다 포인트들을 획득하는 단계는,
상기 제1 시점에 대응하는 제1 이미지 프레임을 획득하는 단계;
상기 제1 시점에 대응하는 제1 라이다 포인트 클라우드를 획득하는 단계;
상기 제1 이미지 프레임 내에서의 상기 타겟 객체와 관련된 제1 타겟 영역을 반영하는 제1 객체 종류 정보를 생성하는 단계; 및
상기 제1 객체 종류 정보를 이용하여, 상기 제1 라이다 포인트 클라우드 중 상기 제1 타겟 영역에 대응하는 하나 이상의 라이다 포인트들을 상기 제1 타겟 라이다 포인트들로 결정하는 단계를 포함하는
모델링 방법.
The method of claim 1,
Acquiring the first target LiDAR points includes:
obtaining a first image frame corresponding to the first viewpoint;
obtaining a first lidar point cloud corresponding to the first time point;
generating first object type information reflecting a first target area related to the target object in the first image frame; and
determining one or more lidar points corresponding to the first target area among the first lidar point clouds as the first target lidar points by using the first object type information
modeling method.
제1 항에 있어서,
상기 제1 시점 및 상기 제2 시점은 미리 정해진 시간 구간에 포함되는 것을 특징으로 하는
모델링 방법.
The method of claim 1,
The first time point and the second time point are characterized in that included in a predetermined time interval
modeling method.
컴퓨터에 제1 항 내지 제6 항 중 어느 하나의 항에 따른 방법을 실행시키기 위한 컴퓨터 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium in which a computer program for executing the method according to any one of claims 1 to 6 is recorded on a computer.
타겟 객체를 모델링하는 모델링 시스템에 있어서,
제1 시점에 대응하는 제1 라이다 포인트 클라우드 및 상기 제1 시점과 상이한 제2 시점에 대응하는 제2 라이다 포인트 클라우드를 생성하는 라이다 모듈; 및
상기 제1 라이다 포인트 클라우드 및 상기 제2 라이다 포인트 클라우드를 이용하여 상기 타겟 객체를 모델링하는 모델링 장치를 포함하고,
상기 모델링 장치는,
상기 라이다 모듈로부터 상기 제1 라이다 포인트 클라우드 및 상기 제2 라이다 포인트 클라우드를 획득하고,
상기 제1 라이다 포인트 클라우드로부터 상기 타겟 객체와 관련된 제1 타겟 라이다 포인트들을 획득하고,
상기 제2 라이다 포인트 클라우드로부터 상기 타겟 객체와 관련된 제2 타겟 라이다 포인트들을 획득하고,
상기 제2 타겟 라이다 포인트들 각각마다, 상기 각각의 제2 타겟 라이다 포인트 및 이와 인접한 상기 제2 타겟 라이다 포인트들을 이용하여 상기 각각의 제2 타겟 라이다 포인트와 관련된 복수의 평면들을 생성하고,
상기 제1 타겟 라이다 포인트들, 상기 제2 타겟 라이다 포인트들 및 상기 복수의 평면들에 기초하여 산출된 변환 정보를 이용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하고 -상기 변환 정보는 상기 타겟 객체의 상기 제1 시점과 상기 제2 시점 사이의 움직임을 반영하고, 상기 변환 정보에 의해 상기 제1 타겟 라이다 포인트들의 상기 제1 시점에서의 좌표가 상기 제2 시점에서의 좌표로 변환됨- ,
상기 변환된 제1 타겟 라이다 포인트들 및 상기 제2 타겟 라이다 포인트들을 이용하여 상기 타겟 객체를 모델링하고,
상기 좌표를 변환하는 것은,
상기 제1 타겟 라이다 포인트들 각각마다, 상기 복수의 평면들 중 상기 각각의 제1 타겟 라이다 포인트와의 거리가 최소가 되는 대응 평면을 결정하고,
상기 제1 타겟 라이다 포인트들 및 상기 대응 평면에 기초하여 상기 변환 정보를 산출하고,
상기 변환 정보를 상기 제1 타겟 라이다 포인트들의 좌표에 적용하여 상기 제1 타겟 라이다 포인트들의 좌표를 변환하는 것을 미리 정해진 조건을 만족할 때까지 반복 수행하는
모델링 시스템.
In the modeling system for modeling a target object,
a lidar module that generates a first lidar point cloud corresponding to a first viewpoint and a second lidar point cloud corresponding to a second viewpoint different from the first viewpoint; and
a modeling device for modeling the target object using the first lidar point cloud and the second lidar point cloud;
The modeling device is
obtaining the first lidar point cloud and the second lidar point cloud from the lidar module;
obtaining first target lidar points related to the target object from the first lidar point cloud;
obtaining second target lidar points related to the target object from the second lidar point cloud;
For each of the second target LiDAR points, generating a plurality of planes associated with each of the second target LiDAR points using the respective second target LiDAR points and the second target LiDAR points adjacent thereto; ,
Transform the coordinates of the first target lidar points using transformation information calculated based on the first target lidar points, the second target lidar points, and the plurality of planes, and the transformation information is It reflects the movement between the first and second viewpoints of the target object, and the coordinates of the first target LiDAR points at the first viewpoint are converted into coordinates at the second viewpoint by the transformation information. become- ,
modeling the target object using the converted first target lidar points and the second target lidar points;
To transform the coordinates,
For each of the first target LiDAR points, determine a corresponding plane of the plurality of planes having a minimum distance to each of the first target LiDAR points;
calculating the transformation information based on the first target lidar points and the corresponding plane;
Repeatedly performing transformation of the coordinates of the first target lidar points by applying the transformation information to the coordinates of the first target lidar points until a predetermined condition is satisfied
modeling system.
제8 항에 있어서,
상기 제1 시점에 대응하는 제1 이미지 프레임을 생성하는 카메라 모듈을 더 포함하고,
상기 모델링 장치는,
상기 카메라 모듈로부터 상기 제1 이미지 프레임을 획득하고,
상기 제1 라이다 포인트 클라우드로부터 상기 타겟 객체와 관련된 제1 타겟 라이다 포인트들을 획득함에 있어, 상기 제1 이미지 프레임 내에서의 상기 타겟 객체와 관련된 제1 타겟 영역을 반영하는 제1 객체 종류 정보를 생성하고, 상기 제1 객체 종류 정보를 이용하여, 상기 제1 라이다 포인트 클라우드 중 상기 제1 타겟 영역에 대응하는 하나 이상의 라이다 포인트들을 상기 제1 타겟 라이다 포인트들로 결정하는
모델링 시스템.
9. The method of claim 8,
Further comprising a camera module that generates a first image frame corresponding to the first viewpoint,
The modeling device is
obtaining the first image frame from the camera module;
In obtaining the first target LIDAR points related to the target object from the first LIDAR point cloud, first object type information reflecting the first target area related to the target object in the first image frame is obtained. and determining one or more lidar points corresponding to the first target area among the first lidar point clouds as the first target lidar points by using the first object type information.
modeling system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020210071134A 2021-06-01 2021-06-01 Modeling method, modeling device and modeling system for modeling target object KR102451797B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210071134A KR102451797B1 (en) 2021-06-01 2021-06-01 Modeling method, modeling device and modeling system for modeling target object
PCT/KR2022/007743 WO2022255777A1 (en) 2021-06-01 2022-05-31 Modeling method, modeling device, and modeling system for modeling target object
KR1020220125834A KR102613257B1 (en) 2021-06-01 2022-09-30 Modeling method, modeling device and modeling system for modeling target object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210071134A KR102451797B1 (en) 2021-06-01 2021-06-01 Modeling method, modeling device and modeling system for modeling target object

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220125834A Division KR102613257B1 (en) 2021-06-01 2022-09-30 Modeling method, modeling device and modeling system for modeling target object

Publications (1)

Publication Number Publication Date
KR102451797B1 true KR102451797B1 (en) 2022-10-12

Family

ID=83598242

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210071134A KR102451797B1 (en) 2021-06-01 2021-06-01 Modeling method, modeling device and modeling system for modeling target object
KR1020220125834A KR102613257B1 (en) 2021-06-01 2022-09-30 Modeling method, modeling device and modeling system for modeling target object

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220125834A KR102613257B1 (en) 2021-06-01 2022-09-30 Modeling method, modeling device and modeling system for modeling target object

Country Status (2)

Country Link
KR (2) KR102451797B1 (en)
WO (1) WO2022255777A1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130000374A (en) * 2009-12-28 2013-01-02 소프트키네틱 소프트웨어 Tracking method
KR101569654B1 (en) * 2015-06-12 2015-11-16 (주)선운 이앤지 Method for analysis and measurement of displacement of power transmission
KR20180026400A (en) * 2015-05-27 2018-03-12 임피리얼 컬리지 오브 사이언스 테크놀로지 앤드 메디신 Three-dimensional space modeling
KR101993920B1 (en) * 2013-08-30 2019-06-27 퀄컴 인코포레이티드 Method and apparatus for representing physical scene
WO2020050498A1 (en) * 2018-09-04 2020-03-12 씨드로닉스㈜ Method and device for sensing surrounding environment using image segmentation
KR20200039589A (en) * 2018-10-04 2020-04-16 씨드로닉스(주) Device and method for monitoring ship and port
JP2020514876A (en) * 2017-01-27 2020-05-21 ユーシーエル ビジネス リミテッド Apparatus, method and system for alignment of 3D data sets
KR20200070287A (en) * 2017-10-05 2020-06-17 어플리케이션스 모빌스 오버뷰 인코포레이티드 Object recognition method
KR102125958B1 (en) * 2017-12-29 2020-06-24 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method and apparatus for fusing point cloud data
KR20200144543A (en) * 2018-03-20 2020-12-29 피씨엠에스 홀딩스, 인크. System and method for optimizing dynamic point cloud based on first transformation
KR20210040217A (en) * 2019-10-02 2021-04-13 고려대학교 산학협력단 EXTRINSIC CALIBRATION METHOD OF PLURALITY OF 3D LiDAR SENSORS FOR AUTONOMOUS NAVIGATION SYSTEM

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130000374A (en) * 2009-12-28 2013-01-02 소프트키네틱 소프트웨어 Tracking method
KR101993920B1 (en) * 2013-08-30 2019-06-27 퀄컴 인코포레이티드 Method and apparatus for representing physical scene
KR20180026400A (en) * 2015-05-27 2018-03-12 임피리얼 컬리지 오브 사이언스 테크놀로지 앤드 메디신 Three-dimensional space modeling
KR101569654B1 (en) * 2015-06-12 2015-11-16 (주)선운 이앤지 Method for analysis and measurement of displacement of power transmission
JP2020514876A (en) * 2017-01-27 2020-05-21 ユーシーエル ビジネス リミテッド Apparatus, method and system for alignment of 3D data sets
KR20200070287A (en) * 2017-10-05 2020-06-17 어플리케이션스 모빌스 오버뷰 인코포레이티드 Object recognition method
KR102125958B1 (en) * 2017-12-29 2020-06-24 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method and apparatus for fusing point cloud data
KR20200144543A (en) * 2018-03-20 2020-12-29 피씨엠에스 홀딩스, 인크. System and method for optimizing dynamic point cloud based on first transformation
WO2020050498A1 (en) * 2018-09-04 2020-03-12 씨드로닉스㈜ Method and device for sensing surrounding environment using image segmentation
KR20200039589A (en) * 2018-10-04 2020-04-16 씨드로닉스(주) Device and method for monitoring ship and port
KR20210040217A (en) * 2019-10-02 2021-04-13 고려대학교 산학협력단 EXTRINSIC CALIBRATION METHOD OF PLURALITY OF 3D LiDAR SENSORS FOR AUTONOMOUS NAVIGATION SYSTEM

Also Published As

Publication number Publication date
KR102613257B1 (en) 2023-12-14
WO2022255777A1 (en) 2022-12-08
KR20220163306A (en) 2022-12-09

Similar Documents

Publication Publication Date Title
CN111024040B (en) Distance estimation method and device
CN110807350B (en) System and method for scan-matching oriented visual SLAM
US10013801B2 (en) Texturing a 3D modeled object
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
KR101708659B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
US9483703B2 (en) Online coupled camera pose estimation and dense reconstruction from video
US8254667B2 (en) Method, medium, and system implementing 3D model generation based on 2D photographic images
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
CN112384891B (en) Method and system for point cloud coloring
US9367920B2 (en) Method and apparatus for processing images
KR20210119417A (en) Depth estimation
KR102455632B1 (en) Mehtod and apparatus for stereo matching
US11209277B2 (en) Systems and methods for electronic mapping and localization within a facility
KR20190070514A (en) Apparatus for Building Grid Map and Method there of
US11488354B2 (en) Information processing apparatus and information processing method
US20220108544A1 (en) Object detection apparatus, system and method
Ozog et al. Mapping underwater ship hulls using a model-assisted bundle adjustment framework
KR102387679B1 (en) 3d vehicle localizing using geoarcs
Weinmann et al. Geometric point quality assessment for the automated, markerless and robust registration of unordered TLS point clouds
CN115661252A (en) Real-time pose estimation method and device, electronic equipment and storage medium
Namitha et al. Point cloud mapping measurements using kinect RGB-D sensor and kinect fusion for visual odometry
KR102547333B1 (en) Depth Image based Real-time ground detection method
KR102451797B1 (en) Modeling method, modeling device and modeling system for modeling target object
Günen et al. Comparison of point cloud filtering methods with data acquired by photogrammetric method and RGB-D sensors
Angladon et al. Room floor plan generation on a project tango device

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant