KR20240003016A - 건설 현장의 객체 제거 방법 및 장치 - Google Patents
건설 현장의 객체 제거 방법 및 장치 Download PDFInfo
- Publication number
- KR20240003016A KR20240003016A KR1020220079673A KR20220079673A KR20240003016A KR 20240003016 A KR20240003016 A KR 20240003016A KR 1020220079673 A KR1020220079673 A KR 1020220079673A KR 20220079673 A KR20220079673 A KR 20220079673A KR 20240003016 A KR20240003016 A KR 20240003016A
- Authority
- KR
- South Korea
- Prior art keywords
- coordinates
- construction site
- bounding box
- point cloud
- orthoimage
- Prior art date
Links
- 238000010276 construction Methods 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004891 communication Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
본 발명은 건설 현장의 객체 제거 방법에 관한 것이다. 건설 현장의 객체 제거 방법은, 드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드를 획득하는 단계, 정사영상을 객체를 추출하기 위한 사전 결정된 크기로 분할하여 복수의 세부 영상을 생성하는 단계, 생성된 복수의 세부 영상을 기초로 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하는 단계 및 추출된 바운딩 박스 좌표를 이용하여 3D 포인트 클라우드에서 적어도 하나의 객체를 제거하는 단계를 포함한다.
Description
본 발명은 건설 현장의 객체 제거 방법 및 장치에 관한 것으로, 구체적으로, 건설 현장의 노이즈를 제거하여 3차원 지형 정보를 생성하는 건설 현장의 객체 제거 방법 및 장치에 관한 것이다.
최근 건설 현장의 첨단화 추세에 따라 건설 현장을 디지털라이징(digitalizing) 하기 위한 다양한 기술들이 도입되고 있다. 예를 들어, 드론 스캐닝을 통해 건설 현장의 지형 정보를 취득하는 기술 등이 활용되고 있다.
그러나, 이러한 드론 스캐닝의 경우, 건설 현장에서 작업중인 건설 장비 등이 함께 스캐닝되어 정확한 건설 현장의 지형 정보를 취득하기 어려운 문제가 있다. 또한, 이러한 건설 장비 등의 노이즈를 제거하기 위해서는 사용자가 직접 객체를 제거하거나, 노이즈 완화 필터를 사용하여야 하는 불편한 문제가 있다.
본 발명은 상기와 같은 문제점을 해결하기 위한 건설 현장의 객체 제거 방법, 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램, 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 매체 및 장치(시스템)를 제공한다.
본 발명은 방법, 장치(시스템), 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 매체를 포함한 다양한 방식으로 구현될 수 있다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 건설 현장의 객체 제거 방법은, 드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드를 획득하는 단계, 정사영상을 객체를 추출하기 위한 사전 결정된 크기로 분할하여 복수의 세부 영상을 생성하는 단계, 생성된 복수의 세부 영상을 기초로 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하는 단계 및 추출된 바운딩 박스 좌표를 이용하여 3D 포인트 클라우드에서 적어도 하나의 객체를 제거하는 단계를 포함한다.
본 발명의 일 실시예에 따르면, 생성된 복수의 세부 영상을 기초로 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하는 단계는, 사전 결정된 크기로 분할된 복수의 세부 영상으로부터 적어도 하나의 객체에 대한 제1 바운딩 박스 좌표를 추출하는 단계, 복수의 세부 영상으로부터 추출된 제1 바운딩 박스 좌표를 정사영상에 대응하도록 보정하여 제2 바운딩 박스 좌표를 생성하는 단계 및 생성된 제2 바운딩 박스 좌표를 적어도 하나의 객체에 대한 바운딩 박스 좌표로 결정하는 단계를 포함한다.
본 발명의 일 실시예에 따르면, 바운딩 박스 좌표는 x 좌표 및 y 좌표로 구성된다. 추출된 바운딩 박스 좌표를 이용하여 3D 포인트 클라우드에서 적어도 하나의 객체를 제거하는 단계는, 바운딩 박스 좌표의 x 좌표 및 y 좌표를 기초로 바운딩 박스에 대응하는 3D 포인트 클라우드 상의 영역을 결정하는 단계 및 결정된 3D 포인트 클라우드 상의 영역에 포함된 3D 포인트를 제거하는 단계를 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 객체가 제거된 3D 포인트 클라우드 상의 영역에 대한 삼각망 표면을 생성하여 3D 포인트 클라우드 상의 영역을 보정하는 단계를 더 포함한다.
본 발명의 일 실시예에 따르면, 건설 현장의 토공 정보를 포함하는 사전 결정된 3D 목표 도면을 획득하는 단계 및 획득된 3D 목표 도면과 삼각망 표면을 기초로 보정된 3D 포인트 클라우드를 대응시켜 건설 현장의 토공 물량을 산출하는 단계를 더 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 건설 현장의 객체 제거 방법은, 드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드를 획득하는 단계, 정사영상을 기초로 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하는 단계, 추출된 바운딩 박스 좌표를 이용하여 3D 포인트 클라우드에서 적어도 하나의 객체를 제거하는 단계, 적어도 하나의 객체가 제거된 3D 포인트 클라우드 상의 영역에 대한 삼각망 표면을 생성하여 3D 포인트 클라우드 상의 영역을 보정하는 단계, 건설 현장의 토공 정보를 포함하는 사전 결정된 3D 목표 도면을 획득하는 단계 및 획득된 3D 목표 도면과 삼각망 표면을 기초로 보정된 3D 포인트 클라우드를 대응시켜 건설 현장의 토공 물량을 산출하는 단계를 더 포함한다.
본 발명의 일 실시예에 따른 상술된 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공된다.
본 발명의 일 실시예에 따른 컴퓨팅 장치는, 통신 모듈, 메모리 및 메모리와 연결되고, 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함한다. 적어도 하나의 프로그램은, 드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드를 획득하고, 정사영상을 객체를 추출하기 위한 사전 결정된 크기로 분할하여 복수의 세부 영상을 생성하고, 생성된 복수의 세부 영상을 기초로 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하고, 추출된 바운딩 박스 좌표를 이용하여 3D 포인트 클라우드에서 적어도 하나의 객체를 제거하기 위한 명령어들을 포함한다.
본 발명의 다양한 실시예에서 컴퓨팅 장치는 건설 장비들을 모두 현장 외의 지역으로 이동시키지 않고도 간단히 건설 현장의 3D 맵을 생성할 수 있으며, 이에 따라, 건설 현장의 정확한 지형 정보를 식별할 수 있다.
본 발명의 다양한 실시예에서 3D 포인트 클라우드만을 이용하여 객체 검출을 수행하지 않고, 정사영상을 이용하여 객체 검출 및 검출된 객체의 좌표를 추출함으로써, 컴퓨팅 자원이 감소하고 처리 속도가 증가하여 3D 맵 생성의 효율성이 증가할 수 있다.
본 발명의 다양한 실시예에서 건설 장비 등의 노이즈가 제거된 건설 현장의 3D 맵과 3D 목표 도면만으로 해당 건설 현장의 토공 물량이 높은 정확도로 산출될 수 있다.
본 발명의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자("통상의 기술자"라 함)에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성을 나타내는 기능적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 정사영상으로부터 객체가 검출되는 예시를 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 3D 포인트 클라우드를 기초로 건설 현장의 3D 맵이 생성되는 예시를 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따르면 토공 물량이 산출되는 예시를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 건설 현장의 객체 제거 방법의 예시를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성을 나타내는 블록도이다.
도 1은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성을 나타내는 기능적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 정사영상으로부터 객체가 검출되는 예시를 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 3D 포인트 클라우드를 기초로 건설 현장의 3D 맵이 생성되는 예시를 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따르면 토공 물량이 산출되는 예시를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 건설 현장의 객체 제거 방법의 예시를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성을 나타내는 블록도이다.
이하, 본 발명의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명이 완전하도록 하고, 본 발명이 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
본 발명에서, "포함하다", "포함하는" 등의 용어는 특징들, 단계들, 동작들, 요소들 및/또는 구성 요소들이 존재하는 것을 나타낼 수 있으나, 이러한 용어가 하나 이상의 다른 기능들, 단계들, 동작들, 요소들, 구성 요소들 및/또는 이들의 조합이 추가되는 것을 배제하지는 않는다.
본 발명에서, 특정 구성 요소가 임의의 다른 구성 요소에 "결합", "조합", "연결" 되거나, "반응" 하는 것으로 언급된 경우, 특정 구성 요소는 다른 구성 요소에 직접 결합, 조합 및/또는 연결되거나, 반응할 수 있으나, 이에 한정되지 않는다. 예를 들어, 특정 구성 요소와 다른 구성 요소 사이에 하나 이상의 중간 구성 요소가 존재할 수 있다. 또한, 본 발명에서 "및/또는"은 열거된 하나 이상의 항목의 각각 또는 하나 이상의 항목의 적어도 일부의 조합을 포함할 수 있다.
본 발명에서, "제1", "제2" 등의 용어는 특정 구성 요소를 다른 구성 요소와 구별하기 위해 사용되는 것으로, 이러한 용어에 의해 상술된 구성 요소가 제한되진 않는다. 예를 들어, "제1" 구성 요소는 "제2" 구성 요소와 동일하거나 유사한 형태의 요소일 수 있다.
도 1은 본 발명의 일 실시예에 따른 컴퓨팅 장치(100)의 내부 구성을 나타내는 기능적인 블록도이다. 도시된 바와 같이, 컴퓨팅 장치(100)는 입력부(110), 정사영상 전처리부(120), 객체 인지부(130), 인지정보 취합부(140), 3D 포인트 클라우드 후처리부(150), 출력부(160) 등을 포함할 수 있으나, 이에 한정되지 않는다. 컴퓨팅 장치(100)는 임의의 외부 장치(예: 드론 장치)와 통신하며 건설 현장과 연관된 임의의 데이터 및/또는 정보를 주고받을 수 있다.
일 실시예에 따르면, 입력부(110)는 드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상(orthophoto)(112) 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드(point cloud)(114)를 입력받거나 획득할 수 있다. 여기서, 정사영상(112)은 지형 기복에 의한 기하학적 왜곡이 보정되고 탑뷰(top-view) 시점으로 변환된 연직 영상일 수 있다. 또한, 3D 포인트 클라우드(114)는 LiDAR 센서, RGB-D 센서 등으로 수집된 객체를 나타내는 3차원 점들의 집합일 수 있다. 정사영상(112) 및 3D 포인트 클라우드(114)는 동일한 영역(예: 건설 현장)을 촬영하여 생성될 수 있다.
입력부(110)에 의해 획득된 정사영상(112)은 정사영상 전처리부(120)에 제공될 수 있다. 정사영상 전처리부(120)는 정사영상(112)의 데이터 포맷(data format)을 객체 인지부(130)에서 인식할 수 있는 형태의 포맷으로 변환하고, 임의의 크롭(crop) 알고리즘 등을 기초로 정사영상(112)을 복수의 세부 영상으로 분할할 수 있다. 즉, 정사영상 전처리부(120)는 정사영상(112)을 객체 검출(object detection) 및/또는 인지를 수행하기에 적합한 포맷 및 크기로 변환하여 객체 인지부(130)에 제공할 수 있다.
객체 인지부(130)는 복수의 세부 영상을 기초로 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출할 수 있다. 여기서, 건설 현장에 포함된 객체는 건설 현장의 지형과 연관되지 않은 노이즈(noise)로서, 건설 장비, 지장물 등을 포함할 수 있으나, 이에 한정되지 않는다. 객체 인지부(130)는 사전 결정된 객체 검출 알고리즘 및/또는 기계학습 모델을 이용하여 건설 현장에 포함된 적어도 하나의 객체를 검출하고, 검출된 객체에 대한 바운딩 박스 좌표(bounding box coordinate)를 추출할 수 있다. 예를 들어, 상공에서 바라본 건설 장비 등의 형상을 학습한 기계학습 모델이 존재할 수 있으며, 객체 인지부(130)는 이와 같이 학습된 기계학습 모델에 복수의 세부 영상을 제공하여, 각 세부 영상에 포함된 건설 장비, 지장물 등을 검출할 수 있다.
일 실시예에 따르면, 인지정보 취합부(140)는 객체 인지부(130)에 의해 검출된 객체 및/또는 바운딩 박스 좌표에 대한 정보를 취합할 수 있다. 예를 들어, 세부 영상에서 추출된 좌표 값(예: 픽셀 좌표 값)은 원본 정사영상(112)에서의 좌표 값(예: 현장 좌표 값)과 상이할 수 있다. 따라서, 인지정보 취합부(140)는 분할된 복수의 세부 영상을 정사영상(112)의 포맷 및 크기로 복원하면서, 좌표 값을 정사영상(112)에 대응하는 좌표 값으로 변환할 수 있다. 이에 따라, 정사영상(112) 전체에 대한 객체 검출 및 바운딩 박스 좌표 추출이 수행될 수 있다.
일 실시예에 따르면, 3D 포인트 클라우드 후처리부(150)는 3D 포인트 클라우드(114)에서 추출된 복수의 객체에 대응하는 바운딩 박스 좌표와 동일한 x 좌표 및 y 좌표를 갖는 포인트를 추출할 수 있다. 그리고 나서, 3D 포인트 클라우드 후처리부(150)는 바운딩 박스와 대응하는 영역의 포인트들을 제거하여 3D 포인트 클라우드(114)에서 노이즈에 대응하는 객체를 제거할 수 있다. 그리고 나서, 출력부(160)는 이와 같이 노이즈에 대응하는 객체가 제거된 건설 현장의 3D 맵(162)을 출력할 수 있다.
도 1에서는 컴퓨팅 장치(100)에 포함된 각각의 기능적인 구성이 구분되어 상술되었으나, 이는 발명의 이해를 돕기 위한 것일 뿐이며, 하나의 연산 장치에서 둘 이상의 기능을 수행할 수도 있다. 이와 같은 구성에 의해, 컴퓨팅 장치(100)는 건설 장비들을 모두 현장 외의 지역으로 이동시키지 않고도 간단히 건설 현장의 3D 맵(162)을 생성할 수 있으며, 이에 따라, 건설 현장의 정확한 지형 정보를 식별할 수 있다.
도 2는 본 발명의 일 실시예에 따른 정사영상(210)으로부터 객체(222, 224)가 검출되는 예시를 나타내는 도면이다. 도시된 바와 같이, 정사영상(210)은 드론에 의해 촬영된 건설 현장을 나타내는 탑뷰 시점의 영상일 수 있다. 예를 들어, 정사영상(210)은 TIF 포맷으로 생성될 수 있으며, 건설 현장의 좌표 정보를 포함할 수 있다.
일 실시예에 따르면, 정사영상(210)은 사전 결정된 크기의 복수의 세부 영상으로 분할될 수 있다. 예를 들어, 각각의 세부 영상은 동일하거나 상이한 크기를 가질 수 있으며, 건설 현장의 좌표 정보를 포함할 수 있다. 여기서, 정사영상(210)에 포함된 좌표 정보는 임의의 알고리즘 등을 기초로 복수의 세부 영상에 포함된 좌표 정보와 매칭될 수 있다. 도시된 예에서, 정사영상(210)에 포함된 영역(212)은 하나의 세부 영상을 구성하는 영역으로 결정될 수 있으며, 정사영상(210)에서 해당 영역(212)이 분할되어 제1 세부 영상(220)을 구성할 수 있다.
일 실시예에 따르면, 복수의 세부 영상에 포함된 제1 세부 영상(220)은 객체 검출을 위한 임의의 객체 검출 알고리즘 및/또는 기계학습 모델에 제공될 수 있다. 이와 같이 제1 세부 영상(220)이 알고리즘 및/또는 기계학습 모델에 제공되는 경우, 제1 세부 영상(220)에 포함된 객체(222, 224)가 검출되고, 검출된 객체(222, 224)의 바운딩 박스 및/또는 바운딩 박스 좌표가 추출될 수 있다. 도시된 예에서, 제1 세부 영상(220)은 2개의 건설 기계를 포함할 수 있으며, 이러한 2개의 건설 기계가 건설 현장의 노이즈에 해당하는 객체로서 추출될 수 있다.
이와 같이 제1 세부 영상(220)을 포함한 복수의 세부 영상에서 객체(222, 224)가 검출되고, 바운딩 박스 좌표가 추출되는 경우, 복수의 세부 영상은 원본 정사영상(210)의 형태로 결합될 수 있다. 이 경우, 검출된 각 객체(222, 224)의 바운딩 박스 좌표는 정사영상(210)에 대응되도록 변환될 수 있다.
도 3은 본 발명의 일 실시예에 따른 3D 포인트 클라우드(310)를 기초로 건설 현장의 3D 맵(320)이 생성되는 예시를 나타내는 도면이다. 도시된 바와 같이, 3D 포인트 클라우드(310) 상에서 건설 현장의 노이즈에 대응하는 객체들의 포인트가 제거되어 3D 맵(320)이 생성될 수 있다.
도 2에서 상술한 바와 같이, 객체들의 바운딩 박스 좌표는 정사영상을 기초로 추출될 수 있다. 여기서, 바운딩 박스 좌표는 x 좌표 및 y 좌표로 구성될 수 있다. 예를 들어, 3D 포인트 클라우드(310)에서 바운딩 박스들의 x 좌표 및 y 좌표를 포함하는 포인트들이 추출될 수 있다. 그리고 나서, 추출된 포인트들 및/또는 포인트들의 내부 영역의 포인트들은 3D 포인트 클라우드(310)에서 제거될 수 있다.
이와 같이 포인트들이 제거되는 경우, 건설 장비, 지장물 등의 노이즈가 제거된 건설 현장의 3D 맵(320)이 생성될 수 있다. 도 3에서는 3D 맵(320)에서 객체가 제거된 영역에 별도의 지형면이 존재하지 않는 것으로 상술되었으나, 이에 한정되지 않으며, 객체가 제거된 영역에 삼각망 표면 등 별도의 지형면에 대응하는 포인트가 생성되어 결합될 수 있다. 이와 같은 구성에 의해, 3D 포인트 클라우드(310)만을 이용하여 객체 검출을 수행하지 않고, 정사영상을 이용하여 객체 검출 및 검출된 객체의 좌표를 추출함으로써, 컴퓨팅 자원이 감소하고 처리 속도가 증가하여 3D 맵(320) 생성의 효율성이 증가할 수 있다.
도 4는 본 발명의 일 실시예에 따르면 토공 물량(424)이 산출되는 예시를 나타내는 도면이다. 도시된 것과 같이, 상술된 컴퓨팅 장치(도 1의 100)는 삼각망 표면 생성부(410), 부피 산출부(420) 등을 더 포함할 수 있다. 예를 들어, 출력부(도 1의 160)에 의해 출력된 3D 맵(도 1의 162)은 삼각망 표면 생성부(410)에 제공될 수 있다.
일 실시예에 따르면, 삼각망 표면 생성부(410)는 3D 맵의 포인트가 제거된 영역에 대한 삼각망 표면을 생성하여 보정된 3D 맵(412)을 생성할 수 있다. 여기서, 삼각망 표면은 3D 포인트 클라우드로부터 스캔 대상체를 삼차원 공간 상에 면(surface)이나 입체(body)로 복원하는 현상 복원을 통해 생성될 수 있다. 예를 들어, 삼각망 표면 생성부(410)는 불연속면의 방향 정보를 추출하기 위해 포인트들의 위치 정보를 면 정보로 변환하고, 포인트들을 연결한 삼각형 요소의 TIN(Triangulated Irregular Network) 망을 생성할 수 있다. 이 경우, 삼각망 표면 생성을 위한 종래의 알고리즘 및/또는 기계학습 모델이 이용될 수 있다.
삼각망 표면이 생성되어 보정된 3D 맵(412)은 부피 산출부(420)에 제공될 수 있다. 부피 산출부(420)는 3D 맵(412)을 기초로 건설 현장의 토공 물량(424) 등을 산출할 수 있다. 예를 들어, 부피 산출부(420)는 건설 현장의 토공 정보를 포함하는 사전 결정된 3D 목표 도면(422)을 획득하고, 획득된 3D 목표 도면(422)과 삼각망 표면을 기초로 보정된 3D 포인트 클라우드(예: 3D 맵(412))를 대응시켜 건설 현장의 토공 물량(424)을 산출할 수 있다. 여기서, 3D 목표 도면(422)은 건설 현장의 토공사가 완료된 상태의 3D 도면일 수 있다. 즉, 부피 산출부(420)는 3D 맵(412)과 3D 목표 도면(422)을 중첩하여 차이가 있는 부피를 산출하고, 산출된 부피를 토공 물량(424)으로 결정할 수 있다.
이와 같은 구성에 의해, 건설 장비 등의 노이즈가 제거된 건설 현장의 3D 맵(412)과 3D 목표 도면(422)만으로 해당 건설 현장의 토공 물량이 높은 정확도로 산출될 수 있다.
도 5는 본 발명의 일 실시예에 따른 건설 현장의 객체 제거 방법(500)의 예시를 나타내는 도면이다. 건설 현장의 객체 제거 방법(500)은 적어도 하나의 프로세서(예: 컴퓨팅 장치의 적어도 하나의 프로세서)에 의해 수행될 수 있다. 건설 현장의 객체 제거 방법(500)은 프로세서가 드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드를 획득함으로써 개시될 수 있다(S510).
프로세서는 정사영상을 객체를 추출하기 위한 사전 결정된 크기로 분할하여 복수의 세부 영상을 생성할 수 있다(S520). 예를 들어, TIF 포맷의 정사영상의 용량은 객체 검출을 수행하기에 적합하지 않을 수 있으며, 이에 따라 프로세서는 정사영상의 포맷을 변환하고 분할하여 복수의 세부 영상을 생성할 수 있다.
프로세서는 생성된 복수의 세부 영상을 기초로 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출할 수 있다(S530). 여기서, 바운딩 박스 좌표는 x 좌표 및 y 좌표로 구성될 수 있다. 예를 들어, 프로세서는 사전 결정된 크기로 분할된 복수의 세부 영상으로부터 적어도 하나의 객체에 대한 제1 바운딩 박스 좌표를 추출하는 단계, 복수의 세부 영상으로부터 추출된 제1 바운딩 박스 좌표를 정사영상에 대응하도록 보정하여 제2 바운딩 박스 좌표를 생성하고, 생성된 제2 바운딩 박스 좌표를 적어도 하나의 객체에 대한 바운딩 박스 좌표로 결정할 수 있다.
그리고 나서, 프로세서는 추출된 바운딩 박스 좌표를 이용하여 3D 포인트 클라우드에서 적어도 하나의 객체를 제거할 수 있다(S540). 프로세서는 바운딩 박스 좌표의 x 좌표 및 y 좌표를 기초로 바운딩 박스에 대응하는 3D 포인트 클라우드 상의 영역을 결정하고, 결정된 3D 포인트 클라우드 상의 영역에 포함된 3D 포인트를 제거할 수 있다.
추가적으로, 프로세서는 적어도 하나의 객체가 제거된 3D 포인트 클라우드 상의 영역에 대한 삼각망 표면을 생성하여 3D 포인트 클라우드 상의 영역을 보정할 수 있다. 또한, 프로세서는 건설 현장의 토공 정보를 포함하는 사전 결정된 3D 목표 도면을 획득하고, 획득된 3D 목표 도면과 삼각망 표면을 기초로 보정된 3D 포인트 클라우드를 대응시켜 건설 현장의 토공 물량을 산출할 수 있다.
대안적으로, 프로세서는 드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드를 획득하고, 정사영상을 기초로 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출할 수 있다. 그리고 나서, 프로세서는 추출된 바운딩 박스 좌표를 이용하여 3D 포인트 클라우드에서 적어도 하나의 객체를 제거하고, 적어도 하나의 객체가 제거된 3D 포인트 클라우드 상의 영역에 대한 삼각망 표면을 생성하여 3D 포인트 클라우드 상의 영역을 보정할 수 있다. 또한, 프로세서는 건설 현장의 토공 정보를 포함하는 사전 결정된 3D 목표 도면을 획득하고, 획득된 3D 목표 도면과 삼각망 표면을 기초로 보정된 3D 포인트 클라우드를 대응시켜 건설 현장의 토공 물량을 산출할 수도 있다.
도 6은 본 발명의 일 실시예에 따른 컴퓨팅 장치(100)의 내부 구성을 나타내는 블록도이다. 컴퓨팅 장치(100)는 메모리(610), 프로세서(620), 통신 모듈(630) 및 입출력 인터페이스(640)를 포함할 수 있으며, 도 6에 도시된 바와 같이, 컴퓨팅 장치(100)는 통신 모듈(630)을 이용하여 네트워크를 통해 정보 및/또는 데이터를 통신할 수 있도록 구성될 수 있다.
메모리(610)는 비-일시적인 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(610)는 RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 컴퓨팅 장치(100)에 포함될 수 있다. 또한, 메모리(610)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다.
이러한 소프트웨어 구성요소들은 메모리(610)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 이러한 컴퓨팅 장치(100)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(630)을 통해 메모리(610)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 통신 모듈(630)을 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 메모리(610)에 로딩될 수 있다.
프로세서(620)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(610) 또는 통신 모듈(630)에 의해 사용자 단말(미도시) 또는 다른 외부 시스템으로 제공될 수 있다.
통신 모듈(630)은 네트워크를 통해 사용자 단말(미도시)과 컴퓨팅 장치(100)가 서로 통신하기 위한 구성 또는 기능을 제공할 수 있으며, 컴퓨팅 장치(100)가 외부 시스템(일례로 별도의 클라우드 시스템 등)과 통신하기 위한 구성 또는 기능을 제공할 수 있다. 일례로, 컴퓨팅 장치(100)의 프로세서(620)의 제어에 따라 제공되는 제어 신호, 명령, 데이터 등이 통신 모듈(630)과 네트워크를 거쳐 사용자 단말 및/또는 외부 시스템의 통신 모듈을 통해 사용자 단말 및/또는 외부 시스템으로 전송될 수 있다.
또한, 컴퓨팅 장치(100)의 입출력 인터페이스(640)는 컴퓨팅 장치(100)와 연결되거나 컴퓨팅 장치(100)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 도 6에서는 입출력 인터페이스(640)가 프로세서(620)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(640)가 프로세서(620)에 포함되도록 구성될 수 있다. 컴퓨팅 장치(100)는 도 6의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다.
컴퓨팅 장치(100)의 프로세서(620)는 복수의 사용자 단말 및/또는 복수의 외부 시스템으로부터 수신된 정보 및/또는 데이터를 관리, 처리 및/또는 저장하도록 구성될 수 있다.
상술된 방법 및/또는 다양한 실시예들은, 디지털 전자 회로, 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합으로 실현될 수 있다. 본 발명의 다양한 실시예들은 데이터 처리 장치, 예를 들어, 프로그래밍 가능한 하나 이상의 프로세서 및/또는 하나 이상의 컴퓨팅 장치에 의해 실행되거나, 컴퓨터 판독 가능한 기록 매체 및/또는 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 상술된 컴퓨터 프로그램은 컴파일된 언어 또는 해석된 언어를 포함하여 임의의 형태의 프로그래밍 언어로 작성될 수 있으며, 독립 실행형 프로그램, 모듈, 서브 루틴 등의 임의의 형태로 배포될 수 있다. 컴퓨터 프로그램은 하나의 컴퓨팅 장치, 동일한 네트워크를 통해 연결된 복수의 컴퓨팅 장치 및/또는 복수의 상이한 네트워크를 통해 연결되도록 분산된 복수의 컴퓨팅 장치를 통해 배포될 수 있다.
상술된 방법 및/또는 다양한 실시예들은, 입력 데이터를 기초로 동작하거나 출력 데이터를 생성함으로써, 임의의 기능, 함수 등을 처리, 저장 및/또는 관리하는 하나 이상의 컴퓨터 프로그램을 실행하도록 구성된 하나 이상의 프로세서에 의해 수행될 수 있다. 예를 들어, 본 발명의 방법 및/또는 다양한 실시예는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 특수 목적 논리 회로에 의해 수행될 수 있으며, 본 발명의 방법 및/또는 실시예들을 수행하기 위한 장치 및/또는 시스템은 FPGA 또는 ASIC와 같은 특수 목적 논리 회로로서 구현될 수 있다.
컴퓨터 프로그램을 실행하는 하나 이상의 프로세서는, 범용 목적 또는 특수 목적의 마이크로 프로세서 및/또는 임의의 종류의 디지털 컴퓨팅 장치의 하나 이상의 프로세서를 포함할 수 있다. 프로세서는 읽기 전용 메모리, 랜덤 액세스 메모리의 각각으로부터 명령 및/또는 데이터를 수신하거나, 읽기 전용 메모리와 랜덤 액세스 메모리로부터 명령 및/또는 데이터를 수신할 수 있다. 본 발명에서, 방법 및/또는 실시예들을 수행하는 컴퓨팅 장치의 구성 요소들은 명령어들을 실행하기 위한 하나 이상의 프로세서, 명령어들 및/또는 데이터를 저장하기 위한 하나 이상의 메모리 디바이스를 포함할 수 있다.
일 실시예에 따르면, 컴퓨팅 장치는 데이터를 저장하기 위한 하나 이상의 대용량 저장 장치와 데이터를 주고받을 수 있다. 예를 들어, 컴퓨팅 장치는 자기 디스크(magnetic disc) 또는 광 디스크(optical disc)로부터 데이터를 수신하거나/수신하고, 자기 디스크 또는 광 디스크로 데이터를 전송할 수 있다. 컴퓨터 프로그램과 연관된 명령어들 및/또는 데이터를 저장하기에 적합한 컴퓨터 판독 가능한 저장 매체는, EPROM(Erasable Programmable Read-Only Memory), EEPROM(Electrically Erasable PROM), 플래시 메모리 장치 등의 반도체 메모리 장치를 포함하는 임의의 형태의 비 휘발성 메모리를 포함할 수 있으나, 이에 한정되지 않는다. 예를 들어, 컴퓨터 판독 가능한 저장 매체는 내부 하드 디스크 또는 이동식 디스크와 같은 자기 디스크, 광 자기 디스크, CD-ROM 및 DVD-ROM 디스크를 포함할 수 있다.
사용자와의 상호 작용을 제공하기 위해, 컴퓨팅 장치는 정보를 사용자에게 제공하거나 디스플레이하기 위한 디스플레이 장치(예를 들어, CRT (Cathode Ray Tube), LCD(Liquid Crystal Display) 등) 및 사용자가 컴퓨팅 장치 상에 입력 및/또는 명령 등을 제공할 수 있는 포인팅 장치(예를 들어, 키보드, 마우스, 트랙볼 등)를 포함할 수 있으나, 이에 한정되지 않는다. 즉, 컴퓨팅 장치는 사용자와의 상호 작용을 제공하기 위한 임의의 다른 종류의 장치들을 더 포함할 수 있다. 예를 들어, 컴퓨팅 장치는 사용자와의 상호 작용을 위해, 시각적 피드백, 청각 피드백 및/또는 촉각 피드백 등을 포함하는 임의의 형태의 감각 피드백을 사용자에게 제공할 수 있다. 이에 대해, 사용자는 시각, 음성, 동작 등의 다양한 제스처를 통해 컴퓨팅 장치로 입력을 제공할 수 있다.
본 발명에서, 다양한 실시예들은 백엔드 구성 요소(예: 데이터 서버), 미들웨어 구성 요소(예: 애플리케이션 서버) 및/또는 프론트 엔드 구성 요소를 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 이 경우, 구성 요소들은 통신 네트워크와 같은 디지털 데이터 통신의 임의의 형태 또는 매체에 의해 상호 연결될 수 있다. 예를 들어, 통신 네트워크는 LAN(Local Area Network), WAN(Wide Area Network) 등을 포함할 수 있다.
본 명세서에서 기술된 예시적인 실시예들에 기반한 컴퓨팅 장치는, 사용자 디바이스, 사용자 인터페이스(UI) 디바이스, 사용자 단말 또는 클라이언트 디바이스를 포함하여 사용자와 상호 작용하도록 구성된 하드웨어 및/또는 소프트웨어를 사용하여 구현될 수 있다. 예를 들어, 컴퓨팅 장치는 랩톱(laptop) 컴퓨터와 같은 휴대용 컴퓨팅 장치를 포함할 수 있다. 추가적으로 또는 대안적으로, 컴퓨팅 장치는, PDA(Personal Digital Assistants), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다. 컴퓨팅 장치는 사용자와 상호 작용하도록 구성된 다른 유형의 장치를 더 포함할 수 있다. 또한, 컴퓨팅 장치는 이동 통신 네트워크 등의 네트워크를 통한 무선 통신에 적합한 휴대용 통신 디바이스(예를 들어, 이동 전화, 스마트 전화, 무선 셀룰러 전화 등) 등을 포함할 수 있다. 컴퓨팅 장치는, 무선 주파수(RF; Radio Frequency), 마이크로파 주파수(MWF; Microwave Frequency) 및/또는 적외선 주파수(IRF; Infrared Ray Frequency)와 같은 무선 통신 기술들 및/또는 프로토콜들을 사용하여 네트워크 서버와 무선으로 통신하도록 구성될 수 있다.
본 발명에서 특정 구조적 및 기능적 세부 사항을 포함하는 다양한 실시예들은 예시적인 것이다. 따라서, 본 발명의 실시예들은 상술된 것으로 한정되지 않으며, 여러 가지 다른 형태로 구현될 수 있다. 또한, 본 발명에서 사용된 용어는 일부 실시예를 설명하기 위한 것이며 실시예를 제한하는 것으로 해석되지 않는다. 예를 들어, 단수형 단어 및 상기는 문맥상 달리 명확하게 나타내지 않는 한 복수형도 포함하는 것으로 해석될 수 있다.
본 발명에서, 달리 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함하여 본 명세서에서 사용되는 모든 용어는 이러한 개념이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 또한, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 맥락에서의 의미와 일치하는 의미를 갖는 것으로 해석되어야 한다.
본 명세서에서는 본 발명이 일부 실시예들과 관련하여 설명되었지만, 본 발명의 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 발명의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.
100: 컴퓨팅 장치
110: 입력부
112: 정사영상 114: 3D 포인트 클라우드
120: 정사영상 전처리부 130: 객체 인지부
140: 인지정보 취합부 150: 3D 포인트 클라우드 후처리부
160: 출력부 162: 3D 맵
112: 정사영상 114: 3D 포인트 클라우드
120: 정사영상 전처리부 130: 객체 인지부
140: 인지정보 취합부 150: 3D 포인트 클라우드 후처리부
160: 출력부 162: 3D 맵
Claims (8)
- 적어도 하나의 프로세서에 의해 수행되는 건설 현장의 객체 제거 방법으로서,
드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상(orthophoto) 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드(point cloud)를 획득하는 단계;
상기 정사영상을 객체를 추출하기 위한 사전 결정된 크기로 분할하여 복수의 세부 영상을 생성하는 단계;
상기 생성된 복수의 세부 영상을 기초로 상기 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하는 단계; 및
상기 추출된 바운딩 박스 좌표를 이용하여 상기 3D 포인트 클라우드에서 상기 적어도 하나의 객체를 제거하는 단계;
를 포함하는 건설 현장의 객체 제거 방법.
- 제1항에 있어서,
상기 생성된 복수의 세부 영상을 기초로 상기 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하는 단계는,
상기 사전 결정된 크기로 분할된 복수의 세부 영상으로부터 상기 적어도 하나의 객체에 대한 제1 바운딩 박스 좌표를 추출하는 단계;
상기 복수의 세부 영상으로부터 추출된 제1 바운딩 박스 좌표를 상기 정사영상에 대응하도록 보정하여 제2 바운딩 박스 좌표를 생성하는 단계; 및
상기 생성된 제2 바운딩 박스 좌표를 상기 적어도 하나의 객체에 대한 바운딩 박스 좌표로 결정하는 단계;
를 포함하는 건설 현장의 객체 제거 방법.
- 제1항에 있어서,
상기 바운딩 박스 좌표는 x 좌표 및 y 좌표로 구성되고,
상기 추출된 바운딩 박스 좌표를 이용하여 상기 3D 포인트 클라우드에서 상기 적어도 하나의 객체를 제거하는 단계는,
상기 바운딩 박스 좌표의 x 좌표 및 y 좌표를 기초로 상기 바운딩 박스에 대응하는 3D 포인트 클라우드 상의 영역을 결정하는 단계; 및
상기 결정된 3D 포인트 클라우드 상의 영역에 포함된 3D 포인트를 제거하는 단계;
를 포함하는 건설 현장의 객체 제거 방법.
- 제1항에 있어서,
상기 적어도 하나의 객체가 제거된 3D 포인트 클라우드 상의 영역에 대한 삼각망 표면을 생성하여 상기 3D 포인트 클라우드 상의 영역을 보정하는 단계;
를 더 포함하는 건설 현장의 객체 제거 방법.
- 제1항에 있어서,
상기 건설 현장의 토공 정보를 포함하는 사전 결정된 3D 목표 도면을 획득하는 단계; 및
상기 획득된 3D 목표 도면과 삼각망 표면을 기초로 보정된 3D 포인트 클라우드를 대응시켜 상기 건설 현장의 토공 물량을 산출하는 단계;
를 더 포함하는 건설 현장의 객체 제거 방법.
- 적어도 하나의 프로세서에 의해 수행되는 건설 현장의 객체 제거 방법으로서,
드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드를 획득하는 단계;
상기 정사영상을 기초로 상기 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하는 단계;
상기 추출된 바운딩 박스 좌표를 이용하여 상기 3D 포인트 클라우드에서 상기 적어도 하나의 객체를 제거하는 단계;
상기 적어도 하나의 객체가 제거된 3D 포인트 클라우드 상의 영역에 대한 삼각망 표면을 생성하여 상기 3D 포인트 클라우드 상의 영역을 보정하는 단계;
상기 건설 현장의 토공 정보를 포함하는 사전 결정된 3D 목표 도면을 획득하는 단계; 및
상기 획득된 3D 목표 도면과 삼각망 표면을 기초로 보정된 3D 포인트 클라우드를 대응시켜 상기 건설 현장의 토공 물량을 산출하는 단계;
를 포함하는 건설 현장의 객체 제거 방법.
- 제1항 내지 제6항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
- 컴퓨팅 장치로서,
통신 모듈;
메모리; 및
상기 메모리와 연결되고, 상기 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로그램은,
드론 장치에 의해 촬영된 건설 현장의 x 좌표 및 y 좌표를 포함하는 정사영상 및 x 좌표, y 좌표 및 z 좌표를 포함하는 3D 포인트 클라우드를 획득하고,
상기 정사영상을 객체를 추출하기 위한 사전 결정된 크기로 분할하여 복수의 세부 영상을 생성하고,
상기 생성된 복수의 세부 영상을 기초로 상기 건설 현장에 포함된 적어도 하나의 객체에 대한 바운딩 박스 좌표를 추출하고,
상기 추출된 바운딩 박스 좌표를 이용하여 상기 3D 포인트 클라우드에서 상기 적어도 하나의 객체를 제거하기 위한 명령어들을 포함하는 컴퓨팅 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220079673A KR20240003016A (ko) | 2022-06-29 | 2022-06-29 | 건설 현장의 객체 제거 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220079673A KR20240003016A (ko) | 2022-06-29 | 2022-06-29 | 건설 현장의 객체 제거 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240003016A true KR20240003016A (ko) | 2024-01-08 |
Family
ID=89533095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220079673A KR20240003016A (ko) | 2022-06-29 | 2022-06-29 | 건설 현장의 객체 제거 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240003016A (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117804413A (zh) * | 2024-02-23 | 2024-04-02 | 西安迈远科技有限公司 | 一种基于无人机的土方算量方法及系统 |
-
2022
- 2022-06-29 KR KR1020220079673A patent/KR20240003016A/ko unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117804413A (zh) * | 2024-02-23 | 2024-04-02 | 西安迈远科技有限公司 | 一种基于无人机的土方算量方法及系统 |
CN117804413B (zh) * | 2024-02-23 | 2024-05-28 | 西安迈远科技有限公司 | 一种基于无人机的土方算量方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3579192B1 (en) | Method, apparatus and device for determining camera posture information, and storage medium | |
US11842438B2 (en) | Method and terminal device for determining occluded area of virtual object | |
CN109934065B (zh) | 一种用于手势识别的方法和装置 | |
EP2915140B1 (en) | Fast initialization for monocular visual slam | |
JP6417702B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN106033621B (zh) | 一种三维建模的方法及装置 | |
CN110276774B (zh) | 物体的绘图方法、装置、终端和计算机可读存储介质 | |
US11227407B2 (en) | Systems and methods for augmented reality applications | |
CN115439607A (zh) | 一种三维重建方法、装置、电子设备及存储介质 | |
CN111199169A (zh) | 图像处理方法和装置 | |
KR20240003016A (ko) | 건설 현장의 객체 제거 방법 및 장치 | |
US20230142243A1 (en) | Device environment identification method and apparatus, electronic device, and autonomous vehicle | |
CN105205786A (zh) | 一种图像深度恢复方法及电子设备 | |
CN114674328B (zh) | 地图生成方法、装置、电子设备、存储介质、及车辆 | |
CN105631938A (zh) | 一种图像处理方法及电子设备 | |
US11615583B2 (en) | Scene crop via adaptive view-depth discontinuity | |
CN113776517B (zh) | 地图生成方法、装置、系统、存储介质及电子设备 | |
CN115937950A (zh) | 一种多角度人脸数据采集方法、装置、设备及存储介质 | |
CN115565072A (zh) | 一种道路垃圾识别和定位方法、装置、电子设备及介质 | |
CN112991451B (zh) | 图像识别方法、相关装置及计算机程序产品 | |
CN117197361B (zh) | 实景三维数据库构建方法、电子设备和计算机可读介质 | |
CN112270702B (zh) | 体积测量方法及装置、计算机可读介质和电子设备 | |
CN110660134B (zh) | 三维地图构建方法、三维地图构建装置及终端设备 | |
EP4403872A1 (en) | Dimension measurement device, dimension measurement method, and program | |
CN116523944A (zh) | 一种三维点云直线特征提取方法及装置 |