KR20200045321A - Space scanning apparatus and information processing method thereof - Google Patents
Space scanning apparatus and information processing method thereof Download PDFInfo
- Publication number
- KR20200045321A KR20200045321A KR1020180126227A KR20180126227A KR20200045321A KR 20200045321 A KR20200045321 A KR 20200045321A KR 1020180126227 A KR1020180126227 A KR 1020180126227A KR 20180126227 A KR20180126227 A KR 20180126227A KR 20200045321 A KR20200045321 A KR 20200045321A
- Authority
- KR
- South Korea
- Prior art keywords
- scanning
- unit
- occlusion
- point cloud
- space
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10008—Still image; Photographic image from scanner, fax or copier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
Description
본 발명은 실제 공간에 대응하는 공간 지도를 생성하는 공간 스캔 장치 및 그 공간 지도의 생성을 위한 정보 처리 방법에 관한 것이다.The present invention relates to a spatial scanning device for generating a spatial map corresponding to an actual space and an information processing method for generating the spatial map.
주지하고 있는 바와 같이, 공간 스캔 장치는 레이저 스캐너와 카메라를 이용하여 실제 공간에 대한 공간 지도를 생성할 수 있다. 이러한 공간 스캔 장치는 사용자의 조정에 따라 공간 내부를 주행하거나 공간 내부를 자율 주행할 수 있고, 주행 경로 상의 스캔 지점에서 공간을 레이저 스캐너로 스캐닝하여 포인트 클라우드(point cloud)를 획득하고, 동일한 공간을 카메라로 촬영하여 영상을 획득하며, 동일한 공간에 대한 포인트 클라우드와 영상을 정합하여 공간 지도를 생성한다.As is well known, the spatial scanning device may generate a spatial map of real space using a laser scanner and a camera. Such a space scanning device may drive inside the space or autonomously drive inside the space according to the user's adjustment, acquire a point cloud by scanning the space with a laser scanner at a scan point on the driving path, and acquire the same space. The image is acquired by shooting with a camera, and a spatial map is generated by matching the point cloud and the image for the same space.
그런데, 실제 공간에는 복수의 객체가 위치할 수 있고, 공간 스캔 장치가 공간의 특정 스캔 지점에서 스캔을 할 때에 스캔 방향에 대해 앞쪽에 있는 객체에 의해 뒤쪽에 있는 객체의 일부 또는 전체가 폐색(occlusion)될 수 있으며, 이처럼 폐색 영역이 존재하는 경우에 공간 지도의 품질이 저하되는 문제점이 있다.However, a plurality of objects may be located in the real space, and when the space scanning device scans at a specific scan point in space, some or all of the objects behind the occlusion by the objects in front with respect to the scan direction are occluded. ), And the quality of the spatial map is deteriorated when the occlusion area is present.
일 실시예에 따르면, 공간 지도의 생성을 위해 획득된 포인트 클라우드에 폐색 영역이 존재하는 경우에 폐색 영역에 대응하는 지점을 스캔할 수 있는 주행 경로를 생성하는 공간 스캔 장치 및 그 정보 처리 방법을 제공한다.According to an embodiment, when an occlusion area exists in a point cloud obtained for generation of a spatial map, a space scanning device for generating a driving path capable of scanning a point corresponding to the occlusion area and a method for processing the information are provided do.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved of the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned will be clearly understood by a person having ordinary knowledge to which the present invention belongs from the following description.
본 발명의 제 1 관점에 따른, 공간 스캔 장치는, 공간을 스캔하여 포인트 클라우드를 획득하는 스캐닝부와, 상기 스캐닝부에 의해 획득된 포인트 클라우드에 대응하는 상기 공간 내의 초기 주행 경로가 저장된 데이터 저장부와, 제어부를 포함하고, 상기 제어부는, 상기 획득된 포인트 클라우드에 기초하여 깊이 지도 영상을 생성하며, 상기 생성된 깊이 지도 영상 내에 폐색 영역이 존재하는지를 판단하고, 상기 폐색 영역이 존재하는 경우 상기 폐색 영역에 대응하는 지점이 스캔될 수 있는 신규 주행 경로를 생성하며, 상기 생성된 신규 주행 경로를 상기 데이터 저장부에 저장한다.According to a first aspect of the present invention, a spatial scanning device includes: a scanning unit scanning a space to obtain a point cloud, and a data storage unit storing an initial driving path in the space corresponding to the point cloud acquired by the scanning unit And a control unit, wherein the control unit generates a depth map image based on the acquired point cloud, determines whether an occlusion region exists in the generated depth map image, and if the occlusion region exists, the occlusion region. A new driving route in which a point corresponding to an area can be scanned is generated, and the generated new driving route is stored in the data storage unit.
본 발명의 제 2 관점에 따른, 공간 스캔 장치에서 수행되는 정보 처리 방법은, 기설정된 초기 주행 경로에서 공간을 스캔하여 획득된 포인트 클라우드에 기초하여 깊이 지도 영상을 생성하는 단계와, 상기 생성된 깊이 지도 영상 내에 폐색 영역이 존재하는지를 판단하는 단계와, 상기 폐색 영역이 존재하는 경우 상기 폐색 영역에 대응하는 지점이 스캔될 수 있는 신규 주행 경로를 생성하는 단계를 포함한다.According to a second aspect of the present invention, an information processing method performed in a spatial scanning apparatus includes: generating a depth map image based on a point cloud obtained by scanning a space in a predetermined initial driving path, and the generated depth And determining whether an occluded area exists in the map image, and generating a new driving route in which a point corresponding to the occluded area can be scanned when the occluded area exists.
본 발명의 실시예에 의하면, 공간 지도의 생성을 위해 획득된 포인트 클라우드에 폐색 영역이 존재하는 경우에 폐색 영역에 대응하는 지점을 스캔할 수 있는 신규 주행 경로를 생성함으로써, 사용자가 공간 스캔 장치의 주행을 조정하는 경우 사용자가 신규 주행 경로를 참고할 수 있도록 한다.According to an embodiment of the present invention, when a occlusion area exists in a point cloud obtained for generating a spatial map, a user can generate a new driving route to scan a point corresponding to the occlusion area, thereby allowing the user to When adjusting the driving, the user can refer to the new driving route.
나아가, 생성된 주행 경로를 자율 주행하고, 폐색 영역에 대응하는 지점을 스캔하여 포인트 클라우드를 추가로 획득함으로써, 공간 지도의 품질이 향상되는 효과가 있다.Furthermore, by autonomously driving the generated driving path and scanning a point corresponding to the occluded area, an additional point cloud is obtained, thereby improving the quality of the spatial map.
도 1은 본 발명의 일 실시예에 따른 공간 스캔 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 공간 스캔 장치의 공간 지도 생성을 위한 정보 처리 방법을 설명하기 위한 흐름도이다.
도 3 내지 도 6은 본 발명의 일 실시예에 따른 공간 스캔 장치에서 폐색 영역을 결정하는 과정을 설명하기 위한 상태도들이다.1 is a configuration diagram of a spatial scanning device according to an embodiment of the present invention.
2 is a flowchart illustrating an information processing method for generating a spatial map of a spatial scanning device according to an embodiment of the present invention.
3 to 6 are state diagrams for explaining a process of determining an occlusion area in a spatial scanning apparatus according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only these embodiments allow the disclosure of the present invention to be complete, and have ordinary knowledge in the art to which the present invention pertains. It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of known functions or configurations will be omitted except when actually necessary in describing the embodiments of the present invention. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification.
도 1은 본 발명의 일 실시예에 따른 공간 스캔 장치의 구성도이다.1 is a configuration diagram of a spatial scanning device according to an embodiment of the present invention.
도 1에 나타낸 바와 같이 일 실시예에 따른 입체 모델 생성 장치(100)는 정보 획득부(110), 데이터 저장부(120), 제어부(130) 및 주행부(140)를 포함한다. 예를 들어, 제어부(130)는 CPU(Central Processing Unit)를 포함할 수 있다.1, the
정보 획득부(110)는 공간 지도를 생성하기 위한 실제 공간에 대한 정보를 획득한다. 여기서, 정보 획득부(110)는 실제 공간을 촬영하여 획득한 영상과 실제 공간을 스캐닝하여 획득한 포인트 클라우드(point cloud)를 획득할 수 있다. 이러한 정보 획득부(110)는 도 1에 도시한 바와 같이 실제 공간을 레이저 스캐너로 스캐닝하여 포인트 클라우드를 획득하는 스캐닝부(111)를 일체로 포함할 수 있고, 실제 공간을 촬영하여 영상을 획득하는 촬영부(112)를 일체로 포함할 수 있다. 예를 들어, 스캐닝부(111)는 공간 내의 한 지점에서 구 형태로 스캔할 수 있다.The
데이터 저장부(120)에는 사전에 입력되거나 제어부(130)에 의해 생성된 초기 주행 경로, 제어부(130)에 의해 생성된 신규 주행 경로, 정보 획득부(110)에 의해 획득된 포인트 클라우드 및 영상이 저장된다.The
제어부(130)는 주행 구동되도록 주행부(140)를 제어할 수 있고, 주행부(140)는 제어부(130)의 제어에 따라 주행 구동되어 공간 스캔 장치(100)를 이동시킬 수 있다. 주행부(140)는 도시 생략된 사용자 인터페이스를 통한 사용자의 조정에 따라 스캔 대상인 공간 내부를 주행하거나, 제어부(130)의 제어에 따라 데이터 저장부(120)에 저장된 초기 주행 경로 및 신규 주행 경로를 자율 주행할 수 있다. 예를 들어, 주행부(140)는 통상의 주행 로봇과 같이 무한궤도 휠이나 4륜 휠을 포함할 수 있다.The
제어부(130)는 정보 획득부(110)에 의해 획득된 포인트 클라우드에 기초하여 깊이 지도 영상을 생성한다. 이러한 제어부(130)는 스캐닝부(111)가 공간 내의 한 지점에서 구 형태로 스캔하는 경우, 구의 중심에 가상의 초점(focal)을 둘 수 있고, 초점을 중심으로 하는 가상 다면체(예컨대, 정육면체)를 생성할 수 있으며, 가상 다면체의 각 면에 가상 영상면을 생성할 수 있고, 포인트 클라우드를 가상 영상면에 투영(投影)해 포인트 클라우드의 깊이 값을 반영한 깊이 지도 영상을 생성할 수 있다.The
그리고, 제어부(130)는 정보 획득부(110)에 의해 획득된 포인트 클라우드에 기초하여 생성된 깊이 지도 영상 내에 폐색 영역이 존재하는지를 판단한다. 이러한 제어부(130)는 깊이 지도 영상 내의 픽셀들에 대해 이웃 픽셀간 깊이 차이를 계산할 수 있고, 계산된 깊이 차이와 기설정된 기준값을 비교한 결과에 기초하여 폐색 영역을 판정할 수 있다. 예를 들어, 제어부(130)는 계산된 깊이 차이가 기설정된 기준값보다 큰 픽셀들을 폐색 후보 픽셀로 선정할 수 있고, 깊이 지도 영상의 깊이 방향으로 4개의 정육면체를 2X2 형태로 적층 배치하여 형성한 직육면체의 정중앙에 폐색 후보 픽셀을 배치할 수 있으며, 스캐닝부(111)의 스캔 방향에 기초하여 4개의 정육면체 중 하나의 정육면체를 폐색 후보 영역으로 선정할 수 있고, 폐색 후보 영역에 대해 폐색 영역인지 여부를 판정할 수 있다. 예컨대, 제어부(130)는 폐색 후보 영역의 포인트 클라우드의 개수와 기설정된 기준개수를 비교한 결과에 기초하여 폐색 영역인지 여부를 판정할 수 있다.Then, the
아울러, 제어부(130)는 깊이 지도 영상 내에 폐색 영역이 존재하는 경우 폐색 영역에 대응하는 지점을 스캔할 수 있는 신규 주행 경로를 생성하며, 생성된 신규 주행 경로를 데이터 저장부(120)에 저장한다. 여기서, 제어부(130)는 포인트 클라우드에 기초하여 폐색 영역의 3차원 위치 정보를 획득할 수 있고, 3차원 위치 정보에 대응하는 지점이 스캐닝부(111)에 의해 스캔될 수 있는 목표 지점을 이동 목표 위치로서 선정할 수 있으며, 현재 위치에서 이동 목표 위치까지의 이동 경로를 신규 주행 경로로서 생성할 수 있다. 예를 들어, 제어부(130)는 포인트 클라우드 중 폐색 영역의 주변의 포인트 클라우드를 획득할 때 스캐닝부(111)의 스캔 방향에 대응하는 방향 벡터를 추출할 수 있고, 추출된 방향 벡터에 기초하여 목표 지점을 선정할 수 있다.In addition, when the occlusion area exists in the depth map image, the
또한, 제어부(130)는 데이터 저장부(120)에 저장된 신규 주행 경로를 주행하도록 주행부(140)를 제어할 수 있고, 신규 주행 경로 상의 스캔 지점에서 공간에 대한 포인트 클라우드 및 영상을 획득하도록 정보 획득부(110)를 제어할 수 있다. 그리고, 제어부(130)는 초기 주행 경로 및 신규 주행 경로에서 획득된 포인트 클라우드와 영상을 정합하여 공간 지도를 생성하고, 생성된 공간 지도를 데이터 저장부(120)에 저장할 수 있다.In addition, the
도 2는 본 발명의 일 실시예에 따른 공간 스캔 장치(100)의 공간 지도 생성을 위한 정보 처리 방법을 설명하기 위한 흐름도이고, 도 3 내지 도 6은 본 발명의 일 실시예에 따른 공간 스캔 장치(100)에서 폐색 영역을 결정하는 과정을 설명하기 위한 상태도들이다.2 is a flowchart illustrating an information processing method for generating a spatial map of the
이하, 도 1 내지 도 6를 참조하여 본 발명의 일 실시예에 따른 공간 스캔 장치(100)에서 공간 지도 생성을 위해 수행되는 정보 처리 방법의 일 예에 대해 자세히 살펴보기로 한다.Hereinafter, an example of an information processing method performed for generating a spatial map in the
먼저, 제어부(130)는 주행부(140)로 하여금 공간 스캔 장치(100)를 데이터 저장부(120)에 저장된 초기 주행 경로를 따라 이동시키도록 제어한다. 이러한, 초기 주행 경로 상에서 정보 획득부(110)의 스캐닝부(111)는 제어부(130)의 제어에 따라 공간을 스캐닝하여 포인트 클라우드를 획득한다. 예를 들어, 스캐닝부(111)는 공간 내의 한 지점에서 구 형태로 360도 스캔을 수행할 수 있다. 예컨대, 스캐닝부(111)는 2개의 팬틸트 모터를 구동하여 회전하면서 공간을 구 형태로 스캔할 수 있다. 아울러, 초기 주행 경로 상에서 정보 획득부(110)의 촬영부(112)는 제어부(130)의 제어에 따라 스캐닝부(111)가 스캔한 공간과 동일한 공간에 대해 영상을 획득한다. 이때, 정보 획득부(110)는 주행부(140)의 주행 구동에 의해 공간 스캔 장치(100)가 이동하는 중이 아닌 특정 스캔 지점에 정지된 상태에서 포인트 클라우드 및 영상을 획득할 수 있다(S210).First, the
그리고, 제어부(130)는 정보 획득부(110)의 스캐닝부(111)에 의해 획득된 포인트 클라우드에 기초하여 깊이 지도 영상을 생성한다. 이러한 제어부(130)는 스캐닝부(111)가 공간 내의 한 지점에서 구 형태로 360도 스캔하는 경우, 구의 중심에 가상의 초점을 둘 수 있고, 초점을 중심으로 하는 가상 다면체를 생성할 수 있으며, 가상 다면체의 각 면에 가상 영상면을 생성할 수 있고, 단계 S210에서 획득된 포인트 클라우드를 가상 영상면에 투영해 포인트 클라우드의 깊이 값을 반영한 깊이 지도 영상을 생성할 수 있다. 예를 들어, 가상 다면체로서 정육면체를 생성한 경우 스캐닝부(111)의 1회 스캔에 대해 6개의 깊이 값이 깊이 지도 영상에 반영되고, 포인트 클라우드의 1/6씩 6개의 깊이 값에 균등하게 반영된다. 예컨대, 깊이 지도 영상을 생성할 때에 홀(hole)이 발생한 경우 공지의 보간(interpolation)법을 이용하여 홀메움(holefilling) 처리를 할 수 있다(S220).Then, the
다음으로, 제어부(130)는 정보 획득부(110)에 의해 획득된 포인트 클라우드에 기초하여 생성된 깊이 지도 영상 내의 폐색 영역을 탐색(S230)하여 폐색 영역이 존재하는지를 판단한다(S240). 이러한 제어부(130)에서 깊이 지도 영상 내에 폐색 영역이 존재하는지를 판단하는 과정을 도 3 내지 도 6을 참조하여 자세히 살펴보기로 한다.Next, the
도 3에 예시한 바와 같이 공간 스캔 장치(100)가 공간의 특정 스캔 지점에서 스캔을 수행하여 포인트 클라우드(3)를 획득할 때에, 스캔 방향에 대해 앞쪽에 있는 제 1 객체(1)에 의해 뒤쪽에 있는 제 2 객체(2)의 일부가 가려져서 폐색 영역(4)이 존재할 수 있다.As illustrated in FIG. 3, when the
이러한 폐색 환경에서 공간 스캔 장치(100)가 도 4에 예시한 바와 같이 공간에 대한 스캐닝을 수행하여 포인트 클라우드(5)를 획득한 경우, 제어부(130)는 단계 S220에서 생성된 깊이 지도 영상 내의 픽셀들에 대해 이웃 픽셀간 깊이 차이를 계산하고, 이웃 픽셀간 깊이 차이에 기초하여 픽셀간 깊이의 불연속성이 높은 영역(6)을 파악한다.In the occluded environment, when the
그리고, 제어부(130)는 픽셀간 깊이의 불연속성이 높은 영역(6) 내에서 폐색 후보 픽셀을 선정한 후, 이러한 폐색 후보 픽셀을 이용하여 폐색 영역을 판정할 수 있다. 예를 들어, 도 5에 예시한 바와 같이 제어부(130)는 이웃 픽셀간 깊이 차이가 기설정된 기준값보다 큰 픽셀들을 폐색 후보 픽셀(8a, 8b, 8c, 8d)을 선정하고, 깊이 지도 영상의 깊이 방향으로 4개의 정육면체를 2X2 형태로 적층 배치하여 형성한 직육면체(9a, 9b, 9c, 9d)의 정중앙에 폐색 후보 픽셀(8a, 8b, 8c, 8d)을 배치하며, 스캐닝부(111)의 스캔 방향에 기초하여 4개의 정육면체 중 하나의 정육면체를 폐색 후보 영역으로 선정한다. 그리고, 제어부(130)는 폐색 후보 영역의 등록된 포인트 클라우드(7)의 개수와 기설정된 기준개수를 비교한 결과에 기초하여 폐색 영역인지 여부를 판정한다. 예를 들어, 제어부(130)는 도 6에 예시한 바와 같이 4개의 폐색 후보 영역(10, 11) 중 포인트 클라우드가 상대적으로 많은 폐색 후보 영역은 비 패색 영역(11)이 아니라고 판정할 수 있고, 4개의 폐색 후보 영역(10, 11) 중 포인트 클라우드가 상대적으로 적은 폐색 후보 영역은 패색 영역(10)이라고 판정할 수 있다.Then, the
이후, 제어부(130)는 포인트 클라우드에 기초하여 단계 S230에서 탐색된 폐색 영역의 3차원 위치 정보를 획득하고, 3차원 위치 정보에 대응하는 지점이 스캐닝부(111)에 의해 스캔될 수 있는 목표 지점을 이동 목표 위치로서 선정한다. 예를 들어, 제어부(130)는 포인트 클라우드 중 폐색 영역의 주변의 포인트 클라우드를 획득할 때 스캐닝부(111)의 스캔 방향에 대응하는 방향 벡터를 추출하며, 추출된 방향 벡터에 기초하여 목표 지점을 선정할 수 있다. 예컨대, 제어부(130)는 폐색 영역의 주변의 포인트 클라우드를 획득할 때 스캐닝부(111)의 스캔 방향에 대응하는 방향 벡터에 수직으로 교차하는 수직 벡터를 계산하고, 계산된 수직 벡터에 대응하는 경로 상의 한 지점을 목표 지점으로서 선정할 수 있다(S250).Thereafter, the
그리고, 제어부(130)는 단계 S250에서 선정된 이동 목표 위치에 기초하여, 현재 위치에서 이동 목표 위치까지의 이동 경로를 신규 주행 경로로서 생성하며, 생성된 신규 주행 경로를 데이터 저장부(120)에 저장한다(S260). 이처럼, A 위치에서 B 위치로 이동하는 경로를 생성하는 것은 공지의 기술사상이기에 구체적인 설명을 생략한다.Then, based on the movement target position selected in step S250, the
이어서, 제어부(130)는 주행부(140)로 하여금 공간 스캔 장치(100)를 단계 S260에서 생성한 신규 주행 경로를 따라 이동시키도록 제어한다. 이러한, 신규 주행 경로 상에서 정보 획득부(110)의 스캐닝부(111)는 제어부(130)의 제어에 따라 공간을 스캐닝, 즉 폐색 영역에 대응하는 지점을 스캐닝하여 신규 포인트 클라우드를 획득한다. 아울러, 신규 주행 경로 상에서 정보 획득부(110)의 촬영부(112)는 제어부(130)의 제어에 따라 스캐닝부(111)가 스캔한 공간과 동일한 공간에 대해 영상을 획득한다(S260).Subsequently, the
그리고, 제어부(130)는 단계 S230에서 탐색된 폐색 영역에 대응하는 지점 중에서 신규로 스캔되지 않고 남아 있는 것이 있는지를 판단하고, 아직 신규 스캔되지 않은 폐색 영역이 존재하는 경우에는 단계 S250 내지 단계 S270을 재수행한다. 예를 들어, 도 6에 예시한 바와 같이 총 2개의 폐색 영역이 판정된 경우라면 단계 S250 내지 단계 S270가 총 2회에 걸쳐서 수행된다.Then, the
다음으로, 제어부(130)는 단계 S230에서 탐색된 폐색 영역에 대응하는 지점에 대한 신규 스캔이 모두 종료되면, 초기 주행 경로 및 신규 주행 경로에서 획득된 포인트 클라우드와 영상을 정합하여 공간 지도를 생성하고, 생성된 공간 지도를 데이터 저장부(120)에 저장한다(S290).Next, when all of the new scans for the point corresponding to the occluded area searched in step S230 are finished, the
지금까지 설명한 바와 같이, 본 발명의 실시예에 의하면, 공간 지도의 생성을 위해 획득된 포인트 클라우드에 폐색 영역이 존재하는 경우에 폐색 영역에 대응하는 지점을 스캔할 수 있는 신규 주행 경로를 생성함으로써, 사용자가 공간 스캔 장치의 주행을 조정하는 경우 사용자가 신규 주행 경로를 참고할 수 있도록 한다.As described so far, according to an embodiment of the present invention, by generating a new driving path capable of scanning a point corresponding to the occluded area when the occluded area exists in the point cloud obtained for generating the spatial map, When the user adjusts the driving of the spatial scanning device, the user may refer to the new driving route.
나아가, 생성된 주행 경로를 자율 주행하고, 폐색 영역에 대응하는 지점을 스캔하여 포인트 클라우드를 추가로 획득함으로써, 공간 지도의 품질이 향상된다.Furthermore, the quality of the spatial map is improved by autonomously driving the generated driving path and scanning the point corresponding to the occluded area to further acquire a point cloud.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step of each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, so that the instructions executed through the processor of a computer or other programmable data processing equipment are described in each step of the flowchart. It creates a means to do them. These computer program instructions can also be stored on a computer-readable or computer-readable recording medium that can be oriented to a computer or other programmable data processing equipment to implement a function in a particular way, so that it is computer- or computer-readable. It is also possible for the instructions stored in the recording medium to produce an article of manufacture containing instructions means for performing the functions described in each step of the flowchart. Since computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer to generate a computer or other programmable data. It is also possible for instructions to perform processing equipment to provide steps for executing the functions described in each step of the flowchart.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments it is also possible that the functions mentioned in the steps occur out of order. For example, the two steps shown in succession may in fact be performed substantially simultaneously, or it is also possible that the steps are sometimes performed in reverse order depending on the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the claims below, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.
본 발명의 실시예에 의하면, 공간 지도의 생성을 위해 획득된 포인트 클라우드에 폐색 영역이 존재하는 경우에 폐색 영역에 대응하는 지점을 스캔할 수 있는 신규 주행 경로를 생성할 수 있으며, 생성된 주행 경로를 자율 주행하고, 폐색 영역에 대응하는 지점을 스캔하여 포인트 클라우드를 추가로 획득함으로써, 공간 지도의 품질이 향상된다.According to an embodiment of the present invention, when an occlusion area exists in the point cloud obtained for generating a spatial map, a new driving route capable of scanning a point corresponding to the occlusion area may be generated, and the generated travel route By autonomous driving, and scanning the point corresponding to the occluded area to additionally acquire a point cloud, the quality of the spatial map is improved.
이러한 본 발명은 실제 공간에 대한 공간 지도를 생성하는 산업분야를 포함하여, 이러한 공간 지도를 이용하여 가상현실(Virtual Reality) 서비스를 제공하는 다양한 산업분야에 이용할 수 있다.The present invention can be used in various industries that provide a virtual reality service using such a spatial map, including an industrial field for generating a spatial map for a real space.
100: 공간 스캔 장치
110: 정보 획득부
111: 스캐닝부
112: 촬영부
120: 데이터 저장부
130: 제어부
140: 주행부100: space scanning device
110: information acquisition unit
111: scanning unit
112: filming unit
120: data storage
130: control unit
140: driving unit
Claims (10)
상기 스캐닝부에 의해 획득된 포인트 클라우드에 대응하는 상기 공간 내의 초기 주행 경로가 저장된 데이터 저장부와,
제어부를 포함하고,
상기 제어부는,
상기 획득된 포인트 클라우드에 기초하여 깊이 지도 영상을 생성하며,
상기 생성된 깊이 지도 영상 내에 폐색 영역이 존재하는지를 판단하고,
상기 폐색 영역이 존재하는 경우 상기 폐색 영역에 대응하는 지점이 스캔될 수 있는 신규 주행 경로를 생성하며, 상기 생성된 신규 주행 경로를 상기 데이터 저장부에 저장하는
공간 스캔 장치.A scanning unit that scans space to obtain a point cloud,
A data storage unit storing an initial driving path in the space corresponding to the point cloud obtained by the scanning unit;
It includes a control unit,
The control unit,
A depth map image is generated based on the acquired point cloud,
It is determined whether an occlusion area exists in the generated depth map image,
When the occlusion region is present, a new driving path in which a point corresponding to the occlusion region can be scanned is generated, and the generated new driving path is stored in the data storage unit.
Space scanning device.
상기 제어부의 제어에 따라 주행 구동되어 상기 공간 스캔 장치를 이동시키는 주행부를 더 포함하고,
상기 제어부는,
상기 초기 주행 경로 및 상기 신규 주행 경로를 주행하도록 상기 주행부를 제어하며,
상기 초기 주행 경로에서 상기 포인트 클라우드를 획득하도록 상기 스캐닝부를 제어하고,
상기 신규 주행 경로에서 상기 폐색 영역을 스캔하여 신규 포인트 클라우드를 획득하도록 상기 스캐닝부를 제어하는
공간 스캔 장치.According to claim 1,
Further comprising a traveling unit that is driven to drive under the control of the control unit to move the spatial scanning device,
The control unit,
Control the driving unit to drive the initial driving path and the new driving path,
Control the scanning unit to obtain the point cloud in the initial driving path,
The scanning unit is controlled to acquire a new point cloud by scanning the occlusion area in the new driving path.
Space scanning device.
상기 스캐닝부는, 상기 공간 내의 한 지점에서 구 형태로 스캔하며,
상기 제어부는, 상기 구의 중심에 가상의 초점(focal)을 두고, 상기 초점을 중심으로 하는 가상 다면체를 생성하며, 상기 가상 다면체의 각 면에 가상 영상면을 생성하고, 상기 포인트 클라우드를 상기 가상 영상면에 투영(投影)해 상기 포인트 클라우드의 깊이 값을 반영한 상기 깊이 지도 영상을 생성하는
공간 스캔 장치.According to claim 1,
The scanning unit scans in a spherical shape at a point in the space,
The control unit places a virtual focal center in the center of the sphere, generates a virtual polyhedron centered on the focus, generates virtual image planes on each side of the virtual polyhedron, and the point cloud to the virtual image. Projecting on the surface to generate the depth map image reflecting the depth value of the point cloud
Space scanning device.
상기 제어부는, 상기 깊이 지도 영상 내의 픽셀들에 대해 이웃 픽셀간 깊이 차이를 계산하고, 상기 계산된 깊이 차이와 기설정된 기준값을 비교한 결과에 기초하여 상기 폐색 영역을 판정하는
공간 스캔 장치.According to claim 1,
The controller calculates a depth difference between neighboring pixels with respect to pixels in the depth map image, and determines the occlusion area based on a result of comparing the calculated depth difference with a preset reference value.
Space scanning device.
상기 제어부는, 상기 계산된 깊이 차이가 기설정된 기준값보다 큰 픽셀들을 폐색 후보 픽셀로 선정하고, 상기 깊이 지도 영상의 깊이 방향으로 4개의 정육면체를 2X2 형태로 적층 배치하여 형성한 직육면체의 정중앙에 상기 폐색 후보 픽셀을 배치하며, 상기 스캐닝부의 스캔 방향에 기초하여 상기 4개의 정육면체 중 하나의 정육면체를 폐색 후보 영역으로 선정하고, 상기 폐색 후보 영역에 대해 상기 폐색 영역인지 여부를 판정하는
공간 스캔 장치.The method of claim 4,
The controller selects pixels whose calculated difference in depth is greater than a preset reference value as a candidate occlusion, and occludes the occlusion in the center of a cube formed by stacking and placing four cubes in a 2X2 shape in the depth direction of the depth map image. Candidate pixels are arranged, and one cube among the four cubes is selected as an occlusion candidate area based on the scanning direction of the scanning unit, and the occlusion candidate area is determined to be the occlusion area.
Space scanning device.
상기 제어부는, 상기 폐색 후보 영역의 포인트 클라우드의 개수와 기설정된 기준개수를 비교한 결과에 기초하여 상기 폐색 영역인지 여부를 판정하는
공간 스캔 장치.The method of claim 5,
The control unit determines whether or not the occlusion area is based on a result of comparing the number of point clouds of the occlusion candidate area with a preset reference number.
Space scanning device.
상기 제어부는, 상기 폐색 영역이 존재하는 경우 상기 포인트 클라우드에 기초하여 상기 폐색 영역의 3차원 위치 정보를 획득하고, 상기 3차원 위치 정보에 대응하는 지점이 상기 스캐닝부에 의해 스캔될 수 있는 목표 지점을 이동 목표 위치로서 선정하며, 현재 위치에서 상기 이동 목표 위치까지의 이동 경로를 상기 신규 주행 경로로서 생성하는
공간 스캔 장치.According to claim 1,
The control unit acquires three-dimensional position information of the occlusion area based on the point cloud when the occlusion area is present, and a target point where a point corresponding to the three-dimensional position information can be scanned by the scanning unit Is selected as a moving target position, and a moving path from the current position to the moving target position is generated as the new driving route.
Space scanning device.
상기 제어부는, 상기 포인트 클라우드 중 상기 폐색 영역의 주변의 포인트 클라우드를 획득할 때 상기 스캐닝부의 스캔 방향에 대응하는 방향 벡터를 추출하고, 상기 방향 벡터에 기초하여 상기 목표 지점을 선정하는
공간 스캔 장치.The method of claim 7,
The controller extracts a direction vector corresponding to the scanning direction of the scanning unit when acquiring a point cloud around the occluded area among the point clouds, and selects the target point based on the direction vector
Space scanning device.
기설정된 초기 주행 경로에서 공간을 스캔하여 획득된 포인트 클라우드에 기초하여 깊이 지도 영상을 생성하는 단계와,
상기 생성된 깊이 지도 영상 내에 폐색 영역이 존재하는지를 판단하는 단계와,
상기 폐색 영역이 존재하는 경우 상기 폐색 영역에 대응하는 지점이 스캔될 수 있는 신규 주행 경로를 생성하는 단계를 포함하는
정보 처리 방법.A method for processing information performed in a spatial scanning device,
Generating a depth map image based on a point cloud obtained by scanning a space in a preset initial driving path;
Determining whether an occlusion region exists in the generated depth map image,
And generating a new driving route in which the point corresponding to the occlusion area can be scanned when the occlusion area is present.
Information processing methods.
상기 공간 스캔 장치는, 주행 구동되어 상기 공간 스캔 장치를 이동시키는 주행부를 포함하고,
상기 정보 처리 방법은,
상기 초기 주행 경로로 이동하도록 상기 주행부를 제어하여, 상기 포인트 클라우드를 획득하는 단계와,
상기 신규 주행 경로로 이동하도록 상기 주행부를 제어하여, 상기 폐색 영역을 스캔하여 포인트 클라우드를 추가 획득하는 단계를 더 포함하는
정보 처리 방법.
The method of claim 9,
The spatial scanning device includes a driving unit that is driven to move and moves the spatial scanning device,
The information processing method,
Controlling the driving unit to move to the initial driving path, and obtaining the point cloud;
Further comprising the step of controlling the driving unit to move to the new driving path, by scanning the occluded area to further acquire a point cloud
Information processing methods.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180126227A KR102158323B1 (en) | 2018-10-22 | 2018-10-22 | Space scanning apparatus and information processing method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180126227A KR102158323B1 (en) | 2018-10-22 | 2018-10-22 | Space scanning apparatus and information processing method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200045321A true KR20200045321A (en) | 2020-05-04 |
KR102158323B1 KR102158323B1 (en) | 2020-09-21 |
Family
ID=70732552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180126227A KR102158323B1 (en) | 2018-10-22 | 2018-10-22 | Space scanning apparatus and information processing method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102158323B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220074674A (en) * | 2020-11-27 | 2022-06-03 | 한국전자통신연구원 | Apparatus and method for generating 3d data |
KR20240020801A (en) | 2022-08-09 | 2024-02-16 | (주)비주얼신 | Mobile digital twin implement method and apparatus using space modeling |
KR20240020800A (en) | 2022-08-09 | 2024-02-16 | (주)비주얼신 | Mobile digital twin implement method and apparatus using space modeling |
KR20240021539A (en) | 2022-08-10 | 2024-02-19 | (주)비주얼신 | Mobile digital twin implement apparatus using space modeling and virtual plane mapped texture generating method |
KR20240021542A (en) | 2022-08-10 | 2024-02-19 | (주)비주얼신 | Mobile digital twin implement apparatus using space modeling and virtual plane generating method |
KR20240022097A (en) | 2022-08-11 | 2024-02-20 | (주)비주얼신 | Mobile digital twin implement apparatus using space modeling and modeling object editing method |
KR20240022098A (en) | 2022-08-11 | 2024-02-20 | (주)비주얼신 | Digital twin space service providing method and apparatus using mobile digital twin implement |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003266345A (en) * | 2002-03-18 | 2003-09-24 | Sony Corp | Path planning device, path planning method, path planning program, and moving robot device |
KR100860771B1 (en) * | 2008-01-11 | 2008-09-30 | 한국유지관리 주식회사 | System for acquiring inside space information of underground space and shielding structure |
KR20140007367A (en) * | 2011-01-31 | 2014-01-17 | 마이크로소프트 코포레이션 | Three-dimensional environment reconstruction |
KR101572618B1 (en) | 2014-10-16 | 2015-12-02 | 연세대학교 산학협력단 | Apparatus and method for simulating lidar |
KR20160027735A (en) * | 2014-09-02 | 2016-03-10 | 네이버비즈니스플랫폼 주식회사 | Apparatus and method system and mtehod for building indoor map using cloud point |
WO2018021066A1 (en) * | 2016-07-29 | 2018-02-01 | ソニー株式会社 | Image processing device and image processing method |
WO2018112273A2 (en) * | 2016-12-16 | 2018-06-21 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
-
2018
- 2018-10-22 KR KR1020180126227A patent/KR102158323B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003266345A (en) * | 2002-03-18 | 2003-09-24 | Sony Corp | Path planning device, path planning method, path planning program, and moving robot device |
KR100860771B1 (en) * | 2008-01-11 | 2008-09-30 | 한국유지관리 주식회사 | System for acquiring inside space information of underground space and shielding structure |
KR20140007367A (en) * | 2011-01-31 | 2014-01-17 | 마이크로소프트 코포레이션 | Three-dimensional environment reconstruction |
KR20160027735A (en) * | 2014-09-02 | 2016-03-10 | 네이버비즈니스플랫폼 주식회사 | Apparatus and method system and mtehod for building indoor map using cloud point |
KR101572618B1 (en) | 2014-10-16 | 2015-12-02 | 연세대학교 산학협력단 | Apparatus and method for simulating lidar |
WO2018021066A1 (en) * | 2016-07-29 | 2018-02-01 | ソニー株式会社 | Image processing device and image processing method |
WO2018112273A2 (en) * | 2016-12-16 | 2018-06-21 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220074674A (en) * | 2020-11-27 | 2022-06-03 | 한국전자통신연구원 | Apparatus and method for generating 3d data |
KR20240020801A (en) | 2022-08-09 | 2024-02-16 | (주)비주얼신 | Mobile digital twin implement method and apparatus using space modeling |
KR20240020800A (en) | 2022-08-09 | 2024-02-16 | (주)비주얼신 | Mobile digital twin implement method and apparatus using space modeling |
KR20240021539A (en) | 2022-08-10 | 2024-02-19 | (주)비주얼신 | Mobile digital twin implement apparatus using space modeling and virtual plane mapped texture generating method |
KR20240021542A (en) | 2022-08-10 | 2024-02-19 | (주)비주얼신 | Mobile digital twin implement apparatus using space modeling and virtual plane generating method |
KR20240022097A (en) | 2022-08-11 | 2024-02-20 | (주)비주얼신 | Mobile digital twin implement apparatus using space modeling and modeling object editing method |
KR20240022098A (en) | 2022-08-11 | 2024-02-20 | (주)비주얼신 | Digital twin space service providing method and apparatus using mobile digital twin implement |
Also Published As
Publication number | Publication date |
---|---|
KR102158323B1 (en) | 2020-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102158323B1 (en) | Space scanning apparatus and information processing method thereof | |
US10796151B2 (en) | Mapping a space using a multi-directional camera | |
US9322646B2 (en) | Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning | |
US20190163958A1 (en) | Methods and associated systems for grid analysis | |
WO2018015716A1 (en) | Estimating dimensions for an enclosed space using a multi-directional camera | |
US9349073B2 (en) | Apparatus and method for image matching between multiview cameras | |
GB2552058A (en) | Method and device for processing image data and driver assistance system for a vehicle | |
WO2019100700A1 (en) | Portable 3d scanning systems and scanning methods | |
CN111141264A (en) | Unmanned aerial vehicle-based urban three-dimensional mapping method and system | |
CN108367436B (en) | Active camera movement determination for object position and range in three-dimensional space | |
WO2021195939A1 (en) | Calibrating method for external parameters of binocular photographing device, movable platform and system | |
Pages et al. | An approach to visual servoing based on coded light | |
CN109492521B (en) | Face positioning method and robot | |
JP2009530701A (en) | Method for determining depth map from image, apparatus for determining depth map | |
CN111609854A (en) | Three-dimensional map construction method based on multiple depth cameras and sweeping robot | |
CN106682584B (en) | Unmanned aerial vehicle obstacle detection method and device | |
CN108347561A (en) | Laser aiming scanning system and scan method | |
KR101817756B1 (en) | PTM making system based on 3D model with interactive viewpoint control and method using the same | |
JPH0814860A (en) | Model creating device | |
Peñalver et al. | Multi-view underwater 3D reconstruction using a stripe laser light and an eye-in-hand camera | |
Iz et al. | An image-based path planning algorithm using a UAV equipped with stereo vision | |
JP6595878B2 (en) | Element image group generation apparatus and program thereof | |
Benson et al. | Lissajous-like scan pattern for a nodding multi-beam lidar | |
Hemayed et al. | The CardEye: A trinocular active vision system | |
Ozkan et al. | Surface profile-guided scan method for autonomous 3D reconstruction of unknown objects using an industrial robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |