KR102578580B1 - Apparatus and method for generating 3d data - Google Patents

Apparatus and method for generating 3d data Download PDF

Info

Publication number
KR102578580B1
KR102578580B1 KR1020210028936A KR20210028936A KR102578580B1 KR 102578580 B1 KR102578580 B1 KR 102578580B1 KR 1020210028936 A KR1020210028936 A KR 1020210028936A KR 20210028936 A KR20210028936 A KR 20210028936A KR 102578580 B1 KR102578580 B1 KR 102578580B1
Authority
KR
South Korea
Prior art keywords
data
generating
point cloud
occluded area
information
Prior art date
Application number
KR1020210028936A
Other languages
Korean (ko)
Other versions
KR20220074674A (en
Inventor
반윤지
강경규
김혜선
박창준
이만희
추창우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20220074674A publication Critical patent/KR20220074674A/en
Application granted granted Critical
Publication of KR102578580B1 publication Critical patent/KR102578580B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

본 개시는 3차원 데이터 생성 장치 및 방법에 관한 것이다. 본 개시의 실시예에 따른 방법은 외부로부터 데이터를 수신하는 단계, 수신된 데이터에 기초하여 제1 포인트 클라우드 데이터를 생성하는 단계, 제1 포인트 클라우드 데이터에 기초하여 폐색 영역을 검출하는 단계, 검출된 폐색 영역에 기초하여 제2 포인트 클라우드 데이터를 생성하는 단계, 제1 및 제2 포인트 클라우드 데이터에 기초하여 3차원 메쉬 및 텍스쳐 정보를 생성하는 단계, 3차원 메쉬 및 텍스쳐 정보에 기초하여 오브젝트 단위 정보를 생성하는 단계, 그리고 오브젝트 단위 정보에 기반하여 가시화 데이터를 생성하는 단계를 포함한다. 본 개시에 따르면, 폐색 영역에 해당하는 일부 영역의 데이터를 입력 데이터로 이용할 수 있고, 오브젝트 단위로 재가공하여 경량화 및 가시화한 3차원 데이터를 생성할 수 있다.This disclosure relates to an apparatus and method for generating 3D data. A method according to an embodiment of the present disclosure includes receiving data from the outside, generating first point cloud data based on the received data, detecting an occluded area based on the first point cloud data, and detecting an occluded area based on the first point cloud data. Generating second point cloud data based on the occluded area, generating three-dimensional mesh and texture information based on the first and second point cloud data, and generating object unit information based on the three-dimensional mesh and texture information. It includes a generating step and a step of generating visualization data based on object unit information. According to the present disclosure, data in a partial area corresponding to the occluded area can be used as input data, and can be reprocessed on an object basis to generate lightweight and visualized 3D data.

Description

3차원 데이터 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING 3D DATA}Apparatus and method for generating 3D data {APPARATUS AND METHOD FOR GENERATING 3D DATA}

본 개시는 3차원 데이터 생성 장치 및 방법에 관한 것으로, 좀 더 상세하게는, 데이터 획득에서부터 가상 공간 서비스에 적합한 3차원 데이터 생성까지의 파이프라인을 따르는 3차원 데이터 생성 장치 및 방법에 관한 것이다.The present disclosure relates to a 3D data generation device and method, and more specifically, to a 3D data generation device and method that follows a pipeline from data acquisition to 3D data generation suitable for virtual space services.

최근 3차원 공간 복원 기술의 발달 및 AR/VR 시장의 활성화로 3차원 복원 데이터에 대한 관심이 높아지고 있다. 특히 AR/VR 시장의 규모는 가파르게 성장하고 있고, 그에 필수적인 3차원 복원 데이터 수요는 증가하고 있는 추세이다. Recently, interest in 3D restoration data is increasing due to the development of 3D space restoration technology and the revitalization of the AR/VR market. In particular, the size of the AR/VR market is growing rapidly, and the demand for 3D restoration data, which is essential for it, is increasing.

3차원 데이터를 생성하기 위해서는, 영상 획득 과정, 획득한 영상으로부터 3차원 정보를 계산하고 3차원 공간을 생성하는 과정, 그리고 3차원 공간을 활용하고 서비스하기 위한 가시화하는 과정이 필요하다. 일반적인 3차원 데이터 복원 툴은 영상을 입력으로 받아 공간 전체를 복원하는 기능을 제공한다.In order to generate 3D data, an image acquisition process, a process of calculating 3D information from the acquired image and creating a 3D space, and a visualization process to utilize and service the 3D space are required. A typical 3D data restoration tool takes an image as input and provides the ability to restore the entire space.

실제로 사용자가 서비스를 제공하기 위해서는 서비스 시나리오에 적합하게 3차원 데이터를 생성 및 수정할 수 있는 방안이 필요하다. 그러나, 기존의 기술은 사용자의 필요에 따라 일부 영역만을 복원할 수 없거나, 복원된 결과 중 일부 오브젝트만을 활용할 수 없는 문제가 있다.In fact, in order for users to provide services, a method is needed to create and modify 3D data to suit the service scenario. However, the existing technology has a problem in that it cannot restore only some areas according to the user's needs or cannot utilize only some objects among the restored results.

또한, 일반적인 3차원 데이터 복원 툴은 서비스 시나리오의 종류에 따라 복원 결과의 품질과 경량화를 함께 고려하지 않은 문제가 있다. 이와 같은 문제를 해결하기 위해서는 사용자가 직접 3차원 데이터를 수작업으로 수정하여 시간과 노력이 크게 소요되어, 결과적으로 서비스 제작 단가가 증가되는 문제가 있다. 나아가, 일반적인 3차원 데이터 복원 툴로는 복원 데이터에 폐색 영역이 존재하더라도 일부 영역만 복원할 수 없어 전 영역을 다시 복원해야 하는 문제가 있다.In addition, general 3D data restoration tools have a problem in that they do not consider both the quality and weight reduction of restoration results depending on the type of service scenario. In order to solve this problem, the user manually edits the 3D data, which takes a lot of time and effort, resulting in an increase in the service production cost. Furthermore, with general 3D data restoration tools, even if there is an occluded area in the restored data, only some areas cannot be restored, so the entire area must be restored again.

본 개시의 목적은, 3차원 공간을 복원하고 활용하기 위하여, 데이터 획득에서부터 가상 공간 서비스에 적합한 3차원 데이터 생성까지의 파이프라인을 따르는 3차원 데이터 생성 장치 및 방법을 제공하는데 있다.The purpose of the present disclosure is to provide a 3D data generation device and method that follows a pipeline from data acquisition to 3D data generation suitable for virtual space services in order to restore and utilize 3D space.

본 개시의 실시 예에 따른 3차원 데이터 생성 방법은, 외부로부터 이미지 데이터 및 동영상 데이터 중 적어도 하나를 수신하는 단계, 상기 수신된 데이터에 기초하여 3차원 공간 정보를 계산하여 제1 포인트 클라우드 데이터를 생성하는 단계, 상기 제1 포인트 클라우드 데이터에 기초하여 폐색 영역을 검출하는 단계, 상기 검출된 폐색 영역에 기초하여 상기 폐색 영역에 해당하는 일부 영역의 데이터를 수신하여 제2 포인트 클라우드 데이터를 생성하는 단계, 상기 제1 포인트 클라우드 데이터 및 상기 제2 포인트 클라우드 데이터에 기초하여 3차원 메쉬 및 텍스쳐 정보를 생성하는 단계, 상기 3차원 메쉬 및 텍스쳐 정보에 기초하여 오브젝트 단위로 분류하여 재가공한 오브젝트 단위 정보를 생성하는 단계, 그리고 상기 오브젝트 단위 정보에 기초하여 가시화 데이터를 생성하는 단계를 포함한다.A 3D data generation method according to an embodiment of the present disclosure includes receiving at least one of image data and video data from an external source, calculating 3D spatial information based on the received data, and generating first point cloud data. Detecting an occluded area based on the first point cloud data, receiving data of a partial area corresponding to the occluded area based on the detected occluded area, and generating second point cloud data, Generating 3D mesh and texture information based on the first point cloud data and the second point cloud data, classifying into object units based on the 3D mesh and texture information and generating reprocessed object unit information. and generating visualization data based on the object unit information.

본 개시에 의하면, 복원 결과의 폐색 영역에 대응하는 이미지 또는 영상만을 재촬영하여 3차원 데이터를 생성할 수 있다. 또한, 일반적인 3차원 데이터 복원 툴에서 제공하지 않는 오브젝트 분류 및 재구성 기능을 이용하여 오브젝트 단위로 3차원 데이터를 생성할 수 있다.According to the present disclosure, 3D data can be generated by rephotographing only the image or video corresponding to the occluded area of the restoration result. In addition, 3D data can be generated on an object basis using object classification and reconstruction functions that are not provided by general 3D data restoration tools.

나아가, 본 개시에 의하면, 서비스 시나리오에 적합하게 데이터의 경량화 및 가시화할 수 있어 다양한 서비스에 활용할 수 있다.Furthermore, according to the present disclosure, data can be lightened and visualized to suit the service scenario, and thus can be used for various services.

도 1은 본 개시의 실시 예에 따른 3차원 데이터 생성 장치(100)를 개략적으로 보여주는 블록도이다.
도 2는 도 1에 도시된 3차원 복원부(120)의 구성을 좀 더 상세하게 보여주는 블록도이다.
도 3은 도 1에 도시된 재구성부(130)의 구성을 좀 더 상세하게 보여주는 블록도이다.
도 4는 도 1에 도시된 서비스화 작업부(140)의 구성을 좀 더 상세하게 보여주는 블록도이다.
도 5는 본 개시의 실시 예에 따른 폐색영역을 보여주는 도면이다.
도 6은 본 개시의 실시 예에 따른 오브젝트 분류 결과를 보여주는 도면이다.
도 7은 본 개시의 실시 예에 따른 3차원 데이터 생성 방법을 보여주는 순서도이다.
FIG. 1 is a block diagram schematically showing a 3D data generating device 100 according to an embodiment of the present disclosure.
FIG. 2 is a block diagram showing the configuration of the 3D reconstruction unit 120 shown in FIG. 1 in more detail.
FIG. 3 is a block diagram showing the configuration of the reconstruction unit 130 shown in FIG. 1 in more detail.
FIG. 4 is a block diagram showing the configuration of the service work unit 140 shown in FIG. 1 in more detail.
Figure 5 is a diagram showing an occluded area according to an embodiment of the present disclosure.
Figure 6 is a diagram showing object classification results according to an embodiment of the present disclosure.
Figure 7 is a flowchart showing a method for generating 3D data according to an embodiment of the present disclosure.

아래에서는, 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 쉽게 실시할 수 있을 정도로, 본 개시의 실시 예들이 명확하고 상세하게 기재될 것이다.Below, embodiments of the present disclosure will be described clearly and in detail so that a person skilled in the art can easily practice the present disclosure.

상세한 설명에서 사용되는 부 또는 유닛(unit), 모듈(module), 블록(block), ~기(~or, ~er) 등의 용어들을 참조하여 설명되는 구성 요소들 및 도면에 도시된 기능 블록들은 소프트웨어, 또는 하드웨어, 또는 그것들의 조합의 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계 코드, 펌웨어, 임베디드 코드, 및 응용 애플리케이션 소프트웨어일 수 있다. 예를 들어, 하드웨어는 전기 회로, 전자 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어들, 압력 센서, 관성 센서, 멤즈(microelectromechanical system; MEMS), 수동 소자, 또는 그것들의 조합을 포함할 수 있다. The components described with reference to terms such as unit, module, block, ~or, ~er, etc. used in the detailed description and the functional blocks shown in the drawings are It may be implemented in the form of software, hardware, or a combination thereof. By way of example, software may be machine code, firmware, embedded code, and application software. For example, the hardware may include an electrical circuit, an electronic circuit, a processor, a computer, an integrated circuit, integrated circuit cores, a pressure sensor, an inertial sensor, a microelectromechanical system (MEMS), a passive component, or a combination thereof. .

도 1은 본 개시의 실시 예에 따른 3차원 데이터 생성 장치(100)를 개략적으로 보여주는 블록도이다. 3차원 데이터 생성 장치(100)는 데이터 획득부(110), 3차원 복원부(120), 재구성부(130), 서비스화 작업부(140), 및 저장부(150)을 포함할 수 있다.FIG. 1 is a block diagram schematically showing a 3D data generating device 100 according to an embodiment of the present disclosure. The 3D data generating device 100 may include a data acquisition unit 110, a 3D restoration unit 120, a reconstruction unit 130, a servitization unit 140, and a storage unit 150.

3차원 데이터 생성 장치(100)는 입력 데이터(input data; DIN)에 기반하여 온라인 서비스에 필요한 3차원 데이터를 생성하고 저장할 수 있다. 예를 들어, 온라인 서비스는 영화, TV광고, 게임, 또는 AR/VR 등 3차원 공간정보를 필요로 하는 콘텐츠를 사용자에게 제공하는 것과 관련될 수 있다. 예를 들어, 3차원 데이터 생성 장치(100)는 사용자가 원하는 오브젝트 단위 정보에 기반하여 3차원 데이터를 생성하고 저장할 수 있다. 나아가, 3차원 데이터 생성 장치(100)는 3차원 데이터 생성 과정에서 3차원 공간으로 복원되지 않은 영역 즉, 폐색영역이 검출되면 폐색영역에 해당하는 입력 데이터(DIN)를 재획득하여 3차원 데이터를 생성할 수 있다.The 3D data generating device 100 can generate and store 3D data required for online services based on input data ( DIN ). For example, an online service may involve providing users with content that requires 3D spatial information, such as movies, TV commercials, games, or AR/VR. For example, the 3D data generating device 100 may generate and store 3D data based on object unit information desired by the user. Furthermore, when the 3D data generation device 100 detects an area that has not been restored to 3D space, that is, an occluded area, during the 3D data generation process, the 3D data is reacquired by reacquiring the input data ( DIN ) corresponding to the occluded area. can be created.

데이터 획득부(110)는 입력 데이터(DIN)에 기반하여 3차원 데이터 생성에 필요한 처리 데이터(processed data; PD)를 생성할 수 있다. 예를 들어, 입력 데이터(DIN)는 항공기, 인공위성, 또는 드론 등으로 촬영된 이미지 데이터 및 동영상 데이터 중 적어도 하나를 포함할 수 있다. 도시되지 않았으나, 3차원 데이터 생성 장치(100)는 송수신 모듈(미도시) 또는 네트워크 아답터(미도시)를 더 포함할 수 있다. 예를 들어, 송수신 모듈(미도시)은 증폭기, 믹서, 대역폭 필터, 및 송수신 안테나를 포함할 수 있다. 송수신 모듈(미도시)은 항공기, 인공위성, 또는 드론 등과 상호 무선 통신하여 데이터를 물리적으로 송수신할 수 있다. 예를 들어, 네트워크 아답터(미도시)는 항공기, 인공위성, 또는 드론 등으로 촬영된 이미지 데이터 및 동영상 데이터를 전송받기 위해 외부 네트워크와 통신할 수 있다. 예를 들어, 데이터 획득부(110)는 송수신 모듈(미도시) 또는 네트워크 아답터(미도시)로부터 입력 데이터(DIN)를 수신할 수 있다.The data acquisition unit 110 may generate processed data (PD) necessary for generating 3D data based on the input data (D IN ). For example, the input data D IN may include at least one of image data and video data captured by an aircraft, satellite, or drone. Although not shown, the 3D data generating device 100 may further include a transmission/reception module (not shown) or a network adapter (not shown). For example, a transmit/receive module (not shown) may include an amplifier, mixer, bandwidth filter, and transmit/receive antenna. The transmitting and receiving module (not shown) can physically transmit and receive data through wireless communication with an aircraft, satellite, or drone. For example, a network adapter (not shown) may communicate with an external network to receive image data and video data captured by an aircraft, satellite, or drone. For example, the data acquisition unit 110 may receive input data D IN from a transmission/reception module (not shown) or a network adapter (not shown).

나아가, 데이터 획득부(110)는 폐색 영역 피드백 신호(occlusion region feedback signal; ORS)를 수신한 경우, 폐색 영역에 해당하는 새로운 입력 데이터(DIN)를 획득하기 위해, 항공기, 인공위성, 및 드론 등에 재촬영을 요청하는 재촬영 요청 신호(re-shoot request signal; RRS)를 송수신 모듈(미도시) 또는 네트워크 아답터(미도시)를 이용하여 송신할 수 있다.Furthermore, when the data acquisition unit 110 receives an occlusion region feedback signal (ORS), the data acquisition unit 110 uses aircraft, satellites, drones, etc. to acquire new input data ( DIN ) corresponding to the occlusion region. A re-shoot request signal (RRS) requesting re-shooting may be transmitted using a transmission/reception module (not shown) or a network adapter (not shown).

또한, 데이터 획득부(110)는 필요한 경우 입력 데이터(DIN)에 기반하여 전처리(Preprocessing) 과정을 통해 처리 데이터(PD)를 생성할 수 있다. 예를 들어, 전처리 과정은 이미지 또는 동영상 데이터의 사이즈 조절, 형식 변환, 융합, 및 화질 보정 등 중 적어도 하나를 포함할 수 있다. 예시적으로, 데이터 획득부(110)는 2 이상의 입력 데이터(DIN)를 수신한 경우, 각각의 입력 데이터를 융합하는 전처리 과정을 통해 처리 데이터(PD)를 생성할 수 있다. 예를 들어, 처리 데이터(PD)는 입력 데이터(DIN) 자체 또는 입력 데이터(DIN)에 기반하여 전처리 과정을 수행한 데이터일 수 있다.Additionally, the data acquisition unit 110 may generate processed data (PD) through a preprocessing process based on the input data (D IN ), if necessary. For example, the preprocessing process may include at least one of size adjustment, format conversion, fusion, and image quality correction of image or video data. As an example, when receiving two or more input data D IN , the data acquisition unit 110 may generate processed data PD through a preprocessing process of fusing each input data. For example, the processed data (PD) may be the input data (D IN ) itself or data that has undergone a preprocessing process based on the input data (D IN ).

3차원 복원부(120)는 처리 데이터(PD)에 기반하여 3차원 메쉬 및 텍스쳐 정보(MTI)를 생성할 수 있다. 3차원 복원부(120)는 복원 결과 온전히 복원되지 않은 영역, 즉 폐색 영역을 검출할 수 있다. 따라서, 폐색 영역이 검출된 경우, 3차원 복원부(120)는 새로운 입력 데이터(DIN)를 요구하는 폐색 영역 피드백 신호(ORS)를 데이터 획득부(110)에 송신할 수 있다. 예를 들어, 폐색 영역 피드백 신호(ORS)는 폐색 영역에 관한 정보(예를 들어, 좌표값, 방향값, 및 위상값 등), 재촬영 도구의 필요 이동값 정보, 및 필요 조도값 정보 등을 포함할 수 있다. 예를 들어, 폐색 영역에 관한 정보는 폐색 영역을 포함하는 전체 영역에 해당하는 정보 또는 폐색 영역에 해당하는 정보일 수 있다. 나아가, 3차원 복원부(120)는 피드백에 의해 재촬영된 데이터와 외부 메모리(미도시)에 저장된 기존 복원 데이터에 융합할 수 있다. 3차원 복원부(120)의 구체적인 구성 및 동작은 도 2를 통하여 설명될 것이다.The 3D restoration unit 120 may generate 3D mesh and texture information (MTI) based on the processed data (PD). The 3D restoration unit 120 may detect an area that has not been completely restored as a result of restoration, that is, an occluded area. Accordingly, when an occluded area is detected, the 3D reconstruction unit 120 may transmit an occluded area feedback signal (ORS) requesting new input data (D IN ) to the data acquisition unit 110. For example, the occluded area feedback signal (ORS) includes information about the occluded area (e.g., coordinate value, direction value, and phase value, etc.), required movement value information of the rephotograph tool, and required illuminance value information. It can be included. For example, information about the occluded area may be information corresponding to the entire area including the occluded area or information corresponding to the occluded area. Furthermore, the 3D restoration unit 120 can fuse the rephotographed data through feedback with the existing restored data stored in an external memory (not shown). The specific configuration and operation of the 3D reconstruction unit 120 will be explained with reference to FIG. 2.

재구성부(130)는 3차원 메쉬 및 텍스쳐 정보(3D mesh and texture information; MTI)에 기반하여 오브젝트 단위 정보(object information; OBJI)를 생성할 수 있다. 예를 들어, 재구성부(130)는 3차원 메쉬 및 텍스쳐 정보(MTI)를 오브젝트 단위(예를 들어, 자동차, 빌딩, 나무 등)로 분류할 수 있고, 분류된 오브젝트들을 사용자의 요청에 따라 재구성할 수 있다. 재구성부(130)의 구체적인 구성 및 동작은 도 3을 통하여 설명될 것이다.The reconstruction unit 130 may generate object information (OBJI) based on 3D mesh and texture information (MTI). For example, the reconstruction unit 130 may classify 3D mesh and texture information (MTI) into object units (e.g., cars, buildings, trees, etc.) and reconstruct the classified objects according to the user's request. can do. The specific configuration and operation of the reconfiguration unit 130 will be explained with reference to FIG. 3.

서비스화 작업부(140)는 오브젝트 단위 정보(OBJI)에 기반하여 가시화 데이터(visualized data; VD)를 생성할 수 있다. 서비스화 작업부(140)는 사용자가 원하는 품질과 용량을 가진 3차원 데이터로 가시화할 수 있다. 예를 들어, 빌딩 오브젝트의 경우, 서비스화 작업부(140)는 빌딩을 표현할 수 있는 여러 가지 특징을 정의하고 정의한 특징으로만 빌딩을 가시화할 수 있다. 예를 들어, 서비스화 작업부(140)는 3차원 데이터를 사용자의 요청 또는 서비스 장치의 사양에 따라 가공(예를 들어, 경량화)할 수 있다. 3차원 데이터의 경량화가 요구되지 않는 경우에는, 서비스화 작업부(140)는 3차원 데이터를 경량화하지 않을 수 있다. 서비스화 작업부(140)의 구체적인 구성 및 동작은 도 4를 통하여 설명될 것이다.The service work unit 140 may generate visualized data (VD) based on object unit information (OBJI). The service work unit 140 can be visualized as three-dimensional data with the quality and capacity desired by the user. For example, in the case of a building object, the service work unit 140 can define various characteristics that can represent the building and visualize the building only with the defined characteristics. For example, the service processing unit 140 may process (for example, make it lightweight) 3D data according to the user's request or the specifications of the service device. If lightweighting of the 3D data is not required, the service work unit 140 may not lighten the 3D data. The specific configuration and operation of the servitization work unit 140 will be explained with reference to FIG. 4.

저장부(150)는 가시화 데이터(VD)를 저장하도록 구성될 수 있다. 예를 들어, 저장부(150)는 일반적인 기억장치인 RAM(random access memory), 또는 플래시 메모리(flash memory) 등으로 구성될 수 있다. 그러나, 저장부(150)는 이러한 구성에 한정되지 않고 저장을 위한 어떠한 메모리로도 구성될 수 있으며, 외부 메모리(미도시)의 일부일 수 있다.The storage unit 150 may be configured to store visualization data (VD). For example, the storage unit 150 may be composed of random access memory (RAM), a general storage device, or flash memory. However, the storage unit 150 is not limited to this configuration and may be composed of any memory for storage, and may be part of an external memory (not shown).

도 2는 도 1에 도시된 3차원 복원부(120)의 구성을 좀 더 상세하게 보여주는 블록도이다. 3차원 복원부(120)는 공간정보 계산기(121), 3차원 공간 복원기(122), 및 메쉬/텍스쳐 생성기(123)를 포함할 수 있다.FIG. 2 is a block diagram showing the configuration of the 3D reconstruction unit 120 shown in FIG. 1 in more detail. The 3D reconstruction unit 120 may include a spatial information calculator 121, a 3D spatial restorer 122, and a mesh/texture generator 123.

공간정보 계산기(121)는 처리 데이터(PD)에 기반하여 3차원 공간 정보(SI)를 생성할 수 있다. 예를 들어, 공간정보 계산기(121)는 2차원 형태의 처리 데이터(PD)를 이용하여 3차원 공간을 복원하기 위한 3차원 공간 정보(SI)를 계산할 수 있다. 예를 들어, 공간정보 계산기(121)는 하나 이상의 처리 데이터(PD)에 기반하여 3차원 공간 특징들을 추출하고, 변환 함수를 이용하여 3차원 공간 정보(SI)를 계산할 수 있다.The spatial information calculator 121 may generate 3D spatial information (SI) based on the processed data (PD). For example, the spatial information calculator 121 may calculate 3D spatial information (SI) to restore a 3D space using 2D processed data (PD). For example, the spatial information calculator 121 may extract 3D spatial features based on one or more processed data (PD) and calculate 3D spatial information (SI) using a transformation function.

3차원 공간 복원기(122)는 3차원 공간 정보(3D spatial information; SI)에 기반하여 포인트 클라우드 데이터(point cloud data; PCD)를 생성할 수 있다. 포인트 클라우드의 각 포인트들은 3차원 공간 좌표값, 색상값, 및 노말값 등을 가질 수 있다. 예를 들어, 포인트 클라우드 데이터(PCD)는 3차원 공간 정보(SI)에 의해 복원되지 않은 영역, 즉 폐색 영역(occlusion region)을 포함할 수 있다. 3차원 공간 복원기(122)는 폐색 영역을 검출할 수 있다. 폐색 영역이 검출된 경우, 공간 복원기(122)는 데이터 획득부(110)에 폐색 영역 피드백 신호(ORS)를 송신할 수 있다. 이는 3차원 복원부(120)가 폐색 영역에 해당하는 처리 데이터(PD)를 3차원 복원할 수 있도록 하기 위함이다.The 3D space restorer 122 may generate point cloud data (PCD) based on 3D spatial information (SI). Each point in the point cloud may have 3D spatial coordinates, color values, and normal values. For example, point cloud data (PCD) may include a region that is not restored by 3D spatial information (SI), that is, an occlusion region. The 3D space restorer 122 can detect the occluded area. When an occluded area is detected, the spatial restorer 122 may transmit an occluded area feedback signal (ORS) to the data acquisition unit 110. This is to enable the 3D restoration unit 120 to 3D restore the processed data (PD) corresponding to the occluded area.

나아가, 3차원 공간 복원기(122)는 3차원 공간 정보(SI)를 외부 메모리(미도시)에 임시 저장할 수 있다. 예를 들어, 3차원 공간 복원기(122)는 폐색 영역 피드백 신호(ORS)에 의해 새롭게 생성된 3차원 공간 정보(SI)를 외부 메모리(미도시)에 저장된 기존의 3차원 공간 정보(SI)와 융합할 수 있다. 결과적으로 폐색 영역이 검출되지 않았다면, 3차원 공간 복원기(122)는 융합된 또는 융합되지 않은 3차원 공간 정보(SI)를 이용하여 포인트 클라우드 데이터(PCD)를 생성할 수 있다.Furthermore, the 3D space restorer 122 may temporarily store 3D space information (SI) in an external memory (not shown). For example, the 3D space restorer 122 combines the 3D spatial information (SI) newly generated by the occlusion region feedback signal (ORS) with the existing 3D spatial information (SI) stored in an external memory (not shown). can be fused with As a result, if the occlusion area is not detected, the 3D space restorer 122 may generate point cloud data (PCD) using fused or unfused 3D spatial information (SI).

메쉬/텍스쳐 생성기(123)는 포인트 클라우드 데이터(PCD)에 기반하여 3차원 메쉬 및 텍스쳐 정보(MTI)를 생성할 수 있다. 예를 들어, 메쉬/텍스쳐 생성기(123)는 포인트 클라우드에서 노이즈 정보를 갖는 포인트를 제거할 수 있다. 나아가, 메쉬/텍스쳐 생성기(123)는 평탄화 등의 작업을 통해 보다 직관적인 3차원 메쉬 및 텍스쳐 정보(MTI)를 생성할 수 있다. The mesh/texture generator 123 may generate 3D mesh and texture information (MTI) based on point cloud data (PCD). For example, the mesh/texture generator 123 may remove points with noise information from the point cloud. Furthermore, the mesh/texture generator 123 can generate more intuitive 3D mesh and texture information (MTI) through operations such as flattening.

도 3은 도 1에 도시된 재구성부(130)의 구성을 좀 더 상세하게 보여주는 블록도이다. 재구성부(130)는 오브젝트 분류기(131), 및 오브젝트 처리기(132)를 포함할 수 있다.FIG. 3 is a block diagram showing the configuration of the reconstruction unit 130 shown in FIG. 1 in more detail. The reconstruction unit 130 may include an object classifier 131 and an object processor 132.

오브젝트 분류기(131)는 3차원 메쉬 및 텍스쳐 정보(MTI)에 기반하여 분류된 오브젝트들(OSEG)을 생성할 수 있다. 예를 들어, 오브젝트 분류기(131)는 하나의 이어진 형태로 생성된 3차원 메쉬 및 텍스쳐 정보(MTI)를 개별적인 오브젝트 단위로 분리하는 세그멘테이션(segmentation)과정을 수행할 수 있다. 예를 들어, 분류된 오브젝트(segmented object; OSEG)들은 물체의 외형을 기준으로 분류된 건물, 도로, 나무 또는 자동차 등의 오브젝트들을 포함할 수 있다. The object classifier 131 may generate classified objects (O SEG ) based on 3D mesh and texture information (MTI). For example, the object classifier 131 may perform a segmentation process that separates 3D mesh and texture information (MTI) generated in one continuous form into individual object units. For example, segmented objects (O SEG ) may include objects such as buildings, roads, trees, or cars that are classified based on the object's appearance.

오브젝트 처리기(132)는 분류된 오브젝트들(OSEG)에 기반하여 오브젝트 단위 정보(OBJI)를 생성할 수 있다. 예를 들어, 오브젝트 처리기(132)는 분류된 오브젝트들(OSEG)를 이용하여 사용자가 원하는 형태로 오브젝트들을 새로 생성하거나 재구성한 오브젝트 단위 정보(OBJI)를 생성할 수 있다. The object processor 132 may generate object unit information (OBJI) based on the classified objects (O SEG ). For example, the object processor 132 may create object unit information (OBJI) by using the classified objects (O SEG ) to create new or reorganized objects in a form desired by the user.

도 4는 도 1에 도시된 서비스화 작업부(140)의 구성을 좀 더 상세하게 보여주는 블록도이다. 서비스화 작업부(140)는 경량화 작업부(141), 가시화 작업부(142), 및 데이터 버퍼(143)를 포함할 수 있다.FIG. 4 is a block diagram showing the configuration of the service work unit 140 shown in FIG. 1 in more detail. The service work unit 140 may include a lightweight work unit 141, a visualization work unit 142, and a data buffer 143.

경량화 작업부(141)는 오브젝트 단위 정보(OBJI)에 기반하여 경량화 데이터를 생성할 수 있다. 예를 들어, 서비스 시나리오상 데이터의 경량화가 필요한 경우, 경량화 작업부(141)는 데이터 용량 및 품질간의 트레이드 오프(trade-off) 관계를 이용한 데이터 경량화, 사용자의 요청에 따른 특정 오트젝트 데이터에 대한 선택적 경량화, 및 오브젝트를 제외한 백그라운드 영역의 제거 등의 압축기술을 이용한 데이터 경량화 중 적어도 하나를 포함하는 경량화 작업을 통해 경량화 데이터를 생성할 수 있다. 경량화 작업부(141)는 경량화 데이터가 후술하는 가시화 작업부(142)에 의해 가시화되기 전에 데이터 버퍼(143)에 경량화 데이터를 임시 저장할 수 있다.The lightweight work unit 141 may generate lightweight data based on object unit information (OBJI). For example, when lightweighting of data is required in a service scenario, the lightweighting task unit 141 performs data lightweighting using the trade-off relationship between data capacity and quality, and provides data lightweighting for specific object data according to the user's request. Lightweight data can be created through a lightweighting operation that includes at least one of selective lightweighting and data lightweighting using compression technology such as removal of background areas excluding objects. The lightweight work unit 141 may temporarily store the lightweight data in the data buffer 143 before the lightweight data is visualized by the visualization work unit 142, which will be described later.

가시화 작업부(142)는 오브젝트 단위 정보(OBJI) 또는 경량화 데이터에 기반하여 가시화 데이터(VD)를 생성할 수 있다. 예를 들어, 서비스 시나리오상 데이터의 경량화가 필요하지 않은 경우, 가시화 작업부(142)는 직접 오브젝트 단위 정보(OBJI)를 수신하여 가시화 데이터(VD)를 생성할 수 있다. 반면, 서비스 시나리오상 데이터의 경량화가 필요한 경우, 가시화 작업부(142)는 경량화 데이터에 기반하여 가시화 데이터(VD)를 생성할 수 있다.The visualization task unit 142 may generate visualization data (VD) based on object unit information (OBJI) or lightweight data. For example, when lightweighting of data is not required in a service scenario, the visualization unit 142 may directly receive object unit information (OBJI) and generate visualization data (VD). On the other hand, when lightweight data is required in a service scenario, the visualization task unit 142 may generate visualization data (VD) based on the lightweight data.

나아가, 가시화 작업부(141)는 가시화 데이터(VD)가 서비스 시나리오에 적절한 용량의 데이터로 생성되었는지 여부를 확인할 수 있다. 용량이 부적격한 경우, 추가적인 경량화 작업이 필요하므로, 경량화 작업부(141)에 추가적인 경량화 작업을 요청할 수 있다. 경량화 작업을 요청 받은 경량화 작업부(141)는 데이터 버퍼(143)에 저장된 경량화 데이터를 추가적으로 경량화하여 가시화 작업부(142)에 전달할 수 있다. 서비스화 작업부(140)는 서비스 시나리오에 적절한 용량의 데이터로 가시화 데이터(VD)가 생성될 때까지 경량화 및 가시화 작업을 반복할 수 있다.Furthermore, the visualization task unit 141 may check whether the visualization data (VD) has been created with data of an appropriate capacity for the service scenario. If the capacity is inadequate, additional lightweighting work is required, so additional lightweighting work can be requested from the lightweighting work unit 141. The lightweight work unit 141, which has received a request for lightweight work, may additionally reduce the lightweight data stored in the data buffer 143 and transmit it to the visualization work unit 142. The service work unit 140 may repeat lightweighting and visualization tasks until visualization data (VD) is created with an appropriate amount of data for the service scenario.

도 5는 본 개시의 실시 예에 따른 폐색영역을 보여주는 도면이다. 이하, 도 1 및 도 2를 참조하여 설명한다. 3차원 복원부(120)에서, 3차원 공간 복원기(122)는 3차원 공간 정보(SI)를 통해 폐색 영역을 검출할 수 있다. 도 5에 도시된 바와 같이, 3차원 공간 정보(SI)는 다른 물체에 의해 가리워져 복원되지 않는 부분, 즉 폐색 영역을 포함할 수 있다. 폐색 영역이 검출된 경우, 3차원 공간 복원기(122)는 데이터 획득부(110)에 폐색 영역 피드백 신호(ORS)를 송신함으로써 폐색 영역에 해당하는 새로운 입력 데이터(DIN)를 요구할 수 있다.Figure 5 is a diagram showing an occluded area according to an embodiment of the present disclosure. Hereinafter, description will be made with reference to FIGS. 1 and 2. In the 3D reconstruction unit 120, the 3D space restorer 122 may detect the occluded area through 3D spatial information (SI). As shown in FIG. 5, 3D spatial information (SI) may include a portion that is obscured by another object and cannot be restored, that is, an occluded area. When an occluded area is detected, the 3D space restorer 122 may request new input data (D IN ) corresponding to the occluded area by transmitting an occluded area feedback signal (ORS) to the data acquisition unit 110.

도 6은 본 개시의 실시 예에 따른 오브젝트 분류 결과를 보여주는 도면이다. 이하, 도 1 및 도 3을 참조하여 설명한다. 도 6에 도시된 바와 같이, 재구성부(130)의 오브젝트 분류기(131)는 하나의 이어진 형태로 생성된 3차원 메쉬 및 텍스쳐 정보(MTI)를 오브젝트 단위로 분리할 수 있다. 도 6에 도시된 분류된 오브젝트들(OSEG)은 오브젝트 처리기(132)를 통해 수정 또는 재구성될 수 있다.Figure 6 is a diagram showing object classification results according to an embodiment of the present disclosure. Hereinafter, description will be made with reference to FIGS. 1 and 3. As shown in FIG. 6, the object classifier 131 of the reconstruction unit 130 can separate the 3D mesh and texture information (MTI) generated in one continuous form into object units. Classified objects O SEG shown in FIG. 6 may be modified or reorganized through the object processor 132.

도 7은 본 개시의 실시 예에 따른 3차원 데이터 생성 방법을 보여주는 순서도이다. 이하, 도 1 내지 도 3을 참조하여 설명한다.Figure 7 is a flowchart showing a method for generating 3D data according to an embodiment of the present disclosure. Hereinafter, description will be made with reference to FIGS. 1 to 3.

단계 S110에서, 데이터 획득부(110)는 항공기, 인공위성, 또는 드론 등으로 촬영된 이미지 데이터 및 동영상 데이터 중 적어도 하나를 입력받을 수 있다. 폐색 영역 피드백 신호(ORS)를 수신한 경우, 데이터 획득부(110)는 항공기, 인공위성, 또는 드론 등에 폐색영역에 해당하는 일부 영역에 대한 재촬영을 요청할 수 있고, 이에 따라 재촬영된 이미지 데이터 및 동영상 데이터 중 적어도 하나를 입력받을 수 있다.In step S110, the data acquisition unit 110 may receive at least one of image data and video data captured by an aircraft, satellite, or drone. When receiving the occluded area feedback signal (ORS), the data acquisition unit 110 may request re-photography of some areas corresponding to the occluded area from an aircraft, satellite, or drone, and the re-photographed image data and At least one of the video data can be input.

단계 S120에서, 데이터 획득부(110)는 입력 데이터(DIN)를 획득하여 처리 데이터(PD)를 생성할 수 있고, 2 이상의 입력 데이터(DIN)를 획득한 경우에는, 입력 데이터(DIN)들을 융합하여 처리 데이터(PD)를 생성할 수 있다.In step S120, the data acquisition unit 110 may acquire input data (D IN ) to generate processed data (PD), and when two or more input data (D IN ) are acquired, input data (D IN) ) can be fused to generate processed data (PD).

단계 S130에서, 공간정보 계산기(121)는 입력 받은 처리 데이터(PD)의 3차원 공간 정보(SI)를 산출하고 이를 3차원 공간 복원기(122)에 전달할 수 있다. 3차원 공간 복원기(122)은 3차원 공간 정보(SI)를 이용하여 포인트 클라우드 형태로 데이터를 복원하고 외부 메모리(미도시)에 저장할 수 있다.In step S130, the spatial information calculator 121 may calculate 3D spatial information (SI) of the input processed data (PD) and transmit it to the 3D spatial restorer 122. The 3D space restorer 122 can restore data in the form of a point cloud using 3D spatial information (SI) and store it in an external memory (not shown).

단계 S140에서, 3차원 공간 복원기(122)는 3차원 공간으로 복원된 데이터에 폐색 영역을 검출할 수 있다. 만약 폐색 영역이 검출되었다면(예), 절차는 S110 단계로 이동한다. 이 경우, 3차원 공간 복원기(122)는 데이터 획득부(110)로 폐색 영역 피드백 신호(ORS)를 전달할 수 있다. 폐색 영역 피드백 신호(ORS)를 전달받은 데이터 획득부(110)는, 폐색 영역에 해당하는 일부 영역에 대한 이미지 데이터 및 동영상 데이터 중 적어도 하나를 입력받을 수 있다. 반면, 폐색 영역에 검출되지 않았다면(아니오), 절차는 S150 단계로 이동한다.In step S140, the 3D space restorer 122 may detect an occluded area in data restored to 3D space. If an occluded area is detected (Yes), the procedure moves to step S110. In this case, the 3D space restorer 122 may transmit the occluded area feedback signal (ORS) to the data acquisition unit 110. The data acquisition unit 110 that receives the occluded area feedback signal (ORS) may receive at least one of image data and video data for a partial area corresponding to the occluded area. On the other hand, if the occlusion area is not detected (No), the procedure moves to step S150.

단계 S150에서, 적어도 1회 이상 폐색 영역 피드백 신호(ORS)를 송신한 경우, 3차원 공간 복원기(122)는 외부 메모리(미도시)에 저장된 포인트 클라우드 데이터(PCD)와 폐색 영역 피드백 신호(ORS)에 의해 새롭게 생성된 포인트 클라우드 데이터(PCD)를 융합할 수 있다. 메쉬/텍스쳐 생성기(123)는 포인트 클라우드 데이터(PCD)를 이용하여 3차원 메쉬 및 텍스쳐 정보(MTI)를 생성할 수 있다. In step S150, when the occluded area feedback signal (ORS) is transmitted at least once, the 3D space restorer 122 stores the point cloud data (PCD) and the occluded area feedback signal (ORS) stored in an external memory (not shown). ), the newly created point cloud data (PCD) can be fused. The mesh/texture generator 123 can generate 3D mesh and texture information (MTI) using point cloud data (PCD).

단계 S160에서, 오브젝트 분류기(131)는 하나의 이어진 형태인 3차원 메쉬 및 텍스쳐 정보(MTI)를 오브젝트 단위로 분리할 수 있다. 오브젝트 처리기(132)는 분류된 오브젝트들(OSEG)을 이용하여 오브젝트를 새로 생성하거나 재구성할 수 있다. In step S160, the object classifier 131 may separate one continuous 3D mesh and texture information (MTI) into object units. The object processor 132 may create a new object or reorganize it using the classified objects (O SEG ).

단계 S170에서, 오브젝트 처리기(132)는 오브젝트의 분류 적합성, 오브젝트 간 경계 추정 적합성 등을 확인할 수 있다. 상기 적합성을 수치화한 값이 사용자의 요청으로 임의로 설정된 임계값에 미치지 못할 경우, 절차는 S160으로 이동하여 다시 오브젝트를 새로 생성하거나 재구성할 수 있고, 임계값을 초과한 경우, S180로 이동할 수 있다.In step S170, the object processor 132 may check object classification suitability, boundary estimation suitability between objects, etc. If the value quantifying the suitability does not reach the threshold arbitrarily set at the user's request, the procedure moves to S160 to create or reorganize a new object, and if it exceeds the threshold, it moves to S180.

단계 S180에서, 서비스화 작업부(140)는 서비스 시나리오에 적합하게 3차원 데이터를 경량화 및/또는 가시화할 수 있다.In step S180, the service work unit 140 may lighten and/or visualize the 3D data to suit the service scenario.

단계 S190에서, 서비스화 작업부(140)는 서비스 시나리오에 적합한 용량의 3차원 데이터가 생성되었는지 여부를 확인할 수 있다. 용량이 적합하다면(예), 저장부(150)는 3차원 가시화 데이터(VD)를 저장하면서 전체 절차는 종료된다. 용량이 부적합하다면(아니오), 절차는 S180로 이동한다.In step S190, the servitization task unit 140 may check whether 3D data of a capacity suitable for the service scenario has been generated. If the capacity is suitable (Yes), the storage unit 150 stores the 3D visualization data (VD) and the entire procedure is completed. If the capacity is inadequate (No), the procedure moves to S180.

이상 본 개시의 실시 예에 따른 3차원 데이터 생성 장치 및 방법이 설명되었다. 본 개시에 의하면, 데이터 획득에서부터 가상 공간 서비스에 적합한 3차원 데이터 생성까지의 전체 파이프라인을 수행한다. 입력이 부족하여 폐색 영역이 발생한 경우 일부만 재촬영하여 3차원 데이터를 생성할 수 있고, 일반적인 3차원 데이터 복원 툴에서 제공하지 않는 오브젝트 분류 및 재구성 기능을 이용하여 오브젝트 단위로 3차원 데이터를 활용할 수 있다. 나아가, 서비스 시나리오에 적합하게 3차원 데이터를 경량화 및 가시화할 수 있다.The 3D data generating device and method according to embodiments of the present disclosure have been described above. According to the present disclosure, the entire pipeline from data acquisition to generation of 3D data suitable for virtual space services is performed. If an occluded area occurs due to insufficient input, 3D data can be generated by rephotographing only a portion of the data, and 3D data can be utilized on an object basis by using object classification and reconstruction functions that are not provided by general 3D data restoration tools. . Furthermore, 3D data can be lightweight and visualized to suit the service scenario.

상술된 내용은 본 개시를 실시하기 위한 구체적인 실시 예들이다. 본 개시는 상술된 실시 예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 개시는 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 개시의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 개시의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.The above-described contents are specific embodiments for carrying out the present disclosure. The present disclosure will include not only the above-described embodiments, but also embodiments that are simply designed or can be easily changed. In addition, the present disclosure will also include techniques that can be easily modified and implemented using the embodiments. Therefore, the scope of the present disclosure should not be limited to the above-described embodiments, but should be determined by the claims and equivalents of this disclosure as well as the claims described later.

100: 3차원 데이터 생성장치 110: 데이터 획득부
120: 3차원 복원부 121: 공간정보 계산기
122: 3차원 공간 복원기 123: 메쉬/텍스쳐 생성기
130: 재구성부 131: 오브젝트 분류기
132: 오브젝트 처리기 140: 서비스화 작업부
141: 경량화 작업부 142: 가시화 작업부
143: 데이터 버퍼 150: 저장부
100: 3D data generation device 110: Data acquisition unit
120: 3D restoration unit 121: Spatial information calculator
122: 3D space restorer 123: Mesh/texture generator
130: Reconstruction unit 131: Object classifier
132: Object processor 140: Servitization work unit
141: Lightweight work department 142: Visualization work department
143: data buffer 150: storage unit

Claims (10)

3차원 데이터 생성 방법에 있어서,
외부로부터 이미지 데이터 및 동영상 데이터 중 적어도 하나를 수신하는 단계;
상기 수신된 데이터에 기초하여 3차원 공간 정보를 계산하여 제1 포인트 클라우드 데이터를 생성하는 단계;
상기 제1 포인트 클라우드 데이터에 기초하여 폐색 영역을 검출하는 단계;
상기 검출된 폐색 영역에 기초하여 상기 폐색 영역에 해당하는 일부 영역의 데이터를 수신하여 제2 포인트 클라우드 데이터를 생성하는 단계;
상기 제1 포인트 클라우드 데이터 및 상기 제2 포인트 클라우드 데이터에 기초하여 3차원 메쉬 및 텍스쳐 정보를 생성하는 단계;
상기 3차원 메쉬 및 텍스쳐 정보에 기초하여 오브젝트 단위로 분류하여 재가공한 오브젝트 단위 정보를 생성하는 단계; 그리고
상기 오브젝트 단위 정보에 기초하여 가시화 데이터를 생성하는 단계를 포함하되,
상기 재가공한 오브젝트 단위 정보를 생성하는 단계 이후에 상기 오브젝트 단위의 분류가 적합한지 여부를 판단하는 단계를 포함하는 방법.
In the 3D data generation method,
Receiving at least one of image data and video data from an external source;
generating first point cloud data by calculating 3D spatial information based on the received data;
detecting an occluded area based on the first point cloud data;
generating second point cloud data by receiving data of a partial area corresponding to the occluded area based on the detected occluded area;
Generating 3D mesh and texture information based on the first point cloud data and the second point cloud data;
Classifying into object units based on the 3D mesh and texture information and generating reprocessed object unit information; and
Including generating visualization data based on the object unit information,
A method including the step of determining whether the classification of the object unit is appropriate after the step of generating the reprocessed object unit information.
제 1 항에 있어서,
상기 제1 및 제2 포인트 클라우드 데이터를 생성하는 단계는, 상기 수신된 데이터 및 상기 수신된 폐색 영역 데이터 각각의 사이즈 조절, 형식 변환, 융합, 및 화질 보정 중 적어도 하나를 수행하는 단계를 포함하는 방법.
According to claim 1,
Generating the first and second point cloud data includes performing at least one of size adjustment, format conversion, fusion, and image quality correction of each of the received data and the received occluded area data. .
제 1 항에 있어서,
상기 폐색 영역을 검출하는 단계는, 상기 수신된 데이터의 상기 폐색 영역에 대한 새로운 데이터를 획득하기 위해 폐색 영역 피드백 신호를 송신하여 상기 폐색 영역에 대한 재촬영을 요구하는 단계를 포함하는 방법.
According to claim 1,
Detecting the occluded area includes requesting re-photographing of the occluded area by transmitting an occluded area feedback signal to obtain new data for the occluded area of the received data.
제 3 항에 있어서,
상기 폐색 영역 피드백 신호는, 상기 폐색 영역에 관한 좌표값, 재촬영 도구의 필요 이동값, 및 재촬영 도구의 필요 조도값에 대한 정보들을 포함하는 방법.
According to claim 3,
The method wherein the occluded area feedback signal includes information on a coordinate value regarding the occluded area, a required movement value of the rephotograph tool, and a required illuminance value of the rephotograph tool.
제 3 항에 있어서,
상기 제2 포인트 클라우드 데이터를 생성하는 단계는, 상기 폐색 영역 피드백 신호에 의해 생성된 3차원 공간 정보를 상기 계산된 3차원 공간 정보에 융합하는 단계를 포함하는 방법.
According to claim 3,
The method of generating the second point cloud data includes fusing 3D spatial information generated by the occlusion area feedback signal with the calculated 3D spatial information.
제 1 항에 있어서,
상기 제1 및 제2 포인트 클라우드 데이터들 각각의 포인트들은 3차원 공간 좌표값, 색상값, 노말값, 및 노이즈에 대한 정보들 중 적어도 하나를 포함하는 방법.
According to claim 1,
Each point of the first and second point cloud data includes at least one of three-dimensional space coordinate values, color values, normal values, and noise information.
제 6 항에 있어서,
상기 3차원 메쉬 및 텍스쳐 정보를 생성하는 단계는, 상기 제1 및 제2 포인트 클라우드 데이터들에서 노이즈 정보를 갖는 포인트를 제거하는 단계를 포함하는 방법.
According to claim 6,
The method of generating the 3D mesh and texture information includes removing points having noise information from the first and second point cloud data.
삭제delete 제 1 항에 있어서,
상기 가시화 데이터를 생성하는 단계 이전에 상기 오브젝트 단위 정보에 기초하여 생성된 데이터를 경량화하는 단계를 더 포함하는 경우, 상기 가시화 데이터는 상기 경량화된 데이터에 기초하여 생성되는 방법.
According to claim 1,
If the method further includes the step of lightening data generated based on the object unit information before generating the visualization data, the visualization data is generated based on the lightened data.
제 9 항에 있어서,
상기 가시화 데이터를 생성하는 단계 이후에 데이터 용량을 판단하는 단계, 및 상기 판단 결과에 따라 상기 가시화 데이터를 경량화하는 단계를 더 포함하는 방법.
According to clause 9,
The method further includes determining a data capacity after generating the visualization data, and reducing the weight of the visualization data according to the determination result.
KR1020210028936A 2020-11-27 2021-03-04 Apparatus and method for generating 3d data KR102578580B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200163018 2020-11-27
KR20200163018 2020-11-27

Publications (2)

Publication Number Publication Date
KR20220074674A KR20220074674A (en) 2022-06-03
KR102578580B1 true KR102578580B1 (en) 2023-09-15

Family

ID=81983312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210028936A KR102578580B1 (en) 2020-11-27 2021-03-04 Apparatus and method for generating 3d data

Country Status (1)

Country Link
KR (1) KR102578580B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013886B1 (en) * 2008-03-03 2011-02-14 경상대학교산학협력단 Method and apparatus for estimating initial pole position of AC permanent magnet synchronous motor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024076027A1 (en) * 2022-10-07 2024-04-11 삼성전자 주식회사 Method for generating point cloud and electronic device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102163389B1 (en) * 2018-10-16 2020-10-08 에스케이텔레콤 주식회사 3d model producing method and apparatus
KR102158323B1 (en) * 2018-10-22 2020-09-21 에스케이텔레콤 주식회사 Space scanning apparatus and information processing method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013886B1 (en) * 2008-03-03 2011-02-14 경상대학교산학협력단 Method and apparatus for estimating initial pole position of AC permanent magnet synchronous motor

Also Published As

Publication number Publication date
KR20220074674A (en) 2022-06-03

Similar Documents

Publication Publication Date Title
KR102578580B1 (en) Apparatus and method for generating 3d data
US10783668B2 (en) Handling duplicate points in point cloud compression
EP3669547B1 (en) Method and apparatus for point-cloud streaming
EP3473311B1 (en) Providing apparatus, providing method and computer program
US11902577B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
CN110249291A (en) System and method for the augmented reality content delivery in pre-capture environment
US8766979B2 (en) Three dimensional data compression
KR101669820B1 (en) Apparatus and method for bidirectional inpainting in occlusion based on volume prediction
US11317074B2 (en) Method and apparatus for processing data for three-dimensional image
CN108109207B (en) Visual three-dimensional modeling method and system
US8358316B2 (en) Procedure and device for the texturizing of an object of a virtual three-dimensional geometric model
JP2010515303A (en) Complex adaptive 2D-to-3D video sequence conversion
JPH09289638A (en) Three-dimensional image encoding/decoding system
CN101273635A (en) Apparatus and method for encoding and decoding multi-view picture using camera parameter, and recording medium storing program for executing the method
US20100250588A1 (en) Image searching system and image searching method
WO2012020558A1 (en) Image processing device, image processing method, display device, display method and program
EP3806474A1 (en) Method and device for encoding three-dimensional image, and method and device for decoding three-dimensional image
US20230245373A1 (en) System and method for generating a three-dimensional photographic image
Anand et al. Real time LiDAR point cloud compression and transmission for intelligent transportation system
CN105959633A (en) Video transmission method and device
CN113313832A (en) Semantic generation method and device of three-dimensional model, storage medium and electronic equipment
KR101575284B1 (en) Apparatus for generating texture of 3-demensional reconstructed object by resolution level of 2-demensional image and method thereof
US11605184B2 (en) Point cloud global tetris packing
JP2002032741A (en) System and method for three-dimensional image generation and program providing medium
CN113592994B (en) Method, apparatus and storage medium for texture mapping

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant