KR20220069145A - method and system for building DB of 3D cultural heritage by combining data - Google Patents

method and system for building DB of 3D cultural heritage by combining data Download PDF

Info

Publication number
KR20220069145A
KR20220069145A KR1020200155299A KR20200155299A KR20220069145A KR 20220069145 A KR20220069145 A KR 20220069145A KR 1020200155299 A KR1020200155299 A KR 1020200155299A KR 20200155299 A KR20200155299 A KR 20200155299A KR 20220069145 A KR20220069145 A KR 20220069145A
Authority
KR
South Korea
Prior art keywords
data
ground
image
cultural
dimensional
Prior art date
Application number
KR1020200155299A
Other languages
Korean (ko)
Other versions
KR102440916B1 (en
Inventor
김현진
양정훈
Original Assignee
주식회사 공간정보
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 공간정보 filed Critical 주식회사 공간정보
Priority to KR1020200155299A priority Critical patent/KR102440916B1/en
Publication of KR20220069145A publication Critical patent/KR20220069145A/en
Application granted granted Critical
Publication of KR102440916B1 publication Critical patent/KR102440916B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/904Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Architecture (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to a method and a system for constructing a database of a three-dimensional (3D) cultural asset through data combination, in which even 3D cultural asset spatial information with high-quality is realized. The method of the present invention comprises: a cultural asset image data acquisition step; a contour processing step; a 3D image restoration step; and a 3D DB utilization web service environment establishing step.

Description

데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법 및 시스템{method and system for building DB of 3D cultural heritage by combining data}Method and system for building DB of 3D cultural heritage by combining data

본 발명은 데이터 결합을 통한 3차원 문화재의 데이터베이스의 구축방법 및 시스템에 대한 것으로, 문화재 대상물에 대한 촬영된 항공데이터와 지상에서 촬영된 지상데이터의 정합에 따른 포인트 클라우드 처리 방식의 병합을 통해 3차원의 가상 현실에서 문화재의 방대한 테라바이트급 DB로 보유 가능하고, 이들 DB의 처리 속도 개선과 DB의 효율적인 관리뿐만 아니라 가상 현실에서의 문화재의 실감있는 시현성을 확보하고자 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스의 구축방법 및 시스템에 관한 것이다.The present invention relates to a method and system for constructing a database of three-dimensional cultural properties through data combination, and a three-dimensional It is possible to have a vast terabyte-level DB of cultural assets in the virtual reality of It relates to a database construction method and system of

문화재를 관리하는 문화재청에 고시된‘문화유산 3차원 스캔데이터 구축 가이드 라인’이라는 고시 내용에는 라이다를 이용한 방법으로만 3차원 스캔데이터 구축하는 것으로 고시하고 있다.According to the announcement of the 'Guidelines for Building 3D Scanned Data for Cultural Heritage' announced by the Cultural Heritage Administration, which manages cultural assets, it is announced that 3D scan data can only be constructed using lidar.

이처럼, 라이다를 이용한 방법을 이용한 3차원 스캔데이터 구축은 장비 및 시간과 인력 투입이 많이 소모되며 데이터의 용량 또한 방대하여 쉽게 활용하지 못한다.As such, constructing 3D scan data using a method using lidar consumes a lot of equipment, time, and manpower, and the data capacity is also huge, so it is not easy to use it.

물론, 이러한 라이다를 이용한 방법 이외에도 드론에 탑재된 영상카메라와 고도측정기를 이용하여 피사체인 문화재의 대상물(문화유산, 건조물과 대형조각물, 유적지와 발굴지)들을 적정한 고도에서 항공 촬영 방식으로 3차원 스캔 데이터들을 취득하여 확보할 수도 있다.Of course, in addition to this method using lidar, objects of cultural heritage (cultural heritage, buildings and large sculptures, historic sites and excavations) can be 3D aerially photographed at an appropriate altitude using the video camera and altimeter mounted on the drone. Scan data may be acquired and secured.

하지만, 이렇게 드론으로부터 취득된 문화재 대상물의 항공데이터들은 그 데이터의 양이 방대하고, 더욱이 이러한 항공데이터들에 문화재 대상물의 지상데이터들까지 병합될 수 있으나, 병합된 데이터들의 방대한 DB로 인하여 DB 처리 속도가 지연되는 관계로, DB가 제대로 활용되지 못하고 방치되고 있다.However, the amount of data of the aerial data of the cultural object acquired from the drone is huge, and furthermore, even the ground data of the cultural object can be merged with these aerial data, but the DB processing speed due to the vast DB of the merged data Due to the delay, the DB is not utilized properly and is neglected.

또한, 이러한 방대한 DB를 활용한 3차원 현실에서의 문화재 대상물에 대한 가상 체험 기술도 보급되고 있으나, 현실성 있는 실감성에까지는 이르지 못하고 있는 수준이며, DB의 방대함으로 인한 처리 속도의 지연에 따라 이마저도 상시 활용되지 못하고 있다.In addition, virtual experience technology for cultural objects in 3D reality using such a vast DB is also being distributed, but it does not reach the level of realistic immersiveness. can't be done

특허문헌 001 : 등록특허 제10-1863188호(등록일자 2018. 05. 25)Patent Document 001: Registered Patent No. 10-1863188 (Registration Date 2018. 05. 25)

전술된 문제점들을 해소하기 위한 본 발명은, 문화재 대상물을 가상의 3차원 현실에서 구축하며 관리할 수 있는 방법 및 시스템의 제공에 있어서, 방대한 DB 보유에 따른 시스템 부하로 인한 DB의 처리 속도 개선과 함께, 시스템의 효율적인 메모리 사용과 분산처리기술을 통한 테라바이트급의 방대한 영상처리 DB 보유 및 구축을 구현하고자 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법 및 시스템을 제공하고자 함에 그 목적을 두고 있다.The present invention for solving the above-mentioned problems, in providing a method and system for building and managing cultural objects in a virtual three-dimensional reality, along with improving the processing speed of the DB due to the system load due to the vast DB holding The purpose of this is to provide a method and system for constructing a database of 3D cultural properties through data combination to realize the efficient use of memory of the system and the possession and construction of a massive terabyte-level image processing DB through distributed processing technology.

전술된 목적들을 달성하기 위한 본 발명은, 상기 드론(100)으로부터 촬영된 문화재의 항공영상이미지인 항공데이터와 상기 지상카메라(200)로부터 촬영된 문화재의 지상영상이미지인 지상데이터가 획득되는 드론과 지상카메라를 이용한 문화재의 영상 데이터 취득단계(10), 상기 단계(10)에서 취득되어 테스트베드로 선정된 문화재의 항공데이터와 지상데이터를 바탕으로 이미지의 객체를 객체인식알고리즘(310)이 윤곽선으로 인식 처리하는 취득 데이터를 기반으로 한 윤곽선의 처리단계(20), 상기 단계(20)에서 이미지 객체가 윤곽선으로 인식 처리된 항공데이터와 지상데이터를 기반으로 인공지능서버(300)에서 연동되는 3차원 복원 프로그램(410)을 통해 3D 이미지를 복원하는 인공지능을 활용한 3D 이미지 복원단계(30), 및 상기 단계(30)에서 복원된 3D 문화재가 웹사이트상에에 시현 가능하면서 호환 가능한 3차원 실감 콘텐츠 형식으로 웹서버(500)에 설치된 웹뷰어프로그램(510)을 통해 구축 제공되는 3D DB 활용 웹서비스 환경 구축단계(40)를 포함하는 구성으로 이루어지는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법에 일례의 특징이 있다.The present invention for achieving the above objects is a drone in which aerial data, which is an aerial image image of cultural property taken from the drone 100, and ground data, which is a ground image image of cultural property, taken from the ground camera 200 are obtained; The object recognition algorithm 310 recognizes the object of the image as an outline based on the aerial data and ground data of the cultural property acquired in the step 10 of acquiring image data of the cultural property using a ground camera and selected as a test bed in the step 10 3D restoration interlocked in the artificial intelligence server 300 based on the aerial data and ground data in which the image object was recognized as an outline in the processing step 20 of the outline based on the acquired data to be processed, and the processed image object in the step 20 3D image restoration step 30 using artificial intelligence to restore 3D image through program 410, and 3D immersive content that is compatible with the 3D cultural property restored in step 30 can be displayed on the website An example of a method of constructing a database of three-dimensional cultural properties through data combination consisting of a configuration including the step 40 of constructing a web service environment using the 3D DB that is built and provided through the web viewer program 510 installed in the web server 500 in the form has the characteristics of

상기 단계(10)에서의 상기 지상카메라(200)로부터 촬영되는 지상데이터는 동일한 거리에서 촬영되는 방식으로 실시되되, 점진적인 촬영거리가 확보되며 다른 방향에서 360°로 촬영되면서 최소 70% 이상의 중복으로 촬영되는 한편, 상기 단계(10)에서의 상기 드론(100)으로부터 촬영되는 항공데이터는 크로스패스 촬영 기법을 활용한 종횡 최소 80% 이상의 중복도를 유지하며 촬영되는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법에 일례의 특징이 있다.The terrestrial data photographed from the terrestrial camera 200 in the step (10) is carried out in such a way as to be photographed at the same distance, a gradual photographing distance is secured, and while photographing at 360° in different directions, overlapping images of at least 70% or more On the other hand, the aerial data photographed from the drone 100 in the step 10 maintains a redundancy of at least 80% in length and breadth using a cross-pass photographing technique, and builds a database of three-dimensional cultural properties through combining the photographed data The method has exemplary features.

상기 단계(20)에서의 객체인식알고리즘(310)으로부터 인식 처리된 항공데이터와 지상데이터는 이미지 세그멘테이션 알고리즘(311)을 통해 카테고리별 세그메틱 라벨링 방식으로 처리 가공되는 한편, 상기 카테고리별 세그메틱 라벨링 방식으로 처리 가공된 항공데이터와 지상데이터에 대한 이미지 매칭의 검증은 이미지매칭알고리즘(320)을 통해 이루어지는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법에 일례의 특징이 있다.Aviation data and ground data recognized and processed by the object recognition algorithm 310 in the step 20 are processed in the segmental labeling method for each category through the image segmentation algorithm 311, while the segmental labeling method by category Validation of image matching for aerial data and ground data processed with , has an example of a method for constructing a database of three-dimensional cultural properties through data combination made through the image matching algorithm 320 .

상기의 단계(10)와 단계(20) 사이에는 취득된 항공데이터와 지상데이터를 삼차원 공간에 투영하여 3D 스캔데이터로부터 발생되는 에러나 불필요한 데이터를 클라우드서버(1000)에서 정리하는 방식으로 최적화 처리하며 저용량 클라우드를 생성하도록 하는 저용량 클라우드 생성 단계(15)가 더 수행되는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법에 일례의 특징이 있다.Between the above steps (10) and (20), the obtained aerial data and ground data are projected into a three-dimensional space, and errors or unnecessary data generated from the 3D scan data are optimized in a way that the cloud server 1000 organizes them. There is an example of a method for constructing a database of three-dimensional cultural assets through data combination in which a low-capacity cloud creation step 15 to create a low-capacity cloud is further performed.

상기의 단계(30)와 단계(40) 사이에는 상기 단계(30)에서 복원된 3D 문화재를 웹사이트상에서 호환될 수 있게 클라우드서버(1000)에 설치된 3D 편집툴(1100)을 통해 시현하기에 적합한 3D 뷰어 및 VR과 AR 실감 콘텐츠의 형식으로 제작하는 호환성 3D 뷰어 제작단계(35)가 더 수행되는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법에 일례의 특징이 있다.Between the steps 30 and 40, the 3D cultural heritage restored in the step 30 can be displayed on a website compatible with the 3D editing tool 1100 installed in the cloud server 1000. A 3D viewer and a method of constructing a database of 3D cultural assets through data combination in which the 3D viewer production step 35 is further performed is an example of a 3D viewer and compatibility of producing VR and AR immersive contents in the format.

상기 3D 편집툴(1100)은 웹사이트상에 생성된 캔버스 상에 3D 뷰어를 삽입하고 저용량 클라우드를 연결하면서 가상의 카메라 생성에 따라 사용자의 입력을 통한 자유로운 시점을 제공하면서, 상기 저용량 클라우드를 활용한 주변 환경과 반응할 수 있는 실시간 합성되는 3차원의 실감 콘텐츠를 제작하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법에 일례의 특징이 있다.The 3D editing tool 1100 inserts a 3D viewer on the canvas created on the website and connects the low-capacity cloud while providing a free viewpoint through the user's input according to the creation of a virtual camera while utilizing the low-capacity cloud. An example of a method for constructing a database of three-dimensional cultural properties through data combination to produce three-dimensional sensory content synthesized in real time that can react with the surrounding environment has a characteristic.

한편, 전술된 목적들을 달성하기 위한 본 발명은 문화재의 대상물을 항공에서 촬영하기 위한 영상카메라(110)가 탑재된 드론(100), 문화재의 대상물을 지상에서 촬영하기 위한 지상카메라(200), 드론 및 지상카메라로부터 취득된 항공데이터와 지상데이터에 대한 이미지의 객체 인식 처리가 이루어지는 인공지능서버(300), 인공지능서버와 연동되며 상기의 데이터(항공데이터와 지상데이터)의 이미지들을 3차원의 3D 이미지로 복원하는 처리하는 3차원 복원 프로그램(410), 및 3차원으로 복원된 3D 문화재를 웹사이트상에서 시현 가능하면서도 호환 가능한 3차원 실감 콘텐츠 형식으로 제공하는 웹서버(500)를 포함하는 구성으로 이루어지는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축시스템에 다른 일례의 특징이 있다. On the other hand, the present invention for achieving the above objects is a drone 100 equipped with a video camera 110 for photographing an object of cultural property in the air, a ground camera 200 for photographing an object of cultural property on the ground, a drone and an artificial intelligence server 300 that performs object recognition processing of aerial data acquired from a ground camera and an image of ground data, which is interlocked with the artificial intelligence server and converts images of the data (aviation data and ground data) into three-dimensional 3D A three-dimensional restoration program 410 that processes to restore an image, and a web server 500 that provides a three-dimensionally restored 3D cultural property in a form of three-dimensional immersive content displayable and compatible on a website. Another example is the database construction system of 3D cultural properties through data combination.

상술된 바에 따른 본 발명에 의하면, 드론으로부터 촬영된 문화재 대상물들에 대한 항공데이터들과 지상카메라로부터 촬영된 지상데이터들의 결합 처리와 함께 항공데이터와 지상데이터에서 획득된 포인트 클라우드를 병합하여 하나의 3D 모델로 결과물 산출이 가능하고, 이러한 3D 모델이 웹사이트상에서 시현되기 위한 구축 방식을 제공함에 따라, 시스템의 효율적인 메모리 사용과 분산처리기술을 통한 테라바이트급의 영상처리 DB 보유뿐만 아니라, 고품질의 3차원 문화재 공간정보 구축도 구현되는 효과를 기대할 수 있다.According to the present invention as described above, by merging the point cloud obtained from the aerial data and the ground data together with the combined processing of aerial data for cultural objects photographed from a drone and ground data photographed from a ground camera, one 3D As a result can be produced with a model, and a construction method is provided for this 3D model to be displayed on the website, it not only uses the system's memory efficiently and has a terabyte-level image processing DB through distributed processing technology, but also provides a high-quality 3D model. The effect of building spatial information for dimensional cultural properties can be expected.

도 1은 본 발명의 일 실시예에 따른 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법에 대한 처리 순서를 블록으로 도시한 도면이다.
도 2는 지상카메라(200)를 이용한 대상물(문화재)의 촬영 방식을 일례의 개념으로 도시한 도면이다.
도 3은 드론(100)를 이용한 대상물(문화재)의 촬영 방식을 일례의 개념으로 도시한 도면이다.
도 4는 드론(100)를 이용한 대상물(문화재)의 촬영 방식을 다른 일례의 개념으로 도시한 도면이다.
도 5는 드론(100)를 이용한 대상물(문화재)의 촬영 방식을 또 다른 일례의 개념으로 도시한 도면이다.
도 6은 드론(100)으로부터 취득된 항공데이터와 지상카메라(200)로부터 취득된 지상데이터의 병합 과정을 개념적으로 도시한 도면이다.
도 7은 항공데이터와 지상데이터의 처리에 대한 객체인식알고리즘(310)의 윤곽선 인식 처리 방식을 개념적으로 도시한 도면이다.
도 8은 객체인식알고리즘(310)으로부터 인식 처리된 항공데이터와 지상데이터 처리에 대한 이미지 세그멘테이션 알고리즘(311)의 카테고리별 세그메틱 라벨링 처리 방식을 개념적으로 도시한 도면이다.
도 9는 객체인식알고리즘(310)으로부터 인식 처리된 항공데이터와 지상데이터의 처리에 대한 이미지매칭알고리즘(320)의 테이터 특징 파악에 따른 Image Couple, Non-rigid registration method, SIFT 와 같은 매칭 기법을 개념적으로 도시한 도면이다.
도 10은 항공데이터와 지상데이터의 처리에 대한 이미지매칭알고리즘(320)의 인코더 및 디코더 처리 과정을 개념적으로 도시한 도면이다.
도 11은 문화재의 항공데이터와 지상데이트를 기반으로 3차원 복원 프로그램(410)을 통해 복원된 3D 문화재를 캡처한 도면이다.
도 12는 웹서버(500)에 설치된 웹뷰어프로그램(510)을 통해 시현될 수 있는 3차원 실감 콘텐츠에 대한 가상 현실 체험을 위해 들어가기(입장) 초기 화면을 캡처한 도면이다.
도 13은 클라우드서버(1000)에서 이루어지는 데이터의 최적화 처리에 대한 일례로서 이미지 투영 기법을 통한 최적의 텍스처 퀄리티를 산출하는 상태를 캡처한 도면이다.
도 14는 하나의 메쉬(Mesh)로 정합된 결과물이 저용량 클라우드의 방식으로 생성되며 각 속성에 맞춰 단위 객체별 사물이 객체화되는 상태를 캡처한 도면이다.
도 15는 3D 편집툴(1100)을 통해 보다 폭넓은 3D 콘텐츠 제작이 수행되는 상태를 캡처한 도면이다.
도 16은 본 발명의 일 실시예에 따른 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축시스템에 대한 구성을 간략한 블록으로 요약하여 도시한 도면이다.
1 is a block diagram illustrating a processing sequence for a method for constructing a database of three-dimensional cultural properties through data combination according to an embodiment of the present invention.
2 is a diagram illustrating a method of photographing an object (cultural property) using the ground camera 200 as an example concept.
3 is a diagram illustrating a method of photographing an object (cultural property) using the drone 100 as an example concept.
4 is a diagram illustrating a method of photographing an object (cultural property) using the drone 100 as another example concept.
5 is a diagram illustrating a method of photographing an object (cultural property) using the drone 100 as another example concept.
6 is a diagram conceptually illustrating a process of merging the aerial data acquired from the drone 100 and the ground data acquired from the ground camera 200 .
7 is a diagram conceptually illustrating an outline recognition processing method of the object recognition algorithm 310 for processing of aerial data and ground data.
8 is a diagram conceptually illustrating a segmental labeling processing method for each category of the image segmentation algorithm 311 for aerial data and ground data processing recognized and processed by the object recognition algorithm 310 .
9 shows the processing of aerial data and ground data recognized and processed by the object recognition algorithm 310. It is a diagram conceptually illustrating matching techniques such as Image Couple, Non-rigid registration method, and SIFT according to the identification of data characteristics of the image matching algorithm 320 .
10 is a diagram for processing of aviation data and ground data. It is a diagram conceptually illustrating the encoder and decoder processing of the image matching algorithm 320 .
11 is a diagram illustrating a captured 3D cultural heritage restored through a three-dimensional restoration program 410 based on aerial data and ground data of the cultural heritage.
12 is a diagram illustrating an initial screen for entering (entrying) for virtual reality experience for 3D immersive content that can be displayed through the web viewer program 510 installed in the web server 500. Referring to FIG.
13 is a diagram illustrating a state in which optimal texture quality is calculated through an image projection technique as an example of data optimization processing performed in the cloud server 1000 .
14 is a diagram in which a result matched with one mesh is generated by a low-capacity cloud method, and a state in which a thing for each unit object is objectified according to each property is captured.
15 is a diagram illustrating a state in which a wider range of 3D content production is performed through the 3D editing tool 1100 .
FIG. 16 is a diagram schematically illustrating the configuration of a database construction system for a three-dimensional cultural property through data combination according to an embodiment of the present invention in a simplified block.

본 발명은 다양한 변형 실시 예들을 통한 기술적 사상에 이르는 권리 범위까지 포함하는 방식으로 해석되어야 할 것이며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The present invention should be interpreted in a way that includes the scope of rights that reach the technical idea through various modified embodiments, only these embodiments make the publication of the present invention complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.

더욱이, 본 발명에 유첨된 도면들은 어디까지나 본 발명에 대한 설명의 이해를 돕기 위한 방안으로 첨부된 관계로, 본 발명에 유첨된 도면들이 본 발명의 기술적 사상을 대표하지도 않을뿐더러, 본 발명의 기술적 사상이 유첨된 도면들에 의해 한정적인 해석으로 이해되지도 말아야 할 것이다.Moreover, the drawings attached to the present invention are attached as a way to help the understanding of the description of the present invention to the last, and the drawings attached to the present invention do not represent the technical idea of the present invention, The idea should not be understood as a limited interpretation by the accompanying drawings.

본 발명에 따른 일 실시예의 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법은, 도 1에 도시된 바와 같이, 드론과 지상카메라를 이용한 문화재의 영상 데이터 취득단계(10), 취득 데이터를 기반으로 한 윤곽선의 처리단계(20), 인공지능을 활용한 3D 이미지 복원단계(30), 및 3D DB 활용 웹서비스 환경 구축단계(40)를 포함하는 과정으로 수행될 수 있다.As shown in FIG. 1, the method for constructing a database of three-dimensional cultural assets through data combination according to an embodiment according to the present invention includes a step 10 of acquiring image data of cultural assets using a drone and a ground camera, based on the acquired data. It can be performed as a process including the processing step 20 of the outline, the 3D image restoration step 30 using artificial intelligence, and the 3D DB utilization web service environment construction step 40 .

드론과 지상카메라를 이용한 문화재의 영상 데이터 취득단계(10)Image data acquisition step of cultural assets using drones and ground cameras (10)

상기 단계(10)에서는 문화재에 대한 고품질의 3차원 데이터 취득을 위해 드론으로부터 문화재의 항공촬영데이터 획득에 필요한 사전조사(데이터 획득을 위한 대상물의 사전조사), 대상물의 촬영에 요구되는 장비 투입 및 촬영방식 결정(드론 기종 및 촬영 계획수립), 본조사(드론을 이용한 기준점 측량 및 촬영)와 같은 사전의 구축 절차들이 수행될 수 있고, 이뿐만 아니라 문화재의 지상촬영데이터 획득에 필요한 사전조사(지상사진데이터 획득을 위한 대상물의 사전조사), 대상물의 촬영에 요구되는 장비 투입 및 촬영방식 결정(DLSR 촬영계획 수립), 본조사(지상카메라를 이용한 기준점 측량 및 촬영)와 같은 사전의 구축 절차들이 수행될 수 있다.In the step (10), in order to acquire high-quality three-dimensional data on cultural assets, a preliminary investigation (pre-investigation of an object for data acquisition) necessary for acquiring aerial photographing data of cultural assets from a drone, input of equipment required for photographing an object, and shooting Preliminary construction procedures such as method determination (drone model and shooting plan establishment) and main survey (reference point surveying and shooting using drones) can be performed. Preliminary construction procedures such as pre-investigation of the object for acquisition), equipment input required for photographing the object and determination of the shooting method (establishing a DLSR shooting plan), and main investigation (surveying and shooting a reference point using a ground camera) can be performed. .

상기 드론(100)의 기체 본체에는 문화재의 항공촬영을 위한 영상카메라(110)가 장착되어 설치될 수 있다. 이렇게 상기 드론(100)의 기체 본체에 설치된 상기의 영상카메라(110)를 통해 항공에서의 문화재에 대한 항공 영상 촬영이 수행될 수 있는 것이다. 물론, 지상에서는 지상카메라(200)가 활용되는 방식으로 문화재에 대한 지상 영상 촬영이 수행될 수 있는 것이다.An image camera 110 for aerial photographing of cultural properties may be mounted on the aircraft body of the drone 100 and installed. In this way, aerial image capturing of cultural assets in the air can be performed through the image camera 110 installed in the body of the drone 100 . Of course, on the ground, the ground camera 200 may be used to capture the ground image of the cultural property.

특히, 상기 지상카메라(200)로 촬영되는 문화재의 대상물과 촬영된 지상데이터는 예컨대 도면 2에서와 같이 동일한 거리에서 촬영을 실시하되, 점진적인 촬영거리를 확보하며 다른 방향에서 360°로 촬영하고 최소 70% 이상의 중복 촬영 방식을 이용할 수 있다.In particular, the object of cultural property and the photographed ground data photographed by the ground camera 200 are photographed at the same distance as in FIG. % or more overlapping methods can be used.

또한, 상기 드론(100)을 이용한 문화재의 대상물 촬영은 3차원 DB 구축에 필요한 POI(Point of Interest) 촬영 기법에 착안하여 예컨대 도면 3에서와 같이 서로 다른 높이에서 촬영할 수 있으며 건물 외벽의 촬영은 포지션 이동을 통한 고중복 촬영 방식으로 실시할 수 있는 관계로 고품질의 포인트 클라우드 획득이 가능하다.In addition, photographing an object of cultural property using the drone 100 can be photographed at different heights, for example, as shown in FIG. 3, focusing on the POI (Point of Interest) photographing technique required for 3D DB construction. High-quality point cloud acquisition is possible because it can be carried out in a high-overlapping method through movement.

더욱이, 상기 드론(100)을 이용한 문화재의 대상물 촬영시 3차원 DB 구축에 필요하도록 예컨대 도면 4에서와 같이 건물의 모서리 부분은 3개의 벽면이 동시에 촬영될 수 있게 고중복 촬영 방식으로 실시할 수 있고, 실내 촬영의 경우 벽에서 맞은편을 촬영하며 부피가 큰 객체물은 높이에 따른 촬영 박식으로 실시할 수 있다.Furthermore, when photographing an object of cultural property using the drone 100, for example, as shown in FIG. 4, the corner of the building can be photographed in a high-overlapping method so that three walls can be photographed at the same time, so that it is necessary for the construction of a three-dimensional DB. , in the case of indoor shooting, the opposite side of the wall is photographed, and bulky objects can be photographed according to the height.

이처럼, 3차원 DB 구축의 필요에 따라 문화재의 대상물 촬영 중복도를 70% 이상으로 실시하고 폐쇄지역이 발생되지 않도록 촬영하며, 싱글패스에 의한 촬영보다는 예컨대 도면 5에서와 같이 크로스패스 촬영 기법으로 종횡 최소 80% 이상의 중복도를 유지하며 촬영을 실시할 수 있다.In this way, in accordance with the need for 3D DB construction, the overlapping degree of photographing objects of cultural properties is set to 70% or more and filming is taken so that no closed areas are generated. Shooting can be performed while maintaining at least 80% overlap.

물론, 이러한 상기의 항공데이터와 지상데이터는 후술되는 단계들을 거치는 과정에서 취득된 원시사진을 기반으로 예컨대 특징점(key points) 및 영상정합(image matching), 광속조정(Bundle Adjustment), 포인트 클라우드(Point Cloud), 와이어 프레임(Wire Frame), 텍스트화된 프레임(Textured Frame), 3D 모델(3D 모델) 순으로 처리될 수 있다. 이렇게 드론(100)으로부터 취득된 항공데이터와 지상카메라(200)로부터 취득된 지상데이터는 도면 6에서와 같이 병합될 수 있다.Of course, the above-mentioned aerial data and ground data are, for example, key points and image matching, bundle adjustment, and point clouds based on the raw photos acquired in the process of going through the steps to be described later. Cloud), a wire frame, a textured frame, and a 3D model (3D model) can be processed in order. In this way, the aerial data acquired from the drone 100 and the ground data acquired from the ground camera 200 may be merged as shown in FIG. 6 .

취득 데이터를 기반으로 한 윤곽선의 처리단계(20)Processing step of the contour based on the acquired data (20)

상기 단계(20)에서는 상기의 드론(100)으로부터 취득된 항공데이터와 지상카메라(200)로부터 취득된 지상데이터를 바탕으로 한 개체의 윤곽선을 인식하는 방식의 처리가 이루어지는 과정이다.In the step 20, a process of recognizing the outline of an object based on the aerial data acquired from the drone 100 and the ground data acquired from the ground camera 200 is performed.

즉, 테스트베드로 선정된 문화재의 항공데이터와 지상데이터에 대한 정확도 검증과 개선은 객체인식알고리즘(310)을 통해 이루어질 수 있으며, 이러한 상기의 객체인식알고리즘(310)은 테스트베드로 선정된 문화재의 항공데이터와 지상데이터를 바탕으로 이미지의 객체를 윤곽선으로 인식하는 테스트 검증을 수행할 수 있다.That is, the accuracy verification and improvement of the aerial data and ground data of the cultural property selected as the test bed can be performed through the object recognition algorithm 310, and the object recognition algorithm 310 is the aerial data of the cultural property selected as the test bed. And based on the ground data, it is possible to perform test verification that recognizes the object of the image as an outline.

특히, 상기 객체인식알고리즘(310)은 항공데이터와 지상데이터에 대해 모든 선이 아닌 물체를 구별해 주는 윤곽선만을 인식하는 방식으로 처리할 수 있으며, 이는 도면 7을 참고할 수 있다. 물론, 상기 객체인식알고리즘(310)은 LSD, AFM, Wireframe, L-CNN, Ground Truth 등과 같은 다양하고도 고성능의 윤곽선을 인식하는 방식으로 처리할 수도 있다.In particular, the object recognition algorithm 310 can process in a manner that recognizes only the outline that distinguishes the object, not all the lines for the aerial data and the ground data, which is shown in FIG. 7 . You can refer to Of course, the object recognition algorithm 310 may be processed in a manner that recognizes various and high-performance contour lines such as LSD, AFM, Wireframe, L-CNN, Ground Truth, and the like.

이러한 다양한 윤곽선 인식의 처리에 있어 상기 객체인식알고리즘(310)에는 다양한 threshold와 parameter와 같은 기법들이 최적화된 상태로 적용될 수 있고, 최적화된 기법들을 통한 실제의 분류 선(line)들은 예컨대 LSD, AFM, Wireframe, L-CNN, Ground Truth 등과 같은 방식들로 처리될 수 있는 것이다.In the processing of such various contour recognition, various threshold and parameter techniques can be applied in an optimized state to the object recognition algorithm 310, and actual classification lines through the optimized techniques are, for example, LSD, AFM, It can be processed in ways such as Wireframe, L-CNN, Ground Truth, etc.

예컨대 L-CNN에서는 필터를 이용한 컨볼루션(Convolution) 연산을 반복적으로 진행하며 이미지의 특징을 검출할 수 있고 그 구조는 예컨대 Convolution layer(특징추출; feature extractio), Pooling layer(특징추출; feature extraction), Fully-connected layer(분류; classification) 로 이루어질 수 있다. 물론 이러한 L-CNN에서는 예컨대 필터(커널), 패딩, 스트라이드, Pooling, ReLu 활성화 함수, Drop-Out, Fully-Connected layer 등과 같은 처리 방식들로 수행될 수 있다.For example, in L-CNN, a convolution operation using a filter is repeatedly performed to detect image features, and the structure is, for example, a convolution layer (feature extraction; feature extraction) and a pooling layer (feature extraction). , it can be configured as a Fully-connected layer (classification). Of course, in such an L-CNN, processing methods such as filter (kernel), padding, stride, pooling, ReLu activation function, Drop-Out, Fully-Connected layer, etc. may be used.

특히, 상기의 객체인식알고리즘(310)으로부터 인식 처리된 항공데이터와 지상데이터는 이미지 세그멘테이션 알고리즘(311)을 통해 카테고리별 세그메틱 라벨링 방식으로 처리 가공될 수 있으며, 이러한 카테고리별 세그메틱 라벨링 방식으로 처리는 도면 8을 참고할 수 있다. 이러한 상기의 이미지 세그멘테이션 알고리즘(311)은 고성능의 윤곽선 인식으로 처리된 항공데이터와 지상데이터를 바탕으로 예컨대 도면에서와 같이 입력(input)된 사진에서 풀과 같은 노이즈를 제거하는 카테고리별 세그메틱 라벨링 방식으로 처리할 수 있다.In particular, the aerial data and ground data recognized and processed by the object recognition algorithm 310 can be processed and processed in a category-by-category segmental labeling method through the image segmentation algorithm 311, and are processed in this category-specific segmental labeling method. Figure 8 You can refer to The above image segmentation algorithm 311 is a segmental labeling method for each category that removes noise such as grass from an input photo, for example, as shown in the drawing, based on aerial data and ground data processed by high-performance contour recognition. can be processed with

이렇게 입력(input)된 사진에서 세그메틱 라벨(Segmetic Labels) 처리 과정시에 예컨대 1(Person), 2(Purse), 3(Plants/Grass), 4(Sidewalk), 5(Building/Structures) 등으로 카테도리별 세그메틱 라벨링 처리될 수 있으며, 이때의 세그메틱 라벨링 처리시 색별로 식별될 수 있게 예컨대 1(Person)은 빨강색, 2(Purse)는 자주색, 3(Plants/Grass)은 초록색, 4(Sidewalk)는 회색, 5(Building/Structures)는 노랑색의 색상으로 뚜렷하게 식별처리될 수 있다.In the process of processing the Segmetic Labels in this input photo, for example, 1 (Person), 2 (Purse), 3 (Plants/Grass), 4 (Sidewalk), 5 (Building/Structures), etc. For example, 1 (Person) is red, 2 (Purse) is purple, 3 (Plants/Grass) is green, 4 (Sidewalk) is gray, and 5 (Building/Structures) is yellow.

따라서, 이렇게 색상별로 식별 처리된 1(Person), 2(Purse), 3(Plants/Grass), 4(Sidewalk), 5(Building/Structures)들 중에서 예컨대 풀[3(Plants/Grass)]과 같은 노이즈가 용이하게 제거 처리될 수 있는 것이다.Accordingly, among the 1 (Person), 2 (Purse), 3 (Plants/Grass), 4 (Sidewalk), and 5 (Building/Structures) identified by color, for example, grass [3 (Plants/Grass)] Noise can be easily removed.

더욱이, 이렇게 노이즈가 제거될 수 있는 항공데이터와 지상데이터에 대한 이미지 매칭의 검증은 이미지매칭알고리즘(320)을 통해 이루어질 수 있으며, 이러한 상기의 이미지매칭알고리즘(320)은 테스트 검증된 항공데이터와 지상데이터를 바탕으로 수학적 알고리즘이 적용된 SIFT와 AI 기법이 적용된 알고리즘의 성능을 비교하는 방식으로 이미지 매칭 검증을 수행할 수 있다.Moreover, verification of image matching for aerial data and ground data from which noise can be removed in this way can be made through the image matching algorithm 320, and the image matching algorithm 320 is test-verified aerial data and ground data. Image matching verification can be performed by comparing the performance of SIFT to which a mathematical algorithm is applied and an algorithm to which AI is applied based on the data.

물론, 이러한 상기의 객체인식알고리즘(310) 및 이미지매칭알고리즘(320)은 인공지능서버(300)에 설치되어 운용될 수 있으며, 상기 이미지매칭알고리즘(320)은 상기의 테이터들의 특징을 파악하여 각각의 장점을 조합하는 앙상블 기법의 매칭 방식으로 처리할 수 있으며, 이는 예컨대 도면 9에서와 같이 Image Couple, Non-rigid registration method, SIFT 와 같은 매칭력의 시각화 기법 방식으로 매칭시킬수도 있다.Of course, the object recognition algorithm 310 and the image matching algorithm 320 can be installed and operated in the artificial intelligence server 300, and the image matching algorithm 320 identifies the characteristics of the data and each It can be processed by a matching method of an ensemble technique that combines the advantages of

더욱이, 이러한 상기의 이미지매칭알고리즘(320)은 상기와 같은 기법들의 처리에 있어서 예컨대 도면 10에서와 같이 상기의 데이터들에 대한 인코더(encoder) 과정에서 콘불루션(convolution)과 풀링(Pooling) 처리가 이루어질 수 있고, 압축 표현 레이어(compressed representation)을 거치며 디코더(decorder)되는 과정에서 transpose 함수의 콘불루션(convolution) 처리가 이루어질 수 있다.Furthermore, in the image matching algorithm 320, convolution and pooling processing are performed in the encoder process for the data as shown in FIG. 10, for example, in the processing of the above techniques. In the process of being decoded through a compressed representation layer, convolution processing of the transpose function may be performed.

인공지능을 활용한 3D 이미지 복원단계(30)3D image restoration stage using artificial intelligence (30)

상기 단계(30)에서는 상기의 객체인식알고리즘(310)으로부터 인식 처리되며 상기의 이미지매칭알고리즘(320)으로부터 매칭 처리된 항공데이터와 지상데이터를 기반으로 이미지 처리에 따른 3D 이미지를 복원하는 방식의 처리가 이루어지는 과정이다.In the step 30, recognition is processed by the object recognition algorithm 310, and the 3D image is restored according to image processing based on the aerial data and ground data matched from the image matching algorithm 320. is a process in which

즉, 항공데이터와 지상데이터의 이미지 처리에 따른 3D 이미지 복원은 상기의 인공지능서버(300)에서 연동되는 3차원 복원 프로그램(410)을 통해 이루어질 수 있으며, 이러한 상기의 3차원 복원 프로그램(410)은 매칭 처리된 항공데이터와 지상데이터를 바탕으로 이미지를 3차원의 3D 이미지로 복원하는 처리 과정을 수행할 수 있다. That is, the 3D image restoration according to the image processing of the aerial data and the ground data can be made through the 3D restoration program 410 linked in the artificial intelligence server 300, and the 3D restoration program 410 can perform a process of restoring the image to a three-dimensional 3D image based on the matching-processed aerial data and ground data.

이러한 상기의 3차원 복원 프로그램(410)은 문화재에 대한 3d 복원 알고리즘의 적용을 통한 테스트에서 GAN을 기반으로 한 2D 이미지 복원 알고리즘과 3D 알고리즘의 조합으로 예컨대 도면 11에서와 같이 3D 문화재를 실감 콘텐츠로 복원할 수 있다. The above-mentioned three-dimensional restoration program 410 is a combination of a 2D image restoration algorithm and a 3D algorithm based on GAN in a test through application of a 3d restoration algorithm to cultural assets. can be restored

3D DB 활용 웹서비스 환경 구축단계(40)3D DB utilization web service environment construction stage (40)

상기 단계(40)에서는 상기 단계(30)에서 복원된 3D 문화재를 웹사이트에서 시현하기에 적합한 웹사이트의 구조적 환경 설계를 구축하는 과정으로, 예컨대 복원된 3D 문화재가 웹사이트상에서 호환될 수 있는 3D 뷰어 및 VR과 AR 실감 콘텐츠형식으로 제작될 수 있다.In the step 40, the structural environment design of the website suitable for displaying the 3D cultural property restored in the step 30 in the website is constructed. For example, the restored 3D cultural property is 3D compatible on the website. It can be produced in the form of viewer and VR and AR immersive content.

즉, Webgl를 활용하여 웹상에 생성된 캔버스 상에 3D 뷰어를 삽입하고 저용량 클라우드를 연결하면서 가상의 카메라 생성에 따라 사용자의 입력을 통해 자유로운 시점을 제공할 수 있으며, 저용량 클라우드를 활용하여 주변 환경과 반응할 수 있는 실시간 합성되는 AR콘텐츠를 제작할 수 있고, ARcore를 활용한 안드로이드 환경에서도 구현 가능한데, 이는 웹서버(500)에서 설치된 웹뷰어프로그램(510)을 통해 시현될 수 있다.In other words, by using Webgl, a 3D viewer is inserted on the canvas created on the web and a low-capacity cloud is connected, and a free viewpoint can be provided through user input according to the creation of a virtual camera. It is possible to produce responsive, real-time synthesized AR content, and it can also be implemented in an Android environment using ARcore, which can be demonstrated through the web viewer program 510 installed in the web server 500 .

물론, 상기 3D 뷰어 및 VR과 AR 콘텐츠들은 상기 웹사이트의 구조적 환경 설계에 적합한 디자인으로 제작될 수 있으며, CSS 및 HTML을 이용한 웹 퍼블리싱 형식으로 등록 게시될 수 있다. Of course, the 3D viewer and VR and AR contents may be produced in a design suitable for the structural environment design of the website, and may be registered and posted in a web publishing format using CSS and HTML.

따라서, 특정 문화재에 대한 3D 뷰어 및 VR과 AR 실감 콘텐츠는 웹사이트상에서 도면 12에서와 같이 구현될 수 있으며 들어가기(입장)를 통해 생성한 가상의 현실 체험이 가능할 수 있다. 더욱이, 이러한 상기의 웹사이트는 동시접속자수 요구사항에 부합한 웹서버(500)의 환경 구축 및 검증을 통해 사용자들에게 제공될 수 있다. Accordingly, the 3D viewer and VR and AR immersive contents for a specific cultural property may be implemented as shown in FIG. 12 on the website, and a virtual reality experience created through entry (entry) may be possible. Moreover, the above-mentioned website can be provided to users through the establishment and verification of the environment of the web server 500 that meets the requirement for the number of concurrent users.

이러한 상기의 3D 뷰어 및 VR과 AR 실감 콘텐츠는 상기 단계(30)와 상기 단계(40) 사이에는 호환성 3D 뷰어 제작단계(35)를 통해 이루어질 수 있으며, 물론, 상기의 저용량 클라우드는 상기 단계(10) 와 상기 단계(20) 사이에서 수행될 수 있는 저용량 클라우드 생성 단계(15)를 통해 이루어질 수도 있되, 경우에 따라 호환성 3D 뷰어 제작단계(35)에서도 이루어질 수 있다. 물론, 이러한 저용량 클라우드 생성 단계(15)에서의 저용량 클라우드 처리와, 3D 뷰어 및 VR과 AR 실감 콘텐츠 제작은 후술되는 상세한 설명을 통해 참고할 수 있다.Such 3D viewer and VR and AR immersive content can be made through the compatibility 3D viewer production step 35 between the steps 30 and 40, and of course, the low-capacity cloud can be created in the step (10). ) and the low-capacity cloud generation step 15 that can be performed between the steps 20, in some cases, can also be made in the compatibility 3D viewer production step 35. Of course, the low-capacity cloud processing in the low-capacity cloud generation step 15 and the production of 3D viewers and VR and AR immersive content can be referred to through the detailed description to be described later.

상기의 저용량 클라우드 생성 단계(15)는 상기 단계(10)에서 취득된 항공데이터와 지상데이터를 삼차원 공간에 투영하여 3D 스캔데이터로부터 발생되는 에러나 불필요한 데이터를 정리하여 데이터를 최적화로 처리하는 과정이다.The low-capacity cloud generation step 15 is a process of optimizing the data by arranging errors or unnecessary data generated from the 3D scan data by projecting the aerial data and ground data acquired in the step 10 into a three-dimensional space. .

물론, 이러한 상기의 데이터 최적화 처리시에 수반되는 처리내용으로는 이미지의 왜곡 제거, 이미지의 매칭 및 삼차원 카메라 좌표 도출, 카메라 좌표 데이터 Export, 카메라 좌표 데이터 Import 및 이미지 연결, 축 정렬 및 작업뷰 생성, Mesh 생성, UV 생성, 맵핑, 텍스처 생성 및 압축 등이 있다.Of course, the processing contents involved in the above data optimization processing include image distortion removal, image matching and three-dimensional camera coordinate derivation, camera coordinate data export, camera coordinate data import and image connection, axis alignment and operation view creation, Mesh generation, UV generation, mapping, texture generation and compression, and more.

물론, 이러한 테이터의 최적화 처리는 클라우드서버(1000)에서 이루어질 수 있으며, 예컨대 도면 13에서와 같이 이미지 투영 기법을 통한 최적의 텍스처 퀄리티를 산출할 수 있다.Of course, such data optimization processing may be performed in the cloud server 1000, and for example, an optimal texture quality may be calculated through an image projection technique as shown in FIG. 13 .

즉, 저용량 클라우드 메쉬(Mesh) 생성시 발생되는 텍스처의 늘어남이나 겹침 현상을 개선하기 위하여 사용자의 선택에 따라 하나 혹은 그 이상의 원본이미지를 선택하고 투영하여 품질이 저하된 부분을 개선할 수 있는 것이다.That is, in order to improve the texture stretching or overlapping phenomenon that occurs when a low-capacity cloud mesh is created, one or more original images can be selected and projected according to the user's selection to improve the degraded portion.

또한, 하나의 메쉬(Mesh)로 정합된 결과물은 예컨대 도면 14에서와 같이 저용량 클라우드로 생성될 수 있으며, 각각의 속성에 맞춰 단위 객체별로 사물이 객관화되며 저장될 수 있다.In addition, the result matched with one mesh may be generated as a low-capacity cloud, for example, as shown in FIG. 14 , and objects may be objectified and stored for each unit object according to each property.

상기 호환성 3D 뷰어 제작단계(35)는 상기 단계(30)에서 복원된 3D 문화재가 웹사이트에서 호환될 수 있게 시현하기에 적합한 3D 뷰어 및 VR과 AR 실감 콘텐츠의 형식으로 제작될 수 있게 하는 과정으로서, 이러한 3D 뷰어 및 VR과 AR 실감 콘텐츠는 상기의 클라우드서버(1000)에 설치된 3D 편집툴(1100)을 통해 제작될 수 있다.The compatibility 3D viewer production step 35 is a process of making the 3D cultural heritage restored in the step 30 compatible with a 3D viewer and VR and AR immersive content format suitable for displaying on a website. , these 3D viewers and VR and AR sensory content can be produced through the 3D editing tool 1100 installed in the cloud server 1000 .

즉, 상기 3D 편집툴(1100)은 웹사이트상에 생성된 캔버스 상에 3D 뷰어를 삽입하고 상기의 저용량 클라우드를 연결하면서 가상의 카메라 생성에 따라 사용자의 입력을 통한 자유로운 시점을 제공할 수 있으며, 상기 저용량 클라우드를 활용한 주변 환경과 반응할 수 있는 실시간 합성되는 AR콘텐츠를 제작할 수 있다.That is, the 3D editing tool 1100 inserts a 3D viewer on the canvas created on the website and connects the low-capacity cloud while providing a free viewpoint through the user's input according to the creation of the virtual camera, It is possible to create AR content that is synthesized in real time that can react with the surrounding environment using the low-capacity cloud.

물론, 상기 3D 뷰어 및 VR과 AR 콘텐츠들은 상기 웹사이트의 구조적 환경 설계에 적합한 디자인으로 제작될 수 있으며, CSS 및 HTML을 이용한 웹 퍼블리싱 형식으로 등록게시될 수 있다. Of course, the 3D viewer and VR and AR contents can be produced in a design suitable for the structural environment design of the website, and can be registered and posted in a web publishing format using CSS and HTML.

이러한 상기 3D 편집툴(1100)은 커스터마이징이 용이한 콘텐츠도 제작 가능하며, 저용량 클라우드 외에 사용자가 원하는 별도의 3D 모델을 업로드할 수 있어 예컨대 도면 15에서와 같이 보다 폭넓은 3D 콘텐츠를 제작할 수 있으며, 클라우드서버(1000)의 플랫폼과 연동될 수 있다.The 3D editing tool 1100 can also produce content that is easy to customize, and can upload a separate 3D model desired by the user in addition to the low-capacity cloud, so that a wider range of 3D content can be produced, for example, as shown in FIG. 15 , It may be linked with the platform of the cloud server 1000 .

한편, 본 발명의 일 실시예에 따른 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축시스템은, 도 16에서와 같이 문화재의 대상물을 항공에서 촬영하기 위한 영상카메라(110)가 탑재된 드론(100) 및 지상에서 촬영하기 위한 지상카메라(200)와, 드론 및 지상카메라로부터 취득된 항공데이터와 지상데이터에 대한 이미지의 객체 인식 처리가 이루어지는 인공지능서버(300)와, 인공지능서버와 연동되며 상기의 데이터(항공데이터와 지상데이터)의 이미지들을 3차원의 3D 이미지로 복원하는 처리하는 3차원 복원 프로그램(410)과, 3차원으로 복원된 3D 문화재를 웹사이트상에서 시현 가능하면서도 호환 가능한 3차원 실감 콘텐츠 형식으로 제공하는웹서버(500)를 포함하는 구성으로 이루어질 수 있다.On the other hand, the database construction system for three-dimensional cultural heritage through data combination according to an embodiment of the present invention is a drone 100 equipped with an image camera 110 for photographing an object of cultural heritage in the air as shown in FIG. 16 and A ground camera 200 for shooting on the ground, an artificial intelligence server 300 that performs object recognition processing of images for aerial data and ground data acquired from drones and ground cameras, and the artificial intelligence server and interworking with the above data A three-dimensional restoration program 410 that processes images of (aviation data and ground data) to restore three-dimensional 3D images, and a three-dimensional immersive content format that can be displayed on the website and is compatible with the three-dimensionally restored 3D cultural assets It may be configured to include a web server 500 that provides

특히, 상기의 인공지능서버(300)는 지상카메라로부터 취득된 항공데이터와 지상데이터에 대한 이미지의 객체 인식 처리에 필요한 객체인식알고리즘(310), 객체 인식 처리된 항공데이터와 지상데이터에 대한 카테고리별 세그메틱 라벨링 처리 가공에 필요한 이미지 세스멘테이션 알고리즘(311), 및 세그메틱 라벨링 처리된 항공데이터와 지상데이터에 대한 이미지 매칭 검증 처리에 필요한 이미지매칭알고리즘(320)을 더 포함하는 구성일 수 있다.In particular, the artificial intelligence server 300 is an object recognition algorithm 310 necessary for object recognition processing of images for aerial data and ground data acquired from a ground camera, and by category for object recognition-processed aerial data and ground data. The image segmentation algorithm 311 necessary for the processing of the segmental labeling process, and the image matching algorithm 320 necessary for the image matching verification process for the aerial data and the ground data subjected to the segmental labeling may be configured to further include.

그리고, 상기의 3차원 복원 프로그램(410)은 상기 인공지능서버(300)에서 연동되는 방식으로 데이터(항공데이터와 지상데이터)의 이미지들을 3차원의 3D 이미지로 복원하는 처리할 수 있다.In addition, the three-dimensional restoration program 410 may process images of data (aviation data and terrestrial data) to be restored into three-dimensional 3D images in a manner linked to the artificial intelligence server 300 .

클라우드서버(1000)는 복원된 3D 문화재가 웹사이트에서 호환되면서 시현 가능한 3D 뷰어 및 VR과 AR 실감 콘텐츠를 제작할 수 있는 3D 편집툴(1100)을 더 포함하는 구성일 수 있다.The cloud server 1000 may be configured to further include a 3D viewer capable of displaying the restored 3D cultural heritage while being compatible with the website, and a 3D editing tool 1100 capable of producing VR and AR immersive content.

상술된 이와 같이, 드론으로부터 촬영된 문화재 대상물들에 대한 항공데이터들과 지상카메라로부터 촬영된 지상데이터들의 결합 처리와 함께 항공데이터와 지상데이터에서 획득된 포인트 클라우드를 병합하여 하나의 3D 모델로 결과물 산출이 가능하고, 이러한 3D 모델이 웹사이트상에서 시현되기 위한 구축 방식을 제공함에 따라, 시스템의 효율적인 메모리 사용과 분산처리기술을 통한 테라바이트급의 영상처리 DB 보유뿐만 아니라, 고품질의 3차원 문화재 공간정보 구축도 구현될 수 있는 것이다.As described above, by merging the point cloud obtained from the aerial data and the ground data together with the combined processing of the aerial data on the cultural objects photographed from the drone and the ground data photographed from the ground camera, the result is calculated as a single 3D model This is possible, and as it provides a construction method for this 3D model to be displayed on the website, it not only has a terabyte-level image processing DB through efficient memory usage of the system and distributed processing technology, but also high-quality three-dimensional cultural property spatial information. Construction can also be implemented.

드론(100) 영상카메라(110)
지상카메라(200) 인공지능서버(300)
객체인식알고리즘(310) 이미지 세그멘테이션 알고리즘(311)
이미지매칭알고리즘(320) 클라우드서버(1000)
3D 편집툴(1100) 3차원 복원 프로그램(410)
웹서버(500) 웹뷰어프로그램(510)
Drone (100) Video Camera (110)
Ground Camera (200) Artificial Intelligence Server (300)
Object Recognition Algorithm (310) Image Segmentation Algorithm (311)
Image Matching Algorithm (320) Cloud Server (1000)
3D editing tool (1100) 3D restoration program (410)
Web Server (500) Web Viewer Program (510)

Claims (7)

상기 드론(100)으로부터 촬영된 문화재 대상물의 항공영상이미지인 항공데이터와 상기 지상카메라(200)로부터 촬영된 문화재 대상물의 지상영상이미지인 지상데이터가 획득되는 드론과 지상카메라를 이용한 문화재의 영상 데이터 취득단계(10);
상기 단계(10)에서 취득되어 테스트베드로 선정된 문화재 대상물의 항공데이터와 지상데이터를 바탕으로 이미지의 객체를 객체인식알고리즘(310)이 윤곽선으로 인식 처리하는 취득 데이터를 기반으로 한 윤곽선의 처리단계(20);
상기 단계(20)에서 이미지 객체가 윤곽선으로 인식 처리된 항공데이터와 지상데이터를 기반으로 인공지능서버(300)에서 연동되는 3차원 복원 프로그램(410)을 통해 3D 이미지를 복원하는 인공지능을 활용한 3D 이미지 복원단계(30); 및
상기 단계(30)에서 복원된 3D 문화재가 웹사이트상에에 시현 가능하면서 호환 가능한 3차원 실감 콘텐츠 형식으로 웹서버(500)에 설치된 웹뷰어프로그램(510)을 통해 구축 제공되는 3D DB 활용 웹서비스 환경 구축단계(40);
를 포함하는 구성으로 이루어지는 것을 특징으로 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법.
Image data acquisition of cultural assets using a drone and ground camera from which aerial data that is an aerial image image of a cultural property object photographed from the drone 100 and ground data that is a ground image image of a cultural property object photographed from the ground camera 200 are obtained step (10);
Contour processing step ( 20);
In the step (20), the image object is recognized as an outline and based on the processed aerial data and ground data using artificial intelligence to restore the 3D image through the 3D restoration program 410 that is linked in the artificial intelligence server 300. 3D image restoration step (30); and
3D DB utilization web service built and provided through the web viewer program 510 installed in the web server 500 in a compatible 3D immersive content format in which the 3D cultural heritage restored in step 30 can be displayed on the website environment construction step (40);
A method of constructing a database of three-dimensional cultural properties through data combination, characterized in that it consists of a configuration comprising a.
제1항에 있어서,
상기 단계(10)에서의 상기 지상카메라(200)로부터 촬영되는 지상데이터는 동일한 거리에서 촬영되는 방식으로 실시되되, 점진적인 촬영거리가 확보되며 다른 방향에서 360°로 촬영되면서 최소 70% 이상의 중복으로 촬영되는 한편,
상기 단계(10)에서의 상기 드론(100)으로부터 촬영되는 항공데이터는 크로스패스 촬영 기법을 활용한 종횡 최소 80% 이상의 중복도를 유지하며 촬영되는 것을 특징으로 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법.
According to claim 1,
The terrestrial data photographed from the terrestrial camera 200 in the step (10) is carried out in such a way that it is photographed at the same distance, a gradual photographing distance is secured, and while photographing at 360° in different directions, the photographing is repeated at least 70% or more Meanwhile,
Aerial data photographed from the drone 100 in the step (10) is a database of three-dimensional cultural properties through data combination, characterized in that it is photographed while maintaining at least 80% of vertical and horizontal redundancy using a cross-pass photographing technique construction method.
제2항에 있어서,
상기 단계(20)에서의 객체인식알고리즘(310)으로부터 인식 처리된 항공데이터와 지상데이터는 이미지 세그멘테이션 알고리즘(311)을 통해 카테고리별 세그메틱 라벨링 방식으로 처리 가공되는 한편,
상기 카테고리별 세그메틱 라벨링 방식으로 처리 가공된 항공데이터와 지상데이터에 대한 이미지 매칭의 검증은 이미지매칭알고리즘(320)을 통해 이루어지는 것을 특징으로 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법.
3. The method of claim 2,
Aviation data and ground data recognized and processed by the object recognition algorithm 310 in the step 20 are processed and processed in a segmental labeling method for each category through the image segmentation algorithm 311,
A method of constructing a database of three-dimensional cultural properties through data combination, characterized in that the verification of image matching for aerial data and ground data processed by the segmental labeling method for each category is made through an image matching algorithm (320).
제1항에 있어서,
상기의 단계(10)와 단계(20) 사이에는 취득된 항공데이터와 지상데이터를 삼차원 공간에 투영하여 3D 스캔데이터로부터 발생되는 에러나 불필요한 데이터를 클라우드서버(1000)에서 정리하는 방식으로 최적화 처리하며 저용량 클라우드를 생성하도록 하는 저용량 클라우드 생성 단계(15)가 더 수행되는 것을 특징으로 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법.
According to claim 1,
Between the above steps (10) and (20), the obtained aerial data and ground data are projected into a three-dimensional space, and errors or unnecessary data generated from the 3D scan data are optimized in a way that the cloud server 1000 organizes them. A method of constructing a database of three-dimensional cultural properties through data combination, characterized in that the low-capacity cloud generation step (15) for generating a low-capacity cloud is further performed.
제1항에 있어서,
상기의 단계(30)와 단계(40) 사이에는 상기 단계(30)에서 복원된 3D 문화재를 웹사이트상에서 호환될 수 있게 클라우드서버(1000)에 설치된 3D 편집툴(1100)을 통해 시현하기에 적합한 3D 뷰어 및 VR과 AR 실감 콘텐츠의 형식으로 제작하는 호환성 3D 뷰어 제작단계(35)가 더 수행되는 것을 특징으로 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법.
According to claim 1,
Between the steps 30 and 40, the 3D cultural heritage restored in the step 30 is suitable for displaying through the 3D editing tool 1100 installed in the cloud server 1000 so that it can be compatible on the website. A method of constructing a database of three-dimensional cultural properties through data combination, characterized in that the 3D viewer and the compatible 3D viewer production step (35) for producing in the form of VR and AR immersive content is further performed.
제5항에 있어서,
상기 3D 편집툴(1100)은 웹사이트상에 생성된 캔버스 상에 3D 뷰어를 삽입하고 저용량 클라우드를 연결하면서 가상의 카메라 생성에 따라 사용자의 입력을 통한 자유로운 시점을 제공하면서, 상기 저용량 클라우드를 활용한 주변 환경과 반응할 수 있는 실시간 합성되는 3차원의 실감 콘텐츠를 제작하는 것을 특징으로 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법.
6. The method of claim 5,
The 3D editing tool 1100 inserts a 3D viewer on the canvas created on the website and connects the low-capacity cloud while providing a free viewpoint through the user's input according to the creation of a virtual camera while utilizing the low-capacity cloud. A method of constructing a database of three-dimensional cultural properties through data combination, characterized in that it produces three-dimensional immersive content that is synthesized in real time that can react with the surrounding environment.
문화재의 대상물을 항공에서 촬영하기 위한 영상카메라(110)가 탑재된 드론(100);
문화재의 대상물을 지상에서 촬영하기 위한 지상카메라(200);
드론 및 지상카메라로부터 취득된 항공데이터와 지상데이터에 대한 이미지의 객체 인식 처리가 이루어지는 인공지능서버(300);
인공지능서버와 연동되며 상기의 데이터(항공데이터와 지상데이터)의 이미지들을 3차원의 3D 이미지로 복원하는 처리하는 3차원 복원 프로그램(410); 및
3차원으로 복원된 3D 문화재를 웹사이트상에서 시현 가능하면서도 호환 가능한 3차원 실감 콘텐츠 형식으로 제공하는 웹서버(500);
를 포함하는 구성으로 이루어지는 것을 특징으로 하는 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축시스템.







a drone 100 equipped with an image camera 110 for photographing objects of cultural properties in the air;
a ground camera 200 for photographing objects of cultural properties on the ground;
An artificial intelligence server 300 that performs object recognition processing of images for aerial data and ground data acquired from drones and ground cameras;
A three-dimensional restoration program 410 that is interlocked with an artificial intelligence server and processes the images of the data (aviation data and ground data) to be restored into a three-dimensional 3D image; and
a web server 500 that provides 3D reconstructed 3D cultural assets in a form of 3D immersive content that can be displayed on a website and is compatible with;
A database construction system of three-dimensional cultural properties through data combination, characterized in that it consists of a configuration comprising a.







KR1020200155299A 2020-11-19 2020-11-19 method and system for building DB of 3D cultural heritage by combining data KR102440916B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200155299A KR102440916B1 (en) 2020-11-19 2020-11-19 method and system for building DB of 3D cultural heritage by combining data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200155299A KR102440916B1 (en) 2020-11-19 2020-11-19 method and system for building DB of 3D cultural heritage by combining data

Publications (2)

Publication Number Publication Date
KR20220069145A true KR20220069145A (en) 2022-05-27
KR102440916B1 KR102440916B1 (en) 2022-09-07

Family

ID=81791417

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200155299A KR102440916B1 (en) 2020-11-19 2020-11-19 method and system for building DB of 3D cultural heritage by combining data

Country Status (1)

Country Link
KR (1) KR102440916B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102655965B1 (en) * 2023-07-11 2024-04-19 대한민국(방위사업청장) VR interaction real-time compose system based on drone video

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101858035B1 (en) * 2017-10-26 2018-05-16 (주)아세아항측 Method for building of high precision 3D cultural heritage and web service
KR101863188B1 (en) 2017-10-26 2018-06-01 (주)아세아항측 Method for construction of cultural heritage 3D models
KR20190115161A (en) * 2018-03-30 2019-10-11 (주)온넷시스템즈코리아 3d object creation apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101858035B1 (en) * 2017-10-26 2018-05-16 (주)아세아항측 Method for building of high precision 3D cultural heritage and web service
KR101863188B1 (en) 2017-10-26 2018-06-01 (주)아세아항측 Method for construction of cultural heritage 3D models
KR20190115161A (en) * 2018-03-30 2019-10-11 (주)온넷시스템즈코리아 3d object creation apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102655965B1 (en) * 2023-07-11 2024-04-19 대한민국(방위사업청장) VR interaction real-time compose system based on drone video

Also Published As

Publication number Publication date
KR102440916B1 (en) 2022-09-07

Similar Documents

Publication Publication Date Title
CN114004941B (en) Indoor scene three-dimensional reconstruction system and method based on nerve radiation field
Li et al. Reconstructing building mass models from UAV images
Grün et al. Photogrammetric reconstruction of the great Buddha of Bamiyan, Afghanistan
JP3148045B2 (en) 3D object CG creation device
US11790610B2 (en) Systems and methods for selective image compositing
CN110633628B (en) RGB image scene three-dimensional model reconstruction method based on artificial neural network
JPH0877356A (en) Method and device for processing three-dimensional multi-view image
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
CN115641401A (en) Construction method and related device of three-dimensional live-action model
Condorelli et al. A comparison between 3D reconstruction using nerf neural networks and mvs algorithms on cultural heritage images
CN106023307A (en) Three-dimensional model rapid reconstruction method and system based on field environment
CN115471634B (en) Modeling method and device for urban green plant twins
CN116051747A (en) House three-dimensional model reconstruction method, device and medium based on missing point cloud data
CN112598780A (en) Instance object model construction method and device, readable medium and electronic equipment
CN114049464A (en) Reconstruction method and device of three-dimensional model
Yu et al. Intelligent visual-IoT-enabled real-time 3D visualization for autonomous crowd management
KR102440916B1 (en) method and system for building DB of 3D cultural heritage by combining data
JPH11504452A (en) Apparatus and method for reproducing and handling a three-dimensional object based on a two-dimensional projection
EP4162691A1 (en) A method, an apparatus and a computer program product for video encoding and video decoding
WO2022064242A1 (en) The method of automatic 3d designing of constructions and colonies in an smart system using a combination of machine scanning and imaging and machine learning and reconstruction of 3d model through deep learning and with the help of machine learning methods
CN115661364A (en) Three-dimensional simulation model reconstruction method for cultural relic and ancient building group restoration
CN115861532A (en) Vegetation ground object model reconstruction method and system based on deep learning
CN113284249B (en) Multi-view three-dimensional human body reconstruction method and system based on graph neural network
CN116051737A (en) Image generation method, device, equipment and storage medium
Koutsoudis et al. A versatile workflow for 3D reconstructions and modelling of cultural heritage sites based on open source software

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant