KR101927401B1 - Web-based 3d contents exhibition system - Google Patents
Web-based 3d contents exhibition system Download PDFInfo
- Publication number
- KR101927401B1 KR101927401B1 KR1020170043849A KR20170043849A KR101927401B1 KR 101927401 B1 KR101927401 B1 KR 101927401B1 KR 1020170043849 A KR1020170043849 A KR 1020170043849A KR 20170043849 A KR20170043849 A KR 20170043849A KR 101927401 B1 KR101927401 B1 KR 101927401B1
- Authority
- KR
- South Korea
- Prior art keywords
- exhibition
- data
- web
- file
- display
- Prior art date
Links
- 238000009877 rendering Methods 0.000 claims abstract description 7
- 238000013500 data storage Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 4
- 238000007654 immersion Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Abstract
웹 브라우저 환경에서 가상의 공간을 생성하여 3D 콘텐츠를 전시하는 시스템 이 제공되며, 본 발명의 일 실시예에 따른 웹 기반의 3D 콘텐츠 전시 시스템은 제1 전시물의 3D 스캐닝 데이터, 제1 전시물의 3D 모델링 데이터, 그리고 제1 전시공간에 대응하는 3D 모델링 데이터를 저장하는 전시데이터 저장부, 제1 전시물의 3D 모델링 데이터에 대응하는 제1 오브젝트 파일, 제1 오브젝트 파일에 대응하는 제2 오브젝트 파일, 그리고 제1 전시물의 3D 스캐닝 데이터로부터 생성된 제3 오브젝트 파일을 포함하는 오브젝트 데이터를 생성하는 오브젝트 생성부, 저장된 제1 전시공간에 대응하는 3D 모델링 데이터와 생성된 오브젝트 데이터의 렌더링을 통해 웹 기반의 전시환경을 생성하는 전시환경 생성부, 그리고 생성된 웹 기반의 전시환경을 출력하는 전시정보 출력부를 포함한다.A system for displaying 3D contents by creating a virtual space in a web browser environment is provided. A web-based 3D contents display system according to an embodiment of the present invention includes 3D scanning data of a first display, 3D modeling Data, and 3D modeling data corresponding to the first exhibition space, a first object file corresponding to the 3D modeling data of the first exhibit, a second object file corresponding to the first object file, An object generation unit for generating object data including a third object file generated from the 3D scanning data of the first exhibition, 3D modeling data corresponding to the first exhibition space and rendering the generated object data, An exhibition environment creating unit for creating a web-based exhibition environment, and an exhibition information outputting unit for outputting the generated web- It includes.
Description
웹 브라우저 환경에서 가상의 공간을 생성하여 3D 콘텐츠를 전시하는 시스템이 제공된다.A system for displaying 3D contents by creating a virtual space in a web browser environment is provided.
웹3D는 인터넷상에서 웹브라우저를 통해 실시간으로 3D 그래픽을 구현하는 것으로 가상 모델하우스, 기업홈페이지, 아트 갤러리, 안내 시스템 등 다양한 분야에서 활용되고 있다.
웹상에서 3D를 구현하는 방법으로는 VRML(Virtual Reality Modeling Language), 3DMLW(3D Markup Language for Web), X3D(Extensible 3D) 및 WebGL(Web Graphics Library) 등이 있다. 이 중 VRML, 3DMLW 및 X3D는 외부 플러그인이 필요하나, WebGL은 별도의 플러그인이 필요하지 않으며 웹브라우저 상에서 렌더링 작업이 가능하다는 점에서 활용도가 증가하고 있다.As a method of implementing 3D on the Web, there are Virtual Reality Modeling Language (VRML), 3D Markup Language for Web (3DMLW), Extensible 3D (X3D), and Web Graphics Library (WebGL). Among these, VRML, 3DMLW and X3D require external plug-ins, but WebGL does not need a separate plug-in and its utilization is increasing because it can be rendered on a web browser.
WebGL을 이용한 웹3D 구현에는 다양한 방법으로 생성된 3D 콘텐츠의 데이터 규격과 형식을 WebGL에서 디스플레이가 가능한 형식으로 변환하는 과정이 필요하다. 구체적으로, 스캐닝을 통해 획득한 포인트 클라우드 데이터는 메쉬(mesh)를 형성하고 UV 좌표를 구성한 후 UV 좌표에 맞는 텍스처(texture) 이미지를 생성한다. 또한, SketchUp 등의 일반 3D 모델링 툴과 Revit 등의 BIM(Building Information Modeling) 툴을 통해 생성한 3D 모델링 데이터는 데이터 형식을 변환하여 *.obj 파일을 획득하고 저차원에서 데이터를 한번 더 변환하는 과정을 거쳐 WebGL에 연동시킨다.In the
그러나 WebGL에 해당 3D 오브젝트 파일을 이용하기 위해서는 여러 차례의 데이터 변환이 필요하며, Sketchup 을 이용하는 경우 구성된 3차원 메쉬가 불안정하고 Revit 을 이용하는 경우 텍스처의 표현이 제한적이라는 점에서 웹3D 구현 과정을 간소화하고 콘텐츠를 보다 사실적으로 표현할 수 있는 기술이 필요하다.However, in order to use the corresponding 3D object file in WebGL, it is necessary to convert data several times. In the case of using Sketchup, the 3D mesh is unstable, and when Revit is used, the representation of the texture is limited. There is a need for a technology that can express contents more realistically.
본 발명의 일 실시예가 해결하려는 과제는 웹 기반의 가상공간을 생성하고 생성된 가상공간을 통해 3D 콘텐츠를 전시하는 시스템을 제공하는 것이다.A problem to be solved by one embodiment of the present invention is to provide a system for creating a web-based virtual space and displaying 3D contents through the generated virtual space.
상기 과제 이외에도 구체적으로 언급되지 않은 다른 과제를 달성하는 데 본 발명에 따른 실시예가 사용될 수 있다.Embodiments according to the present invention can be used to accomplish other tasks not specifically mentioned other than the above-described tasks.
상기 과제를 해결하기 위해 본 발명의 일 실시예는, 제1 전시물의 3D 스캐닝 데이터, 제1 전시물의 3D 모델링 데이터, 그리고 제1 전시공간에 대응하는 3D 모델링 데이터를 저장하는 전시데이터 저장부, 제1 전시물의 3D 모델링 데이터에 대응하는 제1 오브젝트 파일, 제1 오브젝트 파일에 대응하는 제2 오브젝트 파일, 그리고 제1 전시물의 3D 스캐닝 데이터로부터 생성된 제3 오브젝트 파일을 포함하는 오브젝트 데이터를 생성하는 오브젝트 생성부, 저장된 제1 전시공간에 대응하는 3D 모델링 데이터와 생성된 오브젝트 데이터의 렌더링을 통해 웹 기반의 전시환경을 생성하는 전시환경 생성부, 그리고 생성된 웹 기반의 전시환경을 출력하는 전시정보 출력부를 포함하며, 웹 기반의 전시환경은 복수개의 전시공간을 포함하고, 복수개의 전시공간은 제1 전시물이 출력되는 제1 전시공간, 그리고 제1 전시물과 다른 제2 전시물이 출력되는 제2 전시공간을 포함하는 웹 기반의 3D 콘텐츠 전시 시스템을 제안한다.According to an embodiment of the present invention, there is provided an exhibition data storage unit for storing 3D scanning data of a first exhibit, 3D modeling data of a first exhibit, and 3D modeling data corresponding to a first exhibition space, An object for generating object data including a first object file corresponding to 3D modeling data of one exhibit, a second object file corresponding to the first object file, and a third object file generated from 3D scanning data of the first exhibit, An exhibition environment creating unit for creating a web-based exhibition environment by rendering the 3D modeling data corresponding to the stored first exhibition space and the generated object data, and an exhibition information outputting unit for outputting the generated web- Wherein the web-based display environment includes a plurality of exhibition spaces, and the plurality of exhibition spaces include a first display It proposes a Web-based 3D content display system including the output a first display area, and exhibits a first and a second, different display area in which the second exhibits the output.
여기서, 제1 오브젝트 파일은 obj 파일이고, 제2 오브젝트 파일은 mtl 파일이며, 그리고 제3 오브젝트 파일은 텍스처 이미지 파일일 수 있다.Here, the first object file may be an obj file, the second object file may be an mtl file, and the third object file may be a texture image file.
또한, 오브젝트 생성부는 제1 전시물의 3D 스캐닝 데이터에 포함되어 있는 포인트 클라우드(point cloud)를 메쉬(mesh)로 변환하고, 변환된 메쉬의 정점에 대응하는 UV 좌표를 생성하며, 그리고 생성된 UV 좌표에 대응하는 텍스처 이미지에 대응하는 텍스처 이미지 파일을 생성할 수 있다.The object generating unit converts the point cloud included in the 3D scanning data of the first display into a mesh, generates UV coordinates corresponding to the vertices of the converted mesh, To generate a texture image file corresponding to the texture image corresponding to the texture image.
또한, 전시환경 생성부는 텍스처 이미지에 빛 표현 효과를 추가할 수 있다.Also, the display environment generating unit can add a light expression effect to the texture image.
또한, 전시정보 출력부는 2차원의 가상박물관 웹사이트, 그리고 복수개의 전시공간을 포함하는 3차원의 독립된 웹 페이지를 출력하며, 복수개의 전시공간 중 사용자 인터페이스를 통해 사용자가 위치하는 하나의 전시공간을 출력할 수 있다.Also, the exhibition information output unit outputs a three-dimensional independent web page including a two-dimensional virtual museum web site and a plurality of exhibition spaces, and displays an exhibition space where a user is located through a user interface among a plurality of exhibition spaces Can be output.
또한, 전시정보 출력부는 제1 전시물에 대응하는 음성, 음악, 텍스트, 또는 동영상 중 적어도 하나의 정보를 출력할 수 있다.In addition, the exhibition information output unit may output at least one of voice, music, text, and moving picture corresponding to the first display.
본 발명의 실시예에 따르면 웹 기반의 가상박물관을 구현할 수 있으며, 가상의 전시공간에 대한 연속성, 현장감 및 실재감을 향상시킬 수 있다.According to the embodiment of the present invention, a web-based virtual museum can be implemented, and continuity, presence, and realism of a virtual exhibition space can be improved.
도 1은 본 발명의 일 실시예에 따른 웹 기반의 3D 콘텐츠 전시 시스템의 구성이다.
도 2는 도 1의 오브젝트 생성부를 이용한 오브젝트 생성 과정을 나타낸다.
도 3은 본 발명의 일 실시예에 따른 texture baking을 통한 질감효과의 변화를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 일반 3D 오브젝트 전시와 전시공간에서의 3D 오브젝트 전시 비교 화면을 나타낸다.
도 5는 본 발명의 일 실시예에 따른 텍스트 정보 출력 화면을 나타낸다.
도 6은 본 발명의 일 실시예에 따른 가상공간 기반의 전시구성을 나타낸다.
도 7은 도 1의 3D 콘텐츠 전시 시스템을 이용한 전시 방법을 나타낸다.
도 8은 본 발명의 일 실시예에 따른 가상박물관 웹페이지를 나타낸다.1 is a configuration of a web-based 3D content display system according to an embodiment of the present invention.
2 shows an object creation process using the object creation unit of FIG.
FIG. 3 shows a change in texture effect through texture baking according to an embodiment of the present invention.
FIG. 4 illustrates a display of a general 3D object and a display of a 3D object in a display space according to an exemplary embodiment of the present invention.
5 shows a text information output screen according to an embodiment of the present invention.
FIG. 6 illustrates a virtual space-based exhibition configuration according to an embodiment of the present invention.
FIG. 7 shows a display method using the 3D content display system of FIG.
8 illustrates a virtual museum web page according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으므로 여기에서 설명하는 실시예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체에서 동일 또는 유사한 구성요소에 대해서는 동일한 도면부호가 사용되었다. 또한, 널리 알려진 공지기술의 경우 그 구체적인 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is therefore not limited to the embodiments described herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same reference numerals are used for the same or similar components throughout the specification. In the case of publicly known technologies, detailed description thereof will be omitted.
본 명세서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 본 명세서에 기재된 "…부", "…모듈", "…기" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In this specification, when a part is referred to as "including " an element, it is to be understood that it may include other elements as well, without departing from the other elements unless specifically stated otherwise. The terms " part, "" module," and "group ", as used herein, refer to a unit that processes at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software have.
아래에서는 웹 환경에서 3D 가상박물관 구현을 예로 들어 설명한다.Below is an example of 3D virtual museum implementation in web environment.
도 1은 본 발명의 일 실시예에 따른 웹 기반의 3D 콘텐츠 전시 시스템의 구성이다.1 is a configuration of a web-based 3D content display system according to an embodiment of the present invention.
도 1의 3D 콘텐츠 전시 시스템(100)은 웹 표준인 HTML5의 캔버스 요소를 사용하며 웹 브라우저에서 사용 가능한 'WebGL'을 이용하여 3D 콘텐츠의 전시 환경을 구현하며, 전시데이터 저장부(110), 오브젝트 생성부(120), 전시환경 생성부(130), 그리고 전시정보 출력부(140)를 포함한다. The 3D
전시데이터 저장부(110)는 전시물의 3D 데이터를 저장한다. 여기서, 3D 데이터는 전시물의 스캐닝 데이터 및 모델링 데이터를 포함하며, 스캐닝 데이터는 실제 전시물의 3D 스캐닝을 통해 획득한 포인트 클라우드 데이터이고, 모델링 데이터는 사용자가 3D 모델링 프로그램(아키캐드(ArchiCAD), 블렌더(Blender) 등)을 이용하여 실제 전시물을 모델링한 데이터이다. 예를 들어, 스캐닝 데이터는 확장자가 ICF, WRL, XRL 등인 파일을 포함한다.The exhibition
또한, 전시데이터 저장부(110)는 가상의 전시공간(이하 "가상공간"이라고 함)에 대응하는 모델링 데이터를 저장한다. 여기서, 전시공간 모델링 데이터는 obj 파일 포맷으로 3D 모델링 프로그램 및 BIM(빌딩정보모델링, building information modeling) 모델링 프로그램을 통해 생성할 수 있다.In addition, the exhibition
오브젝트 생성부(120)는 전시데이터 저장부(110)에 저장되어 있는 전시물의 3D 데이터를 변환하여 오브젝트 데이터를 생성한다.The
도 2는 도 1의 오브젝트 생성부를 이용한 오브젝트 데이터 생성 과정을 나타낸다.2 shows a process of generating object data using the object generator of FIG.
도 2에서 보면, 전시데이터 저장부(110)에 저장되어 있는 ICF, WRL, 또는 XRL 파일 등의 포인트 클라우드 데이터(3D 스캐닝 데이터)를 메쉬(mesh)로 변환하고, 메쉬의 정점에 대응하는 UV 좌표 및 UV 좌표에 대응하는 텍스처 이미지(Texture image)를 생성한다. 예를 들어, Geomagic DesignX를 통해 포인트 클라우드 데이터를 메쉬로 변환하고 UV 좌표 및 UV 좌표에 대응하는 텍스처 이미지를 생성할 수 있다.2, point cloud data (3D scanning data) such as ICF, WRL, or XRL files stored in the exhibition
도 2에서 보면, 모델링 프로그램을 통해 전시데이터 저장부(110)에 저장되어 있는 3D 모델링 데이터(설계파일)를 내보내기(export)하여 obj 파일로 변환한다. 이때, 변환된 obj 파일에 대응하는 mtl 파일이 생성된다.2, the 3D modeling data (design file) stored in the exhibition
여기서, obj 파일은 3차원 파일 포맷으로, 3D 콘텐츠가 가지고 있는 메쉬의 3차원 기하 정보(Geometric Information)를 포함하는 각 꼭짓점(Vertex)과 그 꼭짓점의 연결로 구성된 폴리곤을 포함하며, 각 꼭짓점에는 2차원 텍스처 이미지의 좌표와 이에 대응하는 UV 값을 포함한다. 또한, mtl 파일은 Diffuse Color 등의 질감 정보(Texture Information)와 매핑 이미지(Mapping Image) 정보를 포함한다. 이때, 매핑되는 이미지가 2D이므로 질감 이미지를 기하 정보에 맞게 대응시키기 위해서는 3D 콘텐츠의 위치 정보를 2D로 변환하고 해당 좌표에 2D 이미지를 대응시키는 UV 매핑 과정을 통해 UV 맵을 생성해야 한다. 본 발명의 실시예에서는 블렌더를 활용하여 UV 맵을 생성한다.Here, the obj file is a three-dimensional file format. The obj file includes a polygon composed of vertexes each including three-dimensional geometric information (Geometric Information) of a mesh possessed by the 3D contents and its vertexes, Dimensional texture image and the corresponding UV value. In addition, the mtl file includes texture information (texture information) such as Diffuse Color and mapping information. In this case, since the mapped image is 2D, in order to correspond the texture image to the geometric information, the UV map should be generated by converting the position information of the 3D contents to 2D and mapping the 2D image to the corresponding coordinates. In the embodiment of the present invention, a UV map is generated using a blender.
도 2를 통해 생성된 오브젝트 데이터는 *.obj 파일, *.mtl 파일 및 텍스처 이미지 파일을 포함하며, 품질대비 저용량이므로 렌더링 속도 및 품질을 향상시킬 수 있다.The object data generated through FIG. 2 includes * .obj file, * .mtl file, and texture image file, and it is possible to improve rendering speed and quality since it is low in quality compared with quality.
다시 도 1의 설명으로 돌아가서, 전시환경 생성부(130)는 오브젝트 생성부(120)에서 생성된 오브젝트 데이터를 가상공간에 적용하여 전시환경을 구현한다.Referring again to FIG. 1, the exhibition
아래에서는 WebGL의 구동 프레임워크 중 하나이며 high-level 라이브러리로 사용이 쉽고 GLSL(OpenGL Shading Language)에 대해 유효성을 가지며 MIT(Massachusetts Institute of Technology) 라이센스로 이용할 수 있는 'Three.js'를 사용하여 전시환경을 구현하는 것을 예로 들어 설명한다.Below is an example of one of WebGL's operating frameworks. It is easy to use as a high-level library, validated against OpenGL Shading Language (GLSL), and exhibited using 'Three.js' available under the Massachusetts Institute of Technology (MIT) license Environment is implemented as an example.
전시환경 생성부(130)는 전시데이터 저장부(110)에 저장되어 있는 가상공간 모델링 데이터에 오브젝트 데이터를 로딩하고 오브젝트의 좌표 값을 변경하여 3차원의 전시환경을 구현한다. 이때, three.js 라이브러리에서 제공하는 obj 파일 로더를 사용할 수 있으며, 가상공간 모델링 데이터에 대응하는 *.obj 파일 및 *.mtl 파일, 오브젝트 데이터에 대응하는 *.obj 파일, *.mtl 파일, 그리고 텍스처 이미지 파일의 렌더링을 수행하여 전시환경을 구현할 수 있다. 구체적으로, 오브젝트 데이터의 *.obj 파일을 통해 3D 오브젝트를 읽어들이고, 오브젝트 데이터의 *.mtl 파일을 통해 읽어들인 3D 오브젝트에 질감을 입히고, 텍스처 이미지 파일을 통해 색을 입힌 오브젝트를 가상공간을 통해 출력할 수 있다.The exhibition
전시환경 생성부(130)는 빛 표현 효과를 포함하는 이미지를 생성하고 생성된 이미지를 UV 맵에 적용한다. 예를 들어, 블렌더에서 제공하는 texture baking을 통해 오브젝트에 입힐 텍스처 이미지에 그림자와 같은 빛 효과를 추가하고, 렌더링 과정에서 UV 맵에 빛 효과가 추가된 이미지를 적용할 수 있다. 또한, 가상공간을 모델링하고 벽, 바닥 등의 건축적 요소에 적합한 텍스처 이미지를 사용하여 각 면에 질감값을 입력한 후 obj, mtl 및 텍스처 이미지 파일로 변환하고, texture baking을 통해 빛에 대한 가상공간과 3D 오브젝트의 반응을 표현할 수 있다.The display
도 3은 본 발명의 일 실시예에 따른 texture baking을 통한 질감효과의 변화를 나타낸다.FIG. 3 shows a change in texture effect through texture baking according to an embodiment of the present invention.
도 3에서 보면, texture baking을 통해 좀 더 사실적인 질감 표현이 가능한 것을 확인할 수 있다. 이로 인해, 실시간 렌더링 과정에서 필요로 하는 컴퓨팅 부하 문제를 해결할 수 있으며 제한된 성능의 브라우저상에서 좀 더 사실적인 환경을 구현할 수 있다.In Fig. 3, it can be seen that a more realistic texture representation is possible through texture baking. This solves the computational load problems required in real-time rendering and enables a more realistic environment on a limited performance browser.
다시 도 1의 설명으로 돌아가서, 전시환경 생성부(130)는 Anti-aliasing을 통해 UV 맵 적용시 오브젝트의 질감이 분절되어 보이는 현상을 줄이고 질감의 경계 부분의 연속성을 유지할 수 있다.Referring back to FIG. 1, the display
전시정보 출력부(140)는 전시환경 생성부(130)를 통해 생성된 가상공간의 3D 오브젝트 전시 화면 및 오브젝트 관련 시청각 정보(음성, 음악, 동영상, 텍스트 등)를 출력한다. 구체적으로, 인터페이스 도구를 통해 가상공간 내에서 관람자의 이동에 따라 미리 저장되어 있는 오브젝트(전시물)의 설명정보를 3D 오브젝트와 함께 출력한다. 또한, 관람자의 인터랙션에 대응하는 다양한 형태의 오브젝트를 출력하여 현장감 및 몰입감을 향상시킬 수 있다.The exhibition
도 4는 본 발명의 일 실시예에 따른 일반 3D 오브젝트 전시와 전시공간에서의 3D 오브젝트 전시 비교 화면을 나타낸다.FIG. 4 illustrates a display of a general 3D object and a display of a 3D object in a display space according to an exemplary embodiment of the present invention.
도 4는 3D 오브젝트만을 전시한 화면과 전시공간을 통해 3D 오브젝트를 전시한 화면을 나타내며, 3D 오브젝트의 특성에 따라 전시공간을 구성 및 연출하여 3D 오브젝트를 전시함으로써 관람객의 몰입감을 향상시킬 수 있다.FIG. 4 shows a screen displaying only 3D objects and a screen displaying 3D objects through an exhibition space. By arranging and presenting an exhibition space according to the characteristics of the 3D objects, 3D objects can be displayed to improve the immersion feeling of the viewer.
도 5는 본 발명의 일 실시예에 따른 텍스트 정보 출력 화면을 나타낸다.5 shows a text information output screen according to an embodiment of the present invention.
도 5에서 보면, 관람자의 위치에 대응하는 3D 오브젝트를 출력하고, 이와 관련하여 미리 저장되어 있는 설명정보를 팝업 형태로 출력할 수 있다. 또한, 포털사이트 검색 등을 통해 3D 오브젝트에 대응하는 설명정보를 실시간으로 검색하여 출력할 수 있다.Referring to FIG. 5, a 3D object corresponding to the position of the spectator may be output, and explanation information stored in advance may be outputted in a pop-up form. In addition, explanatory information corresponding to the 3D object can be searched and output in real time through portal site search or the like.
도 6은 본 발명의 일 실시예에 따른 가상공간 기반의 전시구성을 나타낸다.FIG. 6 illustrates a virtual space-based exhibition configuration according to an embodiment of the present invention.
도 6에서 보면, 관람자는 2D 박물관 홈페이지에 접속하여 링크를 통해 3D 가상 박물관에 접속한다. 3D 가상 박물관에 접속한 관람자는 키보드, 마우스, 터치 등의 사용자 인터페이스를 통해 공간 이동(내비게이션)이 가능하며, 현재의 가상공간에서 다른 가상공간으로 이동할 수 있다. 이때, 현재의 가상공간과 다른 가상공간을 통해 서로 다른 전시물(3D 오브젝트)을 경험할 수 있다.6, a viewer accesses the 2D museum website and accesses the 3D virtual museum through a link. A spectator connected to a 3D virtual museum can navigate through a user interface such as a keyboard, a mouse and a touch, and can move from a current virtual space to another virtual space. At this time, different objects (3D objects) can be experienced through the virtual spaces different from the current virtual space.
도 7은 도 1의 3D 콘텐츠 전시 시스템을 이용한 전시 방법을 나타낸다.FIG. 7 shows a display method using the 3D content display system of FIG.
먼저, 전시데이터 저장부(110)에 전시물의 3D 데이터 및 가상공간의 모델링 데이터를 저장한다(S10). 구체적으로, 실제 전시물의 3D 스캐닝을 통해 생성된 포인트 클라우드 데이터, 3D 모델링 프로그램을 통해 생성된 전시물 모델링 데이터 및 가상공간 모델링 데이터를 저장한다. 이때, 전시물 및 가상공간의 모델링 데이터는 모델링 프로그램에서 설계 파일을 내보내기(export) 하여 obj 파일로 변환한 상태로 전시데이터 저장부(110)에 저장할 수 있으며, 변환된 obj 파일에 대응하는 mtl 파일도 함께 저장할 수 있다.First, the 3D data of the exhibit and the modeling data of the virtual space are stored in the exhibition data storage unit 110 (S10). Specifically, point cloud data generated through 3D scanning of an actual exhibit, exhibit modeling data generated through a 3D modeling program, and virtual space modeling data are stored. At this time, the modeling data of the exhibit and the virtual space can be exported in the modeling program, converted into an obj file and stored in the exhibition
이후, 오브젝트 생성부(120)에서 S10 단계에서 저장된 전시물의 3D 데이터를 변환하여 오브젝트 데이터를 생성한다(S20). 구체적으로, S10 단계에서 저장되어 있는 포인트 클라우드를 메쉬(mesh)로 변환하고, 메쉬의 정점에 대응하는 UV 좌표(텍스처 좌표)를 생성하고 생성된 UV 좌표에 대응하는 텍스처 이미지를 생성한다.In step S 20, the
이후, 전시환경 생성부(130)에서 가상공간에 오브젝트 데이터를 적용한 전시환경을 생성한다(S30). 구체적으로, S10 단계에서 저장된 가상공간 모델링 데이터에 대응하는 가상공간에 S10 단계에서 저장된 obj 파일을 이용하여 오브젝트를 읽어들인다. 또한, mtl 파일을 이용하여 읽어들인 오브젝트에 질감을 입히고, S20 단계에서 생성된 텍스처 이미지 파일을 이용하여 읽어들인 오브젝트에 색을 입힐 수 있다.Thereafter, the display
이후, 전시정보 출력부(140)에서 가상박물관 홈페이지에 접속한 관람자의 이동에 대응하는 오브젝트 및 가상공간을 출력한다(S40, S50). S50 단계에서는 오브젝트 관련 시청각 정보를 더 출력할 수 있다. 관람자는 키보드 및 마우스 등의 사용자 인터페이스를 통해 가상박물관에서 서로 다른 오브젝트를 전시하는 가상공간으로 이동하며 오브젝트 및 오브젝트 관련 설명정보를 확인할 수 있다.Thereafter, the exhibition
도 8은 본 발명의 일 실시예에 따른 가상박물관 웹페이지를 나타낸다.8 illustrates a virtual museum web page according to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 WebGL을 이용한 가상박물관을 나타내며, 오브젝트에 대응하는 다수의 가상공간(1번 전시실, 2번 전시실, 3번 전시실)이 구현됨을 확인할 수 있다.FIG. 8 shows a virtual museum using the WebGL according to an embodiment of the present invention, and it can be seen that a plurality of virtual spaces (one exhibition room, two exhibition rooms, and three exhibition rooms) corresponding to objects are implemented.
본 발명의 실시예에 따른 웹 기반의 3D 콘텐츠 전시 시스템 및 방법은 공간과 시간의 제약을 벗어나 박물을 전시하고 관련 정보를 제시하는 가상박물관 구현에 활용할 수 있다. 또한, 관람자의 공간 이동 및 반응에 따른 즉각적인 피드백, 현장체감 및 감각적 체험 등을 제공하여 몰입감을 향상시킬 수 있다.A Web-based 3D content display system and method according to an embodiment of the present invention can be utilized for realizing a virtual museum displaying a museum and presenting relevant information outside space and time constraints. In addition, the sense of immersion can be improved by providing immediate feedback, a field experience, and a sensory experience according to a spectator's spatial movement and reaction.
본 발명의 실시예에 따르면 WebGL을 이용함으로써 별도의 플러그인 없이 3D 그래픽스를 구현할 수 있어 다양한 분야에서 활용할 수 있으며, 별도의 인터페이스 프로그래밍 없이 웹브라우저 상에서 접근이 가능하므로 다양한 디바이스 환경에서 활용할 수 있다.According to the embodiment of the present invention, since 3D graphics can be implemented without using a separate plug-in by using WebGL, it can be utilized in various fields and can be utilized in various device environments because it can be accessed through a web browser without a separate interface programming.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였으나, 본 발명의 권리범위가 이에 한정되는 것은 아니며 본 발명이 속하는 분야에서 통상의 지식을 가진 자가 여러 가지로 변형 및 개량한 형태 또한 본 발명의 권리범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It belongs to the scope.
100 : 3D 콘텐츠 전시 시스템
110 : 전시데이터 저장부
120 : 오브젝트 생성부
130 : 전시환경 생성부
140 : 전시정보 출력부100: 3D content display system
110: Exhibition data storage unit
120:
130: Exhibition environment creation section
140: Exhibition information output section
Claims (6)
상기 제1 전시물의 3D 모델링 데이터에 대응하는 제1 오브젝트 파일, 상기 제1 오브젝트 파일에 대응하는 제2 오브젝트 파일, 그리고 상기 제1 전시물의 3D 스캐닝 데이터로부터 생성된 제3 오브젝트 파일을 포함하는 오브젝트 데이터를 생성하는 오브젝트 생성부,
저장된 상기 제1 전시공간에 대응하는 3D 모델링 데이터로부터 추출된 상기 제1 전시공간의 3차원 기하 정보, 질감 정보 그리고 매핑 이미지 정보와 생성된 상기 오브젝트 데이터의 렌더링을 통해 웹 기반의 전시환경을 생성하는 전시환경 생성부, 그리고
생성된 상기 웹 기반의 전시환경을 출력하는 전시정보 출력부
를 포함하며,
상기 전시환경 생성부는,
그림자와 빛 표현에 대한 이미지를 생성하여 생성된 상기 그림자와 빛 표현에 대한 이미지를 상기 전시 환경에 적용하고 앤티 앨리싱(Anti-aliasing)을 수행하여 오브젝트 질감의 경계 부분의 연속성을 유지시키며,
상기 웹 기반의 전시환경은 복수개의 전시공간을 포함하고, 상기 복수개의 전시공간은 상기 제1 전시물이 출력되는 상기 제1 전시공간, 그리고 상기 제1 전시물과 다른 제2 전시물이 출력되는 제2 전시공간을 포함하는 웹 기반의 3D 콘텐츠 전시 시스템.An exhibition data storage unit for storing 3D scanning data of the first exhibit, 3D modeling data of the first exhibit, and 3D modeling data corresponding to the first exhibition space,
The object data including the first object file corresponding to the 3D modeling data of the first exhibit, the second object file corresponding to the first object file, and the third object file generated from the 3D scanning data of the first exhibit, An object generating unit for generating an object,
A web-based display environment is created by rendering three-dimensional geometry information, texture information, and mapping image information of the first exhibition space extracted from the 3D modeling data corresponding to the stored first exhibition space and the generated object data Exhibition environment creation section, and
An exhibition information output unit for outputting the generated web-
/ RTI >
The exhibition environment creating unit creates,
An image of a shadow and light expression is generated and an image of the shadow and light expression generated by applying the shadow and light expression to the display environment and anti-
Wherein the web-based display environment includes a plurality of exhibition spaces, wherein the plurality of exhibition spaces include a first display space in which the first display is output, and a second display in which a second display is output other than the first display Web-based 3D content display system including space.
상기 제1 오브젝트 파일은 obj 파일이고, 상기 제2 오브젝트 파일은 mtl 파일이며, 그리고 상기 제3 오브젝트 파일은 텍스처 이미지 파일인 웹 기반의 3D 콘텐츠 전시 시스템.The method of claim 1,
Wherein the first object file is an obj file, the second object file is an mtl file, and the third object file is a texture image file.
상기 오브젝트 생성부는 상기 제1 전시물의 3D 스캐닝 데이터에 포함되어 있는 포인트 클라우드(point cloud)를 메쉬(mesh)로 변환하고, 변환된 상기 메쉬의 정점에 대응하는 UV 좌표를 생성하며, 그리고 생성된 상기 UV 좌표에 대응하는 텍스처 이미지에 대응하는 텍스처 이미지 파일을 생성하는 웹 기반의 3D 콘텐츠 전시 시스템.3. The method of claim 2,
Wherein the object generating unit converts a point cloud included in 3D scanning data of the first exhibit into a mesh and generates UV coordinates corresponding to the converted vertex of the mesh, A web-based 3D content display system for generating a texture image file corresponding to a texture image corresponding to a UV coordinate.
상기 전시정보 출력부는 2차원의 가상박물관 웹사이트, 그리고 상기 복수개의 전시공간을 포함하는 3차원의 독립된 웹 페이지를 출력하며, 상기 복수개의 전시공간 중 사용자 인터페이스를 통해 사용자가 위치하는 하나의 전시공간을 출력하는 웹 기반의 3D 콘텐츠 전시 시스템.The method of claim 1,
The exhibition information output unit outputs a two-dimensional virtual museum web site and a three-dimensional independent web page including the plurality of exhibition spaces, and an exhibition space among the plurality of exhibition spaces, Based 3D content display system for displaying the 3D content.
상기 전시정보 출력부는 상기 제1 전시물에 대응하는 음성, 음악, 텍스트, 또는 동영상 중 적어도 하나의 정보를 출력하는 웹 기반의 3D 콘텐츠 전시 시스템.The method of claim 1,
Wherein the exhibition information output unit outputs at least one of voice, music, text, or moving picture corresponding to the first exhibit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170043849A KR101927401B1 (en) | 2017-04-04 | 2017-04-04 | Web-based 3d contents exhibition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170043849A KR101927401B1 (en) | 2017-04-04 | 2017-04-04 | Web-based 3d contents exhibition system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180112582A KR20180112582A (en) | 2018-10-12 |
KR101927401B1 true KR101927401B1 (en) | 2019-02-26 |
Family
ID=63876609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170043849A KR101927401B1 (en) | 2017-04-04 | 2017-04-04 | Web-based 3d contents exhibition system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101927401B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102616381B1 (en) * | 2023-09-14 | 2023-12-21 | 주식회사 메타버즈 | 3D Modeling Construction System and Method through Text-Based Commands |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102110783B1 (en) | 2020-02-13 | 2020-05-13 | (주) 티나쓰리디 | Method for realtime 3d rendering using web based 3d realtime rendering engine, program for realtime 3d rendering using web based 3d realtime rencdering engine and apparatus installed the program |
KR102270388B1 (en) * | 2020-06-29 | 2021-06-29 | 윤태원 | Spatial design coordinating system, method and program |
KR102522100B1 (en) * | 2021-02-26 | 2023-04-14 | 최상수 | Data conversion method and data conversion device |
CN113192170A (en) * | 2021-04-30 | 2021-07-30 | 深圳市山行科技有限公司 | Three-dimensional noise map rendering data access method, system, device and storage medium |
CN113642173A (en) * | 2021-08-13 | 2021-11-12 | 广东电网有限责任公司广州供电局 | High-simulation traction field construction simulation method based on laser cloud |
KR102567150B1 (en) * | 2023-01-10 | 2023-08-29 | (주)메타버즈 | A Metaverse Environment Building Method that is Directly Expressed in the Web Page Environment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010098336A (en) * | 2000-04-20 | 2001-11-08 | 이영규 | Cyber pavilion system and exhibition method using 3-dimentional virtual reality space |
KR101841668B1 (en) * | 2012-02-15 | 2018-03-27 | 한국전자통신연구원 | Apparatus and method for producing 3D model |
-
2017
- 2017-04-04 KR KR1020170043849A patent/KR101927401B1/en active IP Right Grant
Non-Patent Citations (1)
Title |
---|
Pascal /w OpenGL,OpenGL|ES #3, (2013.01.19.) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102616381B1 (en) * | 2023-09-14 | 2023-12-21 | 주식회사 메타버즈 | 3D Modeling Construction System and Method through Text-Based Commands |
Also Published As
Publication number | Publication date |
---|---|
KR20180112582A (en) | 2018-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101927401B1 (en) | Web-based 3d contents exhibition system | |
CN111324965B (en) | Cloud-based general parameterized model analysis method and design system | |
US8896595B2 (en) | System, apparatus, and method of modifying 2.5D GIS data for a 2D GIS system | |
Kharroubi et al. | Classification and integration of massive 3d points clouds in a virtual reality (VR) environment | |
Vetter | Technical potentials for the visualization in virtual reality | |
KR101614065B1 (en) | Method and system for reducing 3d modeling data | |
KR20140145217A (en) | 3d virtual modeling system using spatial information and method thereof | |
KR20220024681A (en) | Method and apparatus for generating an optical probe, storage medium and computer device | |
Joy et al. | Digital 3D modeling for preconstruction real-time visualization of home interior design through virtual reality | |
Liarokapis et al. | Augmented reality interface toolkit | |
KR101428577B1 (en) | Method of providing a 3d earth globes based on natural user interface using motion-recognition infrared camera | |
White et al. | Augmented reality for museum artefact visualization | |
Paes et al. | The relevance of visual cues in immersive environments: Does pictorial realism matter? | |
Barbera et al. | A pipeline for the implementation of immersive experience in cultural heritage sites in sicily | |
CN108431868A (en) | The relevant graphical effect of tactile | |
JP5524146B2 (en) | Perspective diagram creation system, perspective diagram creation program, and perspective diagram creation method | |
Mendes et al. | IMAGO visualization System: an interactive web-based 3D visualization system for cultural heritage applications | |
Abdalla et al. | Immersive environments for disaster and emergency management | |
Bowman et al. | Engineering in three dimensions: immersive virtual environments, interactivity, and 3D user interfaces for engineering applications | |
KR102488877B1 (en) | Method for three dimensional graphic interface based model and three dimensional graphic interface device therefor | |
Hering et al. | 3DCIS: A real-time browser-rendered 3d campus information system based on webgl | |
Sacher et al. | A Generative Approach to Virtual Museums. | |
Putra et al. | Experiencing Heritage through Immersive Environment using Affordable Virtual Reality Setup | |
Dhete et al. | Dynamic graph plotting with WPF | |
Sampaio et al. | Bringing integrated multimedia content into virtual reality environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |