KR20180112582A - Web-based 3d contents exhibition system - Google Patents

Web-based 3d contents exhibition system Download PDF

Info

Publication number
KR20180112582A
KR20180112582A KR1020170043849A KR20170043849A KR20180112582A KR 20180112582 A KR20180112582 A KR 20180112582A KR 1020170043849 A KR1020170043849 A KR 1020170043849A KR 20170043849 A KR20170043849 A KR 20170043849A KR 20180112582 A KR20180112582 A KR 20180112582A
Authority
KR
South Korea
Prior art keywords
exhibition
data
web
file
display
Prior art date
Application number
KR1020170043849A
Other languages
Korean (ko)
Other versions
KR101927401B1 (en
Inventor
류재호
김민석
이상렬
민연홍
Original Assignee
대한민국(국가기록원)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(국가기록원) filed Critical 대한민국(국가기록원)
Priority to KR1020170043849A priority Critical patent/KR101927401B1/en
Publication of KR20180112582A publication Critical patent/KR20180112582A/en
Application granted granted Critical
Publication of KR101927401B1 publication Critical patent/KR101927401B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Provided is a system for exhibiting 3D content by generating a virtual space in a web browser environment. According to an embodiment of the present invention, a web-based 3D content exhibition system comprises an exhibition data storage unit for storing 3D scanning data of a first exhibition matter, 3D modeling data of the first exhibition matter and 3D modeling data corresponding to the first exhibition space; an object generating unit for generating object data including a first object file corresponding to the 3D modeling data of the first exhibition matter, a second object file corresponding to the first object file and a third object file generated from the 3D scanning data of the first exhibition matter; an exhibition environment generating unit for generating a web-based exhibition environment through 3D modeling data corresponding to the stored first exhibition space and rendering of the generated object data; and an exhibition information outputting unit for outputting the generated web-based exhibition environment.

Description

웹 기반의 3D 콘텐츠 전시 시스템{WEB-BASED 3D CONTENTS EXHIBITION SYSTEM}WEB-BASED 3D CONTENTS EXHIBITION SYSTEM [0002]

웹 브라우저 환경에서 가상의 공간을 생성하여 3D 콘텐츠를 전시하는 시스템이 제공된다.A system for displaying 3D contents by creating a virtual space in a web browser environment is provided.

웹3D는 인터넷상에서 웹브라우저를 통해 실시간으로 3D 그래픽을 구현하는 것으로 가상 모델하우스, 기업홈페이지, 아트 갤러리, 안내 시스템 등 다양한 분야에서 활용되고 있다.Web 3D is realizing 3D graphics in real time through a web browser on the Internet and is utilized in various fields such as virtual model houses, corporate homepages, art galleries, and information systems.

웹상에서 3D를 구현하는 방법으로는 VRML(Virtual Reality Modeling Language), 3DMLW(3D Markup Language for Web), X3D(Extensible 3D) 및 WebGL(Web Graphics Library) 등이 있다. 이 중 VRML, 3DMLW 및 X3D는 외부 플러그인이 필요하나, WebGL은 별도의 플러그인이 필요하지 않으며 웹브라우저 상에서 렌더링 작업이 가능하다는 점에서 활용도가 증가하고 있다.As a method of implementing 3D on the Web, there are Virtual Reality Modeling Language (VRML), 3D Markup Language for Web (3DMLW), Extensible 3D (X3D), and Web Graphics Library (WebGL). Among these, VRML, 3DMLW and X3D require external plug-ins, but WebGL does not need a separate plug-in and its utilization is increasing because it can be rendered on a web browser.

WebGL을 이용한 웹3D 구현에는 다양한 방법으로 생성된 3D 콘텐츠의 데이터 규격과 형식을 WebGL에서 디스플레이가 가능한 형식으로 변환하는 과정이 필요하다. 구체적으로, 스캐닝을 통해 획득한 포인트 클라우드 데이터는 메쉬(mesh)를 형성하고 UV 좌표를 구성한 후 UV 좌표에 맞는 텍스처(texture) 이미지를 생성한다. 또한, SketchUp 등의 일반 3D 모델링 툴과 Revit 등의 BIM(Building Information Modeling) 툴을 통해 생성한 3D 모델링 데이터는 데이터 형식을 변환하여 *.obj 파일을 획득하고 저차원에서 데이터를 한번 더 변환하는 과정을 거쳐 WebGL에 연동시킨다.In the Web 3D implementation using WebGL, it is necessary to convert the data specification and format of 3D contents created by various methods into a format that can be displayed in WebGL. Specifically, the point cloud data acquired through scanning forms a mesh, constructs UV coordinates, and generates a texture image corresponding to UV coordinates. In addition, 3D modeling data created through general 3D modeling tools such as SketchUp and BIM (Building Information Modeling) tools such as Revit acquires the * .obj file by converting the data format and transforms the data once again at low dimension To the WebGL.

그러나 WebGL에 해당 3D 오브젝트 파일을 이용하기 위해서는 여러 차례의 데이터 변환이 필요하며, Sketchup 을 이용하는 경우 구성된 3차원 메쉬가 불안정하고 Revit 을 이용하는 경우 텍스처의 표현이 제한적이라는 점에서 웹3D 구현 과정을 간소화하고 콘텐츠를 보다 사실적으로 표현할 수 있는 기술이 필요하다.However, in order to use the corresponding 3D object file in WebGL, it is necessary to convert data several times. In the case of using Sketchup, the 3D mesh is unstable, and when Revit is used, the representation of the texture is limited. There is a need for a technology that can express contents more realistically.

본 발명의 일 실시예가 해결하려는 과제는 웹 기반의 가상공간을 생성하고 생성된 가상공간을 통해 3D 콘텐츠를 전시하는 시스템을 제공하는 것이다.A problem to be solved by one embodiment of the present invention is to provide a system for creating a web-based virtual space and displaying 3D contents through the generated virtual space.

상기 과제 이외에도 구체적으로 언급되지 않은 다른 과제를 달성하는 데 본 발명에 따른 실시예가 사용될 수 있다.Embodiments according to the present invention can be used to accomplish other tasks not specifically mentioned other than the above-described tasks.

상기 과제를 해결하기 위해 본 발명의 일 실시예는, 제1 전시물의 3D 스캐닝 데이터, 제1 전시물의 3D 모델링 데이터, 그리고 제1 전시공간에 대응하는 3D 모델링 데이터를 저장하는 전시데이터 저장부, 제1 전시물의 3D 모델링 데이터에 대응하는 제1 오브젝트 파일, 제1 오브젝트 파일에 대응하는 제2 오브젝트 파일, 그리고 제1 전시물의 3D 스캐닝 데이터로부터 생성된 제3 오브젝트 파일을 포함하는 오브젝트 데이터를 생성하는 오브젝트 생성부, 저장된 제1 전시공간에 대응하는 3D 모델링 데이터와 생성된 오브젝트 데이터의 렌더링을 통해 웹 기반의 전시환경을 생성하는 전시환경 생성부, 그리고 생성된 웹 기반의 전시환경을 출력하는 전시정보 출력부를 포함하며, 웹 기반의 전시환경은 복수개의 전시공간을 포함하고, 복수개의 전시공간은 제1 전시물이 출력되는 제1 전시공간, 그리고 제1 전시물과 다른 제2 전시물이 출력되는 제2 전시공간을 포함하는 웹 기반의 3D 콘텐츠 전시 시스템을 제안한다.According to an embodiment of the present invention, there is provided an exhibition data storage unit for storing 3D scanning data of a first exhibit, 3D modeling data of a first exhibit, and 3D modeling data corresponding to a first exhibition space, An object for generating object data including a first object file corresponding to 3D modeling data of one exhibit, a second object file corresponding to the first object file, and a third object file generated from 3D scanning data of the first exhibit, An exhibition environment creating unit for creating a web-based exhibition environment by rendering the 3D modeling data corresponding to the stored first exhibition space and the generated object data, and an exhibition information outputting unit for outputting the generated web- Wherein the web-based display environment includes a plurality of exhibition spaces, and the plurality of exhibition spaces include a first display It proposes a Web-based 3D content display system including the output a first display area, and exhibits a first and a second, different display area in which the second exhibits the output.

여기서, 제1 오브젝트 파일은 obj 파일이고, 제2 오브젝트 파일은 mtl 파일이며, 그리고 제3 오브젝트 파일은 텍스처 이미지 파일일 수 있다.Here, the first object file may be an obj file, the second object file may be an mtl file, and the third object file may be a texture image file.

또한, 오브젝트 생성부는 제1 전시물의 3D 스캐닝 데이터에 포함되어 있는 포인트 클라우드(point cloud)를 메쉬(mesh)로 변환하고, 변환된 메쉬의 정점에 대응하는 UV 좌표를 생성하며, 그리고 생성된 UV 좌표에 대응하는 텍스처 이미지에 대응하는 텍스처 이미지 파일을 생성할 수 있다.The object generating unit converts the point cloud included in the 3D scanning data of the first display into a mesh, generates UV coordinates corresponding to the vertices of the converted mesh, To generate a texture image file corresponding to the texture image corresponding to the texture image.

또한, 전시환경 생성부는 텍스처 이미지에 빛 표현 효과를 추가할 수 있다.Also, the display environment generating unit can add a light expression effect to the texture image.

또한, 전시정보 출력부는 2차원의 가상박물관 웹사이트, 그리고 복수개의 전시공간을 포함하는 3차원의 독립된 웹 페이지를 출력하며, 복수개의 전시공간 중 사용자 인터페이스를 통해 사용자가 위치하는 하나의 전시공간을 출력할 수 있다.Also, the exhibition information output unit outputs a three-dimensional independent web page including a two-dimensional virtual museum web site and a plurality of exhibition spaces, and displays an exhibition space where a user is located through a user interface among a plurality of exhibition spaces Can be output.

또한, 전시정보 출력부는 제1 전시물에 대응하는 음성, 음악, 텍스트, 또는 동영상 중 적어도 하나의 정보를 출력할 수 있다.In addition, the exhibition information output unit may output at least one of voice, music, text, and moving picture corresponding to the first display.

본 발명의 실시예에 따르면 웹 기반의 가상박물관을 구현할 수 있으며, 가상의 전시공간에 대한 연속성, 현장감 및 실재감을 향상시킬 수 있다.According to the embodiment of the present invention, a web-based virtual museum can be implemented, and continuity, presence, and realism of a virtual exhibition space can be improved.

도 1은 본 발명의 일 실시예에 따른 웹 기반의 3D 콘텐츠 전시 시스템의 구성이다.
도 2는 도 1의 오브젝트 생성부를 이용한 오브젝트 생성 과정을 나타낸다.
도 3은 본 발명의 일 실시예에 따른 texture baking을 통한 질감효과의 변화를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 일반 3D 오브젝트 전시와 전시공간에서의 3D 오브젝트 전시 비교 화면을 나타낸다.
도 5는 본 발명의 일 실시예에 따른 텍스트 정보 출력 화면을 나타낸다.
도 6은 본 발명의 일 실시예에 따른 가상공간 기반의 전시구성을 나타낸다.
도 7은 도 1의 3D 콘텐츠 전시 시스템을 이용한 전시 방법을 나타낸다.
도 8은 본 발명의 일 실시예에 따른 가상박물관 웹페이지를 나타낸다.
1 is a configuration of a web-based 3D content display system according to an embodiment of the present invention.
2 shows an object creation process using the object creation unit of FIG.
FIG. 3 shows a change in texture effect through texture baking according to an embodiment of the present invention.
FIG. 4 illustrates a display of a general 3D object and a display of a 3D object in a display space according to an exemplary embodiment of the present invention.
5 shows a text information output screen according to an embodiment of the present invention.
FIG. 6 illustrates a virtual space-based exhibition configuration according to an embodiment of the present invention.
FIG. 7 shows a display method using the 3D content display system of FIG.
8 illustrates a virtual museum web page according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으므로 여기에서 설명하는 실시예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체에서 동일 또는 유사한 구성요소에 대해서는 동일한 도면부호가 사용되었다. 또한, 널리 알려진 공지기술의 경우 그 구체적인 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is therefore not limited to the embodiments described herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same reference numerals are used for the same or similar components throughout the specification. In the case of publicly known technologies, detailed description thereof will be omitted.

본 명세서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 본 명세서에 기재된 "…부", "…모듈", "…기" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In this specification, when a part is referred to as "including " an element, it is to be understood that it may include other elements as well, without departing from the other elements unless specifically stated otherwise. The terms " part, "" module," and "group ", as used herein, refer to a unit that processes at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software have.

아래에서는 웹 환경에서 3D 가상박물관 구현을 예로 들어 설명한다.Below is an example of 3D virtual museum implementation in web environment.

도 1은 본 발명의 일 실시예에 따른 웹 기반의 3D 콘텐츠 전시 시스템의 구성이다.1 is a configuration of a web-based 3D content display system according to an embodiment of the present invention.

도 1의 3D 콘텐츠 전시 시스템(100)은 웹 표준인 HTML5의 캔버스 요소를 사용하며 웹 브라우저에서 사용 가능한 'WebGL'을 이용하여 3D 콘텐츠의 전시 환경을 구현하며, 전시데이터 저장부(110), 오브젝트 생성부(120), 전시환경 생성부(130), 그리고 전시정보 출력부(140)를 포함한다. The 3D content display system 100 of FIG. 1 uses a canvas element of HTML5, which is a web standard, and implements a display environment of 3D contents using 'WebGL' available in a web browser. The 3D content display system 100 includes an exhibition data storage unit 110, A display environment generating unit 130, and an exhibition information output unit 140. The display unit 120 includes a display unit 130,

전시데이터 저장부(110)는 전시물의 3D 데이터를 저장한다. 여기서, 3D 데이터는 전시물의 스캐닝 데이터 및 모델링 데이터를 포함하며, 스캐닝 데이터는 실제 전시물의 3D 스캐닝을 통해 획득한 포인트 클라우드 데이터이고, 모델링 데이터는 사용자가 3D 모델링 프로그램(아키캐드(ArchiCAD), 블렌더(Blender) 등)을 이용하여 실제 전시물을 모델링한 데이터이다. 예를 들어, 스캐닝 데이터는 확장자가 ICF, WRL, XRL 등인 파일을 포함한다.The exhibition data storage unit 110 stores 3D data of an exhibit. Here, the 3D data includes scanning data and modeling data of the exhibit, the scanning data is point cloud data obtained through 3D scanning of the actual exhibition, and the modeling data is a 3D modeling program (ArchiCAD, Blender ), And the like). For example, the scanning data includes files whose extension is ICF, WRL, XRL, and the like.

또한, 전시데이터 저장부(110)는 가상의 전시공간(이하 "가상공간"이라고 함)에 대응하는 모델링 데이터를 저장한다. 여기서, 전시공간 모델링 데이터는 obj 파일 포맷으로 3D 모델링 프로그램 및 BIM(빌딩정보모델링, building information modeling) 모델링 프로그램을 통해 생성할 수 있다.In addition, the exhibition data storage unit 110 stores modeling data corresponding to a virtual exhibition space (hereinafter referred to as "virtual space"). Here, the exhibition space modeling data can be generated through a 3D modeling program and a building information modeling (BIM) modeling program in an obj file format.

오브젝트 생성부(120)는 전시데이터 저장부(110)에 저장되어 있는 전시물의 3D 데이터를 변환하여 오브젝트 데이터를 생성한다.The object generating unit 120 converts the 3D data of the exhibit stored in the exhibition data storage unit 110 to generate object data.

도 2는 도 1의 오브젝트 생성부를 이용한 오브젝트 데이터 생성 과정을 나타낸다.2 shows a process of generating object data using the object generator of FIG.

도 2에서 보면, 전시데이터 저장부(110)에 저장되어 있는 ICF, WRL, 또는 XRL 파일 등의 포인트 클라우드 데이터(3D 스캐닝 데이터)를 메쉬(mesh)로 변환하고, 메쉬의 정점에 대응하는 UV 좌표 및 UV 좌표에 대응하는 텍스처 이미지(Texture image)를 생성한다. 예를 들어, Geomagic DesignX를 통해 포인트 클라우드 데이터를 메쉬로 변환하고 UV 좌표 및 UV 좌표에 대응하는 텍스처 이미지를 생성할 수 있다.2, point cloud data (3D scanning data) such as ICF, WRL, or XRL files stored in the exhibition data storage unit 110 is converted into a mesh, and UV coordinates And a texture image corresponding to the UV coordinates. For example, Geomagic DesignX allows you to convert point cloud data into meshes and generate texture images corresponding to UV coordinates and UV coordinates.

도 2에서 보면, 모델링 프로그램을 통해 전시데이터 저장부(110)에 저장되어 있는 3D 모델링 데이터(설계파일)를 내보내기(export)하여 obj 파일로 변환한다. 이때, 변환된 obj 파일에 대응하는 mtl 파일이 생성된다.2, the 3D modeling data (design file) stored in the exhibition data storage unit 110 is exported through a modeling program and converted into an obj file. At this time, an mtl file corresponding to the converted obj file is generated.

여기서, obj 파일은 3차원 파일 포맷으로, 3D 콘텐츠가 가지고 있는 메쉬의 3차원 기하 정보(Geometric Information)를 포함하는 각 꼭짓점(Vertex)과 그 꼭짓점의 연결로 구성된 폴리곤을 포함하며, 각 꼭짓점에는 2차원 텍스처 이미지의 좌표와 이에 대응하는 UV 값을 포함한다. 또한, mtl 파일은 Diffuse Color 등의 질감 정보(Texture Information)와 매핑 이미지(Mapping Image) 정보를 포함한다. 이때, 매핑되는 이미지가 2D이므로 질감 이미지를 기하 정보에 맞게 대응시키기 위해서는 3D 콘텐츠의 위치 정보를 2D로 변환하고 해당 좌표에 2D 이미지를 대응시키는 UV 매핑 과정을 통해 UV 맵을 생성해야 한다. 본 발명의 실시예에서는 블렌더를 활용하여 UV 맵을 생성한다.Here, the obj file is a three-dimensional file format. The obj file includes a polygon composed of vertexes each including three-dimensional geometric information (Geometric Information) of a mesh possessed by the 3D contents and its vertexes, Dimensional texture image and the corresponding UV value. In addition, the mtl file includes texture information (texture information) such as Diffuse Color and mapping information. In this case, since the mapped image is 2D, in order to correspond the texture image to the geometric information, the UV map should be generated by converting the position information of the 3D contents to 2D and mapping the 2D image to the corresponding coordinates. In the embodiment of the present invention, a UV map is generated using a blender.

도 2를 통해 생성된 오브젝트 데이터는 *.obj 파일, *.mtl 파일 및 텍스처 이미지 파일을 포함하며, 품질대비 저용량이므로 렌더링 속도 및 품질을 향상시킬 수 있다.The object data generated through FIG. 2 includes * .obj file, * .mtl file, and texture image file, and it is possible to improve rendering speed and quality since it is low in quality compared with quality.

다시 도 1의 설명으로 돌아가서, 전시환경 생성부(130)는 오브젝트 생성부(120)에서 생성된 오브젝트 데이터를 가상공간에 적용하여 전시환경을 구현한다.Referring again to FIG. 1, the exhibition environment generation unit 130 implements the exhibition environment by applying the object data generated by the object generation unit 120 to the virtual space.

아래에서는 WebGL의 구동 프레임워크 중 하나이며 high-level 라이브러리로 사용이 쉽고 GLSL(OpenGL Shading Language)에 대해 유효성을 가지며 MIT(Massachusetts Institute of Technology) 라이센스로 이용할 수 있는 'Three.js'를 사용하여 전시환경을 구현하는 것을 예로 들어 설명한다.Below is an example of one of WebGL's operating frameworks. It is easy to use as a high-level library, validated against OpenGL Shading Language (GLSL), and exhibited using 'Three.js' available under the Massachusetts Institute of Technology (MIT) license Environment is implemented as an example.

전시환경 생성부(130)는 전시데이터 저장부(110)에 저장되어 있는 가상공간 모델링 데이터에 오브젝트 데이터를 로딩하고 오브젝트의 좌표 값을 변경하여 3차원의 전시환경을 구현한다. 이때, three.js 라이브러리에서 제공하는 obj 파일 로더를 사용할 수 있으며, 가상공간 모델링 데이터에 대응하는 *.obj 파일 및 *.mtl 파일, 오브젝트 데이터에 대응하는 *.obj 파일, *.mtl 파일, 그리고 텍스처 이미지 파일의 렌더링을 수행하여 전시환경을 구현할 수 있다. 구체적으로, 오브젝트 데이터의 *.obj 파일을 통해 3D 오브젝트를 읽어들이고, 오브젝트 데이터의 *.mtl 파일을 통해 읽어들인 3D 오브젝트에 질감을 입히고, 텍스처 이미지 파일을 통해 색을 입힌 오브젝트를 가상공간을 통해 출력할 수 있다.The exhibition environment generation unit 130 loads the object data into the virtual space modeling data stored in the exhibition data storage unit 110 and changes the coordinate values of the object to implement a three-dimensional display environment. At this time, the obj file loader provided by the three.js library can be used, and the * .obj file and the * .mtl file corresponding to the virtual space modeling data, the * .obj file corresponding to the object data, the * .mtl file, and The display environment can be implemented by rendering the texture image file. Specifically, the 3D object is read through the * .obj file of the object data, the 3D object read through the * .mtl file of the object data is textured, and the object colored by the texture image file is transferred through the virtual space Can be output.

전시환경 생성부(130)는 빛 표현 효과를 포함하는 이미지를 생성하고 생성된 이미지를 UV 맵에 적용한다. 예를 들어, 블렌더에서 제공하는 texture baking을 통해 오브젝트에 입힐 텍스처 이미지에 그림자와 같은 빛 효과를 추가하고, 렌더링 과정에서 UV 맵에 빛 효과가 추가된 이미지를 적용할 수 있다. 또한, 가상공간을 모델링하고 벽, 바닥 등의 건축적 요소에 적합한 텍스처 이미지를 사용하여 각 면에 질감값을 입력한 후 obj, mtl 및 텍스처 이미지 파일로 변환하고, texture baking을 통해 빛에 대한 가상공간과 3D 오브젝트의 반응을 표현할 수 있다.The display environment generation unit 130 generates an image including the light expression effect and applies the generated image to the UV map. For example, texture baking provided by Blender allows you to add a shadow-like light effect to the texture image to be imposed on the object, and apply the light-added image to the UV map during rendering. In addition, we model the virtual space, input texture values to each face using texture images suitable for architectural elements such as walls and floors, convert them into obj, mtl and texture image files, You can express the reaction of space and 3D objects.

도 3은 본 발명의 일 실시예에 따른 texture baking을 통한 질감효과의 변화를 나타낸다.FIG. 3 shows a change in texture effect through texture baking according to an embodiment of the present invention.

도 3에서 보면, texture baking을 통해 좀 더 사실적인 질감 표현이 가능한 것을 확인할 수 있다. 이로 인해, 실시간 렌더링 과정에서 필요로 하는 컴퓨팅 부하 문제를 해결할 수 있으며 제한된 성능의 브라우저상에서 좀 더 사실적인 환경을 구현할 수 있다.In Fig. 3, it can be seen that a more realistic texture representation is possible through texture baking. This solves the computational load problems required in real-time rendering and enables a more realistic environment on a limited performance browser.

다시 도 1의 설명으로 돌아가서, 전시환경 생성부(130)는 Anti-aliasing을 통해 UV 맵 적용시 오브젝트의 질감이 분절되어 보이는 현상을 줄이고 질감의 경계 부분의 연속성을 유지할 수 있다.Referring back to FIG. 1, the display environment creating unit 130 may reduce the appearance of the texture of the object when the UV map is applied through anti-aliasing, and maintain the continuity of the boundary portion of the texture.

전시정보 출력부(140)는 전시환경 생성부(130)를 통해 생성된 가상공간의 3D 오브젝트 전시 화면 및 오브젝트 관련 시청각 정보(음성, 음악, 동영상, 텍스트 등)를 출력한다. 구체적으로, 인터페이스 도구를 통해 가상공간 내에서 관람자의 이동에 따라 미리 저장되어 있는 오브젝트(전시물)의 설명정보를 3D 오브젝트와 함께 출력한다. 또한, 관람자의 인터랙션에 대응하는 다양한 형태의 오브젝트를 출력하여 현장감 및 몰입감을 향상시킬 수 있다.The exhibition information output unit 140 outputs the 3D object display screen and the object-related audiovisual information (voice, music, moving picture, text, etc.) of the virtual space generated through the exhibition environment generating unit 130. [ Specifically, explanatory information of an object (an exhibit) stored in advance in accordance with the movement of the viewer in the virtual space is output together with the 3D object through the interface tool. In addition, various types of objects corresponding to the interaction of the spectators can be output to improve the sense of presence and immersion.

도 4는 본 발명의 일 실시예에 따른 일반 3D 오브젝트 전시와 전시공간에서의 3D 오브젝트 전시 비교 화면을 나타낸다.FIG. 4 illustrates a display of a general 3D object and a display of a 3D object in a display space according to an exemplary embodiment of the present invention.

도 4는 3D 오브젝트만을 전시한 화면과 전시공간을 통해 3D 오브젝트를 전시한 화면을 나타내며, 3D 오브젝트의 특성에 따라 전시공간을 구성 및 연출하여 3D 오브젝트를 전시함으로써 관람객의 몰입감을 향상시킬 수 있다.FIG. 4 shows a screen displaying only 3D objects and a screen displaying 3D objects through an exhibition space. By arranging and presenting an exhibition space according to the characteristics of the 3D objects, 3D objects can be displayed to improve the immersion feeling of the viewer.

도 5는 본 발명의 일 실시예에 따른 텍스트 정보 출력 화면을 나타낸다.5 shows a text information output screen according to an embodiment of the present invention.

도 5에서 보면, 관람자의 위치에 대응하는 3D 오브젝트를 출력하고, 이와 관련하여 미리 저장되어 있는 설명정보를 팝업 형태로 출력할 수 있다. 또한, 포털사이트 검색 등을 통해 3D 오브젝트에 대응하는 설명정보를 실시간으로 검색하여 출력할 수 있다.Referring to FIG. 5, a 3D object corresponding to the position of the spectator may be output, and explanation information stored in advance may be outputted in a pop-up form. In addition, explanatory information corresponding to the 3D object can be searched and output in real time through portal site search or the like.

도 6은 본 발명의 일 실시예에 따른 가상공간 기반의 전시구성을 나타낸다.FIG. 6 illustrates a virtual space-based exhibition configuration according to an embodiment of the present invention.

도 6에서 보면, 관람자는 2D 박물관 홈페이지에 접속하여 링크를 통해 3D 가상 박물관에 접속한다. 3D 가상 박물관에 접속한 관람자는 키보드, 마우스, 터치 등의 사용자 인터페이스를 통해 공간 이동(내비게이션)이 가능하며, 현재의 가상공간에서 다른 가상공간으로 이동할 수 있다. 이때, 현재의 가상공간과 다른 가상공간을 통해 서로 다른 전시물(3D 오브젝트)을 경험할 수 있다.6, a viewer accesses the 2D museum website and accesses the 3D virtual museum through a link. A spectator connected to a 3D virtual museum can navigate through a user interface such as a keyboard, a mouse and a touch, and can move from a current virtual space to another virtual space. At this time, different objects (3D objects) can be experienced through the virtual spaces different from the current virtual space.

도 7은 도 1의 3D 콘텐츠 전시 시스템을 이용한 전시 방법을 나타낸다.FIG. 7 shows a display method using the 3D content display system of FIG.

먼저, 전시데이터 저장부(110)에 전시물의 3D 데이터 및 가상공간의 모델링 데이터를 저장한다(S10). 구체적으로, 실제 전시물의 3D 스캐닝을 통해 생성된 포인트 클라우드 데이터, 3D 모델링 프로그램을 통해 생성된 전시물 모델링 데이터 및 가상공간 모델링 데이터를 저장한다. 이때, 전시물 및 가상공간의 모델링 데이터는 모델링 프로그램에서 설계 파일을 내보내기(export) 하여 obj 파일로 변환한 상태로 전시데이터 저장부(110)에 저장할 수 있으며, 변환된 obj 파일에 대응하는 mtl 파일도 함께 저장할 수 있다.First, the 3D data of the exhibit and the modeling data of the virtual space are stored in the exhibition data storage unit 110 (S10). Specifically, point cloud data generated through 3D scanning of an actual exhibit, exhibit modeling data generated through a 3D modeling program, and virtual space modeling data are stored. At this time, the modeling data of the exhibit and the virtual space can be exported in the modeling program, converted into an obj file and stored in the exhibition data storage unit 110, and the mtl file corresponding to the converted obj file Can be saved together.

이후, 오브젝트 생성부(120)에서 S10 단계에서 저장된 전시물의 3D 데이터를 변환하여 오브젝트 데이터를 생성한다(S20). 구체적으로, S10 단계에서 저장되어 있는 포인트 클라우드를 메쉬(mesh)로 변환하고, 메쉬의 정점에 대응하는 UV 좌표(텍스처 좌표)를 생성하고 생성된 UV 좌표에 대응하는 텍스처 이미지를 생성한다.In step S 20, the object generator 120 converts the 3D data of the display stored in step S 10 to generate object data (S 20). Specifically, the point cloud stored in step S10 is converted into a mesh, UV coordinates (texture coordinates) corresponding to the vertices of the mesh are generated, and a texture image corresponding to the generated UV coordinates is generated.

이후, 전시환경 생성부(130)에서 가상공간에 오브젝트 데이터를 적용한 전시환경을 생성한다(S30). 구체적으로, S10 단계에서 저장된 가상공간 모델링 데이터에 대응하는 가상공간에 S10 단계에서 저장된 obj 파일을 이용하여 오브젝트를 읽어들인다. 또한, mtl 파일을 이용하여 읽어들인 오브젝트에 질감을 입히고, S20 단계에서 생성된 텍스처 이미지 파일을 이용하여 읽어들인 오브젝트에 색을 입힐 수 있다.Thereafter, the display environment creating unit 130 creates a display environment in which the object data is applied to the virtual space (S30). Specifically, the object is read using the obj file stored in step S10 in the virtual space corresponding to the virtual space modeling data stored in step S10. In addition, the mtl file is used to texture the read object, and the read object can be colored using the texture image file generated in step S20.

이후, 전시정보 출력부(140)에서 가상박물관 홈페이지에 접속한 관람자의 이동에 대응하는 오브젝트 및 가상공간을 출력한다(S40, S50). S50 단계에서는 오브젝트 관련 시청각 정보를 더 출력할 수 있다. 관람자는 키보드 및 마우스 등의 사용자 인터페이스를 통해 가상박물관에서 서로 다른 오브젝트를 전시하는 가상공간으로 이동하며 오브젝트 및 오브젝트 관련 설명정보를 확인할 수 있다.Thereafter, the exhibition information output unit 140 outputs objects and virtual spaces corresponding to the movement of the spectators connected to the virtual museum homepage (S40, S50). In step S50, it is possible to further output the object-related audiovisual information. The viewer moves to a virtual space for displaying different objects in a virtual museum through a user interface such as a keyboard and a mouse, and can confirm information about objects and objects.

도 8은 본 발명의 일 실시예에 따른 가상박물관 웹페이지를 나타낸다.8 illustrates a virtual museum web page according to an embodiment of the present invention.

도 8은 본 발명의 실시예에 따른 WebGL을 이용한 가상박물관을 나타내며, 오브젝트에 대응하는 다수의 가상공간(1번 전시실, 2번 전시실, 3번 전시실)이 구현됨을 확인할 수 있다.FIG. 8 shows a virtual museum using the WebGL according to an embodiment of the present invention, and it can be seen that a plurality of virtual spaces (one exhibition room, two exhibition rooms, and three exhibition rooms) corresponding to objects are implemented.

본 발명의 실시예에 따른 웹 기반의 3D 콘텐츠 전시 시스템 및 방법은 공간과 시간의 제약을 벗어나 박물을 전시하고 관련 정보를 제시하는 가상박물관 구현에 활용할 수 있다. 또한, 관람자의 공간 이동 및 반응에 따른 즉각적인 피드백, 현장체감 및 감각적 체험 등을 제공하여 몰입감을 향상시킬 수 있다.A Web-based 3D content display system and method according to an embodiment of the present invention can be utilized for realizing a virtual museum displaying a museum and presenting relevant information outside space and time constraints. In addition, the sense of immersion can be improved by providing immediate feedback, a field experience, and a sensory experience according to a spectator's spatial movement and reaction.

본 발명의 실시예에 따르면 WebGL을 이용함으로써 별도의 플러그인 없이 3D 그래픽스를 구현할 수 있어 다양한 분야에서 활용할 수 있으며, 별도의 인터페이스 프로그래밍 없이 웹브라우저 상에서 접근이 가능하므로 다양한 디바이스 환경에서 활용할 수 있다.According to the embodiment of the present invention, since 3D graphics can be implemented without using a separate plug-in by using WebGL, it can be utilized in various fields and can be utilized in various device environments because it can be accessed through a web browser without a separate interface programming.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였으나, 본 발명의 권리범위가 이에 한정되는 것은 아니며 본 발명이 속하는 분야에서 통상의 지식을 가진 자가 여러 가지로 변형 및 개량한 형태 또한 본 발명의 권리범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It belongs to the scope.

100 : 3D 콘텐츠 전시 시스템
110 : 전시데이터 저장부
120 : 오브젝트 생성부
130 : 전시환경 생성부
140 : 전시정보 출력부
100: 3D content display system
110: Exhibition data storage unit
120:
130: Exhibition environment creation section
140: Exhibition information output section

Claims (6)

제1 전시물의 3D 스캐닝 데이터, 상기 제1 전시물의 3D 모델링 데이터, 그리고 제1 전시공간에 대응하는 3D 모델링 데이터를 저장하는 전시데이터 저장부,
상기 제1 전시물의 3D 모델링 데이터에 대응하는 제1 오브젝트 파일, 상기 제1 오브젝트 파일에 대응하는 제2 오브젝트 파일, 그리고 상기 제1 전시물의 3D 스캐닝 데이터로부터 생성된 제3 오브젝트 파일을 포함하는 오브젝트 데이터를 생성하는 오브젝트 생성부,
저장된 상기 제1 전시공간에 대응하는 3D 모델링 데이터와 생성된 상기 오브젝트 데이터의 렌더링을 통해 웹 기반의 전시환경을 생성하는 전시환경 생성부, 그리고
생성된 상기 웹 기반의 전시환경을 출력하는 전시정보 출력부
를 포함하며,
상기 웹 기반의 전시환경은 복수개의 전시공간을 포함하고, 상기 복수개의 전시공간은 상기 제1 전시물이 출력되는 상기 제1 전시공간, 그리고 상기 제1 전시물과 다른 제2 전시물이 출력되는 제2 전시공간을 포함하는 웹 기반의 3D 콘텐츠 전시 시스템.
An exhibition data storage unit for storing 3D scanning data of the first exhibit, 3D modeling data of the first exhibit, and 3D modeling data corresponding to the first exhibition space,
The object data including the first object file corresponding to the 3D modeling data of the first exhibit, the second object file corresponding to the first object file, and the third object file generated from the 3D scanning data of the first exhibit, An object generating unit for generating an object,
A display environment creating unit for creating a web-based display environment by rendering the 3D modeling data corresponding to the first exhibition space and the generated object data;
An exhibition information output unit for outputting the generated web-
/ RTI >
Wherein the web-based display environment includes a plurality of exhibition spaces, wherein the plurality of exhibition spaces include a first display space in which the first display is output, and a second display in which a second display is output other than the first display Web-based 3D content display system including space.
제1항에서,
상기 제1 오브젝트 파일은 obj 파일이고, 상기 제2 오브젝트 파일은 mtl 파일이며, 그리고 상기 제3 오브젝트 파일은 텍스처 이미지 파일인 웹 기반의 3D 콘텐츠 전시 시스템.
The method of claim 1,
Wherein the first object file is an obj file, the second object file is an mtl file, and the third object file is a texture image file.
제2항에서,
상기 오브젝트 생성부는 상기 제1 전시물의 3D 스캐닝 데이터에 포함되어 있는 포인트 클라우드(point cloud)를 메쉬(mesh)로 변환하고, 변환된 상기 메쉬의 정점에 대응하는 UV 좌표를 생성하며, 그리고 생성된 상기 UV 좌표에 대응하는 텍스처 이미지에 대응하는 텍스처 이미지 파일을 생성하는 웹 기반의 3D 콘텐츠 전시 시스템.
3. The method of claim 2,
Wherein the object generating unit converts a point cloud included in 3D scanning data of the first exhibit into a mesh and generates UV coordinates corresponding to the converted vertex of the mesh, A web-based 3D content display system for generating a texture image file corresponding to a texture image corresponding to a UV coordinate.
제3항에서,
상기 전시환경 생성부는 상기 텍스처 이미지에 빛 표현 효과를 추가하는 웹 기반의 3D 콘텐츠 전시 시스템.
4. The method of claim 3,
Wherein the display environment creating unit adds a light expression effect to the texture image.
제1항에서,
상기 전시정보 출력부는 2차원의 가상박물관 웹사이트, 그리고 상기 복수개의 전시공간을 포함하는 3차원의 독립된 웹 페이지를 출력하며, 상기 복수개의 전시공간 중 사용자 인터페이스를 통해 사용자가 위치하는 하나의 전시공간을 출력하는 웹 기반의 3D 콘텐츠 전시 시스템.
The method of claim 1,
The exhibition information output unit outputs a two-dimensional virtual museum web site and a three-dimensional independent web page including the plurality of exhibition spaces, and an exhibition space among the plurality of exhibition spaces, Based 3D content display system for displaying the 3D content.
제1항에서,
상기 전시정보 출력부는 상기 제1 전시물에 대응하는 음성, 음악, 텍스트, 또는 동영상 중 적어도 하나의 정보를 출력하는 웹 기반의 3D 콘텐츠 전시 시스템.
The method of claim 1,
Wherein the exhibition information output unit outputs at least one of voice, music, text, or moving picture corresponding to the first exhibit.
KR1020170043849A 2017-04-04 2017-04-04 Web-based 3d contents exhibition system KR101927401B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170043849A KR101927401B1 (en) 2017-04-04 2017-04-04 Web-based 3d contents exhibition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170043849A KR101927401B1 (en) 2017-04-04 2017-04-04 Web-based 3d contents exhibition system

Publications (2)

Publication Number Publication Date
KR20180112582A true KR20180112582A (en) 2018-10-12
KR101927401B1 KR101927401B1 (en) 2019-02-26

Family

ID=63876609

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170043849A KR101927401B1 (en) 2017-04-04 2017-04-04 Web-based 3d contents exhibition system

Country Status (1)

Country Link
KR (1) KR101927401B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102110783B1 (en) 2020-02-13 2020-05-13 (주) 티나쓰리디 Method for realtime 3d rendering using web based 3d realtime rendering engine, program for realtime 3d rendering using web based 3d realtime rencdering engine and apparatus installed the program
KR102270388B1 (en) * 2020-06-29 2021-06-29 윤태원 Spatial design coordinating system, method and program
CN113642173A (en) * 2021-08-13 2021-11-12 广东电网有限责任公司广州供电局 High-simulation traction field construction simulation method based on laser cloud
KR20220122092A (en) * 2021-02-26 2022-09-02 최상수 Data conversion method and data conversion device
KR102567150B1 (en) * 2023-01-10 2023-08-29 (주)메타버즈 A Metaverse Environment Building Method that is Directly Expressed in the Web Page Environment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616381B1 (en) * 2023-09-14 2023-12-21 주식회사 메타버즈 3D Modeling Construction System and Method through Text-Based Commands

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010098336A (en) * 2000-04-20 2001-11-08 이영규 Cyber pavilion system and exhibition method using 3-dimentional virtual reality space
KR20130094015A (en) * 2012-02-15 2013-08-23 한국전자통신연구원 Apparatus and method for producing 3d model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010098336A (en) * 2000-04-20 2001-11-08 이영규 Cyber pavilion system and exhibition method using 3-dimentional virtual reality space
KR20130094015A (en) * 2012-02-15 2013-08-23 한국전자통신연구원 Apparatus and method for producing 3d model

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Pascal /w OpenGL,OpenGL|ES #3, (2013.01.19.) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102110783B1 (en) 2020-02-13 2020-05-13 (주) 티나쓰리디 Method for realtime 3d rendering using web based 3d realtime rendering engine, program for realtime 3d rendering using web based 3d realtime rencdering engine and apparatus installed the program
KR102270388B1 (en) * 2020-06-29 2021-06-29 윤태원 Spatial design coordinating system, method and program
KR20220122092A (en) * 2021-02-26 2022-09-02 최상수 Data conversion method and data conversion device
CN113642173A (en) * 2021-08-13 2021-11-12 广东电网有限责任公司广州供电局 High-simulation traction field construction simulation method based on laser cloud
KR102567150B1 (en) * 2023-01-10 2023-08-29 (주)메타버즈 A Metaverse Environment Building Method that is Directly Expressed in the Web Page Environment

Also Published As

Publication number Publication date
KR101927401B1 (en) 2019-02-26

Similar Documents

Publication Publication Date Title
KR101927401B1 (en) Web-based 3d contents exhibition system
CN111324965B (en) Cloud-based general parameterized model analysis method and design system
US8896595B2 (en) System, apparatus, and method of modifying 2.5D GIS data for a 2D GIS system
KR100612890B1 (en) Multi-effect expression method and apparatus in 3-dimension graphic image
Vetter Technical potentials for the visualization in virtual reality
Liarokapis et al. Augmented reality interface toolkit
Zhu et al. Design and realization of virtual classroom
White et al. Augmented reality for museum artefact visualization
Shan Visualizing 3-D geographical data with VRML
Paes et al. The relevance of visual cues in immersive environments: does pictorial realism matter?
Joy et al. Digital 3D modeling for preconstruction real-time visualization of home interior design through virtual reality
Barbera et al. A pipeline for the implementation of immersive experience in cultural heritage sites in sicily
Mendes et al. IMAGO visualization System: an interactive web-based 3D visualization system for cultural heritage applications
Abdalla et al. Immersive environments for disaster and emergency management
Sacher et al. A Generative Approach to Virtual Museums.
Putra et al. Experiencing Heritage through Immersive Environment using Affordable Virtual Reality Setup
Hering et al. 3DCIS: A real-time browser-rendered 3d campus information system based on webgl
Bowman et al. Engineering in three dimensions: immersive virtual environments, interactivity, and 3D user interfaces for engineering applications
CN108431868A (en) The relevant graphical effect of tactile
Ren et al. 3D building modeling and indoor fire event representation in CityGML
Gobbetti et al. Exploring annotated 3D environments on the World Wide Web
Sampaio et al. Bringing integrated multimedia content into virtual reality environments
Sempere-Valenciano et al. Virtual Musealization Using Video Game Engines. The Museu à beira do oceano by Lina Bo Bardi
CN117523129A (en) Method and device for displaying three-dimensional model of product characteristics based on WebGL
Kamath et al. Simple, low cost 3D Stereo Visualization Technique for mechanical engineering learners

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right