KR20210064989A - Real-time method for rendering 3d modeling - Google Patents

Real-time method for rendering 3d modeling Download PDF

Info

Publication number
KR20210064989A
KR20210064989A KR1020190153978A KR20190153978A KR20210064989A KR 20210064989 A KR20210064989 A KR 20210064989A KR 1020190153978 A KR1020190153978 A KR 1020190153978A KR 20190153978 A KR20190153978 A KR 20190153978A KR 20210064989 A KR20210064989 A KR 20210064989A
Authority
KR
South Korea
Prior art keywords
file
user
real
compression
rendering
Prior art date
Application number
KR1020190153978A
Other languages
Korean (ko)
Inventor
양희재
한정규
문은경
김태은
Original Assignee
로고몬도 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 로고몬도 주식회사 filed Critical 로고몬도 주식회사
Priority to KR1020190153978A priority Critical patent/KR20210064989A/en
Publication of KR20210064989A publication Critical patent/KR20210064989A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/428Real-time

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a real-time rendering method which can perform rendering in real time on the web. According to one embodiment of the present invention, the real-time rendering method comprises: an upload step in which a user uploads three-dimensional modeling of an article; a compression step of compressing a three-dimensional file including the three-dimensional modeling of the article uploaded in the upload step; a compression file storage step of storing a compression file compressed in the compression step in a webserver; a three-dimensional file analysis step of analyzing the compression file stored in the compression file storage step to classify each portion of the article; and a rendering step of setting a color and texture for each portion of the article of the three-dimensional file completely classified in the three-dimensional file analysis step in accordance with a choice of the user. The compression step includes: a primary compression step of compressing the three-dimensional file uploaded in the upload step on the web; and a secondary compression step of compressing the three-dimensional file on which the primary compression step is completed on the webserver.

Description

3차원 모델링의 실시간 렌더링 방법{REAL-TIME METHOD FOR RENDERING 3D MODELING}Real-time rendering method of 3D modeling {REAL-TIME METHOD FOR RENDERING 3D MODELING}

본 발명은 웹 상에서 렌더링을 할 수 있는 실시간 렌더링 방법에 관한 것이다. The present invention relates to a real-time rendering method capable of rendering on the web.

인터넷과 휴대용 단말기의 보급으로 인해 개인 사용자 간의 정보 공유가 전세계적으로 가능한 시대가 도래하게 되었다. 이러한 기술의 발달로 인해, 종래의 오프라인 매장에서 재화를 거래하던 방식에서 온라인을 통하여 물건을 구매하는 방식으로 소비 패턴도 변화를 거듭하고 있다.With the spread of the Internet and portable terminals, an era in which information sharing between individual users is possible worldwide has arrived. Due to the development of these technologies, consumption patterns are also changing from a method of trading goods in a conventional offline store to a method of purchasing goods online.

일반적인 온라인 쇼핑몰의 경우, 판매자는 판매하고자 하는 상품을 웹 상에 보여주기 위해서는 상품을 실제로 제작하고 제작된 상품을 직접 촬영하여 업로드하거나, 판매하고자 하는 모든 물품에 대한 디자인이 완료된 이미지를 쇼핑몰 사이트에 업로드할 것이 요구되는 한계가 있다.In the case of a general online shopping mall, in order to show the product that the seller wants to sell on the web, the seller actually manufactures the product and takes a picture of the manufactured product and uploads it, or uploads the design image of all the products to be sold to the shopping mall site. There are limits to what needs to be done.

본 발명은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법을 제공하기 위한 것이다.An object of the present invention is to provide a real-time rendering method in which a user can perform real-time rendering on 3D modeling of an article before rendering on the web.

본 발명이 해결하고자 하는 과제는 여기에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited thereto, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명은 웹 상에서 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법을 제공한다. 일 실시 예에 따르면, 실시간 렌더링 방법은, 사용자가 물품의 3D 모델링을 업로드하는 업로드 단계와; 상기 업로드 단계에서 업로드되는 물품의 3D 모델링을 포함하는 3D 파일을 압축하는 압축 단계와; 상기 압축 단계에서 압축된 압축 파일을 웹 서버에 저장하는 압축 파일 저장 단계와; 상기 압축 파일 저장 단계에서 저장된 압축 파일을 분석하여 상기 물품의 각 부분을 구분하는 3D 파일 분석 단계와; 상기 3D 파일 분석 단계에서 구분이 완료된 3D 파일의 물품의 각 부분에 대한 질감 및 색상을 사용자의 선택에 따라 설정하는 렌더링 단계를 포함하되, 상기 압축 단계는, 상기 업로드 단계에서 업로드된 3D 파일을 웹 상에서 압축하는 1차 압축 단계와; 상기 1차 압축 단계가 완료된 3D 파일을 상기 웹 서버 상에서 압축하는 2차 압축 단계를 포함한다.The present invention provides a real-time rendering method capable of performing rendering in real time on the web. According to an embodiment, a real-time rendering method includes: an upload step of uploading a 3D model of an article by a user; a compression step of compressing a 3D file including 3D modeling of the article uploaded in the upload step; a compressed file storage step of storing the compressed file compressed in the compression step in a web server; a 3D file analysis step of analyzing the compressed file stored in the compressed file storage step to classify each part of the article; A rendering step of setting the texture and color of each part of the article of the 3D file, which is classified in the 3D file analysis step, according to a user's selection, wherein the compression step is performed by uploading the 3D file uploaded in the upload step to the web. a first compression step of compressing on the and a secondary compression step of compressing the 3D file on which the first compression step has been completed on the web server.

3D 파일 분석 단계에서는 상기 웹 서버 상에서 자동으로 메시의 차이를 이용하여 상기 압축 파일 파일에 포함된 물품의 각 부분을 구분할 수 있다.In the 3D file analysis step, each part of the article included in the compressed file file may be classified using the mesh difference automatically on the web server.

상기 렌더링 단계에서는, 사용자가 이미지를 업로드하면, 사용자의 요청에 의해 상기 이미지 상에 나타나 있는 질감 또는 색상을 상기 압축 파일에 포함된 물품의 모델링에 입힐 수 있는 질감 및 색상 데이터로 변환할 수 있다.In the rendering step, if the user uploads an image, the texture or color displayed on the image may be converted into texture and color data that can be applied to modeling of the article included in the compressed file according to the user's request.

본 발명의 일 실시 예에 따른 실시간 렌더링 방법은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행할 수 있다.In the real-time rendering method according to an embodiment of the present invention, a user may perform real-time rendering on 3D modeling of an article before rendering on the web.

도 1은 본 발명의 일 실시 예에 따른 실시간 렌더링 시스템을 간략하게 보여주는 도면이다.
도 2는 도 1에 도시된 서버의 일 예를 보여주는 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 실시간 렌더링 방법을 보여주는 순서도이다.
도 4는 도 1에 도시된 사용자 단말기의 다른 예를 보여주는 도면이다.
도 5는 도 1의 실시간 렌더링 시스템에 포함될 수 있는 액세서리 인식 보드의 일 예를 보여주는 사시도이다.
도 6은 도 5에 도시된 거리 조절 마크의 일 예를 보여주는 도면이다.
도 7은 도 1의 실시간 렌더링 시스템에 포함될 수 있는 액세서리 인식 보드의 다른 예를 보여주는 사시도이다.
1 is a diagram schematically illustrating a real-time rendering system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an example of the server shown in FIG. 1 .
3 is a flowchart illustrating a real-time rendering method according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating another example of the user terminal shown in FIG. 1 .
5 is a perspective view illustrating an example of an accessory recognition board that may be included in the real-time rendering system of FIG. 1 .
6 is a view showing an example of the distance control mark shown in FIG.
7 is a perspective view illustrating another example of an accessory recognition board that may be included in the real-time rendering system of FIG. 1 .

이하, 본 발명의 실시 예를 첨부된 도면들을 참조하여 더욱 상세하게 설명한다. 본 발명의 실시 예는 여러 가지 형태로 변형할 수 있으며, 본 발명의 범위가 아래의 실시 예들로 한정되는 것으로 해석되어서는 안 된다. 본 실시 예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해 제공되는 것이다. 따라서 도면에서의 요소의 형상은 보다 명확한 설명을 강조하기 위해 과장되었다.Hereinafter, an embodiment of the present invention will be described in more detail with reference to the accompanying drawings. Embodiments of the present invention may be modified in various forms, and the scope of the present invention should not be construed as being limited to the following embodiments. This embodiment is provided to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shapes of elements in the drawings are exaggerated to emphasize a clearer description.

도 1은 본 발명의 일 실시 예에 따른 실시간 렌더링 시스템(100)을 간략하게 보여주는 도면이다. 도 1을 참조하면, 실시간 렌더링 시스템(100)은 웹 상에서 실시간으로 렌더링을 수행할 수 있다. 일 실시 예에 따르면, 실시간 렌더링 시스템(100)은 사용자 소프트웨어 및 서버(130)를 포함한다.1 is a diagram schematically illustrating a real-time rendering system 100 according to an embodiment of the present invention. Referring to FIG. 1 , the real-time rendering system 100 may perform rendering on the web in real time. According to an embodiment, the real-time rendering system 100 includes user software and a server 130 .

사용자 소프트웨어는 사용자 단말기(110)에 설치되고 구동되는 소프트웨어로 제공된다. 예를 들면, 사용자 소프트웨어는 사용자의 PC에서 구동되는 웹브라우저와 연동되는 플러그인 또는 그 외의 웹 기반 응용 프로그램으로 제공될 수 있다. 그 외 사용자 소프트웨어는 사용자의 스마트폰 등의 모바일 스마트 기기에 설치되어 구동되는 앱 등의 다양한 종류의 단말기에서 구동되는 다양한 종류의 응용 프로그램으로 제공될 수 있다. The user software is provided as software installed and driven in the user terminal 110 . For example, the user software may be provided as a plug-in or other web-based application program linked to a web browser running on the user's PC. Other user software may be provided as various types of application programs operated in various types of terminals, such as apps installed and driven in a mobile smart device such as a user's smartphone.

사용자는 사용자 단말기(110)에서 구동되는 사용자 소프트웨어를 통해 렌더링 하고자 하는 물품의 3D 모델링을 포함하는 3D 파일을 업로드하고, 업로드한 3D 파일에 렌더링을 수행함으로써 물품의 각 부분에 대해 적용 가능한 질감 및 색상을 설정할 수 있다. 사용자 소프트웨어는 설정된 질감 및 색상을 각 물품 및 물품의 각 부분에 대해 분류하여 서버(130)에 저장시킬 수 있다.The user uploads a 3D file including 3D modeling of the item to be rendered through user software driven in the user terminal 110, and performs rendering on the uploaded 3D file, so that the texture and color applicable to each part of the item can be set. The user software may classify the set texture and color for each article and each part of the article and store it in the server 130 .

또한, 사용자 소프트웨어는 사용자의 명령에 의해 또는 개발자에 의한 설정에 의해 자동으로 3D 파일 및 렌더링 중이거나 렌더링이 완료된 물품의 3D 이미지가 포함된 파일을 서버(130)로 저장시킬 수 있고, 또한 서버(130)로부터 상기 파일들을 다운로드할 수 있다. 또한, 사용자 소프트웨어는 3D 파일의 물품 이미지 및 3D 파일의 렌더링 과정을 사용자 단말기(110)를 통해 실시간으로 출력할 수 있다. In addition, the user software may automatically store a file including a 3D file and a 3D image of an item being rendered or rendered to the server 130 by a user's command or by a setting by a developer, and also the server ( 130), the files can be downloaded. Also, the user software may output the product image of the 3D file and the rendering process of the 3D file in real time through the user terminal 110 .

사용자는 사용자 소프트웨어를 통해 사용자가 렌더링한 물품의 이미지를 서버(130)에 저장하여 수시로 다운로드하여 확인할 수 있다. 또한, 서버(130)에 저장된 렌더링이 완료된 물품의 이미지는 웹 상에서 제 3 자가 다운로드하여 확인할 수 있도록 제공될 수 있다.The user can store the image of the item rendered by the user through the user software in the server 130 and download it from time to time and check it. In addition, the image of the rendered article stored in the server 130 may be provided so that a third party can download and check the image on the web.

도 2는 도 1에 도시된 서버의 일 예를 보여주는 블록도이다. 도 1 및 도 2를 참조하면, 서버(130)는 통신부(131), 저장부(132), 프로세싱 유닛(133) 및 프로그램 관리 유닛(134)을 포함할 수 있다.FIG. 2 is a block diagram illustrating an example of the server shown in FIG. 1 . 1 and 2 , the server 130 may include a communication unit 131 , a storage unit 132 , a processing unit 133 , and a program management unit 134 .

통신부(131)는 사용자 단말기(110)와 데이터를 송수신한다. 예를 들면, 통신부(131)는 사용자 단말기(110)로부터 물품의 모델링이 포함된 3D 파일, 사용자에 의한 렌더링이 완료된 물품의 이미지 파일, 그리고 사용자에 의해 설정된 물품별 질감 및 색상 관련 데이터 등을 수신할 수 있다. 통신부(131)는 사용자 단말기(110)로 저장부(132)에 저장된 3D 파일과 질감 및 색상과 관련된 데이터와 렌더링이 완료된 물품의 이미지 파일 등을 송신할 수 있다. 통신부(131)는 필요에 따라 상술한 데이터 외의 데이터를 사용자 단말기(110)와 송수신할 수 있다.The communication unit 131 transmits and receives data to and from the user terminal 110 . For example, the communication unit 131 receives, from the user terminal 110 , a 3D file including modeling of an item, an image file of an item rendered by a user, and texture and color related data for each item set by the user. can do. The communication unit 131 may transmit the 3D file stored in the storage unit 132 to the user terminal 110 , data related to texture and color, and an image file of a rendered product. The communication unit 131 may transmit/receive data other than the above-described data to and from the user terminal 110 as necessary.

저장부(132)는 통신부(131)로부터 수신되는 데이터, 실시간 렌더링 시스템(100)의 개발자에 의해 입력된 데이터 그리고 서버(130)에서 생성된 데이터를 저장한다. 예를 들면, 저장부(132)는 사용자 단말기(110)로부터 수신된 3D 파일 및 렌더링이 완료된 물품의 이미지 파일, 그리고 사용자에 의해 설정된 물품별 질감 및 색상 관련 데이터 등을 저장할 수 있다. 그 외 저장부(132)는 필요에 따라 상술한 데이터 외의 데이터를 저장할 수 있다.The storage unit 132 stores data received from the communication unit 131 , data input by a developer of the real-time rendering system 100 , and data generated by the server 130 . For example, the storage unit 132 may store a 3D file received from the user terminal 110, an image file of a rendered item, and texture and color related data for each item set by the user. The other storage unit 132 may store data other than the above-described data, if necessary.

프로세싱 유닛(133)은 서버(130)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세싱 유닛(133)은 저장부(132)의 데이터에 접근(access)하고, 아래에서 설명될 실시간 렌더링 방법을 실행하기 위한 알고리즘이나 프로그램 명령을 실행함으로써, 서버(130)를 구동할 수 있다. 또한, 프로세싱 유닛(133)은 서버(130)의 여러 구성 요소들을 제어하는 컨트롤러, 인터페이스, 그래픽 엔진 등을 포함할 수 있다. 프로세싱 유닛(133)은 SoC(system-on-chip), ASIC(application specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있다.The processing unit 133 may control the overall operation of the server 130 . For example, the processing unit 133 may access the data of the storage unit 132 and run the server 130 by executing an algorithm or program command for executing a real-time rendering method to be described below. can In addition, the processing unit 133 may include a controller, an interface, a graphic engine, and the like for controlling various components of the server 130 . The processing unit 133 may be implemented in the form of a system-on-chip (SoC), an application specific integrated circuit (ASIC), or a field programmable gate array (FPGA).

프로그램 관리 유닛(134)은 사용자 단말기(110)에 실시간 렌더링 시스템(100)을 이용하기 위한 사용자 소프트웨어를 제공하거나 설치하도록 지원할 수 있다. The program management unit 134 may support to provide or install user software for using the real-time rendering system 100 in the user terminal 110 .

사용자 단말기(110) 및 서버(130)는 네트워크(200)에 연결되어 서로 데이터를 송수신할 수 있다. 일 실시 예에 따르면, 네트워크(200)는 인터넷(웹)일 수 있다. 이 경우, 서버(130)는 인터넷(웹) 상에 연결된 웹 서버로 제공될 수 있다.The user terminal 110 and the server 130 may be connected to the network 200 to transmit/receive data to each other. According to an embodiment, the network 200 may be the Internet (web). In this case, the server 130 may be provided as a web server connected to the Internet (web).

이하, 설명의 편의를 위해 도 1의 실시간 렌더링 시스템(100)을 이용하여 실행되는 본 발명의 실시 예에 따른 실시간 렌더링 방법에 대해 설명한다. 이와 달리, 본 발명의 실시 예에 따른 실시간 렌더링 방법은 다양한 종류의 시스템에 의해 실행될 수 있다.Hereinafter, for convenience of description, a real-time rendering method according to an embodiment of the present invention executed using the real-time rendering system 100 of FIG. 1 will be described. Alternatively, the real-time rendering method according to an embodiment of the present invention may be executed by various types of systems.

도 3은 본 발명의 일 실시 예에 따른 실시간 렌더링 방법을 보여주는 순서도이다. 도 3을 참조하면, 실시간 렌더링 방법은 웹 상에서 실시간으로 렌더링을 수행하고, 렌더링이 완료된 이미지 및/또는 렌더링을 통해 설정한 물품에 적용 가능한 질감 및 색상에 관한 데이터를 웹 상에 제공할 수 있다. 일 실시 예에 따르면, 실시간 렌더링 방법는 업로드 단계(S110), 압축 단계(S120), 압축 파일 저장 단계(S130), 3D 파일 분석 단계(S140) 및 렌더링 단계(S150)를 포함할 수 있다. 업로드 단계(S110), 압축 단계(S120), 압축 파일 저장 단계(S130), 3D 파일 분석 단계(S140) 및 렌더링 단계(S150)는 순차적으로 수행될 수 있다. 3D 모델링은 상하좌우 방향으로 360° 회전시켜 바라보는 전 방향에 대해 형상을 확인할 수 있도록 제공될 수 있다.3 is a flowchart illustrating a real-time rendering method according to an embodiment of the present invention. Referring to FIG. 3 , in the real-time rendering method, rendering is performed in real time on the web, and data on a texture and color applicable to a rendered image and/or an article set through rendering may be provided on the web. According to an embodiment, the real-time rendering method may include an uploading step (S110), a compression step (S120), a compressed file storage step (S130), a 3D file analysis step (S140), and a rendering step (S150). The upload step (S110), the compression step (S120), the compressed file storage step (S130), the 3D file analysis step (S140), and the rendering step (S150) may be sequentially performed. 3D modeling may be provided so that the shape can be confirmed in all directions viewed by rotating 360° in the vertical, horizontal, and horizontal directions.

업로드 단계(S110)에서 사용자는 렌더링하고자 하는 물품의 질감 또는 색상이 입혀지지 않은 3D 모델링을 포함하는 3D 파일을 사용자 단말기(110)의 사용자 소프트웨어를 통해 업로드 한다. 일 실시 예에 따르면 업로드되는 3D 파일의 확장자는 “.obj” 등 일 수 있다.In the uploading step ( S110 ), the user uploads a 3D file including 3D modeling to which the texture or color of the object to be rendered is not applied through the user software of the user terminal 110 . According to an embodiment, the extension of the uploaded 3D file may be “.obj” or the like.

압축 단계(S120)에서는 사용자에 의해 업로드된 물품의 3D 파일이 압축된다. 일 실시 예에 따르면 압축 단계(S120)는 1차 압축 단계(S121) 및 2차 압축 단계(S122)를 포함한다. In the compression step (S120), the 3D file of the article uploaded by the user is compressed. According to an embodiment, the compression step (S120) includes a primary compression step (S121) and a secondary compression step (S122).

1차 압축 단계(S121)에서는 업로드 단계(S110)에서 업로드된 3D 파일을 *.glb 형식으로 변환하는 과정을 통해 압축이 진행될 수 있다. 일 실시 예에 따르면, 1차 압축 단계(S121)는 웹 상에서 바로 압축된다. 예를 들면, 1차 압축 단계(S121)는 사용자가 3D 파일을 업로드한 사용자 단말기(110)에서 구동되는 사용자 소프트웨어에 의해서 수행될 수 있다. 따라서, 1차 압축 단계(S121)는 별도의 서버(130) 등으로의 다운로드 과정이 요구되지 않는다.In the first compression step (S121), compression may be performed through the process of converting the 3D file uploaded in the upload step (S110) into *.glb format. According to one embodiment, the first compression step (S121) is compressed directly on the web. For example, the first compression step ( S121 ) may be performed by user software running in the user terminal 110 in which the user has uploaded a 3D file. Therefore, in the first compression step ( S121 ), a download process to a separate server 130 or the like is not required.

기존의 압축 프로그램들의 경우, 동영상이나 이미지 또는 텍스트에 한해서 약 90%의 압축률을 보인다. 이에 반해, 본 실시 예에 따른 압축 방법에 의하면 3D 파일을 95% 이상의 효율로 웹 상에서 압축할 수 있다. 예를 들면, 1000MB 크기의 3D 파일을 50MB까지 압축할 수 있으며, 약 100MB까지의 압축 성능을 보이는 기존 압축 프로그램에 비해 2배 가량의 높은 효율의 압축이 가능하다.Existing compression programs show a compression ratio of about 90% only for videos, images, or text. On the other hand, according to the compression method according to the present embodiment, the 3D file can be compressed on the web with an efficiency of 95% or more. For example, a 3D file of 1000MB in size can be compressed up to 50MB, and it is possible to compress twice as high as the existing compression program, which has compression performance up to about 100MB.

2차 압축 단계(S122)에서는 1차 압축 단계(S121)에서 압축된 *.glb 형식의 파일을 *.gltf 파일로 변환하는 과정을 통해 진행될 수 있다. 2차 압축 단계(S122)는 서버(130) 상에서 진행될 수 있다. 2차 압축 단계(S122)에서의 압축 효율은 약 96%이다. 따라서, 1차 압축 단계(S121) 및 2차 압축 단계(S122)를 거친 최종 압축 효율은 최소 98%이다.In the secondary compression step (S122), the *.glb format file compressed in the primary compression step (S121) may be converted into a *.gltf file. The secondary compression step ( S122 ) may be performed on the server 130 . The compression efficiency in the secondary compression step (S122) is about 96%. Therefore, the final compression efficiency through the primary compression step (S121) and the secondary compression step (S122) is at least 98%.

압축 파일 저장 단계(S130)에서 압축되어 생성된 *.glb 형식의 파일은 서버(130)의 저장부(132)에 저장된다. The compressed file is stored in the storage unit 132 of the server 130 in the compressed file storage step (S130) of the generated *.glb format.

3D 파일 분석 단계(S140)에서는 압축 파일 저장 단계(S130)에서 저장된 *.glb 형식의 파일을 분석하여 *.glb 형식의 압축 파일에 포함된 이미지 상의 물품의 각 부분을 구분한다. 일 실시 예에 따르면, 3D 파일 분석 단계(S140)에서는 압축 파일 저장 단계(S130)에서 저장된 압축 파일의 다운로드 없이 서버(130)에서 자동으로 메시의 차이를 이용하여 물품의 각 부분을 구분할 수 있다. 이 경우, 분석에 의해 구분된 결과는 사용자 단말기(110)를 통해 출력되고, 사용자는 사용자 소프트웨어를 이용하여 구분된 각 부분에 명칭을 부여할 수 있다. 예를 들면, 물품이 셔츠인 경우, 3D 파일 분석 단계(S140)에서 셔츠는 소매, 주머니, 전면부, 후면부 및 카라 등으로 자동으로 구분되고, 사용자는 구분된 각 부분에 대해 “소매”, “주머니”, “전면부”, “후면부” 및 “카라” 등으로 명칭을 부여할 수 있다. 일 실시 예에 따르면, 3D 파일 분석 단계(S140)에서는 하나의 3D 파일의 물품이 각 메시 형태로 구분될 때마다 각 부분에 대해 사용자가 명칭을 부여할 수 있다.In the 3D file analysis step ( S140 ), the *.glb format file stored in the compressed file storage step ( S130 ) is analyzed to classify each part of the article on the image included in the *.glb format compressed file. According to an embodiment, in the 3D file analysis step S140 , the server 130 may automatically classify each part of the article by using the mesh difference without downloading the compressed file stored in the compressed file storage step S130 . In this case, the result divided by the analysis is output through the user terminal 110, and the user can assign a name to each divided part using user software. For example, if the item is a shirt, in the 3D file analysis step (S140), the shirt is automatically divided into sleeves, pockets, front parts, back parts, and collars, and the user has "sleeves", " Names can be given as “pocket”, “front part”, “back part” and “collar”. According to an embodiment, in the 3D file analysis step ( S140 ), whenever an article of one 3D file is divided into each mesh shape, the user may assign a name to each part.

이와 달리, 3D 파일 분석 단계(S140)에서는 사용자가 3D 파일의 물품의 메시를 직접 선택하여 각 부분을 구분할 수 있다. 이와 같이 구분된 각 부분 또한 사용자에 의해 명칭이 부여될 수 있다. In contrast, in the 3D file analysis step ( S140 ), the user may directly select the mesh of the article of the 3D file to classify each part. Each part divided in this way may also be given a name by the user.

렌더링 단계(S150)에서는 3D 파일 분석 단계(S140)에서 구분이 완료된 3D 파일의 물품의 각 부분별로 적용 가능한 질감 및 색상을 사용자 소프트웨어를 통한 사용자의 선택에 따라 설정한다. 일 실시 예에 따르면, 렌더링 단계(S150)는 물품의 3D 모델링을 상하좌우 360° 전 방향으로 회전시켜 바라보는 전 방향에 대한 형상에 대해 수행될 수 있다.In the rendering step (S150), the texture and color applicable to each part of the article of the 3D file whose classification is completed in the 3D file analysis step (S140) is set according to the user's selection through the user software. According to an embodiment, the rendering step ( S150 ) may be performed on the shape of the 3D model of the article in all directions viewed by rotating the 3D modeling in all directions up, down, left, and right 360°.

일 실시 예에 따르면, 렌더링 단계(S150)에서는 실시간 렌더링 시스템(100)의 개발자에 의해 기본적으로 입력된 질감 및 색상을 이용하여 렌더링이 수행될 수 있다. 이와 달리, 렌더링 단계(S150)에서 사용자는 웹 서핑이나 그 외의 방법으로 획득한 이미지 파일을 업로드하고, 사용자의 사용자 소프트웨어를 통한 요청에 의해 사용자 소프트웨어 또는 서버(130)는 그 이미지 상에 나타나 있는 질감 및 색상을 압축 파일의 물품의 모델링에 입힐 수 있는 질감 및 색상 데이터로 변환시킬 수 있다. 사용자는 이와 같이 획득한 질감 및 색상 데이터를 이용하여 렌더링을 수행할 수 있다. 따라서, 사용자는 본 발명의 실시 예에 따른 실시간 렌더링 시스템(100) 및 방법을 이용하여, 판매하고자 하는 물품의 모든 재질 및 색상 조합의 이미지를 별도로 준비하지 않아도 웹 상에서 원하는 모든 조합의 재질 및 색상 조합의 물품을 디자인할 수 있다. According to an embodiment, in the rendering step S150 , rendering may be performed using a texture and color basically input by a developer of the real-time rendering system 100 . On the other hand, in the rendering step (S150), the user uploads an image file obtained by web surfing or other methods, and the user software or the server 130 at the request through the user software of the user displays the texture displayed on the image. and color can be converted into texture and color data that can be applied to the modeling of the article in the compressed file. The user may perform rendering using the obtained texture and color data. Therefore, the user does not need to separately prepare images of all material and color combinations of the item to be sold by using the real-time rendering system 100 and method according to the embodiment of the present invention, and any combination of materials and colors desired on the web You can design your items.

렌더링 단계(S150)에서 설정된 질감 및 색상 데이터는 서버(130)의 저장부(132)에 저장될 수 있다.The texture and color data set in the rendering step ( S150 ) may be stored in the storage unit 132 of the server 130 .

렌더링 단계(S150)에서 수행되는 렌더링 과정은 사용자 소프트웨어에 의해 사용자 단말기(110)를 통해 실시간으로 출력될 수 있다.The rendering process performed in the rendering step S150 may be output in real time through the user terminal 110 by user software.

또한, 렌더링 단계(S150)에서 각 부분별 재질 및 색상을 입히는 작업이 완료된 물품의 이미지 파일은 웹 상에 제공되어 제 3 자가 확인할 수 있도록 제공될 수 있다.In addition, the image file of the article for which the work of applying the material and color for each part in the rendering step (S150) is completed may be provided on the web so that a third party can check it.

도 4는 도 1에 도시된 사용자 단말기의 다른 예를 보여주는 도면이다. 도 4를 참조하면, 사용자 단말기(110a)는 PC(111) 및 스마트 모바일 단말기(112)를 포함할 수 있다. 스마트 모바일 단말기(112)는 터치 스크린이 제공된 스마트폰 또는 테블릿 PC로 제공된다. 이 경우, 사용자 소프트웨어는 PC(111) 및 스마트 모바일 단말기(112)에 설치될 수 있다. 렌더링 단계(S150)에서 PC(111) 및 스마트 모바일 단말기(112)가 USB 연결 방식 등에 의해 서로 연결된 경우, 사용자는 물품의 색상 설정 시 손가락이나 터치스크린용 펜 등을 이용하여 스마트 모바일 단말기(112)의 터치 스크린에 접촉시킨 상태에서 일방향 및 일방향에 반대 방향인 타방향으로 드레그시킴으로써 색상의 명도를 조절할 수 있다. 예를 들면, 위방향으로 드레그하는 경우 명도가 증가하고, 아래방향으로 드래그하는 경우 명도가 감소할 수 있다. FIG. 4 is a diagram illustrating another example of the user terminal shown in FIG. 1 . Referring to FIG. 4 , the user terminal 110a may include a PC 111 and a smart mobile terminal 112 . The smart mobile terminal 112 is provided as a smart phone or tablet PC provided with a touch screen. In this case, the user software may be installed in the PC 111 and the smart mobile terminal 112 . When the PC 111 and the smart mobile terminal 112 are connected to each other by a USB connection method in the rendering step (S150), the user uses a finger or a pen for a touch screen to set the color of the item to the smart mobile terminal 112 The brightness of the color can be adjusted by dragging it in one direction and the other direction opposite to the one direction while in contact with the touch screen. For example, when dragging in an upward direction, brightness may increase, and when dragging in a downward direction, brightness may decrease.

도 5는 도 1의 실시간 렌더링 시스템(100)에 포함될 수 있는 액세서리 인식 보드(140)의 일 예를 보여주는 사시도이다. 도 6은 도 5에 도시된 거리 조절 마크(142)의 일 예를 보여주는 도면이다. 도 5 및 도 6을 참조하면, 실시간 렌더링 시스템(100)은 액세서리 인식 보드(140)를 더 포함할 수 있다. 일 실시 예에 따르면, 액세서리 인식 보드(140)는 본체(141), 거리 조절 마크(142) 및 인식 바코드(143)를 포함할 수 있다. 5 is a perspective view illustrating an example of an accessory recognition board 140 that may be included in the real-time rendering system 100 of FIG. 1 . 6 is a view showing an example of the distance control mark 142 shown in FIG. 5 and 6 , the real-time rendering system 100 may further include an accessory recognition board 140 . According to an embodiment, the accessory recognition board 140 may include a body 141 , a distance adjustment mark 142 , and a recognition barcode 143 .

본체(141)에는 액세서리가 놓인다. 거리 조절 마크(142)는 촬영시 본체(141)의 액세서리가 놓이는 면 및 카메라 간의 거리를 측정하기 위해 제공된다. 거리 조절 마크(142)에 대해서는 아래에 보다 자세히 설명한다.An accessory is placed on the body 141 . The distance adjustment mark 142 is provided to measure the distance between the camera and the surface on which the accessory of the main body 141 is placed when shooting. The distance adjustment mark 142 will be described in more detail below.

인식 바코드(143)는 본체(141)에 놓이는 액세서리의 종류를 나타낸다. 액세서리 인식 보드(140)에 액세서리를 안착시킨 후 촬영된 이미지 파일에서 사용자 소프트웨어는 인식 바코드(143)를 통해 액세서리의 종류를 파악함으로써 보다 쉽게 액세서리를 인식할 수 있다. 인식 바코드(143)는 본체(141)에 탈착 가능하게 제공될 수 있다. 따라서, 인식 바코드(143)는 액세서리 인식 보드(140)에 놓일 액세서리의 종류에 대응되는 인식 바코드(143)로 교체되어 본체(141)에 부착될 수 있다.The recognition barcode 143 indicates the type of accessory placed on the main body 141 . In the image file photographed after the accessory is seated on the accessory recognition board 140 , the user software can recognize the accessory more easily by recognizing the type of accessory through the recognition barcode 143 . The recognition barcode 143 may be detachably provided on the main body 141 . Accordingly, the recognition barcode 143 may be replaced with a recognition barcode 143 corresponding to the type of accessory to be placed on the accessory recognition board 140 and attached to the main body 141 .

액세서리 인식 보드(140)가 제공되고, 사용자 단말기(110)가 카메라를 포함하는 스마트 모바일 단말기로 제공되는 경우, 렌더링 단계(S150)에서 사용자는 3D 파일의 물품에 적용하고자 하는 액세서리를 본체(141)에 안착시키고, 사용자 단말기(110)의 화면에 액세서리와 함께 액세서리 인식 보드(140)가 함께 잡히도록 사용자 단말기(110)의 거리를 조절한다. 이 후, 사용자가 사용자 단말기(110) 및 본체(141) 간의 거리를 조절하여 거리 조절 마크(142)의 크기가 사용자 단말기(110)의 화면 상에 도시되는 틀의 범위 내로 일정 비율 이상을 차지하도록 들어오면, 사용자 소프트웨어는 자동으로 액세서리를 촬영하도록 사용자 단말기(110)를 제어할 수 있다. 예를 들면, 거리 조절 마크(142)는 제1 색을 가지는 외측 사각형(142a) 내에 제1 색과 다른 제2 색을 가지고 각 변이 외측 사각형(142a)의 각 변으로부터 동일한 간격으로 이격되도록 내측 사각형(142b)이 제공되는 형상으로 제공될 수 있다. 그리고, 사용자 단말기(110)의 화면에 임시로 도시되는 틀은 내측 사각형(142b)과 가로 세로 비율이 동일한 사각형 형상으로 제공될 수 있다. 거리 조절 마크(142)가 틀의 내부에 위치되는지 여부는 내측 사각형(142b)이 틀의 내부에 위치되는지 여부로 결정될 수 있다. 또한, 틀의 내부에서 거리 조절 마크(142)가 차지하는 비율은 내측 사각형(142b)이 틀의 내부를 차지하는 비율로 계산될 수 있다.When the accessory recognition board 140 is provided, and the user terminal 110 is provided as a smart mobile terminal including a camera, in the rendering step (S150), the user applies the accessory to the article of the 3D file to the body 141 . and adjusts the distance of the user terminal 110 so that the accessory recognition board 140 is held together with the accessory on the screen of the user terminal 110 . Thereafter, the user adjusts the distance between the user terminal 110 and the main body 141 so that the size of the distance adjustment mark 142 occupies a certain ratio or more within the frame shown on the screen of the user terminal 110 . Upon entering, the user software may control the user terminal 110 to automatically photograph the accessory. For example, the distance control mark 142 has a second color different from the first color in the outer quadrangle 142a having the first color, and each side is spaced apart from each side of the outer quadrangle 142a by the same distance. 142b may be provided in the provided shape. In addition, the frame temporarily displayed on the screen of the user terminal 110 may be provided in a rectangular shape having the same aspect ratio as that of the inner rectangle 142b. Whether the distance adjustment mark 142 is located inside the frame may be determined by whether the inner quadrangle 142b is located inside the frame. In addition, the ratio of the distance control mark 142 occupied in the inside of the frame may be calculated as the ratio of the inner quadrangle 142b occupying the inside of the frame.

촬영된 액세서리 이미지는 렌더링 단계(S150)에서 사용자의 선택에 의해 물품에 적용될 수 있다. 액세서리가 적용되는 위치는 사용자가 사용자 소프트웨어를 이용하여 조절할 수 있다.The photographed accessory image may be applied to an article by a user's selection in the rendering step (S150). The position where the accessory is applied can be adjusted by the user using the user software.

상술한 바와 같이, 액세서리 인식 보드(140)를 사용함으로써, 카메라로부터 항상 일정한 거리에 위치된 액세서리를 촬영할 수 있으므로 렌더링 단계(S150)에서 보다 실제 크기에 가까운 액세서리를 물품에 적용시킬 수 있다.As described above, by using the accessory recognition board 140, an accessory located at a constant distance from the camera can always be photographed, so that an accessory closer to the actual size can be applied to the article in the rendering step (S150).

도 7은 도 1의 실시간 렌더링 시스템(100)에 포함될 수 있는 액세서리 인식 보드(140a)의 다른 예를 보여주는 사시도이다. 도 7을 참조하면, 액세서리 인식 보드(140a)는 복수개가 서로 일 방향으로 배열되도록 결합 가능하게 제공될 수 있다. 7 is a perspective view illustrating another example of an accessory recognition board 140a that may be included in the real-time rendering system 100 of FIG. 1 . Referring to FIG. 7 , a plurality of accessory recognition boards 140a may be provided to be coupled to each other so as to be arranged in one direction.

액세서리 인식 보드(140a)는 서로 결합 부재(144)에 의해 탈착 가능하게 결합될 수 있다. 예를 들면, 결합 부재(144)는 서로 접하도록 결합되는 액세서리 인식 보드(140a)의 서로를 바라보는 면 중 하나에는 자석이 다른 하나에는 철재질의 부재가 제공될 수 있다. 이와 달리, 상기 면 중 하나와 다른 하나에는 각각 다른 극이 마주보도록 자석이 제공될 수 있다.The accessory recognition board 140a may be detachably coupled to each other by a coupling member 144 . For example, the coupling member 144 may be provided with a magnet on one of the surfaces facing each other of the accessory recognition board 140a coupled to be in contact with each other, and an iron member on the other. Alternatively, magnets may be provided on one of the faces and the other so that the different poles face each other.

각각의 본체(141)에 부착된 인식 바코드(143)는 서로 다른 종류의 액세서리를 나타낼 수 있다. 이와 달리, 각각의 본체(141)에 부착된 인식 바코드(143)는 서로 같은 종류의 액세서리를 나타낼 수 있다. 예를 들면, 액세서리 인식 보드(140a)가 3개로 제공되는 경우, 하나는 단추를 나타내는 인식 바코드(143)가 부착되고, 다른 하나는 보타이를 나타내는 인식 바코드(143)가 부착되고, 또 다른 하나는 포켓치프를 나타내는 인식 바코드(143)가 부착될 수 있다. Recognition barcodes 143 attached to each body 141 may represent different types of accessories. Alternatively, the recognition barcodes 143 attached to each main body 141 may represent the same type of accessory. For example, when three accessory recognition boards 140a are provided, one is attached with a recognition barcode 143 indicating a button, the other is attached with a recognition barcode 143 indicating a bow tie, and the other is A recognition barcode 143 indicating the pocket chief may be attached.

실시간 렌더링 시스템(100)이 도 7에 도시된 액세서리 인식 보드(140a)를 포함하는 경우, 렌더링 단계(S150)에서 사용자는 사용자 단말기(110)를 이용하여 한번에 복수개의 액세서리를 촬영할 수 있다. 예를 들면, 사용자는 각각의 액세서리 인식 보드(140a)의 인식 바코드(143)에 대응되는 액세서리를 안착시키고, 사용자 단말기(110)의 화면에 액세서리와 함께 모든 액세서리 인식 보드(140a)가 함께 잡히도록 사용자 단말기(110)의 거리를 조절한다. 이 후, 사용자가 사용자 단말기(110) 및 본체(141) 간의 거리를 조절하여 거리 조절 마크(142) 중 하나의 크기가 사용자 단말기(110)의 화면 상에 임시로 도시되는 틀의 범위 내로 일정 비율 이상을 차지하도록 들어오면, 사용자 소프트웨어는 자동으로 액세서리를 촬영하도록 사용자 단말기(110)를 제어할 수 있다. 상기 하나의 거리 조절 마크(142)는 복수개의 액세서리 인식 보드(140a) 중 가운데 위치한 액세서리 인식 보드(140a)의 거리 조절 마크(142)일 수 있다. 틀은 사용자의 사용자 소프트웨어를 이용한 모드 변경을 통해 화면에 잡히는 액세서리 인식 보드(140a)의 수가 증가함에 따라 거리 조절 마크(142) 및 카메라 간에 멀어지는 거리에 대응되는 크기로 조절될 수 있다.When the real-time rendering system 100 includes the accessory recognition board 140a shown in FIG. 7 , in the rendering step S150 , the user may photograph a plurality of accessories at once using the user terminal 110 . For example, the user seats the accessory corresponding to the recognition barcode 143 of each accessory recognition board 140a, and all the accessory recognition boards 140a are held together with the accessory on the screen of the user terminal 110. The distance of the user terminal 110 is adjusted. Thereafter, the user adjusts the distance between the user terminal 110 and the main body 141 so that the size of one of the distance adjustment marks 142 falls within the range of the frame temporarily shown on the screen of the user terminal 110 at a certain rate. Upon entering to occupy more, the user software may control the user terminal 110 to automatically photograph the accessory. The one distance adjustment mark 142 may be a distance adjustment mark 142 of the accessory recognition board 140a located in the middle among the plurality of accessory recognition boards 140a. The frame may be adjusted to a size corresponding to the distance between the distance adjustment mark 142 and the camera as the number of accessory recognition boards 140a captured on the screen increases through mode change using the user's user software.

촬영된 액세서리 이미지는 각각 렌더링 단계(S150)에서 사용자의 선택에 의해 물품에 적용될 수 있다. 액세서리가 적용되는 위치는 사용자가 사용자 소프트웨어를 이용하여 조절할 수 있다.The photographed accessory image may be applied to an article by a user's selection in each rendering step (S150). The position where the accessory is applied can be adjusted by the user using the user software.

이와 달리, 각각의 액세서리 인식 보드(140a)는 도 5의 액세서리 인식 보드(140)와 같이 액세서리 촬영시 각각 독립적으로 하나씩 사용될 수 있다. Alternatively, each accessory recognition board 140a may be independently used one by one when photographing accessories, like the accessory recognition board 140 of FIG. 5 .

한편, 도 7에서와 같이, 세 개의 액세서리 인식 보드(140a)가 결합하여 촬영 시에는 중간에 위치되는 액세서리 인식 보드(140a)에는 제2거리 조절 마크(242)가 추가 적용될 수 있다.Meanwhile, as shown in FIG. 7 , a second distance adjustment mark 242 may be additionally applied to the accessory recognition board 140a positioned in the middle when the three accessory recognition boards 140a are combined and photographed.

이 경우에는 상기 제2거리 조절 마크(242)를 이용 상기 세 개의 액세서리 인식 보드(140a) 각각의 거리 조절 마크(142)를 이용하지 않고 한 개의 상기 제2거리 조절 마크(242)를 이용 보다 편리한 사용 및 작업이 가능하게 된다.In this case, it is more convenient to use the second distance adjustment mark 242 using the second distance adjustment mark 242 instead of using the distance adjustment mark 142 of each of the three accessory recognition boards 140a. It can be used and operated.

여기서, 상기 제2거리 조절 마크(242)는 스티커 방식으로 이루어져 필요 시 세 개의 액세서리 인식 보드(140a)가 결합되는 경우 중앙에 배치된 액세서리 인식 보드(140a)에 붙여 사용이 가능할 것이다.Here, the second distance adjustment mark 242 is made of a sticker type, and if necessary, when the three accessory recognition boards 140a are combined, it will be possible to attach them to the accessory recognition board 140a disposed in the center.

상술한 바와 같이, 본 발명의 실시 예에 따른 실시간 렌더링 시스템 및 방법은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행함으로써, 쉽게 다양한 물품 디자인을 생성할 수 있다.As described above, in the real-time rendering system and method according to an embodiment of the present invention, a user can easily create various product designs by performing rendering in real time on the 3D modeling of the object before rendering on the web.

또한, 본 발명의 실시 예에 따른 실시간 렌더링 시스템 및 방법은 온라인 쇼핑몰에 적용되는 경우, 사용자는 판매하고자 하는 모든 물품의 디자인이 완료된 이미지를 준비하지 않아도 웹 상에서 바로 가능한 질감 및 색상 조합의 모든 경우의 수에 대한 렌더링을 수행할 수 있다. In addition, when the real-time rendering system and method according to an embodiment of the present invention is applied to an online shopping mall, the user does not need to prepare images that have completed designs of all items to be sold, in all cases of texture and color combinations that are immediately available on the web. Rendering can be performed on numbers.

이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위내에서 변경 또는 수정이 가능하다. 저술한 실시예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The above detailed description is illustrative of the present invention. In addition, the above description shows and describes preferred embodiments of the present invention, and the present invention can be used in various other combinations, modifications, and environments. That is, changes or modifications are possible within the scope of the concept of the invention disclosed herein, the scope equivalent to the written disclosure, and/or within the scope of skill or knowledge in the art. The written embodiment describes the best state for implementing the technical idea of the present invention, and various changes required in the specific application field and use of the present invention are possible. Accordingly, the detailed description of the present invention is not intended to limit the present invention to the disclosed embodiments. Also, the appended claims should be construed as including other embodiments.

100: 실시간 렌더링 시스템 110, 110a: 사용자 단말기
130: 서버 140, 140a: 액세서리 인식 보드
141: 본체 142: 거리 조절 마크
143: 인식 바코드 144: 결합 부재
200: 네트워크
100: real-time rendering system 110, 110a: user terminal
130: server 140, 140a: accessory recognition board
141: body 142: distance adjustment mark
143: recognition barcode 144: coupling member
200: network

Claims (1)

웹 상에서 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법에 있어서,
사용자가 물품의 3D 모델링을 업로드하는 업로드 단계와;
상기 업로드 단계에서 업로드되는 물품의 3D 모델링을 포함하는 3D 파일을 압축하는 압축 단계와;
상기 압축 단계에서 압축된 압축 파일을 웹 서버에 저장하는 압축 파일 저장 단계와;
상기 압축 파일 저장 단계에서 저장된 압축 파일을 분석하여 상기 물품의 각 부분을 구분하는 3D 파일 분석 단계와;
상기 3D 파일 분석 단계에서 구분이 완료된 3D 파일의 물품의 각 부분에 대한 질감 및 색상을 사용자의 선택에 따라 설정하는 렌더링 단계를 포함하는 실시간 렌더링 방법.
In the real-time rendering method capable of rendering in real time on the web,
an upload step in which the user uploads the 3D model of the article;
a compression step of compressing a 3D file including 3D modeling of the article uploaded in the upload step;
a compressed file storage step of storing the compressed file compressed in the compression step in a web server;
a 3D file analysis step of analyzing the compressed file stored in the compressed file storage step to classify each part of the article;
and a rendering step of setting the texture and color of each part of the 3D file, which is classified in the 3D file analysis step, according to a user's selection.
KR1020190153978A 2019-11-26 2019-11-27 Real-time method for rendering 3d modeling KR20210064989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190153978A KR20210064989A (en) 2019-11-26 2019-11-27 Real-time method for rendering 3d modeling

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190153602A KR102091662B1 (en) 2019-11-26 2019-11-26 Real-time method for rendering 3d modeling
KR1020190153978A KR20210064989A (en) 2019-11-26 2019-11-27 Real-time method for rendering 3d modeling

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190153602A Division KR102091662B1 (en) 2019-11-26 2019-11-26 Real-time method for rendering 3d modeling

Publications (1)

Publication Number Publication Date
KR20210064989A true KR20210064989A (en) 2021-06-03

Family

ID=70678950

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190153602A KR102091662B1 (en) 2019-11-26 2019-11-26 Real-time method for rendering 3d modeling
KR1020190153978A KR20210064989A (en) 2019-11-26 2019-11-27 Real-time method for rendering 3d modeling

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190153602A KR102091662B1 (en) 2019-11-26 2019-11-26 Real-time method for rendering 3d modeling

Country Status (1)

Country Link
KR (2) KR102091662B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102358596B1 (en) 2021-10-18 2022-02-08 주식회사 스튜디오레논 System, method and program for providing rendering platform providing machine learning-based parallel workflow
KR102481613B1 (en) 2022-02-11 2022-12-27 주식회사 유룸 System, method and program for providing 3d website making platform with edit function
KR102537403B1 (en) 2022-02-11 2023-05-26 주식회사 유룸 System, method and program for providing 3d website making platform with 3d contents load function
KR20230121261A (en) 2022-02-11 2023-08-18 주식회사 유룸 System, method and program for providing 3d website making platform with event build function

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003217528A1 (en) * 2002-03-26 2003-10-08 So-Woon Kim System and method for 3-dimension simulation of glasses
KR100889367B1 (en) * 2007-03-09 2009-03-19 (주) 이브로드캐스트 System and Method for Realizing Vertual Studio via Network

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102358596B1 (en) 2021-10-18 2022-02-08 주식회사 스튜디오레논 System, method and program for providing rendering platform providing machine learning-based parallel workflow
KR102481613B1 (en) 2022-02-11 2022-12-27 주식회사 유룸 System, method and program for providing 3d website making platform with edit function
KR102537403B1 (en) 2022-02-11 2023-05-26 주식회사 유룸 System, method and program for providing 3d website making platform with 3d contents load function
KR20230121261A (en) 2022-02-11 2023-08-18 주식회사 유룸 System, method and program for providing 3d website making platform with event build function

Also Published As

Publication number Publication date
KR102091662B1 (en) 2020-05-15

Similar Documents

Publication Publication Date Title
KR20210064989A (en) Real-time method for rendering 3d modeling
JP6951400B2 (en) Equipment and methods for supplying content recognition photo filters
US9905053B2 (en) Information processing device, information processing method, and computer program product
CN105320695B (en) Picture processing method and device
KR101813394B1 (en) System and method for providing house interior service
US10504264B1 (en) Method and system for combining images
JP7208549B2 (en) VIRTUAL SPACE CONTROL DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
US9542703B2 (en) Virtual custom framing expert system
JP6677890B2 (en) Information processing system, its control method and program, and information processing apparatus, its control method and program
KR20150079387A (en) Illuminating a Virtual Environment With Camera Light Data
US20160148428A1 (en) Cutout Object Merge
CN105005599A (en) Photograph sharing method and mobile terminal
JP7337428B1 (en) CONTROL METHOD, CONTROL DEVICE, AND RECORDING MEDIUM FOR INTERACTIVE THREE-DIMENSIONAL REPRESENTATION OF OBJECT
US20230177832A1 (en) Enhanced product visualization technology with web-based augmented reality user interface features
KR102125382B1 (en) Method for providing online commerce using real-time rendering 3d modeling
CN108353151A (en) The control method and device of target device
KR20130095488A (en) Apparatus and method for providing three-dimensional model in the smart device
CN111640190A (en) AR effect presentation method and apparatus, electronic device and storage medium
JP7219997B1 (en) How to output blueprints of block objects
JP6349915B2 (en) Terminal device, server, and program
US20190293249A1 (en) Method and apparatus for dynamically projecting and displaying customized decorative images on a building or home
CN109739451A (en) Digital picture methods of exhibiting, apparatus and system
TW201944262A (en) Method and system for augmented reality
JP6486077B2 (en) Display device, server device, display system, control method therefor, control program, and storage medium
CN106274112A (en) A kind of on-the-spot intelligent printing transferring method obtaining customized product and intelligence transferring system