KR20210064989A - Real-time method for rendering 3d modeling - Google Patents
Real-time method for rendering 3d modeling Download PDFInfo
- Publication number
- KR20210064989A KR20210064989A KR1020190153978A KR20190153978A KR20210064989A KR 20210064989 A KR20210064989 A KR 20210064989A KR 1020190153978 A KR1020190153978 A KR 1020190153978A KR 20190153978 A KR20190153978 A KR 20190153978A KR 20210064989 A KR20210064989 A KR 20210064989A
- Authority
- KR
- South Korea
- Prior art keywords
- file
- user
- real
- compression
- rendering
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/428—Real-time
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 웹 상에서 렌더링을 할 수 있는 실시간 렌더링 방법에 관한 것이다. The present invention relates to a real-time rendering method capable of rendering on the web.
인터넷과 휴대용 단말기의 보급으로 인해 개인 사용자 간의 정보 공유가 전세계적으로 가능한 시대가 도래하게 되었다. 이러한 기술의 발달로 인해, 종래의 오프라인 매장에서 재화를 거래하던 방식에서 온라인을 통하여 물건을 구매하는 방식으로 소비 패턴도 변화를 거듭하고 있다.With the spread of the Internet and portable terminals, an era in which information sharing between individual users is possible worldwide has arrived. Due to the development of these technologies, consumption patterns are also changing from a method of trading goods in a conventional offline store to a method of purchasing goods online.
일반적인 온라인 쇼핑몰의 경우, 판매자는 판매하고자 하는 상품을 웹 상에 보여주기 위해서는 상품을 실제로 제작하고 제작된 상품을 직접 촬영하여 업로드하거나, 판매하고자 하는 모든 물품에 대한 디자인이 완료된 이미지를 쇼핑몰 사이트에 업로드할 것이 요구되는 한계가 있다.In the case of a general online shopping mall, in order to show the product that the seller wants to sell on the web, the seller actually manufactures the product and takes a picture of the manufactured product and uploads it, or uploads the design image of all the products to be sold to the shopping mall site. There are limits to what needs to be done.
본 발명은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법을 제공하기 위한 것이다.An object of the present invention is to provide a real-time rendering method in which a user can perform real-time rendering on 3D modeling of an article before rendering on the web.
본 발명이 해결하고자 하는 과제는 여기에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited thereto, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명은 웹 상에서 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법을 제공한다. 일 실시 예에 따르면, 실시간 렌더링 방법은, 사용자가 물품의 3D 모델링을 업로드하는 업로드 단계와; 상기 업로드 단계에서 업로드되는 물품의 3D 모델링을 포함하는 3D 파일을 압축하는 압축 단계와; 상기 압축 단계에서 압축된 압축 파일을 웹 서버에 저장하는 압축 파일 저장 단계와; 상기 압축 파일 저장 단계에서 저장된 압축 파일을 분석하여 상기 물품의 각 부분을 구분하는 3D 파일 분석 단계와; 상기 3D 파일 분석 단계에서 구분이 완료된 3D 파일의 물품의 각 부분에 대한 질감 및 색상을 사용자의 선택에 따라 설정하는 렌더링 단계를 포함하되, 상기 압축 단계는, 상기 업로드 단계에서 업로드된 3D 파일을 웹 상에서 압축하는 1차 압축 단계와; 상기 1차 압축 단계가 완료된 3D 파일을 상기 웹 서버 상에서 압축하는 2차 압축 단계를 포함한다.The present invention provides a real-time rendering method capable of performing rendering in real time on the web. According to an embodiment, a real-time rendering method includes: an upload step of uploading a 3D model of an article by a user; a compression step of compressing a 3D file including 3D modeling of the article uploaded in the upload step; a compressed file storage step of storing the compressed file compressed in the compression step in a web server; a 3D file analysis step of analyzing the compressed file stored in the compressed file storage step to classify each part of the article; A rendering step of setting the texture and color of each part of the article of the 3D file, which is classified in the 3D file analysis step, according to a user's selection, wherein the compression step is performed by uploading the 3D file uploaded in the upload step to the web. a first compression step of compressing on the and a secondary compression step of compressing the 3D file on which the first compression step has been completed on the web server.
3D 파일 분석 단계에서는 상기 웹 서버 상에서 자동으로 메시의 차이를 이용하여 상기 압축 파일 파일에 포함된 물품의 각 부분을 구분할 수 있다.In the 3D file analysis step, each part of the article included in the compressed file file may be classified using the mesh difference automatically on the web server.
상기 렌더링 단계에서는, 사용자가 이미지를 업로드하면, 사용자의 요청에 의해 상기 이미지 상에 나타나 있는 질감 또는 색상을 상기 압축 파일에 포함된 물품의 모델링에 입힐 수 있는 질감 및 색상 데이터로 변환할 수 있다.In the rendering step, if the user uploads an image, the texture or color displayed on the image may be converted into texture and color data that can be applied to modeling of the article included in the compressed file according to the user's request.
본 발명의 일 실시 예에 따른 실시간 렌더링 방법은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행할 수 있다.In the real-time rendering method according to an embodiment of the present invention, a user may perform real-time rendering on 3D modeling of an article before rendering on the web.
도 1은 본 발명의 일 실시 예에 따른 실시간 렌더링 시스템을 간략하게 보여주는 도면이다.
도 2는 도 1에 도시된 서버의 일 예를 보여주는 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 실시간 렌더링 방법을 보여주는 순서도이다.
도 4는 도 1에 도시된 사용자 단말기의 다른 예를 보여주는 도면이다.
도 5는 도 1의 실시간 렌더링 시스템에 포함될 수 있는 액세서리 인식 보드의 일 예를 보여주는 사시도이다.
도 6은 도 5에 도시된 거리 조절 마크의 일 예를 보여주는 도면이다.
도 7은 도 1의 실시간 렌더링 시스템에 포함될 수 있는 액세서리 인식 보드의 다른 예를 보여주는 사시도이다.1 is a diagram schematically illustrating a real-time rendering system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an example of the server shown in FIG. 1 .
3 is a flowchart illustrating a real-time rendering method according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating another example of the user terminal shown in FIG. 1 .
5 is a perspective view illustrating an example of an accessory recognition board that may be included in the real-time rendering system of FIG. 1 .
6 is a view showing an example of the distance control mark shown in FIG.
7 is a perspective view illustrating another example of an accessory recognition board that may be included in the real-time rendering system of FIG. 1 .
이하, 본 발명의 실시 예를 첨부된 도면들을 참조하여 더욱 상세하게 설명한다. 본 발명의 실시 예는 여러 가지 형태로 변형할 수 있으며, 본 발명의 범위가 아래의 실시 예들로 한정되는 것으로 해석되어서는 안 된다. 본 실시 예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해 제공되는 것이다. 따라서 도면에서의 요소의 형상은 보다 명확한 설명을 강조하기 위해 과장되었다.Hereinafter, an embodiment of the present invention will be described in more detail with reference to the accompanying drawings. Embodiments of the present invention may be modified in various forms, and the scope of the present invention should not be construed as being limited to the following embodiments. This embodiment is provided to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shapes of elements in the drawings are exaggerated to emphasize a clearer description.
도 1은 본 발명의 일 실시 예에 따른 실시간 렌더링 시스템(100)을 간략하게 보여주는 도면이다. 도 1을 참조하면, 실시간 렌더링 시스템(100)은 웹 상에서 실시간으로 렌더링을 수행할 수 있다. 일 실시 예에 따르면, 실시간 렌더링 시스템(100)은 사용자 소프트웨어 및 서버(130)를 포함한다.1 is a diagram schematically illustrating a real-
사용자 소프트웨어는 사용자 단말기(110)에 설치되고 구동되는 소프트웨어로 제공된다. 예를 들면, 사용자 소프트웨어는 사용자의 PC에서 구동되는 웹브라우저와 연동되는 플러그인 또는 그 외의 웹 기반 응용 프로그램으로 제공될 수 있다. 그 외 사용자 소프트웨어는 사용자의 스마트폰 등의 모바일 스마트 기기에 설치되어 구동되는 앱 등의 다양한 종류의 단말기에서 구동되는 다양한 종류의 응용 프로그램으로 제공될 수 있다. The user software is provided as software installed and driven in the
사용자는 사용자 단말기(110)에서 구동되는 사용자 소프트웨어를 통해 렌더링 하고자 하는 물품의 3D 모델링을 포함하는 3D 파일을 업로드하고, 업로드한 3D 파일에 렌더링을 수행함으로써 물품의 각 부분에 대해 적용 가능한 질감 및 색상을 설정할 수 있다. 사용자 소프트웨어는 설정된 질감 및 색상을 각 물품 및 물품의 각 부분에 대해 분류하여 서버(130)에 저장시킬 수 있다.The user uploads a 3D file including 3D modeling of the item to be rendered through user software driven in the
또한, 사용자 소프트웨어는 사용자의 명령에 의해 또는 개발자에 의한 설정에 의해 자동으로 3D 파일 및 렌더링 중이거나 렌더링이 완료된 물품의 3D 이미지가 포함된 파일을 서버(130)로 저장시킬 수 있고, 또한 서버(130)로부터 상기 파일들을 다운로드할 수 있다. 또한, 사용자 소프트웨어는 3D 파일의 물품 이미지 및 3D 파일의 렌더링 과정을 사용자 단말기(110)를 통해 실시간으로 출력할 수 있다. In addition, the user software may automatically store a file including a 3D file and a 3D image of an item being rendered or rendered to the
사용자는 사용자 소프트웨어를 통해 사용자가 렌더링한 물품의 이미지를 서버(130)에 저장하여 수시로 다운로드하여 확인할 수 있다. 또한, 서버(130)에 저장된 렌더링이 완료된 물품의 이미지는 웹 상에서 제 3 자가 다운로드하여 확인할 수 있도록 제공될 수 있다.The user can store the image of the item rendered by the user through the user software in the
도 2는 도 1에 도시된 서버의 일 예를 보여주는 블록도이다. 도 1 및 도 2를 참조하면, 서버(130)는 통신부(131), 저장부(132), 프로세싱 유닛(133) 및 프로그램 관리 유닛(134)을 포함할 수 있다.FIG. 2 is a block diagram illustrating an example of the server shown in FIG. 1 . 1 and 2 , the
통신부(131)는 사용자 단말기(110)와 데이터를 송수신한다. 예를 들면, 통신부(131)는 사용자 단말기(110)로부터 물품의 모델링이 포함된 3D 파일, 사용자에 의한 렌더링이 완료된 물품의 이미지 파일, 그리고 사용자에 의해 설정된 물품별 질감 및 색상 관련 데이터 등을 수신할 수 있다. 통신부(131)는 사용자 단말기(110)로 저장부(132)에 저장된 3D 파일과 질감 및 색상과 관련된 데이터와 렌더링이 완료된 물품의 이미지 파일 등을 송신할 수 있다. 통신부(131)는 필요에 따라 상술한 데이터 외의 데이터를 사용자 단말기(110)와 송수신할 수 있다.The
저장부(132)는 통신부(131)로부터 수신되는 데이터, 실시간 렌더링 시스템(100)의 개발자에 의해 입력된 데이터 그리고 서버(130)에서 생성된 데이터를 저장한다. 예를 들면, 저장부(132)는 사용자 단말기(110)로부터 수신된 3D 파일 및 렌더링이 완료된 물품의 이미지 파일, 그리고 사용자에 의해 설정된 물품별 질감 및 색상 관련 데이터 등을 저장할 수 있다. 그 외 저장부(132)는 필요에 따라 상술한 데이터 외의 데이터를 저장할 수 있다.The
프로세싱 유닛(133)은 서버(130)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세싱 유닛(133)은 저장부(132)의 데이터에 접근(access)하고, 아래에서 설명될 실시간 렌더링 방법을 실행하기 위한 알고리즘이나 프로그램 명령을 실행함으로써, 서버(130)를 구동할 수 있다. 또한, 프로세싱 유닛(133)은 서버(130)의 여러 구성 요소들을 제어하는 컨트롤러, 인터페이스, 그래픽 엔진 등을 포함할 수 있다. 프로세싱 유닛(133)은 SoC(system-on-chip), ASIC(application specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있다.The
프로그램 관리 유닛(134)은 사용자 단말기(110)에 실시간 렌더링 시스템(100)을 이용하기 위한 사용자 소프트웨어를 제공하거나 설치하도록 지원할 수 있다. The
사용자 단말기(110) 및 서버(130)는 네트워크(200)에 연결되어 서로 데이터를 송수신할 수 있다. 일 실시 예에 따르면, 네트워크(200)는 인터넷(웹)일 수 있다. 이 경우, 서버(130)는 인터넷(웹) 상에 연결된 웹 서버로 제공될 수 있다.The
이하, 설명의 편의를 위해 도 1의 실시간 렌더링 시스템(100)을 이용하여 실행되는 본 발명의 실시 예에 따른 실시간 렌더링 방법에 대해 설명한다. 이와 달리, 본 발명의 실시 예에 따른 실시간 렌더링 방법은 다양한 종류의 시스템에 의해 실행될 수 있다.Hereinafter, for convenience of description, a real-time rendering method according to an embodiment of the present invention executed using the real-
도 3은 본 발명의 일 실시 예에 따른 실시간 렌더링 방법을 보여주는 순서도이다. 도 3을 참조하면, 실시간 렌더링 방법은 웹 상에서 실시간으로 렌더링을 수행하고, 렌더링이 완료된 이미지 및/또는 렌더링을 통해 설정한 물품에 적용 가능한 질감 및 색상에 관한 데이터를 웹 상에 제공할 수 있다. 일 실시 예에 따르면, 실시간 렌더링 방법는 업로드 단계(S110), 압축 단계(S120), 압축 파일 저장 단계(S130), 3D 파일 분석 단계(S140) 및 렌더링 단계(S150)를 포함할 수 있다. 업로드 단계(S110), 압축 단계(S120), 압축 파일 저장 단계(S130), 3D 파일 분석 단계(S140) 및 렌더링 단계(S150)는 순차적으로 수행될 수 있다. 3D 모델링은 상하좌우 방향으로 360° 회전시켜 바라보는 전 방향에 대해 형상을 확인할 수 있도록 제공될 수 있다.3 is a flowchart illustrating a real-time rendering method according to an embodiment of the present invention. Referring to FIG. 3 , in the real-time rendering method, rendering is performed in real time on the web, and data on a texture and color applicable to a rendered image and/or an article set through rendering may be provided on the web. According to an embodiment, the real-time rendering method may include an uploading step (S110), a compression step (S120), a compressed file storage step (S130), a 3D file analysis step (S140), and a rendering step (S150). The upload step (S110), the compression step (S120), the compressed file storage step (S130), the 3D file analysis step (S140), and the rendering step (S150) may be sequentially performed. 3D modeling may be provided so that the shape can be confirmed in all directions viewed by rotating 360° in the vertical, horizontal, and horizontal directions.
업로드 단계(S110)에서 사용자는 렌더링하고자 하는 물품의 질감 또는 색상이 입혀지지 않은 3D 모델링을 포함하는 3D 파일을 사용자 단말기(110)의 사용자 소프트웨어를 통해 업로드 한다. 일 실시 예에 따르면 업로드되는 3D 파일의 확장자는 “.obj” 등 일 수 있다.In the uploading step ( S110 ), the user uploads a 3D file including 3D modeling to which the texture or color of the object to be rendered is not applied through the user software of the
압축 단계(S120)에서는 사용자에 의해 업로드된 물품의 3D 파일이 압축된다. 일 실시 예에 따르면 압축 단계(S120)는 1차 압축 단계(S121) 및 2차 압축 단계(S122)를 포함한다. In the compression step (S120), the 3D file of the article uploaded by the user is compressed. According to an embodiment, the compression step (S120) includes a primary compression step (S121) and a secondary compression step (S122).
1차 압축 단계(S121)에서는 업로드 단계(S110)에서 업로드된 3D 파일을 *.glb 형식으로 변환하는 과정을 통해 압축이 진행될 수 있다. 일 실시 예에 따르면, 1차 압축 단계(S121)는 웹 상에서 바로 압축된다. 예를 들면, 1차 압축 단계(S121)는 사용자가 3D 파일을 업로드한 사용자 단말기(110)에서 구동되는 사용자 소프트웨어에 의해서 수행될 수 있다. 따라서, 1차 압축 단계(S121)는 별도의 서버(130) 등으로의 다운로드 과정이 요구되지 않는다.In the first compression step (S121), compression may be performed through the process of converting the 3D file uploaded in the upload step (S110) into *.glb format. According to one embodiment, the first compression step (S121) is compressed directly on the web. For example, the first compression step ( S121 ) may be performed by user software running in the
기존의 압축 프로그램들의 경우, 동영상이나 이미지 또는 텍스트에 한해서 약 90%의 압축률을 보인다. 이에 반해, 본 실시 예에 따른 압축 방법에 의하면 3D 파일을 95% 이상의 효율로 웹 상에서 압축할 수 있다. 예를 들면, 1000MB 크기의 3D 파일을 50MB까지 압축할 수 있으며, 약 100MB까지의 압축 성능을 보이는 기존 압축 프로그램에 비해 2배 가량의 높은 효율의 압축이 가능하다.Existing compression programs show a compression ratio of about 90% only for videos, images, or text. On the other hand, according to the compression method according to the present embodiment, the 3D file can be compressed on the web with an efficiency of 95% or more. For example, a 3D file of 1000MB in size can be compressed up to 50MB, and it is possible to compress twice as high as the existing compression program, which has compression performance up to about 100MB.
2차 압축 단계(S122)에서는 1차 압축 단계(S121)에서 압축된 *.glb 형식의 파일을 *.gltf 파일로 변환하는 과정을 통해 진행될 수 있다. 2차 압축 단계(S122)는 서버(130) 상에서 진행될 수 있다. 2차 압축 단계(S122)에서의 압축 효율은 약 96%이다. 따라서, 1차 압축 단계(S121) 및 2차 압축 단계(S122)를 거친 최종 압축 효율은 최소 98%이다.In the secondary compression step (S122), the *.glb format file compressed in the primary compression step (S121) may be converted into a *.gltf file. The secondary compression step ( S122 ) may be performed on the
압축 파일 저장 단계(S130)에서 압축되어 생성된 *.glb 형식의 파일은 서버(130)의 저장부(132)에 저장된다. The compressed file is stored in the
3D 파일 분석 단계(S140)에서는 압축 파일 저장 단계(S130)에서 저장된 *.glb 형식의 파일을 분석하여 *.glb 형식의 압축 파일에 포함된 이미지 상의 물품의 각 부분을 구분한다. 일 실시 예에 따르면, 3D 파일 분석 단계(S140)에서는 압축 파일 저장 단계(S130)에서 저장된 압축 파일의 다운로드 없이 서버(130)에서 자동으로 메시의 차이를 이용하여 물품의 각 부분을 구분할 수 있다. 이 경우, 분석에 의해 구분된 결과는 사용자 단말기(110)를 통해 출력되고, 사용자는 사용자 소프트웨어를 이용하여 구분된 각 부분에 명칭을 부여할 수 있다. 예를 들면, 물품이 셔츠인 경우, 3D 파일 분석 단계(S140)에서 셔츠는 소매, 주머니, 전면부, 후면부 및 카라 등으로 자동으로 구분되고, 사용자는 구분된 각 부분에 대해 “소매”, “주머니”, “전면부”, “후면부” 및 “카라” 등으로 명칭을 부여할 수 있다. 일 실시 예에 따르면, 3D 파일 분석 단계(S140)에서는 하나의 3D 파일의 물품이 각 메시 형태로 구분될 때마다 각 부분에 대해 사용자가 명칭을 부여할 수 있다.In the 3D file analysis step ( S140 ), the *.glb format file stored in the compressed file storage step ( S130 ) is analyzed to classify each part of the article on the image included in the *.glb format compressed file. According to an embodiment, in the 3D file analysis step S140 , the
이와 달리, 3D 파일 분석 단계(S140)에서는 사용자가 3D 파일의 물품의 메시를 직접 선택하여 각 부분을 구분할 수 있다. 이와 같이 구분된 각 부분 또한 사용자에 의해 명칭이 부여될 수 있다. In contrast, in the 3D file analysis step ( S140 ), the user may directly select the mesh of the article of the 3D file to classify each part. Each part divided in this way may also be given a name by the user.
렌더링 단계(S150)에서는 3D 파일 분석 단계(S140)에서 구분이 완료된 3D 파일의 물품의 각 부분별로 적용 가능한 질감 및 색상을 사용자 소프트웨어를 통한 사용자의 선택에 따라 설정한다. 일 실시 예에 따르면, 렌더링 단계(S150)는 물품의 3D 모델링을 상하좌우 360° 전 방향으로 회전시켜 바라보는 전 방향에 대한 형상에 대해 수행될 수 있다.In the rendering step (S150), the texture and color applicable to each part of the article of the 3D file whose classification is completed in the 3D file analysis step (S140) is set according to the user's selection through the user software. According to an embodiment, the rendering step ( S150 ) may be performed on the shape of the 3D model of the article in all directions viewed by rotating the 3D modeling in all directions up, down, left, and right 360°.
일 실시 예에 따르면, 렌더링 단계(S150)에서는 실시간 렌더링 시스템(100)의 개발자에 의해 기본적으로 입력된 질감 및 색상을 이용하여 렌더링이 수행될 수 있다. 이와 달리, 렌더링 단계(S150)에서 사용자는 웹 서핑이나 그 외의 방법으로 획득한 이미지 파일을 업로드하고, 사용자의 사용자 소프트웨어를 통한 요청에 의해 사용자 소프트웨어 또는 서버(130)는 그 이미지 상에 나타나 있는 질감 및 색상을 압축 파일의 물품의 모델링에 입힐 수 있는 질감 및 색상 데이터로 변환시킬 수 있다. 사용자는 이와 같이 획득한 질감 및 색상 데이터를 이용하여 렌더링을 수행할 수 있다. 따라서, 사용자는 본 발명의 실시 예에 따른 실시간 렌더링 시스템(100) 및 방법을 이용하여, 판매하고자 하는 물품의 모든 재질 및 색상 조합의 이미지를 별도로 준비하지 않아도 웹 상에서 원하는 모든 조합의 재질 및 색상 조합의 물품을 디자인할 수 있다. According to an embodiment, in the rendering step S150 , rendering may be performed using a texture and color basically input by a developer of the real-
렌더링 단계(S150)에서 설정된 질감 및 색상 데이터는 서버(130)의 저장부(132)에 저장될 수 있다.The texture and color data set in the rendering step ( S150 ) may be stored in the
렌더링 단계(S150)에서 수행되는 렌더링 과정은 사용자 소프트웨어에 의해 사용자 단말기(110)를 통해 실시간으로 출력될 수 있다.The rendering process performed in the rendering step S150 may be output in real time through the
또한, 렌더링 단계(S150)에서 각 부분별 재질 및 색상을 입히는 작업이 완료된 물품의 이미지 파일은 웹 상에 제공되어 제 3 자가 확인할 수 있도록 제공될 수 있다.In addition, the image file of the article for which the work of applying the material and color for each part in the rendering step (S150) is completed may be provided on the web so that a third party can check it.
도 4는 도 1에 도시된 사용자 단말기의 다른 예를 보여주는 도면이다. 도 4를 참조하면, 사용자 단말기(110a)는 PC(111) 및 스마트 모바일 단말기(112)를 포함할 수 있다. 스마트 모바일 단말기(112)는 터치 스크린이 제공된 스마트폰 또는 테블릿 PC로 제공된다. 이 경우, 사용자 소프트웨어는 PC(111) 및 스마트 모바일 단말기(112)에 설치될 수 있다. 렌더링 단계(S150)에서 PC(111) 및 스마트 모바일 단말기(112)가 USB 연결 방식 등에 의해 서로 연결된 경우, 사용자는 물품의 색상 설정 시 손가락이나 터치스크린용 펜 등을 이용하여 스마트 모바일 단말기(112)의 터치 스크린에 접촉시킨 상태에서 일방향 및 일방향에 반대 방향인 타방향으로 드레그시킴으로써 색상의 명도를 조절할 수 있다. 예를 들면, 위방향으로 드레그하는 경우 명도가 증가하고, 아래방향으로 드래그하는 경우 명도가 감소할 수 있다. FIG. 4 is a diagram illustrating another example of the user terminal shown in FIG. 1 . Referring to FIG. 4 , the
도 5는 도 1의 실시간 렌더링 시스템(100)에 포함될 수 있는 액세서리 인식 보드(140)의 일 예를 보여주는 사시도이다. 도 6은 도 5에 도시된 거리 조절 마크(142)의 일 예를 보여주는 도면이다. 도 5 및 도 6을 참조하면, 실시간 렌더링 시스템(100)은 액세서리 인식 보드(140)를 더 포함할 수 있다. 일 실시 예에 따르면, 액세서리 인식 보드(140)는 본체(141), 거리 조절 마크(142) 및 인식 바코드(143)를 포함할 수 있다. 5 is a perspective view illustrating an example of an
본체(141)에는 액세서리가 놓인다. 거리 조절 마크(142)는 촬영시 본체(141)의 액세서리가 놓이는 면 및 카메라 간의 거리를 측정하기 위해 제공된다. 거리 조절 마크(142)에 대해서는 아래에 보다 자세히 설명한다.An accessory is placed on the
인식 바코드(143)는 본체(141)에 놓이는 액세서리의 종류를 나타낸다. 액세서리 인식 보드(140)에 액세서리를 안착시킨 후 촬영된 이미지 파일에서 사용자 소프트웨어는 인식 바코드(143)를 통해 액세서리의 종류를 파악함으로써 보다 쉽게 액세서리를 인식할 수 있다. 인식 바코드(143)는 본체(141)에 탈착 가능하게 제공될 수 있다. 따라서, 인식 바코드(143)는 액세서리 인식 보드(140)에 놓일 액세서리의 종류에 대응되는 인식 바코드(143)로 교체되어 본체(141)에 부착될 수 있다.The
액세서리 인식 보드(140)가 제공되고, 사용자 단말기(110)가 카메라를 포함하는 스마트 모바일 단말기로 제공되는 경우, 렌더링 단계(S150)에서 사용자는 3D 파일의 물품에 적용하고자 하는 액세서리를 본체(141)에 안착시키고, 사용자 단말기(110)의 화면에 액세서리와 함께 액세서리 인식 보드(140)가 함께 잡히도록 사용자 단말기(110)의 거리를 조절한다. 이 후, 사용자가 사용자 단말기(110) 및 본체(141) 간의 거리를 조절하여 거리 조절 마크(142)의 크기가 사용자 단말기(110)의 화면 상에 도시되는 틀의 범위 내로 일정 비율 이상을 차지하도록 들어오면, 사용자 소프트웨어는 자동으로 액세서리를 촬영하도록 사용자 단말기(110)를 제어할 수 있다. 예를 들면, 거리 조절 마크(142)는 제1 색을 가지는 외측 사각형(142a) 내에 제1 색과 다른 제2 색을 가지고 각 변이 외측 사각형(142a)의 각 변으로부터 동일한 간격으로 이격되도록 내측 사각형(142b)이 제공되는 형상으로 제공될 수 있다. 그리고, 사용자 단말기(110)의 화면에 임시로 도시되는 틀은 내측 사각형(142b)과 가로 세로 비율이 동일한 사각형 형상으로 제공될 수 있다. 거리 조절 마크(142)가 틀의 내부에 위치되는지 여부는 내측 사각형(142b)이 틀의 내부에 위치되는지 여부로 결정될 수 있다. 또한, 틀의 내부에서 거리 조절 마크(142)가 차지하는 비율은 내측 사각형(142b)이 틀의 내부를 차지하는 비율로 계산될 수 있다.When the
촬영된 액세서리 이미지는 렌더링 단계(S150)에서 사용자의 선택에 의해 물품에 적용될 수 있다. 액세서리가 적용되는 위치는 사용자가 사용자 소프트웨어를 이용하여 조절할 수 있다.The photographed accessory image may be applied to an article by a user's selection in the rendering step (S150). The position where the accessory is applied can be adjusted by the user using the user software.
상술한 바와 같이, 액세서리 인식 보드(140)를 사용함으로써, 카메라로부터 항상 일정한 거리에 위치된 액세서리를 촬영할 수 있으므로 렌더링 단계(S150)에서 보다 실제 크기에 가까운 액세서리를 물품에 적용시킬 수 있다.As described above, by using the
도 7은 도 1의 실시간 렌더링 시스템(100)에 포함될 수 있는 액세서리 인식 보드(140a)의 다른 예를 보여주는 사시도이다. 도 7을 참조하면, 액세서리 인식 보드(140a)는 복수개가 서로 일 방향으로 배열되도록 결합 가능하게 제공될 수 있다. 7 is a perspective view illustrating another example of an
액세서리 인식 보드(140a)는 서로 결합 부재(144)에 의해 탈착 가능하게 결합될 수 있다. 예를 들면, 결합 부재(144)는 서로 접하도록 결합되는 액세서리 인식 보드(140a)의 서로를 바라보는 면 중 하나에는 자석이 다른 하나에는 철재질의 부재가 제공될 수 있다. 이와 달리, 상기 면 중 하나와 다른 하나에는 각각 다른 극이 마주보도록 자석이 제공될 수 있다.The
각각의 본체(141)에 부착된 인식 바코드(143)는 서로 다른 종류의 액세서리를 나타낼 수 있다. 이와 달리, 각각의 본체(141)에 부착된 인식 바코드(143)는 서로 같은 종류의 액세서리를 나타낼 수 있다. 예를 들면, 액세서리 인식 보드(140a)가 3개로 제공되는 경우, 하나는 단추를 나타내는 인식 바코드(143)가 부착되고, 다른 하나는 보타이를 나타내는 인식 바코드(143)가 부착되고, 또 다른 하나는 포켓치프를 나타내는 인식 바코드(143)가 부착될 수 있다. Recognition barcodes 143 attached to each
실시간 렌더링 시스템(100)이 도 7에 도시된 액세서리 인식 보드(140a)를 포함하는 경우, 렌더링 단계(S150)에서 사용자는 사용자 단말기(110)를 이용하여 한번에 복수개의 액세서리를 촬영할 수 있다. 예를 들면, 사용자는 각각의 액세서리 인식 보드(140a)의 인식 바코드(143)에 대응되는 액세서리를 안착시키고, 사용자 단말기(110)의 화면에 액세서리와 함께 모든 액세서리 인식 보드(140a)가 함께 잡히도록 사용자 단말기(110)의 거리를 조절한다. 이 후, 사용자가 사용자 단말기(110) 및 본체(141) 간의 거리를 조절하여 거리 조절 마크(142) 중 하나의 크기가 사용자 단말기(110)의 화면 상에 임시로 도시되는 틀의 범위 내로 일정 비율 이상을 차지하도록 들어오면, 사용자 소프트웨어는 자동으로 액세서리를 촬영하도록 사용자 단말기(110)를 제어할 수 있다. 상기 하나의 거리 조절 마크(142)는 복수개의 액세서리 인식 보드(140a) 중 가운데 위치한 액세서리 인식 보드(140a)의 거리 조절 마크(142)일 수 있다. 틀은 사용자의 사용자 소프트웨어를 이용한 모드 변경을 통해 화면에 잡히는 액세서리 인식 보드(140a)의 수가 증가함에 따라 거리 조절 마크(142) 및 카메라 간에 멀어지는 거리에 대응되는 크기로 조절될 수 있다.When the real-
촬영된 액세서리 이미지는 각각 렌더링 단계(S150)에서 사용자의 선택에 의해 물품에 적용될 수 있다. 액세서리가 적용되는 위치는 사용자가 사용자 소프트웨어를 이용하여 조절할 수 있다.The photographed accessory image may be applied to an article by a user's selection in each rendering step (S150). The position where the accessory is applied can be adjusted by the user using the user software.
이와 달리, 각각의 액세서리 인식 보드(140a)는 도 5의 액세서리 인식 보드(140)와 같이 액세서리 촬영시 각각 독립적으로 하나씩 사용될 수 있다. Alternatively, each
한편, 도 7에서와 같이, 세 개의 액세서리 인식 보드(140a)가 결합하여 촬영 시에는 중간에 위치되는 액세서리 인식 보드(140a)에는 제2거리 조절 마크(242)가 추가 적용될 수 있다.Meanwhile, as shown in FIG. 7 , a second
이 경우에는 상기 제2거리 조절 마크(242)를 이용 상기 세 개의 액세서리 인식 보드(140a) 각각의 거리 조절 마크(142)를 이용하지 않고 한 개의 상기 제2거리 조절 마크(242)를 이용 보다 편리한 사용 및 작업이 가능하게 된다.In this case, it is more convenient to use the second
여기서, 상기 제2거리 조절 마크(242)는 스티커 방식으로 이루어져 필요 시 세 개의 액세서리 인식 보드(140a)가 결합되는 경우 중앙에 배치된 액세서리 인식 보드(140a)에 붙여 사용이 가능할 것이다.Here, the second
상술한 바와 같이, 본 발명의 실시 예에 따른 실시간 렌더링 시스템 및 방법은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행함으로써, 쉽게 다양한 물품 디자인을 생성할 수 있다.As described above, in the real-time rendering system and method according to an embodiment of the present invention, a user can easily create various product designs by performing rendering in real time on the 3D modeling of the object before rendering on the web.
또한, 본 발명의 실시 예에 따른 실시간 렌더링 시스템 및 방법은 온라인 쇼핑몰에 적용되는 경우, 사용자는 판매하고자 하는 모든 물품의 디자인이 완료된 이미지를 준비하지 않아도 웹 상에서 바로 가능한 질감 및 색상 조합의 모든 경우의 수에 대한 렌더링을 수행할 수 있다. In addition, when the real-time rendering system and method according to an embodiment of the present invention is applied to an online shopping mall, the user does not need to prepare images that have completed designs of all items to be sold, in all cases of texture and color combinations that are immediately available on the web. Rendering can be performed on numbers.
이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위내에서 변경 또는 수정이 가능하다. 저술한 실시예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The above detailed description is illustrative of the present invention. In addition, the above description shows and describes preferred embodiments of the present invention, and the present invention can be used in various other combinations, modifications, and environments. That is, changes or modifications are possible within the scope of the concept of the invention disclosed herein, the scope equivalent to the written disclosure, and/or within the scope of skill or knowledge in the art. The written embodiment describes the best state for implementing the technical idea of the present invention, and various changes required in the specific application field and use of the present invention are possible. Accordingly, the detailed description of the present invention is not intended to limit the present invention to the disclosed embodiments. Also, the appended claims should be construed as including other embodiments.
100: 실시간 렌더링 시스템
110, 110a: 사용자 단말기
130: 서버
140, 140a: 액세서리 인식 보드
141: 본체
142: 거리 조절 마크
143: 인식 바코드
144: 결합 부재
200: 네트워크100: real-
130:
141: body 142: distance adjustment mark
143: recognition barcode 144: coupling member
200: network
Claims (1)
사용자가 물품의 3D 모델링을 업로드하는 업로드 단계와;
상기 업로드 단계에서 업로드되는 물품의 3D 모델링을 포함하는 3D 파일을 압축하는 압축 단계와;
상기 압축 단계에서 압축된 압축 파일을 웹 서버에 저장하는 압축 파일 저장 단계와;
상기 압축 파일 저장 단계에서 저장된 압축 파일을 분석하여 상기 물품의 각 부분을 구분하는 3D 파일 분석 단계와;
상기 3D 파일 분석 단계에서 구분이 완료된 3D 파일의 물품의 각 부분에 대한 질감 및 색상을 사용자의 선택에 따라 설정하는 렌더링 단계를 포함하는 실시간 렌더링 방법.In the real-time rendering method capable of rendering in real time on the web,
an upload step in which the user uploads the 3D model of the article;
a compression step of compressing a 3D file including 3D modeling of the article uploaded in the upload step;
a compressed file storage step of storing the compressed file compressed in the compression step in a web server;
a 3D file analysis step of analyzing the compressed file stored in the compressed file storage step to classify each part of the article;
and a rendering step of setting the texture and color of each part of the 3D file, which is classified in the 3D file analysis step, according to a user's selection.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190153978A KR20210064989A (en) | 2019-11-26 | 2019-11-27 | Real-time method for rendering 3d modeling |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190153602A KR102091662B1 (en) | 2019-11-26 | 2019-11-26 | Real-time method for rendering 3d modeling |
KR1020190153978A KR20210064989A (en) | 2019-11-26 | 2019-11-27 | Real-time method for rendering 3d modeling |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190153602A Division KR102091662B1 (en) | 2019-11-26 | 2019-11-26 | Real-time method for rendering 3d modeling |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210064989A true KR20210064989A (en) | 2021-06-03 |
Family
ID=70678950
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190153602A KR102091662B1 (en) | 2019-11-26 | 2019-11-26 | Real-time method for rendering 3d modeling |
KR1020190153978A KR20210064989A (en) | 2019-11-26 | 2019-11-27 | Real-time method for rendering 3d modeling |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190153602A KR102091662B1 (en) | 2019-11-26 | 2019-11-26 | Real-time method for rendering 3d modeling |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102091662B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102358596B1 (en) | 2021-10-18 | 2022-02-08 | 주식회사 스튜디오레논 | System, method and program for providing rendering platform providing machine learning-based parallel workflow |
KR102481613B1 (en) | 2022-02-11 | 2022-12-27 | 주식회사 유룸 | System, method and program for providing 3d website making platform with edit function |
KR102537403B1 (en) | 2022-02-11 | 2023-05-26 | 주식회사 유룸 | System, method and program for providing 3d website making platform with 3d contents load function |
KR20230121261A (en) | 2022-02-11 | 2023-08-18 | 주식회사 유룸 | System, method and program for providing 3d website making platform with event build function |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003217528A1 (en) * | 2002-03-26 | 2003-10-08 | So-Woon Kim | System and method for 3-dimension simulation of glasses |
KR100889367B1 (en) * | 2007-03-09 | 2009-03-19 | (주) 이브로드캐스트 | System and Method for Realizing Vertual Studio via Network |
-
2019
- 2019-11-26 KR KR1020190153602A patent/KR102091662B1/en active IP Right Grant
- 2019-11-27 KR KR1020190153978A patent/KR20210064989A/en unknown
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102358596B1 (en) | 2021-10-18 | 2022-02-08 | 주식회사 스튜디오레논 | System, method and program for providing rendering platform providing machine learning-based parallel workflow |
KR102481613B1 (en) | 2022-02-11 | 2022-12-27 | 주식회사 유룸 | System, method and program for providing 3d website making platform with edit function |
KR102537403B1 (en) | 2022-02-11 | 2023-05-26 | 주식회사 유룸 | System, method and program for providing 3d website making platform with 3d contents load function |
KR20230121261A (en) | 2022-02-11 | 2023-08-18 | 주식회사 유룸 | System, method and program for providing 3d website making platform with event build function |
Also Published As
Publication number | Publication date |
---|---|
KR102091662B1 (en) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210064989A (en) | Real-time method for rendering 3d modeling | |
JP6951400B2 (en) | Equipment and methods for supplying content recognition photo filters | |
US9905053B2 (en) | Information processing device, information processing method, and computer program product | |
CN105320695B (en) | Picture processing method and device | |
KR101813394B1 (en) | System and method for providing house interior service | |
US10504264B1 (en) | Method and system for combining images | |
JP7208549B2 (en) | VIRTUAL SPACE CONTROL DEVICE, CONTROL METHOD THEREOF, AND PROGRAM | |
US9542703B2 (en) | Virtual custom framing expert system | |
JP6677890B2 (en) | Information processing system, its control method and program, and information processing apparatus, its control method and program | |
KR20150079387A (en) | Illuminating a Virtual Environment With Camera Light Data | |
US20160148428A1 (en) | Cutout Object Merge | |
CN105005599A (en) | Photograph sharing method and mobile terminal | |
JP7337428B1 (en) | CONTROL METHOD, CONTROL DEVICE, AND RECORDING MEDIUM FOR INTERACTIVE THREE-DIMENSIONAL REPRESENTATION OF OBJECT | |
US20230177832A1 (en) | Enhanced product visualization technology with web-based augmented reality user interface features | |
KR102125382B1 (en) | Method for providing online commerce using real-time rendering 3d modeling | |
CN108353151A (en) | The control method and device of target device | |
KR20130095488A (en) | Apparatus and method for providing three-dimensional model in the smart device | |
CN111640190A (en) | AR effect presentation method and apparatus, electronic device and storage medium | |
JP7219997B1 (en) | How to output blueprints of block objects | |
JP6349915B2 (en) | Terminal device, server, and program | |
US20190293249A1 (en) | Method and apparatus for dynamically projecting and displaying customized decorative images on a building or home | |
CN109739451A (en) | Digital picture methods of exhibiting, apparatus and system | |
TW201944262A (en) | Method and system for augmented reality | |
JP6486077B2 (en) | Display device, server device, display system, control method therefor, control program, and storage medium | |
CN106274112A (en) | A kind of on-the-spot intelligent printing transferring method obtaining customized product and intelligence transferring system |