KR102091662B1 - 3차원 모델링의 실시간 렌더링 방법 - Google Patents

3차원 모델링의 실시간 렌더링 방법 Download PDF

Info

Publication number
KR102091662B1
KR102091662B1 KR1020190153602A KR20190153602A KR102091662B1 KR 102091662 B1 KR102091662 B1 KR 102091662B1 KR 1020190153602 A KR1020190153602 A KR 1020190153602A KR 20190153602 A KR20190153602 A KR 20190153602A KR 102091662 B1 KR102091662 B1 KR 102091662B1
Authority
KR
South Korea
Prior art keywords
file
article
accessory
user
real
Prior art date
Application number
KR1020190153602A
Other languages
English (en)
Inventor
양희재
한정규
문은경
김태은
Original Assignee
로고몬도 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 로고몬도 주식회사 filed Critical 로고몬도 주식회사
Priority to KR1020190153602A priority Critical patent/KR102091662B1/ko
Priority to KR1020190153978A priority patent/KR20210064989A/ko
Application granted granted Critical
Publication of KR102091662B1 publication Critical patent/KR102091662B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/428Real-time

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 웹 상에서 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법에 관한 것이다. 본 발명의 일 실시 예에 따른 실시간 렌더링 방법은, 사용자가 물품의 3D 모델링을 업로드하는 업로드 단계와; 상기 업로드 단계에서 업로드되는 물품의 3D 모델링을 포함하는 3D 파일을 압축하는 압축 단계와; 상기 압축 단계에서 압축된 압축 파일을 웹 서버에 저장하는 압축 파일 저장 단계와; 상기 압축 파일 저장 단계에서 저장된 압축 파일을 분석하여 상기 물품의 각 부분을 구분하는 3D 파일 분석 단계와; 상기 3D 파일 분석 단계에서 구분이 완료된 3D 파일의 물품의 각 부분에 대한 질감 및 색상을 사용자의 선택에 따라 설정하는 렌더링 단계를 포함하되, 상기 압축 단계는, 상기 업로드 단계에서 업로드된 3D 파일을 웹 상에서 압축하는 1차 압축 단계와; 상기 1차 압축 단계가 완료된 3D 파일을 상기 웹 서버 상에서 압축하는 2차 압축 단계를 포함한다.

Description

3차원 모델링의 실시간 렌더링 방법{REAL-TIME METHOD FOR RENDERING 3D MODELING}
본 발명은 웹 상에서 렌더링을 할 수 있는 실시간 렌더링 방법에 관한 것이다.
인터넷과 휴대용 단말기의 보급으로 인해 개인 사용자 간의 정보 공유가 전세계적으로 가능한 시대가 도래하게 되었다. 이러한 기술의 발달로 인해, 종래의 오프라인 매장에서 재화를 거래하던 방식에서 온라인을 통하여 물건을 구매하는 방식으로 소비 패턴도 변화를 거듭하고 있다.
일반적인 온라인 쇼핑몰의 경우, 판매자는 판매하고자 하는 상품을 웹 상에 보여주기 위해서는 상품을 실제로 제작하고 제작된 상품을 직접 촬영하여 업로드하거나, 판매하고자 하는 모든 물품에 대한 디자인이 완료된 이미지를 쇼핑몰 사이트에 업로드할 것이 요구되는 한계가 있다.
본 발명은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법을 제공하기 위한 것이다.
본 발명이 해결하고자 하는 과제는 여기에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명은 웹 상에서 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법을 제공한다. 일 실시 예에 따르면, 실시간 렌더링 방법은, 사용자가 물품의 3D 모델링을 업로드하는 업로드 단계와; 상기 업로드 단계에서 업로드되는 물품의 3D 모델링을 포함하는 3D 파일을 압축하는 압축 단계와; 상기 압축 단계에서 압축된 압축 파일을 웹 서버에 저장하는 압축 파일 저장 단계와; 상기 압축 파일 저장 단계에서 저장된 압축 파일을 분석하여 상기 물품의 각 부분을 구분하는 3D 파일 분석 단계와; 상기 3D 파일 분석 단계에서 구분이 완료된 3D 파일의 물품의 각 부분에 대한 질감 및 색상을 사용자의 선택에 따라 설정하는 렌더링 단계를 포함하되, 상기 압축 단계는, 상기 업로드 단계에서 업로드된 3D 파일을 웹 상에서 압축하는 1차 압축 단계와; 상기 1차 압축 단계가 완료된 3D 파일을 상기 웹 서버 상에서 압축하는 2차 압축 단계를 포함한다.
3D 파일 분석 단계에서는 상기 웹 서버 상에서 자동으로 메시의 차이를 이용하여 상기 압축 파일 파일에 포함된 물품의 각 부분을 구분할 수 있다.
상기 렌더링 단계에서는, 사용자가 이미지를 업로드하면, 사용자의 요청에 의해 상기 이미지 상에 나타나 있는 질감 또는 색상을 상기 압축 파일에 포함된 물품의 모델링에 입힐 수 있는 질감 및 색상 데이터로 변환할 수 있다.
본 발명의 일 실시 예에 따른 실시간 렌더링 방법은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 실시간 렌더링 시스템을 간략하게 보여주는 도면이다.
도 2는 도 1에 도시된 서버의 일 예를 보여주는 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 실시간 렌더링 방법을 보여주는 순서도이다.
도 4는 도 1에 도시된 사용자 단말기의 다른 예를 보여주는 도면이다.
도 5는 도 1의 실시간 렌더링 시스템에 포함될 수 있는 액세서리 인식 보드의 일 예를 보여주는 사시도이다.
도 6은 도 5에 도시된 거리 조절 마크의 일 예를 보여주는 도면이다.
도 7은 도 1의 실시간 렌더링 시스템에 포함될 수 있는 액세서리 인식 보드의 다른 예를 보여주는 사시도이다.
이하, 본 발명의 실시 예를 첨부된 도면들을 참조하여 더욱 상세하게 설명한다. 본 발명의 실시 예는 여러 가지 형태로 변형할 수 있으며, 본 발명의 범위가 아래의 실시 예들로 한정되는 것으로 해석되어서는 안 된다. 본 실시 예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해 제공되는 것이다. 따라서 도면에서의 요소의 형상은 보다 명확한 설명을 강조하기 위해 과장되었다.
도 1은 본 발명의 일 실시 예에 따른 실시간 렌더링 시스템(100)을 간략하게 보여주는 도면이다. 도 1을 참조하면, 실시간 렌더링 시스템(100)은 웹 상에서 실시간으로 렌더링을 수행할 수 있다. 일 실시 예에 따르면, 실시간 렌더링 시스템(100)은 사용자 소프트웨어 및 서버(130)를 포함한다.
사용자 소프트웨어는 사용자 단말기(110)에 설치되고 구동되는 소프트웨어로 제공된다. 예를 들면, 사용자 소프트웨어는 사용자의 PC에서 구동되는 웹브라우저와 연동되는 플러그인 또는 그 외의 웹 기반 응용 프로그램으로 제공될 수 있다. 그 외 사용자 소프트웨어는 사용자의 스마트폰 등의 모바일 스마트 기기에 설치되어 구동되는 앱 등의 다양한 종류의 단말기에서 구동되는 다양한 종류의 응용 프로그램으로 제공될 수 있다.
사용자는 사용자 단말기(110)에서 구동되는 사용자 소프트웨어를 통해 렌더링 하고자 하는 물품의 3D 모델링을 포함하는 3D 파일을 업로드하고, 업로드한 3D 파일에 렌더링을 수행함으로써 물품의 각 부분에 대해 적용 가능한 질감 및 색상을 설정할 수 있다. 사용자 소프트웨어는 설정된 질감 및 색상을 각 물품 및 물품의 각 부분에 대해 분류하여 서버(130)에 저장시킬 수 있다.
또한, 사용자 소프트웨어는 사용자의 명령에 의해 또는 개발자에 의한 설정에 의해 자동으로 3D 파일 및 렌더링 중이거나 렌더링이 완료된 물품의 3D 이미지가 포함된 파일을 서버(130)로 저장시킬 수 있고, 또한 서버(130)로부터 상기 파일들을 다운로드할 수 있다. 또한, 사용자 소프트웨어는 3D 파일의 물품 이미지 및 3D 파일의 렌더링 과정을 사용자 단말기(110)를 통해 실시간으로 출력할 수 있다.
사용자는 사용자 소프트웨어를 통해 사용자가 렌더링한 물품의 이미지를 서버(130)에 저장하여 수시로 다운로드하여 확인할 수 있다. 또한, 서버(130)에 저장된 렌더링이 완료된 물품의 이미지는 웹 상에서 제 3 자가 다운로드하여 확인할 수 있도록 제공될 수 있다.
도 2는 도 1에 도시된 서버의 일 예를 보여주는 블록도이다. 도 1 및 도 2를 참조하면, 서버(130)는 통신부(131), 저장부(132), 프로세싱 유닛(133) 및 프로그램 관리 유닛(134)을 포함할 수 있다.
통신부(131)는 사용자 단말기(110)와 데이터를 송수신한다. 예를 들면, 통신부(131)는 사용자 단말기(110)로부터 물품의 모델링이 포함된 3D 파일, 사용자에 의한 렌더링이 완료된 물품의 이미지 파일, 그리고 사용자에 의해 설정된 물품별 질감 및 색상 관련 데이터 등을 수신할 수 있다. 통신부(131)는 사용자 단말기(110)로 저장부(132)에 저장된 3D 파일과 질감 및 색상과 관련된 데이터와 렌더링이 완료된 물품의 이미지 파일 등을 송신할 수 있다. 통신부(131)는 필요에 따라 상술한 데이터 외의 데이터를 사용자 단말기(110)와 송수신할 수 있다.
저장부(132)는 통신부(131)로부터 수신되는 데이터, 실시간 렌더링 시스템(100)의 개발자에 의해 입력된 데이터 그리고 서버(130)에서 생성된 데이터를 저장한다. 예를 들면, 저장부(132)는 사용자 단말기(110)로부터 수신된 3D 파일 및 렌더링이 완료된 물품의 이미지 파일, 그리고 사용자에 의해 설정된 물품별 질감 및 색상 관련 데이터 등을 저장할 수 있다. 그 외 저장부(132)는 필요에 따라 상술한 데이터 외의 데이터를 저장할 수 있다.
프로세싱 유닛(133)은 서버(130)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세싱 유닛(133)은 저장부(132)의 데이터에 접근(access)하고, 아래에서 설명될 실시간 렌더링 방법을 실행하기 위한 알고리즘이나 프로그램 명령을 실행함으로써, 서버(130)를 구동할 수 있다. 또한, 프로세싱 유닛(133)은 서버(130)의 여러 구성 요소들을 제어하는 컨트롤러, 인터페이스, 그래픽 엔진 등을 포함할 수 있다. 프로세싱 유닛(133)은 SoC(system-on-chip), ASIC(application specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있다.
프로그램 관리 유닛(134)은 사용자 단말기(110)에 실시간 렌더링 시스템(100)을 이용하기 위한 사용자 소프트웨어를 제공하거나 설치하도록 지원할 수 있다.
사용자 단말기(110) 및 서버(130)는 네트워크(200)에 연결되어 서로 데이터를 송수신할 수 있다. 일 실시 예에 따르면, 네트워크(200)는 인터넷(웹)일 수 있다. 이 경우, 서버(130)는 인터넷(웹) 상에 연결된 웹 서버로 제공될 수 있다.
이하, 설명의 편의를 위해 도 1의 실시간 렌더링 시스템(100)을 이용하여 실행되는 본 발명의 실시 예에 따른 실시간 렌더링 방법에 대해 설명한다. 이와 달리, 본 발명의 실시 예에 따른 실시간 렌더링 방법은 다양한 종류의 시스템에 의해 실행될 수 있다.
도 3은 본 발명의 일 실시 예에 따른 실시간 렌더링 방법을 보여주는 순서도이다. 도 3을 참조하면, 실시간 렌더링 방법은 웹 상에서 실시간으로 렌더링을 수행하고, 렌더링이 완료된 이미지 및/또는 렌더링을 통해 설정한 물품에 적용 가능한 질감 및 색상에 관한 데이터를 웹 상에 제공할 수 있다. 일 실시 예에 따르면, 실시간 렌더링 방법는 업로드 단계(S110), 압축 단계(S120), 압축 파일 저장 단계(S130), 3D 파일 분석 단계(S140) 및 렌더링 단계(S150)를 포함할 수 있다. 업로드 단계(S110), 압축 단계(S120), 압축 파일 저장 단계(S130), 3D 파일 분석 단계(S140) 및 렌더링 단계(S150)는 순차적으로 수행될 수 있다. 3D 모델링은 상하좌우 방향으로 360° 회전시켜 바라보는 전 방향에 대해 형상을 확인할 수 있도록 제공될 수 있다.
업로드 단계(S110)에서 사용자는 렌더링하고자 하는 물품의 질감 또는 색상이 입혀지지 않은 3D 모델링을 포함하는 3D 파일을 사용자 단말기(110)의 사용자 소프트웨어를 통해 업로드 한다. 일 실시 예에 따르면 업로드되는 3D 파일의 확장자는 “.obj” 등 일 수 있다.
압축 단계(S120)에서는 사용자에 의해 업로드된 물품의 3D 파일이 압축된다. 일 실시 예에 따르면 압축 단계(S120)는 1차 압축 단계(S121) 및 2차 압축 단계(S122)를 포함한다.
1차 압축 단계(S121)에서는 업로드 단계(S110)에서 업로드된 3D 파일을 *.glb 형식으로 변환하는 과정을 통해 압축이 진행될 수 있다. 일 실시 예에 따르면, 1차 압축 단계(S121)는 웹 상에서 바로 압축된다. 예를 들면, 1차 압축 단계(S121)는 사용자가 3D 파일을 업로드한 사용자 단말기(110)에서 구동되는 사용자 소프트웨어에 의해서 수행될 수 있다. 따라서, 1차 압축 단계(S121)는 별도의 서버(130) 등으로의 다운로드 과정이 요구되지 않는다.
기존의 압축 프로그램들의 경우, 동영상이나 이미지 또는 텍스트에 한해서 약 90%의 압축률을 보인다. 이에 반해, 본 실시 예에 따른 압축 방법에 의하면 3D 파일을 95% 이상의 효율로 웹 상에서 압축할 수 있다. 예를 들면, 1000MB 크기의 3D 파일을 50MB까지 압축할 수 있으며, 약 100MB까지의 압축 성능을 보이는 기존 압축 프로그램에 비해 2배 가량의 높은 효율의 압축이 가능하다.
2차 압축 단계(S122)에서는 1차 압축 단계(S121)에서 압축된 *.glb 형식의 파일을 *.gltf 파일로 변환하는 과정을 통해 진행될 수 있다. 2차 압축 단계(S122)는 서버(130) 상에서 진행될 수 있다. 2차 압축 단계(S122)에서의 압축 효율은 약 96%이다. 따라서, 1차 압축 단계(S121) 및 2차 압축 단계(S122)를 거친 최종 압축 효율은 최소 98%이다.
압축 파일 저장 단계(S130)에서 압축되어 생성된 *.glb 형식의 파일은 서버(130)의 저장부(132)에 저장된다.
3D 파일 분석 단계(S140)에서는 압축 파일 저장 단계(S130)에서 저장된 *.glb 형식의 파일을 분석하여 *.glb 형식의 압축 파일에 포함된 이미지 상의 물품의 각 부분을 구분한다. 일 실시 예에 따르면, 3D 파일 분석 단계(S140)에서는 압축 파일 저장 단계(S130)에서 저장된 압축 파일의 다운로드 없이 서버(130)에서 자동으로 메시의 차이를 이용하여 물품의 각 부분을 구분할 수 있다. 이 경우, 분석에 의해 구분된 결과는 사용자 단말기(110)를 통해 출력되고, 사용자는 사용자 소프트웨어를 이용하여 구분된 각 부분에 명칭을 부여할 수 있다. 예를 들면, 물품이 셔츠인 경우, 3D 파일 분석 단계(S140)에서 셔츠는 소매, 주머니, 전면부, 후면부 및 카라 등으로 자동으로 구분되고, 사용자는 구분된 각 부분에 대해 “소매”, “주머니”, “전면부”, “후면부” 및 “카라” 등으로 명칭을 부여할 수 있다. 일 실시 예에 따르면, 3D 파일 분석 단계(S140)에서는 하나의 3D 파일의 물품이 각 메시 형태로 구분될 때마다 각 부분에 대해 사용자가 명칭을 부여할 수 있다.
이와 달리, 3D 파일 분석 단계(S140)에서는 사용자가 3D 파일의 물품의 메시를 직접 선택하여 각 부분을 구분할 수 있다. 이와 같이 구분된 각 부분 또한 사용자에 의해 명칭이 부여될 수 있다.
렌더링 단계(S150)에서는 3D 파일 분석 단계(S140)에서 구분이 완료된 3D 파일의 물품의 각 부분별로 적용 가능한 질감 및 색상을 사용자 소프트웨어를 통한 사용자의 선택에 따라 설정한다. 일 실시 예에 따르면, 렌더링 단계(S150)는 물품의 3D 모델링을 상하좌우 360° 전 방향으로 회전시켜 바라보는 전 방향에 대한 형상에 대해 수행될 수 있다.
일 실시 예에 따르면, 렌더링 단계(S150)에서는 실시간 렌더링 시스템(100)의 개발자에 의해 기본적으로 입력된 질감 및 색상을 이용하여 렌더링이 수행될 수 있다. 이와 달리, 렌더링 단계(S150)에서 사용자는 웹 서핑이나 그 외의 방법으로 획득한 이미지 파일을 업로드하고, 사용자의 사용자 소프트웨어를 통한 요청에 의해 사용자 소프트웨어 또는 서버(130)는 그 이미지 상에 나타나 있는 질감 및 색상을 압축 파일의 물품의 모델링에 입힐 수 있는 질감 및 색상 데이터로 변환시킬 수 있다. 사용자는 이와 같이 획득한 질감 및 색상 데이터를 이용하여 렌더링을 수행할 수 있다. 따라서, 사용자는 본 발명의 실시 예에 따른 실시간 렌더링 시스템(100) 및 방법을 이용하여, 판매하고자 하는 물품의 모든 재질 및 색상 조합의 이미지를 별도로 준비하지 않아도 웹 상에서 원하는 모든 조합의 재질 및 색상 조합의 물품을 디자인할 수 있다.
렌더링 단계(S150)에서 설정된 질감 및 색상 데이터는 서버(130)의 저장부(132)에 저장될 수 있다.
렌더링 단계(S150)에서 수행되는 렌더링 과정은 사용자 소프트웨어에 의해 사용자 단말기(110)를 통해 실시간으로 출력될 수 있다.
또한, 렌더링 단계(S150)에서 각 부분별 재질 및 색상을 입히는 작업이 완료된 물품의 이미지 파일은 웹 상에 제공되어 제 3 자가 확인할 수 있도록 제공될 수 있다.
도 4는 도 1에 도시된 사용자 단말기의 다른 예를 보여주는 도면이다. 도 4를 참조하면, 사용자 단말기(110a)는 PC(111) 및 스마트 모바일 단말기(112)를 포함할 수 있다. 스마트 모바일 단말기(112)는 터치 스크린이 제공된 스마트폰 또는 테블릿 PC로 제공된다. 이 경우, 사용자 소프트웨어는 PC(111) 및 스마트 모바일 단말기(112)에 설치될 수 있다. 렌더링 단계(S150)에서 PC(111) 및 스마트 모바일 단말기(112)가 USB 연결 방식 등에 의해 서로 연결된 경우, 사용자는 물품의 색상 설정 시 손가락이나 터치스크린용 펜 등을 이용하여 스마트 모바일 단말기(112)의 터치 스크린에 접촉시킨 상태에서 일방향 및 일방향에 반대 방향인 타방향으로 드레그시킴으로써 색상의 명도를 조절할 수 있다. 예를 들면, 위방향으로 드레그하는 경우 명도가 증가하고, 아래방향으로 드래그하는 경우 명도가 감소할 수 있다.
도 5는 도 1의 실시간 렌더링 시스템(100)에 포함될 수 있는 액세서리 인식 보드(140)의 일 예를 보여주는 사시도이다. 도 6은 도 5에 도시된 거리 조절 마크(142)의 일 예를 보여주는 도면이다. 도 5 및 도 6을 참조하면, 실시간 렌더링 시스템(100)은 액세서리 인식 보드(140)를 더 포함할 수 있다. 일 실시 예에 따르면, 액세서리 인식 보드(140)는 본체(141), 거리 조절 마크(142) 및 인식 바코드(143)를 포함할 수 있다.
본체(141)에는 액세서리가 놓인다. 거리 조절 마크(142)는 촬영시 본체(141)의 액세서리가 놓이는 면 및 카메라 간의 거리를 측정하기 위해 제공된다. 거리 조절 마크(142)에 대해서는 아래에 보다 자세히 설명한다.
인식 바코드(143)는 본체(141)에 놓이는 액세서리의 종류를 나타낸다. 액세서리 인식 보드(140)에 액세서리를 안착시킨 후 촬영된 이미지 파일에서 사용자 소프트웨어는 인식 바코드(143)를 통해 액세서리의 종류를 파악함으로써 보다 쉽게 액세서리를 인식할 수 있다. 인식 바코드(143)는 본체(141)에 탈착 가능하게 제공될 수 있다. 따라서, 인식 바코드(143)는 액세서리 인식 보드(140)에 놓일 액세서리의 종류에 대응되는 인식 바코드(143)로 교체되어 본체(141)에 부착될 수 있다.
액세서리 인식 보드(140)가 제공되고, 사용자 단말기(110)가 카메라를 포함하는 스마트 모바일 단말기로 제공되는 경우, 렌더링 단계(S150)에서 사용자는 3D 파일의 물품에 적용하고자 하는 액세서리를 본체(141)에 안착시키고, 사용자 단말기(110)의 화면에 액세서리와 함께 액세서리 인식 보드(140)가 함께 잡히도록 사용자 단말기(110)의 거리를 조절한다. 이 후, 사용자가 사용자 단말기(110) 및 본체(141) 간의 거리를 조절하여 거리 조절 마크(142)의 크기가 사용자 단말기(110)의 화면 상에 도시되는 틀의 범위 내로 일정 비율 이상을 차지하도록 들어오면, 사용자 소프트웨어는 자동으로 액세서리를 촬영하도록 사용자 단말기(110)를 제어할 수 있다. 예를 들면, 거리 조절 마크(142)는 제1 색을 가지는 외측 사각형(142a) 내에 제1 색과 다른 제2 색을 가지고 각 변이 외측 사각형(142a)의 각 변으로부터 동일한 간격으로 이격되도록 내측 사각형(142b)이 제공되는 형상으로 제공될 수 있다. 그리고, 사용자 단말기(110)의 화면에 임시로 도시되는 틀은 내측 사각형(142b)과 가로 세로 비율이 동일한 사각형 형상으로 제공될 수 있다. 거리 조절 마크(142)가 틀의 내부에 위치되는지 여부는 내측 사각형(142b)이 틀의 내부에 위치되는지 여부로 결정될 수 있다. 또한, 틀의 내부에서 거리 조절 마크(142)가 차지하는 비율은 내측 사각형(142b)이 틀의 내부를 차지하는 비율로 계산될 수 있다.
촬영된 액세서리 이미지는 렌더링 단계(S150)에서 사용자의 선택에 의해 물품에 적용될 수 있다. 액세서리가 적용되는 위치는 사용자가 사용자 소프트웨어를 이용하여 조절할 수 있다.
상술한 바와 같이, 액세서리 인식 보드(140)를 사용함으로써, 카메라로부터 항상 일정한 거리에 위치된 액세서리를 촬영할 수 있으므로 렌더링 단계(S150)에서 보다 실제 크기에 가까운 액세서리를 물품에 적용시킬 수 있다.
도 7은 도 1의 실시간 렌더링 시스템(100)에 포함될 수 있는 액세서리 인식 보드(140a)의 다른 예를 보여주는 사시도이다. 도 7을 참조하면, 액세서리 인식 보드(140a)는 복수개가 서로 일 방향으로 배열되도록 결합 가능하게 제공될 수 있다.
액세서리 인식 보드(140a)는 서로 결합 부재(144)에 의해 탈착 가능하게 결합될 수 있다. 예를 들면, 결합 부재(144)는 서로 접하도록 결합되는 액세서리 인식 보드(140a)의 서로를 바라보는 면 중 하나에는 자석이 다른 하나에는 철재질의 부재가 제공될 수 있다. 이와 달리, 상기 면 중 하나와 다른 하나에는 각각 다른 극이 마주보도록 자석이 제공될 수 있다.
각각의 본체(141)에 부착된 인식 바코드(143)는 서로 다른 종류의 액세서리를 나타낼 수 있다. 이와 달리, 각각의 본체(141)에 부착된 인식 바코드(143)는 서로 같은 종류의 액세서리를 나타낼 수 있다. 예를 들면, 액세서리 인식 보드(140a)가 3개로 제공되는 경우, 하나는 단추를 나타내는 인식 바코드(143)가 부착되고, 다른 하나는 보타이를 나타내는 인식 바코드(143)가 부착되고, 또 다른 하나는 포켓치프를 나타내는 인식 바코드(143)가 부착될 수 있다.
실시간 렌더링 시스템(100)이 도 7에 도시된 액세서리 인식 보드(140a)를 포함하는 경우, 렌더링 단계(S150)에서 사용자는 사용자 단말기(110)를 이용하여 한번에 복수개의 액세서리를 촬영할 수 있다. 예를 들면, 사용자는 각각의 액세서리 인식 보드(140a)의 인식 바코드(143)에 대응되는 액세서리를 안착시키고, 사용자 단말기(110)의 화면에 액세서리와 함께 모든 액세서리 인식 보드(140a)가 함께 잡히도록 사용자 단말기(110)의 거리를 조절한다. 이 후, 사용자가 사용자 단말기(110) 및 본체(141) 간의 거리를 조절하여 거리 조절 마크(142) 중 하나의 크기가 사용자 단말기(110)의 화면 상에 임시로 도시되는 틀의 범위 내로 일정 비율 이상을 차지하도록 들어오면, 사용자 소프트웨어는 자동으로 액세서리를 촬영하도록 사용자 단말기(110)를 제어할 수 있다. 상기 하나의 거리 조절 마크(142)는 복수개의 액세서리 인식 보드(140a) 중 가운데 위치한 액세서리 인식 보드(140a)의 거리 조절 마크(142)일 수 있다. 틀은 사용자의 사용자 소프트웨어를 이용한 모드 변경을 통해 화면에 잡히는 액세서리 인식 보드(140a)의 수가 증가함에 따라 거리 조절 마크(142) 및 카메라 간에 멀어지는 거리에 대응되는 크기로 조절될 수 있다.
촬영된 액세서리 이미지는 각각 렌더링 단계(S150)에서 사용자의 선택에 의해 물품에 적용될 수 있다. 액세서리가 적용되는 위치는 사용자가 사용자 소프트웨어를 이용하여 조절할 수 있다.
이와 달리, 각각의 액세서리 인식 보드(140a)는 도 5의 액세서리 인식 보드(140)와 같이 액세서리 촬영시 각각 독립적으로 하나씩 사용될 수 있다.
한편, 도 7에서와 같이, 세 개의 액세서리 인식 보드(140a)가 결합하여 촬영 시에는 중간에 위치되는 액세서리 인식 보드(140a)에는 제2거리 조절 마크(242)가 추가 적용될 수 있다.
이 경우에는 상기 제2거리 조절 마크(242)를 이용 상기 세 개의 액세서리 인식 보드(140a) 각각의 거리 조절 마크(142)를 이용하지 않고 한 개의 상기 제2거리 조절 마크(242)를 이용 보다 편리한 사용 및 작업이 가능하게 된다.
여기서, 상기 제2거리 조절 마크(242)는 스티커 방식으로 이루어져 필요 시 세 개의 액세서리 인식 보드(140a)가 결합되는 경우 중앙에 배치된 액세서리 인식 보드(140a)에 붙여 사용이 가능할 것이다.
상술한 바와 같이, 본 발명의 실시 예에 따른 실시간 렌더링 시스템 및 방법은 사용자가 웹 상에서 렌더링 전의 물품의 3D 모델링에 실시간으로 렌더링을 수행함으로써, 쉽게 다양한 물품 디자인을 생성할 수 있다.
또한, 본 발명의 실시 예에 따른 실시간 렌더링 시스템 및 방법은 온라인 쇼핑몰에 적용되는 경우, 사용자는 판매하고자 하는 모든 물품의 디자인이 완료된 이미지를 준비하지 않아도 웹 상에서 바로 가능한 질감 및 색상 조합의 모든 경우의 수에 대한 렌더링을 수행할 수 있다.
이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위내에서 변경 또는 수정이 가능하다. 저술한 실시예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.
100: 실시간 렌더링 시스템 110, 110a: 사용자 단말기
130: 서버 140, 140a: 액세서리 인식 보드
141: 본체 142: 거리 조절 마크
143: 인식 바코드 144: 결합 부재
200: 네트워크

Claims (3)

  1. 웹 상에서 실시간으로 렌더링을 수행할 수 있는 실시간 렌더링 방법에 있어서,
    사용자가 물품의 3D 모델링을 업로드하는 업로드 단계와;
    상기 업로드 단계에서 업로드되는 물품의 3D 모델링을 포함하는 3D 파일을 압축하는 압축 단계와;
    상기 압축 단계에서 압축된 압축 파일을 웹 서버에 저장하는 압축 파일 저장 단계와;
    상기 압축 파일 저장 단계에서 저장된 압축 파일을 분석하여 상기 물품의 각 부분을 구분하는 3D 파일 분석 단계와;
    상기 3D 파일 분석 단계에서 구분이 완료된 3D 파일의 물품의 각 부분에 대한 질감 및 색상을 사용자의 선택에 따라 설정하는 렌더링 단계를 포함하되,
    상기 압축 단계는,
    상기 업로드 단계에서 업로드된 3D 파일을 웹 상에서 압축하는 1차 압축 단계와;
    상기 1차 압축 단계가 완료된 3D 파일을 상기 웹 서버 상에서 압축하는 2차 압축 단계를 포함하고,
    상기 렌더링 단계에서는,
    사용자가 이미지를 업로드하면, 사용자의 요청에 의해 상기 이미지 상에 나타나 있는 질감 또는 색상을 상기 압축 파일에 포함된 물품의 모델링에 입힐 수 있는 질감 및 색상 데이터로 변환하고,
    스마트 모바일 단말기의 터치 스크린을 드래그 함으로써 상기 물품의 상기 모델링에 설정될 색상의 명도를 조절하고,
    액세서리가 놓이는 본체, 상기 본체에 제공되는 거리 조절 마크 및 상기 본체에 놓이는 액세서리의 종류를 나타내는 인식 바코드를 포함하는 액세서리 인식 보드를 이용하여 액세서리를 촬영하고 촬영된 액세서리의 이미지를 상기 물품의 모델링에 적용하되, 상기 본체에 안착된 액세서리를 카메라를 이용하여, 촬영되는 화면에서 상기 거리 조절 마크의 비율이 일정 비율 범위 내가 되도록 촬영하고, 상기 인식 바코드를 인식하여 상기 본체에 안착된 액세서리의 종류를 식별하는 실시간 렌더링 방법.
  2. 제 1 항에 있어서,
    3D 파일 분석 단계에서는
    상기 웹 서버 상에서 자동으로 메시의 차이를 이용하여 상기 물품의 각 부분을 구분하는 실시간 렌더링 방법.
  3. 삭제
KR1020190153602A 2019-11-26 2019-11-26 3차원 모델링의 실시간 렌더링 방법 KR102091662B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190153602A KR102091662B1 (ko) 2019-11-26 2019-11-26 3차원 모델링의 실시간 렌더링 방법
KR1020190153978A KR20210064989A (ko) 2019-11-26 2019-11-27 3차원 모델링의 실시간 렌더링 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190153602A KR102091662B1 (ko) 2019-11-26 2019-11-26 3차원 모델링의 실시간 렌더링 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190153978A Division KR20210064989A (ko) 2019-11-26 2019-11-27 3차원 모델링의 실시간 렌더링 방법

Publications (1)

Publication Number Publication Date
KR102091662B1 true KR102091662B1 (ko) 2020-05-15

Family

ID=70678950

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190153602A KR102091662B1 (ko) 2019-11-26 2019-11-26 3차원 모델링의 실시간 렌더링 방법
KR1020190153978A KR20210064989A (ko) 2019-11-26 2019-11-27 3차원 모델링의 실시간 렌더링 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020190153978A KR20210064989A (ko) 2019-11-26 2019-11-27 3차원 모델링의 실시간 렌더링 방법

Country Status (1)

Country Link
KR (2) KR102091662B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102358596B1 (ko) 2021-10-18 2022-02-08 주식회사 스튜디오레논 머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램
KR102537403B1 (ko) 2022-02-11 2023-05-26 주식회사 유룸 3d 컨텐츠 배치 기능을 갖는 3d 웹사이트 제작 플랫폼 제공 시스템, 방법 및 프로그램
KR102481613B1 (ko) 2022-02-11 2022-12-27 주식회사 유룸 편집 기능을 갖는 3d 웹사이트 제작 플랫폼 제공 시스템, 방법 및 프로그램
KR102605698B1 (ko) 2022-02-11 2023-11-24 주식회사 유룸 이벤트 생성 기능을 갖는 3d 웹사이트 제작 플랫폼 제공 시스템, 방법 및 프로그램

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040097200A (ko) * 2002-03-26 2004-11-17 김소운 3차원 안경 시뮬레이션 시스템 및 방법
KR20080082759A (ko) * 2007-03-09 2008-09-12 (주) 이브로드캐스트 네트워크를 통한 가상 스튜디오 구현 시스템 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040097200A (ko) * 2002-03-26 2004-11-17 김소운 3차원 안경 시뮬레이션 시스템 및 방법
KR20080082759A (ko) * 2007-03-09 2008-09-12 (주) 이브로드캐스트 네트워크를 통한 가상 스튜디오 구현 시스템 및 그 방법

Also Published As

Publication number Publication date
KR20210064989A (ko) 2021-06-03

Similar Documents

Publication Publication Date Title
KR102091662B1 (ko) 3차원 모델링의 실시간 렌더링 방법
JP7150117B2 (ja) コンテンツ認識フォトフィルタを供給するための装置および方法
US20130258045A1 (en) Method and system of spacial visualisation of objects and a platform control system included in the system, in particular for a virtual fitting room
CN105320695B (zh) 图片处理方法及装置
US11087432B2 (en) Multistage neural network processing using a graphics processor
US10223812B2 (en) Image validation
JP5964427B2 (ja) 対話的カスタマイズ可能製品の自動生産に対する製作パターンの適用
JP7208549B2 (ja) 仮想空間制御装置、その制御方法、及びプログラム
US10504264B1 (en) Method and system for combining images
CN105005599A (zh) 一种照片分享方法及移动终端
WO2019052371A1 (zh) 3d模型数据处理方法、装置及系统
CN108353151A (zh) 目标设备的控制方法和装置
CN115735231A (zh) 基于产品数据的增强现实内容
US20210232875A1 (en) Using augmented reality to perform complex print jobs
Kingsland A comparative analysis of two commercial digital photogrammetry software for cultural heritage applications
KR102639725B1 (ko) 애니메이티드 이미지를 제공하기 위한 전자 장치 및 그에 관한 방법
KR102125382B1 (ko) 3차원 모델링의 실시간 렌더링을 활용한 온라인 커머스 제공 방법
US11604904B2 (en) Method and system for space design
US10860876B2 (en) Image presentation system, image presentation method, program, and recording medium
US10366470B2 (en) Object separation for scanned assets
CN113837181B (zh) 一种筛选方法、装置、计算机设备及计算机可读存储介质
CN110941731A (zh) 颜色确定方法、面料定制方法及装置
KR20190023486A (ko) 3차원 피팅 방법 및 장치
KR101510243B1 (ko) 클리핑 이미지 생성 및 공유 시스템
US10552888B1 (en) System for determining resources from image data

Legal Events

Date Code Title Description
GRNT Written decision to grant