KR102469624B1 - 채색된 3차원 디지털 모델 생성 - Google Patents

채색된 3차원 디지털 모델 생성 Download PDF

Info

Publication number
KR102469624B1
KR102469624B1 KR1020207030266A KR20207030266A KR102469624B1 KR 102469624 B1 KR102469624 B1 KR 102469624B1 KR 1020207030266 A KR1020207030266 A KR 1020207030266A KR 20207030266 A KR20207030266 A KR 20207030266A KR 102469624 B1 KR102469624 B1 KR 102469624B1
Authority
KR
South Korea
Prior art keywords
dimensional digital
digital model
model
colored
dimensional
Prior art date
Application number
KR1020207030266A
Other languages
English (en)
Other versions
KR20200135993A (ko
Inventor
요 한 박
Original Assignee
이베이 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이베이 인크. filed Critical 이베이 인크.
Priority to KR1020227040296A priority Critical patent/KR20220158866A/ko
Publication of KR20200135993A publication Critical patent/KR20200135993A/ko
Application granted granted Critical
Publication of KR102469624B1 publication Critical patent/KR102469624B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Library & Information Science (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

채색된 3차원 디지털 모델 생성 기술들 및 시스템들이 설명된다. 한 예에서, 3차원 디지털 모델을 형성하기 위해 팩키징 내에 배치되는 동안 물리적 객체를 스캔하는, 스캔 기술이 스캔 시스템에 의해 채용된다. 3차원 디지털 모델을 채색하기 위해 모델 채색 시스템이 채용된다. 동일하거나 유사한 물리적 객체를 캡처하는 2차원 디지털 이미지가 채용된다. 한 예에서, 모델의 피처들이 이미지에 정합된다. 그 다음, 이것은, 예를 들어 모델의 어떤 "뷰"가 이미지와 대응하는지를 찾기 위해, 모델에 관한 관찰 관점을 디지털 이미지 내의 객체의 관찰 관점과 정렬하는데 이용된다. 그 다음, 디지털 이미지로부터 모델로, 예를 들어, 이미지의 픽셀들로부터 모델의 대응하는 포인트들로 색상이 적용된다.

Description

채색된 3차원 디지털 모델 생성
관련 출원
본 출원은, 그 전체 개시내용이 참조에 의해 본 명세서에 포함되는, 2018년 6월 1일 출원된 발명의 명칭이 "Colored Three-Dimensional Digital Model Generation"인 미국 출원 15/996,289호의 우선권을 주장한다.
배경
사용자가 컴퓨팅 디바이스를 통해 디지털 콘텐츠와 상호작용할 수 있는 방식을 증가시키기 위해 3차원 디지털 모델이 개발되었다. 예를 들어, 3차원 디지털 모델은, 컴퓨팅 디바이스에 의해 모델을 보는데 이용되는 관점을 변경하기 위한 사용자 상호작용을 지원하도록 구성될 수 있다. 결과적으로, 컴퓨팅 디바이스를 통한 3차원 디지털 모델과의 사용자 상호작용은 실제 물리적 객체에 관해 사용자 상호작용이 발생하는 방식으로 모방할 수 있다. 이것은, 사용자가 상이한 2차원 디지털 이미지에 의해 지원되는 상이한 뷰들을 네비게이션하는 것과는 달리, 비-양식적 방식(non-modal manner)으로 이들 관점들을 효율적으로 네비게이션할 수 있다는 점에서 2차원 디지털 이미지에 관한 사용자 상호작용의 풍부함을 증가시키는 역할을 한다.
그러나, 3차원 디지털 모델을 생성하는데 이용되는 종래 기술은 복잡하고 계산 비용이 많이 들며 일반적으로 상당한 양의 사용자 상호작용 및 전문 지식을 수반하므로, 이들 종래 기술이 일반 사용자에게 이용되기 어렵게 한다. 추가로, 모델의 형성은 일부 경우에 모델 생성에 있어서의 사용자의 의도에 해로운 영향을 미칠 수 있다. 예를 들어, 사용자가 원래 팩키징 상태의 빈티지 장난감을 판매하려고 한다고 가정하자. 팩키징 내에 장난감을 포함시키는 것은, 종종 장난감 전체로서의 금전적 가치를 증가시킨다. 따라서, 팩키징으로부터 장난감의 제거를 수반하는 종래의 모델링 기술의 이용은 이 금전적 가치에 부정적인 영향을 미치고 장난감을 판매하려는 사용자의 희망에 반할 수 있다. 따라서, 장난감을 판매 제안하는 디지털 콘텐츠의 일부로서 3차원 디지털 모델을 제공하는 등을 위해서, 종래의 모델링 기술은 사용자에게 이용가능하지 않을 수 있다.
채색된 3차원 디지털 모델 생성 기술 및 시스템이 설명된다. 하나의 예에서, 스캔 기술은 3차원 디지털 모델을 형성하기 위해 팩키징 내에 배치되는 동안 물리적 객체를 스캔하는 스캔 시스템에 의해 채용된다. 3차원 디지털 모델을 채색하기 위해 모델 채색 시스템이 채용된다. 이를 위해, 동일하거나 유사한 물리적 객체를 캡처하는 2차원 디지털 이미지가 채용된다. 디지털 이미지의 색상을 모델에 적용하기 위해 다양한 기술이 이용가능하다. 한 예에서, 모델의 피처가 이미지에 정합된다. 그 다음, 이것은, 예를 들어 모델의 어떤 "뷰"가 이미지와 대응하는지를 발견하기 위해, 모델에 관한 관찰 관점을 디지털 이미지 내의 객체의 관찰 관점과 정렬하는데 이용된다. 그 다음, 디지털 이미지로부터 모델로, 예를 들어, 이미지의 픽셀로부터 모델의 대응하는 포인트로 색상이 적용된다. 한 예에서, 디지털 이미지의 대응하는 부분을 늘리고 압축하여 이 색상을 공급하기 위해 왜곡 기술이 이용된다. 다른 예는, 모델의 초기 버전의 채색되지 않은 부분의, 초기 버전의 채색된 부분으로의 스테레오 정합, 패치 정합 기술 등을 포함한다.
본 요약은, 이하의 상세한 설명에서 더 설명되는 선발된 개념들을 간략화된 형태로 소개한다. 따라서, 본 요약은 청구 대상의 본질적 피처를 식별하기 위함도 아니고, 청구 대상의 범위를 결정하는데 있어서 보조물로서 이용하고자 함도 아니다.
특허 또는 출원 파일은 컬러로 작성된 적어도 하나의 도면을 포함한다. 컬러 도면(들)들과 더불어 본 특허 또는 특허출원 공개의 사본은, 요청시 필요한 요금의 지불과 함께 특허청에 의해 제공될 것이다. 첨부된 도면들을 참조하여 상세한 설명이 이루어진다. 도면에 나타낸 엔티티는 하나 이상의 엔티티를 나타낼 수 있으므로, 본 논의에서 단일 형태의 또는 복수 형태의 엔티티를 서로 바꾸어 참조할 수 있다.
도 1은 본 명세서에 설명된 채색된 3차원 디지털 모델 생성 기술을 채용하도록 동작할 수 있는 예시적인 구현에서의 한 환경의 예시이다.
도 2는 도 1의 스캔 시스템 및 모델 채색 시스템의 동작을 더 상세히 도시한다.
도 3은, 팩키징을 관통하여 물리적 객체를 스캔함으로써 3차원 디지털 모델을 생성하는 도 2의 스캔 시스템의 동작을 더 상세히 도시한다.
도 4는, 2차원 디지털 이미지와 도 3에서 생성된 3차원 디지털 모델 사이의 피처 정합을 채용하는 모델 채색 시스템의 동작을 도시한다.
도 5는 3차원 디지털 모델을 채색하는 모델 채색 시스템의 동작을 도시한다.
도 6은 도 5의 3차원 디지털 모델을 포함하는 디지털 콘텐츠의 생성을 도시한다.
도 7a는 도 6의 3차원 디지털 모델을 포함하는 디지털 콘텐츠의 한 예를 도시한다.
도 7b는 가상 및 증강 현실 시나리오들에서 디지털 콘텐츠의 출력의 다른 예시적인 구현을 도시한다.
도 8은 채색된 3차원 디지털 모델 생성의 한 예시적인 구현의 절차를 도시하는 흐름도이다.
도 9는 여기서 설명된 기술의 실시예를 구현하기 위해 도 1 내지 도 8을 참조하여 설명된 임의의 유형의 컴퓨팅 디바이스로서 구현 및/또는 이용될 수 있는 예시적인 디바이스의 다양한 컴포넌트를 포함하는 예시적인 시스템을 도시한다.
개요
3차원 디지털 모델을 생성하는데 이용되는 종래 기술은 복잡하고, 계산 비용이 많이 들며, 전형적으로는 상당한 양의 사용자 상호작용 및 전문 지식을 수반한다. 이것은, 이들 종래 기술이 일반 사용자들에게 이용될 수 없게 한다. 추가적으로, 3차원 디지털 모델의 형성은 일부 경우에 모델 생성에 있어서 사용자의 의도에 해로운 영향을 미칠 수 있다, 예를 들어, 팩키징으로부터의 제거를 요구하여 모델링될 물리적 객체의 가치에 악영향을 미칠 수 있다.
따라서, 채색된 3차원 디지털 모델 생성 기술 및 시스템이 설명된다. 한 예에서, 스캔 기술은, 팩키징 내에 배치된 상태에서 물리적 객체를 스캔하는 스캔 시스템에 의해 채용된다. 이러한 스캔 기술의 예는, 스캔 데이터를, 물리적 객체의 3차원 디지털 모델을 직접 생성하도록 함께 형성되는 일련의 "슬라이스"로서 생성하는 X-레이 기술을 포함한다. 스캔 데이터가 이전에 생성된 3차원 디지털 모델을 식별하는데 이용되는 간접적인 예도 고려된다.
일단 3차원 디지털 모델이 획득되고 나면, 모델 채색 시스템이 채용되어 3차원 디지털 모델을 채색한다. 이를 위해, 2차원 디지털 이미지가 채용된다. 한 예에서, 모델 생성 프로세스를 시작한 사용자에 의해 2차원 디지털 이미지가 시스템에 제공된다. 예를 들어, 디지털 이미지는 모델의 대상인 동일하거나 유사한 물리적 객체의 뷰를 캡처할 수 있다. 다른 예에서, 2차원 디지털 이미지는, 예를 들어 형상 정합을 통해, 3차원 디지털 모델로부터 생성된 검색 질의에 적어도 부분적으로 기초한 검색을 통해 획득된다.
일단 2차원 디지털 이미지가 획득되고 나면, 디지털 이미지의 색상을 모델에 적용하기 위해 다양한 기술이 이용가능하다. 한 예에서, 모델의 피처가 이미지에 정합된다. 그 다음, 이것은, 예를 들어 모델의 어떤 "뷰"가 이미지와 대응하는지를 발견하기 위해, 모델에 관한 관찰 관점을 디지털 이미지 내의 객체의 관찰 관점과 정렬하는데 이용된다. 그 다음, 디지털 이미지로부터 모델로, 예를 들어, 이미지의 픽셀로부터 모델의 대응하는 포인트로 색상이 적용된다.
일부 경우에, 모델의 어떤 부분은 디지털 이미지에서 볼 수 없으므로 모델의 초기 버전에서 채색되지 않는다. 따라서, 이들 부분을 채색하기 위한 기술이 역시 채용될 수 있다. 한 예에서, 디지털 이미지의 대응하는 부분을 늘리고 압축하여 이 색상을 공급하기 위해 왜곡 기술이 이용된다. 다른 예는, 모델의 초기 버전의 채색되지 않은 부분의, 초기 버전의 채색된 부분으로의 스테레오 정합, 패치 정합 기술 등을 포함한다. 이러한 방식으로, 객체의 단일 관점이 디지털 이미지에 의해 캡처될 수 있지만, 이 관점은 모델의 "보이지 않는" 부분에 대한 색상을 제공하기 위해 색상 생성 시스템에 의해 여전히 이용될 수 있다. 선형 혼합 스키닝(blend skinning) 등의 다른 예도 고려된다.
그 다음, 다양한 기능을 지원하기 위해 물리적 객체의 채색된 3차원 디지털 모델을 이용될 수 있다. 예를 들어, 판매자는, 판매를 위해 물리적 객체를 팩키징 내에 제공하기를 원할 수 있다. 이를 위해, 판매자는 서비스 제공자 시스템과 상호작용하여, 물리적 객체가 판매에 이용가능하다는 사실, 동일하거나 유사한 물리적 객체의 2차원 디지털 이미지, 구매 가격을 나타내고, 물리적 객체의 구매를 개시하기 위해 구매자에 의해 선택가능한 기능을 갖는 디지털 콘텐츠의 생성을 개시한다.
그 다음, 판매자는 팩키징 내의 물리적 객체를 주문 이행 센터(fulfillment center)로 배송한다. 주문 이행 센터는, 3차원 디지털 모델을 생성하는데 이용할 수 있는 3차원 스캔 디바이스를 포함하는 스캔 시스템을 포함한다. 3차원 스캔 디바이스는, 팩키징으로부터 물리적 객체를 제거하지 않고 모델을 형성하는데 이용되는 스캔 데이터를 생성하도록 구성되므로, 잠재적으로 바람직한 팩키징을 보존할뿐만 아니라 인적 및 운영 자원을 보존한다.
그 다음, 판매자에 의해 공급된 2차원 디지털 이미지에 적어도 부분적으로 기초하여 3차원 디지털 모델을 채색하기 위해 주문 이행 센터의 모델 채색 시스템이 이용된다. 이러한 방식으로, 채색된 3차원 디지털 모델이 디지털 콘텐츠의 일부로서 포함되기 위해, 예를 들어, 물리적 객체의 판매 제안을 위해 용이하게 생성될 수 있다. 그 결과, 디지털 콘텐츠는 팩키징으로부터 물리적 객체를 제거하지 않고 채색된 3차원 디지털 모델을 포함할 수 있는데, 이것은 종래 기술로는 불가능하다. 다른 예도 고려되며, 이에 대한 추가 논의는 이하의 섹션에서 찾을 수 있으며 대응하는 도면에 도시된다.
이하의 논의에서, 여기서 설명된 기술을 채용할 수 있는 예시적인 환경이 먼저 설명된다. 그 다음, 예시적인 환경 뿐만 아니라 다른 환경에서도 수행될 수 있는 예시적인 절차가 설명된다. 결과적으로, 예시적인 절차의 성능은 예시적인 환경으로 제한되지 않고 예시적인 환경은 예시적인 절차의 성능으로 제한되지 않는다.
예시적인 환경
도 1은 여기서 설명된 모델 생성 기술을 채용하도록 동작가능한 예시적인 구현에서의 디지털 매체 환경(100)의 예시이다. 예시된 환경(100)은 네트워크(106)를 통해 서로 통신가능하게 결합된 서비스 제공자 시스템(102) 및 사용자의 클라이언트 디바이스(104)를 포함한다. 예를 들어, 클라이언트 디바이스(104)는, 네트워크(106)를 통해 서비스 제공자 시스템(102)의 기능에 액세스하도록 구성된 통신 모듈(108)을 포함할 수 있다. 통신 모듈(108)은, 브라우저, 모바일 애플리케이션 등의 다양한 방식으로 구성될 수 있다. 서비스 제공자 시스템(102) 및 클라이언트 디바이스(104)를 구현하는 컴퓨팅 디바이스도 역시 다양한 방식으로 구성될 수 있다.
예를 들어, 컴퓨팅 디바이스는, 데스크탑 컴퓨터, 랩탑 컴퓨터, 모바일 디바이스(예를 들어, 클라이언트 디바이스(104)에 대해 도시된 바와 같은 태블릿 또는 모바일 폰 등의 핸드헬드 구성을 가정) 등으로서 구성될 수 있다. 따라서, 컴퓨팅 디바이스는, 상당한 메모리 및 프로세서 자원(예를 들어, 개인용 컴퓨터, 게임 콘솔)을 가진 전체 자원 디바이스로부터, 제한된 메모리 및/또는 처리 자원(예를 들어, 모바일 디바이스)을 가진 낮은 자원 디바이스에 이르기까지 다양할 수 있다. 추가적으로, 컴퓨팅 디바이스는, 서비스 제공자 시스템(102)에 대해 예시되고 도 9와 관련하여 설명되는 바와 같은 "클라우드를 통한" 동작을 수행하기 위해 사업체에 의해 이용되는 복수의 서버 등의, 복수의 상이한 디바이스를 나타낼 수 있다.
서비스 제공자 시스템(102)은, 이 예에서, 팩키징(112) 내의 물리적 객체(110) 및 2차원 디지털 이미지(114)를 처리하여 채색된 3차원 디지털 모델(116)을 형성하도록 구성된다. 이를 위해, 예를 들어 X-선 기술의 이용을 통해, 3차원 디지털 모델(120)을 생성하기 위해 스캔 시스템(118)이 채용된다. 스캔 시스템(118)은, 이 예에서는 서비스 제공자 시스템(102)에 의해 구현되지만, 스캔 시스템(118)은 또한 사용자가 직접 이용하기 위한 "독립형" 유닛으로서 구성될 수도 있다. 모델 채색 시스템(122)은, 2차원 디지털 이미지(114)를 이용하여 3차원 디지털 모델(120)을 채색함으로써 채색된 3차원 디지털 모델(116)을 형성하기 위해 채용된다. 이러한 방식으로, 모델은 팩키징(112)으로부터 제거되지 않고 물리적 객체(110)로부터 형성될 수 있음으로써, 물리적 객체(110)의 리팩키징이 요구되지 않고 잠재적으로 가치있는 팩키징을 보존하는데 이용될 수도 있다는 점에서 효율성을 개선할 수 있다.
일반적으로, 상기 및 이하의 예와 관련하여 설명되는 기능, 피처, 및 개념은, 이 섹션에서 설명되는 예시적인 절차의 맥락에서 채용될 수 있다. 또한, 본 문서에서 상이한 도면들 및 예와 관련하여 설명되는 기능, 피처 및 개념은 서로 바꾸어 사용될 수 있고, 특정한 도면 또는 절차의 맥락에서의 구현으로 제한되지 않는다. 더욱이, 여기서 상이한 대표적인 절차들 및 대응하는 도면들과 연관된 블록들은 함께 적용되거나 및/또는 상이한 방식으로 결합될 수 있다. 따라서, 본 명세서에서 상이한 예시적인 환경, 디바이스, 컴포넌트, 도면 및 절차와 관련하여 설명된 개개의 기능, 피처 및 개념은 임의의 적절한 조합으로 이용될 수 있고, 본 설명에서 열거된 예에 의해 나타낸 특정한 조합으로 제한되지 않는다.
채색된 3차원 디지털 모델 생성
도 2는 도 1의 스캔 시스템(118) 및 모델 채색 시스템(122)의 동작을 더 상세히 보여주는 시스템(200)을 도시한다. 도 3 내지 도 7은 도 2의 스캔 시스템 및 모델 채색 시스템의 동작의 추가 예를 도시한다. 도 8은 팩키징을 관통하여 물리적 객체를 스캔함으로써 형성된 3차원 디지털 모델이 2차원 디지털 이미지를 이용하여 채색되는 예시적인 구현에서의 절차(800)를 도시한다.
이하의 논의는 설명된 시스템 및 디바이스를 이용하여 구현될 수 있는 기술을 설명한다. 절차의 양태는, 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다. 절차는, 하나 이상의 디바이스에 의해 수행되는 동작을 명시하는 한 세트의 블록으로서 도시되며, 반드시 각각의 블록의 동작을 수행하기 위해 반드시 도시된 순서로 제한되는 것은 아니다. 이하의 논의의 일부에서, 도 2 내지 도 8에 대한 참조가 서로 바꾸어 이루어질 것이다.
시작으로서, 팩키징(112) 내에 포함된 물리적 객체(110)가 서비스 제공자 시스템(102)에 의해 수신된다. 팩키징(112)은 도 1에 도시된 바와 같이 물리적 객체(110)를 보는 능력을 부분적으로 가로막거나 심지어 도 2에 도시된 바와 같이 물리적 객체(110)를 보는 능력을 완전히 가로막을 수 있다. 따라서, 스캔 제어 모듈(204)을 포함하는 3D 스캔 디바이스(202)는, 팩키징(112)을 관통하여 물리적 객체(110)를 기술하는 스캔 데이터(206)를 생성하도록 구성된다.
도 3의 예시적인 구현(300)에 도시된 바와 같이, 예를 들어, 스캔 데이터(206)는 팩키징(112)을 관통하여 물리적 객체(110)의 다양한 뷰/관점을 캡처할 수 있다. 예를 들어, 3D 스캔 디바이스(202)는 2차원 X-선 이미지의 집합으로서 스캔 데이터(206)를 생성하도록 구성될 수 있다. 스캔 데이터(206)는, 물리적 객체(110)가 팩키징의 재료 밀도보다 큰 재료 밀도를 갖기 때문에, 팩키징(112)을 관통하여 물리적 객체(110)의 뷰를 캡처할 수 있다. 한 예에서, 팩키징 재료(예를 들어, 비닐, 스티로폼, 종이 등)의 밀도가 추정되며, 이것은 시스템에 의해 스캔 데이터(206)로부터 사용자 개입없이 자동으로 제거될 수 있다. 컴퓨팅된 단층촬영, 자기 공명 영상 등을 포함한, 다른 예도 역시 고려된다.
팩키징(112) 내의 물리적 객체(110)의 스캔으로부터 발생하는 스캔 데이터(206)는 3차원 디지털 모델 생성 모듈(208)에 의해 수신된다(블록 802). 3차원 디지털 모델 생성 모듈(208)은, 수신된 스캔 데이터에 기초하여 물리적 객체의 3차원 디지털 모델(120)을 생성하도록 구성된다(블록 804). 예를 들어, 3차원 디지털 모델(120)은, 등위면 추출 알고리즘(isosurface extraction algorithm) 등의 다양한 기술을 이용하여 상이한 관점에서 캡처된 스캔 데이터(206)로부터 물리적 객체(110)의 이산적인 3D 체적 표현으로서 형성될 수 있다.
따라서, 이 시점에서 스캔 시스템(118)은 물리적 객체(110)의 3차원 디지털 모델(120)을 출력한다. 3차원 디지털 모델(120)은 팩키징(112)을 통한 물리적 객체(110)로부터 형성되기 때문에, 모델은 채색되지 않는다. 따라서, 3차원 디지털 모델(120)을 채색하기 위해 모델 채색 시스템(122)이 채용된다. 이것은 다양한 방식으로 수행될 수 있다.
도 2에 나타낸 예에서, 동일하거나 유사한 물리적 객체(110)의 2차원 디지털 이미지(114)가 3차원 모델(120)과 함께 스캔 시스템(118)으로부터 모델 채색 시스템(122)에 의해 수신된다(블록 806). 예를 들어, 물리적 객체(110) 및 팩키징(112)을 서비스 제공자 시스템(102)에 제공한 사용자는 또한, 2차원 디지털 이미지(114)를 제공할 수 있다. 다른 예에서, 예를 들어 3차원 디지털 모델(120)의 형상에 기초하여 2차원 디지털 이미지(114)를 찾기 위한 이미지 검색에 기초하여 모델 채색 시스템(122)에 의해 2차원 디지털 이미지(114)가 획득된다.
그 다음, 맵핑된 피처 데이터(212)로서 출력되는, 3차원 디지털 모델(120)의 피처들에 대응하는 2차원 디지털 이미지(114)의 피처들을 검출하기 위해 피처 정합 모듈(210)이 채용된다(블록 808). 도 4의 예시적인 구현(400)에 도시된 바와 같이, 피처 정합 모듈(210)은 맵핑된 피처 데이터(212)를 다양한 방식으로 생성할 수 있다. 예를 들어, 피처 정합 모듈(210)은 2차원 디지털 이미지(114) 및 3차원 디지털 모델(120)에서 정보의 요약을 형성하여 피처가 그 위치에 포함되어 있는지를 (예를 들어, 픽셀 레벨에서) 국부적으로 결정하고, 만일 그렇다면, 그 피처가 모델에서도 발견될 수 있는지, 및 그 반대의 경우를 결정할 수 있다. 이것은, 엣지 검출, 관심 코너 및 포인트를 이용하여, 블롭 검출(blob detection) 등을 통해 수행될 수 있다. 엣지는, 예를 들어, 예시된 장난감 로봇의 상이한 부분들 사이 등의, 기울기 검출을 통해, 2개의 이미지 영역 사이의 경계로서 형성된 포인트이다. 관심 코너 및 포인트란, 국부적 2차원 구조를 갖는 이미지 내의 포인트형 피처, 예를 들어, 장난감 로봇의 가슴에 있는 버튼을 말한다. 블롭은, 이전 예에서의 코너와는 대조적으로, 이미지에 포함된 구조(예를 들어, 장난감 로봇의 발)에 대한 설명을 영역으로서 제공한다.
이것은 또한, 스캔된 이미지 및/또는 3차원 디지털 모델(120)의 위치를 수정하는데 이용될 수 있다. 예를 들어, 포인트는, 움직일 수 있는, 예를 들어, 구부러지거나, 회전하거나, 힌지(hinge)될 수 있는 등의, 물리적 객체에서 식별될 수 있다. (예를 들어, 객체 인식을 통해) 이들 상이한 부분들의 관련 포인트들은 식별함으로써, 3차원 디지털 모델(120)은 상이한 자세에 있더라도 2차원 디지털 이미지에 맵핑될 수 있으며, 그 반대의 경우도 마찬가지이다. 예를 들어, 예시된 로봇은 팔과 다리가 곧게 위치한 채 팩키징에 포함될 수 있고, 이것은, 그 다음, 팔을 뻗은 상태에서 3차원 디지털 모델(120)에 맵핑된다. 이것은, 시스템 및/또는 사용자가 일단 형성된 모델을 수정할 수 있는 능력, 예를 들어 부속물을 재배치할 수 있는 능력을 포함할 수 있다. 이것은, 모델의 일부로서의 액세서리, 예를 들어, 로봇의 손에 잡을 수 있도록 팩키징에 포함된 검을 포함하는 기능도 포함할 수 있다. 이 기능은, 예를 들어 다른 디지털 이미지 및/또는 모델의 이미지 저장소에 기초하여, 사용자 인터페이스와의 사용자 상호작용을 통해 수동으로 및/또는 시스템에 의해 자동으로 및 사용자 개입없이 구현될 수 있다.
그 다음, 검출된 피처에 기초하여 3차원 디지털 모델에 대해 모델 채색 시스템(122)에 의해 색상이 생성되어(블록 810) 채색된 3차원 디지털 모델(116)을 생성한다. 이것은 다양한 방식으로 수행될 수 있다. 도 5는 2차원 디지털 이미지(114)로부터 3차원 디지털 모델(120)로의 색상의 적용의 예(500)를 도시한다. 시작으로서, 색상 생성 모듈은 먼저, 3차원 디지털 모델(120)의 관점을 2차원 디지털 이미지(114)의 물리적 객체의 관점과 정렬함으로써 초기 채색된 3차원 디지털 모델(502)을 생성한다. 그 다음, 맵핑된 피처 데이터(212)는 2차원 디지털 이미지(114)에서 볼 수 있는 물리적 객체의 부분에 대해 디지털 이미지로부터 모델로 색상을 맵핑하는데 이용된다.
도시된 바와 같이, 이것은 초기 채색된 3차원 디지털 모델(502)의 일부가 색상이 결핍되게 할 수 있다. 장난감 로봇의 우측 귓부분(504), 팔 관절(506, 508) 및 우측 다리의 우측 측면(510)은 색상의 기초로서 역할하는 2차원 디지털 이미지(114)에서 보이지 않을 수 있다. 이것은, 모델의 다른 부분들에 의한 폐색, 관점 등에 기인할 것일 수 있다. 따라서, 색상 혼합 모듈(512)은, 다양한 방식으로 수행될 수 있는 이들 누락된 부분을 채색하기 위해 색상 생성 모듈(214)에 의해 이용된다.
제1 예에서, 관점 보정 모듈(514)은, 모델에 관한 관점 변화로 인해 채색되지 않은 부분에 색상을 적용하기 위해 2차원 디지털 이미지로부터 획득된 색상의 각각의 부분을 늘리고(516) 압축하기 위해(518) 채용된다.
다른 예에서, 피처 채색 모듈(520)은, 모델에서 채색된 피처들과의 유사성에 기초하여 초기 채색된 3차원 디지털 모델(502)에서 채색되지 않은 피처를 채색하기 위해, 예를 들어, 장난감 로봇의 좌측 귓부분(522)과의 유사성에 기초하여 채색되지 않은 우측 귓부분(504)을 채색하기 위해 채용된다. 피처 유사성은 또한, 스테레오 대응을 활용하여, 예를 들어, 도시된 예에서 장난감 로봇의 채색된 좌측에 대한 우측의 쌍방 유사성에 기초하여 장난감 로봇의 우측을 채색할 수 있다.
추가 예에서, 패치 정합 모듈(524)이 채용된다. 패치 정합에서, 거리의 척도로서의 이미지 유사성에 대한 패치의 가장 가까운 이웃 오프셋 필드는, 초기 채색된 3차원 디지털 모델(502)의 누락된 부분을 "구멍 채우기하는데" 이용된다. 이것은, 초기 채색된 3차원 디지털 모델(502) 및/또는 2차원 디지털 이미지의 채색된 부분으로부터 취해진 패치에 기초할 수 있다. 따라서, 색상 생성 모듈(214)은 채색된 3차원 디지털 모델(116)을 위한 색상을 생성하기 위해 다양한 기술을 채용할 수 있다.
채색된 3차원 디지털 모델(116)과 관련하여 관찰 관점의 변경을 포함한, 사용자 인터페이스를 통한 사용자 상호작용을 지원하는 채색된 3차원 디지털 모델(116)이, 모델 채색 시스템(122)에 의해 출력된다(블록 812). 따라서 채색된 3차원 디지털 모델(116)은, 상이한 각도들로부터의 물리적 객체(110)의 표현을 보기 위해 상이한 2차원 디지털 이미지들을 통한 사용자 네비게이션을 요구하는 종래의 양식적 기술에 비해 사용자 상호작용에서의 증가된 풍부함을 지원할 수 있다.
도 6은, 채색된 3차원 디지털 모델(116)이 디지털 콘텐츠의 일부로서 통합되는 예시적인 구현(600)을 도시한다. 예를 들어, 사용자는 물리적 객체(110)를 판매 제안하기를 원할 수 있다. 이를 위해, 판매자는 클라이언트 디바이스(104)를 이용하여 네트워크(106)를 통해 서비스 제공자 시스템(102)과 상호작용하여 저장 디바이스(604)에 저장되는 것으로 도시된 디지털 콘텐츠(602)의 생성을 개시한다. 이 예에서 디지털 콘텐츠(602)는, 물리적 객체(110)가 판매 가능함을 나타내는 웹 페이지, 동일하거나 유사한 물리적 객체의 2차원 디지털 이미지(114), 구매 가격이며, 물리적 객체(110)의 구매를 개시하기 위해 구매자에 의해 선택가능한 기능을 포함한다.
이 예에서, 사용자는 팩키징(112) 내의 물리적 객체(110)를 서비스 제공자 시스템(102)의 주문 이행 센터로 배송한다. 주문 이행 센터는, 3차원 디지털 모델을 생성하는데 이용할 수 있는 3차원 스캔 디바이스(202)를 포함하는 스캔 시스템(118)을 포함한다. 3차원 스캔 디바이스(202)는 스캔 데이터(206)를 생성하도록 구성된다. 스캔 데이터(206)는, 팩키징(112)으로부터 물리적 객체(110)를 제거하지 않고 3차원 디지털 모델 생성 모듈(208)에 의해 모델을 형성하는데 이용되므로, 잠재적으로 바람직한 팩키징을 보존할 뿐만 아니라 인적 및 운영 자원을 보존한다.
그 다음, 모델 채색 시스템(122)은, 사용자에 의해 공급된 2차원 디지털 이미지(114)에 적어도 부분적으로 기초하여 3차원 디지털 모델(120)을 채색하는데 이용된다. 이러한 방식으로, 채색된 3차원 디지털 모델(116)이 디지털 콘텐츠(602)의 일부로서 포함되기 위해, 예를 들어, 물리적 객체의 판매 제안을 위해 용이하게 생성될 수 있다. 그 결과, 디지털 콘텐츠(602)는 팩키징으로부터 물리적 객체를 제거하지 않고 채색된 3차원 디지털 모델을 포함할 수 있는데, 이것은 종래 기술로는 불가능하다.
예를 들어, 서비스 제공자 시스템(102)은 디지털 콘텐츠(602)의 출력을 관리하도록 구성된 디지털 콘텐츠 제어 모듈(606)을 포함할 수 있다. 이것은, 예를 들어, 구매할 예상 아이템을 찾기 위해 디지털 콘텐츠(602)에 대해 키워드 또는 이미지 기반의 검색을 수행하도록 구성된 검색 모듈(608)의 이용을 포함할 수 있다. 디지털 콘텐츠 제어 모듈(606)은 또한, 물리적 객체(110)의 구매를 개시하고 완료하기 위해 지불 정보를 처리하는 기능을 나타내는 상거래 모듈(610)을 포함할 수 있다.
도 7a는 채색된 3차원 디지털 모델(116)을 포함하는 디지털 콘텐츠(602)의 출력의 예시적인 구현(700)을 도시한다. 도시된 예에서, 클라이언트 디바이스(702)는, 예를 들어, 브라우저, 모바일 애플리케이션 등의 실행을 통해 디지털 콘텐츠(602)를 포함하는 사용자 인터페이스를 출력한다. 디지털 콘텐츠(602)는, 모델링된 물리적 객체의 관점(즉, 관찰각)을 변경하기 위해 제스처(예를 들어, 선택 및 드래그)를 통한 사용자 상호작용을 지원하는 채색된 3차원 디지털 모델(116)을 포함한다. 디지털 콘텐츠(602)는 또한, 물리적 객체의 구매를 개시하는 기능(704)을 포함한다. 이러한 방식으로, 디지털 콘텐츠(602)와의 사용자 상호작용의 기능 및 풍부성이 증가되어 종래 기술의 한계를 극복할 수 있다.
도 7b는 가상 및 증강 현실 시나리오들에서 디지털 콘텐츠의 출력의 다른 예시적인 구현(750)을 도시한다. 제1 예(752)에서, 채색된 3차원 디지털 모델(116)은 가상 상점의 일부로서의 가상 현실 디지털 콘텐츠로서 출력된다. 이러한 방식으로, 사용자는 자연스럽고 직관적인 방식으로 상점을 네비게이션하고 채색된 3차원 디지털 모델(116)과 상호작용할 수 있다. 제2 예(752)에서, 채색된 3차원 디지털 모델(116)은, 클라이언트 디바이스(104)를 통해 사용자의 환경의 표면에 배치된 것으로 볼 수 있는 증강 현실 콘텐츠로서 출력된다. 다양한 다른 예가 역시 고려된다.
이전에 설명된 바와 같이 디지털 콘텐츠 제어 모듈(606)이 채색된 3차원 디지털 모델(116)을 유지하도록 구성되는 도 6으로 다시 돌아갈 것이다. 한 예에서, 이것은 물리적 객체(110)를 리스캔하지 않고 이용될 수 있는 모델의 저장소의 생성을 포함한다. 예를 들어, 채색된 3차원 디지털 모델(116)은, 디지털 콘텐츠(602)를 생성하기 위해 사용자에 의해 제공된 키워드 설명 또는 2차원 디지털 이미지(114)에 기초하여 검색 모듈(608)을 이용하여 발견될 수 있다. 이들 모델은 또한, 예를 들어 가상 쇼핑 서비스의 일부로서, 가상 및 증강 현실 시나리오들에서의 출력을 지원하는데 활용될 수 있다. 다른 예들도 역시 고려된다.
예시적인 시스템 및 디바이스
도 9는 본 명세서에 설명된 다양한 기술을 구현할 수 있는 하나 이상의 컴퓨팅 시스템 및/또는 디바이스를 나타내는 한 예시적인 컴퓨팅 디바이스(902)를 포함하는 예시적인 시스템(900)을 나타낸다. 이것은 채색된 3차원 디지털 모델(116)의 포함을 통해 예시된다. 컴퓨팅 디바이스(902)는, 예를 들어, 서비스 제공자의 서버, 클라이언트(예를 들어, 클라이언트 디바이스)와 연관된 디바이스, 온칩 시스템, 및/또는 기타 임의의 적절한 컴퓨팅 디바이스 또는 컴퓨팅 시스템일 수 있다.
도시된 예시적인 컴퓨팅 디바이스(902)는, 처리 시스템(904), 하나 이상의 컴퓨터 판독가능한 매체(906), 및 서로 통신가능하게 결합된 하나 이상의 I/O 인터페이스(908)를 포함한다. 도시되지는 않았지만, 컴퓨팅 디바이스(902)는, 다양한 컴포넌트를 서로 결합하는 시스템 버스 또는 기타의 데이터 및 명령 전송 시스템을 더 포함할 수 있다. 시스템 버스는, 메모리 버스 또는 메모리 제어기, 주변기기 버스, 범용 직렬 버스, 및/또는 다양한 버스 아키텍쳐들 중 임의의 것을 이용하는 프로세서 또는 로컬 버스 등의, 상이한 버스 구조들 중 임의의 하나 또는 조합을 포함할 수 있다. 제어 및 데이터 라인 등의, 다양한 다른 예도 역시 고려된다.
처리 시스템(904)은, 하드웨어를 이용하여 하나 이상의 동작을 수행하는 기능을 나타낸다. 따라서, 처리 시스템(904)은, 프로세서, 기능 블록 등으로 구성될 수 있는 하드웨어 요소들(910)을 포함하는 것으로서 예시된다. 이것은, 하나 이상의 반도체를 이용하여 형성된 주문형 집적 회로 또는 기타의 논리 디바이스로서의 하드웨어적 구현을 포함할 수 있다. 하드웨어 요소들(910)은, 이들이 형성되는 재료 또는 내부에 채용되는 처리 메커니즘에 의해 제한되지 않는다. 예를 들어, 프로세서는 반도체(들) 및/또는 트랜지스터(예를 들어, 전자 집적 회로(IC))로 구성될 수 있다. 이러한 맥락에서, 프로세서-실행가능 명령어는 전자적으로-실행가능 명령어일 수 있다.
컴퓨터 판독가능한 저장 매체(906)는, 메모리/스토리지(912)를 포함하는 것으로 예시된다. 메모리/스토리지(912)는 하나 이상의 컴퓨터 판독가능한 매체와 연관된 메모리/스토리지 용량을 나타낸다. 메모리/스토리지 컴포넌트(912)는, (랜덤 액세스 메모리(RAM) 등의) 휘발성 매체 및/또는 (읽기 전용 메모리(ROM), 플래시 메모리, 광 디스크, 자기 디스크 등의) 비휘발성 매체를 포함할 수 있다. 메모리/스토리지 컴포넌트(912)는, 고정 매체(예를 들어, RAM, ROM, 고정 하드 드라이브 등) 뿐만 아니라 착탈식 매체(예를 들어, 플래시 메모리, 착탈식 하드 드라이브, 광 디스크 등)를 포함할 수 있다. 컴퓨터 판독가능한 매체(906)는 아래에서 더 설명되는 바와 같이 다양한 다른 방식으로 구성될 수 있다.
입력/출력 인터페이스(들)(908)는, 사용자가 컴퓨팅 디바이스(902)에 명령 및 정보를 입력하는 것을 허용하고, 또한 정보가 다양한 입력/출력 디바이스를 이용하여 사용자 및/또는 기타의 컴포넌트 또는 디바이스에 제공되는 것을 허용하는 기능을 나타낸다. 입력 디바이스의 예는, 키보드, 커서 제어 디바이스(예를 들어, 마우스), 마이크로폰, 스캐너, 터치 기능(예를 들어, 물리적 터치를 검출하도록 구성된 용량식 또는 기타의 센서), (예를 들어, 적외선 주파수 등의 가시적 또는 비가시적 파장을 채용하여 터치를 수반하지 않는 제스처로서 움직임을 인식할 수 있는) 카메라 등을 포함한다. 출력 디바이스의 예는, 디스플레이 디바이스(예를 들어, 모니터 또는 프로젝터), 스피커, 프린터, 네트워크 카드, 촉각-반응 디바이스 등을 포함한다. 따라서, 컴퓨팅 디바이스(902)는 사용자 상호작용을 지원하기 위해 아래에서 더 설명되는 바와 같이 다양한 방식으로 구성될 수 있다.
소프트웨어, 하드웨어 요소, 또는 프로그램 모듈의 일반적인 맥락에서 다양한 기술이 여기서 설명될 수 있다. 일반적으로, 이러한 모듈은, 특정한 작업을 수행하거나 특정한 추상적 데이터 유형을 구현하는 루틴, 프로그램, 객체, 요소, 컴포넌트, 데이터 구조 등을 포함한다. 용어 "모듈", "기능" 및 "컴포넌트"는 본 명세서에서 사용될 때 일반적으로 소프트웨어, 펌웨어, 하드웨어 또는 이들의 조합을 나타낸다. 여기서 설명된 기술들의 피처는 플랫폼-독립적이며, 이 기술들이 다양한 프로세서를 갖는 다양한 상용 컴퓨팅 플랫폼에서 구현될 수 있다는 것을 의미한다.
설명된 모듈 및 기술의 구현은, 소정 형태의 컴퓨터 판독가능한 매체에 저장되거나 이를 통해 전송될 수 있다. 컴퓨터 판독가능한 매체는 컴퓨팅 디바이스(902)에 의해 액세스될 수 있는 다양한 매체를 포함할 수 있다. 제한이 아닌 예로서, 컴퓨터 판독가능한 매체는, "컴퓨터 판독가능한 저장 매체" 및 "컴퓨터 판독가능한 신호 매체"를 포함할 수 있다.
"컴퓨터 판독가능한 저장 매체"는, 단순한 신호 전송, 캐리어 또는 신호 그 자체와는 대조적으로 정보의 지속적 및/또는 비일시적인 저장을 가능케하는 매체 및/또는 디바이스를 지칭할 수 있다. 따라서, 컴퓨터 판독가능한 저장 매체란, 비-신호 보유 매체(non-signal bearing media)를 지칭한다. 컴퓨터 판독가능한 저장 매체는, 컴퓨터 판독가능한 명령어, 데이터 구조, 프로그램 모듈, 논리 요소/회로 또는 기타 데이터 등의 정보의 저장에 적합한 방법 또는 기술로 구현된 휘발성 및 비휘발성, 착탈식 및 비착탈식 매체 및/또는 저장 디바이스 등의 하드웨어를 포함한다. 컴퓨터 판독가능한 저장 매체의 예는, RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, 디지털 다용도 디스크(DVD) 또는 기타 광학적 스토리지, 하드 디스크, 자기 카세트, 자기 테이프, 자기 디스크 저장 또는 기타의 자기 저장 디바이스, 또는 다른 저장 디바이스, 유형의 매체, 또는 원하는 정보를 저장하기에 적합하고 컴퓨터에 의해 액세스될 수 있는 제조품을 포함할 수 있지만, 이것으로 제한되는 것은 아니다.
"컴퓨터 판독가능한 신호 매체"란, 네트워크 등을 통해 컴퓨팅 디바이스(902)의 하드웨어에 명령어를 전송하도록 구성된 신호 보유 매체를 지칭할 수 있다. 신호 매체는 전형적으로, 컴퓨터 판독가능한 명령어, 데이터 구조, 프로그램 모듈 또는 기타의 데이터를, 캐리어파, 데이터 신호 또는 기타의 전송 메커니즘 등의, 변조된 데이터 신호로 구현할 수 있다. 신호 매체는 또한, 임의의 정보 전달 매체도 포함한다. 용어 "변조된 데이터 신호"는, 정보를 신호에 인코딩하는 방식으로 설정되거나 변경된 특성들 중 하나 이상을 갖는 신호를 의미한다. 제한이 아닌 예로서, 통신 매체는, 유선 네트워크 또는 직접-결선 접속 등의 유선 매체, 및 음향, RF, 적외선 및 기타의 무선 매체 등의 무선 매체를 포함한다.
이전에 설명된 바와 같이, 하드웨어 요소들(910) 및 컴퓨터 판독가능한 매체(906)는, 하나 이상의 명령어를 수행하는 등을 위해, 여기서 설명된 기술의 적어도 일부 양태를 구현하기 위해 일부 실시예에서 채용될 수 있는 하드웨어 형태로 구현된 모듈, 프로그램가능한 디바이스 로직 및/또는 고정 디바이스 로직을 나타낸다. 하드웨어는, 집적 회로 또는 온칩 시스템의 컴포넌트, ASIC(application-specific integrated circuit), FPGA(field-programmable gate array), CPLD(complex programmable logic device), 및 실리콘 또는 기타의 하드웨어적인 다른 구현을 포함할 수 있다. 이러한 맥락에서, 하드웨어는, 실행을 위한 명령어를 저장하는데 이용되는 하드웨어, 예를 들어 앞서 설명된 컴퓨터 판독가능한 저장 매체 뿐만 아니라, 하드웨어에 의해 구현된 로직 및/또는 명령어에 의해 정의된 프로그램 작업을 수행하는 처리 디바이스로서 동작할 수 있다.
여기서 설명된 다양한 기술을 구현하기 위해 전술된 것의 조합이 역시 채용될 수 있다. 따라서, 소프트웨어, 하드웨어, 또는 실행가능한 모듈은, 컴퓨터 판독가능한 저장 매체의 일부 형태 및/또는 하나 이상의 하드웨어 요소들(910)에 의해 구현된 하나 이상의 명령어 및/또는 로직으로서 구현될 수 있다. 컴퓨팅 디바이스(902)는, 소프트웨어 및/또는 하드웨어 모듈에 대응하는 특정한 명령어 및/또는 기능을 구현하도록 구성될 수 있다. 따라서, 소프트웨어로서 컴퓨팅 디바이스(902)에 의해 실행가능한 모듈의 구현은, 적어도 부분적으로 하드웨어로, 예를 들어 처리 시스템(904)의 컴퓨터 판독가능한 저장 매체 및/또는 하드웨어 요소들(910)의 이용을 통해 달성될 수 있다. 명령어 및/또는 기능은, 여기서 설명된 기술, 모듈 및 예를 구현하기 위해, 하나 이상의 제품(예를 들어, 하나 이상의 컴퓨팅 디바이스(902) 및/또는 처리 시스템(904))에 의해 실행가능/동작가능 할 수 있다.
여기서 설명된 기술은, 컴퓨팅 디바이스(902)의 다양한 구성에 의해 지원될 수 있고 여기서 설명된 기술의 특정한 예로 제한되지 않는다. 이 기능은 또한, 이하에서 설명되는 플랫폼(916)을 이용한 "클라우드"(914)를 통해서 등에 의한, 분산형 시스템의 이용을 통해, 완전히 또는 부분적으로 구현될 수 있다.
클라우드(914)는 자원들(918)에 대한 플랫폼(916)을 포함하거나 및/또는 이를 나타낸다. 플랫폼(916)은 클라우드(914)의 하드웨어(예를 들어, 서버) 및 소프트웨어 자원의 기저 기능을 추상화한다. 자원들(918)은, 컴퓨팅 디바이스(902)로부터 원격인 서버에서 컴퓨터 처리가 실행되는 동안 이용될 수 있는 애플리케이션 및/또는 데이터를 포함할 수 있다. 자원들(918)은 또한, 인터넷을 통해 및/또는 셀룰러 또는 Wi-Fi 네트워크 등의 가입자 네트워크를 통해 제공되는 서비스를 포함할 수 있다.
플랫폼(916)은 컴퓨팅 디바이스(902)를 다른 컴퓨팅 디바이스와 접속하기 위한 자원 및 기능을 추상화할 수 있다. 플랫폼(916)은 또한, 플랫폼(916)을 통해 구현되는 자원들(918)에 대한 직면한 수요에 대응하는 레벨의 스케일을 제공하기 위해 자원의 스케일링을 추상화하는 역할을 할 수 있다. 따라서, 상호접속된 디바이스 실시예에서, 여기서 설명된 기능의 구현은 시스템(900) 전체에 걸쳐 분산될 수 있다. 예를 들어, 기능은, 클라우드(914)의 기능을 추상화하는 플랫폼(916)을 통해서 뿐만 아니라 컴퓨팅 디바이스(902) 상에 부분적으로 구현될 수 있다.
결론
본 발명이 구조적 피처 및/또는 방법론적 행위 특유의 언어로 설명되었지만, 첨부된 청구항들에 정의된 본 발명이 반드시 설명된 특정한 피처 또는 행위로 제한되는 것은 아니라는 것을 이해해야 한다. 오히려, 특정한 피처 및 행위는 청구된 발명을 구현하는 예시적인 형태로 개시된 것이다.

Claims (20)

  1. 적어도 하나의 컴퓨팅 디바이스에 의해 구현되는 방법으로서,
    상기 적어도 하나의 컴퓨팅 디바이스에 의해, 팩키징을 관통하여 수행된, 상기 팩키징 내의 물리적 객체의 스캔으로부터 발생하는 스캔 데이터를 수신하는 단계;
    상기 적어도 하나의 컴퓨팅 디바이스에 의해, 상기 수신된 스캔 데이터에 기초하여 상기 물리적 객체의 3차원 디지털 모델을 생성하는 단계;
    상기 적어도 하나의 컴퓨팅 디바이스에 의해, 2차원 디지털 이미지를 수신하는 단계;
    상기 적어도 하나의 컴퓨팅 디바이스에 의해, 상기 3차원 디지털 모델의 피처들에 대응하는 상기 2차원 디지털 이미지의 피처들을 검출하는 단계;
    상기 적어도 하나의 컴퓨팅 디바이스에 의해, 상기 검출에 기초하여 상기 3차원 디지털 모델을 위한 색상을 생성하는 단계; 및
    상기 적어도 하나의 컴퓨팅 디바이스에 의해, 채색된 3차원 디지털 모델과 관련한 관찰 관점의 변경을 포함한, 사용자 인터페이스를 통한 사용자 상호작용을 지원하는 상기 채색된 3차원 디지털 모델을 출력하는 단계
    를 포함하고, 상기 생성하는 단계는:
    채색된 상기 2차원 디지털 이미지의 피처들에 대응하는 피처들을 갖는 초기 채색된 3차원 디지털 모델을 생성하는 단계; 및
    상기 초기 채색된 3차원 디지털 모델에서 채색되지 않은 상기 3차원 디지털 모델의 적어도 하나의 부분에 대한 색상을 생성하여 상기 생성된 채색된 3차원 디지털 모델을 형성하는 단계
    를 포함하고, 상기 채색되지 않은 적어도 하나의 부분에 대한 색상의 생성은 상기 적어도 하나의 부분에 대응하는 상기 초기 채색된 3차원 디지털 모델의 다른 부분을 검출하는 것에 기초하는, 방법.
  2. ◈청구항 2은(는) 설정등록료 납부시 포기되었습니다.◈
    제1항에 있어서, 상기 스캔은 X-레이 스캔인, 방법.
  3. ◈청구항 3은(는) 설정등록료 납부시 포기되었습니다.◈
    제1항에 있어서, 상기 3차원 디지털 모델은 상기 팩키징을 포함하지 않는, 방법.
  4. ◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈
    제1항에 있어서, 상기 물리적 객체는 상기 팩키징의 밀도보다 큰 밀도를 갖는, 방법.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서, 상기 대응은 상기 다른 부분에 대한 상기 적어도 하나의 부분의 스테레오 대응에 기초하는, 방법.
  8. 삭제
  9. 제1항에 있어서, 상기 생성하는 단계는, 상기 3차원 디지털 모델에 대한 상기 2차원 디지털 이미지의 선형 혼합 스키닝(linear blend skinning)을 포함하는, 방법.
  10. 제1항에 있어서, 상기 생성하는 단계는, 상기 3차원 디지털 모델의 한 관점을 상기 2차원 디지털 이미지의 상기 물리적 객체의 관점과 정렬하는 것으로서 상기 2차원 디지털 이미지의 부분을 스트레칭하고 상기 2차원 디지털 이미지의 다른 부분을 압축하는 단계를 포함하는, 방법.
  11. 제1항에 있어서, 상기 3차원 디지털 모델에 기초하여 검색 질의를 생성하는 단계를 더 포함하고, 상기 2차원 디지털 이미지를 수신하는 단계는 상기 검색 질의에 기초하여 수행된 검색으로부터 발생하는, 방법.
  12. ◈청구항 12은(는) 설정등록료 납부시 포기되었습니다.◈
    제1항에 있어서, 상기 채색된 3차원 디지털 모델 및 사용자로부터 상기 물리적 객체의 구매를 개시하기 위해 사용자 선택가능한 기능을 포함하는 디지털 콘텐츠를 생성하는 단계를 더 포함하는 방법.
  13. ◈청구항 13은(는) 설정등록료 납부시 포기되었습니다.◈
    제12항에 있어서, 상기 2차원 디지털 이미지는, 상기 디지털 콘텐츠의 생성을 역시 개시하는 사용자로부터 네트워크를 통해 수신되는, 방법.
  14. ◈청구항 14은(는) 설정등록료 납부시 포기되었습니다.◈
    제1항에 있어서, 상기 채색된 3차원 디지털 모델을 포함하는 웹 페이지로서 디지털 콘텐츠를 생성하는 단계를 더 포함하는 방법.
  15. 시스템으로서,
    팩키징 내의 물리적 객체를 스캔 ―상기 스캔을 상기 팩키징을 관통하여 수행됨― 함으로써 3차원 디지털 모델을 생성하도록 구성된 3차원 스캔 디바이스; 및
    상기 물리적 객체의 2차원 디지털 이미지를 이용하여 상기 물리적 객체의 3차원 디지털 모델을 채색하는, 적어도 부분적으로 컴퓨팅 디바이스의 하드웨어로 구현된 모델 채색 시스템
    을 포함하고, 상기 채색은 :
    상기 2차원 디지털 이미지의 피처들을 상기 3차원 디지털 모델의 대응하는 피처들과 정렬하고;
    상기 정렬에 기초하여 초기 채색된 3차원 디지털 모델을 생성하고;
    상기 초기 채색된 3차원 디지털 모델에서 채색되지 않은 3차원 디지털 모델의 적어도 하나의 부분에 대한 색상을 생성하여, 생성된 채색된 3차원 디지털 모델을 형성함으로써 이루어지고, 상기 채색되지 않은 적어도 하나의 부분에 대한 색상의 생성은 상기 적어도 하나의 부분에 대응하는 상기 초기 채색된 3차원 디지털 모델의 다른 부분을 검출하는 것에 기초하는, 시스템.
  16. 삭제
  17. 제15항에 있어서, 상기 대응은 상기 다른 부분에 대한 상기 적어도 하나의 부분의 스테레오 대응에 기초하는, 시스템.
  18. 삭제
  19. ◈청구항 19은(는) 설정등록료 납부시 포기되었습니다.◈
    시스템으로서,
    팩키징 내의 물리적 객체를 스캔 ―상기 스캔을 상기 팩키징을 관통하여 수행됨― 함으로써 3차원 디지털 모델을 생성하도록 구성된 3차원 스캔 디바이스;
    네트워크를 통해 사용자로부터 수신된 물리적 객체의 2차원 디지털 이미지를 이용하여 상기 물리적 객체의 3차원 디지털 모델을 채색하는, 적어도 부분적으로 컴퓨팅 디바이스의 하드웨어로 구현된 모델 채색 시스템 ―상기 채색은 :
    상기 2차원 디지털 이미지의 피처들을 상기 3차원 디지털 모델의 대응하는 피처들과 정렬하고;
    상기 정렬에 기초하여 초기 채색된 3차원 디지털 모델을 생성하고;
    상기 초기 채색된 3차원 디지털 모델에서 채색되지 않은 3차원 디지털 모델의 적어도 하나의 부분에 대한 색상을 생성하여, 생성된 채색된 3차원 디지털 모델을 형성함으로써 이루어지고, 상기 채색되지 않은 적어도 하나의 부분에 대한 색상의 생성은 상기 적어도 하나의 부분에 대응하는 상기 초기 채색된 3차원 디지털 모델의 다른 부분을 검출하는 것에 기초함 ―; 및
    사용자로부터 물리적 객체를 구매하기 위해 사용자 선택가능한 기능 및 상기 채색된 3차원 디지털 모델을 포함하는 디지털 콘텐츠를 생성하기 위해 적어도 부분적으로 컴퓨팅 디바이스의 하드웨어로 구현된 디지털 콘텐츠 제어 모듈 ―상기 디지털 콘텐츠의 생성은 네트워크를 통해 상기 사용자로부터 수신된 사용자 입력에 의해 개시됨―
    을 포함하는 시스템.
  20. 삭제
KR1020207030266A 2018-06-01 2019-05-20 채색된 3차원 디지털 모델 생성 KR102469624B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020227040296A KR20220158866A (ko) 2018-06-01 2019-05-20 채색된 3차원 디지털 모델 생성

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/996,289 2018-06-01
US15/996,289 US10740983B2 (en) 2018-06-01 2018-06-01 Colored three-dimensional digital model generation
PCT/US2019/033163 WO2019231740A1 (en) 2018-06-01 2019-05-20 Colored three-dimensional digital model generation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020227040296A Division KR20220158866A (ko) 2018-06-01 2019-05-20 채색된 3차원 디지털 모델 생성

Publications (2)

Publication Number Publication Date
KR20200135993A KR20200135993A (ko) 2020-12-04
KR102469624B1 true KR102469624B1 (ko) 2022-11-22

Family

ID=66867779

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020227040296A KR20220158866A (ko) 2018-06-01 2019-05-20 채색된 3차원 디지털 모델 생성
KR1020207030266A KR102469624B1 (ko) 2018-06-01 2019-05-20 채색된 3차원 디지털 모델 생성

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020227040296A KR20220158866A (ko) 2018-06-01 2019-05-20 채색된 3차원 디지털 모델 생성

Country Status (5)

Country Link
US (3) US10740983B2 (ko)
EP (1) EP3803801A1 (ko)
KR (2) KR20220158866A (ko)
CN (1) CN112204623A (ko)
WO (1) WO2019231740A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10740983B2 (en) 2018-06-01 2020-08-11 Ebay Korea Co. Ltd. Colored three-dimensional digital model generation
US11430168B2 (en) * 2019-08-16 2022-08-30 Samsung Electronics Co., Ltd. Method and apparatus for rigging 3D scanned human models
CN111311126A (zh) * 2020-03-25 2020-06-19 嘉兴学院 一种适用于包装行业的自动化流程方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050226527A1 (en) 2002-07-10 2005-10-13 Jurgen Weese Motion artifact correction of tomographical images
US20080219538A1 (en) 2007-03-07 2008-09-11 General Electric Company Method and apparatus for generating an image using mri and photography
US20120093367A1 (en) * 2009-06-15 2012-04-19 Optosecurity Inc. Method and apparatus for assessing the threat status of luggage
US20130250050A1 (en) * 2012-03-23 2013-09-26 Objectvideo, Inc. Video surveillance systems, devices and methods with improved 3d human pose and shape modeling
US20150172637A1 (en) * 2013-12-12 2015-06-18 Electronics And Telecommunications Research Institute Apparatus and method for generating three-dimensional output data
US20160012646A1 (en) * 2014-07-10 2016-01-14 Perfetch, Llc Systems and methods for constructing a three dimensional (3d) color representation of an object
US20170323376A1 (en) 2016-05-09 2017-11-09 Grabango Co. System and method for computer vision driven applications within an environment
US20180114264A1 (en) * 2016-10-24 2018-04-26 Aquifi, Inc. Systems and methods for contextual three-dimensional staging

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9286941B2 (en) * 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US20040227752A1 (en) * 2003-05-12 2004-11-18 Mccartha Bland Apparatus, system, and method for generating a three-dimensional model to represent a user for fitting garments
US7272264B2 (en) 2003-09-11 2007-09-18 International Business Machines Corporation System and method for hole filling in 3D models
US20050069682A1 (en) * 2003-09-30 2005-03-31 Tan Tseng Custom 3-D Milled Object with Vacuum-Molded 2-D Printout Created from a 3-D Camera
US7689003B2 (en) 2006-03-20 2010-03-30 Siemens Energy, Inc. Combined 2D and 3D nondestructive examination
US8121361B2 (en) * 2006-05-19 2012-02-21 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
US8320659B2 (en) * 2007-08-01 2012-11-27 Telesecurity Sciences, Inc. Method for customs inspection of baggage and cargo
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
WO2010141101A1 (en) 2009-06-05 2010-12-09 Sentinel Scanning Corporation Transportation container inspection system and method
WO2011002449A1 (en) * 2009-06-30 2011-01-06 Analogic Corporation Compound object separation
US8570343B2 (en) 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
CN201780606U (zh) 2010-06-08 2011-03-30 上海市刑事科学技术研究所 现场三维重现装置
US8452081B2 (en) * 2011-01-11 2013-05-28 Eastman Kodak Company Forming 3D models using multiple images
CA2743016A1 (en) * 2011-06-10 2012-12-10 Hermary Opto Electronics Inc. 3d machine vision scanning information extraction system
WO2013123598A1 (en) * 2012-02-21 2013-08-29 Alexandre Archambault Packaging or shipping materials acquisition techniques
US9972120B2 (en) 2012-03-22 2018-05-15 University Of Notre Dame Du Lac Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
US20150178988A1 (en) * 2012-05-22 2015-06-25 Telefonica, S.A. Method and a system for generating a realistic 3d reconstruction model for an object or being
US9542773B2 (en) * 2013-05-23 2017-01-10 Google Inc. Systems and methods for generating three-dimensional models using sensed position data
CN104794756A (zh) * 2014-01-20 2015-07-22 鸿富锦精密工业(深圳)有限公司 点云模型贴图系统及方法
US9686481B1 (en) 2014-03-17 2017-06-20 Amazon Technologies, Inc. Shipment evaluation using X-ray imaging
US9741157B2 (en) * 2014-03-26 2017-08-22 Onshape Inc. Previewing changes on a geometric design
CN105094725B (zh) * 2014-05-14 2019-02-19 同方威视技术股份有限公司 图像显示方法
JP2015231684A (ja) * 2014-06-09 2015-12-24 株式会社ミマキエンジニアリング 三次元造形物の製造方法、三次元造形物を製造するためのキット及び三次元造形物
US9292961B1 (en) 2014-08-26 2016-03-22 The Boeing Company System and method for detecting a structural opening in a three dimensional point cloud
US9465788B2 (en) * 2014-10-09 2016-10-11 Wrap Media, LLC Authoring tool for the authoring of wrap packages of cards
US11257143B2 (en) 2014-12-30 2022-02-22 Hand Held Products, Inc. Method and device for simulating a virtual out-of-box experience of a packaged product
WO2016123740A1 (zh) * 2015-02-02 2016-08-11 浙江大学 一种可计算的三维彩色印刷方法
US9696795B2 (en) * 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US9928663B2 (en) * 2015-07-27 2018-03-27 Technische Universiteit Delft Skeletal joint optimization for linear blend skinning deformations utilizing skeletal pose sampling
US10607413B1 (en) * 2015-09-08 2020-03-31 Ultrahaptics IP Two Limited Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments
CN109195527B (zh) 2016-03-13 2022-02-11 乌泽医疗有限公司 用于与骨骼手术一起使用的设备及方法
US9799147B1 (en) * 2016-05-23 2017-10-24 Marwan Chehadeh Interactive system for decorating two and three dimensional objects
US10410331B2 (en) 2016-09-29 2019-09-10 National Technology & Engineering Solutions Of Sandia, Llc Computed tomography object inspection system
WO2018064349A1 (en) * 2016-09-30 2018-04-05 Velo3D, Inc. Three-dimensional objects and their formation
US20180114363A1 (en) * 2016-10-25 2018-04-26 Microsoft Technology Licensing, Llc Augmented scanning of 3d models
US10109055B2 (en) * 2016-11-21 2018-10-23 Seiko Epson Corporation Multiple hypotheses segmentation-guided 3D object detection and pose estimation
US10699421B1 (en) * 2017-03-29 2020-06-30 Amazon Technologies, Inc. Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras
US20180342109A1 (en) * 2017-05-25 2018-11-29 Thomson Licensing Determining full-body pose for a virtual reality environment
GB2564155B (en) * 2017-07-06 2020-10-14 Sony Interactive Entertainment Inc System and method of 3D print modelling
GB2564401B (en) * 2017-07-06 2020-10-07 Sony Interactive Entertainment Inc System and method of enhancing a 3D printed model
US10192115B1 (en) * 2017-12-13 2019-01-29 Lowe's Companies, Inc. Virtualizing objects using object models and object position data
WO2019143729A1 (en) * 2018-01-16 2019-07-25 Pacific Light & Hologram, Inc. Three-dimensional displays using electromagnetic field computations
US10740983B2 (en) 2018-06-01 2020-08-11 Ebay Korea Co. Ltd. Colored three-dimensional digital model generation
US20210110077A1 (en) * 2019-10-09 2021-04-15 Consulting Engineers, Corp. Method and system for locating a centerline in a wall frame

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050226527A1 (en) 2002-07-10 2005-10-13 Jurgen Weese Motion artifact correction of tomographical images
US20080219538A1 (en) 2007-03-07 2008-09-11 General Electric Company Method and apparatus for generating an image using mri and photography
US20120093367A1 (en) * 2009-06-15 2012-04-19 Optosecurity Inc. Method and apparatus for assessing the threat status of luggage
US20130250050A1 (en) * 2012-03-23 2013-09-26 Objectvideo, Inc. Video surveillance systems, devices and methods with improved 3d human pose and shape modeling
US20150172637A1 (en) * 2013-12-12 2015-06-18 Electronics And Telecommunications Research Institute Apparatus and method for generating three-dimensional output data
US20160012646A1 (en) * 2014-07-10 2016-01-14 Perfetch, Llc Systems and methods for constructing a three dimensional (3d) color representation of an object
US20170323376A1 (en) 2016-05-09 2017-11-09 Grabango Co. System and method for computer vision driven applications within an environment
US20180114264A1 (en) * 2016-10-24 2018-04-26 Aquifi, Inc. Systems and methods for contextual three-dimensional staging

Also Published As

Publication number Publication date
US20190371078A1 (en) 2019-12-05
CN112204623A (zh) 2021-01-08
US10740983B2 (en) 2020-08-11
KR20200135993A (ko) 2020-12-04
WO2019231740A1 (en) 2019-12-05
EP3803801A1 (en) 2021-04-14
US11423631B2 (en) 2022-08-23
US20200342688A1 (en) 2020-10-29
KR20220158866A (ko) 2022-12-01
US20220343616A1 (en) 2022-10-27

Similar Documents

Publication Publication Date Title
US20220343616A1 (en) Colored Three-Dimensional Digital Model Generation
US10574974B2 (en) 3-D model generation using multiple cameras
CN112771536B (zh) 增强现实数字内容搜索和尺寸确定技术
US20150235428A1 (en) Systems and methods for generating a 3-d model of a user for a virtual try-on product
AU2016262789B2 (en) 3d modeling by tracing 2d image ui
US20180122044A1 (en) Environmental Map Generation from a Digital Image
WO2019052371A1 (zh) 3d模型数据处理方法、装置及系统
US10325402B1 (en) View-dependent texture blending in 3-D rendering
AU2016277556B2 (en) 3d digital content interaction and control
GB2551625A (en) Rendering of digital images on a substrate
Chu et al. A cloud service framework for virtual try-on of footwear in augmented reality
AU2017213546B2 (en) Face painting on a single image with an underlying 3d model
US20220351436A1 (en) Digital Content Editing using a Procedural Model
CN109242941A (zh) 三维对象合成通过使用视觉引导作为二维数字图像的一部分
US10586311B2 (en) Patch validity test
Kolivand et al. Livephantom: Retrieving virtual world light data to real environments
US11948248B2 (en) Three-dimensional (3D) model generation from two-dimensional (2D) images
Alva et al. Augmented Reality Visualization of Menu Items using Image Reconstruction
Zhou et al. Inpainting images with curvilinear structures propagation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant