KR20170094279A - 3d 의복 이미지와 조합되는 사람의 3d 가상 신체 모델을 생성하기 위한 방법들, 및 관련 디바이스들, 시스템들 및 컴퓨터 프로그램 제품들 - Google Patents

3d 의복 이미지와 조합되는 사람의 3d 가상 신체 모델을 생성하기 위한 방법들, 및 관련 디바이스들, 시스템들 및 컴퓨터 프로그램 제품들 Download PDF

Info

Publication number
KR20170094279A
KR20170094279A KR1020177018355A KR20177018355A KR20170094279A KR 20170094279 A KR20170094279 A KR 20170094279A KR 1020177018355 A KR1020177018355 A KR 1020177018355A KR 20177018355 A KR20177018355 A KR 20177018355A KR 20170094279 A KR20170094279 A KR 20170094279A
Authority
KR
South Korea
Prior art keywords
virtual body
garment
image
user
body model
Prior art date
Application number
KR1020177018355A
Other languages
English (en)
Inventor
유 첸
닉 막스
다이애나 니코로바
루크 스미스
레이 밀러
조 타운센드
닉 데이
롭 머피
짐 다우닝
에드워드 클레이
마이클 마허
톰 아데율라
Original Assignee
미테일 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB1502806.1A external-priority patent/GB201502806D0/en
Priority claimed from GBGB1514450.4A external-priority patent/GB201514450D0/en
Application filed by 미테일 리미티드 filed Critical 미테일 리미티드
Publication of KR20170094279A publication Critical patent/KR20170094279A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)

Abstract

3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 컴퓨팅 디바이스의 스크린 상에 디스플레이하기 위한 생성하기 위한 방법이 개시되며, 컴퓨팅 디바이스는 센서 시스템을 포함하고, 방법은: (a) 3D 가상 신체 모델을 생성하는 단계; (b) 3D 가상 신체 모델 위에 중첩하기 위한 3D 의복 이미지를 생성하는 단계; (c) 3D 의복 이미지를 3D 가상 신체 모델 상에 중첩하는 단계; (d) 3D 가상 신체 모델 상에 중첩된 3D 의복 이미지를 상기 스크린 상에 제시하는 단계; (e) 센서 시스템을 사용하여 위치 변화를 검출하는 단계, 및 (f) 위치 변화가 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 3D 가상 신체 모델 상에 중첩된 3D 의복 이미지를 스크린 상에 제시하는 단계를 포함한다. 관련 방법들, 디바이스들, 시스템들 및 컴퓨터 프로그램 제품들이 또한 개시된다.

Description

3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하기 위한 방법들, 및 관련 디바이스들, 시스템들 및 컴퓨터 프로그램 제품들{METHODS FOR GENERATING A 3D VIRTUAL BODY MODEL OF A PERSON COMBINED WITH A 3D GARMENT IMAGE, AND RELATED DEVICES, SYSTEMS AND COMPUTER PROGRAM PRODUCTS}
본 발명의 기술분야는 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하기 위한 방법들, 및 관련 디바이스들, 시스템들 및 컴퓨터 프로그램 제품들에 관한 것이다.
배경기술
옷을 판매할 때, 옷 가게들 또는 상점들은 마네킹에 옷의 샘플을 디스플레이하는 경향이 있고 그에 따라 고객들은 옷이 고객에게 어떨지를 모사하는 방식으로 옷의 샘플을 둘러볼 수 있다. 그러한 보기는 기본적으로 3D 경험인데, 이는 보는 사람이 다양한 관점에서 마네킹 상의 의복을 보기 위해, 옷을 입은 마네킹을 살피면서, 가게 또는 상점을 이동하거나 마네킹 주위를 이동할 수 있기 때문이다. 다른 관점들에서 옷을 디스플레이하는 것은 대단히 가치 있는 목표이다: 패션 회사들은 의류 아이템들을 디스플레이 하기 위해 무대를 왔다 갔다 하는 모델들을 쓴다. 모델이 무대를 왔다 갔다 할 때, 보는 사람은 자동적으로 의류 아이템들의 많은 관점을, 3D로 보게 된다. 그러나, 패션쇼에서 의류 아이템들을 디스플레이하기 위해 패션 모델들을 쓰는 것은 시간 소모가 크고 비용이 많이 소요되는 작업이다.
3D 신체 모델 상의 의류 아이템들을 컴퓨터 스크린 상에 보이는 것이 알려져 있다. 그러나 3D 신체 모델 상의 의륨품들을 컴퓨터 스크린 상에 보이는 것이 옷 가게 또는 상점을 이동하면서, 또는 마네킹 주위를 이동하면서, 또는 모델이 무대를 왔다 갔다 하는 것을 보면서 마네킹 상의 의류 아이템들을 보는 기술적 경험을 간단하고 저비용으로 모사하지 않는다는 과제에 대한 기술적 해결수단을 제공하는 것이 바람직하다.
옷을 쇼핑하는 것의 이용가능한 옵션들이 이상과는 먼 몇몇 측면이 있다. 예를 들어, 사용자가 무엇을 사야할 지 결정하기 원하는 경우, 그녀는 다양한 의류 아이템을 입어봐야 할 수 있다. 탈의실에서 마지막 의류 아이템을 입고 자신들을 거울로 볼 때, 사용자는 기억을 더듬어, 해당 의류 아이템이 그녀가 이미 입어본 다른 의류 아이템들과 어떻게 비교되는 지 결정해야 한다. 그리고 그녀는 한 번에 단지 한 벌의 의상만 입어볼 수 있기 때문에, 사용자가 다른 의상들을 입은 그녀 자신을 동시에 비교하는 것은 물리적으로 불가능하다. 사용자는 또한 비슷한 의상을 입은 그녀 자신을 동일한 의상 또는 다른 의상을 입은 다른 사용자(어쩌면 라이벌)와 비교하고 싶을 수 있다. 그러나 다른 사용자는 그러한 비교에 참여하기를 꺼릴 수 있거나, 또는 다른 사용자가 그러한 비교에 참여하는 것은 비현실적일 수 있다. 의상들을 비교하는, 그리고 다른 의상들을 입은 다른 사용자들을 비교하는 개선된 방법을 제공하는 것이 바람직하다.
3D 신체 모델 상의 의류 아이템들을 컴퓨터 스크린 상에 보이는 것이 알려져 있으나, 상대적으로 상세한 보기가 요구되기 때문에, 그리고 적합한 3D 신체 모델 상의 원하는 의류 아이템을 보는 것이 필요할 수 있는 많은 옵션으로 인해, 그리고 전형적으로 3D 신체 모델들 상의 의복의 보기를 제공하는 서비스에 등록하기 위한 요건으로 인해, 모바일 컴퓨팅 디바이스들은 지금까지 그러한 작업에 상대적으로 적합하지 않았다. 이러한 문제들 중 적어도 몇몇 문제를 극복하는, 3D 신체 모델 상의 선택된 의류 아이템을 모바일 컴퓨팅 디바이스 상에 보이는 방법을 제공하는 것이 바람직하다.
관련 기술 논의
참조로 원용되는 WO2012110828A1, GB2488237A 및 GB2488237B는 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성 및 공유하기 위한 방법을 개시하며, 여기서:
(a) 3D 가상 신체 모델은 사용자 데이터로부터 생성되고;
(b) 3D 의복 이미지는 의복의 다수의 2D 사진을 분석 및 프로세싱함으로써 생성되며; 그리고
(c) 3D 의복 이미지는 3D 가상 신체 모델 위에 중첩되어 제시된다. 방법을 수행하도록 적합하게 된 또는 작동가능한 시스템이 또한 개시된다.
EP0936593B1은 운전자 의류 및 다양한 운전 액세서리에 대응하는 하나 이상의 요소에 의해 형성되는 자동차 부분 섹터에 의해 분리되는, 두 고정된 섹터, 즉 뒷 섹터 및 앞 섹터로 형성되는 전체 이미지 필드를 제공하는 시스템을 제공한다. 이미지의 가운데에 있는, 자동차 부분 섹터는 전체 스탬핑에 동적 효과를 주고 그에 따라 육안으로 보이는 동적인 3차원 시각적 지각성을 생성한다. 마크 스탬핑의 정확한 시야 뷰를 얻기 위해, 스캐너가 물리적 모델: 오토바이 및 운전자의 부분을 만드는 3-차원 데이터를 수신하기 위해 사용된다. 그 후 처리 시 3차원 데이터 뿐만 아니라 마크 스탬핑 데이터가 전용 소프트웨어를 갖는 컴퓨터에 입력된 다음, 기술된 데이터는 이미지가 커버될 표면 또는 데이터베이스의 특성들을 얻음에 따라 변형 스탬핑의 전체 이미지를 얻도록 프로세싱된다. 그에 따라 획득된 이미지는 그 시각적 지각성을 변경시키지 않고 곡면에 적용된다.
본 발명의 제1 측면에 따르면, 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 컴퓨팅 디바이스의 스크린 상에 디스플레이하기 위한 생성하기 위한 방법이 개시되며, 컴퓨팅 디바이스는 센서 시스템을 포함하고, 방법은:
(a) 3D 가상 신체 모델을 생성하는 단계;
(b) 3D 가상 신체 모델 위에 중첩하기 위한 3D 의복 이미지를 생성하는 단계;
(c) 3D 의복 이미지를 3D 가상 신체 모델 상에 중첩하는 단계;
(d) 3D 가상 신체 모델 상에 중첩된 3D 의복 이미지를 상기 스크린 상에 제시하는 단계;
(e) 센서 시스템을 사용하여 위치 변화를 검출하는 단계, 및
(f) 위치 변화가 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 3D 가상 신체 모델 상에 중첩된 3D 의복 이미지를 스크린 상에 제시하는 단계를 포함한다.
이점은 사용자가 그들의 위치를 바꾸는 것에 응답하여, 3D 가상 신체 모델 상에 중첩되는 3D 의복의 다른 뷰를 제공받는다는 것이며, 이는 사용자가 마네킹 주위를 이동함에 따라, 사용자가 마네킹 상의 의복의 다른 뷰를 획득하는 것과 유사하다. 사용자는 대안적으로 컴퓨팅 디바이스를 기울일 수 있고, 기술적으로 유사한 효과를 제공받을 수 있다.
상기 방법은 상기 3D 가상 신체 모델 상에 중첩되어 상기 스크린 상에 제시된 변형되는 상기 3D 의복 이미지가 원근법에 따라 변형되는 것일 수 있다.
상기 방법은 3D 가상 신체 모델 이미지 변형은 일련의 사전-렌더링된 이미지를 사용하여 제공되는 것일 수 있다. 이점은 위치 변화 및 변형된 이미지를 제공하는 사이 필요한 컴퓨팅 시간이 감소된다는 것이다.
상기 방법은 상기 3D 가상 신체 모델은 상기 3D 가상 신체 모델을 다른 각도들로 도시하는 점진적인 일련의 이미지를 사용하여 회전하는 것으로 제시되는 것일 수 있다.
상기 방법은 상기 위치 변화는 상기 스크린 표면 법선 벡터의 기울임인 것일 수 있다. 이점은 사용자가 이동할 필요가 없다는 것이고; 대신 그들은 그들의 컴퓨팅 디바이스를 간단히 기울일 수 있다.
상기 방법은 상기 센서 시스템이 가속도계를 포함하는 것일 수 있다. 상기 방법은 상기 센서 시스템이 자이로스코프를 포함하는 것일 수 있다. 상기 방법은 상기 센서 시스템이 자기력계를 포함하는 것일 수 있다.
상기 방법은 상기 사용자가 상기 컴퓨팅 디바이스를 기울임으로써 상기 3D 가상 신체 모델의 측부들 주위를 이동할 수 있는 느낌을 받는 것일 수 있다.
상기 방법은 상기 센서 시스템이 상기 컴퓨팅 디바이스의 카메라를 포함하는 것일 수 있다. 카메라는 가시 광 카메라일 수 있다. 카메라는 적외선 카메라일 수 있다.
상기 방법은 상기 센서 시스템이 상기 컴퓨팅 디바이스의 입체 카메라들의 쌍을 포함하는 것일 수 있다. 이점은 위치 변화 검출의 정확도가 개선되는 것이다.
상기 방법은 상기 위치 변화가 사용자의 머리의 움직임인 것일 수 있다. 이점은 기술적으로 사용자가 그들이 다른 각도에서 실제 물체를 보기 위해 이동할 방법과 동일하거나 유사한 방식으로 이동한다는 점이다.
상기 방법은 상기 위치 변화가 머리 추적기 모듈을 사용하여 검출되는 것일 수 있다.
상기 방법은 상기 사용자가 그들의 머리를 상기 컴퓨팅 디바이스 주위에서 이동시킴으로써 상기 3D 가상 신체 모델의 측부들 주위를 이동할 수 있는 느낌을 받는 것일 수 있다.
상기 방법은 상기 스크린 상의 상기 이미지 및 다른 객체들이 사용자 머리 움직임에 응답하여 자동적으로 이동하는 것일 수 있다.
상기 방법은 상기 컴퓨팅 디바이스가 모바일 컴퓨팅 디바이스인 것일 수 있다.
상기 방법은 상기 모바일 컴퓨팅 디바이스가 모바일 폰, 또는 태블릿 컴퓨터, 또는 머리에 장착하는 디스플레이인 것일 수 있다. 모바일 폰은 스마트폰일 수 있다.
상기 방법은 상기 모바일 컴퓨팅 디바이스가 계속하기 위해, 사용자에게 상기 모바일 컴퓨팅 디바이스를 회전시킬 것을 요청하는 것일 수 있다. 이점은 사용자가 그것이 보여지도록 의도된 형식(초상 또는 풍경)으로 컨텐츠를 보도록 장려된다는 점이다.
상기 방법은 상기 컴퓨팅 디바이스가 데스크탑 컴퓨터, 또는 랩탑 컴퓨터, 또는 스마트 TV, 또는 머리에 장착하는 디스플레이인 것일 수 있다. 스마트 TV의 사용은 액티브 (셔텨 글라스) 3D 디스플레이, 또는 패시브 (폴라리스 글라스) 3D 디스플레이의 사용을 포함할 수 있다.
상기 방법은 상기 3D 가상 신체 모델이 사용자 데이터로부터 생성되는 것일 수 있다.
상기 방법은 상기 3D 의복 이미지가 의복의 하나 또는 다수의 2D 사진을 분석 및 프로세싱함으로써 생성되는 것일 수 있다.
상기 방법은 상기 스크린이 장면을 제시하되, 상기 장면은 상기 3D 가상 신체 모델의 발의 중심점이 회전점으로 설정되고, 그에 따라 상기 사용자가 상기 모델 주위를 이동하여 다른 각도들을 보는 인상을 받는 것일 수 있다.
상기 방법은 장면이 다음 적어도 세 개의 이미지: 3D 신체 모델, 먼 배경, 및 플로어로 구성되는 것일 수 있다.
상기 방법은 배경 이미지들이 3D 기하학적 구조로 프로그램에 따라 변환되는 것일 수 있다.
상기 방법은 상기 배경의 먼 부분이 상기 플로어 섹션과 독립적으로 배치되며, 상기 먼 이미지는 수직면으로 배치되고, 상기 플로어 이미지는 상기 플로어 이미지의 상부가 상기 플로어 이미지의 하부보다 깊도록 배향되는 것일 수 있다.
상기 방법은 배경 이미지를 수평선으로 분할함으로써, 상기 배경 이미지 및 플로어 이미지들이 분리되는 것일 수 있다.
상기 방법은 각 배경 이미지에 대한 깊이 값이 상기 배경 이미지의 자원에 대한 메타데이터에 설정되고 저장되는 것일 수 있다.
상기 방법은 상기 스크린 내에서, 장면이 그것을 다른 피처들과 분리되게 유지하기 위해 프레임 내에 제시되고, 상기 프레임은 상당히 줌 인 또는 회전될 때 상기 장면의 가장자리 부분들이 보이지 않도록 콘텐츠를 크롭하는 것일 수 있다.
상기 방법은 두 개의 별개의 회전 위치에 렌더링되는 3D 가상 신체 모델 이미지들로 좌안/우안 이미지 쌍을 생성함으로써, 상기 3D 가상 신체 모델의 양안시가 3D 디스플레이 디바이스 상에 생성되는, 것일 수 있다.
상기 방법은 상기 3D 디스플레이 디바이스가 액티브 (셔텨 글라스) 3D 디스플레이, 또는 패시브 (폴라리스 글라스) 3D 디스플레이인 것일 수 있다.
상기 방법은 상기 3D 디스플레이 디바이스가 스마트 TV와 함께 사용되는 것일 수 있다.
상기 방법은 감도 및 장면 모습을 커스터마이즈하기 위해 다양한 설정을 포함하는 사용자 인터페이스가 제공되는 것일 수 있다.
상기 방법은 상기 설정들이 다음: 이용가능한 배경 이미지들을 반복, 이미지들이 저장되는 이용가능한 의복들을 반복, 최대 시야각을 설정, 디스플레이될 최대 가상 아바타 이미지 회전을 설정, 상기 가상 아바타가 회전해야 할 증분을 설정, 사용될 이미지 크기를 설정, 메인 스크린의 배경 섹션 및 가상 아바타를 줌 인/아웃 중 하나 이상을 포함하는 것일 수 있다.
상기 방법은 상기 3D 가상 신체 모델 및 상기 3D 가상 신체 모델 상에 입혀진 상기 3D 의복의 3D 텍스처 기하학적 구조가 모두 제시될 때, 회전된 3D 가상 신체 모델로 렌더를 생성하는 단계가 상기 렌더링 프로세스 동안 수직축을 따라 카메라 뷰 회전을 적용함으로써 구현되는 것일 수 있다.
상기 방법은 2D 의복 모델들이 의상을 위해 사용될 때, 2D 의복 모델들의 회전된 버전을 생성하는 단계는 먼저 추정에 기초하여 상기 2D 의복 모델의 상기 3D 기하학적 구조를 근사화하여, 깊이 계산을 수행하는 단계를 수반하고, 최종적으로 대응하는 2D 텍스처 움직임이 3D 회전을 에뮬레이트하기 위해 상기 이미지에 적용되는 것일 수 있다.
상기 방법은 단일 2D 텍스처 절단부분 또는 실루엣을 갖는 2D 동체-기반 의복 모델에 대해, 상기 의복의 상기 3D 기하학적 구조가 상체 주위에서, 상기 의복은 기초적인 체형의 상기 기하학적 구조를 밀접하게 따르고; 하체 주위에서, 상기 의복은 신체의 원점을 중심으로 하여, 다양한 축 길이를 갖는 타원 기둥면에 가까운 단순화들을 적용함으로써 근사화되는 것일 수 있다.
상기 방법은 각 픽셀의 깊이 근사치들에 의해 주어진 정점들의 점군으로부터 얼굴들을 갖춘 부드러운 3D 메쉬를 생성하는 단계, 및 요청된 뷰에 대해 상기 의복의 최종 정규화된 깊이 맵을 생성하는 단계를 포함하는 것일 수 있다.
상기 방법은 상기 깊이 맵이 수직축에 대한 면외 회전을 시뮬레이트하기 위해 상기 의복 텍스처 상의 소정의 지점이 상기 이미지에서 이동해야 할 정도를 계산하기 위해 사용되는 것일 수 있다.
상기 방법은 상기 사용자의 3D 체형 모델의 기초적인 머리 및 목 밑 기하학적 구조가 근사 3D 기하학적 구조로서 사용되고, 2D 텍스처 몰핑 및 몰프 필드 외삽 접근법을 사용하여 단일 2D 텍스처 이미지로부터 머리 스프라이트/헤어스타일의 3D 회전을 모델링하는 단계가 수행되는 것일 수 있다.
본 발명의 제2 측면에 따르면, 스크린, 센서 시스템 및 프로세서를 포함하는 컴퓨팅 디바이스가 제공되고, 상기 컴퓨팅 디바이스는 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 상기 스크린 상에 디스플레이하도록 구성되며, 상기 프로세서는:
(a) 상기 3D 가상 신체 모델을 생성하고;
(b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하고;
(c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하고;
(d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하고;
(e) 상기 센서 시스템을 사용하여 위치 변화를 검출하며, 그리고
(f) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시한다.
상기 컴퓨팅 디바이스는 본 발명의 제1 측면의 어느 하나의 측면의 방법을 수행하도록 더 구성될 수 있다.
본 발명의 제3 측면에 따르면, 서버 및 상기 서버와 통신하는 컴퓨팅 디바이스를 포함하는 시스템이 제공되고, 상기 컴퓨팅 디바이스는 스크린, 센서 시스템 및 프로세서를 포함하고, 상기 서버는 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델의 이미지를 상기 컴퓨팅 디바이스에 송신하도록 구성되되, 상기 서버는:
(a) 상기 3D 가상 신체 모델을 생성하고;
(b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하고;
(c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하고;
(d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지의 상기 이미지를 상기 컴퓨팅 디바이스에 송신하고;
상기 컴퓨팅 디바이스는:
(e) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하고;
(f) 상기 센서 시스템을 사용하여 위치 변화를 검출하며, 그리고
(g) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지에 대한 요청을 상기 서버에 송신하고;
상기 서버는
(h) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지의 이미지를 상기 컴퓨팅 디바이스에 송신하며; 그리고
상기 컴퓨팅 디바이스는:
(i) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시한다.
상기 시스템은 본 발명의 제1 측면에 따른 임의의 측면의 방법을 수행하도록 더 구성될 수 있다.
본 발명의 제4 측면에 따르면, 프로세서를 포함하는 컴퓨팅 디바이스 상에서 실행가능한 컴퓨터 프로그램 제품이 제공되고, 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 디스플레이에 제공하도록 구성되며,
(a) 상기 3D 가상 신체 모델을 생성하고;
(b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하고;
(c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하고;
(d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 스크린 상에 디스플레이하도록 제공하고;
(e) 센서 시스템을 사용하여 위치 변화의 검출을 수신하며, 그리고
(f) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 디스플레이하도록 제공하도록 구성된다.
상기 컴퓨터 프로그램 제품은 본 발명의 제1 측면에 따른 임의의 측면의 방법을 수행하도록 더 구성될 수 있다.
본 발명의 제5 측면에 다르면, 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 컴퓨팅 디바이스의 스크린 상에, 단일 장면으로 디스플레이하기 위한 방법이 제공되고, 상기 방법은:
(a) 상기 복수의 3D 가상 신체 모델을 생성하는 단계;
(b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하는 단계;
(c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하는 단계, 및
(d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 상기 스크린 상에 제시하는 단계를 포함한다.
각각의 다른 3D 의복 이미지들이 복수의 3D 가상 신체 모델 상에 중척되는 장면이 제공되기 때문에, 이점은 그러한 장면이 비교적 빠르고 저렴하게 어셈블될 수 있다는 점이며, 이는 동등한 실제 생활 장면을 제공하기 위해 다수의 모델을 고용하고 그들에게 옷을 입히는 대안에 대한 기술적 이점들이다. 추가 이점은 사용자가 특정 의상을 입은 그녀 자신을 다양한 다른 의상을 입은 그녀 자신과 비교한다는 점이고, 이는 물리적으로 불가능할 것인데, 사용자가 한 번에 하나보다 많은 의상을 물리적으로 모델링할 수 없기 때문이다.
상기 방법은 상기 복수의 3D 가상 신체 모델이 복수의 각각의 상이한 사람의 것인 것일 수 있다. 이점은 실제 사람들을 어셈블하고 실제로 그들에 의상들을 입힐 필요 없이, 사용자가 특정 의상을 입은 그녀 자신을 다양한 의상을 입은 그녀의 소셜 그룹의 다른 사용자들과 비교할 수 있다는 점인데, 이는 그러한 실제 사람들이 할 수 없는 것, 또는 하려고 하지 않는 것일 수 있다.
상기 방법은 상기 복수의 3D 가상 신체 모델이 각각의 상이한 시야각들로 제시되는 것일 수 있다.
상기 방법은 상기 복수의 3D 가상 신체 모델이 적어도 세 개의 3D 가상 신체 모델인 것일 수 있다. 이점은 둘 보다 많은 모델이 한 번에 비교될 수 있다는 점이다.
상기 방법은 스크린 이미지가 상이한 3D 가상 신체 모델들이 다양한 체형에 대해 의복들과 함께 모델링되게 하는 시각화 엔진을 사용하여 생성되는 것일 수 있다.
상기 방법은 스크린 장면에서 3D 가상 신체 모델들이 다수의 열로 분산되는 것일 수 있다.
상기 방법은 각 열 내에서 상기 3D 가상 신체 모델들이 균등하게 이격되는 것일 수 있다.
상기 방법은 상기 스크린 장면이 3D 가상 신체 모델들을 원근법에 의해 제시하는 것일 수 있다.
상기 방법은 의복들이 각 3D 가상 신체 모델에 무작위로 할당되거나, 또는 사용자 입력에 의해, 또는 사용자에 의한 검색의 결과로서 사전-결정되거나, 또는 다른 사용자에 의해 생성되거나, 또는 알고리즘에 의해 결정되는 것일 수 있다.
상기 방법은 3D 가상 신체 모델들의 집합의 상기 단일 장면이 상기 스크린 상에서 스크롤가능한 것일 수 있다. 상기 방법은 3D 가상 신체 모델들의 집합의 상기 단일 장면이 상기 스크린 상에서 수평으로 스크롤가능한 것일 수 있다.
상기 방법은 상기 사용자가 상기 3D 가상 신체 모델들의 집합의 끝까지 스크롤하는 경우 상기 장면을 반복함으로써 매끄러운 경험이 제공되는 것일 수 있다.
상기 방법은 상기 단일 장면은 측면으로 또는 풍경 모드 양상들로 제공가능한 것일 수 있다.
상기 방법은 상기 스크린이 터치 스크린인 것일 수 있다.
상기 방법은 상기 스크린 상의 의상을 터치하면 상기 의복들의 세부사항들을 제공하는 것일 수 있다.
상기 방법은 상기 스크린 상의 의상을 터치하면 관련 무대 비디오를 제공하는 것일 수 있다.
상기 방법은 상기 장면이 사용자의 손가락이 상기 스크린 위를 수평으로 슬라이딩하는 것에 응답하여 이동하는 것일 수 있다.
상기 방법은 이러한 동작으로, 상기 스크린에서의 상기 신체 모델들 전부가 미리 정의된 속도들로 이동하여 카메라 뷰 선형 변위 효과를 원근법 장면으로 생성하는 것일 수 있다.
상기 방법은 상기 장면에서의 상이한 깊이 레이어들에 상이한 슬라이딩 속도들을 적용함으로써, 원근법 동적 레이어링 효과가 제공되는 것일 수 있다.
상기 방법은 각 3D 가상 신체 모델의 수평 변환이 상기 장면에서의 각 3D 가상 신체 모델의 깊이에 반비례하는 것일 수 있다.
상기 방법은 사용자가 스와이프하고, 그들의 손가락이 터치스크린에서 들어 올릴 때, 모든 레이어기 점차 중단하는 것일 수 있다.
상기 방법은 사용자가 그들의 손가락을 상기 스크린 위에서, 각각, 수직하방향으로 또는 수직상방향으로 슬라이딩하는 것에 응답하여, 상기 장면이 다음 플로어, 상층들 또는 하층들로 전환되는 것일 수 있다.
상기 방법은 상기 장면이 다음 플로어로 전환된 후, 이전에 배경에 있던 상기 3D 가상 신체 모델들이 전경으로 오는 한편, 이전에 상기 전경에 있던 상기 3D 가상 신체 모델들이 상기 배경으로 이동하는 것일 수 있다.
상기 방법은 각 3D 가상 신체 모델의 중심 위치가 상기 전환 변환 동안 타원 궤적을 따르는 것일 수 있다.
상기 방법은 각 플로어에, 트렌드 또는 브랜드의 의복들 및/또는 의상들이 디스플레이가능한 것일 수 있다.
상기 방법은 상기 3D 가상 신체 모델들의 반투명성 및 깊이에 대하여, 장면에서의 상이한 깊이 레이어들의 반투명을 모델링하기 위해 포그 모델(fog model)이 적용되는 것일 수 있다.
상기 방법은 상기 컴퓨팅 디바이스가 센서 시스템을 포함하는 것일 수 있고, 상기 방법은
(e) 센서 시스템을 사용하여 위치 변화를 검출하는 단계, 및
(f) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델들 상에 중첩된 상기 3D 의복 이미지들을 상기 스크린 상에 제시하는 단계를 포함한다.
상기 방법은 상기 변형이 원근법에 따른 변형인 것일 수 있다.
상기 방법은 상기 위치 변화는 상기 스크린 표면 법선 벡터의 기울임인 것일 수 있다.
상기 방법은 상기 센서 시스템이 가속도계를 포함하는 것일 수 있다.
상기 방법은 상기 센서 시스템이 자이로스코프를 포함하는 것일 수 있다.
상기 방법은 상기 센서 시스템이 자기력계를 포함하는 것일 수 있다.
상기 방법은 상기 센서 시스템이 상기 컴퓨팅 디바이스의 카메라를 포함하는 것일 수 있다. 카메라는 가시 광 카메라일 수 있다. 카메라는 적외선 카메라일 수 있다.
상기 방법은 상기 센서 시스템이 상기 컴퓨팅 디바이스의 입체 카메라들의 쌍을 포함하는 것일 수 있다.
상기 방법은 상기 위치 변화가 사용자의 머리의 움직임인 것일 수 있다.
상기 방법은 상기 위치 변화가 머리 추적기 모듈을 사용하여 검출되는 것일 수 있다.
상기 방법은 상기 이미지 및 다른 객체들이 사용자 머리 움직임에 응답하여 자동적으로 이동하는 것일 수 있다.
상기 방법은 상기 컴퓨팅 디바이스가 모바일 컴퓨팅 디바이스인, 것일 수 있다.
상기 방법은 상기 모바일 컴퓨팅 디바이스가 모바일 폰, 또는 태블릿 컴퓨터, 또는 머리에 장착하는 디스플레이인 것일 수 있다.
상기 방법은 상기 모바일 컴퓨팅 디바이스가 모바일 폰이고 3.5개 이하의 3D 가상 신체 모델이 상기 모바일 폰 스크린 상에 나오는 것일 수 있다.
상기 방법은 상기 컴퓨팅 디바이스가 데스크탑 컴퓨터, 또는 랩탑 컴퓨터, 또는 스마트 TV, 또는 머리에 장착하는 디스플레이인 것일 수 있다. 스마트 TV의 사용은 액티브 (셔텨 글라스) 3D 디스플레이, 또는 패시브 (폴라리스 글라스) 3D 디스플레이의 사용을 포함할 수 있다.
상기 방법은 상기 3D 가상 신체 모델들이 사용자 데이터로부터 생성되는 것일 수 있다.
상기 방법은 상기 3D 의복 이미지들이 의복들의 하나 또는 다수의 2D 사진을 분석 및 프로세싱함으로써 생성되는 것일 수 있다.
상기 방법은 상기 장면에서, 플로어 및 배경이 그것을 집단이 특정 장소에 있는 것처럼 보이게 만드는 이미지들인 것일 수 있다.
상기 방법은 배경 및 플로어가 상기 사용자에 의해 선택되거나 몇몇 의복 컬렉션에 매칭하도록 커스터마이즈될 수 있는 것일 수 있다.
상기 방법은 상기 배경 상의 조명 변화가 디스플레이된 상기 장면에 포함되는 것일 수 있다.
상기 방법은 사용자가 상기 3D 가상 신체 모델들과 상호작용하여 상기 3D 가상 신체 모델들을 탐색할 수 있는 것일 수 있다.
상기 방법은 모델을 선택하면 상기 사용자가 상기 모델 상의 상기 의상의 세부사항들을 보게 하는 것일 수 있다.
상기 방법은 상기 사용자가 그들 자신의 3D 가상 신체 모델 상에 상기 의상을 입혀볼 수 있는 것일 수 있다.
상기 방법은 3D 가상 신체 모델 다음의 아이콘을 선택하면 다른 이들과 공유하는 것, 소셜 미디어 상에서 좋아요하는 것, 다음을 위해 저장하는 것, 및 평가하는 것 중 하나 이상을 가능하게 하는 것일 수 있다.
상기 방법은 상기 3D 가상 신체 모델들에 의복들이 입혀지고, 다음 기준들: 가장 인기 있는 의복들; 가장 신상품인 의복들; 미리 정의된 의복과 동일한 타입/ 카테고리/스타일/트렌드의 의복들; 이용가능한 사용자의 선호 사이즈를 갖는 의복들; 미리 정의된 의복과 동일한 브랜드/판매점의 의복들; 가장 최근에 방문한 의복에서 가장 오래 전 방문한 의복으로 정렬된 중 하나 이상에 따라 순서화되는 것일 수 있다.
상기 방법은 사용자가 그들 자신의 집단을 만들고 선호 의상들의 옷장을 저장하기 위해 그것을 사용할 수 있는 것일 수 있다.
상기 방법은 의상 검색 엔진으로부터의 결과들을 디스플레이하기 위해 사용가능한 사용자 인터페이스가 제공되는 것일 수 있다.
상기 방법은 방법이 본 발명의 제1 측면에 따른 임의의 측면의 방법을 포함하는 것일 수 있다.
본 발명의 제6 측면에 따르면, 스크린 및 프로세서를 포함하는 컴퓨팅 디바이스가 제공되고, 상기 컴퓨팅 디바이스는 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 상기 컴퓨팅 디바이스의 상기 스크린 상에, 단일 장면으로 디스플레이하도록 구성되되, 상기 프로세서는:
(a) 상기 복수의 3D 가상 신체 모델을 생성하고;
(b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하고;
(c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하며, 그리고
(d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 상기 스크린 상에 제시한다.
상기 컴퓨팅 디바이스는 본 발명의 제5 측면에 따른 임의의 측면의 방법을 수행하도록 구성될 수 있다.
본 발명의 제7 측면에 따르면, 프로세서를 포함하는 서버가 제공되고, 상기 서버는 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 단일 장면으로 디스플레이하기 위해 제공하도록 구성되되, 상기 프로세서는:
(a) 상기 복수의 3D 가상 신체 모델을 생성하고;
(b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하고;
(c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하며, 그리고
(d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 디스플레이하기 위해 제공한다.
상기 서버는 본 발명의 제5 측면에 따른 임의의 측면의 방법을 수행하도록 구성될 수 있다.
본 발명의 제8 측면에 따르면, 프로세서를 포함하는 컴퓨팅 디바이스 상에서 실행가능한 컴퓨터 프로그램 제품이 제공되고, 상기 컴퓨터 프로그램 제품은 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 단일 장면으로 디스플레이하기 위해 제공하도록 구성되며, 상기 컴퓨터 프로그램 제품은:
(a) 상기 복수의 3D 가상 신체 모델을 생성하고;
(b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하고;
(c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하며, 그리고
(d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 디스플레이하기 위해 제공하도록 구성된다.
상기 컴퓨터 프로그램 제품은 본 발명의 제5 측면에 따른 임의의 측면의 방법을 수행하도록 구성될 수 있다.
본 발명의 제9 측면에 따르면, 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 모바일 컴퓨팅 디바이스의 스크린 상에 디스플레이하기 위한 생성하기 위한 방법이 제공되고, 여기서:
(a) 상기 3D 가상 신체 모델은 사용자 데이터로부터 생성되고;
(b) 의복 선택이 수신되고;
(c) 3D 의복 이미지는 선택된 상기 의복에 대해 생성되며, 그리고
(d) 상기 3D 의복 이미지는 상기 3D 가상 신체 모델 위에 중첩되어 상기 스크린 상에 제시된다.
상기 방법은 의복 사이즈 및 핏 조언이 제공되고, 선택된 사이즈를 포함하여 상기 의복 선택이 수신되는 것일 수 있다.
상기 방법은 상기 3D 의복 이미지가 상기 의복의 하나 또는 다수의 2D 사진을 분석 및 프로세싱함으로써 생성되는 것일 수 있다.
상기 방법은 사용자가 새로운 사용자 계정을 생성하기 위한, 또는 소셜 네트워크를 통해 가입하기 위한 인터페이스가 상기 모바일 컴퓨팅 디바이스 상에 제공되는 것일 수 있다.
상기 방법은 상기 사용자가 그들의 프로필을 편집할 수 있는 것일 수 있다.
상기 방법은 상기 사용자가 그들의 키 및 몸무게를 선택할 수 있는 것일 수 있다.
상기 방법은 상기 사용자가 그들의 피부 톤을 선택할 수 있는 것일 수 있다.
상기 방법은 상기 사용자가 그들의 허리 및 엉덩이 사이즈를 선택할 수 있는 것일 수 있다.
상기 방법은 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 상기 모바일 컴퓨팅 디바이스의 상기 스크린 상에, 단일 장면으로 디스플레이하기 위한 방법을 포함하는 것일 수 있으며, 상기 방법은:
(a) 상기 복수의 3D 가상 신체 모델을 생성하는 단계;
(b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하는 단계;
(c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하는 단계, 및
(d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 상기 스크린 상에 제시하는 단계를 포함한다.
상기 방법은 상기 사용자가 3D 신체 모델 상에 디스플레이된 의상을 '좋아요'하기 위한 아이콘이 제공되는 것일 수 있다.
상기 방법은 3D 신체 모델을 선택함으로써, 상기 사용자가 해당 특정 룩의 소셜 뷰로 가게 되는 것일 수 있다.
상기 방법은 상기 사용자가 해당 특정 의상을 누가 생성했는지를 볼 수 있고 해당 특정 의상을 생성한 사용자의 프로필 뷰에 도달할 수 있는 것일 수 있다.
상기 방법은 상기 사용자가 해당 의상에 대한 코멘트를 기록할 수 있는 것일 수 있다.
상기 방법은 상기 사용자가 상기 의상을 '좋아요'할 수 있는 것일 수 있다.
상기 방법은 상기 사용자가 '의복 정보' 뷰에 연결할 수 있는 것일 수 있다.
상기 방법은 상기 사용자가 그들 자신의 3D 가상 신체 모델 상에 상기 의상을 입혀볼 수 있는 것일 수 있다.
상기 방법은 상기 사용자의 3D 가상 신체 모델에 대한 신체 치수들이 등록되기 때문에, 상기 의상이 상기 사용자의 체형에 어떻게 보일지 디스플레이되는 것일 수 있다.
상기 방법은 다른 유형들의 선택가능한 의복들을 디스플레이하는 스크롤가능한 섹션 및 상기 3D 가상 신체 모델이 입고 있거나 이전에 입었던 아이템들을 디스플레이하는 섹션이 제공되는 것일 수 있다.
상기 방법은 상기 스크린이 터치 스크린인 것일 수 있다.
상기 방법은 상기 3D 가상 신체 모델이 여러 번 탭핑될 수 있고 그렇게 해서 연속 회전 단계들로 회전하는 것일 수 있다.
상기 방법은 상기 사용자가 룩을 저장하도록 선택할 수 있는 것일 수 있다.
상기 방법은 룩을 저장한 후, 상기 사용자가 그것을 소셜 네트워크들에 공유하도록 선택할 수 있는 것일 수 있다.
상기 방법은 상기 사용자가 해시태그들을 사용하여 그들의 룩에 대한 그룹들 및 카테고리들을 생성할 수 있는 것일 수 있다.
상기 방법은 생성된 새로운 룩과 동일한 카테고리에 속하는 3D 가상 신체 모델들과 시차 뷰가 제공되는 것일 수 있다.
상기 방법은 메뉴가 다른 경우들을 디스플레이하고; 경우를 선택하면 해당 특정 카테고리에 속하는 가장 아바타들과 함께 시차 집단 뷰를 디스플레이하는 것일 수 있다.
상기 방법은 뷰가 다음 중 하나 이상을 디스플레이하는 상기 사용자의 프로필 뷰의 메뉴로부터 이용가능한 것일 수 있다: 상기 사용자가 갖는 룩의 수, 다른 의상들에 대한 좋아요 수, 팔로워 수 및 상기 사용자가 얼마나 많은 사람을 팔로잉하는지를 제시하는 통계와 함께 상기 사용자가 생성한 상기 의상들을 제시하는 시차 뷰.
상기 방법은 팔로워를 선택하면 그들을 맞팔하기 위한 옵션과 함께 상기 사용자를 팔로잉하는 모든 사람의 리스트를 디스플레이하는 것일 수 있다.
상기 방법은 상기 사용자의 3D 가상 신체 모델이 입고 있는 상기 의복(들)과 조합하기 위해 추천되는 의복들의 리스트를 상기 사용자에게 제공하는 의상 추천이 제공되는 것일 수 있다.
상기 방법은 추천이 증분을 기반으로 하고, 그것은 일차 마르코브 모델에 의해 근사 모델링되는 것일 수 있다.
상기 방법은 의상 이력에 나타난 각 다른 사용자에 대해, 각 다른 사용자의 의상 기록의 빈도가 현재 사용자 및 각 다른 사용자의 유사성에 기초하여 가중화된 다음; 추천을 위해 모든 유사한 체형의 가중치들이 누적되는 것일 수 있다.
상기 방법은 보다 오래된 상위-순위 의복 아이템들이 서서히 소멸되는 메커니즘이 사용되어, 보다 최근 의복 아이템들을 추천 리스트로 이동시키는 경향이 있는 것일 수 있다.
상기 방법은 현재 의복들과 유사한 이력 기록의 다른 의복들에 기초하여 추천이 이루어지는 것일 수 있다.
상기 방법은 의복 데이터베이스의 모든 단일 의복에 대해 추천 점수가 계산된 다음, 그것들의 추천 점수들에 기초하여 상기 의복들이 순위가 정해져 추천되는 것일 수 있다.
상기 방법은 본 발명의 제1 측면 또는 본 발명의 제5 측면에 따른 임의의 측면의 방법을 포함하는 것일 수 있다.
본 발명의 제10 측면에 따르면, 서버 및 상기 서버와 통신하는 모바일 컴퓨팅 디바이스를 포함하는 시스템이 제공되고, 상기 컴퓨팅 디바이스는 스크린 및 프로세서를 포함하고, 상기 시스템은 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 상기 모바일 컴퓨팅 디바이스의 상시 스크린 상에 디스플레이하되, 상기 서버는
(a) 사용자 데이터로부터 상기 3D 가상 신체 모델을 생성하고;
(b) 상기 모바일 컴퓨팅 디바이스로부터 의복 선택을 수신하고;
(c) 선택된 상기 의복에 대해 3D 의복 이미지를 생성하며,
(d) 상기 3D 가상 신체 모델 상에 상기 3D 의복 이미지를 중첩하고, 상기 3D 가상 신체 모델 위에 중첩된 상기 3D 의복 이미지의 이미지를 상기 컴퓨팅 디바이스에 송신하며,
상기 모바일 컴퓨팅 디바이스는
(e) 상기 3D 가상 신체 모델 위에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시한다.
상기 시스템은 본 발명의 제9 측면에 따른 임의의 측면의 방법을 수행하도록 구성될 수 있다.
본 발명의 제 11 측면에 따르면, 3D 의복 이미지를 생성하고, 상기 3D 의복 이미지를 컴퓨팅 디바이스의 스크린 상에 디스플레이하기 위한 방법이 제공되고, 상기 방법은:
(a) 단일 2D 텍스처 절단부분 또는 실루엣을 갖는 2D 동체-기반 의복 모델에 대해, 상기 의복의 상기 3D 기하학적 구조가 상체 주위에서, 상기 의복은 기초적인 체형의 상기 기하학적 구조를 밀접하게 따르고; 하체 주위에서, 상기 의복은 신체의 원점을 중심으로 하여, 다양한 축 길이를 갖는 타원 기둥면에 가까운 단순화들을 적용하는 단계에 의해 근사화되고;
(b) 상기 3D 의복 이미지를 상기 스크린 상에 제시하는 단계를 포함한다.
예시적인 구현은 디지털 미디어 플레이어 및 마이크로 콘솔로 이루어지고, 이는 고해상도 텔레비전 세트에 디지털 비디오/오디오 컨텐츠를 스트리밍하기 위한 작은 네트워크 가전제품 및 엔터테인먼트 디바이스이다. 예는 아마존 파이어 TV이다.
상기 방법은 상기 컴퓨팅 디바이스가 센서 시스템을 포함하는 것일 수 있고, 상기 방법은:
(c) 센서 시스템을 사용하여 위치 변화를 검출하는 단계, 및
(d) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 의복 이미지를 상기 스크린 상에 제시하는 단계를 포함한다.
상기 방법은 상기 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하기 위해,
(e) 3D 가상 신체 모델을 생성하는 단계;
(f) 상기 3D 가상 신체 모델 상의 상기 3D 의복 이미지를 상기 스크린 상에 제시하는 단계를 포함하는 것일 수 있다.
상기 방법은 각 픽셀의 깊이 근사치들에 의해 주어진 정점들의 점군으로부터 얼굴들을 갖춘 부드러운 3D 메쉬를 생성하는 단계, 및 요청된 뷰에 대해 상기 의복의 최종 정규화된 깊이 맵을 생성하는 단계를 포함하는 것일 수 있다.
상기 방법은 상기 깊이 맵이 수직축에 대한 면외 회전을 시뮬레이트하기 위해 상기 의복 텍스처 상의 소정의 지점이 상기 이미지에서 이동해야 할 정도를 계산하기 위해 사용되는 것일 수 있다.
상기 방법은 상기 사용자의 3D 체형 모델의 기초적인 머리 및 목 밑 기하학적 구조가 근사 3D 기하학적 구조로서 사용되고, 2D 텍스처 몰핑 및 몰프 필드 외삽 접근법을 사용하여 단일 2D 텍스처 이미지로부터 머리 스프라이트/헤어스타일의 3D 회전을 모델링하는 단계가 수행되는 것일 수 있다.
본 발명의 제12 측면에 따르면, 서버 및 상기 서버와 통신하는 컴퓨팅 디바이스를 포함하는 시스템이 제공되고, 상기 컴퓨팅 디바이스는 스크린, 센서 시스템 및 프로세서를 포함하고, 상기 서버는 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델의 이미지를 상기 컴퓨팅 디바이스에 송신하도록 구성되되, 상기 서버는:
(a) 상기 3D 가상 신체 모델을 생성하고;
(b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하고;
(c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하고;
(d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지의 상기 이미지를 상기 컴퓨팅 디바이스에 송신하고;
상기 컴퓨팅 디바이스는:
(e) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하고;
(f) 상기 센서 시스템을 사용하여 위치 변화를 검출하며, 그리고
(g) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지에 대한 요청을 상기 서버에 송신하고;
상기 서버는
(h) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 3D 의복 이미지의 이미지의 이미지와 관련된 이미지 조작 함수(또는 이미지 조작 함수에 대한 파라미터들)을 상기 컴퓨팅 디바이스에 송신하며; 그리고
상기 컴퓨팅 디바이스는:
(i) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지에 상기 이미지 조작 함수를 적용하며, 그리고 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시한다.
상기 시스템은 본 발명의 제1 측면의 임의의 측면에 다른 방법을 수행하도록 구성되는 것일 수 있다.
이제 본 발명의 측면들이 예(들)로서, 다음 도면들을 참조하여 설명될 것이며, 여기서:
도 1은 계정 생성/복구 프로세스의 작업 흐름의 예를 도시한다.
도 2는 계정 생성 스크린의 예를 도시한다.
도 3은 기존 사용자에 대한 로그인 스크린의 예를 도시한다.
도 4는 사용자가 소셜 네트워크를 통해 가입한 예를 도시하며, 그에 따라 이름, 이메일 및 비밀번호가 자동으로 기입된다.
도 5는 사용자가 이름을 기입하고 사용자 이름을 선택할 수 있는 스크린의 예를 도시한다.
도 6은 사용자가 그들의 프로필 사진을 추가 또는 변경할 수 있는 스크린의 예를 도시한다.
도 7은 사용자가 그들의 비밀번호를 변경할 수 있는 스크린의 예를 도시한다.
도 8은 사용자가 세부 내용들을 기입한 스크린의 예를 도시한다.
도 9는 사용자 신체 모델 치수를 편집하기 위한 스크린의 예를 도시한다.
도 10은 이를 테면 저장하기 위한 사용자 신체 모델 치수를 제시하는 스크린의 예를 도시한다.
도 11은 다른 피부 톤들을 갖는 모델들의 선택을 제공하는 스크린의 예를 도시한다.
도 12는 사용자가 그들의 가상 아바타 상의 허리 및 엉덩이 사이즈를 조절할 수 있는 스크린의 예를 도시한다.
도 13은 프로필 및 체형 설정을 저장하면 사용자를 '모든 경우’ 뷰로 안내하는 스크린의 예를 도시한다.
도 14는 사용자가 이용할 수 있는 다른 뷰들의 예들을 흐름도로 도시한다.
도 15는 다른 집단 스크린들의 예들을 도시한다.
도 16은 특정 룩의 소셜 뷰의 예를 도시한다.
도 17은 구매될 수 있는 의복들의 가격 및 그것들을 판매하는 온라인 판매점들로의 링크를 디스플레이하는 스크린의 예를 도시한다.
도 18은 제품 상세를 디스플레이하는 스크린들의 예를 도시한다.
도 19는 사용자 자신의 가상 아바타 상에 입혀진 것처럼 보이는 의상을 도시하는 스크린의 예를 도시한다.
도 20은 다른 유형들의 선택가능한 의복들 및 가상 아바타가 입고 있거나 이전에 입었던 아이템들을 디스플레이하는 섹션을 포함할 수 있는 스크린들의 예들을 도시한다.
도 21은 사용자가 룩을 저장하기 위한 옵션을 선택할 수 있는 스크린의 예를 도시한다.
도 22는 사용자가 룩에 카테고리와 함께 이름을 지정할 수 있는 스크린들의 예들을 도시한다.
도 23은 사용자가 룩을 공유할 수 있는 스크린들의 예들을 도시한다.
도 24는 메뉴가 다른 경우들을 디스플레이하는 스크린들의 예들을 도시하며; 경우를 탭하면 해당 특정 카테고리에 속하는 가상 아바타들과 함께 시차 집단 뷰를 디스플레이할 수 있다.
도 25는 사용자의 프로필 뷰의 스크린들의 예들을 도시한다.
도 26은 다른 사용자의 프로필의 스크린의 예를 도시한다.
도 27은 사용자의 편집 나의 프로필 스크린의 예를 도시한다.
도 28은 완전히 새로운 의상을 시작하기 위한 스크린의 예를 도시한다.
도 29는 '내가 저장한 룩’을 도시하는 스크린의 예를 도시한다.
도 30은 코멘트를 달기 위한 스크린의 예를 도시한다.
도 31은 스크롤될 때 수평 시차 뷰를 디스플레이하는 스크린들의 예를 도시한다.
도 32는 가상 아바타가 여러 번 탭핑될 수 있고 그렇게 해서 연속 회전 단계들로 회전될 수 있는 예를 도시한다.
도 33은 "집단” 사용자 인터페이스의 레이아웃의 예를 도시한다. 사용자 인터페이스는 측면 또는 풍경 양상으로 사용될 수 있다.
도 34는 모바일-플랫폼 예를 들어, 아이폰 5S 상의 "집단” 사용자 인터페이스의 예를 도시한다.
도 35는 "집단” 사용자 인터페이스의 사용자 흐름의 예를 도시한다.
도 36은 수평 상대적 움직임의 예시적인 실물 크기의 모형 구현을 도시한다. 장면은 가상 아바타들의 3개의 깊이 레이어를 포함한다. 제1 레이어는 드래그 속도로 이동하고; 제2 레이어는 드레그 속도 / 1.5로 이동하며; 제3 레이어는 드레그 속도 / 3으로 이동한다. 모든 렌더는 평균 UK 여성(160 센티미터 및 70 킬로그램) 상에 모델링된다.
도 37은 왼쪽 또는 오른쪽으로 스와이프함으로써 UI 피처를 스크롤하는 장면의 개략적인 예를 도시한다.
도 38은 "집단” 사용자 인터페이스와 함께, 소셜 네트워크 피처들, 예를 들어, 평가를 통합한 예를 도시한다.
도 39는 "집단” 사용자 인터페이스와 함께 의복 및 스타일 추천 피처들을 내포하는 예시적인 사용자 인터페이스를 도시한다.
도 40은 아바타들을 집단에 배치할 때 예시적인 순위화 메커니즘들을 도시한다. 사용자가 집단을 입력했으면, 집단은 시작부터 끝까지 일정 방식으로 정렬되어야 할 것이다.
도 41은 사용자의 머리가 왼쪽에서 오른쪽으로 이동됨에 따라 관찰되는 전체-장면 회전의 줌-아웃된 예를 도시한다. 정상적인 사용은 장면의 가장자리들이 보이지 않을 것이나, 전체-장면 움직임의 정도를 예시하기 위해 그것들이 여기에 도시된다.
도 42는 애플리케이션 또는 사용자 인터페이스에 의해 생성된 좌안/우안 시차 이미지 쌍의 예를 도시한다. 그것들은 3D 디스플레이 디바이스에 의한 양안시를 위해 사용될 수 있다.
도 43은 메인 스크린(왼쪽) 및 설정 스크린(오른쪽)의 예를 도시한다.
도 44는 3D 이미지 레이아웃의 예시적인 측단면을 도시한다. b, h, 및 d는 픽셀 치수들로 주어지는 값들임을 주의하자.
도 45는 초기 배경으로부터 먼 수직 배경 및 플로어 이미지들의 예시적인 분리를 도시한다.
도 46은 얼굴 추적 모듈이 사용될 때 시야각 계산들을 위한 관련 치수들의 평면도를 도시한다.
도 47은 임의로 회전된 가상 아바타의 2D 텍스처 이미지들을 렌더링하는 종단간 프로세스의 예를 도시한다.
도 48은 위쪽 다리들 주위 평면도의 예를 도시하며, 흰 점들은 신체 기점 깊이 샘플 지점들을 나타내고 검은 타원선은 몸에 딱 붙는 의복에 대해 근사화된 의복 기하학적 구조의 외곽선을 나타낸다.
도 49는 의복 실루엣으로부터 생성되는 3D 기하학적 구조의 예를 전-우 뷰로 도시한다.
도 50은 수평 픽셀 위치 x 및 대응하는 깊이 y의 면에서 예시적인 타원 방정식들을 제시한다.
도 51은 복합 의복들에 대한 샘플 3D 기하학적 구조의 예를 도시한다. 근사 3D 기하학적 구조는 각 개별적인 신체 부위에 대응하는 각 의복 레이어에 대한 의복 실루엣으로부터 생성된다.
도 52는 분명한 3D 기하학적 구조가 제시되지 않을 때 2D 머리 스프라이트 또는 2D 헤어 스타일 이미지의 3D회전을 근사 모델링하기 위한 접근법의 예를 도시한다.
개요
우리는 가상 체형 및 의상 시각화, 사이즈 및 핏 조언에 대한 다수의 사용자 인터페이스를 도입하며, 이는 온라인 패션 및 전자 상거래 시 사용자의 경험을 개선하는 것을 돕는다. 전형적인 피처들로서, 이러한 사용자 인터페이스들은 1) 체형 및 의상 시각화 엔진에 의해 렌더링되는 하나 이상의 3D 가상 아바타를, 쌍방향 제어되는 레이아웃 또는 장면으로 디스플레이하고, 2) 새로운 쌍방향 제어 및 시각적 효과들(예를 들어, 아바타들의 3D 시차 브라우징, 시차 및 동적 원근법 효과들, 양안시화)을 사용자들에게 제공하며, 그리고 3) 다양한 다른 추천 피처를 내장하며, 궁극적으로 온라인 패션에 참여하는 사용자의 경험을 개선하고, 판매 증가를 도우며, 반품을 감소시킨다.
요약하여, 다음 세 개의 사용자 인터페이스가 개시된다:
" 완다 ( Wanda )" 사용자 인터페이스
사용자의 체형 시각화, 의상, 의복 사이즈 및 핏 조언, 및 소셜 네트워크 및 추천 피처들을 통합하는 통일되고 간결한 사용자 인터페이스.
"집단(Crowd)" 사용자 인터페이스
가상 아바타들의 집단이 사용자에게 보여지는 사용자 인터페이스. 이러한 사람/아바타들은 다른 의상들을 입고 있을 수 있고, 다른 체형들을 가질 수 있으며, 다른 화각들에서 보여질 수 있다. 다수의 시각적 효과(예를 들어, 3D 시차 브라우징) 및 추천 피처들이 이러한 사용자 인터페이스와 연관될 수 있다. 사용자 인터페이스 예를 들어, 데스크탑 컴퓨터 및 모바일 플랫폼 양자 상에 구현될 수 있다.
동적 원근법 사용자 인터페이스
이러한 사용자 인터페이스는 사용자가 예를 들어, 사용자의 머리를 모바일 폰 주위에서 이동시킴으로써 , 또는 간단히 폰을 사용자의 손 안쪽을 향하게 함으로써 가상 아바타의 측부들 주위를 이동할 수 있는 느낌을 받는 사용자 경험을 생성한다. 예로, 사용자 인터페이스는 3D 디스플레이를 위한 3D 장면에 가상 아바타의 입체 이미지 쌍들을 생성하기 위해 사용될 수 있다.
상기한 사용자 인터페이스들의 피처들을 지원하기 위한 기술적 세부 내용들 및 기초 알고리즘들은 나머지 섹션들에 상세히 열거된다.
본 문서는 모바일 폰 또는 다른 휴대용 컴퓨팅 디바이스 상에서 실행될 수 있는 애플리케이션들을 설명한다. 애플리케이션들 또는 그것들의 사용자 인터페이스들은 사용자가 다음을 하게 할 수 있다
● 그들 자신의 모델을 생성 및 등록
● 예를 들어, 단일 집단 뷰 상에 의상들로 배열된, 의복 컬렉션을 브라우징
● 의복들을 보기 위해 의상을 탭
● 당신 자신의 모델에 의상을 시착
● (아직 세일하지 않는 아이템들에 대한) 이후 구매 시 당신의 관심을 등록하기 위해 의복을 탭
● 관련 무대 비디오를 시청
● 보다 오래된 컬렉션과 함께 두번째 집단 뷰를 보도록 선택
● 적절한 의상(재스타일링 및 편집)
● 모델들을 생성 및 공유
● 의상들을 연결 또는 평가
애플리케이션들은 인터넷에 연결될 수 있다. 사용자는 또한 데스크탑 애플리케이션으로부터 컨텐츠 전부 또는 일부에 액세스할 수 있다.
애플리케이션은 계속하기 위해, 사용자가 모바일 디바이스를 회전하기를(예를 들어, 풍경에서 인물로, 또는 인물에서 풍경으로) 요청할 수 있다. 그러한 단계는 컨텐츠가 디스플레이될 가장 적절한 디바이스 방향으로 사용자가 컨텐츠를 본다는 것을 보장하는 데 있어서 바람직하다.
섹션 1: " 완다 " 사용자 인터페이스
"완다" 사용자 인터페이스는 가상 체형 시각화, 의상, 의복 사이즈 및 핏 조언, 및 소셜 네트워크 및 추천 피처들을 통합하는 통일되고 간결한 사용자 인터페이스이다. 완다 사용자 인터페이스의 주요 예시적인 제품 피처들은 아래에서 상세히 열거된다.
1.1 계정 생성/복구
사용자가 해야 할 수 있는 첫번째는 이를테면 앱 또는 사용자 인터페이스에 로그온하고, 사용자를 생성하는 것이다. 이러한 프로세스의 작업 흐름의 예는 도 1에서 볼 수 있다. 사용자는 새로운 사용자로서 또는 소셜 네트워크를 통해 가입할 수 있다. 예를 들어, 도 2를 참조하자. 사용자아 이미 계정을 가지고 있는 경우, 그들은 간단히 그들의 이메일/사용자 이름 및 비밀번호로 로그인할 수 있다. 예를 들어, 도 3을 참조하자. 처음으로 로그인을 하면 사용자를 프로필 편집 뷰로 안내한다.
1.2 프로필 편집 뷰
로그인 후, 사용자는 이름을 기입하고 사용자 이름을 선택할 수 있다. 예를 들어, 도 5를 참조하자. 사용자는 그들의 프로필 사진을 추가 또는 변경할 수 있다. 예를 들어, 도 6을 참조하자. 사용자는 그들 자신에 대한 짧은 설명을 추가하고 새로운 비밀번호를 선택할 수 있다. 예를 들어, 도 7을 참조하자. 사용자가 소셜 네트워크를 통해 가입한 경우에는, 이름, 이메일 및 비밀번호가 자동으로 기입될 것이다. 예를 들어, 도 4를 참조하자. 세부 내용들을 기입한 후, 가입 방법에 관계 없이, 스크린은 도 8에 도시된 것과 같이 보일 수 있다. 사용자는 또한 사용자의 가상 아바타와 관계되어 중요한 세부 내용들인 그들의 키, 몸무게 및 브라 사이즈에 대한 치수를 추가할 수 있다.
1.3 치수 추가하기
키, 몸무게 및 브라 사이즈는 프로필 편집 뷰에 연결되는 별개의 뷰에 제시될 수 있다. 하나의 구현예로서, 도 9를 참조하자. 키 치수는 피트 및 센티미터 중 어느 하나 또는 양자를 디스플레이할 수 있를 스크롤가능한 리스트로 제시될 수 있다. 사용자에게 적합한 키를 탭 및 선택하면 자동으로 사용자를 다음 치수 섹션으로 안내할 수 있다.
몸무게는 스톤 및 킬로 중 어느 하나 또는 양자로 제시될 수 있고, 사용자가 관련된 몸무게를 탭 및 선택하는 스크롤가능한 리스트로 디스플레이될 수 있다. 그 다음 사용자는 자동으로 이전 두 개의 치수와 동일한 방식으로 기입될 수 있는 브라 사이즈 치수로 안내될 수 있다. 예를 들어, 도 10을 참조하자.
프로필 편집 뷰에서, 사용자는 그들의 가상 아바타들에 대한 피부 톤을 조절하기 위한 설정으로 연결될 수 있다. 사용자가 어느 것이든 모델이 그들에게 가장 어울리는 것을 선택할 수 있는 다른 피부 톤들을 갖는 모델들의 선택이 이용가능하다. 예를 들어, 도 11 참조하자. 보다 정확성을 위해, 사용자는 그들의 가상 아바타 상의 허리 및 엉덩이 사이즈를 조절할 수 있다. 이에 대한 치수는 센티미터 및 인치 중 어느 하나 또는 양자로 제시될 수 있다. 예를 들어, 도 12를 참조하자.
1.4 '모든 경우' 뷰
프로필 및 체형 설정으로 마무리될 때, 프로필을 저장하면 사용자를 ‘모든 경우’ 뷰로 안내할 수 있다. 예를 들어, 도 13 및 도 15의 왼편을 참조하자. 이러한 뷰는 시스템에서 이용가능한 모든 것을 디스플레이하는 탐색기 탭으로서의 역할을 하는 시차 뷰의 버전이다. 사용자가 이용할 수 있는 다른 뷰들의 예들에 대해, 도 14의 흐름도를 참조하자.
1.5 시차 뷰
다른 의상들을 입고 있는 다양한 가상 아바타가 디스플레이되는 시차 뷰는 수평으로 스크롤될 수 있다. 도 31은 스크롤될 때 수평 시차 뷰의 하나의 구현예를 디스플레이한다.
가상 아바타들 다음에 아이콘들이 있을 수 있다. 이용할 수 있는 아이콘들 중 하나는 사용자가 가상 아바타 상에 디스플레이되는 의상을 '좋아요'하기 위한 것이다. 하나의 구현예로, 이는 의상이 받은 '좋아요'의 수와 함께 클릭가능한 하트 아이콘으로 제시된다. 예를 들어, 도 15를 참조하자.
다른 카테고리들의 집단들을 제시하는 몇몇 다른 시차 뷰가 있을 수 있다. 임의의 시차 뷰로부터, 이를테면 완전히 새로운 룩을 생성하는 것 또는 다른 가상 아바타의 룩에 기초하여 새로운 룩을 생성하는 것을 선택함으로써 새로운 룩이 생성될 수 있다. 예를 들어, 도 15 및 도 25를 참조하자.
1.6 어떤 다른 사람의 룩 보기
시차 뷰에서 가상 아바타에 입혀진 의상을 탭핑함으로써, 사용자는 해당 특정 룩의 소셜 뷰로 안내될 수 있다. 하나의 구현예에 대해, 도 16을 참조하자. 이러한 뷰에서, 사용자는 예를 들어:
● 해당 특정 의상을 누가 생성했는지를 볼 수 있고 해당 사용자의 프로필 뷰에 연결될 수 있다. 다른 사용자의 프로필의 예에 대해, 도 26을 참조하자.
● 해당 의상에 대한 코멘트 쓰기.
● 의상을 '좋아요'하기.
● '의복 정보' 뷰에 연결하기.
● 의상을 시착하기.
도 17에 보이는 바와 같이, 의복 정보 뷰는 예를 들어, 구매될 수 있는 의복들의 가격 및 그것들을 판매하는 온라인 판매점들로의 링크를 디스플레이한다.
의복 정보 뷰에서, 의류 아이템이 선택될 수 있으며 사용자를 해당 의복에 관한 특정 뷰로 안내한다. 예를 들어, 도 18을 참조하자. 이러한 뷰에서, 가격 및 판매점이 제시될 뿐만 아니라 앱 또는 사용자 인터페이스는 또한 사용자에게 가장 잘 맞을 그것이 생각하는 사이즈를 제안할 것이다.
사용자가 상이한 사이즈들을 선택하는 경우, 앱 또는 사용자 인터페이스는 그것이 생각하는 의복이 가슴, 허리, 및 엉덩이에 어떻게 맞을지를 사용자에게 알릴 수 있다. 예를 들어, 앱 또는 사용자 인터페이스는 사이즈 8이 스너그 핏, 사이즈 10은 의도된 핏을 그리고 사이즈 12는 루스 핏을 가질 수 있다고 말할 수 있다. 동일한 사이즈는 또한 다른 신체 부위들에 대해 다르게 핏될 수 있다. 예를 들어, 엉덩이에 대해서는 스너그 핏일 수 있으나 허리에 대해서는 루즈 핏일 수 있다.
사용자가 새로운 룩을 생성하는 다른 방법들이 있다. 소셜 뷰에서 새로운 룩을 생성하기 위해, 사용자는 의상 시착 옵션을 탭핑할 수 있다. 예를 들어, 도 16을 참조하자. 이는 사용자 자신의 가상 아바타 상에 입혀진 것처럼 보이는 의상을 도시하는 뷰로 사용자를 안내할 수 있다. 예를 들어, 도 19를 참조하자. 사용자의 가상 아바타에 대한 신체 치수들이 이미 등록되었기 때문에, 상기 의상은 사용자의 체형에 어떻게 보일지 디스플레이될 것이다.
동일한 뷰에서, 사용자는 왼쪽으로 스와이프함으로써 또는 스크린의 오른편을 따라 디스플레이된 버튼들 중 하나를 탭핑함으로서 의상 편집 뷰에 연결할 수 있다.
1.7 룩 편집 뷰
이러한 뷰에서, 예를 들어 도 20에 도시된 바와 같이, 사용자는 사용자가 시착하기를 원한 의상을 입은 그들의 가상 아바타를 본다. 다른 유형들의 선택가능한 의복들 및 가상 아바타가 입고 있거나 이전에 입었던 아이템들을 디스플레이하는 섹션이 있을 수 있다. 사용자가 새로운 의상을 시작하는 것을 선택하는 경우, 뷰 및 이용가능한 편집 섹션들이 동일하게 보일 수 있다. 단지 다른 점은 가상 아바타가 입고 있는 미리 결정된 의복들일 것이다. 완전히 새로운 의상을 시작하는 것에 대해 예를 들어, 도 28을 참조하자.
선택가능한 의복들을 갖는 섹션(예를 들어, 도 20)은 사용자가 서로 다른 의류 아이템들을 조합하게 한다. 간단한 탭으로, 의복이 제거될 뿐만 아니라 가상 아바타에 추가될 수 있다. 하나의 구현예로, 의복 더블 탭은 해당 특정 의복의 제품 정보를 불러올 것이다.
선택가능한 의복들 옆에, 사용자가 브라우징할 의복들의 유형, 예를 들어, 코트, 상의, 신발을 선택하게 할 수 있는 의복 카테고리들과 관련된 탭들의 선택이 있을 수 있다.
사용자가 그들의 의상 편집을 마치면, 그들은 좌에서 우로 스와이프하여 편집 뷰를 숨기고 사용자의 가상 아바타 상에 새롭게 편집된 의상을 보다 양호하게 디스플레이할 수 있다. 예를 들어, 도 21을 참조하자. 가상 아바타를 탭핑하면 그것이 3D로 회전하여, 사용자가 다른 각도들에서 의상을 보게 할 수 있다.
가상 아바타는 여러 번 탭핑될 수 있고 그렇게 해서 예를 들어, 도 32에 에시된 바와 같이, 연속 회전 단계들로 회전될 수 있다. 가상 아바타들은 탭핑 및 회전될 수 있다. 가상 아바타들은 시차 집단 뷰들에 대한 예에서를 제외하고, 모든 뷰에서 탭핑 및 회전될 수 있다.
사용자를 룩을 저장하는 것을 선택할 수 있다. 예를 들어, 도 21을 참조하자. 사용자는 룩에 카테고리 예를 들어, 직장, 파티, 휴가 등과 함께 이름을 지정할 수 있다. 예가 도 22에 도시된다. 하나의 구현예로, 사용자는 해시태그들을 사용하여 그들의 룩에 대한 그룹들 및 카테고리들을 더 생성할 수 있다. 이름 및 경우가 선택되면, 룩이 저장될 수 있다. 그렇게 해서 룩은 다른 사용자들과 공유될 수 있다. 룩을 저장한 후, 사용자는 그것을 소셜 네트워크들, 예를 들어, 페이스북, 트위터, 구글+, 핀터레스트 및 이메일에 공유하는 것을 선택할 수 있다. 하나의 구현예로, 공유 옵션들과 동일한 뷰에, 생성된 새로운 룩과 동일한 카테고리에 속하는 가상 아바타들과 시차 뷰가 있다. 예가 도 23에 도시된다.
1.8 메뉴
스크린의 맨 위에 메뉴가 있다. 메뉴의 하나의 구현예가 도 24에 도시된다. 메뉴는 다른 경우들을 디스플레이하며; 경우를 탭하면 해당 특정 카테고리에 속하는 가상 아바타들과 함께 시차 집단 뷰를 디스플레이할 수 있다.
메뉴는 또한 사용자가 링크한 모든 것이 수집되는 사용자가 좋아한 룩에 대한 액세스를 허용한다. 예를 들어, 도 15 오른편을 참조하자.
다른 사용자들이 생성한 그리고 사용자가 팔로잉하는 룩을 제시하는 시차 뷰인 사용자의 '나의 스타일' 섹션에 액세스한다. 동일한 피드는 또한 이러한 다른 팔로잉된 사용자의 의상들과 함께 어울리는 사용자 자신의 의상들을 제시할 것이다. 하나의 구현예에 대해, 도 31을 참조하자.
1.9 프로필 뷰
메뉴에서 이용가능한 다른 뷰는 사용자의 프로필 뷰이다. 프로필 뷰는 사용자가 갖는 룩의 수, 다른 의상들에 대한 좋아요 수, 팔로워 수 및 사용자가 얼마나 많은 사람을 팔로잉하는지를 제시하는 통계와 함께 사용자가 생성한 의상들을 제시하는 시차 뷰를 디스플레이할 수 있다. 이것의 예가 도 25에 도시된다.
통계를 디스플레이하는 영역은 단지 숫자보다 많은 정보를 얻기 위해 탭핑될 수 있다. 예를 들어, 팔로워들을 탭핑하면 그들을 맞팔하기 위한, 또는 언팔하기 옵션과 함께 사용자를 팔로잉하는 모든 사람의 리스트를 디스플레이한다(예를 들어, 도 25 참조). 사용가가 누구를 팔로잉하고 있는지를 제시하는 통계 탭을 탭할 때 동일한 유형의 리스트가 제시된다. 룩의 수를 탭하면 사용자가 생성한 룩의 시차 뷰를 디스플레이할 수 있다. 거기서부터, 룩 중 하나를 탭하면 의복들에 대해 보다 많은 정보를 제시하고 해당 특정 룩에 대한 코멘트를 남기기 위한 옵션을 제공하는 다른 뷰를 디스플레이할 수 있다. 예를 들어, 도 29 및 도 30을 참조하자. 사용자가 시차 통계 뷰(예를 들어, 도 25)에 머무르는 경우, 위로 스와이프하면 사용자를 다시 그들의 프로필 뷰로 안내할 것이다.
프로필 뷰(예를 들어, 도 25)에서, 또한 사용자의 프로필 사진 및 짧은 설명 텍스트가 있고; 여기서부터, 사용자가 그들의 프로필을 변경하기 원하는 경우, 그들은 그들의 프로필 편집 뷰(예를 들어, 도 27 참조)에 연결할 수 있다.
1.10 의상 추천
'완다' 사용자 인터페이스와 관련하여, 우리는 사용자의 가상 아바타가 입고 있는 의복(들)과 조합하도록 추천되는 의복들의 리스트를 사용자에게 제공하는 의상 추천 메커니즘을 도입한다.
● 렌더 로그들로 의상 관계 맵 구축
우리는 1) 신체 치수 파라미터들, 인구통계학적 정보 등을 포함하는 사용자 속성 정보를 색인하기 위해 사용될 수 있는 사용자 식별자 u, 및 2) 의복 식별자들의 집합 {ga, gb, gc, ….} 포맷인, 시착되는 의상 조합 O의 쌍 정보를 포함하는 기록들의 리스트를 저장한 이력 데이터 웨어하우스(예를 들어, 렌더 로그들)를 탐구한다. 의상 데이터 기록의 예들은 다음과 같이 제공된다:
{ 사용자: u1, 의상: { ga, gb } }, { 사용자: u1, 의상: { ga, gb, gc } }, { 사용자: u2, 의상: { ga, gd } }
의상 모델에서, 사용자가 매회 가상 아바타 상의 현재 의상 조합에 하나 이상의 의복을 추가한다고 가정한다. 추천은 증분을 기반으로 하고, 그로 인해 그것은 일차 마르코브 모델에 의해 근사 모델링될 수 있다. 추천을 수행하기 위해, 우리는 먼저 이력 데이터에 나타난 모든 사용자에 대한 의상 관계 맵 리스트 M을 구축하려고 시도한다. M에서의 각 아이템은 다음 포맷일 것이다
{ {의상: O, 의복: g }, { 사용자: u, 빈도: f } }.
의상 관게 맵 리스트 M은 이력 데이터로부터 다음 알고리즘 1로 채워진다:
1 초기화 M = {}
2 이력 데이터 H의 각 기록 엔트리(사용자: u, 의상: O)마다:
3 의상 조합 O의 각 부분 집합 S마다(φ는 포함하나 O 그 자체는 배제함):
4 O \ S의 각 의복 g마다,
5 키들 {{의상: S, 의복: g}, {사용자: u, 빈도: f}}을 갖는 엔트리가 M에 이미 존재하는 경우,
6 엔트리를 증가 빈도 f + 1로 업데이트:
{{의상: S, 의복: g}, {사용자: u, 빈도: f + 1}}
7 그렇지 않으면,
8 새로운 엔트리 {(의상: S, 의복: g), {사용자: u, 빈도: 1}}를 M에 삽입.
알고리즘 1: 사용자의 의상 관계 맵을 채우기 위한 수도 코드.
이러한 대입 프로세스는 렌더 이력의 모든 사용자에 대해 반복되고 주기적으로 오프라인 계산될 수 있다.
추천:
추천 단계에서, 우리는 현재 의상 조합 O*을 갖는 새로운 사용자 u*가 가상 피팅 룸에서 새로운 의복을 선택하려고 시도하고 있음을 가정하며, 여기서 새로운 가복은 이력 레코드에 나타난 것이다. 현재 의상 O*에 있지 않은 임의의 새로운 가복 g*에 대한 추천 점수 R(g*)는 다음 식들을 사용하여 이력 데이터 D에서의 모든 기존 사용자 u에 대한 리스트 M에서 동일한 의상-의복 키들(의상 O*, 의복 g*)을 갖는 엔트리들의 모든 빈도 fu를 합산함으로써 계산된다.
Figure pct00001
식 (1.1)의 의복 g* 및 사용자 유사도 s(u*, u)의 시간 가중치
Figure pct00002
, 및 순위화 접근법들은 다음 섹션들에서 상세히 열거된다.
사용자 유사도에 따른 가중치 부여
의상 이력에 나타난 각 사용자 u를 고려해 볼 때, 우리는 사용자의 의상 기록의 빈도에 현재 사용자 u* 및 u의 유사도에 기초하여 가중치를 부여한다. 두 사용자 u 및 u'의 유사도는 다음과 같이 정의된다:
Figure pct00003
여기서 b(u)는 사용자 u의 특징 벡터(즉, 신체 메트릭들 또는 치수들 이를테면 키, 몸무게, 가슴, 허리, 엉덩이, 안쪽 다리 길이, 연령 등)이고, d (.,.)는 거리 메트릭(예를 들어, 두 개의 치수 벡터의 유클리드 거리)이다. 그 다음 우리는 추천을 위해 유사한 모든 체형의 가중치들을 누적한다.
시간 가중치
온라인 패션의 경우, 보다 최근에 이용가능한 의복 아이템들을 추전하는 것이 바람직하다. 이를 달성하기 위해, 우리는 또한 다음 식에 의해 웹사이트 상의 각 의복 후보에 그것의 재령으로 가중치를 부여할 수 있다
Figure pct00004
여기서
Figure pct00005
는 g*의 연한이고, T는 보통 30일 내지 90일로 설정되는 상수의 부식 윈도우이다. 이러한 메커니즘은 보다 오래된 상위-순위 의복 아이템들을을 서서히 소멸시고 보다 최근 의복 아이템들을 추천 리스트로 이동시키는 경향이 있을 것이다. 우리가 일정하게
Figure pct00006
로 설정하는 경우에는, 어떤 시간 가중치도 추천에 적용되지 않을 것이다.
이력에 없는 의복 추천
우리는 또한 알고리즘이 이력 기록 H에 나타나지 않은 새로운 의복 g*을 추천할 수 있도록 식 (1.1)의 형식을 일반화할 수 있다. 그러한 경우, 우리는 다음 식 (1.4)가 제시하는 바와 같이 g*와 유사한 이력 기록 H에서의 다른 의복들에 기초하여 추천할 수 있다:
Figure pct00007
여기서
Figure pct00008
는 의복 g* 및 이력 기록 H에서의 기존 의복 g 간 유사도 점수를 정의한다. 유사도 점수
Figure pct00009
는 이에 한정되지는 않으나 의복들의 색상, 패턴, 윤곽 형상, 의복 유형, 패브릭 소재를 포함할 수 있는, 메타데이터 및 의복 이미지 특징들의 특징 거리들(즉, 유클리드 거리, 벡터 상관 등)에 기초하여 계산될 수 있다.
순위화 메커니즘
우리는 의복 데이터베이스의 모든 단일 의복 g에 대해 추천 점수 R(g)를 계산한 다음, 그것들의 추천 점수들에 기초하여 추천될 의복의 순위를 매긴다. 추천된 의복들의 리스트를 생성하기 위해 두 개의 다른 순위화 접근법들이 사용될 수 있다.
1. 상위-n: 이는 결정론적 순위화 접근법이다. 그것은 단순히 가장 높은 추천 점수들을 갖는 상위 n개의 의복을 추천할 것이다.
2. 가중화 - 랜드 -n: 그것은 추천 점수들 R(g)에 비례하는 샘플링 확률에 기초하여 비복원으로 추출되는 n개의 의복 후보를 무작위로 샘플링할 것이다. 이러한 순위화 접근법은 추천 리스트에 일정한 우연성을 도입한다.
섹션 2: "집단" 사용자 인터페이스
2.1 사용자 인터페이스의 개요
"집단" 사용자 인터페이스는 가상 아바타들의 컬렉션이 디스플레이되는 사용자 인터페이스이다. 예로, 사람들의 집단이 사용자에게 제시된다. 이러한 아바타들은 의상들, 체형들, 및 시야각들의 임의의 조합에 따라 다를 수 있다. 예로, 이러한 사람들은 모두 다른 의상들을 입고 있을 수 있고, 다른 체형들을 가지며, 다른 각도들에서 본다. 이미지들은 다른 체형들이 그들의 체형들 상의 의복들과 함께 모델링되게 하는 (예를 들어, 미테일의) 시각화 기술을 사용하여 생성될 수 있다. 다수의 시각적 효과 및 추천 피처들이 이러한 사용자 인터페이스와 연관될 수 있다. "집단" 사용자 인터페이스는 다음 중 예시적인 제품 피처들을 포함할 수 있다:
● 가상 아바타들의 집단이 사용자에게 제시된다. 이미지들은 다른 아바타들이 다양한 체형 상의 의복들과 함께 모델링되게 하는 시각화 엔진을 사용하여 생성될 수 있다.
● 가상 아바타들은 하나를 다른 하나 뒤로 하여, 다수의 열(통상적으로 세 개 이하)로 분산된다. 각 열 내에서, 가상 아바타들은 균등하게 이격될 수 있다. 모델의 사이즈는 가상 아바타들이 집단 뷰에 배열된 이미지에 원근감을 주도록 하는 것이다.
● 집단의 레이아웃은 어떤 의복들이 제시되는지 그리고 어떤 모델 및 체형 상에 제시되는지에서 다양성을 가질 수 있다 - 이러한 시퀀스는 예를 들어, 무작위이거나, 미리 결정되거나, 수동이거나, 사용자에 의한 검색의 결과이거나, 다른 사용자에 의해 생성되거나 또는 알고리즘에 의해 결정될 수 있다.
● 무작위로 변형된 옷을 입은 아바타들은 예를 들어, 무작위로 생성되거나, 수동으로 정의되거나, 사용자에 의한 검색의 결과이거나, 다른 사용자에 의해 생성되거나 또는 알고리즘에 의해 결정될 수 있다.
● 사용자가 모델들의 집합의 끝까지 스크롤하는 경우 시퀀스를 반복함으로써 매끄러운 "무한한" 경험이 제공될 수 있다.
● 사용자 인터페이스는 측면 또는 풍경 양상들로 제공될 수 있다.
사용자 인터페이스(UI) 레이아웃의 구체적인 예에 대해 도 33을 참조한다. 이러한 사용자 인터페이스는 모바일 플랫폼에 구현 및 포팅될 수 있다(예를 들어, 도 34 참조). 도 35는 “집단” 사용자 인터페이스 상에 구축된 가상 핏팅 제품의 전형적인 예시적인 사용자 흐름을 정의한다.
2.2 "집단" 사용자 인터페이스 및 수학적 모델들에 대한 효과들
● 수평 슬라이딩 효과들:
사용자는 그들의 손가락을 스크린 위에서 수평으로 슬라이딩함으로써 탐색할 수 있다. 이러한 동작으로, 스크린에서의 모든 신체 모델은 미리 정의된 속도들로 이동하여 카메라 뷰 선형 변위 효과를 원근법 장면으로 생성한다.
프로세스에서, 카메라 눈 위치 e 및 타겟 위치 t는 각각 그것들의 원래 위치들 e0 및 t0으로부터 동일한 양만큼 수평으로 변위되는 한편, 카메라 방향을 변경되지 않고 유지된다.
Figure pct00010
사영 기하학 원리에 따라, 우리는 가상 아바타들의 스케일 s 중에서 제한 사항들을 모델링하기 위해 다음 식들을 사용할 수 있으며, 이러한 카메라 전환 하에서 신체 모델들의 슬라이딩 속도는 v, 각 레이어 i(i=0,1,2,..., L)의 이미지 지면 높이는 h이다. zi가 레이어 i(카메라 중심에서 떨어진)의 가상 아바타들의 깊이라고 가정하면, 슬라이딩 속도 vi, 스케일링 계수 si, 및 이미지 지면 높이 hi (i=0,1,2,..., L)는 다음으로 주어진다:
Figure pct00011
여기서 z0, v0, s0, 및 h0는 각각, 전경 (제1) 레이어 0의 깊이, 슬라이딩 속도, 스케일링 계수, 및 지면 높이이다. hhorizon은 무한한 깊이에 있는 수평선의 이미지 지면 높이이다. 식 (2.2)에 따라 장면의 다른 깊이 레이어들 i (i=0,1,2,..., L)에 다른 슬라이딩 속도들 vi를 적용함으로써, 우리는 동적 원근법 레이어링 효과를 달성할 수 있다. 간단한 모형 구현예가 도 36에 예시된다. 사용자가 스와이프하고, 그들의 손가락이 터치스크린에서 들어 올릴 때, 모든 레이어는 점차 중단해야 한다.
● 시점 변화 효과들
사용자가 모바일 디바이스를 좌우로 기울일 때, 우리는 전경 신체 모델을 타겟으로 하는 약한 뷰 회전 효과를 모사할 수 있다. 이러한 프로세스에서, 다음 식 (2.3)이 보이는 바와 같이, 카메라 눈 위치 e는 그들의 원래 위치들 e0으로부터 수평으로 변위되는 한편, 카메라 타겟 위치 t는 변경되지 않고 유지된다:
Figure pct00012
병진
Figure pct00013
이 작고 소점들이 무한에 가까운 약한 원근법 가정 하에서, 우리는 다음 식 (2.4)를 사용하여 이러한 카메라 변환 하에서 각 배경 레이어 i (i=1,2,..., L)의 수평 병진
Figure pct00014
을 근사 모델링하고 뷰 변경 효과를 달성할 수 있다:
Figure pct00015
여기서 zo 및 zi는 각각, 전경 (제1) 레이어 및 각 배경 레이어 i (i=1,2,..., L)의 깊이이다. 구현예로, 눈 병진
Figure pct00016
이 시간에 대하여 두 배로 적분되어, 모바일 디바이스에서의 가속도계의 출력에 비례한다.
수직 슬라이딩 효과들:
사용자가 그들의 손가락을 스크린 위에서 수직으로 슬라이딩할 때, 우리는 "집단" 사용자 인터페이스 제품들에 다음 "엘리베이터 효과들" 및/또는 "레이어-스와핑 효과들"을 활성화할 수 있다:
1. 엘리베이터 효과들:
사용자가 그들의 손가락을 스크린 위에서 수직으로 슬라이딩할 때, 다음 플로어(상층들 또는 하층들 중 어느 하나)로 전환하기 위해 엘리베이터 효과가 생성될 것이다. 또한, 프로세스 동안 작게 회전하여 위로 보기/아래 보기 효과가 모사될 것이다. 각 플로어에, 트렌드 또는 브랜드의 의복들 및/또는 의상들이 예를 들어, 추천 피처로서 디스플레이될 수 있다.
엘리베이터 효과들은 다음 호모그래피 변환식에 기초하여 생성될 수 있다. K를 신체 모델을 렌더링하기 위한 3x3 내재적 카메라 매트릭스라고 하고, R을 외인성 카메라 회전 매트릭스라 하자. 호모그래피 변환은 타겟 물체(우리의 경우 신체 모델)가 근사 평면이라고 가정하게 한다. 회전이 작을 때 가정은 유효하다. 4d 동차 좌표계로 표현되는 원래 신체 모델 이미지에서의 임의의 점 p에 대해, 약한 원근법 변환에서 그것의 대응하는 동파 좌표 p'는 그에 따라 다음과 같이 계산될 수 있다:
Figure pct00017
2. 레이어 스와핑 효과들
우리는 또한 수직 슬라이딩으로 레이어 스와핑 효과들을 구현할 수 있다. 슬라이딩 이후, 이제 배경의 가상 아바타들이 전경으로 오는 한편, 전경의 가상 아바타들이 대신 배경으로 이동한다. 그것들은 레이어 스와핑을 위한 애니메이션 변환일 수 있다.
레이어들의 반투명 모델링
가상 아바타들의 반투명도(알파 값) 및 깊이에 대하여, 다른 깊이 레이어들의 반투명성을 모델링하기 위해 포그 모델(fog model), 즉 수학적 모델을 적용한다. cf가 포그의 색상(예를 들어, RGBA)이고 cb는 신체 모델의 텍스처로부터의 샘플 색상이라고 가정한다. 프로세싱 이후, 프로세싱된 샘플 색상 c는 다음과 같이 계산된다
Figure pct00018
여기서 f는 0 내지 1 사이의 포그 합성 계수이다. 직선-거리 포그 모델의 경우, f는 다음과 같이 물체(즉, 가상 아바타) z의 거리에 의해 결정된다
Figure pct00019
우리는 znear를 제1 레이어의 깊이 zo이도록 선택하고 그에 따라 어떤 추가 반투명성도 맨 앞에 위치한 신체 모델들에 적용되지 않을 것이다.
"집단 속을 걷는" 효과:
효과는 스케일 변환 및 반투명 전환을 적용함으로써 달성될 수 있다. 가상 아바타들의 전환은 레이어 움직임에 대한 식 (2.2) 및 포그 모델을 생성하는 것에 대한 식 (2.6), 식 (2.7)의 조합들을 사용하여 계산될 수 있다.
회전 신체 모델 전환 효과:
이러한 효과는 타원 회전 모션을 사용하여 근처의 신체 모델을 배경에서 전경으로 전환하는 동적 프로세스를 애니메이트한다. 수학적으로, 신체 모델의 중심점 p=(x, y)은 변환 동안 타원 궤적을 따를 수 있다. 스케일 s 및 모델의 반투명 색상 c의 변환은 모델 중심 변위의 정현파 패턴과 동기를 이룰 수 있다. 식 (2.1) 및 식 (2.3)과 조합하여, 변환 동안 모델 중심점 p=(x, y), 스케일 s, 및 반투명 색상 c를 계산하기 위한 매개 방정식들이 다음과 같을 수 있다:
Figure pct00020
여기서 t는 0 내지 1이고, t = 0은 변환의 시작점에 대응하며, t = 1은 변환의 종점에 대응한다.
배경 합성
플로어 및 배경은 무지이거나 그것을 집단이 특정 장소에 있는 것처럼 보이게 만드는 이미지일 수 있다. 배경 및 플로어는 상기 사용자에 의해 선택되거나 예를 들어, "집단"에 여름 컬렉션을 시각화 할 때 배경으로서 해변 이미지를 사용하여, 몇몇 의복 컬렉션에 매칭하도록 커스터마이즈될 수 있다. 다른 물체들의 이미지들을 특징으로 삼는 중간 깊이 레이어들이 또한 추가될 수 있다. 이는 이로 제한되지는 않으나 의복들, 기둥들, 눈, 비 등을 포함한다.
우리는 또한 배경 상에 변광을 모델링할 수 있다: 예를 들어, 집단의 중심이 밝은 것에서 집단의 주변이 어두운 것으로 느린 전환. 수학적 모델로서, 광원 I의 세기는 식 (2.9)의 예가 보이는 것과 같이, 현재 위치 p 및 "집단" c의 중심(카메라 좌표계) 간 유클리드 거리와 역 상관관계에 있을 수 있다:
Figure pct00021
여기서 γ는 광의 감쇠를 조절하는 가중 계수이다.
다른 추가적인 사용자 상호작용 및 소셜 네트워크 피처들
사용자는 그것을 탐색하기 위해 집단과 상호작용할 수 있다. 그러한 상호작용의 몇몇 예가 다음과 같다:
○ 좌우로 스와이프하면 보다 많은 아바타가 긴 스크롤링 장면에서 보일 수 있도록 집단을 수평으로 이동시킨다. 집단은 '무한한' 경험을 제공하기 위해 종내에는 시작으로 돌아 루프화할 수 있다. 이러한 피처들을 특히 모바일 플랫폼 사용자 인터페이스에 유용할 수 있다(예를 들어, 도 37 참조). 사용자가 집단을 스크롤할 때 레이아웃 설계의 가이드라인으로서, 신체 아바타들의 간격은 다음 제한 사항들이 적용되도록 할 수 있다:
― 폰 스크린 상에 3.5개 이하의 아바타가 나온다;
― 동일한 스크린 공간의 아바타들은 동일한 뷰에 있지 않는다.
○ 위아래로 스와이프하면 위 또는 아래에서 이동되는 다른 집단 뷰로 이동한다.
○ 모델을 클릭하면 사용자가 이에 한정되는 것은 아니지만, 그들 자신의 체형과 대응하는 모델에 해당 의상을 시착할 수 있는 것을 포함하여 해당 의상에 대한 세부 내용들 보게 한다.
집단에서 각 모델에 의한 아이콘들을 클릭하면 이에 한정되는 것은 아니지만, 다른 이들과 공유하는 것, 소셜 미디어 상에서 좋아요하는 것, 다음을 위해 저장하는 것, 및 평가하는 것을 포함하는 다른 피처들을 가져온다(예를 들어, 도 38 참조).
2.3 추천 메커니즘들
우리는 인접한 배경 신체 모델들의 의복들 및 의상들을 "집단"에 순위화 추천 메커니즘의 일정 형태로 배치할 수 있다(추천 피처들을 갖는 "집단" 사용자 인터페이스의 예에 대해,도 39 참조). 예를 들어, 우리는 근처의 모델들에 옷을 입히고 그것들을 다음 기준들에 의해 재정렬할 수 있다:
● 가장 인기 있는 의복들;
● 가장 최신 의복들;
● 현재 의복과 동일한 유형/카테고리/스타일/트렌드의 의복들;
● 이용가능한 사용자 선호 사이즈를 갖는 의복들;
● 현재 의복과 동일한 브랜드/판매점의 의복들;
● 사용자가 브라우징한 이력: 예를 들어, 신체 모델들에 대해 가까운 데에서 멀리까지, 가장 최근에 방문한 의복들에서 가장 오래 전 방문한 의복들을 정렬.
아바타들을 집단에 배치할 때 순위화 메커니즘들의 예들이 도 40에 예시된다.
몇몇 추가 추천 알고리즘들이 아래에서 설명될 바와 같이, "집단" 사용자 인터페이스에서의 신체 모델들의 배치에 기초하여 제공될 수 있다.
사용자들의 속성들에 기초한 순위화된 추천
우리는 사용자에게 그녀의 친구들에 의해 소셜 네트워크 상에 게시된 의상들 또는 그녀와 유사한 체형들을 갖는 다른 가상 피팅 룸 사용자들에 의해 선택된 의상들을 추천할 수 있다.
그 다음 순위화 모델은 사용자 유사도 메트릭의 수학적 정의들에 기초할 수 있다. b를 사용자의 축약된 피처 표현(벡터)이라 하자. 예를 들어, b는 신체 메트릭들(키 및 몸무게) 및 테이프 치수들(가슴, 허리, 엉덩이 등), 및/또는 다른 인구통계학적 및 소셜 네트워크 속성들의 벡터일 수 있다. 두 사용자 간 유사도 메트릭 m은 다음과 같이 그들의 신체 치수들 ba 및 bb의 마하라노비스 거리로서 정의될 수 있다:
Figure pct00022
여기서 M은 입력된 치수 중 다른 치수들 중에서 가중치들 및 상관도를 고려한 가중 매트릭스이다. m이 작을 수록, 두 사용자는 보다 유사하다. 그 다음 추천된 의상이 m에 의해 오름차순으로 순위화된다.
의복들 및/또는 의상의 속성들에 기초한 순위화된 추천(별칭 패션 트렌드 추천)
우리는 사용자에 의해 선택된 현재 의상의 의복들의 부분 집합과 동일하거나 매우 유사한 하나 이상의 의복을 포함하는 인기 의상 조합들을 추천할 수 있다. 그 다음 우리는 두 의상 조합 간 유사도 및 인기도의 측정에 따라 신체 모델들의 깊이들 또는 거리들을 순위화할 수 있다.
수학적으로 이는 의상의 피처 표현들 및 유사도 메트릭들을 정의함으로써, 그리고 협업 필터링을 적용함으로써 달성될 수 있다. 문제를 조직적으로 나타내기 위해, 우리는 의복을 이에 한정되는 것은 아니지만, 의복 유형, 윤곽, 패턴, 색상, 및 다른 유형들의 피처들을 포함하는 정보를 포함할 수 있는 피처 벡터 g로 표현한다.의상 조합은 의복들(특징 벡터들)의 집합: O = {g1, g2, … gN }으로 정의될 수 있다. 두 개의 의상 조합 Oa 및 Ob의 비유사도 메트릭 d(Oa, Ob)은 다음과 같이 대칭적인 챔퍼 거리로 정의된다:
Figure pct00023
그 다음 의상 순위화를 위한 가중화된 순위화 메트릭 mi가 사용자가 선택한 현재 의상 O' 및 소셜 네트워크 상에 게시되거나 데이터베이스에 저장된 각각의 기존 의상 Oi 간 비유사도의 곱에 기초하여 정의되고, 의상 Oi의 인기도 pi는 다음 식 (2.12)이 보이는 바와 같이, 예를 들어 클릭수 ci와 관계될 수 있다:
Figure pct00024
사용자에게 의상을 추천하기 위해, 우리는 모든 기존 의상
Figure pct00025
을 그것들의 대응하는 가중화된 순위화 메트릭들
Figure pct00026
에 따라 오름차순으로 순위화할 수 있고, 그것들을 “집단”에서 가까운 것에서 먼 것까지 신체 모델들 상에 입힐 수 있다.
사용자들 및 의복/의상 조합들의 속성들에 기초한 순위화된 추천
우리는 또한 사용자 유사도를 고려하는 조합된 순위화 메트릭 m을 정의할 수 있다. 이는 식 (2.13)에서 사용되는 의상 Oi의 인기도 pi의 정의를 수정함으로써 이루어질 수 있다:
Figure pct00027
여기서 β는 사용자 유사도의 영향을 조절하는 하이퍼-파라미터들이고, b는 현재 사용자의 사용자 특징이며, bij는 의상 Oi에 시착된 각 미테일 사용자 프로필 j의 사용자 특징이다. 순위화 및 추천 규칙들은 여전히 식 (2.13)을 따를 것이다.
2.4 다른 제품 특징들
이러한 "집단" 설계에서 유도되는 다른 제품 특징들은 다음을 포함할 수 있다:
● 사용자는 그들 자신의 집단을 만들고 선호 의상들의 옷장을 저장하기 위해 그것을 사용할 수 있다.
● 집단들은 다른 사용자들이 만들고 공유한 모델들로부터 구축될 수 있다.
● 사용자는 의상을 클릭한 다음 그녀 자신의 가상 아바타에 입혀진 해당 의상을 볼 수 있다. 그 다음 의상은 조절되어 다시 동일하거나 다른 집단 뷰에 재공유될 수 있다.
● 우리는 의상의 의복들 중 몇몇을 교체하고 이러한 새로운 의상들을 "집단"에 디스플레이할 수 있다.
● 우리는 다른 의상 검색 엔진으로부터의 결과들을 디스플레이하기 위해 "집단" 사용자 인터페이스를 사용할 수 있다. 예를 들어, 사용자는 의복 유형들의 조합, 예를 들어, 상의 + 스커트를 검색할 수 있고, 그 다음 검색 결과들이 "집단"에 디스플레이되고 인기도에 따라 순서화된다.
● 사용자는 다른 사용자의 관심 프로필들을 "집단"에서 탐색할 수 있거나, 사람을 바꿈으로써 의상들의 질의 집합을 구축할 수 있다.
사용자 상호작용 특징들
사용자는 그것을 탐색하기 위해 집단과 상호작용할 수 있다. 예들이 다음과 같다:
● 좌우로 스와이프하면 보다 많은 모델이 보일 수 있도록 집단을 수평으로 이동시킨다. 집단은 '무한한' 경험을 제공하기 위해 종내에는 시작으로 돌아 루프화한다.
● 위아래로 스와이프하면 위 또는 아래에서 이동되는 다른 집단 뷰로 이동한다.
● 모델을 클릭하면 사용자가 이에 한정되는 것은 아니지만 그들 자신의 체형과 대응하는 모델에 해당 의상을 시착할 수 있는 것을 포함하여, 해당 의상에 대한 세부 내용들 보게 한다.
● 집단에서 각 모델에 의한 아이콘들을 클릭하면 다른 피처들을 가져오며, 이의 예들은 다른 이들과 공유하는 것, 소셜 미디어 상에서 좋아요하는 것, 다음을 위해 저장하는 것, 및 평가하는 것이다.
섹션 3: 동적 원근법 사용자 인터페이스
3.1 사용자 인터페이스의 요약
동적 원근법 사용자 인터페이스는 사용자가 사용자의 머리를 모바일 디바이스(예를 들어, 폰) 주위에서 이동시킴으로써 , 또는 간단히 모바일 디바이스(예를 들어, 폰)를 사용자의 손 안쪽을 향하게 함으로써(이는 머리-추적기 모듈에 의해 검출되거나, 또는 다른 센서들 이를테면 가속도계의 출력을 프로세싱함으로써 식별될 수 있음) 가상 아바타의 측부들 주위를 이동할 수 있는 느낌을 받는 사용자 경험을 생성한다(예를 들어, 도 41 참조). 보다 많은 특징의 세부 내용들이 다음과 같이 요약된다:
● 머리-추적 모듈이 사용될 때, 애플리케이션은 그것이 현실의 3-차원 상황을 생성하는 것으로 보이도록 사용자의 머리 위치에 반응하는 장면을 생성할 수 있다.
● 장면은 가상 아바타의 발의 중심점을 회전점으로 설정하고, 그에 따라 사용자는 모델 주위를 이동하여 다른 각도들을 보는 인상을 받게 된다.
● 장면은 세 개의 이미지: 가상 아바타, 먼 배경, 및 플로어로 구성될 수 있다.
● 배경 이미지들은 원하는 3D 장면 움직임이 이루어지도록 3D 기하학적 구조로 프로그램에 따라 변환된다. 이는 또한 보다 전통적인 그래픽 엔진들에 의해 에뮬레이트될 수 있으나, 반응하는 디스플레이 움직임의 추가 구현을 필요로 할 것이다.
● 사용자 인터페이스에 의해, 두 개의 별개의 회전 위치에 렌더링되는 가상 아바타 이미지들 좌안/우안 이미지 쌍들을 생성함으로써, 3D 장면의 가상 아바타의 양안시가 3D 디스플레이 디바이스 상에 생성될 수 있다(예를 들어, 도 42 참조).
● 애플리케이션 또는 사용자 인터페이스는 감도 및 장면 모습을 커스터마이즈하기 위해 다양한 설정을 포함한다(예를 들어, 도 43 참조).
3.2 장면 구성
동적 원근법 설계에서, 장면 그 자체는 별개의 3D 레이어들을 나타내는 세 개의 이미지: 가상 아바타, 먼 수직 배경, 및 플로어 면으로 구성된다. 이러한 설정은 이것에 한정되지는 않지만 예를 들어, 아마존 유클리드 패키지를 포함할 수 있는 모바일 플랫폼 상에서 이용가능한 3D 원근감 제어 라이브러리들의 응용 프로그램 인터페이스들(API들)과 호환가능하다.
특정 구현예로서, 장면은 안드로이드 객체들의 아마존 유클리드 패키지를 사용하여 구성될 수 있으며, 이들은 이미지들 및 다른 객체들이 사용자 머리의 움직임에 반응하여 자동으로 이동하도록 3D 깊이의 상세를 가능하게 한다. 유클리드 3D 장면 구축은 움직임 반응의 많은 맞춤화를 쉽게 가능하게 하지 않고, 그에 따라 객체들의 3D 기하학적 구조는 원하는 거동을 제공하기 위해 주의 깊게 선택되어야 한다. 이러한 거동은 검출된 머리 움직임에 반응하여 주의 깊게 설계된 이미지들의 움직임으로 다른, 2D의 보다 간단한 스크린 레이아웃들로 에뮬레이트될 수 있다. 메인 애플리케이션 스크린 내에서, 장면은 그것을 버튼들 및 다른 피처들과 분리되게 유지하기 위해 프레임 내에 유지된다. 프레임은 상당히 줌 인 또는 회전될 때 가장자리 부분들이 보이지 않도록 콘텐츠를 크롭한다.
3.2.1 가상 아바타
가상 아바타의 원하는 거동은 그것이 모델의 중심을 지나는 수직축에 대해 회전하는 것이기 때문에, 그것의 모션은 이들이 그것을 편평한 신체로 취급할 것이기 때문에, 모바일 플랫폼 상에서 대부분 3D 원근감 제어 라이브러리에 의해 적절하게 핸들링될 수 없으며, 이는 상당한 움직임의 변화가 예상될 수 있는 얼굴 또는 팔과 같은 영역들을 처리할 때 열악한 근사이다. 대신 이는 이하 섹션 3.3에 상세하게 열거될 바와 같이, 가상 아바타 이미지를 3D 장면에서 제로 깊이의 정적 이미지로서 배치하고 사전-렌더링된 이미지들의 시퀀스를 사용함으로써 처리될 수 있다.
3.2.2 배경
모바일 플랫폼, 예를 들어, 아마존 유클리드 상에 내장된 대부분의 3D 원근감 제어 라이브러리는 모든 이미지를 소정의 깊이 및 방향의 편평한 객체들로서 취급한다. 사용자의 머리가 이동할 때 생성되는 움직임들의 관찰은 지점이 머리의 수직 또는 수평 중 어느 하나의 움직임에 반응하여 일정한 깊이로 변환됨을 나타낸다. 이는 그것이 면외 회전을 가능하게 하지 않기 때문에, 그것을 가상 아바타에는 효과적이지 못하게 만드는 것이다.
플로어 및 먼 수직 배경(예를 들어, 벽 또는 수평선의 하늘)의 원하는 효과를 달성하기 위해, 배경의 먼 부분은 플로어 섹션과 독립적으로 배치되어야 하며, 먼 이미지는 수직면으로 배치되고, 플로어 이미지는 이미지의 상부가 그것의 하부보다 깊도록 배향된다(즉, 수평 스크린 방향인 x-축에 대해 회전됨). 수학적으로, 그것은 다음과 같이 되도록 셋 업될 수 있다:
Figure pct00028
여기서
Figure pct00029
전체 이미지 높이의 분율로서(이미지의 상부로부터 측정되는, 가상 아바타의 발의 위치에 대응하게 설정됨; 가상 아바타 이미지에 대한 분석은 값이 약 0.9이어야 함을 나타낸다), 피벗점의 수직 좌표이며; 다른 변수들은 도 44에 제시된 바와 같이 정의될 수 있다.
h 및 b의 값들은 예로서 도 45에 예시된 바와 같이, 배경 이미지를 수동으로 결정된 수평선에서 분할함으로써 생성되는, 분리된 먼 배경 및 플로어 이미지들의 픽셀 높이들로서 자동으로 검색된다. 각 배경 이미지에 대한 깊이 값은 이미지 자원에 대한 메타데이터에 설정되고 저장될 수 있다. 그것은 예를 들어, 이미지 픽셀들의 스케일로 표현된 바와 같은, 배경의 먼 섹션까지의 실제 세계 거리에 대응할 수 있다.
3.3 가상 아바타의 회전 모델링
아바타는 모델을 다른 각도들에서 묘사하는 점진적인 일련의 이미지를 사용하여 회전하는 것으로 제시된다. 3D 모델들 및 2D 모델들로부터 가상 아바타들의 이러한 시차 이미지들을 생성하기 위해 사용될 수 있는 방법들에 대한 세부 내용들에 대해, 섹션 3.4를 참조하자.
시차 이미지들이 파일 접미사로 인덱싱되어 묘사된 회전 각도를 나타낸다는 것을 고려해 볼 때, 원하는 이미지는 저장된 이미지 각도 p에 대해 다음 식을 사용하여 선택될 수 있다:
Figure pct00030
여기서:
Figure pct00031
는 머리 회전 각도이거나(얼굴-추적 모듈로부터 검색된, 도 46에 제시된 바와 같이, x는 상대적 수평 얼굴 위치이고, z는 스크린으로부터 얼굴까지의 수직 거리이다), 시간, 또는 유사한 것에 대해 두 배로 적분된, 가속도계로부터의 출력으로서 주어지는 각도일 수 있다,
Figure pct00032
는 저장된 이미지들의 회전 방향에 매칭하기 위한 부호이다,
Figure pct00033
는 최대 회전이 발생하도록 요청되는 시야각이다(또한 섹션 3.5.1 참조),
Figure pct00034
는 원하는 최대 회전 각도(즉, 이미지가 회전해야 할 정도)이고; 이는 실제 각도 치수가 아니라, 내부 시차 생성기로 전달되는 값(통상적으로 0 내지 1)이다,
― r 은 사용될 p의 원하는 증분이다(이는 회전의 조도를 설정하고 또한 그것이 머리가 이리저리 움직일 때 새로운 이미지 얼마나 자주 로딩될 필요가 있는지를 구술함에 따라 지연을 감소시키기 위해 중요한 것이다).
― 식 (3.2)에서의
Figure pct00035
는 컨텐츠 미만의 가장 큰 정수가 취해져, 가장 큰 정수가 정수 r의 배수가 사용되게 할 수 있음을 의미한다.
의복 식별자, 뷰 번호, 및 이미지 크기와 함께, 이러한 값을 취하면, 예를 들어, 섹션 3.5.2에 설명될 바와 같이, 이미지 키가 구축되고 정확한 이미지가 상기 키를 사용하여 이용가능한 자원들로부터 수집된다.
3.3.1 3D 디스플레이를 위한 입체 이미지 쌍 생성
식 (3.2)에 기초하여, 우리는 시차량 p이 동일하나 회전 방향들이 반대인 시차 이미지들 (p, -p)의 쌍을 렌더링할 수 있다. 이러한 이미지들의 쌍은 양안시를 위해 각각 3D 디스플레이 디바이스의 좌안 채널 및 우안 채널에 공급될 수 있다. 가능한 3D 디스플레이 디바이스는 이에 제한되는 것은 아니나, 예를 들어, 구글 카드보드, 또는 편광된 광에 기초한 디스플레이 디바이스를 포함한다. 시차 이미지 쌍의 예가 도 42에 제공된다.
3.4 회전된 가상 아바타에 대한 텍스처 이미지들의 생성
임의로 회전된 가상 아바타의 2D 텍스처 이미지들을 렌더링하는 종단간 프로세스(섹션 3.3 참조)의 예가 도 47에 요약된다. 일반적으로, 다른 렌더링 솔루션들은 가상 아바타의 성분들의 3D 기하학적 구조가 이용가능한지 여부에 따라 적용된다. 이러한 성분은 체형 모델, 의상을 입은 의복 모델(들), 및 머리 모델 등을 포함한다.
케이스 1: 모든 가상 아바타 성분들의 3D 기하학적 구조들이 이용가능하다 .
전체 가상 아바타 및 아바타에 입혀진 3D 의복 모델들의 3D 텍스처 기하학적 구조가 모두 존재할 때, 회전된 가상 아바타로 렌더를 생성하는 것은 렌더링 프로세스 동안 y-축(위쪽 축)을 따르는 각도 φ의 카메라 뷰 회전을 적용함으로써 구현될 수 있다. 렌더는 단도직입적으로 표준 그래픽스 렌더링 파이프라인에 있다.
케이스 2: 가상 아바타 성분들의 몇몇 3D 기하학적 구조가 이용가능하지 않다.
가상 아바타의 몇몇 성분은 기초 3D 기하학적 구조들을 갖지 않을 수 있다. (예를 들어, 우리는 의복의 단지 단일 2D 텍스처 절단부분이 특정 시점에 존재하는, 의상에 대한 2D 의복 모델들을 사용할 수 있다). 2D 의복 모델들의 회전된 버전을 생성하는 것은 먼저 일정한 루트 추정에 기초하여 2D 의복 모델의 3D 기하학적 구조를 근사화하는 것, 깊이 계산(세부 내용들에 대해 섹션 3.4.1 참조)을 필요로 하고, 최종적으로 대응하는 2D 텍스처 움직임이 3D 회전을 에뮬레이트하기 위해 이미지에 적용될 것이다(세부 내용들에 대해 섹션 3.4.2 참조).
3.4.1. 2D 텍스처 절단부분으로부터 3D 근사 의복 기하학적 구조 생성
의복 디지털화의 프로세스 동안, 각 의복은 8개의 카메라 뷰: 전, 전우, 우, 우후, 후, 좌후, 좌, 및 좌전으로 사진이 찍힌다. 인접한 카메라 뷰들은 대략 45도로 이격된다. 그로 인해 입력된 2D 의복 이미지들이 상기한 8개의 카메라 뷰 중 하나이 있다. 이러한 이미지들로부터, 쌍방향 도구들(예를 들어, 포토샵, 김프), 또는 기존 자동 이미지 세그먼트화 알고리즘들(예를 들어, 그래프-컷에 기초한 알고리즘)을 사용하여 2D 의복 실루엣들이 추출될 수 있다.
단일 2D 텍스처 절단부분 또는 실루엣을 갖는 2D 동체-기반 의복 모델(예를 들어, 민소매 드레스들, 긴 팔 상의, 또는 스커트들)에 대해, 의복의 3D 기하학적 구조는 다음 단순화들을 적용함으로써 근사화된다:
● 상체 주위에서, 의복은 기초 체형의 기하학적 구조를 밀접하게 따른다;
● 하체 주위에서, 의복은 신체의 원점을 중심으로 하여, 다양한 축 길이를 갖는 타원 기둥면에 가깝다. 소정의 높이에서, 타원은 도 48의 다리 위쪽 주위 샘플 높이로 도시된 바와 같이, 신체의 앞쪽 방향(즉, 얼굴이 가리키는 방향)의 단축, 의복 텍스처 실루엣의 왼손 극값에서 오른손 극값까지 이어지는 장축, 및 미리 정의된 종횡비 α(실험이 α = 0.5의 값이 바람직한 결과들을 제공함을 나타냄)를 갖는 것으로 정의된다. 신체 원점은 동체 주위 영역에서 샘플링되는, 실루엣 가장자리 상의 깊이들의 산술 평균에 대응하는 깊이에서, 임의의 주어진 높이에서의 신체 실루엣의 두 개의 수평 극값(예를 들어, 도 48의 두 개의 흰 점) 사이 중간으로 주어진다.
위에서 설명된 방법을 사용하여 2D 텍스처 절단부분으로부터 생성된 드레스의 3D 기하학적 구조의 예가 도 49에 주어진다.
구현예로, 우리는 신체 상의 주어진 높이에 대응하는, 상부로부터 의복 이미지의 각 열마다 이러한 3D 기하학적 구조를 생성한다. 각 열에서, 좌극값 및 우극값 xleft 및 xright는 실루엣에서 추정된다. 그 다음 디지털화 시 8개의 카메라 뷰의 각각에 대해, 의복 타원에 대한 장반경 길이 s는 다음으로 주어진다:
Figure pct00036
그 다음 열에서의 각 픽셀에서의 타원의 깊이 dellipse(즉, 카메라로부터의 수직 거리)는 다음과 같이 신체 원점 깊이 ybody에서 타원 y-좌표 yellipse가 감산된 값으로 근사화된다:
Figure pct00037
이는 대부분 x에 대해
Figure pct00038
이고 의복은 신체와 더 가깝기 때문이다(도 50, 예를 들어, 다른 카메라 뷰들에서 yellipse를 평가하기 위한 타원 방정식들 참조). 최종 의복 깊이는 해당 지점에서의 신체 깊이 dbody 및 dellipse의 가중 평균으로서 근사화되며, 가중치 w는 다음으로 주어진다:
Figure pct00039
여기서 b는 평활 계수, 즉 전환이 완만하거나 극심한 정도이고, j는 현재 이미지 열 인덱스(맨 위가 0)이고, t는 보통 신체 모델의 허리 높이에 의해 정의되는, 타원이 신체 위로 얼마나 멀리 효과를 발휘하기 시작해야 하는지를 나타내는 미리 정의된 임계이다.
적절한 기하학적 구조에 대한 메쉬를 생성하기 위해 사용되는 최종 깊이는 신체의 깊이보다 적어도 일정한 마진 dmargin만큼 적은 것으로 보장되고, 그에 따라 다음과 같이 주어진다:
Figure pct00040
상기한 접근법은 복합 의복 모델들, 예를 들어, 긴 팔 상의 및 바지들을 모델링하기 위해 일반화될 수 있다. 그러한 경우, 우리는 식 (3.4) 내지 식 (3.6) 및 도 50에 제시된 예시적인 방정식들을 사용하여 대응하는 의복 레이어들 및 신체 부위들에 기초하여 개별적으로 의복의 각 부분에 대한 근사 기하학적 구조를 생성할 수 있다. 의복 레이어 및 신체 부위 대응은 다음과 같이 주어진다.
● 의복 동체 부분 / 스커트 -- 신체 동체;
● 좌(우) 소매 -- 좌(우) 팔;
● 좌(우) 바짓가랑이 -- 좌(우) 다리.
바지 한 벌에 대한 다수의 레이어의 3D 근사 기하학적 구조를 생성하는 예가 도 51에 주어진다.
그 다음 재구성된 근사화된 3D 기하학적 구조에 기초하여, 우리는 섹션 3.4.2에 설명될 바와 같은 2D 텍스처 몰프 솔루션에 의해 의복의 3D 회전을 모델링할 수 있다.
3.4.2 근사화된 3D 기하학적 구조에 기초한 2D 텍스쳐 몰핑
이전 단계에서 각 픽셀의 깊이 근사치들에 의해 주어진 정점들의 점군으로부터 얼굴들을 갖춘 부드러운 3D 메쉬를 생성하면, 의복의 최종 정규화된 깊이 맵이 요청된 뷰에 대해 생성될 수 있다. 이러한 깊이 맵은 수직축(스크린 좌표들에서의 y-축)에 대한 면외 회전을 시뮬레이트하기 위해 의복 텍스처 상의 소정의 지점이 이미지에서 이동해야 할 정도를 계산하기 위해 사용될 수 있다. 텍스처 픽셀의 현재 정규화된 위치 p는 다음으로 설정된다:
Figure pct00041
여기서:
Figure pct00042
, j는 수평 픽셀 위치, w는 메이지 픽셀 폭,
Figure pct00043
, i는 수직 픽셀 위치, h는 이미지 픽셀 높이,
Figure pct00044
는 "깊이 맵으로부터의 정규화된 깊이"이고; 결과 값들은 범위 [-1, +1]에 있다.
뷰 카메라 4x4 투영, 뷰, 및 세계 변환 매트릭스들 P, V 및 W(여기서 곱해진 조합 WVP는 곱셈 후 세계 좌표들에서 이미지 좌표들로의 변환을 나타냄)를 사용하면; 회전 매트릭스 R이 요청된 각도에 기초한 z-축에 대한 회전에 대해 계산된다. 그 다음 3D 기하학적 구조 상의 대응하는 지점의 새로운 이미지 좌표 위치 p'가 다음으로 주어진다:
Figure pct00045
전체 이미지 치수들로 정규화된, 이미지 상의 2D 변환 결과는 다음으로 주어진다:
Figure pct00046
이러한 2D 변환들은 전체 이미지에 걸쳐 샘플링된 픽셀들의 빈도로 저장되어, 이러한 정규화된 움직임들을 픽셀들에 맵핑하는 2D 텍스처 몰프 필드를 생성한다.
2D 텍스처 몰프 필드는 전체 이미지에 걸쳐 부드러운 거동을 제공하기 위해 의복 실루엣 내부 영역에 대해 단지 정확하게 계산되어 변환되고 그에 따라 외삽법이 행해져야 한다. 이러한 부드러움을 제공하기 위한 몰프의 외삽법 및 대안은 다음과 같은 다수의 별개의 단계로 수행될 수 있다:
1. 중접될 것으로 여겨지는 임의의 텍스처 영역들이 대신 단일 수직선에 접하게 되도록 몰프를 제한. 샘플점들 간 내부 내삽으로 인해, 이는 불완전하나, 텍스처의 자기 교차를 방지하는 것을 돕는다.
2. 값이 이러한 영역들에서 상당히 뛰어넘지 않음을 보장하기 위해 가장자리에 가까운 몰프 값들의 가중 평균을 사용하여, 의복 실루엣 가장자리들로부터 수평으로 몰프를 외삽.
3. 상부 및 하부 열들을 이미지의 상부 및 하부로 위아래로 간단히 복사하여, 이제 완료된 열들로부터 수직으로 몰프를 외삽.
4. 예를 들어, 식 (3.10)의 5×5 커털을 사용함으로써, 몰프에 분산된 블러 평활화를 적용:
생성된 결과 이미지들은 예를 들어 도 41 및 도 42에 도시된 것과 같은 이미지들이다.
보다 복잡합 의복 이를테면 바지 또는 긴 소매 상의의 경우, 상기한 텍스처 몰프 솔루션이 각 개별적인 의복 레이어(즉, 동체, 좌/우 소매, 좌/우 다리)에 대해 각각 적용될 것이다.
동적 원근법 시각화 시스템들을 구현하기 위해, 두 개의 다른 접근법이 적용될 수 있다:
1) 시각화 서버는 클라이언트로부터의 질의 시차 각도를 고려하여, 의복들의 전체 동적 원근법 이미지들을 생성하고 송신한다. 이는 위에서 설명된 방법에 기초하여 2D 텍스처 몰프 필드들을 계산하는 것, 및 그 다음 원래 2D 이미지들 상에 2D 텍스처 몰프 필드들을 적용하는 것을 수반하여 동적 원근법 이미지들을 생성한다.
2) 시각화 서버는 단지 이미지 조작 함수들을 컴퓨팅하고 클라이언트 측에 송신한다. 구체적인 예들로서, 이미지 조작 함수는 상기한 (모든 의복 레이어의) 2D 텍스처 몰프 필드들, 또는 몰프 필드들을 재생하기 위한 파라미터들일 수 있다. 그 다음, 클라이언트는 리턴된 이미지 조작 함수들에 기초하여 로컬로 원래의 2D 의복 이미지들로부터 동적 원근법 이미지들을 생성하는 것을 완료할 것이다. 이미지 조작 함수들은 보통 전체 이미지들보다 훨씬 간결하기 때문에, 이러한 설계는 대역폭이 낮고/거나 이미지들이 고해상도를 가질 때 보다 효율적이고 보다 양호한 사용자 경험을 제공할 수 있다.
3.4.3 2D 머리 스프라이트들 또는 2D 헤어 스타일에 대한 3D 근사 기하학적 구조 및 텍스처 몰프
분명한 3D 기하학적 구조가 제시되지 않을 때 2D 머리 스프라이트 또는 2D 헤어 스타일 이미지의 3D회전을 근사 모델링하기 위한 유사한 접근법을 사용할 수 있다. 이를 위해, 우리는 사용자의 3D 체형 모델의 기초적인 머리 및 목 밑 기하학적 구조를 근사 3D 기하학적 구조로 사용한다(예를 들어, 도 52 참조). 이는 우리가 상기한 섹션 3.4.2에 설명된 바와 같이 2D 텍스처 몰핑 및 몰프 필드 외삽 접근법을 사용하여 단일 2D 텍스처 이미지로부터 머리 스프라이트/헤어스타일의 3D 회전을 모델링하게 한다.
3.5 다른 특징들 및 관련 설계들
용어 "시차(parallax)"는 그것이 단지 회전된 이미지들이 생성되는 원리(즉, 뷰어로부터 다른 거리들의 이미지 섹션들이 다른 양만큼 이동한다)를 나타낸다는 점에서 대략 사용된다는 것을 주의하자. 특히, "시차" 각도들은 문제의 각도가 이미지에서 가상 아바타의 회전과 관련됨을 나타낸다.
3.5.1 설정 및 맞춤화
이 섹션은 본 출원의 파라미터들을 설정하기 위한 샘플 사용자 인터페이스를 제공한다. 예로서 도 43에 도시된 바와 같이, 다수의 맞춤형 파라미터가 앱 또는 사용자 인터페이스에서 사용자가 이용가능한 설정 및 맞춤화를 제시하는 아래 표에 상세히 열거되는 앱 또는 사용자 인터페이스에서의 변화를 위해 이용가능하다.
설정 효과
BG 버튼 사용자가 이용가능한 배경 이미지들을 반복하게 한다
의복 버튼 사용자가 이미지들이 저장된 이용가능한 의복들을 반복하게 한다
최대 각도 범위 0-90에서; 최대 시야각(α)을 설정한다
최대 시차 디스플레이될 최대 가상 아바타 이미지 회전을 설정한다
시차 증분 가상 아바타 이미지가 회전해야 할 증분을 설정(간접적으로 새로운 이미지가 로딩되는 빈도를 설정)한다
뷰 번호 베이스 이미지에 대해 사용될 뷰 번호를 설정한다
의복 라벨 정확한 이미지 컬렉션을 선택하기 위해 사용되는 고유한 의복 식별자를 설정한다
이미지 사이즈 사용될 이미지 사이즈를 설정한다
줌(+/- 버튼들, 두 손가락 핀치) 메인 스크린의 가상 아바타 및 배경 섹션을 줌 인/아웃
3.5.2 이미지 선택
섹션 3.5.1에 설명된 바와 같은 설정을 고려해 볼 때, 요청된 이미지 자원들에 액세스하기 위한 자원 식별자가 구성된다. 이미지 자원들은 의복 설정, 뷰 설정, 및 이미지 사이즈 설정에 의해 인덱싱될 수 있다.
설정이 초기화되든 변경되든지 간에, 그러한 설정들에 대해 이용가능한 시차 값들의 리스트가 액세스가능한 이미지 자원들에 기초하여 저장된다. 리스트는 큰 음의 값들에서 큰 양의 값들까지 시차 값의 증가하는 값들로 정렬된다. 입력 시차 값 p를 고려하여 가장 가까운 인덱스 탐색이 구현될 수 있다. (소수 2자리수로 반올림된 다음, 100이 곱해진) p 상당 적분을 고려해 볼 때, 다음 기준들의 순서화가 확인된다:
○ p가 제1 리스트 요소(최저의 이용가능한 시차) 미만인 경우, 제1 요소가 사용된다;
○ 그렇지 않으면,p보다 큰 시차 값이 찾아질 때까지 리스트를 반복한다;
■ 시차 값이 발견된 경우, p가 이 보다 큰 값에 가까운지 또는 이전 리스트 요소에 가까운지(p 미만이어야 하는) 여부를 확인한다 - 이러한 두 값 중 가장 가까운 값 사용한다,
■ 아무 것도 찾아지지 않는 경우, 가장 큰 값을 사용한다(리스트의 마지막 요소).
그 다음 이러한 가장 가까운 이용가능한 p 상당 적분이 요청된 이미지 자원에 액세스하기 위해 사용되는 이름 구성의 최종 값으로서 사용된다.
주의 사항들
상기한 내용에서, 예들은 대개 여성 사용자들에 대해 주어진다. 그런, 통상의 기술자들은 이러한 예들이 필요한 경우 적절히 변형되어 남성 사용자들에 대해 적용될 수 있음을 이해할 것이다.
위에서 언급된 배열들은 단지 본 발명의 원리들에 대한 적용예의 예시임이 이해되어야 한다. 많은 변형 및 대안적인 배열이 본 발명의 사상 및 범위에서 벗어나지 않고 고안될 수 있다. 본 발명이 현재 본 발명의 가장 실제적이고 바람직한 예(들)인 것으로 여겨지는 것과 관련하여 구체적이고 상세하게 도면들에 도시되고 위에서 자세히 설명되었지만, 해당 기술분야의 통상의 기술자들에게 여기에 제시된 바와 같은 본 발명의 원리들 및 개념들에서 벗어나지 않고 많은 변형이 이루어질 수 있음이 이해될 것이다.

Claims (154)

  1. 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 컴퓨팅 디바이스의 스크린 상에 디스플레이하기 위한 생성하기 위한 방법으로서, 상기 컴퓨팅 디바이스는 센서 시스템을 포함하고, 상기 방법은:
    (a) 상기 3D 가상 신체 모델을 생성하는 단계;
    (b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하는 단계;
    (c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하는 단계;
    (d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하는 단계;
    (e) 상기 센서 시스템을 사용하여 위치 변화를 검출하는 단계, 및
    (f) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하는 단계를 포함하는, 방법.
  2. 청구항 1에 있어서, 상기 3D 가상 신체 모델 상에 중첩되어 상기 스크린 상에 제시된 변형되는 상기 3D 의복 이미지가 원근법에 따라 변형되는, 방법.
  3. 청구항 1 또는 2에 있어서, 3D 가상 신체 모델 이미지 변형은 일련의 사전-렌더링된 이미지를 사용하여 제공되는, 방법.
  4. 청구항 1 내지 3 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델은 상기 3D 가상 신체 모델을 다른 각도들로 도시하는 점진적인 일련의 이미지를 사용하여 회전하는 것으로 제시되는, 방법.
  5. 청구항 1 내지 4 중 어느 한 항에 있어서, 상기 위치 변화는 상기 스크린 표면 법선 벡터의 기울임인, 방법.
  6. 청구항 1 내지 5 중 어느 한 항에 있어서, 상기 센서 시스템은 가속도계를 포함하는, 방법.
  7. 청구항 1 내지 6 중 어느 한 항에 있어서, 상기 센서 시스템은 자이로스코프를 포함하는, 방법.
  8. 청구항 1 내지 7 중 어느 한 항에 있어서, 상기 센서 시스템은 자기력계를 포함하는, 방법.
  9. 청구항 1 내지 8 중 어느 한 항에 있어서, 상기 사용자가 상기 컴퓨팅 디바이스를 기울임으로써 상기 3D 가상 신체 모델의 측부들 주위를 이동할 수 있는 느낌을 받는, 방법.
  10. 청구항 1 내지 9 중 어느 한 항에 있어서, 상기 센서 시스템은 상기 컴퓨팅 디바이스의 카메라를 포함하는, 방법.
  11. 청구항 1 내지 10 중 어느 한 항에 있어서, 상기 센서 시스템은 상기 컴퓨팅 디바이스의 입체 카메라들의 쌍을 포함하는, 방법.
  12. 청구항 1 내지 11 중 어느 한 항에 있어서, 상기 위치 변화는 사용자의 머리의 움직임인, 방법.
  13. 청구항 12에 있어서, 상기 위치 변화는 머리 추적기 모듈을 사용하여 검출되는, 방법.
  14. 청구항 1 내지 13 중 어느 한 항에 있어서, 상기 사용자가 그들의 머리를 상기 컴퓨팅 디바이스 주위에서 이동시킴으로써 상기 3D 가상 신체 모델의 측부들 주위를 이동할 수 있는 느낌을 받는, 방법.
  15. 청구항 1 내지 14 중 어느 한 항에 있어서, 상기 스크린 상의 상기 이미지 및 다른 객체들은 사용자 머리 움직임에 응답하여 자동적으로 이동하는, 방법.
  16. 청구항 1 내지 15 중 어느 한 항에 있어서, 상기 컴퓨팅 디바이스는 모바일 컴퓨팅 디바이스인, 방법.
  17. 청구항 16에 있어서, 상기 모바일 컴퓨팅 디바이스는 모바일 폰, 또는 태블릿 컴퓨터, 또는 머리에 장착하는 디스플레이인, 방법.
  18. 청구항 16 또는 17에 있어서, 상기 모바일 컴퓨팅 디바이스는 계속하기 위해, 사용자에게 상기 모바일 컴퓨팅 디바이스를 회전시킬 것을 요청하는, 방법.
  19. 청구항 1 내지 15 중 어느 한 항에 있어서, 상기 컴퓨팅 디바이스는 데스크탑 컴퓨터, 또는 랩탑 컴퓨터, 또는 스마트 TV, 또는 머리에 장착하는 디스플레이인, 방법.
  20. 청구항 1 내지 19 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델은 사용자 데이터로부터 생성되는, 방법.
  21. 청구항 1 내지 20 중 어느 한 항에 있어서, 상기 3D 의복 이미지는 의복의 하나 또는 다수의 2D 사진을 분석 및 프로세싱함으로써 생성되는, 방법.
  22. 청구항 1 내지 21 중 어느 한 항에 있어서, 상기 스크린은 장면을 제시하되, 상기 장면은 상기 3D 가상 신체 모델의 발의 중심점이 회전점으로 설정되고, 그에 따라 상기 사용자가 상기 모델 주위를 이동하여 다른 각도들을 보는 인상을 받는, 방법.
  23. 청구항 1 내지 22 중 어느 한 항에 있어서, 장면은 다음 적어도 세 개의 이미지: 3D 신체 모델, 먼 배경, 및 플로어로 구성되는, 방법.
  24. 청구항 23에 있어서, 배경 이미지들이 3D 기하학적 구조로 프로그램에 따라 변환되는, 방법.
  25. 청구항 23 또는 24에 있어서, 상기 배경의 먼 부분은 상기 플로어 섹션과 독립적으로 배치되며, 상기 먼 이미지는 수직면으로 배치되고, 상기 플로어 이미지는 상기 플로어 이미지의 상부가 상기 플로어 이미지의 하부보다 깊도록 배향되는, 방법.
  26. 청구항 23 내지 25 중 어느 한 항에 있어서, 배경 이미지를 수평선으로 분할함으로써, 상기 배경 이미지 및 플로어 이미지들이 분리되는, 방법.
  27. 청구항 23 내지 26 중 어느 한 항에 있어서, 각 배경 이미지에 대한 깊이 값이 상기 배경 이미지의 자원에 대한 메타데이터에 설정되고 저장되는, 방법.
  28. 청구항 1 내지 27 중 어느 한 항에 있어서, 상기 스크린 내에서, 장면은 그것을 다른 피처들과 분리되게 유지하기 위해 프레임 내에 제시되고, 상기 프레임은 상당히 줌 인 또는 회전될 때 상기 장면의 가장자리 부분들이 보이지 않도록 콘텐츠를 크롭하는, 방법.
  29. 청구항 1 내지 28 중 어느 한 항에 있어서, 두 개의 별개의 회전 위치에 렌더링되는 3D 가상 신체 모델 이미지들로 좌안/우안 이미지 쌍을 생성함으로써, 상기 3D 가상 신체 모델의 양안시가 3D 디스플레이 디바이스 상에 생성되는, 방법.
  30. 청구항 29에 있어서, 상기 3D 디스플레이 디바이스는 액티브 (셔텨 글라스) 3D 디스플레이, 또는 패시브 (폴라리스 글라스) 3D 디스플레이인, 방법.
  31. 청구항 29 또는 30에 있어서, 상기 3D 디스플레이 디바이스는 스마트 TV와 함께 사용되는, 방법.
  32. 청구항 1 내지 중 31 어느 한 항에 있어서, 감도 및 장면 모습을 커스터마이즈하기 위해 다양한 설정을 포함하는 사용자 인터페이스가 제공되는, 방법.
  33. 청구항 32에 있어서, 상기 설정들은 다음: 이용가능한 배경 이미지들을 반복, 이미지들이 저장되는 이용가능한 의복들을 반복, 최대 시야각을 설정, 디스플레이될 최대 가상 아바타 이미지 회전을 설정, 상기 가상 아바타가 회전해야 할 증분을 설정, 사용될 이미지 크기를 설정, 메인 스크린의 배경 섹션 및 가상 아바타를 줌 인/아웃 중 하나 이상을 포함하는, 방법.
  34. 청구항 1 내지 33 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델 및 상기 3D 가상 신체 모델 상에 입혀진 상기 3D 의복의 3D 텍스처 기하학적 구조가 모두 제시될 때, 회전된 3D 가상 신체 모델로 렌더를 생성하는 단계가 상기 렌더링 프로세스 동안 수직축을 따라 카메라 뷰 회전을 적용함으로써 구현되는, 방법.
  35. 청구항 1 내지 34 중 어느 한 항에 있어서, 2D 의복 모델들이 의상을 위해 사용될 때, 2D 의복 모델들의 회전된 버전을 생성하는 단계는 먼저 추정에 기초하여 상기 2D 의복 모델의 상기 3D 기하학적 구조를 근사화하여, 깊이 계산을 수행하는 단계를 수반하고, 최종적으로 대응하는 2D 텍스처 움직임이 3D 회전을 에뮬레이트하기 위해 상기 이미지에 적용되는, 방법.
  36. 청구항 1 내지 35 중 어느 한 항에 있어서, 단일 2D 텍스처 절단부분 또는 실루엣을 갖는 2D 동체-기반 의복 모델에 대해, 상기 의복의 상기 3D 기하학적 구조는 상체 주위에서, 상기 의복이 기초적인 체형의 상기 기하학적 구조를 밀접하게 따르고; 하체 주위에서, 상기 의복은 상기 신체의 원점을 중심으로 하여, 다양한 축 길이를 갖는 타원 기둥면에 가까운 단순화들을 적용함으로써 근사화되는 방법.
  37. 청구항 1 내지 36 중 어느 한 항에 있어서, 각 픽셀의 깊이 근사치들에 의해 주어진 정점들의 점군으로부터 얼굴들을 갖춘 부드러운 3D 메쉬를 생성하는 단계, 및 요청된 뷰에 대해 상기 의복의 최종 정규화된 깊이 맵을 생성하는 단계를 포함하는, 방법.
  38. 청구항 37에 있어서, 상기 깊이 맵이 수직축에 대한 면외 회전을 시뮬레이트하기 위해 상기 의복 텍스처 상의 소정의 지점이 상기 이미지에서 이동해야 할 정도를 계산하기 위해 사용되는, 방법.
  39. 청구항 1 내지 38 중 어느 한 항에 있어서, 상기 사용자의 3D 체형 모델의 기초적인 머리 및 목 밑 기하학적 구조는 근사 3D 기하학적 구조로서 사용되고, 2D 텍스처 몰핑(morphing) 및 몰프 필드 외삽 접근법을 사용하여 단일 2D 텍스처 이미지로부터 머리 스프라이트/헤어스타일의 3D 회전을 모델링하는 단계가 수행되는, 방법.
  40. 청구항 1 내지 39 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델 상에 상기 3D 의복 이미지를 중첩하는 단계는 3D 모델들이 먼저 구성된 다음 이미지로 렌더링되는 경우를 포함하는, 방법.
  41. 청구항 40에 있어서, 이미지로 렌더링하는 것은 픽셀 당 z-오더링을 사용하는 것을 포함하는, 방법.
  42. 스크린, 센서 시스템 및 프로세서를 포함하는 컴퓨팅 디바이스로서, 상기 컴퓨팅 디바이스는 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 상기 스크린 상에 디스플레이하도록 구성되며, 상기 프로세서는:
    (a) 상기 3D 가상 신체 모델을 생성하고;
    (b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하고;
    (c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하고;
    (d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하고;
    (e) 상기 센서 시스템을 사용하여 위치 변화를 검출하며, 그리고
    (f) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하는, 컴퓨팅 디바이스.
  43. 청구항 42에 있어서, 청구항 1 내지 41 중 어느 한 항의 방법을 수행하도록 더 구성된, 컴퓨팅 디바이스.
  44. 서버 및 상기 서버와 통신하는 컴퓨팅 디바이스를 포함하는 시스템으로서, 상기 컴퓨팅 디바이스는 스크린, 센서 시스템 및 프로세서를 포함하고, 상기 서버는 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델의 이미지를 상기 컴퓨팅 디바이스에 송신하도록 구성되되, 상기 서버가:
    (a) 상기 3D 가상 신체 모델을 생성하고;
    (b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하고;
    (c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하고;
    (d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지의 상기 이미지를 상기 컴퓨팅 디바이스에 송신하고;
    상기 컴퓨팅 디바이스가:
    (e) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하고;
    (f) 상기 센서 시스템을 사용하여 위치 변화를 검출하며, 그리고
    (g) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 3D 의복 이미지에 대한 요청을 상기 서버에 송신하고;
    상기 서버가
    (h) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지의 이미지를 상기 컴퓨팅 디바이스에 송신하며; 그리고
    상기 컴퓨팅 디바이스가:
    (i) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하는, 시스템.
  45. 청구항 44에 있어서, 청구항 1 내지 41 중 어느 한 항의 방법을 수행하도록 더 구성된, 시스템.
  46. 프로세서를 포함하는 컴퓨팅 디바이스 상에서 실행가능한 컴퓨터 프로그램 제품으로서, 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 디스플레이에 제공하도록 구성되며,
    (a) 상기 3D 가상 신체 모델을 생성하고;
    (b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하고;
    (c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하고;
    (d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 스크린 상에 디스플레이하도록 제공하고;
    (e) 센서 시스템을 사용하여 위치 변화의 검출을 수신하며, 그리고
    (f) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 디스플레이하도록 제공하도록 구성된, 컴퓨터 프로그램 제품.
  47. 청구항 46에 있어서, 청구항 1 내지 41 중 어느 한 항의 방법을 수행하도록 더 구성된, 컴퓨터 프로그램 제품.
  48. 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 컴퓨팅 디바이스의 스크린 상에, 단일 장면으로 디스플레이하기 위한 방법으로서,
    (a) 상기 복수의 3D 가상 신체 모델을 생성하는 단계;
    (b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하는 단계;
    (c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하는 단계, 및
    (d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 상기 스크린 상에 제시하는 단계를 포함하는, 방법.
  49. 청구항 48에 있어서, 상기 복수의 3D 가상 신체 모델은 복수의 각각의 상이한 사람의 것인, 방법.
  50. 청구항 48 또는 49에 있어서, 상기 복수의 3D 가상 신체 모델은 각각의 상이한 시야각들로 제시되는, 방법.
  51. 청구항 48 내지 50 중 어느 한 항에 있어서, 상기 복수의 3D 가상 신체 모델은 적어도 세 개의 3D 가상 신체 모델인, 방법.
  52. 청구항 48 내지 50 중 어느 한 항에 있어서, 스크린 이미지는 상이한 3D 가상 신체 모델들이 다양한 체형에 대해 의복들과 함께 모델링되게 하는 시각화 엔진을 사용하여 생성되는, 방법.
  53. 청구항 48 내지 52 중 어느 한 항에 있어서, 스크린 장면에서 3D 가상 신체 모델들이 다수의 열로 분산되는, 방법.
  54. 청구항 53에 있어서, 각 열 내에서 상기 3D 가상 신체 모델들이 균등하게 이격되는, 방법.
  55. 청구항 48 내지 54 중 어느 한 항에 있어서, 상기 스크린 장면은 3D 가상 신체 모델들을 원근법에 의해 제시하는, 방법.
  56. 청구항 48 내지 55 중 어느 한 항에 있어서, 의복들은 각 3D 가상 신체 모델에 무작위로 할당되거나, 또는 사용자 입력에 의해, 또는 사용자에 의한 검색의 결과로서 사전-결정되거나, 또는 다른 사용자에 의해 생성되거나, 또는 알고리즘에 의해 결정되는, 방법.
  57. 청구항 48 내지 56 중 어느 한 항에 있어서, 3D 가상 신체 모델들의 집합의 상기 단일 장면은 상기 스크린 상에서 스크롤가능한, 방법.
  58. 청구항 57에 있어서, 상기 사용자가 상기 3D 가상 신체 모델들의 집합의 끝까지 스크롤하는 경우 상기 장면을 반복함으로써 매끄러운 경험이 제공되는, 방법.
  59. 청구항 48 내지 58 중 어느 한 항에 있어서, 상기 단일 장면은 측면으로 또는 풍경 모드 양상들로 제공가능한, 방법.
  60. 청구항 48 내지 59 중 어느 한 항에 있어서, 상기 스크린은 터치 스크린인, 방법.
  61. 청구항 60에 있어서, 상기 스크린 상의 의상을 터치하면 상기 의복들의 세부사항들을 제공하는, 방법.
  62. 청구항 60 또는 61에 있어서, 상기 스크린 상의 의상을 터치하면 관련 무대 비디오를 제공하는, 방법.
  63. 청구항 60 내지 62 중 어느 한 항에 있어서, 상기 장면은 사용자의 손가락이 상기 스크린 위를 수평으로 슬라이딩하는 것에 응답하여 이동하는, 방법.
  64. 청구항 63에 있어서, 이러한 동작으로, 상기 스크린에서의 상기 신체 모델들 전부가 미리 정의된 속도들로 이동하여 카메라 뷰 선형 변위 효과를 원근법 장면으로 생성하는, 방법.
  65. 청구항 63 또는 64에 있어서, 상기 장면에서의 상이한 깊이 레이어들에 상이한 슬라이딩 속도들을 적용함으로써, 원근법 동적 레이어링 효과가 제공되는, 방법.
  66. 청구항 63 내지 65 중 어느 한 항에 있어서, 각 3D 가상 신체 모델의 수평 변환은 상기 장면에서의 각 3D 가상 신체 모델의 깊이에 반비례하는, 방법.
  67. 청구항 63 내지 66 중 어느 한 항에 있어서, 사용자가 스와이프하고, 그들의 손가락이 상기 터치스크린에서 들어 올릴 때, 모든 상기 레이어가 점차 중단되는, 방법.
  68. 청구항 63 내지 67 중 어느 한 항에 있어서, 사용자가 그들의 손가락을 상기 스크린 위에서, 각각, 수직하방향으로 또는 수직상방향으로 슬라이딩하는 것에 응답하여, 상기 장면이 다음 플로어, 상층들 또는 하층들로 전환되는, 방법.
  69. 청구항 68에 있어서, 상기 장면이 다음 플로어로 전환된 후, 이전에 상기 배경에 있던 상기 3D 가상 신체 모델들이 전경으로 오는 한편, 이전에 상기 전경에 있던 상기 3D 가상 신체 모델들이 상기 배경으로 이동하는, 방법.
  70. 청구항 69에 있어서, 각 3D 가상 신체 모델의 중심 위치는 상기 전환 변환 동안 타원 궤적을 따르는, 방법.
  71. 청구항 68 내지 70 중 어느 한 항에 있어서, 각 플로어에, 트렌드 또는 브랜드의 의복들 및/또는 의상들이 디스플레이가능한, 방법.
  72. 청구항 48 내지 71 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델들의 반투명성 및 깊이에 대하여, 장면에서의 상이한 깊이 레이어들의 반투명을 모델링하기 위해 포그 모델(fog model)이 적용되는, 방법.
  73. 청구항 48 내지 72 중 어느 한 항에 있어서, 상기 컴퓨팅 디바이스는 센서 시스템을 포함하고,
    (e) 상기 센서 시스템을 사용하여 위치 변화를 검출하는 단계, 및
    (f) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델들 상에 중첩된 상기 3D 의복 이미지들을 상기 스크린 상에 제시하는 단계를 포함하는, 방법.
  74. 청구항 73에 있어서, 상기 변형은 원근법에 따른 변형인, 방법.
  75. 청구항 73 또는 74에 있어서, 상기 위치 변화는 상기 스크린 표면 법선 벡터의 기울임인, 방법.
  76. 청구항 73 내지 75 중 어느 한 항에 있어서, 상기 센서 시스템은 가속도계를 포함하는, 방법.
  77. 청구항 73 내지 76 중 어느 한 항에 있어서, 상기 센서 시스템은 가속도계를 포함하는, 방법.
  78. 청구항 73 내지 77 중 어느 한 항에 있어서, 상기 센서 시스템은 자기력계를 포함하는, 방법.
  79. 청구항 73 내지 78 중 어느 한 항에 있어서, 상기 센서 시스템은 상기 컴퓨팅 디바이스의 카메라를 포함하는, 방법.
  80. 청구항 73 내지 79 중 어느 한 항에 있어서, 상기 센서 시스템은 상기 컴퓨팅 디바이스의 입체 카메라들의 쌍을 포함하는, 방법.
  81. 청구항 73 내지 80 중 어느 한 항에 있어서, 상기 위치 변화는 사용자의 머리의 움직임인, 방법.
  82. 청구항 81에 있어서, 상기 위치 변화는 머리 추적기 모듈을 사용하여 검출되는, 방법.
  83. 청구항 73 내지 82 중 어느 한 항에 있어서, 상기 이미지 및 다른 객체들은 사용자 머리 움직임에 응답하여 자동적으로 이동하는, 방법.
  84. 청구항 48 내지 83 중 어느 한 항에 있어서, 상기 컴퓨팅 디바이스는 모바일 컴퓨팅 디바이스인, 방법.
  85. 청구항 84에 있어서, 상기 모바일 컴퓨팅 디바이스는 모바일 폰, 또는 태블릿 컴퓨터, 또는 머리에 장착하는 디스플레이인, 방법.
  86. 청구항 84에 있어서, 상기 모바일 컴퓨팅 디바이스는 모바일 폰이고 3.5개 이하의 3D 가상 신체 모델이 상기 모바일 폰 스크린 상에 나오는, 방법.
  87. 청구항 48 내지 83 중 어느 한 항에 있어서, 상기 컴퓨팅 디바이스는 데스크탑 컴퓨터, 또는 랩탑 컴퓨터, 또는 스마트 TV, 또는 머리에 장착하는 디스플레이인, 방법.
  88. 청구항 48 내지 87 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델들은 사용자 데이터로부터 생성되는, 방법.
  89. 청구항 48 내지 88 중 어느 한 항에 있어서, 상기 3D 의복 이미지들은 상기 의복들의 하나 또는 다수의 2D 사진을 분석 및 프로세싱함으로써 생성되는, 방법.
  90. 청구항 48 내지 89 중 어느 한 항에 있어서, 상기 장면에서, 플로어 및 배경은 그것을 집단이 특정 장소에 있는 것처럼 보이게 만드는 이미지들인, 방법.
  91. 청구항 48 내지 90 중 어느 한 항에 있어서, 배경 및 플로어는 상기 사용자에 의해 선택되거나 몇몇 의복 컬렉션에 매칭하도록 커스터마이즈될 수 있는, 방법.
  92. 청구항 90 또는 91에 있어서, 상기 배경 상의 조명 변화가 디스플레이된 상기 장면에 포함되는, 방법.
  93. 청구항 48 내지 92 중 어느 한 항에 있어서, 사용자는 상기 3D 가상 신체 모델들과 상호작용하여 상기 3D 가상 신체 모델들을 탐색할 수 있는, 방법.
  94. 청구항 48 내지 93 중 어느 한 항에 있어서, 모델을 선택하면 상기 사용자가 상기 모델 상의 상기 의상의 세부사항들을 보게 하는, 방법.
  95. 청구항 94에 있어서, 상기 사용자는 그들 자신의 3D 가상 신체 모델 상에 상기 의상을 입혀볼 수 있는, 방법.
  96. 청구항 48 내지 95 중 어느 한 항에 있어서, 3D 가상 신체 모델 다음의 아이콘을 선택하면 다른 이들과 공유하는 것, 소셜 미디어 상에서 좋아요하는 것, 다음을 위해 저장하는 것, 및 평가하는 것 중 하나 이상을 가능하게 하는, 방법.
  97. 청구항 48 내지 96 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델들은 의복들이 입혀지고, 다음 기준들: 가장 인기 있는 의복들; 가장 신상품인 의복들; 미리 정의된 의복과 동일한 타입/ 카테고리/스타일/트렌드의 의복들; 이용가능한 사용자의 선호 사이즈를 갖는 의복들; 미리 정의된 의복과 동일한 브랜드/판매점의 의복들; 가장 최근에 방문한 의복에서 가장 오래 전 방문한 의복으로 정렬된 중 하나 이상에 따라 순서화되는, 방법.
  98. 청구항 48 내지 97 중 어느 한 항에 있어서, 사용자는 그들 자신의 집단을 만들고 선호 의상들의 옷장을 저장하기 위해 그것을 사용할 수 있는, 방법.
  99. 청구항 48 내지 98 중 어느 한 항에 있어서, 의상 검색 엔진으로부터의 결과들을 디스플레이하기 위해 사용가능한 사용자 인터페이스가 제공되는, 방법.
  100. 청구항 48 내지 99 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델 상에 상기 3D 의복 이미지를 중첩하는 단계는 3D 모델들이 먼저 구성된 다음 이미지로 렌더링되는 경우를 포함하는, 방법.
  101. 청구항 100에 있어서, 이미지로 렌더링하는 것은 픽셀 당 z-오더링을 사용하는 것을 포함하는, 방법.
  102. 청구항 48 내지 101 중 어느 한 항에 있어서, 청구항 1 내지 41 중 어느 한 항의 방법을 포함하는, 방법.
  103. 스크린 및 프로세서를 포함하는 컴퓨팅 디바이스로서, 상기 컴퓨팅 디바이스는 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 상기 컴퓨팅 디바이스의 상기 스크린 상에, 단일 장면으로 디스플레이하도록 구성되되, 상기 프로세서는:
    (a) 상기 복수의 3D 가상 신체 모델을 생성하고;
    (b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하고;
    (c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하며, 그리고
    (d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 상기 스크린 상에 제시하는, 컴퓨팅 디바이스.
  104. 청구항 103에 있어서, 청구항 48 내지 102 중 어느 한 항의 방법을 수행하도록 구성된, 컴퓨팅 디바이스.
  105. 프로세서를 포함하는 서버로서, 상기 서버는 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 단일 장면으로 디스플레이하기 위해 제공하도록 구성되되, 상기 프로세서는:
    (a) 상기 복수의 3D 가상 신체 모델을 생성하고;
    (b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하고;
    (c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하며, 그리고
    (d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 디스플레이하기 위해 제공하는, 서버.
  106. 청구항 105에 있어서, 청구항 48 내지 102 중 어느 한 항의 방법을 수행하도록 구성된, 서버.
  107. 프로세서를 포함하는 컴퓨팅 디바이스 상에서 실행가능한 컴퓨터 프로그램 제품으로서, 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 단일 장면으로 디스플레이하기 위해 제공하도록 구성되며,
    (a) 상기 복수의 3D 가상 신체 모델을 생성하고;
    (b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하고;
    (c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하며, 그리고
    (d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 디스플레이하기 위해 제공하도록 구성된, 컴퓨터 프로그램 제품.
  108. 청구항 107에 있어서, 청구항 48 내지 102 중 어느 한 항의 방법을 수행하도록 구성된, 컴퓨터 프로그램 제품.
  109. 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 모바일 컴퓨팅 디바이스의 스크린 상에 디스플레이하기 위한 생성하기 위한 방법으로서,
    (a) 상기 3D 가상 신체 모델은 사용자 데이터로부터 생성되고;
    (b) 의복 선택이 수신되고;
    (c) 3D 의복 이미지는 선택된 상기 의복에 대해 생성되며, 그리고
    (d) 상기 3D 의복 이미지는 상기 3D 가상 신체 모델 위에 중첩되어 상기 스크린 상에 제시되는, 방법.
  110. 청구항 109에 있어서, 의복 사이즈 및 핏 조언이 제공되고, 선택된 사이즈를 포함하여 상기 의복 선택이 수신되는, 방법.
  111. 청구항 109 또는 110에 있어서, 상기 3D 의복 이미지는 상기 의복의 하나 또는 다수의 2D 사진을 분석 및 프로세싱함으로써 생성되는, 방법.
  112. 청구항 109 내지 111 중 어느 한 항에 있어서, 사용자가 새로운 사용자 계정을 생성하기 위한, 또는 소셜 네트워크를 통해 가입하기 위한 인터페이스가 상기 모바일 컴퓨팅 디바이스 상에 제공되는, 방법.
  113. 청구항 112에 있어서, 상기 사용자는 그들의 프로필을 편집할 수 있는, 방법.
  114. 청구항 112 또는 113에 있어서, 상기 사용자는 그들의 키 및 몸무게를 선택할 수 있는, 방법.
  115. 청구항 112 내지 114 중 어느 한 항에 있어서, 상기 사용자는 그들의 피부 톤을 선택할 수 있는, 방법.
  116. 청구항 112 내지 115 중 어느 한 항에 있어서, 상기 사용자는 그들의 허리 및 힙 사이즈를 조절할 수 있는, 방법.
  117. 청구항 109 내지 116 중 어느 한 항에 있어서, 각 3D 가상 신체 모델이 각각의 상이한 3D 의복 이미지와 조합되는, 복수의 3D 가상 신체 모델을 생성하고, 각각이 상기 각각의 상이한 3D 의복 이미지와 조합되는, 상기 복수의 3D 가상 신체 모델을, 상기 모바일 컴퓨팅 디바이스의 상기 스크린 상에, 단일 장면으로 디스플레이하기 위한 방법을 포함하며,
    (a) 상기 복수의 3D 가상 신체 모델을 생성하는 단계;
    (b) 상기 복수의 3D 가상 신체 모델 상에 중첩하기 위한 상기 각각의 상이한 3D 의복 이미지들을 생성하는 단계;
    (c) 상기 복수의 3D 가상 신체 모델 상에 상기 각각의 상이한 3D 의복 이미지들을 중첩하는 단계, 및
    (d) 상기 복수의 3D 가상 신체 모델 상에 중첩된 상기 각각의 상이한 3D 의복 이미지들을 단일 장면으로 상기 스크린 상에 제시하는 단계를 포함하는, 방법.
  118. 청구항 109 내지 117 중 어느 한 항에 있어서, 상기 사용자가 3D 신체 모델 상에 디스플레이된 의상을 '좋아요'하기 위한 아이콘이 제공되는, 방법.
  119. 청구항 109 내지 118 중 어느 한 항에 있어서, 3D 신체 모델을 선택함으로써, 상기 사용자가 해당 특정 룩의 소셜 뷰로 가게 되는, 방법.
  120. 청구항 119에 있어서, 상기 사용자는 해당 특정 의상을 누가 생성했는지를 볼 수 있고 해당 특정 의상을 생성한 사용자의 프로필 뷰에 도달할 수 있는, 방법.
  121. 청구항 119 또는 120에 있어서, 상기 사용자는 해당 의상에 대한 코멘트를 기록할 수 있는, 방법.
  122. 청구항 119 내지 121 중 어느 한 항에 있어서, 상기 사용자는 상기 의상을 '좋아요'할 수 있는, 방법.
  123. 청구항 119 내지 122 중 어느 한 항에 있어서, 상기 사용자는 '의복 정보' 뷰에 도달할 수 있는, 방법.
  124. 청구항 119 내지 123 중 어느 한 항에 있어서, 상기 사용자는 그들 자신의 3D 가상 신체 모델 상에 상기 의상을 입혀볼 수 있는, 방법.
  125. 청구항 124에 있어서, 상기 사용자의 3D 가상 신체 모델에 대한 신체 치수들이 등록되기 때문에, 상기 의상이 상기 사용자의 체형에 어떻게 보일지 디스플레이되는, 방법.
  126. 청구항 109 내지 125 중 어느 한 항에 있어서, 다른 유형들의 선택가능한 의복들을 디스플레이하는 스크롤가능한 섹션 및 상기 3D 가상 신체 모델이 입고 있거나 이전에 입었던 아이템들을 디스플레이하는 섹션이 제공되는, 방법.
  127. 청구항 109 내지 126 중 어느 한 항에 있어서, 상기 스크린은 터치 스크린인, 방법.
  128. 청구항 127에 있어서, 상기 3D 가상 신체 모델은 여러 번 탭핑될 수 있고 그렇게 해서 연속 회전 단계들로 회전하는, 방법.
  129. 청구항 109 내지 127 중 어느 한 항에 있어서, 상기 사용자는 룩을 저장하도록 선택할 수 있는, 방법.
  130. 청구항 129에 있어서, 룩을 저장한 후, 상기 사용자는 그것을 소셜 네트워크들에 공유하도록 선택할 수 있는, 방법.
  131. 청구항 130에 있어서, 상기 사용자는 해시태그들을 사용하여 그들의 룩에 대한 그룹들 및 카테고리들을 생성할 수 있는, 방법.
  132. 청구항 117 내지 131 중 어느 한 항에 있어서, 생성된 새로운 룩과 동일한 카테고리에 속하는 3D 가상 신체 모델들과 시차 뷰가 제공되는, 방법.
  133. 청구항 117 내지 132 중 어느 한 항에 있어서, 메뉴는 다른 경우들을 디스플레이하고; 경우를 선택하면 해당 특정 카테고리에 속하는 가장 아바타들과 함께 시차 집단 뷰를 디스플레이하는, 방법.
  134. 청구항 117 내지 133 중 어느 한 항에 있어서, 뷰는 다음 중 하나 이상을 디스플레이하는 상기 사용자의 프로필 뷰의 메뉴로부터 이용가능한 방법: 상기 사용자가 갖는 룩의 수, 다른 의상들에 대한 좋아요 수, 팔로워 수 및 상기 사용자가 얼마나 많은 사람을 팔로잉하는지를 제시하는 통계와 함께 상기 사용자가 생성한 상기 의상들을 제시하는 시차 뷰.
  135. 청구항 134에 있어서, 팔로워를 선택하면 그들을 맞팔하기 위한 옵션과 함께 상기 사용자를 팔로잉하는 모든 사람의 리스트를 디스플레이하는, 방법.
  136. 청구항 107 내지 135 중 어느 한 항에 있어서, 상기 사용자의 3D 가상 신체 모델이 입고 있는 상기 의복(들)과 조합하기 위해 추천되는 의복들의 리스트를 상기 사용자에게 제공하는 의상 추천이 제공되는, 방법.
  137. 청구항 136에 있어서, 추천은 증분을 기반으로 하고, 그것은 일차 마르코브 모델에 의해 근사 모델링되는, 방법.
  138. 청구항 136 또는 137에 있어서, 의상 이력에 나타난 각 다른 사용자에 대해, 각 다른 사용자의 의상 기록의 빈도가 현재 사용자 및 각 다른 사용자의 유사성에 기초하여 가중화된 다음; 추천을 위해 모든 유사한 체형의 가중치들이 누적되는, 방법.
  139. 청구항 136 내지 138 중 어느 한 항에 있어서, 보다 오래된 상위-순위 의복 아이템들이 서서히 소멸되는 메커니즘이 사용되어, 보다 최근 의복 아이템들을 추천 리스트로 이동시키는 경향이 있는, 방법.
  140. 청구항 136 내지 139 중 어느 한 항에 있어서, 현재 의복들과 유사한 이력 기록의 다른 의복들에 기초하여 추천이 이루어지는, 방법.
  141. 청구항 136 내지 140 중 어느 한 항에 있어서, 의복 데이터베이스의 모든 단일 의복에 대해 추천 점수가 계산된 다음, 그것들의 추천 점수들에 기초하여 상기 의복들이 순위가 정해져 추천되는, 방법.
  142. 청구항 107 내지 141 중 어느 한 항에 있어서, 상기 3D 가상 신체 모델 상에 상기 3D 의복 이미지를 중첩하는 단계는 3D 모델들이 먼저 구성된 다음 이미지로 렌더링되는 경우를 포함하는, 방법.
  143. 청구항 142에 있어서, 이미지로 렌더링하는 것은 픽셀 당 z-오더링을 사용하는 것을 포함하는, 방법.
  144. 청구항 107 내지 143 중 어느 한 항에 있어서, 청구항 1 내지 41 중 어느 한 항 또는 청구항 48 내지 102 중 어느 한 항의 방법을 포함하는, 방법.
  145. 서버 및 상기 서버와 통신하는 모바일 컴퓨팅 디바이스를 포함하는 시스템으로서, 상기 컴퓨팅 디바이스는 스크린 및 프로세서를 포함하고, 상기 시스템은 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델을 상기 모바일 컴퓨팅 디바이스의 상기 스크린 상에 디스플레이하되, 상기 서버는
    (a) 사용자 데이터로부터 상기 3D 가상 신체 모델을 생성하고;
    (b) 상기 모바일 컴퓨팅 디바이스로부터 의복 선택을 수신하고;
    (c) 선택된 상기 의복에 대해 3D 의복 이미지를 생성하며,
    (d) 상기 3D 가상 신체 모델 상에 상기 3D 의복 이미지를 중첩하고, 상기 3D 가상 신체 모델 위에 중첩된 상기 3D 의복 이미지의 이미지를 상기 컴퓨팅 디바이스에 송신하며,
    상기 모바일 컴퓨팅 디바이스는
    (e) 상기 3D 가상 신체 모델 위에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하는, 시스템.
  146. 청구항 145에 있어서, 청구항 109 내지 144 중 어느 한 항의 방법을 수행하도록 구성된, 시스템.
  147. 3D 의복 이미지를 생성하고, 상기 3D 의복 이미지를 컴퓨팅 디바이스의 스크린 상에 디스플레이하기 위한 방법으로서,
    (a) 단일 2D 텍스처 절단부분 또는 실루엣을 갖는 2D 동체-기반 의복 모델에 대해, 상기 의복의 상기 3D 기하학적 구조가 상체 주위에서, 상기 의복은 기초적인 체형의 상기 기하학적 구조를 밀접하게 따르고; 하체 주위에서, 상기 의복은 신체의 원점을 중심으로 하여, 다양한 축 길이를 갖는 타원 기둥면에 가까운 단순화들을 적용하는 단계에 의해 근사화되고;
    (b) 상기 3D 의복 이미지를 상기 스크린 상에 제시하는 단계를 포함하는, 방법.
  148. 청구항 147에 있어서, 상기 컴퓨팅 디바이스는 센서 시스템을 포함하고,
    (c) 상기 센서 시스템을 사용하여 위치 변화를 검출하는 단계, 및
    (d) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 의복 이미지를 상기 스크린 상에 제시하는 단계를 포함하는, 방법.
  149. 청구항 147 도는 148에 있어서, 상기 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하기 위해,
    (e) 상기 3D 가상 신체 모델을 생성하는 단계;
    (f) 상기 3D 가상 신체 모델 상의 상기 3D 의복 이미지를 상기 스크린 상에 제시하는 단계를 포함하는, 방법.
  150. 청구항 147 내지 149 중 어느 한 항에 있어서, 각 픽셀의 깊이 근사치들에 의해 주어진 정점들의 점군으로부터 얼굴들을 갖춘 부드러운 3D 메쉬를 생성하는 단계, 및 요청된 뷰에 대해 상기 의복의 최종 정규화된 깊이 맵을 생성하는 단계를 포함하는, 방법.
  151. 청구항 150에 있어서, 상기 깊이 맵은 수직축에 대한 면외 회전을 시뮬레이트하기 위해 상기 의복 텍스처 상의 소정의 지점이 상기 이미지에서 이동해야 할 정도를 계산하기 위해 사용되는, 방법.
  152. 청구항 147 내지 151 중 어느 한 항에 있어서, 상기 사용자의 3D 체형 모델의 기초적인 머리 및 목 밑 기하학적 구조는 근사 3D 기하학적 구조로서 사용되고, 2D 텍스처 몰핑 및 몰프 필드 외삽 접근법을 사용하여 단일 2D 텍스처 이미지로부터 머리 스프라이트/헤어스타일의 3D 회전을 모델링하는 단계가 수행되는, 방법.
  153. 서버 및 상기 서버와 통신하는 컴퓨팅 디바이스를 포함하는 시스템으로서, 상기 컴퓨팅 디바이스는 스크린, 센서 시스템 및 프로세서를 포함하고, 상기 서버는 3D 의복 이미지와 조합되는 사람의 3D 가상 신체 모델을 생성하고, 상기 3D 의복 이미지와 조합되는 상기 사람의 상기 3D 가상 신체 모델의 이미지를 상기 컴퓨팅 디바이스에 송신하도록 구성되되, 상기 서버는:
    (a) 상기 3D 가상 신체 모델을 생성하고;
    (b) 상기 3D 가상 신체 모델 위에 중첩하기 위한 상기 3D 의복 이미지를 생성하고;
    (c) 상기 3D 의복 이미지를 상기 3D 가상 신체 모델 상에 중첩하고;
    (d) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지의 상기 이미지를 상기 컴퓨팅 디바이스에 송신하고;
    상기 컴퓨팅 디바이스는:
    (e) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하고;
    (f) 상기 센서 시스템을 사용하여 위치 변화를 검출하며, 그리고
    (g) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지에 대한 요청을 상기 서버에 송신하고;
    상기 서버는
    (h) 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지의 이미지의 이미지와 관련된 이미지 조작 함수(또는 이미지 조작 함수에 대한 파라미터들)을 상기 컴퓨팅 디바이스에 송신하며; 그리고
    상기 컴퓨팅 디바이스는:
    (i) 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지에 상기 이미지 조작 함수를 적용하며, 그리고 상기 위치 변화가 상기 센서 시스템을 사용하여 검출되는 것에 응답하여 변형되는, 상기 3D 가상 신체 모델 상에 중첩된 상기 3D 의복 이미지를 상기 스크린 상에 제시하는, 시스템.
  154. 청구항 153에 있어서, 청구항 1 내지 41 중 어느 한 항의 방법을 수행하도록 더 구성된, 시스템.
KR1020177018355A 2014-12-16 2015-12-16 3d 의복 이미지와 조합되는 사람의 3d 가상 신체 모델을 생성하기 위한 방법들, 및 관련 디바이스들, 시스템들 및 컴퓨터 프로그램 제품들 KR20170094279A (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
GB201422401 2014-12-16
GB1422401.8 2014-12-16
GB1502806.1 2015-02-19
GBGB1502806.1A GB201502806D0 (en) 2015-02-19 2015-02-19 Mobile UI
GBGB1514450.4A GB201514450D0 (en) 2015-08-14 2015-08-14 Mobile UI
GB1514450.4 2015-08-14
PCT/GB2015/054042 WO2016097732A1 (en) 2014-12-16 2015-12-16 Methods for generating a 3d virtual body model of a person combined with a 3d garment image, and related devices, systems and computer program products

Publications (1)

Publication Number Publication Date
KR20170094279A true KR20170094279A (ko) 2017-08-17

Family

ID=55066660

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177018355A KR20170094279A (ko) 2014-12-16 2015-12-16 3d 의복 이미지와 조합되는 사람의 3d 가상 신체 모델을 생성하기 위한 방법들, 및 관련 디바이스들, 시스템들 및 컴퓨터 프로그램 제품들

Country Status (6)

Country Link
US (1) US20170352091A1 (ko)
EP (1) EP3234925A1 (ko)
KR (1) KR20170094279A (ko)
CN (1) CN107209962A (ko)
GB (2) GB2564745B (ko)
WO (1) WO2016097732A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200070409A (ko) * 2018-09-30 2020-06-17 플렉스-브이알 디지털 테크놀로지 (상하이) 씨오., 엘티디. 다중 특징 검색 및 변형에 기반한 인체 헤어스타일 생성 방법
KR102199591B1 (ko) * 2020-04-02 2021-01-07 주식회사 제이렙 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치
US20210073886A1 (en) * 2019-08-29 2021-03-11 Levi Strauss & Co. Digital Showroom with Virtual Previews of Garments and Finishes
US11240617B2 (en) 2020-04-02 2022-02-01 Jlab Corporation Augmented reality based simulation apparatus for integrated electrical and architectural acoustics
JP2022515617A (ja) * 2018-12-26 2022-02-21 オーディーディー コンセプト インコーポレイテッド ユーザにスワイプジェスチャーを用いたファッションアイテム推薦サービスを提供する方法

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10248993B2 (en) * 2015-03-25 2019-04-02 Optitex Ltd. Systems and methods for generating photo-realistic images of virtual garments overlaid on visual images of photographic subjects
CN108292320A (zh) * 2015-12-08 2018-07-17 索尼公司 信息处理装置、信息处理方法和程序
US9940728B2 (en) * 2015-12-15 2018-04-10 Intel Corporation Computer vision assisted item search
US20170263031A1 (en) * 2016-03-09 2017-09-14 Trendage, Inc. Body visualization system
WO2017203262A2 (en) 2016-05-25 2017-11-30 Metail Limited Method and system for predicting garment attributes using deep learning
DK179329B1 (en) * 2016-06-12 2018-05-07 Apple Inc Handwriting keyboard for monitors
US10482621B2 (en) * 2016-08-01 2019-11-19 Cognex Corporation System and method for improved scoring of 3D poses and spurious point removal in 3D image data
CN106570223A (zh) * 2016-10-19 2017-04-19 武汉布偶猫科技有限公司 一种基于Unity3D服装仿真人体碰撞球的提取
US10282772B2 (en) 2016-12-22 2019-05-07 Capital One Services, Llc Systems and methods for wardrobe management
JP6552542B2 (ja) * 2017-04-14 2019-07-31 Spiber株式会社 プログラム、記録媒体、情報処理方法、及び情報処理装置
CN107194987B (zh) * 2017-05-12 2021-12-10 西安蒜泥电子科技有限责任公司 对人体测量数据进行预测的方法
US10665022B2 (en) * 2017-06-06 2020-05-26 PerfectFit Systems Pvt. Ltd. Augmented reality display system for overlaying apparel and fitness information
CN107270829B (zh) * 2017-06-08 2020-06-19 南京华捷艾米软件科技有限公司 一种基于深度图像的人体三围测量方法
US10701247B1 (en) * 2017-10-23 2020-06-30 Meta View, Inc. Systems and methods to simulate physical objects occluding virtual objects in an interactive space
CN111602165A (zh) * 2017-11-02 2020-08-28 立体丈量有限公司 衣服模型生成和显示系统
CN107967095A (zh) * 2017-11-24 2018-04-27 天脉聚源(北京)科技有限公司 一种图片显示方法及装置
CN109993595A (zh) * 2017-12-29 2019-07-09 北京三星通信技术研究有限公司 个性化推荐商品及服务的方法、系统及设备
US11188965B2 (en) * 2017-12-29 2021-11-30 Samsung Electronics Co., Ltd. Method and apparatus for recommending customer item based on visual information
US10777020B2 (en) 2018-02-27 2020-09-15 Soul Vision Creations Private Limited Virtual representation creation of user for fit and style of apparel and accessories
CN110298911A (zh) * 2018-03-23 2019-10-01 真玫智能科技(深圳)有限公司 一种实现走秀的方法及装置
EA034853B1 (ru) * 2018-04-13 2020-03-30 Владимир Владимирович ГРИЦЮК Аппарат для автоматизированной продажи многоразовых чехлов для багажа в присутствии покупателя и способ продажи чехлов для багажа посредством указанного автомата
CN108898979A (zh) * 2018-04-28 2018-11-27 深圳市奥拓电子股份有限公司 广告机互动方法、广告机互动系统及广告机
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
CN108764998B (zh) 2018-05-25 2022-06-24 京东方科技集团股份有限公司 智能展示装置以及智能展示方法
WO2020049358A2 (en) * 2018-09-06 2020-03-12 Prohibition X Pte Ltd Clothing having one or more printed areas disguising a shape or a size of a biological feature
CN109035259B (zh) * 2018-07-23 2021-06-29 西安建筑科技大学 一种三维多角度试衣装置及试衣方法
CN109087402B (zh) * 2018-07-26 2021-02-12 上海莉莉丝科技股份有限公司 在3d场景的特定表面上覆盖特定表面形态的方法、系统、设备和介质
CN109636917B (zh) * 2018-11-02 2023-07-18 北京微播视界科技有限公司 三维模型的生成方法、装置、硬件装置
CN109377797A (zh) * 2018-11-08 2019-02-22 北京葡萄智学科技有限公司 虚拟人物教学方法及装置
CN109615462B (zh) * 2018-11-13 2022-07-22 华为技术有限公司 控制用户数据的方法及相关装置
WO2020104990A1 (en) * 2018-11-21 2020-05-28 Vats Nitin Virtually trying cloths & accessories on body model
US11559097B2 (en) * 2019-03-16 2023-01-24 Short Circuit Technologies Llc System and method of ascertaining a desired fit for articles of clothing utilizing digital apparel size measurements
FI20197054A1 (fi) 2019-03-27 2020-09-28 Doop Oy Järjestelmä ja menetelmä fyysisen tuotteen esittelemiseksi asiakkaalle
WO2020203656A1 (ja) * 2019-04-05 2020-10-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN110210523B (zh) * 2019-05-13 2021-01-15 山东大学 一种基于形状图约束的模特穿着衣物图像生成方法及装置
DE112020003527T5 (de) * 2019-07-25 2022-04-14 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
WO2021016556A1 (en) * 2019-07-25 2021-01-28 Eifle, Inc. Digital image capture and fitting methods and systems
CN110706076A (zh) * 2019-09-29 2020-01-17 浙江理工大学 一种线上线下结合可进行网络交易的虚拟试衣方法和系统
US11250572B2 (en) * 2019-10-21 2022-02-15 Salesforce.Com, Inc. Systems and methods of generating photorealistic garment transference in images
CN111323007B (zh) * 2020-02-12 2022-04-15 北京市商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN113373582A (zh) * 2020-03-09 2021-09-10 相成国际股份有限公司 数字化原始图像而织成数字图像的方法
USD951294S1 (en) * 2020-04-27 2022-05-10 Clo Virtual Fashion Inc. Display panel of a programmed computer system with a graphical user interface
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11195341B1 (en) * 2020-06-29 2021-12-07 Snap Inc. Augmented reality eyewear with 3D costumes
US11715022B2 (en) * 2020-07-01 2023-08-01 International Business Machines Corporation Managing the selection and presentation sequence of visual elements
CN111930231B (zh) * 2020-07-27 2022-02-25 歌尔光学科技有限公司 交互控制方法、终端设备及存储介质
US11644685B2 (en) * 2020-08-14 2023-05-09 Meta Platforms Technologies, Llc Processing stereo images with a machine-learning model
CN112017276B (zh) * 2020-08-26 2024-01-09 北京百度网讯科技有限公司 一种三维模型构建方法、装置以及电子设备
CN114339434A (zh) * 2020-09-30 2022-04-12 阿里巴巴集团控股有限公司 货品试穿效果的展示方法及装置
CN112785723B (zh) * 2021-01-29 2023-04-07 哈尔滨工业大学 一种基于二维服装图像与三维人体模型的自动化服装建模方法
CN112764649B (zh) * 2021-01-29 2023-01-31 北京字节跳动网络技术有限公司 虚拟形象的生成方法、装置、设备及存储介质
WO2022197024A1 (en) * 2021-03-16 2022-09-22 Samsung Electronics Co., Ltd. Point-based modeling of human clothing
WO2022217097A1 (en) * 2021-04-08 2022-10-13 Ostendo Technologies, Inc. Virtual mannequin - method and apparatus for online shopping clothes fitting
CN113239527B (zh) * 2021-04-29 2022-12-02 广东元一科技实业有限公司 一种服装造型仿真系统及工作方法
US11714536B2 (en) * 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
CN113344672A (zh) * 2021-06-25 2021-09-03 钟明国 一种购物网页浏览界面3d虚拟试衣方法和系统
USD1005305S1 (en) * 2021-08-01 2023-11-21 Soubir Acharya Computing device display screen with animated graphical user interface to select clothes from a virtual closet
CN114782653B (zh) * 2022-06-23 2022-09-27 杭州彩连科技有限公司 一种自动扩充服饰设计版型的方法和系统
CN115775024B (zh) * 2022-12-09 2024-04-16 支付宝(杭州)信息技术有限公司 虚拟形象模型训练方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696100A (ja) * 1992-09-09 1994-04-08 Mitsubishi Electric Corp 遠隔取引システム
US6404426B1 (en) * 1999-06-11 2002-06-11 Zenimax Media, Inc. Method and system for a computer-rendered three-dimensional mannequin
US6546309B1 (en) * 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
US6901379B1 (en) * 2000-07-07 2005-05-31 4-D Networks, Inc. Online shopping with virtual modeling and peer review
ES2279708B1 (es) * 2005-11-15 2008-09-16 Reyes Infografica, S.L. Metodo de generacion y utilizacion de un probador virtual de prendas de vestir, y sistema.
US20110298897A1 (en) * 2010-06-08 2011-12-08 Iva Sareen System and method for 3d virtual try-on of apparel on an avatar
GB201102794D0 (en) * 2011-02-17 2011-03-30 Metail Ltd Online retail system
US8606645B1 (en) * 2012-02-02 2013-12-10 SeeMore Interactive, Inc. Method, medium, and system for an augmented reality retail application
SG10201912801UA (en) * 2012-11-12 2020-02-27 Univ Singapore Technology & Design Clothing matching system and method
CN104346827B (zh) * 2013-07-24 2017-09-12 深圳市华创振新科技发展有限公司 一种面向普通用户的快速3d衣服建模方法
CN103440587A (zh) * 2013-08-27 2013-12-11 刘丽君 基于网络购物的个人形象设计与产品推荐的方法
CN105069838B (zh) * 2015-07-30 2018-03-06 武汉变色龙数据科技有限公司 一种服装展示方法及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200070409A (ko) * 2018-09-30 2020-06-17 플렉스-브이알 디지털 테크놀로지 (상하이) 씨오., 엘티디. 다중 특징 검색 및 변형에 기반한 인체 헤어스타일 생성 방법
JP2022515617A (ja) * 2018-12-26 2022-02-21 オーディーディー コンセプト インコーポレイテッド ユーザにスワイプジェスチャーを用いたファッションアイテム推薦サービスを提供する方法
US20210073886A1 (en) * 2019-08-29 2021-03-11 Levi Strauss & Co. Digital Showroom with Virtual Previews of Garments and Finishes
KR102199591B1 (ko) * 2020-04-02 2021-01-07 주식회사 제이렙 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치
US11240617B2 (en) 2020-04-02 2022-02-01 Jlab Corporation Augmented reality based simulation apparatus for integrated electrical and architectural acoustics

Also Published As

Publication number Publication date
US20170352091A1 (en) 2017-12-07
GB2535302B (en) 2018-07-04
WO2016097732A1 (en) 2016-06-23
GB2564745B (en) 2019-08-14
GB2535302A (en) 2016-08-17
GB201522234D0 (en) 2016-01-27
GB201807806D0 (en) 2018-06-27
EP3234925A1 (en) 2017-10-25
GB2564745A (en) 2019-01-23
CN107209962A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
GB2564745B (en) Methods for generating a 3D garment image, and related devices, systems and computer program products
US11593871B1 (en) Virtually modeling clothing based on 3D models of customers
US11227008B2 (en) Method, system, and device of virtual dressing utilizing image processing, machine learning, and computer vision
US11403829B2 (en) Object preview in a mixed reality environment
US20220319106A1 (en) Virtual interaction with three-dimensional indoor room imagery
US11164381B2 (en) Clothing model generation and display system
US11348315B2 (en) Generating and presenting a 3D virtual shopping environment
Pachoulakis et al. Augmented reality platforms for virtual fitting rooms
US10019779B2 (en) Browsing interface for item counterparts having different scales and lengths
US20140279289A1 (en) Mobile Application and Method for Virtual Dressing Room Visualization
US20110234591A1 (en) Personalized Apparel and Accessories Inventory and Display
CN103597519A (zh) 用于生成服装合体性可视化的虚拟身体模型的计算机实现方法和系统
US20200257121A1 (en) Information processing method, information processing terminal, and computer-readable non-transitory storage medium storing program
US9373188B2 (en) Techniques for providing content animation
US10026176B2 (en) Browsing interface for item counterparts having different scales and lengths
CN111767817A (zh) 一种服饰搭配方法、装置、电子设备及存储介质
CN117974947A (zh) 一种vr虚拟博物馆系统及藏品推荐算法
WO2017155893A1 (en) Browsing interface for item counterparts having different scales and lengths