KR101678510B1 - 증강 현실 기반의 의상 디자인 장치 - Google Patents

증강 현실 기반의 의상 디자인 장치 Download PDF

Info

Publication number
KR101678510B1
KR101678510B1 KR1020150098345A KR20150098345A KR101678510B1 KR 101678510 B1 KR101678510 B1 KR 101678510B1 KR 1020150098345 A KR1020150098345 A KR 1020150098345A KR 20150098345 A KR20150098345 A KR 20150098345A KR 101678510 B1 KR101678510 B1 KR 101678510B1
Authority
KR
South Korea
Prior art keywords
user
design
image
projector
menu
Prior art date
Application number
KR1020150098345A
Other languages
English (en)
Inventor
석다니엘
여휘숑
노승탁
한결
우운택
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020150098345A priority Critical patent/KR101678510B1/ko
Application granted granted Critical
Publication of KR101678510B1 publication Critical patent/KR101678510B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06F17/50
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Abstract

증강 현실 기반의 의상 디자인 장치는 판상의 반투명한 거울층 및 상기 거울층 배면에서 영상을 표시하는 디스플레이 계층을 포함하는 표시부, 상기 거울 전면에 위치한 사용자에 대한 깊이 영상을 획득하는 깊이 센서부, 상기 거울을 향하는 상기 사용자의 일면 중 적어도 일부의 타겟 영역에 의상의 디자인을 구성하는 적어도 하나의 디자인 요소를 투사하는 프로젝터부 및 상기 깊이 센서부가 획득한 영상을 이용하여 상기 사용자의 위치를 추적하고, 상기 프로젝터부가 상기 타겟 영역에 상기 디자인 요소를 투사하도록 제어하는 제어부를 포함한다.

Description

증강 현실 기반의 의상 디자인 장치{GARMENT DESIGN APPARATUS BASED ON AUGMENTED REALITY}
이하 설명하는 기술은 의상을 디자인 하는 장치에 관한 것이다.
전통적으로 의상 디자이너는 컴퓨터 화면 또는 오프라인에서의 스케치를 의상을 디자인하였다. 최근 등장한 증강 현실(Augmented Reality, AR) 기술을 이용하여 사용자가 패션 아이템을 착용하는 경험을 제공하거나, 의상 디자인에 활용하고자 하는 연구가 있다.
Hilsmann, A., and Eisert, P. "Tracking and retexturing cloth for real-time virtual clothing applications." In Computer Vision/Computer Graphics CollaborationTechniques, vol. 5496 of Lecture Notes in Computer Science. 2009, 94-105. Wibowo, A., Sakamoto, D., Mitani, J., and Igarashi, T. Dressup, "A 3d interface for clothing design with a physical mannequin". In Proc. TEI, ACM (2012), 99-102.
이하 설명하는 기술은 반투명 거울에 반사되는 사용자에게 의상의 디자인을 구성하는 영상을 투사하고, 사용자 또는 디자이너가 직접 다양한 의상을 디자인할 수 있는 장치를 제공하고자 한다.
증강 현실 기반의 의상 디자인 장치는 거울층 및 상기 거울 배면에서 영상을 표시하는 디스플레이 계층을 포함하는 표시부, 상기 거울층 전면에 위치한 사용자에 대한 깊이 영상을 획득하는 깊이 센서부, 상기 거울층을 향하는 상기 사용자의 일면 중 적어도 일부의 타겟 영역에 의상의 디자인을 구성하는 적어도 하나의 디자인 요소를 투사하는 프로젝터부 및 상기 깊이 센서부가 획득한 영상을 이용하여 상기 사용자의 위치를 추적하고, 상기 프로젝터부가 상기 타겟 영역에 상기 디자인 요소를 투사하도록 제어하는 제어부를 포함한다.
이하 설명하는 기술은 반투명 거울에 표시되는 다양한 메뉴를 사용자 또는 디자이너가 선택하고, 사용자의 몸에 투사되는 디자인 요소를 거울을 보고 또는 사용자를 보고 직접 디자인할 수 있다. 따라서 이하 설명하는 기술은 디자이너 입장에서 매우 직감적인 디자인 도구가 된다.
도 1은 증강 현실 기반의 의상 디자인 장치의 구성을 도시한 블록도의 예이다.
도 2는 디스플레이 계층에 특정 영상이 출력되는 방식에 대한 예이다.
도 3은 의상을 디자인하는 사용자가 보는 표시부의 화면에 대한 예이다.
도 4는 표시부에 출력되는 메인 메뉴 화면의 예이다.
도 5는 표시부에 출력되는 패턴 메뉴 화면의 예이다
도 6은 표시부에 출력되는 스티커 메뉴 화면의 예이다.
도 7은 표시부에 출력되는 드로잉 메뉴 화면에 대한 예이다.
도 8은 증강 현실 기반의 의상 디자인 장치를 이용하여 사용자 또는 디자이너가 의상을 디자인 하는 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
이하 설명하는 기술은 사용자가 거울에 비춰지는 자신의 거울상을 보면서 자신이 입고 있는 옷 위에서 직접 디자인을 하는 장치이다. 또한 거울 앞에 있는 대상자를 두고 디자이너가 이하 설명하는 장치를 이용하여 대상자의 의상을 디자인할 수도 있다. 디자인을 완성한 경우 의상 디자인 장치는 해당 의상 디자인에 대한 데이터를 생성할 수 있다. 또한 디자이너는 생성한 데이터를 기반으로 의상 프린팅이 가능한 장치를 이용하여 즉석에서 디자인한 의상을 만들 수도 있다.
도 1은 증강 현실 기반의 의상 디자인 장치(100)의 구성을 도시한 블록도의 예이다. 의상 디자인 장치(100)는 판상의 반투명한 거울층(111) 및 거울 배면에서 영상을 표시하는 디스플레이 계층(112)을 포함하는 표시부(110), 거울 전면에 위치한 사용자에 대한 깊이 영상을 획득하는 깊이 센서부(130), 거울을 향하는 사용자의 일면 중 적어도 일부의 타겟 영역에 의상의 디자인을 구성하는 적어도 하나의 디자인 요소를 투사하는 프로젝터부(140) 및 깊이 센서부(130)가 획득한 영상을 이용하여 사용자의 위치를 추적하고, 프로젝터부(140)가 타겟 영역에 디자인 요소를 투사하도록 제어하는 제어부(150)를 포함한다. 타겟 영역은 사용자 영역 상에서 프로젝터부(140)가 의상 디자인을 위해 디자인 영상 내지 디자인 요소를 투사할 영역을 의미한다.
표시부(110)는 기본적으로 반투명한 거울층(111)과 일정한 정보 및 영상을 출력하는 디스플레이 계층(112)으로 구성된다. 거울층(111)은 반투명한 거울(half-silverd mirror)이다. 반투명한 거울이기 때문에 거울층(111)의 배면에 있는 디스플레이 계층에서 출력되는 영상이 사용자에게 나타난다. 한편 표시부(110)는 기본적으로 판상(板狀) 형태이기 때문에 벽면에 설치되거나, 도 1과 같이 기구적인 받침대가 있는 것이 바람직하다. 디스플레이 계층(112)은 몇 가지 형태로 구현이 가능하다. 구체적인 예는 도 2와 함께 후술한다.
깊이 센서부(130)는 거울 앞에 있는 대상에 대한 깊이 정보를 획득하는 장치이다. 예컨대, MS의 키넥트(kinect)와 같은 적외선 센서가 사용될 수 있다. 깊이 정보를 얻기 위해서는 일반적으로 2개 이상의 센서(카메라)를 사용해야 한다. 깊이 정보가 필요한 이유는 사용자가 거울층(111) 앞에서 앞뒤로 이동하거나, 회전하는 경우 등과 같은 동작도 식별하기 위함이다. 깊이 센서를 이용하여 깊이 정보를 생성하는 동작에 대해서는 자세한 설명을 생략한다. 이하 깊이 센서부(130)는 적외선 센서를 사용하여 동작한다고 가정하고 설명한다. 물론 깊이 영상은 적외선 센서 외에 일반적인 RGB 카메라를 이용하여도 생성이 가능하다.
프로젝터부(140)는 거울층(111)의 전면에 있는 사용자에게 일정한 영상을 투사한다. 프로젝터부(140)는 디자인하고자 하는 의상에 따라 거울층(111)을 향하는 사용자의 타겟 영역에 영상을 투사한다. 예컨대, 사용자가 상의를 디자인하고자 하는 경우 프로젝터부(140)는 사용자의 상의 영역에 영상을 투사하고, 하의를 디자인하고자 하는 경우 사용자의 하의 영역에 영상을 투사한다. 나아가 스카프 같은 액서서리 디자인도 가능할 것이다. 디자인하고자 하는 대상 또는 프로젝터부(140)가 영상을 투사하는 영역은 사전에 설정이 가능하다. 또는 사용자가 디스플레이 계층(112)에 출력되는 메뉴를 선택하거나, 일정한 제스처를 통해 명령을 입력하여 프로젝터부(140)가 영상을 투사하는 영역을 변경할 수도 있다. 프로젝터부(140)를 이용하여 효과적인 디자인을 하기 위해서 사용자는 하얀색 옷을 입는 것이 바람직하다.
프로젝터부(140)가 의상 디자인을 위해 투사하는 영상을 디자인 영상이라고 명명한다. 디자인 영상은 사용자의 선택에 따라 다양한 무늬, 모양, 글자 등을 포함할 수 있다. 이와 같이 디자인 영상을 구성하는 각 요소를 디자인 요소라고 명명한다.
프로젝터부(140)는 사용자뿐만 아니라 사용자의 배경에 일정한 영상을 투사할 수도 있다. 예컨대, 프로젝터부(140)는 디자인하는 의상의 컨셉에 맞는 배경 화면을 사용자 뒤에 있는 벽면에 투사할 수 있다.
나아가 의상 디자인 장치(100)는 배경 투사를 위한 별도의 배경 프로젝터부(145, 146)를 포함할 수도 있다. 도 1에서는 의상 디자인 장치(100)와 일체형인 배경 프로젝터부(145)와 의상 디자인 장치(100)와 별로도 배치된 배경 프로젝터부(146)를 도시하였다. 배경 프로젝터부(145 또는 146)가 사용자 앞에 배치되는 경우 사용자 영역을 제외한 나머지 영역에 배경을 투사해야 한다. 배경 프로젝터부(146)가 사용자에게 영상을 투사하지 않는 방향 내지 지점에 배치된다면, 배경 프로젝터부(146)는 사용자 뒤의 벽면에 배경을 투사하면 된다.
도 1에서 깊이 센서부(130) 및 프로젝터부(140)는 표시부(110)에 연결되거나, 내장된 형태를 도시하였다. 도 1에 도시한 깊이 센서부(130) 및 프로젝터부(140)의 위치 및 배치는 하나의 예에 불과하다. 깊이 센서부(130) 및 프로젝터부(140)는 표시부(110)와 물리적으로 떨어진 위치에 배치될 수도 있다.
한편 도 1에서 제어부(150)는 표시부(110)와 유선으로 연결된 형태로 도시하였다. 이 경우 제어부(150)는 일종의 컴퓨터 장치(PC)를 가정한 것이다. 다만 제어부(150)도 하나의 칩셋 형태로 구현이 가능하므로 표시부(110)에 내장된 형태도 가능할 것이다.
프로젝터부(140)는 거울층(111)의 전면 방향으로 일정한 영상을 투사한다. 사용자는 프로젝터부(140)가 투사하는 영상 내에 위치한다고 전제한다. 제어부(150)는 깊이 센서부(130)가 획득하는 깊이 영상에서 사용자의 위치를 파악한다.
나아가 제어부(150)는 깊이 센서부(130)가 획득한 깊이 영상에서 디자인 영상이 투사될 영역을 결정한다. 전술한 바와 같이 디자인하고자 하는 의상의 종류에 따라 디자인 영상이 투사될 영역을 달라진다. 제어부(150)는 디자인 영상이 타겟 영역에 투사되도록 프로젝터부(140)를 제어한다. 예컨대, 현재 상의를 디자인 하는 경우 제어부(150)는 프로젝터부(140)가 사용자의 가슴 영역에 영상을 투사하도록 제어한다. 사용자가 거울층(111)과 평행하게 좌우로 이동하는 경우 제어부(150)는 프로젝터부(140)가 사용자를 따라 영상을 투사하도록 제어한다. 따라서 프로젝터부(140)는 투사하는 영상의 방향을 조절하는 기능을 갖고 있어야 한다. 또한 사용자가 거울층(111)을 바라보고 앞뒤로 이동하는 경우 제어부(150)는 프로젝터부(140)가 사용자의 가슴 영역에 영상이 일정한 크기로 투사되도록 제어한다. 따라서 프로젝터부(140)는 투사하는 영상의 크기를 조절할 수 있는 기능을 갖고 있어야 한다.
한편 사용자 또는 디자이너는 자신이 소지하는 노트북, 태블릿 PC 또는 스마트폰과 같은 사용자 단말(50)을 이용하여 디스플레이 계층(112)에 출력되는 메뉴를 선택하거나, 일정한 명령을 의상 디자인 장치(100)에 전달할 수 있다. 이를 위해 의상 디자인 장치(100)는 사용자 단말(50)과 근거리 무선 네트워크가 가능한 통신 모듈(블루투스 등)을 갖고 있거나, 제어부(150)가 인터넷에 연결된 형태를 가질 수 있다.
제어부(150)는 배경 프로젝터부(145 또는 146)도 제어한다. 사용자의 선택에 따라 특정 배경이 선택되면, 제어부는 배경 프로젝터부(145 또는 146)가 선택한 배경을 투사하도록 제어한다.
도 1에 도시하지 않았지만 의상 디자인 장치(100)는 각 구성에 전력을 공급하는 전력공급장치도 포함해야 한다.
도 2는 디스플레이 계층에 특정 영상이 출력되는 방식에 대한 예이다. 도 2(a)는 디스플레이 계층(112)이 일정한 영상을 직접 출력하는 디스플레이 패널인 경우이다. 도 2(a)를 살펴보면 디스플레이 패널인 디스플레이 계층(112)이 일정한 메뉴와 상의에 해당하는 객체를 출력한 예이다. 또한 디스플레이 패널은 사용자의 입력을 직접 받기 위한 터치 패널(113)을 포함할 수 있다. 도 2(a)는 거울층(111)의 배면에 거울층과 같은 평면 크기의 디스플레이 패널이 배치되는 예를 도시하였다. 다만 디스플레이 패널은 작은 크기의 디스플레이 패널을 일정한 영역에 하나 이상 배치될 수도 있다. 컴퓨터 모니터와 같은 디스플레이 장치를 거울층(111)의 배면에 배치하여 일정한 정보를 출력할 수도 있을 것이다.
도 2(b)는 디스플레이 계층(112)에 디스플레이 계층(112)의 뒤쪽에 있는 다른 프로젝터(115)가 일정한 영상을 투사하는 경우이다. 프로젝터(115)는 디스플레이 계층(112)에 일정한 메뉴화면 및 사용자에게 제공하기 위한 정보를 투사한다. 프로젝터(115)가 투사하는 영상은 거울층(111)을 넘어서 사용자까지 투사되지 않도록 해야할 것이다. 따라서 도 2(a)와 같이 거울층(111)의 배면에 일정한 디스플레이 패널을 갖는 형태가 보다 바람직하리라 사료된다.
도 3은 의상을 디자인하는 사용자가 보는 표시부의 화면에 대한 예이다. 도 3을 살펴보면 표시부(110)는 디스플레이 계층(112)를 통해 일정한 정보를 사용자에게 출력할 수 있다. 도 3에서 A로 표시한 영역에서 일정한 영어 문장을 출력하고 있다. 나아가 표시부(110)는 의상 디자인 장치(100)을 사용하기 위한 사용 방법을 사용자에게 알려줄 수도 있다. 도 3에서 B로 표시한 영역에 디스플레이 계층(112)가 의상 디자인과 관련된 일정한 메뉴 아이콘을 출력한다.
거울 앞에 있는 사용자는 거울에 반사되는 자신의 모습을 볼 수 있다. 동시에 사용자는 프로젝터부(140)에서 자신에게 투사되는 영상을 거울을 통해 확인할 수 있다. 이 경우 사용자는 마치 사용자가 프로젝터부(140)에서 투사되는 디자인의 의상을 입고 있는 것과 같은 체험을 할 수 있다. 도 3에서는 반바지와 짧은 민소매 상의를 디자인하는 경우에 해당한다. 프로젝터부(140)가 사용자의 하의 및 상의 영역에 일정한 색상을 갖는 패턴을 투사하고 있다. 도 3에서 C로 표시한 영역에 디자인하고자 하는 디자인 영상이 보여진다.
이제 사용자가 의상 디자인을 위해 사용할 수 있는 메뉴에 대해 설명하도록 한다. 도 4는 표시부에 출력되는 메인 메뉴 화면의 예이다. 도 4(a)는 메인 메뉴에 대한 예이다. 도 4에 도시한 상의는 디스플레이 계층(112)에서 출력되는 정보가 아니고, 거울 앞에 있는 사용자의 상의를 도시한 것이다. 설명의 편의를 위해 사용자의 나머지 신체 부위는 생략한 것이다.
도 4(a)를 살펴보면 최상단에 "CLICK HERE THE SEE PREVIOUS T-SHIRT!"라고 표시한 버튼(최상단 버튼)이 있다. 사용자는 해당 버튼을 눌러서 사용자가 이전에 디자인한 티셔츠를 확인할 수 있다. 사용자가 이전에 디자인한 의상이 있는 경우 최상단 버튼을 누르면 이전에 디자인한 데이터를 참조하여 제어부(150)가 프로젝터부(140)에 이전에 디자인한 디자인 영상을 투사하도록 한다. 도 4(b)는 상단 버튼을 눌러서(검은색으로 표시) 이전에 디자인한 의상을 확인한 경우이다.
한편 도 4를 살펴보면 최상단 메뉴 밑에 의상을 디자인 하는데 사용하는 디자인 메뉴가 표시된다. 디자인 메뉴는 좌측부터 우측 순서로 "PATTERN", "STICKER" 및 "DRAWING"이라고 표시되고 있다.
도 5는 표시부에 출력되는 패턴 메뉴 화면의 예이다. 도 5(a)는 디자인 메뉴 중 패턴 메뉴(PATTERN)를 선택한 예를 도시한다. 사용자가 패턴 메뉴를 선택하면 화면 중 일정한 영역에 패턴 샘플이 출력된다. 도 5(a)는 상의의 아래쪽에 패턴에 대한 샘플이 출력되는 예를 도시하였다. 사용자는 패턴을 선택한 후 디자인하고자 하는 대상에 해당 패턴을 적용할 수 있다. 구체적인 디자인 방법 내지 인터페이스 방법은 후술한다. 도 5(b)는 사용자가 특정 패턴 메뉴를 선택한 경우에 대한 예이다. 도 5(b)에서는 패턴 샘플 중 가장 왼쪽에 있는 가로 줄무늬 패턴을 선택하였다. 이 경우 프로젝터부(140)는 줄무늬 패턴을 상의 영역에 투사한다. 또한 표시부(110)는 해당 패턴의 두께를 조절할 수 있는 메뉴를 출력할 수 있다. 도 5(b)에서 상의 바로 밑에 직선 바(bar)를 도시하였는데, 사용자는 직선 바를 일정하게 조절하여 패턴의 크기 내지 패턴을 구성하는 직선의 두께를 조절할 수 있다. 예컨대, 도 5(b)와 같이 직선 바를 우측으로 이동하면 줄무늬를 구성하는 직선의 두께가 커질 수 있다. 패턴의 크기 및 직선의 두께를 조절하는 방법은 다양한 인터페이스가 사용될 수 있다.
도 6은 표시부에 출력되는 스티커 메뉴 화면의 예이다. 도 6은 디자인 메뉴 중 스티커 메뉴(STICKER)를 선택한 경우의 예이다. 사용자가 스티커 메뉴를 선택하면 도 6(a)과 같이 일정한 모양을 갖는 객체가 표시부(110)에 출력된다. 도 6(a)에서는 하트 모양, 비행기 모양, 별 모양과 같은 객체를 예로 도시하였다. 도 6(b)는 도 6(a)에서 사용자가 하트 모양의 스티커를 선택하고, 상의 중 일정한 영역에 3 개의 하트 모양을 출력한 경우에 해당한다. 또한 도 6(b)를 살펴보면, 사용자가 상의에 표시한 스티커에 대한 색상을 선택할 수 있도록, 다양한 색상이 하단에 출력된 것을 볼 수 있다. 3개의 하트 모양 각각을 서로 다른 색으로 지정할 수도 있을 것이다.
도 6(c)는 스티커 메뉴 중 사진을 사용하기 위한 화면의 예이다. 사용자가 스티커 중 사진을 선택하면 저장된 사진을 불러올 수도 있고, 도 6(c)와 같이 카메라를 이용하여 사용자의 사진을 촬영할 수도 있다. 도 6(c)를 살펴보면 화면 좌측에 사진에 사용할 프레임의 샘플을 표시하였고, 사용자가 원형 프레임을 선택하여 원형 프레임이 출력된 상태이다. 사용자가 하단의 버튼(Click to take!)을 선택하면 해당 프레임에 사용자 사진이 출력될 것이다. 스티커에 사용할 사진은 의상 디자인 장치(100)에 내장된 별도의 카메라를 사용할 수도 있고, 사용자가 소지한 카메라 장치로부터 사진을 전달받아 사용할 수도 있을 것이다.
도 6(d)는 스티커 메뉴 중 텍스트 메뉴를 선택한 경우이다. 도 6(d)를 살펴보면 상의 하단에 음역 영역에 사용자가 일정한 텍스트를 입력할 수 있다. 의상 디자인 장치(100)는 텍스트를 입력하기 위한 키보드와 같은 장치를 포함할 수도 있고, 표시부(110)에서 일정한 키보드를 출력하고, 사용자가 해당 키보드의 자판을 선택하여 텍스트를 입력할 수도 있을 것이다. 도 6(d)에서 사용자가 "AMAZING!"이란 단어를 입력하여 상의에 해당 텍스트가 출력된 예를 도시한다. 또한 도 6(d)의 하단에 스티커 모드로 돌아가려면 티셔츠 영역 밖을 클릭하라는 정보를 표시하고 있다.
도 7은 표시부에 출력되는 드로잉 메뉴 화면에 대한 예이다. 도 7은 디자인 메뉴 중 드로잉 메뉴(DRAWING)를 선택한 예이다. 드로잉 메뉴는 고정된 패턴이나 도형을 사용하지 않고, 사용자가 자유롭게 일정한 그림을 그리는 메뉴이다. 도 7(a)는 사용자가 드로잉 메뉴를 선택한 경우에 출력되는 화면에 대한 예이다. 도 7(a)를 살펴보면 하단에 다양한 형태의 브러쉬(brush) 샘플이 표시된다. 사용자는 자신이 원하는 브러쉬를 선택하여 임의의 그림을 상의에 그릴 수 있다. 도 7(b)는 사용자가 임의의 그림을 상의에 그린 예를 도시한다. 도 7(b)를 살펴보면 사용자는 브러쉬로 그리는 색상을 선택할 수 있고, 브러쉬가 그리는 선의 굵기도 직선 바를 이용하여 조절할 수 있다. 예컨대, 직선 바를 우측으로 이동하면 선의 굵기가 굵어진다.
도 4 내지 도 7에서 표시부(110)에 출력되는 메뉴와 사용자가 메뉴를 선택하여 의상을 어떻게 디자인하는지 설명하였다. 이제 사용자가 어떠한 방법으로 표시부(110)에 출력되는 메뉴를 선택하고, 자신의 의상을 디자인할 수 있는지 설명하도록 한다.
도 8은 증강 현실 기반의 의상 디자인 장치를 이용하여 사용자 또는 디자이너가 의상을 디자인 하는 예이다.
도 8(a)는 사용자가 표시부(110)에 출력되는 메뉴를 일정한 제스처로 선택하고, 의상을 디자인하는 예이다. 의상 디자인 장치(100)는 깊이 센서부(130)를 이용하여 사용자의 동작을 인식할 수 있다. 사용자의 제스처를 이용한 인터페이스 방법은 두 가지가 가능한다. (i) 특정 명령마다 사전에 서로 다른 제스처를 매칭하고, 사용자가 해당 제스처를 취하여 특정한 메뉴를 선택할 수 있다. (ii) 또한 사용자의 현재 위치를 기준으로 표시부(110)의 특정 영역에 메뉴가 출력된다면 사용자가 특정 영역을 누루는 동작을 취하면, 제어부(150)가 사용자가 어떤 영역을 눌렀는지 분석할 수 있다. 이 경우 사용자는 마치 가상의 터치 스크린을 터치 하듯이 동작을 취하고, 메뉴를 선택할 수 있다.
도 8(b)는 사용자가 거울을 보지 않고, 프로젝터부(140)가 자신에게 투사하는 영상을 보면서 가슴에 표시되었던 텍스트 "11"의 출력 방향을 회전하는 예를 도시한다. 도 8(b)는 사용자 가슴에 투사되는 텍스트와 사용자의 제스처에 기반하여 투사되는 텍스트의 배치를 변경하는 예이다.
한편 전술한 바와 같이 의상 디자인 장치(100)를 사용하여 자신의 의상뿐만 아니라 다른 대상자의 의상도 디자인할 수 있다. 도 8(c)는 좌측에 있는 사용자가 먼저 자신의 상의를 일정하게 디자인하고 난후 옆에 있는 대상자의 상의도 동일한 모양으로 디자인하는 예이다. 도 8(d)는 좌측에 있는 사용자(디자이너)가 자신의 사용자 단말(태블릿 PC 등)을 통해 디자인에 사용한 메뉴를 선택하고, 선택한 디자인 요소(점선)를 옆에 있는 대상자의 상의에 디자인하는 경우이다.
인터페이스 방법에 대해 정리하면 다음과 같은 방법이 사용될 수 있다.
(1) On Body Interface: 도 8(b)에 도시한 바와 같이 사용자는 자신의 몸에 투사되는 디자인 요소를 직접 배치하거나 그릴 수 있다. 이 경우 사용자의 손가락 움직임과 같은 제스처를 이용할 수 있다. 나아가 보다 정교한 인터페이스를 위해 깊이 센서부(130)가 정교하게 인식할 수 있는 역반사 마커(retroreflective marker)를 사용할 수 있다. 예컨대, 마우스와 같이 손에 파지할 수 있는 입력 장치에 역반사 마커 달아서 인터페이스 장치로 사용할 수 있다. 또한 사용의 편리를 위해 입력 장치는 역반사 마커 외에 버튼을 포함할 수 있다. 사용자가 자신의 몸에서 일정한 위치에서 버튼을 누르면 전술한 스티커가 배치될 수 있다. 또한 사용자가 로잉 메뉴를 선택하고, 버튼을 누르면서 입력 장치를 이동하면 이동 궤적을 따라 일정한 선이나 모양이 그려질 수 있다.
(2) Mid-air Interface : 도 8(a) 등에서 설명한 것과 같이 사용자가 거울을 향해 직접 일정한 디자인 요소를 그리거나 배치할 수 있다. 이는 깊이 센서부(140)를 사용하여 사용자 동작을 추적하여 가능하다.
(3) Screen Interface : 도 2(a)에 대한 설명에서 표시부(110)는 터치 패널을 포함할 수 있다고 설명하였다. 이 경우 사용자는 직접 화면을 터치하여 메뉴를 선택하거나, 디자인 요소를 배치할 수도 있다. 스크린 인터페이스는 거울 앞에 있는 사용자 외에 다른 디자이너가 이용하는 것이 보다 바람직할 것이다. 이 경우 도 4 내지 도 7과 같은 메뉴 화면이 터치 스크린에 직접 출력될 수 있다.
한편 의상 디자인 장치(100)는 사용자가 디자인한 데이터를 저장할 수 있다. 또한 사용자가 디자인한 데이터를 의상 디자인 용으로 일정하게 변환하는 디자인 생성부를 더 포함할 수도 있다. 제어부가 의상 디자인 데이터를 생성할 수도 있다. 이후 생성한 의상 디자인 데이터를 의상에 디자인 출력이 가능한 시스템에 전달하여 의상을 곧바로 만들 수도 있다.
본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시예는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.
50 : 사용자 단말
100 : 의상 디자인 장치 110 : 표시부
111 : 거울층 112 : 디스플레이 계층
113 : 터치 패널 130 : 깊이 센서부
140 : 프로젝터부 145, 146 : 배경프로젝터부
150 : 제어부

Claims (11)

  1. 거울층 및 상기 거울층의 배면에서 영상을 표시하는 디스플레이 계층을 포함하는 표시부;
    상기 거울층의 전면에 위치한 사용자에 대한 깊이 영상을 획득하는 깊이 센서부;
    상기 거울층의 전면에 위치한 상기 사용자의 일면 중 적어도 일부의 타겟 영역에 의상의 디자인을 구성하는 적어도 하나의 디자인 요소를 포함하는 영상을 투사하는 프로젝터부; 및
    상기 깊이 센서부가 획득한 영상을 이용하여 상기 사용자의 위치를 추적하고, 상기 프로젝터부가 상기 타겟 영역에 상기 디자인 요소를 투사하도록 제어하는 제어부를 포함하는 증강 현실 기반의 의상 디자인 장치.
  2. 제1항에 있어서,
    상기 디스플레이 계층은 영상을 직접 출력하는 디스플레이 패널 또는 상기 디스플레이 계층의 배면에 위치한 프로젝터가 투사하는 영상을 표시하는 디스플레이 패널을 포함하는 증강 현실 기반의 의상 디자인 장치.
  3. 제1항에 있어서,
    상기 디스플레이 계층은 상기 디자인 요소를 선택할 수 있는 메뉴 화면을 출력하는 증강 현실 기반의 의상 디자인 장치.
  4. 제3항에 있어서,
    상기 메뉴 화면은 상기 타겟 영역 중 적어도 일부에 반복적인 무늬를 투사하는 패턴 메뉴, 상기 타겟 영역 중 일부 지점에 디자인 객체를 출력하는 스티커 메뉴 및 상기 타겟 영역 중 일부 영역에 선(line)을 출력하는 드로잉 메뉴 중 적어도 하나를 포함하는 증강 현실 기반의 의상 디자인 장치.
  5. 제1항에 있어서,
    상기 제어부는 상기 깊이 센서부가 획득한 상기 사용자 또는 다른 사용자는 제스처를 인식하고, 상기 사용자 또는 상기 다른 사용자가 상기 제스처로 선택하는 상기 디자인 요소를 상기 프로젝터부가 상기 사용자 또는 다른 사용자가 선택한 상기 타겟 영역에 상기 디자인 요소를 투사하도록 제어하는 증강 현실 기반의 의상 디자인 장치.
  6. 제1항에 있어서,
    상기 표시부는 터치 패널을 더 포함하고,
    상기 제어부는 상기 터치 패널을 통해 입력되는 명령으로 상기 디자인 요소를 선택하고, 상기 프로젝터부가 상기 터치 패널을 통해 입력되는 명령으로 선택한 상기 타겟 영역에 상기 디자인 요소를 투사하도록 제어하는 증강 현실 기반의 의상 디자인 장치.
  7. 제1항에 있어서,
    상기 깊이 센서는 적외선 센서이고,
    상기 제어부는 상기 깊이 센서부가 획득한 마커의 움직임을 추적하고, 상기 마커의 움직임으로 입력되는 명령에 따라 상기 디자인 요소를 선택하고, 상기 프로젝터부가 상기 마커의 움직임으로 입력되는 명령으로 선택한 상기 타겟 영역에 상기 디자인 요소를 투사하도록 제어하는 증강 현실 기반의 의상 디자인 장치.
  8. 제7항에 있어서,
    상기 마커는 상기 사용자 또는 다른 사용자가 손에 파지하는 입력 장치에 포함되는 증강 현실 기반의 의상 디자인 장치.
  9. 제1항에 있어서,
    상기 타겟 영역에 투사되는 디자인 요소를 의상 디자인을 위한 데이터로 변환하는 디자인 생성부를 더 포함하는 증강 현실 기반의 의상 디자인 장치.
  10. 제1항에 있어서,
    상기 디자인 요소를 선택할 수 있는 메뉴 화면을 표시하는 사용자 단말을 더 포함하고, 상기 사용자 단말은 무선 통신을 통해 사용자 단말을 통해 선택한 디자인 요소를 상기 프로젝터부가 상기 타겟 영역에 상기 선택한 디자인 요소를 투사하게 하는 명령을 상기 제어부에 전달하는 증강 현실 기반의 의상 디자인 장치.
  11. 제1항에 있어서,
    상기 프로젝터부 또는 별도의 프로젝터 장치가 배경에 해당하는 영상을 상기 사용자의 후면에 투사하는 증강 현실 기반의 의상 디자인 장치.
KR1020150098345A 2015-07-10 2015-07-10 증강 현실 기반의 의상 디자인 장치 KR101678510B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150098345A KR101678510B1 (ko) 2015-07-10 2015-07-10 증강 현실 기반의 의상 디자인 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150098345A KR101678510B1 (ko) 2015-07-10 2015-07-10 증강 현실 기반의 의상 디자인 장치

Publications (1)

Publication Number Publication Date
KR101678510B1 true KR101678510B1 (ko) 2016-11-22

Family

ID=57540160

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150098345A KR101678510B1 (ko) 2015-07-10 2015-07-10 증강 현실 기반의 의상 디자인 장치

Country Status (1)

Country Link
KR (1) KR101678510B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102149105B1 (ko) * 2019-09-18 2020-08-27 세종대학교산학협력단 혼합현실 기반 3차원 스케치 장치 및 방법
KR102370255B1 (ko) * 2021-05-28 2022-03-04 주식회사 문화새움 전시 대상 품목인 의상 및 섬유 구조 객체 맞춤형 디자인 컨텐츠를 제공하는 전시용 키오스크
KR102550229B1 (ko) * 2022-02-21 2023-06-30 경상남도(경상남도교육청 경남수학문화관장) 테셀레이션 패턴을 옷에 투영하는 체험학습기구

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050094728A (ko) * 2004-03-23 2005-09-28 (주)뷰아이텍 디지털 착용 보조 시스템
KR20130099317A (ko) * 2012-02-29 2013-09-06 한국전자통신연구원 인터랙티브 증강현실 구현 시스템 및 증강현실 구현 방법
KR20140042119A (ko) * 2012-09-28 2014-04-07 주식회사 비에쓰엠커뮤니케이션즈 가상 착용 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050094728A (ko) * 2004-03-23 2005-09-28 (주)뷰아이텍 디지털 착용 보조 시스템
KR20130099317A (ko) * 2012-02-29 2013-09-06 한국전자통신연구원 인터랙티브 증강현실 구현 시스템 및 증강현실 구현 방법
KR20140042119A (ko) * 2012-09-28 2014-04-07 주식회사 비에쓰엠커뮤니케이션즈 가상 착용 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hilsmann, A., and Eisert, P. "Tracking and retexturing cloth for real-time virtual clothing applications." In Computer Vision/Computer Graphics CollaborationTechniques, vol. 5496 of Lecture Notes in Computer Science. 2009, 94-105.
Wibowo, A., Sakamoto, D., Mitani, J., and Igarashi, T. Dressup, "A 3d interface for clothing design with a physical mannequin". In Proc. TEI, ACM (2012), 99-102.

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102149105B1 (ko) * 2019-09-18 2020-08-27 세종대학교산학협력단 혼합현실 기반 3차원 스케치 장치 및 방법
US10909769B1 (en) 2019-09-18 2021-02-02 Industry Academy Cooperation Foundation Of Sejong University Mixed reality based 3D sketching device and method
KR102370255B1 (ko) * 2021-05-28 2022-03-04 주식회사 문화새움 전시 대상 품목인 의상 및 섬유 구조 객체 맞춤형 디자인 컨텐츠를 제공하는 전시용 키오스크
KR102550229B1 (ko) * 2022-02-21 2023-06-30 경상남도(경상남도교육청 경남수학문화관장) 테셀레이션 패턴을 옷에 투영하는 체험학습기구

Similar Documents

Publication Publication Date Title
CN110832441B (zh) 用于虚拟、增强和混合现实显示系统的键盘
JP6553212B2 (ja) バーチャルリアリティ環境内の三次元描画のためのドレスフォーム
US10754417B2 (en) Systems and methods for operating an input device in an augmented/virtual reality environment
CN110168475B (zh) 操作集线器的方法以及用于与外围装置交互的系统
CN103365411B (zh) 信息输入设备、信息输入方法
CN114080585A (zh) 在人工现实环境中使用外围设备的虚拟用户界面
CN103154858B (zh) 操作输入装置与方法及程序
Fuhrmann et al. Occlusion in collaborative augmented environments
JP6235046B2 (ja) ビジュアルショッピング
US20130307796A1 (en) Touchscreen Device Integrated Computing System And Method
EP3262505B1 (en) Interactive system control apparatus and method
Jimeno-Morenilla et al. Augmented and virtual reality techniques for footwear
EP3549127B1 (en) A system for importing user interface devices into virtual/augmented reality
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
JP2013016060A (ja) 操作入力装置および操作判定方法並びにプログラム
CN109313510A (zh) 集成的自由空间和表面输入设备
KR101678510B1 (ko) 증강 현실 기반의 의상 디자인 장치
KR100971667B1 (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
US20220155881A1 (en) Sensing movement of a hand-held controller
CN115328304A (zh) 一种2d-3d融合的虚拟现实交互方法及设备
US11049306B2 (en) Display apparatus and method for generating and rendering composite images
CN109643182A (zh) 信息处理方法、装置、云处理设备及计算机程序产品
GB2535730A (en) Interactive system control apparatus and method
KR101075420B1 (ko) 테이블탑 인터페이스 장치, 협업 제어 장치, 테이블탑인터페이스 기반 협업 시스템 및 그 방법
Hayashi et al. AteGau: Projector-based online fashion coordination system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant