KR20160015972A - 웨어러블 디바이스 및 그 제어 방법 - Google Patents

웨어러블 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR20160015972A
KR20160015972A KR1020140099029A KR20140099029A KR20160015972A KR 20160015972 A KR20160015972 A KR 20160015972A KR 1020140099029 A KR1020140099029 A KR 1020140099029A KR 20140099029 A KR20140099029 A KR 20140099029A KR 20160015972 A KR20160015972 A KR 20160015972A
Authority
KR
South Korea
Prior art keywords
information
wearable device
virtual object
external device
real object
Prior art date
Application number
KR1020140099029A
Other languages
English (en)
Inventor
박시화
이도영
김지환
천시내
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140099029A priority Critical patent/KR20160015972A/ko
Priority to US14/490,393 priority patent/US9633477B2/en
Priority to PCT/KR2014/009579 priority patent/WO2016017855A1/en
Publication of KR20160015972A publication Critical patent/KR20160015972A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Abstract

본 명세서는 웨어러블 디바이스 및 그 제어 방법에 대한 것이다. 일 실시예에 따라 웨어러블 디바이스를 제어하는 웨어러블 디바이스의 제어 방법은 리얼 오브젝트를 디텍트하는 단계로서, 상기 리얼 오브젝트를 디텍트한 경우, 상기 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트를 디스플레이하고, 상기 리얼 오브젝트 및 제 1 인터렉션을 디텍트하는 단계로서, 상기 리얼 오브젝트 및 상기 제 1 인터렉션을 디텍트한 경우, 제 2 버추얼 오브젝트를 디스플레이하되, 상기 제 2 버추얼 오브젝트는 상기 외부 디바이스가 송신하는 버추얼 오브젝트 인포메이션에 기초하여 디스플레이되는 오브젝트일 수 있다.

Description

웨어러블 디바이스 및 그 제어 방법{The Apparatus and Method for Wearable Device}
본 명세서는 웨어러블 디바이스 및 그 제어 방법에 대한 것이다.
최근 웨어러블 디바이스의 사용이 증가하고 있다. 웨어러블 디바이스로서 스마트 와치, 헤드 마운티드 디스플레이 디바이스 등이 이용되고 있다. 또한, 최근에는 렌즈 형태의 웨어러블 디바이스로서, 스마트 렌즈도 등장하였다. 이때, 웨어러블 디바이스는 디스플레이 유닛을 포함하고, 디스플레이 유닛을 통해 유저에게 비주얼 정보를 제공할 수 있다. 웨어러블 디바이스가 비주얼 정보를 제공하는 경우, 웨어러블 디바이스는 리얼 오브젝트에 대응하는 비주얼 정보를 버추얼 오브젝트로 유저에게 제공할 수 있다. 또한, 웨어러블 디바이스를 이용하는 유저가 증가함에 따라, 복수의 유저는 웨어러블 디바이스를 착용하고, 서로 필요한 정보를 교환할 수 있다. 이때, 웨어러블 디바이스를 이용하여 복수 유저 간의 정보 공개 방법에 대한 필요성이 요구되고 있다.
본 명세서는, 웨어러블 디바이스 및 그 제어 방법을 제공하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 리얼 오브젝트를 디텍트하고, 디텍트된 리얼 오브젝트에 기초하여 버추얼 오브젝트를 디스플레이 하는 방법을 제공하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 리얼 오브젝트 및 리얼 오브젝트의 인터렉션을 디텍트하고, 디텍트된 리얼 오브젝트 및 리얼 오브젝트의 인터렉션에 기초하여 버추얼 오브젝트를 디스플레이 하는 방법을 제공하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 버추얼 오브젝트 인포메이션을 외부 디바이스로 송신하는 방법을 제공하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 리얼 오브젝트의 인터렉션으로서 제스처 인풋, 오디오 인풋을 디텍트하는 방법을 제공하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 저장된 어드레스 인포메이션에 기초하여 버추얼 오브젝트 인포메이션을 외부 디바이스로 송신하는 방법을 제공하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 웨어러블 디바이스의 위치 정보를 수신하고, 위치 정보에 기초하여 버추얼 오브젝트의 인포메이션 속성을 설정하는 방법을 제공하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 버추얼 오브젝트 인포메이션에 기초하여 네임 카드 인포메이션을 저장하는 방법을 제공하는데 목적을 가지고 있다.
본 명세서의 일 실시예에 따라 웨어러블 디바이스를 제공할 수 있다. 이때, 웨어러블 디바이스는 웨어러블 디바이스에 있어서, 버추얼 오브젝트를 디스플레이하는 디스플레이 유닛, 웨어러블 디바이스의 전면 방향으로부터 리얼 오브젝트를 디텍트하는 제 1 카메라 유닛, 상기 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트 인포메이션을 외부 디바이스로 송신하고, 제 2 버추얼 오브젝트 인포메이션을 상기 외부 디바이스로부터 수신하는 커뮤니케이션 유닛 및 상기 디스플레이 유닛, 상기 제 1 카메라 유닛 및 상기 커뮤니케이션 유닛을 제어하는 상기 프로세서를 포함할 수 있다. 이때, 상기 프로세서는, 상기 리얼 오브젝트를 디텍트한 경우, 상기 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트를 디스플레이하고, 상기 리얼 오브젝트 및 제 1 인터렉션을 디텍트한 경우, 제 2 버추얼 오브젝트를 디스플레이하되, 상기 제 2 버추얼 오브젝트는 상기 외부 디바이스가 송신하는 상기 제 2 버추얼 오브젝트 인포메이션에 기초하여 디스플레이되는 버추얼 오브젝트일 수 있다.
또한, 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 제어하는 웨어러블 디바이스의 제어 방법은 리얼 오브젝트를 디텍트하는 단계로서, 상기 리얼 오브젝트를 디텍트한 경우, 상기 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트를 디스플레이하고, 상기 리얼 오브젝트 및 제 1 인터렉션을 디텍트하는 단계로서, 상기 리얼 오브젝트 및 상기 제 1 인터렉션을 디텍트한 경우, 제 2 버추얼 오브젝트를 디스플레이하되, 상기 제 2 버추얼 오브젝트는 상기 외부 디바이스가 송신하는 버추얼 오브젝트 인포메이션에 기초하여 디스플레이되는 오브젝트일 수 있다.
본 명세서에 따르면, 웨어러블 디바이스 및 그 제어 방법을 제공할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스는 리얼 오브젝트를 디텍트하고, 디텍트된 리얼 오브젝트에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스는 리얼 오브젝트 및 리얼 오브젝트의 인터렉션을 디텍트하고, 디텍트된 리얼 오브젝트 및 리얼 오브젝트의 인터렉션에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스는 버추얼 오브젝트 인포메이션을 외부 디바이스로 송신하는 방법을 제공할 수 있다.
또한, 웨어러블 디바이스는 리얼 오브젝트의 인터렉션으로서 제스처 인풋, 오디오 인풋을 디텍트할 수 있다.
또한, 웨어러블 디바이스는 저장된 어드레스 인포메이션에 기초하여 버추얼 오브젝트 인포메이션을 외부 디바이스로 송신할 수 있다.
또한, 웨어러블 디바이스는 웨어러블 디바이스의 위치 정보를 수신하고, 위치 정보에 기초하여 버추얼 오브젝트의 인포메이션 속성을 설정할 수 있다.
또한, 웨어러블 디바이스는 버추얼 오브젝트 인포메이션에 기초하여 네임 카드 인포메이션을 저장하는 방법을 제공할 수 있다.
도 1은 본 명세서의 일 실시예에 따라 버추얼 오브젝트를 디스플레이 하는 웨어러블 디바이스를 나타낸 도면이다.
도 2a 및 도 2b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 3은 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 리얼 오브젝트의 인터렉션에 기초하여 버추얼 오브젝트를 디스플레이 하는 방법을 나타낸 도면이다.
도 4는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 리얼 오브젝트 및 리얼 오브젝트의 인터렉션을 디텍트하는 방법을 나타낸 도면이다.
도 5a 및 도 5b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 리얼 오브젝트 및 리얼 오브젝트의 인터렉션을 디텍트하는 방법을 나타낸 도면이다.
도 6a 및 도 6b은 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 버추얼 오브젝트의 디스플레이 위치에 따라 인포메이션 속성을 설정하는 방법을 나타낸 도면이다.
도 7은 본 명세서의 일 실시예에 따라 웨어러블 디바이스의 위치 정보에 기초하여 인포메이션 속성을 설정하는 방법을 나타낸 도면이다.
도 8은 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 단계적으로 버추얼 오브젝트를 공개하는 방법을 나타낸 도면이다.
도 9는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 네임 카드 인포메이션을 저장하는 방법을 나타낸 도면이다.
도 10은 본 명세서의 일 실시예에 따른 웨어러블 디바이스 및 외부 디바이스의 블록도를 나타낸 도면이다.
도 11은 본 명세서의 일 실시예에 따라 웨어러블 디바이스의 제어 방법을 나타낸 도면이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
그리고 본 명세서에서 제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 명세서의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게, 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
또한 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 그리고 명세서에 기재된 “…유닛”, “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.
도 1은 본 명세서의 일 실시예에 따라 버추얼 오브젝트를 디스플레이 하는 웨어러블 디바이스를 나타낸 도면이다. 웨어러블 디바이스(100)는 유저에게 착용될 수 있다. 또한, 웨어러블 디바이스(100)는 디스플레이 유닛(110)을 포함하고, 비주얼 정보를 디스플레이할 수 있다. 이때, 일 예로, 비주얼 정보는 버추얼 오브젝트일 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)는 씨-쓰루 디스플레이 유닛(110)을 포함할 수 있다. 즉, 유저가 웨어러블 디바이스(100)를 착용한 경우, 유저는 씨-쓰루 디스플레이 유닛(110)을 통해 리얼 오브젝트를 볼 수 있다. 이때, 일 예로, 리얼 오브젝트는 사람, 사물 등 실제 존재하는 물체일 수 있다. 웨어러블 디바이스(100)는 리얼 오브젝트에 대응하는 버추얼 오브젝트를 디스플레이할 수 있다.
보다 상세하게는, 웨어러블 디바이스(100)는 디스플레이 유닛(110) 내에서 리얼 오브젝트에 대응되는 위치에 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 일 예로, 버추얼 오브젝트는 리얼 오브젝트와 관련된 오브젝트일 수 있다. 일 예로, 리얼 오브젝트가 자동차인 경우, 웨어러블 디바이스(100)는 자동차의 종류, 자동차의 이동 속도 등을 버추얼 오브젝트로 디스플레이할 수 있다. 또한, 일 예로, 리얼 오브젝트가 사람인 경우, 웨어러블 디바이스(100)는 사람의 이름, 국적 등을 버추얼 오브젝트로 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 리얼 오브젝트에 대응하는 버추얼 오브젝트를 디스플레이할 수 있다. 이를 통해, 웨어러블 디바이스(100)는 유저에게 리얼 오브젝트에 대한 정보를 제공할 수 있다. 이때, 일 예로, 버추얼 오브젝트는 디스플레이 유닛(110)에 의해 유저에게 제공되는 그래픽 유저 인테이스일 수 있다. 이때, 웨어러블 디바이스(100)는 증강 현실 기술을 이용하여 디스플레이 유닛(110)에 버추얼 오브젝트를 디스플레이할 수 있다. 또한, 일 예로, 버추얼 오브젝트는 2D 또는 3D 이미지일 수 있다. 또한, 그 밖에 버추얼 오브젝트는 유저에게 비주얼 정보를 제공하는 이미지일 수 있으며, 상술한 실시예로 한정되지 않는다.
일 예로, 도 1을 참조하면, 웨어러블 디바이스(100)를 착용한 제 1 유저(310)는 리얼 오브젝트인 제 2 유저(320)를 디텍트할 수 있다. 이때, 제 1 유저(310)는 씨-쓰루 디스플레이 유닛(110)을 통해 제 2 유저(320)를 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 유저(320)에 대응하는 버추얼 오브젝트들(330-1, 330-2, 330-3)을 제 2 유저(320)에 기초하여 디스플레이할 수 있다. 이때, 일 예로, 제 1 버추얼 오브젝트(330-1)는 제 2 유저(320)의 이름 정보 및 전화번호 정보를 포함한 버추얼 오브젝트일 수 있다. 또한, 제 2 버추얼 오브젝트(330-2)는 제 2 유저(320)의 E-mail, SNS 정보를 포함한 버추얼 오브젝트일 수 있다. 또한, 제 3 버추얼 오브젝트(330-3)는 제 2 유저(320)의 회사 정보를 포함한 버추얼 오브젝트일 수 있다. 즉, 웨어러블 디바이스(100)는 리얼 오브젝트인 제 2 유저(320)를 디텍트하면 제 2 유저(320)와 관련된 버추얼 오브젝트들(330-1, 330-2, 330-3)를 디스플레이할 수 있다.
도 2a 및 도 2b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)는 유저(310)에게 착용될 수 있다. 또한, 웨어러블 디바이스(100)는 디스플레이 유닛(110)을 통해 유저(310)에게 비주얼 정보를 제공할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 헤드 마운티드 디스플레이 디바이스(이하 'HMD 디바이스')일 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 스마트 렌즈일 수 있다. 또 다른 일 예로, 웨어러블 디바이스(100)는 스마트 워치, 목걸이 타입의 디바이스 등일 수 있다. 즉, 웨어러블 디바이스(100)는 유저(310)에게 착용되는 디바이스일 수 있으며, 상술한 실시예로 한정되지 않는다.
일 예로, 도 2a를 참조하면 웨어러블 디바이스(100)는 HMD 디바이스일 수 있다. 이때, HMD 디바이스(100)는 안경 형태로서 유저에게 착용될 수 있다. 유저는 HMD 디바이스(100)를 안경처럼 착용하고 HMD 디바이스(100)가 제공하는 비주얼 정보를 볼 수 있다. 또 다른 일 예로, 도 2b를 참조하면 웨어러블 디바이스(100)는 스마트 렌즈일 수 있다. 이때, 스마트 렌즈는 렌즈 형태로 제작될 수 있다. 또한, 미세 부품이 렌즈에 밀집되어 렌즈를 통해 버추얼 오브젝트를 디스플레이할 수 있다. 즉, 유저가 스마트 렌즈를 착용한 경우, 유저는 렌즈를 통해 리얼 오브젝트를 디텍트하고, 디텍트된 리얼 오브젝트에 대응하는 버추얼 오브젝트를 렌즈 표면에 디스플레이할 수 있다.
도 3은 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 리얼 오브젝트의 인터렉션에 기초하여 버추얼 오브젝트를 디스플레이 하는 방법을 나타낸 도면이다.
웨어러블 디바이스(100)는 리얼 오브젝트를 디텍트하고, 디텍트된 리얼 오브젝트에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 리얼 오브젝트의 인터렉션을 디텍트하는지 여부에 기초하여 다른 버추얼 오브젝트를 디스플레이할 수 있다.
보다 상세하게는, 웨어러블 디바이스(100)가 리얼 오브젝트를 디텍트한 경우, 웨어러블 디바이스(100)는 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 리얼 오브젝트만을 디텍트할 수 있다. 또한, 웨어러블 디바이스(100)가 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 디텍트하는 경우, 웨어러블 디바이스(100)는 디텍트된 리얼 오브젝트에 기초하여 제 2 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 디텍트할 수 있다. 이때, 제 1 버추얼 오브젝트와 제 2 버추얼 오브젝트는 서로 다른 버추얼 오브젝트일 수 있다. 또한, 제 2 버추얼 오브젝트는 외부 디바이스(100)가 송신하는 버추얼 오브젝트 인포메이션에 기초하여 디스플레이되는 버추얼 오브젝트일 수 있다. 즉, 웨어러블 디바이스(100)는 리얼 오브젝트만을 디텍트하는 경우와 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 모두 디텍트하는 경우 다른 버추얼 오브젝트를 디스플레이할 수 있다.
보다 상세하게는, 도 3을 참조하면, 웨어러블 디바이스(100)는 제 1 유저(310)에 의해 착용될 수 있다. 이때, 웨어러블 디바이스(100)는 리얼 오브젝트인 제 2 유저(320)를 디텍트할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 리얼 오브젝트인 제 2 유저(320)만 디텍트하고, 제 2 유저(320)의 제 1 인터렉션을 디텍트하지 않을 수 있다. 이때, 일 예로, 제 1 인터렉션은 오디오 인풋에 기초하여 상호 간의 음성 인식 동작일 수 있다. 또한, 제 1 인터렉션은 제스처 인풋에 기초하여 제 1 유저(310) 및 제 2 유저(320)의 제스처 인풋일 수 있으며, 이와 관련해서 도 5a 및 도 5b에서 후술한다. 웨어러블 디바이스(100)가 리얼 오브젝트인 제 2 유저(320)만을 디텍트한 경우, 웨어러블 디바이스(100)는 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트들(330-1, 330-2)를 디스플레이할 수 있다. 이때, 제 1 버추얼 오브젝트들(330-1, 330-2)은 제 2 유저(320)의 이미지 정보에 기초하여 디스플레이된 버추얼 오브젝트일 수 있다.
보다 상세하게는, 웨어러블 디바이스(100)는 카메라 유닛(120)을 이용하여 리얼 오브젝트인 제 2 유저(320)를 디텍트하고, 이미지를 캡쳐링할 수 있다. 이때, 웨어러블 디바이스(100)는 카메라 유닛(120)으로 캡처링된 제 2 유저(320)의 이미지 정보에 기초하여 제 1 버추얼 오브젝트들(330-1, 330-2)을 디스플레이할 수 있다. 일 예로, 제 1 버추얼 오브젝트(330-1)는 제 2 유저(320)가 사람임을 나타내는 정보일 수 있다. 즉, 웨어러블 디바이스(100)는 캡처링된 이미지에서 리얼 오브젝트인 제 2 유저(320)가 사람임을 디텍트하고, 디텍트된 정보를 버추얼 오브젝트로 디스플레이할 수 있다. 또한, 일 예로, 제 1 버추얼 오브젝트(330-2)는 사람의 종류를 나타낼 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)는 이미지를 통해 제 2 유저(320)에 대한 정보를 분석하고, 제 2 유저가 동양인이지, 서양인이지 여부 등을 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)가 리얼 오브젝트만을 디텍트한 경우, 웨어러블 디바이스(100)는 디텍트된 리얼 오브젝트의 이미지 정보에 기초하여 제 1 버추얼 오브젝트들(330-1, 330-2)을 디스플레이할 수 있다.
일 예로, 웨어러블 디바이스(100)가 자동차를 디텍트하는 경우, 웨어러블 디바이스(100)는 자동차의 차종, 자동차의 이동 속도 등을 이미지 정보를 분석하여 버추얼 오브젝트로 디스플레이할 수 있다.
또한, 웨어러블 디바이스(100)가 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 디텍트하는 경우, 웨어러블 디바이스(100)는 제 2 버추얼 오브젝트들(340-1, 340-2)을 디스플레이할 수 있다. 이때, 일 예로, 리얼 오브젝트의 제 1 인터렉션은 제 1 유저(310) 및 제 2 유저(320)가 서로 마주보고 있는 동작일 수 있다. 이때, 외부 디바이스(200)는 제 2 유저(320)에 의해 착용될 수 있다. 웨어러블 디바이스(100)는 카메라 유닛(120)을 이용하여 외부 디바이스(200)를 디텍트할 수 있다. 이를 통해, 웨어러블 디바이스(100)는 제 1 유저(310) 및 제 2 유저(320)가 서로 마주보고 있는 동작으로서 인터렉션을 디텍트할 수 있다. 이와 관련해서 도 4에서 후술한다.
웨어러블 디바이스(100)가 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 디텍트한 경우, 웨어러블 디바이스(100)는 제 2 버추얼 오브젝트들(340-1, 340-2)를 디스플레이할 수 있다. 이때, 일 예로, 제 2 버추얼 오브젝트들(340-1, 340-2)는 외부 디바이스(200)가 송신하는 버추얼 오브젝트 인포메이션에 기초하여 디스플레이되는 버추얼 오브젝트일 수 있다. 보다 상세하게는, 외부 디바이스(200)는 웨어러블 디바이스(100)와 동일한 타입 또는 호환되는 타입의 웨어러블 디바이스일 수 있다. 이때, 제 2 유저(320)는 제 1 인터렉션에 기초하여 버추얼 오브젝트 인포메이션을 제 1 유저(310)가 착용한 웨어러블 디바이스(100)로 송신할 수 있다. 즉, 제 2 유저(320)는 제 1 인터렉션에 기초하여 외부 디바이스(200)로 자신의 정보인 버추얼 오브젝트 인포메이션을 웨어러블 디바이스(100)로 송신할 수 있다. 이때, 일 예로, 버추얼 오브젝트 인포메이션은 제 2 유저(320)의 이름 정보, 전화 번호 정보, 회사 정보, E-mail 정보, SNS 정보 중 어느 하나를 포함하는 인포메이션일 수 있다. 또한, 버추얼 오브젝트 인포메이션은 제 2 유저(320)에 의해 공개되고자 하는 인포메이션일 수 있으며, 상술한 실시예로 한정되지 않는다. 외부 디바이스(200)가 버추얼 오브젝트 인포메이션을 제 1 유저(310)의 웨어러블 디바이스(100)로 송신하는 경우, 웨어러블 디바이스(100)는 수신된 버추얼 오브젝트 인포메이션에 기초하여 제 2 버추얼 오브젝트들(340-1, 340-2)을 디스플레이할 수 있다.
즉, 웨어러블 디바이스(100)는 리얼 오브젝트인 제 2 유저(320) 및 제 2 유저(320)의 제 1 인터렉션에 기초하여 버추얼 오브젝트들을 디스플레이할 수 있다.
또한, 일 예로, 웨어러블 디바이스(100)가 리얼 오브젝트만을 디텍트한 경우, 웨어러블 디바이스(100)는 버추얼 오브젝트를 디스플레이하지 않을 수 있다. 이때, 웨어러블 디바이스(100)가 리얼 오브젝트의 인터렉션을 더 디텍트한 경우, 웨어러블 디바이스(100)는 버추얼 오브젝트를 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 리얼 오브젝트와 리얼 오브젝트의 인터렉션을 디텍트할 때만 버추얼 오브젝트를 디스플레이할 수 있다.
도 4는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 리얼 오브젝트 및 리얼 오브젝트의 인터렉션을 디텍트하는 방법을 나타낸 도면이다.
웨어러블 디바이스(100)는 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 유저(310)에게 착용될 수 있다. 또한, 리얼 오브젝트는 제 2 유저(320)일 수 있다. 이때, 일 예로, 리얼 오브젝트의 제 1 인터렉션은 제 1 유저(310) 및 제 2 유저(320)의 상호 작용일 수 있다. 일 예로, 제 1 유저(310) 및 제 2 유저(320)가 서로 바라보고 있는 경우, 웨어러블 디바이스(100)는 리얼 오브젝트의 제 1 인터렉션을 디텍트할 수 있다. 즉, 웨어러블 디바이스(100)는 제 1 유저(310) 및 제 2 유저(320)가 서로 마주보고 있는 상태를 리얼 오브젝트의 제 1 인터렉션으로 디텍트할 수 있다.
보다 상세하게는, 외부 디바이스(200)는 제 2 유저(320)에 의해 착용될 수 있다. 또한, 웨어러블 디바이스(100)는 제 1 카메라 유닛을 포함하고, 외부 디바이스(200)는 제 2 카메라 유닛을 포함할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 제 1 카메라 유닛으로 외부 디바이스(200)의 제 2 카메라 유닛의 전면 방향을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 카메라 유닛의 전면 방향이 제 1 카메라 유닛의 전면 방향과 마주보는 방향이면 제 1 인터렉션을 디텍트할 수 있다. 즉, 웨어러블 디바이스(100)는 제 1 유저(310) 및 제 2 유저(320)가 서로 마주보고 있으면 제 1 인터렉션을 디텍트할 수 있다. 또한, 일 예로, 외부 디바이스(200)는 제 2 카메라 유닛으로 웨어러블 디바이스(100)는 제 1 카메라 유닛의 전면 방향을 디텍트할 수 있다. 이때, 외부 디바이스(100)는 제 1 카메라 유닛의 전면 방향이 제 2 카메라 유닛의 전면 방향과 마주보는 방향이면 제 1 인터렉션을 디텍트할 수 있다. 즉, 웨어러블 디바이스(100) 및 외부 디바이스(200)는 각각 제 1 인터렉션을 디텍트할 수 있다. 이때, 외부 디바이스(100)는 디텍트된 제 1 인터렉션에 기초하여 버추얼 오브젝트 인포메이션을 웨어러블 디바이스(100)로 송신할 수 있다. 웨어러블 디바이스(100)는 외부 디바이스(100)로부터 수신된 버추얼 오브젝트 인포메이션에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다. 이를 통해, 웨어러블 디바이스(100)를 착용한 제 1 유저(310)는 외부 디바이스(200)를 착용한 제 2 유저(320)에 대한 정보를 제 2 유저의 동의에 기초하여 디스플레이할 수 있다.
또한, 웨어러블 디바이스(100)가 제 1 인터렉션을 디텍트한 경우, 웨어러블 디바이스(100)는 제 1 유저(310)에 대한 버추얼 오브젝트 인포메이션을 외부 디바이스(200)로 송신할 수 있다. 이때, 외부 디바이스(200)는 수신한 제 1 유저(310)에 대한 버추얼 오브젝트 인포메이션에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100) 및 외부 디바이스(200)는 제 1 인터렉션을 디텍트하고, 상호 간의 정보를 공유할 수 있다. 이때, 웨어러블 디바이스(100) 및 외부 디바이스(200)는 동일한 타입의 디바이스 또는 호환 가능한 디바이스일 수 있으며, 이는 상술한 바와 같다.
일 예로, 도 4를 참조하면, 제 1 유저(310) 및 제 2 유저(320)는 다른 방향을 바라보고 있을 수 있다. 즉, 웨어러블 디바이스(100)의 제 1 카메라 유닛과 외부 디바이스(200)의 제 2 카메라 유닛이 서로 마주보고 있지 않을 수 있다. 이때, 제 1 유저(310) 및 제 2 유저(320)가 서로 마주보는 경우, 웨어러블 디바이스(100)은 제 1 카메라 유닛의 전면 방향은 외부 디바이스(200)의 제 2 카메라 유닛의 전면 방향과 마주보는 방향일 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 인터렉션을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 커뮤니케이션 유닛을 이용하여 제 1 버추얼 오브젝트 인포메이션을 외부 디바이스(200)로 송신할 수 있다. 또한, 웨어러블 디바이스(100)는 커뮤니케이션 유닛을 이용하여 외부 디바이스(200)가 송신하는 제 2 버추얼 오브젝트 인포메이션을 수신할 수 있다. 이때, 제 1 버추얼 오브젝트 인포메이션은 제 1 유저(310)에 의해 설정된 인포메이션일 수 있다. 또한, 제 2 버추얼 오브젝트 인포메이션은 제 2 유저(320)에 의해 설정된 인포메이션일 수 있다. 웨어러블 디바이스(100)는 수신된 제 2 버추얼 오브젝트 인포메이션에 기초하여 제 1 버추얼 오브젝트들(410-1, 410-2)을 디스플레이할 수 있다. 이때, 일 예로, 제 1 버추얼 오브젝트들(410-1, 410-2)는 제 2 유저(320)의 회사 정보, E-mail 정보, SNS 정보일 수 있다. 또한, 외부 디바이스(200)는 수신된 제 1 버추얼 오브젝트 인포메이션에 기초하여 제 2 버추얼 오브젝트들(420-1, 420-2)을 디스플레이할 수 있다. 이때, 일 예로, 제 2 버추얼 오브젝트들(420-1, 420-2)는 제 1 유저(310)의 회사 정보, E-mail 정보, SNS 정보일 수 있다.
도 5a 및 도 5b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 리얼 오브젝트 및 리얼 오브젝트의 인터렉션을 디텍트하는 방법을 나타낸 도면이다.
웨어러블 디바이스(100)는 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 디텍트할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 리얼 오브젝트를 디텍트하고, 디텍트된 리얼 오브젝트에 기초하여 제 1 트리거링 신호를 외부 디바이스(200)로 송신할 수 있다. 이때, 웨어러블 디바이스는 외부 디바이스(200)가 제 1 트리거링 신호에 기초하여 송신하는 제 2 트리거링 신호를 수신하면 제 1 인터렉션을 디텍트할 수 있다. 또한, 외부 디바이스(200)는 제 2 트리거링 신호를 웨어러블 디바이스(100)로 송신할 때 제 1 인터렉션을 디텍트할 수 있다. 즉, 웨어러블 디바이스(100)는 외부 디바이스(200)는 커뮤니케이션 유닛을 이용하여 트리거링 신호를 교환하면 제 1 인터렉션을 디텍트할 수 있다.
이때, 일 예로, 도 5a를 참조하면, 웨어러블 디바이스(100)는 오디오 인풋 센싱 유닛을 이용하여 제 2 유저(320)의 제 1 오디오 인풋을 디텍트할 수 있다. 웨어러블 디바이스(100)가 제 2 유저의 제 1 오디오 인풋을 디텍트하는 경우, 웨어러블 디바이스(100)는 제 1 트리거링 신호를 외부 디바이스(200)로 송신할 수 있다. 이때, 외부 디바이스(100)가 제 1 유저(310)의 제 2 오디오 인풋을 디텍트하는 경우, 외부 디바이스(100)는 제 2 트리거링 신호를 웨어러블 디바이스(100)로 송신할 수 있다. 즉, 웨어러블 디바이스(100)가 제 2 유저(320)의 제 1 오디오 인풋을 디텍트하고, 외부 디바이스(200)가 제 1 유저(310)의 제 2 오디오 인풋을 디텍트하면 웨어러블 디바이스(100)는 제 1 인터렉션을 디텍트할 수 있다. 이때, 외부 디바이스(200)도 제 1 인터렉션을 디텍트할 수 있다.
또 다른 일 예로, 웨어러블 디바이스(100)는 상술한 제 1 오디오 인풋 및 제 2 오디오 인풋을 디텍트하면 제 1 인터렉션을 디텍트할 수 있다. 즉, 웨어러블 디바이스(100)는 트리거링 신호 없이 오디오 인풋에 기초하여 제 1 인터렉션을 디텍트할 수 있다.
일 예로, 도 5a를 참조하면 웨어러블 디바이스(100)는 제 2 유저(320)의 오디오 인풋으로 “안녕하세요, 반갑습니다.”라는 음성을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 유저의 오디오 인풋에 기초하여 제 1 트리거링 신호를 외부 디바이스(200)로 송신할 수 있다. 이때, 외부 디바이스(200)는 제 1 유저(310)의 오디오 인풋으로 “안녕하세요, 처음 뵙겠습니다.”라는 음성을 디텍트할 수 있다. 외부 디바이스(200)는 수신된 제 1 트리거링 신호에 기초하여 제 1 유저(310)의 오디오 인풋을 디텍트하면 제 2 트리거링 신호를 웨어러블 디바이스(100)로 송신할 수 있다. 웨어러블 디바이스(100)는 제 2 트리거링 신호를 수신할 때, 제 1 인터렉션을 디텍트할 수 있다. 또한, 외부 디바이스(200)는 제 2 트리거링 신호를 송신할 때, 제 1 인터렉션을 디텍트할 수 있다.
또 다른 일 예로, 도 5b를 참조하면, 웨어러블 디바이스(100)는 제 1 카메라 유닛을 이용하여 제 2 유저(320)의 제 1 제스처 인풋을 디텍트할 수 있다. 이때, 일 예로, 제 1 제스처 인풋은 제 1 유저(310)와 악수하는 제스처일 수 있다. 또한, 웨어러블 디바이스(100)가 제 2 유저(320)의 제 1 제스처 인풋을 디텍트하는 경우, 웨어러블 디바이스(100)는 제 1 트리거링 신호를 외부 디바이스(200)로 송신할 수 있다. 이때, 외부 디바이스(100)가 제 1 유저(310)의 제 2 제스처 인풋을 디텍트하는 경우, 외부 디바이스(100)는 제 2 트리거링 신호를 웨어러블 디바이스(100)로 송신할 수 있다. 이때, 일 예로, 제 2 제스처 인풋은 제 2 유저(320)와 악수하는 제스처일 수 있다. 즉, 웨어러블 디바이스(100)가 제 2 유저(320)의 제 1 제스처 인풋을 디텍트하고, 외부 디바이스(200)가 제 1 유저(310)의 제 2 제스처 인풋을 디텍트하면 웨어러블 디바이스(100)는 제 1 인터렉션을 디텍트할 수 있다. 이때, 외부 디바이스(200)도 제 1 인터렉션을 디텍트할 수 있다.
또 다른 일 예로, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)를 착용한 제 1 유저(310)와 제 2 유저(320)의 상호 작용에 기초하여 제스처 인풋을 디텍트할 수 있다. 이때, 제스처는 악수하는 제스처일 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 제스처에 대한 정보를 저장할 수 있다. 이때, 웨어러블 디바이스(100)는 기저장된 제스처와 디텍트된 제스처 인풋이 동일하면 제 1 인터렉션을 디텍트할 수 있다. .
또 다른 일 실시예에 있어서, 웨어러블 디바이스(100)는 리얼 오브젝트 및 제 1 인터렉션을 디텍트하면 인포메이션 요청 신호를 외부 디바이스(200)로 송신할 수 있다. 이때, 외부 디바이스(200)는 인포메이션 요청 신호에 기초하여 버추얼 오브젝트 인포메이션을 웨어러블 디바이스(100)로 송신할 수 있다. 웨어러블 디바이스(100)는 외부 디바이스(200)로부터 수신한 버추얼 오브젝트 인포메이션에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 제 1 인터렉션에 기초하여 인포메이션 요청 신호를 송신하고, 버추얼 오브젝트 인포메이션을 수신하여 디스플레이할 수 있다.
웨어러블 디바이스(100)는 제 1 인터렉션을 디텍트하고, 디텍트된 제 1 인터렉션에 기초하여 리얼 오브젝트와 관련된 버추얼 오브젝트를 디스플레이할 수 있으며, 상술한 실시예로 한정되지 않는다.
도 6a 및 도 6b은 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 버추얼 오브젝트의 디스플레이 위치에 따라 인포메이션 속성을 설정하는 방법을 나타낸 도면이다.
웨어러블 디바이스(100)는 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 일 예로, 웨어러블 디바이스는 버추얼 오브젝트가 디스플레이되는 위치에 기초하여 버추얼 오브젝트의 인포메이션 속성을 다르게 설정할 수 있다. 일 예로, 이때 인포메이션 속성은 이름 정보, 전화 번호 정보, 이메일 정보, 주소 정보, 회사 정보 및 SNS 정보 중 하나를 포함할 수 있다. 또한, 인포메이션 속성은 유저 또는 프로세서(160)에 의해 설정될 수 있으며, 상술한 실시예로 한정되지 않는다.
보다 상세하게는, 도 6a를 참조하면, 웨어러블 디바이스(100)는 디스플레이 유닛(110) 내의 제 1 위치에 제 1 속성을 갖는 제 1 버추얼 오브젝트(610-1)를 디스플레이할 수 있다. 이때, 일 예로, 제 1 위치는 리얼 오브젝트인 제 2 유저(320)의 위쪽에 위치할 수 있다. 일 예로, 웨어러블 디바이스(100)가 리얼 오브젝트로 사람을 디텍트하는 경우, 웨어러블 디바이스(100)는 사람 머리 위에 동일한 인포메이션 속성을 갖는 정보를 디스플레이할 수 있다. 일 예로, 제 1 버추얼 오브젝트(610-1)는 이름 정보 및 전화 번호 정보를 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 외부 디바이스(200)에서 수신한 버추얼 오브젝트 인포메이션에 기초하여 제 2 유저(320)의 이름 및 전화 번호를 제 2 유저(320)의 위쪽에 디스플레이할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 디스플레이 유닛(110) 내의 제 2 위치에 제 2 속성을 갖는 제 2 버추얼 오브젝트(610-2)를 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 디스플레이 유닛(110) 내의 제 3 위치에 제 3 속성을 갖는 제 3 버추얼 오브젝트(610-3)을 디스플레이할 수 있다. 이때, 제 2 속성 및 제 3 속성은 서로 다른 인포메이션 속성일 수 있다. 일 예로, 제 2 속성은 이메일 정보 및 SNS 정보를 포함할 수 있다. 또한, 일 예로, 제 3 속성은 회사 정보를 포함할 수 있다. 즉, 웨어러블 디바이스(100)는 제 2 유저(320)의 이메일 정보 및 SNS 정보를 제 2 유저(320)의 왼쪽에 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 제 2 유저(320)의 회사 정보를 제 2 유저(320)의 오른쪽에 디스플레이할 수 있다. 이를 통해, 웨어러블 디바이스(100)는 공개되는 정보를 유저가 확인하도록 할 수 있다.
또 다른 일 예로, 도 6b를 참조하면 제 2 위치에 디스플레이되는 제 2 속성을 갖는 버추얼 오브젝트(610-2)는 보안 설정된 정보를 나타내는 버추얼 오브젝트일 수 있다.
보다 상세하게는, 웨어러블 디바이스(100)는 외부 디바이스(200)로부터 버추얼 오브젝트 인포메이션을 수신할 수 있다. 이때, 일 예로, 외부 디바이스(100)는 버추얼 오브젝트 인포메이션 보안 설정된 정보를 포함할 수 있다. 이때, 웨어러블 디바이스(100)는 외부 디바이스(200)에 의해 보안 설정된 정보는 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 버추얼 오브젝트(610-2)로서 보안 설정된 정보를 나타내는 버추얼 오브젝트를 디스플레이할 수 있다.
일 예로, 제 2 유저(320)는 E-mail 정보 및 SNS 정보를 보안 설정하고, 공개하지 않도록 할 수 있다. 이때, 웨어러블 디바이스(100)가 외부 디바이스(200)로부터 버추얼 오브젝트 인포메이션을 수신한 경우, 웨어러블 디바이스(100)는 제 2 위치에 보안 설정 정보를 나타내는 제 2 버추얼 오브젝트(610-2)를 디스플레이할 수 있다. 이를 통해, 유저는 공개되는 정보를 제한할 수 있다.
도 7은 본 명세서의 일 실시예에 따라 웨어러블 디바이스의 위치 정보에 기초하여 인포메이션 속성을 설정하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100) 및 외부 디바이스(200)는 위치 정보 수신 유닛을 더 포함할 수 있다. 또한, 웨어러블 디바이스(100) 및 외부 디바이스(200)는 현재 위치 정보를 수신할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100) 및 외부 디바이스(200)가 제 1 위치에 위치함을 디텍트하는 경우, 웨어러블 디바이스(100)는 제 1 인포메이션 속성을 갖는 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 일 예로, 제 1 위치는 오차를 포함하는 영역일 수 있다. 일 예로, 제 1 위치는 회사, 학교, 거리, 운동장 등일 수 있다. 즉, 제 1 위치는 비교적 넓은 영역으로서, 상술한 실시예로 한정하지 않는다.
이때, 상술한 인포메이션 속성은 퍼블릭 속성 또는 프라이빗 속성일 수 있다. 이때, 일 예로, 인포메이션 속성은 유저 또는 프로세서(160)에 의해 설정된 속성일 수 있다. 또한, 일 예로, 퍼블릭 속성은 유저의 공공 업무와 관련된 속성일 수 있다. 일 예로, 퍼블릭 속성은 회사 정보, 회사 내의 부서 정보 등일 수 있다. 또한, 일 예로, 프라이빗 속성은 유저의 사적인 내용에 대한 정보일 수 있다. 일 예로, 프라이빗 속성은 E-mail 정보, SNS 정보, 취미 정보, 특기 정보 등일 수 있다. 이때, 일 예로, 유저는 퍼블릭 속성 및 프라이빗 속성을 변경 설정할 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 일 예로, 도 7을 참조하면, 웨어러블 디바이스(100)는 제 1 위치에서 제 1 인포메이션 속성을 갖는 버추얼 오브젝트를 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 제 2 위치에서 제 2 인포메이션 속성을 갖는 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 일 예로, 제 1 위치는 제 1 유저(310)의 회사 내일 수 있다. 또한, 제 2 위치는 제 1 유저(310)가 모임에 참석하는 카페일 수 있다. 이때, 일 예로, 제 1 인포메이션 속성은 퍼블릭 속성일 수 있다. 또한, 제 2 인포메이션 속성은 프라이빗 속성일 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 위치에서 이름 정보, 전화 번호 정보, 회사 ID 정보, 부서 정보 및 회사 정보를 나타내는 버추얼 오브젝트를 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 제 2 위치에서 이름 정보, 전화 번호 정보, 나이 정보, E-mail 정보, SNS 정보, 취미 정보 및 특기 정보를 나타내는 버추얼 오브젝트를 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 위치 정보에 기초하여 버추얼 오브젝트의 인포메이션 속성을 결정할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)가 디스플레이하는 버추얼 오브젝트의 인포메이션 속성은 외부 디바이스(200)의 버추얼 오브젝트 인포메이션에 기초하여 결정될 수 있다. 보다 상세하게는, 상술한 바와 같이, 웨어러블 디바이스(100)는 외부 디바이스(200)로부터 버추얼 오브젝트 인포메이션을 수신할 수 있다.
또한, 일 예로, 웨어러블 디바이스(100)는 수신된 버추얼 오브젝트 인포메이션에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100) 및 외부 디바이스(200)가 제 1 위치에 위치하는 경우, 외부 디바이스(200)는 퍼블릭 속성에 기초하여 제 1 버추얼 오브젝트 인포메이션을 웨어러블 디바이스(100)로 송신할 수 있다. 또한, 웨어러블 디바이스(100) 및 외부 디바이스(200)가 제 2 위치에 위치하는 경우, 외부 디바이스(200)는 프라이빗 속성에 기초하여 제 2 버추얼 오브젝트 인포메이션을 웨어러블 디바이스(100)로 송신할 수 있다. 즉, 웨어러블 디바이스(100)는 외부 디바이스(200)가 송신하는 버추얼 오브젝트 인포메이션의 인포메이션 속성에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다.
도 8은 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 단계적으로 버추얼 오브젝트를 공개하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)는 어드레스 인포메이션을 저장하는 스토리지 유닛을 포함할 수 있다. 이때, 어드레스 인포메이션은 유저 또는 프로세서에 의해 설정된 인포메이션일 수 있다. 일 예로, 어드레스 인포메이션은 전화번호 정보 및 유저 이름을 저장한 정보일 수 있다. 이때, 웨어러블 디바이스(100)는 어드레스 인포메이션에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다.
보다 상세하게는, 상술한 바와 같이, 웨어러블 디바이스(100)는 제 1 인터렉션을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 외부 디바이스(200)로 제 1 버추얼 오브젝트 인포메이션을 송신할 수 있다. 또한, 웨어러블 디바이스(100)는 외부 디바이스(200)로부터 제 2 버추얼 오브젝트 인포메이션을 수신할 수 있다. 웨어러블 디바이스(100)는 수신된 제 2 버추얼 오브젝트 인포메이션에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다. 또한, 외부 디바이스(200)는 수신된 제 1 버추얼 오브젝트 인포메이션에 기초하여 버추얼 오브젝트를 디스플레이할 수 있다.
이때, 일 예로, 도 8을 참조하면, 웨어러블 디바이스(100)는 버추얼 오브젝트를 단계적으로 디스플레이할 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)는 제 1 인터렉션을 디텍트하면 제 1 버추얼 오브젝트(810-1)를 디스플레이할 수 있다. 또한, 외부 디바이스(100)는 제 2 버추얼 오브젝트(820-1)를 디스플레이할 수 있다. 이때, 제 1 버추얼 오브젝트(810-1)는 제 2 유저(320)의 이름 정보 및 전화번호 정보일 수 있다. 또한, 제 2 버추얼 오브젝트(820-1)는 제 1 유저(310)의 이름 정보 및 전화번호 정보일 수 있다. 이때, 제 2 유저(320)의 이름 정보 및 전화번호 정보가 어드레스 인포메이션에 포함된 경우, 웨어러블 디바이스(100)는 외부 디바이스(200)로 추가 정보를 포함하는 제 3 버추얼 오브젝트 인포메이션을 송신할 수 있다. 또한, 웨어러블 디바이스(100)는 외부 디바이스(200)로부터 추가 정보를 포함하는 제 4 버추얼 오브젝트 인포메이션을 수신할 수 있다. 이때, 웨어러블 디바이스(100)는 수신한 제 4 버추얼 오브젝트에 기초하여 제 3 버추얼 오브젝트(810-2)를 더 디스플레이할 수 있다. 또한, 외부 디바이스(200)는 수신한 제 3 버추얼 오브젝트 인포메이션에 기초하여 제 4 버추얼 오브젝트(820-2)를 더 디스플레이할 수 있다.
즉, 웨어러블 디바이스(100)는 및 외부 디바이스(200)는 추가 정보 또는 추가 인증을 통해 공개되는 버추얼 오브젝트 인포메이션을 제어할 수 있으며, 상술한 실시예로 한정되지 않는다.
도 9는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 네임 카드 인포메이션을 저장하는 방법을 나타낸 도면이다.
웨어러블 디바이스(100)는 스토리지 유닛에 네임 카드 인포메이션을 더 저장할 수 있다. 이때, 일 예로, 네임 카드 인포메이션은 제 2 유저(320)의 이미지 정보 및 제 2 유저와 관련된 버추얼 오브젝트 정보를 포함할 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)가 리얼 오브젝트 및 제 1 인터렉션을 디텍트하면 제 2 유저(320)에 대한 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 리얼 오브젝트 및 디스플레이된 버추얼 오브젝트를 제 1 네임 카드 인포메이션으로 저장할 수 있다. 즉, 웨어러블 디바이스(100)는 디스플레이 유닛(110)에 디스플레이되는 리얼 오브젝트 및 버추얼 오브젝트 정보를 저장할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 복수의 네임 카드 인포메이션을 저장할 수 있다.
일 예로, 도 9를 참조하면, 웨어러블 디바이스(100)는 제 2 유저 및 제 2 유저와 관련된 버추얼 오브젝트를 제 1 네임 카드 인포메이션(930-1)으로 저장할 수 있다. 또한, 웨어러블 디바이스는 제 3 유저 및 제 3 유저와 관련된 버추얼 오브젝트를 제 2 네임 카드 인포메이션(930-2)로 저장할 수 있다. 또한, 웨어러블 디바이스(100)는 복수의 네임 카드 인포메이션(930-1, 930-2, 930-3, 930-4, 930-5, 930-6)을 저장할 수 있으며, 상술한 실시예로 한정되지 않는다. 이를 통해, 웨어러블 디바이스(100)를 착용한 유저는 리얼 오브젝트 및 버추얼 오브젝트에 대한 정보를 저장할 수 있다.
또한, 일 예로, 웨어러블 디바이스(100)는 제 1 네임 카드 인포메이션(930-1)이 스토리지 유닛에 저장되어 있는 상태에서 제 2 유저 및 제 2 유저의 제 1 인터렉션을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 업데이트된 버추얼 오브젝트 인포메이션을 외부 디바이스(200)로 송신할 수 있다. 또한, 웨어러블 디바이스(100)는 업데이트된 버추얼 오브젝트 인포메이션을 외부 디바이스(200)로부터 수신할 수 있다. 이때, 웨어러블 디바이스(100)는 업데이트된 버추얼 오브젝트 인포메이션에 기초하여 제 1 네임 카드 인포메이션(930-1)을 업데이트할 수 있다. 이를 통해, 웨어러블 디바이스(100)는 업데이트된 네임 카드 인포메이션을 저장할 수 있다.
도 10은 본 명세서의 일 실시예에 따른 웨어러블 디바이스 및 외부 디바이스의 블록도를 나타낸 도면이다.
웨어러블 디바이스(100)는 상술한 바와 같이 HMD 디바이스 또는 스마트 렌즈 등일 수 있다. 또한, 외부 디바이스(200)는 상술한 바와 같이, 웨어러블 디바이스(100)와 동일한 타입 또는 호환 가능한 디바이스일 수 있다. 일 예로, 웨어러블 디바이스(100)는 디스플레이 유닛(110), 카메라 유닛(120), 커뮤니케이션 유닛(130) 및 프로세서(170)를 포함할 수 있다. 또한, 웨어러블 디바이스(100)는 옵셔널한 구성으로 오디오 인풋 센싱 유닛(140), 스토리지 유닛(150) 및 위치 정보 수신 유닛(160) 중 적어도 하나를 포함할 수 있다. 또한, 외부 디바이스(200)는 디스플레이 유닛(210), 카메라 유닛(220), 커뮤니케이션 유닛(230) 및 프로세서(270)를 포함할 수 있다. 또한, 외부 디바이스(200)는 옵셔널한 구성으로 오디오 인풋 센싱 유닛(240), 스토리지 유닛(250) 및 위치 정보 수신 유닛(260) 중 적어도 하나를 포함할 수 있다. 즉, 외부 디바이스(200)는 웨어러블 디바이스(100)와 동일한 구성 요소에 기초하여 동일한 동작을 실행할 수 있는 디바이스일 수 있다. 이하에서는 웨어러블 디바이스(100)를 기준으로 각각의 구성 요소를 서술한다.
디스플레이 유닛(110)은 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 버추얼 오브젝트는 디스플레이 유닛(110)에 의해 유저에게 제공되는 그래픽 유저 인테이스일 수 있다. 또한, 디스플레이 유닛(110)은 증강 현실 기술을 이용하여 버추얼 오브젝트를 디스플레이할 수 있다. 또한, 일 예로, 디스플레이 유닛(110)은 씨-쓰루 디스플레이 유닛(110)일 수 있다. 즉, 유저는 웨어러블 디바이스(100)를 착용하고 디스플레이 유닛(110)을 통해 리얼 오브젝트를 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 디스플레이 유닛(110) 내에서 디텍트된 리얼 오브젝트에 대응하는 버추얼 오브젝트를 디스플레이할 수 있다.
카메라 유닛(120)은 이미지를 센싱하고 캡처링할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 카메라 유닛(120)을 이용하여 리얼 오브젝트를 디텍트할 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)는 카메라 유닛(120)을 이용하여 디스플레이 유닛(110)을 통해 리얼 오브젝트를 디텍트할 수 있다. 또한, 일 예로, 카메라 유닛(120)은 외부 디바이스의 카메라 유닛의 전면 방향을 디텍트할 수 있다. 웨어러블 디바이스(100)는 카메라 유닛(120)의 전면 방향에 기초하여 제 1 인터렉션을 디텍트할 수 있으며, 이는 상술한 바와 같다. 또한, 카메라 유닛(120)은 제스처 인풋을 디텍트할 수 있다.
보다 상세하게는, 카메라 유닛(120)은 리얼 오브젝트의 제스처를 디텍트할 수 있다. 이때, 제스처 인풋이 기설정된 제스처 인풋과 동일한 경우, 웨어러블 디바이스(100)는 인터렉션을 디텍트할 수 있으며, 이는 상술한 바와 같다.
또한, 일 예로, 카메라 유닛(120)는 적외선 센서, 초음파 센서, 근접 센서 및 조도 센서 중 적어도 하나를 포함할 수 있다. 즉, 카메라 유닛(120)은 리얼 오브젝트를 디텍트하는 센서를 포함할 수 있으며, 상술한 실시예로 한정되지 않는다.
커뮤니케이션 유닛(130)은 외부 디바이스(200)와 커뮤니케이션을 할 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)는 커뮤니케이션 유닛(130)을 이용하여 버추얼 오브젝트 인포메이션을 외부 디바이스(200)로 송신할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 커뮤니케이션 유닛(130)을 이용하여 외부 디바이스(200)가 송신하는 버추얼 오브젝트 인포메이션을 수신할 수 있다. 즉, 웨어러블 디바이스(100)는 커뮤니케이션 유닛(130)을 이용하여 외부 디바이스와 통신을 수행하고, 데이터를 공유할 수 있다. 이를 통해, 웨어러블 디바이스(100)는 외부 디바이스(200)를 착용한 유저에 대한 정보를 수신하고, 유저와 관련된 버추얼 오브젝트를 디스플레이할 수 있다. 즉, 커뮤니케이션 유닛(130)은 웨어러블 디바이스(100)와 외부 디바이스(200)간의 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 데이터를 송신 및 수신할 수 있다. 또한, 커뮤니케이션 유닛(130)은 유선 또는 무선으로 네트워크에 접속하여, 컨텐츠 등의 디지털 데이터를 송신 및 수신할 수 있다.
웨어러블 디바이스(100)는 오디오 인풋 센싱 유닛(140)을 더 포함할 수 있다. 이때, 오디오 인풋 센싱 유닛(140)은 옵셔널한 구성일 수 있다. 일 예로, 웨어러블 디바이스(100)는 오디오 인풋 센싱 유닛(140)을 통해 오디오 인풋을 디텍트할 수 있다. 이때, 상술한 바와 같이, 웨어러블 디바이스(100)는 오디오 인풋 센싱 유닛(140)에 기초하여 제 1 인터렉션을 디텍트할 수 있으며, 이는 상술한 바와 같다. 즉, 웨어러블 디바이스(100)는 오디오 인풋 센싱 유닛(140)을 통해 리얼 오브젝트 및 리얼 오브젝트의 인터렉션을 디텍트할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, 일 예로, 오디오 인풋 센싱 유닛(140)은 음성 인식 센서를 포함할 수 있다.
또한, 웨어러블 디바이스(100)는 옵셔널한 구성으로 스토리지 유닛(150)을 더 포함할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 어드레스 인포메이션을 스토리지 유닛(150)에 저장할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 네임카드 인포메이션을 스토리지 유닛(150)에 저장할 수 있다. 또한, 스토리지 유닛(150)은 동영상, 오디오, 이미지, 애플리케이션 등 다양한 디지털 데이터를 저장할 수 있다. 또한, 일 예로, 스토리지 유닛(150)은 프로세서(170)의 제어를 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. 스토리지 유닛(110)은 플래쉬 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 데이터 저장 공간을 포함할 수 있다. 즉, 스토리지 유닛(150)은 데이터 또는 인포메이션을 저장할 수 있는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 웨어러블 디바이스(100)는 옵셔널한 구성으로 위치 정보 수신 유닛(160)을 더 포함할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 위치 정보 수신 유닛(160)을 이용하여 웨어러블 디바이스(100)의 위치 정보를 수신할 수 있다. 이때, 상술한 바와 같이, 웨어러블 디바이스(100)는 수신된 위치 정보에 기초하여 버추얼 오브젝트의 인포메이션 속성을 설정할 수 있다. 일 예로, 인포메이션 속성은 퍼블릭 속성 및 프라이빗 속성일 수 있으며, 이는 상술한 바와 같다. 또한, 일 예로, 위치 정보 수신 유닛(160)은 GPS를 포함할 수 있으며, 위성을 통해 웨어러블 디바이스(100)의 위치 정보를 수신할 수 있다. 또한, 위치 정보 수신 유닛(160)은 근거리 통신망 또는 기지국 정보를 이용하여 웨어러블 디바이스(100)의 위치 정보를 수신하는 유닛일 수 있다. 즉, 위치 정보 수신 유닛(160)은 웨어러블 디바이스(100)의 위치 정보를 수신하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
프로세서(170)는 디스플레이 유닛(110), 카메라 유닛(120), 커뮤니케이션 유닛(130) 중 적어도 하나를 제어하는 유닛일 수 있다. 또한, 프로세서(160)는 옵셔널한 구성으로서, 오디오 인풋 센싱 유닛(140), 스토리지 유닛(150) 및 위치 정보 수신 유닛(160) 중 적어도 하나를 제어하는 유닛일 수 있다.
보다 상세하게는, 프로세서(170)는 카메라 유닛(120)을 이용하여 웨어러블 디바이스(100)의 전면 방향에 위치한 리얼 오브젝트를 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)가 리얼 오브젝트만을 디텍트한 경우, 프로세서(170)는 제 1 버추얼 오브젝트를 디스플레이할 수 있다.
또한, 웨어러블 디바이스(100)가 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 디텍트한 경우, 프로세서(170)는 제 2 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 제 1 버추얼 오브젝트는 제 2 버추얼 오브젝트와 다른 오브젝트일 수 있다.
또한, 일 예로, 프로세서(170)는 커뮤니케이션 유닛(130)을 이용하여 외부 디바이스(200)와 버추얼 오브젝트 인포메이션을 교환할 수 있다. 일 예로, 프로세서(170)은 리얼 오브젝트의 제 1 인터렉션에 기초하여 외부 디바이스(200)가 송신하는 버추얼 오브젝트 인포메이션에 기초하여 제 2 버추얼 오브젝트를 디스플레이할 수 있다. 이때, 프로세서(170)는 디스플레이 유닛(110)을 이용하여 버추얼 오브젝트를 디스플레이할 수 있다. 또한, 일 예로, 프로세서(170)는 오디오 인풋 센싱 유닛(140)을 이용하여 오디오 인풋에 기초하여 리얼 오브젝트의 제 1 인터렉션을 디텍트할 수 있다. 프로세서(170)가 리얼 오브젝트의 제 1 인터렉션을 디텍트한 경우, 프로세서(170)는 상술한 제 2 버추얼 오브젝트를 디스플레이할 수 있다.
또한, 일 예로, 프로세서(170)는 스토리지 유닛(150)에 어드레스 인포메이션 및 네임 카드 인포메이션 중 적어도 하나를 저장할 수 있다. 또한, 프로세서(170)는 위치 정보 수신 유닛(160)을 이용하여 웨어러블 디바이스(100)의 위치 정보를 수신할 수 있다. 이때, 프로세서(170)는 웨어러블 디바이스(100)의 위치 정보에 기초하여 디스플레이되는 버추얼 오브젝트의 인포메이션 속성을 설정할 수 있다. 또한, 일 예로, 프로세서(170)는 웨어러블 디바이스(100)의 위치 정보에 기초하여 외부 디바이스(200)로 송신하는 버추얼 오브젝트 인포메이션의 인포메이션 속성을 설정할 수 있다. 이때, 일 예로, 버추얼 오브젝트 인포메이션은 웨어러블 디바이스(100)가 버추얼 오브젝트를 디스플레이하기 위한 위해 필요한 정보일 수 있다. 즉, 프로세서(170)는 외부 디바이스(200)가 버추얼 오브젝트를 디스플레이하도록 버추얼 오브젝트와 관련된 버추얼 오브젝트 인포메이션을 송신할 수 있다. 또한, 프로세서(170)는 외부 디바이스(200)로부터 수신한 버추얼 오브젝트 인포메이션을 이용하여 버추얼 오브젝트를 디스플레이 유닛(110)에 디스플레이할 수 있다. 즉, 버추얼 오브젝트 인포메이션은 디스플레이되는 버추얼 오브젝트에 대응하는 인포메이션일수 있다.
도 11은 본 명세서의 일 실시예에 따라 웨어러블 디바이스의 제어 방법을 나타낸 도면이다.
웨어러블 디바이스(100)는 웨어러블 디바이스(100)의 전면 방향에 위치하는 리얼 오브젝트를 디텍트할 수 있다.(S1110) 이때, 도 10에서 상술한 바와 같이, 웨어러블 디바이스(100)는 카메라 유닛(120)을 이용하여 리얼 오브젝트를 디텍트할 수 있다.
다음으로, 웨어러블 디바이스(100)는 버추얼 오브젝트를 디스플레이할 수 있다.(S1120) 이때, 도 1 에서 상술한 바와 같이, 버추얼 오브젝트는 리얼 오브젝트에 연관된 비주얼 정보일 수 있다. 또한, 버추얼 오브젝트는 디스플레이 유닛(110)에 의해 유저에게 제공되는 그래픽 유저 인테이스일 수 있다. 또한, 디스플레이 유닛(110)은 증강 현실 기술을 이용하여 버추얼 오브젝트를 디스플레이할 수 있다.
다음으로, 웨어러블 디바이스(100)가 리얼 오브젝트만을 디텍트한 경우, 웨어러블 디바이스(100)는 제 1 버추얼 오브젝트를 디스플레이할 수 있다.(S1130) 또한, 웨어러블 디바이스(100)가 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 디텍트한 경우, 웨어러블 디바이스(100)는 제 2 버추얼 오브젝트를 디스플레이할 수 있다.(S1140) 이때, 도 3에서 상술한 바와 같이, 제 1 버추얼 오브젝트와 제 2 버추얼 오브젝트는 서로 다른 버추얼 오브젝트일 수 있다. 또한, 제 2 버추얼 오브젝트는 외부 디바이스(100)가 송신하는 버추얼 오브젝트 인포메이션에 기초하여 디스플레이되는 버추얼 오브젝트일 수 있다. 즉, 웨어러블 디바이스(100)는 리얼 오브젝트만을 디텍트하는 경우와 리얼 오브젝트 및 리얼 오브젝트의 제 1 인터렉션을 모두 디텍트하는 경우 다른 버추얼 오브젝트를 디스플레이할 수 있다.
나아가, 설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 명세서에 따른 웨어러블 디바이스(100) 및 그 제어 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 명세서의 웨어러블 디바이스(100) 및 제어 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한, 인터넷을 통한 송신 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 명세서의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
그리고 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
100 : 웨어러블 디바이스
110 : 디스플레이 유닛
120 : 카메라 유닛
130 : 커뮤니케이션 유닛
140 : 오디오 인풋 센싱 유닛
150 : 스토리지 유닛
160 : 위치 정보 수신 유닛
170 : 프로세서
200 : 외부 디바이스
210 : 디스플레이 유닛
220 : 카메라 유닛
230 : 커뮤니케이션 유닛
240 : 오디오 인풋 센싱 유닛
250 : 스토리지 유닛
260 : 위치 정보 수신 유닛
270 : 프로세서

Claims (20)

  1. 웨어러블 디바이스에 있어서,
    버추얼 오브젝트를 디스플레이하는 디스플레이 유닛;
    웨어러블 디바이스의 전면 방향으로부터 리얼 오브젝트를 디텍트하는 제 1 카메라 유닛;
    상기 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트 인포메이션을 외부 디바이스로 송신하고, 제 2 버추얼 오브젝트 인포메이션을 상기 외부 디바이스로부터 수신하는 커뮤니케이션 유닛; 및
    상기 디스플레이 유닛, 상기 제 1 카메라 유닛 및 상기 커뮤니케이션 유닛을 제어하는 상기 프로세서를 포함하는 웨어러블 디바이스로써,
    상기 프로세서는,
    상기 리얼 오브젝트를 디텍트한 경우, 상기 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트를 디스플레이하고,
    상기 리얼 오브젝트 및 제 1 인터렉션을 디텍트한 경우, 제 2 버추얼 오브젝트를 디스플레이하되,
    상기 제 2 버추얼 오브젝트는 상기 외부 디바이스가 송신하는 상기 제 2 버추얼 오브젝트 인포메이션에 기초하여 디스플레이되는 버추얼 오브젝트인, 웨어러블 디바이스.
  2. 제 1 항에 있어서,
    상기 프로세서는,
    상기 디텍트된 리얼 오브젝트에 기초하여 제 1 트리거링 신호를 상기 외부 디바이스로 송신하고, 상기 외부 디바이스가 상기 제 1 트리거링 신호에 기초하여 송신하는 제 2 트리거링 신호를 수신하면 상기 제 1 인터렉션을 디텍트하는, 웨어러블 디바이스.
  3. 제 2 항에 있어서,
    상기 웨어러블 디바이스는 오디오 인풋을 디텍트하는 오디오 인풋 센싱 유닛을 더 포함하고,
    상기 프로세서는,
    상기 디텍트된 리얼 오브젝트의 제 1 오디오 인풋을 디텍트하면 상기 제 1 트리거링 신호를 상기 외부 디바이스로 송신하는, 웨어러블 디바이스.
  4. 제 3 항에 있어서,
    상기 외부 디바이스는 상기 웨어러블 디바이스를 착용한 유저의 제 2 오디오 인풋을 디텍트하면 상기 제 2 트리거링 신호를 상기 웨어러블 디바이스로 송신하는, 웨어러블 디바이스.
  5. 제 2 항에 있어서,
    상기 제 1 카메라 유닛은 제스처 인풋을 더 디텍트하고,
    상기 프로세서는,
    상기 리얼 오브젝트의 제 1 제스처 인풋을 디텍트하면 상기 제 1 트리거링 신호를 상기 외부 디바이스로 송신하는, 웨어러블 디바이스.
  6. 제 5 항에 있어서,
    상기 외부 디바이스는 상기 웨어러블 디바이스를 착용한 유저의 제 2 제스처 인풋을 디텍트하면 상기 제 2 트리거링 신호를 상기 웨어러블 디바이스로 송신하는, 웨어러블 디바이스.
  7. 제 1 항에 있어서,
    상기 제 1 카메라 유닛은 상기 외부 디바이스에 포함된 제 2 카메라 유닛의 전면 방향을 더 디텍트하고,
    상기 프로세서는,
    상기 제 2 카메라 유닛의 전면 방향이 상기 제 1 카메라 유닛의 전면 방향과 마주보는 방향이면 상기 제 1 인터렉션을 디텍트하는, 웨어러블 디바이스.
  8. 제 1 항에 있어서,
    상기 프로세서는,
    상기 리얼 오브젝트 및 상기 제 1 인터렉션을 디텍트한 경우, 상기 제 1 버추얼 오브젝트 인포메이션을 상기 외부 디바이스로 송신하는, 웨어러블 디바이스.
  9. 제 8 항에 있어서,
    상기 웨어러블 디바이스는 어드레스 인포메이션을 저장하는 스토리지 유닛을 더 포함하고,
    상기 프로세서는,
    상기 디텍트된 리얼 오브젝트가 기저장된 제 1 어드레스 인포메이션에 대응되는 오브젝트인 경우, 상기 제 1 어드레스 인포메이션에 기초하여 제 3 버추얼 오브젝트 인포메이션을 상기 외부 디바이스로 더 송신하고,
    상기 디텍트된 리얼 오브젝트가 기저장된 제 2 어드레스 인포메이션에 대응되는 오브젝트인 경우, 상기 제 2 어드레스 인포메이션에 기초하여 제 4 버추얼 오브젝트 인포메이션을 상기 외부 디바이스로 더 송신하는, 웨어러블 디바이스.
  10. 제 8 항에 있어서,
    상기 웨어러블 디바이스는 상기 웨어러블 디바이스의 위치 정보를 수신하는 위치 정보 수신 유닛을 더 포함하는, 웨어러블 디바이스.
  11. 제 10 항에 있어서,
    상기 수신된 위치 정보에 기초하여 상기 웨어러블 디바이스가 제 1 위치에 위치함을 디텍트한 경우, 상기 웨어러블 디바이스는 제 1 인포메이션 속성을 갖는 상기 제 1 버추얼 오브젝트 인포메이션을 상기 외부 디바이스로 송신하고,
    상기 수신된 위치 정보에 기초하여 상기 웨어러블 디바이스가 제 2 위치에 위치함을 디텍트한 경우, 상기 웨어러블 디바이스는 제 2 인포메이션 속성을 갖는 상기 제 1 버추얼 오브젝트 인포메이션을 상기 외부 디바이스로 송신하되,
    상기 제 1 인포메이션 속성과 상기 제 2 인포메이션 속성은 서로 다른 인포메이션 속성인, 웨어러블 디바이스.
  12. 제 11 항에 있어서,
    상기 인포메이션 속성은 퍼블릭 속성(public property) 및 프라이빗 속성(private property) 중 어느 하나인, 웨어러블 디바이스.
  13. 제 1 항에 있어서,
    상기 프로세서는,
    상기 리얼 오브젝트 및 상기 제 1 인터렉션을 디텍트하면 인포메이션 요청 신호를 상기 외부 디바이스로 송신하고,
    상기 외부 디바이스는,
    상기 인포메이션 요청 신호를 수신하면 상기 웨어러블 디바이스로 상기 제 2 버추얼 오브젝트 인포메이션을 송신하는, 웨어러블 디바이스.
  14. 제 1 항에 있어서,
    상기 웨어러블 디바이스는 네임 카드 인포메이션(name card information)을 저장하는 스토리지 유닛을 더 포함하고,
    상기 프로세서는,
    상기 디텍트된 리얼 오브젝트 및 상기 외부 디바이스로부터 수신된 제 2 버추얼 오브젝트 인포메이션을 이용하여 상기 네임 카드 인포메이션을 생성하는, 웨어러블 디바이스.
  15. 제 14 항에 있어서,
    상기 프로세서는,
    상기 리얼 오브젝트에 대응되는 제 1 네임 카드 인포메이션이 상기 스토리지 유닛에 저장되어 있는 상태에서 상기 리얼 오브젝트 및 상기 제 1 인터렉션을 디텍트한 경우, 상기 제 1 버추얼 오브젝트 인포메이션에서 업데이트된 제 3 버추얼 오브젝트 인포메이션을 상기 외부 디바이스로 송신하는, 웨어러블 디바이스.
  16. 제 1 항에 있어서,
    상기 프로세서는,
    상기 버추얼 오브젝트를 디스플레이하는 경우,
    상기 버추얼 오브젝트의 인포메이션 속성이 제 1 속성이면 상기 디스플레이 유닛 내의 제 1 위치에 상기 버추얼 오브젝트를 디스플레이하고,
    상기 버추얼 오브젝트의 인포메이션 속성이 제 2 속성이면 상기 디스플레이 유닛 내의 제 2 위치에 상기 버추얼 오브젝트를 디스플레이하는, 웨어러블 디바이스.
  17. 제 16 항에 있어서,
    상기 인포메이션 속성은 이름 정보, 전화 번호 정보, 이메일 정보, 주소 정보, 회사 정보 중 적어도 하나를 포함하는, 웨어러블 디바이스.
  18. 제 1 항에 있어서,
    상기 버추얼 오브젝트는 상기 디스플레이 유닛에 의해 유저에게 제공되는 그래픽 유저 인테이스이되,
    상기 디스플레이 유닛은 증강 현실 기술을 이용하여 상기 버추얼 오브젝트를 디스플레이 하는, 웨어러블 디바이스.
  19. 제 1 항에 있어서,
    상기 웨어어블 디바이스는 헤드 마운티드 디스플레이 디바이스, 스마트 렌즈 또는 스마트 와치인, 웨어러블 디바이스.
  20. 웨어러블 디바이스의 제어 방법에 있어서,
    리얼 오브젝트를 디텍트하는 단계;로서,
    상기 리얼 오브젝트를 디텍트한 경우, 상기 디텍트된 리얼 오브젝트에 기초하여 제 1 버추얼 오브젝트를 디스플레이하고,
    상기 리얼 오브젝트 및 제 1 인터렉션을 디텍트하는 단계;로서,
    상기 리얼 오브젝트 및 상기 제 1 인터렉션을 디텍트한 경우, 제 2 버추얼 오브젝트를 디스플레이하되,
    상기 제 2 버추얼 오브젝트는 상기 외부 디바이스가 송신하는 버추얼 오브젝트 인포메이션에 기초하여 디스플레이되는 오브젝트인, 웨어러블 디바이스의 제어 방법.
KR1020140099029A 2014-08-01 2014-08-01 웨어러블 디바이스 및 그 제어 방법 KR20160015972A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140099029A KR20160015972A (ko) 2014-08-01 2014-08-01 웨어러블 디바이스 및 그 제어 방법
US14/490,393 US9633477B2 (en) 2014-08-01 2014-09-18 Wearable device and method of controlling therefor using location information
PCT/KR2014/009579 WO2016017855A1 (en) 2014-08-01 2014-10-13 Wearable device and method of controlling therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140099029A KR20160015972A (ko) 2014-08-01 2014-08-01 웨어러블 디바이스 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20160015972A true KR20160015972A (ko) 2016-02-15

Family

ID=55180570

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140099029A KR20160015972A (ko) 2014-08-01 2014-08-01 웨어러블 디바이스 및 그 제어 방법

Country Status (3)

Country Link
US (1) US9633477B2 (ko)
KR (1) KR20160015972A (ko)
WO (1) WO2016017855A1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3217349A4 (en) 2014-11-07 2018-03-28 Sony Corporation Information processing device, control method, and storage medium
JP6551416B2 (ja) * 2014-11-07 2019-07-31 ソニー株式会社 情報処理システム、記憶媒体、および制御方法
US9922463B2 (en) 2015-08-07 2018-03-20 Microsoft Technology Licensing, Llc Virtually visualizing energy
US20170039986A1 (en) * 2015-08-07 2017-02-09 Microsoft Technology Licensing, Llc Mixed Reality Social Interactions
US9871546B2 (en) * 2015-09-11 2018-01-16 Panasonic Intellectual Property Corporation Of America Wearable terminal mountable on part of body of user
US9635167B2 (en) * 2015-09-29 2017-04-25 Paypal, Inc. Conversation assistance system
US10067636B2 (en) * 2016-02-09 2018-09-04 Unity IPR ApS Systems and methods for a virtual reality editor
US10069955B2 (en) * 2016-04-29 2018-09-04 Samuel Philip Gerace Cloud-based contacts management
TWI611307B (zh) * 2016-08-24 2018-01-11 李雨暹 適地性空間物件資料建立方法、顯示方法與應用系統
US10437343B2 (en) * 2017-01-06 2019-10-08 Samsung Electronics Co., Ltd. Augmented reality control of internet of things devices
US10684693B2 (en) 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof
IL252056A (en) 2017-05-01 2018-04-30 Elbit Systems Ltd Head-up display device, system and method
JP7115300B2 (ja) * 2018-12-26 2022-08-09 株式会社デンソー 画像生成装置及び画像表示システム
CN112702643B (zh) * 2019-10-22 2023-07-21 上海哔哩哔哩科技有限公司 弹幕信息显示方法、装置、移动终端

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20090003662A1 (en) * 2007-06-27 2009-01-01 University Of Hawaii Virtual reality overlay
KR101016556B1 (ko) 2010-05-06 2011-02-24 전성일 증강 현실을 이용하여 인물의 정보에 접근하기 위한 방법, 서버 및 컴퓨터 판독 가능한 기록 매체
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US8743145B1 (en) 2010-08-26 2014-06-03 Amazon Technologies, Inc. Visual overlay for augmenting reality
US9153195B2 (en) * 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
JP5614386B2 (ja) 2011-08-23 2014-10-29 ブラザー工業株式会社 ヘッドマウントディスプレイ
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9966075B2 (en) * 2012-09-18 2018-05-08 Qualcomm Incorporated Leveraging head mounted displays to enable person-to-person interactions
US20140160157A1 (en) 2012-12-11 2014-06-12 Adam G. Poulos People-triggered holographic reminders
US9390561B2 (en) * 2013-04-12 2016-07-12 Microsoft Technology Licensing, Llc Personal holographic billboard
KR102098058B1 (ko) * 2013-06-07 2020-04-07 삼성전자 주식회사 뷰 모드에서 정보 제공 방법 및 장치
US9299194B2 (en) * 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9201578B2 (en) * 2014-01-23 2015-12-01 Microsoft Technology Licensing, Llc Gaze swipe selection
US10529359B2 (en) * 2014-04-17 2020-01-07 Microsoft Technology Licensing, Llc Conversation detection

Also Published As

Publication number Publication date
US20160035135A1 (en) 2016-02-04
US9633477B2 (en) 2017-04-25
WO2016017855A1 (en) 2016-02-04

Similar Documents

Publication Publication Date Title
KR20160015972A (ko) 웨어러블 디바이스 및 그 제어 방법
US20210407203A1 (en) Augmented reality experiences using speech and text captions
US11353707B2 (en) Method and apparatus for processing screen using device
EP3237991B1 (en) Communication system comprising head wearable devices
CA2913650C (en) Virtual object orientation and visualization
KR102063076B1 (ko) 모바일 디바이스, 헤드 마운트 디스플레이 및 제어 방법
US8558759B1 (en) Hand gestures to signify what is important
US9536350B2 (en) Touch and social cues as inputs into a computer
US9298970B2 (en) Method and apparatus for facilitating interaction with an object viewable via a display
US11297224B2 (en) Automated eyewear device sharing system
EP2984540A1 (en) Personal holographic billboard
KR20150140043A (ko) 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
US20230068730A1 (en) Social connection through distributed and connected real-world objects
JP2020154569A (ja) 表示装置、表示制御方法、及び表示システム
Kumar et al. Google glasses impediments
US11580300B1 (en) Ring motion capture and message composition system
CN116583841A (zh) 使用超声信号触发协作增强现实环境
US11087559B1 (en) Managing augmented reality content associated with a physical location
KR102262019B1 (ko) 네트워크 속도 반응형 확장현실(xr) 커뮤니케이션 방법 및 시스템
US20220269889A1 (en) Visual tag classification for augmented reality display
US20230069328A1 (en) Snapshot messages for indicating user state
KR20210136659A (ko) 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법
KR20240049836A (ko) 전자 안경류 디바이스들에 대한 스캔 기반 메시징
KR20240051260A (ko) 사용자 상태를 나타내기 위한 스냅샷 메시지들
CN117940878A (en) Establishing social connections through distributed and connected real world objects

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application