KR102138533B1 - 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법 - Google Patents
헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법 Download PDFInfo
- Publication number
- KR102138533B1 KR102138533B1 KR1020157006207A KR20157006207A KR102138533B1 KR 102138533 B1 KR102138533 B1 KR 102138533B1 KR 1020157006207 A KR1020157006207 A KR 1020157006207A KR 20157006207 A KR20157006207 A KR 20157006207A KR 102138533 B1 KR102138533 B1 KR 102138533B1
- Authority
- KR
- South Korea
- Prior art keywords
- hmd
- physical
- mode
- delete delete
- distance
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/34—Graphical or visual programming
Abstract
본 발명은, HMD 사용자 인터페이스(UI)를 제공하는 장치 및 방법에 관한 것이다. 특히, 본 발명은 HMD에 제공되는 최적의 사용자 인터페이스(UI)를 결정하기 위한 장치 및 방법에 관한 것이다. 본 발명의 HMD UI 제공 장치 및 방법은, HMD 주변에 UI에 활용가능한 오브젝트가 존재하는 경우는 물리적 UI (Physical UI) 모드를 적용하고, HMD 주변에 UI에 활용가능한 오브젝트가 존재하지 않는 경우는 비물리적 UI (non-Physical UI) 모드를 적용하는 것을 특징으로 한다. 또한, 본 발명의 HMD UI 제공 장치 및 방법은, 물리적 UI 모드를 적용하는 경우에도, 시야각 및 오브젝트 타입을 더 판단하여, 상기 판단결과 시야각밖에 오브젝트가 존재하거나 또는 검출된 오브젝트가 UI 모드에 활용가능한 오브젝트 타입이 아닌 경우에는 비물리적 UI (non-Physical UI) 모드로 변경 적용하는 것을 특징으로 한다.
Description
본 발명은 사용자 인터페이스(User Interface or User Experience, 이하 'UI')를 제공하는 장치 및 방법에 관한 것이다. 특히, 본 발명은 헤드 마운트 디스플레이(Head Mounted Display, 이하 'HMD')에 최적의 사용자 인터페이스(UI)를 결정하고 제공하는 장치 및 방법에 관한 것이다.
사용자 인터페이스(UI) 기술은, 다양한 디지털 디바이스(digital device)를 사용자(user)가 편리하게 사용가능하도록 하는 인터페이스 수단을 의미한다. 상세하게는, 사용자 인터페이스(UI) 기술은 사용자와 디지털 디바이스가 정보를 주고받기 위해 사용자와 프로그램이 상호 작용하는 프로그램의 일부분을 의미한다. 예를 들어, 사용자가 키보드(key board)에서 명령을 입력하여 프로그램을 작동시키는 것을 커맨드 라인 인터페이스(commandline interface)라고 하고, 메뉴 선택에 의한 명령으로 작동시키는 것을 메뉴 방식 인터페이스(menudriven interface)라고 하며, 광 펜, 마우스, 컨트롤 볼, 조이스틱 등의 위치 지정 도구를 사용하여 도형 표시 프로그램을 작동시키는 것을 그래픽 사용자 인터페이스(GUI)라고 한다. 또한 최근에는 사용자 동작을 명령으로 인식하여 동작하는 제스쳐(gesture) UI, 사용자 동작이 없어도 음성인식만으로 동작하는 음성인식(voice recognizer) UI 등이 개발되어 디지털 디바이스에 적용중이다.
또한, 최근에는 디지털 디바이스의 경량화 및 소형화 추세에 따라, 다양한 웨어러블 디지털 디바이스(Wearable Digital Device)가 개발되고 있는 실정이다. 상기 웨어러블 디지털 디바이스의 일종으로서, 머리에 안경처럼 착용가능한 헤드 마운트 디스플레이(HMD)가 개발되고 있다. 상기 HMD는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합 되어 유저에게 다양한 편의를 제공하는 것이 가능하다.
관련하여, 상기 HMD 에도 전술한 다양한 UI 기술이 적용 가능하다. 그러나, HMD는 사용자가 머리에 착용하여 자유롭게 이동가능하다는 특징이 있어, 최적의 UI 선택에 어려움이 존재한다. 따라서, HMD 사용 특성 및 주변 환경을 고려한 가장 효율적이고 편리한 UI를 제공하는 기술이 요구된다.
본 발명은 HMD UI를 제공함에 있어서, HMD 주변 환경을 고려하여 최적의 HMD UI를 제공하는 것을 목적으로 한다. 특히, 본 발명은 HMD 주변에 HMD UI에 활용가능한 오브젝트가 존재하는 지에 따라 HMD UI를 달리 적용하는 것을 목적으로 한다.
또한, 본 발명은 사용중인 HMD의 주변 환경에 따라 최적의 HMD UI가 변경되어 제공되는 것을 목적으로 한다.
상기와 같은 목적을 달성하기 위해, 본 발명의 HMD UI 제공 장치 및 방법은, HMD 주변에 UI에 활용가능한 오브젝트가 존재하는 경우는 물리적 UI (Physical UI) 모드를 적용하고, HMD 주변에 UI에 활용가능한 오브젝트가 존재하지 않는 경우는 비물리적 UI (non-Physical UI) 모드를 적용하는 것을 특징으로 한다.
또한, 본 발명의 HMD UI 제공 장치 및 방법은, 물리적 UI 모드를 적용하는 경우에도, 시야각 및 오브젝트 타입을 더 판단하여, 상기 판단결과 시야각밖에 오브젝트가 존재하거나 또는 검출된 오브젝트가 UI 모드에 활용가능한 오브젝트 타입이 아닌 경우에는 비물리적 UI (non-Physical UI) 모드로 변경 적용하는 것을 특징으로 한다.
또한, 본 발명의 HMD UI 제공 장치 및 방법은, 상기 시야각밖에 오브젝트가 존재하는 경우라도 기정의된 설정시간내에 시야각내로 상기 오브젝트가 복귀하는 경우에는 물리적 UI (Physical UI) 모드를 유지하는 것을 특징으로 한다. 반면, 상기 시야각밖에 오브젝트가 존재하고, 기정의된 설정시간내에도 시야각내로 상기 오브젝트가 복귀하지 않는 경우에는, 계속 비물리적 UI (Physical UI) 모드를 유지하는 것을 또 다른 특징으로 한다.
또한, 본 발명의 HMD UI 제공 장치 및 방법은, 상기 시야각밖에 오브젝트가 존재하는 경우라도, 특정시간내에 새로운 디지털 디바이스가 기준거리내에서 검출되면 상기 디지털 디바이스의 디스플레이 수단을 물리적 UI (Physical UI) 모드로 활용하는 것을 특징으로 한다.
또한, 본 발명의 HMD UI 제공장치는, HMD 주변의 오브젝트를 검출하고 검출된 오브젝트와 HMD간의 위치를 센싱하는 센서 유닛과, 상기 센서 유닛의 센싱 결과로부터 HMD UI를 제어하는 프로세서를 포함하는 것을 특징으로 한다.
또한, HMD UI 제공장치는, 적어도 물리적 UI (Physical UI) 모드 및 비물리적 UI (non-Physical UI) 모드중 어느 하나를 HMD UI로 구동하는 UI 제어부(170)와, HMD 주변의 디지털 디바이스와 통신을 수행하는 통신 유닛(140)을 더 포함하는 것을 특징으로 한다.
또한, HMD UI 제공장치는, 디스플레이(101) 및 상기 디스플레이를 제어하는 디스플레이 제어부(160), HMD 제어 프로그램 및 컨텐츠를 저장하는 스토리지(130)와, 사용자 제어 정보를 입력 받는 사용자 입력 유닛(150)을 더 포함하는 것을 특징으로 한다.
본 발명에 따르면, HMD 주변 환경 및 사용 특성에 맞는 최적의 UI를 제공하는 것이 가능하게 된다. 또한, 사용중인 HMD의 주변 환경에 따라 최적의 HMD UI가 변경되어 제공하는 것이 가능하게 된다. 또한, 본 발명은 HMD 주변에 UI에 활용가능한 오브젝트가 존재하는 지에 따라 최적의 HMD UI를 제공하는 것이 가능하게 된다.
도 1a ~ 도 1b는 본 발명에 적용되는 헤드 마운트 디스플레이(HMD)를 설명하기 위한 도면.
도 2는 본 발명에 적용가능한 헤드 마운트 디스플레이(HMD) 내부구성을 도시한 블록도.
도 3 ~ 도 4 는 본 발명의 제1 실시예로서, 오브젝트 위치에 따른 UI모드 결정 방법을 도시한 흐름도.
도 5a ~ 도5c 는 본 발명의 제1 실시예에 적용된 상태를 설명하기 위한 도면.
도 6a ~ 도6b 는 본 발명에 적용되는 물리적 UI 모드 (예, 키보드, 드로잉)의 일 예를 도시한 도면.
도 7a ~ 도7b 는 본 발명에 적용되는 비물리적 UI 모드 (예, 음성인식, 제스쳐)의 일 예를 도시한 도면.
도 8 ~ 도 9 는 본 발명의 제2 실시예로서, HMD 시야각을 고려한 UI모드 결정 방법을 도시한 흐름도.
도 10a ~ 도10b 는 본 발명의 제2 실시예에 적용된 상태를 설명하기 위한 도면.
도 11 ~ 도 12 는 본 발명의 제3 실시예로서, 오브젝트 타입(type)을 고려한 UI모드 결정 방법을 도시한 흐름도.
도 13a ~ 도13b 는 본 발명의 제3 실시예에 적용되는 상태를 설명하기 위한 도면.
도 14 ~ 도 15 은 본 발명의 제4 실시예로서, 시야각내 디지털 디바이스를 활용한 UI모드 결정 방법을 도시한 흐름도.
도 16 은 본 발명의 제4 실시예에 적용되는 상태를 설명하기 위한 도면.
도 17 ~ 도 18 은 본 발명의 제5 실시예로서, 디지털 디바이스를 활용한 UI모드 결정 방법을 도시한 흐름도.
도 19a ~ 도 19b 는 버추얼 3D 오브젝트를 디스플레이하는 하나의 터치 인식 서피스를 포함한 HMD를 설명하는 도면.
도 20a ~ 도 20b 는 버추얼 3D 오브젝트를 디스플레이하는 복수의 터치 인식 서피스를 포함한 HMD를 설명하는 도면.
도 21a ~ 도 21f 는 버추얼 3D 오브젝트를 디스플레이하는 사용자의 제스처에 기초한 복수의 터치 인식 서피스를 포함한 HMD를 설명하는 도면.
도 22 는 일 실시예에 따른 HMD에서 사용자 인터페이스를 제공하는 방법을 도시한 흐름도.
도 23 은 다른 실시예에 따른 HMD에서 사용자 인터페이스를 제공하는 방법을 도시한 흐름도.
도 2는 본 발명에 적용가능한 헤드 마운트 디스플레이(HMD) 내부구성을 도시한 블록도.
도 3 ~ 도 4 는 본 발명의 제1 실시예로서, 오브젝트 위치에 따른 UI모드 결정 방법을 도시한 흐름도.
도 5a ~ 도5c 는 본 발명의 제1 실시예에 적용된 상태를 설명하기 위한 도면.
도 6a ~ 도6b 는 본 발명에 적용되는 물리적 UI 모드 (예, 키보드, 드로잉)의 일 예를 도시한 도면.
도 7a ~ 도7b 는 본 발명에 적용되는 비물리적 UI 모드 (예, 음성인식, 제스쳐)의 일 예를 도시한 도면.
도 8 ~ 도 9 는 본 발명의 제2 실시예로서, HMD 시야각을 고려한 UI모드 결정 방법을 도시한 흐름도.
도 10a ~ 도10b 는 본 발명의 제2 실시예에 적용된 상태를 설명하기 위한 도면.
도 11 ~ 도 12 는 본 발명의 제3 실시예로서, 오브젝트 타입(type)을 고려한 UI모드 결정 방법을 도시한 흐름도.
도 13a ~ 도13b 는 본 발명의 제3 실시예에 적용되는 상태를 설명하기 위한 도면.
도 14 ~ 도 15 은 본 발명의 제4 실시예로서, 시야각내 디지털 디바이스를 활용한 UI모드 결정 방법을 도시한 흐름도.
도 16 은 본 발명의 제4 실시예에 적용되는 상태를 설명하기 위한 도면.
도 17 ~ 도 18 은 본 발명의 제5 실시예로서, 디지털 디바이스를 활용한 UI모드 결정 방법을 도시한 흐름도.
도 19a ~ 도 19b 는 버추얼 3D 오브젝트를 디스플레이하는 하나의 터치 인식 서피스를 포함한 HMD를 설명하는 도면.
도 20a ~ 도 20b 는 버추얼 3D 오브젝트를 디스플레이하는 복수의 터치 인식 서피스를 포함한 HMD를 설명하는 도면.
도 21a ~ 도 21f 는 버추얼 3D 오브젝트를 디스플레이하는 사용자의 제스처에 기초한 복수의 터치 인식 서피스를 포함한 HMD를 설명하는 도면.
도 22 는 일 실시예에 따른 HMD에서 사용자 인터페이스를 제공하는 방법을 도시한 흐름도.
도 23 은 다른 실시예에 따른 HMD에서 사용자 인터페이스를 제공하는 방법을 도시한 흐름도.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 아닌 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
도 1a ~ 도 1b는 본 발명에 적용되는 헤드 마운트 디스플레이(HMD)를 설명하기 위해 예시적으로 도시한 도면이다. 구체적으로, 도 1a는 HMD(100)의 외관적 구성에 대한 일 예를 도시한 것이고, 도 1b는 사용자(10)가 HMD(100)를 착용한 일 예를 도시한 것이다. 관련하여, 본 발명은 HMD(100)의 외관적 구성에 제한받지 않으며, 어떠한 외관적 구성을 가지는 HMD 라도 본 발명의 구현을 위해 작용가능 함은 자명하다.
특히, 본 발명의 UI가 적용되는 도 1a의 HMD(100)는 디스플레이 화면(101) 및 적어도 하나 이상의 센서(102)를 구비하는 것을 특징으로 한다. 상기 디스플레이 화면(101)을 통해 HMD에서 제공하는 각종 컨텐츠 및 이미지를 사용자(10)에게 제공함은 물론, 본 발명과 관련한 UI에 대한 정보를 제공하게 된다. 또한, HMD(100)는 적어도 하나 이상의 센서(102)를 구비하여, HMD(100) 주변 환경을 검출하게 되며, 이러한 센서 동작은 후술할 HMD UI를 결정하는 주요 요소로 활용된다. 이에 대해서는 상세히 후술할 것이다. 또한, HMD(100)는 사용자(10)의 머리에 안전하게 착용하기 위한 지지수단(103)과 사용자(10)의 귀에 착용가능한 오디오 출력 유닛(104)을 더 구비하는 것이 가능하다.
도 1b는 상기 HMD(100) 사용 상태를 설명하기 위해, HMD(100)를 착용한 사용자(10)를 도시한 것이다. 후술할 본 발명의 실시예에 따르면, HMD(100)는 기 설정된 범위의 시야각 영역(200)을 가질 수 있다. 상기 시야각 영역(200)은 HMD(100)를 착용한 사용자(10)의 시야에 대응하는 기 설정된 영역으로서, HMD(100)의 전방 방향으로 일정한 각도 범위의 구간을 포함할 수 있다. 또한, 본 발명의 실시예에 따르면, HMD(100)와 외부의 디지털 디바이스(미도시)는 네트워크(300)을 통해 통신 가능하도록 연결되어 있다. 상기 네트워크(300)는 다양한 형태의 유선 또는 무선 네트워크를 포함할 수 있으며, 예를 들어, 사용 가능한 무선 네트워크로는 NFC(Near Field Communication), Zigbee, 적외선 통신, 블루투스, 와이파이 등이 될 수 있다 즉, 본 발명에서 HMD(100)와 디지털 디바이스간의 통신은 앞서 열거된 네트워크(300) 중 어느 하나를 이용하여 이루어질 수도 있으며, 또는 이들 간의 조합을 통하여 이루어질 수도 있다. 단, 본 발명은 이에 한정되지는 않는다.
도 2는 HMD 내부 구성 블록도를 도시한 것이다.
도 2를 참조하면, 본 발명의 HMD(100)는 프로세서(110, processor), 센서 유닛(120, sensor unit), 스토리지(130, storage), 통신 유닛(140, communication unit), 사용자 입력 유닛(150, user input unit), 디스플레이 제어부(160, display controller), UI 제어부(170, UI controller)를 포함할 수 있다.
상기 센서 유닛(120)은 HMD(100) 내외부에 장착되어, 상기 HMD가 인식하는 주변환경의 상태를 프로세서(110)로 전달할 수 있다. 이때, 상기 센서 유닛(120)은 복수의 센싱 수단을 포함할 수 있다. 예를 들어, 상기 센서 유닛(120)은, HMD 주변의 물체 또는 물건(이하, '오브젝트(object)'로 통칭한다)을 검출함은 물론, 상기 검출된 오브젝트의 타입(type)을 확인하고, 또한 검출된 오브젝트와 HMD와의 거리를 센싱하는 오브젝트 센서(121)을 포함할 수 있다. 또한, 상기 센서 유닛(120)은, 상기 HMD(100)의 시야각을 센싱하는 시야각 센서(122)를 포함할 수 있다. 상기 오브젝트 센서(121)와 시야각 센서(122)의 구체적인 기능 및 동작에 대해서는 상세히 후술할 예정이다. 관련하여, 상기 센서 유닛(120)은, 예를 들어, 도 1a의 도면부호 '102'와 같이 HMD 외관적으로도 인식가능하게 구비하는 것도 가능하다.
또한, 상기 센서 유닛(120)을 구성하는 복수의 센싱 수단으로는, 예를 들어, 중력(gravity) 센서, 지자기 센서, 모션 센서, 자이로 센서, 가속도 센서, 적외선 센서, 기울임(inclination) 센서, 밝기 센서, 고도 센서, 후각 센서, 온도 센서, 뎁스 센서, 압력 센서, 밴딩 센서, 오디오 센서, 비디오 센서, GPS(Global Positioning System) 센서, 터치 센서 등의 센싱 수단을 포함할 수 있다. 단 , 본 발명은 이에 한정되는 것은 아니다. 즉, 상기 센서 유닛(120)은 HMD 사용자 및 주변환경을 센싱하여, 프로세서(110)가 그에 따른 작동을 수행할 수 있도록 센싱 결과를 전달할 수 있는 것으로 충분하며, 센서 유닛(120)의 구체적인 센싱 수단 방법은 상술한 센싱 수단 방법중 어느 하나에만 특정되는 것은 아니다.
또한, 상기 스토리지(130)는, 비디오, 오디오, 사진, 동영상, 애플리케이션 등 다양한 디지털 데이터를 저장할 수 있다. 상기 스토리지(130)는 플래시 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 데이터 저장 공간을 나타낸다.
또한, 상기 통신유닛(140)은 외부 디지털 디바이스(device)와 다양한 프로토콜을 사용하여 통신을 수행하여 데이터를 송/수신할 수 있다. 또한, 통신유닛(140)은 유선 또는 무선으로 네트워크(300)에 접속하여, 컨텐츠 등의 디지털 데이터를 송/수신할 수 있다. 본 발명에서 HMD(100)는 통신유닛(140)을 이용하여 주변의 디지털 디바이스와 페어링 및 통신 접속을 수행할 수 있으며, 상기 접속된 디지털 디바이스와 데이터를 송/수신할 수 있다. 한편, 상기 통신유닛(140)은 복수의 안테나를 포함할 수 있다. 상기 HMD(100)는 복수의 안테나를 이용하여, HMD(100)와 통신 접속된 디지털 디바이스의 위치 상태를 검출할 수 있다. 즉, HMD(100)에 구비된 복수의 안테나를 통해 각각 송/수신되는 신호의 시간차, 위상차 등을 이용하여, HMD(100)와 접속된 디지털 디바이스간의 위치 관계를 검출하는 것이 가능하게 된다.
또한, 사용자 입력유닛(150, user input unit)은, 상기 HMD(100) 사용을 제어하는 사용자 제어(control) 명령을 입력받는 수단을 의미한다. 상기 사용자 제어 명령은 사용자 설정(configuration) 명령을 포함할 수 있다. 예를 들어, 본 발명 실시예와 관련하여, 사용자(10)는 상기 사용자 제어정보 입력유닛(150)을 활용하여, HMD UI가 주변 환경에 연동하여 동작하도록 설정하거나 또는 주변환경에 상관없이 특정 UI모드로 고정하여 사용하도록 미리 사용설정하는 것이 가능하다. 따라서, 사용 설정에 따라, HMD UI가 주변 환경에 연동하여 동작하도록 설정된 경우에는, 후술할 본 발명의 실시예들에 따라 주변 환경에 연동하여 UI 모드가 자동 변경되는 것이 가능하게 된다. 반면, 사용 설정에 따라, 주변환경에 상관없이 특정 UI모드로 고정된 경우에는 해당 UI모드를 사용할 수 있는 환경에서는 UI모드 온(on) 상태로 동작하고, 사용할 수 없는 환경에서는 UI모드 오프(off) 상태로 동작하게 된다.
또한, 디스플레이 제어부(160)는 HMD 디스플레이 화면(101)에 영상 또는 이미지를 출력한다. 또한, 실시예에 따라서는 상기 디스플레이 제어부(160)는 HMD 외부 오브젝트에 가상의 UI 화면을 제공하거나, 또는 외부 디지털 디바이스에 UI 화면을 제공하기 위한 제어 기능을 수행한다. 또한, 본 발명의 실시예에 따르면 디스플레이 제어부(160)는 HMD 디스플레이 화면(101)에 UI 결정을 위한 정보를 제공하거나, 결정된 UI에 따른 이미지를 제공하게 된다. 이에 대해서는 상세히 후술할 예정이다.
또한, UI 제어부(170, UI controller)는, HMD 사용자에게 UI를 제공하고, 제공된 UI를 제어하는 역활을 수행한다. UI 제어부(170)는 물리적 UI 제어부(171, physical UI controller)와 비물리적 UI 제어부(172, non-physical UI controller)를 포함한다.
상기 물리적 UI 제어부(171)는, 사용자가 물리적으로 접촉가능한 수단을 이용하는 UI를 의미하는 바, 예를 들어, '가상 키보드(virtual keyboard)' UI, '드로잉(drawing)' UI 등이 일 예가 될 수 있다. 상기 '가상 키보드' UI 란, HMD 주변에 검출된 오브젝트 표면에 가상의 키보드 화면을 디스플레이하고, 사용자의 키보드 터치(touch)에 따라 명령을 입력받고 동작하는 UI 방식을 의미한다. 또한, 상기 '드로잉' UI란, HMD 주변에 검출된 오브젝트 표면에 가상의 드로잉 패널을 제공하고, 사용자가 드로잉 가능한 입력수단(예, 전자펜, 손가락 등)으로 상기 드로잉 패널상에 명령을 입력하는 UI 방식을 의미한다. 또한, 상기 비물리적 UI 제어부(172)는, 사용자가 특정 오브젝트와의 물리적 접촉없는 상태에서 적용되는 UI를 의미하는 바, 예를 들어, '제스쳐(gesture)'UI, '음성인식(voice recognizer)'UI 등이 일 예가 될 수 있다. 관련하여, 상기 UI 방식에 대해서는 상세히 후술할 예정이다.
관련하여, 본 발명에서 설명하는 물리적 UI 및 비물리적 UI는 특정의 UI 방식으로, 전술한 '가상 키보드', '드로잉', '제스쳐', '음성인식' UI에만 한정되는 것은 아니다. 즉, 물리적 UI는 오브젝트에 접촉하여 사용가능한 모든 UI방식을 통칭하여 적용하는 의미이고, 비물리적 UI는 오브젝트에 접촉없이 (또는 오브젝트와 상관없이) 사용되는 모든 UI방식을 통칭하는 의미이다.
상기 프로세서(110)는 HMD 메인 제어부(main controller)로서, 상술한 HMD(100)의 각 블록들을 제어할 뿐만 아니라 각 블록들 상호간의 정보 및 데이터 송수신을 제어하게 된다. 이하, 후술할 본 발명의 상세한 실시예들은 상기 프로세서(110)의 제어 동작을 중심으로 구현될 수 있다. 관련하여, 도 2에 도시된 HMD(100) 내부 구성 블록도는 설명의 편의를 위해서 예시로서 도시한 것이다. 따라서, 도 2에 도시된 각 블록들은, 실제 설계에 있어서는 하나의 블록으로 통합하여 구성하거나 또는 필요한 복수의 블록만으로 분리하여 구성하는 것이 모두 가능하다 할 것이다. 예를 들어, 프로세서(110)는 UI 제어부(170)dmf 포함한 하나의 컨트롤러(controller)로 구성하는 것이 가능하다.
도 3 ~ 도 4 는 본 발명의 일 실시예로서, 오브젝트(object) 위치에 따른 HMD UI모드 결정 방법을 도시한 흐름도이다. 또한, 도 5a ~ 도 5c, 도 6a ~ 도 6b, 및 도 7a ~ 도 7b는 상기 실시예를 설명하기 위해 도시한 도면이다.
본 발명에서 오브젝트(object)란, HMD를 착용한 사용자 주변에 존재하는 유형의 물체 또는 물건으로서, 예를 들어, 벽(wall), 테이블(table), 공(ball) 등이 이에 해당될 수 있다. 본 발명의 제1 실시예는 HMD(100) 주변의 오브젝트 검출 여부에 따라 UI 모드를 달리 적용하는 것을 특징으로 한다. 이를 구체적으로 설명하면 다음과 같다.
HMD에 적용하기 위한 UI모드 결정 프로세스는 사용자의 요청 또는 시스템 자동 설정에 의해 동작 되어 진다(S110). 예를 들어, 단계 S110은 사용자가 설정한 환경에 따라 동작 가능하다. 구체적으로는, 예를 들어 사용자(10)는 HMD UI가 주변 환경에 연동하여 동작하도록 미리 사용설정할 수 있으며, 이 경우 상기 프로세서(110)는 HMD UI가 주변 환경에 자동으로 연동하여 변경 가능하도록 제어하게 된다. 이하, 본 발명의 실시예들은 상기와 같이 MHD UI가 주변 환경에 연동하여 동작하도록 미리 사용설정된 경우에 있어서, 최적의 HMD UI 결정방법에 대해 기재하고자 한다.
본 발명의 제1 실시예에 의한, HMD UI 모드 결정 프로세스는 오브젝트 위치판단 단계(S120)와 HMD UI 모드 결정단계(S130)로 이루어 진다. HMD UI 모드 결정 프로세스가 시작되면, HMD 프로세서(110)는 상기 오브젝트 센서(121)를 통해 HMD 주변의 오브젝트 검출 및 검출된 오브젝트의 위치를 판단하게 된다(S121). 상기 S121 판단 결과, 프로세서(110)는 HMD와 오브젝트와의 관계를 3가지 상태로 구분하게 된다.
예를 들어, 오브젝트가 검출되고 검출된 오브젝트가 물리적 피드백이 가능한 일정 거리내에 존재하는 경우를 F1 상태(F1 status)로 설정한다(S122, 도 5a). 또한, 오브젝트가 검출되었으나 검출된 오브젝트가 물리적 피드백이 불가능한 일정 거리밖에 존재하는 경우를 F2 상태(F2 status)로 설정한다(S123, 도 5b). 마지막으로, HMD 주변에 오브젝트가 존재하지 않는 경우를 F3 상태(F3 status)로 설정한다(S124, 도 5c).
상기 F1 ~ F3 상태를 도 5a ~ 도 5c를 참고하여 구체적으로 설명하면 다음과 같다. HMD(100) 프로세서(110)는 오브젝트 센서(121)를 통해 HMD 주변의 오브젝트(400)의 존재 여부 및 오브젝트의 위치를 판단하게 된다. 예를 들어, 도 5a와 도 5b는 HMD 주변에 오브젝트(400)가 검출된 경우이고, 도 5c는 오브젝트가 존재하지 않는 경우이다. 또한, 도 5a는 검출된 오브젝트(400)와 HMD간의 거리(D1)가 기설정된 일정거리(이를 '기준거리(Th)'라 한다)내에 존재하는 경우(S122)를 도시한 것이ㄷ다 반면, 도 5b는 검출된 오브젝트(400)와 HMD간의 거리(D2)가 상기 기준거리(Th)밖에 존재하는 경우(S123)를 도시한 것이다. 관련하여, 상기 기설정된 기준거리(Th)는 사용자(10)가 상기 오브젝트(400)를 물리적으로 접촉 또는 터치할 수 있는 거리로 설정될 수 있다. 따라서, 도 5a의 F1 상태는 사용자(10)가 오브젝트(400)를 손으로 터치할 수 있는 상태를 의미하고, 도 5b의 F2 상태는 오브젝트(400)가 존재하지만 사용자(10)가 오브젝트(400)를 손으로 터치할 수 없는 거리에 존재하는 상태를 의미한다. 또한, 도 5c의 F3 상태는 HMD 주변에 오브젝트(400)가 존재하지 않는 경우를 의미한다(S124).
상기 단계 S121을 통해, HMD 주변 오브젝트의 상태가 F1(S122), F2(S123), F3(S124) 중 어느 하나로 결정되면, HMD 프로세서(110)는 UI 제어부(170)를 통해 HMD UI를 선택 및 구동하게 된다. 예를 들어, F1 상태(S122)인 경우에는 전술한 물리적 UI 모드를 적용하게 되고(S131), F2 상태(S123) 또는 F3 상태(S124)인 경우에는 전술한 비물리적 UI 모드를 적용하게 된다(S132).
또한, 상기 S131, S132, S133 단계를 통해, 현재 특정 HMD UI가 적용중이더라도, 상기 프로세서(110)는 계속적으로 오브젝트 검출 및 위치 판단을 수행하여(S121), 상태 변경시 (예를들어, 'F1 --> F3 상태', 'F2 상태 --> F1 상태' 등) 자동으로 HMD UI 모드를 변경하는 것이 가능하다. 관련하여, 일 사용예에 있어서는, 상태 변경시 자동으로 UI 모드를 변경하는 대신 우선 사용자(10)에게 UI 변경 여부를 통보하여 확인하는 것도 가능하다 할 것이다.
관련하여, 상기 F1 상태에 적용되는 물리적 UI 모드는, 사용자(10)가 해당 오브젝트(400)를 직접 접촉 또는 터치하여 적용할 수 있는 UI를 의미하는 바, 예를 들어, 가상 키보드(도6a) UI 방식 또는 드로잉(도6b) UI 방식이 가능하다. 단, 이는 본 발명의 일 예에 불과하며, 상기 방식 외에도 물리적으로 접촉가능한 다양한 UI 방식이 더 존재할 수 있음은 자명하다 할 것이다.
예를 들어, 도 6a의 가상 키보드 UI 방식은, 검출된 오브젝트(400) 표면에 가상의 키보드(410)를 디스플레이 하고 사용자(10)가 직접 해당 가상 키보드(410)를 터치하여 원하는 명령을 생성하게 된다. 이때 해당 오브젝트(400)는 사용자에게 터치감을 줌으로서 사용자(10)가 가상 키보드(410)를 효율적으로 사용할 수 있도록 한다. 또한, 도 6b의 드로잉 UI 방식은, 예를 들어, 검출된 오브젝트(400) 표면에 드로잉 가능한 가상의 윈도우(420, window)를 디스플레이 하고 사용자(10)는 직접 펜(430)을 이용하여 원하는 명령을 생성하는 방식이다. 이때 해당 오브젝트(400)는 사용자에게 사용시 터치감을 줌으로서 사용자(10)가 펜(430)을 효율적으로 사용할 수 있도록 한다.
관련하여, S131단계에서 물리적 UI 모드를 HMD UI로 적용키로 결정되면, 복수의 물리적 모드 UI중 한 UI방식이 사용자 설정 또는 시스템 설정에 의해 선택되어질 것이다. 예를 들어, 사용자(10)는 사용자 입력유닛(150)을 활용하여 미리 사용자 환경설정이 가능한 바, 물리적 UI 모드로 결정시 우선적으로 가상 키보드(도6a) UI 방식 또는 드로잉(도6b) UI 방식중 어느 하나를 디폴트(default)로 적용하도록 설정하는 것이 가능하다. 또는, 상술한 사용자 환경설정이 없는 경우에는, UI 제어부(170)는, 사용자(10) 주변에 드로잉 입력이 가능한 입력 수단(예를 들어, 펜(430)등)가 존재하는 지 여부를 판단하여, 해당 입력 수단이 존재하는 경우에는 드로잉(도6b) UI 방식으로 우선적으로 선택하고, 해당 입력 수단이 존재하지 않는 경우에는 가상 키보드(도6a) UI 방식을 우선적으로 결정하는 것이 가능하다. 또한, 최초 결정된 UI 방식이 있더라도, 상황 변경이 발생하면 다른 UI 모드로의 변경도 가능하다. 예를 들어, 사용자(10)가 가상 키보드(도6a) UI 방식을 사용하는 중, 드로잉 가능한 입력 수단을 손에 쥐는 경우에는 드로잉(도6b) UI 방식으로 자동 변경하는 것이 가능하다. 또한, 최초 결정된 UI 모드에 대해 사용자는 사용자가 원하는 시점에 특정의 UI 방식으로 언제든지 재변경하는 것도 가능하다.
또한, 물리적 UI로서 도6a와 같이 가상 키보드 UI 방식을 적용하는 경우, 오브젝트 표면에 생성되는 가상 키보드(410)의 위치를 다양한 방식으로 제어할 수 있다. 이에 대해 구체적으로 설명하면 다음과 같다.
예를 들어, 가상 키보드(410)는 사용자 손(10)이 위치한 지점에서 생성될 수 있다. 즉, 상기 프로세서(110)는 오브젝트(400) 표면에 사용자 손(10)이 접근하거나 또는 터치여부를 판단하고, 해당 사용자 손(10)이 위치한 지점에 가상 키보드(410)를 생성하도록 제어하게 된다. 따라서, 사용자가 원하는 오브젝트 및 해당 오브젝트 표면의 특정 위치에 가상 키보드를 생성함으로서 사용자가 편리하게 가상 키보드를 사용하는 것을 가능하게 된다.
또한, 사용자가 한 손만 사용하는 경우와 두 손을 모두 사용하는 경우를 구별하여, 가상 키보드의 종류 및 크기를 다르게 생성하는 것도 가능하다. 예를 들어, 상기 UI 제어부(170)는 한 손용 가상 키보드(예, 작은 사이즈 키보드)와 두 손용 가상 키보드(예, 큰 사이즈 키보드)를 별도 구비해 두고, 이후 상기 프로세서(110)는 오브젝트에 접근하거나 또는 터치하는 사용자 손의 갯수를 판단하여, 상기 한 손용 가상 키보드와 두 손용 가상 키보드중 어느 하나를 생성하도록 제어하게 된다.
또한, 사용자 시야각을 고려하여 가상 키보드(410)의 위치를 결정할 수도 있다 예를 들어, 상기 프로세서(110)는 사용자가 제1 시야각 (오른쪽 눈 시야각) 및 제2 시야각 (왼쪽 눈 시야각)중 어느 하나를 사용하는 지 또는 상기 제1 및 제2 시야각 모두를 사용하는 지를 구별하여, 해당 시야각에 적합한 지점에 가상 키보드(410)가 위치할 수 있도록 제어할 수 있다. 예를 들어, 상기 해당 시야각에 적합한 지점은 하나의 시야각을 사용하는 경우에는 해당 시야각의 가운데 지점이 될 수 있고, 두 개의 시야각을 모두 사용하는 경우에는 두 시야각이 겹치는 지점이 될 수 있다.
또한, 상기 예시로서 설명한 내용을 조합하여 사용하는 것도 가능하다. 즉, 예를 들어, 상기 프로세서(110)는, 우선 가상 키보드를 활용하는 사용자 손(10)이 한 손인지 두 손인지 판단하여 가상 키보드의 종류를 결정하고, 이후, 사용자 손(10)이 접근하거나 터치한 오브젝트 표면상의 위치에 상기 결정된 가상 키보드를 생성하는 것이 가능하다. 또한, 상기 프로세서(110)는, 우선 가상 키보드를 활용하는 사용자 손(10)이 한 손인지 두 손인지 판단하여 가상 키보드의 종류를 결정하고, 이후, 사용자가 사용중인 시야각에 적합한 지점에 상기 결정된 가상 키보드를 생성하는 것이 가능하다. 또한, 상기 프로세서(110)는, 우선 가상 키보드를 활용하는 사용자 손(10)이 한 손인지 두 손인지 판단하여 가상 키보드의 종류를 결정한 다음, 사용자가 사용중인 시야각에 적합한 지점에 상기 결정된 가상 키보드를 생성하되, 이후, 사용자 손(10)이 접근하거나 터치한 오브젝트 표면상의 위치로 상기 생성된 가상 키보드를 이동하여 생성하는 것이 가능하다.
또한, 상기 프로세서(110)는, 우선 가상 키보드를 활용하는 사용자 손(10)이 한 손인지 두 손인지 판단하여 가상 키보드의 종류를 결정한 다음, 사용자 손(10)이 접근하거나 터치한 오브젝트 표면상의 위치와 사용자가 사용중인 시야각에 적합한 지점을 비교하여, 가장 바람직한 위치에 상기 결정된 가상 키보드를 생성하는 것이 가능하다. 예를 들어, 사용자 손(10)이 시야각을 벗어난 지점에 위치하는 경우에는 시야각 적합 지점에 가상 키보드를 생성할 수 있다. 이는 사용자 손(10)이 가상 키보드 사용과 관련없는 경우로 판단하기 때문이다. 반면, 사용자 손(10)이 시야각내에 존재하는 경우에는, 우선적으로 사용자 손(10)의 위치에 가상 키보드를 생성할 수 있다. 이는 사용자 손(10)이 가상 키보드를 사용하기 위해 준비중인 경우로 판단하기 때문이다.
관련하여, 상기 전술한 가상 키보드(410)의 종루 및 생성 위치에 대한 다양한 예들은, 드로잉 UI (도6b)를 위한 윈도우(420)의 종류 및 생성 위치 결정에도 동일하게 적용 가능하다.
또한, 상기 F2 상태 및 F3 상태에 적용되는 비물리적 UI 모드는, 사용자(10)가 오브젝트(400)를 물리적으로 활용하지 않는 UI를 의미하는 바, 예를 들어, 음성인식(도7a) UI 방식 또는 제스쳐(도7b) UI 방식 또는 눈동자 시선을 활용한 UI방식등이 가능하다. 단, 이는 본 발명의 일 예에 불과하며, 전술한 바와 같이 오브젝트(400)와의 물리적인 접촉없이 실현가능한 다양한 UI 방식이 더 존재할 수 있음은 자명하다 할 것이다.
예를 들어, 도 7a의 음성인식 UI 방식은, HMD 디스플레이 화면상에 음성인식 UI가 실행중임을 표시하는 아이콘(440)을 표시해두고, 사용자(10)의 음성명령이 입력되면, 비물리적 UI모드 제어부(172)내의 음성인식 프로세스를 통해 음성 명령을 인식 및 변환한 후, 프로세서(110)를 통해 해당 명령을 수행하게 된다. 또한, 도 7b의 제스쳐 UI 방식은, HMD 디스플레이 화면상에 제스쳐 UI가 실행중임을 표시하는 아이콘(450)을 표시해두고, 사용자(10)는 제스쳐 수단 (예를 들어, 사용자 손동작(451) 또는 헤드동작(미도시))을 활용하여 명령을 입력하게 된다. 사용자(10)의 제스쳐 명령이 입력되면, 비물리적 UI모드 제어부(172)내의 제스쳐 인식 프로세스를 통해 제스쳐 명령을 인식 및 변환하고, 프로세서(110)를 통해 해당 명령을 수행하게 된다.
관련하여, S132 단계 및 S133 단계에서 비물리적 UI 모드를 HMD UI로 적용키로 결정되면, 전술한 복수의 비물리적 모드 UI중, 어느 한 UI방식이 사용자 설정 또는 시스템 설정에 의해 선택되어 진다. 예를 들어, 사용자(10)는 사용자 입력유닛(150)을 이용하여 미리 사용자 환경설정이 가능한 바, 비물리적 UI 모드로 결정시 우선적으로 음성인식(도7a) UI 방식 또는 제스쳐(도7b) UI 방식중 어느 하나를 디폴트(default)로 적용하도록 설정하는 것이 가능하다. 또는, 상술한 사용자 환경설정이 없는 경우에는, UI 제어부(170)는, 사용자(10) 주변의 노이즈(noise)를 분석하여, 노이즈(noise)가 일정수준 이하인 경우에는 음성인식(도7a) UI 방식을 선택하고, 노이즈(noise)가 일정수준 이상인 경우에는 제스쳐(도7b) UI 방식을 우선적으로 결정하는 것이 가능하다. 또한, 최초 결정된 UI 방식이 있더라도, 상황 변경이 발생하면 다른 UI 모드로의 변경도 가능하다. 예를 들어, 사용자(10) 주변의 노이즈(noise)가 일정 수준 이하에서 이상으로 변경되면, 음성인식(도7a) UI 방식에서 제스쳐(도7b) UI 방식으로 자동 변경하는 것이 가능하다. 또한, 최초 결정된 UI 모드에 대해 사용자는 사용자가 원하는 UI 방식으로 언제든지 재변경하는 것도 가능하다. 아울러, 비물리적 UI 모드의 경우, 예를 들어, 음성인식(도7a) UI 방식 및 제스쳐(도7b) UI 방식이 모두 구현가능하도록 설정할 수도 있으며, 이 경우 사용자(10)는 음성인식 UI 또는 제스쳐 UI 모두를 활용하여 명령을 전달하는 것이 가능하게 된다.
도 8 ~ 도 9 는 본 발명의 제2 실시예로서, HMD 시야각을 고려한 UI모드 결정 방법을 도시한 흐름도이다. 또한, 도 10a ~ 도10b 는 본 발명의 제2 실시예에 적용된 상태를 설명하기 위한 도면이다. 관련하여, 본 발명의 제2 실시예는 상술한 제1 실시예에 비해 UI 모드 결정시 시야각을 더 고려하는 것을 특징으로 한다. 이를 상세히 설명하면 다음과 같다.
본 발명의 제2 실시예에 의한, HMD UI모드 결정 프로세스는 오브젝트 위치판단 단계(S220)와 시야각 판단 단계(S230) 및 HMD UI 모드 결정단계(S240)로 이루어 진다. HMD UI 모드 결정 프로세스가 시작되면(S210), HMD 프로세서(110)는 상기 오브젝트 센서(121)를 통해 HMD 주변의 오브젝트 검출 및 검출된 오브젝트의 위치를 판단하게 된다(S221). 상기 S221 판단 결과, 프로세서(110)는 HMD와 오브젝트와의 관계를 전술한 3가지 F1 ~ F3 상태중 어느 하나로 판단하게 된다. 예를 들어, 오브젝트가 검출되고 검출된 오브젝트가 물리적 피드백이 가능한 기준거리내에 존재하는 경우를 F1 상태(F1 status)로 설정한다(S221). 또한, 오브젝트가 검출되었으나 검출된 오브젝트가 물리적 피드백이 불가능한 기준거리밖에 존재하는 경우를 F2 상태(F2 status)로 설정한다(S223). 마지막으로, HMD 주변에 오브젝트가 존재하지 않는 경우를 F3 상태(F3 status)로 설정한다(S224).
이후, HMD(100) 프로세서(110)는, F1 상태(S222)로 판단되는 경우, 시야각 센서(120)를 통해 HMD 시야각내에 검출된 오브젝트가 존재하는 지를 더 판단하게 된다(S231). 예를 들어, 상기 S231 단계에 의해 시야각은 2가지 상태로 구분될 수 있다. 이를 도 10a 및 도 10b를 참조하여 설명하면 다음과 같다.
도 10a는 HMD 시야각내에 오브젝트(400)가 존재하는 경우를 도시한 것으로, 이를 S1 상태(S1 status)라 한다. 또한, 도 10b는 HMD 시야각밖에 오브젝트(400)가 존재하는 경우를 도시한 것으로, 이를 S2 상태(S2 status)라 한다. 즉, S1 상태는 HMD 주변에 오브젝트(400)가 기준거리내에 존재할 뿐 아니라 해당 오브젝트(400)는 사용자(10) 시야각내에 존재하는 경우를 의미한다. 반면, S2 상태는 HMD 주변에 오브젝트(400)가 기준거리내에 존재하지만 해당 오브젝트(400)는 사용자(10) 시야각밖에 존재하는 경우를 의미한다.
만약, HMD 프로세서(110)는 상기 S231 단계를 통해 S1 상태(S232)로 확인하게 되면, HMD UI 모드는 물리적 UI 모드로 결정하고, 전술한 물리적 UI 모드 제어부(171)를 통해 가상 키보드 UI 또는 드로잉 UI 와 같은 UI 방식을 구동하게 된다(S241). 물리적 UI 종류 및 구동방식은 전술한 제1 실시예에서의 내용을 동일하게 제2 실시예에도 적용가능하다.
또한, 만약 HMD 프로세서(110)는 상기 S231 단계를 통해 S2 상태(S233)로 확인하게 되면, 기 설정된 설정시간(예, 5초, 10초, 등) 동안 오브젝트(400) 위치를 계속 확인하게 된다(S234). 상기 S234 단계에서, 상기 설정시간이내에 해당 오브젝트(400)가 시야각내로 재검출되면(즉, S2 상태에서 S1 상태로 변경되면) 물리적 UI 모드를 유지하게 된다(S242). 또한, 만약 현재 상태가 비물리적 UI 모드가 적용중이었다면, 물리적 UI 모드로 변경하게 된다(S242). 관련하여, 상기 설정시간(예, 5초)이내에 사용자(10)의 상태가 S2 상태에서 S1 상태로 변경되었다 함은, 사용자(10)가 일시적으로 시선을 돌린 경우로서 사용자(10)가 오브젝트(400)로부터 벗어날 의도가 없음으로 판단할 수 있다. 즉, 이 경우는 사용자 일시 시선 변경(단기 의도)으로 판단하여 물리적 UI 모드를 유지하거나, 만약 기존 UI모드가 비물리적 UI모드인 경우는 물리적 UI 모드로 변경하는 것이 바람직하다.
반면, 상기 S234 단계에서, 상기 설정시간(예, 5초, 10초 등)이내에 해당 오브젝트(400)가 시야각내로 검출되지 않으면, 즉, S2 상태가 계속 유지되거나 또는 F2/F3 상태로 변경되면 비물리적 UI 모드로 변경하게 된다(S243). 또는, 만약 현재 상태가 물리적 UI 모드가 적용중이었다면, 비물리적 UI 모드로 변경하게 된다(S243).
관련하여, 상기 S234 단계에서 설정시간이내에도 사용자(10)의 상태가 S2 상태를 유지한다면, 이는 사용자(10)가 장기적으로 시선을 돌린 경우로서 사용자(10)가 오브젝트(400)로부터 벗어날 의도가 있음으로 판단할 수 있다. 즉, 이 경우는 사용자 장기 시선 변경(장기 의도)으로 판단하여 비물리적 UI 모드를 유지하거나, 만약 기존 UI모드가 물리적 UI모드인 경우는 비물리적 UI 모드로 변경하는 것이 바람직하다. 또한, 상기 S234 단계를 통해, 상기 설정시간이내에도 사용자(10)의 상태가 F2 상태 또는 F3 상태로 변경되었다면, 이는 사용자(10)가 오브젝트(400)로부터 멀어지고 있음으로 판단할 수 있다. 즉, 이 경우는 오브젝트(400)를 활용한 물리적 UI가 불가능해지므로 비물리적 UI 모드를 유지하거나, 만약 기존 UI모드가 물리적 UI모드인 경우는 비물리적 UI 모드로 변경하는 것이 바람직하다.
또한, S241 단계 및 S242 단계와 같이 물리적 UI 모드가 적용되는 경우에는, 프로세서(110)는 물리적 UI에 활용되는 오브젝트(400)가 HMD 시야각을 벗어나는 지를 계속적으로 판단하게 된다(S241/S242 --> S231). 반면, S243 단계 및 S244 단계와 같이 비물리적 UI 모드가 적용되는 경우에는, 프로세서(110)는 오브젝트(400)가 기준거리내에 검출되는 지를 계속적으로 판단하게 된다(S243/S244 --> S221).
도 11 ~ 도 12 는 본 발명의 제3 실시예로서, 오브젝트 타입(type)을 고려한 UI모드 결정 방법을 도시한 흐름도이다. 또한, 도 13a ~ 도13b 는 본 발명의 제3 실시예에 적용된 상태를 설명하기 위한 도면이다. 관련하여, 본 발명의 제3 실시예는 상술한 제2 실시예에 오브젝트 타입(type)을 더 고려한 것을 특징으로 한다. 이를 상세히 설명하면 다음과 같다.
본 발명의 제3 실시예에 의한, HMD UI모드 결정 프로세스는 오브젝트 위치판단 단계(S320), 시야각 판단 단계(S330), 오브젝트 타입 판단 단계(S340) 및 HMD UI 모드 결정단계(S350)로 이루어 진다. HMD UI 모드 결정 프로세스가 시작되면(S310), HMD 프로세서(110)는 오브젝트 센서(121)를 통해 주변의 오브젝트 검출 및 검출된 오브젝트의 위치를 판단하게 된다(S321). 상기 S321 판단 결과, 프로세서(110)는 HMD와 오브젝트와의 관계를 전술한 3가지 F1 ~ F3 상태중 어느 하나로 판단하게 된다. 예를 들어, 오브젝트가 검출되고 검출된 오브젝트가 물리적 피드백이 가능한 기준거리내에 존재하는 경우를 F1 상태(F1 status)로 설정한다(S322). 또한, 오브젝트가 검출되었으나 검출된 오브젝트가 물리적 피드백이 불가능한 기준거리밖에 존재하는 경우를 F2 상태(F2 status)로 설정한다(S323). 또한, HMD 주변에 오브젝트가 존재하지 않는 경우를 F3 상태(F3 status)로 설정한다(S324).
이후, HMD(100) 프로세서(110)는, F1 상태(S322)로 판단되는 경우, 시야각 센서(120)를 통해 HMD 시야각내에 검출된 오브젝트가 존재하는 지를 더 판단하게 된다(S331). 예를 들어, 상기 S331 단계에 의해 시야각은 전술한 바와 같이 2가지 S1 상태 및 S2 상태 중 어느 하나로 판단될 수 있다.
만약 HMD 프로세서(110)가 상기 S331 단계를 통해, 현재 HMD와 오브젝트간의 위치가 S2 상태(S333)로 확인하게 되면, 기 설정된 설정시간(예, 5초, 10초 등) 동안 오브젝트(400) 위치를 계속 확인하게 된다(S334). 상기 S334 단계에서, 상기 설정시간(예, 5초, 10초 등)이내에 해당 오브젝트(400)가 시야각내로 검출되면, 즉, S1 상태로 변경되면 물리적 UI 모드를 유지하거나 또는 물리적 UI 모드로 변경하게 된다(S352). 즉, 상기 S334 단계를 통해, 설정시간(예, 5초, 10초 등)이내에 사용자(10)의 상태가 S2 상태에서 S1 상태로 변경되었다 함은, 사용자(10)가 일시적으로 시선을 돌린 경우로서 사용자(10)가 오브젝트(400)로부터 벗어날 의도가 없음으로 판단할 수 있다. 즉, 이 경우는 사용자 일시 시선 변경(단기 의도)으로 판단하여 물리적 UI 모드를 유지하거나, 만약 기존 UI모드가 비물리적 UI모드인 경우는 물리적 UI 모드로 변경하는 것이 바람직하다.
반면, 상기 S334 단계에서, 상기 설정시간이내에 해당 오브젝트(400)가 시야각내로 검출되지 않으면, 즉, S2 상태가 계속 유지되거나 또는 F2/F3 상태로 변경되면 비물리적 UI 모드를 유지하거나 또는 비물리적 UI 모드로 변경하게 된다(S353). 즉, 상기 S334 단계를 통해, 상기 설정시간이내에도 사용자(10)의 상태가 S2 상태를 유지한다면, 이는 사용자(10)가 장기적으로 시선을 돌린 경우로서 사용자(10)가 오브젝트(400)로부터 벗어날 의도가 있음으로 판단할 수 있다. 따라서, 이 경우는 사용자 장기 시선 변경(장기 의도)으로 판단하여 비물리적 UI 모드를 유지하거나, 만약 기존 UI모드가 물리적 UI모드인 경우는 비물리적 UI 모드로 변경하는 것이 바람직하다. 또한, 상기 S334 단계를 통해, 상기 설정시간이내에 사용자(10)의 상태가 F2 상태 또는 F3 상태로 변경되었다면, 이는 사용자(10)가 오브젝트(400)로부터 멀어지고 있음으로 판단할 수 있다. 즉, 이 경우는 오브젝트(400)를 활용한 UI가 불가능해지므로 비물리적 UI 모드를 유지하거나, 만약 기존 UI모드가 물리적 UI모드인 경우는 비물리적 UI 모드로 변경하는 것이 바람직하다.
반면, 만약 상기 시야각 판단 단계(S331)를 통해, 현재 HMD와 오브젝트간의 위치가 S1 상태(S332)로 확인하게 되면, 이후 HMD 프로세서(110)는 오브젝트 타입(type)을 더 판단하게 된다(S341). 관련하여, 상기 오브젝트 타입이란, 오브젝트의 외관적 형태를 의미하는 것으로, 특히 사용자 터치가 용이한 형태인지 여부에 따라 구분될 수 있다. 예를 들어, 도 13a의 벽면(461) 또는 테이블(462) 과 같이 사용자 접촉 또는 터치가 용이한 형태를 타입1(Type 1)이라 하고, 도 13b의 농구공(463)과 같이 사용자 접촉 또는 터치가 용이하지 않은 형태를 타입2(Type 2)로 구분할 수 있다.
HMD 프로세서(110)는 상기 오브젝트 타입 판단 단계(S341)를 통해, 해당 오브젝트가 타입1(Type 1)으로 판단되면, HMD UI 모드를 물리적 UI 모드로 결정하게 된다(S351). 이후 전술한 물리적 UI 모드 제어부(171)를 통해 타입1 오브젝트(예, 461, 462)에 접촉 및 터치 가능한 UI 방식(예, 가상 키보드 UI 또는 드로잉 UI)을 구동하게 된다.
또한, HMD 프로세서(110)는 상기 오브젝트 타입 판단 단계(S341)를 통해, 해당 오브젝트가 타입2(Type 2)로 판단되면, HMD UI 모드를 비물리적 UI 모드로 결정하게 된다(S353). 이후, 전술한 비물리적 UI 모드 제어부(172)를 통해 기준거리 및 시야각내에 존재하는 타입2 오브젝트(예, 463)에 상관없이 적용가능한 비물리적 UI 방식(예, 음성인식 UI 또는 제스쳐 UI)을 구동하게 된다. 관련하여, 상기 물리적/비물리적 UI 종류 및 구동방식은 전술한 제1 실시예에서 내용이 제3 실시예도 동일하게 적용가능하다.
또한, S351 단계 및 S352 단계와 같이 물리적 UI 모드가 적용되는 경우에는, 프로세서(110)는 물리적 UI에 활용되는 오브젝트(400)가 HMD 시야각을 벗어나는 지를 계속적으로 판단하게 된다(S351/S352 --> S331). 반면, S343 단계 및 S344 단계와 같이 비물리적 UI 모드가 적용되는 경우에는, 프로세서(110)는 오브젝트(400)가 기준거리내에 검출되는 지를 계속적으로 판단하게 된다(S343/S344 --> S321).
도 14 ~ 도 15 는 본 발명의 제4 실시예로서, 새로운 디지털 디바이스 (device) 검출을 고려한 UI모드 결정 방법을 도시한 흐름도이다. 또한, 도 16은 상기 제4 실시예에 적용된 상태를 설명하기 위한 도면이다. 관련하여, 본 발명의 제4 실시예는 상술한 제2 실시예에 새로운 디지털 디바이스 (device) 검출을 더 고려한 것을 특징으로 한다. 이를 상세히 설명하면 다음과 같다.
본 발명의 제4 실시예에 의한, HMD UI모드 결정 프로세스는 오브젝트 위치판단 단계(S420), 시야각 판단 단계(S430), 디지털 디바이스 검출 및 위치 판단 단계(S440) 및 HMD UI 모드 결정단계(S450)로 이루어 진다. HMD UI 모드 결정 프로세스가 시작되면(S410), HMD 프로세서(110)는 오브젝트 센서(121)를 통해 주변의 오브젝트 검출 및 검출된 오브젝트의 위치를 판단하게 된다(S421). 상기 S421 판단 결과, 프로세서(110)는 HMD와 오브젝트와의 관계를 전술한 3가지 F1 ~ F3 상태중 어느 하나로 판단하게 된다. 예를 들어, 오브젝트가 검출되고 검출된 오브젝트가 물리적 피드백이 가능한 기준거리내에 존재하는 경우를 F1 상태(F1 status)로 설정한다(S422). 또한, 오브젝트가 검출되었으나 검출된 오브젝트가 물리적 피드백이 불가능한 기준거리밖에 존재하는 경우를 F2 상태(F2 status)로 설정한다(S423). 또한, HMD 주변에 오브젝트가 존재하지 않는 경우를 F3 상태(F3 status)로 설정한다(S424).
이후, HMD 프로세서(110)는, F1 상태(S422)로 판단되는 경우, 시야각 센서(120)를 통해 HMD 시야각내에 검출된 오브젝트가 존재하는 지를 더 판단하게 된다(S431). 예를 들어, 상기 S431 단계에 의한 시야각 판단은 전술한 바와 같이 2가지 S1 상태 및 S2 상태 중 어느 하나로 판단될 수 있다.
만약 HMD 프로세서(110)가 상기 S431 단계를 통해, 상기 검출된 오브젝트가 HMD 시야각밖에 존재하는 것으로 판단되면(S433, S2상태), 기준거리내에 새로운 디지털 디바이스가 존재하는 지를 판단하게 된다(S441). 예를 들어, 도 16에 의하면, HMD 사용자(10)는 최초 검출된 오브젝트(400)로부터 주변의 디지털 디바이스(500)로 시선을 옮기는 것이 가능하다. 따라서, 이 경우에는 상기 S441 단계를 통해 새로운 디바이스(500)가 기준거리내에 검출되면, 상기 HMD 프로세서(110)는 통신유닛(140)을 활용하여 해당 디바이스(500)와 통신연결을 시도하게 된다(S442). 상기 HMD(100)와 디바이스(500)간에 통신연결이 완료되면, 상기 HMD 프로세서(110)는 UI 제어부(170)를 통해 상기 디바이스(500)에 존재하는 디스플레이 수단(510)을 물리적 UI 모드로 활용하게 된다(S452).
또한, 만약 상기 S441 단계 판단결과, 시야각내에 새로운 디지털 디바이스가 존재하지 않는다고 판단하면, 상기 HMD 프로세서(110)는 사용자 장기 시선 변경(장기 의도)으로 해석하여 비물리적 UI 모드를 유지하거나, 만약 기존 UI모드가 물리적 UI모드인 경우는 비물리적 UI 모드로 변경하게 된다.
반면, 만약 HMD 프로세서(110)가 상기 시야각 판단 단계(S431)를 통해, 검출된 오브젝트가 시야각내에 존재하는 것으로 판단하면(S432, S1상태), HMD 프로세서(110)는 HMD UI 모드를 물리적 UI 모드로 구동하게 된다(S451). 상기 물리적/비물리적 UI 종류 및 구동방식은 전술한 제1 실시예에서 설명한 내용을 제4 실시예에 동일하게 적용 가능하다.
또한, 도면에는 미도시하였으나, 상기 S451단계에 따라 시야각내 오브젝트를 활용하여 물리적 UI를 적용중 새로운 디지탈 디바이스가 기준거리내 검출되는 경우, 해당 디지털 디바이스의 디스플레이 수단을 물리적 UI 모드로 활용하는 것도 가능하다. 예를 들어, 오브젝트 표면에 사용중이던 물리적 UI를 삭제하되, 삭제된 물리적 UI를 디지털 디바이스의 디스플레이 수단으로 옮겨 적용할 수 있다. 또는 오브젝트 표면에 사용중이던 물리적 UI 상태는 그대로 유지하고, 상기 디지털 디바이스의 디스플레이 수단을 상기 오브젝트 표면에 사용중인 물리적 UI와는 상이한 형태의 다른 물리적 UI로 더 활용하는 것도 가능하다. 예를 들어, 오브젝트 표면의 물리적 UI는 가상 키보드 UI로 활용하고, 디지털 디바이스의 디스플레이 수단은 드로잉 UI로 활용하는 것이 가능하다. 또는, 예를 들어, 오브젝트 표면의 물리적 UI는 가상 키보드의 '숫자패드'로 활용하고, 디지털 디바이스의 디스플레이 수단의 물리적 UI는 가상 키보드의 '문자패드'로 분리하여 활용하는 것도 가능하다.
또한, S451 단계 및 S452 단계와 같이 물리적 UI 모드가 적용되는 경우에는, 프로세서(110)는 물리적 UI에 활용되는 오브젝트(400) 또는 디지털 디바이스(500)가 HMD 시야각을 벗어나는 지를 계속적으로 판단하게 된다(S451/S452 --> S431). 반면, S453 단계 및 S454 단계와 같이 비물리적 UI 모드가 적용되는 경우에는, 프로세서(110)는 오브젝트(400)가 기준거리내에 검출되는 지를 계속적으로 판단하게 된다(S453/S454 --> S321).
도 17 ~ 도 18은 본 발명의 제5 실시예로서, HMD 주변에 존재하는 디지털 디바이스(device) 검출을 고려한 UI모드 결정 방법을 도시한 흐름도이다. 이를 상세히 설명하면 다음과 같다.
본 발명의 제5 실시예에 의한, HMD UI모드 결정 프로세스는 디지털 디바이스 검출 및 위치판단 단계(S520) 및 HMD UI 모드 결정단계(S530)로 이루어 진다. HMD UI 모드 결정 프로세스가 시작되면(S510), HMD 프로세서(110)는 오브젝트 센서(121) 및 통신유닛(140)을 통해 주변의 디지털 디바이스를 검출하고, 검출된 디바이스의 위치를 판단하게 된다(S521). 상기 S521 판단 결과, 프로세서(110)는 HMD와 디바이스와의 관계를 전술한 3가지 F1 ~ F3 상태중 어느 하나로 판단하게 된다. 예를 들어, 디바이스가 검출되고 검출된 디바이스가 물리적 피드백이 가능한 기준거리내에 존재하는 경우를 F1 상태(F1 status)로 설정한다(S522). 또한, 디바이스가 검출되었으나 검출된 디바이스가 물리적 피드백이 불가능한 기준거리밖에 존재하는 경우를 F2 상태(F2 status)로 설정한다(S523). 또한, HMD 주변에 디바이스가 존재하지 않는 경우를 F3 상태(F3 status)로 설정한다(S524).
만약, HMD 프로세서(110)가, F1 상태로 판단하는 경우(S522), 통신유닛(140)을 통해 해당 디바이스와 통신 연결을 수행하게 된다(S531). 통신연결이 완료되면, HMD 프로세서(110)는 전술한 UI제어부(170)를 통해 해당 디바이스내에 구비된 디스플레이를 활용하여 물리적 UI 모드를 구동하게 된다(S532). 즉, 해당 디바이스내에 구비된 디스플레이를 HMD용 가상 키보드(virtual keyboard)로 활용하는 것이 가능하다. 반면, 만약 HMD 프로세서(110)가 F2 상태(S523) 또는 F3 상태(S524)로 판단하는 경우, HMD 프로세서(110)는 전술한 UI 제어부(170)를 통해 비물리적 UI 모드를 구동하게 된다(S533).
이하에서는 물리적 UI 모드가 적용되는 HMD의 추가적인 실시예에 대하여 설명하도록 한다.
상술한 바와 같이 물리적 UI 모드는 사용자가 물리적으로 접촉할 수 있는 수단을 이용하는 다양한 방식의 HMD의 UI 방식을 통칭하는 의미로서, 이하에서 설명할 버추얼 3D 오브젝트 UI 방식을 포함할 수 있다. 이러한 물리적 UI 모드는, 도 3 내지 7에서 제 1 실시예로서 상술한 바와 같이, 오브젝트가 디텍트되고 디텍트된 오브젝트가 물리적 피드백이 가능한 일정 거리내에 존재하는 경우에 적용될 수 있다.
여기서, 버추얼 3D 오브젝트 UI 방식은 적어도 하나의 터치 인식 서피스를 포함하는 버추얼 3D 오브젝트에 대한 디스플레이를 제공하는 UI 방식을 의미한다. 보다 상세하게는, 버추얼 오브젝트 UI 방식은 버추얼 오브젝트의 터치 인식 서피스가 센서 유닛을 통해 디텍트된 리얼 오브젝트의 서피스와 일치하도록 버추얼 오브젝트를 디스플레이하고, 터치 인식 서피스에 대한 사용자의 터치 입력에 기초하여 사용자의 명령을 입력 받고 동작하는 UI 방식을 의미한다. 이를 통해, 버추얼 오브젝트의 터치 인식 서피스와 리얼 오브젝트의 서피스가 일치하게 되므로, 버추얼 오브젝트에 대한 터치 입력에 리얼 오브젝트에 대한 터치 입력과 동일한 물리적 피드백을 제공할 수 있다. 본 명세서에서 서피스가 일치한다고 함은 정확히 일치하는 경우뿐 아니라, 실질적으로 일치하는 경우를 포함하며, 기설정된 범위 내에서 일치하는 경우도 포함할 수 있다.
여기서, 버추얼 3D 오브젝트는 적어도 하나의 터치 인식 서피스를 포함하는 가상의 3차원 오브젝트를 의미한다. 예를 들면, 버추얼 3D 오브젝트는 HMD 주변의 디지털 디바이스의 전원의 ON/OFF를 제어하는 입력 버튼으로 사용되는 하나의 터치 인식 서피스를, 포함하는 버추얼 3D 스위치일 수 있다. 다른 예를 들면, 버추얼 3D 오브젝트는 키보드의 입력 키로 사용되는 복수의 터치 인식 서피스를 포함하는, 버추얼 3D 키보드일 수 있다. 이하에서, 버추얼 3D 오브젝트 UI 방식은 버추얼 오브젝트 UI 방식으로, 버추얼 3D 오브젝트는 버추얼 오브젝트로 약칭될 수 있다.
여기서, 터치 인식 서피스는 3D 모션 센서 등을 통해 생성된 가상의 터치 서피스를 의미한다. 일 실시예에서, 터치 인식 서피스는 버추얼 오브젝트의 전면에 생성될 수 있으나, 이에 한정되지 않는다. 본 명세서에서, HMD는 3D 모션 센서 등을 사용하여, 터치 인식 서피스를 버추얼 오브젝트의 전면에 생성하고, 터치 인식 서피스 상에서의 터치 입력 오브젝트의 상하/좌우의 움직임을 센싱하여 포인터의 이동을 제어하고, 터치 입력 오브젝트의 깊이감을 센싱하여 터치 인식 서피스에 대한 터치 인식 여부를 판단할 수 있다.
또한, 버추얼 오브젝트 UI 방식은, 사용자의 입력 또는 기저장된 시스템의 설정에 기초하여 AUTO 모드 또는 Semi-AUTO 모드 중 하나로 설정될 수 있다. 여기서, AUTO 모드는, 버추얼 오브젝트의 터치 인식 서피스와 디텍트 된 리얼 오브젝트의 서피스가 일치하도록 버추얼 오브젝트의 디스플레이 거리를 자동으로 조정하여, 버추얼 오브젝트를 디스플레이 하는 모드를 지칭한다. 도 19 및 도 20는 AUTO 모드의 비주얼 오브젝트 UI 방식이 적용되는 HMD의 일 실시예를 나타낸다. 그리고, Semi-AUTO 모드는 먼저 기설정된 거리로 비주얼 오브젝트를 디스플레이 하고, 디스플레이된 비주얼 오브젝트에 대한 사용자의 제스처와 같은 사용자의 입력에 기초하여 버추얼 오브젝트의 터치 인식 서피스와 디텍트 된 리얼 오브젝트의 서피스가 일치하도록 디스플레이 거리를 조정하여, 다시 버추얼 오브젝트를 디스플레이하는 모드를 지칭한다. 도 21은 Semi-AUTO 모드의 비주얼 오브젝트 UI 방식이 적용되는 HMD의 일 실시예를 나타낸다.
여기서, 디스플레이 거리는 HMD에 버추얼 오브젝트를 공간감을 갖도록 디스플레이 하기 위한 거리를 의미한다. 예를 들면, 디스플레이 거리는 버추얼 3D 오브젝트의 디스플레이를 위한 뎁스 또는 깊이 정보일 수 있다. 일 실시예에서, 디스플레이 거리는 HMD 및 HMD에 디스플레이 되는 버추얼 오브젝트의 터치 인식 서피스 간의 거리로 설정될 수 있다. 다른 실시예에서, 디스플레이 거리는 HMD 및 HMD에 디스플레이 되는 버추얼 오브젝트의 후면 간의 거리로 설정될 수 있다.
이하에서는, 각 도면을 참조하여, 프로세서의 동작을 중심으로 버추얼 오브젝트 UI 방식이 적용되는 HMD에 대하여 검토하도록 한다.
도 19 내지 도 21는 버추얼 3D 오브젝트 UI 방식의 물리적 UI 모드를 적용하여, 버추얼 3D 오브젝트를 디스플레이 하는 HMD의 다양한 실시예를 나타낸다.
특히, 도 19는 하나의 터치 인식 서피스를 포함하는, 버추얼 3D 오브젝트를 디스플레이 하는 HMD를 나타내고, 도 20는 복수의 터치 인식 서피스를 포함하는, 버추얼 3D 오브젝트를 디스플레이 하는 HMD를 나타내고, 도 21은 사용자의 제스처에 기초하여, 복수의 터치 인식 서피스를 포함하는, 버추얼 3D 오브젝트를 디스플레이 하는 HMD를 나타낸다.
도 19a 및 도 19b는 각각 일 실시예에 따른 하나의 터치 인식 서피스를 포함하는, 버추얼 3D 오브젝트를 디스플레이 하는 HMD를 나타내는 사시도 및 측면도이다.
도 19b에서, Dvs는 HMD(100) 및 HMD에 디스플레이 되는 버추얼 오브젝트의 터치 인식 서피스(610) 간의 거리를 의미한다. 또한, Drs는 HMD(100) 및 HMD에 의해 디텍트 된 오브젝트의 서피스(400) 간의 거리를 의미한다. 또한, Dv는 버추얼 오브젝트의 전면(610) 및 후면(620) 간의 거리를 의미한다. 이때, 버추얼 오브젝트의 전면은 적어도 하나의 터치 인식 서피스를 포함한다. 또한, Dth는 HMD가 물리적 UI 모드를 적용할지 여부를 판단하는데 기준이 되는, 기준 거리를 의미한다. 즉, Dth는 사용자가 디텍트된 오브젝트를 물리적으로 접촉 또는 터치할 수 있는 거리로 설정될 수 있다. 이때, Dth는 도 5에서 상술한 Th와 같을 수도 있다.
도 19a 및 도 19b를 참조하면, 센서 유닛을 통해 오브젝트의 서피스(400)가 검출되고 검출된 오브젝트의 서피스(400)가 물리적 피드백이 가능한 일정 거리 내에 존재하는 경우(Drs<Dth), 프로세서는 HMD의 UI 방식으로 물리적 UI 모드를 적용할 수 있다. 이때, 프로세서는 HMD에 디스플레이 되는 버추얼 오브젝트가 3D 오브젝트이고 3D 오브젝트가 터치 인식 서피스를 포함하는 경우, 버추얼 오브젝트 UI 방식의 물리적 UI 모드를 선택할 수 있다. 이러한 프로세서의 선택은 사용자의 설정 또는 시스템의 설정에 의하여 이루어질 수 있다.
또한, 버추얼 오브젝트 UI 방식의 물리적 UI 모드가 적용될 때, 버추얼 오브젝트(600)가 단일의 터치 인식 서피스(610)를 포함하는 경우, 프로세서는 터치 인식 서피스(610)가 디텍트된 오브젝트의 서피스(400)에 일치하도록 버추얼 오브젝트(600)의 디스플레이 거리를 조정할 수 있다. 예를 들면, 디스플레이 거리가 HMD 및 HMD에 디스플레이 되는 버추얼 오브젝트의 터치 인식 서피스 간의 거리인, (Dvs)로 설정된 경우, 프로세서는 (Dvs) 값을 (Drs) 값과 같도록 조정하여 디스플레이 거리를 조정할 수 있다.
또한, 프로세서는 조정된 디스플레이 거리(Dvs=Drs)에 기초하여 버추얼 오브젝트(600)를 디스플레이 할 수 있다. 이를 통해, 버추얼 오브젝트의 터치 인식 서피스(610)가 디텍트된 오브젝트의 서피스(400)와 일치하게 되므로, 버추얼 오브젝트(600)에 대한 터치 입력에 리얼 오브젝트에 대한 터치 입력과 동일한 물리적 피드백을 제공할 수 있다.
도 20a 및 도 20b는 각각 일 실시예에 따른 선택 정보에 기초하여, 복수의 터치 인식 서피스를 포함하는, 버추얼 3D 오브젝트를 디스플레이 하는 HMD를 나타내는 사시도 및 측면도이다.
도 20b에서, Drs, Dth에 대한 정의는 도 19b에서 상술한 내용과 동일하다. 그리고, Dvs-1는 HMD(100) 및 제 1 터치 인식 서피스(610-1) 간의 거리를 의미하고, Dvs-2는 HMD(100) 및 제 2 터치 인식 서피스(610-2)간의 거리를 의미한다. 또한, Dv-1는 제 1 터치 인식 서피스(610-1) 및 버추얼 오브젝트의 후면(620) 간의 거리를 의미하고, Dv-2는 제 2 터치 인식 서피스(610-1) 및 버추얼 오브젝트의 후면(620) 간의 거리를 의미한다.
도 20 a 및 도 20b를 참조하면, 버추얼 오브젝트 UI 방식의 물리적 UI 모드가 적용될 때, 버추얼 오브젝트(600)가 복수의 터치 인식 서피스(610-1, 610-2)를 포함하는 경우, 프로세서는 선택 정보에 기초하여 기설정된 방법으로 적어도 하나의 터치 인식 서피스를 선택할 수 있다.
여기서, 선택 정보는 터치 인식 서피스의 디스플레이 면적, 사용 빈도 또는 버추얼 오브젝트의 전면 및 후면 간의 거리에 대한 정보 중 적어도 하나를 포함할 수 있다.
일 실시예로서, 버추얼 오브젝트의 전면 및 후면 간의 거리에 대한 정보(이하 거리 정보라고도 함)를 선택 정보로 포함하는 경우, 프로세서는 거리 정보를 이용하여 기설정된 방법으로 복수의 터치 인식 서피스 중 적어도 하나의 터치 인식 서피스를 선택할 수 있다. 예를 들면, 프로세서는 거리 정보에 기초하여 복수의 터치 인식 서피스 중 가장 긴 거리 값을 갖는 적어도 하나의 터치 인식 서피스를 선택할 수 있다. 즉, 도 20b에서처럼, 프로세서는 거리 정보에 기초하여 복수의 터치 인식 서피스 중 가장 긴 거리(Dv-2) 값을 갖는 터치 인식 서피스(610-2)를 선택할 수 있다.
다른 실시예로서, 터치 인식 서피스의 디스플레이 면적에 대한 정보(이하 면적 정보라고도 함)를 선택 정보로 포함하는 경우, 프로세서는 면적 정보를 이용하여 기설정된 방법으로 복수의 터치 인식 서피스 중 적어도 하나의 터치 인식 서피스를 선택할 수 있다. 예를 들면, 프로세서는 면적 정보에 기초하여 복수의 터치 인식 서피스 중 가장 큰 또는 가장 작은 디스플레이 면적을 갖는 적어도 하나의 터치 인식 서피스를 선택할 수 있다.
또 다른 실시예로서, 터치 인식 서피스의 사용 빈도에 대한 정보(이하 사용빈도 정보)를 선택 정보로 포함하는 경우, 프로세서는 사용 빈도 정보에 기초하여 기설정된 방법으로 복수의 터치 인식 서피스 중 적어도 하나의 터치 인식 서피스를 선택할 수 있다. 예를 들면, 프로세서는 사용빈도 정보에 기초하여 복수의 터치 인식 서피스 중 가장 높은 사용 빈도를 갖는 터치 인식 서피스를 선택할 수 있다. 이때, 프로세서는 사용자의 터치 입력에 기초하여 각 터치 인식 서피스의 사용빈도를 계산하고, 이를 스토리지에 저장할 수 있으며, 필요한 경우 사용빈도 정보를 스토리지로부터 획득할 수 있다.
또한, 프로세서는 선택된 터치 인식 서피스가 디텍트된 오브젝트의 서피스에 일치하도록 버추얼 오브젝트의 디스플레이 거리를 조정할 수 있다. 예를 들면, 도 20b 에서처럼, 디스플레이 거리가 HMD(100) 및 선택된 제 2 터치 인식 서피스(610-2) 간의 거리인 (Dvs-2)로 설정된 경우, 프로세서는 (Dvs-2) 값을 (Drs) 값과 같도록 조정하여 디스플레이 거리를 조정할 수 있다.
또한, 프로세서는 조정된 디스플레이 거리(Dvs-2=Drs)에 기초하여 버추얼 오브젝트를 디스플레이 할 수 있다. 이 경우, 프로세서는 도 19a 및 도 19b에서 설명한 방법을 사용하여 버추얼 오브젝트를 디스플레이 할 수 있다.
이하에서는 도 21을 참조하여, 사용자의 제스처에 기초하여, 복수의 터치 인식 서피스를 포함하는, 버추얼 3D 오브젝트를 디스플레이 하는 HMD에 대하여 상세히 설명하도록 한다. 도 21b, 도 21d 및 도 21f에서, Drs, Dth, Dvs-1, Dvs-2, Dv-1, Dv-2의 정의는 도 20b에서 상술한 내용과 동일하다.
도 21a 및 도 21b는 각각 일 실시예에 따른 버추얼 3D 오브젝트를 기설정된 디스플레이 거리로 디스플레이 하는 HMD를 나타내는 사시도 및 측면도이다.
도 21a 및 도 21b를 참조하면, 버추얼 오브젝트 UI 방식의 물리적 UI 모드가 적용될 때, 버추얼 오브젝트(600)가 복수의 터치 인식 서피스(610-1, 610-2)를 포함하는 경우, 프로세서는 먼저 기설정된 디스플레이 거리로 버추얼 오브젝트를 디스플레이 할 수 있다. 이를 제 1 디스플레이라고 지칭할 수도 있다. 예를 들면, 프로세서는 도 21a에서처럼, 기설정된 디스플레이 거리로 자유 공간 상에 버추얼 오브젝트를 디스플레이 할 수 있다. 다른 예를 들면, 프로세서는 버추얼 오브젝트의 후면이 디텍트된 오브젝트의 서피스와 일치하도록 설정된 디스플레이 거리로 버추얼 오브젝트를 디스플레이 할 수 있다.
그릭고, 도 21c 및 도 21d는 각각 일 실시예에 따른 디스플레이 된 터치 인식 서피스에 대한 사용자의 제스처가 디텍트된 모습을 나타내는 사시도 및 측면도이다.
도 21c 및 도 21d를 참조하면, 센서 유닛을 통해 사용자의 제스처가 디텍트된 경우, 프로세서는 제스처로 인식된 입력 오브젝트(700)와 복수의 터치 인식 서피스들(610-1,610-2) 간의 거리를 획득하고, 획득된 거리가 기설정된 기준 거리 이하인지 여부를 판단할 수 있다. 이때, 입력 오브젝트(700)는 터치 인식 서피스에 터치 입력을 제공할 수 있는 오브젝트를 의미한다. 예를 들면, 입력 오브젝트는 사용자의 손가락 또는 터치 인식 펜과 같은 입력 수단 일 수 있다.
일 실시예로서, 프로세서는 제스처가 인식된 입력 오브젝트와 복수의 터치 인식 서피스들 간의 수평 거리(d1) 및 수직 거리(d2)를 획득하고, 획득된 거리들이 각각 기설정된 기준 거리 이하인지 여부를 판단할 수 있다. 이때, 수평 거리(d1)는 입력 오브젝트의 중심점과 터치 인식 서피스의 중심점이 동일한 xy 평면 상에 존재한다고 가정하고, 각 중심점 사이의 거리를 측정함으로써 획득될 수 있다. 이때, 수직 거리(d2)는 입력 오브젝트의 중심점과 터치 인식 서피스의 중심점이 동일한 z축 상에 존재한다고 가정하고, 각 중심점 사이의 거리를 측정함으로써 획득될 수 있다. 또한, 입력 오브젝트의 중심점과 터치 인식 서피스의 중심점은 다양한 방식으로 설정될 수 있다.
다른 실시예로서, 프로세서는 먼저 상술한 수평 거리(d1)를 획득하여 기설정된 기준 거리 이하인지 여부를 판단하고, 이후 수평 거리(d1)가 기준 거리 이하로 판단된 터치 인식 서피스에 대하여만 상술한 수직 거리(d2)를 획득하여 기설정된 기준 거리 이하인지 여부를 판단하는 방법을 선택할 수 있다. 이를 통해, 사용자가 디스플레이 거리를 조정하기 원하는 터치 인식 서피스를 판단하는데 드는 계산양을 줄일 수 있다.
그리고, 도 21e 및 도 21f는 각각 일 실시예에 따른 버추얼 3D 오브젝트를 조정된 디스플레이 거리로 디스플레이 하는 HMD를 나타내는 사시도 및 측면도이다.
도 21e 및 도 21f를 참조하면, 프로세서는 기준 거리 이하인 것으로 판단된 터치 인식 서피스가, 오브젝트의 서피스에 일치하도록 버추얼 오브젝트의 디스플레이 거리를 조정하고, 조정된 디스플레이 거리에 기초하여 버추얼 오브젝트를 다시 디스플레이 할 수 있다. 이를 제 2 디스플레이라고 지칭할 수 있다. 이 경우, 프로세서는 도 20a 및 도 20b에서 설명한 방법을 사용하여 디스플레이 거리를 조정하고 버추얼 오브젝트를 디스플레이 할 수 있다.
도 22는 일 실시예에 따른 HMD에서 사용자 인터페이스를 제공하는 방법의 순서도이다.
도 22를 참조하면, HMD는 센서 유닛을 통해 HMD 주변의 오브젝트를 디텍트하고, 디텍트된 오브젝트와 HMD 간의 거리를 센싱한다. 또한, HMD는 디텍트된 오브젝트가 HMD로부터 기설정된 기준 거리 내에 존재하는지 여부를 판단한다. 또한, HMD는 디텍트된 오브젝트가 HMD로부터 기설정된 기준 거리 내에 존재하는 경우, 물리적(physical) UI 모드를 적용한다. 이때, 물리적 UI 모드는 버추얼 오브젝트에 대한 디스플레이를 제공할 수 있으며, 상술한 버추얼 3D UI 방식일 수 있다. 이 경우, HMD는 도 3 내지 도 4에서 상술한 방법을 사용하여, 오브젝트의 위치를 판단하고, HMD의 모드를 결정할 수 있다.
또한, HMD는 버추얼 오브젝트의 터치 인식 서피스가 디텍트된 오브젝트의 서피스에 일치하도록 버추얼 오브젝트의 디스플레이 거리를 조정한다.
보다 상세하게는, 물리적 UI 모드를 적용하여 버추얼 오브젝트를 디스플레이 함에 있어서, 버추얼 오브젝트가 하나의 터치 인식 서피스를 포함하는 3D 오브젝트인 경우, HMD는 터치 인식 서피스가 오브젝터의 서피스에 일치하도록 상기 버추얼 오브젝트의 디스플레이 거리를 조정할 수 있다(S2210). 여기서, 서피스가 일치한다고 함은 상술한 바와 같이 정확히 일치하는 경우뿐 아니라, 실질적으로 일치하는 경우를 포함하며, 기설정된 범위 내에서 일치하는 경우도 포함할 수 있다. 이 경우, HMD는 도 19a 및 도19b에서 상술한 방법을 사용하여, 디스플레이 거리를 조정할 수 있다.
또한, HMD는 조정된 디스플레이 거리에 기초하여 버추얼 오브젝트를 디스플레이 한다(S2220). 이 경우, HMD는 도 19a 및 도19b에서 상술한 방법을 사용하여, 버추얼 오브젝트를 디스플레이 할 수 있다.
나아가, 물리적 UI 모드를 적용하여 버추얼 오브젝트를 디스플레이 함에 있어서, 버추얼 오브젝트가 복수의 터치 인식 서피스를 포함하는 3D 오브젝트인 경우, 선택 정보에 기초하여 기설정된 방법으로 복수의 터치 인식 서피스로부터 적어도 하나의 터치 인식 서피스를 선택하는 단계를 더 포함할 수 있다. 그리고, HMD는 선택된 터치 인식 서피스가 디텍트된 오브젝트의 서피스에 일치하도록 버추얼 오브젝트의 디스플레이 거리를 조정하고, 조정된 디스플레이 거리에 기초하여 버추얼 오브젝트를 디스플레이 할 수 있다. 이 경우, HMD는 도 20a 및 도 20b에서 상술한 방법을 사용하여, 디스플레이 거리를 조정하고, 버추얼 오브젝트를 디스플레이 할 수 있다.
도 23은 다른 실시예에 따른 HMD에서 사용자 인터페이스를 제공하는 방법의 순서도이다.
도 23을 참조하면, HMD는 센서 유닛을 통해 HMD 주변의 오브젝트를 디텍트하고, 디텍트된 오브젝트와 HMD 간의 거리를 센싱한다. 또한, HMD는 디텍트된 오브젝트가 HMD로부터 기설정된 기준 거리 내에 존재하는지 여부를 판단한다. 또한, HMD는 디텍트된 오브젝트가 HMD로부터 기설정된 기준 거리 내에 존재하는 경우, 물리적(physical) UI 모드를 적용한다. 이때, 물리적 UI 모드는 버추얼 오브젝트에 대한 디스플레이를 제공할 수 있으며, 상술한 버추얼 3D UI 방식일 수 있다. 이 경우, HMD는 도 3 내지 도 4에서 상술한 방법을 사용하여, 오브젝트의 위치를 판단하고, HMD의 모드를 결정할 수 있다.
또한, HMD는 기설정된 디스플레이 거리로 버추얼 오브젝트를 디스플레이 한다(S2310). 이를 제 1 디스플레이라고 지칭할 수도 있다. 예를 들면, HMD는 도 21a에서처럼, 기설정된 디스플레이 거리로 자유 공간 상에 버추얼 오브젝트를 디스플레이 할 수 있다.
또한, HMD는 사용자의 제스처가 디텍트되었는지 여부를 판단한다(S2320). 이때, 사용자의 제스처가 디텍트된 경우에는 S2330으로 이동하고, 사용자의 제스처가 디텍트되지 않은 경우에는 S2310으로 이동한다.
또한, 사용자의 제스처가 디텍트된 경우, HMD는 제스처로 디텍트된 입력 오브젝트와 복수의 터치 인식 서피스들 간의 거리를 획득한다(S2330). 이때, 입력 오브젝트는 터치 인식 서피스에 터치 입력을 제공할 수 있는 오브젝트를 의미한다. 이 경우, HMD는 도 21c 및 도 21d에서 설명한 방법을 사용하여 입력 오브젝트와 복수의 터치 인식 서피스들 간의 거리를 획득 할 수 있다.
또한, HMD는 획득된 거리가 기설정된 기준 거리 이하인지 여부를 판단한다(S2340). 이때, 획득된 거리가 기설정된 기준 거리 이하인 경우에는 S2350으로 이동하고, 획득된 거리가 기설정된 기준 거리 이상인 경우에는 S2320으로 이동한다.
또한, HMD는 기준 거리 이하인 것으로 판단된 터치 인식 서피스가 오브젝트의 서피스에 일치하도록 버추얼 오브젝트의 디스플레이 거리를 조정하고(S2350), 조정된 디스플레이 거리에 기초하여 버추얼 오브젝트를 디스플레이한다(S2360). 이를 제 2 디스플레이라고 지칭할 수 있다. 이 경우, HMD는 도 20에서 설명한 방법을 사용하여, 디스플레이 거리를 조정하고, 버추얼 오브젝트를 디스플레이할 수 있다.
도 19 내지 23에서, 상술한 내용은, 도 3 내지 7에서 제 1 실시예로서 설명된 바와 같이, 오브젝트가 디텍트되고 디텍트된 오브젝트가 물리적 피드백이 가능한 일정 거리내에 존재하는 경우, 물리적 UI 모드가 적용되는, 다양한 실시예에 대하여 설명하고 있다.
그러나, 물리적 UI 모드는 도 8 내지 10, 도 11 내지 13, 도 14 내지 16 및 도 17 내지 18에서 제 2 실시예, 제 3 실시예, 제 4 실시예 및 제 5 실시예로서 상술한 내용과 동일한 경우에도 적용될 수 있다.
그리고, 도 19 내지 23에서는 물리적 UI 모드가 적용된 HMD의 다양한 실시예에 대하여만 설명하고 있으나, 비물리적(physical) UI 모드가 적용된 HMD의 다양한 실시예도 존재할 수 있다. 그러나, 이 경우는 본 명세서의 제 1 실시예 내지 제 5 실시예로서 상술한 비물리적 UI에 대한 내용에 의하여 뒷받침될 수 있으므로, 자세한 설명을 생략한다.
100 : HMD 200 : 시야각
300 : 네트워크 400 : 오브젝트
500 : 디지털 디바이스 110 : 프로세서
300 : 네트워크
300 : 네트워크 400 : 오브젝트
500 : 디지털 디바이스 110 : 프로세서
300 : 네트워크
Claims (39)
- HMD(Head Mounted Display) 주변의 오브젝트를 디텍트하고, 오브젝트가 디텍트된 경우 상기 오브젝트와 상기 HMD 간의 거리를 센싱하는 센서 유닛; 및
상기 디텍트된 오브젝트가 상기 HMD로부터 기설정된 거리 내에 존재하는 경우 물리적(physical) 사용자 인터페이스(UI) 모드를 적용하는 프로세서;를 포함하고,
상기 물리적 UI 모드는 버추얼 오브젝트에 대한 디스플레이를 제공하고,
상기 프로세서는,
상기 버추얼 오브젝트가 3D 오브젝트이고 상기 3D 오브젝트가 터치 인식 서피스(surface)를 포함하는 경우, 상기 터치 인식 서피스가 상기 오브젝트의 서피스에 일치하도록 상기 버추얼 오브젝트의 디스플레이 거리를 조정하고,
상기 조정된 디스플레이 거리에 기초하여 상기 버추얼 오브젝트를 디스플레이하고,
상기 오브젝트가 디텍트되지 않거나 상기 HMD로부터 기설정된 거리 이내에 위치하지 않는 경우, 비물리적 UI 모드를 적용하고,
상기 오브젝트와 물리적으로 접촉하는 상기 물리적 UI 모드 또는 상기 오브젝트와 물리적 접촉없는 상기 비물리적 UI 모드에서 상기 HMD의 UI에 입력된 사용자 명령을 수신하는,
HMD(Head Mounted Display)를 위한 사용자 인터페이스 장치. - 제1항에 있어서,
상기 프로세서는,
상기 3D 오브젝트가 복수의 터치 인식 서피스를 포함하는 경우, 선택 정보에 기초하여 기설정된 방식으로 선택된 적어도 하나의 터치 인식 서피스가 상기 오브젝트의 서피스에 일치하도록 상기 버추얼 오브젝트의 디스플레이 거리를 조정하고, 상기 조정된 디스플레이 거리에 기초하여 상기 버추얼 오브젝트를 디스플레이하는 것을 특징으로 하는 사용자 인터페이스 장치. - 제2항에 있어서,
상기 선택 정보는 디스플레이 영역 정보, 사용 빈도 정보 및 상기 버추얼 오브젝트의 전면 및 후면 간의 거리에 대한 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 인터페이스 장치. - 제1항에 있어서,
상기 센서 유닛은,
상기 버추얼 오브젝트에 대한 사용자 제스처를 디텍트하고,
상기 프로세서는,
상기 3D 오브젝트가 복수의 터치 인식 서피스를 포함하는 경우, 기설정된 디스플레이 거리에 따라 상기 버추얼 오브젝트를 디스플레이하고, 상기 사용자의 제스처가 디텍트된 경우, 상기 제스처에 의해 디텍트된 입력 오브젝트와 상기 복수의 터치 인식 서피스 간의 거리를 획득하며, 상기 획득된 거리가 기설정된 거리 이하인지 여부를 판단하고, 상기 기설정된 거리 이하로 판단된 상기 터치 인식 서피스가 상기 오브젝트의 서피스와 일치하도록 상기 버추얼 오브젝트의 디스플레이 거리를 조정하며, 상기 조정된 디스플레이 거리에 기초하여 상기 버추얼 오브젝트를 디스플레이하는 것을 특징으로 하는 사용자 인터페이스 장치. - 제1항에 있어서,
상기 프로세서는,
상기 버추얼 오브젝트가 3D 오브젝트이고 상기 3D 오브젝트가 터치 인식 서피스를 포함하는 경우, 기설정된 거리에 따라 상기 버추얼 오브젝트를 디스플레이하는 것을 특징으로 하는 사용자 인터페이스 장치. - 삭제
- 제 1 항에 있어서,
상기 비물리적 UI 모드는 상기 오브젝트와 물리적 접촉이 없는 상태에서 동작하는 것을 특징으로 하는 사용자 인터페이스 장치. - 제7항에 있어서,
상기 비물리적 UI 모드는,
음성 인식 UI 및 제스처 UI 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 인터페이스 장치. - 제 1 항에 있어서,
상기 프로세서는,
상기 디텍트된 오브젝트가 기설정된 거리 내에 존재하고 상기 디텍트된 오브젝트가 시야각 내에 존재하는 경우, 상기 물리적 UI 모드를 선택하는 것을 특징으로 하는 사용자 인터페이스 장치. - 제9항에 있어서,
상기 프로세서는,
상기 디텍트된 오브젝트가 상기 시야각 내에 존재하지만 사용자 터치가 용이하지 않은 경우, 상기 비물리적 UI 모드로 변경하는 것을 특징으로 하는 사용자 인터페이스 장치. - 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120102277 | 2012-09-14 | ||
KR1020120102277 | 2012-09-14 | ||
US13/708,561 US8482527B1 (en) | 2012-09-14 | 2012-12-07 | Apparatus and method of providing user interface on head mounted display and head mounted display thereof |
US13/708,561 | 2012-12-07 | ||
PCT/KR2013/008300 WO2014042458A1 (en) | 2012-09-14 | 2013-09-13 | Apparatus and method of providing user interface on head mounted display and head mounted display thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150054825A KR20150054825A (ko) | 2015-05-20 |
KR102138533B1 true KR102138533B1 (ko) | 2020-08-11 |
Family
ID=48701422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157006207A KR102138533B1 (ko) | 2012-09-14 | 2013-09-13 | 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법 |
Country Status (5)
Country | Link |
---|---|
US (2) | US8482527B1 (ko) |
EP (2) | EP2896205B1 (ko) |
KR (1) | KR102138533B1 (ko) |
CN (1) | CN104641318B (ko) |
WO (2) | WO2014042320A1 (ko) |
Families Citing this family (111)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9378592B2 (en) | 2012-09-14 | 2016-06-28 | Lg Electronics Inc. | Apparatus and method of providing user interface on head mounted display and head mounted display thereof |
US8482527B1 (en) * | 2012-09-14 | 2013-07-09 | Lg Electronics Inc. | Apparatus and method of providing user interface on head mounted display and head mounted display thereof |
US9671874B2 (en) * | 2012-11-08 | 2017-06-06 | Cuesta Technology Holdings, Llc | Systems and methods for extensions to alternative control of touch-based devices |
US10359841B2 (en) | 2013-01-13 | 2019-07-23 | Qualcomm Incorporated | Apparatus and method for controlling an augmented reality device |
US20140267049A1 (en) * | 2013-03-15 | 2014-09-18 | Lenitra M. Durham | Layered and split keyboard for full 3d interaction on mobile devices |
GB201310358D0 (en) * | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-Mountable apparatus and systems |
US10451874B2 (en) | 2013-09-25 | 2019-10-22 | Seiko Epson Corporation | Image display device, method of controlling image display device, computer program, and image display system |
JP6206099B2 (ja) * | 2013-11-05 | 2017-10-04 | セイコーエプソン株式会社 | 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置 |
JP2015090547A (ja) * | 2013-11-05 | 2015-05-11 | ソニー株式会社 | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
US9529194B2 (en) | 2013-11-21 | 2016-12-27 | Samsung Electronics Co., Ltd. | Head-mounted display apparatus |
US9448621B2 (en) * | 2013-12-20 | 2016-09-20 | Nokia Technologies Oy | Causation of display of information on a see through display |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US10254856B2 (en) * | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US9299194B2 (en) | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US9523856B2 (en) | 2014-01-21 | 2016-12-20 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9538915B2 (en) | 2014-01-21 | 2017-01-10 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9811159B2 (en) | 2014-01-21 | 2017-11-07 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US20150241963A1 (en) | 2014-02-11 | 2015-08-27 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
WO2015142023A1 (en) | 2014-03-21 | 2015-09-24 | Samsung Electronics Co., Ltd. | Method and wearable device for providing a virtual input interface |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
JP6362391B2 (ja) * | 2014-04-10 | 2018-07-25 | キヤノン株式会社 | 情報処理端末、情報処理方法及びコンピュータプログラム |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
KR102262086B1 (ko) * | 2014-05-28 | 2021-06-09 | 삼성전자 주식회사 | 이미지 처리 방법 및 장치 |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9092898B1 (en) | 2014-07-03 | 2015-07-28 | Federico Fraccaroli | Method, system and apparatus for the augmentation of radio emissions |
KR20160033376A (ko) | 2014-09-18 | 2016-03-28 | (주)에프엑스기어 | 시선에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램 |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
KR102345911B1 (ko) | 2015-01-16 | 2022-01-03 | 삼성전자주식회사 | 가상 입력 장치 및 이를 이용한 사용자 입력 수신 방법 |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
JP5981591B1 (ja) * | 2015-03-17 | 2016-08-31 | 株式会社コロプラ | 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム |
KR102313485B1 (ko) | 2015-04-22 | 2021-10-15 | 삼성전자주식회사 | 가상현실 스트리밍 서비스를 위한 영상 데이터를 송수신하는 방법 및 장치 |
CN104820492A (zh) * | 2015-04-23 | 2015-08-05 | 济南大学 | 一种三维触觉系统 |
US11003246B2 (en) | 2015-07-22 | 2021-05-11 | Mentor Acquisition One, Llc | External user interface for head worn computing |
US20170017323A1 (en) * | 2015-07-17 | 2017-01-19 | Osterhout Group, Inc. | External user interface for head worn computing |
US10139966B2 (en) | 2015-07-22 | 2018-11-27 | Osterhout Group, Inc. | External user interface for head worn computing |
US9298283B1 (en) | 2015-09-10 | 2016-03-29 | Connectivity Labs Inc. | Sedentary virtual reality method and systems |
US10416776B2 (en) | 2015-09-24 | 2019-09-17 | International Business Machines Corporation | Input device interaction |
EP3379736B1 (en) | 2015-11-19 | 2022-01-19 | Sony Interactive Entertainment Inc. | Antenna control device, head-mounted display, antenna control method, and program |
CN105657407B (zh) * | 2015-12-31 | 2018-11-23 | 深圳纳德光学有限公司 | 头戴显示器及其双目3d视频显示方法和装置 |
CN105425397A (zh) * | 2016-01-01 | 2016-03-23 | 赵山山 | 一种头戴式显示器的自动调节方法、系统和装置 |
KR102610120B1 (ko) * | 2016-01-20 | 2023-12-06 | 삼성전자주식회사 | Hmd 디바이스 및 그 제어 방법 |
US10824253B2 (en) | 2016-05-09 | 2020-11-03 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10684478B2 (en) | 2016-05-09 | 2020-06-16 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10466491B2 (en) | 2016-06-01 | 2019-11-05 | Mentor Acquisition One, Llc | Modular systems for head-worn computers |
CN106123916B (zh) * | 2016-06-13 | 2019-11-15 | 上海临奇智能科技有限公司 | 一种用于校准vr设备中惯性测量单元的方法与设备 |
CN108073432B (zh) * | 2016-11-07 | 2020-12-22 | 亮风台(上海)信息科技有限公司 | 一种头戴式显示设备的用户界面显示方法 |
US10591988B2 (en) * | 2016-06-28 | 2020-03-17 | Hiscene Information Technology Co., Ltd | Method for displaying user interface of head-mounted display device |
CN106157930A (zh) * | 2016-06-30 | 2016-11-23 | 腾讯科技(深圳)有限公司 | 基于头戴式可视设备的亮度调节方法及装置 |
KR102519578B1 (ko) * | 2016-07-05 | 2023-04-07 | 삼성전자주식회사 | 전자 장치의 화면 표시 방법 및 그 장치 |
CN106227345A (zh) * | 2016-07-21 | 2016-12-14 | 深圳市金立通信设备有限公司 | 一种虚拟现实眼镜及其控制方法 |
CN106502323A (zh) * | 2016-10-20 | 2017-03-15 | 精元电脑股份有限公司 | 能叠加虚拟键盘的显示装置 |
CN106802761A (zh) * | 2017-01-03 | 2017-06-06 | 北京掌阔移动传媒科技有限公司 | 一种基于重力感应的广告投放方法和系统 |
US10366540B2 (en) * | 2017-03-23 | 2019-07-30 | Htc Corporation | Electronic apparatus and method for virtual reality or augmented reality system |
WO2018177521A1 (en) | 2017-03-29 | 2018-10-04 | Vestel Elektronik Sanayi Ve Ticaret A.S. | Improved method and system for vr interaction |
US10152141B1 (en) | 2017-08-18 | 2018-12-11 | Osterhout Group, Inc. | Controller movement tracking with light emitters |
KR102431712B1 (ko) | 2017-09-04 | 2022-08-12 | 삼성전자 주식회사 | 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품 |
US11199946B2 (en) * | 2017-09-20 | 2021-12-14 | Nec Corporation | Information processing apparatus, control method, and program |
US11861136B1 (en) * | 2017-09-29 | 2024-01-02 | Apple Inc. | Systems, methods, and graphical user interfaces for interacting with virtual reality environments |
KR102306790B1 (ko) * | 2017-11-08 | 2021-09-30 | 삼성전자주식회사 | 컨텐츠 시각화 장치 및 방법 |
US11164380B2 (en) * | 2017-12-05 | 2021-11-02 | Samsung Electronics Co., Ltd. | System and method for transition boundaries and distance responsive interfaces in augmented and virtual reality |
US10643362B2 (en) * | 2018-03-26 | 2020-05-05 | Lenovo (Singapore) Pte Ltd | Message location based on limb location |
US10854169B2 (en) | 2018-12-14 | 2020-12-01 | Samsung Electronics Co., Ltd. | Systems and methods for virtual displays in virtual, mixed, and augmented reality |
US10902250B2 (en) | 2018-12-21 | 2021-01-26 | Microsoft Technology Licensing, Llc | Mode-changeable augmented reality interface |
US11023035B1 (en) | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual pinboard interaction using a peripheral device in artificial reality environments |
US10976804B1 (en) | 2019-07-09 | 2021-04-13 | Facebook Technologies, Llc | Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments |
US11023036B1 (en) * | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual drawing surface interaction using a peripheral device in artificial reality environments |
KR20220012073A (ko) * | 2020-07-22 | 2022-02-03 | 삼성전자주식회사 | 가상 사용자 인터랙션을 수행하기 위한 방법 및 그 장치 |
JP2022122479A (ja) * | 2021-02-10 | 2022-08-23 | キヤノン株式会社 | 撮像システム、表示装置、撮像装置、および撮像システムの制御方法 |
KR20230046008A (ko) * | 2021-09-29 | 2023-04-05 | 삼성전자주식회사 | 증강 현실(Augmented Reality) 장치가 콘텐트를 디스플레이하는 방법 및 콘텐트를 디스플레이하는 증강 현실 장치 |
KR20230088100A (ko) * | 2021-12-10 | 2023-06-19 | 삼성전자주식회사 | 가상 입력 장치를 이용하기 위한 전자 장치 및 그 전자 장치에서의 동작 방법 |
KR20240028874A (ko) * | 2022-08-25 | 2024-03-05 | 삼성전자주식회사 | 외부 디바이스에 의해 제어되는 증강 현실 디바이스 및 그 동작 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110140994A1 (en) * | 2009-12-15 | 2011-06-16 | Noma Tatsuyoshi | Information Presenting Apparatus, Method, and Computer Program Product |
CN102508546A (zh) * | 2011-10-31 | 2012-06-20 | 冠捷显示科技(厦门)有限公司 | 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061064A (en) * | 1993-08-31 | 2000-05-09 | Sun Microsystems, Inc. | System and method for providing and using a computer user interface with a view space having discrete portions |
US6771294B1 (en) | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
JP2002318652A (ja) | 2001-04-20 | 2002-10-31 | Foundation For Nara Institute Of Science & Technology | 仮想入力装置およびプログラム |
GB2376397A (en) * | 2001-06-04 | 2002-12-11 | Hewlett Packard Co | Virtual or augmented reality |
US7774075B2 (en) | 2002-11-06 | 2010-08-10 | Lin Julius J Y | Audio-visual three-dimensional input/output |
KR100800859B1 (ko) | 2004-08-27 | 2008-02-04 | 삼성전자주식회사 | Hmd 정보 단말기에서 키를 입력하는 장치 및 방법 |
US8957835B2 (en) * | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
US8397181B2 (en) | 2008-11-17 | 2013-03-12 | Honeywell International Inc. | Method and apparatus for marking a position of a real world object in a see-through display |
US20100238161A1 (en) | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360º heads up display of safety/mission critical data |
KR20110010906A (ko) * | 2009-07-27 | 2011-02-08 | 삼성전자주식회사 | 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치 |
KR101123115B1 (ko) | 2010-02-09 | 2012-03-20 | 유태영 | 거치형 hmd의자가 설치된 무선네트워크전용 3d pc방 시설장치 |
US20110214082A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
CN102906623A (zh) | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US8508347B2 (en) * | 2010-06-24 | 2013-08-13 | Nokia Corporation | Apparatus and method for proximity based input |
US8199974B1 (en) * | 2011-07-18 | 2012-06-12 | Google Inc. | Identifying a target object using optical occlusion |
US10019962B2 (en) | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US8482527B1 (en) * | 2012-09-14 | 2013-07-09 | Lg Electronics Inc. | Apparatus and method of providing user interface on head mounted display and head mounted display thereof |
-
2012
- 2012-12-07 US US13/708,561 patent/US8482527B1/en not_active Expired - Fee Related
-
2013
- 2013-01-10 WO PCT/KR2013/000209 patent/WO2014042320A1/en unknown
- 2013-01-10 EP EP13836413.8A patent/EP2896205B1/en active Active
- 2013-06-12 US US13/916,397 patent/US9448624B2/en active Active
- 2013-09-13 WO PCT/KR2013/008300 patent/WO2014042458A1/en unknown
- 2013-09-13 EP EP13837217.2A patent/EP2895911B1/en not_active Not-in-force
- 2013-09-13 KR KR1020157006207A patent/KR102138533B1/ko active IP Right Grant
- 2013-09-13 CN CN201380047804.0A patent/CN104641318B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110140994A1 (en) * | 2009-12-15 | 2011-06-16 | Noma Tatsuyoshi | Information Presenting Apparatus, Method, and Computer Program Product |
CN102508546A (zh) * | 2011-10-31 | 2012-06-20 | 冠捷显示科技(厦门)有限公司 | 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2896205A1 (en) | 2015-07-22 |
CN104641318B (zh) | 2018-02-02 |
EP2895911B1 (en) | 2018-12-19 |
WO2014042458A1 (en) | 2014-03-20 |
US9448624B2 (en) | 2016-09-20 |
KR20150054825A (ko) | 2015-05-20 |
EP2895911A1 (en) | 2015-07-22 |
EP2895911A4 (en) | 2016-07-27 |
US20140078043A1 (en) | 2014-03-20 |
WO2014042320A1 (en) | 2014-03-20 |
EP2896205B1 (en) | 2019-01-02 |
CN104641318A (zh) | 2015-05-20 |
US8482527B1 (en) | 2013-07-09 |
EP2896205A4 (en) | 2016-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102138533B1 (ko) | 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법 | |
KR101878144B1 (ko) | 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법 | |
US9378592B2 (en) | Apparatus and method of providing user interface on head mounted display and head mounted display thereof | |
KR101984590B1 (ko) | 디스플레이 디바이스 및 그 제어 방법 | |
EP2960882B1 (en) | Display device and operating method thereof | |
TWI423112B (zh) | 可攜式虛擬輸入操作裝置與其操作方法 | |
KR102403338B1 (ko) | 이동 단말기 | |
US8872735B2 (en) | Head mounted display for adjusting audio output and video output in relation to each other and method for controlling the same | |
US20170351325A1 (en) | Information processing apparatus, information processing method, and computer program | |
KR102392087B1 (ko) | 원격 조정 장치 및 원격 조정 장치의 사용자 음성 수신방법 | |
US20140160353A1 (en) | Control apparatus, remote control apparatus, and method capable of controlling tv interface | |
KR102330250B1 (ko) | 디스플레이 장치, 제어 장치 및 그 동작 방법 | |
WO2017085974A1 (ja) | 情報処理装置 | |
EP3631606B1 (en) | Display device, user terminal device, display system including the same and control method thereof | |
EP2916313A1 (en) | Display device and operating method thereof | |
US10506290B2 (en) | Image information projection device and projection device control method | |
US10310676B2 (en) | Image projection apparatus and operation method thereof | |
KR102333931B1 (ko) | 영상 투사 장치 및 그의 동작 방법 | |
WO2019054037A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR102360628B1 (ko) | 영상 투사 장치 및 그의 동작 방법 | |
EP3226568A1 (en) | Display device and display method | |
KR20110083911A (ko) | 영상표시장치 및 그 동작 방법 | |
KR102428271B1 (ko) | 전자 장치 및 전자 장치의 사운드 제어방법 | |
KR101337138B1 (ko) | 사용자 단말기 및 이의 제어 방법 | |
KR102218652B1 (ko) | 스마트 안경 및 스마트 안경 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |