KR20150141461A - 헤드 마운티드 디스플레이 및 그 제어 방법 - Google Patents

헤드 마운티드 디스플레이 및 그 제어 방법 Download PDF

Info

Publication number
KR20150141461A
KR20150141461A KR1020140070218A KR20140070218A KR20150141461A KR 20150141461 A KR20150141461 A KR 20150141461A KR 1020140070218 A KR1020140070218 A KR 1020140070218A KR 20140070218 A KR20140070218 A KR 20140070218A KR 20150141461 A KR20150141461 A KR 20150141461A
Authority
KR
South Korea
Prior art keywords
hmd
control interface
input means
user
processor
Prior art date
Application number
KR1020140070218A
Other languages
English (en)
Inventor
이도영
천시내
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140070218A priority Critical patent/KR20150141461A/ko
Priority to US14/477,330 priority patent/US9261955B2/en
Priority to PCT/KR2014/008612 priority patent/WO2015190650A1/en
Priority to EP14894552.0A priority patent/EP3155471B1/en
Publication of KR20150141461A publication Critical patent/KR20150141461A/ko
Priority to US14/991,089 priority patent/US9495007B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0334Foot operated pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 명세서의 일 실시예에 따른 HMD 제어 방법은 컨텐츠를 HMD의 디스플레이 유닛 상에 디스플레이하는 단계, HMD의 틸트(tilt) 각도를 센싱하는 단계 및 컨텐츠의 제어를 제공하는 제어 인터페이스를 제공하는 단계를 포함할 수 있다. 또한, 제어 인터페이스를 제공하는 단계는, 센싱된 틸트 각도 및 HMD의 상태에 기초하여제어 인터페이스를 지면(ground) 상에 매핑하고, 매핑된 제어 인터페이스를 디스플레이 유닛 상에 디스플레이하는 단계를 포함할 수 있다.

Description

헤드 마운티드 디스플레이 및 그 제어 방법{HEAD MOUNTED DISPLAY AND METHOD FOR CONTROLLING THE SAME}
본 명세서는 헤드 마운티드 디스플레이(HMD: Head Mounted Display) 및 그 제어 방법에 대한 것이다.
도 1은 헤드 마운티드 디스플레이의 일 예시를 도시한다.
유저의 신체에 마운트되는 웨어러블(wearable) 디바이스가 이용되고 있다. 예를 들어, 도 1에 도시된 헤드 마운티드 디스플레이는 웨어러블 디바이스의 일 예시이다. 또한, 헤드 마운티드 디스플레이는, 도 1에 도시된 바와 같이, 안경과 유사한 형태를 가져 항시 착용이 가능하다.
헤드 마운티드 디스플레이는 유저가 현실의 세계의 리얼 오브젝트와 가상 현실 이미지를 함께 볼 수 있는 개방형 시야(open-view) 타입 또는 유저가 가상 현실 이미지만을 볼 수 있는 폐쇄형 시야(closed-view) 타입으로 구분될 수 있다. 개방형 시야를 갖는 헤드 마운티드 디스플레이는 증강 현실(AR: Argumented Reality) 또는 혼합 현실(MR: Mixed Reality)을 이용하여 유저에게 증가된 몰입감을 제공할 수 있다.
도 2는 헤드 마운티드 디스플레이의 유저가 양손을 이용할 수 없는 상황을 도시한다.
헤드 마운티드 디스플레이는 손에 의한 입력을 수신할 수 있다. 예를 들어, 유저는 헤드 마운티드 디스플레이의 지지부를 터치함으로써 헤드 마운티드 디스플레이를 제어할 수도 있다. 그러나, 도 2에 도시된 바와 같이, 유저가 양손을 이용할 수 없는 경우에는 헤드 마운티드 디스플레이에 대한 제어가 용이하지 않다. 또한, 유저는 단순히 양손을 사용하지 않고 헤드 마운티드 디스플레이를 제어하기를 원할 수도 있다. 이러한 문제점을 해결하기 위하여, 유저의 시선을 인식하여 헤드 마운티드 디스플레이를 제어하는 방법이 연구되고 있다. 그러나, 외부 오브젝트가 존재하는 상황에서, 유저는 시선을 한 점에 고정하는 것이 어렵다.
본 명세서는, 헤드 마운티드 디스플레이 및 그 제어 방법을 제공하고자 한다. 특히, 유저의 발을 이용하여 헤드 마운티드 디스플레이를 제어함으로써 보다 개선된 유저 인터페이스를 제시하고자 한다.
본 명세서의 일 실시예에 따른 헤드 마운티드 디스플레이(HMD)는, 적어도 하나의 이미지를 디스플레이하는 디스플레이 유닛, HMD의 속력 및 움직임 중 적어도 하나를 측정하는 무브먼트 센싱 유닛, HMD의 틸트(tilt) 각도를 센싱하는 각도 센싱 유닛, HMD의 외부에 위치한 적어도 하나의 리얼 오브젝트를 센싱하는 이미지 센싱 유닛 및 디스플레이 유닛, 무브먼트 센싱 유닛, 각도 센싱 유닛 및 상기 이미지 센싱 유닛을 제어하는 프로세서를 포함하고, 프로세서는, 컨텐츠를 디스플레이 유닛 상에 디스플레이하고, 센싱된 적어도 하나의 리얼 오브젝트 중 하나의 리얼 오브젝트를 입력 수단으로 정의하고, HMD의 틸트 각도가 제1 각도 이하인 경우, 컨텐츠의 제어를 제공하는 제어 인터페이스를 디스플레이 유닛 상에 디스플레이하고, 기설정된 시간 이후에 제어 인터페이스의 디스플레이를 종료하며, HMD의 틸트 각도가 제2 각도를 초과하고, 무브먼트 센싱 유닛을 이용하여 HMD가 정지 상태로 판단된 경우, 제어 인터페이스를 지면(ground) 상에 매핑하고, 매핑된 제어 인터페이스를 디스플레이 유닛 상에 디스플레이하고, 제어 인터페이스는 입력 수단에 의한 입력에 기초하여 제어되고, 제1 각도는 제2 각도 이하일 수 있다.
그리고, 프로세서는, HMD의 틸트 각도가 제2 각도를 초과하고, HMD가 정지 상태로 판단된 경우, HMD의 유저의 발 및 신발 중 적어도 하나를 입력 수단으로 정의할 수 있다.
그리고, 프로세서는, HMD의 유저의 발 및 신발 중 적어도 하나가 입력 수단으로 정의된 경우, HMD의 유저의 손이 상기 이미지 센싱 유닛에 의하여 기설정된 시간 이상 센싱되면 입력 수단을 상기 유저의 손으로 전환할 수 있다.
또한, 프로세서는, HMD의 유저의 양쪽 발 또는 양쪽 신발이 이미지 센싱 유닛에 의하여 센싱되는 경우, HMD의 유저의 양쪽 발 중 한쪽 발 또는 양쪽 신발 중 한쪽 신발을 입력 수단으로 정의할 수 있다.
그리고, 프로세서는, 기설정된 선호값, HMD의 유저의 양쪽 다리 각각의 사용 빈도, 및 양쪽 발 또는 양쪽 신발의 움직임 중 적어도 하나에 기초하여 한쪽 발 또는 한쪽 신발을 입력 수단으로 정의할 수 있다.
그리고, 프로세서는, 입력 수단에 인접하게 상기 매핑된 제어 인터페이스를 디스플레이할 수 있다.
그리고, 제어 인터페이스는 컨텐츠의 제어를 제공하는 복수의 이미지들을 포함하고, 프로세서는, 입력 수단으로 정의된 한쪽 발 또는 한쪽 신발의 방향에 기초하여 복수의 이미지들의 배열을 결정할 수 있다.
그리고, 제어 인터페이스는 컨텐츠의 제어를 제공하는 복수의 이미지들을 포함하고, 프로세서는, 유저의 신발이 입력 수단으로 정의된 경우, 신발의 종류에 기초하여 이미지, 이미지의 배열, 이미지의 크기 및 이미지의 수 중 적어도 하나를 결정할 수 있다.
그리고, 프로세서는, 센싱된 신발의 크기, 신발의 모양 및 신발의 색상 중 적어도 하나에 기초하여 신발의 종류를 결정할 수 있다.
또한, 프로세서는, 신발의 크기 및 신발 끝의 첨예도 중 적어도 하나에 기초하여 복수의 이미지들 각각의 크기를 조정할 수 있다.
한편, 프로세서는, HMD의 유저의 발 및 신발 중 적어도 하나가 입력 수단으로 정의되면, 입력 수단을 제외한 외부 리얼 오브젝트에 의한 입력을 제한할 수 있다.
한편, 입력 수단에 의한 입력은, 입력 수단의 제스쳐(gesture)에 기초하여 결정되고, 제스쳐는 입력 수단의 이동, 호버링(hovering), 홀딩(holding), 탭핑(tapping) 및 더블 탭핑 중 적어도 하나를 포함할 수 있다.
그리고, 제어 인터페이스는 컨텐츠의 제어를 제공하는 복수의 이미지들을 포함하고, 복수의 이미지들 중 적어도 하나의 이미지에 대한 입력은, 입력 수단의 기설정된 제스쳐에 의하여만 입력될 수 있다.
한편, 프로세서는, HMD의 틸트 각도가 제2 각도를 초과하고, HMD가 정지 상태로 판단된 경우, 이미지 센싱 유닛에 의하여 센싱된 지면의 상태에 기초하여 제어 인터페이스의 디스플레이 위치 및 크기 중 적어도 하나를 결정하고, 지면의 상태는 지면의 색상, 지면의 연속성, 지면의 높이차이, 지면의 평탄도, 지면의 기울기, 지면의 재질, 지면 상의 표식 및 지면 상의 외부 리얼 오브젝트 중 적어도 하나를 포함할 수 있다.
그리고 프로세서는, 지면의 상태에 기초하여 장애물 및 안전 위험 중 적어도 하나를 디텍트하고, 디텍트된 장애물 및 안전 위험 중 적어도 하나를 회피하도록 제어 인터페이스의 디스플레이 위치 및 크기 중 적어도 하나를 결정할 수 있다.
또한, 프로세서는, 입력 수단과 디텍트된 장애물 및 안전 위험 중 적어도 하나 사이의 거리가 기설정된 거리 이상이면 매핑된 제어 인터페이스를 디스플레이하고, 입력 수단과 상기 디텍트된 장애물 및 안전 위험 중 적어도 하나 사이의 거리가 기설정된 거리 미만이면 매핑된 제어 인터페이스를 디스플레이하지 않을 수 있다.
또한, 프로세서는, 지면의 상태에 기초하여 계단을 디텍트하고, HMD의 유저가 서있는 계단의 다음 계단에 대응하는 디스플레이 유닛 상의 위치에 매핑된 제어 인터페이스를 디스플레이할 수 있다.
한편, 프로세서는, HMD의 틸트 각도가 제2 각도를 초과하고, HMD가 정지 상태로 판단된 경우, 디스플레이 유닛 상의 기설정된 위치 또는 컨텐츠에 인접한 위치에 매핑된 제어 인터페이스를 디스플레이할 수 있다.
한편, 프로세서는, 매핑된 제어 인터페이스가 디스플레이되고, 기설정된 시간 내에 HMD의 방향이 유지된 채로 HMD가 HMD의 전방 또는 후방으로 이동되면, HMD의 이동 거리에 기초하여 제어 인터페이스의 디스플레이 크기를 변경할 수 있다.
한편, 프로세서는, HMD의 속력이 기설정된 속력 이하인 경우 및 HMD의 움직임이 없는 경우 중 적어도 하나의 경우에 HMD를 정지 상태로 판단할 수 있다.
또한, 본 명세서의 일 실시예에 따른 헤드 마운티드 디스플레이(HMD: Head Mounted Display)의 제어 방법은, 컨텐츠를 HMD의 디스플레이 유닛 상에 디스플레이하는 단계, HMD의 틸트(tilt) 각도를 센싱하는 단계 및 컨텐츠의 제어를 제공하는 제어 인터페이스를 제공하는 단계를 포함하고, 제어 인터페이스를 제공하는 단계는, 센싱된 틸트 각도가 제1 각도 이하인 경우, HMD의 외부에 위치한 하나 이상의 리얼 오브젝트 중 하나의 리얼 오브젝트를 제1 입력 수단으로 정의하고, 제어 인터페이스를 디스플레이 유닛 상에 디스플레이하고, 기설정된 시간 이후에 제어 인터페이스의 디스플레이를 종료하는 단계 및 센싱된 틸트 각도가 제2 각도를 초과하고, HMD의 속력 및 움직임 중 적어도 하나에 기초하여 HMD가 정지 상태로 판단된 경우, HMD의 외부에 위치한 하나 이상의 리얼 오브젝트 중 하나의 리얼 오브젝트를 제2 입력 수단으로 정의하고, 제어 인터페이스를 지면(ground) 상에 매핑하고, 매핑된 제어 인터페이스를 디스플레이 유닛 상에 디스플레이하는 단계를 포함하고, 제어 인터페이스는 제1 및 제2 입력 수단 중 적어도 하나에 의한 입력에 기초하여 제어되고, 제1 각도는 상기 제2 각도 이하일 수 있다.
본 명세서에 따르면, 헤드 마운티드 디스플레이는 보다 개선된 인터페이스를 제공할 수 있다.
또한, 본 명세서에 따르면, 헤드 마운티드 디스플레이는 그 움직임을 센싱할 수 있다.
또한, 본 명세서에 따르면, 헤드 마운티드 디스플레이는 현실 세계의 리얼 오브젝트와 관련하여 제어 인터페이스를 제공할 수 있다.
또한, 본 명세서에 따르면, 헤드 마운티드 디스플레이는 현실 세계의 안전 위험으로부터 보다 안전한 제어 인터페이스를 제공할 수 있다.
도 1은 HMD의 일 예시를 도시한다.
도 2는 HMD의 유저가 양손을 이용할 수 없는 상황을 도시한다.
도 3은 HMD의 구성도이다.
도 4는 HMD의 유저가 정면을 보는 경우를 도시한다.
도 5는 HMD의 유저가 지면을 보는 경우를 도시한다.
도 6은 HMD의 틸트(tilt) 각도를 도시한다.
도 7은 지면에 매핑된 제어 인터페이스의 예시들을 도시한다.
도 8은 신발에 기초한 제어 인터페이스의 예시들을 도시한다.
도 9는 일 실시예에 따른 HMD의 제어 인터페이스의 동작을 설명하기 위한 도면이다.
도 10은 또 다른 실시예에 따른 HMD의 제어 인터페이스의 동작을 설명하기 위한 도면이다.
도 11은 제스쳐의 예시들을 도시한다.
도 12는 특정 위치를 회피하도록 매핑되는 제어 인터페이스를 도시한다.
도 13은 계단에 매핑되는 제어 인터페이스를 도시한다.
도 14는 안전 위험에 기초한 제어 인터페이스를 도시한다.
도 15는 HMD의 이동에 따른 제어 인터페이스의 디스플레이 크기 변경을 도시한다.
도 16은 일 실시예에 따른 HMD의 제어 방법의 흐름도이다.
도 17은 일 실시예에 따른 HMD의 제어 방법의 흐름도이다.
이하 상기의 목적을 구체적으로 실현할 수 있는 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 명세서의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
또한 본 명세서에 개시되어 있는 본 게시물의 개념에 따른 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 명세서의 개념에 따른 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 명세서의 개념에 다른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서에서 설명된 실시 예들에 한정되는 것으로 해석되어서는 아니 된다.
본 명세서의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 명세서의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 명세서의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
그리고 본 명세서에서 제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 명세서의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게, 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
또한 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 그리고 명세서에 기재된 “…유닛”, “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.
도 1은 HMD의 일 예시를 도시한다.
도 1에는 안경형의 HMD(100)가 도시되어 있다. 그러나, 본 개시물의 HMD(100)는 안경형의 HMD 뿐만 아니라, 헬멧형, 모자형, 고글형 및/또는 머리에 마운트될 수 있는 다양한 형태의 HMD를 포함할 수 있다. HMD(100)는 HMD(100)의 외부 오브젝트에 대한 시야를 차단하지 않으면서, 하나 이상의 컨텐츠를 디스플레이할 수 있다. HMD(100)는 유저에게 증강 현실(AR) 및/또는 혼합 현실(MR)을 제공할 수 있다.
도 3은 HMD의 구성도이다.
본 개시물의 HMD(100)는 적어도 하나의 이미지를 디스플레이하는 디스플레이 유닛(120), HMD(100)의 속력 및 움직임 중 적어도 하나를 측정하는 무브먼트 센싱 유닛(130), HMD(100)의 틸트(tilt) 각도를 센싱하는 각도 센싱 유닛(140), HMD(100)의 외부에 위치한 적어도 하나의 리얼 오브젝트를 센싱하는 이미지 센싱 유닛(150) 및 디스플레이 유닛(120), 무브먼트 센싱 유닛(130), 각도 센싱 유닛(140) 및 이미지 센싱 유닛(140)을 제어하는 프로세서(110)를 포함할 수 있다. 본 명세서에 개시된 HMD(100)의 동작들은 프로세서(110)에 의하여 수행될 수도 있다.
또한, HMD(100)는 외부 디바이스와의 커뮤니케이션을 위한 커뮤니케이션 유닛(160) 및 전력원(170)을 더 포함할 수도 있다. 그러나, 이러한 구성들은 HMD(100)의 필수적 구성들은 아니다. 예를 들어, HMD(100)는 외부의 별도 전력원으로부터 전력을 공급받을 수도 있다. 또한, HMD(100)는 도 3에 도시된 구성 외의 임의의 다른 구성들을 더 포함하고 있을 수도 있다. 예를 들어, HMD(100)는 메모리를 더 포함할 수도 있다. 아울러, HMD(100)의 각 구성들은 버스(180)를 통하여 서로 연결될 수도 있다.
디스플레이 유닛(120)은 렌즈, 투영면, 프로젝터 및/또는 프리즘을 포함할 수도 있다. 또한, 디스플레이 유닛(120)은 임의의 투명 디스플레이 유닛을 포함할 수도 있다. 디스플레이 유닛(120)의 HMD(100) 외부의 이미지를 실시간으로 디스플레이할 수도 있다.
무브먼트 센싱 유닛(130)은 가속도계, 속도계, 위성 위치확인 시스템, 자이로(gyro) 센서, 자기장 센서 및/또는 근접 센서를 포함할 수도 있다. 또한, 무브먼트 센싱 유닛(130)은 상술한 이미지 센싱 유닛(150)을 이용하여 HMD(100)의 속력 및 움직임 중 적어도 하나를 측정할 수도 있다.
각도 센싱 유닛(140)은 가속도계, 자이로 센서 및/또는 중력 가속도계를 포함할 수도 있다. 각도 센싱 유닛(140)은 HMD(100)의 틸트 각도를 센싱할 수 있다. 틸트 각도는 HMD(100)의 유저가 정면을 바라볼 때를 기준으로 하여 HMD(100)의 틸트 각도를 센싱할 수 있다. 따라서, 유저가 정면을 바라볼 때 보다, 유저가 지면을 바라볼 때 틸트 각도가 더 클 수 있다. 그러나, HMD(100)의 틸트 각도는 중력 방향을 기준으로 센싱될 수도 있다. 이 경우, 유저가 지면을 바라볼 때 보다, 유저가 정면을 볼 때 HMD(100)의 틸트 각도가 더 클 수 있다. 이와 같이, HMD(100)의 틸트 각도는 다양한 기준에 따라서 측정될 수 있다. 이하에서는, 이해를 돕기 위하여, 틸트 각도는 유저가 정면을 바라볼 때를 기준으로 하여 센싱되는 것으로 정의한다. 그러나, 통상의 기술자는 다양한 기준에 기초하여 틸트 각도가 센싱될 수 있음을 이해할 수 있으며, 이는 본 개시물의 범위를 벗어나는 것이 아니다.
이미지 센싱 유닛(150)은 HMD(100)의 외부에 존재하는 리얼 오브젝트를 센싱할 수 있다. 즉, 이미지 센싱 유닛(150)은 HMD(100)의 유저가 바라보는 방향에 존재하는 리얼 오브젝트를 센싱할 수 있다. 이미지 센싱 유닛(150)은 가시 광선, 적외선, 자외선, 자기장 및/또는 음파를 이용하여 이미지를 센싱할 수 있다.
이상에서는, 도 1 및 도 3을 참조하여 HMD(100)의 구성이 설명되었다. 이하에서는, 본 개시물의 HMD(100)의 동작이 설명된다. 후술하는 HMD(100)의 동작은 상술한 HMD(100)의 구성(예를 들어, 프로세서(110))에 의하여 실시될 수 있다.
도 4는 HMD의 유저가 정면을 보는 경우를 도시한다.
도 4에서, HMD(100)의 유저는 정면을 보면서 걷고 있다. HMD(100)의 디스플레이 유닛 상에는 컨텐츠(210)가 디스플레이된다. 컨텐츠(210)는 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다. 유저는 HMD(100)를 조작하여 컨텐츠(210)의 디스플레이를 시작할 수 있다. 컨텐츠(210)의 디스플레이가 시작되면, 컨텐츠(210)의 제어를 제공하는 제어 인터페이스(220)가 HMD(100)의 디스플레이 유닛 상에 디스플레이된다. HMD(100)는 HMD(100)의 틸트 각도를 측정함으로써 HMD(100)의 유저가 정면을 보고 있음을 판단할 수도 있다.
또한, HMD(100)는 HMD(100)의 외부에 위치한 적어도 하나의 리얼 오브젝트를 이미지 센싱 유닛을 이용하여 센싱할 수 있다. HMD(100)는, 센싱된 적어도 하나의 리얼 오브젝트 중 하나의 리얼 오브젝트를 입력 수단으로 정의할 수 있다. 예를 들어, 도 4와 같이 HMD(100)의 유저가 정면을 보고 있는 경우에는, HMD(100)의 유저의 손이 입력 수단으로 정의될 수도 있다. HMD(100)는 이미지 센싱 유닛에 의하여 센싱되는 HMD(100)의 유저의 손의 형상을 인식함으로써 HMD(100)의 유저의 손을 입력 수단으로 정의할 수도 있다.
한편, 제어 인터페이스(220)는 입력 수단에 의한 입력에 기초하여 제어된다. 제어 인터페이스(220)는 컨텐츠(210)의 제어를 제공하는 복수의 이미지들을 포함할 수도 있다. 예를 들어, 제어 인터페이스(220)는, 컨텐츠(210)의 재생, 되감기, 빨리감기, 정지 및 처음부터 재생 등의 제어를 제공하는 이미지들을 포함할 수도 있다. 따라서, 유저는 입력 수단이 자신의 손으로 정의되면, 예를 들어, 손을 해당 이미지를 향하여 뻗음으로서, 원하는 제어를 선택할 수 있다. 또한, 유저는 HMD(100)에 위치한 다른 입력 수단(예를 들어, HMD(100)의 지지대에 위치한 버튼 또는 터치 패드)을 조작함으로써 제어 인터페이스(220)를 제어할 수도 있다. 또한, 제어 인터페이스(220)는 디밍(dimming)될 수 있다. 즉, HMD(100)는 기설정된 시간 이후에 제어 인터페이스(220)의 디스플레이를 종료할 수 있다. 또한, HMD(100)는 유저로부터의 입력이 수신되면 제어 인터페이스(220)의 디스플레이를 유지할 수도 있다.
그러나, 도 4에 도시된 바와 같이, HMD(100)의 유저는 양손이 가득찬 상황으로서, HMD(100)의 유저는 손으로 컨텐츠(210)를 제어하기가 매우 어렵다.
도 5는 HMD의 유저가 지면을 보는 경우를 도시한다.
도 5에서, HMD(100)의 디스플레이 유닛 상에는 컨텐츠(210)가 디스플레이 되고, HMD(100)의 유저는 멈춰서 지면을 보고 있다. HMD(100)는 HMD(100)의 틸트 각도를 측정함으로써 HMD(100)의 유저가 지면을 보고 있음을 판단할 수 있다. 또한, HMD(100)는 HMD(100)의 무브먼트를 센싱함으로써 HMD(100)가 정지상태인지 판단할 수 있다. 예를 들어, HMD(100)는 HMD(100)의 속도, HMD(100)의 가속도, HMD(100)의 움직임 및/또는 HMD(100) 외부의 이미지를 이용하여 HMD(100)의 무브먼트를 센싱할 수도 있다. 또한, HMD(100)는 HMD(100)의 속력이 기설정된 속력 이하인 경우에 정지상태로 판단될 수 있다. 또한, HMD(100)는 HMD(100)의 움직임이 없는 경우에 정지상태로 판단될 수도 있다.
HMD(100)의 유저가 지면을 바라보고, HMD(100)가 정지상태로 판단되면, HMD(100)는 제어 인터페이스(220)를 지면 상에 매핑하고, 매핑된 제어 인터페이스(220)를 디스플레이 유닛 상에 디스플레이한다. 제어 인터페이스(220)를 지면 상에 매핑함으로써, 제어 인터페이스(220)는 유저에게 지면 상에 그려진 것과 같이 디스플레이된다. HMD(100)는 컨텐츠(210)에 인접하게 제어 인터페이스(220)를 디스플레이할 수도 있다. 또한, HMD(100)는 디스플레이 유닛 상의 기설정된 위치에 제어 인터페이스(220)를 디스플레이할 수도 있다. 또한, 후술하는 바와 같이, HMD(100)는 입력 수단에 인접하게 제어 인터페이스(220)를 디스플레이할 수도 있다.
또한, HMD(100)는 HMD(100)의 외부에 위치한 적어도 하나의 리얼 오브젝트를 이미지 센싱 유닛을 이용하여 센싱할 수 있다. HMD(100)는, 센싱된 적어도 하나의 리얼 오브젝트 중 하나의 리얼 오브젝트를 입력 수단으로 정의할 수 있다. 예를 들어, 도 5와 같이 HMD(100)의 유저가 지면을 보고 있는 경우에는, HMD(100)의 유저의 신발이 입력 수단으로 정의될 수도 있다. HMD(100)는 이미지 센싱 유닛에 의하여 센싱되는 HMD(100)의 유저의 신발의 형상을 인식함으로써 HMD(100)의 유저의 신발을 입력 수단으로 정의할 수도 있다. 또한, HMD(100)는 HMD(100)의 유저의 발, 목발, 유저의 손에 들린 막대기, 지팡이 또는 유저가 들고 있는 임의의 도구 를 입력 수단으로 정의할 수도 있다.
한편, 제어 인터페이스(220)는 입력 수단에 의한 입력에 기초하여 제어된다. 제어 인터페이스(220)는 컨텐츠(210)의 제어를 제공하는 복수의 이미지들을 포함할 수도 있다. 예를 들어, 제어 인터페이스(220)는, 컨텐츠(210)의 재생, 되감기, 빨리감기, 정지 및 처음부터 재생 등의 제어를 제공하는 이미지들을 포함할 수도 있다. 따라서, 유저는 입력 수단이 신발으로 정의되면, 예를 들어, 신발을 해당 이미지를 향하여 뻗음으로서, 원하는 제어를 선택할 수 있다. 또한, 유저는 HMD(100)에 위치한 다른 입력 수단(예를 들어, HMD(100)의 지지대에 위치한 버튼 또는 터치 패드)을 조작함으로써 제어 인터페이스(220)를 제어할 수도 있다. 제어 인터페이스(220)는 HMD(100)가 이동함에 따라서 디밍될 수도 있다. 그러나, HMD(100)가 이동한다고 하더라도, HMD(100)는 제어 인터페이스(220)를 계속하여 디스플레이할 수도 있다. 예를 들어, HMD(100)는, 일단 제어 인터페이스가 지면에 매핑되어 디스플레이되었다면, 유저가 지면을 보면서 이동하는 동안 계속하여 제어 인터페이스(220)를 디스플레이할 수도 있다.
도 6은 HMD의 틸트(tilt) 각도를 도시한다.
도 3과 관련하여 상술한 바와 같이, HMD(100)는 HMD(100)의 틸트 각도를 센싱할 수 있다. HMD(100)는 틸트 기설정된 틸트 각도의 범위를 이용하여 유저가 정면을 응시하는지 아니면 지면을 응시하는지를 판단할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 틸트 각도의 범위에 따라서, 유저의 시선 방향을 판단할 수 있다. 예를 들어, 기설정된 제1 틸트 각도 이하이면, HMD(100)는 유저가 정면을 응시하는 것으로 판단할 수 있다. 또한, 기설정된 제2 틸트 각도를 초과하면, HMD(100)는 유저가 지면을 응시하는 것으로 판단할 수 있다. 이 경우, 제1 틸트 각도는 제2 틸트 각도 이하일 수 있다.
예를 들어, HMD(100)의 전방을 향하는 축이 지오이드(geoid) 면과 수평일 때, HMD(100)의 틸트 각도가 0도로 정의될 수도 있다. 또한, 유저가 고개를 숙임에 따라서, 틸트 각도가 증가되는 것으로 정의될 수도 있다. 예를 들어, HMD(100)의 전방을 향하는 축이 지면을 향하고, 지오이드 면과 수직일 때, HMD(100)의 틸트 각도가 90도로 정의될 수도 있다. 또한, HMD(100)의 전방을 향하는 축이 상공을 향하고, 지오이드 면과 수직일 때, HMD(100)의 틸트 각도가 -90도로 정의될 수도 있다. 따라서, HMD(100)의 전방향을 향하는 축이 지면을 향함에 따라서 틸트 각도가 증가할 수 있다. 이 경우, 틸트 각도가 일정 각도 이하이면, HMD(100)는 유저가 정면을 응시하는 것으로 판단할 수 있다. 예를 들어, HMD(100)는 틸트 각도가 45도 이하이면 유저가 정면을 응시하는 것으로 판단할 수도 있다. 또한, 틸트 각도가 일정 각도를 초과하면, HMD(100)는 유저가 지면을 응시하는 것으로 판단할 수도 있다. 예를 들어, HMD(100)는 틸트 각도가 45도를 초과하면 유저가 지면을 응시하는 것으로 판단할 수도 있다. 여기서, 45도는 임의의 다른 값으로 변경될 수도 있다.
또한, 상술한 바와 같이, 틸트 각도는 중력방향을 기준으로 정의될 수도 있다. 이 경우, HMD(100)의 전방을 향하는 축이 지면을 향하고, 지오이드 면과 수직일 때, HMD(100)의 틸트 각도가 0도로 정의될 수도 있다. 또한, HMD(100)의 전방을 향하는 축이 상공을 향하면 틸트 각도가 증가하는 것으로 정의될 수도 있다. 이 경우, HMD(100)는 틸트 각도가 일정 각도를 초과하면 사용자가 정면을 응시하는 것으로 판단할 수도 있다.
상술한 바와 같이, 틸트 각도는 그 기준에 따라서 달라질 수 있다. 다만, 이하에서는 설명의 편의를 위하여, HMD(100)가 전방을 향하는 축이 지면을 향할수록 틸트 각도가 증가하는 것을 기준으로 설명한다.
도 7은 지면에 매핑된 제어 인터페이스의 예시들을 도시한다.
HMD(100)는 유저의 신발 또는 발을 입력 수단으로 정의할 수 있다. 또한, HMD(100)는 유저의 양쪽 발 또는 신발이 이미지 센싱 유닛에 의하여 센싱되는 경우, HMD(100)의 유저의 양쪽 발 중 한쪽 발 또는 양쪽 신발 중 한쪽 신발을 입력 수단으로 정의할 수 있다. 예를 들어, HMD(100)는 기설정된 선호값, HMD(100)의 유저의 양쪽 다리 각각의 사용 빈도 및 양쪽 발 또는 양쪽 움직임 중 적어도 하나에 기초하여 한쪽 발 또는 한쪽 신발을 입력 수단으로 정의할 수 있다. 예를 들어, 제어 인터페이스(220)의 제어를 위하여 더 자주 사용되는 발(또는 신발) 또는 제어 인터페이스(220)가 디스플레이되기 직전에 움직임이 있는 발(또는 신발)이 입력 수단으로 정의될 수도 있다. 예를 들어, 양쪽 중 더 앞쪽으로 나와있는 쪽이 입력 수단으로 정의될 수도 있다.
도 7에서, HMD(100)의 디스플레이 유닛 상에 컨테츠(210) 및 제어 인터페이스(220)가 디스플레이된다. 제어 인터페이스(220)는 지면에 매핑되어 디스플레이 된다. 도 7에서, HMD(100)는 제어 인터페이스(220)를 신발의 위치와 관련하여 디스플레이한다. 도 7에서 입력 수단은 HMD(100)의 유저의 오른쪽 신발이나, 도 5와 관련하여 상술한 바와 같이, 다양한 외부 리얼 오브젝트가 입력 수단으로 정의될 수 있으며, HMD(100)의 유저의 왼쪽 신발이 입력 수단으로 정의될 수도 있다.
도 7의 (a)는 제어 인터페이스(220)의 일 실시예이다. 제어 인터페이스(220)는 컨텐츠(210)의 제어를 제공하는 복수의 이미지들을 포함하고 있다.
HMD(100)는 입력 수단으로 정의된 한쪽 발 또는 한쪽 신발의 방향에 기초하여 제어 인터페이스 내의 이미지들의 배열을 결정할 수 있다. 도 7의 (b)에서, HMD(100)는 유저의 오른쪽 신발과 관련하여 복수의 이미지들을 정렬한다. 예를 들어 도 7의 (b)에 도시된 바와 같이, 재생 이미지가 오른쪽 신발에 가깝도록 복수의 이미지들이 정렬될 수도 있다.
또한, HMD(100)는 입력 수단으로 정의된 한쪽 발 또는 한쪽 신발에 인접하게 제어 인터페이스(220)를 디스플레이할 수도 있다. 도 7의 (c)에서, HMD(100)는 유저의 오른쪽 신발에 인접하게 제어 인터페이스(220)를 디스플레이한다. 또한, 도 7의 (d)에 도시된 바와 같이, HMD(100)는 제어 인터페이스(220)를 입력 수단에 인접한 반원형으로 디스플레이할 수도 있다. 이 경우, 제어 인터페이스(220)의 복수의 이미지 모두가 입력 수단과 인접하게 디스플레이된다.
도 8은 신발에 기초한 제어 인터페이스의 예시들을 도시한다.
상술한 바와 같이, 제어 인터페이스(220)는 컨텐츠(210)의 제어를 제공하는 복수의 이미지들을 포함할 수 있다. 또한, HMD(100)는 유저의 신발이 입력 수단으로 정의된 경우, 신발의 종류에 기초하여 이미지 자체, 이미지의 배열, 이미지의 크기 및 이미지의 수 중 적어도 하나를 결정할 수 있다. 또한, HMD(100)는 신발의 크기, 신발의 모양 및 신발의 색상 중 적어도 하나에 기초하여 신발의 종류를 결정할 수 있다. 따라서, 제어 인터페이스(220)는 입력 수단으로 정의된 신발의 종류에 따라서 개성화될 수도 있다.
도 8의 (a)에서, HMD(100)는 유저의 신발을 남성용 구두로 판단하고, 남성용 구두에 대응하는 제어 인터페이스(220)를 디스플레이할 수 있다.
또한, 도 8의 (b)에서, 하이힐이 입력 수단으로서 정의된다. 도 8의 (b)에서, 제어 인터페이스(220)는 도 8의 (a)보다 많은 이미지들을 포함하고 있다. 또한, 각 이미지의 크기가 도 8의 (a)의 각 이미지보다 작다. 즉, HMD(100)는 신발의 종류에 대응하여 이미지의 수를 결정할 수 있다. 또한, HMD(100)는 신발의 크기 및 신발 끝의 첨예도 중 적어도 하나에 기초하여 제어 인터페이스(220)의 이미지들의 크기를 조정할 수도 있다.
한편, 도 8의 (b)의 우측에는 선택 가이드(230)가 도시된다. 선택 가이드(230)는, 예를 들어, 유저로 하여금 현재 입력 수단으로서 정의된 신발의 종류를 선택할 수 있도록 한다. 따라서, 유저는 선택 가이드(230)를 이용하여 신발의 종류를 선택함으로써 각 신발에 따라 개성화된 제어 인터페이스(220)를 선택할 수 있다.
도 8의 (c)에서, 운동화가 입력 수단으로서 정의된다. HMD(100)는 운동화에 대응하는 이미지들을 포함하는 제어 인터페이(220)를 디스플레이할 수도 있다. 즉, HMD(100)는 유저의 신발의 종류에 기초하여 제어 인터페이스(220) 내의 이미지 자체를 결정할 수도 있다.
도 8의 (d)에서, 슬리퍼가 입력 수단으로서 정의된다. 예를 들어, 슬리퍼는 끝이 둥글고 움직임이 편치 않기 때문에, HMD(100)는 보다 적은 수의 이미지들을 갖는 제어 인터페이스(220)를 디스플레이할 수도 있다. 또한, 보다 적은 움직임으로 이미지를 선택할 수 있도록, 제어 인터페이스(220)는 슬리퍼에 인접한 원형으로 디스플레이될 수도 있다.
또한, HMD(100)는 신발(예를 들어, 슬리퍼)을 마커로써 이용할 수도 있다. HMD(100)는 신발에 인접하게 제어 인터페이스(220)를 디스플레이할 수 있다. 유저는 신발을 벗고 발로 제어 인터페이스(220)에 대한 입력을 수행할 수도 있다. 이 경우, HMD(100)는 마커(신발) 주변에 제어 인터페이스(220)를 디스플레이하고, 유저의 발을 입력 수단으로서 정의할 수도 있다.
도 9는 일 실시예에 따른 HMD의 제어 인터페이스의 동작을 설명하기 위한 도면이다.
도 9에서, 유저의 신발이 입력 수단으로서 정의된다. 이 경우, 다른 행인의 발 또는 신발이 HMD(100)에 의하여 센싱될 수도 있다. 다른 행인에 의한 입력을 방지하기 위하여, HMD(100)는 일단 유저의 발 및 신발 중 적어도 하나가 입력 수단으로 정의되면, 입력 수단을 제외한 외부 리얼 오브젝트에 의한 입력을 제한할 수 있다.
도 10은 또 다른 실시예에 따른 HMD의 제어 인터페이스의 동작을 설명하기 위한 도면이다.
도 5 및 도 9와 관련하여 상술한 바와 같이, HMD(100)는 유저의 발 또는 신발을 입력 수단으로 정의할 수 있고, 입력 수단을 제외한 외부 리얼 오브젝트에 의한 입력을 제한할 수 있다. 그러나, 도 10에 도시된 바와 같이, HMD(100)의 유저는 다시 손을 이용하여 제어 인터페이스(220)를 제어하기를 원할 수도 있다. HMD(100)는 유저의 손이 기설정된 시간 이상 이미지 센싱 유닛에 의하여 센싱되면 입력 수단을 유저의 손으로 전환할 수 있다. 또한, 유저의 손에 의한 다른 입력(예를 들어, HMD(100)에 위치하는 버튼 또는 터치 패드를 통한 입력)이 수신되면, HMD(100)는 유저의 손을 입력 수단으로 전환할 수도 있다.
도 11은 제스쳐의 예시들을 도시한다.
HMD(100)는 입력 수단에 의한 입력에 기초하여 제어될 수 있다. 또한, 입력 수단에 의한 입력은 입력 수단의 제스쳐(gesture)에 기초하여 결정될 수 있다. 예를 들어, 제스쳐는 입력 수단의 이동, 호버링(hovering), 홀딩(holding), 탭핑(tapping) 및 더블 탭핑 중 적어도 하나를 포함할 수 있다. HMD(100)는 이미지 센싱 유닛을 이용하여 입력 수단의 제스쳐를 센싱할 수도 있다.
도 11에서, 복수의 이미지를 포함하고, 지면에 매핑된 제어 인터페이스(220)가 디스플레이된다. 유저는 자신의 발 또는 신발이 입력 수단으로 정의된 후, 원하는 이미지에 대한 제스쳐를 수행함으로써 컨텐츠(210)를 제어할 수 있다. 예를 들어, 유저는 디스플레이된 이미지 위에 발을 호버링 함으로써 해당 이미지에 대응하는 제어를 수행할 수 있다. 그러나, 오입력을 방지하기 위하여, 이미지에 대한 입력은 기설정된 제스쳐에 의하여만 입력될 수도 있다. 또한, HMD(100)에 대한 몇몇 제어는 HMD(100)에 대한 물리적 입력에 의하여만 입력되도록 제한될 수도 있다. 한편, 제한된 제어에 대한 제스쳐에 의한 입력이 시도되면, 해당 제어는 기설정된 입력(예를 들어, 물리적 입력)을 요구함을 나타내는 가이드가 제공될 수도 있다.
도 11의 (a)에서, 유저는 제어 인터페이스(220)의 멈춤 이미지를 탭핑한다. 이처럼, 멈춤 이미지에 대한 입력은 탭핑에 의하여만 입력될 수도 있다. 또한, 멈춤/재생에 대한 입력은 유저의 더블 탭핑에 의하여만 입력될 수 있도록 제한될 수도 있다. 아울러, HMD(100)는 탭핑 후 유저가 일정시간 이상 발을 해당 위치에 홀딩할 때에만 입력으로 인정할 수도 있다.
도 11의 (b)에서, 유저는 빨리감기 이미지 상에서 입력 수단(신발)을 호버링한다. HMD(100)는 호버링이 유지되는 동안 계속하여 컨텐츠(210)의 빨리감기를 수행할 수 있다.
도 11의 제스쳐는 예시적인 것이며, 다양한 입력 수단의 제스쳐가 이용될 수도 있다. 또한, 컨텐츠(210)에 대한 제어의 유형에 따라서, 서로 다른 제스쳐가 이용될 수도 있다. 예를 들어, 멈춤/재생은 다른 제어보다 더 복잡한 제스쳐가 요구될 수도 있다.
도 12는 특정 위치를 회피하도록 매핑되는 제어 인터페이스를 도시한다.
HMD(100)는, 지면에 매핑된 제어 인터페이스(220)를 디스플레이할 때, 이미지 센싱 유닛에 의하여 센싱된 지면의 상태에 기초하여 제어 인터페이스의 디스플레이 위치 및 크기 중 적어도 하나를 결정할 수 있다. 또한, 지면의 상태는 지면의 색상, 지면의 연속성, 지면의 높이차이, 지면의 평탄도, 지면의 기울기, 지면의 재질, 지면 상의 표식 및 지면 상의 외부 리얼 오브젝트 중 적어도 하나를 포함할 수 있다. HMD(100)는, 예를 들어, 지면의 깊이(depth), 지면의 색상 등을 측정함으로서 지면의 상태를 센싱할 수도 있다.
도 12에서, 지면 상에 물 웅덩이가 존재한다. 이 경우, HMD(100)는 물 웅덩이를 회피하여 제어 인터페이스(220)를 디스플레이한다. 도 12는 회피 디스플레이의 예시로서, HMD(100)는 센싱된 지면 상태에 기초하여 장애물 및 안전 위험 중 적어도 하나를 디텍트할 수 있다. 예를 들어, 도 12의 물 웅덩이는 장애물 및/또는 안전 위험으로 분류될 수도 있다. 또한, HMD(100)는 디텍트된 장애물 및/또는 안전 위험을 회피하도록 제어 인터페이스(220)의 디스플레이 위치 및 크기 중 적어도 하나를 결정할 수 있다.
예를 들어, 지면의 급격한 기울기 변화가 있는 지점은 장애물로서 디텍트될 수도 있다. 따라서, HMD(100)는 장애물로 디텍트된 위치를 회피하여 제어 인터페이스(220)를 디스플레이할 수 있다. 또한, HMD(100)는 지면 상에 돌출된 외부 리얼 오브젝트(예를 들어, 지면 상의 다른 사람의 발, 지면 상의 돌출된 블록 등)를 장애물로서 디텍트할 수도 있다.
예를 들어, HMD(100)는, 차도, 횡단 보도, 지면 상의 뽀족한 물체, 지면 상의 얼음, 지면 상의 물 웅덩이, 지면 상의 구멍 등을 안점 위험으로서 디텍트할 수도 있다.
도 13은 계단에 매핑되는 제어 인터페이스를 도시한다.
도 13에서, 유저는 계단을 이동하다가 바닥을 보고 정지한 상태이다. 이 경우, HMD(100)는 지면의 상태에 기초하여 계단을 디텍트할 수 있다. 예를 들어, HMD(100)는 지면의 불연속성, 또는 지면의 깊이에 기초하여 계단을 디텍트할 수도 있다. 또한, HMD(100)는 유저가 서있는 계단의 다음 계단에 대응하는 디스플레이 유닛 상의 위치에 지면에 매핑된 제어 인터페이스(220)를 디스플레이할 수도 있다.
한편, 도 13에 도시된 바와 같이, 유저의 손이 입력 수단으로서 전환될 수도 있다. 이는, 도 10과 관련하여 상술한 바와 같다. 또한, 예를 들어, 경사가 높은 지면에 제어 인터페이스(220)가 매핑되고 디스플레이될 수도 있다. 이 경우, 유저의 손에 의한 입력이 용이할 수도 있다. 따라서, HMD(100)는 유저의 손 또는 유저가 손에 들고 있는 오브젝트로 입력 수단을 전환할 수도 있다. 또한, 제어 인터페이스(220)는, 유저의 이동이 시작되더라도, 일단 디스플레이 되었으면 계속하여 디스플레이 될 수도 있다. 이 경우, HMD(100)는 HMD(100)가 정지상태라고 판단될 경우에만 입력을 수신할 수도 있다. 또한, HMD(100)는 입력 수단이 발 또는 신발로부터 다른 입력 수단(예를 들어, 유저의 손)으로 전환될 때에만 입력을 수신할 수도 있다.
도 14는 안전 위험에 기초한 제어 인터페이스를 도시한다.
도 13과 관련하여 상술한 바와 같이, HMD(100)는 장애물 및 안전 위험 중 적어도 하나를 디텍트할 수 있다. 또한, HMD(100)는 입력 수단과 디텍트된 장애물 및 안전 위험 중 적어도 하나 사이의 거리가 기설정된 거리 이상이면 지면에 매핑된 제어 인터페이스를 디스플레이할 수도 있다. 또한, HMD(100)는 입력 수단과 디텍트된 장애물 및 안전 위험 중 적어도 하나 사이의 거리가 기설정된 거리 미만이면 지면에 매핑된 제어 인터페이스를 디스플레이하지 않을 수도 있다.
도 14에서, 유저는 횡단보도를 건너기 위하여 인도에 서있다.
도 14의 (a)에서, 제어 인터페이스(220)가 디스플레이되면, 유저는 제어 인터페이스(220)에 대한 입력을 수행하기 위하여 차도에 발을 뻗어야 하는 위험이 있다. HMD(100)는 지면의 색상, 지면의 높이차이 및 지면 상의 표식(예를 들어, 횡단 보도 표시 또는 차선 표시) 중 적어도 하나에 기초하여 안전 위험(예를 들어, 횡단 보도 또는 차도)을 디텍트할 수 있다. 도 14의 (a)에서, 입력 수단(유저의 발)과 차도의 거리가 지나치게 가깝기 때문에 HMD(100)는 제어 인터페이스(220)를 디스플레이하지 않을 수 있다.
도 14의 (b)에서, 유저는 차도로부터 한발짝 뒤로 물러선다. 이 경우, 안전 위험(예를 들어, 횡단 보도 또는 차도)으로부터 충분한 거리가 확보되었기 때문에, HMD(100)는 제어 인터페이스(220)를 디스플레이할 수도 있다.
도 15는 HMD의 이동에 따른 제어 인터페이스의 디스플레이 크기 변경을 도시한다.
도 15의 (a)에서, 유저의 발이 입력수단으로 정의되고, 제어 인터페이스(220)가 디스플레이된다. 이 경우, 유저는 보다 용이한 조작을 위하여 제어 인터페이스(220)를 확대하기를 원할 수도 있다.
도 15의 (b)에서, 제어 인터페이스(220)가 디스플레이된 후로부터 기설정된 시간 내에, 유저는 앞쪽 방향을 본 채로 한발짝 뒤로 물러선다. HMD(100)가 이동됨에 따라서, HMD(100)는 제어 인터페이스(220)를 확대하여 디스플레이할 수 있다. 반대로, 유저는 한발짝 앞으로 나아감으로써, 제어 인터페이스(220)를 축소할 수도 있다.
따라서, 제어 인터페이스(220)가 디스플레이되고, 기설정된 시간 내에 HMD(100)의 방향이 유지된 채로 HMD(100)가 HMD(100)의 전방 또는 후방으로 이동되면, HMD(100)는 HMD(100)의 이동 거리에 기초하여 제어 인터페이스(220)의 디스플레이 크기를 변경할 수 있다.
한편, HMD(100)는 제어 인터페이스(220)의 제어권을 다른 기기와 공유할 수도 있다. 예를 들어, HMD(100)는 다른 디스플레이 디바이스와 미러링할 수도 있다. 이 경우, 다른 디스플레이 디바이스 상에 컨텐츠(210)와 제어 인터페이스(220)가 디스플레이될 수도 있다. 다른 디스플레이 디바이스에 제어 인터페이스(220)에 대한 입력이 수신되면, 해당 입력에 기초하여 HMD(100)의 컨텐츠(210)가 제어될 수도 있다. 예를 들어, HMD(100)의 유저는 자신이 직접 컨텐츠(210)를 제어하기 보다, 컨텐츠(210)를 공유하는 다른 유저가 컨텐츠(210)를 제어하길 원할 수도 있다.
이하에서는, 본 개시물의 HMD의 제어 방법에 대하여 설명된다. 후술하는 HMD의 제어 방법은 상술한 도 1 내지 도 15의 HMD의 구성 및 동작과 서로 조합될 수 있다.
16은 일 실시예에 따른 HMD의 제어 방법의 흐름도이다.
HMD는 컨텐츠를 HMD의 디스플레이 유닛 상에 디스플레이(1601)할 수 있다. 도 1 및 도 3과 관련하여 상술한 바와 같이, HMD는 다양한 입력에 기초하여 컨텐츠를 디스플레이할 수 있다. 또한, HMD는 HMD의 틸트 각도를 센싱(1602)하고 컨텐츠의 제어를 제공하는 제어 인터페이스를 제공(1603)할 수 있다. 이는, 도 3 내지 도 6과 관련하여 상술한 바에 따라서 수행될 수도 있다. 도 16의 제어 방법은 반복적으로 수행될 수도 있다. 예를 들어, HMD는 계속하여 또는 주기적으로 틸트 각도를 센싱하고, 후술하는 바와 같이, 그에 대응하는 제어 인터페이스를 제공할 수도 있다.
도 17은 일 실시예에 따른 HMD의 제어 방법의 흐름도이다.
도 16의 제어 인터페이스를 제공(도 16의 1603)하는 단계는 다음과 같은 단계들을 포함할 수 있다. 먼저, HMD는 센싱된 틸트 각도와 제1 각도 또는 제2 각도를 비교(1701)한다. 도 6과 관련하여 상술한 바와 같이, 제1 각도는 제2 각도 이하이다. 틸트 각도가 제1 각도 이하이면, 유저가 정면을 보는 것으로 판단할 수도 있다. 또한, 틸트 각도가 제2 각도를 초과하면, 유저가 지면을 보는 것으로 판단할 수 있다.
일단 틸트 각도가 제1 각도 이하로 판단되면, HMD의 외부에 위치한 하나 이상의 리얼 오브젝트 중 하나의 리얼 오브젝트를 제1 입력 수단으로 정의(1702)한다. 도 4와 관련하여 상술한 바와 같이, 예를 들어, 유저의 손이 제1 입력 수단으로 정의될 수도 있다. 또한, HMD는 컨텐츠의 제어를 제공하는 제어 인터페이스를 디스플레이 유닛 상에 디스플레이(1703)하고, 기설정된 시간 이후에 제어 인터페이스의 디스플레이를 종료(1704)할 수 있다. 제어 인터페이스가 디밍되거나, 계속하여 디스플레이될 수도 있음은 도 4와 관련하여 상술한 바와 같다.
한편, 틸트 각도가 제2 각도를 초과하는 것으로 판단되면, HMD가 정지상태인지 판단(1705)한다. HMD가 정지 상태가 아니라면, 제어 인터페이스를 디스플레이하지 않는다. HMD가 정지상태로 판단되면, HMD는 HMD의 외부에 위치한 하나 이상의 리얼 오브젝트 중 하나의 리얼 오브젝트를 제2 입력 수단으로 정의(1706)할 수 있다. 도 5와 관련하여 상술한 바와 같이, 예를 들어, 유저의 발 또는 신발이 제2 입력 수단으로 정의될 수도 있다. 또한, HMD는 제어 인터페이스를 지면 상에 매핑하고, 매핑된 제어 인터페이스를 디스플레이 유닛 상에 디스플레이(1707)할 수 있다. 또한, 도 7 내지 16와 관련하여 상술한 바와 같이, 본 개시물의 HMD의 제어 방법은 다양한 기준에 기초하여 매핑된 제어 인터페이스를 변경할 수 있다. 예를 들어, HMD는 입력 수단의 종류, 위치, 장애물 및 안전 위험 중 적어도 하나에 기초하여 제어 인터페이스의 크기, 모양 및 위치 중 적어도 하나를 결정할 수 있다.
본 명세서에 따른 HMD 및 그 제어 방법은 상술한 실시 예들의 구성과 방법으로 한정되어 적용되는 것이 아니라, 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 다양한 변형이 이루어질 수 있다.
한편, 본 명세서의 HMD 및 그 제어 방법은 HMD에 구비된 프로세서가 읽을 수 있는 기록 매체에 소프트웨어로서 구현되는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
100: 헤드 마운티드 디스플레이(HMD)
110: 프로세서 120: 디스플레이 유닛
130: 무브먼트 센싱 유닛 140: 각도 센싱 유닛
150: 이미지 센싱 유닛 160: 커뮤니케이션 유닛
170: 전력원 180: 버스
210: 컨텐츠 220: 제어 인터페이스
230: 선택 가이드

Claims (21)

  1. 헤드 마운티드 디스플레이(HMD: Head Mounted Display)에 있어서,
    적어도 하나의 이미지를 디스플레이하는 디스플레이 유닛;
    상기 HMD의 속력 및 움직임 중 적어도 하나를 측정하는 무브먼트 센싱 유닛;
    상기 HMD의 틸트(tilt) 각도를 센싱하는 각도 센싱 유닛;
    상기 HMD의 외부에 위치한 적어도 하나의 리얼 오브젝트를 센싱하는 이미지 센싱 유닛; 및
    상기 디스플레이 유닛, 상기 무브먼트 센싱 유닛, 상기 각도 센싱 유닛 및 상기 이미지 센싱 유닛을 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    컨텐츠를 상기 디스플레이 유닛 상에 디스플레이하고,
    상기 센싱된 적어도 하나의 리얼 오브젝트 중 하나의 리얼 오브젝트를 입력 수단으로 정의하고,
    상기 HMD의 틸트 각도가 제1 각도 이하인 경우, 상기 컨텐츠의 제어를 제공하는 제어 인터페이스를 상기 디스플레이 유닛 상에 디스플레이하고, 기설정된 시간 이후에 상기 제어 인터페이스의 디스플레이를 종료하며,
    상기 HMD의 틸트 각도가 제2 각도를 초과하고, 상기 무브먼트 센싱 유닛을 이용하여 상기 HMD가 정지 상태로 판단된 경우, 상기 제어 인터페이스를 지면(ground) 상에 매핑하고, 상기 매핑된 제어 인터페이스를 상기 디스플레이 유닛 상에 디스플레이하고,
    상기 제어 인터페이스는 상기 입력 수단에 의한 입력에 기초하여 제어되고,
    상기 제1 각도는 상기 제2 각도 이하인, HMD.
  2. 제 1 항에 있어서,
    상기 프로세서는,
    상기 HMD의 틸트 각도가 상기 제2 각도를 초과하고, 상기 HMD가 정지 상태로 판단된 경우, 상기 HMD의 유저의 발 및 신발 중 적어도 하나를 상기 입력 수단으로 정의하는. HMD.
  3. 제 2 항에 있어서,
    상기 프로세서는,
    상기 HMD의 유저의 발 및 신발 중 적어도 하나가 상기 입력 수단으로 정의된 경우, 상기 HMD의 유저의 손이 상기 이미지 센싱 유닛에 의하여 기설정된 시간 이상 센싱되면 상기 입력 수단을 상기 유저의 손으로 전환하는, HMD.
  4. 제 2 항에 있어서,
    상기 프로세서는,
    상기 HMD의 유저의 양쪽 발 또는 양쪽 신발이 상기 이미지 센싱 유닛에 의하여 센싱되는 경우, 상기 HMD의 유저의 양쪽 발 중 한쪽 발 또는 양쪽 신발 중 한쪽 신발을 상기 입력 수단으로 정의하는, HMD.
  5. 제 4 항에 있어서,
    상기 프로세서는,
    기설정된 선호값, 상기 HMD의 유저의 양쪽 다리 각각의 사용 빈도, 및 상기 양쪽 발 또는 양쪽 신발의 움직임 중 적어도 하나에 기초하여 상기 한쪽 발 또는 상기 한쪽 신발을 상기 입력 수단으로 정의하는, HMD.
  6. 제 5 항에 있어서,
    상기 프로세서는,
    상기 입력 수단에 인접하게 상기 매핑된 제어 인터페이스를 디스플레이하는, HMD.
  7. 제 6 항에 있어서,
    상기 제어 인터페이스는 상기 컨텐츠의 제어를 제공하는 복수의 이미지들을 포함하고,
    상기 프로세서는, 상기 입력 수단으로 정의된 상기 한쪽 발 또는 상기 한쪽 신발의 방향에 기초하여 상기 복수의 이미지들의 배열을 결정하는, HMD.
  8. 제 2 항에 있어서,
    상기 제어 인터페이스는 상기 컨텐츠의 제어를 제공하는 복수의 이미지들을 포함하고,
    상기 프로세서는, 상기 유저의 신발이 상기 입력 수단으로 정의된 경우, 상기 신발의 종류에 기초하여 상기 이미지, 상기 이미지의 배열, 상기 이미지의 크기 및 상기 이미지의 수 중 적어도 하나를 결정하는, HMD.
  9. 제 8 항에 있어서,
    상기 프로세서는, 센싱된 상기 신발의 크기, 상기 신발의 모양 및 상기 신발의 색상 중 적어도 하나에 기초하여 상기 신발의 종류를 결정하는, HMD.
  10. 제 8 항에 있어서,
    상기 프로세서는, 상기 신발의 크기 및 상기 신발 끝의 첨예도 중 적어도 하나에 기초하여 상기 복수의 이미지들 각각의 크기를 조정하는, HMD.
  11. 제 2 항에 있어서,
    상기 프로세서는, 상기 HMD의 유저의 발 및 신발 중 적어도 하나가 상기 입력 수단으로 정의되면, 상기 입력 수단을 제외한 외부 리얼 오브젝트에 의한 입력을 제한하는, HMD.
  12. 제 2 항에 있어서,
    상기 입력 수단에 의한 입력은, 상기 입력 수단의 제스쳐(gesture)에 기초하여 결정되고,
    상기 제스쳐는 상기 입력 수단의 이동, 호버링(hovering), 홀딩(holding), 탭핑(tapping) 및 더블 탭핑 중 적어도 하나를 포함하는, HMD.
  13. 제 12 항에 있어서,
    상기 제어 인터페이스는 상기 컨텐츠의 제어를 제공하는 복수의 이미지들을 포함하고,
    상기 복수의 이미지들 중 적어도 하나의 이미지에 대한 입력은, 상기 입력 수단의 기설정된 제스쳐에 의하여만 입력되는, HMD.
  14. 제 1 항에 있어서,
    상기 프로세서는,
    상기 HMD의 틸트 각도가 상기 제2 각도를 초과하고, 상기 HMD가 정지 상태로 판단된 경우, 상기 이미지 센싱 유닛에 의하여 센싱된 상기 지면의 상태에 기초하여 상기 제어 인터페이스의 디스플레이 위치 및 크기 중 적어도 하나를 결정하고,
    상기 지면의 상태는 상기 지면의 색상, 상기 지면의 연속성, 상기 지면의 높이차이, 상기 지면의 평탄도, 상기 지면의 기울기, 상기 지면의 재질, 상기 지면 상의 표식 및 상기 지면 상의 외부 리얼 오브젝트 중 적어도 하나를 포함하는, HMD.
  15. 제 14 항에 있어서,
    상기 프로세서는,
    상기 지면의 상태에 기초하여 장애물 및 안전 위험 중 적어도 하나를 디텍트하고,
    상기 디텍트된 장애물 및 안전 위험 중 적어도 하나를 회피하도록 상기 제어 인터페이스의 디스플레이 위치 및 크기 중 적어도 하나를 결정하는, HMD.
  16. 제 15 항에 있어서,
    상기 프로세서는,
    상기 입력 수단과 상기 디텍트된 장애물 및 안전 위험 중 적어도 하나 사이의 거리가 기설정된 거리 이상이면 상기 매핑된 제어 인터페이스를 디스플레이하고,
    상기 입력 수단과 상기 디텍트된 장애물 및 안전 위험 중 적어도 하나 사이의 거리가 기설정된 거리 미만이면 상기 매핑된 제어 인터페이스를 디스플레이하지 않는, HMD.
  17. 제 14 항에 있어서,
    상기 프로세서는,
    상기 지면의 상태에 기초하여 계단을 디텍트하고,
    상기 HMD의 유저가 서있는 계단의 다음 계단에 대응하는 상기 디스플레이 유닛 상의 위치에 상기 매핑된 제어 인터페이스를 디스플레이하는, HMD.
  18. 제 1 항에 있어서,
    상기 프로세서는,
    상기 HMD의 틸트 각도가 제2 각도를 초과하고, 상기 HMD가 정지 상태로 판단된 경우, 상기 디스플레이 유닛 상의 기설정된 위치 또는 상기 컨텐츠에 인접한 위치에 상기 매핑된 제어 인터페이스를 디스플레이하는, HMD.
  19. 제 1 항에 있어서,
    상기 프로세서는, 상기 매핑된 제어 인터페이스가 디스플레이되고, 기설정된 시간 내에 상기 HMD의 방향이 유지된 채로 상기 HMD가 상기 HMD의 전방 또는 후방으로 이동되면, 상기 HMD의 이동 거리에 기초하여 상기 제어 인터페이스의 디스플레이 크기를 변경하는, HMD.
  20. 제 1 항에 있어서,
    상기 프로세서는,
    상기 HMD의 속력이 기설정된 속력 이하인 경우 및 상기 HMD의 움직임이 없는 경우 중 적어도 하나의 경우에 상기 HMD를 정지 상태로 판단하는, HMD.
  21. 헤드 마운티드 디스플레이(HMD: Head Mounted Display)의 제어 방법으로서,
    컨텐츠를 상기 HMD의 디스플레이 유닛 상에 디스플레이하는 단계;
    상기 HMD의 틸트(tilt) 각도를 센싱하는 단계; 및
    상기 컨텐츠의 제어를 제공하는 제어 인터페이스를 제공하는 단계를 포함하고,
    상기 제어 인터페이스를 제공하는 단계는:
    상기 센싱된 틸트 각도가 제1 각도 이하인 경우, 상기 HMD의 외부에 위치한 하나 이상의 리얼 오브젝트 중 하나의 리얼 오브젝트를 제1 입력 수단으로 정의하고, 상기 제어 인터페이스를 상기 디스플레이 유닛 상에 디스플레이하고, 기설정된 시간 이후에 상기 제어 인터페이스의 디스플레이를 종료하는 단계; 및
    상기 센싱된 틸트 각도가 제2 각도를 초과하고, 상기 HMD의 속력 및 움직임 중 적어도 하나에 기초하여 상기 HMD가 정지 상태로 판단된 경우, 상기 HMD의 외부에 위치한 하나 이상의 리얼 오브젝트 중 하나의 리얼 오브젝트를 제2 입력 수단으로 정의하고, 상기 제어 인터페이스를 지면(ground) 상에 매핑하고, 상기 매핑된 제어 인터페이스를 상기 디스플레이 유닛 상에 디스플레이하는 단계를 포함하고,
    상기 제어 인터페이스는 상기 제1 및 제2 입력 수단 중 적어도 하나에 의한 입력에 기초하여 제어되고,
    상기 제1 각도는 상기 제2 각도 이하인, HMD의 제어 방법.
KR1020140070218A 2014-06-10 2014-06-10 헤드 마운티드 디스플레이 및 그 제어 방법 KR20150141461A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140070218A KR20150141461A (ko) 2014-06-10 2014-06-10 헤드 마운티드 디스플레이 및 그 제어 방법
US14/477,330 US9261955B2 (en) 2014-06-10 2014-09-04 Wearable device and method of controlling therefor
PCT/KR2014/008612 WO2015190650A1 (en) 2014-06-10 2014-09-16 Wearable device and method of controlling therefor
EP14894552.0A EP3155471B1 (en) 2014-06-10 2014-09-16 Wearable device and method of controlling therefor
US14/991,089 US9495007B2 (en) 2014-06-10 2016-01-08 Wearable device and method of controlling therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140070218A KR20150141461A (ko) 2014-06-10 2014-06-10 헤드 마운티드 디스플레이 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20150141461A true KR20150141461A (ko) 2015-12-18

Family

ID=54769546

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140070218A KR20150141461A (ko) 2014-06-10 2014-06-10 헤드 마운티드 디스플레이 및 그 제어 방법

Country Status (4)

Country Link
US (2) US9261955B2 (ko)
EP (1) EP3155471B1 (ko)
KR (1) KR20150141461A (ko)
WO (1) WO2015190650A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018038439A1 (en) * 2016-08-22 2018-03-01 Samsung Electronics Co., Ltd. Image display apparatus and operating method thereof
WO2019198943A1 (en) * 2018-04-09 2019-10-17 Samsung Electronics Co., Ltd. Wearable display apparatus and method of displaying three-dimensional images thereon
WO2021221341A1 (ko) * 2020-04-29 2021-11-04 삼성전자 주식회사 증강 현실 장치 및 그 제어 방법
US11596301B2 (en) * 2017-09-29 2023-03-07 Motognosis Ug Device for the determination and analysis of the motor skill and the oculomotor skill of a person

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150141461A (ko) * 2014-06-10 2015-12-18 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9766460B2 (en) * 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10409464B2 (en) * 2015-03-18 2019-09-10 Microsoft Technology Licensing, Llc Providing a context related view with a wearable apparatus
KR20170059760A (ko) * 2015-11-23 2017-05-31 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102545195B1 (ko) * 2016-09-12 2023-06-19 삼성전자주식회사 가상 현실 시스템에서 컨텐트 전송 및 재생 방법 및 장치
US20180096506A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US11194463B2 (en) * 2017-11-08 2021-12-07 Google Llc Methods, systems, and media for presenting offset content
WO2019171216A1 (en) * 2018-03-07 2019-09-12 Elon Littwitz Augmented reality device and/or system and/or method for using same for assisting in walking or movement disorders
US20190324283A1 (en) * 2018-04-19 2019-10-24 Htc Corporation Display device and display method
US10834986B2 (en) * 2018-07-12 2020-11-17 Sarah Nicole Ciccaglione Smart safety helmet with heads-up display
US11635825B2 (en) * 2020-06-17 2023-04-25 Xin Tian Methods for game/application control using foot gestures
US11720380B1 (en) 2022-05-18 2023-08-08 Bank Of America Corporation System and method for updating augmented reality navigation instructions based on a detected error
US11586286B1 (en) 2022-05-18 2023-02-21 Bank Of America Corporation System and method for navigating on an augmented reality display

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795498A (ja) 1993-09-24 1995-04-07 Sony Corp 眼鏡型ディスプレイ
US7774075B2 (en) 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
WO2005043218A1 (ja) 2003-10-30 2005-05-12 Brother Kogyo Kabushiki Kaisha 画像表示装置
JP5293154B2 (ja) 2008-12-19 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5428943B2 (ja) 2010-03-02 2014-02-26 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2011203823A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
US9058053B2 (en) * 2012-10-26 2015-06-16 The Boeing Company Virtual reality display system
US9041741B2 (en) * 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
KR20150141461A (ko) * 2014-06-10 2015-12-18 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018038439A1 (en) * 2016-08-22 2018-03-01 Samsung Electronics Co., Ltd. Image display apparatus and operating method thereof
US10412379B2 (en) 2016-08-22 2019-09-10 Samsung Electronics Co., Ltd. Image display apparatus having live view mode and virtual reality mode and operating method thereof
US11596301B2 (en) * 2017-09-29 2023-03-07 Motognosis Ug Device for the determination and analysis of the motor skill and the oculomotor skill of a person
WO2019198943A1 (en) * 2018-04-09 2019-10-17 Samsung Electronics Co., Ltd. Wearable display apparatus and method of displaying three-dimensional images thereon
US10948725B2 (en) 2018-04-09 2021-03-16 Samsung Electronics Co., Ltd. Wearable display apparatus and method of displaying three-dimensional images thereon
WO2021221341A1 (ko) * 2020-04-29 2021-11-04 삼성전자 주식회사 증강 현실 장치 및 그 제어 방법

Also Published As

Publication number Publication date
US20160124504A1 (en) 2016-05-05
US9261955B2 (en) 2016-02-16
EP3155471A4 (en) 2018-01-03
US9495007B2 (en) 2016-11-15
US20150355709A1 (en) 2015-12-10
EP3155471B1 (en) 2019-11-06
EP3155471A1 (en) 2017-04-19
WO2015190650A1 (en) 2015-12-17

Similar Documents

Publication Publication Date Title
KR20150141461A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
JP6674703B2 (ja) ヘッドマウントディスプレイにおけるメニューナビゲーション
US10241566B2 (en) Sensory feedback systems and methods for guiding users in virtual reality environments
KR102289387B1 (ko) 니어 아이 디스플레이용 웹형 계층적 메뉴 디스플레이 구성
US20230209030A1 (en) Scope of coverage indication in immersive displays
US9851786B2 (en) System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
US9690367B2 (en) System and method for assisting a user in locating physical objects while the user is in a virtual reality environment
US10133345B2 (en) Virtual-reality navigation
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US8675019B1 (en) View navigation guidance system for hand held devices with display
US20170255256A1 (en) Head-mounted display controlled by sightline, method for controlling same, and computer program for controlling same
JP6333801B2 (ja) 表示制御装置、表示制御プログラム、および表示制御方法
US20180314889A1 (en) Information processing device, information processing method, and program
KR20160113613A (ko) 헤드-마운티드 디스플레이에서의 환경적 인터럽트 및 비 시야 리얼 에스테이트의 이용
US10025375B2 (en) Augmented reality controls for user interactions with a virtual world
KR102197964B1 (ko) 포터블 디바이스 및 그 제어 방법
JP5256075B2 (ja) 速度感覚制御装置
TWI710249B (zh) 可於第一人稱視角模式與第三人稱視角模式之間切換之頭戴式顯示系統、相關方法以及相關電腦可讀取記錄媒體
CN113678191A (zh) 边界显示控制设备,边界显示控制方法和程序
WO2016094568A1 (en) System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
JP4678428B2 (ja) 仮想空間内位置指示装置
KR102237608B1 (ko) 가상 현실 제어 시스템
KR20160039939A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
US11321920B2 (en) Display device, display method, program, and non-temporary computer-readable information storage medium
KR101846325B1 (ko) 헤드업 디스플레이의 눈 높이 검출 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application