KR20200029631A - 머리-장착형 디스플레이에서의 메뉴 내비게이션 - Google Patents
머리-장착형 디스플레이에서의 메뉴 내비게이션 Download PDFInfo
- Publication number
- KR20200029631A KR20200029631A KR1020207007152A KR20207007152A KR20200029631A KR 20200029631 A KR20200029631 A KR 20200029631A KR 1020207007152 A KR1020207007152 A KR 1020207007152A KR 20207007152 A KR20207007152 A KR 20207007152A KR 20200029631 A KR20200029631 A KR 20200029631A
- Authority
- KR
- South Korea
- Prior art keywords
- head
- mounted display
- focus
- visual element
- focal point
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 36
- 230000000007 visual effect Effects 0.000 claims description 34
- 230000033001 locomotion Effects 0.000 claims description 12
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 244000223014 Syzygium aromaticum Species 0.000 description 1
- 235000016639 Syzygium aromaticum Nutrition 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010367 cloning Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
- G02B27/022—Viewing apparatus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
착용형 컴퓨팅 디바이스는 가상 현실 환경을 발생시키는 머리-장착형 디스플레이(HMD)를 포함한다. 위치 데이터의 발생 및 추적을 통해, 초점은 하나 또는 메뉴 내비게이션 요소에 대해 추적될 수 있다. 미리 결정된 시간량 동안 메뉴 내비게이션 요소 위에 초점의 고정된 위치결정에 뒤이어, 메뉴 내비게이션 요소에 대응하는 프로세스가 실행된다.
Description
본 발명은 일반적으로는 머리-장착형 디스플레이(head-mounted display: HMD)를 갖는 착용형 가상 현실(virtual reality: VR) 컴퓨팅 디바이스에 관한 것이다. 더 구체적으로, 본 발명은 메뉴 제어 기능성을 구현하기 위해 HMD에서의 시야를 이용하는 것에 관한 것이다.
착용형 VR 시스템은 입력 디바이스, 센서, 검출기, 이미지 디스플레이, 및 무선 통신 컴포넌트뿐만 아니라 또한 이미지 및 오디오 프로세서와 같은 다양한 요소를 통합하고 있다. 이미지 디스플레이 요소를 착용자의 눈에 가까이 배치함으로써, 인조 이미지는 현실 세계의 뷰에 오버레이하거나 또는 모두 그 자신의 독립적 현실을 생성하게 될 수 있다. 그러한 이미지 디스플레이 요소는 머리-장착형 디스플레이(HMD)라고도 지칭되는 시스템에 편입되어 있다. 디스플레이 요소의 사이즈 및 착용자의 눈까지의 거리에 종속하여, 디스플레이 상에 제공된 인조 이미지는 착용자의 시야를 채우거나 거의 채울 수 있다.
HMD를 편입하고 있는 VR 시스템은 가상 환경과의 통신 및 상호작용이 가능하면서 가동성이고 경량이다. 그렇지만, 그러한 시스템은 일반적으로는 그것들이 가상 환경의 내비게이션을 위한 독립적 컨트롤러의 사용을 아직 필요로 한다는 점에서 부족하다. 이러한 의미에서, 대부분의 HMD는 VR 환경으로의 입장이 가능한 고글에 지나지 않는다. 독립적 컨트롤러 디바이스를 도입함이 없이 VR 환경의 내비게이션 및 제어에 대한 필요성이 당업계에 있다.
본 발명의 실시형태는 머리-장착형 디스플레이에서의 메뉴 내비게이션을 위한 시스템 및 방법을 포함한다. 머리-장착형 디스플레이와 관련된 위치 데이터가 발생될 수 있다. 초점의 위치는 추적될 수 있다. 초점은 메뉴 내비게이션 요소의 동작 범위 내에 있다고 결정될 수 있다. 내비게이션 요소에 대응하는 고정 타이머는 초점이 메뉴 내비게이션 요소의 동작 범위 내에 있다고 결정될 때 미리 결정된 시간 기간을 카운트다운하도록 실행될 수 있다. 미리 결정된 시간 기간의 만료시, 내비게이션 요소에 대응하는 기능이 구현될 수 있다.
머리-장착형 디스플레이에서의 메뉴 내비게이션을 위한 방법이 제공될 수 있다. 그러한 방법은 센서를 통하여 머리-장착형 디스플레이의 위치 데이터를 발생시키는 단계, 메뉴 내비게이션 요소를 포함하는 가상 환경 내에서 머리-장착형 디스플레이의 초점의 위치를 추적하는 단계, 초점이 메뉴 내비게이션 요소의 동작 범위 내에 있다는 것을 결정하는 단계, 초점이 메뉴 내비게이션 요소의 동작 범위 내에 있을 때 미리 결정된 시간량을 카운트다운하는 내비게이션 요소에 대응하는 고정 타이머를 실행하는 단계, 및 미리 결정된 시간량이 만료하였을 때 내비게이션 요소의 대응하는 기능을 실행하는 단계를 포함할 수 있다.
머리-장착형 디스플레이에서의 메뉴 내비게이션을 위한 시스템은 위치 데이터를 발생시키는 자이로스코프, 자력계 및 가속도계 중 적어도 하나, 메뉴 내비게이션 요소를 포함하는 가상 환경에서 초점을 디스플레이하기 위한 적어도 하나의 렌즈를 포함하는 머리-장착형 디스플레이, 및 가상 환경 내에서의 초점의 위치를 추적하도록 위치 데이터를 프로세싱하고, 초점이 메뉴 내비게이션 요소의 동작 범위 내에 있다는 것을 결정하고, 초점이 메뉴 내비게이션 요소의 동작 범위 내에 있을 때 미리 결정된 시간량을 카운트다운하는 내비게이션 요소에 대응하는 고정 타이머를 실행하고, 그리고 고정 타이머에 의해 표시된 바와 같은 미리 결정된 시간량의 만료 시 메뉴 내비게이션 요소와 연관된 기능성을 실행하도록 메모리에 저장된 명령어를 실행하는 프로세서를 포함할 수 있다.
본 발명의 부가적 실시형태는 프로그램을 구현해 놓은 비-일시적 컴퓨터-판독가능한 저장 매체를 제공한다. 프로그램은 머리-장착형 디스플레이에서의 메뉴 내비게이션을 위한 방법을 수행하도록 프로세서에 의해 실행가능하다. 방법은 위치 데이터를 발생시키는 단계, 초점의 위치를 추적하는 단계 및 초점이 메뉴 내비게이션 요소의 동작 범위 내에 있다는 것을 결정하는 단계를 포함한다. 내비게이션 요소에 대응하는 고정 타이머가 실행된다. 고정 타이머가 만료할 때 내비게이션 요소의 대응하는 기능이 구현된다.
도 1은 일례의 착용형 컴퓨팅 디바이스의 블록 선도의 예시도,
도 2a는 가상 현실 환경에서의 착용자를 완전히 몰입시키는 HMD의 예시도,
도 2b는 현실 세계의 지각을 유지하면서 VR 정보의 발생이 가능한 HMD의 예시도,
도 3은 HMD의 렌즈 디스플레이 상에 디스플레이된 일례의 내비게이션 메뉴의 예시도,
도 4a는 내비게이션 메뉴에서의 시각적 요소를 발효시키기 위한 초점의 사용의 예시도로서, 가상 버튼의 대응하는 동작이 활성화되지 않은 예시도,
도 4b는 내비게이션 메뉴에서의 시각적 요소를 발효시키기 위한 초점의 사용의 예시도로서, 가상 버튼 및 초점과 연관된 구역이 대응하는 기능을 활성화하고 있는 예시도,
도 4c는 내비게이션 메뉴에서의 시각적 요소를 발효시키기 위한 초점의 사용의 예시도로서, 초점이 가상 버튼의 대응하는 기능을 직접 활성화하고 있는 예시도, 및
도 5는 VR 환경에서의 메뉴 선택을 위한 일례의 방법의 예시도.
도 2a는 가상 현실 환경에서의 착용자를 완전히 몰입시키는 HMD의 예시도,
도 2b는 현실 세계의 지각을 유지하면서 VR 정보의 발생이 가능한 HMD의 예시도,
도 3은 HMD의 렌즈 디스플레이 상에 디스플레이된 일례의 내비게이션 메뉴의 예시도,
도 4a는 내비게이션 메뉴에서의 시각적 요소를 발효시키기 위한 초점의 사용의 예시도로서, 가상 버튼의 대응하는 동작이 활성화되지 않은 예시도,
도 4b는 내비게이션 메뉴에서의 시각적 요소를 발효시키기 위한 초점의 사용의 예시도로서, 가상 버튼 및 초점과 연관된 구역이 대응하는 기능을 활성화하고 있는 예시도,
도 4c는 내비게이션 메뉴에서의 시각적 요소를 발효시키기 위한 초점의 사용의 예시도로서, 초점이 가상 버튼의 대응하는 기능을 직접 활성화하고 있는 예시도, 및
도 5는 VR 환경에서의 메뉴 선택을 위한 일례의 방법의 예시도.
본 발명의 실시형태는 머리-장착형 디스플레이에서의 메뉴 내비게이션을 위한 시스템 및 방법을 포함한다. 머리-장착형 디스플레이와 관련된 위치 데이터가 발생될 수 있다. 초점의 위치는 추적될 수 있다. 초점은 메뉴 내비게이션 요소의 동작 범위 내에 있다고 결정될 수 있다. 내비게이션 요소에 대응하는 고정 타이머는 초점이 메뉴 내비게이션 요소의 동작 범위 내에 있다고 결정될 때 미리 결정된 시간 기간을 카운트다운하도록 실행될 수 있다. 미리 결정된 시간 기간의 만료시, 내비게이션 요소에 대응하는 기능이 구현될 수 있다.
도 1은 일례의 착용형 가상 현실 시스템(100)의 블록 선도를 예시하고 있다. 착용형 가상 현실 시스템(100)은 USB 인터페이스(120), 무선 통신 인터페이스(130), 자이로스코프(140), 가속도계(150), 자력계(160), 데이터 저장장치(170), 프로세서(180), 및 머리-장착형 디스플레이(HMD)(200)를 포함할 수 있으며, 외부 컴퓨팅 디바이스(110)와 통신하고 있다.
머리-장착형 디스플레이(HMD)(200)는 그 착용자가 현실-세계 환경, 디스플레이된 컴퓨터 발생된 이미지, 또는 그 2개의 조합을 관찰할 수 있게 한다. HMD(200)는 일부 실시형태에서는 시-스루 디스플레이를 포함할 수 있다. 착용형 가상 현실 시스템(100)의 착용자는 착용형 가상 현실 시스템(100)의 존재에도 불구하고 그러한 일 실시형태에서는 HMD(200)를 통해 보고 현실-세계 환경의 일부를 관찰할 수 있을 수 있다. HMD(200)는 추가적 일 실시형태에서는 "증강된 현실" 체험을 제공하기 위해 시야 상에 겹쳐 놓이는 이미지를 디스플레이하도록 동작가능할 수 있다. HMD(200)에 의해 디스플레이되는 이미지의 일부는 시야에서의 특정 물체와 관련하여 나타나거나 겹쳐 놓일 수 있다. 더 추가적인 일 실시형태에 있어서, HMD(200)는 완전히 가상 환경일 수 있으며 그에 의하면 착용형 가상 현실 시스템(100)의 착용자는 현실 세계와의 어느 시각적 접촉으로부터라도 격리된다.
디스플레이되는 이미지는 그래픽, 문자 및/또는 비디오를 포함할 수 있고; 오디오는 대응하는 오디오 디바이스를 통해 제공될 수 있다. HMD에 의해 디스플레이되는 이미지는 대화형 사용자 인터페이스의 일부분이고 메뉴, 선택 박스, 내비게이션 아이콘, 또는 착용자가 착용형 컴퓨팅 디바이스의 기능을 인보크 가능하게 하거나 아니면 착용형 컴퓨팅 디바이스와 대화 가능하게 하는 다른 사용자 인터페이스 특징을 포함할 수 있다. HMD(200)의 폼 팩터(form factor)는 안경, 고글, 헬멧, 모자, 바이저, 헤드밴드의 그것이거나, 또는 착용자의 머리 상에 또는 그로부터 지지될 수 있는 어떤 다른 형태일 수 있다.
가상 이미지를 착용자에게 디스플레이하기 위해, HMD는 디스플레이 패널을 조명하는 발광 다이오드(LED)와 같은 광원을 갖는 광학 시스템을 포함할 수 있다. 디스플레이 패널은 액정 디스플레이 패널(LCD)을 망라할 수 있다. 디스플레이 패널은 광원으로부터의 광을 공간적으로 변조시킴으로써 광 패턴을 발생시킬 수 있고, 이미지 형성기는 광 패턴으로부터 가상 이미지를 형성한다. 대안으로, 패널은 실리콘 액정(LCOS)일 수 있고 그에 의하면 액정층은 실리콘 백플레인의 상부 상에 놓여 있을 수 있다.
HMD는 일례의 실시형태에서는 비-중첩 스테레오스코픽 3D 이미지를 갖는 7인치 스크린을 포함하며 그에 의하면 왼쪽 눈은 왼쪽에 가외의 구역을 보고 오른쪽 눈은 오른쪽에 가외의 구역을 본다. HMD는 정상적인 인간의 시각을 모방하려고 시도하는데, 100% 중첩하고 있지는 않다. 시야는 일례의 실시형태에서는 90도 수평선(110도 대각선) 이상이고 그로써 강한 몰입감을 생성하기 위해 현실 세계가 완전히 차단되어 버릴 수 있도록 대략 뷰의 시야 전체를 채운다.
일 실시형태는 1280x800(16:10 종횡비)를 이용할 수 있고 그로써 눈당 640x800, 4:5 종횡비의 실효치가 가능하다. 눈들 간 완전 중첩이 가능하지 않은 일 실시형태에 있어서, 조합된 수평 해상도는 실효적으로 640보다 더 크다. 각각의 눈에 대해 디스플레이되는 이미지는 핀쿠셔닝되고 그로써 각각의 눈에 대해 구면-매핑된 이미지를 발생시킨다.
HMD(200)는 외부 컴퓨팅 디바이스(들)(110)와 통신할 수 있다. 외부 컴퓨팅 디바이스(들)(110)는 애플리케이션 서버, 데이터베이스, 그리고 네트워크 및 미디어 인터페이스, 비-일시적 컴퓨터-판독가능한 저장장치(메모리), 및 메모리에 저장될 수 있는 정보에 액세스하거나 명령어를 실행하기 위한 프로세서와 같은 표준 하드웨어 컴퓨팅 컴포넌트를 포함하는, 당업계에 알려져 있는 다른 외부 컴퓨팅 컴포넌트를 포함한다.
착용형 가상 현실 시스템(100)은 일부 경우에서는 외부 컴퓨팅 디바이스(들)(110)에 물리적으로 접속될 수 있다. 그러한 접속은, USB-준수 케이블링으로 외부 컴퓨팅 디바이스(110)에 데이터를 발신하고 그로부터 데이터를 수신하도록 사용될 수 있는, USB 인터페이스(120)로 구현될 수 있다. USB 인터페이스(120)는 또한 착용형 가상 현실 시스템(100)에 전력을 공급하도록 사용될 수 있고 그로써 외부 전원 및 그것과 연관된 어느 전력 케이블링에 대한 필요성도 잠재적으로 부정한다. 일부 경우에서는, USB 인터페이스(120)로 전력을 구현하는데 추가적 전원 어댑터(도시되지 않음)가 필요할 수 있다. 국한되는 것은 아니지만 파이어와이어, 라이트닝은 물론 HDMI 및 DVI와 같은 다른 케이블링된 접속 표준도 포함하는 다른 유형의 인터페이스가 사용될 수 있으므로 USB에 대한 언급은 예시라고 이해되어야 한다.
도 1의 착용형 가상 현실 시스템(100)은 무선 통신 인터페이스(130)를 포함한다. 무선 통신 인터페이스(130)는 외부 컴퓨팅 디바이스(들)(110)와 무선 통신하도록 사용될 수 있다. 무선 통신 인터페이스(130)는 또한 다른 착용형 컴퓨팅 디바이스(100)와 통신하도록 사용될 수 있다. 무선 통신 인터페이스(130)는 인터넷과 같은 패킷-기반 네트워크를 통하여 양방향 데이터 교환을 지원하는 어느 수의 무선 통신 표준이라도 이용할 수 있다. 예시적 통신 표준은 CDMA, GSM/GPRS, 4G 셀룰러, WiMAX, LTE, 및 802.11(WiFi)을 포함한다.
착용형 가상 현실 시스템(100)은 3-차원 축 자이로스코프(140), 가속도계(150) 및 자력계(160) 중 하나 이상을 포함할 수 있다. 자이로스코프(140)는 각운동량의 원리에 기반하여 정향을 측정하도록 이용될 수 있다. 가속도계(150)는 벡터량으로서 가속도의 크기 및 방향을 검출하도록 사용될 수 있다. 이러한 결과는 무게의 방향이 변하기 때문에 정향, 중력 또는 중력에서의 변화에 상관된 좌표 가속도, 진동, 쇼크, 및 고유 가속도에서의 변화로 저항 매질에서의 낙하를 감지하도록 사용될 수 있다. 자력계(160)는 착용형 가상 현실 시스템(100)에 대해 자계에서의 교란을 식별하도록 사용될 수 있다. 자력계(160)는 GPS 및 나침반 애플리케이션에 대해 진북의 식별에 도움을 주는 것은 물론 또한 터치리스 또는 카메라리스 제스처 입력을 도울 수 있다. 전술한 것으로부터 발생된 데이터를 이용함으로써, 지구에 상대적인 드리프트 없이 절대 머리 정향 추적이 계산될 수 있다. 레이턴시 추적은 응답 시간을 감소시키고 지각된 리얼리즘을 증가시키도록 대략 1000Hz에서 동작할 수 있다. 착용형 가상 현실 시스템(100)의 디스플레이는 개개의 디스플레이가 착용자의 눈에 더 가깝게 또는 더 멀리 이동될 수 있게 하도록 조절될 수 있다.
착용형 가상 현실 시스템(100)은 데이터 저장장치(170)에 저장된 비-일시적 컴퓨터 판독가능한 명령어의 실행으로 동작할 수 있으며, 여기서 실행은 프로세서(180)의 연산을 통해 일어난다. 도 1은 데이터 저장장치(170) 및 프로세서(180)가 착용형 가상 현실 시스템(100)에 존재하고 있는 것으로 예시하고 있기는 하지만, 그러한 요소는 외부 컴퓨팅 디바이스(들)(110)에 위치하고 있거나 또는 일부 경우에서는 실행가능한 연산들이 2개 간 분산될 수 있다. 프로세서(180) 및 데이터 저장장치(170)에서의 실행가능한 명령어는 또한 USB 인터페이스(120), 무선 인터페이스(130), 자이로스코프(140), 가속도계(150) 및 자력계(160)의 다양한 태양을 제어할 수 있다.
도 2a는 가상 현실 환경에서의 착용자를 완전히 몰입시키는 HMD(200)를 예시하고 있다. 도 2a가 몰입형 고글로서 예시되기는 하지만, 다른 폼 팩터가 가능하고 구상된다. 도 2a에서의 요소의 동작은 도 2b의 맥락에서 논의되는 것과 동일하다. 도 2a는 (HMD(200)를 포함하는) 착용형 가상 현실 시스템(100)이 착용자의 머리 상에 위치결정될 수 있게 하는 머리-장착형 지지대(210)를 포함한다. HMD(200)는 위에서 설명된 바와 같은 LCD 또는 LCOS 구성일 수 있는 렌즈 디스플레이(220A, 220B)를 더 포함한다. 렌즈 디스플레이(220A, 220B)는 착용형 가상 현실 시스템(100)의 통합된 부분일 수 있다.
착용형 가상 현실 시스템(100)의 제작은 도 1에 예시된 것과 같은 컴포넌트와 다양한 컴포넌트 상호접속의 통합이 내부적으로 통합될 수 있게 할 수 있다. 외부 컴퓨팅 디바이스(들)(110)로의 더 쉬운 액세스 또는 물리적 접속이 가능하도록 다른 컴포넌트가 착용형 가상 현실 시스템(100)의 외장 상에 놓여 있을 수 있다. 착용형 가상 현실 시스템(100)의 일 실시형태는 착용형 가상 현실 시스템(100)을 이용하는 다른 개개인과의 음성 통신이 가능하도록 또는 시스템(100)의 소정 핸즈프리 제어가 가능하도록 마이크로폰을 포함할 수 있다.
도 2b는 현실 세계의 지각을 유지하면서 가상 현실 정보의 발생이 가능한 HMD(200)를 예시하고 있다. 그러한 이중 지각은 가상 환경의 테두리 내에 착용자를 완전히 몰입시키지 않음으로써 제공된다(즉, 현실 세계가 여전히 보이고 지각될 수 있다). 도 2b의 HMD(200)는 단순 밴드로서 예시되기는 하지만, 다른 폼 팩터가 가능하고 구상된다. 도 2b 상의 요소의 동작은 도 2a의 맥락에서 논의된 것과 동일하다.
도 3은 HMD(200)의 렌즈 디스플레이(200) 상에 디스플레이된 일례의 내비게이션 메뉴(300)를 예시하고 있다. 내비게이션 메뉴(300)는 사용자로부터의 입력을 수신하기 위한 가상 버튼(310), 스크롤바(320), 키(330) 또는 어느 다른 기지의 요소라도 포함하는 어느 다양한 시각적 요소라도 포함할 수 있다. 내비게이션 메뉴(300)는 가상 착용형 시스템(100) 상에서 실행하는 소프트웨어 애플리케이션을 제어하기 위한 하나 이상의 제어 명령어의 관점에서 정의될 수 있다. 가상 버튼(310)과 같은, 내비게이션 메뉴(300)의 특정 시각적 요소는 특정 제어 명령어와 연관될 수 있어서, 가상 버튼의 작동은 그 연관된 제어 명령어가 발효되는 결과를 초래할 수 있다.
위에서 언급된 바와 같이, 착용형 가상 현실 시스템(100)은 축 자이로스코프(140), 가속도계(150) 및 자력계(160) 중 하나 이상을 포함한다. 전술한 컴포넌트 중 하나 이상에 의해 발생된 데이터는 내비게이션 메뉴(300)로부터의 하나 이상의 시각적 요소의 선택 또는 조작으로 번역되고 HMD(200)에 의해 디스플레이될 수 있다. 예를 들어, 사용자가 착용형 가상 현실 시스템(100)을 착용하고 있으면서 그들의 머리를 이동시키는 것에 의해, 데스크톱 컴퓨터의 컨텍스트에서 발생될 수 있는 2-차원 공간에서의 마우스 포인터와 유사한 방식으로 3-차원 공간에서 초점(340)을 생성하기 위해 자이로스코프(140), 가속도계(150) 및 자력계(160)를 사용하여 공간에서의 지점이 식별될 수 있다. 초점 또는 포인터(340)는, 반드시는 아니지만, HMD(200)의 렌즈(220)에 대해 사용자의 눈으로부터의 시선(350)에 대응할 수 있다(도 3의 삽도 참조).
내비게이션 메뉴(300)의 다양한 시각적 요소 위에 초점(340)을 정렬시키고 특정 시간 기간 동안 특정 시각적 요소(예를 들어, 가상 버튼(310)) 위에 초점/포인터(340)의 위치결정을 유지하고 있음으로써, 집속된 요소의 기능성이 발효될 수 있다. 초점(340)이 단지 가상 버튼(310) 위에 있음을 추적하는 것으로는 충분하지 않고, 그보다는 미리 정의된 시간 기간(예를 들어, 3초) 동안 가상 버튼(310) 또는 가상 버튼(310)과 연관된 구역 위에 여전히 고정되어 있을 수 있다. 미리 정의된 시간 기간은 시스템(100)의 사용자에 의해 애플리케이션 소프트웨어 또는 착용형 가상 현실 시스템(100)에서 변경될 수 있는 사용자 선호도 옵션을 통해 제어되거나 또는 소프트웨어 애플리케이션의 개발자에 의해 설정될 수 있다.
도 4a 내지 도 4c는 내비게이션 메뉴에서의 시각적 요소를 발효시키기 위한 초점의 사용을 예시하고 있다. 구체적으로, 도 4a는 내비게이션 메뉴에서의 요소(310) 상에 아직 고정되지 않은 초점(340)을 예시하고 있다. 그와 같이, 가상 버튼의 대응하는 동작은 아직 활성화되지 않았다. 도 4a에 도시된 바와 같이, 초점(340)은 특정 지점 또는 상기 지점과 연관된 구역 위에 초점(340)을 유지하고 있는 효과를 확장시키는 연관된 구역(420)을 포함한다. 도 4a에서는 원으로서 예시되기는 하지만, 연관된 구역(420)은 또한 정사각형, 직사각형, 또는 초점(340)의 동작 범위를 확장시키는 임의의 다른 형상 또는 구성이 될 수 있다. 초점(340)의 연관된 구역(420)은 사용자에게 가시적일 수도 있고, 반투명일 수도 있고, 비가시적일 수도 있다. 연관된 구역(420)은 가시적 또는 반투명인 경우에는 사용자가 초점(340) 및 연관된 구역(420)의 범위의 명확한 이해를 갖게 되도록 렌즈(220) 상에 디스플레이되는 가상 환경의 배경으로부터 구역을 구별 설정하는 색상일 수 있다.
가상 버튼(310)은 또한 초점(340)의 그것처럼 연관된 구역(410)을 가질 수 있다. 초점(340) 및 그 연관된 구역(420)처럼, 그 구역은 HMD(200)의 렌즈(220) 상에 디스플레이되는 바와 같은 가상 환경 또는 가상 버튼(310)의 다른 형상, 사이즈, 색상, 또는 가시성, 또는 반투명성일 수 있다. 가상 버튼(310)의 연관된 구역(410) 및 초점(340)의 연관된 구역(420)은 사용자 설정 메뉴(도시되지 않음)를 통해 변경될 수 있는 사용자 설정, 디폴트, 또는 개발자에 의해 각각 개별적으로 제어될 수 있다. 제어가능한 기능은 형상, 사이즈, 가시성, 반투명성은 물론, 가상 메뉴(300)의 기능을 활성화하는데 필요한 전술한 고정 시간 기간도 포함한다.
도 4b는, 내비게이션 메뉴(300)에서의 시각적 요소를 발효시키고 가상 버튼(310)의 대응하는 기능을 활성화하는, 가상 버튼(310)과 중첩하는 초점(340)과 연관된 구역(420)을 예시하고 있다. 도 4a에 비해, 도 4b는 가상 버튼(310) 및 초점(340)의 연관된 구역이 이제 하이라이트 구역(430)에서 보이는 바와 같이 중첩하는 것을 예시하고 있다. 도 4b에서는 하이라이트 구역이 그래픽 예시되어 있기는 하지만, 이것은 예시의 용이함을 위한 것이다. 하이라이트 구역(430)이 렌즈(220) 상에 나타날 필요는 없고 이것은 애플리케이션 개발자 및/또는 사용자에 의한 구성에 이용가능한 설정일 수 있다. 초점(340) 및 가상 버튼(310)의 연관된 구역은 중첩하고 있기 때문에, 가상 버튼(310)의 연관 기능은 미리 정의된 고정 시간의 만료 시 발효될 것인데, 그 종울림은 메뉴(300)의 제어를 책임지고 있는 그리고 데이터 저장장치(170)에 유지되어 있는 소프트웨어의 프로세서-기반 실행을 통해 구현된 내부 클록킹 기능에 의해 제어될 수 있다. 그러한 내부 클록킹 기능은 미리 정의된 시간 기간으로부터 카운트다운하거나 미리 정의된 시간 기간으로까지 카운트업하도록 활성화될 수 있다. 그러한 카운팅은 초점(340)과 메뉴 내비게이션 요소(310)(또는 그 연관된 구역(410, 420)) 간 중첩이 있는 동안에만 일어나도록 설정될 수 있다. 그와 같이, 미리 정의된 시간 기간이 만료하기 전에 초점(340)이 떨어져 이동하게 되면, 기능은 활성화되지 않을 수 있다.
도 4c는 내비게이션 메뉴에서의 시각적 요소를 발효시키기 위한 초점의 사용을 예시하고 있으며 그에 의하면 초점은 가상 버튼의 대응하는 기능을 직접 활성화하고 있다. 도 4b와는 달리, 가상 버튼(310) 및 초점(340)의 연관된 구역(410, 420)은 이용되고 있지 않다. 도 4c에서, 초점(340)은 가상 버튼(310) 위에 직접 고정된다. 필요한 고정 시간 기간의 만료시, 버튼의 연관된 기능이 구현될 것이다.
도 5는, 프로세서(180)에 의해 메모리(170)에 저장된 명령어의 실행에 의해 발효될 수 있는, VR 환경에서의 메뉴 선택을 위한 일례의 방법(500)을 예시하고 있다. 도 5의 방법(500)은 국한되는 것은 아니지만 하드 드라이브와 같은 비휘발성 메모리, DVD, 또는 CD를 포함하는 비-일시적 컴퓨터 판독가능한 저장 매체에서의 실행가능한 명령어로서 구현될 수 있다. 저장 매체의 명령어는 저장 매체를 호스팅 아니면 액세스하는 컴퓨팅 디바이스의 다양한 하드웨어 컴포넌트가 방법을 발효시키게 야기하도록 프로세서(또는 프로세서들)에 의해 실행될 수 있다. 도 5에서 식별된 단계(및 그 순서)는 예시이고 그리고 국한되는 것은 아니지만 그 실행의 순서를 포함하는 다양한 그 대안물, 균등물, 또는 파생물을 포함한다.
단계(510)에서, 위치 데이터는 착용형 VR 시스템(100)의 착용자의 머리의 이동에 기반하여 발생될 수 있다. 위치 데이터는 축 자이로스코프(140), 가속도계(150) 및 자력계(160) 중 하나 이상에 의해 발생될 수 있다.
전술한 컴포넌트 중 하나 이상에 의해 발생된 데이터는 단계(520)에서 초점 또는 포인터(340)의 위치 데이터로 번역될 수 있다. 초점 또는 포인터(340)의 그 위치는 내비게이션 메뉴(300)로부터의 하나 이상의 시각적 요소의 컨텍스트에서 디스플레이되고 HMD(200)에 의해 디스플레이될 수 있다.
단계(530)에서는 초점 또는 포인터(340)가 내비게이션 메뉴(300)로부터의 버튼 또는 다른 요소 위에 현재 위치하고 있는지에 관한 결정이 이루어진다. 그것이 내비게이션 메뉴(300)로부터의 어느 요소 위에 위치하고 있지 않다는 결정이 초점 또는 포인터(340)의 위치의 분석으로부터 이루어졌으면, 단계(540)에서는 초점 또는 포인터와 연관된 구역이 내비게이션 메뉴(300)로부터의 어느 요소 위에 위치하고 있는지에 관한 추가적 결정이 이루어진다. 초점 또는 포인터의 연관된 구역이 내비게이션 메뉴로부터의 어느 요소 위에 위치하고 있지 않다는 결정이 단계(540)에서 이루어지면, 단계(550)에서는 초점의 연관된 구역이 요소의 연관된 구역과 중첩하는지에 관한 더 추가적인 결정이 이루어진다. 단계(550)에서 - 도 4a에 예시된 바와 같이 - 결정이 여전히 아니오면, 그때는 위치 데이터의 발생 및 초점의 위치 추적이, 각각, 단계(510) 및 단계(520)에서 계속된다.
(도 4c에 대응하는 바와 같이) 단계(530)에서의 또는 (도 4b에 대응하는 바와 같이) 단계(540)에서의 결정이 예이면, 그때는 그 버튼 또는 다른 요소와 연관된 어느 기능성이라도 인보크하기 위해 초점 또는 그 연관된 구역이 미리 결정된 시간 기간 동안 내비게이션 메뉴 요소 위에 여전히 있는지 결정하도록 단계(560)에서 고정 타이머가 실행되기 시작한다. 타이머가 미리 결정된 고정 시간까지 카운트다운(또는 카운트업)함에 따라, 단계(570)에서는 내비게이션 메뉴에 대해 초점 또는 그 연관된 구역의 이동이 있었는지에 관한 병행 결정이 계속적으로 이루어진다. 단계(530, 540 또는 550)의 결정이 이제 "아니오"로 등록(즉, 이동이 '예'로서 등록)되도록 초점 또는 연관된 구역이 변화되었으면, 그때는 타이머가 정지하고 위치 데이터의 발생 및 초점의 추적이, 각각, 단계(510) 및 단계(520)에서 계속된다. 필요한 고정 시간의 만료 이전에 위치에서의 변화는 어느 대응하는 메뉴 기능성도 인보크하지 않으려는 시스템(100)의 사용자 또는 착용자의 의도와 상관된다.
그렇지만, 단계(570)에서 초점의 이동에 관한 결정이 "아니오"면, 그때 단계(580)에서는 단계(580)에서의 미리 결정된 시간 기간의 만료에 대한 더 추가적인 결정이 이루어진다. 미리 결정된 기간이 아직 카운트업 또는 카운트다운되지 않았으면, 그때는 메뉴의 대응하는 기능성이 단계(590)에서 실행되어 방법(500)이 종료되는 시점인 고정 기간의 만료가 달성될 때가지 단계(560, 570, 580)로 이루어진 루프가 계속된다.
본 발명은 다양한 디바이스를 사용하여 동작가능할 수 있는 애플리케이션에서 구현될 수 있다. 비-일시적 컴퓨터-판독가능한 저장 매체는 실행을 위해 중앙 처리 장치(CPU)에 명령어를 제공하는데 참가하는 어느 매체 또는 매체들이라도 지칭한다. 그러한 매체는, 국한되는 것은 아니지만, 각각, 광학 또는 자기 디스크 및 동적 메모리와 같은 비휘발성 및 휘발성 매체를 포함하는 여러 형태를 취할 수 있다. 비-일시적 컴퓨터-판독가능한 매체의 흔한 형태는, 예를 들어, 플로피 디스크, 플렉시블 디스크, 하드 디스크, 자기 테이프, 어느 다른 자기 매체, CD-ROM 디스크, 디지털 비디오 디스크(DVD), 어느 다른 광학 매체, RAM, PROM, EPROM, 플래시EPROM, 및 어느 다른 메모리 칩 또는 카트리지라도 포함한다.
다양한 형태의 전송 매체가 실행을 위해 CPU에 하나 이상의 명령어의 하나 이상의 시퀀스를 반송하는데 관여될 수 있다. 버스는 데이터를 시스템 RAM에 반송하고, 그로부터 CPU는 명령어를 검색 및 실행한다. 시스템 RAM에 의해 수신된 명령어는 옵션으로서는 CPU에 의한 실행 전에든 후에든 고정형 디스크 상에 저장될 수 있다. 다양한 형태의 저장장치와 더불어 그것을 구현하는데 필요한 네트워크 인터페이스 및 네트워크 토폴로지도 마찬가지로 구현될 수 있다.
다양한 실시형태가 위에서 설명되었지만, 그것들은 예로서 제시되었을 뿐이고 제한이 아님을 이해해야 한다. 설명은 여기에서 제시된 특정 형태로 본 발명의 범위를 한정하려는 의도는 아니다. 그리하여, 바람직한 실시형태의 범위 및 폭은 위에서 설명된 예시적 실시형태 중 어느 것에 의해서도 한정되어서는 안 된다. 위의 설명은 예시이고 제한이 아님을 이해해야 한다. 반대로, 본 설명은 첨부 청구범위에 의해 정의되고 그렇지 않으면 당업자에 의해 인식되는 본 발명의 취지 및 범위 내에 포함될 수 있는 바와 같은 그러한 대안물, 수정물 및 균등물을 망라하려는 의도이다. 그래서, 본 발명의 범위는 위 설명을 참조하여 결정되어야 하는 것이 아니라, 그보다는 첨부 청구범위를 그들 균등물의 전 범위와 함께 참조하여 결정되어야 하는 것이다.
Claims (20)
- 머리-장착형 디스플레이(head-mounted display)에서의 메뉴 내비게이션을 위한 방법으로서, 상기 방법은,
머리-장착형 디스플레이에 디스플레이하기 위한 대화형 사용자 인터페이스를 생성하는 단계;
상기 머리-장착형 디스플레이의 이동을 추적하는 단계;
상기 머리-장착형 디스플레이가 이동함에 따라 상기 머리-장착형 디스플레이의 초점의 위치를 식별하는 단계;
사용자 선호도에 기초하여 상기 초점의 위치 주위로 확장되는 연관된 구역을 정의하는 단계;
미리 정의된 시간 기간 동안, 상기 초점 주위로 확장되는 상기 구역이 적어도 하나의 시각적 요소와 중첩되는 것을 검출하는 단계; 및
상기 미리 정의된 시간 기간 동안, 상기 초점 주위로 확장되는 상기 구역이 상기 적어도 하나의 시각적 요소를 둘러싸는 연관된 구역에 걸쳐 중첩되는 것으로 검출되는 경우, 상기 적어도 하나의 시각적 요소에 대응하는 기능을 실행하는 단계
를 포함하고,
상기 생성된 대화형 사용자 인터페이스는 현실-세계 환경에 대응하는 시야에 중첩되며, 상기 생성된 대화형 사용자 인터페이스는 하나 이상의 시각적 요소를 포함하고,
상기 머리-장착형 디스플레이의 이동을 추적하는 단계는 하나 이상의 이동-기반 센서를 통하여 위치 데이터를 생성하는 단계를 포함하며,
상기 초점의 위치는 상기 위치 데이터에 기초하여 식별되는 것을 특징으로 하는 방법. - 제1항에 있어서,상기 하나 이상의 시각적 요소는 그래픽, 문자, 또는 비디오를 포함하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 적어도 하나의 시각적 요소는 상기 적어도 하나의 시각적 요소의 상기 디스플레이를 둘러싸는 구역과 연관되며, 상기 연관된 구역은 상기 적어도 하나의 시각적 요소의 상기 디스플레이를 넘어서 상기 적어도 하나의 시각적 요소의 동작 범위를 확장하는 것을 특징으로 하는 방법.
- 제3항에 있어서, 상기 연관된 구역의 형상, 사이즈, 가시성, 및 반투명성, 및 상기 미리 정의된 시간 기간 중 적어도 하나는 사용자 정의될 수 있는 것을 특징으로 하는 방법.
- 제3항에 있어서, 상기 초점 주위로 확장되는 상기 구역이 상기 적어도 하나의 시각적 요소와 중첩되는 것을 검출하는 단계는 상기 초점 주위로 확장되는 상기 구역이 상기 연관된 구역과 중첩되는 시점을 검출하는 단계를 포함하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 초점의 상기 식별된 위치에 포인터의 디스플레이를 제공하고, 상기 시야의 현재 배경에서 상기 초점 주위로 확장되는 상기 구역을 설정하는 단계를 더 포함하는 것을 특징으로 하는 방법.
- 제6항에 있어서, 상기 연관된 구역의 형상, 사이즈, 가시성, 및 반투명성은 상기 초점에 대해 사용자 정의될 수 있는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 초점의 상기 식별된 위치가 상기 미리 결정된 시간 기간 동안 상기 적어도 하나의 시각 요소와 중첩되는 것을 검출하는 단계는 상기 머리-장착형 디스플레이와 관련된 내부 시계를 사용하여 상기 미리 결정된 시간 기간을 추적하는 단계를 포함하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 하나 이상의 시각적 요소는 메뉴, 선택 박스, 또는 내비게이션 아이콘 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 초점의 상기 위치는 사용자의 눈으로부터의 시선에 대응하고, 상기 시선은 상기 머리-장착형 디스플레이와 연관된 렌즈를 통해 캡처되는 것을 특징으로 하는 방법.
- 머리-장착형 디스플레이 내에서 메뉴 내비게이션을 위한 방법을 수행하기 위한 프로세서에 의해 실행가능한 프로그램을 구현해 놓은 비-일시적 컴퓨터 판독 가능한 저장 매체로서, 상기 방법은:
머리-장착형 디스플레이에 디스플레이하기 위한 대화형 사용자 인터페이스를 생성하는 단계;
상기 머리-장착형 디스플레이의 이동을 추적하는 단계;
상기 머리-장착형 디스플레이가 이동함에 따라 상기 머리-장착형 디스플레이의 초점의 위치를 식별하는 단계;
사용자 선호도에 기초하여 상기 초점의 위치 주위로 확장되는 연관된 구역을 정의하는 단계;
미리 정의된 시간 기간 동안, 상기 초점 주위로 확장되는 상기 구역이 적어도 하나의 시각 요소와 중첩되는 것을 검출하는 단계; 및
상기 미리 정의된 시간 기간 동안, 상기 초점 주위로 확장되는 상기 구역이 상기 적어도 하나의 시각 요소를 둘러싸는 연관된 구역에 걸쳐 중첩되는 것으로 검출되는 경우, 상기 적어도 하나의 시각적 요소에 대응하는 기능을 실행하는 단계를 포함하고,
상기 생성된 대화형 사용자 인터페이스는 현실-세계 환경에 대응하는 시야에 중첩되며, 상기 생성된 대화형 사용자 인터페이스는 하나 이상의 시각적 요소를 포함하며,
상기 머리-장착형 디스플레이의 이동을 추적하는 단계는 하나 이상의 이동-기반 센서를 통하여 위치 데이터를 생성하는 단계를 포함하고,
상기 초점의 위치는 상기 위치 데이터에 기초하여 식별되는 것을 특징으로 하는 비-일시적 컴퓨터 판독 가능한 저장 매체. - 제1항에 있어서, 상기 시각적 요소 중 또다른 하나는 상기 적어도 하나의 시각적 요소와 다른 기능에 대응하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 기능을 실행하는 단계는 특히 상기 기능에 대한 제어 명령을 기초로 하는 것을 특징으로 하는 방법.
- 제3항에 있어서, 사용자 선호도에 기초하여 상기 적어도 하나의 시각적 요소의 상기 디스플레이를 둘러싸는 상기 구역을 정의하는 단계를 더 포함하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 초점의 상기 위치를 식별하는 단계는 상기 이동-기반 센서에 의해 생성된 상기 위치 데이터를 상기 초점의 위치 데이터로 변환하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 기능을 활성화하는 것은 제스처 입력에 더 기초하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 사용자 선호도에 기초하여 상기 미리 정의된 시간 기간을 변경하는 단계를 더 포함하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 기능을 실행하는 단계는 상기 적어도 하나의 시각적 요소를 조작하는 단계를 포함하는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 적어도 하나의 시각적 요소에 대응하는 상기 기능은 소프트웨어 애플리케이션에 특정되는 것을 특징으로 하는 방법.
- 제1항에 있어서, 상기 미리 정의된 시간 기간은 소프트웨어 애플리케이션에 특정되는 것을 특징으로 하는 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020217009255A KR102390549B1 (ko) | 2014-01-25 | 2015-01-12 | 머리-장착형 디스플레이에서의 메뉴 내비게이션 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461931582P | 2014-01-25 | 2014-01-25 | |
US61/931,582 | 2014-01-25 | ||
US14/283,032 US9588343B2 (en) | 2014-01-25 | 2014-05-20 | Menu navigation in a head-mounted display |
US14/283,032 | 2014-05-20 | ||
PCT/US2015/010990 WO2015112359A1 (en) | 2014-01-25 | 2015-01-12 | Menu navigation in a head-mounted display |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167020346A Division KR102090075B1 (ko) | 2014-01-25 | 2015-01-12 | 머리-장착형 디스플레이에서의 메뉴 내비게이션 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217009255A Division KR102390549B1 (ko) | 2014-01-25 | 2015-01-12 | 머리-장착형 디스플레이에서의 메뉴 내비게이션 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200029631A true KR20200029631A (ko) | 2020-03-18 |
KR102235410B1 KR102235410B1 (ko) | 2021-04-02 |
Family
ID=53678875
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207007152A KR102235410B1 (ko) | 2014-01-25 | 2015-01-12 | 머리-장착형 디스플레이에서의 메뉴 내비게이션 |
KR1020167020346A KR102090075B1 (ko) | 2014-01-25 | 2015-01-12 | 머리-장착형 디스플레이에서의 메뉴 내비게이션 |
KR1020217009255A KR102390549B1 (ko) | 2014-01-25 | 2015-01-12 | 머리-장착형 디스플레이에서의 메뉴 내비게이션 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167020346A KR102090075B1 (ko) | 2014-01-25 | 2015-01-12 | 머리-장착형 디스플레이에서의 메뉴 내비게이션 |
KR1020217009255A KR102390549B1 (ko) | 2014-01-25 | 2015-01-12 | 머리-장착형 디스플레이에서의 메뉴 내비게이션 |
Country Status (10)
Country | Link |
---|---|
US (4) | US9588343B2 (ko) |
EP (1) | EP3097449A4 (ko) |
JP (3) | JP2017510877A (ko) |
KR (3) | KR102235410B1 (ko) |
CN (1) | CN106471420B (ko) |
BR (1) | BR112016017179A2 (ko) |
CA (1) | CA2937880C (ko) |
MX (1) | MX359046B (ko) |
RU (1) | RU2642545C1 (ko) |
WO (1) | WO2015112359A1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11036292B2 (en) | 2014-01-25 | 2021-06-15 | Sony Interactive Entertainment LLC | Menu navigation in a head-mounted display |
US11272039B2 (en) | 2013-03-15 | 2022-03-08 | Sony Interactive Entertainment LLC | Real time unified communications interaction of a predefined location in a virtual reality location |
US11809679B2 (en) | 2013-03-15 | 2023-11-07 | Sony Interactive Entertainment LLC | Personal digital assistance and virtual reality |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140280502A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Crowd and cloud enabled virtual reality distributed location network |
US20140280506A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality enhanced through browser connections |
US20140280503A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | System and methods for effective virtual reality visitor interface |
US9838506B1 (en) | 2013-03-15 | 2017-12-05 | Sony Interactive Entertainment America Llc | Virtual reality universe representation changes viewing based upon client side parameters |
US20140280505A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality interaction with 3d printing |
US9437159B2 (en) | 2014-01-25 | 2016-09-06 | Sony Interactive Entertainment America Llc | Environmental interrupt in a head-mounted display and utilization of non field of view real estate |
US10585485B1 (en) | 2014-11-10 | 2020-03-10 | Amazon Technologies, Inc. | Controlling content zoom level based on user head movement |
KR102450416B1 (ko) * | 2015-11-04 | 2022-10-05 | 삼성전자주식회사 | 전자 장치, 웨어러블 장치 및 전자 장치에서 디스플레이되는 객체를 제어하는 방법 |
AU2017203641B2 (en) * | 2016-05-31 | 2018-05-24 | Accenture Global Solutions Limited | Interactive virtual reality platforms |
KR102632795B1 (ko) | 2016-09-21 | 2024-02-02 | 삼성전자주식회사 | 컨텐츠와 연관된 네비게이터 표시 방법 및 이를 구현한 전자 장치 |
US10536691B2 (en) | 2016-10-04 | 2020-01-14 | Facebook, Inc. | Controls and interfaces for user interactions in virtual spaces |
US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
CN106951153B (zh) * | 2017-02-21 | 2020-11-20 | 联想(北京)有限公司 | 一种显示方法及电子设备 |
CN106924970B (zh) * | 2017-03-08 | 2020-07-07 | 网易(杭州)网络有限公司 | 虚拟现实系统、基于虚拟现实的信息显示方法及装置 |
EP3616110A1 (en) * | 2017-04-24 | 2020-03-04 | Siemens Aktiengesellschaft | Unlocking passwords in augmented reality based on look |
CN107368184B (zh) | 2017-05-12 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 一种虚拟现实场景中的密码输入方法和装置 |
US10747386B2 (en) * | 2017-06-01 | 2020-08-18 | Samsung Electronics Co., Ltd. | Systems and methods for window control in virtual reality environment |
JP6312184B2 (ja) * | 2017-10-25 | 2018-04-18 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
CN108010394B (zh) * | 2017-12-20 | 2020-11-03 | 杭州埃欧哲建设工程咨询有限公司 | 一种基于vr的虚拟教学方法、控制终端、虚拟教学系统 |
WO2019135634A1 (en) | 2018-01-05 | 2019-07-11 | Samsung Electronics Co., Ltd. | Method and apparatus to navigate a virtual content displayed by a virtual reality (vr) device |
US11567627B2 (en) | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
US10540941B2 (en) | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
US11157159B2 (en) | 2018-06-07 | 2021-10-26 | Magic Leap, Inc. | Augmented reality scrollbar |
US11989930B2 (en) | 2018-10-25 | 2024-05-21 | Beyeonics Surgical Ltd. | UI for head mounted display system |
CN114003123A (zh) * | 2020-07-28 | 2022-02-01 | 华为技术有限公司 | 控件移动方法和电子设备 |
US11351457B2 (en) * | 2020-09-11 | 2022-06-07 | Riot Games, Inc. | Selecting an anchored offset targeting position |
RU2747861C1 (ru) * | 2020-09-17 | 2021-05-17 | Общество с ограниченной ответственностью "МедВиар" | Способ и система для ведения диалогов с виртуальными персонажами в виртуальной среде |
US11183049B1 (en) * | 2021-01-22 | 2021-11-23 | International Business Machines Corporation | Monitoring and instigating shifts in visual focus |
US11720380B1 (en) | 2022-05-18 | 2023-08-08 | Bank Of America Corporation | System and method for updating augmented reality navigation instructions based on a detected error |
US11586286B1 (en) | 2022-05-18 | 2023-02-21 | Bank Of America Corporation | System and method for navigating on an augmented reality display |
KR102592197B1 (ko) | 2023-05-18 | 2023-10-20 | 주식회사 미주산업 | 비전인식기반 조선기자재 철의장품 형상조립 및 용접 자동화 시스템 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10222287A (ja) * | 1997-02-10 | 1998-08-21 | Sony Corp | 情報入力装置 |
JP2002351592A (ja) * | 2001-05-15 | 2002-12-06 | Internatl Business Mach Corp <Ibm> | 選択ポインタの近接度に基づいてグラフィカル・ユーザ・インターフェース(gui)ウィジェットを拡大/縮小するための方法及びシステム |
Family Cites Families (155)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3883237A (en) * | 1972-08-03 | 1975-05-13 | Gates Rubber Co | Panoramic image reproducing apparatus |
US5258785A (en) * | 1991-06-25 | 1993-11-02 | Dawkins Jr Douglas R | Close-view data display implant for sporting eyewear |
US5757358A (en) * | 1992-03-31 | 1998-05-26 | The United States Of America As Represented By The Secretary Of The Navy | Method and apparatus for enhancing computer-user selection of computer-displayed objects through dynamic selection area and constant visual feedback |
US5585871A (en) * | 1995-05-26 | 1996-12-17 | Linden; Harry | Multi-function display apparatus |
US8330812B2 (en) * | 1995-05-30 | 2012-12-11 | Simulated Percepts, Llc | Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame |
US6282362B1 (en) | 1995-11-07 | 2001-08-28 | Trimble Navigation Limited | Geographical position/image digital recording and display system |
JPH09167253A (ja) * | 1995-12-14 | 1997-06-24 | Olympus Optical Co Ltd | 映像表示装置 |
US6084979A (en) | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
GB2314664A (en) * | 1996-06-27 | 1998-01-07 | Sharp Kk | Address generator,display and spatial light modulator |
JPH1195971A (ja) * | 1997-09-24 | 1999-04-09 | Sharp Corp | ユーザインタフェースシステム |
US5982555A (en) | 1998-01-20 | 1999-11-09 | University Of Washington | Virtual retinal display with eye tracking |
US6152563A (en) * | 1998-02-20 | 2000-11-28 | Hutchinson; Thomas E. | Eye gaze direction tracker |
US6415316B1 (en) | 1998-09-01 | 2002-07-02 | Aidministrator Nederland B.V. | Method and apparatus for implementing a web page diary |
WO2000017848A1 (en) * | 1998-09-22 | 2000-03-30 | Vega Vista, Inc. | Intuitive control of portable data displays |
US6345129B1 (en) * | 1999-02-03 | 2002-02-05 | Oren Aharon | Wide-field scanning tv |
US6315273B1 (en) * | 1999-05-27 | 2001-11-13 | Lionel Davies | Gas and liquid contact apparatus: illuminated |
US20020038456A1 (en) | 2000-09-22 | 2002-03-28 | Hansen Michael W. | Method and system for the automatic production and distribution of media content using the internet |
US20020083134A1 (en) | 2000-12-22 | 2002-06-27 | Bauer Kirk Wayne | Method and system of collaborative browsing |
US7100190B2 (en) | 2001-06-05 | 2006-08-29 | Honda Giken Kogyo Kabushiki Kaisha | Automobile web cam and communications system incorporating a network of automobile web cams |
US7970240B1 (en) | 2001-12-17 | 2011-06-28 | Google Inc. | Method and apparatus for archiving and visualizing digital images |
JP2003280805A (ja) * | 2002-03-26 | 2003-10-02 | Gen Tec:Kk | データ入力装置 |
US7921357B2 (en) * | 2002-05-23 | 2011-04-05 | Lebow David G | Highlighting comparison method |
US8120624B2 (en) * | 2002-07-16 | 2012-02-21 | Noregin Assets N.V. L.L.C. | Detail-in-context lenses for digital image cropping, measurement and online maps |
CA2406131A1 (en) * | 2002-09-30 | 2004-03-30 | Idelix Software Inc. | A graphical user interface using detail-in-context folding |
US8458028B2 (en) | 2002-10-16 | 2013-06-04 | Barbaro Technologies | System and method for integrating business-related content into an electronic game |
JP2004233867A (ja) * | 2003-01-31 | 2004-08-19 | Nikon Corp | 画像表示装置 |
US9607092B2 (en) | 2003-05-20 | 2017-03-28 | Excalibur Ip, Llc | Mapping method and system |
US7467356B2 (en) | 2003-07-25 | 2008-12-16 | Three-B International Limited | Graphical user interface for 3d virtual display browser using virtual display windows |
US7667700B1 (en) | 2004-03-05 | 2010-02-23 | Hrl Laboratories, Llc | System and method for navigating operating in a virtual environment |
WO2005121707A2 (en) * | 2004-06-03 | 2005-12-22 | Making Virtual Solid, L.L.C. | En-route navigation display method and apparatus using head-up display |
SE0401582L (sv) * | 2004-06-18 | 2005-05-10 | Totalfoersvarets Forskningsins | Interaktivt förfarande för att presentera information i en bild |
AU2005269256B2 (en) | 2004-08-03 | 2008-08-07 | Silverbrook Research Pty Ltd | Head mounted display with wave front modulator |
US7949642B2 (en) | 2004-10-12 | 2011-05-24 | Wendy W Yang | System and method for managing and presenting entity information |
JP2006320706A (ja) * | 2004-12-03 | 2006-11-30 | Shinsedai Kk | ボクシングゲーム方法、表示制御方法、位置決定方法、カーソル制御方法、消費エネルギー算出方法及びエクササイズ・システム |
US7298378B1 (en) | 2004-12-13 | 2007-11-20 | Hagenbuch Andrew M | Virtual reality universe realized as a distributed location network |
EP1679577A1 (en) * | 2005-01-10 | 2006-07-12 | Tobii Technology AB | Adaptive display of eye controllable objects |
WO2006087709A1 (en) * | 2005-02-17 | 2006-08-24 | Lumus Ltd. | Personal navigation system |
US7746343B1 (en) | 2005-06-27 | 2010-06-29 | Google Inc. | Streaming and interactive visualization of filled polygon data in a geographic information system |
WO2007027847A2 (en) | 2005-09-01 | 2007-03-08 | Geosim Systems Ltd. | System and method for cost-effective, high-fidelity 3d-modeling of large-scale urban environments |
US7529772B2 (en) | 2005-09-27 | 2009-05-05 | Scenera Technologies, Llc | Method and system for associating user comments to a scene captured by a digital imaging device |
US7836437B2 (en) | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
US8725729B2 (en) * | 2006-04-03 | 2014-05-13 | Steven G. Lisa | System, methods and applications for embedded internet searching and result display |
US7928926B2 (en) | 2006-06-27 | 2011-04-19 | Panasonic Corporation | Display apparatus and method for hands free operation that selects a function when window is within field of view |
EP2078229A2 (en) * | 2006-11-02 | 2009-07-15 | Sensics, Inc. | Systems and methods for a head-mounted display |
US9555334B2 (en) | 2006-12-13 | 2017-01-31 | Qualcomm Incorporated | System and method for managing virtual worlds mapped to real locations in a mobile-enabled massively multiplayer online role playing game (MMORPG) |
US20080155019A1 (en) | 2006-12-20 | 2008-06-26 | Andrew Wallace | System, apparatus and method to facilitate interactions between real world and proprietary environments |
US8239487B1 (en) | 2007-05-30 | 2012-08-07 | Rocketon, Inc. | Method and apparatus for promoting desired on-line activities using on-line games |
US8583915B1 (en) | 2007-05-31 | 2013-11-12 | Bby Solutions, Inc. | Security and authentication systems and methods for personalized portable devices and associated systems |
US8600808B2 (en) | 2007-06-07 | 2013-12-03 | Qurio Holdings, Inc. | Methods and systems of presenting advertisements in consumer-defined environments |
WO2009040675A2 (en) | 2007-09-24 | 2009-04-02 | View22 Technology Inc. | Facilitating electronic commerce via a 3d virtual environment |
US20090106672A1 (en) | 2007-10-18 | 2009-04-23 | Sony Ericsson Mobile Communications Ab | Virtual world avatar activity governed by person's real life activity |
US20100259471A1 (en) | 2007-11-16 | 2010-10-14 | Nikon Corporation | Control device, head-mount display device, program, and control method |
US20090263777A1 (en) * | 2007-11-19 | 2009-10-22 | Kohn Arthur J | Immersive interactive environment for asynchronous learning and entertainment |
US20090271436A1 (en) | 2008-04-23 | 2009-10-29 | Josef Reisinger | Techniques for Providing a Virtual-World Object Based on a Real-World Object Description |
KR20100009947A (ko) * | 2008-07-21 | 2010-01-29 | 삼성전자주식회사 | 가상 현실 서비스 간의 상호 연동을 위한 장치 및 방법 |
US9318026B2 (en) | 2008-08-21 | 2016-04-19 | Lincoln Global, Inc. | Systems and methods providing an enhanced user experience in a real-time simulated virtual reality welding environment |
US8108778B2 (en) | 2008-09-30 | 2012-01-31 | Yahoo! Inc. | System and method for context enhanced mapping within a user interface |
US20100088632A1 (en) * | 2008-10-08 | 2010-04-08 | Research In Motion Limited | Method and handheld electronic device having dual mode touchscreen-based navigation |
US20100102476A1 (en) | 2008-10-29 | 2010-04-29 | Higgins Michael H | Method for manufacturing raised relief maps |
US20100110069A1 (en) * | 2008-10-31 | 2010-05-06 | Sharp Laboratories Of America, Inc. | System for rendering virtual see-through scenes |
US9472014B2 (en) | 2008-12-19 | 2016-10-18 | International Business Machines Corporation | Alternative representations of virtual content in a virtual universe |
FR2942091A1 (fr) | 2009-02-10 | 2010-08-13 | Alcatel Lucent | Communication multimedia dans un environnement virtuel |
US20100208029A1 (en) * | 2009-02-13 | 2010-08-19 | Samsung Electronics Co., Ltd | Mobile immersive display system |
US20100238161A1 (en) * | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360º heads up display of safety/mission critical data |
KR20100113704A (ko) * | 2009-04-14 | 2010-10-22 | 삼성전자주식회사 | 아이템 선택 방법 및 장치 |
JP2011039438A (ja) | 2009-08-18 | 2011-02-24 | Fujitsu Ltd | 電子機器および表示制御方法 |
US8392839B2 (en) | 2009-08-27 | 2013-03-05 | International Business Machines Corporation | System and method for using partial teleportation or relocation in virtual worlds |
US20110153435A1 (en) * | 2009-09-17 | 2011-06-23 | Lexos Media Inc. | System and method of cursor-based content delivery |
US9254438B2 (en) | 2009-09-29 | 2016-02-09 | International Business Machines Corporation | Apparatus and method to transition between a media presentation and a virtual environment |
US9256347B2 (en) | 2009-09-29 | 2016-02-09 | International Business Machines Corporation | Routing a teleportation request based on compatibility with user contexts |
US8175734B2 (en) | 2009-10-08 | 2012-05-08 | 3D M. T. P. Ltd. | Methods and system for enabling printing three-dimensional object models |
EP2534833B1 (en) | 2010-02-12 | 2016-04-27 | Thomson Licensing | Method for synchronized content playback |
KR20110094693A (ko) * | 2010-02-17 | 2011-08-24 | 삼성전자주식회사 | 사용자 인터페이스 제공 장치 및 방법 |
US20110214071A1 (en) | 2010-02-26 | 2011-09-01 | University Of Southern California | Information channels in mmogs |
US20140063054A1 (en) | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific control interface based on a connected external device type |
US20140063055A1 (en) | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
US20120194552A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with predictive control of external device based on event input |
US20120194418A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with user action control and event input based control of eyepiece application |
JP5223062B2 (ja) | 2010-03-11 | 2013-06-26 | 株式会社ジオ技術研究所 | 3次元地図描画システム |
JP5143856B2 (ja) | 2010-04-16 | 2013-02-13 | 株式会社ソニー・コンピュータエンタテインメント | 3次元画像表示装置、および3次元画像表示方法 |
US8797380B2 (en) | 2010-04-30 | 2014-08-05 | Microsoft Corporation | Accelerated instant replay for co-present and distributed meetings |
US20110279445A1 (en) | 2010-05-16 | 2011-11-17 | Nokia Corporation | Method and apparatus for presenting location-based content |
US8694553B2 (en) | 2010-06-07 | 2014-04-08 | Gary Stephen Shuster | Creation and use of virtual places |
US20110313779A1 (en) | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Augmentation and correction of location based data through user feedback |
US8521526B1 (en) | 2010-07-28 | 2013-08-27 | Google Inc. | Disambiguation of a spoken query term |
US9378296B2 (en) | 2010-08-24 | 2016-06-28 | International Business Machines Corporation | Virtual world construction |
US9316827B2 (en) * | 2010-09-20 | 2016-04-19 | Kopin Corporation | LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking |
US9317133B2 (en) | 2010-10-08 | 2016-04-19 | Nokia Technologies Oy | Method and apparatus for generating augmented reality content |
US9632315B2 (en) * | 2010-10-21 | 2017-04-25 | Lockheed Martin Corporation | Head-mounted display apparatus employing one or more fresnel lenses |
KR20120046973A (ko) * | 2010-11-03 | 2012-05-11 | 삼성전자주식회사 | 움직임 정보 생성 방법 및 장치 |
US9292973B2 (en) * | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US9304319B2 (en) * | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US20140310643A1 (en) | 2010-12-10 | 2014-10-16 | Yota Devices Ipr Ltd. | Mobile device with user interface |
US9213405B2 (en) * | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
US9690099B2 (en) * | 2010-12-17 | 2017-06-27 | Microsoft Technology Licensing, Llc | Optimized focal area for augmented reality displays |
US8803912B1 (en) | 2011-01-18 | 2014-08-12 | Kenneth Peyton Fouts | Systems and methods related to an interactive representative reality |
US20120188148A1 (en) | 2011-01-24 | 2012-07-26 | Microvision, Inc. | Head Mounted Meta-Display System |
RU111703U1 (ru) | 2011-02-08 | 2011-12-20 | Федеральное агенство воздушного транспорта Федеральное государственное образовательное учреждение высшего профессионального образования "Московский государственный технический университет гражданской авиации" (МГТУГА) | Тренажерный комплекс для обучения авиадиспетчеров диспетчерских пунктов руления, старта и посадки на реальном летном поле |
US9285874B2 (en) * | 2011-02-09 | 2016-03-15 | Apple Inc. | Gaze detection in a 3D mapping environment |
KR101591579B1 (ko) | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
US20120249480A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Interactive input system incorporating multi-angle reflecting structure |
US9154826B2 (en) | 2011-04-06 | 2015-10-06 | Headwater Partners Ii Llc | Distributing content and service launch objects to mobile devices |
US9043325B1 (en) | 2011-06-24 | 2015-05-26 | Google Inc. | Collecting useful user feedback about geographical entities |
US9727132B2 (en) | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
AU2011204946C1 (en) | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
US8223024B1 (en) | 2011-09-21 | 2012-07-17 | Google Inc. | Locking mechanism based on unnatural movement of head-mounted display |
US9128520B2 (en) | 2011-09-30 | 2015-09-08 | Microsoft Technology Licensing, Llc | Service provision using personal audio/visual system |
US8847988B2 (en) | 2011-09-30 | 2014-09-30 | Microsoft Corporation | Exercising applications for personal audio/visual system |
US9081177B2 (en) * | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
US8970452B2 (en) * | 2011-11-02 | 2015-03-03 | Google Inc. | Imaging method |
US20130117707A1 (en) * | 2011-11-08 | 2013-05-09 | Google Inc. | Velocity-Based Triggering |
US9311883B2 (en) | 2011-11-11 | 2016-04-12 | Microsoft Technology Licensing, Llc | Recalibration of a flexible mixed reality device |
US20130125066A1 (en) * | 2011-11-14 | 2013-05-16 | Microsoft Corporation | Adaptive Area Cursor |
US8866852B2 (en) * | 2011-11-28 | 2014-10-21 | Google Inc. | Method and system for input detection |
US9213185B1 (en) * | 2012-01-06 | 2015-12-15 | Google Inc. | Display scaling based on movement of a head-mounted display |
US8908914B2 (en) | 2012-01-17 | 2014-12-09 | Maxlinear, Inc. | Method and system for map generation for location and navigation with user sharing/social networking |
US20130191178A1 (en) | 2012-01-25 | 2013-07-25 | Predictive Edge Technologies, Llc | System and method for secure registration, authentication, valuation and exchange of virtual goods and objects |
US20130194389A1 (en) * | 2012-01-31 | 2013-08-01 | Ben Vaught | Head-mounted display device to measure attentiveness |
JP5880115B2 (ja) | 2012-02-17 | 2016-03-08 | ソニー株式会社 | ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法 |
US20130227017A1 (en) | 2012-02-24 | 2013-08-29 | Steven Antony Gahlings | Location associated virtual interaction, virtual networking and virtual data management |
US8737767B2 (en) | 2012-02-28 | 2014-05-27 | Disney Enterprises, Inc. | Perceptually guided capture and stylization of 3D human figures |
US20130241805A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
US20130246967A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Head-Tracked User Interaction with Graphical Interface |
US9096920B1 (en) * | 2012-03-22 | 2015-08-04 | Google Inc. | User interface method |
US20130263016A1 (en) | 2012-03-27 | 2013-10-03 | Nokia Corporation | Method and apparatus for location tagged user interface for media sharing |
US9122321B2 (en) * | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
JP2013258614A (ja) | 2012-06-13 | 2013-12-26 | Sony Computer Entertainment Inc | 画像生成装置および画像生成方法 |
US9389420B2 (en) * | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
TW201351963A (zh) | 2012-06-15 | 2013-12-16 | Hon Hai Prec Ind Co Ltd | 虛擬環境中的影像播放方法及系統 |
US9219901B2 (en) | 2012-06-19 | 2015-12-22 | Qualcomm Incorporated | Reactive user interface for head-mounted display |
US9669296B1 (en) | 2012-07-31 | 2017-06-06 | Niantic, Inc. | Linking real world activities with a parallel reality game |
US20140101608A1 (en) * | 2012-10-05 | 2014-04-10 | Google Inc. | User Interfaces for Head-Mountable Devices |
US9007301B1 (en) * | 2012-10-11 | 2015-04-14 | Google Inc. | User interface |
US20150062114A1 (en) | 2012-10-23 | 2015-03-05 | Andrew Ofstad | Displaying textual information related to geolocated images |
US9710873B1 (en) | 2012-10-26 | 2017-07-18 | Amazon Technologies, Inc. | Point of interest mapping |
US20140164921A1 (en) | 2012-12-07 | 2014-06-12 | Robert Salinas | Methods and Systems of Augmented Reality on Mobile Devices |
US9607011B2 (en) | 2012-12-19 | 2017-03-28 | Intel Corporation | Time-shifting image service |
US9285951B2 (en) | 2013-02-14 | 2016-03-15 | Disney Enterprises, Inc. | Avatar personalization in a virtual environment |
US20140267581A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time virtual reality leveraging web cams and ip cams and web cam and ip cam networks |
US20140280503A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | System and methods for effective virtual reality visitor interface |
US20140280505A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality interaction with 3d printing |
US20140280502A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Crowd and cloud enabled virtual reality distributed location network |
US20140280504A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality universe representation changes viewing based upon client side parameters |
US20140280506A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality enhanced through browser connections |
US20140280644A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time unified communications interaction of a predefined location in a virtual reality location |
US9838506B1 (en) | 2013-03-15 | 2017-12-05 | Sony Interactive Entertainment America Llc | Virtual reality universe representation changes viewing based upon client side parameters |
US9261959B1 (en) * | 2013-03-28 | 2016-02-16 | Google Inc. | Input detection |
US9874749B2 (en) * | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9329682B2 (en) * | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US9563331B2 (en) * | 2013-06-28 | 2017-02-07 | Microsoft Technology Licensing, Llc | Web-like hierarchical menu display configuration for a near-eye display |
JP5825328B2 (ja) * | 2013-11-07 | 2015-12-02 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
US9588343B2 (en) | 2014-01-25 | 2017-03-07 | Sony Interactive Entertainment America Llc | Menu navigation in a head-mounted display |
US9437159B2 (en) | 2014-01-25 | 2016-09-06 | Sony Interactive Entertainment America Llc | Environmental interrupt in a head-mounted display and utilization of non field of view real estate |
US9898078B2 (en) * | 2015-01-12 | 2018-02-20 | Dell Products, L.P. | Immersive environment correction display and method |
US20170090460A1 (en) | 2015-09-25 | 2017-03-30 | Microsoft Technology Licensing, Llc | 3D Model Generation From Map Data |
-
2014
- 2014-05-20 US US14/283,032 patent/US9588343B2/en active Active
-
2015
- 2015-01-12 RU RU2016134577A patent/RU2642545C1/ru active
- 2015-01-12 EP EP15740676.0A patent/EP3097449A4/en not_active Ceased
- 2015-01-12 KR KR1020207007152A patent/KR102235410B1/ko active IP Right Grant
- 2015-01-12 CN CN201580005815.1A patent/CN106471420B/zh active Active
- 2015-01-12 KR KR1020167020346A patent/KR102090075B1/ko active IP Right Grant
- 2015-01-12 WO PCT/US2015/010990 patent/WO2015112359A1/en active Application Filing
- 2015-01-12 BR BR112016017179A patent/BR112016017179A2/pt not_active Application Discontinuation
- 2015-01-12 CA CA2937880A patent/CA2937880C/en active Active
- 2015-01-12 KR KR1020217009255A patent/KR102390549B1/ko active IP Right Grant
- 2015-01-12 JP JP2016548227A patent/JP2017510877A/ja active Pending
- 2015-01-12 MX MX2016009682A patent/MX359046B/es active IP Right Grant
-
2017
- 2017-03-02 US US15/447,342 patent/US10809798B2/en active Active
-
2018
- 2018-06-06 JP JP2018108517A patent/JP6674703B2/ja active Active
-
2020
- 2020-03-05 JP JP2020037787A patent/JP7021274B2/ja active Active
- 2020-07-30 US US16/943,694 patent/US11036292B2/en active Active
-
2021
- 2021-06-15 US US17/348,466 patent/US11693476B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10222287A (ja) * | 1997-02-10 | 1998-08-21 | Sony Corp | 情報入力装置 |
JP2002351592A (ja) * | 2001-05-15 | 2002-12-06 | Internatl Business Mach Corp <Ibm> | 選択ポインタの近接度に基づいてグラフィカル・ユーザ・インターフェース(gui)ウィジェットを拡大/縮小するための方法及びシステム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11272039B2 (en) | 2013-03-15 | 2022-03-08 | Sony Interactive Entertainment LLC | Real time unified communications interaction of a predefined location in a virtual reality location |
US11809679B2 (en) | 2013-03-15 | 2023-11-07 | Sony Interactive Entertainment LLC | Personal digital assistance and virtual reality |
US11036292B2 (en) | 2014-01-25 | 2021-06-15 | Sony Interactive Entertainment LLC | Menu navigation in a head-mounted display |
US11693476B2 (en) | 2014-01-25 | 2023-07-04 | Sony Interactive Entertainment LLC | Menu navigation in a head-mounted display |
Also Published As
Publication number | Publication date |
---|---|
RU2642545C1 (ru) | 2018-01-25 |
US20170242479A1 (en) | 2017-08-24 |
KR102090075B1 (ko) | 2020-03-17 |
WO2015112359A1 (en) | 2015-07-30 |
US11036292B2 (en) | 2021-06-15 |
KR102390549B1 (ko) | 2022-04-26 |
CN106471420A (zh) | 2017-03-01 |
CA2937880C (en) | 2018-01-23 |
JP2017510877A (ja) | 2017-04-13 |
JP2020115352A (ja) | 2020-07-30 |
US9588343B2 (en) | 2017-03-07 |
KR20210037746A (ko) | 2021-04-06 |
BR112016017179A2 (pt) | 2017-12-26 |
US20210357028A1 (en) | 2021-11-18 |
US11693476B2 (en) | 2023-07-04 |
MX2016009682A (es) | 2017-07-05 |
EP3097449A1 (en) | 2016-11-30 |
WO2015112359A9 (en) | 2016-11-10 |
US20150212322A1 (en) | 2015-07-30 |
KR102235410B1 (ko) | 2021-04-02 |
JP2018190429A (ja) | 2018-11-29 |
US20200379556A1 (en) | 2020-12-03 |
JP6674703B2 (ja) | 2020-04-01 |
MX359046B (es) | 2018-09-13 |
JP7021274B2 (ja) | 2022-02-16 |
KR20160113614A (ko) | 2016-09-30 |
US10809798B2 (en) | 2020-10-20 |
CN106471420B (zh) | 2019-04-23 |
EP3097449A4 (en) | 2017-08-09 |
CA2937880A1 (en) | 2015-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102090075B1 (ko) | 머리-장착형 디스플레이에서의 메뉴 내비게이션 | |
US10096167B2 (en) | Method for executing functions in a VR environment | |
CN108780360B (zh) | 虚拟现实导航 | |
KR20240091221A (ko) | 미디어를 캡처 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
CN116648683A (zh) | 用于选择对象的方法和系统 | |
CN118661144A (zh) | 用于使用手部手势与虚拟对象进行交互的设备、方法和图形用户界面 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |