RU2642545C1 - Навигация в меню в наголовном устройстве отображения - Google Patents
Навигация в меню в наголовном устройстве отображения Download PDFInfo
- Publication number
- RU2642545C1 RU2642545C1 RU2016134577A RU2016134577A RU2642545C1 RU 2642545 C1 RU2642545 C1 RU 2642545C1 RU 2016134577 A RU2016134577 A RU 2016134577A RU 2016134577 A RU2016134577 A RU 2016134577A RU 2642545 C1 RU2642545 C1 RU 2642545C1
- Authority
- RU
- Russia
- Prior art keywords
- focal point
- displayed
- navigation
- menu
- area
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 33
- 230000000007 visual effect Effects 0.000 claims description 16
- 230000013011 mating Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- 238000012790 confirmation Methods 0.000 claims 3
- 238000001514 detection method Methods 0.000 claims 3
- 230000000694 effects Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 abstract description 2
- 239000000126 substance Substances 0.000 abstract 1
- 230000006870 function Effects 0.000 description 24
- 230000000875 corresponding effect Effects 0.000 description 17
- 230000006854 communication Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
- G02B27/022—Viewing apparatus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
Способ навигации в меню в наголовном устройстве отображения основан на отслеживании фокальной точки наголовного устройства по отношению к одному или большему количеству навигационных элементов меню. После зафиксированного позиционирования фокальной точки на навигационном элементе меню в течение предварительно заданного периода времени выполняется процесс, соответствующий навигационному элементу меню. При этом рабочая область отображаемого навигационного элемента превышает область самого рабочего элемента. Технический результат заключается в обеспечении навигации и управления средой виртуальной реальности без внедрения независимого управляющего устройства. 3 н. и 16 з.п. ф-лы, 8 ил.
Description
УРОВЕНЬ ТЕХНИКИ
ОБЛАСТЬ ТЕХНИКИ
Настоящее изобретение в общем относится к носимым вычислительным устройствам виртуальной реальности (ВР), содержащим наголовное устройство отображения (НУО). Более конкретно, настоящее изобретение относится к использованию поля зрения в НУО для реализации функции управления меню.
ОПИСАНИЕ ПРЕДШЕСТВУЮЩЕГО УРОВНЯ ТЕХНИКИ
Носимые системы ВР содержат различные элементы, такие как устройства ввода, датчики, детекторы, дисплеи изображений и беспроводные средства связи, также как и видео, и аудио процессоры. Размещая элемент дисплея изображения близко к глазам пользователя, искусственное изображение может налагаться на изображение реального мира или создавать свою собственную независимую реальность. Такие элементы отображения изображения объединены в системы также упоминаемые как наголовные устройства отображения (НУО). В зависимости от размера элемента отображения и расстояния к глазам пользователя, искусственные изображения, отображаемые на дисплее, могут заполнять или почти заполнять поле зрения пользователя.
Системы ВР, содержащие НУО, мобильны и обладают малым весом, в то же время позволяя коммуникацию и взаимодействие с виртуальной средой. Однако, такие системы в общем обладают недостатками, поскольку они по-прежнему нуждаются в использовании независимого контроллера для навигации в виртуальной среде. В этом смысле, большинство НУО являются немногим более, чем очками, предоставляющими вход в среду ВР. Существует необходимость в данной области техники в навигации и управлении средой ВР без внедрения независимого управляющего устройства.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Варианты реализации настоящего изобретения включают системы и способы навигации в меню в наголовном устройстве отображения. Могут генерироваться данные позиционирования, которые отслеживают движение наголовного устройства отображения. Может отслеживаться положение фокальной точки. Фокальная точка может определяться в рабочей области навигационного элемента меню. Таймер фиксации, который соответствует навигационному элементу, может использоваться для отсчета предварительно определенного периода времени, в случае, если определено, что фокальная точка находится в рабочей области навигационного элемента меню. По истечении предварительно заданного периода времени, может быть реализована функция, соответствующая навигационному элементу.
Могут быть воплощены способы навигации в меню в наголовном устройстве отображения. Такие способы могут включать генерирование данных позиционирования наголовного устройства отображения посредством датчика, отслеживающего положение фокальной точки наголовного устройства отображения в виртуальной среде, которая содержит навигационный элемент меню, определяя, находится ли фокальная точка в рабочей области навигационного элемента меню, выполнение таймера фиксации, соответствующего навигационному элементу, который отсчитывается до предварительно заданного периода времени, при котором фокальная точка находится в рабочей области навигационного элемента меню, и реализацию соответствующей функции навигационного элемента в случае, если предварительно заданный период времени истек.
Системы навигации в меню в наголовном устройстве отображения могут содержать по меньшей мере одно из: гироскопа, магнитометра и акселерометра, которые генерируют данные позиционирования наголовного устройства отображения, наголовное устройство отображения, содержащее по меньшей мере одну линзу для отображения фокальной точки в виртуальной среде, которая содержит навигационный элемент меню, и процессор, который выполняет команды, хранимые в памяти, для обработки данных позиционирования с целью отслеживания положения фокальной точки в виртуальной среде, для определения того, что фокальная точка находится в рабочей области навигационного элемента меню, для запуска таймера фиксации, соответствующего навигационному элементу, с целью отсчета предварительно заданного периода времени в случае, если фокальная точка находится в рабочей области навигационного элемента меню, и для выполнения функции, связанной с навигационным элементом меню по истечении предварительно заданного периода времени, что отображается таймером фиксации.
Дополнительные варианты реализации представленного изобретения предусматривают невременный машиночитаемый носитель информации, содержащий программу. Программа выполняется процессором для осуществления способа навигации в меню в наголовном устройстве отображения. Способ включает генерирование данных позиционирования, отслеживание положения фокальной точки и определение того, что фокальная точка находится в рабочей области навигационного элемента меню. Выполняется таймер фиксации, который соответствует навигационному элементу. По истечении времени таймера фиксации реализуется соответствующая функция навигационного элемента.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Фиг. 1 иллюстрирует блок-схему примерного носимого вычислительного устройства.
Фиг. 2А иллюстрирует НУО, которое полностью погружает пользователя в среду виртуальной реальности.
Фиг. 2В иллюстрирует НУО, которое позволяет генерирование информации ВР, в то же время допуская восприятие реального мира.
Фиг. 3 иллюстрирует примерный вариант навигационного меню, отображаемого на линзообразном дисплее НУО.
Фиг. 4A иллюстрирует использование фокальной точки для активации визуального элемента навигационного меню, при котором соответствующая функция виртуальной кнопки не была активирована.
Фиг. 4В иллюстрирует использование фокальной точки для активации визуального элемента навигационного меню, при котором область, связанная с фокальной точкой, и виртуальная кнопка активируют соответствующую функцию.
Фиг. 4С иллюстрирует использование фокальной точки для активации визуального элемента навигационного меню, при котором фокальная точка непосредственно активирует соответствующую функцию виртуальной кнопки.
Фиг. 5 иллюстрирует примерный вариант выбора в меню в среде ВР.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Варианты реализации настоящего изобретения включают системы и способы навигации в меню в наголовном устройстве отображения. Могут генерироваться данные позиционирования, которые отслеживают движение наголовного устройства отображения. Может отслеживаться положение фокальной точки. Может определяться, что фокальная точка находится в рабочей области навигационного элемента меню. Таймер фиксации, который соответствует навигационному элементу, может использоваться для отсчета предварительно заданного периода времени, в случае, если определено, что фокальная точка находится в рабочей области навигационного элемента меню. По истечении предварительно определенного периода времени может быть реализована функция, соответствующая навигационному элементу.
Фиг. 1 иллюстрирует блок-схему примерной носимой системы виртуальной реальности 100. Будучи связанной с внешним вычислительным устройством 110, носимая система виртуальной реальности 100 может содержать USB интерфейс 120, беспроводный коммуникационный интерфейс 130, гироскоп 140, акселерометр 150, магнитометр 160, носитель данных 170, процессор 180 и наголовное устройство отображения (НУО) 200.
Наголовное устройство отображения (НУО) 200 позволяет его пользователю наблюдать окружающий реальный мир, отображаемое генерируемое компьютером изображение или комбинацию обоих. В некоторых вариантах реализации изобретения НУО 200 может содержать прозрачный дисплей. Пользователь носимой системы виртуальной реальности 100 может иметь возможность смотреть сквозь НУО 200 в таком варианте реализации изобретения и наблюдать часть среды реального мира несмотря на присутствие носимой системы виртуальной реальности 100. В дополнительном варианте реализации изобретения НУО 200 может использоваться для отображения изображений, налагаемых на поле зрения для обеспечения впечатления "дополненной реальности". Некоторые из изображений, отображаемые НУО 200, могут накладываться или появляться в связке с конкретными объектами в поле зрения. В еще одном дополнительном варианте реализации изобретения, НУО 200 может быть полностью виртуальной средой, в которой пользователь носимой системы виртуальной реальности 100 изолирован от любого визуального контакта с реальным миром.
Отображаемое изображение может содержать графику, текст и/или видео; звук может предоставляться посредством соответствующего аудио устройства. Изображения, отображаемые НУО, могут быть частью интерактивного пользовательского интерфейса и содержать меню, поля выбора, навигационные иконки или другие детали пользовательского интерфейса, которые предоставляют пользователю возможность запускать функции носимого вычислительного устройства или другого взаимодействия с носимым вычислительным устройством. Конструктивно НУО 200 может быть выполнено в виде очков, закрытых очков, шлема, шапки, маски, головных наушников или в некоторой другой форме, которая может держаться на или вблизи головы пользователя.
Для отображения виртуального изображения пользователю, НУО может содержать оптическую систему с источником света, таким как светодиод (LED), освещающим панель отображения. Панель отображения может включать жидкокристаллическую панель отображения (LCD). Панель отображения может генерировать световые шаблоны, пространственно модулируя свет из источника света, и формирователь изображения формирует виртуальное изображение из светового шаблона. Альтернативно, панель может быть жидким кристаллом на кремнии (LCOS), в котором слой жидких кристаллов может располагаться на верху кремниевой объединительной пластины.
НУО в примерном варианте реализации изобретения содержит 7-дюймовый экран с не перекрывающимися стереоскопическими 3D-изображениями, таким образом левый глаз видит дополнительную область слева, а правый глаз видит дополнительную область справа. НУО пытается имитировать нормальное человеческое зрение, которое не является 100% перекрывающимся. Поле зрения в примерном варианте реализации изобретения является более 90 градусов по горизонтали (110 градусов по диагонали), заполняющим, таким образом, приблизительно все поле зрения, так что реальный мир может быть полностью перекрытым для создания сильного ощущения погружения.
В варианте реализации изобретения может быть использовано разрешение 1280×800 (соотношение сторон 16:10), таким образом обеспечивая эффективное разрешение 640×800, при соотношении сторон 4:5 для каждого глаза. В варианте реализации, который не обеспечивает полное перекрытие между глазами, объединенное горизонтальное разрешение существенно выше чем 640. Отображаемое изображение для каждого глаза является вогнутым, таким образом для каждого глаза генерируется сферически размеченное изображение.
НУО 200 может связываться с внешним вычислительным устройством(и) 110. Внешнее вычислительное устройство(а) 110 включает серверы приложений, базы данных и другие внешние вычислительные компоненты, известные в данной области техники, включая стандартные аппаратные вычислительные компоненты, такие как сетевой и медийный интерфейсы, невременный машиночитаемый носитель данных, и процессоры для выполнения команд или получения доступа к информации, которая может храниться на запоминающем устройстве.
Носимая система виртуальной реальности 100 в некоторых случаях может быть физически соединенной с внешним вычислительным устройством(и) 110. Такое соединение может быть реализовано посредством USB интерфейса 120, который может использоваться для отправления данных к и получения данных от внешнего вычислительного устройства 110 посредством USB-совместимого кабельного соединения. USB интерфейс 120 может также использоваться для обеспечения питания носимой системы виртуальной реальности 100, таким образом потенциально устраняя необходимость во внешнем источнике питания и любом силовом кабельном соединении в связи с тем же. В некоторых случаях, дополнительный адаптер питания (не показан) может быть необходим для обеспечения питания при помощи USB интерфейса 120. Следует понимать, что ссылка на USB выполнена в качестве примера и могут использоваться другие типы интерфейсов, включая, но не ограничиваясь FireWire, Lightning, также как и другие стандарты кабельного соединения, такие как HDMI и DVI.
Носимая система виртуальной реальности 100 по Фиг.1 содержит беспроводной коммуникационный интерфейс 130. Беспроводной коммуникационный интерфейс 130 может быть использован для беспроводной коммуникации с внешним вычислительным устройством(и) 110. Беспроводной коммуникационный интерфейс 130 может также использоваться для связи с другими носимыми вычислительными устройствами 100. Беспроводной коммуникационный интерфейс 130 может использовать любое количество беспроводных стандартов связи, которые поддерживают двунаправленный обмен данными по пакетной сети, такой как Интернет. Примерные стандарты связи включают CDMA, GSM/GPRS, сотовый 4G, WiMAX, LTE, и стандарт 802.11 (WiFi).
Носимая система виртуальной реальности 100 может содержать один или более из: трехмерных гироскопов 140, акселерометров 150 и магнитометров 160. Гироскоп 140 может использоваться для измерения ориентации на основании принципов углового момента. Акселерометр 150 может использоваться для определения величины и направления ускорения как векторной величины. Этот результат может быть использован для определения ориентации в результате изменения направления нагрузки, координатного ускорения, соотнесенного с силой притяжения, или изменения в силе притяжения, и вибрации, ударе и падении в резистивной среде при помощи изменения в соответствующем ускорении. Магнитометры 160 могут использоваться для определения нарушений магнитного поля относительно носимой системы виртуальной реальности 100. Магнитометр 160 может помочь в определении настоящего Севера для GPS и компасных приложений, а также помочь с бесконтактным или бескамерным вводом посредством жестов. Используя данные, генерируемые из выше упомянутого, может быть рассчитано отслеживание абсолютной ориентации головы без смещения относительно земли. Скрытое отслеживание может работать на частоте примерно 1000 Гц для уменьшения времени отклика и увеличения воспринимаемого реализма. Дисплеи носимой системы виртуальной реальности 100 могут настраиваться, позволяя смещение отдельных дисплеев дальше или ближе к глазам пользователя.
Носимая система виртуальной реальности 100 может работать посредством выполнения команд, хранимых на невременном машиночитаемом носителе данных 170, причем выполнение приводится через работу процессора 180. Хотя Фиг.1 иллюстрирует носитель данных 170 и процессор 180 как присутствующие на носимой системе виртуальной реальности 100, такие элементы могут располагаться на внешнем вычислительном устройстве(ах) 110 или, в некоторых случаях, с выполняющимися командами, распределенными между обоими. Процессор 180 и выполняемые команды на носителе данных 170 могут также управлять различными аспектами USB интерфейса 120, беспроводного интерфейса 130, гироскопов 140, акселерометров 150 и магнитометров 160.
Фиг. 2А иллюстрирует НУО 200, которое полностью погружает пользователя в среду виртуальной реальности. Хотя на Фиг. 2А проиллюстрированы очки, создающие эффект присутствия, возможны и представляются другие формы исполнения. Работа элементов в Фиг. 2А такая же, как и описанная в контексте Фиг. 2В. Фиг. 2А также иллюстрирует укрепляемую на голове поддерживающую структуру 210, которая позволяет носимой системе виртуальной реальности 100 (включая НУО 200) располагаться на голове пользователя. НУО 200 дополнительно содержит линзообразные дисплеи 220A и 220B, которые могут иметь конструктивное исполнение в виде LCD или LCOS, как описано выше. Линзообразные дисплеи 220A и 220B могут быть интегрированы в носимую систему виртуальной реальности 100.
Производство носимой системы виртуальной реальности 100 может позволять интеграцию компонентов, подобных тем, что проиллюстрированы на Фиг.1, и различных соединений компонентов для внутренней интеграции. Другие компоненты могут быть расположены на наружной стороне носимой системы виртуальной реальности 100 для обеспечения более быстрого доступа или физических соединений с внешним вычислительным устройством(и) 110. Вариант реализации носимой системы виртуальной реальности 100 может содержать микрофон для обеспечения голосовой связи с другими пользователями, использующими носимые системы виртуальной реальности 100, или для обеспечения определенного управления системой 100 без использования рук.
Фиг. 2В иллюстрирует НУО 200, обеспечивающее генерирование информации виртуальной реальности, в то же время поддерживая восприятие реального мира. Такое двойное восприятие предоставляется для частичного погружения пользователя в пределы виртуальной среды (то есть реальный мир по-прежнему может быть виден и ощущаем). Хотя НУО 200 по Фиг. 2В проиллюстрировано как простая повязка, возможны и представляются другие конструктивные исполнения. Принцип работы элементов в Фиг. 2В такой же, как и описанных в контексте Фиг. 2А.
Фиг. 3 иллюстрирует примерный вариант навигационного меню 300 отображаемого на линзообразном дисплее 200 НУО 200. Навигационное меню 300 может содержать любое разнообразие визуальных элементов, включая виртуальные кнопки 310, линейки прокрутки 320, клавиши 330, или любые другие известные элементы для получения вводных данных от пользователя. Навигационное меню 300 может определяться в терминах одной или большего количества команд управления для управления программным приложением, выполняемым носимой виртуальной системой 100. Конкретные визуальные элементы навигационного меню 300, такие как виртуальная кнопка 310, могут ассоциироваться с конкретной управляющей командой, поэтому активация виртуальной кнопки может приводить к активации соответствующей управляющей команды.
Как было отмечено выше, носимая система виртуальной реальности 100 содержит одно или более из: трехмерных гироскопов 140, акселерометров 150 и магнитометров 160. Данные, генерируемые одним или большим количеством упомянутых выше компонентов, могут быть преобразованы в выбор или управление одним или большим количеством визуальных элементов из навигационного меню 300 и отображены на НУО 200. Например, посредством того, что пользователь двигает своей головой во время ношения носимой системы виртуальной реальности 100, точка в пространстве может определяться при использовании гироскопа 140, акселерометров 150 и магнитометров 160 для создания фокального пятна 340 в трехмерном пространстве подобно указателю мыши в двухмерном пространстве, которое может генерироваться в контексте настольного компьютера. Фокальное пятно или указатель 340 может, но не обязательно, соответствовать линии взгляда 350 от глаза пользователя напротив линзы 220 НУО 200 (см. вложение к Фиг. 3).
Совмещая фокальное пятно 340 с различными визуальными элементами навигационного меню 300 и поддерживая позиционирование фокального пятна/указателя 340 на конкретном визуальном элементе (например, виртуальной кнопке 310) определенный период времени, может быть активирована функция элемента в фокусе. Для фокальной точки 340 может быть не достаточно просто отслеживать виртуальную кнопку 310, но напротив зафиксироваться на виртуальной кнопке 310 или в области, сопряженной с виртуальной кнопкой 310, на предварительно заданный период времени (например, три секунды). Предварительно заданный период времени может быть установлен разработчиком программного приложения или управляться посредством опции пользовательских настроек, которые могут изменяться в носимой системе виртуальной реальности 100 или в программном приложении пользователем системы 100.
Фиг. 4A-4С иллюстрируют использование фокальной точки для активации визуального элемента в навигационном меню. Точнее, Фиг. 4A иллюстрирует использование фокальной точки 340, незафиксированной на элементе 310 навигационного меню. Поэтому соответствующая функция виртуальной кнопки еще не была активирована. Как показано на Фиг. 4A, фокальная точка 340 содержит сопряженную область 420, которая расширяет эффект удержания фокальной точки 340 на конкретной точке или области, связанной с указанной точкой. В то время как сопряженная область 420 проиллюстрирована на Фиг. 4A в форме круга, она также может быть квадратной, прямоугольной или любой другой формы или конфигурации, которая расширяет рабочую область фокальной точки 340. Сопряженная область 420 фокальной точки 340 может быть видимой, полупрозрачной или невидимой пользователю. Сопряженная область 420 в случае, если является видимой или полупрозрачной, может быть такого цвета, который оттеняет область от фона виртуальной среды, отображаемой на линзе 220 так, что пользователь имеет полное понимание пределов области фокальной точки 340 и сопряженной области 420.
Виртуальная кнопка 310 также может обладать сопряженной областью (410), подобной области фокальной точки 340. Также как фокальная точка 340 и ее сопряженная область 420, область может обладать различной формой, размером, цветом или видимостью, либо прозрачностью виртуальной кнопки 340 или виртуальной среды, отображаемой на линзе 220 НУО 200. Сопряженная область 410 виртуальной кнопки 310 и сопряженная область 420 фокальной точки 340 могут каждая по отдельности контролироваться разработчиком, по умолчанию или пользовательскими настройками, которые могут изменяться через меню пользовательских настроек (не показано). Контролируемые функции включают форму, размер, видимость, прозрачность, также как и упомянутый выше период времени фиксации, необходимый для активации функции виртуального меню 300.
Фиг. 4B иллюстрирует область 420, сопряженную с фокальной точкой 420, перекрываемую виртуальной кнопкой 410, которая приводит в действие визуальный элемент в навигационном меню 300 и активирует соответствующую функцию виртуальной кнопки 310. По сравнению с Фиг. 4A, Фиг. 4B иллюстрирует то, что сопряженные области фокальной точки 340 и виртуальной кнопки 310 теперь перекрываются, как показано в заштрихованной области 430. Хотя заштрихованная область графически проиллюстрирована на Фиг 4В, это сделано для облегчения отображения. Нет необходимости в том, чтобы заштрихованная область 430 появлялась на линзе 220, однако это может регулироваться настройкой, доступной для конфигурации пользователем и/или разработчика приложения. Поскольку сопряженные области фокальной точки 340 и виртуальной кнопки 310 перекрываются, функция, соответствующая виртуальной кнопке 310, будет приведена в действие по истечении предварительно заданного времени фиксации, отсчет которого может контролироваться функцией внутреннего времени, реализуемой путем выполнения процессором программы, отвечающей за управление меню 300 и содержащейся на носителе данных 170. Такая функция внутреннего времени может быть активирована для обратного отсчета предварительно заданного периода времени или прямого отсчета предварительно заданного периода времени. Может быть установлено, что такой отсчет производится только в том случае, если существует перекрытие между фокальной точкой 340 и навигационным элементом меню 310 (или их сопряженных областей 410 и 420). То есть, если фокальная точка 340 уйдет прочь до истечения предварительно определенного периода времени, функция не будет активирована.
Фиг. 4С иллюстрирует использование фокальной точки для активации визуального элемента навигационного меню, посредством чего фокальная точка прямо активирует соответствующую функцию виртуальной кнопки. В отличие от Фиг. 4B, сопряженные области 410 и 420 виртуальной кнопки 310 и фокальной точки 340 не используются. На Фиг. 4C, фокальная точка 340 фиксируется прямо на виртуальной кнопке 310. По истечении требуемого периода времени фиксации будет реализована соответствующая функция кнопки.
Фиг. 5 иллюстрирует примерный способ 500 выбора меню в среде ВР, который может приводиться в действие посредством выполнения команд, хранимых в памяти 170, процессором 180. Способ 500 по Фиг.5 может быть реализован как выполняемые команды на невременном машиночитаемом носителе данных, включая, но не ограничиваясь, CD, DVD или постоянным носителем данных, таком как жесткий диск. Команды в носителе данных могут выполняться процессором (или процессорами) для выполнения различными аппаратными компонентами вычислительного устройства основной вычислительной машины, содержащей или в другом случае получающей доступ к носителю данных для реализации способа. Этапы, указанные в Фиг. 5 (и их порядок), являются примерными и могут включать различные альтернативы, эквиваленты или отступления от них, включая, но не ограничиваясь, порядком выполнения того же.
На этапе 510 могут генерироваться данные позиционирования, основанные на движении головы пользователя, носящего носимую систему ВР 100. Данные позиционирования могут генерироваться одним или более из: осевых гироскопов 140, акселерометров 150 и магнитометров 160.
Данные, генерируемые одним или более из перечисленных выше компонентов, могут преобразовываться в данные позиционирования фокальной точки или указателя 340 на этапе 520. Это положение фокальной точки или указателя 340 может отображаться в контексте одного или большего количества визуальных элементов навигационного меню 300 и отображаться НУО 200.
Определение нахождения фокальной точки или указателя 340 в данный момент на кнопке или другом элементе навигационного меню 300 производится на этапе 530. Если из анализа положения было определено то, что фокальная точка или указатель 340 не располагается на элементе навигационного меню 300, выполняется дополнительное определение на этапе 540 того, располагается ли область, сопряженная с фокальной точкой или указателем, на элементе навигационного меню 300. Если из анализа положения было определено то, что сопряженная область фокальной точки или указателя не расположена на элементе навигационного меню на этапе 540, производится еще одно дополнительное определение на этапе 550 того, перекрывается ли сопряженная область фокальной точки с сопряженной областью элемента. Если определение не остановилось на этапе 550, как проиллюстрировано Фиг. 4A, тогда генерирование данных позиционирования и отслеживание положения фокальной точки продолжается на этапах 510 и 520 соответственно.
Если определение на этапе 530 подтверждено (то есть "да", что будет соответствовать Фиг. 4C) или на этапе 540 (что будет соответствовать Фиг. 4B), тогда начинает работать таймер фиксации на этапе 560 для решения того, остается ли фокальная точка или ее сопряженная область на элементе навигационного меню в течение предварительно заданного периода времени для активации любых функций, связанных с этой кнопкой или другим элементом. При обратном отсчете таймера (или прямом отсчете) до предварительно определенного времени фиксации, на этапе 570 постоянно производится аналогичное определение того, происходило ли смещение фокальной точки или ее сопряженной области по отношению к навигационному меню. Если фокальная точка или сопряженная область изменились таким образом, что определения на этапах 530, 540 или 550 сейчас регистрируют ʺнетʺ (то есть движение регистрируется как ʺдаʺ), то таймер останавливается и генерирование данных позиционирования и отслеживания фокальной точки продолжается на этапах 510 и 520 соответственно. Изменение положения до истечения необходимого времени фиксации соотносится с намерениями пользователя или носителя системы 100 не активировать какие-либо функции, соответствующие меню.
Если, однако, определение перемещения фокальной точки на этапе 570 является отрицательным (то есть "нет"), то дополнительное определение производится на этапе 580 по отношению к истечению предварительно заданного периода времени на этапе 580. Если предварительно заданный период еще не был отсчитан или отсчитан в обратном порядке, то цикл, состоящий из этапов 560, 570 и 580, продолжается до тех пор, пока не будет достигнуто истечение периода фиксации, при котором точка соответствующей функции меню выполняется на этапе 590 и способ 500 заканчивается.
Настоящее изобретение может быть реализовано в приложении, которое может работать, используя различные устройства. Невременный машиночитаемый носитель данных относится к любому носителю или носителям, которые принимают участие в предоставлении команд для выполнения центральным процессорным устройством (ЦПУ). Такие носители могут принимать любые формы, включая, но не ограничиваясь, энергонезависимые и энергозависимые носители, такие как оптические и магнитные диски и динамическая память соответственно. Общие формы невременных машиночитаемых носителей включают, например, дискету, гибкий диск, жесткий диск, магнитную ленту, любые другие магнитные носители, CD диск, диск цифрового видео (DVD), любые оптические носители, ОЗУ, ППЗУ, СППЗУ, флеш-ППЗУ и любые другие интегральные микросхемы или картриджи памяти.
Различные формы передающей среды могут использоваться для передачи одной или более последовательностей одной или более команд для выполнения на ЦПУ. Шина переносит данные на системное ОЗУ, из которого ЦПУ извлекает и выполняет команды. Команды, получаемые системным ОЗУ, могут необязательно храниться на несъемном диске как до, так и после выполнения ЦПУ. Различные формы носителя могут реализоваться подобным образом, также как и необходимые сетевые интерфейсы и сетевые топологии для реализации того же.
Хотя выше были описаны различные варианты реализации, следует понимать, что они были представлены исключительно в качестве примера, а не ограничения. Описания не предназначены для ограничения объема изобретения до конкретных изложенных здесь форм. Таким образом, сущность и объем предпочтительного варианта реализации изобретения не должны ограничиваться любым из описанных выше вариантов изобретения. Следует понимать, что приведенные выше описания являются иллюстративными, а не ограничивающими. Напротив, настоящие описания предназначены для охвата таких альтернатив, модификаций и эквивалентов, которые могут быть включены в сущность и объем изобретения, как определено прилагающейся формулой изобретения, и будут очевидными для специалиста в данной области техники. Объем изобретения должен, тем не менее, определяться не по отношению к приведенным выше описаниям, но напротив должен определяться по отношению к приложенной формуле изобретения, наряду со всем объемом эквивалентов.
Claims (38)
1. Способ навигации в меню в наголовном устройстве отображения, при этом упомянутый способ содержит:
генерирование данных позиционирования наголовного устройства отображения;
отображение среды виртуальной реальности, которая включает в себя фокальную точку наголовного устройства отображения;
отслеживание положения отображаемой фокальной точки наголовного устройства отображения, причем положение отображаемой фокальной точки перемещается по одному или более другим визуальным элементам, отображаемым в среде виртуальной реальности;
обнаружение того, что отображаемая фокальная точка находится в рабочей области отображаемого навигационного элемента меню в среде виртуальной реальности, при этом рабочая область отображаемого навигационного элемента меню соответствует заданной области, которая продолжается вокруг отображаемого навигационного элемента меню, и при этом обнаружение того, что фокальная точка находится в рабочей области отображаемой навигации в меню содержит обнаружение того, что фокальная точка расположена в упомянутой заданной области;
выполнение таймера фиксации, соответствующего отображаемому навигационному элементу меню, причем таймер фиксации ведет обратный отсчет предварительно заданного периода времени, когда отображаемая фокальная точка находится в рабочей области отображаемого навигационного элемента меню, и причем таймер фиксации останавливает отсчет, когда отображаемая фокальная точка выходит за рабочую область отображаемого навигационного элемента меню; и
реализацию соответствующей функции отображаемого навигационного элемента меню по истечении предварительно заданного периода времени, которое отображается таймером фиксации.
2. Способ по п. 1, в котором генерирование данных позиционирования включает в себя обработку данных от гироскопа.
3. Способ по п. 1, в котором генерирование данных позиционирования включает в себя обработку данных от акселерометра.
4. Способ по п. 1, в котором генерирование данных позиционирования включает в себя обработку данных от магнитометра.
5. Способ по п. 1, в котором фокальная точка содержит сопряженную область вокруг фокальной точки, и при этом определение того, что фокальная точка находится в рабочей области навигации в меню, содержит определение того, что сопряженная область находится в рабочей области навигационного элемента меню.
6. Способ по п. 1, в котором фокальная точка и навигационный элемент меню включают в себя сопряженную область, и при этом определение того, что фокальная точка находится в рабочей области навигации в меню, содержит определение того, что сопряженная область фокальной точки перекрывает сопряженную область навигационного элемента меню.
7. Способ по п. 1, в котором выполнение таймера фиксации, соответствующего упомянутому навигационному элементу, содержит определение того, вышла ли фокальная точка за упомянутую рабочую область с того времени, как начал выполняться таймер фиксации.
8. Способ по п. 7, в котором выполнение таймера фиксации, соответствующего упомянутому навигационному элементу, дополнительно содержит подтверждение того, что фокальная точка остается в рабочей области навигационного элемента меню.
9. Способ по п. 7, в котором выполнение таймера фиксации, соответствующего упомянутому навигационному элементу, дополнительно содержит подтверждение того, что область, сопряженная с фокальной точкой, остается в рабочей области навигационного элемента меню.
10. Способ по п. 7, в котором выполнение таймера фиксации, соответствующего упомянутому навигационному элементу, дополнительно содержит подтверждение того, что область, сопряженная с фокальной точкой, продолжает перекрывать область, сопряженную с навигационным элементом меню.
11. Способ по п. 1, дополнительно содержащий изменение внешнего вида фокальной точки во время выполнения упомянутого таймера.
12. Способ по п. 1, дополнительно содержащий изменение внешнего вида упомянутого навигационного элемента во время выполнения упомянутого таймера.
13. Способ по п. 5, дополнительно содержащий изменение внешнего вида сопряженной области вокруг фокальной точки во время выполнения упомянутого таймера.
14. Способ по п. 6, дополнительно содержащий изменение внешнего вида сопряженной области вокруг упомянутого навигационного элемента во время выполнения упомянутого таймера.
15. Способ по п. 1, дополнительно содержащий изменение внешнего вида фокальной точки и упомянутого навигационного элемента во время выполнения упомянутого таймера.
16. Способ по п. 6, дополнительно содержащий изменение внешнего вида фокальной точки и сопряженной области вокруг упомянутого навигационного элемента во время выполнения упомянутого таймера.
17. Способ по п. 6, дополнительно содержащий изменение внешнего вида сопряженной области вокруг фокальной точки и упомянутого навигационного элемента во время выполнения упомянутого таймера.
18. Невременный машиночитаемый носитель данных, содержащий сохраненную на нем программу, причем программа выполняется посредством процессора для реализации способа навигации в меню в наголовном устройстве отображения, при этом упомянутый способ содержит:
генерирование данных позиционирования наголовного устройства отображения;
отображение среды виртуальной реальности, которая включает в себя фокальную точку наголовного устройства отображения;
отслеживание положения отображаемой фокальной точки наголовного устройства отображения, причем положение отображаемой фокальной точки перемещается по одному или более другим визуальным элементам, отображаемым в среде виртуальной реальности;
обнаружение того, что отображаемая фокальная точка находится в рабочей области отображаемого навигационного элемента меню в среде виртуальной реальности, при этом рабочая область отображаемого навигационного элемента меню соответствует заданной области, которая продолжается вокруг отображаемого навигационного элемента меню, и при этом обнаружение того, что фокальная точка находится в рабочей области отображаемой навигации в меню содержит обнаружение того, что фокальная точка расположена в упомянутой заданной области;
выполнение таймера фиксации, соответствующего отображаемому навигационному элементу меню, причем таймер фиксации ведет обратный отсчет предварительно заданного периода времени, когда отображаемая фокальная точка находится в рабочей области отображаемого навигационного элемента меню, и при этом таймер фиксации останавливает отсчет, когда отображаемая фокальная точка выходит за рабочую область отображаемого навигационного элемента меню; и
реализацию соответствующей функции отображаемого навигационного элемента меню по истечении предварительно заданного периода времени, которое отображается таймером фиксации.
19. Система для навигации в меню, при этом упомянутая система содержит:
по меньшей мере одно из гироскопа, магнитометра и акселерометра, которые генерируют данные позиционирования;
наголовное устройство отображения, включающее в себя по меньшей мере одну линзу для отображения среды виртуальной реальности, которая включает в себя фокальную точку и навигационный элемент меню;
процессор, который выполняет команды, хранимые в запоминающем устройстве, для:
обработки данных позиционирования для отслеживания положения отображаемой фокальной точки наголовного устройства отображения, причем положение отображаемой фокальной точки перемещается по одному или более другим визуальным элементам, отображаемым в среде виртуальной реальности,
обнаружения того, что отображаемая фокальная точка находится в рабочей области отображаемого навигационного элемента меню в среде виртуальной реальности, при этом рабочая область отображаемого навигационного элемента меню соответствует заданной области, которая продолжается вокруг отображаемого навигационного элемента меню, и при этом обнаружение того, что фокальная точка находится в рабочей области отображаемой навигации в меню содержит обнаружение того, что фокальная точка расположена в упомянутой заданной области,
выполнения таймера фиксации, соответствующего отображаемому навигационному элементу меню, причем таймер фиксации ведет обратный отсчет предварительно заданного периода времени, когда отображаемая фокальная точка находится в рабочей области отображаемого навигационного элемента меню, и при этом таймер фиксации останавливает отсчет, когда отображаемая фокальная точка выходит за рабочую область отображаемого навигационного элемента меню; и
выполнения функциональности, ассоциированной с отображаемым навигационным элементом меню по истечении предварительно заданного периода времени, которое отображается таймером фиксации.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461931582P | 2014-01-25 | 2014-01-25 | |
US61/931,582 | 2014-01-25 | ||
US14/283,032 US9588343B2 (en) | 2014-01-25 | 2014-05-20 | Menu navigation in a head-mounted display |
US14/283,032 | 2014-05-20 | ||
PCT/US2015/010990 WO2015112359A1 (en) | 2014-01-25 | 2015-01-12 | Menu navigation in a head-mounted display |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2642545C1 true RU2642545C1 (ru) | 2018-01-25 |
Family
ID=53678875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016134577A RU2642545C1 (ru) | 2014-01-25 | 2015-01-12 | Навигация в меню в наголовном устройстве отображения |
Country Status (10)
Country | Link |
---|---|
US (4) | US9588343B2 (ru) |
EP (1) | EP3097449A4 (ru) |
JP (3) | JP2017510877A (ru) |
KR (3) | KR102090075B1 (ru) |
CN (1) | CN106471420B (ru) |
BR (1) | BR112016017179A2 (ru) |
CA (1) | CA2937880C (ru) |
MX (1) | MX359046B (ru) |
RU (1) | RU2642545C1 (ru) |
WO (1) | WO2015112359A1 (ru) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2747861C1 (ru) * | 2020-09-17 | 2021-05-17 | Общество с ограниченной ответственностью "МедВиар" | Способ и система для ведения диалогов с виртуальными персонажами в виртуальной среде |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140280505A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality interaction with 3d printing |
US20140280506A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality enhanced through browser connections |
US9838506B1 (en) | 2013-03-15 | 2017-12-05 | Sony Interactive Entertainment America Llc | Virtual reality universe representation changes viewing based upon client side parameters |
US20140267581A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time virtual reality leveraging web cams and ip cams and web cam and ip cam networks |
US20140280503A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | System and methods for effective virtual reality visitor interface |
US20140280502A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Crowd and cloud enabled virtual reality distributed location network |
US20140280644A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time unified communications interaction of a predefined location in a virtual reality location |
US9437159B2 (en) | 2014-01-25 | 2016-09-06 | Sony Interactive Entertainment America Llc | Environmental interrupt in a head-mounted display and utilization of non field of view real estate |
US9588343B2 (en) | 2014-01-25 | 2017-03-07 | Sony Interactive Entertainment America Llc | Menu navigation in a head-mounted display |
US10585485B1 (en) | 2014-11-10 | 2020-03-10 | Amazon Technologies, Inc. | Controlling content zoom level based on user head movement |
KR102450416B1 (ko) * | 2015-11-04 | 2022-10-05 | 삼성전자주식회사 | 전자 장치, 웨어러블 장치 및 전자 장치에서 디스플레이되는 객체를 제어하는 방법 |
US10586391B2 (en) | 2016-05-31 | 2020-03-10 | Accenture Global Solutions Limited | Interactive virtual reality platforms |
KR102632795B1 (ko) | 2016-09-21 | 2024-02-02 | 삼성전자주식회사 | 컨텐츠와 연관된 네비게이터 표시 방법 및 이를 구현한 전자 장치 |
US10536691B2 (en) | 2016-10-04 | 2020-01-14 | Facebook, Inc. | Controls and interfaces for user interactions in virtual spaces |
US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
CN106951153B (zh) * | 2017-02-21 | 2020-11-20 | 联想(北京)有限公司 | 一种显示方法及电子设备 |
CN106924970B (zh) * | 2017-03-08 | 2020-07-07 | 网易(杭州)网络有限公司 | 虚拟现实系统、基于虚拟现实的信息显示方法及装置 |
EP3616110A1 (en) * | 2017-04-24 | 2020-03-04 | Siemens Aktiengesellschaft | Unlocking passwords in augmented reality based on look |
CN107368184B (zh) | 2017-05-12 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 一种虚拟现实场景中的密码输入方法和装置 |
US10747386B2 (en) * | 2017-06-01 | 2020-08-18 | Samsung Electronics Co., Ltd. | Systems and methods for window control in virtual reality environment |
JP6312184B2 (ja) * | 2017-10-25 | 2018-04-18 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
CN108010394B (zh) * | 2017-12-20 | 2020-11-03 | 杭州埃欧哲建设工程咨询有限公司 | 一种基于vr的虚拟教学方法、控制终端、虚拟教学系统 |
KR20200096901A (ko) | 2018-01-05 | 2020-08-14 | 삼성전자주식회사 | 가상 현실 (vr) 디바이스에 의해 디스플레이되는 가상 컨텐트를 네비게이트하는 방법 및 장치 |
US11567627B2 (en) | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
US10540941B2 (en) * | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
WO2019236344A1 (en) | 2018-06-07 | 2019-12-12 | Magic Leap, Inc. | Augmented reality scrollbar |
US11989930B2 (en) | 2018-10-25 | 2024-05-21 | Beyeonics Surgical Ltd. | UI for head mounted display system |
CN114003123A (zh) * | 2020-07-28 | 2022-02-01 | 华为技术有限公司 | 控件移动方法和电子设备 |
US11183049B1 (en) * | 2021-01-22 | 2021-11-23 | International Business Machines Corporation | Monitoring and instigating shifts in visual focus |
US11586286B1 (en) | 2022-05-18 | 2023-02-21 | Bank Of America Corporation | System and method for navigating on an augmented reality display |
US11720380B1 (en) | 2022-05-18 | 2023-08-08 | Bank Of America Corporation | System and method for updating augmented reality navigation instructions based on a detected error |
KR102592197B1 (ko) | 2023-05-18 | 2023-10-20 | 주식회사 미주산업 | 비전인식기반 조선기자재 철의장품 형상조립 및 용접 자동화 시스템 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1679577A1 (en) * | 2005-01-10 | 2006-07-12 | Tobii Technology AB | Adaptive display of eye controllable objects |
US20100088632A1 (en) * | 2008-10-08 | 2010-04-08 | Research In Motion Limited | Method and handheld electronic device having dual mode touchscreen-based navigation |
US20130246967A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Head-Tracked User Interaction with Graphical Interface |
US20130278531A1 (en) * | 2009-09-17 | 2013-10-24 | Lexos Media Ip, Llc | System and method of cursor-based content delivery |
Family Cites Families (153)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3883237A (en) * | 1972-08-03 | 1975-05-13 | Gates Rubber Co | Panoramic image reproducing apparatus |
US5258785A (en) * | 1991-06-25 | 1993-11-02 | Dawkins Jr Douglas R | Close-view data display implant for sporting eyewear |
US5757358A (en) * | 1992-03-31 | 1998-05-26 | The United States Of America As Represented By The Secretary Of The Navy | Method and apparatus for enhancing computer-user selection of computer-displayed objects through dynamic selection area and constant visual feedback |
US5585871A (en) * | 1995-05-26 | 1996-12-17 | Linden; Harry | Multi-function display apparatus |
US8330812B2 (en) * | 1995-05-30 | 2012-12-11 | Simulated Percepts, Llc | Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame |
US6282362B1 (en) | 1995-11-07 | 2001-08-28 | Trimble Navigation Limited | Geographical position/image digital recording and display system |
JPH09167253A (ja) * | 1995-12-14 | 1997-06-24 | Olympus Optical Co Ltd | 映像表示装置 |
US6084979A (en) | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
GB2314664A (en) * | 1996-06-27 | 1998-01-07 | Sharp Kk | Address generator,display and spatial light modulator |
JPH10222287A (ja) * | 1997-02-10 | 1998-08-21 | Sony Corp | 情報入力装置 |
JPH1195971A (ja) * | 1997-09-24 | 1999-04-09 | Sharp Corp | ユーザインタフェースシステム |
US5982555A (en) | 1998-01-20 | 1999-11-09 | University Of Washington | Virtual retinal display with eye tracking |
US6152563A (en) * | 1998-02-20 | 2000-11-28 | Hutchinson; Thomas E. | Eye gaze direction tracker |
US6415316B1 (en) | 1998-09-01 | 2002-07-02 | Aidministrator Nederland B.V. | Method and apparatus for implementing a web page diary |
JP2002525769A (ja) * | 1998-09-22 | 2002-08-13 | ヴェガ ヴィスタ インコーポレイテッド | 携帯型データディスプレイの直接的コントロール方法 |
US6345129B1 (en) * | 1999-02-03 | 2002-02-05 | Oren Aharon | Wide-field scanning tv |
US6315273B1 (en) * | 1999-05-27 | 2001-11-13 | Lionel Davies | Gas and liquid contact apparatus: illuminated |
US20020038456A1 (en) | 2000-09-22 | 2002-03-28 | Hansen Michael W. | Method and system for the automatic production and distribution of media content using the internet |
US20020083134A1 (en) | 2000-12-22 | 2002-06-27 | Bauer Kirk Wayne | Method and system of collaborative browsing |
US20020171690A1 (en) * | 2001-05-15 | 2002-11-21 | International Business Machines Corporation | Method and system for scaling a graphical user interface (GUI) widget based on selection pointer proximity |
US7100190B2 (en) | 2001-06-05 | 2006-08-29 | Honda Giken Kogyo Kabushiki Kaisha | Automobile web cam and communications system incorporating a network of automobile web cams |
US7970240B1 (en) | 2001-12-17 | 2011-06-28 | Google Inc. | Method and apparatus for archiving and visualizing digital images |
JP2003280805A (ja) * | 2002-03-26 | 2003-10-02 | Gen Tec:Kk | データ入力装置 |
US7921357B2 (en) * | 2002-05-23 | 2011-04-05 | Lebow David G | Highlighting comparison method |
US8120624B2 (en) * | 2002-07-16 | 2012-02-21 | Noregin Assets N.V. L.L.C. | Detail-in-context lenses for digital image cropping, measurement and online maps |
CA2406131A1 (en) * | 2002-09-30 | 2004-03-30 | Idelix Software Inc. | A graphical user interface using detail-in-context folding |
US8458028B2 (en) | 2002-10-16 | 2013-06-04 | Barbaro Technologies | System and method for integrating business-related content into an electronic game |
JP2004233867A (ja) * | 2003-01-31 | 2004-08-19 | Nikon Corp | 画像表示装置 |
US9607092B2 (en) | 2003-05-20 | 2017-03-28 | Excalibur Ip, Llc | Mapping method and system |
US7467356B2 (en) | 2003-07-25 | 2008-12-16 | Three-B International Limited | Graphical user interface for 3d virtual display browser using virtual display windows |
US7667700B1 (en) | 2004-03-05 | 2010-02-23 | Hrl Laboratories, Llc | System and method for navigating operating in a virtual environment |
ATE552478T1 (de) * | 2004-06-03 | 2012-04-15 | Making Virtual Solid L L C | Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays |
SE0401582L (sv) * | 2004-06-18 | 2005-05-10 | Totalfoersvarets Forskningsins | Interaktivt förfarande för att presentera information i en bild |
US7567241B2 (en) | 2004-08-03 | 2009-07-28 | Silverbrook Research Pty Ltd | Stylus with customizable appearance |
US7949642B2 (en) | 2004-10-12 | 2011-05-24 | Wendy W Yang | System and method for managing and presenting entity information |
JP2006320706A (ja) * | 2004-12-03 | 2006-11-30 | Shinsedai Kk | ボクシングゲーム方法、表示制御方法、位置決定方法、カーソル制御方法、消費エネルギー算出方法及びエクササイズ・システム |
US7298378B1 (en) | 2004-12-13 | 2007-11-20 | Hagenbuch Andrew M | Virtual reality universe realized as a distributed location network |
EP1848966A1 (en) * | 2005-02-17 | 2007-10-31 | Lumus Ltd | Personal navigation system |
US7933929B1 (en) | 2005-06-27 | 2011-04-26 | Google Inc. | Network link for providing dynamic data layer in a geographic information system |
US8818076B2 (en) | 2005-09-01 | 2014-08-26 | Victor Shenkar | System and method for cost-effective, high-fidelity 3D-modeling of large-scale urban environments |
US7529772B2 (en) | 2005-09-27 | 2009-05-05 | Scenera Technologies, Llc | Method and system for associating user comments to a scene captured by a digital imaging device |
US7836437B2 (en) | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
US8725729B2 (en) * | 2006-04-03 | 2014-05-13 | Steven G. Lisa | System, methods and applications for embedded internet searching and result display |
US7928926B2 (en) | 2006-06-27 | 2011-04-19 | Panasonic Corporation | Display apparatus and method for hands free operation that selects a function when window is within field of view |
WO2008055262A2 (en) * | 2006-11-02 | 2008-05-08 | Sensics, Inc. | Systems and methods for a head-mounted display |
US9555334B2 (en) | 2006-12-13 | 2017-01-31 | Qualcomm Incorporated | System and method for managing virtual worlds mapped to real locations in a mobile-enabled massively multiplayer online role playing game (MMORPG) |
US20080155019A1 (en) | 2006-12-20 | 2008-06-26 | Andrew Wallace | System, apparatus and method to facilitate interactions between real world and proprietary environments |
US8239487B1 (en) | 2007-05-30 | 2012-08-07 | Rocketon, Inc. | Method and apparatus for promoting desired on-line activities using on-line games |
US8583915B1 (en) | 2007-05-31 | 2013-11-12 | Bby Solutions, Inc. | Security and authentication systems and methods for personalized portable devices and associated systems |
US8600808B2 (en) | 2007-06-07 | 2013-12-03 | Qurio Holdings, Inc. | Methods and systems of presenting advertisements in consumer-defined environments |
US20090113349A1 (en) | 2007-09-24 | 2009-04-30 | Mark Zohar | Facilitating electronic commerce via a 3d virtual environment |
US20090106672A1 (en) | 2007-10-18 | 2009-04-23 | Sony Ericsson Mobile Communications Ab | Virtual world avatar activity governed by person's real life activity |
WO2009063968A1 (ja) | 2007-11-16 | 2009-05-22 | Nikon Corporation | 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法 |
US20090263777A1 (en) * | 2007-11-19 | 2009-10-22 | Kohn Arthur J | Immersive interactive environment for asynchronous learning and entertainment |
US20090271436A1 (en) | 2008-04-23 | 2009-10-29 | Josef Reisinger | Techniques for Providing a Virtual-World Object Based on a Real-World Object Description |
KR20100009947A (ko) * | 2008-07-21 | 2010-01-29 | 삼성전자주식회사 | 가상 현실 서비스 간의 상호 연동을 위한 장치 및 방법 |
US9318026B2 (en) | 2008-08-21 | 2016-04-19 | Lincoln Global, Inc. | Systems and methods providing an enhanced user experience in a real-time simulated virtual reality welding environment |
US8108778B2 (en) | 2008-09-30 | 2012-01-31 | Yahoo! Inc. | System and method for context enhanced mapping within a user interface |
US20100102476A1 (en) | 2008-10-29 | 2010-04-29 | Higgins Michael H | Method for manufacturing raised relief maps |
US20100110069A1 (en) * | 2008-10-31 | 2010-05-06 | Sharp Laboratories Of America, Inc. | System for rendering virtual see-through scenes |
US9472014B2 (en) | 2008-12-19 | 2016-10-18 | International Business Machines Corporation | Alternative representations of virtual content in a virtual universe |
FR2942091A1 (fr) | 2009-02-10 | 2010-08-13 | Alcatel Lucent | Communication multimedia dans un environnement virtuel |
US20100208029A1 (en) * | 2009-02-13 | 2010-08-19 | Samsung Electronics Co., Ltd | Mobile immersive display system |
US20100238161A1 (en) * | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360º heads up display of safety/mission critical data |
KR20100113704A (ko) * | 2009-04-14 | 2010-10-22 | 삼성전자주식회사 | 아이템 선택 방법 및 장치 |
JP2011039438A (ja) | 2009-08-18 | 2011-02-24 | Fujitsu Ltd | 電子機器および表示制御方法 |
US8392839B2 (en) | 2009-08-27 | 2013-03-05 | International Business Machines Corporation | System and method for using partial teleportation or relocation in virtual worlds |
US9256347B2 (en) | 2009-09-29 | 2016-02-09 | International Business Machines Corporation | Routing a teleportation request based on compatibility with user contexts |
US9254438B2 (en) | 2009-09-29 | 2016-02-09 | International Business Machines Corporation | Apparatus and method to transition between a media presentation and a virtual environment |
US8175734B2 (en) | 2009-10-08 | 2012-05-08 | 3D M. T. P. Ltd. | Methods and system for enabling printing three-dimensional object models |
KR101687640B1 (ko) | 2010-02-12 | 2016-12-19 | 톰슨 라이센싱 | 동기화된 컨텐츠 재생 방법 |
KR20110094693A (ko) * | 2010-02-17 | 2011-08-24 | 삼성전자주식회사 | 사용자 인터페이스 제공 장치 및 방법 |
US20110214071A1 (en) | 2010-02-26 | 2011-09-01 | University Of Southern California | Information channels in mmogs |
US20140063054A1 (en) | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific control interface based on a connected external device type |
US20120194418A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with user action control and event input based control of eyepiece application |
US20140063055A1 (en) | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
US20120194552A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with predictive control of external device based on event input |
JP5223062B2 (ja) | 2010-03-11 | 2013-06-26 | 株式会社ジオ技術研究所 | 3次元地図描画システム |
JP5143856B2 (ja) | 2010-04-16 | 2013-02-13 | 株式会社ソニー・コンピュータエンタテインメント | 3次元画像表示装置、および3次元画像表示方法 |
US8797380B2 (en) | 2010-04-30 | 2014-08-05 | Microsoft Corporation | Accelerated instant replay for co-present and distributed meetings |
US20110279445A1 (en) | 2010-05-16 | 2011-11-17 | Nokia Corporation | Method and apparatus for presenting location-based content |
US8694553B2 (en) | 2010-06-07 | 2014-04-08 | Gary Stephen Shuster | Creation and use of virtual places |
US20110313779A1 (en) | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Augmentation and correction of location based data through user feedback |
US8521526B1 (en) | 2010-07-28 | 2013-08-27 | Google Inc. | Disambiguation of a spoken query term |
US9378296B2 (en) | 2010-08-24 | 2016-06-28 | International Business Machines Corporation | Virtual world construction |
US9316827B2 (en) * | 2010-09-20 | 2016-04-19 | Kopin Corporation | LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking |
US9317133B2 (en) | 2010-10-08 | 2016-04-19 | Nokia Technologies Oy | Method and apparatus for generating augmented reality content |
US9632315B2 (en) * | 2010-10-21 | 2017-04-25 | Lockheed Martin Corporation | Head-mounted display apparatus employing one or more fresnel lenses |
KR20120046973A (ko) * | 2010-11-03 | 2012-05-11 | 삼성전자주식회사 | 움직임 정보 생성 방법 및 장치 |
US9292973B2 (en) * | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US9304319B2 (en) * | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
RU2642505C2 (ru) | 2010-12-10 | 2018-01-25 | Йота Девайсез Ипр Лтд | Мобильное устройство с интерфейсом пользователя |
US9213405B2 (en) * | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
US9690099B2 (en) * | 2010-12-17 | 2017-06-27 | Microsoft Technology Licensing, Llc | Optimized focal area for augmented reality displays |
US8803912B1 (en) | 2011-01-18 | 2014-08-12 | Kenneth Peyton Fouts | Systems and methods related to an interactive representative reality |
US20120188148A1 (en) | 2011-01-24 | 2012-07-26 | Microvision, Inc. | Head Mounted Meta-Display System |
RU111703U1 (ru) | 2011-02-08 | 2011-12-20 | Федеральное агенство воздушного транспорта Федеральное государственное образовательное учреждение высшего профессионального образования "Московский государственный технический университет гражданской авиации" (МГТУГА) | Тренажерный комплекс для обучения авиадиспетчеров диспетчерских пунктов руления, старта и посадки на реальном летном поле |
CN106125921B (zh) * | 2011-02-09 | 2019-01-15 | 苹果公司 | 3d映射环境中的凝视检测 |
KR101591579B1 (ko) | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
US20120249480A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Interactive input system incorporating multi-angle reflecting structure |
US9154826B2 (en) | 2011-04-06 | 2015-10-06 | Headwater Partners Ii Llc | Distributing content and service launch objects to mobile devices |
US9043325B1 (en) | 2011-06-24 | 2015-05-26 | Google Inc. | Collecting useful user feedback about geographical entities |
US9727132B2 (en) | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
AU2011204946C1 (en) | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
US8223024B1 (en) | 2011-09-21 | 2012-07-17 | Google Inc. | Locking mechanism based on unnatural movement of head-mounted display |
US8847988B2 (en) | 2011-09-30 | 2014-09-30 | Microsoft Corporation | Exercising applications for personal audio/visual system |
US9128520B2 (en) | 2011-09-30 | 2015-09-08 | Microsoft Technology Licensing, Llc | Service provision using personal audio/visual system |
US9081177B2 (en) * | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
US8970452B2 (en) * | 2011-11-02 | 2015-03-03 | Google Inc. | Imaging method |
US20130117707A1 (en) * | 2011-11-08 | 2013-05-09 | Google Inc. | Velocity-Based Triggering |
US9311883B2 (en) | 2011-11-11 | 2016-04-12 | Microsoft Technology Licensing, Llc | Recalibration of a flexible mixed reality device |
US20130125066A1 (en) * | 2011-11-14 | 2013-05-16 | Microsoft Corporation | Adaptive Area Cursor |
US8866852B2 (en) * | 2011-11-28 | 2014-10-21 | Google Inc. | Method and system for input detection |
US9213185B1 (en) * | 2012-01-06 | 2015-12-15 | Google Inc. | Display scaling based on movement of a head-mounted display |
US8908914B2 (en) | 2012-01-17 | 2014-12-09 | Maxlinear, Inc. | Method and system for map generation for location and navigation with user sharing/social networking |
US20130191178A1 (en) | 2012-01-25 | 2013-07-25 | Predictive Edge Technologies, Llc | System and method for secure registration, authentication, valuation and exchange of virtual goods and objects |
US20130194389A1 (en) * | 2012-01-31 | 2013-08-01 | Ben Vaught | Head-mounted display device to measure attentiveness |
JP5880115B2 (ja) | 2012-02-17 | 2016-03-08 | ソニー株式会社 | ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法 |
US20130227017A1 (en) | 2012-02-24 | 2013-08-29 | Steven Antony Gahlings | Location associated virtual interaction, virtual networking and virtual data management |
US8737767B2 (en) | 2012-02-28 | 2014-05-27 | Disney Enterprises, Inc. | Perceptually guided capture and stylization of 3D human figures |
US20130241805A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
US9096920B1 (en) * | 2012-03-22 | 2015-08-04 | Google Inc. | User interface method |
US20130263016A1 (en) | 2012-03-27 | 2013-10-03 | Nokia Corporation | Method and apparatus for location tagged user interface for media sharing |
US9122321B2 (en) * | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
JP2013258614A (ja) | 2012-06-13 | 2013-12-26 | Sony Computer Entertainment Inc | 画像生成装置および画像生成方法 |
US9389420B2 (en) * | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
TW201351963A (zh) | 2012-06-15 | 2013-12-16 | Hon Hai Prec Ind Co Ltd | 虛擬環境中的影像播放方法及系統 |
US9219901B2 (en) | 2012-06-19 | 2015-12-22 | Qualcomm Incorporated | Reactive user interface for head-mounted display |
US9669296B1 (en) | 2012-07-31 | 2017-06-06 | Niantic, Inc. | Linking real world activities with a parallel reality game |
US20140101608A1 (en) * | 2012-10-05 | 2014-04-10 | Google Inc. | User Interfaces for Head-Mountable Devices |
US9007301B1 (en) * | 2012-10-11 | 2015-04-14 | Google Inc. | User interface |
US20150062114A1 (en) | 2012-10-23 | 2015-03-05 | Andrew Ofstad | Displaying textual information related to geolocated images |
US9710873B1 (en) | 2012-10-26 | 2017-07-18 | Amazon Technologies, Inc. | Point of interest mapping |
US20140164921A1 (en) | 2012-12-07 | 2014-06-12 | Robert Salinas | Methods and Systems of Augmented Reality on Mobile Devices |
US9607011B2 (en) | 2012-12-19 | 2017-03-28 | Intel Corporation | Time-shifting image service |
US9285951B2 (en) | 2013-02-14 | 2016-03-15 | Disney Enterprises, Inc. | Avatar personalization in a virtual environment |
US20140280506A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality enhanced through browser connections |
US20140280504A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality universe representation changes viewing based upon client side parameters |
US20140280503A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | System and methods for effective virtual reality visitor interface |
US20140267581A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time virtual reality leveraging web cams and ip cams and web cam and ip cam networks |
US9838506B1 (en) | 2013-03-15 | 2017-12-05 | Sony Interactive Entertainment America Llc | Virtual reality universe representation changes viewing based upon client side parameters |
US20140280644A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Real time unified communications interaction of a predefined location in a virtual reality location |
US20140280502A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Crowd and cloud enabled virtual reality distributed location network |
US20140280505A1 (en) | 2013-03-15 | 2014-09-18 | John Cronin | Virtual reality interaction with 3d printing |
US9261959B1 (en) * | 2013-03-28 | 2016-02-16 | Google Inc. | Input detection |
US9874749B2 (en) * | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9329682B2 (en) * | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US9563331B2 (en) * | 2013-06-28 | 2017-02-07 | Microsoft Technology Licensing, Llc | Web-like hierarchical menu display configuration for a near-eye display |
JP5825328B2 (ja) * | 2013-11-07 | 2015-12-02 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
US9437159B2 (en) | 2014-01-25 | 2016-09-06 | Sony Interactive Entertainment America Llc | Environmental interrupt in a head-mounted display and utilization of non field of view real estate |
US9588343B2 (en) | 2014-01-25 | 2017-03-07 | Sony Interactive Entertainment America Llc | Menu navigation in a head-mounted display |
US9898078B2 (en) * | 2015-01-12 | 2018-02-20 | Dell Products, L.P. | Immersive environment correction display and method |
US20170090460A1 (en) | 2015-09-25 | 2017-03-30 | Microsoft Technology Licensing, Llc | 3D Model Generation From Map Data |
-
2014
- 2014-05-20 US US14/283,032 patent/US9588343B2/en active Active
-
2015
- 2015-01-12 BR BR112016017179A patent/BR112016017179A2/pt not_active Application Discontinuation
- 2015-01-12 KR KR1020167020346A patent/KR102090075B1/ko active IP Right Grant
- 2015-01-12 JP JP2016548227A patent/JP2017510877A/ja active Pending
- 2015-01-12 KR KR1020217009255A patent/KR102390549B1/ko active IP Right Grant
- 2015-01-12 KR KR1020207007152A patent/KR102235410B1/ko active IP Right Grant
- 2015-01-12 MX MX2016009682A patent/MX359046B/es active IP Right Grant
- 2015-01-12 EP EP15740676.0A patent/EP3097449A4/en not_active Ceased
- 2015-01-12 CN CN201580005815.1A patent/CN106471420B/zh active Active
- 2015-01-12 WO PCT/US2015/010990 patent/WO2015112359A1/en active Application Filing
- 2015-01-12 RU RU2016134577A patent/RU2642545C1/ru active
- 2015-01-12 CA CA2937880A patent/CA2937880C/en active Active
-
2017
- 2017-03-02 US US15/447,342 patent/US10809798B2/en active Active
-
2018
- 2018-06-06 JP JP2018108517A patent/JP6674703B2/ja active Active
-
2020
- 2020-03-05 JP JP2020037787A patent/JP7021274B2/ja active Active
- 2020-07-30 US US16/943,694 patent/US11036292B2/en active Active
-
2021
- 2021-06-15 US US17/348,466 patent/US11693476B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1679577A1 (en) * | 2005-01-10 | 2006-07-12 | Tobii Technology AB | Adaptive display of eye controllable objects |
US20100088632A1 (en) * | 2008-10-08 | 2010-04-08 | Research In Motion Limited | Method and handheld electronic device having dual mode touchscreen-based navigation |
US20130278531A1 (en) * | 2009-09-17 | 2013-10-24 | Lexos Media Ip, Llc | System and method of cursor-based content delivery |
US20130246967A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Head-Tracked User Interaction with Graphical Interface |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2747861C1 (ru) * | 2020-09-17 | 2021-05-17 | Общество с ограниченной ответственностью "МедВиар" | Способ и система для ведения диалогов с виртуальными персонажами в виртуальной среде |
Also Published As
Publication number | Publication date |
---|---|
EP3097449A4 (en) | 2017-08-09 |
US20170242479A1 (en) | 2017-08-24 |
CN106471420B (zh) | 2019-04-23 |
JP7021274B2 (ja) | 2022-02-16 |
EP3097449A1 (en) | 2016-11-30 |
US20150212322A1 (en) | 2015-07-30 |
KR20210037746A (ko) | 2021-04-06 |
US10809798B2 (en) | 2020-10-20 |
BR112016017179A2 (pt) | 2017-12-26 |
US11693476B2 (en) | 2023-07-04 |
US20210357028A1 (en) | 2021-11-18 |
KR102235410B1 (ko) | 2021-04-02 |
MX2016009682A (es) | 2017-07-05 |
CA2937880A1 (en) | 2015-07-30 |
KR20200029631A (ko) | 2020-03-18 |
JP2017510877A (ja) | 2017-04-13 |
JP2018190429A (ja) | 2018-11-29 |
US11036292B2 (en) | 2021-06-15 |
US9588343B2 (en) | 2017-03-07 |
WO2015112359A9 (en) | 2016-11-10 |
CN106471420A (zh) | 2017-03-01 |
KR102090075B1 (ko) | 2020-03-17 |
KR102390549B1 (ko) | 2022-04-26 |
KR20160113614A (ko) | 2016-09-30 |
JP2020115352A (ja) | 2020-07-30 |
US20200379556A1 (en) | 2020-12-03 |
JP6674703B2 (ja) | 2020-04-01 |
MX359046B (es) | 2018-09-13 |
WO2015112359A1 (en) | 2015-07-30 |
CA2937880C (en) | 2018-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2642545C1 (ru) | Навигация в меню в наголовном устройстве отображения | |
US10096167B2 (en) | Method for executing functions in a VR environment | |
KR102632270B1 (ko) | 전자 장치 및 파노라마 영상 표시와 생성 방법 | |
KR20180055637A (ko) | 전자 장치 및 그의 제어 방법 |