RU2621644C2 - Мир массового одновременного удаленного цифрового присутствия - Google Patents
Мир массового одновременного удаленного цифрового присутствия Download PDFInfo
- Publication number
- RU2621644C2 RU2621644C2 RU2013154098A RU2013154098A RU2621644C2 RU 2621644 C2 RU2621644 C2 RU 2621644C2 RU 2013154098 A RU2013154098 A RU 2013154098A RU 2013154098 A RU2013154098 A RU 2013154098A RU 2621644 C2 RU2621644 C2 RU 2621644C2
- Authority
- RU
- Russia
- Prior art keywords
- user
- virtual
- data
- virtual world
- objects
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
- G09G2340/125—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Изобретение относится к области обеспечения интерактивных виртуальных сред или сред дополненной реальности для многочисленных пользователей. Техническим результатом является обеспечение взаимодействия пользователей с виртуальными средами и объектами. Система для обеспечения одному или более пользователям возможности взаимодействовать с виртуальным миром, содержащим данные виртуального мира, содержит: компьютерную сеть, включающую в себя один или более компьютерных серверов, содержащих память, процессорную схему и программное обеспечение, хранимое в памяти и исполняемое процессорной схемой для обработки, по меньшей мере, части данных виртуального мира; при этом компьютерная сеть выполнена с возможностью передавать данные виртуального мира в пользовательское устройство для представления первому пользователю, при этом, по меньшей мере, часть виртуального мира изменяется в ответ на изменение в данных виртуального мира, при этом, по меньшей мере, часть данных виртуального мира изменяется в ответ на по меньшей мере один физический объект, обнаруженный пользовательским устройством, и причем этот по меньшей мере один физический объект содержит объекты в физической среде вблизи первого пользователя. 9 з.п. ф-лы, 12 ил.
Description
ПЕРЕКРЕСТНАЯ ССЫЛКА НА РОДСТВЕННЫЕ ЗАЯВКИ
[0001] По настоящей заявке испрашивается приоритет американской предварительной патентной заявки №61/483505, поданной 6 мая 2011 г., и американской предварительной патентной заявки №61/483511, поданной 6 мая, 2011 г.
ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
[0002] Настоящее изобретение в целом относится к способам и устройствам для обеспечения интерактивных виртуальных сред или сред дополненной реальности для многочисленных пользователей.
УРОВЕНЬ ТЕХНИКИ
[0003] Виртуальные среды и среды дополненной реальности генерируются посредством компьютеров, использующих, в частности, данные, которые описывают среду. Эти данные могут описывать, например, различные объекты, которые пользователь может ощущать и с которыми он может взаимодействовать. Примеры этих объектов включают в себя объекты, которые отображены и выведены на экран для того, чтобы пользователь мог их видеть, звук, который проигрывается для того, чтобы пользователь мог его услышать, и тактильную (или осязательную) обратную связь для того, чтобы пользователь мог ее ощутить. Пользователи могут ощущать и взаимодействовать с виртуальными средами и средами дополненной реальности посредством множества визуальных, слуховых и тактильных средств.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
[0004] Настоящее изобретение описывает различные системы и способы для того, чтобы позволить одному или более пользователям взаимодействовать с или участвовать в виртуальных средах или в средах дополненной реальности.
[0005] В одном примерном варианте осуществления система включает в себя вычислительную сеть, включающую в себя компьютерные серверы, соединенные посредством интерфейсов с высокой пропускной способностью со шлюзами для обработки данных и/или для обеспечения передачи данных между серверами и одним или более локальными устройствами пользовательского интерфейса. Серверы включают в себя память, процессорную схему и программное обеспечение для разработки и/или управления виртуальными мирами, а также для хранения и обработки пользовательских данных и данных, предоставленных другими компонентами системы. Один или более виртуальных миров могут быть представлены пользователю через пользовательское устройство с тем, чтобы пользователь мог их ощущать и взаимодействовать с ними. Большое количество пользователей могут каждый использовать устройство, чтобы одновременно взаимодействовать с одним или более цифровыми мирами путем использования устройства с тем, чтобы наблюдать и взаимодействовать друг с другом и с объектами, произведенными внутри цифровых миров.
[0006] Примеры пользовательских устройств включают в себя смартфон, планшетное устройство, дисплей на лобовом стекле (HUD), игровую консоль, или обычно любое другое устройство, способное передавать данные и генерировать или передавать интерфейс пользователю, чтобы тот мог видеть, слышать и/или ощущать. Обычно пользовательское устройство будет включать в себя процессор для исполнения программного кода, сохраненного в памяти устройства, соединенный с визуальным дисплеем и коммуникационным интерфейсом. Интерфейс обеспечивает визуальное, звуковое и/или физическое взаимодействие между пользователем и цифровым миром, включая других пользователей и объекты (реальные или виртуальные), представленные пользователю. В одном варианте осуществления пользовательское устройство включает в себя систему шлема-дисплея, имеющую интерфейс, пользовательскую сенсорную систему, систему измерения окружающей среды и процессор.
[0007] Предшествующие и другие функции и преимущества настоящего изобретения станут в дальнейшем очевидными из нижеследующего подробного описания примерных вариантов осуществления в совокупности с сопроводительными чертежами. Подробное описание и чертежи являются чисто иллюстративными, а не ограничивающими объем настоящего изобретения, который определяется приложенной формулой изобретения и ее эквивалентами.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
[0008] Варианты осуществления проиллюстрированы в качестве примера на сопроводительных чертежах, на которых не обязательно соблюден масштаб и на которых одинаковые ссылочные номера указывают на аналогичные части, и на которых:
[0009] Фиг. 1 иллюстрирует примерный вариант осуществления раскрытой системы для обеспечения интерактивной виртуальной среды или среды дополненной реальности для многочисленных пользователей;
[0010] Фиг. 2 иллюстрирует пример пользовательского устройства для взаимодействия с системой, проиллюстрированной на Фиг. 1;
[0011] Фиг. 3 иллюстрирует примерный вариант осуществления мобильного, носимого пользовательского устройства;
[0012] Фиг. 4 иллюстрирует пример объектов, просматриваемых пользователем, когда мобильное, носимое пользовательское устройство, изображенное на Фиг. 3, работает в режиме дополненной реальности;
[0013] Фиг. 5 иллюстрирует пример объектов, просматриваемых пользователем, когда мобильное, носимое пользовательское устройство, изображенное на Фиг. 3, работает в режиме виртуальной среды;
[0014] Фиг. 6 иллюстрирует пример объектов, просматриваемых пользователем, когда мобильное, носимое пользовательское устройство, изображенное на Фиг. 3, работает в смешанном режиме виртуального интерфейса;
[0015] Фиг. 7 иллюстрирует один вариант осуществления, в котором два пользователя, расположенные в различных географических положениях, взаимодействуют друг с другом и с общим виртуальным миром через их соответствующие пользовательские устройства;
[0016] Фиг. 8 иллюстрирует один вариант осуществления, в котором вариант осуществления, изображенный на Фиг. 7, расширен так, чтобы он включал в себя использование тактильного устройства;
[0017] Фиг. 9A иллюстрирует пример режима смешанного интерфейса, в котором первый пользователь взаимодействует с цифровым миром в смешанном режиме виртуального интерфейса, а второй пользователь взаимодействует с тем же самым цифровым миром в режиме виртуальной реальности;
[0018] Фиг. 9B иллюстрирует другой пример смешанного интерфейса, в котором первый пользователь взаимодействует с цифровым миром в смешанном режиме виртуального интерфейса, а второй пользователь взаимодействует с тем же самым цифровым миром в режиме дополненной реальности;
[0019] Фиг. 10 показывает примерную иллюстрацию представления для пользователя при взаимодействии с системой в режиме дополненной реальности; и
[0020] Фиг. 11 показывает примерную иллюстрацию представления для пользователя, показывающего виртуальный объект, инициированный физическим объектом, когда пользователь интерфейса, в котором первый пользователь взаимодействует системой в режиме дополненной реальности.
ПОДРОБНОЕ ОПИСАНИЕ ВАРИАНТОВ ОСУЩЕСТВЛЕНИЯ
[0021] На Фиг. 1 изображена система 100, которая представляет собой аппаратные средства для реализации процессов, описанных ниже. Эта иллюстративная система включает в себя вычислительную сеть 105, содержащую один или более компьютерных серверов 110, соединенных посредством одного или более интерфейсов с высокой пропускной способностью 115. Серверы в вычислительной сети не обязаны находиться в одном физическом месте. Каждый из одного или более серверов 110 включает в себя один или более процессоров для того, чтобы исполнять инструкции программы. Серверы также включают в себя память для хранения инструкций программы и данных, которые используются и/или генерируются процессами, выполняемыми серверами в соответствии с инструкциями программы.
[0022] Вычислительная сеть 105 передает данные между серверами 110 и между серверами и одним или более пользовательскими устройствами 120 через одно или более соединений сети передачи данных 130. Примеры таких сетей передачи данных включают в себя, без ограничения, любые и все типы общедоступных и частных сетей передачи данных, как мобильных, так и проводных, включая, например, соединение множества таких сетей, обычно называемое Интернетом. На чертеже не подразумеваются никакие определенные носители, топологии или протоколы.
[0023] Пользовательские устройства конфигурируются для обмена данными непосредственно с вычислительной сетью 105 или с любым из серверов 110. Альтернативно, пользовательские устройства 120 обмениваются данными с удаленными серверами 110, и, опционально, с другими пользовательскими устройствами локально, через специально запрограммированный локальный шлюз 140 для обработки данных и/или для передачи данных между сетью 105 и одним или более локальных пользовательских устройств 120.
[0024] Как показано на чертеже, шлюз 140 реализован как отдельный аппаратный компонент, который включает в себя процессор для исполнения инструкций программного обеспечения и память для хранения инструкций программного обеспечения и данных. Шлюз имеет свое собственное проводное и/или беспроводное соединение с сетями передачи данных для того, чтобы связываться с серверами 110, входящими в вычислительную сеть 105. Альтернативно, шлюз 140 может быть интегрирован с пользовательским устройством 120, которое является носимым или надето на пользователя. Например, шлюз 140 может быть реализован как загружаемое программное приложение, установленное и исполняемое на процессоре, включенном в пользовательское устройство 120. Шлюз 140 в одном варианте осуществления обеспечивает одному или более пользователям доступ к вычислительной сети 105 через сеть передачи данных 130.
[0025] Каждый из серверов 110 включает в себя, например, оперативную память и долговременную память для того, чтобы хранить данные и программы, микропроцессоры для того, чтобы исполнять инструкции программы, графические процессоры и другие специальные процессоры для рендеринга и генерирования графики, изображений, видео, аудио и мультимедийных файлов. Вычислительная сеть 105 может также включать в себя устройства для хранения данных, которые используются, создаются, или доступ к которым осуществляется посредством серверов 110.
[0026] Программы, исполняющиеся на серверах и опционально на пользовательских устройствах 120 и шлюзах 140, используются для того, чтобы генерировать цифровые миры (также упоминаемые в настоящем документе как виртуальные миры), с которыми пользователи взаимодействуют при помощи пользовательских устройств 120. Цифровой мир представлен данными и процессами, которые описывают и/или определяют виртуальные, несуществующие объекты, среды и состояния, которые могут быть представлены пользователю через пользовательское устройство 120 для того, чтобы пользователь мог их воспринимать и взаимодействовать с ними. Например, некоторый тип объекта, субъекта или элемента, который будет казаться физически присутствующим при создании его экземпляра в сцене, которая просматривается или воспринимается пользователем, может включать в себя описание его внешнего вида, его поведения, того, как пользователю разрешено взаимодействовать с ним, а также другие характеристики. Данные, используемые для создания среды виртуального мира (включая виртуальные объекты), могут включать в себя, например, атмосферные данные, данные ландшафта, погодные данные, температурные данные, данные расположения, и другие данные, используемые для определения и/или описания виртуальной среды. В дополнение к этому, данные, определяющие различные условия, которые управляют работой виртуального мира, могут включать в себя, например, законы физики, время, пространственные отношения и другие данные, которые могут использоваться для того, чтобы определить и/или создать различные условия, которые управляют работой виртуального мира (включая виртуальные объекты).
[0027] Субъект, объект, условие, характеристика, поведение или другая функция цифрового мира будут в общем упоминаться в настоящем документе, если контекст не будет указывать иного, как объект (например, цифровой объект, виртуальный объект, отображенный физический объект и т.д.). Объекты могут быть любым типом анимированного или неанимированного объекта, включая, но не ограничиваясь этим, здания, производственные предприятия, механизмы, людей, животных, существа, машины, данные, видео, текст, изображения и других пользователей. Объекты также могут быть определены в цифровом мире для хранения информации об элементах, способах поведения или условиях, фактически представленных в материальном мире. Данные, которые описывают или определяют субъект, объект или элемент, или которые хранят его текущее состояние, обычно упоминаются в настоящем документе как объектные данные. Эти данные обрабатываются серверами 110 или, в зависимости от реализации, шлюзом 140 или пользовательским устройством 120 с тем, чтобы создать экземпляр объекта и представить объект подходящим способом для пользователя, чтобы он воспринял его через пользовательское устройство.
[0028] Программисты, которые разрабатывают и/или курируют цифровой мир, создают или определяют объекты и условия, при которых создаются их экземпляры. Однако цифровой мир может позволять создавать или изменять объекты не только программистам. Как только экземпляр объекта создан, состояние объекта может быть изменено или может управляться одним или более пользователями, воспринимающими цифровой мир.
[0029] Например, в одном варианте осуществления разработка, производство и администрирование цифрового мира обычно обеспечивается одним или более программистами с правами системного администратора. В некоторых вариантах осуществления это может включать в себя разработку, проектирование и/или выполнение сюжетов, тем и событий в цифровых мирах, а также распространение комментариев через различные формы событий и носителей, таких как, например, пленочный, цифровой, сетевой, мобильный, дополненная реальность и живое развлечение. Программисты с правами системного администратора могут также выполнять техническое администрирование, модерирование и курирование цифровых миров и пользовательских сообществ, связанных с ними, а также другие задачи, обычно выполняемые сетевым административным персоналом.
[0030] Пользователи взаимодействуют с одним или более цифровыми мирами, используя некоторый тип локального вычислительного устройства, которое обычно определяется как пользовательское устройство 120. Примеры таких пользовательских устройств включают в себя, не ограничиваясь этим, смартфон, планшетное устройство, дисплей на лобовом стекле (HUD), игровую консоль или любое другое устройство, способное передавать данные и обеспечивать интерфейс или отображение для пользователя, а также комбинации таких устройств. В некоторых вариантах осуществления пользовательское устройство 120 может включать в себя, или обмениваться информацией с, локальные периферийные компоненты или компоненты ввода/вывода, такие как, например, клавиатура, мышь, джойстик, игровой контроллер, устройство тактильного интерфейса, контроллер ввода данных о движении, звуковое оборудование, речевое оборудование, проекционную систему, трехмерный дисплей и голографическая трехмерную контактную линзу.
[0031] Пример пользовательского устройства 120 для взаимодействия с системой 100 проиллюстрирован на Фиг. 2. В примерном варианте осуществления, показанном на Фиг. 2, пользователь 210 может взаимодействовать с одним или более цифровыми мирами с помощью смартфона 220. Шлюз реализован программным приложением 230, хранимым и исполняемым на смартфоне 220. В этом конкретном примере сеть передачи данных 130 включает в себя беспроводную мобильную сеть, соединяющую пользовательское устройство (то есть смартфон 220) с компьютерной сетью 105.
[0032] В одной реализации предпочтительного варианта осуществления система 100 способна поддерживать большое количество одновременных пользователей (например, миллионы пользователей), каждый из которых взаимодействует с тем же самым цифровым миром, или с множеством цифровых миров, используя некоторый тип пользовательского устройства 120.
[0033] Пользовательское устройство предоставляет пользователю интерфейс, обеспечивающий визуальное, звуковое и/или физическое взаимодействие между пользователем и цифровым миром, сгенерированным серверами 110, включая других пользователей и объекты (реальные или виртуальные), представленным пользователю. Интерфейс предоставляет пользователю отображенную сцену, которая может быть просмотрена, услышана или воспринята иным образом, и возможность взаимодействовать со сценой в режиме реального времени. Способ, которым пользователь взаимодействует с представленной сценой, может быть продиктован возможностями пользовательского устройства. Например, если пользовательское устройство представляет собой смартфон, пользовательское взаимодействие может быть реализовано с помощью сенсорного экрана. В другом примере, если пользовательское устройство представляет собой компьютер или игровую консоль, пользовательское взаимодействие может быть реализовано с использованием игрового контроллера или клавиатуры. Пользовательские устройства могут включать в себя дополнительные компоненты, которые обеспечивают пользователю взаимодействие, такие как датчики, где объекты и информация (включая жесты), обнаруженные датчиками, могут быть обеспечены как вход, представляющий пользовательское взаимодействие с виртуальным миром с использованием пользовательского устройства.
[0034] Отображенная сцена может быть представлена в различных форматах, таких как, например, двумерные или трехмерные визуальные представления (включая проекции), звук, а также осязательная или тактильная обратная связь. Пользователь может взаимодействовать с отображенной сценой в одном или более режимах, включая, например, дополненную реальность, виртуальную реальность и их комбинации. Формат отображенной сцены, так же как и режимы интерфейса, могут быть продиктованы одним или более из следующего: пользовательским устройством, возможностью обработки данных, связью с пользовательским устройством, пропускной способностью сети и рабочей нагрузкой системы. Возможность обслуживания большого количества пользователей, одновременно взаимодействующих с цифровыми мирами, и обмен данными в реальном времени обеспечиваются вычислительной сетью 105, серверами 110, компонентом шлюза 140 (опционально) и пользовательским устройством 120.
[0035] В одном примере вычислительная сеть 105 содержит крупномасштабную вычислительную систему, имеющую одноядерные и/или многоядерные серверы (то есть серверы 110), соединенные через высокоскоростные соединения (например, через интерфейсы 115 с высокой пропускной способностью). Вычислительная сеть 105 может образовывать облако или иметь решетчатую сетевую топологию. Каждый из серверов включает в себя память или связан с машиночитаемой памятью для хранения программного обеспечения для того, чтобы применять данные для создания, разработки, изменения или обработки объектов цифрового мира. Эти объекты и их экземпляры могут быть динамичными, появляться и исчезать, изменяться во времени и изменяться в ответ на другие условия. Примеры динамических возможностей объектов в целом обсуждаются в настоящем документе в связи с различными вариантами осуществления. В некоторых вариантах осуществления каждый пользователь, взаимодействующий с системой 100, также может быть представлен как объект и/или набор объектов в пределах одного или более цифровых миров.
[0036] Серверы 110 внутри вычислительной сети 105 также хранят данные вычислительного состояния для каждого из цифровых миров. Данные вычислительного состояния (также упоминаемые в настоящем документе как данные состояния) могут быть компонентом объектных данных, и обычно определяют состояние экземпляра объекта в данный момент времени. Таким образом, данные вычислительного состояния могут изменяться во времени и могут зависеть от действий одного или более пользователей и/или программистов, поддерживающих систему 100. Поскольку пользователь воздействует на данные вычислительного состояния (или на другие данные, представляющие цифровые миры), пользователь непосредственно изменяет или иным образом управляет цифровым миром. Если цифровой мир совместно используется, или соединяется, с другими пользователями, действия пользователя могут влиять на то, что испытывается другими пользователями, взаимодействующими с цифровым миром. Таким образом, в некоторых вариантах осуществления изменения в цифровом мире, сделанные пользователем, будут восприняты другими пользователями, взаимодействующими с системой 100.
[0037] Данные, хранящиеся в одном или более серверах 110 внутри вычислительной сети 105, в одном варианте осуществления передаются или разворачиваются с высокой скоростью и с малой задержкой на одно или более пользовательских устройств 120 и/или компонентов шлюза 140. В одном варианте осуществления объектные данные, совместно используемые серверами, могут быть полными или могут быть сжатыми, и содержат инструкции для воссоздания полных объектных данных на пользовательской стороне, отображаемых и визуализируемых локальным вычислительным устройством пользователя (например, шлюзом 140 и/или пользовательским устройством 120). Программное обеспечение, работающее на серверах 110 вычислительной сети 105, в некоторых вариантах осуществления может адаптировать данные, которые оно генерирует и отправляет устройству 120 определенного пользователя для объектов внутри цифрового мира (или любые другие данные, передаваемые по вычислительной сети 105), в зависимости от конкретного устройства пользователя и пропускной способности. Например, когда пользователь взаимодействует с цифровым миром через пользовательское устройство 120, сервер 110 может распознать определенный тип устройства, используемого пользователем, характеристики соединения устройства и/или доступную пропускную способность канала между пользовательским устройством и сервером, и соответственно этому масштабировать и сбалансировать данные, передаваемые устройству, так чтобы оптимизировать взаимодействие с пользователем. Пример этого может включать в себя сокращение размера переданных данных до качества низкого разрешения, так чтобы данные могли быть выведены на экран на определенном пользовательском устройстве, имеющем дисплей с низким разрешением. В предпочтительном варианте осуществления вычислительная сеть 105 и/или компонент шлюза 140 передает данные пользовательскому устройству 120 со скоростью, достаточной для того, чтобы представить интерфейс, работающий на частоте обновления 15 кадров в секунду или выше, и в разрешении, которое обеспечивает качество изображения высокой четкости или выше.
[0038] Шлюз 140 обеспечивает локальное соединение с вычислительной сетью 105 для одного или более пользователей. В некоторых вариантах осуществления он может быть реализован загружаемым программным приложением, которое исполняется на пользовательском устройстве 120 или на другом локальном устройстве, таком как показанное на Фиг. 2. В других вариантах осуществления он может быть реализован аппаратным компонентом (с подходящим программным обеспечением/встроенным микропрограммным обеспечением (firmware), хранимым на компоненте, имеющем процессор), который либо соединяется с пользовательским устройством 120, но не входит в него, либо входит в состав пользовательского устройства 120. Шлюз 140 связывается с вычислительной сетью 105 через сеть передачи данных 130 и обеспечивает обмен данными между вычислительной сетью 105 и одним или более локальными пользовательскими устройствами 120. Как более подробно обсуждено ниже, компонент шлюза 140 может включать в себя программное обеспечение, встроенное микропрограммное обеспечение, память и процессорную схему, и может обрабатывать данные, передаваемые между сетью 105 и одним или более локальными пользовательскими устройствами 120.
[0039] В некоторых вариантах осуществления компонент шлюза 140 отслеживает и регулирует скорость передачи данных, передаваемых между пользовательским устройством 120 и компьютерной сетью 105, с тем чтобы обеспечить оптимальные возможности обработки данных определенного пользовательского устройства 120. Например, в некоторых вариантах осуществления шлюз 140 буферизует и загружает как статические, так и динамические аспекты цифрового мира, даже те, которые находятся за пределами поля зрения, представляемого пользователю через интерфейс, соединенный с пользовательским устройством. В таком варианте осуществления экземпляры статических объектов (структурированные данные, программно реализованные способы или и то, и другое) могут быть сохранены в памяти (локальной для компонента шлюза 140, пользовательского устройства 120 или и того, и другого) и соотнесены с текущей позицией локального пользователя, как указано данными, предоставленными вычислительной сетью 105 и/или устройством пользователя 120. Экземпляры динамических объектов, которые могут включать в себя, например, интеллектуальные программные агенты и объекты, которыми управляют другие пользователи и/или локальный пользователь, хранятся в буфере быстродействующей памяти. Динамические объекты, представляющие двумерный или трехмерный объект в сцене, представленной пользователю, могут быть, например, разбиты на составляющие формы, такие как статическая форма, которая перемещается, но не изменяется, и динамическая форма, которая изменяется. Часть динамического объекта, которая изменяется, может быть обновлена приоритетным параллельным потоком данных в реальном времени от сервера 110 через вычислительную сеть 105 под управлением компонента шлюза 140. В качестве одного примера приоритетного параллельного потока данных, данные, которые находятся в 60-градусном поле зрения глаз пользователя, могут получить более высокий приоритет, чем данные, которые являются более периферийными. Другой пример включает в себя приоритизацию динамических персонажей и/или объектов, находящихся внутри поля зрения пользователя, над статическими объектами, находящимися на заднем плане.
[0040] В дополнение к управлению соединением для передачи данных между вычислительной сетью 105 и пользовательским устройством 120, компонент шлюза 140 может сохранять и/или обрабатывать данные, которые могут быть представлены пользовательскому устройству 120. Например, компонент шлюза 140 в некоторых вариантах осуществления может получать из вычислительной сети 105 сжатые данные, описывающие, например, графические объекты, которые должны быть отображены для просмотра пользователем, и выполнять усовершенствованные методы рендеринга для того, чтобы снижать объем данных, передаваемых к пользовательскому устройству 120 из вычислительной сети 105. В другом примере, в котором шлюз 140 является отдельным устройством, шлюз 140 может хранить и/или обрабатывать данные для локального экземпляра объекта вместо того, чтобы передавать данные в вычислительную сеть 105 для обработки.
[0041] Обращаясь теперь также к Фиг. 3, цифровые миры могут быть восприняты одним или более пользователями в различных форматах, которые могут зависеть от возможностей устройства пользователя. В некоторых вариантах осуществления пользовательское устройство 120 может включать в себя, например, смартфон, планшетное устройство, дисплей на лобовом стекле (HUD), игровую консоль или носимое устройство. Обычно пользовательское устройство будет включать в себя процессор для того, чтобы исполнять код программы, хранимый в памяти на устройстве, объединенный с дисплеем и коммуникационным интерфейсом. Примерный вариант осуществления пользовательского устройства проиллюстрирован на Фиг. 3, на котором пользовательское устройство включает в себя мобильное, носимое устройство, а именно систему шлема-дисплея 300. В соответствии с одним вариантом осуществления настоящего изобретения система шлема-дисплея 300 включает в себя пользовательский интерфейс 302, пользовательскую сенсорную систему 304, систему измерения окружающей среды 306 и процессор 308. Хотя процессор 308 показан на Фиг. 3 как изолированный компонент, отдельный от системы шлема-дисплея 300, в альтернативном варианте осуществления процессор 308 может быть интегрирован с одним или более компонентами системы шлема-дисплея 300 или может быть интегрирован в другую систему 100 компонентов, такую как, например, шлюз 140.
[0042] Пользовательское устройство представляет пользователю интерфейс 302 для восприятия и взаимодействия с цифровым миром. Такое взаимодействие может включать в себя пользователя и цифровой мир, одного или более других пользователей, соединенных с системой 100, и объекты внутри цифрового мира. Интерфейс 302 обычно обеспечивает видео и/или аудио сенсорный вход (а в некоторых вариантах осуществления еще и физический сенсорный вход) для пользователя. Таким образом, интерфейс 302 может включать в себя динамики (не показаны) и компонент дисплея 303, способный в некоторых вариантах осуществления обеспечивать стереоскопический трехмерный просмотр и/или трехмерный просмотр, который реализует более естественные характеристики системы человеческого зрения. В некоторых вариантах осуществления компонент дисплея 303 может включать в себя прозрачный интерфейс (такой как прозрачный OLED-экран), который в выключенном состоянии позволяет пользователю корректно видеть физическую среду вокруг себя с незначительными оптическими искажениями или компьютерными наложениями либо вообще без оптических искажений или компьютерных наложений. Как более подробно обсуждено ниже, интерфейс 302 может включать в себя дополнительные настройки, которые обеспечивают множество визуальных/интерфейсных режимов и различную функциональность.
[0043] Пользовательская сенсорная система 304 может включать в себя в некоторых вариантах осуществления один или более датчиков 310, действующих так, чтобы обнаруживать определенные функции, характеристики или информацию, относящиеся к отдельному пользователю, носящему систему 300. Например, в некоторых вариантах осуществления датчики 310 могут включать в себя камеру или оптическую схему обнаружения/сканирования, способную в реальном времени обнаруживать оптические характеристики/выполнять измерения пользователя, такие как, например, одно или больше из следующего: сжатие/расширение зрачка, угловое измерение/расположение каждого зрачка, сфероидальность, форма глаза (как форма глаза изменяется в течение времени), и другие анатомические данные. Эти данные могут обеспечить, или могут использоваться для вычисления информации (например, точки зрительного фокуса пользователя), которая может использоваться системой шлема-дисплея 300 и/или интерфейсной системой 100 для того, чтобы оптимизировать пользовательское восприятие. Например, в одном варианте осуществления каждый из датчиков 310 может измерять скорость сокращения зрачка для каждого из глаз пользователя. Эти данные могут быть переданы процессору 308 (или компоненту шлюза 140 или серверу 110), где данные используются для определения, например, реакции пользователя на настройку яркости интерфейса дисплея 303. Интерфейс 302 может быть настроен в соответствии с реакцией пользователя путем, например, уменьшения яркости дисплея 303, если реакция пользователя указывает на то, что уровень яркости дисплея 303 слишком высок. Пользовательская сенсорная система 304 может включать в себя другие компоненты, кроме обсужденных выше или проиллюстрированных на Фиг. 3. Например, в некоторых вариантах осуществления пользовательская сенсорная система 304 может включать в себя микрофон получения голосового ввода от пользователя. Пользовательская сенсорная система может также включать в себя один или более инфракрасных датчиков/камер, один или более датчиков/камер, работающих в видимой части спектра, излучатели и/или датчики структурированного света, излучатели инфракрасного света, излучатели и/или датчики когерентного света, гироскопы, акселерометры, магнитометры, датчики близости, датчики GPS, излучатели и детекторы ультразвука и тактильные интерфейсы.
[0044] Система измерения окружающей среды 306 включает в себя один или более датчиков 312 для того, чтобы получать данные из физической среды вокруг пользователя. Объекты или информация, обнаруженные датчиками, могут служить в качестве ввода для пользовательского устройства. В некоторых вариантах осуществления этот ввод может представлять пользовательское взаимодействие с виртуальным миром. Например, пользователь, смотрящий на виртуальную клавиатуру на столе, может жестикулировать своими пальцами так, как будто он набирает текст на виртуальной клавиатуре. Движение пальцев может быть получено датчиками 312 и передано пользовательскому устройству или системе в качестве ввода, где ввод может использоваться для того, чтобы изменять виртуальный мир или создавать новые виртуальные объекты. Например, движение пальцев может быть распознано (с использованием программы) как набор текста на клавиатуре, и распознанный жест набора может быть объединен с известным расположением виртуальных клавиш на виртуальной клавиатуре. Система может затем отобразить виртуальный монитор и вывести его на экран пользователю (или другим пользователям, подключенным к системе), где виртуальный монитор показывает текст, вводимый пользователем.
[0045] Датчики 312 могут включать в себя, например, обычно направленную наружу камеру или сканер для того, чтобы интерпретировать информацию о сцене, например, с помощью непрерывно и/или периодически проецируемого инфракрасного структурированного света. Система измерения окружающей среды 306 может использоваться для того, чтобы отобразить один или более элементов физической среды вокруг пользователя посредством обнаружения и регистрации локальной среды, включая статические объекты, динамические объекты, людей, жесты и различные условия освещения, атмосферные и акустические условия. Таким образом, в некоторых вариантах осуществления система измерения окружающей среды 306 может включать в себя программное обеспечение трехмерной реконструкции на основе изображения, встроенное в локальную вычислительную систему (например, в компонент шлюза 140 или в процессор 308) и выполненное с возможностью цифровой реконструкции одного или более объектов или информации, обнаруженных датчиками 312. В одном примерном варианте осуществления система измерения окружающей среды 306 обеспечивает одно или более из следующего: данные о движении (включая распознавание жеста), данные о глубине, распознавание лица, распознавание объекта, распознавание уникальных признаков объекта, распознавание и обработка голоса/звука, локализация источника звука, шумоподавление, инфракрасная или подобная лазерная проекция, а также монохромные и/или цветные CMOS-датчики (или другие подобные датчики), датчики поля зрения, и множество других усовершенствованных оптических датчиков. Следует принять во внимание, что система измерения окружающей среды 306 может включать в себя другие компоненты, кроме обсужденных выше или проиллюстрированных на Фиг. 3. Например, в некоторых вариантах осуществления система измерения окружающей среды 306 может включать в себя микрофон для того, чтобы принимать звук из локального окружения. Пользовательская сенсорная система может также включать в себя один или более инфракрасных датчиков/камер, один или более датчиков/камер, работающих в видимой части спектра, излучатели и/или датчики структурированного света, излучатели инфракрасного света, излучатели и/или датчики когерентного света, гироскопы, акселерометры, магнитометры, датчики близости, датчики GPS, излучатели и детекторы ультразвука и тактильные интерфейсы.
[0046] Как упомянуто выше, процессор 308 в некоторых вариантах осуществления может быть интегрирован с другими компонентами системы шлема-дисплея 300, с другими компонентами интерфейсной системы 100 или может быть изолированным устройством (носимым или отдельным от пользователя), как показано на Фиг. 3. Процессор 308 может быть соединен с различными компонентами системы шлема-дисплея 300 и/или компонентами интерфейсной системы 100 через физическое, проводное соединение, либо посредством беспроводного соединения, такого как, например, мобильные сетевые соединения (включая мобильные телефонные сети и сети передачи данных), Wi-Fi или Bluetooth. Процессор 308 может включать в себя модуль памяти, интегрированный и/или дополнительный графический процессор, беспроводное и/или проводное интернет-соединение, и кодек и/или встроенное микропрограммное обеспечение, способное преобразовывать данные из источника (например, из вычислительной сети 105, из пользовательской сенсорной системы 304, из системы измерения окружающей среды 306 или из компонента шлюза 140) в изображение и звуковые данные, которые могут быть представлены пользователю посредством интерфейса 302.
[0047] Процессор 308 производит обработку данных для различных компонентов системы шлема-дисплея 300, а также обмен данными между системой шлема-дисплея 300 и компонентом шлюза 140 и, в некоторых вариантах осуществления, вычислительной сетью 105. Например, процессор 308 может использоваться для того, чтобы буферизовать и обрабатывать поток данных между пользователем и вычислительной сетью 105, обеспечивая тем самым плавное, непрерывное и высококачественное восприятие. В некоторых вариантах осуществления процессор 308 может обрабатывать данные со скоростью, достаточной для достижения любого качества в диапазоне от 8 кадров в секунду при разрешении 320×240 пикселей до 24 кадров в секунду при разрешении высокой четкости (1280×720 пикселей) или больше, такого как 60-120 кадров в секунду и разрешения 4k и выше (разрешение 10k+ и 50000 кадров в секунду). Дополнительно к этому, процессор 308 может хранить и/или обрабатывать данные, которые могут быть представлены пользователю, вместо того, чтобы передавать их потоком в режиме реального времени из вычислительной сети 105. Например, процессор 308 в некоторых вариантах осуществления может получать сжатые данные из вычислительной сети 105 и выполнять усовершенствованные методы рендеринга (такие как освещение или обработка полутонов) для того, чтобы снижать объем данных, передаваемых к пользовательскому устройству 120 из вычислительной сети 105. В другом примере процессор 308 может хранить и/или обрабатывать локальные объектные данные вместо того, чтобы передавать данные компоненту шлюза 140 или вычислительной сети 105.
[0048] Система шлема-дисплея 300 в некоторых вариантах осуществления может включать в себя различные настройки, или режимы, которые обеспечивают множество визуальных/интерфейсных режимов и различную функциональность. Режимы могут выбираться вручную пользователем или автоматически компонентами системы шлема-дисплея 300 или компонентом шлюза 140. Как было упомянуто ранее, один пример системы шлема-дисплея 300 включает в себя режим выключения, в котором интерфейс 302 существенно не обеспечивает цифровой или виртуальный контент. В режиме выключения компонент дисплея 303 может быть прозрачным, позволяя таким образом пользователю корректно видеть физическую среду вокруг себя с незначительными оптическими искажениями или компьютерными наложениями либо вообще без оптических искажений или компьютерных наложений.
[0049] В одном примерном варианте осуществления система шлема-дисплея 300 включает в себя режим дополненной реальности, в котором интерфейс 302 обеспечивает интерфейс дополненной реальности. В режиме дополненной реальности дисплей интерфейса 303 может быть существенно прозрачным, позволяя таким образом пользователю видеть локальное физическое окружение. Одновременно с этим виртуальные объектные данные, предоставленные вычислительной сетью 105, процессором 308 и/или компонентом шлюза 140, представляются на дисплее 303 в комбинации с локальным физическим окружением.
[0050] Фиг. 4 иллюстрирует примерный вариант осуществления объектов, просматриваемых пользователем, когда интерфейс 302 работает в режиме дополненной реальности. Как показано на Фиг. 4, интерфейс 302 представляет физический объект 402 и виртуальный объект 404. В варианте осуществления, проиллюстрированном на Фиг. 4, физический объект 402 является реальным, физическим объектом, существующим в окружении пользователя, тогда как виртуальный объект 404 является объектом, создаваемым системой 100 и выводимым на экран посредством пользовательского интерфейса 302. В некоторых вариантах осуществления виртуальный объект 404 может быть выведен на экран в фиксированной позиции или расположении в пределах физической среды (например, виртуальная обезьяна, стоящая рядом с конкретным уличным знаком, расположенным в физической среде), или может быть выведен на экран пользователю в качестве объекта, расположенного в некоторой позиции относительно пользовательского интерфейса/дисплея 303 (например, виртуальные часы или термометр, видимые в верхнем левом углу дисплея 303).
[0051] В некоторых вариантах осуществления виртуальные объекты могут быть контролируемыми или инициируемыми объектами, физически существующими внутри или вне поля зрения пользователя. Виртуальный объект 404 контролируется или инициируется физическим объектом 402. Например, физический объект 402 может фактически быть табуретом, и виртуальный объект 404 может быть выведен на экран пользователю (и, в некоторых вариантах осуществления, другим пользователям, подключенным к системе 100) как виртуальное животное, стоящее на табурете. В таком варианте осуществления система измерения окружающей среды 306 может использовать программное обеспечение и/или сохраненное встроенное микропрограммное обеспечение, например, в процессоре 308, для того, чтобы распознать, что различные функции и/или шаблоны формы (полученные датчиками 312) идентифицируют физический объект 402 как табурет. Эти распознанные шаблоны формы, такие как, например, вершина табурета, могут использоваться для того, чтобы инициировать размещение виртуального объекта 404. Другие примеры включают в себя стены, столы, мебель, автомобили, здания, людей, этажи, растения, животных - любой объект, который может быть увиден, может использоваться для того, чтобы инициировать дополненную реальность в некотором отношении к объекту или объектам.
[0052] В некоторых вариантах осуществления конкретный виртуальный объект 404, который инициируется, может быть выбран пользователем или автоматически выбран другими компонентами системы шлема-дисплея 300 или системы интерфейса 100. Дополнительно к этому, в тех вариантах осуществления, в которых виртуальный объект 404 инициируется автоматически, конкретный виртуальный объект 404 может быть выбран на основе конкретного физического объекта 402 (или его особенности), которым виртуальный объект 404 контролируется или инициируется. Например, если физический объект идентифицирован как трамплин для прыжков в воду, находящийся над бассейном, инициированный виртуальный объект может быть существом в маске с трубкой, в водолазном костюме, с аквалангом или с другими относящимися к контексту элементами.
[0053] В другом примерном варианте осуществления система шлема-дисплея 300 может включать в себя "виртуальный" режим, в котором интерфейс 302 обеспечивает интерфейс виртуальной реальности. В виртуальном режиме окружающая физическая среда не видна через дисплей 303, и виртуальные объектные данные, предоставленные вычислительной сетью 105, процессором 308 и/или компонентом шлюза 140, представляются на дисплее 303. Удаление окружающей физической среды с экрана может быть выполнено путем физической блокировки дисплея 303 (например, посредством крышки) или посредством функции интерфейса 302, в которой дисплей 303 переходит в непрозрачное состояние. В виртуальном режиме живые и/или сохраненные визуальные и звуковые ощущения могут быть представлены пользователю через интерфейс 302, и пользователь воспринимает и взаимодействует с цифровым миром (с цифровыми объектами, с другими пользователями и т.д.) посредством виртуального режима интерфейса 302. Таким образом, интерфейс, предоставляемый пользователю в виртуальном режиме, состоит из виртуальных объектных данных, включающих в себя виртуальный цифровой мир.
[0054] Фиг. 5 иллюстрирует примерный вариант осуществления пользовательского интерфейса, когда интерфейс 302 шлема-дисплея работает в виртуальном режиме. Как показано на Фиг. 5, пользовательский интерфейс представляет виртуальный мир 500, составленный из цифровых объектов 510, в котором цифровые объекты 510 могут включать в себя атмосферу, погоду, ландшафт, здания и людей. Хотя это и не проиллюстрировано на Фиг. 5, цифровые объекты могут также включать в себя, например, растения, автомобили, животных, существа, машины, искусственный интеллект, информацию о расположении и любой другой объект или информацию, определяющую виртуальный мир 500.
[0055] В другом примерном варианте осуществления система шлема-дисплея 300 может включать в себя "смешанный" режим, в котором различные функции системы шлема-дисплея 300 (так же как и функции виртуального режима и режима дополненной реальности) могут сочетаться для того, чтобы создать один или более пользовательских режимов интерфейса. В одном примере пользовательского режима интерфейса физическая среда отсутствует на дисплее 303, и виртуальные объектные данные представляются на дисплее 303 способом, подобным виртуальному режиму. Однако, в этом примере пользовательского режима интерфейса виртуальные объекты могут быть полностью виртуальными (то есть они не существуют в локальной физической среде), или они могут быть реальными, локальными физическими объектами, представленными как виртуальный объект в интерфейсе 302 вместо физического объекта. Таким образом, в этом конкретном пользовательском режиме (упоминаемом в настоящем документе как смешанный виртуальный режим интерфейса), живые и/или сохраненные зрительные и звуковые ощущения могут быть представлены пользователю через интерфейс 302, и пользователь воспринимает и взаимодействует с цифровым миром, включающим в себя полностью виртуальные объекты и отображенные физические объекты.
[0056] Фиг. 6 иллюстрирует примерный вариант осуществления пользовательского интерфейса, работающего в соответствии со смешанным виртуальным режимом интерфейса. Как показано на Фиг. 6, пользовательский интерфейс представляет виртуальный мир 600, составленный из полностью виртуальных объектов 610 и отображенных физических объектов 620 (полученных с помощью рендеринга объектов, физически существующих в сцене). В соответствии с примером, иллюстрированным на Фиг. 6, отображенные физические объекты 620 включают в себя здание 620A, землю 620B и платформу 620C, и показаны с полужирной рамкой 630, чтобы показать пользователю, что эти объекты отображены. Дополнительно к этому, полностью виртуальные объекты 610 включают в себя дополнительного пользователя 610A, облака 610B, солнце 610C и пламя 610D сверху платформы 620C. Следует принять во внимание, что полностью виртуальные объекты 610 могут включать в себя, например, атмосферу, погоду, ландшафт, здания, людей, растения, автомобили, животных, существа, машины, искусственный интеллект, информацию о расположении и любой другой объект или информацию, определяющую виртуальный мир 600, а не отображенные на основе объектов, существующих в локальной физической среде. В противоположность этому, отображенные физические объекты 620 являются реальными локальными физическими объектами, отображенными как виртуальные объекты в интерфейсе 302. Полужирная рамка 630 представляет один пример указания отображенных физических объектов пользователю. Также отображенные физические объекты могут быть обозначены с использованием других способов, отличных от раскрытых в настоящем документе.
[0057] В некоторых вариантах осуществления отображаемые физические объекты 620 могут быть обнаружены с использованием датчиков 312 системы измерения окружающей среды 306 (или с использованием других устройств, таких как система ввода данных о движении или захвата изображения), и преобразованы в цифровые объектные данные программным обеспечением и/или сохраненным встроенным микропрограммным обеспечением, например, в процессорной схеме 308. Таким образом, поскольку пользователь взаимодействует с системой 100 в смешанном виртуальном режиме интерфейса, различные физические объекты могут быть выведены на экран пользователю как отображенные физические объекты. Это может быть особенно полезно для того, чтобы пользователь мог взаимодействовать с системой 100, и в то же время безопасно перемещаться в локальной физической среде. В некоторых вариантах осуществления пользователь может быть в состоянии выборочно удалять или добавлять физические объекты, отображаемые интерфейсным дисплеем 303.
[0058] В другом примерном пользовательском режиме интерфейса дисплей интерфейса 303 может быть, по существу, прозрачным, позволяя тем самым пользователю видеть локальное физическое окружение, в то время как различные локальные физические объекты показываются на экране пользователю в качестве отображенных физических объектов. Этот примерный пользовательский режим интерфейса подобен режиму дополненной реальности, за исключением того, что один или более виртуальных объектов могут быть отображенными физическими объектами, как обсуждалось выше в отношении предыдущего примера.
[0059] Предшествующие примерные пользовательские режимы интерфейса представляют несколько примерных вариантов осуществления различных пользовательских режимов интерфейса, которые могут обеспечиваться смешанным режимом системы шлема-дисплея 300. Соответственно, различные другие пользовательские режимы интерфейса могут быть созданы из различной комбинации особенностей и функциональности, обеспечиваемой компонентами системы шлема-дисплея 300 и различными режимами, обсужденными выше, без отступления от области охвата настоящего раскрытия.
[0060] Варианты осуществления, обсужденные в настоящем документе, просто описывают несколько примеров обеспечения интерфейса, работающего в выключенном режиме, режиме дополненной реальности, виртуальном режиме или смешанном режиме, и не предназначены для того, чтобы ограничивать объем или содержание соответствующих интерфейсных режимов или функциональности компонентов системы шлема-дисплея 300. Например, в некоторых вариантах осуществления виртуальные объекты могут включать в себя данные, выводимые на экран пользователю (время, температура, высота и т.д.), объекты, создаваемые и/или выбранные системой 100, объекты, создаваемые и/или выбранные пользователем, или даже объекты, представляющие других пользователей, подключенных к системе 100. Дополнительно к этому, виртуальные объекты могут включать в себя расширение физических объектов (например, виртуальная скульптура, стоящая на физической платформе) и могут быть визуально соединены или разъединены с физическим объектом.
[0061] Виртуальные объекты могут также быть динамическими и изменяться со временем, изменяться в соответствии с различными отношениями (например, в зависимости от положения, расстояния и т.д.) между пользователем или другими пользователями, физическими объектами и другими виртуальными объектами, и/или изменяться в соответствии с другими переменными, указанными в программном обеспечении и/или встроенном микропрограммном обеспечении системы шлема-дисплея 300, компонента шлюза 140 или сервера 110. Например, в некоторых вариантах осуществления виртуальный объект может реагировать на пользовательское устройство или его компонент (например, виртуальный шар перемещается, когда тактильное устройство помещается рядом с ним), на физическое или вербальное взаимодействие с пользователем (например, виртуальное существо убегает, когда пользователь приближается к нему, или говорит, когда пользователь заговаривает с ним), стул бросается в виртуальное существо, и существо уклоняется от стула, на другие виртуальные объекты (например, первое виртуальное существо реагирует, когда оно видит второе виртуальное существо), на физические переменные, такие как положение, расстояние, температура, время и т.д. или на другие физические объекты в окружении пользователя (например, виртуальное существо, показываемое стоящим на физической улице, становится расплющенным, когда через него переезжает физический автомобиль).
[0062] Различные режимы, обсужденные в настоящем документе, могут быть применены и к другим пользовательским устройствам, отличным от системы шлема-дисплея 300. Например, интерфейс дополненной реальности может быть обеспечен посредством планшетного устройства или мобильного телефона. В таком варианте осуществления телефон или планшет могут использовать камеру для получения физического окружения вокруг пользователя, и виртуальные объекты могут быть наложены на экране дисплея телефона/планшета. Дополнительно к этому, виртуальный режим может быть обеспечен путем отображения цифрового мира на экране дисплея телефона/планшета. Соответственно, эти режимы могут быть смешаны так, чтобы создать различные пользовательские режимы интерфейса, как описано выше, используя компоненты телефона/планшета, обсуждаемого в настоящем документе, а также другие компоненты, соединенные с, или используемые в комбинации с пользовательским устройством. Например, смешанный виртуальный режим интерфейса может быть обеспечен компьютерным монитором, телевизионным экраном или другим устройством, у которого отсутствует камера, работающая в комбинации с системой ввода данных о движении или системой захвата изображения. В этом примерном варианте осуществления виртуальный мир может быть просмотрен на мониторе/экране, а обнаружение объектов и рендеринг могут быть выполнены системой ввода данных о движении или системой захвата изображения.
[0063] Фиг. 7 иллюстрирует примерный вариант осуществления настоящего изобретения, в котором каждый из двух пользователей, расположенных в различных географических местоположениях, взаимодействует с другим пользователем и с общим для них виртуальным миром через свое соответствующее пользовательское устройство. В этом варианте осуществления два пользователя 701 и 702 бросают виртуальный мяч 703 (тип виртуального объекта) туда и обратно, причем каждый пользователь способен наблюдать воздействие другого пользователя на виртуальный мир (например, каждый пользователь наблюдает изменение направления движения виртуального мяча, как его ловит другой пользовательи т.д.). Так как перемещение и расположение виртуальных объектов (то есть виртуального мяча 703) отслеживается серверами 110 в вычислительной сети 105, система 100 в некоторых вариантах осуществления может сообщить пользователям 701 и 702 точное положение и время прибытия мяча 703 относительно каждого пользователя. Например, если первый пользователь 701 находится в Лондоне, пользователь 701 может бросить мяч 703 во второго пользователя 702, находящегося в Лос-Анджелесе, со скоростью, вычисленной системой 100. Соответственно, система 100 может сообщить второму пользователю 702 (например, по электронной почте, текстовым сообщением, мгновенным сообщениеми т.д.) точное время и место прибытия мяча. По существу, второй пользователь 702 может использовать свое устройство для того, чтобы увидеть, что мяч 703 прилетел в требуемое время и куда он прилетел. Один или более пользователей могут также использовать программное обеспечение геопозиционирования (или подобное) для того, чтобы отслеживать один или более виртуальных объектов по мере того, как они виртуально перемещаются по всему миру. Примером этого может быть пользователь, носящий трехмерный шлем-дисплей, смотрящий в небо и видящий летящий над ним виртуальный самолет, наложенный на реальный мир. Виртуальный самолет может управляться пользователем, интеллектуальными программными агентами (программным обеспечением, работающим на пользовательском устройстве или на шлюзе), другими пользователями, которые могут быть локальными и/или удаленными, и/или посредством любой комбинации вышеперечисленного.
[0064] Как было ранее упомянуто, пользовательское устройство может включать в себя устройство тактильного интерфейса, обеспечивающее обратную связь (например, сопротивление, вибрация, световые индикаторы, звук и т.д.) пользователю, когда система 100 определяет, что тактильное устройство должно быть расположено в некотором физическом пространственном расположении относительно виртуального объекта. Например, вариант осуществления, описанный выше со ссылкой на Фиг. 7, может быть расширен так, чтобы включать в себя использование тактильного устройства 802, как показано на Фиг. 8. В этом варианте осуществления в качестве примера тактильное устройство 802 может быть выведено на экран в виртуальном мире как бейсбольная бита. Когда мяч 703 прилетает, пользователь 702 может ударить тактильным устройством 802 по виртуальному мячу 703. Если система 100 решает, что виртуальная бита, обеспечиваемая тактильным устройством 802, вступила в "контакт" с мячом 703, то тактильное устройство 802 может завибрировать или обеспечить другую обратную связь пользователю 702, и виртуальный мяч 703 может срикошетить от виртуальной биты в направлении, вычисленном системой 100 в соответствии с обнаруженной скоростью, направлением, и временем контакта мяча и биты.
[0065] Раскрытая система 100 в некоторых вариантах осуществления может облегчить обеспечение интерфейса смешанного режима, в котором многочисленные пользователи могут взаимодействовать с общим виртуальным миром (и с виртуальными объектами, содержащимися в нем) с использованием различных режимов интерфейса (например, режима дополненной реальности, виртуального режима, смешанного режима и т.д.). Например, первый пользователь, взаимодействующий с конкретным виртуальным миром в виртуальном режиме интерфейса, может взаимодействовать со вторым пользователем, взаимодействующим с тем же самым виртуальным миром в режиме дополненной реальности.
[0066] Фиг. 9A иллюстрирует пример, в котором первый пользователь 901 (взаимодействующий с цифровым миром системы 100 в смешанном виртуальном режиме интерфейса) и первый объект 902 показываются как виртуальные объекты второму пользователю 922, взаимодействующему с тем же самым цифровым миром системы 100 в режиме полностью виртуальной реальности. Как описано выше, при взаимодействии с цифровым миром посредством смешанного виртуального режима интерфейса локальные физические объекты (например, первый пользователь 901 и первый объект 902) могут быть отсканированы и отображены как виртуальные объекты в виртуальном мире. Первый пользователь 901 может быть отсканирован, например, системой ввода данных о движении или подобным устройством и отображен в виртуальном мире (посредством программного обеспечения/встроенного микропрограммного обеспечения, хранимого в системе ввода данных о движении, в компоненте шлюза 140, в пользовательском устройстве 120, на системных серверах 110 или в других устройствах) в качестве первого отображенного физического объекта 931. Аналогичным образом первый объект 902 может быть отсканирован, например, системой измерения окружающей среды 306 интерфейса шлема-дисплея 300 и отображен в виртуальном мире (посредством программного обеспечения/встроенного микропрограммного обеспечения, хранимого в процессоре 308, в компоненте шлюза 140, на системных серверах 110 или в других устройствах) в качестве второго отображенного физического объекта 932. Первый пользователь 901 и первый объект 902 показаны в первой части 910 Фиг. 9A как физические объекты в материальном мире. На второй части 920 Фиг. 9A первый пользователь 901 и первый объект 902 показаны так, как они видятся второму пользователю 922, взаимодействующему с тем же самым цифровым миром системы 100 в режиме полностью виртуальной реальности: как первый отображенный физический объект 931 и второй отображенный физический объект 932.
[0067] Фиг. 9B иллюстрирует другой примерный вариант осуществления смешанного режима интерфейса, в котором первый пользователь 901 взаимодействует с цифровым миром в смешанном виртуальном режиме интерфейса, как обсуждено выше, а второй пользователь 922 взаимодействует с тем же самым цифровым миром (и с физическим локальным окружением 925 второго пользователя) в режиме дополненной реальности. В варианте осуществления, показанном на Фиг. 9B, первый пользователь 901 и первый объект 902 находятся в первом физическом местоположении 915, а второй пользователь 922 находится в другом, втором физическом местоположении 925, разделенном некоторым расстоянием от первого местоположения 915. В этом варианте осуществления виртуальные объекты 931 и 932 могут быть перемещены в реальном времени (или почти в реальном времени) в местоположение внутри виртуального мира, соответствующее второму местоположению 925. Таким образом, второй пользователь 922 может наблюдать и взаимодействовать с отображенными физическими объектами 931 и 932, представляющими собой первого пользователя 901 и первый объект 902, соответственно, в физическом локальном окружении 925 второго пользователя.
[0068] Фиг. 10 показывает примерную иллюстрацию представления пользователя при взаимодействии с системой 100 в режиме дополненной реальности. Как показано на Фиг. 10, пользователь видит локальную физическую среду (то есть город, имеющий множество зданий), а также виртуальный персонаж 1010 (то есть виртуальный объект). Положение виртуального персонажа 1010 может быть инициировано двухмерной визуальной целью (например, рекламным щитом, открыткой или журналом) и/или одним или более из трехмерных ссылочных фреймов, таких как здания, автомобили, люди, животные, самолеты, части здания, и/или любой трехмерный физический объект, виртуальный объект, и/или их комбинации. В примере, проиллюстрированном на Фиг. 10, известное положение зданий в городе может обеспечить регистрацию опорных точек и/или информацию и ключевые признаки для отображения виртуального персонажа 1010. Дополнительно, геопространственное положение пользователя (например, предоставленное системой спутникового позиционирования GPS, датчиками пространственного и углового положения и т.д.) или мобильное положение относительно зданий может включать в себя данные, используемые вычислительной сетью 105 для того, чтобы инициировать передачу данных, используемых для вывода на экран виртуального персонажа (персонажей) 1010. В некоторых вариантах осуществления данные, используемые для вывода на экран виртуального персонажа 1010, могут включать в себя отображенный персонаж 1010 и/или инструкции (для их исполнения компонентом шлюза 140 и/или пользовательским устройством 120) для отображения виртуального персонажа 1010 или его частей. В некоторых вариантах осуществления, если геопространственное положение пользователя недоступно или неизвестно, сервер 110, компонент шлюза 140 и/или пользовательское устройство 120 может вывести на экран виртуальный объект 1010, используя алгоритм оценки, который оценивает, где могут быть расположены конкретные виртуальные объекты и/или физические объекты, путем использования последнего известного положения пользователя в зависимости от времени и/или от других параметров. Это также может использоваться для определения положения любых виртуальных объектов, если датчики пользователя становятся закрытыми и/или функционируют некорректно.
[0069] В некоторых вариантах осуществления виртуальные персонажи или виртуальные объекты могут включать в себя виртуальную статую, причем рендеринг виртуальной статуи инициируется физическим объектом. Например, обращаясь теперь к Фиг. 11, виртуальная статуя 1110 может быть инициирована реальной физической платформой 1120. Инициирование статуи 1110 может происходить в ответ на визуальный объект или признак (например, опорные точки, конструктивные особенности, геометрия, узоры, физическое положение, высота и т.д.), обнаруженный пользовательским устройством или другими компонентами системы 100. Когда пользователь рассматривает платформу 1120 без пользовательского устройства, пользователь видит платформу 1120 без статуи 1110. Однако, когда пользователь рассматривает платформу 1120 через пользовательское устройство, пользователь видит статую 1110 на платформе 1120, как показано на Фиг. 11. Статуя 1110 является виртуальным объектом и поэтому может быть стационарной, анимированной, изменяющейся во времени или относительно точки зрения пользователя, или даже изменяться в зависимости от того, какой конкретно пользователь рассматривает статую 1110. Например, если пользователь является маленьким ребенком, статуя может быть собакой; в то же время, если пользователь является взрослым мужчиной, статуя может быть большим роботом, как показано на Фиг. 11. Эти примеры являются примерами восприятия, зависимого от пользователя и/или от состояния. Это позволит одному или более пользователям воспринимать один или более виртуальных объектов по одному и/или в комбинации с физическими объектами и настроенными в соответствии с опытом и персонализированными версиями виртуальных объектов. Статуя 1110 (или ее части) может быть отображена различными компонентами системы, включая, например, программное обеспечение/встроенное микропрограммное обеспечение, установленное на пользовательском устройстве. Используя данные, указывающие на пространственное и угловое положение пользовательского устройства в комбинации с регистрационными признаками виртуального объекта (то есть статуи 1110), виртуальный объект (то есть статуя 1110) формирует отношение с физическим объектом (то есть с платформой 1120). Например, отношение между одним или более виртуальными объектами и одним или более физическими объектами может быть функцией расстояния, положения, времени, георасположения, близости к одному или более другим виртуальным объектам, и/или любым другим функциональным отношением, которое включает в себя виртуальные и/или физические данные любого вида. В некоторых вариантах осуществления программное обеспечение распознавания изображения в пользовательском устройстве может дополнительно улучшить отношение между цифровыми и физическими объектами.
[0070] Интерактивный интерфейс, обеспечиваемый раскрытой системой и способом, может быть реализован для облегчения различных действий, таких как, например, взаимодействие с одной или более виртуальными средами и объектами, взаимодействие с другими пользователями, а также восприятие различных форм мультимедийного контента, включая рекламные объявления, музыкальные концерты и кинофильмы. Соответственно, раскрытая система облегчает пользовательское взаимодействие, так что пользователь не только просматривает или слушает мультимедийный контент, но и активно участвует в нем и воспринимает его. В некоторых вариантах осуществления пользовательское участие может включать в себя изменяющийся существующий контент или создание нового контента, который будет отображен в одном или более виртуальных мирах. В некоторых вариантах осуществления мультимедийный контент и/или пользователи, создающие контент, могут быть тематически объединены вокруг мифотворчества одного или более виртуальных миров.
[0071] В одном примере музыканты (или другие пользователи) могут создавать музыкальный контент, который будет отображен пользователям, взаимодействующим с конкретным виртуальным миром. Музыкальный контент может включать в себя, например, различные одиночные произведения, долгоиграющие пластинки, альбомы, видео, короткометражные фильмы и концертные исполнения. В одном примере большое количество пользователей может подключиться к системе 100, чтобы одновременно увидеть и услышать виртуальный концерт, исполняемый музыкантами.
[0072] В некоторых вариантах осуществления произведенные носители могут содержать уникальный идентификационный код, связанный с определенным объектом (например, музыкальная группа, исполнитель, пользовательи т.д.). Код может быть в форме набора алфавитно-цифровых символов, штрих-кодов UPC, QR-кодов, триггеров двухмерного изображения, триггеров особенностей трехмерных физических объектов или других цифровых меток, а также звука, изображения и/или того и другого. В некоторых вариантах осуществления код также может быть встроен в цифровые носители, которые могут использоваться системой 100. Пользователь может получить код (например, посредством оплаты или взноса) и тем самым выкупить код для того, чтобы получить доступ к мультимедийному контенту, произведенному лицом или компанией, связанной с идентификационным кодом. Мультимедийный контент может быть добавлен или удален из пользовательского интерфейса.
[0073] Варианты осуществления, раскрытые в настоящем документе, приведены для того, чтобы проиллюстрировать один или более примеров способов и устройства для обеспечения интерактивной виртуальной среды или среды дополненной реальности для многочисленных пользователей. По существу, изменения к способам и устройству, раскрытым в настоящем документе, могут быть сделаны без отступлений от объема настоящего изобретения, который определяется формулой изобретения, приведенной ниже. Например, хотя различные примеры и варианты осуществления обсуждаются в настоящем документе в отношении системы шлема-дисплея, различные примеры и варианты осуществления могут также применяться к другим пользовательским устройствам, способным обеспечить интерфейс или возможности, обсужденные относительно этих конкретных вариантов осуществления.
Claims (15)
1. Система для обеспечения одному или более пользователям возможности взаимодействовать с виртуальным миром, содержащим данные виртуального мира, содержащая:
компьютерную сеть, включающую в себя один или более компьютерных серверов, содержащих память, процессорную схему и программное обеспечение, хранимое в памяти и исполняемое процессорной схемой для обработки, по меньшей мере, части данных виртуального мира;
при этом компьютерная сеть выполнена с возможностью передавать данные виртуального мира в пользовательское устройство для представления первому пользователю,
при этом, по меньшей мере, часть виртуального мира изменяется в ответ на изменение в данных виртуального мира,
при этом, по меньшей мере, часть данных виртуального мира изменяется в ответ на по меньшей мере один физический объект, обнаруженный пользовательским устройством, и
причем этот по меньшей мере один физический объект содержит объекты в физической среде вблизи первого пользователя.
2. Система по п. 1, в которой упомянутое изменение в данных виртуального мира представляет виртуальный объект, имеющий заранее определенное отношение с упомянутым физическим объектом.
3. Система по п. 2, в которой упомянутое изменение в данных виртуального мира представляется второму пользовательскому устройству для представления второму пользователю в соответствии с упомянутым заранее определенным отношением.
4. Система по п. 1, в которой виртуальный мир приспособлен для воспроизведения по меньшей мере одним из компьютерных серверов и пользовательского устройства.
5. Система по п. 1, в которой виртуальный мир представляется в по меньшей мере одном из двумерного формата и трехмерного формата.
6. Система по п. 1, в которой пользовательское устройство выполнено с возможностью обеспечения интерфейса для взаимодействия между пользователем и виртуальным миром в по меньшей мере одном из режима дополненной реальности, режима виртуальной реальности и комбинации режима дополненной и виртуальной реальности.
7. Система по п. 1, в которой данные виртуального мира передаются по сети передачи данных.
8. Система по п. 1, в которой компьютерная сеть выполнена с возможностью получать, по меньшей мере, часть данных виртуального мира от пользовательского устройства.
9. Система по п. 1, в которой, по меньшей мере, часть данных виртуального мира, переданных в пользовательское устройство, включает в себя инструкции для генерирования по меньшей мере части виртуального мира.
10. Система по п. 1, в которой, по меньшей мере, часть данных виртуального мира передается в шлюз.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161483511P | 2011-05-06 | 2011-05-06 | |
US201161483505P | 2011-05-06 | 2011-05-06 | |
US61/483,505 | 2011-05-06 | ||
US61/483,511 | 2011-05-06 | ||
PCT/US2012/036681 WO2012154620A2 (en) | 2011-05-06 | 2012-05-04 | Massive simultaneous remote digital presence world |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2017118159A Division RU2017118159A (ru) | 2011-05-06 | 2012-05-04 | Мир массового одновременного удаленного цифрового присутствия |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2013154098A RU2013154098A (ru) | 2015-06-20 |
RU2621644C2 true RU2621644C2 (ru) | 2017-06-06 |
Family
ID=47139918
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013154098A RU2621644C2 (ru) | 2011-05-06 | 2012-05-04 | Мир массового одновременного удаленного цифрового присутствия |
RU2017118159A RU2017118159A (ru) | 2011-05-06 | 2012-05-04 | Мир массового одновременного удаленного цифрового присутствия |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2017118159A RU2017118159A (ru) | 2011-05-06 | 2012-05-04 | Мир массового одновременного удаленного цифрового присутствия |
Country Status (9)
Country | Link |
---|---|
US (5) | US10101802B2 (ru) |
EP (3) | EP3229107B1 (ru) |
JP (7) | JP6316186B2 (ru) |
CN (2) | CN103635891B (ru) |
AU (3) | AU2012253797B2 (ru) |
BR (1) | BR112013034009A2 (ru) |
CA (2) | CA2835120C (ru) |
RU (2) | RU2621644C2 (ru) |
WO (1) | WO2012154620A2 (ru) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2805203C2 (ru) * | 2019-03-19 | 2023-10-12 | МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи | Относительная пространственная локализация мобильных устройств |
Families Citing this family (386)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0522968D0 (en) | 2005-11-11 | 2005-12-21 | Popovich Milan M | Holographic illumination device |
GB0718706D0 (en) | 2007-09-25 | 2007-11-07 | Creative Physics Ltd | Method and apparatus for reducing laser speckle |
US9335604B2 (en) | 2013-12-11 | 2016-05-10 | Milan Momcilo Popovich | Holographic waveguide display |
US11726332B2 (en) | 2009-04-27 | 2023-08-15 | Digilens Inc. | Diffractive projection apparatus |
US20140372912A9 (en) * | 2010-10-30 | 2014-12-18 | Aaron D. Cohen | Multi-Dimensional Enhanced World View Experiences, Related Systems and Software, Methods of Use and Production Thereof |
WO2012116236A2 (en) | 2011-02-23 | 2012-08-30 | Nova Spivack | System and method for analyzing messages in a network or across networks |
WO2012136970A1 (en) | 2011-04-07 | 2012-10-11 | Milan Momcilo Popovich | Laser despeckler based on angular diversity |
US9336240B2 (en) * | 2011-07-15 | 2016-05-10 | Apple Inc. | Geo-tagging digital images |
EP2995986B1 (en) | 2011-08-24 | 2017-04-12 | Rockwell Collins, Inc. | Data display |
WO2016020630A2 (en) | 2014-08-08 | 2016-02-11 | Milan Momcilo Popovich | Waveguide laser illuminator incorporating a despeckler |
US10670876B2 (en) | 2011-08-24 | 2020-06-02 | Digilens Inc. | Waveguide laser illuminator incorporating a despeckler |
CA3207408A1 (en) | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
WO2013067526A1 (en) | 2011-11-04 | 2013-05-10 | Remote TelePointer, LLC | Method and system for user interface for interactive devices using a mobile device |
WO2013102759A2 (en) | 2012-01-06 | 2013-07-11 | Milan Momcilo Popovich | Contact image sensor using switchable bragg gratings |
US8832092B2 (en) | 2012-02-17 | 2014-09-09 | Bottlenose, Inc. | Natural language processing optimized for micro content |
CN106125308B (zh) | 2012-04-25 | 2019-10-25 | 罗克韦尔柯林斯公司 | 用于显示图像的装置和方法 |
WO2013167864A1 (en) | 2012-05-11 | 2013-11-14 | Milan Momcilo Popovich | Apparatus for eye tracking |
US10852093B2 (en) | 2012-05-22 | 2020-12-01 | Haptech, Inc. | Methods and apparatuses for haptic systems |
US9146069B2 (en) | 2012-05-22 | 2015-09-29 | Haptech, Inc. | Method and apparatus for firearm recoil simulation |
US9009126B2 (en) | 2012-07-31 | 2015-04-14 | Bottlenose, Inc. | Discovering and ranking trending links about topics |
US9141188B2 (en) | 2012-10-05 | 2015-09-22 | Elwha Llc | Presenting an augmented view in response to acquisition of data inferring user activity |
US10713846B2 (en) | 2012-10-05 | 2020-07-14 | Elwha Llc | Systems and methods for sharing augmentation data |
US10269179B2 (en) | 2012-10-05 | 2019-04-23 | Elwha Llc | Displaying second augmentations that are based on registered first augmentations |
US9077647B2 (en) * | 2012-10-05 | 2015-07-07 | Elwha Llc | Correlating user reactions with augmentations displayed through augmented views |
US9111383B2 (en) | 2012-10-05 | 2015-08-18 | Elwha Llc | Systems and methods for obtaining and using augmentation data and for sharing usage data |
US10180715B2 (en) | 2012-10-05 | 2019-01-15 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
US9933684B2 (en) * | 2012-11-16 | 2018-04-03 | Rockwell Collins, Inc. | Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
US8994827B2 (en) | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
JP6463598B2 (ja) * | 2012-11-20 | 2019-02-06 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 着用式電子デバイスからのプロセッシングの委任 |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US11237719B2 (en) * | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US20140198130A1 (en) * | 2013-01-15 | 2014-07-17 | Immersion Corporation | Augmented reality user interface with haptic feedback |
US9449340B2 (en) * | 2013-01-30 | 2016-09-20 | Wal-Mart Stores, Inc. | Method and system for managing an electronic shopping list with gestures |
KR20230173231A (ko) | 2013-03-11 | 2023-12-26 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9547917B2 (en) | 2013-03-14 | 2017-01-17 | Paypay, Inc. | Using augmented reality to determine information |
US9639964B2 (en) | 2013-03-15 | 2017-05-02 | Elwha Llc | Dynamically preserving scene elements in augmented reality systems |
US10025486B2 (en) * | 2013-03-15 | 2018-07-17 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
US9092954B2 (en) * | 2013-03-15 | 2015-07-28 | Immersion Corporation | Wearable haptic device |
KR102560629B1 (ko) | 2013-03-15 | 2023-07-26 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US10109075B2 (en) | 2013-03-15 | 2018-10-23 | Elwha Llc | Temporal element restoration in augmented reality systems |
US10209517B2 (en) | 2013-05-20 | 2019-02-19 | Digilens, Inc. | Holographic waveguide eye tracker |
US10905943B2 (en) | 2013-06-07 | 2021-02-02 | Sony Interactive Entertainment LLC | Systems and methods for reducing hops associated with a head mounted system |
US10137361B2 (en) | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
US9727772B2 (en) | 2013-07-31 | 2017-08-08 | Digilens, Inc. | Method and apparatus for contact image sensing |
US9911231B2 (en) * | 2013-10-08 | 2018-03-06 | Samsung Electronics Co., Ltd. | Method and computing device for providing augmented reality |
IN2013CH04559A (ru) * | 2013-10-08 | 2015-04-10 | Samsung Electrinics Company | |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
US10430985B2 (en) | 2014-03-14 | 2019-10-01 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
US9677840B2 (en) * | 2014-03-14 | 2017-06-13 | Lineweight Llc | Augmented reality simulator |
US11138793B2 (en) | 2014-03-14 | 2021-10-05 | Magic Leap, Inc. | Multi-depth plane display system with reduced switching between depth planes |
CN103902983A (zh) * | 2014-04-14 | 2014-07-02 | 夷希数码科技(上海)有限公司 | 一种穿戴式人脸识别方法及装置 |
US9690370B2 (en) * | 2014-05-05 | 2017-06-27 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
US9723109B2 (en) | 2014-05-28 | 2017-08-01 | Alexander Hertel | Platform for constructing and consuming realm and object feature clouds |
EP3180676A4 (en) * | 2014-06-17 | 2018-01-10 | Osterhout Group, Inc. | External user interface for head worn computing |
WO2016007426A1 (en) * | 2014-07-07 | 2016-01-14 | Immersion Corporation | Second screen haptics |
WO2016020632A1 (en) | 2014-08-08 | 2016-02-11 | Milan Momcilo Popovich | Method for holographic mastering and replication |
WO2016042283A1 (en) | 2014-09-19 | 2016-03-24 | Milan Momcilo Popovich | Method and apparatus for generating input images for holographic waveguide displays |
US10423222B2 (en) | 2014-09-26 | 2019-09-24 | Digilens Inc. | Holographic waveguide optical tracker |
KR102688893B1 (ko) | 2014-09-29 | 2024-07-29 | 매직 립, 인코포레이티드 | 상이한 파장의 광을 도파관 밖으로 출력하기 위한 아키텍쳐 및 방법 |
WO2016054079A1 (en) | 2014-09-29 | 2016-04-07 | Zyomed Corp. | Systems and methods for blood glucose and other analyte detection and measurement using collision computing |
CN107635862B (zh) * | 2014-11-28 | 2020-08-25 | 哈普技术公司 | 用于触觉系统的方法和装置 |
EP3245551B1 (en) | 2015-01-12 | 2019-09-18 | DigiLens Inc. | Waveguide light field displays |
CN107873086B (zh) | 2015-01-12 | 2020-03-20 | 迪吉伦斯公司 | 环境隔离的波导显示器 |
JP6867947B2 (ja) | 2015-01-20 | 2021-05-12 | ディジレンズ インコーポレイテッド | ホログラフィック導波路ライダー |
US10725297B2 (en) * | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment |
US9852546B2 (en) | 2015-01-28 | 2017-12-26 | CCP hf. | Method and system for receiving gesture input via virtual control objects |
US10726625B2 (en) | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for improving the transmission and processing of data regarding a multi-user virtual environment |
US9632226B2 (en) | 2015-02-12 | 2017-04-25 | Digilens Inc. | Waveguide grating device |
NZ773812A (en) | 2015-03-16 | 2022-07-29 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
WO2016146963A1 (en) | 2015-03-16 | 2016-09-22 | Popovich, Milan, Momcilo | Waveguide device incorporating a light pipe |
WO2016156776A1 (en) | 2015-03-31 | 2016-10-06 | Milan Momcilo Popovich | Method and apparatus for contact image sensing |
IL295566B2 (en) | 2015-06-15 | 2024-01-01 | Magic Leap Inc | Display system with optical components for coupling multiple light streams |
US10492981B1 (en) | 2015-07-17 | 2019-12-03 | Bao Tran | Systems and methods for computer assisted operation |
US10149958B1 (en) | 2015-07-17 | 2018-12-11 | Bao Tran | Systems and methods for computer assisted operation |
US10176642B2 (en) | 2015-07-17 | 2019-01-08 | Bao Tran | Systems and methods for computer assisted operation |
US10335572B1 (en) | 2015-07-17 | 2019-07-02 | Naveen Kumar | Systems and methods for computer assisted operation |
US10685488B1 (en) | 2015-07-17 | 2020-06-16 | Naveen Kumar | Systems and methods for computer assisted operation |
US11481911B2 (en) | 2015-08-18 | 2022-10-25 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
EP3337383B1 (en) | 2015-08-21 | 2024-10-16 | Magic Leap, Inc. | Eyelid shape estimation |
JP6918781B2 (ja) | 2015-08-21 | 2021-08-11 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 眼ポーズ測定を用いた眼瞼形状推定 |
CA3169076A1 (en) | 2015-09-16 | 2017-03-23 | Magic Leap, Inc. | Head pose mixing of audio files |
JP6876683B2 (ja) | 2015-09-23 | 2021-05-26 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 軸外イメージャを用いた眼の撮像 |
WO2017060665A1 (en) | 2015-10-05 | 2017-04-13 | Milan Momcilo Popovich | Waveguide display |
NZ741863A (en) | 2015-10-16 | 2019-05-31 | Magic Leap Inc | Eye pose identification using eye features |
AU2016341196B2 (en) | 2015-10-20 | 2021-09-16 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
WO2017079329A1 (en) | 2015-11-04 | 2017-05-11 | Magic Leap, Inc. | Dynamic display calibration based on eye-tracking |
US11231544B2 (en) | 2015-11-06 | 2022-01-25 | Magic Leap, Inc. | Metasurfaces for redirecting light and methods for fabricating |
US12087448B2 (en) | 2015-11-16 | 2024-09-10 | Cognifisense, Inc. | Representation of symptom alleviation |
WO2017087567A1 (en) | 2015-11-16 | 2017-05-26 | Cognifisense, Inc. | Representation of symptom alleviation |
RU2606874C1 (ru) * | 2015-12-02 | 2017-01-10 | Виталий Витальевич Аверьянов | Способ управления устройством формирования среды дополненной реальности |
JP6894904B2 (ja) | 2016-01-07 | 2021-06-30 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 深度平面にわたって分配される等しくない数の成分色画像を有する仮想および拡張現実システムおよび方法 |
EP3405829A4 (en) | 2016-01-19 | 2019-09-18 | Magic Leap, Inc. | COLLECTION, SELECTION AND COMBINATION OF EYE IMAGES |
CN118605029A (zh) | 2016-01-19 | 2024-09-06 | 奇跃公司 | 利用映像的增强现实系统和方法 |
CN114063311A (zh) | 2016-01-29 | 2022-02-18 | 奇跃公司 | 三维图像的显示 |
WO2017134412A1 (en) | 2016-02-04 | 2017-08-10 | Milan Momcilo Popovich | Holographic waveguide optical tracker |
IL261102B2 (en) | 2016-02-24 | 2023-10-01 | Magic Leap Inc | Low profile connection for light emitter |
JP6898938B2 (ja) | 2016-02-24 | 2021-07-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 低光漏出を伴う偏光ビームスプリッタ |
CA3014821A1 (en) | 2016-02-26 | 2017-08-31 | Magic Leap, Inc. | Light output system with reflector and lens for highly spatially uniform light output |
CN114002844A (zh) | 2016-02-26 | 2022-02-01 | 奇跃公司 | 具有用于多个光发射器的多个光管的显示系统 |
KR20180117181A (ko) | 2016-03-01 | 2018-10-26 | 매직 립, 인코포레이티드 | 상이한 파장들의 광을 도파관들로 입력하기 위한 반사성 스위칭 디바이스 |
KR20230109789A (ko) | 2016-03-04 | 2023-07-20 | 매직 립, 인코포레이티드 | Ar/vr 디스플레이 시스템들에서의 전류 드레인 감소 |
JP6920329B2 (ja) | 2016-03-07 | 2021-08-18 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | バイオメトリックセキュリティのための青色光調節 |
US10783835B2 (en) * | 2016-03-11 | 2020-09-22 | Lenovo (Singapore) Pte. Ltd. | Automatic control of display brightness |
AU2017236782B2 (en) | 2016-03-22 | 2021-01-28 | Magic Leap, Inc. | Head mounted display system configured to exchange biometric information |
JP6895451B2 (ja) | 2016-03-24 | 2021-06-30 | ディジレンズ インコーポレイテッド | 偏光選択ホログラフィー導波管デバイスを提供するための方法および装置 |
WO2017165848A1 (en) | 2016-03-25 | 2017-09-28 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9554738B1 (en) | 2016-03-30 | 2017-01-31 | Zyomed Corp. | Spectroscopic tomography systems and methods for noninvasive detection and measurement of analytes using collision computing |
KR20230098927A (ko) | 2016-03-31 | 2023-07-04 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들 |
EP4273615A3 (en) | 2016-04-08 | 2024-01-17 | Magic Leap, Inc. | Augmented reality systems and methods with variable focus lens elements |
EP3433658B1 (en) | 2016-04-11 | 2023-08-09 | DigiLens, Inc. | Holographic waveguide apparatus for structured light projection |
DE102016106993A1 (de) | 2016-04-15 | 2017-10-19 | Carl Zeiss Microscopy Gmbh | Steuer- und Konfiguriereinheit sowie Verfahren zum Steuern und Konfigurieren eines Mikroskops |
US10380800B2 (en) * | 2016-04-18 | 2019-08-13 | Disney Enterprises, Inc. | System and method for linking and interacting between augmented reality and virtual reality environments |
KR102666960B1 (ko) | 2016-04-21 | 2024-05-17 | 매직 립, 인코포레이티드 | 시야 주위의 시각적 아우라 |
US10261162B2 (en) | 2016-04-26 | 2019-04-16 | Magic Leap, Inc. | Electromagnetic tracking with augmented reality systems |
US10025376B2 (en) | 2016-04-27 | 2018-07-17 | Rovi Guides, Inc. | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
EP3650994A1 (en) * | 2016-04-27 | 2020-05-13 | Rovi Guides, Inc. | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
US10046229B2 (en) | 2016-05-02 | 2018-08-14 | Bao Tran | Smart device |
RU2626867C1 (ru) * | 2016-05-05 | 2017-08-02 | Элдар Али Оглы Разроев | Система для организации развлекательных, образовательных и/или рекламных мероприятий |
CN109476175B (zh) | 2016-05-06 | 2021-07-30 | 奇跃公司 | 具有用于重定向光的非对称光栅的超表面及其制造方法 |
KR102450362B1 (ko) | 2016-05-09 | 2022-10-04 | 매직 립, 인코포레이티드 | 사용자 건강 분석을 위한 증강 현실 시스템들 및 방법들 |
KR20240027162A (ko) | 2016-05-12 | 2024-02-29 | 매직 립, 인코포레이티드 | 이미징 도파관을 통해 분배된 광 조작 |
CN109496331B (zh) | 2016-05-20 | 2022-06-21 | 奇跃公司 | 用户界面菜单的情景感知 |
WO2017210419A1 (en) | 2016-06-03 | 2017-12-07 | Magic Leaf, Inc. | Augmented reality identity verification |
EP3865767B1 (en) | 2016-06-10 | 2024-03-13 | Magic Leap, Inc. | Integrated point source for texture projecting bulb |
KR102491130B1 (ko) | 2016-06-20 | 2023-01-19 | 매직 립, 인코포레이티드 | 시각적 프로세싱 및 지각 상태들을 포함하는 신경학적 상태들의 평가 및 수정을 위한 증강 현실 디스플레이 시스템 |
US10037077B2 (en) | 2016-06-21 | 2018-07-31 | Disney Enterprises, Inc. | Systems and methods of generating augmented reality experiences |
NZ749449A (en) | 2016-06-30 | 2023-06-30 | Magic Leap Inc | Estimating pose in 3d space |
WO2018013200A1 (en) | 2016-07-14 | 2018-01-18 | Magic Leap, Inc. | Deep neural network for iris identification |
CN109661194B (zh) | 2016-07-14 | 2022-02-25 | 奇跃公司 | 使用角膜曲率的虹膜边界估计 |
IL298851B2 (en) | 2016-07-25 | 2023-12-01 | Magic Leap Inc | Change, display and visualization of imaging using augmented and virtual reality glasses |
KR102520143B1 (ko) | 2016-07-25 | 2023-04-11 | 매직 립, 인코포레이티드 | 광 필드 프로세서 시스템 |
CN110383756B (zh) | 2016-07-29 | 2023-06-09 | 奇跃公司 | 加密签名记录的安全交换 |
IL310337A (en) | 2016-08-11 | 2024-03-01 | Magic Leap Inc | Automatic positioning of a virtual object in 3D space |
KR20230167452A (ko) | 2016-08-12 | 2023-12-08 | 매직 립, 인코포레이티드 | 단어 흐름 주석 |
WO2018039277A1 (en) | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Diffractive eyepiece |
KR102529137B1 (ko) | 2016-08-22 | 2023-05-03 | 매직 립, 인코포레이티드 | 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스 |
CA3036208A1 (en) | 2016-09-13 | 2018-03-22 | Magic Leap, Inc. | Sensory eyewear |
CN112987303A (zh) | 2016-09-21 | 2021-06-18 | 奇跃公司 | 用于具有出瞳扩展器的光学系统的系统和方法 |
KR20210072157A (ko) | 2016-09-22 | 2021-06-16 | 매직 립, 인코포레이티드 | 증강 현실 분광기 |
CA3036709A1 (en) | 2016-09-26 | 2018-03-29 | Magic Leap, Inc. | Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system |
AU2017335736B2 (en) | 2016-09-28 | 2022-08-11 | Magic Leap, Inc. | Face model capture by a wearable device |
RU2016138608A (ru) | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
IL293688B2 (en) | 2016-10-04 | 2024-02-01 | Magic Leap Inc | Efficient data layouts for convolutional neural networks |
KR102402467B1 (ko) | 2016-10-05 | 2022-05-25 | 매직 립, 인코포레이티드 | 혼합 현실 교정을 위한 안구주위 테스트 |
US10514769B2 (en) * | 2016-10-16 | 2019-12-24 | Dell Products, L.P. | Volumetric tracking for orthogonal displays in an electronic collaboration setting |
IL311451A (en) | 2016-10-21 | 2024-05-01 | Magic Leap Inc | System and method for displaying image content on multiple depth planes by providing multiple intrapupillary parallax fields of view |
JP6913164B2 (ja) | 2016-11-11 | 2021-08-04 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 完全な顔画像の眼球周囲およびオーディオ合成 |
WO2018093796A1 (en) | 2016-11-15 | 2018-05-24 | Magic Leap, Inc. | Deep learning system for cuboid detection |
IL266595B (en) | 2016-11-16 | 2022-08-01 | Magic Leap Inc | Thermal management systems for wearable components |
US11067860B2 (en) | 2016-11-18 | 2021-07-20 | Magic Leap, Inc. | Liquid crystal diffractive devices with nano-scale pattern and methods of manufacturing the same |
CN110192146B (zh) | 2016-11-18 | 2022-09-23 | 奇跃公司 | 空间可变液晶衍射光栅 |
WO2018094096A1 (en) | 2016-11-18 | 2018-05-24 | Magic Leap, Inc. | Multilayer liquid crystal diffractive gratings for redirecting light of wide incident angle ranges |
EP3542213A4 (en) | 2016-11-18 | 2020-10-07 | Magic Leap, Inc. | WAVE GUIDE LIGHT MULTIPLEXER USING CROSSED GRIDS |
CN109564706B (zh) * | 2016-12-01 | 2023-03-10 | 英特吉姆股份有限公司 | 基于智能交互式增强现实的用户交互平台 |
EP3548939A4 (en) | 2016-12-02 | 2020-11-25 | DigiLens Inc. | UNIFORM OUTPUT LIGHTING WAVEGUIDE DEVICE |
US10531220B2 (en) | 2016-12-05 | 2020-01-07 | Magic Leap, Inc. | Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems |
IL266888B2 (en) | 2016-12-05 | 2024-05-01 | Magic Leap Inc | Virtual user input controls in a mixed reality environment |
CN110249256B (zh) | 2016-12-08 | 2023-03-03 | 奇跃公司 | 基于胆甾型液晶的衍射装置 |
US11559228B2 (en) | 2016-12-13 | 2023-01-24 | Magic Leap, Inc. | Augmented and virtual reality eyewear, systems, and methods for delivering polarized light and determining glucose levels |
WO2018111895A1 (en) | 2016-12-13 | 2018-06-21 | Magic Leap, Inc. | 3d object rendering using detected features |
EP3555700B1 (en) | 2016-12-14 | 2023-09-13 | Magic Leap, Inc. | Patterning of liquid crystals using soft-imprint replication of surface alignment patterns |
US10371896B2 (en) | 2016-12-22 | 2019-08-06 | Magic Leap, Inc. | Color separation in planar waveguides using dichroic filters |
WO2018119276A1 (en) | 2016-12-22 | 2018-06-28 | Magic Leap, Inc. | Systems and methods for manipulating light from ambient light sources |
US10746999B2 (en) | 2016-12-28 | 2020-08-18 | Magic Leap, Inc. | Dual depth exit pupil expander |
US11138436B2 (en) | 2016-12-29 | 2021-10-05 | Magic Leap, Inc. | Automatic control of wearable display device based on external conditions |
USD864959S1 (en) | 2017-01-04 | 2019-10-29 | Mentor Acquisition One, Llc | Computer glasses |
US10545346B2 (en) | 2017-01-05 | 2020-01-28 | Digilens Inc. | Wearable heads up displays |
EP4122897A1 (en) | 2017-01-05 | 2023-01-25 | Magic Leap, Inc. | Patterning of high refractive index glasses by plasma etching |
KR102662173B1 (ko) | 2017-01-11 | 2024-04-30 | 매직 립, 인코포레이티드 | 의료 보조기 |
CN115586652A (zh) | 2017-01-23 | 2023-01-10 | 奇跃公司 | 用于虚拟、增强或混合现实系统的目镜 |
US10841724B1 (en) | 2017-01-24 | 2020-11-17 | Ha Tran | Enhanced hearing system |
AU2018212570B2 (en) | 2017-01-27 | 2023-03-16 | Magic Leap, Inc. | Antireflection coatings for metasurfaces |
KR20240074923A (ko) | 2017-01-27 | 2024-05-28 | 매직 립, 인코포레이티드 | 상이하게 배향된 나노빔들을 갖는 메타표면들에 의해 형성된 회절 격자 |
US11347054B2 (en) | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP4328865A3 (en) | 2017-02-23 | 2024-06-05 | Magic Leap, Inc. | Variable-focus virtual image devices based on polarization conversion |
AU2018234409B2 (en) | 2017-03-14 | 2022-06-30 | Magic Leap, Inc. | Waveguides with light absorbing films and processes for forming the same |
CA3055597A1 (en) | 2017-03-17 | 2018-09-20 | Magic Leap, Inc. | Room layout estimation methods and techniques |
IL269289B2 (en) | 2017-03-21 | 2024-10-01 | Magic Leap Inc | Low profile beam splitter |
KR102493992B1 (ko) | 2017-03-21 | 2023-01-30 | 매직 립, 인코포레이티드 | 가상, 증강 및 혼합 현실 시스템들을 위한 깊이 감지 기술 |
WO2018175653A1 (en) | 2017-03-21 | 2018-09-27 | Magic Leap, Inc. | Display system with spatial light modulator illumination for divided pupils |
WO2018175488A1 (en) | 2017-03-21 | 2018-09-27 | Magic Leap, Inc. | Stacked waveguides having different diffraction gratings for combined field of view |
IL269290B2 (en) | 2017-03-21 | 2024-09-01 | Magic Leap Inc | Methods, devices and systems for illuminating spatial light modulators |
AU2018239264B2 (en) | 2017-03-21 | 2023-05-18 | Magic Leap, Inc. | Eye-imaging apparatus using diffractive optical elements |
CA3057109A1 (en) | 2017-03-22 | 2018-09-27 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
AU2018256202A1 (en) | 2017-04-18 | 2019-11-07 | Magic Leap, Inc. | Waveguides having reflective layers formed by reflective flowable materials |
KR102652922B1 (ko) | 2017-04-19 | 2024-03-29 | 매직 립, 인코포레이티드 | 웨어러블 시스템을 위한 멀티모달 임무 실행 및 텍스트 편집 |
US11163416B2 (en) | 2017-04-27 | 2021-11-02 | Magic Leap, Inc. | Light-emitting user input device for calibration or pairing |
US20180349837A1 (en) * | 2017-05-19 | 2018-12-06 | Hcl Technologies Limited | System and method for inventory management within a warehouse |
JP2020521217A (ja) | 2017-05-19 | 2020-07-16 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード |
IL270564B (en) | 2017-05-22 | 2022-07-01 | Magic Leap Inc | Pairing with a companion device |
IL311011A (en) | 2017-05-30 | 2024-04-01 | Magic Leap Inc | Power supply assembly with fan assembly for an electronic device |
CN110945405B (zh) | 2017-05-31 | 2024-01-02 | 奇跃公司 | 眼睛跟踪校准技术 |
AU2018284089B2 (en) | 2017-06-12 | 2022-12-15 | Magic Leap, Inc. | Augmented reality display having multi-element adaptive lens for changing depth planes |
EP3616035B1 (en) | 2017-06-19 | 2024-04-24 | Apple Inc. | Augmented reality interface for interacting with displayed maps |
US10908680B1 (en) | 2017-07-12 | 2021-02-02 | Magic Leap, Inc. | Pose estimation using electromagnetic tracking |
IL271929B (en) | 2017-07-26 | 2022-07-01 | Magic Leap Inc | Neural network training with displays of user interface devices |
US11138915B2 (en) | 2017-07-28 | 2021-10-05 | Magic Leap, Inc. | Fan assembly for displaying an image |
CN111629653B (zh) | 2017-08-23 | 2024-06-21 | 神经股份有限公司 | 具有高速眼睛跟踪特征的大脑-计算机接口 |
US10521661B2 (en) | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
WO2019055679A1 (en) | 2017-09-13 | 2019-03-21 | Lahood Edward Rashid | METHOD, APPARATUS, AND COMPUTER-READABLE MEDIA FOR DISPLAYING INCREASED REALITY INFORMATION |
AU2018337653A1 (en) | 2017-09-20 | 2020-01-16 | Magic Leap, Inc. | Personalized neural network for eye tracking |
AU2018338222A1 (en) | 2017-09-21 | 2020-03-19 | Magic Leap, Inc. | Augmented reality display with waveguide configured to capture images of eye and/or environment |
US11231581B2 (en) | 2017-09-27 | 2022-01-25 | Magic Leap, Inc. | Near eye 3D display with separate phase and amplitude modulators |
US10777007B2 (en) | 2017-09-29 | 2020-09-15 | Apple Inc. | Cooperative augmented reality map interface |
CA3077455A1 (en) | 2017-10-11 | 2019-04-18 | Magic Leap, Inc. | Augmented reality display comprising eyepiece having a transparent emissive display |
EP3698214A4 (en) | 2017-10-16 | 2021-10-27 | Digilens Inc. | SYSTEMS AND METHODS FOR MULTIPLICATION OF THE IMAGE RESOLUTION OF A PIXELIZED DISPLAY |
KR20200074172A (ko) | 2017-10-26 | 2020-06-24 | 매직 립, 인코포레이티드 | 액정 가변 초점 엘리먼트를 갖는 증강 현실 디스플레이 그리고 이를 형성하기 위한 롤투롤 방법 및 장치 |
CN111373419A (zh) | 2017-10-26 | 2020-07-03 | 奇跃公司 | 用于深度多任务网络中自适应损失平衡的梯度归一化系统和方法 |
CA3079221A1 (en) | 2017-10-26 | 2019-05-02 | Magic Leap, Inc. | Broadband adaptive lens assembly for augmented reality display |
WO2019084325A1 (en) | 2017-10-27 | 2019-05-02 | Magic Leap, Inc. | VIRTUAL RETICLE FOR INCREASED REALITY SYSTEMS |
WO2019094953A1 (en) | 2017-11-13 | 2019-05-16 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
AU2018368279A1 (en) | 2017-11-14 | 2020-05-14 | Magic Leap, Inc. | Meta-learning for multi-task learning for neural networks |
JP7225233B2 (ja) | 2017-12-11 | 2023-02-20 | マジック リープ, インコーポレイテッド | 導波管照明器 |
EP3724855A4 (en) | 2017-12-14 | 2022-01-12 | Magic Leap, Inc. | CONTEXT-BASED REPRESENTATION OF VIRTUAL AVATARS |
EP3724713A4 (en) | 2017-12-15 | 2021-08-25 | Magic Leap, Inc. | IMPROVED ITEM DETERMINATION FOR A DISPLAY DEVICE |
CA3084011C (en) | 2017-12-15 | 2024-06-11 | Magic Leap, Inc. | Eyepieces for augmented reality display system |
CA3085459A1 (en) | 2018-01-04 | 2019-07-11 | Magic Leap, Inc. | Optical elements based on polymeric structures incorporating inorganic materials |
WO2019136476A1 (en) | 2018-01-08 | 2019-07-11 | Digilens, Inc. | Waveguide architectures and related methods of manufacturing |
JP7404243B2 (ja) | 2018-01-08 | 2023-12-25 | ディジレンズ インコーポレイテッド | 導波管セル内のホログラフィック格子の高スループット記録のためのシステムおよび方法 |
KR20200104402A (ko) | 2018-01-08 | 2020-09-03 | 디지렌즈 인코포레이티드. | 도파관 셀을 제조하기 위한 시스템 및 방법 |
AU2019209950A1 (en) | 2018-01-17 | 2020-07-09 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
CA3087333A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems |
CN111712192B (zh) | 2018-01-18 | 2024-07-02 | 神经股份有限公司 | 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口 |
US11567627B2 (en) | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
US10540941B2 (en) | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
US11210826B2 (en) | 2018-02-02 | 2021-12-28 | Disney Enterprises, Inc. | Systems and methods to provide artificial intelligence experiences |
US10735649B2 (en) | 2018-02-22 | 2020-08-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods using display system control information embedded in image data |
EP3759693A4 (en) | 2018-02-27 | 2021-11-24 | Magic Leap, Inc. | MESH PAIRING FOR VIRTUAL AVATARS |
EP3759542B1 (en) | 2018-02-28 | 2023-03-29 | Magic Leap, Inc. | Head scan alignment using ocular registration |
JP7303818B2 (ja) | 2018-03-05 | 2023-07-05 | マジック リープ, インコーポレイテッド | 低遅延瞳孔トラッカーを伴うディスプレイシステム |
CA3090818A1 (en) | 2018-03-07 | 2019-09-12 | Magic Leap, Inc. | Adaptive lens assemblies including polarization-selective lens stacks for augmented reality display |
AU2019231697B2 (en) | 2018-03-07 | 2020-01-30 | Magic Leap, Inc. | Visual tracking of peripheral devices |
EP3765892A4 (en) | 2018-03-12 | 2021-12-15 | Magic Leap, Inc. | AD BASED ON KIPPARRAY |
WO2019178409A1 (en) | 2018-03-14 | 2019-09-19 | Magic Leap, Inc. | Display systems and methods for clipping content to increase viewing comfort |
US11430169B2 (en) | 2018-03-15 | 2022-08-30 | Magic Leap, Inc. | Animating virtual avatar facial movements |
EP3766004A4 (en) | 2018-03-16 | 2021-12-15 | Magic Leap, Inc. | FACIAL EXPRESSIONS OBTAINED FROM EYE-TRACKING CAMERAS |
CN112136094A (zh) | 2018-03-16 | 2020-12-25 | 奇跃公司 | 用于显示系统的基于深度的凹式渲染 |
EP4372451A3 (en) | 2018-03-16 | 2024-08-14 | Digilens Inc. | Holographic waveguides incorporating birefringence control and methods for their fabrication |
WO2019183399A1 (en) | 2018-03-21 | 2019-09-26 | Magic Leap, Inc. | Augmented reality system and method for spectroscopic analysis |
WO2019195193A1 (en) | 2018-04-02 | 2019-10-10 | Magic Leap, Inc. | Waveguides having integrated spacers, waveguides having edge absorbers, and methods for making the same |
US11460609B2 (en) | 2018-04-02 | 2022-10-04 | Magic Leap, Inc. | Hybrid polymer waveguide and methods for making the same |
CN112119334A (zh) | 2018-04-02 | 2020-12-22 | 奇跃公司 | 具有集成光学元件的波导及其制造方法 |
US11276219B2 (en) | 2018-04-16 | 2022-03-15 | Magic Leap, Inc. | Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters |
WO2019204765A1 (en) | 2018-04-19 | 2019-10-24 | Magic Leap, Inc. | Systems and methods for operating a display system based on user perceptibility |
US10789753B2 (en) | 2018-04-23 | 2020-09-29 | Magic Leap, Inc. | Avatar facial expression representation in multidimensional space |
US11257268B2 (en) | 2018-05-01 | 2022-02-22 | Magic Leap, Inc. | Avatar animation using Markov decision process policies |
US11308673B2 (en) | 2018-05-03 | 2022-04-19 | Magic Leap, Inc. | Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character |
US12020167B2 (en) | 2018-05-17 | 2024-06-25 | Magic Leap, Inc. | Gradient adversarial training of neural networks |
WO2019226494A1 (en) | 2018-05-21 | 2019-11-28 | Magic Leap, Inc. | Generating textured polygon strip hair from strand-based hair for a virtual character |
WO2019226549A1 (en) | 2018-05-22 | 2019-11-28 | Magic Leap, Inc. | Computer generated hair groom transfer tool |
EP3797345A4 (en) | 2018-05-22 | 2022-03-09 | Magic Leap, Inc. | TRANSMODAL INPUT FUSION FOR A BODY WEARABLE SYSTEM |
CN112437950A (zh) | 2018-05-22 | 2021-03-02 | 奇跃公司 | 用于对虚拟头像制作动画的骨架系统 |
WO2019226865A1 (en) | 2018-05-25 | 2019-11-28 | Magic Leap, Inc. | Compression of dynamic unstructured point clouds |
US12087022B2 (en) | 2018-06-01 | 2024-09-10 | Magic Leap, Inc. | Compression of dynamic unstructured point clouds |
US11157159B2 (en) | 2018-06-07 | 2021-10-26 | Magic Leap, Inc. | Augmented reality scrollbar |
CN112567289A (zh) | 2018-06-15 | 2021-03-26 | 奇跃公司 | 宽视场偏振开关和制造具有预倾斜的液晶光学元件的方法 |
JP7336470B2 (ja) | 2018-06-15 | 2023-08-31 | マジック リープ, インコーポレイテッド | プレチルト角を伴う液晶光学要素を用いた広視野偏光スイッチ |
WO2019246044A1 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
JP7378431B2 (ja) | 2018-06-18 | 2023-11-13 | マジック リープ, インコーポレイテッド | フレーム変調機能性を伴う拡張現実ディスプレイ |
US11694435B2 (en) | 2018-06-18 | 2023-07-04 | Magic Leap, Inc. | Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device |
WO2020005757A1 (en) | 2018-06-26 | 2020-01-02 | Magic Leap, Inc. | Waypoint creation in map detection |
EP3818530A4 (en) | 2018-07-02 | 2022-03-30 | Magic Leap, Inc. | METHODS AND SYSTEMS FOR INTERPOLATION OF VARIOUS INPUTS |
US11106033B2 (en) | 2018-07-05 | 2021-08-31 | Magic Leap, Inc. | Waveguide-based illumination for head mounted display system |
US11966055B2 (en) | 2018-07-19 | 2024-04-23 | Magic Leap, Inc. | Content interaction driven by eye metrics |
WO2020023303A1 (en) | 2018-07-23 | 2020-01-30 | Magic Leap, Inc. | Coexistence interference avoidance between two different radios operating in the same band |
CN112513944A (zh) | 2018-07-23 | 2021-03-16 | 奇跃公司 | 用于头部姿势预测的深度预测器循环神经网络 |
EP3827585A4 (en) | 2018-07-24 | 2022-04-27 | Magic Leap, Inc. | DISPLAY SYSTEMS AND METHODS FOR DETERMINING THE VERTICAL ALIGNMENT BETWEEN LEFT AND RIGHT DISPLAYS AND A USER'S EYES |
EP3827426A4 (en) | 2018-07-24 | 2022-07-27 | Magic Leap, Inc. | AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES |
USD918176S1 (en) | 2018-07-24 | 2021-05-04 | Magic Leap, Inc. | Totem controller having an illumination region |
USD924204S1 (en) | 2018-07-24 | 2021-07-06 | Magic Leap, Inc. | Totem controller having an illumination region |
WO2020023404A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Flicker mitigation when toggling eyepiece display illumination in augmented reality systems |
USD930614S1 (en) | 2018-07-24 | 2021-09-14 | Magic Leap, Inc. | Totem controller having an illumination region |
WO2020023491A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Thermal management system for electronic device |
CN112703437A (zh) | 2018-07-24 | 2021-04-23 | 奇跃公司 | 具有减轻反弹引起的光损失的衍射光学元件以及相关的系统和方法 |
US11402801B2 (en) | 2018-07-25 | 2022-08-02 | Digilens Inc. | Systems and methods for fabricating a multilayer optical structure |
JP7459050B2 (ja) | 2018-07-27 | 2024-04-01 | マジック リープ, インコーポレイテッド | 仮想キャラクタの姿勢空間変形のための姿勢空間次元低減 |
US11468640B2 (en) | 2018-08-03 | 2022-10-11 | Magic Leap, Inc. | Depth plane selection for multi-depth plane display systems by user categorization |
US11141645B2 (en) | 2018-09-11 | 2021-10-12 | Real Shot Inc. | Athletic ball game using smart glasses |
US11103763B2 (en) | 2018-09-11 | 2021-08-31 | Real Shot Inc. | Basketball shooting game using smart glasses |
USD934872S1 (en) | 2018-09-18 | 2021-11-02 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD955396S1 (en) | 2018-09-18 | 2022-06-21 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD934873S1 (en) | 2018-09-18 | 2021-11-02 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD950567S1 (en) | 2018-09-18 | 2022-05-03 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
WO2020069026A1 (en) | 2018-09-26 | 2020-04-02 | Magic Leap, Inc. | Diffractive optical elements with optical power |
US12050318B2 (en) | 2018-09-26 | 2024-07-30 | Magic Leap, Inc. | Eyewear with pinhole and slit cameras |
CN113227879A (zh) | 2018-10-26 | 2021-08-06 | 奇跃公司 | 用于电磁跟踪的环境电磁失真校正 |
EP3857324B1 (en) * | 2018-10-29 | 2022-09-14 | Siemens Aktiengesellschaft | Dynamically refining markers in an autonomous world model |
JP7389116B2 (ja) | 2018-11-15 | 2023-11-29 | マジック リープ, インコーポレイテッド | 深層ニューラルネットワーク姿勢推定システム |
JP2022509083A (ja) | 2018-11-20 | 2022-01-20 | マジック リープ, インコーポレイテッド | 拡張現実ディスプレイシステムのための接眼レンズ |
US11132841B2 (en) * | 2018-11-30 | 2021-09-28 | Facebook Technologies, Llc | Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service |
CN113330390A (zh) | 2018-11-30 | 2021-08-31 | 奇跃公司 | 用于化身运动的多模态手的位置和取向 |
JP7539386B2 (ja) | 2018-12-28 | 2024-08-23 | マジック リープ, インコーポレイテッド | 左眼および右眼のための共有ディスプレイを伴う拡張および仮想現実ディスプレイシステム |
CN113490873A (zh) | 2018-12-28 | 2021-10-08 | 奇跃公司 | 带有机械致动图像投影仪的可变像素密度显示系统 |
CN113614783A (zh) | 2019-01-25 | 2021-11-05 | 奇跃公司 | 使用具有不同曝光时间的图像的眼睛跟踪 |
JP2022523076A (ja) | 2019-02-01 | 2022-04-21 | マジック リープ, インコーポレイテッド | 直列内部結合光学要素 |
KR20200098034A (ko) * | 2019-02-11 | 2020-08-20 | 삼성전자주식회사 | 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
EP3924759A4 (en) | 2019-02-15 | 2022-12-28 | Digilens Inc. | METHODS AND APPARATUS FOR MAKING A HOLOGRAPHIC WAVEGUIDE DISPLAY WITH INTEGRATED GRIDINGS |
EP3931625B1 (en) | 2019-02-28 | 2024-09-18 | Magic Leap, Inc. | Display system and method for providing variable accommodation cues using multiple intra-pupil parallax views formed by light emitter arrays |
US11133993B2 (en) | 2019-02-28 | 2021-09-28 | At&T Intellectual Property I, L.P. | Augmented/mixed reality virtual venue pipeline optimization |
JP2022525165A (ja) | 2019-03-12 | 2022-05-11 | ディジレンズ インコーポレイテッド | ホログラフィック導波管バックライトおよび関連する製造方法 |
EP3938824A4 (en) | 2019-03-12 | 2022-11-23 | Magic Leap, Inc. | WAVEGUIDES WITH HIGH REFRESHING INDEX MATERIALS AND METHOD FOR THEIR MANUFACTURE |
EP4439156A2 (en) | 2019-03-12 | 2024-10-02 | Magic Leap, Inc. | Method of fabricating display device having patterned lithium-based transition metal oxide |
JP2022525922A (ja) | 2019-03-20 | 2022-05-20 | マジック リープ, インコーポレイテッド | 光を収集するためのシステム |
WO2020191170A1 (en) | 2019-03-20 | 2020-09-24 | Magic Leap, Inc. | System for providing illumination of the eye |
WO2020214272A1 (en) | 2019-04-15 | 2020-10-22 | Magic Leap, Inc. | Sensor fusion for electromagnetic tracking |
JP7423659B2 (ja) | 2019-05-20 | 2024-01-29 | マジック リープ, インコーポレイテッド | 眼姿勢を推定するためのシステムおよび技法 |
CN111973979A (zh) * | 2019-05-23 | 2020-11-24 | 明日基金知识产权控股有限公司 | 经由持久性虚拟世界系统对现实世界进行实况管理 |
WO2020243014A1 (en) | 2019-05-24 | 2020-12-03 | Magic Leap, Inc. | Variable focus assemblies |
WO2020243169A1 (en) | 2019-05-28 | 2020-12-03 | Magic Leap, Inc. | Thermal management system for portable electronic devices |
USD962981S1 (en) | 2019-05-29 | 2022-09-06 | Magic Leap, Inc. | Display screen or portion thereof with animated scrollbar graphical user interface |
WO2020247930A1 (en) | 2019-06-07 | 2020-12-10 | Digilens Inc. | Waveguides incorporating transmissive and reflective gratings and related methods of manufacturing |
CN112102498A (zh) * | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将应用虚拟地附接到动态对象并实现与动态对象的交互的系统和方法 |
WO2020257469A1 (en) | 2019-06-20 | 2020-12-24 | Magic Leap, Inc. | Eyepieces for augmented reality display system |
JP7311643B2 (ja) | 2019-06-21 | 2023-07-19 | マジック リープ, インコーポレイテッド | モード式ウィンドウを介したセキュアな認可 |
CN114341687A (zh) | 2019-06-24 | 2022-04-12 | 奇跃公司 | 具有集成间隔物的波导及相关系统和方法 |
CN114026875A (zh) | 2019-06-25 | 2022-02-08 | 索尼集团公司 | 信息处理装置、信息处理方法、再现处理装置和再现处理方法 |
US11029805B2 (en) | 2019-07-10 | 2021-06-08 | Magic Leap, Inc. | Real-time preview of connectable objects in a physically-modeled virtual space |
US11868525B2 (en) | 2019-07-16 | 2024-01-09 | Magic Leap, Inc. | Eye center of rotation determination with one or more eye tracking cameras |
WO2021016045A1 (en) | 2019-07-19 | 2021-01-28 | Magic Leap, Inc. | Display device having diffraction gratings with reduced polarization sensitivity |
US11460616B2 (en) | 2019-07-19 | 2022-10-04 | Magic Leap, Inc. | Method of fabricating diffraction gratings |
US11681143B2 (en) | 2019-07-29 | 2023-06-20 | Digilens Inc. | Methods and apparatus for multiplying the image resolution and field-of-view of a pixelated display |
JP2022544067A (ja) | 2019-07-31 | 2022-10-17 | マジック リープ, インコーポレイテッド | 分散型台帳を使用した拡張現実のためのユーザデータ管理 |
US11763191B2 (en) * | 2019-08-20 | 2023-09-19 | The Calany Holding S. À R.L. | Virtual intelligence and optimization through multi-source, real-time, and context-aware real-world data |
JP7306162B2 (ja) * | 2019-08-28 | 2023-07-11 | 大日本印刷株式会社 | サーバ、再生デバイス、コンテンツ再生システム、コンテンツ再生方法、及びプログラム |
EP4022370A4 (en) | 2019-08-29 | 2023-08-30 | Digilens Inc. | VACUUM BRAGG GRATINGS AND METHODS OF MANUFACTURING |
JP7420926B2 (ja) | 2019-09-11 | 2024-01-23 | マジック リープ, インコーポレイテッド | 低減された偏光感度を有する回折格子を伴うディスプレイデバイス |
US11176757B2 (en) | 2019-10-02 | 2021-11-16 | Magic Leap, Inc. | Mission driven virtual character for user interaction |
US11276246B2 (en) | 2019-10-02 | 2022-03-15 | Magic Leap, Inc. | Color space mapping for intuitive surface normal visualization |
KR102128894B1 (ko) * | 2019-10-10 | 2020-07-01 | 주식회사 메디씽큐 | 스마트 안경의 시선 트래킹 시스템 및 그 방법 |
WO2021092068A1 (en) | 2019-11-08 | 2021-05-14 | Magic Leap, Inc. | Metasurfaces with light-redirecting structures including multiple materials and methods for fabricating |
US11493989B2 (en) | 2019-11-08 | 2022-11-08 | Magic Leap, Inc. | Modes of user interaction |
USD982593S1 (en) | 2019-11-08 | 2023-04-04 | Magic Leap, Inc. | Portion of a display screen with animated ray |
JP2023503257A (ja) | 2019-11-18 | 2023-01-27 | マジック リープ, インコーポレイテッド | パス可能世界のマッピングおよび位置特定 |
JP7494297B2 (ja) | 2019-11-22 | 2024-06-03 | マジック リープ, インコーポレイテッド | 液晶層をパターン化するための方法およびシステム |
US12094139B2 (en) | 2019-11-22 | 2024-09-17 | Magic Leap, Inc. | Systems and methods for enhanced depth determination using projection spots |
US11681362B2 (en) | 2019-11-26 | 2023-06-20 | Magic Leap, Inc. | Enhanced eye tracking for augmented or virtual reality display systems |
CN114761183B (zh) | 2019-12-03 | 2024-07-16 | 西门子股份公司 | 用于为机器人系统开发神经技能的计算机化工程工具和方法 |
EP4070538A4 (en) | 2019-12-06 | 2023-11-29 | Magic Leap, Inc. | CODING A STEREO HOME SCREEN INTO A STATIC IMAGE |
US11442593B2 (en) | 2019-12-06 | 2022-09-13 | Magic Leap, Inc. | Dynamic browser stage |
USD941307S1 (en) | 2019-12-09 | 2022-01-18 | Magic Leap, Inc. | Portion of a display screen with graphical user interface for guiding graphics |
USD940748S1 (en) | 2019-12-09 | 2022-01-11 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD941353S1 (en) | 2019-12-09 | 2022-01-18 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD940189S1 (en) | 2019-12-09 | 2022-01-04 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD940749S1 (en) | 2019-12-09 | 2022-01-11 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD952673S1 (en) | 2019-12-09 | 2022-05-24 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
US11288876B2 (en) | 2019-12-13 | 2022-03-29 | Magic Leap, Inc. | Enhanced techniques for volumetric stage mapping based on calibration object |
EP3846008A1 (en) * | 2019-12-30 | 2021-07-07 | TMRW Foundation IP SARL | Method and system for enabling enhanced user-to-user communication in digital realities |
CN115380236A (zh) | 2020-01-24 | 2022-11-22 | 奇跃公司 | 使用单个控制器的内容移动和交互 |
US11340695B2 (en) | 2020-01-24 | 2022-05-24 | Magic Leap, Inc. | Converting a 2D positional input into a 3D point in space |
EP4097564A4 (en) | 2020-01-27 | 2024-02-14 | Magic Leap, Inc. | LOOK TIMER BASED EXPANSION OF THE FUNCTIONALITY OF A USER INPUT DEVICE |
US11756509B2 (en) | 2020-01-27 | 2023-09-12 | Magic Leap, Inc. | Enhanced state control for anchor-based cross reality applications |
USD948574S1 (en) | 2020-01-27 | 2022-04-12 | Magic Leap, Inc. | Portion of a display screen with a set of avatars |
USD936704S1 (en) | 2020-01-27 | 2021-11-23 | Magic Leap, Inc. | Portion of a display screen with avatar |
USD948562S1 (en) | 2020-01-27 | 2022-04-12 | Magic Leap, Inc. | Portion of a display screen with avatar |
USD949200S1 (en) | 2020-01-27 | 2022-04-19 | Magic Leap, Inc. | Portion of a display screen with a set of avatars |
CN115023738A (zh) | 2020-01-27 | 2022-09-06 | 奇跃公司 | 中性化身 |
EP4097711A4 (en) | 2020-01-27 | 2024-01-24 | Magic Leap, Inc. | CURATION OF AN AUGMENTED REALITY MAP |
EP4097532A4 (en) | 2020-01-31 | 2024-02-21 | Magic Leap, Inc. | AUGMENTED REALITY AND VIRTUAL REALITY DISPLAY SYSTEMS FOR OCULOMETRICAL ASSESSMENTS |
CN115087905A (zh) | 2020-02-10 | 2022-09-20 | 奇跃公司 | 在混合现实环境中相对于三维容器的以身体为中心的内容定位 |
US11709363B1 (en) | 2020-02-10 | 2023-07-25 | Avegant Corp. | Waveguide illumination of a spatial light modulator |
CN115398894A (zh) | 2020-02-14 | 2022-11-25 | 奇跃公司 | 用于虚拟和增强现实显示系统的虚拟对象运动速度曲线 |
US11664194B2 (en) | 2020-02-26 | 2023-05-30 | Magic Leap, Inc. | Procedural electron beam lithography |
EP4111293A4 (en) | 2020-02-27 | 2023-09-06 | Magic Leap, Inc. | MIXED REALITY SYSTEM FOR LARGE-SCALE ENVIRONMENT RECONSTRUCTION |
WO2021174062A1 (en) | 2020-02-28 | 2021-09-02 | Magic Leap, Inc. | Method of fabricating molds for forming eyepieces with integrated spacers |
US11262588B2 (en) | 2020-03-10 | 2022-03-01 | Magic Leap, Inc. | Spectator view of virtual and physical objects |
WO2021188926A1 (en) | 2020-03-20 | 2021-09-23 | Magic Leap, Inc. | Systems and methods for retinal imaging and tracking |
WO2021195283A1 (en) | 2020-03-25 | 2021-09-30 | Magic Leap, Inc. | Optical device with one-way mirror |
JP2023520461A (ja) | 2020-04-03 | 2023-05-17 | マジック リープ, インコーポレイテッド | ナノワイヤledマイクロディスプレイを伴うウェアラブルディスプレイシステム |
US11348300B2 (en) | 2020-04-03 | 2022-05-31 | Magic Leap, Inc. | Avatar customization for optimal gaze discrimination |
US11543666B2 (en) | 2020-05-22 | 2023-01-03 | Magic Leap, Inc. | Augmented and virtual reality display systems with correlated in-coupling and out-coupling optical regions for efficient light utilization in at least one waveguide |
JP2023529606A (ja) | 2020-06-05 | 2023-07-11 | マジック リープ, インコーポレイテッド | 画像のニューラルネットワーク分析に基づいて向上された眼追跡技法 |
IL299775A (en) | 2020-07-15 | 2023-03-01 | Magic Leap Inc | Eye tracking using an aspheric cornea model |
WO2022032198A1 (en) | 2020-08-07 | 2022-02-10 | Magic Leap, Inc. | Tunable cylindrical lenses and head-mounted display including the same |
EP4222551A4 (en) | 2020-09-29 | 2024-10-23 | Avegant Corp | ARCHITECTURE FOR ILLUMINATION OF A SCREENBOARD |
JP7216940B2 (ja) * | 2021-06-02 | 2023-02-02 | 株式会社Nttコノキュー | 通信システム、通信方法及び通信プログラム |
JP7219862B2 (ja) * | 2021-06-02 | 2023-02-09 | 株式会社Nttコノキュー | 通信システム、通信方法及び通信プログラム |
US20230058438A1 (en) * | 2021-08-18 | 2023-02-23 | Advanced Neuromodulation Systems, Inc. | Systems and methods for providing digital health services |
US12032737B2 (en) * | 2022-08-22 | 2024-07-09 | Meta Platforms Technologies, Llc | Gaze adjusted avatars for immersive reality applications |
US11758104B1 (en) * | 2022-10-18 | 2023-09-12 | Illuscio, Inc. | Systems and methods for predictive streaming of image data for spatial computing |
KR20240117758A (ko) * | 2023-01-26 | 2024-08-02 | 박세원 | 피지털피규어 서비스장치 및 그 장치의 구동방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2120664C1 (ru) * | 1997-05-06 | 1998-10-20 | Нурахмед Нурисламович Латыпов | Система для погружения пользователя в виртуальную реальность |
US20020158873A1 (en) * | 2001-01-26 | 2002-10-31 | Todd Williamson | Real-time virtual viewpoint in simulated reality environment |
US20080046226A1 (en) * | 1993-10-01 | 2008-02-21 | Massachusetts Institute Of Technology | Force reflecting haptic interface |
US20090295738A1 (en) * | 2007-04-24 | 2009-12-03 | Kuo-Ching Chiang | Method of controlling an object by user motion for electronic device |
US20090307608A1 (en) * | 2008-06-05 | 2009-12-10 | Samsung Electronics Co., Ltd. | Interaction between real-world digital environments and virtual worlds |
Family Cites Families (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6037936A (en) * | 1993-09-10 | 2000-03-14 | Criticom Corp. | Computer vision system with a graphic user interface and remote camera control |
FR2731896B1 (fr) | 1995-03-24 | 1997-08-29 | Commissariat Energie Atomique | Dispositif de mesure de la position du point de fixation d'un oeil sur une cible, procede d'eclairage de l'oeil et application a l'affichage d'images dont les images changent en fonction des mouvements de l'oeil |
US6028608A (en) * | 1997-05-09 | 2000-02-22 | Jenkins; Barry | System and method of perception-based image generation and encoding |
JPH10334274A (ja) * | 1997-05-29 | 1998-12-18 | Canon Inc | 仮想現実方法及び装置並びに記憶媒体 |
JP3257459B2 (ja) * | 1997-08-07 | 2002-02-18 | 日本電信電話株式会社 | 共有仮想空間簡易2次元インタフェース実現方法及びそのインタフェースを持つクライアントシステム、並びに、そのインタフェースプログラムを格納した記憶媒体 |
JPH11154178A (ja) * | 1997-11-19 | 1999-06-08 | Fujitsu Ltd | 通信管理装置及び記録媒体 |
US6329986B1 (en) * | 1998-02-21 | 2001-12-11 | U.S. Philips Corporation | Priority-based virtual environment |
US6118456A (en) * | 1998-04-02 | 2000-09-12 | Adaptive Media Technologies | Method and apparatus capable of prioritizing and streaming objects within a 3-D virtual environment |
JP3413127B2 (ja) | 1999-06-11 | 2003-06-03 | キヤノン株式会社 | 複合現実感装置及び複合現実感提示方法 |
EP1060772B1 (en) | 1999-06-11 | 2012-02-01 | Canon Kabushiki Kaisha | Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof |
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
JP2001229402A (ja) | 2000-02-16 | 2001-08-24 | Mitsubishi Electric Corp | 3次元画像表示装置、3次元画像表示方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
US6741252B2 (en) * | 2000-02-17 | 2004-05-25 | Matsushita Electric Industrial Co., Ltd. | Animation data compression apparatus, animation data compression method, network server, and program storage media |
US6891518B2 (en) * | 2000-10-05 | 2005-05-10 | Siemens Corporate Research, Inc. | Augmented reality visualization device |
JP2002157606A (ja) * | 2000-11-17 | 2002-05-31 | Canon Inc | 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体 |
JP2003006674A (ja) * | 2001-06-22 | 2003-01-10 | Tis Inc | 高品質な3次元立体間取り図配布/表示システム |
US7173672B2 (en) * | 2001-08-10 | 2007-02-06 | Sony Corporation | System and method for transitioning between real images and virtual images |
JPWO2003032259A1 (ja) * | 2001-09-27 | 2005-01-27 | 富士通株式会社 | ネットワークを介したコンテンツ・データの効率的なダウンロード |
US7096428B2 (en) * | 2001-09-28 | 2006-08-22 | Fuji Xerox Co., Ltd. | Systems and methods for providing a spatially indexed panoramic video |
US6809731B2 (en) * | 2002-01-08 | 2004-10-26 | Evans & Sutherland Computer Corporation | System and method for rendering high-resolution critical items |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
JP2005049811A (ja) * | 2003-07-15 | 2005-02-24 | Olympus Corp | 立体表示装置及び立体視観察装置 |
US20060152532A1 (en) * | 2003-09-29 | 2006-07-13 | Prabir Sen | The largest toy gallery park with 3D simulation displays for animations and other collectibles juxtaposed with physical-virtual collaborative games and activities in a three-dimension photo-realistic virtual-reality environment |
JP2005182331A (ja) | 2003-12-18 | 2005-07-07 | Sony Corp | 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体 |
JP2005339267A (ja) * | 2004-05-27 | 2005-12-08 | Canon Inc | 情報処理方法、情報処理装置、撮像装置 |
US20050289590A1 (en) * | 2004-05-28 | 2005-12-29 | Cheok Adrian D | Marketing platform |
US20080266129A1 (en) * | 2007-04-24 | 2008-10-30 | Kuo Ching Chiang | Advanced computing device with hybrid memory and eye control module |
US7843470B2 (en) * | 2005-01-31 | 2010-11-30 | Canon Kabushiki Kaisha | System, image processing apparatus, and information processing method |
JP4661314B2 (ja) * | 2005-04-04 | 2011-03-30 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
US8040361B2 (en) * | 2005-04-11 | 2011-10-18 | Systems Technology, Inc. | Systems and methods for combining virtual and real-time physical environments |
US20100164990A1 (en) * | 2005-08-15 | 2010-07-01 | Koninklijke Philips Electronics, N.V. | System, apparatus, and method for augmented reality glasses for end-user programming |
US7542210B2 (en) * | 2006-06-29 | 2009-06-02 | Chirieleison Sr Anthony | Eye tracking head mounted display |
US8446509B2 (en) * | 2006-08-09 | 2013-05-21 | Tenebraex Corporation | Methods of creating a virtual window |
US20080071559A1 (en) * | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
US8012023B2 (en) * | 2006-09-28 | 2011-09-06 | Microsoft Corporation | Virtual entertainment |
US20090054084A1 (en) * | 2007-08-24 | 2009-02-26 | Motorola, Inc. | Mobile virtual and augmented reality system |
US11325029B2 (en) | 2007-09-14 | 2022-05-10 | National Institute Of Advanced Industrial Science And Technology | Virtual reality environment generating apparatus and controller apparatus |
US20100159434A1 (en) * | 2007-10-11 | 2010-06-24 | Samsun Lampotang | Mixed Simulator and Uses Thereof |
US8180396B2 (en) * | 2007-10-18 | 2012-05-15 | Yahoo! Inc. | User augmented reality for camera-enabled mobile devices |
JP4950834B2 (ja) * | 2007-10-19 | 2012-06-13 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US8578000B2 (en) | 2008-12-05 | 2013-11-05 | Social Communications Company | Realtime kernel |
EP2058764B1 (en) * | 2007-11-07 | 2017-09-06 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
US8786675B2 (en) * | 2008-01-23 | 2014-07-22 | Michael F. Deering | Systems using eye mounted displays |
US20090227374A1 (en) * | 2008-03-05 | 2009-09-10 | Motorola, Inc. | Seamless mobility of location-based gaming across virtual and physical worlds |
CN101256590A (zh) * | 2008-04-03 | 2008-09-03 | 北京艺龙天地文化传播有限公司 | 结合WebGis的三维在线虚拟现实生态环境仿真系统及其方法 |
NL1035303C2 (nl) * | 2008-04-16 | 2009-10-19 | Virtual Proteins B V | Interactieve virtuele reality eenheid. |
US20090289955A1 (en) * | 2008-05-22 | 2009-11-26 | Yahoo! Inc. | Reality overlay device |
US20100066750A1 (en) * | 2008-09-16 | 2010-03-18 | Motorola, Inc. | Mobile virtual and augmented reality system |
US8403753B2 (en) * | 2008-09-30 | 2013-03-26 | Nintendo Co., Ltd. | Computer-readable storage medium storing game program, game apparatus, and processing method |
US9480919B2 (en) * | 2008-10-24 | 2016-11-01 | Excalibur Ip, Llc | Reconfiguring reality using a reality overlay device |
US8411086B2 (en) * | 2009-02-24 | 2013-04-02 | Fuji Xerox Co., Ltd. | Model creation using visual markup languages |
WO2010105499A1 (en) * | 2009-03-14 | 2010-09-23 | Quan Xiao | Methods and apparatus for providing user somatosensory experience for thrill seeking jumping like activities |
US20100241996A1 (en) | 2009-03-19 | 2010-09-23 | Tracy Wai Ho | XMB submenu preview |
US9256282B2 (en) * | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
JP5158007B2 (ja) * | 2009-04-28 | 2013-03-06 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
KR101671900B1 (ko) * | 2009-05-08 | 2016-11-03 | 삼성전자주식회사 | 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체 |
US20100309197A1 (en) * | 2009-06-08 | 2010-12-09 | Nvidia Corporation | Interaction of stereoscopic objects with physical objects in viewing area |
US20100325154A1 (en) * | 2009-06-22 | 2010-12-23 | Nokia Corporation | Method and apparatus for a virtual image world |
US9129644B2 (en) * | 2009-06-23 | 2015-09-08 | Disney Enterprises, Inc. | System and method for rendering in accordance with location of virtual objects in real-time |
US8427508B2 (en) * | 2009-06-25 | 2013-04-23 | Nokia Corporation | Method and apparatus for an augmented reality user interface |
JP2011059444A (ja) * | 2009-09-10 | 2011-03-24 | Olympus Corp | 眼鏡型画像表示装置 |
US20110270135A1 (en) * | 2009-11-30 | 2011-11-03 | Christopher John Dooley | Augmented reality for testing and training of human performance |
KR20110118421A (ko) * | 2010-04-23 | 2011-10-31 | 엘지전자 주식회사 | 증강 원격제어장치, 증강 원격제어장치 제어방법 및 그 시스템 |
US20110153341A1 (en) * | 2009-12-17 | 2011-06-23 | General Electric Company | Methods and systems for use of augmented reality to improve patient registration in medical practices |
US20110151955A1 (en) * | 2009-12-23 | 2011-06-23 | Exent Technologies, Ltd. | Multi-player augmented reality combat |
US9488488B2 (en) * | 2010-02-12 | 2016-11-08 | Apple Inc. | Augmented reality maps |
US9341843B2 (en) * | 2010-02-28 | 2016-05-17 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a small scale image source |
US9573064B2 (en) * | 2010-06-24 | 2017-02-21 | Microsoft Technology Licensing, Llc | Virtual and location-based multiplayer gaming |
US20110316845A1 (en) * | 2010-06-25 | 2011-12-29 | Palo Alto Research Center Incorporated | Spatial association between virtual and augmented reality |
US20120019557A1 (en) * | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
US8519844B2 (en) * | 2010-07-30 | 2013-08-27 | Gravity Jack, Inc. | Augmented reality and location determination methods and apparatus |
US9111498B2 (en) * | 2010-08-25 | 2015-08-18 | Eastman Kodak Company | Head-mounted display with environmental state detection |
JP2012058968A (ja) * | 2010-09-08 | 2012-03-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US20120122570A1 (en) * | 2010-11-16 | 2012-05-17 | David Michael Baronoff | Augmented reality gaming experience |
US8467810B2 (en) * | 2010-11-29 | 2013-06-18 | Navteq B.V. | Method and system for reporting errors in a geographic database |
KR101591579B1 (ko) * | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
US20120264510A1 (en) * | 2011-04-12 | 2012-10-18 | Microsoft Corporation | Integrated virtual environment |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US8963805B2 (en) * | 2012-01-27 | 2015-02-24 | Microsoft Corporation | Executable virtual objects associated with real objects |
US10713846B2 (en) * | 2012-10-05 | 2020-07-14 | Elwha Llc | Systems and methods for sharing augmentation data |
US9996150B2 (en) * | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
US9432421B1 (en) * | 2014-03-28 | 2016-08-30 | A9.Com, Inc. | Sharing links in an augmented reality environment |
US10430147B2 (en) * | 2017-04-17 | 2019-10-01 | Intel Corporation | Collaborative multi-user virtual reality |
-
2012
- 2012-05-04 CA CA2835120A patent/CA2835120C/en active Active
- 2012-05-04 BR BR112013034009A patent/BR112013034009A2/pt not_active Application Discontinuation
- 2012-05-04 AU AU2012253797A patent/AU2012253797B2/en active Active
- 2012-05-04 EP EP17168278.4A patent/EP3229107B1/en active Active
- 2012-05-04 RU RU2013154098A patent/RU2621644C2/ru not_active IP Right Cessation
- 2012-05-04 CA CA3035118A patent/CA3035118C/en active Active
- 2012-05-04 JP JP2014509503A patent/JP6316186B2/ja active Active
- 2012-05-04 WO PCT/US2012/036681 patent/WO2012154620A2/en active Application Filing
- 2012-05-04 CN CN201280032550.0A patent/CN103635891B/zh active Active
- 2012-05-04 EP EP18200588.4A patent/EP3462286A1/en active Pending
- 2012-05-04 RU RU2017118159A patent/RU2017118159A/ru not_active Application Discontinuation
- 2012-05-04 EP EP12781825.0A patent/EP2705435B8/en active Active
- 2012-05-04 CN CN201710864372.2A patent/CN107656615B/zh active Active
- 2012-05-07 US US13/465,682 patent/US10101802B2/en active Active
-
2016
- 2016-11-24 JP JP2016227514A patent/JP6316387B2/ja active Active
-
2017
- 2017-06-05 JP JP2017110821A patent/JP6646620B2/ja active Active
- 2017-07-10 AU AU2017204738A patent/AU2017204738B2/en active Active
- 2017-07-10 AU AU2017204739A patent/AU2017204739B2/en active Active
-
2018
- 2018-08-07 US US16/057,518 patent/US10671152B2/en active Active
-
2019
- 2019-08-13 JP JP2019148515A patent/JP7109408B2/ja active Active
-
2020
- 2020-03-26 US US16/831,659 patent/US11157070B2/en active Active
- 2020-12-11 US US17/119,454 patent/US11669152B2/en active Active
-
2022
- 2022-06-07 JP JP2022092168A patent/JP7366196B2/ja active Active
- 2022-08-05 JP JP2022125279A patent/JP2022140779A/ja active Pending
-
2023
- 2023-04-25 US US18/306,387 patent/US20240004458A1/en active Pending
-
2024
- 2024-01-05 JP JP2024000622A patent/JP2024019736A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080046226A1 (en) * | 1993-10-01 | 2008-02-21 | Massachusetts Institute Of Technology | Force reflecting haptic interface |
RU2120664C1 (ru) * | 1997-05-06 | 1998-10-20 | Нурахмед Нурисламович Латыпов | Система для погружения пользователя в виртуальную реальность |
US20020158873A1 (en) * | 2001-01-26 | 2002-10-31 | Todd Williamson | Real-time virtual viewpoint in simulated reality environment |
US20090295738A1 (en) * | 2007-04-24 | 2009-12-03 | Kuo-Ching Chiang | Method of controlling an object by user motion for electronic device |
US20090307608A1 (en) * | 2008-06-05 | 2009-12-10 | Samsung Electronics Co., Ltd. | Interaction between real-world digital environments and virtual worlds |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2805203C2 (ru) * | 2019-03-19 | 2023-10-12 | МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи | Относительная пространственная локализация мобильных устройств |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2621644C2 (ru) | Мир массового одновременного удаленного цифрового присутствия | |
JP6792039B2 (ja) | 拡張現実および仮想現実のためのシステムおよび方法 | |
KR102270699B1 (ko) | 증강 및 가상 현실을 위한 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20190505 |