RU2621644C2 - Мир массового одновременного удаленного цифрового присутствия - Google Patents

Мир массового одновременного удаленного цифрового присутствия Download PDF

Info

Publication number
RU2621644C2
RU2621644C2 RU2013154098A RU2013154098A RU2621644C2 RU 2621644 C2 RU2621644 C2 RU 2621644C2 RU 2013154098 A RU2013154098 A RU 2013154098A RU 2013154098 A RU2013154098 A RU 2013154098A RU 2621644 C2 RU2621644 C2 RU 2621644C2
Authority
RU
Russia
Prior art keywords
user
virtual
data
virtual world
objects
Prior art date
Application number
RU2013154098A
Other languages
English (en)
Other versions
RU2013154098A (ru
Inventor
Рони ЭЙБОВИЦ
Original Assignee
Мэджик Лип, Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Мэджик Лип, Инк. filed Critical Мэджик Лип, Инк.
Publication of RU2013154098A publication Critical patent/RU2013154098A/ru
Application granted granted Critical
Publication of RU2621644C2 publication Critical patent/RU2621644C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Изобретение относится к области обеспечения интерактивных виртуальных сред или сред дополненной реальности для многочисленных пользователей. Техническим результатом является обеспечение взаимодействия пользователей с виртуальными средами и объектами. Система для обеспечения одному или более пользователям возможности взаимодействовать с виртуальным миром, содержащим данные виртуального мира, содержит: компьютерную сеть, включающую в себя один или более компьютерных серверов, содержащих память, процессорную схему и программное обеспечение, хранимое в памяти и исполняемое процессорной схемой для обработки, по меньшей мере, части данных виртуального мира; при этом компьютерная сеть выполнена с возможностью передавать данные виртуального мира в пользовательское устройство для представления первому пользователю, при этом, по меньшей мере, часть виртуального мира изменяется в ответ на изменение в данных виртуального мира, при этом, по меньшей мере, часть данных виртуального мира изменяется в ответ на по меньшей мере один физический объект, обнаруженный пользовательским устройством, и причем этот по меньшей мере один физический объект содержит объекты в физической среде вблизи первого пользователя. 9 з.п. ф-лы, 12 ил.

Description

ПЕРЕКРЕСТНАЯ ССЫЛКА НА РОДСТВЕННЫЕ ЗАЯВКИ
[0001] По настоящей заявке испрашивается приоритет американской предварительной патентной заявки №61/483505, поданной 6 мая 2011 г., и американской предварительной патентной заявки №61/483511, поданной 6 мая, 2011 г.
ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
[0002] Настоящее изобретение в целом относится к способам и устройствам для обеспечения интерактивных виртуальных сред или сред дополненной реальности для многочисленных пользователей.
УРОВЕНЬ ТЕХНИКИ
[0003] Виртуальные среды и среды дополненной реальности генерируются посредством компьютеров, использующих, в частности, данные, которые описывают среду. Эти данные могут описывать, например, различные объекты, которые пользователь может ощущать и с которыми он может взаимодействовать. Примеры этих объектов включают в себя объекты, которые отображены и выведены на экран для того, чтобы пользователь мог их видеть, звук, который проигрывается для того, чтобы пользователь мог его услышать, и тактильную (или осязательную) обратную связь для того, чтобы пользователь мог ее ощутить. Пользователи могут ощущать и взаимодействовать с виртуальными средами и средами дополненной реальности посредством множества визуальных, слуховых и тактильных средств.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
[0004] Настоящее изобретение описывает различные системы и способы для того, чтобы позволить одному или более пользователям взаимодействовать с или участвовать в виртуальных средах или в средах дополненной реальности.
[0005] В одном примерном варианте осуществления система включает в себя вычислительную сеть, включающую в себя компьютерные серверы, соединенные посредством интерфейсов с высокой пропускной способностью со шлюзами для обработки данных и/или для обеспечения передачи данных между серверами и одним или более локальными устройствами пользовательского интерфейса. Серверы включают в себя память, процессорную схему и программное обеспечение для разработки и/или управления виртуальными мирами, а также для хранения и обработки пользовательских данных и данных, предоставленных другими компонентами системы. Один или более виртуальных миров могут быть представлены пользователю через пользовательское устройство с тем, чтобы пользователь мог их ощущать и взаимодействовать с ними. Большое количество пользователей могут каждый использовать устройство, чтобы одновременно взаимодействовать с одним или более цифровыми мирами путем использования устройства с тем, чтобы наблюдать и взаимодействовать друг с другом и с объектами, произведенными внутри цифровых миров.
[0006] Примеры пользовательских устройств включают в себя смартфон, планшетное устройство, дисплей на лобовом стекле (HUD), игровую консоль, или обычно любое другое устройство, способное передавать данные и генерировать или передавать интерфейс пользователю, чтобы тот мог видеть, слышать и/или ощущать. Обычно пользовательское устройство будет включать в себя процессор для исполнения программного кода, сохраненного в памяти устройства, соединенный с визуальным дисплеем и коммуникационным интерфейсом. Интерфейс обеспечивает визуальное, звуковое и/или физическое взаимодействие между пользователем и цифровым миром, включая других пользователей и объекты (реальные или виртуальные), представленные пользователю. В одном варианте осуществления пользовательское устройство включает в себя систему шлема-дисплея, имеющую интерфейс, пользовательскую сенсорную систему, систему измерения окружающей среды и процессор.
[0007] Предшествующие и другие функции и преимущества настоящего изобретения станут в дальнейшем очевидными из нижеследующего подробного описания примерных вариантов осуществления в совокупности с сопроводительными чертежами. Подробное описание и чертежи являются чисто иллюстративными, а не ограничивающими объем настоящего изобретения, который определяется приложенной формулой изобретения и ее эквивалентами.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
[0008] Варианты осуществления проиллюстрированы в качестве примера на сопроводительных чертежах, на которых не обязательно соблюден масштаб и на которых одинаковые ссылочные номера указывают на аналогичные части, и на которых:
[0009] Фиг. 1 иллюстрирует примерный вариант осуществления раскрытой системы для обеспечения интерактивной виртуальной среды или среды дополненной реальности для многочисленных пользователей;
[0010] Фиг. 2 иллюстрирует пример пользовательского устройства для взаимодействия с системой, проиллюстрированной на Фиг. 1;
[0011] Фиг. 3 иллюстрирует примерный вариант осуществления мобильного, носимого пользовательского устройства;
[0012] Фиг. 4 иллюстрирует пример объектов, просматриваемых пользователем, когда мобильное, носимое пользовательское устройство, изображенное на Фиг. 3, работает в режиме дополненной реальности;
[0013] Фиг. 5 иллюстрирует пример объектов, просматриваемых пользователем, когда мобильное, носимое пользовательское устройство, изображенное на Фиг. 3, работает в режиме виртуальной среды;
[0014] Фиг. 6 иллюстрирует пример объектов, просматриваемых пользователем, когда мобильное, носимое пользовательское устройство, изображенное на Фиг. 3, работает в смешанном режиме виртуального интерфейса;
[0015] Фиг. 7 иллюстрирует один вариант осуществления, в котором два пользователя, расположенные в различных географических положениях, взаимодействуют друг с другом и с общим виртуальным миром через их соответствующие пользовательские устройства;
[0016] Фиг. 8 иллюстрирует один вариант осуществления, в котором вариант осуществления, изображенный на Фиг. 7, расширен так, чтобы он включал в себя использование тактильного устройства;
[0017] Фиг. 9A иллюстрирует пример режима смешанного интерфейса, в котором первый пользователь взаимодействует с цифровым миром в смешанном режиме виртуального интерфейса, а второй пользователь взаимодействует с тем же самым цифровым миром в режиме виртуальной реальности;
[0018] Фиг. 9B иллюстрирует другой пример смешанного интерфейса, в котором первый пользователь взаимодействует с цифровым миром в смешанном режиме виртуального интерфейса, а второй пользователь взаимодействует с тем же самым цифровым миром в режиме дополненной реальности;
[0019] Фиг. 10 показывает примерную иллюстрацию представления для пользователя при взаимодействии с системой в режиме дополненной реальности; и
[0020] Фиг. 11 показывает примерную иллюстрацию представления для пользователя, показывающего виртуальный объект, инициированный физическим объектом, когда пользователь интерфейса, в котором первый пользователь взаимодействует системой в режиме дополненной реальности.
ПОДРОБНОЕ ОПИСАНИЕ ВАРИАНТОВ ОСУЩЕСТВЛЕНИЯ
[0021] На Фиг. 1 изображена система 100, которая представляет собой аппаратные средства для реализации процессов, описанных ниже. Эта иллюстративная система включает в себя вычислительную сеть 105, содержащую один или более компьютерных серверов 110, соединенных посредством одного или более интерфейсов с высокой пропускной способностью 115. Серверы в вычислительной сети не обязаны находиться в одном физическом месте. Каждый из одного или более серверов 110 включает в себя один или более процессоров для того, чтобы исполнять инструкции программы. Серверы также включают в себя память для хранения инструкций программы и данных, которые используются и/или генерируются процессами, выполняемыми серверами в соответствии с инструкциями программы.
[0022] Вычислительная сеть 105 передает данные между серверами 110 и между серверами и одним или более пользовательскими устройствами 120 через одно или более соединений сети передачи данных 130. Примеры таких сетей передачи данных включают в себя, без ограничения, любые и все типы общедоступных и частных сетей передачи данных, как мобильных, так и проводных, включая, например, соединение множества таких сетей, обычно называемое Интернетом. На чертеже не подразумеваются никакие определенные носители, топологии или протоколы.
[0023] Пользовательские устройства конфигурируются для обмена данными непосредственно с вычислительной сетью 105 или с любым из серверов 110. Альтернативно, пользовательские устройства 120 обмениваются данными с удаленными серверами 110, и, опционально, с другими пользовательскими устройствами локально, через специально запрограммированный локальный шлюз 140 для обработки данных и/или для передачи данных между сетью 105 и одним или более локальных пользовательских устройств 120.
[0024] Как показано на чертеже, шлюз 140 реализован как отдельный аппаратный компонент, который включает в себя процессор для исполнения инструкций программного обеспечения и память для хранения инструкций программного обеспечения и данных. Шлюз имеет свое собственное проводное и/или беспроводное соединение с сетями передачи данных для того, чтобы связываться с серверами 110, входящими в вычислительную сеть 105. Альтернативно, шлюз 140 может быть интегрирован с пользовательским устройством 120, которое является носимым или надето на пользователя. Например, шлюз 140 может быть реализован как загружаемое программное приложение, установленное и исполняемое на процессоре, включенном в пользовательское устройство 120. Шлюз 140 в одном варианте осуществления обеспечивает одному или более пользователям доступ к вычислительной сети 105 через сеть передачи данных 130.
[0025] Каждый из серверов 110 включает в себя, например, оперативную память и долговременную память для того, чтобы хранить данные и программы, микропроцессоры для того, чтобы исполнять инструкции программы, графические процессоры и другие специальные процессоры для рендеринга и генерирования графики, изображений, видео, аудио и мультимедийных файлов. Вычислительная сеть 105 может также включать в себя устройства для хранения данных, которые используются, создаются, или доступ к которым осуществляется посредством серверов 110.
[0026] Программы, исполняющиеся на серверах и опционально на пользовательских устройствах 120 и шлюзах 140, используются для того, чтобы генерировать цифровые миры (также упоминаемые в настоящем документе как виртуальные миры), с которыми пользователи взаимодействуют при помощи пользовательских устройств 120. Цифровой мир представлен данными и процессами, которые описывают и/или определяют виртуальные, несуществующие объекты, среды и состояния, которые могут быть представлены пользователю через пользовательское устройство 120 для того, чтобы пользователь мог их воспринимать и взаимодействовать с ними. Например, некоторый тип объекта, субъекта или элемента, который будет казаться физически присутствующим при создании его экземпляра в сцене, которая просматривается или воспринимается пользователем, может включать в себя описание его внешнего вида, его поведения, того, как пользователю разрешено взаимодействовать с ним, а также другие характеристики. Данные, используемые для создания среды виртуального мира (включая виртуальные объекты), могут включать в себя, например, атмосферные данные, данные ландшафта, погодные данные, температурные данные, данные расположения, и другие данные, используемые для определения и/или описания виртуальной среды. В дополнение к этому, данные, определяющие различные условия, которые управляют работой виртуального мира, могут включать в себя, например, законы физики, время, пространственные отношения и другие данные, которые могут использоваться для того, чтобы определить и/или создать различные условия, которые управляют работой виртуального мира (включая виртуальные объекты).
[0027] Субъект, объект, условие, характеристика, поведение или другая функция цифрового мира будут в общем упоминаться в настоящем документе, если контекст не будет указывать иного, как объект (например, цифровой объект, виртуальный объект, отображенный физический объект и т.д.). Объекты могут быть любым типом анимированного или неанимированного объекта, включая, но не ограничиваясь этим, здания, производственные предприятия, механизмы, людей, животных, существа, машины, данные, видео, текст, изображения и других пользователей. Объекты также могут быть определены в цифровом мире для хранения информации об элементах, способах поведения или условиях, фактически представленных в материальном мире. Данные, которые описывают или определяют субъект, объект или элемент, или которые хранят его текущее состояние, обычно упоминаются в настоящем документе как объектные данные. Эти данные обрабатываются серверами 110 или, в зависимости от реализации, шлюзом 140 или пользовательским устройством 120 с тем, чтобы создать экземпляр объекта и представить объект подходящим способом для пользователя, чтобы он воспринял его через пользовательское устройство.
[0028] Программисты, которые разрабатывают и/или курируют цифровой мир, создают или определяют объекты и условия, при которых создаются их экземпляры. Однако цифровой мир может позволять создавать или изменять объекты не только программистам. Как только экземпляр объекта создан, состояние объекта может быть изменено или может управляться одним или более пользователями, воспринимающими цифровой мир.
[0029] Например, в одном варианте осуществления разработка, производство и администрирование цифрового мира обычно обеспечивается одним или более программистами с правами системного администратора. В некоторых вариантах осуществления это может включать в себя разработку, проектирование и/или выполнение сюжетов, тем и событий в цифровых мирах, а также распространение комментариев через различные формы событий и носителей, таких как, например, пленочный, цифровой, сетевой, мобильный, дополненная реальность и живое развлечение. Программисты с правами системного администратора могут также выполнять техническое администрирование, модерирование и курирование цифровых миров и пользовательских сообществ, связанных с ними, а также другие задачи, обычно выполняемые сетевым административным персоналом.
[0030] Пользователи взаимодействуют с одним или более цифровыми мирами, используя некоторый тип локального вычислительного устройства, которое обычно определяется как пользовательское устройство 120. Примеры таких пользовательских устройств включают в себя, не ограничиваясь этим, смартфон, планшетное устройство, дисплей на лобовом стекле (HUD), игровую консоль или любое другое устройство, способное передавать данные и обеспечивать интерфейс или отображение для пользователя, а также комбинации таких устройств. В некоторых вариантах осуществления пользовательское устройство 120 может включать в себя, или обмениваться информацией с, локальные периферийные компоненты или компоненты ввода/вывода, такие как, например, клавиатура, мышь, джойстик, игровой контроллер, устройство тактильного интерфейса, контроллер ввода данных о движении, звуковое оборудование, речевое оборудование, проекционную систему, трехмерный дисплей и голографическая трехмерную контактную линзу.
[0031] Пример пользовательского устройства 120 для взаимодействия с системой 100 проиллюстрирован на Фиг. 2. В примерном варианте осуществления, показанном на Фиг. 2, пользователь 210 может взаимодействовать с одним или более цифровыми мирами с помощью смартфона 220. Шлюз реализован программным приложением 230, хранимым и исполняемым на смартфоне 220. В этом конкретном примере сеть передачи данных 130 включает в себя беспроводную мобильную сеть, соединяющую пользовательское устройство (то есть смартфон 220) с компьютерной сетью 105.
[0032] В одной реализации предпочтительного варианта осуществления система 100 способна поддерживать большое количество одновременных пользователей (например, миллионы пользователей), каждый из которых взаимодействует с тем же самым цифровым миром, или с множеством цифровых миров, используя некоторый тип пользовательского устройства 120.
[0033] Пользовательское устройство предоставляет пользователю интерфейс, обеспечивающий визуальное, звуковое и/или физическое взаимодействие между пользователем и цифровым миром, сгенерированным серверами 110, включая других пользователей и объекты (реальные или виртуальные), представленным пользователю. Интерфейс предоставляет пользователю отображенную сцену, которая может быть просмотрена, услышана или воспринята иным образом, и возможность взаимодействовать со сценой в режиме реального времени. Способ, которым пользователь взаимодействует с представленной сценой, может быть продиктован возможностями пользовательского устройства. Например, если пользовательское устройство представляет собой смартфон, пользовательское взаимодействие может быть реализовано с помощью сенсорного экрана. В другом примере, если пользовательское устройство представляет собой компьютер или игровую консоль, пользовательское взаимодействие может быть реализовано с использованием игрового контроллера или клавиатуры. Пользовательские устройства могут включать в себя дополнительные компоненты, которые обеспечивают пользователю взаимодействие, такие как датчики, где объекты и информация (включая жесты), обнаруженные датчиками, могут быть обеспечены как вход, представляющий пользовательское взаимодействие с виртуальным миром с использованием пользовательского устройства.
[0034] Отображенная сцена может быть представлена в различных форматах, таких как, например, двумерные или трехмерные визуальные представления (включая проекции), звук, а также осязательная или тактильная обратная связь. Пользователь может взаимодействовать с отображенной сценой в одном или более режимах, включая, например, дополненную реальность, виртуальную реальность и их комбинации. Формат отображенной сцены, так же как и режимы интерфейса, могут быть продиктованы одним или более из следующего: пользовательским устройством, возможностью обработки данных, связью с пользовательским устройством, пропускной способностью сети и рабочей нагрузкой системы. Возможность обслуживания большого количества пользователей, одновременно взаимодействующих с цифровыми мирами, и обмен данными в реальном времени обеспечиваются вычислительной сетью 105, серверами 110, компонентом шлюза 140 (опционально) и пользовательским устройством 120.
[0035] В одном примере вычислительная сеть 105 содержит крупномасштабную вычислительную систему, имеющую одноядерные и/или многоядерные серверы (то есть серверы 110), соединенные через высокоскоростные соединения (например, через интерфейсы 115 с высокой пропускной способностью). Вычислительная сеть 105 может образовывать облако или иметь решетчатую сетевую топологию. Каждый из серверов включает в себя память или связан с машиночитаемой памятью для хранения программного обеспечения для того, чтобы применять данные для создания, разработки, изменения или обработки объектов цифрового мира. Эти объекты и их экземпляры могут быть динамичными, появляться и исчезать, изменяться во времени и изменяться в ответ на другие условия. Примеры динамических возможностей объектов в целом обсуждаются в настоящем документе в связи с различными вариантами осуществления. В некоторых вариантах осуществления каждый пользователь, взаимодействующий с системой 100, также может быть представлен как объект и/или набор объектов в пределах одного или более цифровых миров.
[0036] Серверы 110 внутри вычислительной сети 105 также хранят данные вычислительного состояния для каждого из цифровых миров. Данные вычислительного состояния (также упоминаемые в настоящем документе как данные состояния) могут быть компонентом объектных данных, и обычно определяют состояние экземпляра объекта в данный момент времени. Таким образом, данные вычислительного состояния могут изменяться во времени и могут зависеть от действий одного или более пользователей и/или программистов, поддерживающих систему 100. Поскольку пользователь воздействует на данные вычислительного состояния (или на другие данные, представляющие цифровые миры), пользователь непосредственно изменяет или иным образом управляет цифровым миром. Если цифровой мир совместно используется, или соединяется, с другими пользователями, действия пользователя могут влиять на то, что испытывается другими пользователями, взаимодействующими с цифровым миром. Таким образом, в некоторых вариантах осуществления изменения в цифровом мире, сделанные пользователем, будут восприняты другими пользователями, взаимодействующими с системой 100.
[0037] Данные, хранящиеся в одном или более серверах 110 внутри вычислительной сети 105, в одном варианте осуществления передаются или разворачиваются с высокой скоростью и с малой задержкой на одно или более пользовательских устройств 120 и/или компонентов шлюза 140. В одном варианте осуществления объектные данные, совместно используемые серверами, могут быть полными или могут быть сжатыми, и содержат инструкции для воссоздания полных объектных данных на пользовательской стороне, отображаемых и визуализируемых локальным вычислительным устройством пользователя (например, шлюзом 140 и/или пользовательским устройством 120). Программное обеспечение, работающее на серверах 110 вычислительной сети 105, в некоторых вариантах осуществления может адаптировать данные, которые оно генерирует и отправляет устройству 120 определенного пользователя для объектов внутри цифрового мира (или любые другие данные, передаваемые по вычислительной сети 105), в зависимости от конкретного устройства пользователя и пропускной способности. Например, когда пользователь взаимодействует с цифровым миром через пользовательское устройство 120, сервер 110 может распознать определенный тип устройства, используемого пользователем, характеристики соединения устройства и/или доступную пропускную способность канала между пользовательским устройством и сервером, и соответственно этому масштабировать и сбалансировать данные, передаваемые устройству, так чтобы оптимизировать взаимодействие с пользователем. Пример этого может включать в себя сокращение размера переданных данных до качества низкого разрешения, так чтобы данные могли быть выведены на экран на определенном пользовательском устройстве, имеющем дисплей с низким разрешением. В предпочтительном варианте осуществления вычислительная сеть 105 и/или компонент шлюза 140 передает данные пользовательскому устройству 120 со скоростью, достаточной для того, чтобы представить интерфейс, работающий на частоте обновления 15 кадров в секунду или выше, и в разрешении, которое обеспечивает качество изображения высокой четкости или выше.
[0038] Шлюз 140 обеспечивает локальное соединение с вычислительной сетью 105 для одного или более пользователей. В некоторых вариантах осуществления он может быть реализован загружаемым программным приложением, которое исполняется на пользовательском устройстве 120 или на другом локальном устройстве, таком как показанное на Фиг. 2. В других вариантах осуществления он может быть реализован аппаратным компонентом (с подходящим программным обеспечением/встроенным микропрограммным обеспечением (firmware), хранимым на компоненте, имеющем процессор), который либо соединяется с пользовательским устройством 120, но не входит в него, либо входит в состав пользовательского устройства 120. Шлюз 140 связывается с вычислительной сетью 105 через сеть передачи данных 130 и обеспечивает обмен данными между вычислительной сетью 105 и одним или более локальными пользовательскими устройствами 120. Как более подробно обсуждено ниже, компонент шлюза 140 может включать в себя программное обеспечение, встроенное микропрограммное обеспечение, память и процессорную схему, и может обрабатывать данные, передаваемые между сетью 105 и одним или более локальными пользовательскими устройствами 120.
[0039] В некоторых вариантах осуществления компонент шлюза 140 отслеживает и регулирует скорость передачи данных, передаваемых между пользовательским устройством 120 и компьютерной сетью 105, с тем чтобы обеспечить оптимальные возможности обработки данных определенного пользовательского устройства 120. Например, в некоторых вариантах осуществления шлюз 140 буферизует и загружает как статические, так и динамические аспекты цифрового мира, даже те, которые находятся за пределами поля зрения, представляемого пользователю через интерфейс, соединенный с пользовательским устройством. В таком варианте осуществления экземпляры статических объектов (структурированные данные, программно реализованные способы или и то, и другое) могут быть сохранены в памяти (локальной для компонента шлюза 140, пользовательского устройства 120 или и того, и другого) и соотнесены с текущей позицией локального пользователя, как указано данными, предоставленными вычислительной сетью 105 и/или устройством пользователя 120. Экземпляры динамических объектов, которые могут включать в себя, например, интеллектуальные программные агенты и объекты, которыми управляют другие пользователи и/или локальный пользователь, хранятся в буфере быстродействующей памяти. Динамические объекты, представляющие двумерный или трехмерный объект в сцене, представленной пользователю, могут быть, например, разбиты на составляющие формы, такие как статическая форма, которая перемещается, но не изменяется, и динамическая форма, которая изменяется. Часть динамического объекта, которая изменяется, может быть обновлена приоритетным параллельным потоком данных в реальном времени от сервера 110 через вычислительную сеть 105 под управлением компонента шлюза 140. В качестве одного примера приоритетного параллельного потока данных, данные, которые находятся в 60-градусном поле зрения глаз пользователя, могут получить более высокий приоритет, чем данные, которые являются более периферийными. Другой пример включает в себя приоритизацию динамических персонажей и/или объектов, находящихся внутри поля зрения пользователя, над статическими объектами, находящимися на заднем плане.
[0040] В дополнение к управлению соединением для передачи данных между вычислительной сетью 105 и пользовательским устройством 120, компонент шлюза 140 может сохранять и/или обрабатывать данные, которые могут быть представлены пользовательскому устройству 120. Например, компонент шлюза 140 в некоторых вариантах осуществления может получать из вычислительной сети 105 сжатые данные, описывающие, например, графические объекты, которые должны быть отображены для просмотра пользователем, и выполнять усовершенствованные методы рендеринга для того, чтобы снижать объем данных, передаваемых к пользовательскому устройству 120 из вычислительной сети 105. В другом примере, в котором шлюз 140 является отдельным устройством, шлюз 140 может хранить и/или обрабатывать данные для локального экземпляра объекта вместо того, чтобы передавать данные в вычислительную сеть 105 для обработки.
[0041] Обращаясь теперь также к Фиг. 3, цифровые миры могут быть восприняты одним или более пользователями в различных форматах, которые могут зависеть от возможностей устройства пользователя. В некоторых вариантах осуществления пользовательское устройство 120 может включать в себя, например, смартфон, планшетное устройство, дисплей на лобовом стекле (HUD), игровую консоль или носимое устройство. Обычно пользовательское устройство будет включать в себя процессор для того, чтобы исполнять код программы, хранимый в памяти на устройстве, объединенный с дисплеем и коммуникационным интерфейсом. Примерный вариант осуществления пользовательского устройства проиллюстрирован на Фиг. 3, на котором пользовательское устройство включает в себя мобильное, носимое устройство, а именно систему шлема-дисплея 300. В соответствии с одним вариантом осуществления настоящего изобретения система шлема-дисплея 300 включает в себя пользовательский интерфейс 302, пользовательскую сенсорную систему 304, систему измерения окружающей среды 306 и процессор 308. Хотя процессор 308 показан на Фиг. 3 как изолированный компонент, отдельный от системы шлема-дисплея 300, в альтернативном варианте осуществления процессор 308 может быть интегрирован с одним или более компонентами системы шлема-дисплея 300 или может быть интегрирован в другую систему 100 компонентов, такую как, например, шлюз 140.
[0042] Пользовательское устройство представляет пользователю интерфейс 302 для восприятия и взаимодействия с цифровым миром. Такое взаимодействие может включать в себя пользователя и цифровой мир, одного или более других пользователей, соединенных с системой 100, и объекты внутри цифрового мира. Интерфейс 302 обычно обеспечивает видео и/или аудио сенсорный вход (а в некоторых вариантах осуществления еще и физический сенсорный вход) для пользователя. Таким образом, интерфейс 302 может включать в себя динамики (не показаны) и компонент дисплея 303, способный в некоторых вариантах осуществления обеспечивать стереоскопический трехмерный просмотр и/или трехмерный просмотр, который реализует более естественные характеристики системы человеческого зрения. В некоторых вариантах осуществления компонент дисплея 303 может включать в себя прозрачный интерфейс (такой как прозрачный OLED-экран), который в выключенном состоянии позволяет пользователю корректно видеть физическую среду вокруг себя с незначительными оптическими искажениями или компьютерными наложениями либо вообще без оптических искажений или компьютерных наложений. Как более подробно обсуждено ниже, интерфейс 302 может включать в себя дополнительные настройки, которые обеспечивают множество визуальных/интерфейсных режимов и различную функциональность.
[0043] Пользовательская сенсорная система 304 может включать в себя в некоторых вариантах осуществления один или более датчиков 310, действующих так, чтобы обнаруживать определенные функции, характеристики или информацию, относящиеся к отдельному пользователю, носящему систему 300. Например, в некоторых вариантах осуществления датчики 310 могут включать в себя камеру или оптическую схему обнаружения/сканирования, способную в реальном времени обнаруживать оптические характеристики/выполнять измерения пользователя, такие как, например, одно или больше из следующего: сжатие/расширение зрачка, угловое измерение/расположение каждого зрачка, сфероидальность, форма глаза (как форма глаза изменяется в течение времени), и другие анатомические данные. Эти данные могут обеспечить, или могут использоваться для вычисления информации (например, точки зрительного фокуса пользователя), которая может использоваться системой шлема-дисплея 300 и/или интерфейсной системой 100 для того, чтобы оптимизировать пользовательское восприятие. Например, в одном варианте осуществления каждый из датчиков 310 может измерять скорость сокращения зрачка для каждого из глаз пользователя. Эти данные могут быть переданы процессору 308 (или компоненту шлюза 140 или серверу 110), где данные используются для определения, например, реакции пользователя на настройку яркости интерфейса дисплея 303. Интерфейс 302 может быть настроен в соответствии с реакцией пользователя путем, например, уменьшения яркости дисплея 303, если реакция пользователя указывает на то, что уровень яркости дисплея 303 слишком высок. Пользовательская сенсорная система 304 может включать в себя другие компоненты, кроме обсужденных выше или проиллюстрированных на Фиг. 3. Например, в некоторых вариантах осуществления пользовательская сенсорная система 304 может включать в себя микрофон получения голосового ввода от пользователя. Пользовательская сенсорная система может также включать в себя один или более инфракрасных датчиков/камер, один или более датчиков/камер, работающих в видимой части спектра, излучатели и/или датчики структурированного света, излучатели инфракрасного света, излучатели и/или датчики когерентного света, гироскопы, акселерометры, магнитометры, датчики близости, датчики GPS, излучатели и детекторы ультразвука и тактильные интерфейсы.
[0044] Система измерения окружающей среды 306 включает в себя один или более датчиков 312 для того, чтобы получать данные из физической среды вокруг пользователя. Объекты или информация, обнаруженные датчиками, могут служить в качестве ввода для пользовательского устройства. В некоторых вариантах осуществления этот ввод может представлять пользовательское взаимодействие с виртуальным миром. Например, пользователь, смотрящий на виртуальную клавиатуру на столе, может жестикулировать своими пальцами так, как будто он набирает текст на виртуальной клавиатуре. Движение пальцев может быть получено датчиками 312 и передано пользовательскому устройству или системе в качестве ввода, где ввод может использоваться для того, чтобы изменять виртуальный мир или создавать новые виртуальные объекты. Например, движение пальцев может быть распознано (с использованием программы) как набор текста на клавиатуре, и распознанный жест набора может быть объединен с известным расположением виртуальных клавиш на виртуальной клавиатуре. Система может затем отобразить виртуальный монитор и вывести его на экран пользователю (или другим пользователям, подключенным к системе), где виртуальный монитор показывает текст, вводимый пользователем.
[0045] Датчики 312 могут включать в себя, например, обычно направленную наружу камеру или сканер для того, чтобы интерпретировать информацию о сцене, например, с помощью непрерывно и/или периодически проецируемого инфракрасного структурированного света. Система измерения окружающей среды 306 может использоваться для того, чтобы отобразить один или более элементов физической среды вокруг пользователя посредством обнаружения и регистрации локальной среды, включая статические объекты, динамические объекты, людей, жесты и различные условия освещения, атмосферные и акустические условия. Таким образом, в некоторых вариантах осуществления система измерения окружающей среды 306 может включать в себя программное обеспечение трехмерной реконструкции на основе изображения, встроенное в локальную вычислительную систему (например, в компонент шлюза 140 или в процессор 308) и выполненное с возможностью цифровой реконструкции одного или более объектов или информации, обнаруженных датчиками 312. В одном примерном варианте осуществления система измерения окружающей среды 306 обеспечивает одно или более из следующего: данные о движении (включая распознавание жеста), данные о глубине, распознавание лица, распознавание объекта, распознавание уникальных признаков объекта, распознавание и обработка голоса/звука, локализация источника звука, шумоподавление, инфракрасная или подобная лазерная проекция, а также монохромные и/или цветные CMOS-датчики (или другие подобные датчики), датчики поля зрения, и множество других усовершенствованных оптических датчиков. Следует принять во внимание, что система измерения окружающей среды 306 может включать в себя другие компоненты, кроме обсужденных выше или проиллюстрированных на Фиг. 3. Например, в некоторых вариантах осуществления система измерения окружающей среды 306 может включать в себя микрофон для того, чтобы принимать звук из локального окружения. Пользовательская сенсорная система может также включать в себя один или более инфракрасных датчиков/камер, один или более датчиков/камер, работающих в видимой части спектра, излучатели и/или датчики структурированного света, излучатели инфракрасного света, излучатели и/или датчики когерентного света, гироскопы, акселерометры, магнитометры, датчики близости, датчики GPS, излучатели и детекторы ультразвука и тактильные интерфейсы.
[0046] Как упомянуто выше, процессор 308 в некоторых вариантах осуществления может быть интегрирован с другими компонентами системы шлема-дисплея 300, с другими компонентами интерфейсной системы 100 или может быть изолированным устройством (носимым или отдельным от пользователя), как показано на Фиг. 3. Процессор 308 может быть соединен с различными компонентами системы шлема-дисплея 300 и/или компонентами интерфейсной системы 100 через физическое, проводное соединение, либо посредством беспроводного соединения, такого как, например, мобильные сетевые соединения (включая мобильные телефонные сети и сети передачи данных), Wi-Fi или Bluetooth. Процессор 308 может включать в себя модуль памяти, интегрированный и/или дополнительный графический процессор, беспроводное и/или проводное интернет-соединение, и кодек и/или встроенное микропрограммное обеспечение, способное преобразовывать данные из источника (например, из вычислительной сети 105, из пользовательской сенсорной системы 304, из системы измерения окружающей среды 306 или из компонента шлюза 140) в изображение и звуковые данные, которые могут быть представлены пользователю посредством интерфейса 302.
[0047] Процессор 308 производит обработку данных для различных компонентов системы шлема-дисплея 300, а также обмен данными между системой шлема-дисплея 300 и компонентом шлюза 140 и, в некоторых вариантах осуществления, вычислительной сетью 105. Например, процессор 308 может использоваться для того, чтобы буферизовать и обрабатывать поток данных между пользователем и вычислительной сетью 105, обеспечивая тем самым плавное, непрерывное и высококачественное восприятие. В некоторых вариантах осуществления процессор 308 может обрабатывать данные со скоростью, достаточной для достижения любого качества в диапазоне от 8 кадров в секунду при разрешении 320×240 пикселей до 24 кадров в секунду при разрешении высокой четкости (1280×720 пикселей) или больше, такого как 60-120 кадров в секунду и разрешения 4k и выше (разрешение 10k+ и 50000 кадров в секунду). Дополнительно к этому, процессор 308 может хранить и/или обрабатывать данные, которые могут быть представлены пользователю, вместо того, чтобы передавать их потоком в режиме реального времени из вычислительной сети 105. Например, процессор 308 в некоторых вариантах осуществления может получать сжатые данные из вычислительной сети 105 и выполнять усовершенствованные методы рендеринга (такие как освещение или обработка полутонов) для того, чтобы снижать объем данных, передаваемых к пользовательскому устройству 120 из вычислительной сети 105. В другом примере процессор 308 может хранить и/или обрабатывать локальные объектные данные вместо того, чтобы передавать данные компоненту шлюза 140 или вычислительной сети 105.
[0048] Система шлема-дисплея 300 в некоторых вариантах осуществления может включать в себя различные настройки, или режимы, которые обеспечивают множество визуальных/интерфейсных режимов и различную функциональность. Режимы могут выбираться вручную пользователем или автоматически компонентами системы шлема-дисплея 300 или компонентом шлюза 140. Как было упомянуто ранее, один пример системы шлема-дисплея 300 включает в себя режим выключения, в котором интерфейс 302 существенно не обеспечивает цифровой или виртуальный контент. В режиме выключения компонент дисплея 303 может быть прозрачным, позволяя таким образом пользователю корректно видеть физическую среду вокруг себя с незначительными оптическими искажениями или компьютерными наложениями либо вообще без оптических искажений или компьютерных наложений.
[0049] В одном примерном варианте осуществления система шлема-дисплея 300 включает в себя режим дополненной реальности, в котором интерфейс 302 обеспечивает интерфейс дополненной реальности. В режиме дополненной реальности дисплей интерфейса 303 может быть существенно прозрачным, позволяя таким образом пользователю видеть локальное физическое окружение. Одновременно с этим виртуальные объектные данные, предоставленные вычислительной сетью 105, процессором 308 и/или компонентом шлюза 140, представляются на дисплее 303 в комбинации с локальным физическим окружением.
[0050] Фиг. 4 иллюстрирует примерный вариант осуществления объектов, просматриваемых пользователем, когда интерфейс 302 работает в режиме дополненной реальности. Как показано на Фиг. 4, интерфейс 302 представляет физический объект 402 и виртуальный объект 404. В варианте осуществления, проиллюстрированном на Фиг. 4, физический объект 402 является реальным, физическим объектом, существующим в окружении пользователя, тогда как виртуальный объект 404 является объектом, создаваемым системой 100 и выводимым на экран посредством пользовательского интерфейса 302. В некоторых вариантах осуществления виртуальный объект 404 может быть выведен на экран в фиксированной позиции или расположении в пределах физической среды (например, виртуальная обезьяна, стоящая рядом с конкретным уличным знаком, расположенным в физической среде), или может быть выведен на экран пользователю в качестве объекта, расположенного в некоторой позиции относительно пользовательского интерфейса/дисплея 303 (например, виртуальные часы или термометр, видимые в верхнем левом углу дисплея 303).
[0051] В некоторых вариантах осуществления виртуальные объекты могут быть контролируемыми или инициируемыми объектами, физически существующими внутри или вне поля зрения пользователя. Виртуальный объект 404 контролируется или инициируется физическим объектом 402. Например, физический объект 402 может фактически быть табуретом, и виртуальный объект 404 может быть выведен на экран пользователю (и, в некоторых вариантах осуществления, другим пользователям, подключенным к системе 100) как виртуальное животное, стоящее на табурете. В таком варианте осуществления система измерения окружающей среды 306 может использовать программное обеспечение и/или сохраненное встроенное микропрограммное обеспечение, например, в процессоре 308, для того, чтобы распознать, что различные функции и/или шаблоны формы (полученные датчиками 312) идентифицируют физический объект 402 как табурет. Эти распознанные шаблоны формы, такие как, например, вершина табурета, могут использоваться для того, чтобы инициировать размещение виртуального объекта 404. Другие примеры включают в себя стены, столы, мебель, автомобили, здания, людей, этажи, растения, животных - любой объект, который может быть увиден, может использоваться для того, чтобы инициировать дополненную реальность в некотором отношении к объекту или объектам.
[0052] В некоторых вариантах осуществления конкретный виртуальный объект 404, который инициируется, может быть выбран пользователем или автоматически выбран другими компонентами системы шлема-дисплея 300 или системы интерфейса 100. Дополнительно к этому, в тех вариантах осуществления, в которых виртуальный объект 404 инициируется автоматически, конкретный виртуальный объект 404 может быть выбран на основе конкретного физического объекта 402 (или его особенности), которым виртуальный объект 404 контролируется или инициируется. Например, если физический объект идентифицирован как трамплин для прыжков в воду, находящийся над бассейном, инициированный виртуальный объект может быть существом в маске с трубкой, в водолазном костюме, с аквалангом или с другими относящимися к контексту элементами.
[0053] В другом примерном варианте осуществления система шлема-дисплея 300 может включать в себя "виртуальный" режим, в котором интерфейс 302 обеспечивает интерфейс виртуальной реальности. В виртуальном режиме окружающая физическая среда не видна через дисплей 303, и виртуальные объектные данные, предоставленные вычислительной сетью 105, процессором 308 и/или компонентом шлюза 140, представляются на дисплее 303. Удаление окружающей физической среды с экрана может быть выполнено путем физической блокировки дисплея 303 (например, посредством крышки) или посредством функции интерфейса 302, в которой дисплей 303 переходит в непрозрачное состояние. В виртуальном режиме живые и/или сохраненные визуальные и звуковые ощущения могут быть представлены пользователю через интерфейс 302, и пользователь воспринимает и взаимодействует с цифровым миром (с цифровыми объектами, с другими пользователями и т.д.) посредством виртуального режима интерфейса 302. Таким образом, интерфейс, предоставляемый пользователю в виртуальном режиме, состоит из виртуальных объектных данных, включающих в себя виртуальный цифровой мир.
[0054] Фиг. 5 иллюстрирует примерный вариант осуществления пользовательского интерфейса, когда интерфейс 302 шлема-дисплея работает в виртуальном режиме. Как показано на Фиг. 5, пользовательский интерфейс представляет виртуальный мир 500, составленный из цифровых объектов 510, в котором цифровые объекты 510 могут включать в себя атмосферу, погоду, ландшафт, здания и людей. Хотя это и не проиллюстрировано на Фиг. 5, цифровые объекты могут также включать в себя, например, растения, автомобили, животных, существа, машины, искусственный интеллект, информацию о расположении и любой другой объект или информацию, определяющую виртуальный мир 500.
[0055] В другом примерном варианте осуществления система шлема-дисплея 300 может включать в себя "смешанный" режим, в котором различные функции системы шлема-дисплея 300 (так же как и функции виртуального режима и режима дополненной реальности) могут сочетаться для того, чтобы создать один или более пользовательских режимов интерфейса. В одном примере пользовательского режима интерфейса физическая среда отсутствует на дисплее 303, и виртуальные объектные данные представляются на дисплее 303 способом, подобным виртуальному режиму. Однако, в этом примере пользовательского режима интерфейса виртуальные объекты могут быть полностью виртуальными (то есть они не существуют в локальной физической среде), или они могут быть реальными, локальными физическими объектами, представленными как виртуальный объект в интерфейсе 302 вместо физического объекта. Таким образом, в этом конкретном пользовательском режиме (упоминаемом в настоящем документе как смешанный виртуальный режим интерфейса), живые и/или сохраненные зрительные и звуковые ощущения могут быть представлены пользователю через интерфейс 302, и пользователь воспринимает и взаимодействует с цифровым миром, включающим в себя полностью виртуальные объекты и отображенные физические объекты.
[0056] Фиг. 6 иллюстрирует примерный вариант осуществления пользовательского интерфейса, работающего в соответствии со смешанным виртуальным режимом интерфейса. Как показано на Фиг. 6, пользовательский интерфейс представляет виртуальный мир 600, составленный из полностью виртуальных объектов 610 и отображенных физических объектов 620 (полученных с помощью рендеринга объектов, физически существующих в сцене). В соответствии с примером, иллюстрированным на Фиг. 6, отображенные физические объекты 620 включают в себя здание 620A, землю 620B и платформу 620C, и показаны с полужирной рамкой 630, чтобы показать пользователю, что эти объекты отображены. Дополнительно к этому, полностью виртуальные объекты 610 включают в себя дополнительного пользователя 610A, облака 610B, солнце 610C и пламя 610D сверху платформы 620C. Следует принять во внимание, что полностью виртуальные объекты 610 могут включать в себя, например, атмосферу, погоду, ландшафт, здания, людей, растения, автомобили, животных, существа, машины, искусственный интеллект, информацию о расположении и любой другой объект или информацию, определяющую виртуальный мир 600, а не отображенные на основе объектов, существующих в локальной физической среде. В противоположность этому, отображенные физические объекты 620 являются реальными локальными физическими объектами, отображенными как виртуальные объекты в интерфейсе 302. Полужирная рамка 630 представляет один пример указания отображенных физических объектов пользователю. Также отображенные физические объекты могут быть обозначены с использованием других способов, отличных от раскрытых в настоящем документе.
[0057] В некоторых вариантах осуществления отображаемые физические объекты 620 могут быть обнаружены с использованием датчиков 312 системы измерения окружающей среды 306 (или с использованием других устройств, таких как система ввода данных о движении или захвата изображения), и преобразованы в цифровые объектные данные программным обеспечением и/или сохраненным встроенным микропрограммным обеспечением, например, в процессорной схеме 308. Таким образом, поскольку пользователь взаимодействует с системой 100 в смешанном виртуальном режиме интерфейса, различные физические объекты могут быть выведены на экран пользователю как отображенные физические объекты. Это может быть особенно полезно для того, чтобы пользователь мог взаимодействовать с системой 100, и в то же время безопасно перемещаться в локальной физической среде. В некоторых вариантах осуществления пользователь может быть в состоянии выборочно удалять или добавлять физические объекты, отображаемые интерфейсным дисплеем 303.
[0058] В другом примерном пользовательском режиме интерфейса дисплей интерфейса 303 может быть, по существу, прозрачным, позволяя тем самым пользователю видеть локальное физическое окружение, в то время как различные локальные физические объекты показываются на экране пользователю в качестве отображенных физических объектов. Этот примерный пользовательский режим интерфейса подобен режиму дополненной реальности, за исключением того, что один или более виртуальных объектов могут быть отображенными физическими объектами, как обсуждалось выше в отношении предыдущего примера.
[0059] Предшествующие примерные пользовательские режимы интерфейса представляют несколько примерных вариантов осуществления различных пользовательских режимов интерфейса, которые могут обеспечиваться смешанным режимом системы шлема-дисплея 300. Соответственно, различные другие пользовательские режимы интерфейса могут быть созданы из различной комбинации особенностей и функциональности, обеспечиваемой компонентами системы шлема-дисплея 300 и различными режимами, обсужденными выше, без отступления от области охвата настоящего раскрытия.
[0060] Варианты осуществления, обсужденные в настоящем документе, просто описывают несколько примеров обеспечения интерфейса, работающего в выключенном режиме, режиме дополненной реальности, виртуальном режиме или смешанном режиме, и не предназначены для того, чтобы ограничивать объем или содержание соответствующих интерфейсных режимов или функциональности компонентов системы шлема-дисплея 300. Например, в некоторых вариантах осуществления виртуальные объекты могут включать в себя данные, выводимые на экран пользователю (время, температура, высота и т.д.), объекты, создаваемые и/или выбранные системой 100, объекты, создаваемые и/или выбранные пользователем, или даже объекты, представляющие других пользователей, подключенных к системе 100. Дополнительно к этому, виртуальные объекты могут включать в себя расширение физических объектов (например, виртуальная скульптура, стоящая на физической платформе) и могут быть визуально соединены или разъединены с физическим объектом.
[0061] Виртуальные объекты могут также быть динамическими и изменяться со временем, изменяться в соответствии с различными отношениями (например, в зависимости от положения, расстояния и т.д.) между пользователем или другими пользователями, физическими объектами и другими виртуальными объектами, и/или изменяться в соответствии с другими переменными, указанными в программном обеспечении и/или встроенном микропрограммном обеспечении системы шлема-дисплея 300, компонента шлюза 140 или сервера 110. Например, в некоторых вариантах осуществления виртуальный объект может реагировать на пользовательское устройство или его компонент (например, виртуальный шар перемещается, когда тактильное устройство помещается рядом с ним), на физическое или вербальное взаимодействие с пользователем (например, виртуальное существо убегает, когда пользователь приближается к нему, или говорит, когда пользователь заговаривает с ним), стул бросается в виртуальное существо, и существо уклоняется от стула, на другие виртуальные объекты (например, первое виртуальное существо реагирует, когда оно видит второе виртуальное существо), на физические переменные, такие как положение, расстояние, температура, время и т.д. или на другие физические объекты в окружении пользователя (например, виртуальное существо, показываемое стоящим на физической улице, становится расплющенным, когда через него переезжает физический автомобиль).
[0062] Различные режимы, обсужденные в настоящем документе, могут быть применены и к другим пользовательским устройствам, отличным от системы шлема-дисплея 300. Например, интерфейс дополненной реальности может быть обеспечен посредством планшетного устройства или мобильного телефона. В таком варианте осуществления телефон или планшет могут использовать камеру для получения физического окружения вокруг пользователя, и виртуальные объекты могут быть наложены на экране дисплея телефона/планшета. Дополнительно к этому, виртуальный режим может быть обеспечен путем отображения цифрового мира на экране дисплея телефона/планшета. Соответственно, эти режимы могут быть смешаны так, чтобы создать различные пользовательские режимы интерфейса, как описано выше, используя компоненты телефона/планшета, обсуждаемого в настоящем документе, а также другие компоненты, соединенные с, или используемые в комбинации с пользовательским устройством. Например, смешанный виртуальный режим интерфейса может быть обеспечен компьютерным монитором, телевизионным экраном или другим устройством, у которого отсутствует камера, работающая в комбинации с системой ввода данных о движении или системой захвата изображения. В этом примерном варианте осуществления виртуальный мир может быть просмотрен на мониторе/экране, а обнаружение объектов и рендеринг могут быть выполнены системой ввода данных о движении или системой захвата изображения.
[0063] Фиг. 7 иллюстрирует примерный вариант осуществления настоящего изобретения, в котором каждый из двух пользователей, расположенных в различных географических местоположениях, взаимодействует с другим пользователем и с общим для них виртуальным миром через свое соответствующее пользовательское устройство. В этом варианте осуществления два пользователя 701 и 702 бросают виртуальный мяч 703 (тип виртуального объекта) туда и обратно, причем каждый пользователь способен наблюдать воздействие другого пользователя на виртуальный мир (например, каждый пользователь наблюдает изменение направления движения виртуального мяча, как его ловит другой пользовательи т.д.). Так как перемещение и расположение виртуальных объектов (то есть виртуального мяча 703) отслеживается серверами 110 в вычислительной сети 105, система 100 в некоторых вариантах осуществления может сообщить пользователям 701 и 702 точное положение и время прибытия мяча 703 относительно каждого пользователя. Например, если первый пользователь 701 находится в Лондоне, пользователь 701 может бросить мяч 703 во второго пользователя 702, находящегося в Лос-Анджелесе, со скоростью, вычисленной системой 100. Соответственно, система 100 может сообщить второму пользователю 702 (например, по электронной почте, текстовым сообщением, мгновенным сообщениеми т.д.) точное время и место прибытия мяча. По существу, второй пользователь 702 может использовать свое устройство для того, чтобы увидеть, что мяч 703 прилетел в требуемое время и куда он прилетел. Один или более пользователей могут также использовать программное обеспечение геопозиционирования (или подобное) для того, чтобы отслеживать один или более виртуальных объектов по мере того, как они виртуально перемещаются по всему миру. Примером этого может быть пользователь, носящий трехмерный шлем-дисплей, смотрящий в небо и видящий летящий над ним виртуальный самолет, наложенный на реальный мир. Виртуальный самолет может управляться пользователем, интеллектуальными программными агентами (программным обеспечением, работающим на пользовательском устройстве или на шлюзе), другими пользователями, которые могут быть локальными и/или удаленными, и/или посредством любой комбинации вышеперечисленного.
[0064] Как было ранее упомянуто, пользовательское устройство может включать в себя устройство тактильного интерфейса, обеспечивающее обратную связь (например, сопротивление, вибрация, световые индикаторы, звук и т.д.) пользователю, когда система 100 определяет, что тактильное устройство должно быть расположено в некотором физическом пространственном расположении относительно виртуального объекта. Например, вариант осуществления, описанный выше со ссылкой на Фиг. 7, может быть расширен так, чтобы включать в себя использование тактильного устройства 802, как показано на Фиг. 8. В этом варианте осуществления в качестве примера тактильное устройство 802 может быть выведено на экран в виртуальном мире как бейсбольная бита. Когда мяч 703 прилетает, пользователь 702 может ударить тактильным устройством 802 по виртуальному мячу 703. Если система 100 решает, что виртуальная бита, обеспечиваемая тактильным устройством 802, вступила в "контакт" с мячом 703, то тактильное устройство 802 может завибрировать или обеспечить другую обратную связь пользователю 702, и виртуальный мяч 703 может срикошетить от виртуальной биты в направлении, вычисленном системой 100 в соответствии с обнаруженной скоростью, направлением, и временем контакта мяча и биты.
[0065] Раскрытая система 100 в некоторых вариантах осуществления может облегчить обеспечение интерфейса смешанного режима, в котором многочисленные пользователи могут взаимодействовать с общим виртуальным миром (и с виртуальными объектами, содержащимися в нем) с использованием различных режимов интерфейса (например, режима дополненной реальности, виртуального режима, смешанного режима и т.д.). Например, первый пользователь, взаимодействующий с конкретным виртуальным миром в виртуальном режиме интерфейса, может взаимодействовать со вторым пользователем, взаимодействующим с тем же самым виртуальным миром в режиме дополненной реальности.
[0066] Фиг. 9A иллюстрирует пример, в котором первый пользователь 901 (взаимодействующий с цифровым миром системы 100 в смешанном виртуальном режиме интерфейса) и первый объект 902 показываются как виртуальные объекты второму пользователю 922, взаимодействующему с тем же самым цифровым миром системы 100 в режиме полностью виртуальной реальности. Как описано выше, при взаимодействии с цифровым миром посредством смешанного виртуального режима интерфейса локальные физические объекты (например, первый пользователь 901 и первый объект 902) могут быть отсканированы и отображены как виртуальные объекты в виртуальном мире. Первый пользователь 901 может быть отсканирован, например, системой ввода данных о движении или подобным устройством и отображен в виртуальном мире (посредством программного обеспечения/встроенного микропрограммного обеспечения, хранимого в системе ввода данных о движении, в компоненте шлюза 140, в пользовательском устройстве 120, на системных серверах 110 или в других устройствах) в качестве первого отображенного физического объекта 931. Аналогичным образом первый объект 902 может быть отсканирован, например, системой измерения окружающей среды 306 интерфейса шлема-дисплея 300 и отображен в виртуальном мире (посредством программного обеспечения/встроенного микропрограммного обеспечения, хранимого в процессоре 308, в компоненте шлюза 140, на системных серверах 110 или в других устройствах) в качестве второго отображенного физического объекта 932. Первый пользователь 901 и первый объект 902 показаны в первой части 910 Фиг. 9A как физические объекты в материальном мире. На второй части 920 Фиг. 9A первый пользователь 901 и первый объект 902 показаны так, как они видятся второму пользователю 922, взаимодействующему с тем же самым цифровым миром системы 100 в режиме полностью виртуальной реальности: как первый отображенный физический объект 931 и второй отображенный физический объект 932.
[0067] Фиг. 9B иллюстрирует другой примерный вариант осуществления смешанного режима интерфейса, в котором первый пользователь 901 взаимодействует с цифровым миром в смешанном виртуальном режиме интерфейса, как обсуждено выше, а второй пользователь 922 взаимодействует с тем же самым цифровым миром (и с физическим локальным окружением 925 второго пользователя) в режиме дополненной реальности. В варианте осуществления, показанном на Фиг. 9B, первый пользователь 901 и первый объект 902 находятся в первом физическом местоположении 915, а второй пользователь 922 находится в другом, втором физическом местоположении 925, разделенном некоторым расстоянием от первого местоположения 915. В этом варианте осуществления виртуальные объекты 931 и 932 могут быть перемещены в реальном времени (или почти в реальном времени) в местоположение внутри виртуального мира, соответствующее второму местоположению 925. Таким образом, второй пользователь 922 может наблюдать и взаимодействовать с отображенными физическими объектами 931 и 932, представляющими собой первого пользователя 901 и первый объект 902, соответственно, в физическом локальном окружении 925 второго пользователя.
[0068] Фиг. 10 показывает примерную иллюстрацию представления пользователя при взаимодействии с системой 100 в режиме дополненной реальности. Как показано на Фиг. 10, пользователь видит локальную физическую среду (то есть город, имеющий множество зданий), а также виртуальный персонаж 1010 (то есть виртуальный объект). Положение виртуального персонажа 1010 может быть инициировано двухмерной визуальной целью (например, рекламным щитом, открыткой или журналом) и/или одним или более из трехмерных ссылочных фреймов, таких как здания, автомобили, люди, животные, самолеты, части здания, и/или любой трехмерный физический объект, виртуальный объект, и/или их комбинации. В примере, проиллюстрированном на Фиг. 10, известное положение зданий в городе может обеспечить регистрацию опорных точек и/или информацию и ключевые признаки для отображения виртуального персонажа 1010. Дополнительно, геопространственное положение пользователя (например, предоставленное системой спутникового позиционирования GPS, датчиками пространственного и углового положения и т.д.) или мобильное положение относительно зданий может включать в себя данные, используемые вычислительной сетью 105 для того, чтобы инициировать передачу данных, используемых для вывода на экран виртуального персонажа (персонажей) 1010. В некоторых вариантах осуществления данные, используемые для вывода на экран виртуального персонажа 1010, могут включать в себя отображенный персонаж 1010 и/или инструкции (для их исполнения компонентом шлюза 140 и/или пользовательским устройством 120) для отображения виртуального персонажа 1010 или его частей. В некоторых вариантах осуществления, если геопространственное положение пользователя недоступно или неизвестно, сервер 110, компонент шлюза 140 и/или пользовательское устройство 120 может вывести на экран виртуальный объект 1010, используя алгоритм оценки, который оценивает, где могут быть расположены конкретные виртуальные объекты и/или физические объекты, путем использования последнего известного положения пользователя в зависимости от времени и/или от других параметров. Это также может использоваться для определения положения любых виртуальных объектов, если датчики пользователя становятся закрытыми и/или функционируют некорректно.
[0069] В некоторых вариантах осуществления виртуальные персонажи или виртуальные объекты могут включать в себя виртуальную статую, причем рендеринг виртуальной статуи инициируется физическим объектом. Например, обращаясь теперь к Фиг. 11, виртуальная статуя 1110 может быть инициирована реальной физической платформой 1120. Инициирование статуи 1110 может происходить в ответ на визуальный объект или признак (например, опорные точки, конструктивные особенности, геометрия, узоры, физическое положение, высота и т.д.), обнаруженный пользовательским устройством или другими компонентами системы 100. Когда пользователь рассматривает платформу 1120 без пользовательского устройства, пользователь видит платформу 1120 без статуи 1110. Однако, когда пользователь рассматривает платформу 1120 через пользовательское устройство, пользователь видит статую 1110 на платформе 1120, как показано на Фиг. 11. Статуя 1110 является виртуальным объектом и поэтому может быть стационарной, анимированной, изменяющейся во времени или относительно точки зрения пользователя, или даже изменяться в зависимости от того, какой конкретно пользователь рассматривает статую 1110. Например, если пользователь является маленьким ребенком, статуя может быть собакой; в то же время, если пользователь является взрослым мужчиной, статуя может быть большим роботом, как показано на Фиг. 11. Эти примеры являются примерами восприятия, зависимого от пользователя и/или от состояния. Это позволит одному или более пользователям воспринимать один или более виртуальных объектов по одному и/или в комбинации с физическими объектами и настроенными в соответствии с опытом и персонализированными версиями виртуальных объектов. Статуя 1110 (или ее части) может быть отображена различными компонентами системы, включая, например, программное обеспечение/встроенное микропрограммное обеспечение, установленное на пользовательском устройстве. Используя данные, указывающие на пространственное и угловое положение пользовательского устройства в комбинации с регистрационными признаками виртуального объекта (то есть статуи 1110), виртуальный объект (то есть статуя 1110) формирует отношение с физическим объектом (то есть с платформой 1120). Например, отношение между одним или более виртуальными объектами и одним или более физическими объектами может быть функцией расстояния, положения, времени, георасположения, близости к одному или более другим виртуальным объектам, и/или любым другим функциональным отношением, которое включает в себя виртуальные и/или физические данные любого вида. В некоторых вариантах осуществления программное обеспечение распознавания изображения в пользовательском устройстве может дополнительно улучшить отношение между цифровыми и физическими объектами.
[0070] Интерактивный интерфейс, обеспечиваемый раскрытой системой и способом, может быть реализован для облегчения различных действий, таких как, например, взаимодействие с одной или более виртуальными средами и объектами, взаимодействие с другими пользователями, а также восприятие различных форм мультимедийного контента, включая рекламные объявления, музыкальные концерты и кинофильмы. Соответственно, раскрытая система облегчает пользовательское взаимодействие, так что пользователь не только просматривает или слушает мультимедийный контент, но и активно участвует в нем и воспринимает его. В некоторых вариантах осуществления пользовательское участие может включать в себя изменяющийся существующий контент или создание нового контента, который будет отображен в одном или более виртуальных мирах. В некоторых вариантах осуществления мультимедийный контент и/или пользователи, создающие контент, могут быть тематически объединены вокруг мифотворчества одного или более виртуальных миров.
[0071] В одном примере музыканты (или другие пользователи) могут создавать музыкальный контент, который будет отображен пользователям, взаимодействующим с конкретным виртуальным миром. Музыкальный контент может включать в себя, например, различные одиночные произведения, долгоиграющие пластинки, альбомы, видео, короткометражные фильмы и концертные исполнения. В одном примере большое количество пользователей может подключиться к системе 100, чтобы одновременно увидеть и услышать виртуальный концерт, исполняемый музыкантами.
[0072] В некоторых вариантах осуществления произведенные носители могут содержать уникальный идентификационный код, связанный с определенным объектом (например, музыкальная группа, исполнитель, пользовательи т.д.). Код может быть в форме набора алфавитно-цифровых символов, штрих-кодов UPC, QR-кодов, триггеров двухмерного изображения, триггеров особенностей трехмерных физических объектов или других цифровых меток, а также звука, изображения и/или того и другого. В некоторых вариантах осуществления код также может быть встроен в цифровые носители, которые могут использоваться системой 100. Пользователь может получить код (например, посредством оплаты или взноса) и тем самым выкупить код для того, чтобы получить доступ к мультимедийному контенту, произведенному лицом или компанией, связанной с идентификационным кодом. Мультимедийный контент может быть добавлен или удален из пользовательского интерфейса.
[0073] Варианты осуществления, раскрытые в настоящем документе, приведены для того, чтобы проиллюстрировать один или более примеров способов и устройства для обеспечения интерактивной виртуальной среды или среды дополненной реальности для многочисленных пользователей. По существу, изменения к способам и устройству, раскрытым в настоящем документе, могут быть сделаны без отступлений от объема настоящего изобретения, который определяется формулой изобретения, приведенной ниже. Например, хотя различные примеры и варианты осуществления обсуждаются в настоящем документе в отношении системы шлема-дисплея, различные примеры и варианты осуществления могут также применяться к другим пользовательским устройствам, способным обеспечить интерфейс или возможности, обсужденные относительно этих конкретных вариантов осуществления.

Claims (15)

1. Система для обеспечения одному или более пользователям возможности взаимодействовать с виртуальным миром, содержащим данные виртуального мира, содержащая:
компьютерную сеть, включающую в себя один или более компьютерных серверов, содержащих память, процессорную схему и программное обеспечение, хранимое в памяти и исполняемое процессорной схемой для обработки, по меньшей мере, части данных виртуального мира;
при этом компьютерная сеть выполнена с возможностью передавать данные виртуального мира в пользовательское устройство для представления первому пользователю,
при этом, по меньшей мере, часть виртуального мира изменяется в ответ на изменение в данных виртуального мира,
при этом, по меньшей мере, часть данных виртуального мира изменяется в ответ на по меньшей мере один физический объект, обнаруженный пользовательским устройством, и
причем этот по меньшей мере один физический объект содержит объекты в физической среде вблизи первого пользователя.
2. Система по п. 1, в которой упомянутое изменение в данных виртуального мира представляет виртуальный объект, имеющий заранее определенное отношение с упомянутым физическим объектом.
3. Система по п. 2, в которой упомянутое изменение в данных виртуального мира представляется второму пользовательскому устройству для представления второму пользователю в соответствии с упомянутым заранее определенным отношением.
4. Система по п. 1, в которой виртуальный мир приспособлен для воспроизведения по меньшей мере одним из компьютерных серверов и пользовательского устройства.
5. Система по п. 1, в которой виртуальный мир представляется в по меньшей мере одном из двумерного формата и трехмерного формата.
6. Система по п. 1, в которой пользовательское устройство выполнено с возможностью обеспечения интерфейса для взаимодействия между пользователем и виртуальным миром в по меньшей мере одном из режима дополненной реальности, режима виртуальной реальности и комбинации режима дополненной и виртуальной реальности.
7. Система по п. 1, в которой данные виртуального мира передаются по сети передачи данных.
8. Система по п. 1, в которой компьютерная сеть выполнена с возможностью получать, по меньшей мере, часть данных виртуального мира от пользовательского устройства.
9. Система по п. 1, в которой, по меньшей мере, часть данных виртуального мира, переданных в пользовательское устройство, включает в себя инструкции для генерирования по меньшей мере части виртуального мира.
10. Система по п. 1, в которой, по меньшей мере, часть данных виртуального мира передается в шлюз.
RU2013154098A 2011-05-06 2012-05-04 Мир массового одновременного удаленного цифрового присутствия RU2621644C2 (ru)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161483511P 2011-05-06 2011-05-06
US201161483505P 2011-05-06 2011-05-06
US61/483,505 2011-05-06
US61/483,511 2011-05-06
PCT/US2012/036681 WO2012154620A2 (en) 2011-05-06 2012-05-04 Massive simultaneous remote digital presence world

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2017118159A Division RU2017118159A (ru) 2011-05-06 2012-05-04 Мир массового одновременного удаленного цифрового присутствия

Publications (2)

Publication Number Publication Date
RU2013154098A RU2013154098A (ru) 2015-06-20
RU2621644C2 true RU2621644C2 (ru) 2017-06-06

Family

ID=47139918

Family Applications (2)

Application Number Title Priority Date Filing Date
RU2013154098A RU2621644C2 (ru) 2011-05-06 2012-05-04 Мир массового одновременного удаленного цифрового присутствия
RU2017118159A RU2017118159A (ru) 2011-05-06 2012-05-04 Мир массового одновременного удаленного цифрового присутствия

Family Applications After (1)

Application Number Title Priority Date Filing Date
RU2017118159A RU2017118159A (ru) 2011-05-06 2012-05-04 Мир массового одновременного удаленного цифрового присутствия

Country Status (9)

Country Link
US (5) US10101802B2 (ru)
EP (3) EP3229107B1 (ru)
JP (7) JP6316186B2 (ru)
CN (2) CN103635891B (ru)
AU (3) AU2012253797B2 (ru)
BR (1) BR112013034009A2 (ru)
CA (2) CA2835120C (ru)
RU (2) RU2621644C2 (ru)
WO (1) WO2012154620A2 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2805203C2 (ru) * 2019-03-19 2023-10-12 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Относительная пространственная локализация мобильных устройств

Families Citing this family (386)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0522968D0 (en) 2005-11-11 2005-12-21 Popovich Milan M Holographic illumination device
GB0718706D0 (en) 2007-09-25 2007-11-07 Creative Physics Ltd Method and apparatus for reducing laser speckle
US9335604B2 (en) 2013-12-11 2016-05-10 Milan Momcilo Popovich Holographic waveguide display
US11726332B2 (en) 2009-04-27 2023-08-15 Digilens Inc. Diffractive projection apparatus
US20140372912A9 (en) * 2010-10-30 2014-12-18 Aaron D. Cohen Multi-Dimensional Enhanced World View Experiences, Related Systems and Software, Methods of Use and Production Thereof
WO2012116236A2 (en) 2011-02-23 2012-08-30 Nova Spivack System and method for analyzing messages in a network or across networks
WO2012136970A1 (en) 2011-04-07 2012-10-11 Milan Momcilo Popovich Laser despeckler based on angular diversity
US9336240B2 (en) * 2011-07-15 2016-05-10 Apple Inc. Geo-tagging digital images
EP2995986B1 (en) 2011-08-24 2017-04-12 Rockwell Collins, Inc. Data display
WO2016020630A2 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Waveguide laser illuminator incorporating a despeckler
US10670876B2 (en) 2011-08-24 2020-06-02 Digilens Inc. Waveguide laser illuminator incorporating a despeckler
CA3207408A1 (en) 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
WO2013067526A1 (en) 2011-11-04 2013-05-10 Remote TelePointer, LLC Method and system for user interface for interactive devices using a mobile device
WO2013102759A2 (en) 2012-01-06 2013-07-11 Milan Momcilo Popovich Contact image sensor using switchable bragg gratings
US8832092B2 (en) 2012-02-17 2014-09-09 Bottlenose, Inc. Natural language processing optimized for micro content
CN106125308B (zh) 2012-04-25 2019-10-25 罗克韦尔柯林斯公司 用于显示图像的装置和方法
WO2013167864A1 (en) 2012-05-11 2013-11-14 Milan Momcilo Popovich Apparatus for eye tracking
US10852093B2 (en) 2012-05-22 2020-12-01 Haptech, Inc. Methods and apparatuses for haptic systems
US9146069B2 (en) 2012-05-22 2015-09-29 Haptech, Inc. Method and apparatus for firearm recoil simulation
US9009126B2 (en) 2012-07-31 2015-04-14 Bottlenose, Inc. Discovering and ranking trending links about topics
US9141188B2 (en) 2012-10-05 2015-09-22 Elwha Llc Presenting an augmented view in response to acquisition of data inferring user activity
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US9077647B2 (en) * 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US9111383B2 (en) 2012-10-05 2015-08-18 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
US9933684B2 (en) * 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
JP6463598B2 (ja) * 2012-11-20 2019-02-06 三星電子株式会社Samsung Electronics Co.,Ltd. 着用式電子デバイスからのプロセッシングの委任
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US11237719B2 (en) * 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US20140198130A1 (en) * 2013-01-15 2014-07-17 Immersion Corporation Augmented reality user interface with haptic feedback
US9449340B2 (en) * 2013-01-30 2016-09-20 Wal-Mart Stores, Inc. Method and system for managing an electronic shopping list with gestures
KR20230173231A (ko) 2013-03-11 2023-12-26 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9547917B2 (en) 2013-03-14 2017-01-17 Paypay, Inc. Using augmented reality to determine information
US9639964B2 (en) 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
US10025486B2 (en) * 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
US9092954B2 (en) * 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
KR102560629B1 (ko) 2013-03-15 2023-07-26 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US10109075B2 (en) 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
US10209517B2 (en) 2013-05-20 2019-02-19 Digilens, Inc. Holographic waveguide eye tracker
US10905943B2 (en) 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US9727772B2 (en) 2013-07-31 2017-08-08 Digilens, Inc. Method and apparatus for contact image sensing
US9911231B2 (en) * 2013-10-08 2018-03-06 Samsung Electronics Co., Ltd. Method and computing device for providing augmented reality
IN2013CH04559A (ru) * 2013-10-08 2015-04-10 Samsung Electrinics Company
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US10430985B2 (en) 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US9677840B2 (en) * 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
US11138793B2 (en) 2014-03-14 2021-10-05 Magic Leap, Inc. Multi-depth plane display system with reduced switching between depth planes
CN103902983A (zh) * 2014-04-14 2014-07-02 夷希数码科技(上海)有限公司 一种穿戴式人脸识别方法及装置
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
EP3180676A4 (en) * 2014-06-17 2018-01-10 Osterhout Group, Inc. External user interface for head worn computing
WO2016007426A1 (en) * 2014-07-07 2016-01-14 Immersion Corporation Second screen haptics
WO2016020632A1 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Method for holographic mastering and replication
WO2016042283A1 (en) 2014-09-19 2016-03-24 Milan Momcilo Popovich Method and apparatus for generating input images for holographic waveguide displays
US10423222B2 (en) 2014-09-26 2019-09-24 Digilens Inc. Holographic waveguide optical tracker
KR102688893B1 (ko) 2014-09-29 2024-07-29 매직 립, 인코포레이티드 상이한 파장의 광을 도파관 밖으로 출력하기 위한 아키텍쳐 및 방법
WO2016054079A1 (en) 2014-09-29 2016-04-07 Zyomed Corp. Systems and methods for blood glucose and other analyte detection and measurement using collision computing
CN107635862B (zh) * 2014-11-28 2020-08-25 哈普技术公司 用于触觉系统的方法和装置
EP3245551B1 (en) 2015-01-12 2019-09-18 DigiLens Inc. Waveguide light field displays
CN107873086B (zh) 2015-01-12 2020-03-20 迪吉伦斯公司 环境隔离的波导显示器
JP6867947B2 (ja) 2015-01-20 2021-05-12 ディジレンズ インコーポレイテッド ホログラフィック導波路ライダー
US10725297B2 (en) * 2015-01-28 2020-07-28 CCP hf. Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US9852546B2 (en) 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US10726625B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
US9632226B2 (en) 2015-02-12 2017-04-25 Digilens Inc. Waveguide grating device
NZ773812A (en) 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
WO2016146963A1 (en) 2015-03-16 2016-09-22 Popovich, Milan, Momcilo Waveguide device incorporating a light pipe
WO2016156776A1 (en) 2015-03-31 2016-10-06 Milan Momcilo Popovich Method and apparatus for contact image sensing
IL295566B2 (en) 2015-06-15 2024-01-01 Magic Leap Inc Display system with optical components for coupling multiple light streams
US10492981B1 (en) 2015-07-17 2019-12-03 Bao Tran Systems and methods for computer assisted operation
US10149958B1 (en) 2015-07-17 2018-12-11 Bao Tran Systems and methods for computer assisted operation
US10176642B2 (en) 2015-07-17 2019-01-08 Bao Tran Systems and methods for computer assisted operation
US10335572B1 (en) 2015-07-17 2019-07-02 Naveen Kumar Systems and methods for computer assisted operation
US10685488B1 (en) 2015-07-17 2020-06-16 Naveen Kumar Systems and methods for computer assisted operation
US11481911B2 (en) 2015-08-18 2022-10-25 Magic Leap, Inc. Virtual and augmented reality systems and methods
EP3337383B1 (en) 2015-08-21 2024-10-16 Magic Leap, Inc. Eyelid shape estimation
JP6918781B2 (ja) 2015-08-21 2021-08-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. 眼ポーズ測定を用いた眼瞼形状推定
CA3169076A1 (en) 2015-09-16 2017-03-23 Magic Leap, Inc. Head pose mixing of audio files
JP6876683B2 (ja) 2015-09-23 2021-05-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 軸外イメージャを用いた眼の撮像
WO2017060665A1 (en) 2015-10-05 2017-04-13 Milan Momcilo Popovich Waveguide display
NZ741863A (en) 2015-10-16 2019-05-31 Magic Leap Inc Eye pose identification using eye features
AU2016341196B2 (en) 2015-10-20 2021-09-16 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space
WO2017079329A1 (en) 2015-11-04 2017-05-11 Magic Leap, Inc. Dynamic display calibration based on eye-tracking
US11231544B2 (en) 2015-11-06 2022-01-25 Magic Leap, Inc. Metasurfaces for redirecting light and methods for fabricating
US12087448B2 (en) 2015-11-16 2024-09-10 Cognifisense, Inc. Representation of symptom alleviation
WO2017087567A1 (en) 2015-11-16 2017-05-26 Cognifisense, Inc. Representation of symptom alleviation
RU2606874C1 (ru) * 2015-12-02 2017-01-10 Виталий Витальевич Аверьянов Способ управления устройством формирования среды дополненной реальности
JP6894904B2 (ja) 2016-01-07 2021-06-30 マジック リープ, インコーポレイテッドMagic Leap,Inc. 深度平面にわたって分配される等しくない数の成分色画像を有する仮想および拡張現実システムおよび方法
EP3405829A4 (en) 2016-01-19 2019-09-18 Magic Leap, Inc. COLLECTION, SELECTION AND COMBINATION OF EYE IMAGES
CN118605029A (zh) 2016-01-19 2024-09-06 奇跃公司 利用映像的增强现实系统和方法
CN114063311A (zh) 2016-01-29 2022-02-18 奇跃公司 三维图像的显示
WO2017134412A1 (en) 2016-02-04 2017-08-10 Milan Momcilo Popovich Holographic waveguide optical tracker
IL261102B2 (en) 2016-02-24 2023-10-01 Magic Leap Inc Low profile connection for light emitter
JP6898938B2 (ja) 2016-02-24 2021-07-07 マジック リープ, インコーポレイテッドMagic Leap,Inc. 低光漏出を伴う偏光ビームスプリッタ
CA3014821A1 (en) 2016-02-26 2017-08-31 Magic Leap, Inc. Light output system with reflector and lens for highly spatially uniform light output
CN114002844A (zh) 2016-02-26 2022-02-01 奇跃公司 具有用于多个光发射器的多个光管的显示系统
KR20180117181A (ko) 2016-03-01 2018-10-26 매직 립, 인코포레이티드 상이한 파장들의 광을 도파관들로 입력하기 위한 반사성 스위칭 디바이스
KR20230109789A (ko) 2016-03-04 2023-07-20 매직 립, 인코포레이티드 Ar/vr 디스플레이 시스템들에서의 전류 드레인 감소
JP6920329B2 (ja) 2016-03-07 2021-08-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. バイオメトリックセキュリティのための青色光調節
US10783835B2 (en) * 2016-03-11 2020-09-22 Lenovo (Singapore) Pte. Ltd. Automatic control of display brightness
AU2017236782B2 (en) 2016-03-22 2021-01-28 Magic Leap, Inc. Head mounted display system configured to exchange biometric information
JP6895451B2 (ja) 2016-03-24 2021-06-30 ディジレンズ インコーポレイテッド 偏光選択ホログラフィー導波管デバイスを提供するための方法および装置
WO2017165848A1 (en) 2016-03-25 2017-09-28 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9554738B1 (en) 2016-03-30 2017-01-31 Zyomed Corp. Spectroscopic tomography systems and methods for noninvasive detection and measurement of analytes using collision computing
KR20230098927A (ko) 2016-03-31 2023-07-04 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들
EP4273615A3 (en) 2016-04-08 2024-01-17 Magic Leap, Inc. Augmented reality systems and methods with variable focus lens elements
EP3433658B1 (en) 2016-04-11 2023-08-09 DigiLens, Inc. Holographic waveguide apparatus for structured light projection
DE102016106993A1 (de) 2016-04-15 2017-10-19 Carl Zeiss Microscopy Gmbh Steuer- und Konfiguriereinheit sowie Verfahren zum Steuern und Konfigurieren eines Mikroskops
US10380800B2 (en) * 2016-04-18 2019-08-13 Disney Enterprises, Inc. System and method for linking and interacting between augmented reality and virtual reality environments
KR102666960B1 (ko) 2016-04-21 2024-05-17 매직 립, 인코포레이티드 시야 주위의 시각적 아우라
US10261162B2 (en) 2016-04-26 2019-04-16 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US10025376B2 (en) 2016-04-27 2018-07-17 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
EP3650994A1 (en) * 2016-04-27 2020-05-13 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
US10046229B2 (en) 2016-05-02 2018-08-14 Bao Tran Smart device
RU2626867C1 (ru) * 2016-05-05 2017-08-02 Элдар Али Оглы Разроев Система для организации развлекательных, образовательных и/или рекламных мероприятий
CN109476175B (zh) 2016-05-06 2021-07-30 奇跃公司 具有用于重定向光的非对称光栅的超表面及其制造方法
KR102450362B1 (ko) 2016-05-09 2022-10-04 매직 립, 인코포레이티드 사용자 건강 분석을 위한 증강 현실 시스템들 및 방법들
KR20240027162A (ko) 2016-05-12 2024-02-29 매직 립, 인코포레이티드 이미징 도파관을 통해 분배된 광 조작
CN109496331B (zh) 2016-05-20 2022-06-21 奇跃公司 用户界面菜单的情景感知
WO2017210419A1 (en) 2016-06-03 2017-12-07 Magic Leaf, Inc. Augmented reality identity verification
EP3865767B1 (en) 2016-06-10 2024-03-13 Magic Leap, Inc. Integrated point source for texture projecting bulb
KR102491130B1 (ko) 2016-06-20 2023-01-19 매직 립, 인코포레이티드 시각적 프로세싱 및 지각 상태들을 포함하는 신경학적 상태들의 평가 및 수정을 위한 증강 현실 디스플레이 시스템
US10037077B2 (en) 2016-06-21 2018-07-31 Disney Enterprises, Inc. Systems and methods of generating augmented reality experiences
NZ749449A (en) 2016-06-30 2023-06-30 Magic Leap Inc Estimating pose in 3d space
WO2018013200A1 (en) 2016-07-14 2018-01-18 Magic Leap, Inc. Deep neural network for iris identification
CN109661194B (zh) 2016-07-14 2022-02-25 奇跃公司 使用角膜曲率的虹膜边界估计
IL298851B2 (en) 2016-07-25 2023-12-01 Magic Leap Inc Change, display and visualization of imaging using augmented and virtual reality glasses
KR102520143B1 (ko) 2016-07-25 2023-04-11 매직 립, 인코포레이티드 광 필드 프로세서 시스템
CN110383756B (zh) 2016-07-29 2023-06-09 奇跃公司 加密签名记录的安全交换
IL310337A (en) 2016-08-11 2024-03-01 Magic Leap Inc Automatic positioning of a virtual object in 3D space
KR20230167452A (ko) 2016-08-12 2023-12-08 매직 립, 인코포레이티드 단어 흐름 주석
WO2018039277A1 (en) 2016-08-22 2018-03-01 Magic Leap, Inc. Diffractive eyepiece
KR102529137B1 (ko) 2016-08-22 2023-05-03 매직 립, 인코포레이티드 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스
CA3036208A1 (en) 2016-09-13 2018-03-22 Magic Leap, Inc. Sensory eyewear
CN112987303A (zh) 2016-09-21 2021-06-18 奇跃公司 用于具有出瞳扩展器的光学系统的系统和方法
KR20210072157A (ko) 2016-09-22 2021-06-16 매직 립, 인코포레이티드 증강 현실 분광기
CA3036709A1 (en) 2016-09-26 2018-03-29 Magic Leap, Inc. Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system
AU2017335736B2 (en) 2016-09-28 2022-08-11 Magic Leap, Inc. Face model capture by a wearable device
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
IL293688B2 (en) 2016-10-04 2024-02-01 Magic Leap Inc Efficient data layouts for convolutional neural networks
KR102402467B1 (ko) 2016-10-05 2022-05-25 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
US10514769B2 (en) * 2016-10-16 2019-12-24 Dell Products, L.P. Volumetric tracking for orthogonal displays in an electronic collaboration setting
IL311451A (en) 2016-10-21 2024-05-01 Magic Leap Inc System and method for displaying image content on multiple depth planes by providing multiple intrapupillary parallax fields of view
JP6913164B2 (ja) 2016-11-11 2021-08-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. 完全な顔画像の眼球周囲およびオーディオ合成
WO2018093796A1 (en) 2016-11-15 2018-05-24 Magic Leap, Inc. Deep learning system for cuboid detection
IL266595B (en) 2016-11-16 2022-08-01 Magic Leap Inc Thermal management systems for wearable components
US11067860B2 (en) 2016-11-18 2021-07-20 Magic Leap, Inc. Liquid crystal diffractive devices with nano-scale pattern and methods of manufacturing the same
CN110192146B (zh) 2016-11-18 2022-09-23 奇跃公司 空间可变液晶衍射光栅
WO2018094096A1 (en) 2016-11-18 2018-05-24 Magic Leap, Inc. Multilayer liquid crystal diffractive gratings for redirecting light of wide incident angle ranges
EP3542213A4 (en) 2016-11-18 2020-10-07 Magic Leap, Inc. WAVE GUIDE LIGHT MULTIPLEXER USING CROSSED GRIDS
CN109564706B (zh) * 2016-12-01 2023-03-10 英特吉姆股份有限公司 基于智能交互式增强现实的用户交互平台
EP3548939A4 (en) 2016-12-02 2020-11-25 DigiLens Inc. UNIFORM OUTPUT LIGHTING WAVEGUIDE DEVICE
US10531220B2 (en) 2016-12-05 2020-01-07 Magic Leap, Inc. Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
IL266888B2 (en) 2016-12-05 2024-05-01 Magic Leap Inc Virtual user input controls in a mixed reality environment
CN110249256B (zh) 2016-12-08 2023-03-03 奇跃公司 基于胆甾型液晶的衍射装置
US11559228B2 (en) 2016-12-13 2023-01-24 Magic Leap, Inc. Augmented and virtual reality eyewear, systems, and methods for delivering polarized light and determining glucose levels
WO2018111895A1 (en) 2016-12-13 2018-06-21 Magic Leap, Inc. 3d object rendering using detected features
EP3555700B1 (en) 2016-12-14 2023-09-13 Magic Leap, Inc. Patterning of liquid crystals using soft-imprint replication of surface alignment patterns
US10371896B2 (en) 2016-12-22 2019-08-06 Magic Leap, Inc. Color separation in planar waveguides using dichroic filters
WO2018119276A1 (en) 2016-12-22 2018-06-28 Magic Leap, Inc. Systems and methods for manipulating light from ambient light sources
US10746999B2 (en) 2016-12-28 2020-08-18 Magic Leap, Inc. Dual depth exit pupil expander
US11138436B2 (en) 2016-12-29 2021-10-05 Magic Leap, Inc. Automatic control of wearable display device based on external conditions
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US10545346B2 (en) 2017-01-05 2020-01-28 Digilens Inc. Wearable heads up displays
EP4122897A1 (en) 2017-01-05 2023-01-25 Magic Leap, Inc. Patterning of high refractive index glasses by plasma etching
KR102662173B1 (ko) 2017-01-11 2024-04-30 매직 립, 인코포레이티드 의료 보조기
CN115586652A (zh) 2017-01-23 2023-01-10 奇跃公司 用于虚拟、增强或混合现实系统的目镜
US10841724B1 (en) 2017-01-24 2020-11-17 Ha Tran Enhanced hearing system
AU2018212570B2 (en) 2017-01-27 2023-03-16 Magic Leap, Inc. Antireflection coatings for metasurfaces
KR20240074923A (ko) 2017-01-27 2024-05-28 매직 립, 인코포레이티드 상이하게 배향된 나노빔들을 갖는 메타표면들에 의해 형성된 회절 격자
US11347054B2 (en) 2017-02-16 2022-05-31 Magic Leap, Inc. Systems and methods for augmented reality
EP4328865A3 (en) 2017-02-23 2024-06-05 Magic Leap, Inc. Variable-focus virtual image devices based on polarization conversion
AU2018234409B2 (en) 2017-03-14 2022-06-30 Magic Leap, Inc. Waveguides with light absorbing films and processes for forming the same
CA3055597A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Room layout estimation methods and techniques
IL269289B2 (en) 2017-03-21 2024-10-01 Magic Leap Inc Low profile beam splitter
KR102493992B1 (ko) 2017-03-21 2023-01-30 매직 립, 인코포레이티드 가상, 증강 및 혼합 현실 시스템들을 위한 깊이 감지 기술
WO2018175653A1 (en) 2017-03-21 2018-09-27 Magic Leap, Inc. Display system with spatial light modulator illumination for divided pupils
WO2018175488A1 (en) 2017-03-21 2018-09-27 Magic Leap, Inc. Stacked waveguides having different diffraction gratings for combined field of view
IL269290B2 (en) 2017-03-21 2024-09-01 Magic Leap Inc Methods, devices and systems for illuminating spatial light modulators
AU2018239264B2 (en) 2017-03-21 2023-05-18 Magic Leap, Inc. Eye-imaging apparatus using diffractive optical elements
CA3057109A1 (en) 2017-03-22 2018-09-27 Magic Leap, Inc. Depth based foveated rendering for display systems
AU2018256202A1 (en) 2017-04-18 2019-11-07 Magic Leap, Inc. Waveguides having reflective layers formed by reflective flowable materials
KR102652922B1 (ko) 2017-04-19 2024-03-29 매직 립, 인코포레이티드 웨어러블 시스템을 위한 멀티모달 임무 실행 및 텍스트 편집
US11163416B2 (en) 2017-04-27 2021-11-02 Magic Leap, Inc. Light-emitting user input device for calibration or pairing
US20180349837A1 (en) * 2017-05-19 2018-12-06 Hcl Technologies Limited System and method for inventory management within a warehouse
JP2020521217A (ja) 2017-05-19 2020-07-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード
IL270564B (en) 2017-05-22 2022-07-01 Magic Leap Inc Pairing with a companion device
IL311011A (en) 2017-05-30 2024-04-01 Magic Leap Inc Power supply assembly with fan assembly for an electronic device
CN110945405B (zh) 2017-05-31 2024-01-02 奇跃公司 眼睛跟踪校准技术
AU2018284089B2 (en) 2017-06-12 2022-12-15 Magic Leap, Inc. Augmented reality display having multi-element adaptive lens for changing depth planes
EP3616035B1 (en) 2017-06-19 2024-04-24 Apple Inc. Augmented reality interface for interacting with displayed maps
US10908680B1 (en) 2017-07-12 2021-02-02 Magic Leap, Inc. Pose estimation using electromagnetic tracking
IL271929B (en) 2017-07-26 2022-07-01 Magic Leap Inc Neural network training with displays of user interface devices
US11138915B2 (en) 2017-07-28 2021-10-05 Magic Leap, Inc. Fan assembly for displaying an image
CN111629653B (zh) 2017-08-23 2024-06-21 神经股份有限公司 具有高速眼睛跟踪特征的大脑-计算机接口
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
WO2019055679A1 (en) 2017-09-13 2019-03-21 Lahood Edward Rashid METHOD, APPARATUS, AND COMPUTER-READABLE MEDIA FOR DISPLAYING INCREASED REALITY INFORMATION
AU2018337653A1 (en) 2017-09-20 2020-01-16 Magic Leap, Inc. Personalized neural network for eye tracking
AU2018338222A1 (en) 2017-09-21 2020-03-19 Magic Leap, Inc. Augmented reality display with waveguide configured to capture images of eye and/or environment
US11231581B2 (en) 2017-09-27 2022-01-25 Magic Leap, Inc. Near eye 3D display with separate phase and amplitude modulators
US10777007B2 (en) 2017-09-29 2020-09-15 Apple Inc. Cooperative augmented reality map interface
CA3077455A1 (en) 2017-10-11 2019-04-18 Magic Leap, Inc. Augmented reality display comprising eyepiece having a transparent emissive display
EP3698214A4 (en) 2017-10-16 2021-10-27 Digilens Inc. SYSTEMS AND METHODS FOR MULTIPLICATION OF THE IMAGE RESOLUTION OF A PIXELIZED DISPLAY
KR20200074172A (ko) 2017-10-26 2020-06-24 매직 립, 인코포레이티드 액정 가변 초점 엘리먼트를 갖는 증강 현실 디스플레이 그리고 이를 형성하기 위한 롤투롤 방법 및 장치
CN111373419A (zh) 2017-10-26 2020-07-03 奇跃公司 用于深度多任务网络中自适应损失平衡的梯度归一化系统和方法
CA3079221A1 (en) 2017-10-26 2019-05-02 Magic Leap, Inc. Broadband adaptive lens assembly for augmented reality display
WO2019084325A1 (en) 2017-10-27 2019-05-02 Magic Leap, Inc. VIRTUAL RETICLE FOR INCREASED REALITY SYSTEMS
WO2019094953A1 (en) 2017-11-13 2019-05-16 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
AU2018368279A1 (en) 2017-11-14 2020-05-14 Magic Leap, Inc. Meta-learning for multi-task learning for neural networks
JP7225233B2 (ja) 2017-12-11 2023-02-20 マジック リープ, インコーポレイテッド 導波管照明器
EP3724855A4 (en) 2017-12-14 2022-01-12 Magic Leap, Inc. CONTEXT-BASED REPRESENTATION OF VIRTUAL AVATARS
EP3724713A4 (en) 2017-12-15 2021-08-25 Magic Leap, Inc. IMPROVED ITEM DETERMINATION FOR A DISPLAY DEVICE
CA3084011C (en) 2017-12-15 2024-06-11 Magic Leap, Inc. Eyepieces for augmented reality display system
CA3085459A1 (en) 2018-01-04 2019-07-11 Magic Leap, Inc. Optical elements based on polymeric structures incorporating inorganic materials
WO2019136476A1 (en) 2018-01-08 2019-07-11 Digilens, Inc. Waveguide architectures and related methods of manufacturing
JP7404243B2 (ja) 2018-01-08 2023-12-25 ディジレンズ インコーポレイテッド 導波管セル内のホログラフィック格子の高スループット記録のためのシステムおよび方法
KR20200104402A (ko) 2018-01-08 2020-09-03 디지렌즈 인코포레이티드. 도파관 셀을 제조하기 위한 시스템 및 방법
AU2019209950A1 (en) 2018-01-17 2020-07-09 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
CA3087333A1 (en) 2018-01-17 2019-07-25 Magic Leap, Inc. Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
CN111712192B (zh) 2018-01-18 2024-07-02 神经股份有限公司 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US11210826B2 (en) 2018-02-02 2021-12-28 Disney Enterprises, Inc. Systems and methods to provide artificial intelligence experiences
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
EP3759693A4 (en) 2018-02-27 2021-11-24 Magic Leap, Inc. MESH PAIRING FOR VIRTUAL AVATARS
EP3759542B1 (en) 2018-02-28 2023-03-29 Magic Leap, Inc. Head scan alignment using ocular registration
JP7303818B2 (ja) 2018-03-05 2023-07-05 マジック リープ, インコーポレイテッド 低遅延瞳孔トラッカーを伴うディスプレイシステム
CA3090818A1 (en) 2018-03-07 2019-09-12 Magic Leap, Inc. Adaptive lens assemblies including polarization-selective lens stacks for augmented reality display
AU2019231697B2 (en) 2018-03-07 2020-01-30 Magic Leap, Inc. Visual tracking of peripheral devices
EP3765892A4 (en) 2018-03-12 2021-12-15 Magic Leap, Inc. AD BASED ON KIPPARRAY
WO2019178409A1 (en) 2018-03-14 2019-09-19 Magic Leap, Inc. Display systems and methods for clipping content to increase viewing comfort
US11430169B2 (en) 2018-03-15 2022-08-30 Magic Leap, Inc. Animating virtual avatar facial movements
EP3766004A4 (en) 2018-03-16 2021-12-15 Magic Leap, Inc. FACIAL EXPRESSIONS OBTAINED FROM EYE-TRACKING CAMERAS
CN112136094A (zh) 2018-03-16 2020-12-25 奇跃公司 用于显示系统的基于深度的凹式渲染
EP4372451A3 (en) 2018-03-16 2024-08-14 Digilens Inc. Holographic waveguides incorporating birefringence control and methods for their fabrication
WO2019183399A1 (en) 2018-03-21 2019-09-26 Magic Leap, Inc. Augmented reality system and method for spectroscopic analysis
WO2019195193A1 (en) 2018-04-02 2019-10-10 Magic Leap, Inc. Waveguides having integrated spacers, waveguides having edge absorbers, and methods for making the same
US11460609B2 (en) 2018-04-02 2022-10-04 Magic Leap, Inc. Hybrid polymer waveguide and methods for making the same
CN112119334A (zh) 2018-04-02 2020-12-22 奇跃公司 具有集成光学元件的波导及其制造方法
US11276219B2 (en) 2018-04-16 2022-03-15 Magic Leap, Inc. Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
WO2019204765A1 (en) 2018-04-19 2019-10-24 Magic Leap, Inc. Systems and methods for operating a display system based on user perceptibility
US10789753B2 (en) 2018-04-23 2020-09-29 Magic Leap, Inc. Avatar facial expression representation in multidimensional space
US11257268B2 (en) 2018-05-01 2022-02-22 Magic Leap, Inc. Avatar animation using Markov decision process policies
US11308673B2 (en) 2018-05-03 2022-04-19 Magic Leap, Inc. Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character
US12020167B2 (en) 2018-05-17 2024-06-25 Magic Leap, Inc. Gradient adversarial training of neural networks
WO2019226494A1 (en) 2018-05-21 2019-11-28 Magic Leap, Inc. Generating textured polygon strip hair from strand-based hair for a virtual character
WO2019226549A1 (en) 2018-05-22 2019-11-28 Magic Leap, Inc. Computer generated hair groom transfer tool
EP3797345A4 (en) 2018-05-22 2022-03-09 Magic Leap, Inc. TRANSMODAL INPUT FUSION FOR A BODY WEARABLE SYSTEM
CN112437950A (zh) 2018-05-22 2021-03-02 奇跃公司 用于对虚拟头像制作动画的骨架系统
WO2019226865A1 (en) 2018-05-25 2019-11-28 Magic Leap, Inc. Compression of dynamic unstructured point clouds
US12087022B2 (en) 2018-06-01 2024-09-10 Magic Leap, Inc. Compression of dynamic unstructured point clouds
US11157159B2 (en) 2018-06-07 2021-10-26 Magic Leap, Inc. Augmented reality scrollbar
CN112567289A (zh) 2018-06-15 2021-03-26 奇跃公司 宽视场偏振开关和制造具有预倾斜的液晶光学元件的方法
JP7336470B2 (ja) 2018-06-15 2023-08-31 マジック リープ, インコーポレイテッド プレチルト角を伴う液晶光学要素を用いた広視野偏光スイッチ
WO2019246044A1 (en) 2018-06-18 2019-12-26 Magic Leap, Inc. Head-mounted display systems with power saving functionality
JP7378431B2 (ja) 2018-06-18 2023-11-13 マジック リープ, インコーポレイテッド フレーム変調機能性を伴う拡張現実ディスプレイ
US11694435B2 (en) 2018-06-18 2023-07-04 Magic Leap, Inc. Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device
WO2020005757A1 (en) 2018-06-26 2020-01-02 Magic Leap, Inc. Waypoint creation in map detection
EP3818530A4 (en) 2018-07-02 2022-03-30 Magic Leap, Inc. METHODS AND SYSTEMS FOR INTERPOLATION OF VARIOUS INPUTS
US11106033B2 (en) 2018-07-05 2021-08-31 Magic Leap, Inc. Waveguide-based illumination for head mounted display system
US11966055B2 (en) 2018-07-19 2024-04-23 Magic Leap, Inc. Content interaction driven by eye metrics
WO2020023303A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Coexistence interference avoidance between two different radios operating in the same band
CN112513944A (zh) 2018-07-23 2021-03-16 奇跃公司 用于头部姿势预测的深度预测器循环神经网络
EP3827585A4 (en) 2018-07-24 2022-04-27 Magic Leap, Inc. DISPLAY SYSTEMS AND METHODS FOR DETERMINING THE VERTICAL ALIGNMENT BETWEEN LEFT AND RIGHT DISPLAYS AND A USER'S EYES
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
USD918176S1 (en) 2018-07-24 2021-05-04 Magic Leap, Inc. Totem controller having an illumination region
USD924204S1 (en) 2018-07-24 2021-07-06 Magic Leap, Inc. Totem controller having an illumination region
WO2020023404A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Flicker mitigation when toggling eyepiece display illumination in augmented reality systems
USD930614S1 (en) 2018-07-24 2021-09-14 Magic Leap, Inc. Totem controller having an illumination region
WO2020023491A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Thermal management system for electronic device
CN112703437A (zh) 2018-07-24 2021-04-23 奇跃公司 具有减轻反弹引起的光损失的衍射光学元件以及相关的系统和方法
US11402801B2 (en) 2018-07-25 2022-08-02 Digilens Inc. Systems and methods for fabricating a multilayer optical structure
JP7459050B2 (ja) 2018-07-27 2024-04-01 マジック リープ, インコーポレイテッド 仮想キャラクタの姿勢空間変形のための姿勢空間次元低減
US11468640B2 (en) 2018-08-03 2022-10-11 Magic Leap, Inc. Depth plane selection for multi-depth plane display systems by user categorization
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
USD934872S1 (en) 2018-09-18 2021-11-02 Magic Leap, Inc. Mobile computing support system having an illumination region
USD955396S1 (en) 2018-09-18 2022-06-21 Magic Leap, Inc. Mobile computing support system having an illumination region
USD934873S1 (en) 2018-09-18 2021-11-02 Magic Leap, Inc. Mobile computing support system having an illumination region
USD950567S1 (en) 2018-09-18 2022-05-03 Magic Leap, Inc. Mobile computing support system having an illumination region
US10664050B2 (en) 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
WO2020069026A1 (en) 2018-09-26 2020-04-02 Magic Leap, Inc. Diffractive optical elements with optical power
US12050318B2 (en) 2018-09-26 2024-07-30 Magic Leap, Inc. Eyewear with pinhole and slit cameras
CN113227879A (zh) 2018-10-26 2021-08-06 奇跃公司 用于电磁跟踪的环境电磁失真校正
EP3857324B1 (en) * 2018-10-29 2022-09-14 Siemens Aktiengesellschaft Dynamically refining markers in an autonomous world model
JP7389116B2 (ja) 2018-11-15 2023-11-29 マジック リープ, インコーポレイテッド 深層ニューラルネットワーク姿勢推定システム
JP2022509083A (ja) 2018-11-20 2022-01-20 マジック リープ, インコーポレイテッド 拡張現実ディスプレイシステムのための接眼レンズ
US11132841B2 (en) * 2018-11-30 2021-09-28 Facebook Technologies, Llc Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service
CN113330390A (zh) 2018-11-30 2021-08-31 奇跃公司 用于化身运动的多模态手的位置和取向
JP7539386B2 (ja) 2018-12-28 2024-08-23 マジック リープ, インコーポレイテッド 左眼および右眼のための共有ディスプレイを伴う拡張および仮想現実ディスプレイシステム
CN113490873A (zh) 2018-12-28 2021-10-08 奇跃公司 带有机械致动图像投影仪的可变像素密度显示系统
CN113614783A (zh) 2019-01-25 2021-11-05 奇跃公司 使用具有不同曝光时间的图像的眼睛跟踪
JP2022523076A (ja) 2019-02-01 2022-04-21 マジック リープ, インコーポレイテッド 直列内部結合光学要素
KR20200098034A (ko) * 2019-02-11 2020-08-20 삼성전자주식회사 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법
EP3924759A4 (en) 2019-02-15 2022-12-28 Digilens Inc. METHODS AND APPARATUS FOR MAKING A HOLOGRAPHIC WAVEGUIDE DISPLAY WITH INTEGRATED GRIDINGS
EP3931625B1 (en) 2019-02-28 2024-09-18 Magic Leap, Inc. Display system and method for providing variable accommodation cues using multiple intra-pupil parallax views formed by light emitter arrays
US11133993B2 (en) 2019-02-28 2021-09-28 At&T Intellectual Property I, L.P. Augmented/mixed reality virtual venue pipeline optimization
JP2022525165A (ja) 2019-03-12 2022-05-11 ディジレンズ インコーポレイテッド ホログラフィック導波管バックライトおよび関連する製造方法
EP3938824A4 (en) 2019-03-12 2022-11-23 Magic Leap, Inc. WAVEGUIDES WITH HIGH REFRESHING INDEX MATERIALS AND METHOD FOR THEIR MANUFACTURE
EP4439156A2 (en) 2019-03-12 2024-10-02 Magic Leap, Inc. Method of fabricating display device having patterned lithium-based transition metal oxide
JP2022525922A (ja) 2019-03-20 2022-05-20 マジック リープ, インコーポレイテッド 光を収集するためのシステム
WO2020191170A1 (en) 2019-03-20 2020-09-24 Magic Leap, Inc. System for providing illumination of the eye
WO2020214272A1 (en) 2019-04-15 2020-10-22 Magic Leap, Inc. Sensor fusion for electromagnetic tracking
JP7423659B2 (ja) 2019-05-20 2024-01-29 マジック リープ, インコーポレイテッド 眼姿勢を推定するためのシステムおよび技法
CN111973979A (zh) * 2019-05-23 2020-11-24 明日基金知识产权控股有限公司 经由持久性虚拟世界系统对现实世界进行实况管理
WO2020243014A1 (en) 2019-05-24 2020-12-03 Magic Leap, Inc. Variable focus assemblies
WO2020243169A1 (en) 2019-05-28 2020-12-03 Magic Leap, Inc. Thermal management system for portable electronic devices
USD962981S1 (en) 2019-05-29 2022-09-06 Magic Leap, Inc. Display screen or portion thereof with animated scrollbar graphical user interface
WO2020247930A1 (en) 2019-06-07 2020-12-10 Digilens Inc. Waveguides incorporating transmissive and reflective gratings and related methods of manufacturing
CN112102498A (zh) * 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 用于将应用虚拟地附接到动态对象并实现与动态对象的交互的系统和方法
WO2020257469A1 (en) 2019-06-20 2020-12-24 Magic Leap, Inc. Eyepieces for augmented reality display system
JP7311643B2 (ja) 2019-06-21 2023-07-19 マジック リープ, インコーポレイテッド モード式ウィンドウを介したセキュアな認可
CN114341687A (zh) 2019-06-24 2022-04-12 奇跃公司 具有集成间隔物的波导及相关系统和方法
CN114026875A (zh) 2019-06-25 2022-02-08 索尼集团公司 信息处理装置、信息处理方法、再现处理装置和再现处理方法
US11029805B2 (en) 2019-07-10 2021-06-08 Magic Leap, Inc. Real-time preview of connectable objects in a physically-modeled virtual space
US11868525B2 (en) 2019-07-16 2024-01-09 Magic Leap, Inc. Eye center of rotation determination with one or more eye tracking cameras
WO2021016045A1 (en) 2019-07-19 2021-01-28 Magic Leap, Inc. Display device having diffraction gratings with reduced polarization sensitivity
US11460616B2 (en) 2019-07-19 2022-10-04 Magic Leap, Inc. Method of fabricating diffraction gratings
US11681143B2 (en) 2019-07-29 2023-06-20 Digilens Inc. Methods and apparatus for multiplying the image resolution and field-of-view of a pixelated display
JP2022544067A (ja) 2019-07-31 2022-10-17 マジック リープ, インコーポレイテッド 分散型台帳を使用した拡張現実のためのユーザデータ管理
US11763191B2 (en) * 2019-08-20 2023-09-19 The Calany Holding S. À R.L. Virtual intelligence and optimization through multi-source, real-time, and context-aware real-world data
JP7306162B2 (ja) * 2019-08-28 2023-07-11 大日本印刷株式会社 サーバ、再生デバイス、コンテンツ再生システム、コンテンツ再生方法、及びプログラム
EP4022370A4 (en) 2019-08-29 2023-08-30 Digilens Inc. VACUUM BRAGG GRATINGS AND METHODS OF MANUFACTURING
JP7420926B2 (ja) 2019-09-11 2024-01-23 マジック リープ, インコーポレイテッド 低減された偏光感度を有する回折格子を伴うディスプレイデバイス
US11176757B2 (en) 2019-10-02 2021-11-16 Magic Leap, Inc. Mission driven virtual character for user interaction
US11276246B2 (en) 2019-10-02 2022-03-15 Magic Leap, Inc. Color space mapping for intuitive surface normal visualization
KR102128894B1 (ko) * 2019-10-10 2020-07-01 주식회사 메디씽큐 스마트 안경의 시선 트래킹 시스템 및 그 방법
WO2021092068A1 (en) 2019-11-08 2021-05-14 Magic Leap, Inc. Metasurfaces with light-redirecting structures including multiple materials and methods for fabricating
US11493989B2 (en) 2019-11-08 2022-11-08 Magic Leap, Inc. Modes of user interaction
USD982593S1 (en) 2019-11-08 2023-04-04 Magic Leap, Inc. Portion of a display screen with animated ray
JP2023503257A (ja) 2019-11-18 2023-01-27 マジック リープ, インコーポレイテッド パス可能世界のマッピングおよび位置特定
JP7494297B2 (ja) 2019-11-22 2024-06-03 マジック リープ, インコーポレイテッド 液晶層をパターン化するための方法およびシステム
US12094139B2 (en) 2019-11-22 2024-09-17 Magic Leap, Inc. Systems and methods for enhanced depth determination using projection spots
US11681362B2 (en) 2019-11-26 2023-06-20 Magic Leap, Inc. Enhanced eye tracking for augmented or virtual reality display systems
CN114761183B (zh) 2019-12-03 2024-07-16 西门子股份公司 用于为机器人系统开发神经技能的计算机化工程工具和方法
EP4070538A4 (en) 2019-12-06 2023-11-29 Magic Leap, Inc. CODING A STEREO HOME SCREEN INTO A STATIC IMAGE
US11442593B2 (en) 2019-12-06 2022-09-13 Magic Leap, Inc. Dynamic browser stage
USD941307S1 (en) 2019-12-09 2022-01-18 Magic Leap, Inc. Portion of a display screen with graphical user interface for guiding graphics
USD940748S1 (en) 2019-12-09 2022-01-11 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD941353S1 (en) 2019-12-09 2022-01-18 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD940189S1 (en) 2019-12-09 2022-01-04 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD940749S1 (en) 2019-12-09 2022-01-11 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD952673S1 (en) 2019-12-09 2022-05-24 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
US11288876B2 (en) 2019-12-13 2022-03-29 Magic Leap, Inc. Enhanced techniques for volumetric stage mapping based on calibration object
EP3846008A1 (en) * 2019-12-30 2021-07-07 TMRW Foundation IP SARL Method and system for enabling enhanced user-to-user communication in digital realities
CN115380236A (zh) 2020-01-24 2022-11-22 奇跃公司 使用单个控制器的内容移动和交互
US11340695B2 (en) 2020-01-24 2022-05-24 Magic Leap, Inc. Converting a 2D positional input into a 3D point in space
EP4097564A4 (en) 2020-01-27 2024-02-14 Magic Leap, Inc. LOOK TIMER BASED EXPANSION OF THE FUNCTIONALITY OF A USER INPUT DEVICE
US11756509B2 (en) 2020-01-27 2023-09-12 Magic Leap, Inc. Enhanced state control for anchor-based cross reality applications
USD948574S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with a set of avatars
USD936704S1 (en) 2020-01-27 2021-11-23 Magic Leap, Inc. Portion of a display screen with avatar
USD948562S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with avatar
USD949200S1 (en) 2020-01-27 2022-04-19 Magic Leap, Inc. Portion of a display screen with a set of avatars
CN115023738A (zh) 2020-01-27 2022-09-06 奇跃公司 中性化身
EP4097711A4 (en) 2020-01-27 2024-01-24 Magic Leap, Inc. CURATION OF AN AUGMENTED REALITY MAP
EP4097532A4 (en) 2020-01-31 2024-02-21 Magic Leap, Inc. AUGMENTED REALITY AND VIRTUAL REALITY DISPLAY SYSTEMS FOR OCULOMETRICAL ASSESSMENTS
CN115087905A (zh) 2020-02-10 2022-09-20 奇跃公司 在混合现实环境中相对于三维容器的以身体为中心的内容定位
US11709363B1 (en) 2020-02-10 2023-07-25 Avegant Corp. Waveguide illumination of a spatial light modulator
CN115398894A (zh) 2020-02-14 2022-11-25 奇跃公司 用于虚拟和增强现实显示系统的虚拟对象运动速度曲线
US11664194B2 (en) 2020-02-26 2023-05-30 Magic Leap, Inc. Procedural electron beam lithography
EP4111293A4 (en) 2020-02-27 2023-09-06 Magic Leap, Inc. MIXED REALITY SYSTEM FOR LARGE-SCALE ENVIRONMENT RECONSTRUCTION
WO2021174062A1 (en) 2020-02-28 2021-09-02 Magic Leap, Inc. Method of fabricating molds for forming eyepieces with integrated spacers
US11262588B2 (en) 2020-03-10 2022-03-01 Magic Leap, Inc. Spectator view of virtual and physical objects
WO2021188926A1 (en) 2020-03-20 2021-09-23 Magic Leap, Inc. Systems and methods for retinal imaging and tracking
WO2021195283A1 (en) 2020-03-25 2021-09-30 Magic Leap, Inc. Optical device with one-way mirror
JP2023520461A (ja) 2020-04-03 2023-05-17 マジック リープ, インコーポレイテッド ナノワイヤledマイクロディスプレイを伴うウェアラブルディスプレイシステム
US11348300B2 (en) 2020-04-03 2022-05-31 Magic Leap, Inc. Avatar customization for optimal gaze discrimination
US11543666B2 (en) 2020-05-22 2023-01-03 Magic Leap, Inc. Augmented and virtual reality display systems with correlated in-coupling and out-coupling optical regions for efficient light utilization in at least one waveguide
JP2023529606A (ja) 2020-06-05 2023-07-11 マジック リープ, インコーポレイテッド 画像のニューラルネットワーク分析に基づいて向上された眼追跡技法
IL299775A (en) 2020-07-15 2023-03-01 Magic Leap Inc Eye tracking using an aspheric cornea model
WO2022032198A1 (en) 2020-08-07 2022-02-10 Magic Leap, Inc. Tunable cylindrical lenses and head-mounted display including the same
EP4222551A4 (en) 2020-09-29 2024-10-23 Avegant Corp ARCHITECTURE FOR ILLUMINATION OF A SCREENBOARD
JP7216940B2 (ja) * 2021-06-02 2023-02-02 株式会社Nttコノキュー 通信システム、通信方法及び通信プログラム
JP7219862B2 (ja) * 2021-06-02 2023-02-09 株式会社Nttコノキュー 通信システム、通信方法及び通信プログラム
US20230058438A1 (en) * 2021-08-18 2023-02-23 Advanced Neuromodulation Systems, Inc. Systems and methods for providing digital health services
US12032737B2 (en) * 2022-08-22 2024-07-09 Meta Platforms Technologies, Llc Gaze adjusted avatars for immersive reality applications
US11758104B1 (en) * 2022-10-18 2023-09-12 Illuscio, Inc. Systems and methods for predictive streaming of image data for spatial computing
KR20240117758A (ko) * 2023-01-26 2024-08-02 박세원 피지털피규어 서비스장치 및 그 장치의 구동방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2120664C1 (ru) * 1997-05-06 1998-10-20 Нурахмед Нурисламович Латыпов Система для погружения пользователя в виртуальную реальность
US20020158873A1 (en) * 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment
US20080046226A1 (en) * 1993-10-01 2008-02-21 Massachusetts Institute Of Technology Force reflecting haptic interface
US20090295738A1 (en) * 2007-04-24 2009-12-03 Kuo-Ching Chiang Method of controlling an object by user motion for electronic device
US20090307608A1 (en) * 2008-06-05 2009-12-10 Samsung Electronics Co., Ltd. Interaction between real-world digital environments and virtual worlds

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6037936A (en) * 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
FR2731896B1 (fr) 1995-03-24 1997-08-29 Commissariat Energie Atomique Dispositif de mesure de la position du point de fixation d'un oeil sur une cible, procede d'eclairage de l'oeil et application a l'affichage d'images dont les images changent en fonction des mouvements de l'oeil
US6028608A (en) * 1997-05-09 2000-02-22 Jenkins; Barry System and method of perception-based image generation and encoding
JPH10334274A (ja) * 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP3257459B2 (ja) * 1997-08-07 2002-02-18 日本電信電話株式会社 共有仮想空間簡易2次元インタフェース実現方法及びそのインタフェースを持つクライアントシステム、並びに、そのインタフェースプログラムを格納した記憶媒体
JPH11154178A (ja) * 1997-11-19 1999-06-08 Fujitsu Ltd 通信管理装置及び記録媒体
US6329986B1 (en) * 1998-02-21 2001-12-11 U.S. Philips Corporation Priority-based virtual environment
US6118456A (en) * 1998-04-02 2000-09-12 Adaptive Media Technologies Method and apparatus capable of prioritizing and streaming objects within a 3-D virtual environment
JP3413127B2 (ja) 1999-06-11 2003-06-03 キヤノン株式会社 複合現実感装置及び複合現実感提示方法
EP1060772B1 (en) 1999-06-11 2012-02-01 Canon Kabushiki Kaisha Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
JP2001229402A (ja) 2000-02-16 2001-08-24 Mitsubishi Electric Corp 3次元画像表示装置、3次元画像表示方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
US6741252B2 (en) * 2000-02-17 2004-05-25 Matsushita Electric Industrial Co., Ltd. Animation data compression apparatus, animation data compression method, network server, and program storage media
US6891518B2 (en) * 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP2003006674A (ja) * 2001-06-22 2003-01-10 Tis Inc 高品質な3次元立体間取り図配布/表示システム
US7173672B2 (en) * 2001-08-10 2007-02-06 Sony Corporation System and method for transitioning between real images and virtual images
JPWO2003032259A1 (ja) * 2001-09-27 2005-01-27 富士通株式会社 ネットワークを介したコンテンツ・データの効率的なダウンロード
US7096428B2 (en) * 2001-09-28 2006-08-22 Fuji Xerox Co., Ltd. Systems and methods for providing a spatially indexed panoramic video
US6809731B2 (en) * 2002-01-08 2004-10-26 Evans & Sutherland Computer Corporation System and method for rendering high-resolution critical items
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
JP2005049811A (ja) * 2003-07-15 2005-02-24 Olympus Corp 立体表示装置及び立体視観察装置
US20060152532A1 (en) * 2003-09-29 2006-07-13 Prabir Sen The largest toy gallery park with 3D simulation displays for animations and other collectibles juxtaposed with physical-virtual collaborative games and activities in a three-dimension photo-realistic virtual-reality environment
JP2005182331A (ja) 2003-12-18 2005-07-07 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体
JP2005339267A (ja) * 2004-05-27 2005-12-08 Canon Inc 情報処理方法、情報処理装置、撮像装置
US20050289590A1 (en) * 2004-05-28 2005-12-29 Cheok Adrian D Marketing platform
US20080266129A1 (en) * 2007-04-24 2008-10-30 Kuo Ching Chiang Advanced computing device with hybrid memory and eye control module
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
JP4661314B2 (ja) * 2005-04-04 2011-03-30 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US8040361B2 (en) * 2005-04-11 2011-10-18 Systems Technology, Inc. Systems and methods for combining virtual and real-time physical environments
US20100164990A1 (en) * 2005-08-15 2010-07-01 Koninklijke Philips Electronics, N.V. System, apparatus, and method for augmented reality glasses for end-user programming
US7542210B2 (en) * 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
US8446509B2 (en) * 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US8012023B2 (en) * 2006-09-28 2011-09-06 Microsoft Corporation Virtual entertainment
US20090054084A1 (en) * 2007-08-24 2009-02-26 Motorola, Inc. Mobile virtual and augmented reality system
US11325029B2 (en) 2007-09-14 2022-05-10 National Institute Of Advanced Industrial Science And Technology Virtual reality environment generating apparatus and controller apparatus
US20100159434A1 (en) * 2007-10-11 2010-06-24 Samsun Lampotang Mixed Simulator and Uses Thereof
US8180396B2 (en) * 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
JP4950834B2 (ja) * 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
US8578000B2 (en) 2008-12-05 2013-11-05 Social Communications Company Realtime kernel
EP2058764B1 (en) * 2007-11-07 2017-09-06 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US20090227374A1 (en) * 2008-03-05 2009-09-10 Motorola, Inc. Seamless mobility of location-based gaming across virtual and physical worlds
CN101256590A (zh) * 2008-04-03 2008-09-03 北京艺龙天地文化传播有限公司 结合WebGis的三维在线虚拟现实生态环境仿真系统及其方法
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
US20090289955A1 (en) * 2008-05-22 2009-11-26 Yahoo! Inc. Reality overlay device
US20100066750A1 (en) * 2008-09-16 2010-03-18 Motorola, Inc. Mobile virtual and augmented reality system
US8403753B2 (en) * 2008-09-30 2013-03-26 Nintendo Co., Ltd. Computer-readable storage medium storing game program, game apparatus, and processing method
US9480919B2 (en) * 2008-10-24 2016-11-01 Excalibur Ip, Llc Reconfiguring reality using a reality overlay device
US8411086B2 (en) * 2009-02-24 2013-04-02 Fuji Xerox Co., Ltd. Model creation using visual markup languages
WO2010105499A1 (en) * 2009-03-14 2010-09-23 Quan Xiao Methods and apparatus for providing user somatosensory experience for thrill seeking jumping like activities
US20100241996A1 (en) 2009-03-19 2010-09-23 Tracy Wai Ho XMB submenu preview
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
JP5158007B2 (ja) * 2009-04-28 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
KR101671900B1 (ko) * 2009-05-08 2016-11-03 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
US20100309197A1 (en) * 2009-06-08 2010-12-09 Nvidia Corporation Interaction of stereoscopic objects with physical objects in viewing area
US20100325154A1 (en) * 2009-06-22 2010-12-23 Nokia Corporation Method and apparatus for a virtual image world
US9129644B2 (en) * 2009-06-23 2015-09-08 Disney Enterprises, Inc. System and method for rendering in accordance with location of virtual objects in real-time
US8427508B2 (en) * 2009-06-25 2013-04-23 Nokia Corporation Method and apparatus for an augmented reality user interface
JP2011059444A (ja) * 2009-09-10 2011-03-24 Olympus Corp 眼鏡型画像表示装置
US20110270135A1 (en) * 2009-11-30 2011-11-03 Christopher John Dooley Augmented reality for testing and training of human performance
KR20110118421A (ko) * 2010-04-23 2011-10-31 엘지전자 주식회사 증강 원격제어장치, 증강 원격제어장치 제어방법 및 그 시스템
US20110153341A1 (en) * 2009-12-17 2011-06-23 General Electric Company Methods and systems for use of augmented reality to improve patient registration in medical practices
US20110151955A1 (en) * 2009-12-23 2011-06-23 Exent Technologies, Ltd. Multi-player augmented reality combat
US9488488B2 (en) * 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
US9341843B2 (en) * 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9573064B2 (en) * 2010-06-24 2017-02-21 Microsoft Technology Licensing, Llc Virtual and location-based multiplayer gaming
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US20120019557A1 (en) * 2010-07-22 2012-01-26 Sony Ericsson Mobile Communications Ab Displaying augmented reality information
US8519844B2 (en) * 2010-07-30 2013-08-27 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
US9111498B2 (en) * 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
JP2012058968A (ja) * 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US20120122570A1 (en) * 2010-11-16 2012-05-17 David Michael Baronoff Augmented reality gaming experience
US8467810B2 (en) * 2010-11-29 2013-06-18 Navteq B.V. Method and system for reporting errors in a geographic database
KR101591579B1 (ko) * 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
US20120264510A1 (en) * 2011-04-12 2012-10-18 Microsoft Corporation Integrated virtual environment
US10019962B2 (en) * 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US8963805B2 (en) * 2012-01-27 2015-02-24 Microsoft Corporation Executable virtual objects associated with real objects
US10713846B2 (en) * 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US9432421B1 (en) * 2014-03-28 2016-08-30 A9.Com, Inc. Sharing links in an augmented reality environment
US10430147B2 (en) * 2017-04-17 2019-10-01 Intel Corporation Collaborative multi-user virtual reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080046226A1 (en) * 1993-10-01 2008-02-21 Massachusetts Institute Of Technology Force reflecting haptic interface
RU2120664C1 (ru) * 1997-05-06 1998-10-20 Нурахмед Нурисламович Латыпов Система для погружения пользователя в виртуальную реальность
US20020158873A1 (en) * 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment
US20090295738A1 (en) * 2007-04-24 2009-12-03 Kuo-Ching Chiang Method of controlling an object by user motion for electronic device
US20090307608A1 (en) * 2008-06-05 2009-12-10 Samsung Electronics Co., Ltd. Interaction between real-world digital environments and virtual worlds

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2805203C2 (ru) * 2019-03-19 2023-10-12 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Относительная пространственная локализация мобильных устройств

Also Published As

Publication number Publication date
AU2017204738B2 (en) 2019-05-09
CN107656615B (zh) 2021-09-14
CN103635891B (zh) 2017-10-27
US11157070B2 (en) 2021-10-26
BR112013034009A2 (pt) 2017-02-07
JP2022140779A (ja) 2022-09-27
EP2705435B1 (en) 2017-07-05
EP2705435B8 (en) 2017-08-23
RU2017118159A (ru) 2018-10-30
US20210096640A1 (en) 2021-04-01
CA3035118C (en) 2022-01-04
EP2705435A2 (en) 2014-03-12
US11669152B2 (en) 2023-06-06
CA3035118A1 (en) 2012-11-15
AU2017204739A1 (en) 2017-07-27
RU2013154098A (ru) 2015-06-20
JP7366196B2 (ja) 2023-10-20
JP2024019736A (ja) 2024-02-09
JP2014513367A (ja) 2014-05-29
AU2012253797A1 (en) 2013-11-21
AU2017204738A1 (en) 2017-07-27
CA2835120C (en) 2019-05-28
EP3229107B1 (en) 2018-10-17
US10671152B2 (en) 2020-06-02
JP6646620B2 (ja) 2020-02-14
JP2017045476A (ja) 2017-03-02
EP3462286A1 (en) 2019-04-03
US20130125027A1 (en) 2013-05-16
WO2012154620A2 (en) 2012-11-15
JP2017147001A (ja) 2017-08-24
US20240004458A1 (en) 2024-01-04
WO2012154620A3 (en) 2013-01-17
US10101802B2 (en) 2018-10-16
JP2022111224A (ja) 2022-07-29
AU2017204739B2 (en) 2019-04-18
US20200225739A1 (en) 2020-07-16
CN103635891A (zh) 2014-03-12
JP6316387B2 (ja) 2018-04-25
CN107656615A (zh) 2018-02-02
US20180348856A1 (en) 2018-12-06
EP3229107A1 (en) 2017-10-11
AU2012253797B2 (en) 2017-06-22
JP7109408B2 (ja) 2022-07-29
JP6316186B2 (ja) 2018-04-25
JP2019220205A (ja) 2019-12-26
EP2705435A4 (en) 2014-12-10
CA2835120A1 (en) 2012-11-15

Similar Documents

Publication Publication Date Title
RU2621644C2 (ru) Мир массового одновременного удаленного цифрового присутствия
JP6792039B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
KR102270699B1 (ko) 증강 및 가상 현실을 위한 시스템 및 방법

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20190505