WO2015119525A1 - Система виртуального управления - Google Patents

Система виртуального управления Download PDF

Info

Publication number
WO2015119525A1
WO2015119525A1 PCT/RU2014/000086 RU2014000086W WO2015119525A1 WO 2015119525 A1 WO2015119525 A1 WO 2015119525A1 RU 2014000086 W RU2014000086 W RU 2014000086W WO 2015119525 A1 WO2015119525 A1 WO 2015119525A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
computer system
management
computer
Prior art date
Application number
PCT/RU2014/000086
Other languages
English (en)
French (fr)
Inventor
Андрей Юрьевич ЩЕРБАКОВ
Олег Олегович ТИХОНЕНКО
Original Assignee
Андрей Юрьевич ЩЕРБАКОВ
Олег Олегович ТИХОНЕНКО
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Андрей Юрьевич ЩЕРБАКОВ, Олег Олегович ТИХОНЕНКО filed Critical Андрей Юрьевич ЩЕРБАКОВ
Priority to PCT/RU2014/000086 priority Critical patent/WO2015119525A1/ru
Publication of WO2015119525A1 publication Critical patent/WO2015119525A1/ru

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Definitions

  • the invention relates to the field of control and input of information into computer systems, and more particularly, to a system for individual input of information and control for a user of a computer system.
  • the present invention can find application in the creation of control systems and maintenance of computer equipment, computer aided design tools, control of vehicles and household appliances, the organization of the interface with various computer systems in an arbitrary location, as well as for various technical systems.
  • Google Glass device a headset for smartphones (or a wearable computer, which is somewhat closer to the device’s functional set) based on Android, developed by Google.
  • the device uses a transparent display that is mounted on the head (HMD - head-mounted display) and is located slightly above the right eye, and a camera that can record high-quality video.
  • Glass interacts with the user through voice commands (the basic command is “Ok, Glass”, after which there should be a request to perform a function; in addition, texts can be dictated through the headset), gestures recognized by the touchpad, which is located on the handle behind the display, and a sound transmission system using bone
  • the first version of the glasses fully implements a video diary and only partially augmented reality and communication component. In subsequent versions, a more complete implementation of all three target components is possible.
  • the claimed invention solves other problems, namely:
  • the tasks are solved in an individual information input and control system for a user of a computer system comprising at least one information display device, optionally transparent, which reproduces an image directly perceived by at least one eye of the user, at least one video camera, at least one a computing unit, at least one communication unit, optionally sound transmission means and optionally control means, characterized in that that information display means creates an image of the controls and / or display means of at least one user-selected external computer system to which the user is connected via a communication unit, and the video camera captures the natural movements of the user's hands and / or fingers and transfers them to the computing unit, which translates recorded movements into control actions and procedures input information in the selected computer system, which are transmitted through the communication unit to the selected computer system, as a result of which the user enters information and controls the selected computer system.
  • the position in the space of the controls and / or display means of at least one computer system selected by the user does not depend on the position of the display means and / or eyes and / or head of the user.
  • the means of displaying information was made in the form of glasses or a similar optical device.
  • the means of displaying information is made in the form of a monocular or similar optical device.
  • the information display means is made in the form of binoculars or a similar optical device.
  • the information display medium is opaque, and the video camera creates in the display medium
  • the information display medium is opaque, and the video camera creates in the display medium an image of at least a portion of the objects surrounding the user, and in the form modified according to the wishes and / or needs of the user and / or in accordance with the results of at least one selected
  • the described system itself would be controlled by the movements of the hands and / or fingers and / or eyes of the user.
  • the described system would be controlled by the user through at least one of the selected computer systems.
  • the device is better to perform in the form of glasses or a lightweight monocular that is mounted on the user's head directly in front of his eyes
  • the device in the second case, can be made in the form of binoculars, which the user periodically brings to his eyes and performs the necessary operations for managing and entering information and perception of the results of their actions.
  • the virtual control system creates for the perception of the user (hereinafter we will say for the sake of brevity - for the user) the original image, which may contain a control menu, for example - connect a computer system, settings and turn off the VCA.
  • Management through the menu is also carried out by moving your fingers in the field of view of the camera, which through the computing unit translates them into a selection of menu lines.
  • the android is shown in FIG. one
  • the user in the settings may be able to select the number of fingers that are involved in the control.
  • Figure 2 also shows an example when the size of the Microsoft Word window is changed to achieve maximum visibility of the input text and a keyboard is also projected in the field of view.
  • the menu located in Fig. 1 and Fig. 2 on the right in the field of view captures the state of the VCA when the selected computer system is connected, in the right and the left eye of the user is the same image, the type of connected computer system is indicated.
  • this system describes a complete full-functional solution and extends the way a computer system is controlled in such a way that the user is provided with a natural and familiar view of the screen and controls of a computer system in any convenient way

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Изобретение относится к области управления и ввода информации в компьютерные системы, а более конкретно - к системе индивидуального ввода информации и управления для пользователя компьютерной системы. Настоящее изобретение может найти применение при создании систем управления и обслуживания компьютерной техники, средств автоматизированного проектирования, управления средствами транспорта и бытовыми приборами, организации интерфейса с различными компьютерными системами в произвольном месте расположения, а также для различных технических систем. Данная система описывает законченное полнофункциональное решение и расширяет способ управления компьютерной системой таким образом, что для управления пользователю предоставляется естественный и привычный вид экрана и органов управления компьютерной системы в любом удобном пользователю месте, причем управлять можно несколькими компьютерными системами одновременно. Кроме того, система позволяет управлять произвольными. компьютерными системами, имитируя их интерфейс и органы управления, доносить отображаемую компьютерными системами информацию индивидуально для пользователя, без возможности ее восприятия другими пользователями, а также позволяет создать виртуальную реальность, связанную с работой управляемых компьютерных систем.

Description

СИСТЕМА ВИРТУАЛЬНОГО УПРАВЛЕНИЯ
Описание
Изобретение относится к области управления и ввода информации в компьютерные системы, а более конкретно - к системе индивидуального ввода информации и управления для пользователя компьютерной системы.
Настоящее изобретение может найти применение при создании систем управления и обслуживания компьютерной техники, средств автоматизированного проектирования, управления средствами транспорта и бытовыми приборами, организации интерфейса с различными компьютерными системами в произвольном месте расположения, а также для различных технических систем.
В настоящее время весьма актуальной является задача управления
различными устройствами путем естественных человеческих жестов и
бесконтактным путем в условиях, исключающих или затрудняющих возможность использования клавиатур или контактных экранов. При этом актуально также повысить скорость ввода команд и данных и скорость управления в целом, а предоставлять пользователю вычислительные ресурсы различных компьютерных систем в удобном ему месте. Кроме того, весьма важно персонализировать выводимую для пользователя информацию таким образом, чтобы она была индивидуально направлена и не мешала другим пользователям.
Наиболее близкой к заявляемой системе является устройство Google Glass— гарнитура для смартфонов (или нательный компьютер, что несколько ближе к функциональному набору устройства) на базе Android, разрабатываемая компанией Google. В устройстве используется прозрачный дисплей, который крепится на голову (англ. HMD— head-mounted display) и находится чуть выше правого глаза, и камера, способная записывать видео высокого качества.
Взаимодействие Glass с пользователем осуществляется через голосовые команды (базовой является команда «Ok, Glass», после которой должна идти просьба выполнить какую-либо функцию; кроме того, через гарнитуру можно надиктовывать тексты), жесты, распознаваемые тачпадом, который расположен на дужке за дисплеем, и систему передачи звука с использованием костной
проводимости. Интерфейс устройства был продемонстрирован Google в
опубликованном в феврале 2013 года видео.
Концепция Google Glass в конечном счёте должна реализовывать
одновременно три отдельные функции, сведя их воедино: дополненную
реальность, мобильную связь + интернет, видеодневник. Первая версия очков полноценно реализует видеодневник и лишь частично дополненную реальность и коммуникационную составляющую. В последующих версиях возможна более полноценная реализация всех трёх целевых составляющих.
Заявляемое изобретение решает другие задачи, а именно:
1. Позволяет управлять произвольными компьютерными системами, имитируя их интерфейс и органы управления
2. Позволяет доносить отображаемую компьютерными системами
информацию индивидуально для пользователя, без возможности ее восприятия другими пользователями.
3. Позволяет создать виртуальную реальность, связанную с работой
управляемых компьютерных систем.
Поставленные задачи решены в системе индивидуального ввода информации и управления для пользователя компьютерной системы, содержащей по меньшей мере одно устройство отображения информации, необязательно прозрачное, которое воспроизводит изображение, непосредственно воспринимаемое по меньше мере одним глазом пользователя, по меньшей мере одну видеокамеру, по меньше мере один вычислительный блок, по меньшей мере один коммуникационный блок, необязательно средства передачи звука и необязательно средства управления, отличающаяся тем, что средство отображения информации создает изображение органов управления и/или средств отображения по меньшей мере одной избранной пользователем внешней компьютерной системы, с которой пользователь соединен через коммуникационный блок, а видеокамера фиксирует естественные движения рук и/или пальцев пользователя и передает их в вычислительный блок, который транслирует зафиксированные движения в управляющие воздействия и процедуры ввода информации в избранной компьютерной системе, которые передаются через коммуникационный блок в избранную компьютерную систему, в результате чего пользователь вводит информацию и управляет избранной компьютерной системой.
Технически целесообразно рассматривать ситуацию, когда избранных компьютерных систем несколько и система индивидуального ввода информации и управления для пользователя самостоятельно определяет необходимые для каждой из них процедуры управления и ввода информации.
Также технически целесообразно рассматривать ситуацию, когда избранных компьютерных систем несколько и система индивидуального ввода информации и управления располагает их все в поле зрения пользователя и обеспечивает управление всеми доступными пользователю компьютерными системами и необязательно обеспечивает перенос информации между ними путем естественных жестов.
Для удобства пользователя целесообразно, чтобы положение в пространстве органов управления и/или средств отображения по меньшей мере одной избранной пользователем компьютерной системы не зависело бы от положения средства отображения и/или, глаз, и/или головы пользователя.
Для постоянного управления компьютерными системами целесообразно, чтобы средство отображения информации было выполнено в виде очков или аналогичного оптического прибора.
Для эпизодического управления компьютерными системами целесообразно, чтобы средство отображения информации выполнено в виде монокуляра или аналогичного оптического прибора.
Для эпизодического управления компьютерными системами и в том случае, когда управляемых компьютерных систем несколько и их изображения подаются для разных глаз пользователя целесообразно, чтобы средство отображения информации выполнено в виде бинокля или аналогичного оптического прибора.
Для имитации существующей реальности средство отображения информации является непрозрачным, а видеокамера создает в средстве отображения
изображения по меньшем мере части окружающих пользователя объектов.
Для имитации виртуальной реальности средство отображения информации является непрозрачным, а видеокамера создает в средстве отображения изображение по меньшем мере части окружающих пользователя объектов, причем в виде, измененном согласно пожеланиям и/или потребностям пользователя и/или в соответствии с результатами работы по меньше мере одной избранной
компьютерной системы.
Для передачи звуковых эффектов или для изоляции от внешнего звукового поля целесообразно, что в работе описываемой системы участвуют средства передачи звука.
Для реализации единых команд управления целесообразно, чтобы
описываемая система сама управлялась бы движениями рук и/или пальцев, и/или глаз пользователя.
Для реализации удобного управления целесообразно, чтобы описываемая система управлялась бы голосовыми командами пользователя.
Также для реализации удобного управления целесообразно, чтобы
описываемая система управлялась бы пользователем через по меньшем пере одну из избранных компьютерных систем.
В ряде случаев удобно чтобы описываемая система управлялась бы
пользователем через внешний пульт.
Для оптимального энергообеспечения описываемой системы для зарядки ее источников питания целесообразно использовать индукционный принцип, а также для зарядки ее источников питания использовать футляр для ее хранения.
Для иллюстрации технической реализуемости предлагаемых способов предлагаются рассмотреть технологический сценарий и Фиг. 1 и Фиг. 2.
Технически целесообразно рассматривать виртуальное управление
компьютерной системой в двух режимах - непрерывное управление и
эпизодическое управление. В первом случае устройство лучше выполнить в виде очков или монокуляра небольшого веса, который крепится на голове пользователя непосредственно перед его глазами, во втором случае - устройство можно выполнить в виде бинокля, который пользователь периодически подносит к глазам и выполняет необходимые операции по управления, вводу информации и восприятию результатов своих действий.
При включении питания система виртуального управления (СВУ) создает для восприятия пользователя (далее будем для краткости говорить - для пользователя) исходную картинку, которая может содержать меню управления, например - подключить компьютерную систему, настройки и выключить СВУ.
Управление через меню производится также путем движения пальцами в поле зрения камеры, которая через вычислительный блок транслирует их в выбор строк меню.
При выборе «подключить компьютерную систему» через коммуникационный блок происходит соединение с заранее выбранной компьютерной системой и отображение ее экрана на заранее указанном в настройках месте картинки, отображаемой СВУ.
Пользователь имеет возможность также путем движения пальцев в поле зрения видеокамеры СВУ переместить мнимый экран подключенной
компьютерной системы в любое место поля зрения и изменить его размеры.
В настоящее время возможно два основных способа управления - непосредственное движение пальцев в поле видеокамеры, которое преобразуется вычислительным блоком СВУ в движения по отображенному экрану в средстве отображения СВУ (для планшетов) и создание виртуальных органов управления в поле зрения пользователя в средстве отображения СВУ (для настольных
компьютеров). Во втором случае в средстве отображения СВУ создается
изображение клавиатуры и тачпэда (или мыши), которые также управляются движениями пальцев пользователя.
Пример получающегося изображения для планшета под управлением
Андроид приведен на Фиг. 1
В случае управления и ввода через клавиатуру пользователь в настройках может иметь возможность выбора числа пальцев, которые участвуют в управлении.
Пример получающегося изображения для компьютера под управлением
Windows приведен на Фиг. 2.
На Фиг.2 также приведен пример, когда изменен размер окна Microsoft Word для достижения максимальной видимости вводимого текста и в поле зрения также спроецирована клавиатура.
Меню, находящееся на Фиг.1 и Фиг.2 справа в поле зрения фиксирует состояние СВУ, когда выбранная компьютерная система подключена, в правом и левом глазу пользователя одинаковое изображение, указан тип подключенной компьютерной системы.
По сравнению с другими способами и устройствами ввода и управления, известными авторам, данная система описывает законченное полнофунциональное решение и расширяет способ управления компьютерной системой таким образом, что для управления пользователю предоставляется естественный и привычный вид экрана и органов управления компьютерной системы в любом удобном
пользователю месте, причем управлять можно несколькими компьютерными системами одновременно. Кроме того, система позволяет управлять
произвольными компьютерными системами, имитируя их интерфейс и органы управления, доносить отображаемую компьютерными системами информацию индивидуально для пользователя, без возможности ее восприятия другими пользователями, а также позволяет создать виртуальную реальность, связанную с работой управляемых компьютерных систем.

Claims

ФОРМУЛА ИЗОБРЕТЕНИЯ
1. Система индивидуального ввода информации и управления для
пользователя компьютерной системы, содержащая, по меньшей мере, одно устройство отображения информации, необязательно прозрачное, которое воспроизводит изображение, непосредственно воспринимаемое по меньшей мере одним глазом пользователя, по меньшей мере одну видеокамеру, по меньшей мере один вычислительный блок, по меньшей мере один коммуникационный блок, необязательно средства передачи звука и необязательно средства управления, отличающаяся тем, что средство отображения информации создает изображение органов управления и/или средств отображения, по меньшей мере, одной
избранной пользователем внешней компьютерной системы, с которой пользователь соединен через коммуникационный блок, а видеокамера фиксирует естественные движения рук и/или пальцев пользователя и передает их в вычислительный блок, который транслирует зафиксированные движения в управляющие воздействия и процедуры ввода информации в избранной компьютерной системе, которые передаются через коммуникационный блок в избранную компьютерную систему, в результате чего пользователь вводит информацию и управляет избранной компьютерной системой.
2. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что избранных компьютерных систем несколько и система индивидуального ввода информации и управления для пользователя самостоятельно определяет необходимые для каждой из них процедуры управления и ввода информации.
3. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что избранных компьютерных систем несколько и система индивидуального ввода информации и управления располагает их все в поле зрения пользователя и обеспечивает управление всеми доступными пользователю компьютерными системами и необязательно обеспечивает перенос информации между ними путем естественных жестов.
4. Система индивидуального ввода информации и управления для пользователя компьютерной системы по п.1, отличающаяся тем, что положение в пространстве органов управления и/или средств отображения, по меньшей мере, одной избранной пользователем компьютерной системы не зависит от положения средства отображения и/или, глаз, и/или головы пользователя.
5. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1 , отличающаяся тем, что средство отображения информации выполнено в виде очков или аналогичного оптического прибора.
6. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что средство отображения информации выполнено в виде монокуляра или аналогичного оптического прибора.
7. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что средство отображения информации выполнено в виде бинокля или аналогичного
оптического прибора.
8. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что средство отображения информации является непрозрачным, а видеокамера создает в средстве отображения изображения, по меньшей мере, части окружающих пользователя объектов.
9. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что средство отображения информации является непрозрачным, а видеокамера создает в средстве отображения изображение, по меньшем мере, части окружающих пользователя объектов, причем в виде, измененном согласно пожеланиям и/или потребностям пользователя и/или в соответствии с результатами работы, по меньшей мере, одной избранной компьютерной системы.
10. Система индивидуального ввода информации и управления для пользователя компьютерной системы по п.1, отличающаяся тем, что в его работе участвуют средства передачи звука.
1 1. Система индивидуального ввода информации и управления для пользователя компьютерной системы по п.1, отличающаяся тем, что она сама управляется движениями рук и/или пальцев, и/или глаз пользователя.
12. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1 , отличающаяся тем, что она
управляется голосовыми командами пользователя.
13. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что она
управляется пользователем через, по меньшей мере, одну из избранных
компьютерных систем.
14. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что она
управляется пользователем через внешний пульт.
15. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что для зарядки ее источников питания используется индукционный принцип.
16. Система индивидуального ввода информации и управления для
пользователя компьютерной системы по п.1, отличающаяся тем, что для зарядки ее источников питания используется футляр для ее хранения.
PCT/RU2014/000086 2014-02-07 2014-02-07 Система виртуального управления WO2015119525A1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/RU2014/000086 WO2015119525A1 (ru) 2014-02-07 2014-02-07 Система виртуального управления

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2014/000086 WO2015119525A1 (ru) 2014-02-07 2014-02-07 Система виртуального управления

Publications (1)

Publication Number Publication Date
WO2015119525A1 true WO2015119525A1 (ru) 2015-08-13

Family

ID=53778240

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2014/000086 WO2015119525A1 (ru) 2014-02-07 2014-02-07 Система виртуального управления

Country Status (1)

Country Link
WO (1) WO2015119525A1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298283B1 (en) 2015-09-10 2016-03-29 Connectivity Labs Inc. Sedentary virtual reality method and systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080122736A1 (en) * 1993-10-22 2008-05-29 Kopin Corporation Portable communication display device
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US20120320100A1 (en) * 2011-06-16 2012-12-20 Sony Corporation Display apparatus
US20130242262A1 (en) * 2005-10-07 2013-09-19 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20130300204A1 (en) * 2011-01-18 2013-11-14 Mojo Mobility, Inc. Systems and methods for wireless power transfer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080122736A1 (en) * 1993-10-22 2008-05-29 Kopin Corporation Portable communication display device
US20130242262A1 (en) * 2005-10-07 2013-09-19 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US20130300204A1 (en) * 2011-01-18 2013-11-14 Mojo Mobility, Inc. Systems and methods for wireless power transfer
US20120320100A1 (en) * 2011-06-16 2012-12-20 Sony Corporation Display apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298283B1 (en) 2015-09-10 2016-03-29 Connectivity Labs Inc. Sedentary virtual reality method and systems
US9804394B2 (en) 2015-09-10 2017-10-31 Connectivity Labs Inc. Sedentary virtual reality method and systems
US10345588B2 (en) 2015-09-10 2019-07-09 Connectivity Labs Inc. Sedentary virtual reality method and systems
US11125996B2 (en) 2015-09-10 2021-09-21 Connectivity Labs Inc. Sedentary virtual reality method and systems
US11803055B2 (en) 2015-09-10 2023-10-31 Connectivity Labs Inc. Sedentary virtual reality method and systems

Similar Documents

Publication Publication Date Title
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US20220091722A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11853527B2 (en) Devices, methods, and graphical user interfaces for providing computer-generated experiences
EP3311249B1 (en) Three-dimensional user input
KR102411768B1 (ko) 헤드 마운트 디스플레이를 위한 3차원 사용자 인터페이스
WO2021133572A1 (en) Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
AU2024202670A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
EP2946264B1 (en) Virtual interaction with image projection
WO2020171906A1 (en) Mixed reality device gaze invocations
US20220129082A1 (en) Integration of Artificial Reality Interaction Modes
CN102779000B (zh) 一种用户交互系统和方法
JP7382972B2 (ja) 頭部装着型画像ディスプレイデバイスのための入力を提供するための方法および装置
JP2014186361A (ja) 情報処理装置、操作制御方法及びプログラム
US11232643B1 (en) Collapsing of 3D objects to 2D images in an artificial reality environment
US11270116B2 (en) Method, device, and system for generating affordances linked to a representation of an item
US20180032139A1 (en) Interactive system control apparatus and method
WO2022067054A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
Budhiraja et al. Interaction techniques for HMD-HHD hybrid AR systems
Lee et al. Towards augmented reality-driven human-city interaction: Current research and future challenges
WO2015119525A1 (ru) Система виртуального управления
US11500209B2 (en) Method, electronic device, and computer program product for displaying graphic interfaces
CN116940915A (zh) 虚拟现实中的部分透视
Lu et al. Classification, application, challenge, and future of midair gestures in augmented reality
GB2535730A (en) Interactive system control apparatus and method
US20230011453A1 (en) Artificial Reality Teleportation Via Hand Gestures

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14881576

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 13/01/2017)

122 Ep: pct application non-entry in european phase

Ref document number: 14881576

Country of ref document: EP

Kind code of ref document: A1