RU2486608C2 - Device for organisation of interface with object of virtual reality - Google Patents
Device for organisation of interface with object of virtual reality Download PDFInfo
- Publication number
- RU2486608C2 RU2486608C2 RU2011135023/08A RU2011135023A RU2486608C2 RU 2486608 C2 RU2486608 C2 RU 2486608C2 RU 2011135023/08 A RU2011135023/08 A RU 2011135023/08A RU 2011135023 A RU2011135023 A RU 2011135023A RU 2486608 C2 RU2486608 C2 RU 2486608C2
- Authority
- RU
- Russia
- Prior art keywords
- virtual reality
- pointer
- coordinates
- monitor
- reality object
- Prior art date
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
Изобретение относится к технике телевизионных измерительных систем и может быть использовано для построения трехмерных пользовательских интерфейсов в системах трехмерной виртуальной реальности.The invention relates to techniques for television measurement systems and can be used to build three-dimensional user interfaces in three-dimensional virtual reality systems.
Известно устройство ввода данных жестикуляцией, разработанное компанией Microsoft (коммерческое название продукта - Kinect ХВОХ-360), которое позволяет взаимодействовать с объектами виртуальной реальности, посредством отслеживания положения рук и тела оператора. Устройство включает в себя датчик, состоящий из телевизионной камеры ИК (инфракрасного)-диапазона и оптически сопряженного с ней ИК-излучателя, формирующего набор лучей, телевизионной камеры видимого диапазона и связанного с ними вычислительного устройства. Датчик дальности определяет пространственное положение подсвечиваемых на операторе точек, а камера видимого диапазона предназначена для выявления жестов и мимики лица.Known is the gesticulation data input device developed by Microsoft (the commercial name of the product is Kinect XBX-360), which allows you to interact with virtual reality objects by tracking the position of the hands and body of the operator. The device includes a sensor consisting of an IR (infrared) -band television camera and an infrared emitter optically coupled to it, forming a set of beams, a visible-range television camera and a computing device associated with them. The range sensor determines the spatial position of the points highlighted on the operator, and the camera of the visible range is designed to detect gestures and facial expressions.
К недостаткам данного устройства можно отнести его низкую помехоустойчивость.The disadvantages of this device include its low noise immunity.
Наиболее близким по техническому решению к предлагаемому изобретению является патент РФ "Устройство для трехмерной манипуляции". В этом устройстве используются два источника подсветки и оптически сопряженная с ними телевизионная камера ИК-диапазона, причем ее поле зрения охватывает часть периметра контролируемой поверхности. При этом регистрируются изображения контролируемой поверхности подсвеченной попеременно первым и вторым источниками подсветки, а находящийся на пути подсветки указатель - палец оператора или стилус - создает на подсвечиваемой поверхности затемненные участки. Вводя положение затемненных участков в вычислительное устройство, можно определить пространственные координаты и ориентацию указателя.The closest in technical solution to the proposed invention is the RF patent "Device for three-dimensional manipulation." This device uses two backlight sources and an infrared television camera optically paired with them, and its field of view covers part of the perimeter of the surface being monitored. In this case, images of the controlled surface are recorded alternately illuminated by the first and second sources of illumination, and the pointer located on the path of illumination — the operator’s finger or stylus — creates darkened areas on the illuminated surface. By entering the position of the shaded areas in the computing device, you can determine the spatial coordinates and orientation of the pointer.
Недостатками данного устройства являются ограниченные функциональные возможности, не позволяющие взаимодействовать человеку-оператору с виртуальными пространственными объектами, формируемыми мониторами трехмерного изображения (3D-мониторами).The disadvantages of this device are limited functionality that does not allow the human operator to interact with virtual spatial objects formed by three-dimensional image monitors (3D monitors).
Задачей предлагаемого изобретения является расширение функциональных возможностей, а именно возможность взаимодействия человека-оператора с виртуальными пространственными объектами.The objective of the invention is to expand the functionality, namely the possibility of interaction of the human operator with virtual spatial objects.
Для этого в устройство для организации интерфейса пользователя с объектом виртуальной реальности, содержащее источник ИК-подсветки, телевизионную камеру ИК-диапазона, причем выход телевизионной камеры подключен к вычислителю 3D-положения реального пространственного указателя, дополнительно вводится вторая телевизионная камера ИК-диапазона, оптически сопряженная с первой, выход второй телевизионной камеры подключен ко второму входу вычислителю 3D-положения реального пространственного указателя, причем источник ИК-подсветки оптически сопряжен с экраном вновь введенного 3D-монитора таким образом, что отраженное от него излучение направляется в сторону первой и второй телевизионных камер ИК-диапазона, причем первая и вторая телевизионные камеры оптически сопряжены с глазами человека-оператора системы, наблюдающего формируемые на 3D-мониторе изображения с помощью соответствующих 3D-монитору очков, причем 3D-монитор подключен к вновь введенному формирователю объектов виртуальной реальности, например персональному компьютеру, связанному, в свою очередь, с вычислителем 3D-положения реального пространственного указателя. При этом рабочая область устройства образуется пересечением телесных углов обзора телевизионных камер с телесными углами обзора глаз человека-оператора системы и ограничена плоскостью экрана 3D-монитора.To this end, a device for organizing a user interface with a virtual reality object containing an IR illumination source, an infrared television camera, and the television camera output being connected to a 3D position calculator of a real spatial pointer, an additional optically coupled second infrared television camera is introduced from the first, the output of the second television camera is connected to the second input of the 3D position calculator of the real spatial index, and the IR illumination source is optical and is coupled to the screen of the newly introduced 3D monitor in such a way that the radiation reflected from it is directed towards the first and second infrared television cameras, the first and second television cameras being optically paired with the eyes of the human operator of the system observing the images generated on the 3D monitor images using glasses appropriate for the 3D monitor, the 3D monitor being connected to a newly introduced shaper of virtual reality objects, for example, a personal computer, which, in turn, is connected to a 3D computer -position of the real spatial pointer. In this case, the working area of the device is formed by the intersection of the solid viewing angles of television cameras with the solid viewing angles of the eyes of the human operator of the system and is limited by the plane of the 3D monitor screen.
Причем в качестве рассеивающей поверхности используется экран введенного 3D-монитора с соответствующими ему очками пользователя-оператора, кроме того, введен интерфейсный модуль, вырабатывающий видеосигналы для левого и правого глаза оператора, представляющие собой 3D-изображение объекта виртуальной реальности, и изменяющий его в зависимости от координат реального пространственного указателя, находящегося в рабочей зоне устройства, которые поступают на вход интерфейсного модуля с выхода вычислителя 3D-положения реального пространственного указателя, которое, в свою очередь, определяет эти координаты по плоским координатам изображений реального пространственного указателя, поступающих с выхода первой и второй телевизионных камер ИК-диапазона, а оператор наблюдает изображение объекта виртуальной реальности и реальное изображение пространственного указателя, и, изменяя положение указателя в пространстве, может совместить 3D-изображение объекта виртуальной реальности, формируемое 3D-монитором, с реальным положением указателя, а при их совпадении, интерфейсный модуль производит изменение 3D-образа объекта виртуальной реальности и его положения, с выработкой соответствующего этому событию сигнала управления.Moreover, the screen of the entered 3D monitor with the corresponding glasses of the user-operator is used as a scattering surface, in addition, an interface module has been introduced that generates video signals for the left and right eyes of the operator, which are a 3D image of a virtual reality object, and changes it depending on coordinates of the real spatial pointer located in the working area of the device, which are fed to the input of the interface module from the output of the 3D position calculator of the real space a pointer, which, in turn, determines these coordinates by the flat coordinates of the images of the real spatial pointer coming from the output of the first and second television cameras of the infrared range, and the operator observes the image of the virtual reality object and the real image of the spatial pointer, and by changing the position of the pointer in space, it can combine a 3D image of a virtual reality object formed by a 3D monitor with the actual position of the pointer, and if they coincide, the interface module It produces a change 3D-image of the object of virtual reality and its provisions, with the elaboration of an appropriate control signal to this event.
Интерфейсный модуль необходим для изменения положения пространственного указателя на экране 3D-монитора, а также для взаимодействия устройства с компьютером.The interface module is necessary for changing the position of the spatial pointer on the screen of the 3D monitor, as well as for interacting with the computer.
Вторая телевизионная камера ИК-диапазона необходима для формирования зоны стереообзора устройства.A second infrared television camera is needed to form a stereo zone of the device.
3D-монитор используется для формирования изображения и для отражения излучения от источника подсветки до телевизионных камер ИК-диапазона.A 3D monitor is used to form an image and to reflect radiation from the backlight to the IR cameras.
На фиг.1 приведена функциональная схема предлагаемого устройства, где:Figure 1 shows the functional diagram of the proposed device, where:
1, 2 - первая и вторая телевизионные ИК-камеры, с телесными углами обзора ψ1 и ψ2 соответственно,1, 2 - the first and second television IR cameras, with solid viewing angles ψ 1 and ψ 2, respectively,
3 - экран 3D-монитора,3 - 3D monitor screen,
4 - ИК-излучатель с потоком ω,4 - IR emitter with a stream ω,
5 - реальный пространственный указатель,5 is a real spatial pointer,
6 - очки,6 - points
7 - вычислитель 3D-положения реального пространственного указателя,7 - calculator 3D-position of the real spatial pointer,
8 - интерфейсный модуль.8 - interface module.
На фиг.2 приведена оптико-геометрическая схема устройства, где:Figure 2 shows the optical-geometric diagram of the device, where:
9 - поток излучения, формируемый ИК-излучателем 4 и падающий на экран 3D-монитора,9 - radiation flux generated by the
10 - отраженный от экрана поток излучения, направленный в сторону телевизионных камер 1 и 2.10 - reflected from the screen, the radiation flux directed towards the
На фиг.3 приведена оптико-геометрическая схема формирования изображений подсвечиваемого экрана 3D-монитора, где:Figure 3 shows the optical-geometric diagram of the image formation of the illuminated screen of the 3D monitor, where:
11, 12 - фотоприемные матрицы,11, 12 - photodetector arrays,
13, 14 - оптические центры объективов,13, 14 - optical centers of the lenses,
15, 16 - изображения засвечиваемой поверхности экрана 3D-монитора на фотоприемных матрицах,15, 16 - images of the illuminated surface of the screen of a 3D monitor on photodetector arrays,
17 - рабочая зона стереоосистемы, для телевизионных камер 1 и 2.17 - the working area of the stereo system, for
На фиг.4 приведена оптико-геометрическая схема формирования изображений реального пространственного указателя, где:Figure 4 shows the optical-geometric diagram of the formation of images of a real spatial index, where:
18, 19 - изображения реального пространственного указателя на фотоприемных матрицах телевизионных камер 1 и 2.18, 19 are images of a real spatial index on the photodetector arrays of
На фиг.5 приведена геометрическая схема образования рабочего пространства устройства, где:Figure 5 shows the geometric diagram of the formation of the working space of the device, where:
20 - человек-оператор системы,20 - human operator of the system,
21 - зона стереовидения человека-оператора,21 - zone stereo vision of a human operator,
22 - зона стереообзора телевизионных камер 1 и 2,22 - stereo viewing area of
23 - рабочее пространство системы.23 - the working space of the system.
На фиг.6 приведена иллюстрация сдвига плоских изображений на экране 3D-монитора, формирующих объект виртуальной реальности (далее ОВР), где:Figure 6 shows an illustration of a shift of flat images on the screen of a 3D monitor, forming a virtual reality object (hereinafter OVR), where:
τ - межзрачковое расстояние человека-оператора,τ is the interpupillary distance of the human operator,
ρ - параллакс (сдвиг) изображений вдоль горизонтальной оси,ρ - parallax (shift) of the images along the horizontal axis,
s - расстояние от зрачка до экрана 3D-монитора,s is the distance from the pupil to the screen of the 3D monitor,
q - расстояние от зрачка до точки, принадлежащей объекту виртуальной реальности,q is the distance from the pupil to the point belonging to the virtual reality object,
0XYZ - система координат, связанная с левым зрачком человека-оператора.0XYZ is the coordinate system associated with the left pupil of a human operator.
На фиг.7 приведена иллюстрация формирования на экране 3D-монитора объекта виртуальной реальности, где:Figure 7 shows an illustration of the formation on the screen of a 3D monitor of a virtual reality object, where:
24, 25 - изображения на экране 3D-монитора, формирующие ОВР,24, 25 - images on the screen of the 3D monitor, forming the ID;
26 - объект виртуальной реальности, наблюдаемый оператором.26 is a virtual reality object observed by an operator.
На фиг.8 показаны примеры изображений на фотоприемных матрицах, где:On Fig shows examples of images on photodetector arrays, where:
L, P - изображения указателя,L, P - pointer images,
aL и bL, aL, bP - информативные точки изображения указателя на фотоприемных матрицах телевизионных камер 1 и 2.a L and b L , a L , b P - informative points of the image of the pointer on the photodetector arrays of
На фиг.9 изображен пример объекта виртуальной реальности - переключающий рычаг, где:Figure 9 shows an example of a virtual reality object - a switching lever, where:
27 - начальное положение рычага,27 - the initial position of the lever,
28 - положение рычага после прикосновения с ним пространственного указателя.28 - the position of the lever after touching the spatial pointer.
На фиг.10 приведена функциональная схема по второму зависимому пункту формулы изобретения.Figure 10 shows the functional diagram according to the second dependent claim.
Устройство функционирует следующим образом:The device operates as follows:
Интерфейсный модуль вырабатывает видеосигналы для левого и правого глаза оператора, представляющие собой 3D-изображение объекта виртуальной реальности, и изменяет его в зависимости от координат реального пространственного указателя, находящегося в рабочей зоне устройства, которые поступают на вход интерфейсного модуля с выхода вычислительного устройства, которое, в свою очередь, определяет эти координаты по плоским координатам изображений реального пространственного указателя, поступающих с выхода первой и второй телевизионных камер, а оператор наблюдает изображение объекта виртуальной реальности и реальное изображение пространственного указателя, и, изменяя положение указателя в пространстве, может совместить 3D-изображение объекта виртуальной реальности, формируемое 3D-монитором, с реальным положением указателя, а при их совпадении интерфейсный модуль производит изменение 3D-образа объекта виртуальной реальности и его положения, с выработкой соответствующего этому событию сигнала управления.The interface module generates video signals for the left and right eyes of the operator, which is a 3D image of a virtual reality object, and changes it depending on the coordinates of the real spatial pointer located in the working area of the device, which are input to the interface module from the output of the computing device, which, in turn, determines these coordinates by the flat coordinates of the images of the real spatial index coming from the output of the first and second television cameras p, and the operator observes the image of the virtual reality object and the real image of the spatial pointer, and by changing the position of the pointer in space, it can combine the 3D image of the virtual reality object formed by the 3D monitor with the actual position of the pointer, and when they coincide, the interface module changes 3D image of a virtual reality object and its position, with the development of a control signal corresponding to this event.
Излучатель 4 (фиг.1) создает поток ИК-излучения, телесный угол распространения которого охватывает экран 3D-монитора 3 и размещен таким образом, чтобы его излучение, отражаясь от него, направлялось в сторону реального пространственного указателя 5 и телевизионных камер 1 и 2, что иллюстрируется на фиг.2.The emitter 4 (figure 1) creates a stream of infrared radiation, the solid angle of propagation of which covers the screen of the
Интерфейсный модуль 8 формирует видеосигнал, создающий на экране 3D-монитора стереоизображение, состоящее из 2-х плоских изображений, сдвинутых вдоль горизонтальной оси монитора и оптически разделяемых с помощью очков 6.The
Вычислитель 3D-положения реального пространственного указателя по стереоизображению, получаемому с помощью телевизионных камер ИК-диапазона, определяет пространственные координаты указателя и передает их в интерфейсный модуль, который определяет моменты совпадения пространственных координат указателя с пространственными координатами объекта виртуальной реальности, и в соответствии с этим изменяет его изображение на экране 3D-монитора и вырабатывает соответствующие сигналы интерфейса.The 3D position calculator of the real spatial index from the stereo image obtained using the infrared television cameras determines the spatial coordinates of the pointer and passes them to the interface module, which determines the moments of coincidence of the spatial coordinates of the pointer with the spatial coordinates of the virtual reality object, and accordingly changes its image on the screen of a 3D monitor and generates the corresponding interface signals.
Учитывая разный спектральный диапазон формируемого на экране 3D-монитора изображения (видимый) и ИК телевизионных камер 1 и 2, принимаемый ими сигнал не зависит от самого изображения, формируемого на экране монитора. При этом высокий контраст, связанный с затенением экрана монитора, переотражающего поток ИК-излучения, обеспечивает получение высокой помехоустойчивости. ОВР-ом, построению интерфейса с которым предназначено предлагаемое устройство может быть, например мнимое изображение пульта управления, содержащего кнопки, индикаторы, переключатели и прочие объекты, состояния которых в пространстве можно изменять по командам, посылаемым интерфейсный модуль 8, «касаясь» их пространственных изображений реальным указателем 5. При этом сдвиг элементов (параллакс), плоских составляющих (для левого и правого глаз оператора системы) изображений объекта виртуальной реальности, определяется соотношением, выводимым из фиг.6, и имеет вид:Considering the different spectral range of the image (visible) formed on the screen of the 3D monitor and the
где: ρ - параллакс (сдвиг) изображений вдоль горизонтальной оси, q - расстояние от зрачка до точки, принадлежащей объекту виртуальной реальности, s - расстояние от зрачка до экрана 3D-монитора, τ - межзрачковое расстояние человека-оператора.where: ρ is the parallax (shift) of the images along the horizontal axis, q is the distance from the pupil to the point belonging to the virtual reality object, s is the distance from the pupil to the 3D monitor screen, τ is the interpupillary distance of the human operator.
Чтобы обеспечить наложение пространственного указателя 5, «действующего» в реальном пространстве с объектом виртуальной реальности, необходимо совместить зону стереовидения человека-оператора данной системы с рабочей зоной стереообзора телевизионных камер 1 и 2.To ensure the imposition of the
Рабочая зона системы образуется пересечением рабочей зоны стереовидения 21 человека-оператора 20 системы с зоной стереообзора 22 телевизионных камер 1 и 2. Причем зона стереообзора телевизионных камер в свою очередь образуется пересечением телесных углов ψ1 и ψ2.The working area of the system is formed by the intersection of the
Расчет пространственного положения указателя 5 осуществляется по координатам его изображений на фотоприемных матрицах. Изображения вводятся в вычислитель 3D-положения реального пространственного указателя 7 в виде потока цифрового видеосигнала, а на фиг.6 показан пример изображений на фотоприемных матрицах. При этом расчет пространственного положения указателя 5 осуществляется согласно следующему алгоритму:The calculation of the spatial position of the
1. Поиск на изображениях характерных точек указателя (точки aL, bL, aP, bP),1. Search on images of characteristic points of the pointer (points a L , b L , a P , b P ),
2. Расчет пространственного положения этих точек согласно формулам перспективного преобразования, определенных ниже.2. The calculation of the spatial position of these points according to the perspective transformation formulas defined below.
Формулы расчета пространственного положения точек выглядят следующим образом:The formulas for calculating the spatial position of the points are as follows:
где:Where:
Раскрытие системы 2 приводит к 12 линейным уравнениям относительно 6 составляющих координат точек А и В.The disclosure of
Далее может быть найдена ориентация указателя (углы Эйлера) относительно координат 0XYZ, и изменения координат точки А во времени, т.е набор
Таким образом, вычислитель 3D-положения реального пространственного указателя реализует описанный выше алгоритм (пункты 1 и 2), расчет ориентации пространственного указателя и фазовое состояние точки А, принадлежащей указателю. Данные расчеты могут быть выполнены на базе производительного процессора, ориентированного на обработку видеоинформации, например TMS320DM368 DaVinci [4].Thus, the 3D position calculator of the real spatial pointer implements the algorithm described above (
Для определения момента совпадения пространственных координат, вычисленных по формулам (2) с формируемым на экране 3D-монитора 3 ОВРа, в интерфейсный модуль 8 вводятся координаты пространственного указателя 5. При их совпадении с координатами отдельных элементов объекта виртуальной реальности, интерфейсный модуль 8 изменяет положение отдельных элементов объекта виртуальной реальности и «переводит» его в новое пространственное состояние. Например, мнимое изображение пространственного рычага управления переводится в новое положение при «прикосновении» указателя 5 (совпадении координат указателя 5 с координатой определенной точки 3D-изображения) с мнимым изображением этого рычага. Сказанное иллюстрируется фиг.9, где исходное 3D-изображение рычага 27 изменяется на изображение 28 после совпадения координаты точки пространственного указателя с координатами точки 3D-изображения этого рычага. Естественно, что возможно определенное количество промежуточных 3D-изображений объекта виртуальной реальности, делающих процесс перехода объекта виртуальной реальности из одного пространственного положения в другое более плавным.To determine the moment of coincidence of the spatial coordinates calculated by formulas (2) with the OVA generated on the screen of the
Сказанное иллюстрируется следующим алгоритмом, описывающим работу интерфейсного модуля:The above is illustrated by the following algorithm that describes the operation of the interface module:
1. Проверить, попадает ли в заданную для некоторого i-го объекта виртуальной реальности, находящегося в состоянии I область
2. Если данное условие выполняется, i-й объект виртуальной реальности переходит в новое состояние i+1, изображение которого перестраивается на экране 3D-монитора.2. If this condition is met, the i-th virtual reality object goes into a new state i + 1, the image of which is rebuilt on the screen of a 3D monitor.
Обнаружение реального пространственного указателя 5 может осуществляться также и путем непосредственной подсветки его излучателем 4, при этом излучатель должен располагаться в районе телевизионных камер 1 и 2, как это изображено на фиг.10. Яркость источника подсветки должна обеспечивать обнаружение полезного сигнала, на фоне паразитных излучений окружающей сцены, и обеспечивать подсветку указателя в рабочей зоне устройства (определенной выше как пересечение зоны стереовидения человека-оператора зоной стереообзора телевизионных камер 1 и 2). Кроме того, в рабочей зоне не должно находится бликующих объектов, переотражающих излучение в объективы телевизионных камер 1 и 2. Таким образом, излучатель в данном случае должен быть оптически сопряжен с телевизионными камерами 1 и 2.The detection of the real
Данный алгоритм работы может быть реализован на специализированном вычислительным устройством или на типовом персональном компьютере.This algorithm of work can be implemented on a specialized computing device or on a typical personal computer.
Источники информацииInformation sources
1. Патент США US 20100199228. Gesture Keyboarding.1. US patent US 20100199228. Gesture Keyboarding.
2. Патент РФ №2362216. Устройство для трехмерной манипуляции (прототип).2. RF patent No. 2362216. Device for three-dimensional manipulation (prototype).
3. Р.Дуда, П.Харт, Распознавание образов и анализ сцен. М., Мир, 1976 г.3. R. Duda, P. Hart, Pattern Recognition and Scene Analysis. M., World, 1976
Claims (2)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2011135023/08A RU2486608C2 (en) | 2011-08-23 | 2011-08-23 | Device for organisation of interface with object of virtual reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2011135023/08A RU2486608C2 (en) | 2011-08-23 | 2011-08-23 | Device for organisation of interface with object of virtual reality |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2011135023A RU2011135023A (en) | 2013-02-27 |
RU2486608C2 true RU2486608C2 (en) | 2013-06-27 |
Family
ID=48702553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2011135023/08A RU2486608C2 (en) | 2011-08-23 | 2011-08-23 | Device for organisation of interface with object of virtual reality |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2486608C2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2661808C2 (en) * | 2014-01-17 | 2018-07-19 | СОНИ ИНТЕРЭКТИВ ЭНТЕРТЕЙНМЕНТ АМЕРИКА ЭлЭлСи | Using second screen as private tracking heads-up display |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2119184C1 (en) * | 1997-06-13 | 1998-09-20 | Евсей Исаакович Якубович | Process of formation and reproduction of three-dimensional image and device for its implementation |
RU2159017C2 (en) * | 1995-06-21 | 2000-11-10 | Араухо Де Соуза Маурисио | Method for inputting and editing images in order to produce virtual depth effect |
US20060012675A1 (en) * | 2004-05-10 | 2006-01-19 | University Of Southern California | Three dimensional interaction with autostereoscopic displays |
RU2284672C1 (en) * | 2005-03-29 | 2006-09-27 | Борис Иванович Волков | Applied television system |
RU2298294C2 (en) * | 2001-06-05 | 2007-04-27 | Риэктрикс Системз, Инк. | Interactive video display system |
US20080246757A1 (en) * | 2005-04-25 | 2008-10-09 | Masahiro Ito | 3D Image Generation and Display System |
RU2362216C1 (en) * | 2008-05-12 | 2009-07-20 | Михаил Герцевич Литманович | Device for three-dimensional manipulation |
US20100199228A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture Keyboarding |
-
2011
- 2011-08-23 RU RU2011135023/08A patent/RU2486608C2/en not_active IP Right Cessation
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2159017C2 (en) * | 1995-06-21 | 2000-11-10 | Араухо Де Соуза Маурисио | Method for inputting and editing images in order to produce virtual depth effect |
RU2119184C1 (en) * | 1997-06-13 | 1998-09-20 | Евсей Исаакович Якубович | Process of formation and reproduction of three-dimensional image and device for its implementation |
RU2298294C2 (en) * | 2001-06-05 | 2007-04-27 | Риэктрикс Системз, Инк. | Interactive video display system |
US20060012675A1 (en) * | 2004-05-10 | 2006-01-19 | University Of Southern California | Three dimensional interaction with autostereoscopic displays |
RU2284672C1 (en) * | 2005-03-29 | 2006-09-27 | Борис Иванович Волков | Applied television system |
US20080246757A1 (en) * | 2005-04-25 | 2008-10-09 | Masahiro Ito | 3D Image Generation and Display System |
RU2362216C1 (en) * | 2008-05-12 | 2009-07-20 | Михаил Герцевич Литманович | Device for three-dimensional manipulation |
US20100199228A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture Keyboarding |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2661808C2 (en) * | 2014-01-17 | 2018-07-19 | СОНИ ИНТЕРЭКТИВ ЭНТЕРТЕЙНМЕНТ АМЕРИКА ЭлЭлСи | Using second screen as private tracking heads-up display |
Also Published As
Publication number | Publication date |
---|---|
RU2011135023A (en) | 2013-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20150043770A1 (en) | Speckle sensing for motion tracking | |
EP3616030B1 (en) | Navigating a holographic image | |
US20140118255A1 (en) | Graphical user interface adjusting to a change of user's disposition | |
WO2018161542A1 (en) | 3d touch interaction device and touch interaction method thereof, and display device | |
KR101666561B1 (en) | System and Method for obtaining Subspace in Augmented Space | |
US20130154913A1 (en) | Systems and methods for a gaze and gesture interface | |
JP4657331B2 (en) | Pointed position setting device, method and program for three-dimensional display | |
CN106980377B (en) | A kind of interactive system and its operating method of three-dimensional space | |
KR101892735B1 (en) | Apparatus and Method for Intuitive Interaction | |
KR20120068253A (en) | Method and apparatus for providing response of user interface | |
KR101835363B1 (en) | Apparatus and method for continuously displaying the information of objects changed by the movement of line of sights | |
Cassinelli et al. | Smart laser-scanner for 3D human-machine interface | |
Wang et al. | Bare finger 3D air-touch system using an embedded optical sensor array for mobile displays | |
US11194402B1 (en) | Floating image display, interactive method and system for the same | |
US9122346B2 (en) | Methods for input-output calibration and image rendering | |
KR20110021249A (en) | Computer system and method of driving the same | |
RU2486608C2 (en) | Device for organisation of interface with object of virtual reality | |
TWI454653B (en) | Systems and methods for determining three-dimensional absolute coordinates of objects | |
EP3088991B1 (en) | Wearable device and method for enabling user interaction | |
CN112449166B (en) | Holographic projection device, projection control method, projection control apparatus, computer device, and medium | |
KR20200039995A (en) | Method of space touch detecting and display device performing the same | |
KR20140055987A (en) | Method of display control for image | |
US9218104B2 (en) | Image processing device, image processing method, and computer program product | |
JP6068741B2 (en) | Display system | |
Periverzov et al. | 3D Imaging for hand gesture recognition: Exploring the software-hardware interaction of current technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20170824 |