RU2486608C2 - Device for organisation of interface with object of virtual reality - Google Patents

Device for organisation of interface with object of virtual reality Download PDF

Info

Publication number
RU2486608C2
RU2486608C2 RU2011135023/08A RU2011135023A RU2486608C2 RU 2486608 C2 RU2486608 C2 RU 2486608C2 RU 2011135023/08 A RU2011135023/08 A RU 2011135023/08A RU 2011135023 A RU2011135023 A RU 2011135023A RU 2486608 C2 RU2486608 C2 RU 2486608C2
Authority
RU
Russia
Prior art keywords
virtual reality
pointer
coordinates
monitor
reality object
Prior art date
Application number
RU2011135023/08A
Other languages
Russian (ru)
Other versions
RU2011135023A (en
Inventor
Дмитрий Михайлович Литманович
Андрей Михайлович Литманович
Original Assignee
Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" filed Critical Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ"
Priority to RU2011135023/08A priority Critical patent/RU2486608C2/en
Publication of RU2011135023A publication Critical patent/RU2011135023A/en
Application granted granted Critical
Publication of RU2486608C2 publication Critical patent/RU2486608C2/en

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

FIELD: measurement equipment.
SUBSTANCE: device comprises two optically coupled TV chambers of IR-range, a source of IR-light, a radiation-scattering surface optically connected with them and a space indicator, besides, outputs of TV chambers are connected to an input of a calculating device, and the scattering surface is a screen of a 3D-monitor with appropriate glasses of a user-operator. Besides, there is an interface module that generates video signals for right and left eyes, which represent a 3D-image of a virtual reality object, and changing it depending on coordinates of a space indicator, besides, the input of the interface module is connected to the output of the calculating device and the input of the 3D-monitor.
EFFECT: expansion of functional capabilities, namely provision of potential interaction between a human operator and virtual space objects.
2 cl, 10 dwg

Description

Изобретение относится к технике телевизионных измерительных систем и может быть использовано для построения трехмерных пользовательских интерфейсов в системах трехмерной виртуальной реальности.The invention relates to techniques for television measurement systems and can be used to build three-dimensional user interfaces in three-dimensional virtual reality systems.

Известно устройство ввода данных жестикуляцией, разработанное компанией Microsoft (коммерческое название продукта - Kinect ХВОХ-360), которое позволяет взаимодействовать с объектами виртуальной реальности, посредством отслеживания положения рук и тела оператора. Устройство включает в себя датчик, состоящий из телевизионной камеры ИК (инфракрасного)-диапазона и оптически сопряженного с ней ИК-излучателя, формирующего набор лучей, телевизионной камеры видимого диапазона и связанного с ними вычислительного устройства. Датчик дальности определяет пространственное положение подсвечиваемых на операторе точек, а камера видимого диапазона предназначена для выявления жестов и мимики лица.Known is the gesticulation data input device developed by Microsoft (the commercial name of the product is Kinect XBX-360), which allows you to interact with virtual reality objects by tracking the position of the hands and body of the operator. The device includes a sensor consisting of an IR (infrared) -band television camera and an infrared emitter optically coupled to it, forming a set of beams, a visible-range television camera and a computing device associated with them. The range sensor determines the spatial position of the points highlighted on the operator, and the camera of the visible range is designed to detect gestures and facial expressions.

К недостаткам данного устройства можно отнести его низкую помехоустойчивость.The disadvantages of this device include its low noise immunity.

Наиболее близким по техническому решению к предлагаемому изобретению является патент РФ "Устройство для трехмерной манипуляции". В этом устройстве используются два источника подсветки и оптически сопряженная с ними телевизионная камера ИК-диапазона, причем ее поле зрения охватывает часть периметра контролируемой поверхности. При этом регистрируются изображения контролируемой поверхности подсвеченной попеременно первым и вторым источниками подсветки, а находящийся на пути подсветки указатель - палец оператора или стилус - создает на подсвечиваемой поверхности затемненные участки. Вводя положение затемненных участков в вычислительное устройство, можно определить пространственные координаты и ориентацию указателя.The closest in technical solution to the proposed invention is the RF patent "Device for three-dimensional manipulation." This device uses two backlight sources and an infrared television camera optically paired with them, and its field of view covers part of the perimeter of the surface being monitored. In this case, images of the controlled surface are recorded alternately illuminated by the first and second sources of illumination, and the pointer located on the path of illumination — the operator’s finger or stylus — creates darkened areas on the illuminated surface. By entering the position of the shaded areas in the computing device, you can determine the spatial coordinates and orientation of the pointer.

Недостатками данного устройства являются ограниченные функциональные возможности, не позволяющие взаимодействовать человеку-оператору с виртуальными пространственными объектами, формируемыми мониторами трехмерного изображения (3D-мониторами).The disadvantages of this device are limited functionality that does not allow the human operator to interact with virtual spatial objects formed by three-dimensional image monitors (3D monitors).

Задачей предлагаемого изобретения является расширение функциональных возможностей, а именно возможность взаимодействия человека-оператора с виртуальными пространственными объектами.The objective of the invention is to expand the functionality, namely the possibility of interaction of the human operator with virtual spatial objects.

Для этого в устройство для организации интерфейса пользователя с объектом виртуальной реальности, содержащее источник ИК-подсветки, телевизионную камеру ИК-диапазона, причем выход телевизионной камеры подключен к вычислителю 3D-положения реального пространственного указателя, дополнительно вводится вторая телевизионная камера ИК-диапазона, оптически сопряженная с первой, выход второй телевизионной камеры подключен ко второму входу вычислителю 3D-положения реального пространственного указателя, причем источник ИК-подсветки оптически сопряжен с экраном вновь введенного 3D-монитора таким образом, что отраженное от него излучение направляется в сторону первой и второй телевизионных камер ИК-диапазона, причем первая и вторая телевизионные камеры оптически сопряжены с глазами человека-оператора системы, наблюдающего формируемые на 3D-мониторе изображения с помощью соответствующих 3D-монитору очков, причем 3D-монитор подключен к вновь введенному формирователю объектов виртуальной реальности, например персональному компьютеру, связанному, в свою очередь, с вычислителем 3D-положения реального пространственного указателя. При этом рабочая область устройства образуется пересечением телесных углов обзора телевизионных камер с телесными углами обзора глаз человека-оператора системы и ограничена плоскостью экрана 3D-монитора.To this end, a device for organizing a user interface with a virtual reality object containing an IR illumination source, an infrared television camera, and the television camera output being connected to a 3D position calculator of a real spatial pointer, an additional optically coupled second infrared television camera is introduced from the first, the output of the second television camera is connected to the second input of the 3D position calculator of the real spatial index, and the IR illumination source is optical and is coupled to the screen of the newly introduced 3D monitor in such a way that the radiation reflected from it is directed towards the first and second infrared television cameras, the first and second television cameras being optically paired with the eyes of the human operator of the system observing the images generated on the 3D monitor images using glasses appropriate for the 3D monitor, the 3D monitor being connected to a newly introduced shaper of virtual reality objects, for example, a personal computer, which, in turn, is connected to a 3D computer -position of the real spatial pointer. In this case, the working area of the device is formed by the intersection of the solid viewing angles of television cameras with the solid viewing angles of the eyes of the human operator of the system and is limited by the plane of the 3D monitor screen.

Причем в качестве рассеивающей поверхности используется экран введенного 3D-монитора с соответствующими ему очками пользователя-оператора, кроме того, введен интерфейсный модуль, вырабатывающий видеосигналы для левого и правого глаза оператора, представляющие собой 3D-изображение объекта виртуальной реальности, и изменяющий его в зависимости от координат реального пространственного указателя, находящегося в рабочей зоне устройства, которые поступают на вход интерфейсного модуля с выхода вычислителя 3D-положения реального пространственного указателя, которое, в свою очередь, определяет эти координаты по плоским координатам изображений реального пространственного указателя, поступающих с выхода первой и второй телевизионных камер ИК-диапазона, а оператор наблюдает изображение объекта виртуальной реальности и реальное изображение пространственного указателя, и, изменяя положение указателя в пространстве, может совместить 3D-изображение объекта виртуальной реальности, формируемое 3D-монитором, с реальным положением указателя, а при их совпадении, интерфейсный модуль производит изменение 3D-образа объекта виртуальной реальности и его положения, с выработкой соответствующего этому событию сигнала управления.Moreover, the screen of the entered 3D monitor with the corresponding glasses of the user-operator is used as a scattering surface, in addition, an interface module has been introduced that generates video signals for the left and right eyes of the operator, which are a 3D image of a virtual reality object, and changes it depending on coordinates of the real spatial pointer located in the working area of the device, which are fed to the input of the interface module from the output of the 3D position calculator of the real space a pointer, which, in turn, determines these coordinates by the flat coordinates of the images of the real spatial pointer coming from the output of the first and second television cameras of the infrared range, and the operator observes the image of the virtual reality object and the real image of the spatial pointer, and by changing the position of the pointer in space, it can combine a 3D image of a virtual reality object formed by a 3D monitor with the actual position of the pointer, and if they coincide, the interface module It produces a change 3D-image of the object of virtual reality and its provisions, with the elaboration of an appropriate control signal to this event.

Интерфейсный модуль необходим для изменения положения пространственного указателя на экране 3D-монитора, а также для взаимодействия устройства с компьютером.The interface module is necessary for changing the position of the spatial pointer on the screen of the 3D monitor, as well as for interacting with the computer.

Вторая телевизионная камера ИК-диапазона необходима для формирования зоны стереообзора устройства.A second infrared television camera is needed to form a stereo zone of the device.

3D-монитор используется для формирования изображения и для отражения излучения от источника подсветки до телевизионных камер ИК-диапазона.A 3D monitor is used to form an image and to reflect radiation from the backlight to the IR cameras.

На фиг.1 приведена функциональная схема предлагаемого устройства, где:Figure 1 shows the functional diagram of the proposed device, where:

1, 2 - первая и вторая телевизионные ИК-камеры, с телесными углами обзора ψ1 и ψ2 соответственно,1, 2 - the first and second television IR cameras, with solid viewing angles ψ 1 and ψ 2, respectively,

3 - экран 3D-монитора,3 - 3D monitor screen,

4 - ИК-излучатель с потоком ω,4 - IR emitter with a stream ω,

5 - реальный пространственный указатель,5 is a real spatial pointer,

6 - очки,6 - points

7 - вычислитель 3D-положения реального пространственного указателя,7 - calculator 3D-position of the real spatial pointer,

8 - интерфейсный модуль.8 - interface module.

На фиг.2 приведена оптико-геометрическая схема устройства, где:Figure 2 shows the optical-geometric diagram of the device, where:

9 - поток излучения, формируемый ИК-излучателем 4 и падающий на экран 3D-монитора,9 - radiation flux generated by the infrared emitter 4 and incident on the screen of a 3D monitor,

10 - отраженный от экрана поток излучения, направленный в сторону телевизионных камер 1 и 2.10 - reflected from the screen, the radiation flux directed towards the television cameras 1 and 2.

На фиг.3 приведена оптико-геометрическая схема формирования изображений подсвечиваемого экрана 3D-монитора, где:Figure 3 shows the optical-geometric diagram of the image formation of the illuminated screen of the 3D monitor, where:

11, 12 - фотоприемные матрицы,11, 12 - photodetector arrays,

13, 14 - оптические центры объективов,13, 14 - optical centers of the lenses,

15, 16 - изображения засвечиваемой поверхности экрана 3D-монитора на фотоприемных матрицах,15, 16 - images of the illuminated surface of the screen of a 3D monitor on photodetector arrays,

17 - рабочая зона стереоосистемы, для телевизионных камер 1 и 2.17 - the working area of the stereo system, for television cameras 1 and 2.

На фиг.4 приведена оптико-геометрическая схема формирования изображений реального пространственного указателя, где:Figure 4 shows the optical-geometric diagram of the formation of images of a real spatial index, where:

18, 19 - изображения реального пространственного указателя на фотоприемных матрицах телевизионных камер 1 и 2.18, 19 are images of a real spatial index on the photodetector arrays of television cameras 1 and 2.

На фиг.5 приведена геометрическая схема образования рабочего пространства устройства, где:Figure 5 shows the geometric diagram of the formation of the working space of the device, where:

20 - человек-оператор системы,20 - human operator of the system,

21 - зона стереовидения человека-оператора,21 - zone stereo vision of a human operator,

22 - зона стереообзора телевизионных камер 1 и 2,22 - stereo viewing area of television cameras 1 and 2,

23 - рабочее пространство системы.23 - the working space of the system.

На фиг.6 приведена иллюстрация сдвига плоских изображений на экране 3D-монитора, формирующих объект виртуальной реальности (далее ОВР), где:Figure 6 shows an illustration of a shift of flat images on the screen of a 3D monitor, forming a virtual reality object (hereinafter OVR), where:

τ - межзрачковое расстояние человека-оператора,τ is the interpupillary distance of the human operator,

ρ - параллакс (сдвиг) изображений вдоль горизонтальной оси,ρ - parallax (shift) of the images along the horizontal axis,

s - расстояние от зрачка до экрана 3D-монитора,s is the distance from the pupil to the screen of the 3D monitor,

q - расстояние от зрачка до точки, принадлежащей объекту виртуальной реальности,q is the distance from the pupil to the point belonging to the virtual reality object,

0XYZ - система координат, связанная с левым зрачком человека-оператора.0XYZ is the coordinate system associated with the left pupil of a human operator.

На фиг.7 приведена иллюстрация формирования на экране 3D-монитора объекта виртуальной реальности, где:Figure 7 shows an illustration of the formation on the screen of a 3D monitor of a virtual reality object, where:

24, 25 - изображения на экране 3D-монитора, формирующие ОВР,24, 25 - images on the screen of the 3D monitor, forming the ID;

26 - объект виртуальной реальности, наблюдаемый оператором.26 is a virtual reality object observed by an operator.

На фиг.8 показаны примеры изображений на фотоприемных матрицах, где:On Fig shows examples of images on photodetector arrays, where:

L, P - изображения указателя,L, P - pointer images,

aL и bL, aL, bP - информативные точки изображения указателя на фотоприемных матрицах телевизионных камер 1 и 2.a L and b L , a L , b P - informative points of the image of the pointer on the photodetector arrays of television cameras 1 and 2.

На фиг.9 изображен пример объекта виртуальной реальности - переключающий рычаг, где:Figure 9 shows an example of a virtual reality object - a switching lever, where:

27 - начальное положение рычага,27 - the initial position of the lever,

28 - положение рычага после прикосновения с ним пространственного указателя.28 - the position of the lever after touching the spatial pointer.

На фиг.10 приведена функциональная схема по второму зависимому пункту формулы изобретения.Figure 10 shows the functional diagram according to the second dependent claim.

Устройство функционирует следующим образом:The device operates as follows:

Интерфейсный модуль вырабатывает видеосигналы для левого и правого глаза оператора, представляющие собой 3D-изображение объекта виртуальной реальности, и изменяет его в зависимости от координат реального пространственного указателя, находящегося в рабочей зоне устройства, которые поступают на вход интерфейсного модуля с выхода вычислительного устройства, которое, в свою очередь, определяет эти координаты по плоским координатам изображений реального пространственного указателя, поступающих с выхода первой и второй телевизионных камер, а оператор наблюдает изображение объекта виртуальной реальности и реальное изображение пространственного указателя, и, изменяя положение указателя в пространстве, может совместить 3D-изображение объекта виртуальной реальности, формируемое 3D-монитором, с реальным положением указателя, а при их совпадении интерфейсный модуль производит изменение 3D-образа объекта виртуальной реальности и его положения, с выработкой соответствующего этому событию сигнала управления.The interface module generates video signals for the left and right eyes of the operator, which is a 3D image of a virtual reality object, and changes it depending on the coordinates of the real spatial pointer located in the working area of the device, which are input to the interface module from the output of the computing device, which, in turn, determines these coordinates by the flat coordinates of the images of the real spatial index coming from the output of the first and second television cameras p, and the operator observes the image of the virtual reality object and the real image of the spatial pointer, and by changing the position of the pointer in space, it can combine the 3D image of the virtual reality object formed by the 3D monitor with the actual position of the pointer, and when they coincide, the interface module changes 3D image of a virtual reality object and its position, with the development of a control signal corresponding to this event.

Излучатель 4 (фиг.1) создает поток ИК-излучения, телесный угол распространения которого охватывает экран 3D-монитора 3 и размещен таким образом, чтобы его излучение, отражаясь от него, направлялось в сторону реального пространственного указателя 5 и телевизионных камер 1 и 2, что иллюстрируется на фиг.2.The emitter 4 (figure 1) creates a stream of infrared radiation, the solid angle of propagation of which covers the screen of the 3D monitor 3 and is placed so that its radiation, reflected from it, is directed towards the real spatial index 5 and television cameras 1 and 2, as illustrated in figure 2.

Интерфейсный модуль 8 формирует видеосигнал, создающий на экране 3D-монитора стереоизображение, состоящее из 2-х плоских изображений, сдвинутых вдоль горизонтальной оси монитора и оптически разделяемых с помощью очков 6.The interface module 8 generates a video signal that creates a stereo image on the screen of the 3D monitor, consisting of 2 flat images shifted along the horizontal axis of the monitor and optically separated using glasses 6.

Вычислитель 3D-положения реального пространственного указателя по стереоизображению, получаемому с помощью телевизионных камер ИК-диапазона, определяет пространственные координаты указателя и передает их в интерфейсный модуль, который определяет моменты совпадения пространственных координат указателя с пространственными координатами объекта виртуальной реальности, и в соответствии с этим изменяет его изображение на экране 3D-монитора и вырабатывает соответствующие сигналы интерфейса.The 3D position calculator of the real spatial index from the stereo image obtained using the infrared television cameras determines the spatial coordinates of the pointer and passes them to the interface module, which determines the moments of coincidence of the spatial coordinates of the pointer with the spatial coordinates of the virtual reality object, and accordingly changes its image on the screen of a 3D monitor and generates the corresponding interface signals.

Учитывая разный спектральный диапазон формируемого на экране 3D-монитора изображения (видимый) и ИК телевизионных камер 1 и 2, принимаемый ими сигнал не зависит от самого изображения, формируемого на экране монитора. При этом высокий контраст, связанный с затенением экрана монитора, переотражающего поток ИК-излучения, обеспечивает получение высокой помехоустойчивости. ОВР-ом, построению интерфейса с которым предназначено предлагаемое устройство может быть, например мнимое изображение пульта управления, содержащего кнопки, индикаторы, переключатели и прочие объекты, состояния которых в пространстве можно изменять по командам, посылаемым интерфейсный модуль 8, «касаясь» их пространственных изображений реальным указателем 5. При этом сдвиг элементов (параллакс), плоских составляющих (для левого и правого глаз оператора системы) изображений объекта виртуальной реальности, определяется соотношением, выводимым из фиг.6, и имеет вид:Considering the different spectral range of the image (visible) formed on the screen of the 3D monitor and the IR cameras 1 and 2, the signal received by them does not depend on the image itself formed on the monitor screen. In this case, the high contrast associated with the shading of the monitor screen, reflecting the flow of infrared radiation, provides high noise immunity. OVR, the construction of the interface with which the proposed device is intended may be, for example, an imaginary image of a control panel containing buttons, indicators, switches and other objects whose states in space can be changed by commands sent to interface module 8, “touching” their spatial images real pointer 5. In this case, the shift of the elements (parallax), flat components (for the left and right eyes of the system operator) of the images of the virtual reality object, is determined by the ratio one of Fig.6, and has the form:

ρ ( s q q 1 ) τ ( 1 )

Figure 00000001
ρ - ( s - q q - one ) τ ( one )
Figure 00000001

где: ρ - параллакс (сдвиг) изображений вдоль горизонтальной оси, q - расстояние от зрачка до точки, принадлежащей объекту виртуальной реальности, s - расстояние от зрачка до экрана 3D-монитора, τ - межзрачковое расстояние человека-оператора.where: ρ is the parallax (shift) of the images along the horizontal axis, q is the distance from the pupil to the point belonging to the virtual reality object, s is the distance from the pupil to the 3D monitor screen, τ is the interpupillary distance of the human operator.

Чтобы обеспечить наложение пространственного указателя 5, «действующего» в реальном пространстве с объектом виртуальной реальности, необходимо совместить зону стереовидения человека-оператора данной системы с рабочей зоной стереообзора телевизионных камер 1 и 2.To ensure the imposition of the spatial index 5, "acting" in real space with a virtual reality object, it is necessary to combine the stereo vision zone of the human operator of this system with the stereo viewing area of television cameras 1 and 2.

Рабочая зона системы образуется пересечением рабочей зоны стереовидения 21 человека-оператора 20 системы с зоной стереообзора 22 телевизионных камер 1 и 2. Причем зона стереообзора телевизионных камер в свою очередь образуется пересечением телесных углов ψ1 и ψ2.The working area of the system is formed by the intersection of the stereo viewing zone 21 of the person operator 20 of the system with the stereo viewing area 22 of the television cameras 1 and 2. Moreover, the stereo viewing area of television cameras is in turn formed by the intersection of the solid angles ψ 1 and ψ 2 .

Расчет пространственного положения указателя 5 осуществляется по координатам его изображений на фотоприемных матрицах. Изображения вводятся в вычислитель 3D-положения реального пространственного указателя 7 в виде потока цифрового видеосигнала, а на фиг.6 показан пример изображений на фотоприемных матрицах. При этом расчет пространственного положения указателя 5 осуществляется согласно следующему алгоритму:The calculation of the spatial position of the pointer 5 is carried out according to the coordinates of its images on the photodetector arrays. Images are entered into the 3D position calculator of the real spatial index 7 in the form of a digital video signal stream, and Fig. 6 shows an example of images on photodetector arrays. In this case, the spatial position of the pointer 5 is calculated according to the following algorithm:

1. Поиск на изображениях характерных точек указателя (точки aL, bL, aP, bP),1. Search on images of characteristic points of the pointer (points a L , b L , a P , b P ),

2. Расчет пространственного положения этих точек согласно формулам перспективного преобразования, определенных ниже.2. The calculation of the spatial position of these points according to the perspective transformation formulas defined below.

Формулы расчета пространственного положения точек выглядят следующим образом:The formulas for calculating the spatial position of the points are as follows:

{ A ˜ = P 1 a ˜ L , A ˜ = T 1 P 1 a ˜ P , B ˜ = P 1 b ˜ L , B ˜ = T 1 P 1 b ˜ P ; ( 2 )

Figure 00000002
{ A ˜ = P - one a ˜ L , A ˜ = T - one P - one a ˜ P , B ˜ = P - one b ˜ L , B ˜ = T - one P - one b ˜ P ; ( 2 )
Figure 00000002

где:Where:

P 1 [ 1 0 0 0 0 1 0 0 0 0 1 0 0 1 f 0 1 ]

Figure 00000003
P - one - [ one 0 0 0 0 one 0 0 0 0 one 0 0 one f 0 one ]
Figure 00000003
- матрица обратного перспективного преобразования, причем f - фокусное расстояние объектива,is the matrix of the inverse perspective transformation, and f is the focal length of the lens, T 1 = [ 1 0 0 Δ x 0 1 0 0 0 0 1 0 0 0 0 1 ]
Figure 00000004
T - one = [ one 0 0 Δ x 0 one 0 0 0 0 one 0 0 0 0 one ]
Figure 00000004
- матрица, обратная матрице сдвига вдоль оси 0X на величину Δx - сдвиг правой телевизионной камеры относительно левой.is the matrix inverse to the shift matrix along the 0X axis by Δx is the shift of the right television camera relative to the left.

A ˜

Figure 00000005
, B ˜
Figure 00000006
- однородные координаты точек A и B, A ˜
Figure 00000005
, B ˜
Figure 00000006
- homogeneous coordinates of points A and B,

a ˜ L

Figure 00000007
, a ˜ P
Figure 00000008
, b ˜ L
Figure 00000009
, b ˜ P
Figure 00000010
- однородные координаты точек aL, ap, bL, bP, и могут быть получены, исходя из теории перспективных преобразований, изложенной, например, в [3]. a ˜ L
Figure 00000007
, a ˜ P
Figure 00000008
, b ˜ L
Figure 00000009
, b ˜ P
Figure 00000010
 are the homogeneous coordinates of the points aL, ap, bLbP, and can be obtained on the basis of the theory of promising transformations described, for example, in [3].

Раскрытие системы 2 приводит к 12 линейным уравнениям относительно 6 составляющих координат точек А и В.The disclosure of system 2 leads to 12 linear equations with respect to the 6 component coordinates of points A and B.

Далее может быть найдена ориентация указателя (углы Эйлера) относительно координат 0XYZ, и изменения координат точки А во времени, т.е набор ( X A , Y A , Z A , X ˙ A , Y ˙ A , Z ˙ A )

Figure 00000011
- фазовое состояние точки А. Это позволит в дальнейшем определить направление подхода пространственного указателя к заданной точке объекта виртуальной реальности.Further, the orientation of the pointer (Euler angles) relative to the coordinates 0XYZ, and changes in the coordinates of point A in time, i.e., a set ( X A , Y A , Z A , X ˙ A , Y ˙ A , Z ˙ A )
Figure 00000011
- the phase state of point A. This will further determine the direction of the spatial pointer approach to a given point of the virtual reality object.

Таким образом, вычислитель 3D-положения реального пространственного указателя реализует описанный выше алгоритм (пункты 1 и 2), расчет ориентации пространственного указателя и фазовое состояние точки А, принадлежащей указателю. Данные расчеты могут быть выполнены на базе производительного процессора, ориентированного на обработку видеоинформации, например TMS320DM368 DaVinci [4].Thus, the 3D position calculator of the real spatial pointer implements the algorithm described above (points 1 and 2), calculates the orientation of the spatial pointer, and the phase state of point A belonging to the pointer. These calculations can be performed on the basis of a productive processor oriented to processing video information, for example, TMS320DM368 DaVinci [4].

Для определения момента совпадения пространственных координат, вычисленных по формулам (2) с формируемым на экране 3D-монитора 3 ОВРа, в интерфейсный модуль 8 вводятся координаты пространственного указателя 5. При их совпадении с координатами отдельных элементов объекта виртуальной реальности, интерфейсный модуль 8 изменяет положение отдельных элементов объекта виртуальной реальности и «переводит» его в новое пространственное состояние. Например, мнимое изображение пространственного рычага управления переводится в новое положение при «прикосновении» указателя 5 (совпадении координат указателя 5 с координатой определенной точки 3D-изображения) с мнимым изображением этого рычага. Сказанное иллюстрируется фиг.9, где исходное 3D-изображение рычага 27 изменяется на изображение 28 после совпадения координаты точки пространственного указателя с координатами точки 3D-изображения этого рычага. Естественно, что возможно определенное количество промежуточных 3D-изображений объекта виртуальной реальности, делающих процесс перехода объекта виртуальной реальности из одного пространственного положения в другое более плавным.To determine the moment of coincidence of the spatial coordinates calculated by formulas (2) with the OVA generated on the screen of the 3D monitor 3, the coordinates of the spatial pointer 5 are entered into the interface module 8. When they coincide with the coordinates of the individual elements of the virtual reality object, the interface module 8 changes the position of the individual elements of the object of virtual reality and "translates" it into a new spatial state. For example, the imaginary image of the spatial control lever is moved to a new position when the pointer 5 is “touched” (the coordinates of the pointer 5 coincide with the coordinate of a certain point of the 3D image) with the imaginary image of this lever. The foregoing is illustrated in Fig. 9, where the initial 3D image of the lever 27 changes to the image 28 after the coordinates of the spatial pointer point coincide with the coordinates of the 3D image point of this lever. Naturally, a certain number of intermediate 3D images of a virtual reality object is possible, making the transition of a virtual reality object from one spatial position to another more smooth.

Сказанное иллюстрируется следующим алгоритмом, описывающим работу интерфейсного модуля:The above is illustrated by the following algorithm that describes the operation of the interface module:

1. Проверить, попадает ли в заданную для некоторого i-го объекта виртуальной реальности, находящегося в состоянии I область R I J i

Figure 00000012
, фазовые координаты точки А, принадлежащие данному пространственному указателю в момент времени t1. Check if the domain is in the given region for a certain i-th virtual reality object in state I R I J i
Figure 00000012
, phase coordinates of point A belonging to a given spatial index at time t

( X A , Y A , Z A , X ˙ A , Y ˙ A , Z ˙ A ) t R I J

Figure 00000013
. ( X A , Y A , Z A , X ˙ A , Y ˙ A , Z ˙ A ) t R I J
Figure 00000013
.

2. Если данное условие выполняется, i-й объект виртуальной реальности переходит в новое состояние i+1, изображение которого перестраивается на экране 3D-монитора.2. If this condition is met, the i-th virtual reality object goes into a new state i + 1, the image of which is rebuilt on the screen of a 3D monitor.

Обнаружение реального пространственного указателя 5 может осуществляться также и путем непосредственной подсветки его излучателем 4, при этом излучатель должен располагаться в районе телевизионных камер 1 и 2, как это изображено на фиг.10. Яркость источника подсветки должна обеспечивать обнаружение полезного сигнала, на фоне паразитных излучений окружающей сцены, и обеспечивать подсветку указателя в рабочей зоне устройства (определенной выше как пересечение зоны стереовидения человека-оператора зоной стереообзора телевизионных камер 1 и 2). Кроме того, в рабочей зоне не должно находится бликующих объектов, переотражающих излучение в объективы телевизионных камер 1 и 2. Таким образом, излучатель в данном случае должен быть оптически сопряжен с телевизионными камерами 1 и 2.The detection of the real spatial index 5 can also be carried out by directly illuminating it with the emitter 4, while the emitter should be located in the area of television cameras 1 and 2, as shown in Fig.10. The brightness of the illumination source should ensure the detection of a useful signal against the background spurious emissions of the surrounding scene, and provide illumination of the pointer in the working area of the device (defined above as the intersection of the stereo vision zone of a human operator with the stereo viewing area of television cameras 1 and 2). In addition, in the working area there should not be glare objects that reflect radiation into the lenses of television cameras 1 and 2. Thus, the emitter in this case should be optically paired with television cameras 1 and 2.

Данный алгоритм работы может быть реализован на специализированном вычислительным устройством или на типовом персональном компьютере.This algorithm of work can be implemented on a specialized computing device or on a typical personal computer.

Источники информацииInformation sources

1. Патент США US 20100199228. Gesture Keyboarding.1. US patent US 20100199228. Gesture Keyboarding.

2. Патент РФ №2362216. Устройство для трехмерной манипуляции (прототип).2. RF patent No. 2362216. Device for three-dimensional manipulation (prototype).

3. Р.Дуда, П.Харт, Распознавание образов и анализ сцен. М., Мир, 1976 г.3. R. Duda, P. Hart, Pattern Recognition and Scene Analysis. M., World, 1976

Claims (2)

1. Устройство для организации интерфейса пользователя с объектом виртуальной реальности, содержащее источник ИК-подсветки, телевизионную камеру ИК-диапазона, оптически сопряженную с ними рассеивающую излучение поверхность и реальный пространственный указатель, причем выход телевизионной камеры подключен к вычислителю 3D-положения реального пространственного указателя, отличающееся тем, что дополнительно содержит вторую телевизионную камеру, оптически сопряженную с первой, выход которой подключен ко второму входу вычислителя 3D-положения реального пространственного указателя, который определяет пространственные координаты реального пространственного указателя по стереоизображению, получаемому с помощью телевизионных камер ИК-диапазона, причем в качестве рассеивающей поверхности используется экран введенного 3D-монитора с соответствующими ему очками пользователя-оператора, кроме того, введен интерфейсный модуль, вырабатывающий видеосигналы для левого и правого глаза оператора, представляющие собой 3D-изображение объекта виртуальной реальности, определяющий моменты совпадения координат реального пространственного указателя, вычисленных вычислителем 3D-положения реального пространственного указателя, с координатами объекта виртуальной реальности, и изменяющий его в зависимости от координат реального пространственно указателя.1. A device for organizing a user interface with a virtual reality object, comprising an IR illumination source, an infrared television camera, a surface that is optically coupled to them and a real spatial pointer, and the output of the television camera is connected to a 3D position calculator of a real spatial pointer, characterized in that it further comprises a second television camera, optically paired with the first, the output of which is connected to the second input of the 3D-polo computer a real spatial index, which determines the spatial coordinates of the real spatial index from the stereo image obtained with the help of infrared television cameras, and the screen of the entered 3D monitor with the corresponding operator’s glasses is used as a scattering surface, in addition, an interface module is introduced, generating video signals for the left and right eyes of the operator, which is a 3D image of a virtual reality object that defines The moments of coincidence of the coordinates of the real spatial pointer, calculated by the 3D position calculator of the real spatial pointer, with the coordinates of the virtual reality object, and changing it depending on the coordinates of the real spatial pointer. 2. Устройство для организации интерфейса пользователя с объектом виртуальной реальности по п.1, отличающееся тем, что источник подсветки оптически сопряжен с первой и второй телевизионными камерами ИК-диапазона и располагается в непосредственной близости от первой и второй телевизионных камер ИК-диапазона. 2. A device for organizing a user interface with a virtual reality object according to claim 1, characterized in that the backlight is optically coupled to the first and second infrared television cameras and is located in close proximity to the first and second infrared television cameras.
RU2011135023/08A 2011-08-23 2011-08-23 Device for organisation of interface with object of virtual reality RU2486608C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2011135023/08A RU2486608C2 (en) 2011-08-23 2011-08-23 Device for organisation of interface with object of virtual reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2011135023/08A RU2486608C2 (en) 2011-08-23 2011-08-23 Device for organisation of interface with object of virtual reality

Publications (2)

Publication Number Publication Date
RU2011135023A RU2011135023A (en) 2013-02-27
RU2486608C2 true RU2486608C2 (en) 2013-06-27

Family

ID=48702553

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011135023/08A RU2486608C2 (en) 2011-08-23 2011-08-23 Device for organisation of interface with object of virtual reality

Country Status (1)

Country Link
RU (1) RU2486608C2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2661808C2 (en) * 2014-01-17 2018-07-19 СОНИ ИНТЕРЭКТИВ ЭНТЕРТЕЙНМЕНТ АМЕРИКА ЭлЭлСи Using second screen as private tracking heads-up display

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2119184C1 (en) * 1997-06-13 1998-09-20 Евсей Исаакович Якубович Process of formation and reproduction of three-dimensional image and device for its implementation
RU2159017C2 (en) * 1995-06-21 2000-11-10 Араухо Де Соуза Маурисио Method for inputting and editing images in order to produce virtual depth effect
US20060012675A1 (en) * 2004-05-10 2006-01-19 University Of Southern California Three dimensional interaction with autostereoscopic displays
RU2284672C1 (en) * 2005-03-29 2006-09-27 Борис Иванович Волков Applied television system
RU2298294C2 (en) * 2001-06-05 2007-04-27 Риэктрикс Системз, Инк. Interactive video display system
US20080246757A1 (en) * 2005-04-25 2008-10-09 Masahiro Ito 3D Image Generation and Display System
RU2362216C1 (en) * 2008-05-12 2009-07-20 Михаил Герцевич Литманович Device for three-dimensional manipulation
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2159017C2 (en) * 1995-06-21 2000-11-10 Араухо Де Соуза Маурисио Method for inputting and editing images in order to produce virtual depth effect
RU2119184C1 (en) * 1997-06-13 1998-09-20 Евсей Исаакович Якубович Process of formation and reproduction of three-dimensional image and device for its implementation
RU2298294C2 (en) * 2001-06-05 2007-04-27 Риэктрикс Системз, Инк. Interactive video display system
US20060012675A1 (en) * 2004-05-10 2006-01-19 University Of Southern California Three dimensional interaction with autostereoscopic displays
RU2284672C1 (en) * 2005-03-29 2006-09-27 Борис Иванович Волков Applied television system
US20080246757A1 (en) * 2005-04-25 2008-10-09 Masahiro Ito 3D Image Generation and Display System
RU2362216C1 (en) * 2008-05-12 2009-07-20 Михаил Герцевич Литманович Device for three-dimensional manipulation
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2661808C2 (en) * 2014-01-17 2018-07-19 СОНИ ИНТЕРЭКТИВ ЭНТЕРТЕЙНМЕНТ АМЕРИКА ЭлЭлСи Using second screen as private tracking heads-up display

Also Published As

Publication number Publication date
RU2011135023A (en) 2013-02-27

Similar Documents

Publication Publication Date Title
US20150043770A1 (en) Speckle sensing for motion tracking
EP3616030B1 (en) Navigating a holographic image
US20140118255A1 (en) Graphical user interface adjusting to a change of user's disposition
WO2018161542A1 (en) 3d touch interaction device and touch interaction method thereof, and display device
KR101666561B1 (en) System and Method for obtaining Subspace in Augmented Space
US20130154913A1 (en) Systems and methods for a gaze and gesture interface
JP4657331B2 (en) Pointed position setting device, method and program for three-dimensional display
CN106980377B (en) A kind of interactive system and its operating method of three-dimensional space
KR101892735B1 (en) Apparatus and Method for Intuitive Interaction
KR20120068253A (en) Method and apparatus for providing response of user interface
KR101835363B1 (en) Apparatus and method for continuously displaying the information of objects changed by the movement of line of sights
Cassinelli et al. Smart laser-scanner for 3D human-machine interface
Wang et al. Bare finger 3D air-touch system using an embedded optical sensor array for mobile displays
US11194402B1 (en) Floating image display, interactive method and system for the same
US9122346B2 (en) Methods for input-output calibration and image rendering
KR20110021249A (en) Computer system and method of driving the same
RU2486608C2 (en) Device for organisation of interface with object of virtual reality
TWI454653B (en) Systems and methods for determining three-dimensional absolute coordinates of objects
EP3088991B1 (en) Wearable device and method for enabling user interaction
CN112449166B (en) Holographic projection device, projection control method, projection control apparatus, computer device, and medium
KR20200039995A (en) Method of space touch detecting and display device performing the same
KR20140055987A (en) Method of display control for image
US9218104B2 (en) Image processing device, image processing method, and computer program product
JP6068741B2 (en) Display system
Periverzov et al. 3D Imaging for hand gesture recognition: Exploring the software-hardware interaction of current technologies

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20170824