RU2592458C2 - Method for generating augmented reality images ensuring correct perception of virtual objects removal - Google Patents

Method for generating augmented reality images ensuring correct perception of virtual objects removal Download PDF

Info

Publication number
RU2592458C2
RU2592458C2 RU2014125886/08A RU2014125886A RU2592458C2 RU 2592458 C2 RU2592458 C2 RU 2592458C2 RU 2014125886/08 A RU2014125886/08 A RU 2014125886/08A RU 2014125886 A RU2014125886 A RU 2014125886A RU 2592458 C2 RU2592458 C2 RU 2592458C2
Authority
RU
Russia
Prior art keywords
virtual objects
virtual
control computer
augmented reality
observer
Prior art date
Application number
RU2014125886/08A
Other languages
Russian (ru)
Other versions
RU2014125886A (en
Inventor
Андрей Леонидович Горбунов
Андрей Юрьевич Зелинский
Андрей Иванович Кауров
Original Assignee
Общество с ограниченной ответственностью "АВИАРЕАЛ"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "АВИАРЕАЛ" filed Critical Общество с ограниченной ответственностью "АВИАРЕАЛ"
Priority to RU2014125886/08A priority Critical patent/RU2592458C2/en
Publication of RU2014125886A publication Critical patent/RU2014125886A/en
Application granted granted Critical
Publication of RU2592458C2 publication Critical patent/RU2592458C2/en

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

FIELD: computer engineering.
SUBSTANCE: invention relates to computer engineering. Method for generating augmented reality images ensuring correct perception of virtual objects removal, using an augmented reality system, wherein a helmet of virtual reality with a sensor of local positioning subsystem is used during generating augmented reality images; adaptation unit obtains data on current time from the control computer, and from the local positioning subsystem and data on an observer position and its sight direction from the satellite positioning system, generates virtual object shadow parameters, which shell be visible for the observer in current place and time circumstances; analyses brightness, colour gamma and definition of corresponding picture fragments recieved from a video camera via obtaining from the control computer image position data of virtual objects relative to picture recieved from the video camera and generates adapted parameters for virtual objects, which are transmitted to the control computer for generating stereo image of virtual objects.
EFFECT: technical result is eliminating effect of incorrect evaluation of distance to the virtual objects, which are located at considerable distance from the observer.
1 cl, 1 dwg

Description

Изобретение относится к технологиям дополненной реальности (augmented reality), позволяющим совмещать в одном пространстве реальный мир и виртуальные, созданные компьютером объекты.The invention relates to augmented reality technologies that allow combining the real world and virtual objects created by a computer in one space.

Уровень техники.The level of technology.

Известны системы дополненной реальности, где стереокартина реального мира формируется с помощью двух видеокамер, размещаемых перед глазами пользователя. Примером могут служить системы с применением устройства VideiVision компании WorldViz http://www.worldviz.corn/products/augmented-reality/videovision. При этом стереопары виртуальных объектов формируются управляющим компьютером и накладываются в соответствии с данными подсистемы позиционирования на видеопотоки от видеокамер с последующим воспроизведении полученного стереоскопического изображения дополненной реальности на микродисплеях шлема виртуальной реальности.Augmented reality systems are known where a stereo picture of the real world is formed using two video cameras placed in front of the user's eyes. An example is a system using a WorldViz VideiVision device http://www.worldviz.corn/products/augmented-reality/videovision. In this case, stereopairs of virtual objects are formed by the control computer and superimposed in accordance with the data of the positioning subsystem on video streams from video cameras with subsequent reproduction of the obtained stereoscopic augmented reality image on the microdisplays of the virtual reality helmet.

При этом в случае воспроизведения виртуальных объектов, находящихся достаточно далеко от наблюдателя, возникает проблема неправильного восприятия удаления виртуальных объектов. Так как элементы виртуальной картинки выглядят заметно четче и ярче наблюдаемых на большом удалении элементов реального мира в силу наблюдения последних через слой воздуха и из-за искажений, вносимых оптикой видеокамер, то виртуальные объекты воспринимаются человеком как находящиеся ближе, чем на самом деле. Этот эффект не проявляется для виртуальных объектов, находящихся вблизи от наблюдателя, поскольку при этом расстояние до виртуального объекта соответствует расстоянию, представление о котором формируется у наблюдателя по внешним признакам изображений виртуальных объектов - яркости, цветовой гамме, четкости, отчетливости тени, которые мозг наблюдателя соотносит с признаками изображения реального мира.Moreover, in the case of reproduction of virtual objects located far enough from the observer, the problem of incorrect perception of the removal of virtual objects arises. Since the elements of the virtual picture look noticeably sharper and brighter than those observed at a great distance of the elements of the real world due to the observation of the latter through the air layer and due to distortions introduced by the optics of the cameras, virtual objects are perceived by the person as being closer than they actually are. This effect is not manifested for virtual objects located close to the observer, since the distance to the virtual object corresponds to the distance that the observer understands according to the external signs of the images of virtual objects - brightness, color gamut, clarity, distinctness of the shadow, which the observer's brain correlates with signs of an image of the real world.

Технической задачей предлагаемого изобретения является создание способа формирования изображения дополненной реальности с использованием видеокамер обеспечивающего корректное восприятие удаления виртуальных объектов.The technical task of the invention is the creation of a method of forming an augmented reality image using video cameras providing the correct perception of the removal of virtual objects.

Раскрытие изобретенияDisclosure of invention

Технический результат предлагаемого изобретения состоит в устранении эффекта неправильной оценки расстояния до виртуальных объектов, которые находятся на значительном удалении от наблюдателя, в картинке дополненной реальности, формируемой системой с использованием видеокамер для воспроизведения реального мира.The technical result of the invention consists in eliminating the effect of an incorrect estimate of the distance to virtual objects that are located at a considerable distance from the observer in an augmented reality picture formed by a system using video cameras to reproduce the real world.

Указанный технический результат достигается тем, что в состав системы дополненной реальности, где картина реального мира формируется с помощью видеокамер, размещаемых перед глазами пользователя, вводится блок адаптации характера воспроизведения виртуальных объектов к характеру воспроизведения видимого реального мира. The indicated technical result is achieved by the fact that the adaptation of the nature of the reproduction of virtual objects to the nature of the reproduction of the visible real world is introduced into the augmented reality system, where the picture of the real world is formed using cameras placed in front of the user's eyes.

Функциями блока являются:The functions of the block are:

1) анализ текущей яркости и цветовой гаммы фрагментов получаемой от видеокамер картинки реального мира, на которые предполагается накладывать изображения виртуальных объектов;1) analysis of the current brightness and color gamut of fragments of real-world pictures obtained from video cameras, on which images of virtual objects are supposed to be superimposed;

2) регистрация текущего времени, получаемого из управляющего системой компьютера;2) registration of the current time received from the computer system manager;

3) регистрация текущего направления наблюдения, получаемого из подсистемы позиционирования системы дополненной реальности;3) recording the current direction of observation obtained from the positioning subsystem of the augmented reality system;

4) формирование параметров изображения виртуальных объектов, адаптированных к параметрам фрагментов видеокартинки реального мира, на которые предполагается накладывать изображения виртуальных объектов, в том числе а) яркости, б) зависящей от условий освещенности цветовой гаммы, в) четкости, г) направления и размера теней.4) the formation of image parameters of virtual objects adapted to the parameters of fragments of a video picture of the real world on which it is supposed to superimpose images of virtual objects, including a) brightness, b) depending on the lighting conditions of the color gamut, c) clarity, d) the direction and size of the shadows .

Управляющий компьютер получает от блока адаптации адаптированные параметры изображения виртуальных объектов и использует их для формирования этих изображений. Как результат устраняется эффект неправильной оценки удаления виртуальных объектов.The control computer receives adapted image parameters of virtual objects from the adaptation unit and uses them to form these images. As a result, the effect of incorrect assessment of the removal of virtual objects is eliminated.

Краткое описание иллюстраций.A brief description of the illustrations.

Фиг. 1 - техническая реализация способа формирования изображения дополненной реальности, обеспечивающей корректное восприятие удаления виртуальных объектов.FIG. 1 - technical implementation of the method of imaging augmented reality, providing the correct perception of the removal of virtual objects.

Осуществление изобретения.The implementation of the invention.

Осуществление предлагаемого способа формирования изображения дополненной реальности, обеспечивающей корректное восприятие удаления виртуальных объектов заключается в следующем.Implementation of the proposed method of imaging augmented reality, providing the correct perception of the removal of virtual objects is as follows.

Способ подразумевает использование системы (см. фиг. 1), которая включает шлем виртуальной реальности, снабженный двумя микродисплеями и двумя видеокамерами, подсистему локального позиционирования, содержащую средство определения трех линейных и трех угловых координат положения шлема виртуальной реальности в пространстве и приемник глобальной спутниковой навигационной системы, управляющий компьютер, генерирующий пару стереоизображений для микродисплеев шлема виртуальной реальности, причем датчик локальной подсистемы позиционирования размещен на шлеме виртуальной реальности и блок адаптации характера воспроизведения виртуальных объектов к характеру воспроизведения видимого реального мира. Входы блока адаптации подключены к управляющему компьютеру, к подсистеме локального позиционирования, к системе спутниковой навигации и к видеопотоку, поступающему от любой из видеокамер. Получая от управляющего компьютера данные о текущем времени, а от подсистемы локального позиционирования и спутниковой системы позиционирования данные о положении наблюдателя и направлении его взгляда, блок адаптации вырабатывает параметры тени виртуального объекта, которую должен видеть наблюдатель в текущих обстоятельствах места и времени. Получая от управляющего компьютера данные о положении изображения виртуальных объектов относительно картинки от видеокамеры, на которую накладывается изображение виртуальных объектов, блок адаптации анализирует яркость, цветовую гамму и четкость соответствующих фрагментов картинки от видеокамеры и вырабатывает адаптированные параметры для виртуальных объектов. Выработанные блоком адаптации параметры передаются управляющему компьютеру для формирования изображения виртуальных объектов.The method involves the use of a system (see Fig. 1), which includes a virtual reality helmet equipped with two microdisplays and two video cameras, a local positioning subsystem containing means for determining three linear and three angular coordinates of the position of the virtual reality helmet in space and a receiver of the global satellite navigation system , a control computer that generates a pair of stereo images for microdisplays of a virtual reality helmet, and the sensor of the local positioning subsystem The company is placed on a virtual reality helmet and a unit for adapting the nature of reproduction of virtual objects to the nature of reproduction of the visible real world. The inputs of the adaptation unit are connected to the control computer, to the local positioning subsystem, to the satellite navigation system and to the video stream coming from any of the cameras. Receiving data about the current time from the control computer, and from the local positioning subsystem and the satellite positioning system, data on the position of the observer and the direction of his gaze, the adaptation unit produces the shadow parameters of the virtual object that the observer should see in the current circumstances of the place and time. Receiving data from the control computer on the position of the image of virtual objects relative to the image from the video camera, on which the image of virtual objects is superimposed, the adaptation unit analyzes the brightness, color gamut and clarity of the corresponding fragments of the image from the video camera and generates adapted parameters for virtual objects. The parameters developed by the adaptation unit are transferred to the control computer for imaging virtual objects.

Блок адаптации реализуется как отдельное вычислительное устройство, содержащее собственный процессор для выработки адаптированных параметров виртуальных объектов. В качестве подсистемы локального позиционирования, спутниковой навигационной системы и шлема виртуальной реальности можно использовать серийно выпускаемые промышленностью изделия, например Polhemus G4, GlobalSat BU-353, Sony HMZ.The adaptation unit is implemented as a separate computing device containing its own processor for generating adapted parameters of virtual objects. As a subsystem of local positioning, a satellite navigation system and a virtual reality helmet, you can use commercially available products, for example Polhemus G4, GlobalSat BU-353, Sony HMZ.

Claims (1)

Способ формирования изображения дополненной реальности, обеспечивающий корректное восприятие удаления виртуальных объектов, включающий подсистему локального позиционирования, приемник глобальной спутниковой навигационной системы, управляющий компьютер, генерирующий пару стереоизображений, отличающийся тем, что при формировании изображения дополненной реальности используются шлем виртуальной реальности, снабженный двумя микродисплеями и двумя видеокамерами, причем датчик локальной подсистемы позиционирования размещен на шлеме виртуальной реальности, блок адаптации характера воспроизведения виртуальных объектов к характеру воспроизведения видимого реального мира, входы блока адаптации подключены к управляющему компьютеру, к подсистеме локального позиционирования и системе спутниковой навигации, к видеопотоку, поступающему от любой из видеокамер, при этом блок адаптации, получая от управляющего компьютера данные о текущем времени, а от подсистемы локального позиционирования и спутниковой системы позиционирования данные о положении наблюдателя и направлении его взгляда, вырабатывает параметры тени виртуального объекта, которую должен видеть наблюдатель в текущих обстоятельствах места и времени; получая от управляющего компьютера данные о положении изображения виртуальных объектов относительно картинки от видеокамеры, на которую накладывается изображение виртуальных объектов, анализирует яркость, цветовую гамму и четкость соответствующих фрагментов картинки от видеокамеры и вырабатывает адаптированные параметры для виртуальных объектов, а выработанные блоком адаптации параметры передаются управляющему компьютеру для формирования стереоизображения виртуальных объектов, выводимого на микродисплеи шлема виртуальной реальности. A method of forming an augmented reality image that provides a correct perception of the removal of virtual objects, including a local positioning subsystem, a global satellite navigation receiver, a control computer that generates a pair of stereo images, characterized in that when creating an augmented reality image, a virtual reality helmet is used, equipped with two microdisplays and two video cameras, and the sensor of the local positioning subsystem is placed on the helmet virtual reality, the adaptation block of the nature of the reproduction of virtual objects to the nature of the reproduction of the visible real world, the inputs of the adaptation block are connected to the control computer, to the local positioning subsystem and the satellite navigation system, to the video stream coming from any of the cameras, while the adaptation block is received from the control computer data about the current time, and from the local positioning subsystem and satellite positioning system data about the position of the observer and the direction of his gaze, develops the parameters of the shadow of the virtual object, which the observer should see in the current circumstances of the place and time; receiving data from the control computer on the position of the image of virtual objects relative to the picture from the video camera, on which the image of virtual objects is superimposed, analyzes the brightness, color gamut and clarity of the corresponding fragments of the picture from the video camera and generates adapted parameters for virtual objects, and the parameters generated by the adaptation unit are transmitted to the control computer for forming a stereo image of virtual objects displayed on the microdisplays of a virtual reality helmet nosti.
RU2014125886/08A 2014-06-26 2014-06-26 Method for generating augmented reality images ensuring correct perception of virtual objects removal RU2592458C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2014125886/08A RU2592458C2 (en) 2014-06-26 2014-06-26 Method for generating augmented reality images ensuring correct perception of virtual objects removal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014125886/08A RU2592458C2 (en) 2014-06-26 2014-06-26 Method for generating augmented reality images ensuring correct perception of virtual objects removal

Publications (2)

Publication Number Publication Date
RU2014125886A RU2014125886A (en) 2016-01-27
RU2592458C2 true RU2592458C2 (en) 2016-07-20

Family

ID=55237070

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014125886/08A RU2592458C2 (en) 2014-06-26 2014-06-26 Method for generating augmented reality images ensuring correct perception of virtual objects removal

Country Status (1)

Country Link
RU (1) RU2592458C2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019140049A1 (en) * 2018-01-10 2019-07-18 Lumeova, Inc. Method, devices and system for wireless communication channels fso
RU2754991C2 (en) * 2017-03-06 2021-09-08 ЮНИВЕРСАЛ СИТИ СТЬЮДИОС ЭлЭлСи System of device for viewing mixed reality and method for it

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2493606C2 (en) * 2011-02-08 2013-09-20 Московский государственный технический университет гражданской авиации Method of training air traffic controllers of taxiing, takeoff and landing control centres of actual airfield

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2493606C2 (en) * 2011-02-08 2013-09-20 Московский государственный технический университет гражданской авиации Method of training air traffic controllers of taxiing, takeoff and landing control centres of actual airfield

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2754991C2 (en) * 2017-03-06 2021-09-08 ЮНИВЕРСАЛ СИТИ СТЬЮДИОС ЭлЭлСи System of device for viewing mixed reality and method for it
WO2019140049A1 (en) * 2018-01-10 2019-07-18 Lumeova, Inc. Method, devices and system for wireless communication channels fso
US10931371B2 (en) 2018-01-10 2021-02-23 Lumeova, Inc. Methods, devices, and systems for timing and bandwidth management of ultra-wideband, wireless communication channels
US11539433B2 (en) 2018-01-10 2022-12-27 Lumeova, Inc. Methods, devices, and systems for timing and bandwidth management of ultra-wideband, wireless communication channels
US11901940B2 (en) 2018-01-10 2024-02-13 Lumeova, Inc. Methods, devices, and systems for timing and bandwidth management of ultra-wideband, wireless communication channels

Also Published As

Publication number Publication date
RU2014125886A (en) 2016-01-27

Similar Documents

Publication Publication Date Title
CN109074681B (en) Information processing apparatus, information processing method, and program
JP6653369B2 (en) Augmented reality system and color compensation method thereof
US10235806B2 (en) Depth and chroma information based coalescence of real world and virtual world images
US9551871B2 (en) Virtual light in augmented reality
WO2018165041A8 (en) Mixed reality viewer system and method
US20180315364A1 (en) Information Processing Apparatus and Image Generation Method
WO2016091030A1 (en) Transmissive augmented reality near-eye display
US10587868B2 (en) Virtual reality system using mixed reality and implementation method thereof
MY194042A (en) Systems and methods for generating stereoscopic, augmented, and virtual reality images
NZ745790A (en) Direct light compensation technique for augmented reality system
CN108463840B (en) Information processing apparatus, information processing method, and recording medium
EP3514766A3 (en) Electronic device, method for displaying an augmented reality scene and non-transitory computer-readable medium
KR101279869B1 (en) Apparatus and method for displaying flight simulator image using head mounted display
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
JP2020035455A (en) Sharing mediated reality content
US10616567B1 (en) Frustum change in projection stereo rendering
CN108885339A (en) For using the configuration of adaptive focal plane rendering virtual reality
US20210019898A1 (en) Scene camera retargeting
JPWO2021076757A5 (en)
US10296080B2 (en) Systems and methods to simulate user presence in a real-world three-dimensional space
US20100123716A1 (en) Interactive 3D image Display method and Related 3D Display Apparatus
KR20200043371A (en) Information processing apparatus, information processing method, and program
EP3038061A1 (en) Apparatus and method to display augmented reality data
JP2018500690A (en) Method and system for generating magnified 3D images
RU2592458C2 (en) Method for generating augmented reality images ensuring correct perception of virtual objects removal