RU2592458C2 - Method for generating augmented reality images ensuring correct perception of virtual objects removal - Google Patents
Method for generating augmented reality images ensuring correct perception of virtual objects removal Download PDFInfo
- Publication number
- RU2592458C2 RU2592458C2 RU2014125886/08A RU2014125886A RU2592458C2 RU 2592458 C2 RU2592458 C2 RU 2592458C2 RU 2014125886/08 A RU2014125886/08 A RU 2014125886/08A RU 2014125886 A RU2014125886 A RU 2014125886A RU 2592458 C2 RU2592458 C2 RU 2592458C2
- Authority
- RU
- Russia
- Prior art keywords
- virtual objects
- virtual
- control computer
- augmented reality
- observer
- Prior art date
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
Изобретение относится к технологиям дополненной реальности (augmented reality), позволяющим совмещать в одном пространстве реальный мир и виртуальные, созданные компьютером объекты.The invention relates to augmented reality technologies that allow combining the real world and virtual objects created by a computer in one space.
Уровень техники.The level of technology.
Известны системы дополненной реальности, где стереокартина реального мира формируется с помощью двух видеокамер, размещаемых перед глазами пользователя. Примером могут служить системы с применением устройства VideiVision компании WorldViz http://www.worldviz.corn/products/augmented-reality/videovision. При этом стереопары виртуальных объектов формируются управляющим компьютером и накладываются в соответствии с данными подсистемы позиционирования на видеопотоки от видеокамер с последующим воспроизведении полученного стереоскопического изображения дополненной реальности на микродисплеях шлема виртуальной реальности.Augmented reality systems are known where a stereo picture of the real world is formed using two video cameras placed in front of the user's eyes. An example is a system using a WorldViz VideiVision device http://www.worldviz.corn/products/augmented-reality/videovision. In this case, stereopairs of virtual objects are formed by the control computer and superimposed in accordance with the data of the positioning subsystem on video streams from video cameras with subsequent reproduction of the obtained stereoscopic augmented reality image on the microdisplays of the virtual reality helmet.
При этом в случае воспроизведения виртуальных объектов, находящихся достаточно далеко от наблюдателя, возникает проблема неправильного восприятия удаления виртуальных объектов. Так как элементы виртуальной картинки выглядят заметно четче и ярче наблюдаемых на большом удалении элементов реального мира в силу наблюдения последних через слой воздуха и из-за искажений, вносимых оптикой видеокамер, то виртуальные объекты воспринимаются человеком как находящиеся ближе, чем на самом деле. Этот эффект не проявляется для виртуальных объектов, находящихся вблизи от наблюдателя, поскольку при этом расстояние до виртуального объекта соответствует расстоянию, представление о котором формируется у наблюдателя по внешним признакам изображений виртуальных объектов - яркости, цветовой гамме, четкости, отчетливости тени, которые мозг наблюдателя соотносит с признаками изображения реального мира.Moreover, in the case of reproduction of virtual objects located far enough from the observer, the problem of incorrect perception of the removal of virtual objects arises. Since the elements of the virtual picture look noticeably sharper and brighter than those observed at a great distance of the elements of the real world due to the observation of the latter through the air layer and due to distortions introduced by the optics of the cameras, virtual objects are perceived by the person as being closer than they actually are. This effect is not manifested for virtual objects located close to the observer, since the distance to the virtual object corresponds to the distance that the observer understands according to the external signs of the images of virtual objects - brightness, color gamut, clarity, distinctness of the shadow, which the observer's brain correlates with signs of an image of the real world.
Технической задачей предлагаемого изобретения является создание способа формирования изображения дополненной реальности с использованием видеокамер обеспечивающего корректное восприятие удаления виртуальных объектов.The technical task of the invention is the creation of a method of forming an augmented reality image using video cameras providing the correct perception of the removal of virtual objects.
Раскрытие изобретенияDisclosure of invention
Технический результат предлагаемого изобретения состоит в устранении эффекта неправильной оценки расстояния до виртуальных объектов, которые находятся на значительном удалении от наблюдателя, в картинке дополненной реальности, формируемой системой с использованием видеокамер для воспроизведения реального мира.The technical result of the invention consists in eliminating the effect of an incorrect estimate of the distance to virtual objects that are located at a considerable distance from the observer in an augmented reality picture formed by a system using video cameras to reproduce the real world.
Указанный технический результат достигается тем, что в состав системы дополненной реальности, где картина реального мира формируется с помощью видеокамер, размещаемых перед глазами пользователя, вводится блок адаптации характера воспроизведения виртуальных объектов к характеру воспроизведения видимого реального мира. The indicated technical result is achieved by the fact that the adaptation of the nature of the reproduction of virtual objects to the nature of the reproduction of the visible real world is introduced into the augmented reality system, where the picture of the real world is formed using cameras placed in front of the user's eyes.
Функциями блока являются:The functions of the block are:
1) анализ текущей яркости и цветовой гаммы фрагментов получаемой от видеокамер картинки реального мира, на которые предполагается накладывать изображения виртуальных объектов;1) analysis of the current brightness and color gamut of fragments of real-world pictures obtained from video cameras, on which images of virtual objects are supposed to be superimposed;
2) регистрация текущего времени, получаемого из управляющего системой компьютера;2) registration of the current time received from the computer system manager;
3) регистрация текущего направления наблюдения, получаемого из подсистемы позиционирования системы дополненной реальности;3) recording the current direction of observation obtained from the positioning subsystem of the augmented reality system;
4) формирование параметров изображения виртуальных объектов, адаптированных к параметрам фрагментов видеокартинки реального мира, на которые предполагается накладывать изображения виртуальных объектов, в том числе а) яркости, б) зависящей от условий освещенности цветовой гаммы, в) четкости, г) направления и размера теней.4) the formation of image parameters of virtual objects adapted to the parameters of fragments of a video picture of the real world on which it is supposed to superimpose images of virtual objects, including a) brightness, b) depending on the lighting conditions of the color gamut, c) clarity, d) the direction and size of the shadows .
Управляющий компьютер получает от блока адаптации адаптированные параметры изображения виртуальных объектов и использует их для формирования этих изображений. Как результат устраняется эффект неправильной оценки удаления виртуальных объектов.The control computer receives adapted image parameters of virtual objects from the adaptation unit and uses them to form these images. As a result, the effect of incorrect assessment of the removal of virtual objects is eliminated.
Краткое описание иллюстраций.A brief description of the illustrations.
Фиг. 1 - техническая реализация способа формирования изображения дополненной реальности, обеспечивающей корректное восприятие удаления виртуальных объектов.FIG. 1 - technical implementation of the method of imaging augmented reality, providing the correct perception of the removal of virtual objects.
Осуществление изобретения.The implementation of the invention.
Осуществление предлагаемого способа формирования изображения дополненной реальности, обеспечивающей корректное восприятие удаления виртуальных объектов заключается в следующем.Implementation of the proposed method of imaging augmented reality, providing the correct perception of the removal of virtual objects is as follows.
Способ подразумевает использование системы (см. фиг. 1), которая включает шлем виртуальной реальности, снабженный двумя микродисплеями и двумя видеокамерами, подсистему локального позиционирования, содержащую средство определения трех линейных и трех угловых координат положения шлема виртуальной реальности в пространстве и приемник глобальной спутниковой навигационной системы, управляющий компьютер, генерирующий пару стереоизображений для микродисплеев шлема виртуальной реальности, причем датчик локальной подсистемы позиционирования размещен на шлеме виртуальной реальности и блок адаптации характера воспроизведения виртуальных объектов к характеру воспроизведения видимого реального мира. Входы блока адаптации подключены к управляющему компьютеру, к подсистеме локального позиционирования, к системе спутниковой навигации и к видеопотоку, поступающему от любой из видеокамер. Получая от управляющего компьютера данные о текущем времени, а от подсистемы локального позиционирования и спутниковой системы позиционирования данные о положении наблюдателя и направлении его взгляда, блок адаптации вырабатывает параметры тени виртуального объекта, которую должен видеть наблюдатель в текущих обстоятельствах места и времени. Получая от управляющего компьютера данные о положении изображения виртуальных объектов относительно картинки от видеокамеры, на которую накладывается изображение виртуальных объектов, блок адаптации анализирует яркость, цветовую гамму и четкость соответствующих фрагментов картинки от видеокамеры и вырабатывает адаптированные параметры для виртуальных объектов. Выработанные блоком адаптации параметры передаются управляющему компьютеру для формирования изображения виртуальных объектов.The method involves the use of a system (see Fig. 1), which includes a virtual reality helmet equipped with two microdisplays and two video cameras, a local positioning subsystem containing means for determining three linear and three angular coordinates of the position of the virtual reality helmet in space and a receiver of the global satellite navigation system , a control computer that generates a pair of stereo images for microdisplays of a virtual reality helmet, and the sensor of the local positioning subsystem The company is placed on a virtual reality helmet and a unit for adapting the nature of reproduction of virtual objects to the nature of reproduction of the visible real world. The inputs of the adaptation unit are connected to the control computer, to the local positioning subsystem, to the satellite navigation system and to the video stream coming from any of the cameras. Receiving data about the current time from the control computer, and from the local positioning subsystem and the satellite positioning system, data on the position of the observer and the direction of his gaze, the adaptation unit produces the shadow parameters of the virtual object that the observer should see in the current circumstances of the place and time. Receiving data from the control computer on the position of the image of virtual objects relative to the image from the video camera, on which the image of virtual objects is superimposed, the adaptation unit analyzes the brightness, color gamut and clarity of the corresponding fragments of the image from the video camera and generates adapted parameters for virtual objects. The parameters developed by the adaptation unit are transferred to the control computer for imaging virtual objects.
Блок адаптации реализуется как отдельное вычислительное устройство, содержащее собственный процессор для выработки адаптированных параметров виртуальных объектов. В качестве подсистемы локального позиционирования, спутниковой навигационной системы и шлема виртуальной реальности можно использовать серийно выпускаемые промышленностью изделия, например Polhemus G4, GlobalSat BU-353, Sony HMZ.The adaptation unit is implemented as a separate computing device containing its own processor for generating adapted parameters of virtual objects. As a subsystem of local positioning, a satellite navigation system and a virtual reality helmet, you can use commercially available products, for example Polhemus G4, GlobalSat BU-353, Sony HMZ.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2014125886/08A RU2592458C2 (en) | 2014-06-26 | 2014-06-26 | Method for generating augmented reality images ensuring correct perception of virtual objects removal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2014125886/08A RU2592458C2 (en) | 2014-06-26 | 2014-06-26 | Method for generating augmented reality images ensuring correct perception of virtual objects removal |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2014125886A RU2014125886A (en) | 2016-01-27 |
RU2592458C2 true RU2592458C2 (en) | 2016-07-20 |
Family
ID=55237070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2014125886/08A RU2592458C2 (en) | 2014-06-26 | 2014-06-26 | Method for generating augmented reality images ensuring correct perception of virtual objects removal |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2592458C2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019140049A1 (en) * | 2018-01-10 | 2019-07-18 | Lumeova, Inc. | Method, devices and system for wireless communication channels fso |
RU2754991C2 (en) * | 2017-03-06 | 2021-09-08 | ЮНИВЕРСАЛ СИТИ СТЬЮДИОС ЭлЭлСи | System of device for viewing mixed reality and method for it |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2493606C2 (en) * | 2011-02-08 | 2013-09-20 | Московский государственный технический университет гражданской авиации | Method of training air traffic controllers of taxiing, takeoff and landing control centres of actual airfield |
-
2014
- 2014-06-26 RU RU2014125886/08A patent/RU2592458C2/en active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2493606C2 (en) * | 2011-02-08 | 2013-09-20 | Московский государственный технический университет гражданской авиации | Method of training air traffic controllers of taxiing, takeoff and landing control centres of actual airfield |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2754991C2 (en) * | 2017-03-06 | 2021-09-08 | ЮНИВЕРСАЛ СИТИ СТЬЮДИОС ЭлЭлСи | System of device for viewing mixed reality and method for it |
WO2019140049A1 (en) * | 2018-01-10 | 2019-07-18 | Lumeova, Inc. | Method, devices and system for wireless communication channels fso |
US10931371B2 (en) | 2018-01-10 | 2021-02-23 | Lumeova, Inc. | Methods, devices, and systems for timing and bandwidth management of ultra-wideband, wireless communication channels |
US11539433B2 (en) | 2018-01-10 | 2022-12-27 | Lumeova, Inc. | Methods, devices, and systems for timing and bandwidth management of ultra-wideband, wireless communication channels |
US11901940B2 (en) | 2018-01-10 | 2024-02-13 | Lumeova, Inc. | Methods, devices, and systems for timing and bandwidth management of ultra-wideband, wireless communication channels |
Also Published As
Publication number | Publication date |
---|---|
RU2014125886A (en) | 2016-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074681B (en) | Information processing apparatus, information processing method, and program | |
JP6653369B2 (en) | Augmented reality system and color compensation method thereof | |
US10235806B2 (en) | Depth and chroma information based coalescence of real world and virtual world images | |
US9551871B2 (en) | Virtual light in augmented reality | |
WO2018165041A8 (en) | Mixed reality viewer system and method | |
US20180315364A1 (en) | Information Processing Apparatus and Image Generation Method | |
WO2016091030A1 (en) | Transmissive augmented reality near-eye display | |
US10587868B2 (en) | Virtual reality system using mixed reality and implementation method thereof | |
MY194042A (en) | Systems and methods for generating stereoscopic, augmented, and virtual reality images | |
NZ745790A (en) | Direct light compensation technique for augmented reality system | |
CN108463840B (en) | Information processing apparatus, information processing method, and recording medium | |
EP3514766A3 (en) | Electronic device, method for displaying an augmented reality scene and non-transitory computer-readable medium | |
KR101279869B1 (en) | Apparatus and method for displaying flight simulator image using head mounted display | |
CN105611267B (en) | Merging of real world and virtual world images based on depth and chrominance information | |
JP2020035455A (en) | Sharing mediated reality content | |
US10616567B1 (en) | Frustum change in projection stereo rendering | |
CN108885339A (en) | For using the configuration of adaptive focal plane rendering virtual reality | |
US20210019898A1 (en) | Scene camera retargeting | |
JPWO2021076757A5 (en) | ||
US10296080B2 (en) | Systems and methods to simulate user presence in a real-world three-dimensional space | |
US20100123716A1 (en) | Interactive 3D image Display method and Related 3D Display Apparatus | |
KR20200043371A (en) | Information processing apparatus, information processing method, and program | |
EP3038061A1 (en) | Apparatus and method to display augmented reality data | |
JP2018500690A (en) | Method and system for generating magnified 3D images | |
RU2592458C2 (en) | Method for generating augmented reality images ensuring correct perception of virtual objects removal |