WO2020185115A1 - Method and system for real-time data collection for a mixed reality device - Google Patents

Method and system for real-time data collection for a mixed reality device Download PDF

Info

Publication number
WO2020185115A1
WO2020185115A1 PCT/RU2019/050231 RU2019050231W WO2020185115A1 WO 2020185115 A1 WO2020185115 A1 WO 2020185115A1 RU 2019050231 W RU2019050231 W RU 2019050231W WO 2020185115 A1 WO2020185115 A1 WO 2020185115A1
Authority
WO
WIPO (PCT)
Prior art keywords
real
data
reality device
location
mixed reality
Prior art date
Application number
PCT/RU2019/050231
Other languages
French (fr)
Russian (ru)
Inventor
Ильнур Зямилевич ХАРИСОВ
Original Assignee
Общество с ограниченной ответственностью "ТрансИнжКом"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "ТрансИнжКом" filed Critical Общество с ограниченной ответственностью "ТрансИнжКом"
Publication of WO2020185115A1 publication Critical patent/WO2020185115A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present technical solution relates to the field of digital data processing, in particular, to a method and a system for collecting information for combined reality devices in real time.
  • Mixed reality sometimes called hybrid, mixed reality or augmented virtual reality
  • augmented virtual reality is a mixture of real and virtual reality, when believable virtual objects are superimposed on our familiar environment.
  • the depth of immersion in virtual reality is higher than that of augmented reality, which does not change the human vision of the surrounding world and its perception, but only supplements the real world with artificial elements and new information.
  • the combined reality does not take us away from the real world, but supplements the real world with information, images and sounds stored inside information systems, while in the combined reality there is a point of interaction between the real and the virtual world
  • Combined reality devices are aimed at bringing a piece of virtuality into our everyday world and ensuring interaction with digital elements as if they were real objects.
  • a person can freely move in space without fear of bumping into real objects or falling off a virtual staircase.
  • Natural application of combined reality systems is a means of "improving" the real world, i.e. virtual prototyping, when we expand the real world with objects that we would like to see there, but for a number of reasons, for example, the cost of manufacturing, we cannot put them there. This is especially true in design-related work, when new objects must be optimally fit into the existing space. For example, you can select and arrange furniture in an empty room, analyze an architectural project, present a landscape design option, etc.
  • the system has the ability to compare a real and a virtual object and display some kind of hint on a real object, without displaying the virtual object in full or in part.
  • the combined reality finds its application in completely different areas of our life:
  • Sports - Virtual objects provide a completely new approach to sports training, and wearable gadgets allow to display the physical condition of athletes.
  • Gaming - Mixed reality gaming is undoubtedly opening up a whole new market for game development.
  • Retail - Online sales of goods will move to a new level with the ability to “touch” the purchased items in 3D models.
  • Embodiments of this invention include a method, system, and mobile device that incorporate augmented reality technology in land surveying, 3D laser scanning, and digital modeling processes.
  • a mobile device can display an augmented reality image that represents a real-world view of a physical structure in a real-world environment, and a 3D digital model of an unbuilt design element overlaid on top of the physical structure at its intended location.
  • a marker may be placed at a predetermined set of coordinates on or around a location of interest as determined by surveying equipment so that a 3D digital model of an unbuilt design element can be rendered in a geometrically correct orientation relative to the physical structure.
  • Embodiments of this solution can also be applied to a reduced 3D printed object representing a physical structure if visiting the project site is not possible.
  • a solution is known (US2014270477A1, publ. 09/18/2014), which describes systems and methods for displaying a three-dimensional model from a photogrammetric scan.
  • a computer-implemented method is provided for displaying a three-dimensional (3D) model from a photogrammetric scan.
  • the object image and scan marker can be obtained in the first place.
  • the relationship between the object image and the scan marker image at the first location can be determined.
  • the geometric property of an object can be determined based on the relationship between the object image and the scan marker image.
  • the ZO-model of an object can be generated based on a specific geometric property of the object.
  • the 3D model of the object can be displayed for scaling in augmented reality environment at the second location based on the scan marker at the second location.
  • an apparatus for displaying an image includes a data acquisition unit and a display processing unit.
  • the data collection unit is configured to acquire a received image, which is acquired by the camera, and which includes an optical recognition code representing identification information, by generating a plurality of line-shaped elements.
  • the display processing unit is configured to superimpose and display an image of a three-dimensional object corresponding to the identification information on the acquired image. The orientation of the 3D object image superimposed on and displayed on the captured image is determined based on the orientation of the OCR code in the captured image and the tilt of the camera.
  • the technical problem to be solved by the claimed technical solution is the creation of a computer-implemented method and system for collecting information for a combined reality device in real time, which are characterized in independent claims. Additional embodiments of the present invention are presented in the dependent claims.
  • the technical result consists in improving the accuracy of displaying the combined reality.
  • a computer-implemented method of collecting information for a combined reality device in real time which consists in performing stages using a computing device, on which:
  • hand gesture tracking and recognition is carried out using a machine learning algorithm.
  • audio data is additionally captured.
  • the combined reality device is a helmet, tablet, or glasses.
  • the camera may be a stereoscopic camera and / or a depth-effect camera for machine vision and / or gesture recognition.
  • data is additionally collected from the inertial navigation system to further determine the location data of the aligned reality device.
  • the claimed solution is also implemented through a system for collecting information for a combined reality device in real time.
  • This system includes:
  • system further includes an inertial navigation system for additional determination of data on the location of the combined reality device, while the inertial navigation system is based on gyroscopes and accelerometers. DESCRIPTION OF DRAWINGS
  • FIG. 1 illustrates a computer-implemented method for collecting information for a combined reality device in real time
  • FIG. 2 illustrates a scheme for locating a user
  • FIG. 3 illustrates an example of a general arrangement of a computing device.
  • the present invention is aimed at providing a computer-implemented method and system for collecting information for a combined reality device in real time.
  • the claimed computer-implemented method of collecting information for a combined reality device in real time is implemented as follows:
  • step (101) at least one camera captures images of the real world over a wide range of angles.
  • the camera can be a stereoscopic camera and / or a depth-effect camera for machine vision and / or gesture recognition.
  • the minimum capture angle range for images is 30 degrees.
  • the real world space is scanned to determine the dimensions and location of real world objects.
  • the real-world space scanning unit can be made in the form of ultrasonic, optical or laser scanning means.
  • step (103) data on the location and orientation of the aligned reality device in space is determined.
  • a combined reality device can be either a helmet, a tablet, or glasses, which are completely autonomous devices powered by a battery. But at the same time, they can additionally be connected to a computer or tablet.
  • Determining the location of a combined reality device in space is possible using GPS, Glonas, but the accuracy in this case can be about 6-8 meters, which is unacceptable for most applications.
  • a common disadvantage of using any radio navigation system is that under certain conditions the signal may not reach the receiver, or arrive with significant distortion or delays. For example, it is almost impossible to determine your exact location in the depths of an apartment inside a reinforced concrete building, in a basement or in a tunnel, even with professional geodetic receivers. Since the operating frequency of GPS / Glonas lies in the decimeter range of radio waves, the signal level from satellites can seriously decrease under dense foliage of trees or due to very large clouds. The normal reception of GPS / Glonas signals can be damaged by interference from many terrestrial radio sources, as well as from magnetic storms.
  • Determination of the location using optical systems which are based on preliminary scanning of the room, and then on the picture, for example, of the ceiling from the front camera of a smartphone, it is possible to determine the location.
  • Location based trilateration based on Wi-Fi / Bluetooth transmitters For implementation, common equipment is used, both for infrastructure and for location determination. It is also possible to use already deployed Wi-Fi / Bluetooth networks.
  • Wi-Fi / Bluetooth radio map or “digital fingerprints” - location is calculated by comparing real-time signal strengths from surrounding Wi-Fi / BLE points with previously measured values tied to a room map.
  • the trilateration method can be used to determine the location of the receiver with high accuracy. To implement this approach, at least three transmitters are required, the signal from which is confidently received by the receiver.
  • the claimed solution uses a radar system based on ultra-wideband signals to determine the exact location of the user in real space, as well as an inertial navigation system to determine the user's orientation (indoor positioning system).
  • an inertial navigation system to determine the user's orientation (indoor positioning system).
  • hardware and software for the implementation of the location determination functionality is installed in a combined reality device in space, which contains at least one camera configured to capture an image of the real world in a wide range of angles (preferably a stereoscopic camera) around the user who it is a combined reality device.
  • the combined reality device is configured to determine its location using a GPS / Glonas positioning unit and / or an indoor positioning unit, with the ability to receive images from a camera, transmit all data to a processing unit, with the ability to provide processed data (data combined reality) to the user.
  • step (104) real-time tracking and 3D recognition of hand gestures is performed to determine where exactly the objects are in space with respect to the tracked hand.
  • the hand tracking system is based on computer vision and works with a self-optimizing machine learning algorithm.
  • the data of the captured images of the real world, the data of the dimensions and location of the objects of the real world, the data of the location and orientation of the information collection unit, the tracking data and recognition of hand gestures are stored in the memory unit of the combined reality device.
  • the stored information is processed and projected by means of built-in mini projectors onto the holographic screen of the combined reality device, which merges virtual and augmented reality to obtain a combined reality.
  • the virtual 3D hologram is formed by means of built-in mini projectors.
  • the visualization method can be any, at this stage of technological development there are: projection image construction, LCD, TFT, IPS, AMOLED, P-OLED, QLED images.
  • a combined reality device can be equipped with two speakers - thus, projection sound is added to the sounds of the outside world.
  • bone conduction technology may be used to transmit sound.
  • a function of tracking the direction of a user's gaze can be implemented in a combined reality device, namely, the system tracks the position of a person's pupils. As a result, you can move the cursor in the direction you are looking. And the hologram at which the cursor is directed will be highlighted. And also calibrate the visualization system for the user's eyes.
  • Information about the position of the pupils of a person allows you to determine the direction of gaze, highlight the object that the person is looking at, and synthesize images with the correct vergence on the selected object.
  • information about the position of a person's pupils can help to form an image with the correct accommodation and thereby provide the most comfortable conditions for perception of a virtual image, indistinguishable from the image of the real world.
  • the combined reality device allows the user to simultaneously remain in the real world, maintaining full interaction with him.
  • Holographic projections created by a combined reality device have three dimensions, which allows you to walk around a virtual object from all sides, examine and enlarge its details, see how it fits into reality, which opens up endless possibilities for various types of 3D modeling.
  • FIG. 3 a general diagram of a computing device (300) will be presented below, which provides data processing necessary for the implementation of the claimed solution.
  • the device (300) contains such components as: one or more processors (301), at least one memory (302), data storage means (303), input / output interfaces (304), I / O means ( 305), networking tools (306).
  • the device processor (301) performs the basic computational operations necessary for the operation of the device (300) or the functionality of one or more of its components.
  • the processor (301) executes the necessary computer-readable instructions contained in the main memory (302).
  • Memory (302) is made in the form of RAM and contains the necessary program logic to provide the required functionality.
  • the data storage medium (303) can be performed in the form of HDD, SSD disks, raid array, network storage, flash memory, optical information storage devices (CD, DVD, MD, Blue-Ray disks), etc.
  • the tool (303) allows performing long-term storage of various types of information, for example, the history of processing transactional requests (logs), user identifiers, etc.
  • Interfaces (304) are standard means for connecting and working with the server side, for example, USB, RS232, RJ45, LPT, COM, HDMI, PS / 2, Lightning, FireWire, etc.
  • interfaces (304) depends on the specific implementation of the device (300), which can be a personal computer, mainframe, server cluster, thin client, smartphone, laptop, cloud space, etc.
  • a keyboard should be used.
  • the following can also be used: joystick, display (touch screen), projector, touchpad, mouse, trackball, light pen, speakers, microphone, etc.
  • Networking means (306) are selected from a device that provides network reception and transmission of data, for example, Ethernet card, WLAN / Wi-Fi module, Bluetooth module, BLE module, NFC module, IrDa, RFID module, GSM modem, etc.
  • the means (305) provide the organization of data exchange via a wired or wireless data transmission channel, for example, WAN, PAN, LAN, Intranet, Internet, WLAN, WMAN or GSM.
  • the components of the device (300) are interfaced via a common data bus (310).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present technical solution relates to the field of digital data processing, and more particularly to a method and system for real-time data collection for a mixed reality device. The technical result consists in providing more accurate display of mixed reality. A method for real-time data collection for a mixed reality device consists in carrying out the following steps using a computing device: capturing real-world images in a wide range of angles using at least one camera; scanning a real-world space in order to determine the dimensions and arrangement of real-world objects; determining data pertaining to the position and orientation of a mixed reality device in said space; carrying out real-time tracking and 3D recognition of hand gestures in order to determine the specific location of objects in the space in relation to the hand being tracked; saving in a memory unit of the mixed reality device the data pertaining to the captured real-world images, the data pertaining to the dimensions and arrangement of the real-world objects, the data pertaining to the position and orientation of a data collection unit, and the data pertaining to the tracking and recognition of hand gestures; processing the saved data and using built-in mini projectors to project onto a holographic screen of the mixed reality device, said screen merging virtual and augmented reality to produce mixed reality.

Description

СПОСОБ И СИСТЕМА СБОРА ИНФОРМАЦИИ ДЛЯ УСТРОЙСТВА СОВМЕЩЕННОЙ РЕАЛЬНОСТИ В РЕЖИМЕ РЕАЛЬНОГО ВРЕМЕНИ METHOD AND SYSTEM FOR COLLECTING INFORMATION FOR ALIGNED REALITY DEVICE IN REAL TIME MODE
ОБЛАСТЬ ТЕХНИКИ FIELD OF TECHNOLOGY
Настоящее техническое решение относится к области обработки цифровых данных, в частности, к способу и системе сбора информации для устройств совмещенной реальности в режиме реального времени. The present technical solution relates to the field of digital data processing, in particular, to a method and a system for collecting information for combined reality devices in real time.
УРОВЕНЬ ТЕХНИКИ LEVEL OF TECHNOLOGY
Совмещенная реальность (mixed reality), иногда называемая гибридной, смешанная реальность или дополненной виртуальностью, представляет из себя смешение реальной и виртуальной реальностей, когда правдоподобные виртуальные объекты накладываются на привычную нам окружающую среду. При этом глубина погружения у виртуальной реальности выше, чем у дополненной реальности, которая не меняет человеческого виденья окружающего мира и его восприятия, а лишь дополняет реальный мир искусственными элементами и новой информацией. Совмещенная реальность не уводит нас из реального мира, а дополняет реальный мир сведениями, образами и звуками, хранящимися внутри информационных систем, при этом в совмещенной реальности имеется точка взаимодействия реального и виртуального мира Mixed reality, sometimes called hybrid, mixed reality or augmented virtual reality, is a mixture of real and virtual reality, when believable virtual objects are superimposed on our familiar environment. At the same time, the depth of immersion in virtual reality is higher than that of augmented reality, which does not change the human vision of the surrounding world and its perception, but only supplements the real world with artificial elements and new information. The combined reality does not take us away from the real world, but supplements the real world with information, images and sounds stored inside information systems, while in the combined reality there is a point of interaction between the real and the virtual world
Устройства совмещенной реальности направлены на то, чтобы привнести в наш обыденный мир кусочек виртуальности и обеспечить взаимодействие с цифровыми элементами, как если бы они были реальными объектами. Человек может свободно передвигаться в пространстве, не боясь налететь на реальные объекты или упасть с виртуальной лестницы. Естественным применением систем совмещенной реальности является средство «улучшения» реального мира, т.е. виртуальное прототипирование, когда мы расширяем реальный мир объектами, которые мы бы хотели там видеть, но по ряду причин, например, затраты на изготовление, мы не можем туда их поместить. Это особенно актуально при работах, связанных с проектированием, когда в имеющееся пространство надо оптимальным образом вписать новые объекты. Например, можно выбрать и расставить мебель в пустом помещении, провести анализ архитектурного проекта, представить вариант ландшафтного дизайна и т.п. Так же по технологии совмещенной реальности система имеет возможности сопоставить реальный и виртуальный объект и вывести какую-либо подсказку на реальный объект, не отображая при этом полностью или частично виртуальный объект. Совмещенная реальность находит свое применение в совершенно разных сферах нашей жизни: Combined reality devices are aimed at bringing a piece of virtuality into our everyday world and ensuring interaction with digital elements as if they were real objects. A person can freely move in space without fear of bumping into real objects or falling off a virtual staircase. Natural application of combined reality systems is a means of "improving" the real world, i.e. virtual prototyping, when we expand the real world with objects that we would like to see there, but for a number of reasons, for example, the cost of manufacturing, we cannot put them there. This is especially true in design-related work, when new objects must be optimally fit into the existing space. For example, you can select and arrange furniture in an empty room, analyze an architectural project, present a landscape design option, etc. Also, according to the technology of combined reality, the system has the ability to compare a real and a virtual object and display some kind of hint on a real object, without displaying the virtual object in full or in part. The combined reality finds its application in completely different areas of our life:
Строительство - Визуализация трехмерных чертежей непосредственно на строительной площадке, производить план-фактный анализ строящихся и построенных объектов, выводить виртуальные подсказки на уже существующие объекты. Construction - Visualization of three-dimensional drawings directly at the construction site, plan-fact analysis of the objects under construction and constructed, display virtual prompts to existing objects.
Военное дело - Проведение боевых тренировок в различных условиях местности. При этом не надо будет никуда специально летать. Также имеются широкие возможности для операторов боевой техники. Military - Conducting combat training in various terrain conditions. In this case, there will be no need to fly anywhere on purpose. There are also ample opportunities for operators of military equipment.
Спорт - Виртуальные объекты раскрывают совершенно новый подход к спортивным тренировкам, а носимые гаджеты позволяют отображать физическое состояние спортсменов. Sports - Virtual objects provide a completely new approach to sports training, and wearable gadgets allow to display the physical condition of athletes.
Игры - Игры для смешанной реальности без сомнений открывают совершенно новый рынок в области геймдева. Gaming - Mixed reality gaming is undoubtedly opening up a whole new market for game development.
Медицина - Смешанная реальность позволит гораздо надежнее и безопаснее проводить обследования и сложные хирургические операции. Medicine - Mixed reality will make examinations and complex surgeries much safer and more reliable.
Ритейл - Продажи товаров он-лайн перейдут на новый уровень с возможностями “пощупать” в 3D модели приобретаемые вещи. Retail - Online sales of goods will move to a new level with the ability to “touch” the purchased items in 3D models.
Также прогнозируют огромное влияние смешанной реальности и на другие сферы, такие как образование, архитектура, бизнес коммуникации. They also predict the huge impact of mixed reality on other areas, such as education, architecture, business communications.
Существуют решения в области виртуальной реальности, в которых посредством шлема виртуальной реальности пользователю предоставляются лишь изображения из памяти компьютера. There are solutions in the field of virtual reality, in which only images from the computer's memory are provided to the user by means of a virtual reality helmet.
Существуют решения в области дополненной реальности, в которых пользователь видит дополнительные изображения, накладываемые на изображения реального мира без привязки к географическому местоположению объектов реального мира. There are solutions in the field of augmented reality, in which the user sees additional images superimposed on images of the real world without reference to the geographic location of objects in the real world.
Существуют решения в области совмещенной реальности, в которых изображения виртуальной реальности привязываются к географическим координатам реального мира, что дополнительно повышает реалистичность изображений виртуальной реальности и дает больше возможностей взаимодействия с ней. There are solutions in the field of combined reality, in which virtual reality images are snapped to the geographical coordinates of the real world, which additionally increases the realism of virtual reality images and gives more opportunities to interact with it.
Известно решение (US2014210947A1, опубл. 31.07.2014), в котором описывается процесс формирования дополненной реальности с использованием координатной геометрии. Варианты осуществления этого изобретения включают способ, систему и мобильное устройство, которые включают технологию дополненной реальности в наземную съемку, 3D лазерное сканирование и процессы цифрового моделирования. Используя технологию дополненной реальности, мобильное устройство может отображать изображение дополненной реальности, представляющее реальный вид физической структуры в реальной среде, и трехмерную цифровую модель непостроенного элемента дизайна, наложенного поверх физической структуры в ее предполагаемом месте постройки. В одном варианте осуществления маркер может быть размещен в заданном наборе координат на или вокруг интересующего места, определяемого с помощью геодезического оборудования, так чтобы трехмерная цифровая модель непостроенного элемента дизайна могла быть визуализирована в геометрически правильной ориентации относительно физической структуры. Варианты осуществления этого решения могут также применяться к уменьшенному трехмерному напечатанному объекту, представляющему физическую структуру, если посещение места проекта невозможно. There is a known solution (US2014210947A1, publ. 07/31/2014), which describes the process of forming augmented reality using coordinate geometry. Embodiments of this invention include a method, system, and mobile device that incorporate augmented reality technology in land surveying, 3D laser scanning, and digital modeling processes. Using augmented reality technology, a mobile device can display an augmented reality image that represents a real-world view of a physical structure in a real-world environment, and a 3D digital model of an unbuilt design element overlaid on top of the physical structure at its intended location. In one embodiment, a marker may be placed at a predetermined set of coordinates on or around a location of interest as determined by surveying equipment so that a 3D digital model of an unbuilt design element can be rendered in a geometrically correct orientation relative to the physical structure. Embodiments of this solution can also be applied to a reduced 3D printed object representing a physical structure if visiting the project site is not possible.
Однако в данном решении для построения изображения необходимо размещать в интересующем месте маркеры для ориентации устройства формирования дополненного изображения в пространстве. However, in this solution, in order to build an image, it is necessary to place markers in the place of interest to orient the augmented image forming device in space.
Известно решение (US2014270477A1, опубл. 18.09.2014), в котором описываются системы и способы отображения трехмерной модели из фотограммметрического сканирования. В одном из вариантов предлагается компьютерно-реализованный способ для отображения трехмерной (3D) модели из фотограметрического сканирования. Изображение объекта и маркер сканирования могут быть получены в первом месте. Может быть определена взаимосвязь между изображением объекта и изображением маркера сканирования в первом местоположении. Геометрическое свойство объекта может быть определено на основе соотношения между изображением объекта и изображением маркера сканирования. ЗО-модель объекта может быть сгенерирована на основе определенного геометрического свойства объекта. Трехмерная модель объекта может отображаться для масштабирования в среде дополненной реальности во втором местоположении на основе маркера сканирования во втором местоположении. A solution is known (US2014270477A1, publ. 09/18/2014), which describes systems and methods for displaying a three-dimensional model from a photogrammetric scan. In one embodiment, a computer-implemented method is provided for displaying a three-dimensional (3D) model from a photogrammetric scan. The object image and scan marker can be obtained in the first place. The relationship between the object image and the scan marker image at the first location can be determined. The geometric property of an object can be determined based on the relationship between the object image and the scan marker image. The ZO-model of an object can be generated based on a specific geometric property of the object. The 3D model of the object can be displayed for scaling in augmented reality environment at the second location based on the scan marker at the second location.
Однако в данном решении для построения изображения необходимо размещать в интересующем месте маркеры для формирования дополненного изображения. However, in this solution, to build an image, it is necessary to place markers in the place of interest to form an augmented image.
Известно решение (US2016104323A1, опубл. 14.04.2016), в котором описываются устройство дляотображения изображения и способ для отображения изображения. Согласно одному варианту осуществления устройство для отображения изображения включает в себя модуль сбора данных и модуль обработки отображения. Модуль сбора данных сконфигурирован для получения принятого изображения, которое получено камерой, и которое включает в себя оптический код распознавания, представляющий идентификационную информацию, посредством формирования множества элементов в форме линии. Модуль обработки отображения сконфигурирован для наложения и отображения изображения трехмерного объекта, соответствующего идентификационной информации, на полученном изображении. Ориентация изображения трехмерного объекта, наложенного и отображаемого на снятом изображении, определяется на основе ориентации кода оптического распознавания на снятом изображении и наклона камеры. Known solution (US2016104323A1, publ. 04.14.2016), which describes a device for displaying an image and a method for displaying an image. According to one embodiment, an apparatus for displaying an image includes a data acquisition unit and a display processing unit. The data collection unit is configured to acquire a received image, which is acquired by the camera, and which includes an optical recognition code representing identification information, by generating a plurality of line-shaped elements. The display processing unit is configured to superimpose and display an image of a three-dimensional object corresponding to the identification information on the acquired image. The orientation of the 3D object image superimposed on and displayed on the captured image is determined based on the orientation of the OCR code in the captured image and the tilt of the camera.
Однако в данном решении для построения изображения необходимо размещать идентификационную информацию. However, in this solution, identification information must be placed in order to build the image.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ SUMMARY OF THE INVENTION
Технической проблемой, на решение которой направлено заявленное техническое решение, является создание компьютерно-реализуемого способа и системы сбора информации для устройства совмещенной реальности в режиме реального времени, которые охарактеризованы в независимых пунктах формулы. Дополнительные варианты реализации настоящего изобретения представлены в зависимых пунктах изобретения. The technical problem to be solved by the claimed technical solution is the creation of a computer-implemented method and system for collecting information for a combined reality device in real time, which are characterized in independent claims. Additional embodiments of the present invention are presented in the dependent claims.
Технический результат заключается в повышение точности отображения совмещенной реальности. The technical result consists in improving the accuracy of displaying the combined reality.
В предпочтительном варианте реализации заявлен компьютерно-реализуемый способ сбора информации для устройства совмещенной реальности в режиме реального времени, заключающийся в выполнении этапов, с помощью вычислительного устройства, на которых: In a preferred embodiment, a computer-implemented method of collecting information for a combined reality device in real time is claimed, which consists in performing stages using a computing device, on which:
• захватывают с помощью по меньшей мере одной камеры изображения реального мира в широком диапазоне углов; • capture images of the real world in a wide range of angles using at least one camera;
• сканируют пространство реального мира для определения габаритов и расположения объектов реального мира; • scan the space of the real world to determine the size and location of objects in the real world;
• определяют данные о местоположении и ориентации устройства совмещенной реальности в пространстве; • determine the data on the location and orientation of the combined reality device in space;
• осуществляют отслеживание и трехмерное распознавание жестов рук в реальном времени для определения где именно объекты находятся в пространстве относительно отслеживаемой руки; • сохраняют данные захваченных изображений реального мира, данные габаритов и расположения объектов реального мира, данные местоположения и ориентации блока сбора информации, данные отслеживания и распознавания жестов рук в блоке памяти устройства совмещенной реальности; • carry out tracking and three-dimensional recognition of hand gestures in real time to determine exactly where objects are in space relative to the tracked hand; • store data of captured images of the real world, data of dimensions and location of objects of the real world, data of location and orientation of the data collection unit, tracking data and recognition of hand gestures in the memory unit of the combined reality device;
• обрабатывают сохраненную информацию и проецируют посредством встроенных мини проекторов на голографический экран устройства совмещённой реальности, который осуществляет слияние виртуальной и дополненной реальностей для получения совмещенной реальности. • process the stored information and project through the built-in mini projectors onto the holographic screen of the combined reality device, which merges virtual and augmented reality to obtain a combined reality.
В частном варианте отслеживание и распознавание жестов рук осуществляется с использованием алгоритма машинного обучения. In a private version, hand gesture tracking and recognition is carried out using a machine learning algorithm.
В другом частном варианте дополнительно захватывают аудиоданные. In another particular embodiment, audio data is additionally captured.
В другом частном варианте устройство совмещенной реальности представляет собой шлем, планшет или очки. In another particular embodiment, the combined reality device is a helmet, tablet, or glasses.
В другом частном варианте камера может быть стереоскопической камерой и/или камерой с эффектом глубины для машинного зрения и/или распознавания жестов. In another particular embodiment, the camera may be a stereoscopic camera and / or a depth-effect camera for machine vision and / or gesture recognition.
В другом частном варианте дополнительно собирают данные от инерциальной навигационной системы для дополнительного определения данных о местоположении устройства совмещенной реальности. In another particular embodiment, data is additionally collected from the inertial navigation system to further determine the location data of the aligned reality device.
Заявленное решение также осуществляется за счет системы сбора информации для устройства совмещенной реальности, в режиме реального времени. Это система включает в себя: The claimed solution is also implemented through a system for collecting information for a combined reality device in real time. This system includes:
- устройство совмещенной реальности, которое содержит: - a combined reality device that contains:
• по меньшей одну камеру, выполненную с возможностью фиксации изображения реального мира в широком диапазоне углов; • at least one camera capable of capturing images of the real world in a wide range of angles;
• встроенные мини проекторы; • built-in mini projectors;
• голографических экран; • holographic screen;
• блок сканирования пространства реального мира; • real world space scanning unit;
• блок позиционирования; • positioning unit;
• вычислительное устройство, выполненное с возможностью выполнения описанного выше способа. • a computing device capable of performing the above method.
В другом частном варианте реализации система дополнительно включает инерциальную навигационную систему для дополнительного определения данных о местоположении устройства совмещенной реальности, при этом инерциальная навигационная система основана на гироскопах и акселерометрах. ОПИСАНИЕ ЧЕРТЕЖЕЙ In another particular embodiment, the system further includes an inertial navigation system for additional determination of data on the location of the combined reality device, while the inertial navigation system is based on gyroscopes and accelerometers. DESCRIPTION OF DRAWINGS
Реализация изобретения будет описана в дальнейшем в соответствии с прилагаемыми чертежами, которые представлены для пояснения сути изобретения и никоим образом не ограничивают область изобретения. К заявке прилагаются следующие чертежи: The implementation of the invention will be described in the following in accordance with the accompanying drawings, which are presented to clarify the essence of the invention and in no way limit the scope of the invention. The following drawings are attached to the application:
Фиг. 1 иллюстрирует компьютерно-реализуемый способ сбора информации для устройства совмещенной реальности в режиме реального времени; FIG. 1 illustrates a computer-implemented method for collecting information for a combined reality device in real time;
Фиг. 2 иллюстрирует схему определения местоположения пользователя; FIG. 2 illustrates a scheme for locating a user;
Фиг. 3 иллюстрирует пример общей схемы компьютерного устройства. FIG. 3 illustrates an example of a general arrangement of a computing device.
ДЕТАЛЬНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ DETAILED DESCRIPTION OF THE INVENTION
В приведенном ниже подробном описании реализации изобретения приведены многочисленные детали реализации, призванные обеспечить отчетливое понимание настоящего изобретения. Однако, квалифицированному в предметной области специалисту, будет очевидно каким образом можно использовать настоящее изобретение, как с данными деталями реализации, так и без них. В других случаях хорошо известные методы, процедуры и компоненты не были описаны подробно, чтобы не затруднять излишне понимание особенностей настоящего изобретения. In the following detailed description of an implementation of the invention, numerous implementation details are set forth to provide a thorough understanding of the present invention. However, it will be obvious to those skilled in the art how the present invention can be used, with or without these implementation details. In other instances, well-known techniques, procedures, and components have not been described in detail so as not to obscure the details of the present invention.
Кроме того, из приведенного изложения будет ясно, что изобретение не ограничивается приведенной реализацией. Многочисленные возможные модификации, изменения, вариации и замены, сохраняющие суть и форму настоящего изобретения, будут очевидными для квалифицированных в предметной области специалистов. In addition, it will be clear from the above description that the invention is not limited to the above implementation. Numerous possible modifications, changes, variations and substitutions, while retaining the spirit and form of the present invention, will be apparent to those skilled in the art.
Настоящее изобретение направлено на обеспечение компьютерно-реализуемого способа и системы сбора информации для устройства совмещенной реальности в режиме реального времени. The present invention is aimed at providing a computer-implemented method and system for collecting information for a combined reality device in real time.
Как представлено на Фиг. 1, заявленный компьютерно-реализуемый способ сбора информации для устройства совмещенной реальности в режиме реального времени (100) реализован следующим образом: As shown in FIG. 1, the claimed computer-implemented method of collecting information for a combined reality device in real time (100) is implemented as follows:
На этапе (101) захватывают с помощью по меньшей мере одной камеры изображения реального мира в широком диапазоне углов. Камера может быть стереоскопической камерой и/или камерой с эффектом глубины для машинного зрения и/или распознавания жестов. Минимальный диапазон углов захвата изображений составляет 30 градусов. In step (101), at least one camera captures images of the real world over a wide range of angles. The camera can be a stereoscopic camera and / or a depth-effect camera for machine vision and / or gesture recognition. The minimum capture angle range for images is 30 degrees.
Далее на этапе (102) сканируют пространство реального мира для определения габаритов и расположения объектов реального мира. При этом, блок сканирования пространства реального мира может быть выполнен в виде средства ультразвукового, оптического или лазерного сканирования. Next, at step (102), the real world space is scanned to determine the dimensions and location of real world objects. In this case, the real-world space scanning unit can be made in the form of ultrasonic, optical or laser scanning means.
На этапе (103) определяют данные о местоположении и ориентации устройства совмещенной реальности в пространстве. In step (103), data on the location and orientation of the aligned reality device in space is determined.
Для построения изображений совмещенной реальности необходимо определить местоположение пользователя, посредством определения местоположения устройства совмещенной реальности, который он надел. To build images of the combined reality, it is necessary to determine the location of the user by determining the location of the combined reality device that he is wearing.
При это, устройством совмещенной реальности может быть, как шлем, планшет, так и очки, которые являются полностью автономными устройствами, работающими от батареи. Но при этом они дополнительно могут быть подключены к компьютеру или планшету. At the same time, a combined reality device can be either a helmet, a tablet, or glasses, which are completely autonomous devices powered by a battery. But at the same time, they can additionally be connected to a computer or tablet.
Определение местоположения устройства совмещенной реальности в пространстве возможно при помощи GPS, Глонас, однако точность в таком случае может составлять около 6-8 метров, что недопустимо для большинства приложений. Determining the location of a combined reality device in space is possible using GPS, Glonas, but the accuracy in this case can be about 6-8 meters, which is unacceptable for most applications.
Общим недостатком использования любой радионавигационной системы является то, что при определённых условиях сигнал может не доходить до приёмника, или приходить со значительными искажениями или задержками. Например, практически невозможно определить своё точное местонахождение в глубине квартиры внутри железобетонного здания, в подвале или в тоннеле даже профессиональными геодезическими приёмниками. Так как рабочая частота GPS/Глонас лежит в дециметровом диапазоне радиоволн, уровень сигнала от спутников может серьёзно снизиться под плотной листвой деревьев или из-за очень большой облачности. Нормальному приёму сигналов GPS/Глонас могут повредить помехи от многих наземных радиоисточников, а также от магнитных бурь. A common disadvantage of using any radio navigation system is that under certain conditions the signal may not reach the receiver, or arrive with significant distortion or delays. For example, it is almost impossible to determine your exact location in the depths of an apartment inside a reinforced concrete building, in a basement or in a tunnel, even with professional geodetic receivers. Since the operating frequency of GPS / Glonas lies in the decimeter range of radio waves, the signal level from satellites can seriously decrease under dense foliage of trees or due to very large clouds. The normal reception of GPS / Glonas signals can be damaged by interference from many terrestrial radio sources, as well as from magnetic storms.
Кроме методов на основе GPS/Глонас, существует ряд методов определения местоположения более подходящих для реализации в помещении, часть из которых представлена ниже: In addition to GPS / Glonas-based methods, there are a number of location determination methods that are more suitable for indoor implementation, some of which are presented below:
Определение местоположения по сотовым сетям - точность оставляет желать лучшего даже в районах с высокой плотностью базовых станций. Определение местоположения с помощью инерциальных систем, где используется модель движения человека: если мы знаем, где были, в какую сторону и как быстро двигались, то можно рассчитать, где мы оказались через некоторое время. Сейчас это достигается с помощью гироскопов, акселерометров, датчика Холла или иных подходящих средств. Cellular Positioning - Accuracy is poor, even in areas with high base station density. Determination of location using inertial systems, where a model of human movement is used: if we know where we were, in which direction and how fast we were moving, then we can calculate where we ended up after a while. This is now achieved with gyroscopes, accelerometers, Hall sensors, or other suitable means.
Определение местоположения с помощью оптических систем, которые основаны на предварительном сканировании помещения, а потом по картинке, например, потолка с фронтальной камеры смартфона, возможно определение местоположения. Determination of the location using optical systems, which are based on preliminary scanning of the room, and then on the picture, for example, of the ceiling from the front camera of a smartphone, it is possible to determine the location.
Определение местоположения с помощью магнитометрии - определения местоположения по магнитному полю с помощью компаса смартфона. Решение требует предварительной калибровки в помещении и сильно подвержено влиянию металла и магнитов. Positioning using magnetometry - determining the location by the magnetic field using the compass of your smartphone. The solution requires preliminary calibration in the room and is highly susceptible to metal and magnets.
Определение местоположения на основе трилатерации на базе Wi-Fi/Bluetooth передатчиков. Для реализации применяется распространённое оборудование, как для инфраструктуры, так и для определения местоположения. Также существует возможность использования уже развернутых Wi-Fi/Bluetooth сетей. Location based trilateration based on Wi-Fi / Bluetooth transmitters. For implementation, common equipment is used, both for infrastructure and for location determination. It is also possible to use already deployed Wi-Fi / Bluetooth networks.
Радиокарта или“цифровые отпечатки” сигналов Wi-Fi/Bluetooth - местоположение вычисляется путем сравнения измеряемых в реальном времени мощностей сигнала от окружающих Wi-Fi/BLE точек с заранее измеренными значениями, привязанными к карте помещения. Wi-Fi / Bluetooth radio map or “digital fingerprints” - location is calculated by comparing real-time signal strengths from surrounding Wi-Fi / BLE points with previously measured values tied to a room map.
Для повышения точности определения местоположения устройства совмещенной реальности в пространстве было предложено размещать в реальном пространстве, где предполагается формировать изображения совмещенной реальности, станции, передающие радиосигналы (как изображено на фиг.2). Используя радиосигналы этих станций, расположенных в заранее известных координатах, методом трилатерации можно с высокой точностью определять местоположение приемника. Для осуществления этого подхода необходимо по меньшей мере три передатчика, сигнал от которых уверенно принимается приемником. To improve the accuracy of determining the location of the combined reality device in space, it was proposed to place in real space, where it is supposed to form images of the combined reality, stations transmitting radio signals (as shown in Fig. 2). Using the radio signals of these stations located in previously known coordinates, the trilateration method can be used to determine the location of the receiver with high accuracy. To implement this approach, at least three transmitters are required, the signal from which is confidently received by the receiver.
В заявленном решении используется система радиолокации на основе сверхширокополосных сигналов для определения точного местоположения пользователя в реальном пространстве, а также инерциальная навигационная система для определения ориентации пользователя (система indoor-определения местоположения). В результате использования двух этих систем можно получить информацию о местоположении и ориентации пользователя в реальном пространстве, что позволяет разместить объекты виртуальной реальности, имеющие географическую привязку, с минимальной погрешностью, достаточной для использования последних в качестве ориентира при выполнении, например, строительных работ. The claimed solution uses a radar system based on ultra-wideband signals to determine the exact location of the user in real space, as well as an inertial navigation system to determine the user's orientation (indoor positioning system). As a result Using these two systems, it is possible to obtain information about the location and orientation of the user in real space, which makes it possible to place geo-referenced virtual reality objects with a minimum error sufficient to use the latter as a reference point when performing, for example, construction work.
Также ниже рассматриваются варианты осуществления, в которых объединены возможности определения местоположения различных методов. Такие решения обеспечивают приемлемое качество для точного совмещения изображений реального мира и изображений виртуальной реальности. Also discussed below are embodiments that combine the location capabilities of different methods. These solutions provide acceptable quality for accurate alignment of real-world and virtual reality images.
В предложенном решении аппаратное и программное обеспечение для реализации функциональности по определению местоположения установлено в устройства совмещенной реальности в пространстве, которое содержит по меньшей мере одну камеру, выполненную с возможностью фиксации изображения реального мира в широком диапазоне углов (предпочтительно стереоскопическую камеру) вокруг пользователя, который надел это устройство совмещенной реальности. In the proposed solution, hardware and software for the implementation of the location determination functionality is installed in a combined reality device in space, which contains at least one camera configured to capture an image of the real world in a wide range of angles (preferably a stereoscopic camera) around the user who it is a combined reality device.
В целом аппаратное и программное обеспечение для определения местоположения является стандартным и широко известным в уровне техники, особенности, отличающие его от известных реализаций, будут описаны отдельно. В целом, устройство совмещенной реальности выполнено с возможностью определять свое местоположение при помощи блока GPS/Глонас определения местоположения и/или блока indoor-определения местоположения, с возможностью получения изображений с камеры, передачи всех данных на блок обработки, с возможностью предоставления обработанных данных (данных совмещенной реальности) пользователю. In general, the hardware and software for positioning is standard and well known in the art, features differing from known implementations will be described separately. In general, the combined reality device is configured to determine its location using a GPS / Glonas positioning unit and / or an indoor positioning unit, with the ability to receive images from a camera, transmit all data to a processing unit, with the ability to provide processed data (data combined reality) to the user.
На этапе (104) осуществляют отслеживание и трехмерное распознавание жестов рук в реальном времени для определения, где именно объекты находятся в пространстве относительно отслеживаемой руки. Система отслеживания рук основана на компьютерном зрении и работает с помощью самооптимизирующегося алгоритма машинного обучения. In step (104), real-time tracking and 3D recognition of hand gestures is performed to determine where exactly the objects are in space with respect to the tracked hand. The hand tracking system is based on computer vision and works with a self-optimizing machine learning algorithm.
Далее на этапе (105) сохраняют данные захваченных изображений реального мира, данные габаритов и расположения объектов реального мира, данные местоположения и ориентации блока сбора информации, данные отслеживания и распознавания жестов рук в блоке памяти устройства совмещенной реальности. На этапе (106) обрабатывают сохраненную информацию и проецируют посредством встроенных мини проекторов на голографический экран устройства совмещённой реальности, который осуществляет слияние виртуальной и дополненной реальностей для получения совмещенной реальности. Виртуальная 3D голограмма формируется посредством встроенных мини проекторов. Способ визуализации может быть любой, на данном этапе развития техники имеются: проекционное построение изображения, изображение LCD, TFT, IPS, AMOLED, P-OLED, QLED. Next, at step (105), the data of the captured images of the real world, the data of the dimensions and location of the objects of the real world, the data of the location and orientation of the information collection unit, the tracking data and recognition of hand gestures are stored in the memory unit of the combined reality device. At step (106), the stored information is processed and projected by means of built-in mini projectors onto the holographic screen of the combined reality device, which merges virtual and augmented reality to obtain a combined reality. The virtual 3D hologram is formed by means of built-in mini projectors. The visualization method can be any, at this stage of technological development there are: projection image construction, LCD, TFT, IPS, AMOLED, P-OLED, QLED images.
После чего отправляют совмещенную реальность в глаза пользователю. Then the combined reality is sent to the eyes of the user.
Устройство совмещённой реальности может быть оснащено двумя динамика, - таким образом, к звукам внешнего мира добавляется и озвучка проекции. Или возможно применение технологии костной проводимости для передачи звука. A combined reality device can be equipped with two speakers - thus, projection sound is added to the sounds of the outside world. Alternatively, bone conduction technology may be used to transmit sound.
Кроме того, в устройстве совмещённой реальности может быть реализована функция отслеживание направление взгляда пользователя, а именно, система отслеживает положение зрачков человека. В результате чего можно перемещать курсор по направлению взгляда. А голограмма, на которую направлен курсор будет подсвечиваться. А также откалибровать систему визуализации под глаза пользователя. In addition, a function of tracking the direction of a user's gaze can be implemented in a combined reality device, namely, the system tracks the position of a person's pupils. As a result, you can move the cursor in the direction you are looking. And the hologram at which the cursor is directed will be highlighted. And also calibrate the visualization system for the user's eyes.
Информация о положении зрачков человека позволяет определить направления взгляда, выделить объект, на который смотрит человек, и синтезировать изображения с правильной вергенцией на выбранный объект. В результате, информация о положении зрачков человека может помочь формированию изображения с правильной аккомодацией и тем самым обеспечить максимально комфортные условия восприятия виртуального изображения, неотличимого от изображения реального мира. Information about the position of the pupils of a person allows you to determine the direction of gaze, highlight the object that the person is looking at, and synthesize images with the correct vergence on the selected object. As a result, information about the position of a person's pupils can help to form an image with the correct accommodation and thereby provide the most comfortable conditions for perception of a virtual image, indistinguishable from the image of the real world.
В отличии от шлемов виртуальной реальности, в заявленном решении устройство совмещённой реальности позволяет пользователю одновременно оставаться и в реальном мире, сохраняя с ним всю полноту взаимодействия. Unlike virtual reality helmets, in the declared solution, the combined reality device allows the user to simultaneously remain in the real world, maintaining full interaction with him.
Голографические проекции, создаваемые устройством совмещённой реальности, обладают трехмерностью, что позволяет обойти виртуальный объект со всех сторон, рассмотреть и увеличить его детали, посмотреть, как он вписывается в реальность, что открывает безграничные возможности для различных видов 3D моделирования. Holographic projections created by a combined reality device have three dimensions, which allows you to walk around a virtual object from all sides, examine and enlarge its details, see how it fits into reality, which opens up endless possibilities for various types of 3D modeling.
На Фиг. 3 далее будет представлена общая схема вычислительного устройства (300), обеспечивающего обработку данных, необходимую для реализации заявленного решения. В общем случае устройство (300) содержит такие компоненты, как: один или более процессоров (301), по меньшей мере одну память (302), средство хранения данных (303), интерфейсы ввода/вывода (304), средство В/В (305), средства сетевого взаимодействия (306). FIG. 3, a general diagram of a computing device (300) will be presented below, which provides data processing necessary for the implementation of the claimed solution. In the general case, the device (300) contains such components as: one or more processors (301), at least one memory (302), data storage means (303), input / output interfaces (304), I / O means ( 305), networking tools (306).
Процессор (301) устройства выполняет основные вычислительные операции, необходимые для функционирования устройства (300) или функциональности одного или более его компонентов. Процессор (301) исполняет необходимые машиночитаемые команды, содержащиеся в оперативной памяти (302). The device processor (301) performs the basic computational operations necessary for the operation of the device (300) or the functionality of one or more of its components. The processor (301) executes the necessary computer-readable instructions contained in the main memory (302).
Память (302), как правило, выполнена в виде ОЗУ и содержит необходимую программную логику, обеспечивающую требуемый функционал. Memory (302), as a rule, is made in the form of RAM and contains the necessary program logic to provide the required functionality.
Средство хранения данных (303) может выполняться в виде HDD, SSD дисков, рейд массива, сетевого хранилища, флэш-памяти, оптических накопителей информации (CD, DVD, MD, Blue-Ray дисков) и т.п. Средство (303) позволяет выполнять долгосрочное хранение различного вида информации, например, истории обработки транзакционных запросов (логов), идентификаторов пользователей и т.п. The data storage medium (303) can be performed in the form of HDD, SSD disks, raid array, network storage, flash memory, optical information storage devices (CD, DVD, MD, Blue-Ray disks), etc. The tool (303) allows performing long-term storage of various types of information, for example, the history of processing transactional requests (logs), user identifiers, etc.
Интерфейсы (304) представляют собой стандартные средства для подключения и работы с серверной частью, например, USB, RS232, RJ45, LPT, COM, HDMI, PS/2, Lightning, FireWire и т.п. Interfaces (304) are standard means for connecting and working with the server side, for example, USB, RS232, RJ45, LPT, COM, HDMI, PS / 2, Lightning, FireWire, etc.
Выбор интерфейсов (304) зависит от конкретного исполнения устройства (300), которое может представлять собой персональный компьютер, мейнфрейм, серверный кластер, тонкий клиент, смартфон, ноутбук, облачное пространство и т.п. The choice of interfaces (304) depends on the specific implementation of the device (300), which can be a personal computer, mainframe, server cluster, thin client, smartphone, laptop, cloud space, etc.
В качестве средств В/В данных (305) в любом воплощении системы, реализующей описываемый способ, должна использоваться клавиатура. Помимо неё, также может использоваться: джойстик, дисплей (сенсорный дисплей), проектор, тачпад, манипулятор мышь, трекбол, световое перо, динамики, микрофон и т.п. As means of I / O data (305) in any embodiment of the system that implements the described method, a keyboard should be used. In addition to it, the following can also be used: joystick, display (touch screen), projector, touchpad, mouse, trackball, light pen, speakers, microphone, etc.
Средства сетевого взаимодействия (306) выбираются из устройства, обеспечивающий сетевой прием и передачу данных, например, Ethernet карту, WLAN/Wi- Fi модуль, Bluetooth модуль, BLE модуль, NFC модуль, IrDa, RFID модуль, GSM модем и т.п. С помощью средств (305) обеспечивается организация обмена данными по проводному или беспроводному каналу передачи данных, например, WAN, PAN, ЛВС (LAN), Интранет, Интернет, WLAN, WMAN или GSM. Компоненты устройства (300) сопряжены посредством общей шины передачи данных (310). Networking means (306) are selected from a device that provides network reception and transmission of data, for example, Ethernet card, WLAN / Wi-Fi module, Bluetooth module, BLE module, NFC module, IrDa, RFID module, GSM modem, etc. The means (305) provide the organization of data exchange via a wired or wireless data transmission channel, for example, WAN, PAN, LAN, Intranet, Internet, WLAN, WMAN or GSM. The components of the device (300) are interfaced via a common data bus (310).
В настоящих материалах заявки было представлено предпочтительное раскрытие осуществление заявленного технического решения, которое не должно использоваться как ограничивающее иные, частные воплощения его реализации, которые не выходят за рамки испрашиваемого объема правовой охраны и являются очевидными для специалистов в соответствующей области техники. In the present application materials, the preferred disclosure of the implementation of the claimed technical solution was presented, which should not be used as limiting other, particular embodiments of its implementation, which do not go beyond the scope of the claimed scope of legal protection and are obvious to specialists in the relevant field of technology.

Claims

ФОРМУЛА ИЗОБРЕТЕНИЯ CLAIM
1. Способ сбора информации для устройства совмещенной реальности, в режиме реального времени, заключающийся в выполнении этапов, с помощью вычислительного устройства, на которых: 1. A method of collecting information for a device of combined reality, in real time, which consists in performing stages using a computing device, on which:
• захватывают с помощью по меньшей мере одной камеры изображения реального мира в широком диапазоне углов; • capture images of the real world in a wide range of angles using at least one camera;
• сканируют пространство реального мира для определения габаритов и расположения объектов реального мира; • scan the space of the real world to determine the size and location of objects in the real world;
• определяют данные о местоположении и ориентации устройства совмещенной реальности в пространстве; • determine the data on the location and orientation of the combined reality device in space;
• осуществляют отслеживание и трехмерное распознавание жестов рук в реальном времени для определения где именно объекты находятся в пространстве относительно отслеживаемой руки; • carry out tracking and three-dimensional recognition of hand gestures in real time to determine exactly where objects are in space relative to the tracked hand;
• сохраняют данные захваченных изображений реального мира, данные габаритов и расположения объектов реального мира, данные местоположения и ориентации блока сбора информации, данные отслеживания и распознавания жестов рук в блоке памяти устройства совмещенной реальности; • store data of captured images of the real world, data of dimensions and location of objects of the real world, data of location and orientation of the data collection unit, tracking data and recognition of hand gestures in the memory unit of the combined reality device;
• обрабатывают сохраненную информацию и проецируют посредством встроенных мини проекторов на голографический экран устройства совмещённой реальности, который осуществляет слияние виртуальной и дополненной реальностей для получения совмещенной реальности. • process the stored information and project through the built-in mini projectors onto the holographic screen of the combined reality device, which merges virtual and augmented reality to obtain a combined reality.
2. Способ, по п.1, характеризующийся тем, что отслеживание и распознавание жестов рук осуществляется с использованием алгоритма машинного обучения. 2. The method according to claim 1, characterized in that the tracking and recognition of hand gestures is performed using a machine learning algorithm.
3. Способ, по п.1, характеризующийся тем, что дополнительно захватывают аудиоданные. 3. The method according to claim 1, further comprising capturing audio data.
4. Способ, по п.1, характеризующийся тем, что устройство совмещенной реальности представляет собой шлем, планшет или очки. 4. A method according to claim 1, characterized in that the combined reality device is a helmet, tablet or glasses.
5. Способ, по п.1, характеризующийся тем, что камера может быть стереоскопической камерой и/или камерой с эффектом глубины для машинного зрения и/или распознавания жестов. 5. A method according to claim 1, characterized in that the camera can be a stereoscopic camera and / or a camera with a depth effect for machine vision and / or gesture recognition.
6. Способ, по п.1, характеризующийся тем, что дополнительно собирают данные от инерциальной навигационной системы для дополнительного определения данных о местоположении устройства совмещенной реальности. 6. The method according to claim 1, further comprising collecting data from the inertial navigation system to further determine location data of the aligned reality device.
7. Система сбора информации для устройства совмещенной реальности, в режиме реального времени, содержащая: 7. A system for collecting information for a combined reality device, in real time, containing:
- устройство совмещенной реальности, которое содержит: - a combined reality device that contains:
• по меньшей одну камеру, выполненную с возможностью фиксации изображения реального мира в широком диапазоне углов; • at least one camera capable of capturing images of the real world in a wide range of angles;
• встроенные мини проекторы; • built-in mini projectors;
• голографический экран; • holographic screen;
• блок сканирования пространства реального мира; • real world space scanning unit;
• блок позиционирования; • positioning unit;
• вычислительное устройство, выполненное с возможностью выполнения способа по любому из пп. 1-6. • a computing device capable of performing the method according to any one of claims. 1-6.
8. Система по п.7, характеризующаяся тем, что дополнительно включает инерциальную навигационную систему для дополнительного определения данных о местоположении устройства совмещенной реальности, при этом инерциальная навигационная система основана на гироскопах и акселерометрах. 8. The system according to claim 7, further comprising an inertial navigation system for further determining the location data of the combined reality device, wherein the inertial navigation system is based on gyroscopes and accelerometers.
PCT/RU2019/050231 2019-03-13 2019-11-28 Method and system for real-time data collection for a mixed reality device WO2020185115A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2019106958 2019-03-13
RU2019106958A RU2702495C1 (en) 2019-03-13 2019-03-13 Method and system for collecting information for a combined reality device in real time

Publications (1)

Publication Number Publication Date
WO2020185115A1 true WO2020185115A1 (en) 2020-09-17

Family

ID=68170985

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2019/050231 WO2020185115A1 (en) 2019-03-13 2019-11-28 Method and system for real-time data collection for a mixed reality device

Country Status (2)

Country Link
RU (1) RU2702495C1 (en)
WO (1) WO2020185115A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080024594A1 (en) * 2004-05-19 2008-01-31 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
WO2013085639A1 (en) * 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
US20170262045A1 (en) * 2016-03-13 2017-09-14 Logitech Europe S.A. Transition between virtual and augmented reality

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9508146B2 (en) * 2012-10-31 2016-11-29 The Boeing Company Automated frame of reference calibration for augmented reality
US9336629B2 (en) * 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
US20140270477A1 (en) * 2013-03-14 2014-09-18 Jonathan Coon Systems and methods for displaying a three-dimensional model from a photogrammetric scan
JP6389888B2 (en) * 2013-08-04 2018-09-12 アイズマッチ エルティーディー.EyesMatch Ltd. Virtualization device, system and method in mirror
JP5812550B1 (en) * 2014-10-10 2015-11-17 ビーコア株式会社 Image display device, image display method, and program
RU2656584C1 (en) * 2017-03-14 2018-06-05 Общество с ограниченной ответственностью "Новый мир развлечений" System of designing objects in virtual reality environment in real time
RU176382U1 (en) * 2017-08-28 2018-01-17 Общество с ограниченной ответственностью "ТрансИнжКом" INFORMATION GATHERING UNIT FOR A JOINT REALITY DEVICE

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080024594A1 (en) * 2004-05-19 2008-01-31 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
WO2013085639A1 (en) * 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
US20170262045A1 (en) * 2016-03-13 2017-09-14 Logitech Europe S.A. Transition between virtual and augmented reality

Also Published As

Publication number Publication date
RU2702495C1 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
US11900547B2 (en) Cross reality system for large scale environments
US11562525B2 (en) Cross reality system with map processing using multi-resolution frame descriptors
CN107402000B (en) Method and system for correlating a display device with respect to a measurement instrument
JP7504212B2 (en) Cross reality system with WiFi/GPS based map merging
JP2022551734A (en) Cross-reality system that supports multiple device types
EP4046401A1 (en) Cross reality system with wireless fingerprints
CN115398484A (en) Cross reality system with geolocation information priority for location
CN115461787A (en) Cross reality system with quick positioning
Bostanci et al. User tracking methods for augmented reality
KR20220028042A (en) Pose determination method, apparatus, electronic device, storage medium and program
US10451403B2 (en) Structure-based camera pose estimation system
CN105103542A (en) Handheld portable optical scanner and method of using
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
US9858669B2 (en) Optimized camera pose estimation system
JP2017505933A (en) Method and system for generating a virtual image fixed on a real object
WO2020055281A1 (en) Method and system of forming mixed-reality images
KR102312531B1 (en) Location system and computing device for executing the system
JP2021511498A (en) Passive scanning devices and methods for objects or scenes
CN117437370A (en) High-voltage cable positioning method, device and equipment based on mixed reality three-dimensional modeling
RU2660631C1 (en) Combined reality images formation method and system
RU176382U1 (en) INFORMATION GATHERING UNIT FOR A JOINT REALITY DEVICE
RU2702495C1 (en) Method and system for collecting information for a combined reality device in real time
US11315339B1 (en) Registration of 3D augmented scene to structural floor plans
Michel On mobile augmented reality applications based on geolocation
US20220375175A1 (en) System For Improving The Precision and Accuracy of Augmented Reality

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19919301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19919301

Country of ref document: EP

Kind code of ref document: A1