WO2022060241A1 - Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности - Google Patents

Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности Download PDF

Info

Publication number
WO2022060241A1
WO2022060241A1 PCT/RU2020/000701 RU2020000701W WO2022060241A1 WO 2022060241 A1 WO2022060241 A1 WO 2022060241A1 RU 2020000701 W RU2020000701 W RU 2020000701W WO 2022060241 A1 WO2022060241 A1 WO 2022060241A1
Authority
WO
WIPO (PCT)
Prior art keywords
training
participant
participants
simulator according
training session
Prior art date
Application number
PCT/RU2020/000701
Other languages
English (en)
French (fr)
Inventor
Алексей Олегович ОЛЕЙНИКОВ
Павел Александрович ЕФРЕМОВ
Максим Александрович КОЗЛОВ
Алексей Михайлович ХРАМЦОВ
Original Assignee
Публичное Акционерное Общество "Сбербанк России"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Публичное Акционерное Общество "Сбербанк России" filed Critical Публичное Акционерное Общество "Сбербанк России"
Publication of WO2022060241A1 publication Critical patent/WO2022060241A1/ru

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Definitions

  • the claimed technical solution generally relates to the field of computer technology, and in particular, to an interactive simulator for training using virtual reality (hereinafter referred to as VR).
  • VR virtual reality
  • This technical solution is aimed at eliminating the technical problem that consists in the limited functionality of simulators based on VR, which is ensured by the possibility of dynamically changing the scenarios of the training process, as well as the possibility of tracking the direction and duration of the gaze of the training session participants with reference to critically important objects of the virtual space.
  • the technical result achieved by solving the above technical problem is to expand the functionality of the VR-based simulator by providing tracking of the visual response of the training session participants when interacting with objects of virtual space.
  • An additional result is an increase in the quality of the training process, due to additional tracking of the indications of the visual response of the participants in the training session when performing specified scenarios.
  • the claimed technical result is achieved through an interactive simulator for training using virtual reality (VR), which contains at least one server that generates virtual rooms for training sessions; one or more computer devices of the participants in the training process, connected via a data network to the server and containing a connected VR headset, VR controller and sensors for tracking the movement and actions of the participant in the VR;
  • VR virtual reality
  • the VR headset contains a means for tracking the visual response of the training participant, which provides data transmission to the corresponding computer device of the participant, about the direction and time of visual contact with VR objects; the computer device of the participants provides: generation of the virtual environment of the training session; activating the change of scenarios of the VR environment depending on the receipt of said data of the visual response of the participants; collection of indicators of the activity of participants and parameters for fulfilling the conditions of the training session; calculation of the final assessment of the passage of the training session by each participant.
  • the controller is made in the form of a weapon simulator.
  • the simulator contains a shot and recoil control system.
  • the simulator additionally contains a tracker attached to an element of the training environment.
  • the element of the training environment is a case, or a bag, or a backpack.
  • At least one participant in the training session is dressed in a suit with tactile feedback.
  • the suit provides obtaining biometric indicators of the participant in the training session.
  • the participant's computer device captures the biometric response of the participants during the exercise session.
  • a recommendation is generated for the participant based on the biometric response during the training session.
  • VR objects include static and/or dynamic objects.
  • dynamic objects are animated models selected from the group: animals, people, vehicles, or combinations thereof.
  • the computer device provides the participant of the training session with the control of a dynamic object representing a model of a person.
  • the training mode is carried out by at least two participants in the training session in a single virtual space.
  • animated models are built on behavioral algorithms based on artificial neural networks (ANNs).
  • ANNs artificial neural networks
  • animated models change behavior depending on the execution of the script by at least one participant in the training session.
  • FIG. 1 illustrates the general scheme of the claimed solution.
  • FIG. 2A-2B illustrate an example of a participant's visual response.
  • FIG. 3 illustrates an example training session scenario.
  • FIG. 4 illustrates a general view of a computing device for implementing the claimed invention.
  • the general scheme of the claimed simulator is a set of devices designed to provide a training session for participants (110, 120).
  • the minimum equipment required for the implementation of the training process in VR consists of the following devices: computers (111, 121), VR headset (112, 122), VR controller (113, 123).
  • the computer devices (111, 121) of the participants (110, 120) are connected to the training session generated by the server (160) via a data link (150).
  • a data transmission channel (150) a local area network (LAN), a wireless network connection (WLAN, Wi-Fi, etc.), an Internet network, etc. can be used.
  • the server (160) provides the formation of training sessions or virtual rooms, allowing several players located in a single real zone (10) or geographically remote from each other to interact in a single virtual space (20).
  • the server (160) may be a technical implementation of, but not limited to, Photon ServerTM (https://www.photonengine.com/en-US/Server), in which network virtual rooms are created for the training session of participants (110 , 120) when a corresponding signal is received from the participants' devices (111, 121). Also, all communications between the administrator (not shown), participants (110, 120) and observers (not shown) pass through the server (160).
  • Photon ServerTM https://www.photonengine.com/en-US/Server
  • the virtual space is generated by the computing devices (111, 121) by processing the given program logic.
  • the position of the training participants (110, 120) in the VR is processed using information captured by optical sensors (130, 140), such as depth cameras.
  • the coordinates themselves participants (PO, 120) in space (10) are captured using trackers, which can be placed in the controller (FROM, 123) or represent additional equipment worn by participants (110, 120). Examples of such trackers include the ViveTM motion trackers worn on the arms and/or legs of participants (110, 120).
  • the software logic for providing the training process in VR can be implemented on a game engine that supports 3D, for example, Unity3D or Unreal Engine, with the help of which three-dimensional scenes are formed and parameters are taken into account in the process of training.
  • Trackers, VR headset (112, 122), VR controllers (113, 123) are connected to computing devices (111, 121) via wired or wireless communication, for example, through standardized interfaces, such as: USB, Wi-Fi, Bluetooth, BLE, etc. Additionally, participants (110, 120) may use tactile feedback and muscle stimulation, such as the TeslasuitTM VR suit. With the help of such a suit, it is additionally possible to track the participant's biometric indicators (110, 120), for example, pulse, stress level, etc.
  • virtual space contains a virtual environment (20), in which environment elements (201 - 204) are generated, which are models of buildings, vehicles, people, landscape objects, etc.
  • the virtual environment (20) can be formed from a real model of an object or space, on which training is to be carried out.
  • the construction of such an environment model (20) can be carried out using the technology of capturing the environment (for example, using ARKitTM) and converting the resulting images into a three-dimensional computer model for use in a virtual environment (20).
  • Dynamic virtual environment objects can be based on artificial intelligence (AI) to ensure the performance of specified functions during the training session.
  • Participants (110, 120) of the training session in the virtual environment are represented by dynamic models of avatars (210, 220) to ensure interaction between themselves and with VR objects (201 - 204) during the training process.
  • the VR headsets (112, 122) of the participants (110, 120) may be in the form of goggles, a helmet, or other wearable device that provides a VR display.
  • the headset (112, 122) contains a means for fixing the optical response of the participants (110, 120), which makes it possible to analyze the direction of gaze, the time of fixing the gaze on VR objects (201 - 204). Blink rate and muscle contractions can also be taken into account.
  • VR the headset (112, 122) may also contain built-in means for playing audio and recording speech information for communicating between participants (110, 120).
  • Eye tracking technology allows you to obtain important information during training sessions for personnel, for example, for collectors, police officers, security guards and other personnel for whom monitoring the environment plays a paramount task.
  • FIG. 2A-2B show an example of analyzing information received from a headset (112) with Participant Visual Response (VR) processing technology.
  • the virtual environment (20) may contain objects, in particular, dynamic objects (203, 204), which must be observed in order to practice certain tactical actions. For example, observation of people (203) and transport (204).
  • Training scenarios are controlled by software logic on the participants' devices (111, 121), while generating a training session scenario can only be done on one computer device (111, 121). Additionally, an instructor's workstation can be used, which is a computer device that provides connection to a training session to monitor and/or control the training scenario.
  • the scenario of the training session is implemented on the basis of program logic and can take into account the objects of the virtual environment (20) present in the current session and generate commands for the implementation of certain actions by these objects, for example, the movement of people (203), cars (204), formation of dangerous/emergency situations, etc.
  • a change in the scenario of the behavior of the VR objects (203 - 204) may also occur depending on the received data of the visual response of the participants (110, 120), for example, when the condition for observing the object (203 - 204) is met, a given amount of time T (which can measured, for example, in seconds).
  • T which can measured, for example, in seconds.
  • the indicators obtained during the training session allow us to analyze the activity of participants (110, 120) and determine the parameters for fulfilling the conditions of the training session, as well as calculate the final score for passing the training session by each participant (110, 120).
  • FIG. 3 shows an example of a training session in which a participant (210) practices moving with a valuable cargo (211).
  • an element of an additional training environment (211) equipped with a tracker to track its position in the VR, can be used.
  • an element (211) may be, for example, a case, a bag, a backpack, etc.
  • the participant (PO) moves in the real room (10)
  • the corresponding movement of his digital avatar (210) in the VR (20) is tracked.
  • the participant's visual response is analyzed by processing visual contact with VR objects (203 - 204), in particular, the time of observing objects, viewing nearby objects along the path of movement, etc.
  • the training session script can activate trigger events when set conditions occur, for example, missing a critical VR object (203 - 204), for example, a human model (203) in the training area, which forms the program logic of the behavior of the VR object (203) for the implementation of the pledged actions, for example, an attack, obstruction, etc.
  • Program logic based on artificial intelligence of objects (203 - 204) can be built on such families of algorithms as “behavior trees”, as well as using machine learning agents (ML Agents) and goal-oriented action planning models (Goal-Oriented Action Planning) , which allow learning and adapting to the behavior of participants (110, 120) during repeated execution of training scenarios.
  • controllers FROM, 123
  • weapon models can be used to work out scenarios aimed at simulating combat operations.
  • the following devices can be used as such controllers (FROM, 123): Vive BlasterTM (https://www.vive.com/us/VR-hyperkin-h yper-blaster-with-tracker/), Vive ControllerTM
  • the claimed simulator also provides a mode for both joint training by several participants (110, 120), in which participants (PO, 120) form a single team to work out a given scenario, and a mode in which participants (110, 120) compete with each other. with a friend.
  • participants (110, 120) compete with each other. with a friend.
  • several scenarios can be generated for execution.
  • One such scenario would be sniping practice, which analyzes the visual response of participants (110, 120) in conjunction with shooting data received from controller systems (113, 123).
  • participants (110, 120) work out scenarios in which one of the participants (210) performs one task, and the avatar of the second (210) participant does not visually differ from other models of people (203) of the virtual environment (20), until the moment performing actions in relation to the first participant (110). For example, when attacking the avatar of the first participant (210).
  • This mode allows more flexible testing of various scenarios, taking into account the real actions of the participants (110, 120).
  • Training can also take place in a mode that does not require a network connection (150), the so-called. offline mode, in which the participant (110) solely participates in the session using his computer device (111) and the necessary devices (112, 113).
  • An important feature of the use of such a suit is the ability to simulate training scenarios with thermal effects on participants (HO, 120).
  • the suit may be equipped with thermoregulatory elements, such as tubes, connected to a vessel or means for circulating fluid through them, providing heating or cooling of the fluid in them, thereby simulating heat or cold transmitted to the participants (110, 120).
  • the suit is a variant of an additional controller for VR, which is connected to the device (111 or 112) and reacts to the change in the virtual environment during the training session. This approach to using a tactile suit can be widely used for firefighters or working out scenarios in winter conditions, etc.
  • the suit allows for electrical interaction with any muscle groups of participants, which makes it possible to increase the efficiency of simulating non-standard situations in VR and the quality of the training process itself.
  • the implementation of the options for using the claimed simulator is not limited to these examples only and can be adapted to the required area and specific application. Additional trackers can be installed on various types of simulators of real equipment for the implementation of the training process, for example, fire hoses, construction tools, weapon simulators, etc.
  • the platform (10) for the movement of participants (110, 120) may contain additional elements of the environment, the models of which can be adapted for VR, for example, shelters, sidewalk simulators, natural plantations, etc.
  • the platform (10) may contain sensors that, when participants approaching them (OL, 120) activate the program logic of the VR, involving the triggers of the virtual environment, which can affect the change in the scenario of the behavior of objects (201 - 204) of the virtual environment (20).
  • FIG. 4 shows an example of a general view of a computing device (300), on the basis of which the claimed solution can be implemented, in particular computing devices, and elements that perform computational information processing.
  • the device (300) comprises one or more processors (301), memory facilities such as RAM (302) and ROM (303), input/output interfaces (304) connected by a common information exchange bus (310) , input/output devices (305), and a device for networking (306).
  • device (300) may be a server, server cluster, mainframe, supercomputer, or other type of suitable computing device.
  • the processor (301) (or multiple processors, multi-core processor, etc.) can be selected from a range of devices currently widely used, for example, manufacturers such as: IntelTM, AMDTM, AppleTM, Samsung Exynos TM, MediaTEKTM, Qualcomm SnapdragonTM, etc. Under the processor or one of the processors used in the device (300), it is also necessary to take into account the graphics processor, for example, an NVIDIA or Graphcore GPU, the type of which is also suitable for the full or partial implementation of the claimed method, and can also be used to train and apply machine learning models in various information systems.
  • the graphics processor for example, an NVIDIA or Graphcore GPU, the type of which is also suitable for the full or partial implementation of the claimed method, and can also be used to train and apply machine learning models in various information systems.
  • RAM (302) is a random access memory and is designed to store machine-readable instructions executable by the processor (301) to perform the necessary data logical processing operations.
  • the RAM (302) typically contains the executable instructions of the operating system and associated software components (applications, program modules, etc.). In this case, the RAM (302) may be the available memory of the graphics card or graphics processor.
  • a ROM (303) is one or more persistent storage devices, such as a hard disk drive (HDD), a solid state drive (SSD), flash memory (EEPROM, NAND, etc.), optical storage media ( CD-R/RW, DVD-R/RW, BlueRay Disc, MD), etc.
  • I/O interfaces are used to organize the operation of device components (300) and organize the operation of external connected devices.
  • the choice of the appropriate interfaces depends on the specific design of the computing device, which can be, but not limited to: PCI, AGP, PS/2, IrDa, FireWire, LPT, COM, SATA, IDE, Lightning, USB (2.0, 3.0, 3.1, micro, mini, type C), TRS/Audio jack (2.5, 3.5, 6.35), HDMI, DVI, VGA, Display Port, RJ45, RS232, etc.
  • I / O information are used, for example, a keyboard, a display (monitor), a touch screen, a touch pad, a joystick, a manipulator, a mouse, a light pen, a stylus, touch panel, trackball, speakers, microphone, augmented reality, optical sensors, tablet, indicator lights, projector, camera, biometric identification tools (retinal scanner, fingerprint scanner, voice recognition module), etc.
  • a keyboard for example, a keyboard, a display (monitor), a touch screen, a touch pad, a joystick, a manipulator, a mouse, a light pen, a stylus, touch panel, trackball, speakers, microphone, augmented reality, optical sensors, tablet, indicator lights, projector, camera, biometric identification tools (retinal scanner, fingerprint scanner, voice recognition module), etc.
  • a keyboard for example, a keyboard, a display (monitor), a touch screen, a touch pad, a joystick, a manipulator, a mouse, a light pen, a
  • the network communication means (306) provides data transmission via an internal or external computer network, for example, an Intranet, the Internet, a LAN, and the like.
  • an Intranet for example, an Intranet, the Internet, a LAN, and the like.
  • one or more means (306) can be used, but not limited to: Ethernet card, GSM modem, GPRS modem, LTE modem, 5G modem, satellite communication module, NFC module, Bluetooth and / or BLE module, Wi-Fi module and others

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Educational Administration (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Техническое решение представляет собой интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности (ВР). Тренажер содержит по меньшей мере один сервер, обеспечивающий генерирование виртуальных комнат для проведения тренировочных сессий; одно или несколько компьютерных устройств участников тренировочного процесса, соединенные посредством сети передачи данных с сервером и содержащие подключенные ВР гарнитуру, контроллер ВР и сенсоры для отслеживания перемещения и действий участника в ВР. ВР гарнитура содержит средство отслеживания визуального отклика участника тренировки, обеспечивающее передачу данных о направлении и времени визуального контакта с объектами ВР на соответствующее компьютерное устройство участника. Компьютерное устройство участников обеспечивает: генерирование виртуального окружения тренировочной сессии; активацию изменения сценариев окружения ВР в зависимости от получаемых упомянутых данных визуального отклика участников; сбор показателей активности участников и параметров выполнения условий тренировочной сессии; расчет итоговой оценки прохождения тренировочной сессии каждым участником. Техническим результатом является расширение функциональных возможностей тренажера на основе ВР, за счет обеспечения отслеживания визуального отклика участников тренировочной сессии при взаимодействии с объектами виртуального пространства.

Description

ИНТЕРАКТИВНЫЙ ТРЕНАЖЕР ДЛЯ ОСУЩЕСТВЛЕНИЯ ТРЕНИРОВОК С ПОМОЩЬЮ ВИРТУАЛЬНОЙ РЕАЛЬНОСТИ
ОБЛАСТЬ ТЕХНИКИ
[0001] Заявленное техническое решение в общем относится к области компьютерной техники, а в частности, к интерактивному тренажеру для осуществления тренировок с помощью виртуальной реальности (далее - ВР).
УРОВЕНЬ ТЕХНИКИ
[0002] Использование виртуальной реальности для осуществления различного рода тренировок и процесса обучения, на сегодняшний момент с развитием технологий в данной отрасли, является достаточно распространенным решением, позволяющим обеспечить более интерактивный и функционально продвинутый режим, позволяющий пользователям более полноценно погружаться в процесс для выполнения эффективных тренировок в компьютерно-моделируемом пространстве ВР.
[0003] Из патентной заявки CN 108489330 А (заявитель: Mu et al., дата публикации: 04.09.2018) известна система выполнения тренировочного процесса в ВР, в частности, для сотрудников полиции. Система обеспечивает выполнения тренировочных сессий для отработки тактических навыков и стрельбы, и включает в себя игровые компьютеры участников тренировочного процесса, компьютер инструктора, центральный сервер, гарнитуры участников для обеспечения процесса тренировки в ВР и сенсоров для отслеживания положения участников в ВР. Гарнитуры выполняются в виде шлемов ВР, контроллеров и сенсоров для отслеживания перемещений пользователей.
[0004] Аналогичное решение известно также из патента США 9,599,821 (патентообладатель: Curen et al., дата публикации: 21.03.2017). В данном патенте раскрывается система для обеспечения тренировочного процесса в ВР, с обеспечением единой сессии для нескольких игроков в едином виртуальном пространстве.
[0005] Недостатком известных подходов является ограниченный функционал, предлагаемый тренировочными комплексами, в частности, основывающийся на приближении тренировочного процесса к игровому, для отслеживания общего процесса взаимодействия и поведения игроков в ВР, без анализа важных показателей непосредственной физической активности, требуемых для отработки навыков поведения в различных реальных ситуациях. СУЩНОСТЬ ИЗОБРЕТЕНИЯ
[0006] Настоящее техническое решение направлено на устранение технической проблемы, заключающейся в ограниченности функционала тренажеров на основе ВР, что обеспечивается за счет возможности динамического изменения сценариев тренировочного процесса, а также возможности отслеживания направления и длительности взгляда участников тренировочной сессии с привязкой к критически важным объектам виртуального пространства.
[0007] Техническим результатом, достигающимся при решении вышеописанной технической проблемы, является расширение функциональных возможностей тренажера на основе ВР, за счет обеспечения отслеживания визуального отклика участников тренировочной сессии при взаимодействии с объектами виртуального пространства.
[0008] Дополнительным результатом является повышение качества тренировочного процесса, за счет дополнительного отслеживания показаний визуального отклика участников тренировочной сессии при выполнении заданных сценариев.
[0009] Заявленный технический результат достигается за счет интерактивного тренажера для осуществления тренировок с помощью виртуальной реальности (ВР), который содержит по меньшей мере один сервер, обеспечивающий генерирование виртуальных комнат для проведения тренировочных сессий; одно или несколько компьютерных устройств участников тренировочного процесса, соединенные посредством сети передачи данных с сервером и содержащие подключенные ВР гарнитуру, контроллер ВР и сенсоры для отслеживания перемещения и действий участника в ВР; при этом
ВР гарнитура содержит средство отслеживания визуального отклика участника тренировки, обеспечивающее передачу данных на соответствующее компьютерное устройство участника, о направлении и времени визуального контакта с объектами ВР; компьютерное устройство участников обеспечивает: генерирование виртуального окружения тренировочной сессии; активацию изменения сценариев окружения ВР в зависимости от получаемых упомянутых данных визуального отклика участников; сбор показателей активности участников и параметров выполнения условий тренировочной сессии; расчет итоговой оценки прохождения тренировочной сессии каждым участником.
[0010] В одном из частных примеров реализации тренажера контроллер выполнен в виде имитатора оружия.
[ООН] В другом частном примере реализации тренажера имитатор содержит систему контроля выстрела и отдачи.
[0012] В другом частном примере реализации тренажера дополнительно содержит трекер, закрепляемый на элементе тренировочного окружения.
[0013] В другом частном примере реализации тренажера элемент тренировочного окружения представляет собой кейс, или мешок, или рюкзак.
[0014] В другом частном примере реализации тренажера дополнительно по меньшей мере один участник тренировочной сессии одет в костюм с тактильной отдачей.
[0015] В другом частном примере реализации тренажера костюм обеспечивает получение биометрических показателей участника тренировочной сессии.
[0016] В другом частном примере реализации тренажера компьютерное устройство участника фиксирует биометрический отклик участников при выполнении тренировочной сессии.
[0017] В другом частном примере реализации тренажера формируется рекомендация для участника на основании биометрического отклика при выполнении тренировочной сессии.
[0018] В другом частном примере реализации тренажера объекты ВР включают в себя статичные и/или динамические объекты.
[0019] В другом частном примере реализации тренажера динамические объекты представляют собой анимированные модели, выбираемые из группы: животные, люди, транспорт, или их сочетания.
[0020] В другом частном примере реализации тренажера компьютерное устройство обеспечивает участнику тренировочной сессии управление динамических объектом, представляющим модель человека.
[0021] В другом частном примере реализации тренажера режим тренировки осуществляется по меньшей мере двумя участниками тренировочной сессии в едином виртуальном пространстве.
[0022] В другом частном примере реализации тренажера анимированные модели построены на алгоритмах поведения на основе искусственных нейронных сетей (ИНС). [0023] В другом частном примере реализации тренажера анимированные модели изменяют поведение в зависимости от выполнения сценария по меньшей мере одним участником тренировочной сессии.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
[0024] Фиг. 1 иллюстрирует общую схему заявленного решения.
[0025] Фиг. 2А - 2Б иллюстрируют пример визуального отклика участника.
[0026] Фиг. 3 иллюстрирует пример сценария тренировочной сессии.
[0027] Фиг. 4 иллюстрирует общий вид вычислительного устройства для реализации заявленного изобретения.
ОСУЩЕСТВЛЕНИЕ ИЗОБРЕТЕНИЯ
[0028] Как представлено на Фиг. 1, общая схема заявленного тренажера представляет собой комплекс устройств, предназначенных для обеспечения тренировочной сессии для участников (110, 120). Оборудование, минимально необходимое для осуществления тренировочного процесса в ВР состоит из следующих устройств: компьютеры (111, 121), ВР гарнитура (112, 122), ВР контроллер (113, 123).
[0029] Компьютерные устройства (111, 121) участников (110, 120) подключаются к тренировочной сессии, генерируемой сервером (160), посредством канала передачи данных (150). В качестве канала передачи данных (150) может использоваться локальная вычислительная сеть (ЛВС), беспроводное сетевое соединение (WLAN, Wi-Fi и т.п.), сеть «Интернет» и т.п. Сервер (160) обеспечивает формирование тренировочных сессий или виртуальных комнат, позволяя нескольким игрокам, находящимся в единой реальной зоне (10) или удаленных друг от друга территориально местах, взаимодействовать в едином виртуальном пространстве (20).
[0030] Сервер (160) может представлять собой техническую реализацию, не ограничиваясь, Photon Server™ (https://www.photonengine.com/en-US/Server), в котором идёт создание сетевых виртуальных комнат для тренировочной сессии участников (110, 120) при поступлении соответствующего сигнала от устройств участников (111, 121). Также, через сервер (160) проходят все сообщения между администратором (не показан), участниками (110, 120) и наблюдателями (не показаны).
[0031 ] Виртуальное пространство формируется с помощью вычислительных устройств (111, 121), за счет обработки заданной программной логики. Положение участников (110, 120) тренировки в ВР обрабатывается с помощью информации, захватываемой оптическими сенсорами (130, 140), например, камерами глубины. Координаты самих участников (ПО, 120) в пространстве (10) захватываются с помощью трекеров, которые могут размещаться в контроллере (ИЗ, 123) или представлять дополнительное оборудование, надеваемое участниками (110, 120). Примерами таких трекеров могут выступать трекеры движения Vive ™, одеваемые на руки, и/или ноги участников (110, 120). [0032] Программная логика для обеспечения тренировочного процесса в ВР может быть реализована на игровом движке, поддерживающем 3D, например, Unity3D или Unreal Engine, с помощью которого формируются трехмерные сцены и учет параметров в процессе проведения тренировок.
[0033] Трекеры, ВР гарнитура (112, 122), ВР контроллеры (113, 123) подключаются к вычислительным устройствам (111, 121) посредством проводной или беспроводной связи, например, через стандартизованные интерфейсы, такие как: USB, Wi-Fi, Bluetooth, BLE и т.п. Дополнительно, участники (110, 120) могут использовать средства тактильной отдачи и стимуляции мышечной активности, например, костюм для ВР Teslasuit™. С помощью такого костюма дополнительно появляется возможность отслеживание биометрических показателей участника (110, 120), например, пульс, уровень стресса и т.п.
[0034] Как показано на Фиг. 1 виртуальное пространство содержит виртуальное окружение (20), в котором генерируются элементы окружения (201 - 204), представляющие собой модели зданий, транспорта, людей, предметов ландшафта и т.п. Виртуальное окружение (20) может формироваться из реальной модели объекта или пространства, тренировку на котором необходимо провести. Построение такой модели окружения (20) может осуществляться с помощью технологии съемки окружения (например, с помощью ARKit™) и перевода полученных изображений в трехмерную компьютерную модель для использования в виртуальном окружении (20).
[0035] Динамические объекты виртуального окружения (203, 204) могут быть основаны на базе искусственного интеллекта (ИИ) для обеспечения выполнения заданных функций во время проведения тренировочной сессии. Участники (110, 120) тренировочной сессии в виртуальном окружении представлены динамическими моделями аватаров (210, 220) для обеспечения взаимодействия между собой и с объектами ВР (201 - 204) в процессе тренировки.
[0036] ВР гарнитуры (112, 122) участников (110, 120) могут выполняться в виде очков, шлема или другого носимого устройства, обеспечивающего отображение ВР. Гарнитура (112, 122) содержит средство фиксации оптического отклика участников (110, 120), позволяющего анализировать направление взгляда, время фиксации взгляда на объекты ВР (201 - 204). Также может учитываться частота моргания и мышечные сокращения. ВР гарнитура (112, 122) также может содержать встроенные средства для воспроизведения аудио и записи речевой информации для осуществления общения участников (110, 120).
[0037] Т ехцология фиксации взгляда (от англ. Eye tracking) позволяет получить важную информацию при проведении тренировочных сессий для персонала, например, для инкассаторов, сотрудников полиции, охранников и другого персонала, для которых наблюдение за окружающей обстановкой играет первостепенную задачу.
[0038] На Фиг. 2 А - 2Б приведен пример анализа информации, получаемой от гарнитуры (112) с технологией обработки визуального отклика участника (НО). При выполнении тренировочных сессий виртуальное окружение (20) может содержать объекты, в частности, динамические объекты (203, 204), наблюдение за которыми необходимо осуществить для отработки тех или иных тактических действий. Например, наблюдение за людьми (203) и транспортом (204).
[0039] Сценарии тренировок управляются с помощью программной логики на устройствах участников (111, 121), при этом генерирование сценария тренировочной сессии может осуществляться только на одном компьютерном устройстве (111, 121). Дополнительно может использоваться рабочее место инструктора, представляющее собой компьютерное устройство, обеспечивающее подключение к тренировочной сессии для мониторинга и/или управления сценарием тренировки.
[0040] Сценарий тренировочной сессии реализован на базе программной логики и может учитывать объекты виртуального окружения (20), присутствующие в текущей сессии и формировать команды на осуществления тех или иных действий данными объектами, например, движение людей (203), машин (204), формирование опасных/нештатных ситуаций и т.п.
[0041] Изменение сценария поведения объектов ВР (203 - 204) может также происходить в зависимости от получаемых данных визуального отклика участников (110, 120), например, при выполнении условия наблюдения за объектом (203 - 204) заданное количество времени Т (которое может измеряться, например, в секундах). Получаемые показатели во время тренировочной сессии позволяют проанализировать активность участников (110, 120) и определить параметры выполнения условий тренировочной сессии, а также произвести расчет итоговой оценки прохождения тренировочной сессии каждым участником (110, 120).
[0042] На Фиг. 3 представлен пример тренировочной сессии, при которой участник (210) отрабатывает перемещение с ценным грузом (211). Для отработки данного сценария может применяться элемент дополнительного тренировочного окружения (211), снабженного трекером для отслеживания его положения в ВР. В качестве такого элемента (211) может выступать, например, кейс, мешок, рюкзак и т.п. При перемещении участника (ПО) в реальном помещении (10) осуществляется отслеживание соответствующего перемещения его цифрового аватара (210) в ВР (20).
[0043] Для успешного осуществления тренировочной сессии анализируется визуальный отклик участника (ПО) с помощью обработки визуального контакта с объектами ВР (203 - 204), в частности, время наблюдения за объектами, осмотр ближайших объектов по пути перемещения и т.п.
[0044] Сценарий тренировочной сессии может активировать триггерные события при наступлении установленных условий, например, пропуск критически важного объекта ВР (203 - 204), например, модели человека (203) в зоне проведения тренинга, что формирует программную логику поведения объекта ВР (203) для осуществления заложенных действий, например, нападение, препятствование и т.п. Программная логика на базе искусственного интеллекта объектов (203 - 204) может строиться на таких семействах алгоритмов, как “деревья поведения”, а также с применением агентов машинного обучения (ML Agents) и моделях целе-ориентированного планирования действий (Goal-Oriented Action Planning), позволяющих обучаться и адаптироваться к поведению участников (110, 120) при повторных выполнениях сценариев тренировок.
[0045] В качестве контроллеров (ИЗ, 123) могут применяться модели оружия для отработки сценариев, направленных на имитацию боевых действий. В качестве таких контроллеров (ИЗ, 123) могут использоваться такие устройства, как: Vive Blaster™ (https :// www. vive . com/ us/VR-hyperkin-h yper-blaster- with-tracker/), Vive Controller™
(https://www.vive.com/us/accessory/controller/). Может также применяться имитация реального оружия, снабженного специализированной системой отслеживания магазина и положения затвора, что позволяет обеспечить более реальное погружение в тренировочный процесс.
[0046] Заявленный тренажер также обеспечивает режим как совместного прохождения тренировки несколькими участниками (110, 120), при котором участники (ПО, 120) формируют единую команду для отработки заданного сценария, так и режим, при котором участники (110, 120) соревнуются друг с другом. В этом режиме может генерироваться к исполнению несколько сценариев. Одним из таких сценариев может выступать отработка стрельбы из укрытия, при котором анализируется визуальный отклик участников (110, 120), в совокупности с данными стрельбы, получаемой с систем контроллеров (113, 123). В другом режиме участники (110, 120) отрабатывают сценарии, в котором один из участников (210) выполняет одну задачу, а аватар второго (210) участника визуально не отличается от других моделей людей (203) виртуального окружения (20), до наступления момента совершения действий по отношению к первому участнику (110). Например, при совершении нападения на аватар первого участника (210). Такой режим позволяет осуществлять более гибкую отработку различных сценариев с учетом реальных действий участников (110, 120).
[0047] Тренировки могут проходить также и в режиме, не требующим подключения к сети (150), т.н. оффлайн режим, при котором участник (110) единолично участвует в сессии с помощью его компьютерного устройства (111) и необходимых устройств (112, 113).
[0048] Использование дополнительных средств, таких как костюм с тактильной отдачей, позволяет также получать информацию об индивидуальном восприятии участников (110, 120), например, уровень стресса в той или иной ситуации, внимательность, меткость, скорость реакции и т.п.
[0049] Важной особенностью применения такого костюма, например, Teslasuit™ или аналога, является возможность моделировать сценарии тренировок с термическим воздействием на участников (НО, 120). Костюм может оборудоваться терморегулирующими элементами, например, трубками, соединенными с сосудом или средством для циркулирования жидкости по ним, обеспечивая нагрев или охлаждение жидкости в них, тем самым имитируя жар или холод, передаваемый участникам (110, 120). Костюм представляет собой вариант дополнительного контроллера для ВР, который подключается к устройству (111 или 112) и реагирует на изменение виртуального окружения при проведении тренировочной сессии. Такой подход в использовании тактильного костюма может найти широкое применение для пожарников или отработки сценариев в условиях зимы и т.п. Костюм позволяет осуществлять электрическое взаимодействие на любые мышечные группы участников, что позволяет повысить эффективность имитации в ВР нестандартных ситуаций и качество самого процесса тренировки.
[0050] Выполнение вариантов использование заявленного тренажера не ограничивается только данными примерами и может быть адаптировано под требуемую область и специфику применения. Дополнительные трекеры могут устанавливаться на различные типы имитаторов реального оборудования для осуществления тренировочного процесса, например, пожарные шланги, строительные инструменты, имитаторы оружия и т.п.
[0051] Площадка (10) для перемещения участников (110, 120) может содержать дополнительные элементы окружения, модели которых могут адаптироваться под ВР, например, укрытия, имитаторы тротуара, природных насаждений и др. Площадка (10) может содержать сенсоры, которые при приближении к ним участников (ПО, 120) активируют программную логику ВР, задействующей триггеры виртуального окружения, которые могут влиять на изменение сценария поведения объектов (201 — 204) виртуального окружения (20).
[0052] На Фиг. 4 представлен пример общего вида вычислительного устройства (300), на базе которого может быть реализовано заявленное решение, в частности вычислительные устройства, и элементы, выполняющие вычислительную обработку информации.
[0053] В общем случае, устройство (300) содержит объединенные общей шиной информационного обмена (310) один или несколько процессоров (301), средства памяти, такие как ОЗУ (302) и ПЗУ (303), интерфейсы ввода/вывода (304), устройства ввода/вывода (305), и устройство для сетевого взаимодействия (306). В общем случае устройство (300) может представлять собой сервер, серверный кластер, мейнфрейм, суперкомпьютер, или иной тип пригодного вычислительного устройства.
[0054] Процессор (301) (или несколько процессоров, многоядерный процессор и т.п.) может выбираться из ассортимента устройств, широко применяемых в настоящее время, например, таких производителей, как: Intel™, AMD™, Apple™, Samsung Exynos™, MediaTEK™, Qualcomm Snapdragon™ и т.п. Под процессором или одним из используемых процессоров в устройстве (300) также необходимо учитывать графический процессор, например, GPU NVIDIA или Graphcore, тип которых также является пригодным для полного или частичного выполнения заявленного способа, а также может применяться для обучения и применения моделей машинного обучения в различных информационных системах.
[0055] ОЗУ (302) представляет собой оперативную память и предназначено для хранения исполняемых процессором (301) машиночитаемых инструкций для выполнение необходимых операций по логической обработке данных. ОЗУ (302), как правило, содержит исполняемые инструкции операционной системы и соответствующих программных компонент (приложения, программные модули и т.п.). При этом, в качестве ОЗУ (302) может выступать доступный объем памяти графической карты или графического процессора.
[0056] ПЗУ (303) представляет собой одно или более устройств постоянного хранения данных, например, жесткий диск (HDD), твердотельный накопитель данных (SSD), флэш- память (EEPROM, NAND и т.п.), оптические носители информации (CD-R/RW, DVD-R/RW, BlueRay Disc, MD) и др.
[0057] Для организации работы компонентов устройства (300) и организации работы внешних подключаемых устройств применяются различные виды интерфейсов В/В (304). Выбор соответствующих интерфейсов зависит от конкретного исполнения вычислительного устройства, которые могут представлять собой, не ограничиваясь: PCI, AGP, PS/2, IrDa, FireWire, LPT, COM, SATA, IDE, Lightning, USB (2.0, 3.0, 3.1, micro, mini, type C), TRS/Audio jack (2.5, 3.5, 6.35), HDMI, DVI, VGA, Display Port, RJ45, RS232 и т.п.
[0058] Для обеспечения взаимодействия пользователя с устройством (300) применяются различные средства (305) В/В информации, например, клавиатура, дисплей (монитор), сенсорный дисплей, тач-пад, джойстик, манипулятор, мышь, световое перо, стилус, сенсорная панель, трекбол, динамики, микрофон, средства дополненной реальности, оптические сенсоры, планшет, световые индикаторы, проектор, камера, средства биометрической идентификации (сканер сетчатки глаза, сканер отпечатков пальцев, модуль распознавания голоса) и т.п.
[0059] Средство сетевого взаимодействия (306) обеспечивает передачу данных посредством внутренней или внешней вычислительной сети, например, Интранет, Интернет, ЛВС и т.п. В качестве одного или более средств (306) может использоваться, но не ограничиваться: Ethernet карта, GSM модем, GPRS модем, LTE модем, 5G модем, модуль спутниковой связи, NFC модуль, Bluetooth и/или BLE модуль, Wi-Fi модуль и др.
[0060] Представленные материалы заявки раскрывают предпочтительные примеры реализации технического решения и не должны трактоваться как ограничивающие иные, частные примеры его воплощения, не выходящие за пределы испрашиваемой правовой охраны, которые являются очевидными для специалистов соответствующей области техники.

Claims

ФОРМУЛА
1. Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности (ВР), содержащий
• по меньшей мере один сервер, обеспечивающий генерирование виртуальных комнат для проведения тренировочных сессий;
• одно или несколько компьютерных устройств участников тренировочного процесса, соединенные посредством сети передачи данных с сервером и содержащие подключенные ВР гарнитуру, контроллер ВР и сенсоры для отслеживания перемещения и действий участника в ВР; при этом о ВР гарнитура содержит средство отслеживания визуального отклика участника тренировки, обеспечивающее передачу данных на соответствующее компьютерное устройство участника, о направлении и времени визуального контакта с объектами ВР; о компьютерное устройство участников обеспечивает:
■ генерирование виртуального окружения тренировочной сессии;
■ активацию изменения сценариев окружения ВР в зависимости от получаемых упомянутых данных визуального отклика участников;
■ сбор показателей активности участников и параметров выполнения условий тренировочной сессии;
■ расчет итоговой оценки прохождения тренировочной сессии каждым участником.
2. Тренажер по п.1, характеризующийся тем, что контроллер выполнен в виде имитатора оружия.
3. Тренажер по п.2, характеризующийся тем, что имитатор оружия содержит систему контроля выстрела и отдачи.
4. Тренажер по п.1, характеризующийся тем, что дополнительно содержит трекер, закрепляемый на элементе тренировочного окружения.
5. Тренажер по п.4, характеризующийся тем, что элемент тренировочного окружения представляет собой кейс, или мешок, или рюкзак.
6. Тренажер по п.1 , характеризующийся тем, что дополнительно по меньшей мере один участник тренировочной сессии одет в костюм с тактильной отдачей.
7. Тренажер по п.1, характеризующийся тем, что костюм обеспечивает получение биометрических показателей участника тренировочной сессии.
8. Тренажер по п.7, характеризующийся тем, что компьютерное устройство участника фиксирует биометрический отклик участников при выполнении тренировочной сессии.
9. Тренажер по п.8, характеризующийся тем, что формируется рекомендация для участника на основании биометрического отклика при выполнении тренировочной сессии.
10. Тренажер по п.1, характеризующийся тем, что объекты ВР включают в себя статичные и/или динамические объекты.
11. Тренажер по п.10, характеризующийся тем, что динамические объекты представляют собой анимированные модели, выбираемые из группы: животные, люди, транспорт, или их сочетания.
12. Тренажер по п.11, характеризующийся тем, что компьютерное устройство обеспечивает участнику тренировочной сессии управление динамических объектом, представляющим модель человека.
13. Тренажер по п.12, характеризующийся тем, что режим тренировки осуществляется по меньшей мере двумя участниками тренировочной сессии в едином виртуальном пространстве.
14. Тренажер по п.11, характеризующийся тем, что анимированные модели построены на алгоритмах поведения на основе искусственных нейронных сетей (ИНС).
15. Тренажер по п.14, характеризующийся тем, что анимированные модели изменяют поведение в зависимости от выполнения сценария по меньшей мере одним участником тренировочной сессии.
PCT/RU2020/000701 2020-09-18 2020-12-16 Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности WO2022060241A1 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2020130843A RU2761325C1 (ru) 2020-09-18 2020-09-18 Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности
RU2020130843 2020-09-18

Publications (1)

Publication Number Publication Date
WO2022060241A1 true WO2022060241A1 (ru) 2022-03-24

Family

ID=79174478

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2020/000701 WO2022060241A1 (ru) 2020-09-18 2020-12-16 Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности

Country Status (3)

Country Link
EA (1) EA202092890A1 (ru)
RU (1) RU2761325C1 (ru)
WO (1) WO2022060241A1 (ru)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115543087A (zh) * 2022-10-14 2022-12-30 广州强基信息技术有限公司 一种虚拟环境技能实操的人工智能评分方法
CN115644824A (zh) * 2022-12-26 2023-01-31 北京航空航天大学 基于虚拟现实的多模态多参数神经反馈训练系统和方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EA201301064A1 (ru) * 2013-07-15 2015-01-30 Дмитрий Валерьевич МОРОЗОВ Способ интерактивной физиологической и технологической синхронизации пользователя с виртуальной средой и носимое приспособление для его осуществления (варианты)
US20150260474A1 (en) * 2014-03-14 2015-09-17 Lineweight Llc Augmented Reality Simulator
US20150278263A1 (en) * 2014-03-25 2015-10-01 Brian Bowles Activity environment and data system for user activity processing
WO2017014733A1 (en) * 2015-07-17 2017-01-26 Ivd Mining Virtual reality training
WO2019022706A1 (en) * 2017-07-24 2019-01-31 Hewlett-Packard Development Company, L.P. EXERCISE PROGRAMS
CN111124125A (zh) * 2019-12-25 2020-05-08 南昌市小核桃科技有限公司 基于虚拟现实的警务训练方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2505864C2 (ru) * 2012-05-03 2014-01-27 Общество с ограниченной ответственностью "Центр тренажеростроения и подготовки персонала" Космоцентр
US9599821B2 (en) * 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
RU2647345C1 (ru) * 2016-12-19 2018-03-15 Анатолий Михайлович Качалин Комплексная система дистанционного обучения пилотированию летательных аппаратов
WO2019101492A1 (en) * 2017-11-23 2019-05-31 Peefence Aps A hanging urinal

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EA201301064A1 (ru) * 2013-07-15 2015-01-30 Дмитрий Валерьевич МОРОЗОВ Способ интерактивной физиологической и технологической синхронизации пользователя с виртуальной средой и носимое приспособление для его осуществления (варианты)
US20150260474A1 (en) * 2014-03-14 2015-09-17 Lineweight Llc Augmented Reality Simulator
US20150278263A1 (en) * 2014-03-25 2015-10-01 Brian Bowles Activity environment and data system for user activity processing
WO2017014733A1 (en) * 2015-07-17 2017-01-26 Ivd Mining Virtual reality training
WO2019022706A1 (en) * 2017-07-24 2019-01-31 Hewlett-Packard Development Company, L.P. EXERCISE PROGRAMS
CN111124125A (zh) * 2019-12-25 2020-05-08 南昌市小核桃科技有限公司 基于虚拟现实的警务训练方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115543087A (zh) * 2022-10-14 2022-12-30 广州强基信息技术有限公司 一种虚拟环境技能实操的人工智能评分方法
CN115543087B (zh) * 2022-10-14 2023-04-07 广州强基信息技术有限公司 一种虚拟环境技能实操的人工智能评分方法
CN115644824A (zh) * 2022-12-26 2023-01-31 北京航空航天大学 基于虚拟现实的多模态多参数神经反馈训练系统和方法

Also Published As

Publication number Publication date
RU2761325C1 (ru) 2021-12-07
EA202092890A1 (ru) 2022-03-31

Similar Documents

Publication Publication Date Title
CN207895727U (zh) 作训系统
Hasanzadeh et al. Presence, mixed reality, and risk-taking behavior: A study in safety interventions
JP2021517292A (ja) オンラインゲーム環境内のチートソフトウェアの使用を自動的に減らすこと
CN110288868A (zh) 实兵交互对抗系统
CN106659932A (zh) 头戴式显示器中的传感刺激管理
CN101964019A (zh) 基于Agent技术的对抗行为建模仿真平台及仿真方法
RU2761325C1 (ru) Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности
CN105913364A (zh) 基于虚拟现实技术的监狱出监教育模拟方法
CN108876046A (zh) 沉浸式虚拟现实灾害求生救援的最优路径选择系统
Sharma et al. Megacity: a collaborative virtual reality environment for emergency response, training, and decision making
CN107469315A (zh) 一种搏击训练系统
Kleygrewe et al. Virtual reality training for police officers: A comparison of training responses in VR and real-life training
Wheeler et al. Human factors research in immersive virtual reality firefighter training: A systematic review
Caserman et al. Impact of full-body avatars in immersive multiplayer virtual reality training for police forces
Robitaille et al. Increased affect-arousal in VR can be detected from faster body motion with increased heart rate
Manjunatha et al. Using physiological measurements to analyze the tactical decisions in human swarm teams
Mizuchi et al. Evaluation of human behavior difference with restricted Field of view in real and VR environments
CN112991544A (zh) 一种基于全景影像建模的群体疏散行为仿真方法
Echeverria et al. Punch Anticipation in a Karate Combat with Computer Vision
CN209417968U (zh) 一种基于虚拟现实的消防演练电子沙盘
CN117132128A (zh) 一种可自主交战的智能蓝军系统及运行流程
US20230214007A1 (en) Virtual reality de-escalation tool for delivering electronic impulses to targets
EA040212B1 (ru) Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности
Doroudian et al. A study of real-time information on user behaviors during search and rescue (sar) training of firefighters
Giunchi et al. Perceived realism of pedestrian crowds trajectories in vr

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20954264

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20954264

Country of ref document: EP

Kind code of ref document: A1