WO2017095254A1 - Portable tactile sensing device and system for the implementation thereof - Google Patents

Portable tactile sensing device and system for the implementation thereof Download PDF

Info

Publication number
WO2017095254A1
WO2017095254A1 PCT/RU2015/000842 RU2015000842W WO2017095254A1 WO 2017095254 A1 WO2017095254 A1 WO 2017095254A1 RU 2015000842 W RU2015000842 W RU 2015000842W WO 2017095254 A1 WO2017095254 A1 WO 2017095254A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
objects
virtual environment
virtual
interaction
Prior art date
Application number
PCT/RU2015/000842
Other languages
French (fr)
Russian (ru)
Inventor
Владислав Анатольевич ЛУКАШЕВИЧ
Original Assignee
Общество С Ограниченной Ответственностью "Интеллект Моушн"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество С Ограниченной Ответственностью "Интеллект Моушн" filed Critical Общество С Ограниченной Ответственностью "Интеллект Моушн"
Priority to PCT/RU2015/000842 priority Critical patent/WO2017095254A1/en
Publication of WO2017095254A1 publication Critical patent/WO2017095254A1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Definitions

  • the claimed solution relates to the field of data processing, in particular, to a wearable multifunction device, a manipulator that provides recognition of both objects of the real environment and objects of the virtual environment.
  • This solution can be widely used in the medical field, education, computer games, computer modeling, etc.
  • This system for orientation in space of people with visual impairment contains at least one source and receiver of signals connected through a switch to an information processing device connected via a modulator to a human exposure device. Also, a magnetometer, a pedometer, and a GPS system are additionally connected through the switch to the information processing device.
  • a known method of orientation, navigation and information in space of people with visual impairment according to patent JP 8280733, published on 10/29/1996, which consists in the fact that at least one source of radio signals located in the location of the signal transmits a radio signal, and a receiver located in a person The radio signal receives these radio signals and transmits them to a device for influencing a person, signaling the location of the orientation point.
  • Famous A device for implementing this method contains at least one radio signal source made in the form of one long antenna laid below the surface of pedestrian walkways and a radio signal receiver located at the end of the cane and connected to a human exposure device.
  • This controller is a rubber dressing worn on the user's palm.
  • On the surface of the controller there are control buttons that interact with objects of the virtual environment.
  • the controller also contains an element of tactile interaction, in particular a vibration sensor, which is activated when determining the fact of interaction with objects of the virtual environment.
  • a disadvantage of the known controllers is that they do not allow to obtain a full tactile sensation from interactions with objects of virtual space depending on the shape, density and size of such objects.
  • the claimed invention allows to provide a sense of full tactile contact with objects of real and / or virtual spaces by determining the distance to them, their density and spatial forms, which improves the quality of information received about objects in the surrounding space, and also expands the possibilities of interaction with objects of a virtual environment or virtual reality .
  • the claimed invention is made in the form of a wearable device for interacting with virtual reality objects and / or determining objects of the surrounding space, comprising: a compact housing with the possibility of fixing on the user's hand, containing internal and external surfaces;
  • a spatial positioning unit located on the outer surface, comprising at least three optical emitters for determining the spatial position of the wearable device in a virtual environment;
  • a computing unit comprising at least one processor for processing data received from a scanning unit and / or spatial positioning unit and a tactile interaction unit; - a tactile interaction unit located on the inner surface, comprising at least one vibration sensor connected to at least one electrode and configured to, in response to receiving information processed by the computing unit from the scanning unit and / or sensor unit, activate said at least one vibration sensor generating tactile interaction with a user's hand.
  • the claimed invention is a system for interacting with virtual reality objects, comprising:
  • machine-readable instructions that, when executed by at least one processor, provide:
  • the device in response to the received signals of the interaction of the program pointer with the objects of the virtual environment.
  • the housing of the device 5 is fixed on the brush.
  • the means for determining objects of surrounding reality is an ultrasonic transceiver.
  • the optical emitters ⁇ are light emitting diodes (LEDs).
  • the vibration sensor and the electrode connected to it are mounted on a solenoid.
  • the spatial positioning unit transmits spatial coordinates to a data display device 15 reproducing a virtual environment.
  • the transmission of coordinates is via a wireless data channel.
  • the implementation of the wireless data transmission channels includes at least an optical channel.
  • the optical emitters are located in different parts of the outer surface of the housing.
  • the scanning unit determines the parameters of the distance to environmental objects and / or their acoustic density and / or their spatial forms and transfers 25 the received information to the computing unit, which processes the data and transmits them to the tactile interaction unit.
  • the computing unit determines the interaction parameters with the objects of the virtual environment, characterizing the shape and density of the object, based on data from the position of the device in the virtual environment received from spatial positioning, and transfers the received information to the tactile interaction unit.
  • the tactile interaction unit moves at least one vibration sensor with an electrode towards the surface of the user's palm.
  • the electrode of the vibration sensor determines the resistance indicators in contact with the skin of the palm
  • the resistance indicators are transmitted to a computing unit that processes the received data and, based on them, determines the tactile interaction strength parameter, which is transmitted to the tactile interaction unit.
  • the tactile interaction strength parameter is transmitted to the tactile interaction unit, which in response to the received data generates a series of vibrational patterns.
  • virtual reality objects contain points in their computer model that characterize the shape and / or density of the said object.
  • said points are represented by patterns characterizing the distribution of said points on the model of the corresponding object.
  • signals are generated for the wearable device based on the patterns.
  • the signals transmitted to the wearable device generate tactile interaction in the form of vibration patterns.
  • FIG. 1 illustrates a general view of a claimed wearable device.
  • FIG. 2A illustrates a general view of the external side of the claimed device.
  • FIG. 2B illustrates a general view of the inside of the claimed device.
  • FIG. ZA-ZV illustrate the principle of recognition of objects in the surrounding space.
  • FIG. 4 illustrates a tactile interaction sensor circuit
  • FIG. 5 illustrates the principle of operation of tactile interaction sensors.
  • FIG. 6 illustrates the claimed system for providing interaction with objects of a virtual environment.
  • FIG. 7A-7B illustrate the principle of interaction with objects of a virtual environment.
  • FIG. 8A-8G illustrate vibration point distribution patterns characterizing various types of objects in a virtual environment.
  • the claimed wearable device 100 is a manipulator (controller), mounted on the hand of the user 10, mainly on the hand.
  • the manipulator 100 is made in the form of a compact case, on the outer side 101 (Fig. 2 A) of which there is a spatial positioning unit, consisting of at least three optical emitters 1 10 and a scanning unit 120 containing means for scanning the surrounding space.
  • the optical emitters of the software are light emitting diodes (LEDs).
  • the device 100 is attached to the user's hand 10 using an elastic retainer (not shown) fixed on the sides of the case in specially made armholes 150.
  • the retainer can be made in the form of a single tape of synthetic elastic material or belt, and can also be made in the form of two elements fastened between each other, for example, using fastex or contact tape.
  • buttons 130 which can be programmed to perform certain functions when interacting with the manipulator.
  • tactile interaction elements 140 for example, performing the tactile interaction function in the form of vibrations, may further be contained in the lower part of the housing.
  • the emitters 110 of the spatial positioning unit are located on the outer surface 101 of the device 100 at a distance from each other and are designed to determine the position of the manipulator 100 in a virtual environment (1010). This will be described in more detail below.
  • FIG. 2B is a view of the inner surface 102 of the housing of the device 100.
  • the main elements of tactile interaction are vibration sensors 160.
  • the number and arrangement of sensors 160 shown in FIG. 2B It is not a limiting embodiment of the claimed device 100 and depends on its particular hardware implementation.
  • Sensors 160 are designed to transmit tactile perception to the user's hand 10.
  • the signals initiating the activation of the sensors 160 are generated when the scanning unit and / or spatial positioning unit are operated in conjunction with a computing unit (processor).
  • a computing unit processor
  • FIG. ZA and ZV we consider an example of the operation of the device 100 in determining the objects of the environment. Scanning of the surrounding space is carried out using an ultrasonic transceiver (USPP) 120 (sonar).
  • USPP ultrasonic transceiver
  • the user moves with his hand 10, with a device 100 fixed on it, which continuously scans the space using the radiation working area 200 generated by the USPP 120.
  • the sensors 160 will interact evenly with the palm of the user 10, while when they get on a narrower area, for example, the edge of the table (Fig. 3B), in the case when a person is in real contact with such an object senses the object only with a part of the palm of the hand, the device 100 generates a similar tactile response when it only affects the necessary parts of the palm of the hand 10 using the appropriate sensors 160.
  • the distance to the object 20 when it is processed by the computing unit of the device 100 is used to determine the tactile interaction force parameter that will be transmitted to one or more sensors 160.
  • FIG. 4 shows the design of each of the sensors 160 of the tactile interaction unit.
  • Each sensor 160 comprises, within the area of contact with the user's hand 10, an electrode 301 mounted on a solenoid 303 or other suitable type of pushing mechanism.
  • the sensor 106 also includes a vibration element 302 located between the surface of the solenoid 303 and the electrode 301.
  • the solenoid 303 is driven into movement using an electromechanical engine 304, which through the gear 306 transmits the movement to the corresponding gear 307 of the worm gear 305.
  • the drive mechanism is located on the base 308, under which is the pressure sensor pusher 309, located on the base of the sensor unit.
  • the computing unit calculates the interaction force parameter that regulates how far the displacement (pushing) of the surface 311 of the sensor 160 will take place, with the electrode 301 towards the palm of the carrier 10.
  • FIG. 5 shows the principle of the effect of sensors 160 on the surface of the palm of a user 10.
  • the computing unit upon receipt of information determining the type of shape of the surface of an object 20 falling into the radiation zone 200 of the ultrasonic testing device 120, the computing unit transmits signals directly to those sensors 160 using the software embedded in it which are subject to movement.
  • FIG. 6 shows a general diagram of a system 400 that facilitates the interaction of a wearable device 100 with objects 1001-1003 of a virtual environment 1010.
  • a device 100 for performing the functions of a controller (manipulator) in a virtual environment 1010 communicates with a computing device 410.
  • the device 410 may be, for example, a personal computer, laptop, game console, tablet, smartphone, or the like.
  • the device 410 contains such necessary basic components as the processor 411, and for specialists it should be clear that one or more processors, memory 412 (RAM, ROM, flash memory, or combinations thereof) and input interfaces can be understood I / O 413.
  • the type of memory 412 and the input / output interfaces can be presented in various variations, depending on the type of device 410.
  • the device 410 is connected via a wired 414 or wireless channel 415 data transfer device display virtual environment 420, which may be, for example, a monitor, TV, display or projector.
  • Wired connection 414 can be a standard wired connection using VGA, DVI, HDMI, or the like.
  • Wireless communication 415 is implemented using, for example, Bluetooth, Wi-Fi, IrDa.
  • a computing device 410 Connected to a computing device 410 is a device 430 providing an optical communication channel 416, for example, a webcam, a Kinect device for an X-Voh console, or a Sony Eye module for a Sony Playstation console.
  • the optical communication channel 416 generated by the device 430 is used to determine the position of the device 100 in space using software LED emitters.
  • a device 416 providing an optical communication channel is connected to the device 410 using a wired (USB) 414 or wireless (Bluetooth, Wi-Fi) 415 data channel.
  • the device 100 is also connected to the computing device 410 via a wired 414 (USB) or wireless (Bluetooth) 415 data channel.
  • USB wired 414
  • Bluetooth wireless
  • a program pointer 1000 is generated for interacting with objects 1001-1003 using the device 100.
  • FIG. 7A-7B show an example of pointing a program pointer 1000 to a three-dimensional virtual object 1003, which is cubic-shaped figure.
  • the shape of the object 1003 is recognized by determining the vibration points describing the type of surface, shape and density of the object 1003.
  • FIG. 8A-8G show patterns of distribution of vibration points depending on the type of virtual object.
  • the nature of the distribution and relative position of the vibration points can determine various objects, in FIG. 8A, the distribution of points characterizes objects and environments with an unstable shape (water, smoke, steam, etc.), while the relative position of the vibration points will be chaotic.
  • FIG. 8B-8G presents the types of virtual object (object) with a stable shape.
  • object virtual object
  • Such objects can be objects with flat shapes, for example, a wall.
  • FIG. 8B the principle of distribution of points for a solid object of a flat shape (wall, surface of a table, door, etc.) is presented.
  • FIG. 8C shows a type of soft object of a flat shape, for example, a sheet of paper, a curtain.
  • FIG. 8D shows an example of the distribution of vibration points for a solid object having a face, for example, a corner of a table, cabinet, slope, etc.
  • FIG. 8E shows an example of the distribution of vibration points for a soft object having a face, for example, a pillow, bag.
  • FIG. 8F shows an example of the distribution of vibration points for a solid object whose plane has a convex shape, for example, a column, ball, or the like.
  • FIG. 8G shows an example of the distribution of vibration points for a soft object whose plane has a convex shape, leg, arm, head.
  • various objects will transmit signals characterizing the degree of tactile interaction to the tactile interaction unit of the device 100, which will activate the corresponding sensors 160.
  • the signals responsible for the correct generation of a series of vibrational patterns are processed by the computing unit of the device 100 upon receipt of them from the computing device 410.
  • buttons 130 located on the housing of the device 100 can be programmed to perform various types of functions, for example, capturing a virtual object, the “click” function when working in a web browser or operating system, or you can assign specific actions when using the device 100 as a controller for games .
  • the device 100 may also contain a GPS transceiver, in particular this is intended to control the movement of people with disabilities.
  • the controls 130 can also be used to perform various useful functions for users who use the device 100 to recognize objects in the environment. space.
  • the controls 130 may be programmed to transmit a help signal, for example, an audio signal or automatically send an electronic message (SMS) to another person’s cell phone.
  • SMS electronic message
  • the transmission of this kind of electronic message can be performed through a specialized resource containing a database of numbers and a module for generating SMS messages.
  • Each device 100 has its own ID in the corresponding database and is associated with one or more cell phone numbers to which SMS messages will be transmitted in response to a signal from device 100.

Abstract

The invention relates to the field of data processing, and more particularly to a multifunctional manipulator which enables the recognition of objects in real and virtual environments. In a preferred embodiment, the device is configured in the form of a portable device for interacting with objects in a virtual reality and/or for detecting objects in a surrounding environment, and comprises: a body which can be fastened to the user's hand and has an inner and an outer surface; a scanning unit disposed on the outer surface and containing a means for detecting objects in a real surrounding environment; a spatial positioning unit disposed on the outer surface and containing optical emitters for determining the spatial position of the portable device in a virtual environment; a computing unit containing a processor for processing data received from the scanning unit and/or the spatial positioning unit and a tactile feedback unit; and a tactile feedback unit disposed on the inner surface, said tactile feedback unit containing a vibration sensor, connected to an electrode, and being capable of responding to information received from the scanning unit and/or a sensory unit and processed by the computing unit in order to activate the vibration sensor, generating tactile feedback to the user's hand.

Description

НОСИМОЕ УСТРОЙСТВО ТАКТИЛЬНОГО ВОСПРИЯТИЯ и  WEARABLE TACTICAL PERCEPTION DEVICE and
СИСТЕМА ЕГО РЕАЛИЗУЮЩАЯ  IMPLEMENTING ITS SYSTEM
ОБЛАСТЬ ТЕХНИКИ Заявленное решение относится к области обработки данных, в частности, к носимому многофункциональному устройству манипулятору, обеспечивающему распознавание, как объектов реального окружающего пространства, так и объектов виртуальной среды. Настоящее решение может быть широко использовано в медицинской сфере, сфере образования, сфере компьютерных игр, компьютерного моделирования и т.п. TECHNICAL FIELD The claimed solution relates to the field of data processing, in particular, to a wearable multifunction device, a manipulator that provides recognition of both objects of the real environment and objects of the virtual environment. This solution can be widely used in the medical field, education, computer games, computer modeling, etc.
УРОВЕНЬ ТЕХНИКИ BACKGROUND
Известна система для ориентации в пространстве людей с нарушением зрительных функций по патенту РФ Ν» 2299052, опубликованному 08.06.2007. Данная система для ориентации в пространстве людей с нарушением зрительных функций содержит, по меньшей мере, по одному источнику и приемнику сигналов, подключенные через коммутатор к устройству обработки информации, соединенному через модулятор, с устройством воздействия на человека. Также через коммутатор к устройству обработки информации дополнительно подключены магнетометр, шагомер, система GPS. A known system for orientation in space of people with visual impairment according to the patent of the Russian Federation Ν "2299052, published on 08.06.2007. This system for orientation in space of people with visual impairment contains at least one source and receiver of signals connected through a switch to an information processing device connected via a modulator to a human exposure device. Also, a magnetometer, a pedometer, and a GPS system are additionally connected through the switch to the information processing device.
Известен способ ориентации, навигации и информации в пространстве людей с нарушением зрительных функций по патенту JP 8280733, опубликованному 29.10.1996, который заключается в том, что размещенный в месте ориентации, по меньшей мере, один источник радиосигналов передает радиосигнал, а находящийся у человека приемник радиосигналов принимает эти радиосигналы и передает их на устройство воздействия на человека, сигнализируя о местонахождении места ориентации. Известное устройство для реализации данного способа содержит, по меньшей мере, один источник радиосигнала, выполненный в виде одной длинной антенны уложенной под поверхностью пешеходных дорожек и приемник радиосигналов расположенный на конце трости и соединенный с устройством воздействия на человека. A known method of orientation, navigation and information in space of people with visual impairment according to patent JP 8280733, published on 10/29/1996, which consists in the fact that at least one source of radio signals located in the location of the signal transmits a radio signal, and a receiver located in a person The radio signal receives these radio signals and transmits them to a device for influencing a person, signaling the location of the orientation point. Famous A device for implementing this method contains at least one radio signal source made in the form of one long antenna laid below the surface of pedestrian walkways and a radio signal receiver located at the end of the cane and connected to a human exposure device.
Недостатками данных решений является очень высокая сложность реализации, громоздкость комплекса, ненадежность работы, чрезмерная информативность, сложность управления, что затрудняет его использование людьми с нарушением зрительных функций и может привести к осложнению перемещения на улице и в помещениях. The disadvantages of these solutions are the very high complexity of implementation, the complexity of the complex, unreliability of work, excessive information content, complexity of management, which makes it difficult for people with visual impairment to use it and can lead to complications of movement on the street and indoors.
Известен контроллер по патенту США N° 8,430,753, опубликованному 30.04.2013. Данный контроллер представляет собой широко известный контроллер игровой приставки Nintendo Wii и позволяет осуществлять манипуляции с объектами виртуальной среды с помощью распознавания нахождения контроллера в пространстве за счет оптических излучателей, позиционирующих местоположение контроллера. Данный контроллер содержит так же вибрационный элемент для генерирования тактильного взаимодействия. Known controller for US patent N ° 8,430,753, published April 30, 2013. This controller is a well-known controller of the Nintendo Wii game console and allows you to manipulate objects in a virtual environment by recognizing the location of the controller in space due to optical emitters positioning the location of the controller. This controller also contains a vibrating element for generating tactile interaction.
Известен контроллер по заявке WO 2013/104681, опубликованной 18.07.2013. Данный контроллер представляет собой резиновую повязку, надеваемую на ладонь пользователя. На поверхности контроллера находятся кнопки управления, которые осуществляют взаимодействие с объектами виртуальной среды. Контроллер так же содержит элемент тактильного взаимодействия, в частности вибрационный датчик, который активируется при определении факта взаимодействия с объектами виртуальной среды. A known controller according to the application WO 2013/104681, published July 18, 2013. This controller is a rubber dressing worn on the user's palm. On the surface of the controller there are control buttons that interact with objects of the virtual environment. The controller also contains an element of tactile interaction, in particular a vibration sensor, which is activated when determining the fact of interaction with objects of the virtual environment.
Недостатком известных контроллеров является то, что они не позволяют получить полноценного тактильного ощущения от взаимодействия с объектами виртуального пространства в зависимости от формы, плотности и размера такого рода объектов. A disadvantage of the known controllers is that they do not allow to obtain a full tactile sensation from interactions with objects of virtual space depending on the shape, density and size of such objects.
РАСКРЫТИЕ ИЗОБРЕТЕНИЯ SUMMARY OF THE INVENTION
Заявленное изобретение позволяет обеспечить ощущение полноценного тактильного контакта с объектами реального и/или виртуального пространств посредством определения расстояния до них, их плотности и пространственных форм, что повышает качество получаемой информации об объектах окружающего пространства, а также расширяет возможности взаимодействия с объектами виртуальной среды или виртуальной реальности. The claimed invention allows to provide a sense of full tactile contact with objects of real and / or virtual spaces by determining the distance to them, their density and spatial forms, which improves the quality of information received about objects in the surrounding space, and also expands the possibilities of interaction with objects of a virtual environment or virtual reality .
В предпочтительном варианте осуществления заявленное изобретение выполнено в виде носимого устройства для взаимодействия с объектами виртуальной реальности и/или определения объектов окружающего пространства, содержащее: - компактный корпус с возможностью фиксации на руке пользователя, содержащий внутреннюю и внешнюю поверхности; In a preferred embodiment, the claimed invention is made in the form of a wearable device for interacting with virtual reality objects and / or determining objects of the surrounding space, comprising: a compact housing with the possibility of fixing on the user's hand, containing internal and external surfaces;
- расположенный на внешней поверхности сканирующий блок, содержащий, по меньшей мере, одно средство определения объектов окружающей реальности;  - located on the outer surface of the scanning unit containing at least one means of determining objects of surrounding reality;
- расположенный на внешней поверхности блок пространственного позиционирования, содержащий, по меньшей мере, три оптических излучателя для определения пространственного положения носимого устройства в виртуальной среде;  - a spatial positioning unit located on the outer surface, comprising at least three optical emitters for determining the spatial position of the wearable device in a virtual environment;
- вычислительный блок, содержащий, по меньшей мере, один процессор для обработки данных, получаемых от сканирующего блока и/или блока пространственного позиционирования и блока тактильного взаимодействия; - расположенный на внутренней поверхности блок тактильного взаимодействия, содержащий, по меньшей мере, один вибрационный датчик, соединенный с, по меньшей мере, одним электродом и выполненный с возможностью, в ответ на получение обработанной вычислительным блоком информации от сканирующего блока и/или сенсорного блока, активировать упомянутый, по меньшей мере, один вибрационный датчик, генерирующий тактильное взаимодействие с рукой пользователя. - a computing unit comprising at least one processor for processing data received from a scanning unit and / or spatial positioning unit and a tactile interaction unit; - a tactile interaction unit located on the inner surface, comprising at least one vibration sensor connected to at least one electrode and configured to, in response to receiving information processed by the computing unit from the scanning unit and / or sensor unit, activate said at least one vibration sensor generating tactile interaction with a user's hand.
В другом предпочтительном варианте осуществления заявленное изобретение представляет собой систему для взаимодействия с объектами виртуальной реальности, содержащая:  In another preferred embodiment, the claimed invention is a system for interacting with virtual reality objects, comprising:
- по меньшей мере, одно носимое устройство, упомянутое выше;  - at least one wearable device mentioned above;
- по меньшей мере, одно устройство отображения виртуальной среды, содержащей один или более виртуальных объектов;  - at least one virtual environment display device containing one or more virtual objects;
- одну или более камер, обеспечивающих оптический канал связи между устройством отображения и носимым устройством;  - one or more cameras providing an optical communication channel between the display device and the wearable device;
- по меньшей мере, один процессор;  - at least one processor;
- по меньшей мере, одну память, которая хранит  - at least one memory that stores
машиночитаемые команды, которые при их исполнении, по меньшей мере, одним процессором, обеспечивают:  machine-readable instructions that, when executed by at least one processor, provide:
- генерирование программного указателя носимого устройства в виртуальной среде;  - generating a software pointer of a wearable device in a virtual environment;
- распознавание положения упомянутого программного указателя в упомянутой виртуальной среде;  - recognition of the position of said software pointer in said virtual environment;
- распознавание взаимодействия упомянутого программного указателя в виртуальной среде с одним или более объектами  - recognition of the interaction of the said program pointer in a virtual environment with one or more objects
виртуальной среды;  virtual environment;
- передачу сигналов в носимое устройство в ответ на взаимодействие упомянутого программного указателя с одним или более виртуальными объектами; - генерирование тактильного взаимодействия носимым - transmitting signals to a wearable device in response to the interaction of said software pointer with one or more virtual objects; - generation of tactile interaction wearable
устройством в ответ на полученные сигналы взаимодействия программного указателя с объектами виртуальной среды.  the device in response to the received signals of the interaction of the program pointer with the objects of the virtual environment.
В одном из частных вариантов реализации корпус устройства 5 фиксируется на кисти.  In one of the private options for implementation, the housing of the device 5 is fixed on the brush.
В другом частном варианте реализации средство определения объектов окружающей реальности представляет собой ультразвуковой приемопередатчик.  In another particular embodiment, the means for determining objects of surrounding reality is an ultrasonic transceiver.
В другом частном варианте реализации оптические излучатели ю представляет собой светодиоды (LED).  In another particular embodiment, the optical emitters ω are light emitting diodes (LEDs).
В другом частном варианте реализации вибрационный датчик и соединенный с ним электрод закреплены на соленоиде.  In another particular embodiment, the vibration sensor and the electrode connected to it are mounted on a solenoid.
В другом частном варианте реализации блок пространственного позиционирования передает пространственные координаты на устройство 15 отображения данных, воспроизводящее виртуальную среду.  In another particular embodiment, the spatial positioning unit transmits spatial coordinates to a data display device 15 reproducing a virtual environment.
В другом частном варианте реализации передача координат осуществляется через беспроводной канал передачи данных.  In another particular embodiment, the transmission of coordinates is via a wireless data channel.
В другом частном варианте реализации беспроводной каналы передачи данных включает в себя, по меньшей мере, оптический канал.  In another private embodiment, the implementation of the wireless data transmission channels includes at least an optical channel.
20 В другом частном варианте реализации оптические излучатели расположены в разных частях внешней поверхности корпуса. 20 In another particular embodiment, the optical emitters are located in different parts of the outer surface of the housing.
В другом частном варианте реализации сканирующий блок определяет параметры расстояния до объектов окружающей среды и/или их акустическую плотность и/или их пространственные формы и передает 25 полученную информацию в вычислительный блок, который обрабатывает упомянутые данные и передает их в блок тактильного взаимодействия.  In another particular embodiment, the scanning unit determines the parameters of the distance to environmental objects and / or their acoustic density and / or their spatial forms and transfers 25 the received information to the computing unit, which processes the data and transmits them to the tactile interaction unit.
В другом частном варианте реализации вычислительный блок определяет параметры взаимодействия с объектами виртуальной среды, характеризующие форму и плотность объекта, на основании данных зо положения устройства в виртуальной среде, полученных от блока пространственного позиционирования, и передает полученную информацию в блок тактильного взаимодействия. In another particular embodiment, the computing unit determines the interaction parameters with the objects of the virtual environment, characterizing the shape and density of the object, based on data from the position of the device in the virtual environment received from spatial positioning, and transfers the received information to the tactile interaction unit.
В другом частном варианте реализации на основании полученной информации блок тактильного взаимодействия перемещает, по меньшей мере, один вибрационный датчик с электродом по направлению к поверхности ладони пользователя.  In another particular embodiment, on the basis of the information received, the tactile interaction unit moves at least one vibration sensor with an electrode towards the surface of the user's palm.
В другом частном варианте реализации электрод вибрационного датчика определяет показатели сопротивления при соприкосновении с кожным покровом ладони,  In another private embodiment, the electrode of the vibration sensor determines the resistance indicators in contact with the skin of the palm,
В другом частном варианте реализации показатели сопротивления передаются в вычислительный блок, который обрабатывает полученные данные и на их основании определяет параметр силы тактильного взаимодействия, который передается в блок тактильного взаимодействия.  In another particular embodiment, the resistance indicators are transmitted to a computing unit that processes the received data and, based on them, determines the tactile interaction strength parameter, which is transmitted to the tactile interaction unit.
В другом частном варианте реализации параметр силы тактильного взаимодействия передается в блок тактильного взаимодействия, который в ответ на полученные данные генерирует серию вибрационных паттернов.  In another particular embodiment, the tactile interaction strength parameter is transmitted to the tactile interaction unit, which in response to the received data generates a series of vibrational patterns.
В другом частном варианте реализации объекты виртуальной реальности содержат в своей компьютерной модели точки, характеризующие форму и/или плотность упомянутого объекта. В другом частном варианте реализации упомянутые точки представлены паттернами, характеризующие распределение упомянутых точек на модели соответствующего объекта. In another particular embodiment, virtual reality objects contain points in their computer model that characterize the shape and / or density of the said object. In another particular embodiment, said points are represented by patterns characterizing the distribution of said points on the model of the corresponding object.
В другом частном варианте реализации на основании упомянутых паттернов выполняется генерирования сигналов для носимого устройства. В другом частном варианте реализации сигналы, переданные на носимое устройство, генерируют тактильное взаимодействие в виде вибрационных паттернов. In another particular embodiment, signals are generated for the wearable device based on the patterns. In another particular embodiment, the signals transmitted to the wearable device generate tactile interaction in the form of vibration patterns.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ Фиг. 1 иллюстрирует общий вид заявленного носимого устройства. BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 illustrates a general view of a claimed wearable device.
Фиг. 2А иллюстрирует общий вид внешней стороны заявленного устройства. FIG. 2A illustrates a general view of the external side of the claimed device.
Фиг. 2В иллюстрирует общий вид внутренней стороны заявленного устройства. FIG. 2B illustrates a general view of the inside of the claimed device.
Фиг. ЗА-ЗВ иллюстрируют принцип распознавания объектов окружающего пространства. FIG. ZA-ZV illustrate the principle of recognition of objects in the surrounding space.
Фиг. 4 иллюстрирует схему датчика тактильного взаимодействия. FIG. 4 illustrates a tactile interaction sensor circuit.
Фиг. 5 иллюстрирует принцип действия датчиков тактильного взаимодействия. FIG. 5 illustrates the principle of operation of tactile interaction sensors.
Фиг. 6 иллюстрирует заявленную систему для обеспечения взаимодействия с объектами виртуальной среды. FIG. 6 illustrates the claimed system for providing interaction with objects of a virtual environment.
Фиг. 7А-7В иллюстрируют принцип взаимодействия с объектами виртуальной среды. Фиг. 8A-8G иллюстрирует паттерны распределения вибрационных точек, характеризующих различные типы объектов виртуальной среды. FIG. 7A-7B illustrate the principle of interaction with objects of a virtual environment. FIG. 8A-8G illustrate vibration point distribution patterns characterizing various types of objects in a virtual environment.
ОСУЩЕСТВЛЕНИЕ ЗАЯВЛЕННОГО ИЗОБРЕТЕНИЯ DETAILED DESCRIPTION OF THE INVENTION
Согласно Фиг. 1 заявленное носимое устройство 100 представляет собой манипулятор (контроллер), закрепляемый на руке пользователя 10, преимущественно на кисти. Манипулятор 100 выполнен в виде компактного корпуса, на внешней стороне 101 (Фиг. 2 А) которого расположен блок пространственного позиционирования, состоящий из, как минимум, трех оптических излучателей 1 10 и сканирующий блок 120, содержащий средство для сканирования окружающего пространства. Оптические излучатели ПО представляют собой светодиоды (LED). Устройство 100 крепится к руке 10 пользователя с помощью эластичного фиксатора (не показан), закрепленного на боковых сторонах корпуса в специально изготовленных проймах 150. Фиксатор может выполняться в виде единой ленты из синтетического эластичного материала или ремня, а также выполняться в виде двух элементов, скрепляемых между собой, например, с помощью фастекса или контактной ленты. According to FIG. 1, the claimed wearable device 100 is a manipulator (controller), mounted on the hand of the user 10, mainly on the hand. The manipulator 100 is made in the form of a compact case, on the outer side 101 (Fig. 2 A) of which there is a spatial positioning unit, consisting of at least three optical emitters 1 10 and a scanning unit 120 containing means for scanning the surrounding space. The optical emitters of the software are light emitting diodes (LEDs). The device 100 is attached to the user's hand 10 using an elastic retainer (not shown) fixed on the sides of the case in specially made armholes 150. The retainer can be made in the form of a single tape of synthetic elastic material or belt, and can also be made in the form of two elements fastened between each other, for example, using fastex or contact tape.
В верхней части корпуса устройства 100 содержаться органы управления в виде кнопок 130, которые могут быть запрограммированы на выполнение определенных функций при взаимодействии с манипулятором. Согласно Фиг. 2А в нижней части корпуса дополнительно могут содержаться элементы тактильного взаимодействия 140, например осуществляющие функцию тактильного взаимодействия в виде вибраций. Излучатели 110 блока пространственного позиционирования расположены на внешней поверхности 101 устройства 100 на удалении друг от друга и предназначены для определения положения манипулятора 100 в виртуальной среде (1010). Более подробно об этом будет указано далее. In the upper part of the housing of the device 100 contains controls in the form of buttons 130, which can be programmed to perform certain functions when interacting with the manipulator. According to FIG. 2A, tactile interaction elements 140, for example, performing the tactile interaction function in the form of vibrations, may further be contained in the lower part of the housing. The emitters 110 of the spatial positioning unit are located on the outer surface 101 of the device 100 at a distance from each other and are designed to determine the position of the manipulator 100 in a virtual environment (1010). This will be described in more detail below.
На Фиг. 2В представлен вид внутренней поверхности 102 корпуса устройства 100. На внутренней поверхности 102 расположены основные элементы тактильного взаимодействия - вибрационные датчики 160. Количество и расположение датчиков 160, представленное на Фиг. 2В. Не является ограничивающим вариантом реализации заявленного устройства 100 и зависит от его конкретного аппаратного воплощения. In FIG. 2B is a view of the inner surface 102 of the housing of the device 100. On the inner surface 102, the main elements of tactile interaction are vibration sensors 160. The number and arrangement of sensors 160 shown in FIG. 2B. It is not a limiting embodiment of the claimed device 100 and depends on its particular hardware implementation.
Датчики 160 предназначены для передачи тактильного восприятия руке 10 пользователя. Сигналы, инициирующие активацию датчиков 160, генерируются при работе сканирующего блока и/или блока пространственного позиционирования совместно с вычислительным блоком (процессором). Co ссылкой на Фиг. ЗА и ЗВ рассмотрим пример работы устройства 100 при определении объектов окружающего пространства. Сканирование окружающего пространства осуществляется с помощью ультразвукового приемо-передатчика (УЗПП) 120 (сонара). Пользователь осуществляет движение рукой 10, с закрепленным на ней устройством 100, которое осуществляет непрерывное сканирование пространства с помощью рабочей зоны излучения 200, генерируемого УЗПП 120. Sensors 160 are designed to transmit tactile perception to the user's hand 10. The signals initiating the activation of the sensors 160 are generated when the scanning unit and / or spatial positioning unit are operated in conjunction with a computing unit (processor). With reference to FIG. ZA and ZV we consider an example of the operation of the device 100 in determining the objects of the environment. Scanning of the surrounding space is carried out using an ultrasonic transceiver (USPP) 120 (sonar). The user moves with his hand 10, with a device 100 fixed on it, which continuously scans the space using the radiation working area 200 generated by the USPP 120.
При обнаружении объекта 20, излучение 200 падает на поверхность объекта 20, определяя тем самым форму площади распространения излучения 210. УЗПП 120 при помощи обработки данных вычислительным блоком определяет так же расстояние D до объекта 20. В зависимости от площади рассеивания излучения 200 генерируется тактильный отклик с помощью датчиков 160. When object 20 is detected, radiation 200 falls onto the surface of object 20, thereby determining the shape of the radiation propagation area 210. The USPP 120, using data processing by the computing unit, also determines the distance D to object 20. Depending on the radiation scattering area 200, a tactile response is generated with using sensors 160.
Например, при попадании излучения 200 УЗПП на стену датчики 160 будут взаимодействовать равномерно с ладонью пользователя 10, в то время как при попадании на более узкую площадь, например край стола (Фиг. ЗВ), в случае, когда при реальном контакте с таким предметом человек ощущает предмет только частью ладони, устройство 100 генерирует схожий тактильный отклик при воздействии только на необходимые части ладони 10 с помощью соответствующих датчиков 160. For example, when the radiation 200 of the ultrasonic protection device hits the wall, the sensors 160 will interact evenly with the palm of the user 10, while when they get on a narrower area, for example, the edge of the table (Fig. 3B), in the case when a person is in real contact with such an object senses the object only with a part of the palm of the hand, the device 100 generates a similar tactile response when it only affects the necessary parts of the palm of the hand 10 using the appropriate sensors 160.
Расстояние до объекта 20 при ее обработке вычислительным блоком устройства 100 используется для определения параметра силы тактильного взаимодействия, которое будет передаваться на один или более датчиков 160. На Фиг. 4 представлена конструкция каждого из датчиков 160 блока тактильного взаимодействия. Каждый датчик 160 содержит внутри зоны контакта с рукой 10 пользователя электрод 301, закрепленный на соленоиде 303 или ином пригодном типе толкающего механизма. В состав датчика 106 так же входит вибрационный элемент 302, расположенный между поверхностью соленоида 303 и электродом 301. Соленоид 303 приводится в движение с помощью электромеханического двигателя 304, который через шестерню 306 передает движение соответствующей шестеренке 307 червяного механизма 305. Механизм привода расположен на основании 308, под которым находится датчик давления толкателя 309, расположенный на основании сенсорного блока. The distance to the object 20 when it is processed by the computing unit of the device 100 is used to determine the tactile interaction force parameter that will be transmitted to one or more sensors 160. In FIG. 4 shows the design of each of the sensors 160 of the tactile interaction unit. Each sensor 160 comprises, within the area of contact with the user's hand 10, an electrode 301 mounted on a solenoid 303 or other suitable type of pushing mechanism. The sensor 106 also includes a vibration element 302 located between the surface of the solenoid 303 and the electrode 301. The solenoid 303 is driven into movement using an electromechanical engine 304, which through the gear 306 transmits the movement to the corresponding gear 307 of the worm gear 305. The drive mechanism is located on the base 308, under which is the pressure sensor pusher 309, located on the base of the sensor unit.
С помощью анализа данных по удаленности объекта 20 от устройства 100 вычислительный блок рассчитывает параметр силы взаимодействия, регулирующий то, на какое расстояние будет осуществляться перемещение (выталкивание) поверхности 311 датчика 160, с электродом 301 по направлению к ладони носителя 10. By analyzing the data on the remoteness of the object 20 from the device 100, the computing unit calculates the interaction force parameter that regulates how far the displacement (pushing) of the surface 311 of the sensor 160 will take place, with the electrode 301 towards the palm of the carrier 10.
На Фиг. 5 изображен принцип воздействия датчиков 160 на поверхность ладони пользователя 10. Как указывалось выше, при получении информации определяющей тип формы поверхности объекта 20, попадающей в зону излучения 200 УЗПП 120, вычислительный блок с помощью заложенного в него программного обеспечения передает сигналы непосредственно на те датчики 160, которые подлежат перемещению. In FIG. 5 shows the principle of the effect of sensors 160 on the surface of the palm of a user 10. As mentioned above, upon receipt of information determining the type of shape of the surface of an object 20 falling into the radiation zone 200 of the ultrasonic testing device 120, the computing unit transmits signals directly to those sensors 160 using the software embedded in it which are subject to movement.
Фиг. 6 показывает общую схему системы 400, обеспечивающей взаимодействие носимого устройства 100 с объектами 1001-1003 виртуальной среды 1010. Устройство 100 для выполнения функции контроллера (манипулятора) в виртуальной среде 1010 связывается с вычислительным устройством 410. FIG. 6 shows a general diagram of a system 400 that facilitates the interaction of a wearable device 100 with objects 1001-1003 of a virtual environment 1010. A device 100 for performing the functions of a controller (manipulator) in a virtual environment 1010 communicates with a computing device 410.
Устройство 410 может представлять собой, например, персональный компьютер, ноутбук, игровую приставку, планшет, смартфон и т.п. В общем виде устройство 410 содержит такие необходимые базовые компоненты, как процессор 411, причем для специалистов должно быть ясно, что пониматься мажет как один, так и более процессоров, память 412 (ОЗУ, ПЗУ, флэш- память или их сочетания) и интерфейсы ввода/вывода 413. Тип памяти 412 и интерфейсы ввода/вывода могут представляться в различных вариациях, в зависимости от типа устройства 410. С устройством 410 сопряжено с помощью проводного 414 или беспроводного 415 канала передачи данных устройство отображения виртуальной среды 420, которое может представлять собой, например, монитор, телевизор, дисплей или проектор. The device 410 may be, for example, a personal computer, laptop, game console, tablet, smartphone, or the like. In general, the device 410 contains such necessary basic components as the processor 411, and for specialists it should be clear that one or more processors, memory 412 (RAM, ROM, flash memory, or combinations thereof) and input interfaces can be understood I / O 413. The type of memory 412 and the input / output interfaces can be presented in various variations, depending on the type of device 410. The device 410 is connected via a wired 414 or wireless channel 415 data transfer device display virtual environment 420, which may be, for example, a monitor, TV, display or projector.
Проводная связь 414 может представлять собой стандартное проводное подключение с помощью интерфейсов VGA, DVI, HDMI и т.п. Беспроводная связь 415 реализуется с помощью, например, Bluetooth, Wi-Fi, IrDa. С вычислительным устройством 410 соединено устройство 430, обеспечивающее оптический канала связи 416, например, веб-камера, устройство Kinect для консоли Х-Вох или модуль Sony Eye для консоли Sony Playstation. Генерируемый устройством 430 оптический канала связи 416 используется для определения положения устройства 100 в пространстве с помощью LED излучателей ПО. Устройство 416 обеспечивающее оптический канал связи соединяется с устройством 410 с помощью проводного (USB) 414 или беспроводного (Bluetooth, Wi-Fi) 415 канала передачи данных. Wired connection 414 can be a standard wired connection using VGA, DVI, HDMI, or the like. Wireless communication 415 is implemented using, for example, Bluetooth, Wi-Fi, IrDa. Connected to a computing device 410 is a device 430 providing an optical communication channel 416, for example, a webcam, a Kinect device for an X-Voh console, or a Sony Eye module for a Sony Playstation console. The optical communication channel 416 generated by the device 430 is used to determine the position of the device 100 in space using software LED emitters. A device 416 providing an optical communication channel is connected to the device 410 using a wired (USB) 414 or wireless (Bluetooth, Wi-Fi) 415 data channel.
В свою очередь устройство 100 соединяется так же с вычислительным устройством 410 с помощью проводного 414 (USB) или беспроводного (Bluetooth) 415 канала передачи данных. In turn, the device 100 is also connected to the computing device 410 via a wired 414 (USB) or wireless (Bluetooth) 415 data channel.
При сопряжении устройства 100 с помощью устройства 430 с вычислительным устройством 410 в виртуальной среде 1010, например, компьютерной игре, генерируется программный указатель 1000, предназначенный для взаимодействия с объектами 1001-1003 с помощью устройства 100. When you pair the device 100 using the device 430 with the computing device 410 in a virtual environment 1010, for example, a computer game, a program pointer 1000 is generated for interacting with objects 1001-1003 using the device 100.
На Фиг. 7А-7В показан пример наведения программного указателя 1000 на трехмерный виртуальный объект 1003, представляющий собой кубического вида фигуру. При определении взаимодействия указателя 1000 с ребром объекта 1003 (Фиг. 7А) осуществляется распознавание формы объекта 1003 с помощью определения вибрационных точек, описывающих тип поверхности, формы и плотности объекта 1003. На Фиг. 8A-8G представлены паттерны распределения вибрационных точек в зависимости от типа виртуального объекта. In FIG. 7A-7B show an example of pointing a program pointer 1000 to a three-dimensional virtual object 1003, which is cubic-shaped figure. When determining the interaction of the pointer 1000 with the edge of the object 1003 (Fig. 7A), the shape of the object 1003 is recognized by determining the vibration points describing the type of surface, shape and density of the object 1003. In FIG. 8A-8G show patterns of distribution of vibration points depending on the type of virtual object.
По своему характеру распределения и взаиморасположения вибрационные точки могут определять различные предметы, на Фиг. 8А распределение точек характеризует предметы и среды с нестабильной формой (вода, дым, пар и т.п.), при этом взаиморасположение вибрационных точек будет носить хаотичный характер. The nature of the distribution and relative position of the vibration points can determine various objects, in FIG. 8A, the distribution of points characterizes objects and environments with an unstable shape (water, smoke, steam, etc.), while the relative position of the vibration points will be chaotic.
На Фиг. 8B-8G представлены типы виртуального предмета (объекта) со стабильной формой. Рассмотрим твердые и мягкие предметы, которые будут отличаться между собой по плотности распределения вибрационных точек. Чем больше плотность, тем больше плотность виртуального объекта. Такими объектами могут быть объекты с плоскими формами, например, стена. На Фиг. 8В представлен принцип распределения точек для твердого объекта плоской формы (стена, поверхность стола, двери и т.п.). In FIG. 8B-8G presents the types of virtual object (object) with a stable shape. Consider hard and soft objects, which will differ among themselves in the distribution density of vibration points. The higher the density, the higher the density of the virtual object. Such objects can be objects with flat shapes, for example, a wall. In FIG. 8B, the principle of distribution of points for a solid object of a flat shape (wall, surface of a table, door, etc.) is presented.
На Фиг. 8С представлен тип мягкого предмета плоской формы, например, лист бумаги, занавеска. In FIG. 8C shows a type of soft object of a flat shape, for example, a sheet of paper, a curtain.
На Фиг. 8D показан пример распределения вибрационных точек для твердого объекта, имеющего грань, например, угол стола, шкафа, откос и т.п. In FIG. 8D shows an example of the distribution of vibration points for a solid object having a face, for example, a corner of a table, cabinet, slope, etc.
На Фиг. 8Е показан пример распределения вибрационных точек для мягкого объекта, имеющего грань, например, подушка, сумка.  In FIG. 8E shows an example of the distribution of vibration points for a soft object having a face, for example, a pillow, bag.
На Фиг. 8F показан пример распределения вибрационных точек для твердого объекта, плоскость которого имеет выпуклую форму, например, колонна, шар и т.п. На Фиг. 8G показан пример распределения вибрационных точек для мягкого объекта, плоскость которого имеет выпуклую форму, нога, рука, голова. In FIG. 8F shows an example of the distribution of vibration points for a solid object whose plane has a convex shape, for example, a column, ball, or the like. In FIG. 8G shows an example of the distribution of vibration points for a soft object whose plane has a convex shape, leg, arm, head.
В зависимости от типа и формы различные объекты буду передавать сигналы, характеризующие степень тактильного взаимодействия, на блок тактильного взаимодействия устройства 100, который будет активировать соответствующие датчики 160.  Depending on the type and shape, various objects will transmit signals characterizing the degree of tactile interaction to the tactile interaction unit of the device 100, which will activate the corresponding sensors 160.
Возвращаясь к Фиг. 7А и 7В видно, что при наведении и взаимодействии в виртуальной среде 1010 с объектом 1003, в частности при виртуальном касании его грани или плоской поверхности, активируются различные датчики 160, которые моделируют реальное воздействие на поверхность ладони пользователя 10, так как бы это происходило при контакте с объектами реального окружения.  Returning to FIG. 7A and 7B, it is seen that when pointing and interacting in a virtual environment 1010 with an object 1003, in particular when a virtual touch of its face or flat surface occurs, various sensors 160 are activated that simulate the real impact on the surface of the palm of the user 10, as this would happen when contact with objects of the real environment.
Помимо соприкосновения с помощью поверхности корпуса датчика 160 он также генерирует вибрационный отклик, представляющий собой серию вибрационных паттернов.  In addition to contacting with the surface of the sensor housing 160, it also generates a vibrational response, which is a series of vibrational patterns.
Сигналы, отвечающие за правильную генерацию серии вибрационных паттернов, обрабатываются вычислительным блоком устройства 100 при получении их от вычислительного устройства 410.  The signals responsible for the correct generation of a series of vibrational patterns are processed by the computing unit of the device 100 upon receipt of them from the computing device 410.
Кнопки 130, расположенные на корпусе устройства 100, могут программироваться на осуществление различных типов функций, например, захват виртуального объекта, функция «клика» при работе в веб-браузере или операционной системе, или можно назначить определенные действия при использовании устройства 100 как контроллера для игр.  The buttons 130 located on the housing of the device 100 can be programmed to perform various types of functions, for example, capturing a virtual object, the “click” function when working in a web browser or operating system, or you can assign specific actions when using the device 100 as a controller for games .
Дополнительно устройство 100 может так же содержать GPS приемопередатчик, в частности это предназначено для контроля перемещения людей с ограниченными возможностями.  Additionally, the device 100 may also contain a GPS transceiver, in particular this is intended to control the movement of people with disabilities.
Органы управления 130 могут так же использоваться для осуществления различных полезных функций для пользователей, которые используют устройство 100 для распознавания объектов окружающего пространства. В одном из вариантов органы управления 130 могут быть запрограммированы на передачу сигнала о помощи, например, звукового сигнала или автоматическую передачу электронного сообщения (SMS) на сотовый телефон другого лица. Передача такого рода электронного сообщения может выполняться через специализированный ресурс, содержащий базу данных номеров и модуль генерирования SMS сообщений. Каждое устройство 100 имеет свой ID в соответствующей базе и связано с одним или несколькими номерами сотовых телефонов, на которые будет осуществляться передача SMS сообщения в ответ на получение сигнала от устройства 100. The controls 130 can also be used to perform various useful functions for users who use the device 100 to recognize objects in the environment. space. In one embodiment, the controls 130 may be programmed to transmit a help signal, for example, an audio signal or automatically send an electronic message (SMS) to another person’s cell phone. The transmission of this kind of electronic message can be performed through a specialized resource containing a database of numbers and a module for generating SMS messages. Each device 100 has its own ID in the corresponding database and is associated with one or more cell phone numbers to which SMS messages will be transmitted in response to a signal from device 100.
Изложенные в настоящих материалах заявки сведения об осуществлении заявленного изобретения не должны трактоваться как сведения, ограничивающие иные, частные варианты осуществления заявленного изобретения, не выходящие за пределы раскрытия информации заявки, и которые должны являться очевидными для специалиста в данной области техники, имеющим обычную квалификацию, на которых рассчитано заявленное техническое решение. The information on the implementation of the claimed invention set forth in these materials of the application should not be interpreted as information limiting other, private embodiments of the claimed invention that do not go beyond the disclosure of information of the application, and which should be obvious to a person skilled in the art having the usual qualifications, which calculated the claimed technical solution.

Claims

Формула Formula
1. Носимое устройство для взаимодействия с объектами виртуальной реальности и/или определения объектов окружающего пространства, содержащее:  1. A wearable device for interacting with virtual reality objects and / or determining objects of the surrounding space, comprising:
5 - компактный корпус с возможностью фиксации на руке пользователя, содержащий внутреннюю и внешнюю поверхности;  5 - a compact housing with the possibility of fixing on the user's hand, containing internal and external surfaces;
- расположенный на внешней поверхности сканирующий блок, содержащий, по меньшей мере, одно средство определения объектов окружающей реальности;  - located on the outer surface of the scanning unit containing at least one means of determining objects of surrounding reality;
ю - расположенный на внешней поверхности блок пространственного позиционирования, содержащий, по меньшей мере, три оптических излучателя для определения пространственного положения носимого устройства в виртуальной среде; y - located on the outer surface of the spatial positioning unit, containing at least three optical emitters for determining the spatial position of the wearable device in a virtual environment;
- вычислительный блок, содержащий, по меньшей мере, один процессор для 15 обработки данных, получаемых от сканирующего блока и/или блока пространственного позиционирования и блока тактильного взаимодействия; расположенный на внутренней поверхности блок тактильного взаимодействия, содержащий, по меньшей мере, один вибрационный датчик, соединенный с, по меньшей мере, одним электродом и выполненный с 20 возможностью, в ответ на получение обработанной вычислительным блоком информации от сканирующего блока и/или сенсорного блока, активировать упомянутый, по меньшей мере, один вибрационный датчик, генерирующий тактильное взаимодействие с рукой пользователя.  - a computing unit comprising at least one processor for processing data received from a scanning unit and / or spatial positioning unit and a tactile interaction unit; a tactile interaction unit located on the inner surface, comprising at least one vibration sensor connected to at least one electrode and configured to 20 in response to receiving information processed by the computing unit from the scanning unit and / or sensor unit, activate said at least one vibration sensor generating tactile interaction with a user's hand.
2. Устройство по п. 1 , характеризующееся тем, что корпус устройства 25 фиксируется на кисти.  2. The device according to p. 1, characterized in that the housing of the device 25 is fixed on the brush.
3. Устройство по п. 1, характеризующееся тем, что средство определения объектов окружающей реальности представляет собой ультразвуковой приемопередатчик.  3. The device according to p. 1, characterized in that the means for determining objects of surrounding reality is an ultrasonic transceiver.
4. Устройство по п. 1, характеризующееся тем, что оптические излучатели зо представляет собой светодиоды (LED). 4. The device according to claim 1, characterized in that the optical emitters zo represents light-emitting diodes (LEDs).
5. Устройство по п. 1, характеризующееся тем, что вибрационный датчик и соединенный с ним электрод закреплены на соленоиде. 5. The device according to claim 1, characterized in that the vibration sensor and the electrode connected to it are mounted on a solenoid.
6. Устройство по п. 1, характеризующееся тем, что блок пространственного позиционирования передает пространственные координаты на устройство 6. The device according to claim 1, characterized in that the spatial positioning unit transmits spatial coordinates to the device
5 отображения данных, воспроизводящее виртуальную среду. 5 data display, reproducing the virtual environment.
7. Устройство по п. 6, характеризующееся тем, что передача координат осуществляется через беспроводной канал передачи данных.  7. The device according to p. 6, characterized in that the transfer of coordinates is carried out through a wireless data channel.
8. Устройство по п. 7, характеризующееся тем, что беспроводной каналы передачи данных включает в себя, по меньшей мере, оптический канал.  8. The device according to p. 7, characterized in that the wireless data transmission channels includes at least an optical channel.
ю 9. Устройство по п. 1 , характеризующееся тем, что оптические излучатели расположены в разных частях внешней поверхности корпуса. 9. The device according to claim 1, characterized in that the optical emitters are located in different parts of the outer surface of the housing.
10. Устройство по п. 1 , характеризующееся тем, что сканирующий блок определяет параметры расстояния до объектов окружающей среды и/или их акустическую плотность и/или их пространственные формы и передает 10. The device according to claim 1, characterized in that the scanning unit determines the parameters of the distance to environmental objects and / or their acoustic density and / or their spatial forms and transmits
15 полученную информацию в вычислительный блок, который обрабатывает упомянутые данные и передает их в блок тактильного взаимодействия. 15 received information to the computing unit, which processes the data and transmits them to the tactile interaction unit.
11. Устройство по п. 1, характеризующееся тем, что вычислительный блок определяет параметры взаимодействия с объектами виртуальной среды, характеризующие форму и плотность объекта, на основании данных 11. The device according to claim 1, characterized in that the computing unit determines the interaction parameters with the objects of the virtual environment, characterizing the shape and density of the object, based on the data
20 положения устройства в виртуальной среде, полученных от блока пространственного позиционирования, и передает полученную информацию в блок тактильного взаимодействия. 20 positions of the device in a virtual environment, received from the spatial positioning unit, and transmits the received information to the tactile interaction unit.
12. Устройство по любому из п.п. 10 или 1 1, характеризующееся тем, что на основании полученной информации блок тактильного взаимодействия 12. The device according to any one of paragraphs. 10 or 1 1, characterized in that, on the basis of the information received, the tactile interaction unit
25 перемещает, по меньшей мере, один вибрационный датчик с электродом по направлению к поверхности ладони пользователя. 25 moves at least one vibration sensor with an electrode toward the surface of a user's palm.
13. Устройство по п. 12, характеризующееся тем, что электрод вибрационного датчика определяет показатели сопротивления при соприкосновении с кожным покровом ладони. 13. The device according to p. 12, characterized in that the electrode of the vibration sensor determines the resistance indicators in contact with the skin of the palm.
14. Устройство по п. 13, характеризующееся тем, что показатели сопротивления передаются в вычислительный блок, который обрабатывает полученные данные и на их основании определяет параметр силы тактильного взаимодействия, который передается в блок тактильного14. The device according to p. 13, characterized in that the resistance indicators are transmitted to the computing unit, which processes the received data and on their basis determines the parameter of the tactile interaction force, which is transmitted to the tactile unit
5 взаимодействия. 5 interactions.
15. Устройство по п. 14, характеризующееся тем, что параметр силы тактильного взаимодействия передается в блок тактильного взаимодействия, который в ответ на полученные данные генерирует серию вибрационных паттернов.  15. The device according to claim 14, characterized in that the tactile interaction force parameter is transmitted to the tactile interaction unit, which, in response to the received data, generates a series of vibrational patterns.
юYu
16. Система для взаимодействия с объектами виртуальной реальности, содержащая: 16. A system for interacting with virtual reality objects, comprising:
- по меньшей мере, одно носимое устройство по п. 1 ;  - at least one wearable device according to claim 1;
- по меньшей мере, одно устройство отображения виртуальной среды, содержащей один или более виртуальных объектов;  - at least one virtual environment display device containing one or more virtual objects;
15 - одну или более камер, обеспечивающих оптический канал связи между устройством отображения и носимым устройством;  15 is one or more cameras providing an optical communication channel between a display device and a wearable device;
- по меньшей мере, один процессор;  - at least one processor;
- по меньшей мере, одну память, которая хранит машиночитаемые команды, которые при их исполнении, по меньшей мере, одним - at least one memory that stores machine-readable instructions that, when executed, by at least one
20 процессором, обеспечивают: 20 processors, provide:
- генерирование программного указателя носимого устройства в виртуальной среде;  - generating a software pointer of a wearable device in a virtual environment;
- распознавание положения упомянутого программного указателя в упомянутой виртуальной среде;  - recognition of the position of said software pointer in said virtual environment;
25 - распознавание взаимодействия упомянутого программного указателя в виртуальной среде с одним или более объектами виртуальной среды; 25 - recognition of the interaction of the aforementioned program pointer in a virtual environment with one or more objects of the virtual environment;
- передачу сигналов в носимое устройство в ответ на взаимодействие упомянутого программного указателя с одним или более виртуальными объектами; - генерирование тактильного взаимодействия носимым устройством в ответ на полученные сигналы взаимодействия программного указателя с объектами виртуальной среды. - transmitting signals to a wearable device in response to the interaction of said software pointer with one or more virtual objects; - generation of tactile interaction by the wearable device in response to the received signals of the interaction of the program pointer with the objects of the virtual environment.
17. Система по п. 16, характеризующаяся тем, что объекты виртуальной 5 реальности содержат в своей компьютерной модели точки, характеризующие форму и/или плотность упомянутого объекта. 17. The system according to claim 16, characterized in that the objects of virtual 5 reality contain points in their computer model that characterize the shape and / or density of the said object.
18. Система по п. 17, характеризующаяся тем, что упомянутые точки представлены паттернами, характеризующие распределение упомянутых точек на модели соответствующего объекта. ю18. The system of claim 17, characterized in that said points are represented by patterns characterizing the distribution of said points on the model of the corresponding object. Yu
19. Система по п. 18, характеризующаяся тем, что на основании упомянутых паттернов выполняется генерирования сигналов для носимого устройства. 19. The system of claim 18, characterized in that, on the basis of said patterns, signal generation for the wearable device is performed.
20. Система по п. 19, характеризующаяся тем, что сигналы, переданные на носимое устройство, генерируют тактильное взаимодействие в виде вибрационных паттернов. 20. The system according to p. 19, characterized in that the signals transmitted to the wearable device generate tactile interaction in the form of vibration patterns.
15 fifteen
PCT/RU2015/000842 2015-12-01 2015-12-01 Portable tactile sensing device and system for the implementation thereof WO2017095254A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/RU2015/000842 WO2017095254A1 (en) 2015-12-01 2015-12-01 Portable tactile sensing device and system for the implementation thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2015/000842 WO2017095254A1 (en) 2015-12-01 2015-12-01 Portable tactile sensing device and system for the implementation thereof

Publications (1)

Publication Number Publication Date
WO2017095254A1 true WO2017095254A1 (en) 2017-06-08

Family

ID=58797504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2015/000842 WO2017095254A1 (en) 2015-12-01 2015-12-01 Portable tactile sensing device and system for the implementation thereof

Country Status (1)

Country Link
WO (1) WO2017095254A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080100588A1 (en) * 2006-10-25 2008-05-01 Canon Kabushiki Kaisha Tactile-feedback device and method
EP2624238A1 (en) * 2012-02-02 2013-08-07 Eurocopter España, S.A. Virtual mock up with haptic hand held aid
US20140125577A1 (en) * 2012-11-05 2014-05-08 University Of South Australia Distance based modelling and manipulation methods for augmented reality systems using ultrasonic gloves
US20140200432A1 (en) * 2011-05-20 2014-07-17 Nanyang Technological University Systems, apparatuses, devices, and processes for synergistic neuro-physiological rehabilitation and/or functional development

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080100588A1 (en) * 2006-10-25 2008-05-01 Canon Kabushiki Kaisha Tactile-feedback device and method
US20140200432A1 (en) * 2011-05-20 2014-07-17 Nanyang Technological University Systems, apparatuses, devices, and processes for synergistic neuro-physiological rehabilitation and/or functional development
EP2624238A1 (en) * 2012-02-02 2013-08-07 Eurocopter España, S.A. Virtual mock up with haptic hand held aid
US20140125577A1 (en) * 2012-11-05 2014-05-08 University Of South Australia Distance based modelling and manipulation methods for augmented reality systems using ultrasonic gloves

Similar Documents

Publication Publication Date Title
JP6669069B2 (en) Detection device, detection method, control device, and control method
CN210573659U (en) Computer system, head-mounted device, finger device, and electronic device
US10974138B2 (en) Haptic surround functionality
KR101666096B1 (en) System and method for enhanced gesture-based interaction
KR100812624B1 (en) Stereovision-Based Virtual Reality Device
KR20170026567A (en) Three dimensional contextual feedback
EP3364272A1 (en) Automatic localized haptics generation system
JP5480161B2 (en) Object, method and system for sending information to a user
RU179301U1 (en) VIRTUAL REALITY GLOVE
US11347312B1 (en) Ultrasonic haptic output devices
US20190155387A1 (en) Haptic Accessory Apparatus
US20170087455A1 (en) Filtering controller input mode
RU2670649C9 (en) Method of manufacturing virtual reality gloves (options)
WO2022014445A1 (en) Detecting device, and detecting method
KR20190007910A (en) Wearable hmd controller based on bio-signal for controlling virtual reality contents and hmd device and method thereof
US11334178B1 (en) Systems and methods for bimanual control of virtual objects
WO2017095254A1 (en) Portable tactile sensing device and system for the implementation thereof
RU2673406C1 (en) Method of manufacturing virtual reality glove
US20200346117A1 (en) Trigger for game events
KR20140106309A (en) Input device for virual reality having the fuction of forth-feedback
CN209265388U (en) Finger equipment
WO2016190834A1 (en) Manipulator for controlling an electronic device
TW202125166A (en) Tactile feedback device and operation method thereof
WO2019083405A1 (en) Virtual reality glove
KR20160101598A (en) Fingers tapping interface

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15909874

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 23.10.2018)

122 Ep: pct application non-entry in european phase

Ref document number: 15909874

Country of ref document: EP

Kind code of ref document: A1