RU2765237C2 - Method for entering information and device for its implementation - Google Patents

Method for entering information and device for its implementation Download PDF

Info

Publication number
RU2765237C2
RU2765237C2 RU2018109407A RU2018109407A RU2765237C2 RU 2765237 C2 RU2765237 C2 RU 2765237C2 RU 2018109407 A RU2018109407 A RU 2018109407A RU 2018109407 A RU2018109407 A RU 2018109407A RU 2765237 C2 RU2765237 C2 RU 2765237C2
Authority
RU
Russia
Prior art keywords
camera
information matrix
elements
relative
finger
Prior art date
Application number
RU2018109407A
Other languages
Russian (ru)
Other versions
RU2018109407A3 (en
RU2018109407A (en
Inventor
Дмитрий Леонидович Раков
Юлия Анатольевна Печейкина
Original Assignee
Дмитрий Леонидович Раков
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Дмитрий Леонидович Раков filed Critical Дмитрий Леонидович Раков
Priority to RU2018109407A priority Critical patent/RU2765237C2/en
Publication of RU2018109407A publication Critical patent/RU2018109407A/en
Publication of RU2018109407A3 publication Critical patent/RU2018109407A3/ru
Application granted granted Critical
Publication of RU2765237C2 publication Critical patent/RU2765237C2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Abstract

FIELD: computer technology.SUBSTANCE: invention relates to computer technology and can be used to enter information. The claimed result is achieved by the fact that the movement of the finger relative to the selected element of the information matrix is identified by its location in relation to other elements of the information matrix located in the field of view of the camera, while the act of interaction of the finger with the element of the information matrix is programmatically calculated relative to the elements of the information matrix visible by the camera, respectively, a command is generated for comparison, while using algorithms for comparison with the standard or by criteria.EFFECT: realization of the purpose of the claimed invention specified by the applicant, which consists in ensuring the input of information.1 cl, 9 dwg, 1 tbl

Description

Область техникиTechnical field

Изобретение относится к вычислительной технике и может быть использовано для ввода информации.The invention relates to computer technology and can be used to enter information.

Предшествующий уровень техникиPrior Art

Одной из главных задач при создании устройств ввода информации является повышение их эргономичности.One of the main tasks in creating input devices is to improve their ergonomics.

Известны конструкции эргономичных клавиатур, например, известна эргономичная клавиатура (патент США 5612691) содержащая не менее двух секций с возможностью их поворота и наклона друг относительно друга при помощи шарнира.Known designs of ergonomic keyboards, for example, known ergonomic keyboard (US patent 5612691) containing at least two sections with the ability to rotate and tilt relative to each other using a hinge.

Также известна эргономичная клавиатура (патент США 7338224) содержащая эргономичные клавиши, оптимально расположенные для ввода информации пользователем.Also known ergonomic keyboard (US patent 7338224) containing ergonomic keys, optimally positioned for user input.

Известно также устройство для ввода информации, выполненное в виде браслета, использующее движения запястья руки (заявка США 20160299570). Жесты запястья распознают при помощи датчиков в браслете. Конкретный жест может быть определен из базы данных на основе анализа сигналов датчиков.Also known is a device for inputting information, made in the form of a bracelet, using wrist movements (application US 20160299570). Wrist gestures are recognized using sensors in the bracelet. The specific gesture can be determined from the database based on the analysis of the sensor signals.

Известно также устройство в виде трехточечного ремня для фиксации фотокамеры (заявка Японии 2013-134682t), расположенного на кисти руки.It is also known a device in the form of a three-point belt for fixing the camera (application of Japan 2013-134682t), located on the hand.

Известен также способ и система для виртуального устройства ввода информации (заявка США 20130016070) согласно которому лазерный проектор, установленный в очках пользователя проецирует виртуальную клавиатуру на руку пользователя, а камера, расположенная в очках пользователя, фиксирует его жесты. Камера распознает такие жесты, как нажатие виртуальных клавиш, так и перемещения руки.There is also known a method and system for a virtual information input device (US application 20130016070), according to which a laser projector installed in the user's glasses projects a virtual keyboard onto the user's hand, and a camera located in the user's glasses captures his gestures. The camera recognizes gestures such as pressing virtual keys and moving your hand.

Известен также способ ввода информации и устройство для его осуществления (патент РФ 2141685) при котором палец руки приближают к тактильному элементу, нажимают на него и возвращают палец в исходное состояние, при этом один тактильный элемент размещают при помощи основания, например гибкого или эластичного, на одной фаланге пальца. Затем фиксируют его в положении, обеспечивающим точную идентификацию тактильного элемента, который располагают в поле доступа концевой фаланги пальца этой же руки, два пальца одной руки сближают и концевой фалангой одного пальца нажимают на тактильный элемент другого.There is also known a method for entering information and a device for its implementation (RF patent 2141685) in which the finger is brought closer to the tactile element, pressed on it and the finger is returned to its original state, while one tactile element is placed using a base, for example flexible or elastic, on one phalanx of the finger. Then it is fixed in a position that provides accurate identification of the tactile element, which is placed in the access field of the terminal phalanx of the finger of the same hand, two fingers of one hand are brought together and the tactile element of the other is pressed with the terminal phalanx of one finger.

Известен также способ и устройство для оптического ввода команд или данных (патент ЕР0554492). В патенте описан способ ввода информации пользователем, позволяющий анализировать движения руки и пальцев человека. Способ позволяет эмулировать различные типы управляемых вручную устройств ввода (мышь, клавиатура и т.д.). Согласно способу наблюдаются движения руки и пальцев пользователя при помощи системы, включающей ТВ-датчик, средства для оцифровки и обработки сигналов от указанного ТВ-датчика, при этом отслеживаются положения и активные движения руки и/или пальцев пользователя, которые в дальнейшем анализируются и интерпретируются как соответствующие входные данные или команды.There is also known a method and device for optical input of commands or data (patent EP0554492). The patent describes a user input method that allows analyzing the movements of a person's hand and fingers. The method allows emulating various types of manually controlled input devices (mouse, keyboard, etc.). According to the method, movements of the user's hand and fingers are observed using a system that includes a TV sensor, means for digitizing and processing signals from the specified TV sensor, while the positions and active movements of the user's hand and/or fingers are monitored, which are further analyzed and interpreted as appropriate inputs or commands.

Наиболее близким к заявляемому техническому решению является мобильное устройство и способ его управления (заявка США 20160127624). Устройство включает в себя проектор изображения с виртуальным пользовательским интерфейсом, экран, камеру для съемки изображения и процессор, который сконфигурирован для обнаружения указанной области изображения, снятой камерой. Ввод информации осуществляют при помощи виртуального экрана (прототип). Недостатками известных устройств являются:Closest to the claimed technical solution is a mobile device and its control method (US application 20160127624). The device includes an image projector with a virtual user interface, a screen, a camera for capturing an image, and a processor that is configured to detect a specified area of an image captured by the camera. Information is entered using a virtual screen (prototype). The disadvantages of known devices are:

- неудобство в работе (низкая эргономичность);- inconvenience in work (low ergonomics);

- большая масса и габариты;- large weight and dimensions;

- низкая надежность обработки информации;- low reliability of information processing;

- неудобство при использовании для людей с физическими недостатками.- inconvenience when used for people with physical disabilities.

Раскрытие изобретенияDisclosure of invention

Целью изобретения является расширение функциональных возможностей и областей применения, увеличение эргономичности, снижение массы и габаритов, а также возможность использования для людей с физическими недостатками. Также возможно увеличение объема передаваемой информации в единицу времени и повышение универсальности использования устройства путем изготовления его в виде отдельного съемного модуля.The aim of the invention is to expand the functionality and areas of application, increase ergonomics, reduce weight and dimensions, as well as the possibility of using for people with physical disabilities. It is also possible to increase the amount of transmitted information per unit of time and increase the versatility of using the device by manufacturing it in the form of a separate removable module.

Поставленная цель достигается тем, что в способе ввода информации, при котором камера захватывает изображения движения пальцев руки пользователя относительно элементов информационной матрицы, которые в последующем идентифицируют и распознают с выдачей команд управления на терминальное устройство, камеру располагают на ладонной поверхности кисти с возможностью захвата движений пальца или пальцев руки относительно друг друга и/или относительно элементов информационной матрицы камерой и размещают на замкнутом или разомкнутом основании, располагающимся на ладонной и тыльной поверхности кисти.This goal is achieved by the fact that in the method of inputting information, in which the camera captures images of the movement of the user's fingers relative to the elements of the information matrix, which are subsequently identified and recognized with the issuance of control commands to the terminal device, the camera is placed on the palmar surface of the hand with the possibility of capturing finger movements or fingers relative to each other and/or relative to the elements of the information matrix by the camera and placed on a closed or open base, located on the palmar and back surface of the hand.

Указанная цель достигается также тем, что на ладонной поверхности кисти располагают проектор, формирующий виртуальную информационную матрицу с элементами на какой-либо поверхности, при этом камеру располагают с возможностью обзора (фиксации) движений пальца или пальцев относительно друг друга и/или относительно элементов виртуальной информационной матрицы.This goal is also achieved by the fact that a projector is placed on the palmar surface of the hand, forming a virtual information matrix with elements on any surface, while the camera is placed with the ability to view (fix) the movements of the finger or fingers relative to each other and / or relative to the elements of the virtual information matrices.

Указанная цель достигается также тем, что движение пальца относительно выбранного элемента информационной матрицы идентифицируют по его расположению относительно других элементов информационной матрицы, находящихся в поле зрения камеры. Указанная цель достигается также тем, что информационную матрицу с элементами изготавливают с учетом анатомических характеристик пользователя, варьируя при этом -размеры, геометрию, расположение элементов информационной матрицы. Указанная цель достигается также тем, что движения пальца или пальцев руки относительно информационной матрицы интерпретируют как движения компьютерной мышки с нажатием управляющих клавиш компьютерной мышки с выдачей команд управления на терминальное устройство.This goal is also achieved by the fact that the movement of the finger relative to the selected element of the information matrix is identified by its location relative to other elements of the information matrix in the field of view of the camera. This goal is also achieved by the fact that the information matrix with elements is made taking into account the anatomical characteristics of the user, while varying the size, geometry, location of the elements of the information matrix. This goal is also achieved by the fact that the movements of the finger or fingers relative to the information matrix are interpreted as movements of the computer mouse with pressing the control keys of the computer mouse with the issuance of control commands to the terminal device.

Указанная цель достигается также тем, что в устройстве ввода информации, содержащем камеру, размещенную на основании и связанную с терминальным устройством, камера на основании размещена со стороны ладонной поверхности кисти с возможностью отслеживания движений пальца или пальцев руки относительно друг друга и/или относительно элементов информационной матрицы.This goal is also achieved by the fact that in the information input device containing a camera placed on the base and associated with the terminal device, the camera on the base is placed on the side of the palmar surface of the hand with the ability to track the movements of the finger or fingers relative to each other and / or relative to the information elements. matrices.

Указанная цель достигается также тем, что камера, элемент питания, передатчик и микроконтроллер выполнены в виде отдельного съемного модуля.This goal is also achieved by the fact that the camera, battery, transmitter and microcontroller are made in the form of a separate removable module.

Указанная цель достигается также тем, что камера оснащена сверхширокоугольным объективом.This goal is also achieved by the fact that the camera is equipped with an ultra wide-angle lens.

Указанная цель достигается также тем, что основание выполнено в виде браслета или в виде часов, причем камера расположена на стороне браслета или часов, обращенной объективом в сторону ладонной поверхности кисти, с возможностью захвата движений пальцев руки относительно друг друга и/или относительно элементов информационной матрицы.This goal is also achieved by the fact that the base is made in the form of a bracelet or in the form of a watch, and the camera is located on the side of the bracelet or watch, facing the lens towards the palmar surface of the hand, with the possibility of capturing the movements of the fingers relative to each other and / or relative to the elements of the information matrix .

Указанная цель достигается также тем, что основание с камерой размещено на проксимальной фаланге пальцев.This goal is also achieved by the fact that the base with the camera is placed on the proximal phalanx of the fingers.

Краткое описание фигур чертежейBrief description of the figures of the drawings

Способ и устройство поясняются чертежами, где на фиг. 1 показан общий вид устройства, на фиг. 2 и 3 изображены возможные схемы расположения устройства на стороне ладонной поверхности кисти руки, на фиг. 4 и 5 даны углы обзора камеры устройства, на фиг. 6 изображено устройство со съемным модулем, на фиг. 7 изображено устройство с проектором и виртуальной информационной матрицей, на фиг. 8 показана возможная блок схема устройства, а на фиг. 9 обработанное изображение, захваченное камерой расположенной на ладонной поверхности кисти руки. В таблице представлены возможные варианты исполнения устройства.The method and device are illustrated by drawings, where in Fig. 1 shows a general view of the device, Fig. 2 and 3 show possible layouts of the device on the side of the palmar surface of the hand, in Fig. 4 and 5 show the viewing angles of the camera of the device, FIG. 6 shows a device with a removable module, FIG. 7 shows a device with a projector and a virtual information matrix, FIG. 8 shows a possible block diagram of the device, and FIG. 9 is a processed image captured by a camera located on the palmar surface of the hand. The table shows the possible versions of the device.

Устройство для ввода информации содержит камеру 1 (фиг. 1), размещенную на основании 2 и связанную линией связи с терминальным устройством (не изображены), при этом камера 1 на основании 2 размещена на ладонной поверхности кисти 3 с возможностью отслеживания (мониторинга) движений пальцев руки относительно друг друга и относительно элементов 4 информационной матрицы 5. Камера 1 имеет угол обзора позволяющий отслеживать движения пальцев руки относительно друг друга и относительно элементов 4 информационной матрицы 5. Это достигается использованием, например, сверхширокоугольной камеры или камеры типа «рыбий глаз», или соответствующими насадками (объективами) на камеру. Информационная матрица 5 расположена на какой-либо поверхности (не показана), например, на поверхности стола. Камера 1 может быть соединена посредством линии связи с различными терминальными устройствами, например, с мобильными устройствами - мобильным телефоном, планшетом, также с игровой консолью, ноутбуком, компьютером, пультом дистанционного управления и т.п. Линия связи может быть выполнена в виде проводного или беспроводного соединения. Питание камеры осуществляется от элемента питания (аккумулятора или батарейки), размещенного на основании 2 (на рисунке не показан) или осуществляется при помощи проводного соединения, например от USB соединения от терминального устройства.The device for inputting information contains a camera 1 (Fig. 1) placed on the base 2 and connected by a communication line with the terminal device (not shown), while the camera 1 on the base 2 is placed on the palmar surface of the hand 3 with the ability to track (monitor) finger movements hand relative to each other and relative to the elements 4 of the information matrix 5. The camera 1 has a viewing angle that allows you to track the movements of the fingers of the hand relative to each other and relative to the elements 4 of the information matrix 5. This is achieved using, for example, an ultra-wide-angle camera or a fisheye camera, or appropriate attachments (lenses) on the camera. The information matrix 5 is located on some surface (not shown), for example, on the surface of a table. The camera 1 can be connected via a communication line with various terminal devices, for example, with mobile devices - a mobile phone, a tablet, also a game console, a laptop, a computer, a remote control, etc. The communication line can be made in the form of a wired or wireless connection. The camera is powered from a battery (accumulator or battery) located on base 2 (not shown in the figure) or via a wired connection, for example, from a USB connection from a terminal device.

Расположение камеры 1 и основания 2 позволяет осуществить съемку камерой 1 взаимодействия и взаимного расположения пальца или пальцев, преимущественно концевых фаланг пальцев с элементом 4 информационной матрицы 5. Основание 2 может быть выполнено гибким, например, из пластмассы или эластичным, например, из латекса или кожи и может представлять собой как замкнутую оболочку с фиксацией, так и разомкнутую оболочку. Также основание 2 может быть выполнено прозрачным, например, из прозрачного пластика. Устройство может быть расположено на одной или двух руках пользователя.The location of the camera 1 and the base 2 allows the camera 1 to capture the interaction and relative position of the finger or fingers, mainly the terminal phalanges of the fingers with the element 4 of the information matrix 5. The base 2 can be made flexible, for example, from plastic or elastic, for example, from latex or leather and can be both a closed shell with fixation and an open shell. Also, the base 2 can be made transparent, for example, from transparent plastic. The device can be placed on one or both hands of the user.

Основание может быть выполнено в виде перчатки, выполненной с пальцами или без пальцев (не изображена) или в виде замкнутой или незамкнутой оболочки (ленты) 6 (фиг. 2), частично расположенной со стороны ладонной поверхности кисти руки 3, а частично со стороны тыльной поверхности кисти руки (не обозначена) с камерой 7, которая расположена на ладонной поверхности кисти 3, с вырезом для большого пальца. Основание 8 также может быть выполнено в виде замкнутой или незамкнутой оболочки расположенной на запястье руки на ладонной 3 и тыльной сторонах поверхности кисти, при этом камера 9 расположена и ориентирована с возможностью отслеживания (мониторинга) движений пальцев руки. Основание 8 может быть выполнено в виде браслета, ремешка, фитнесс-браслета, в виде часов и т.п., причем камера расположена на стороне браслета или часов, обращенной объективом в сторону пальцев, с возможностью отслеживания (мониторинга) движений пальцев руки относительно друг друга и относительно элементов 4 информационной матрицы 5. Камера может быть расположена на специальном возвышении основания (не показано) 8 и/или выдвинута вперед к пальцам руки с целью лучшего обзора движений пальцев руки.The base can be made in the form of a glove made with or without fingers (not shown) or in the form of a closed or open shell (tape) 6 (Fig. 2), partly located on the side of the palmar surface of the hand 3, and partly on the back side. surface of the hand (not indicated) with a camera 7, which is located on the palmar surface of the hand 3, with a cutout for the thumb. The base 8 can also be made in the form of a closed or open shell located on the wrist on the palmar 3 and back sides of the surface of the hand, while the camera 9 is located and oriented to track (monitor) the movements of the fingers. The base 8 can be made in the form of a bracelet, strap, fitness bracelet, in the form of a watch, etc., and the camera is located on the side of the bracelet or watch, facing the lens towards the fingers, with the ability to track (monitor) the movements of the fingers relative to each other. friend and relative to the elements 4 of the information matrix 5. The camera can be located on a special elevation of the base (not shown) 8 and/or moved forward to the fingers in order to better view the movements of the fingers.

Основание также может быть выполнено в виде замкнутой или незамкнутой оболочки 10 расположенной на большом пальце руки с камерой, при этом камера 11 расположена и ориентирована с возможностью отслеживания движений пальцев руки относительно друг друга и относительно элементов 4 информационной матрицы 5.The base can also be made in the form of a closed or open shell 10 located on the thumb with a camera, while the camera 11 is located and oriented to track the movements of the fingers relative to each other and relative to the elements 4 of the information matrix 5.

Основание 12 также может быть выполнено в виде замкнутой или незамкнутой оболочки в виде напальчника расположенного на фаланге пальца, например на проксимальной фаланге, с камерой 13. Оснований 12 с камерами 13 может быть больше одного - для увеличения точности и надежности идентификации движений пальцев. Основание (фиг. 3) также может быть выполнено в виде замкнутой или незамкнутой оболочки 14 охватывающей кисть руки с ладонной и тыльной сторон, и камеры 15, установленной на стороне ладонной поверхности кисти 3. Замкнутая оболочка 14 может быть выполнена в виде ремешка фиксируемого при помощи застежки (не показан). Незамкнутая оболочка может быть выполнена из гибкого материала, например меди. Основание также может быть выполнено в виде замкнутой или незамкнутой оболочки 16 охватывающей несколько фаланг пальцев с камерой 17, установленной с возможностью фиксации изображения на стороне ладонной поверхности кисти 3.The base 12 can also be made in the form of a closed or open shell in the form of a fingertip located on the phalanx of a finger, for example, on the proximal phalanx, with a camera 13. There can be more than one base 12 with cameras 13 - to increase the accuracy and reliability of identification of finger movements. The base (Fig. 3) can also be made in the form of a closed or open shell 14 covering the hand from the palmar and back sides, and a camera 15 installed on the side of the palmar surface of the hand 3. The closed shell 14 can be made in the form of a strap fixed with fasteners (not shown). The open sheath may be made of a flexible material such as copper. The base can also be made in the form of a closed or open shell 16 covering several phalanges of the fingers with a camera 17 installed with the possibility of capturing an image on the side of the palmar surface of the hand 3.

Основание также может быть выполнено в виде замкнутой или незамкнутой оболочки 18 охватывающей проксимальную фалангу большого пальца с охватом части ладони с камерой 19, установленной на стороне ладонной поверхности кисти 3.The base can also be made in the form of a closed or open shell 18 covering the proximal phalanx of the thumb, covering part of the palm with a camera 19 installed on the side of the palmar surface of the hand 3.

Основание также может быть выполнено в виде замкнутой или незамкнутой оболочки 20 охватывающей среднюю (не показано) или дистальную фалангу пальца с камерой 21. Камера 15 (фиг. 4) на основании 14 размещена на ладонной поверхности кисти 3 и имеет широкий угол обзора А объектива, что достигается использованием сверхширокоугольного объектива камеры 15, например, типа «рыбий глаз» или соответствующими насадками на камеру, т.е. камера имеет возможность обнаруживать движение на ладонной полусфере. Угол обзора камеры 15 может быть менее или более 180 градусов.The base can also be made in the form of a closed or open shell 20 covering the middle (not shown) or distal phalanx of the finger with the camera 21. The camera 15 (Fig. 4) on the base 14 is placed on the palmar surface of the hand 3 and has a wide viewing angle A of the lens, which is achieved by using an ultra-wide-angle lens of the camera 15, for example, a fisheye or appropriate attachments on the camera, i.e. the camera has the ability to detect movement on the palmar hemisphere. The viewing angle of the camera 15 may be less than or greater than 180 degrees.

Камера 9 (фиг. 5) на основании 8 размещена на запястье со стороны ладонной поверхности кисти 3 и выполнена в виде браслета или наручных часов, и имеет широкий угол обзора В объектива, что достигается использованием широкоугольного объектива камеры 9 или соответствующими оптическими насадками на камеру 9. При необходимости оптические насадки на камеру 9 могут быть выполнены съемными и иметь разные углы обзора.The camera 9 (Fig. 5) on the base 8 is placed on the wrist from the side of the palmar surface of the hand 3 and is made in the form of a bracelet or a wristwatch, and has a wide viewing angle B of the lens, which is achieved using a wide-angle lens of the camera 9 or the corresponding optical attachments on the camera 9 If necessary, the optical attachments on the camera 9 can be made removable and have different viewing angles.

Основание 2 может быть выполнено в форме ленты (фиг. 6), на обеих концах которой расположены фиксаторы 22 и 23, выполненные, например, в виде ленты-липучки типа «крючок-петля». Фиксаторы 22 состоят из крючков, а фиксаторы 23 из петель. Камера 1 размещена с возможностью обзора части ладонной поверхности кисти руки и связана (не показано) с элементом питания 24, например, аккумулятором, микроконтроллером 25 и передатчиком 26, например WiFi передатчиком. При этом все элементы - 1, 24, 25 и 26 расположены в отдельном съемном модуле 27, скрепленном с основанием 2. Съемный модуль 27 выполнен с возможностью его фиксации с основанием 2.The base 2 can be made in the form of a tape (Fig. 6), at both ends of which there are clamps 22 and 23, made, for example, in the form of a hook-and-loop tape. The latches 22 consist of hooks and the latches 23 of loops. The camera 1 is placed with the ability to view part of the palmar surface of the hand and is connected (not shown) to the battery 24, such as a battery, a microcontroller 25 and a transmitter 26, such as a WiFi transmitter. In this case, all elements - 1, 24, 25 and 26 are located in a separate removable module 27, fastened to the base 2. The removable module 27 is made with the possibility of its fixation with the base 2.

На основании 2 (фиг. 7) может быть размещен проектор 28, например лазерный, который проецирует виртуальную информационную матрицу 29 с виртуальными элементами 30 на поверхность (не показана), при этом камера 1 на основании 2 расположена с возможностью фиксации движения пальцев руки и их взаимного расположения относительно информационной матрицы 29 с виртуальными элементами 30. В качестве поверхности может быть использованы, например, поверхность стола, лист бумаги, спинка кресла, поверхность двери, тыльная поверхность другой руки и т.п. Информационная матрица 29 с виртуальными элементами 30 может быть выполнена в виде клавиатуры, набора элементов кодового замка, элементов пульта дистанционного управления и т.п.Based on 2 (Fig. 7), a projector 28 can be placed, for example, a laser projector that projects a virtual information matrix 29 with virtual elements 30 onto a surface (not shown), while the camera 1 on the base 2 is located with the possibility of fixing the movement of the fingers and their relative position relative to the information matrix 29 with virtual elements 30. As a surface, for example, the surface of a table, a sheet of paper, the back of a chair, the surface of a door, the back surface of the other hand, etc. can be used. The information matrix 29 with virtual elements 30 can be made in the form of a keyboard, a set of code lock elements, remote control elements, etc.

Блок-схема предлагаемого технического решения изображена на фиг. 8 и включает в себя блок захвата изображения 31, блок предварительной обработки изображения 32 и блок распознавания информации 33. Техническое решение может включать одну или несколько операций, функций или действий, как показано в одном или нескольких блоках 31,32 и 33. Хотя блоки показаны в последовательном порядке, эти блоки также могут быть выполнены параллельно и/или в другом порядке, чем описанные здесь. Кроме того, различные блоки могут быть объединены в меньшее количество блоков, разделены на дополнительные блоки и/или удалены на основе желаемой реализации устройства. Линии связи между блоками могут быть как проводными, так и беспроводными, например Wi-Fi, инфракрасная линия связи или Bluetooth.The block diagram of the proposed technical solution is shown in Fig. 8 and includes an image capture block 31, an image pre-processing block 32, and an information recognition block 33. The solution may include one or more operations, functions, or actions, as shown in one or more blocks 31,32 and 33. Although the blocks are shown in serial order, these blocks may also be executed in parallel and/or in a different order than those described here. In addition, various blocks may be combined into fewer blocks, divided into additional blocks, and/or removed based on the desired device implementation. Communication lines between units can be either wired or wireless, such as Wi-Fi, infrared or Bluetooth.

Блок-схема показывает функциональность и работу одной из возможных реализаций вариантов устройства. В связи с этим каждый блок может представлять модуль, сегмент или часть программного кода, который включает одну или несколько инструкций, исполняемых процессором для реализации определенных логических функций. Код программы может храниться на любом типе читаемого носителя, например, на устройстве хранения, таком как флэш-накопитель, жесткий диск, память микроконтроллера или компьютера.The block diagram shows the functionality and operation of one of the possible implementations of device variants. In this regard, each block may represent a module, segment, or part of the program code, which includes one or more instructions executed by the processor to implement certain logical functions. The program code may be stored on any type of readable medium, such as a storage device such as a flash drive, hard drive, microcontroller or computer memory.

Варианты осуществления изобретенияEmbodiments of the invention

Способ ввода информации может быть реализован следующим образом (фиг. 1). Информационную матрицу 5, в виде, например, клавиатуры, изготавливают путем графической печати на листе бумаги лазерным принтером элементов 4. Расположение и размер элементов 4 может быть выполнен в виде клавиш стандартной клавиатуры QWERTY. Также расположение и размер элементов 4 может быть выбран с учетом анатомических особенностей конкретного пользователя. В дальнейшем информационную матрицу 5 располагают на плоской поверхности, например поверхности стола, а пользователь закрепляет устройство на кисти руки.The information input method can be implemented as follows (Fig. 1). The information matrix 5, in the form of, for example, a keyboard, is made by graphic printing of elements 4 on a sheet of paper by a laser printer. The location and size of the elements 4 can be made in the form of keys of a standard QWERTY keyboard. Also, the location and size of the elements 4 can be selected taking into account the anatomical features of a particular user. In the future, the information matrix 5 is placed on a flat surface, such as a table surface, and the user fixes the device on the hand.

После поступления нервного импульса от головного мозга концевая фаланга пальца руки пользователя приближается к выбранному элементу 4 информационной матрицы 5. Камера 1 расположенная на основании 2 со стороны ладонной поверхности кисти 3 захватывает движение пальцев руки относительно элементов 4 информационной матрицы 5, а также нажатие пальца руки на определенный элемент 4 информационной матрицы 5 и передает видеоизображение на терминальное устройство или в микроконтроллер (не показаны) по проводной или беспроводной линии связи (не показана). Захваченное камерой 1 изображение может предаваться как необработанный видеосигнал, так и предварительно обработанный программно в микроконтроллере (не обозначен), с целью оптимизации передачи файлов цифрового видео.After receiving a nerve impulse from the brain, the terminal phalanx of the user's finger approaches the selected element 4 of the information matrix 5. Camera 1 located on the base 2 from the side of the palmar surface of the hand 3 captures the movement of the fingers relative to the elements 4 of the information matrix 5, as well as pressing the finger on the a certain element 4 of the information matrix 5 and transmits the video image to the terminal device or to the microcontroller (not shown) via a wired or wireless communication line (not shown). The image captured by the camera 1 can be transmitted as a raw video signal or pre-processed by software in a microcontroller (not indicated) in order to optimize the transfer of digital video files.

Изображение при необходимости обрабатывается, производится распознавание образа информации и сравнение с базовыми символами, находящимися в памяти терминального устройства или микроконтроллера. Поскольку символ на нажимаемом элементе 4 может быть скрыт самим пальцем от камеры 1, то акт нажатия на элемент 4 программно рассчитывается относительно видимых камерой 1 близлежащих элементов 4 информационной матрицы 5. Сам акт нажатия идентифицируется программно в процессоре терминального устройства или микроконтроллера и соответственно вырабатывается команда для сравнения, при этом используются алгоритмы сравнения с эталоном или по критериям. В дальнейшем производится выработка команды управления - например набор цифры при наборе номера мобильного телефона, буквы при наборе текста или команды пульта дистанционного управления. Анализируется одно изображение или ряд изображений, что позволяет рассматривать динамику движения пальцев, а также прогнозировать последовательность движения пальцев относительно элементов 4 информационной матрицы 5. Захват изображения оптической матрицей камеры 1 происходит в блоке 31 (фиг. 8). Перед обработкой изображения алгоритмами распознавания может проводиться его предварительная обработка в блоке 32. Например, сжатие изображения и/или обработка, направленная на улучшение качества изображения.If necessary, the image is processed, the information image is recognized and compared with the basic symbols stored in the memory of the terminal device or microcontroller. Since the symbol on the pressed element 4 can be hidden by the finger itself from the camera 1, the act of pressing the element 4 is calculated by software relative to the nearby elements 4 of the information matrix 5 visible by the camera 1. The act of pressing itself is identified by software in the processor of the terminal device or microcontroller and, accordingly, a command is generated for comparisons, while using algorithms for comparing with a standard or by criteria. Further, a control command is generated - for example, dialing a number when dialing a mobile phone number, letters when typing text, or remote control commands. One image or a series of images is analyzed, which makes it possible to consider the dynamics of finger movement, as well as to predict the sequence of finger movement relative to the elements 4 of the information matrix 5. The image is captured by the optical matrix of camera 1 in block 31 (Fig. 8). Before processing the image with recognition algorithms, it may be pre-processed in block 32. For example, image compression and/or processing aimed at improving image quality.

Она может включать фильтрацию изображения от шумов, повышение резкости и контрастности изображения, выравнивание и преобразование в используемый системой формат (фиг. 9). В дальнейшем изображение попадает на вход блока распознавания символов 33 (фиг. 8), где производится сегментация изображения. Задачей этого блока является выявление структурных единиц, например букв и символов, или отслеживание движений пальцев пользователя относительно информационной матрицы и/или относительно друг друга. В некоторых случаях для решения задачи сегментации на уровне букв могут использоваться сложные эвристические алгоритмы.It may include filtering the image from noise, increasing the sharpness and contrast of the image, leveling and converting to the format used by the system (Fig. 9). Subsequently, the image enters the input of the character recognition block 33 (Fig. 8), where the image is segmented. The task of this block is to identify structural units, such as letters and symbols, or track the movements of the user's fingers relative to the information matrix and / or relative to each other. In some cases, complex heuristic algorithms can be used to solve the letter-level segmentation problem.

Способ ввода информации может быть также реализован следующим образом. Основание 8 изготавливают в виде браслета, который охватывает запястье (фиг. 2). Камера 9 скреплена с основанием 8, при этом объектив (не показан) камеры 1 находится на торцевой части браслета, обращенной к пальцам руки (фиг. 5) с возможностью обзора, движений пальцев относительно друг друга и/или относительно элементов информационной матрицы. Объектив камеры захватывает изображение с углом обзора В, в который попадают движения пальцев руки. Информационную матрицу 5 с элементами 4 изготавливают при помощи 3D-принтера (фиг. 1), т.е. изготавливают объемной, с учетом эргономических особенностей пользователя или группы пользователей. Пользователь закрепляет устройство на запястье. Камера 8 (фиг. 5) захватывает движение пальцев пользователя относительно друг друга и относительно элементов 4 информационной матрицы 5 и передает видеоизображение по проводной линии USB на терминальное устройство, например, планшет. Входной сигнал программно обрабатывается и нажатый элемент 4 информационной матрицы 5 распознается с последующей выработкой команды на управление терминальным устройством, например курсором планшета или вводом символа.The information input method can also be implemented as follows. The base 8 is made in the form of a bracelet that covers the wrist (Fig. 2). The camera 9 is fastened to the base 8, while the lens (not shown) of the camera 1 is located on the end part of the bracelet facing the fingers (Fig. 5) with the possibility of review, finger movements relative to each other and/or relative to the elements of the information matrix. The camera lens captures an image with viewing angle B, which includes the movements of the fingers. An information matrix 5 with elements 4 is made using a 3D printer (Fig. 1), i.e. are made volumetric, taking into account the ergonomic features of the user or group of users. The user attaches the device to the wrist. The camera 8 (Fig. 5) captures the movement of the user's fingers relative to each other and relative to the elements 4 of the information matrix 5 and transmits a video image via a wired USB line to a terminal device, such as a tablet. The input signal is processed programmatically and the pressed element 4 of the information matrix 5 is recognized with the subsequent generation of a command to control the terminal device, for example, a tablet cursor or character input.

Способ ввода информации может быть также реализован следующим образом. Пользователь надевает устройство на палец с основанием 2 в виде ленты и скрепленным с лентой съемным модулем 27 (фиг. 6). В момент соприкосновения половинок ленты 2 происходит зацепление фиксаторов 22 и 23 - петель за крючки, и таким образом происходит фиксация устройства на пальце. Фиксация по типу "крючок-петля" позволяет многократно соединять ленту, практически без потери сил сцепления. Съемный модуль 27 с камерой 1 размещают на фаланге пальца (со стороны подушечки пальца) с возможностью обзора ладонной поверхности кисти руки и связывают с микроконтроллером 25, который связан с передатчиком 26, например WiFi. передатчиком. Питание камеры 1, микроконтроллера 25 и передатчика 26 осуществляет элемент питания 24, например аккумулятор. При этом все элементы - 1, 24, 25 и 26 располагают в отдельном съемном модуле 27. Захваченное камерой 1 изображение обрабатывается программно процессором микроконтроллера 25, где изображение (или последовательность изображений) обрабатывается, распознается и предается при помощи передатчика 26 беспроводным способом на терминальное устройство, например на дисплей или мобильный телефон.The information input method can also be implemented as follows. The user puts the device on a finger with a base 2 in the form of a tape and a removable module 27 fastened to the tape (Fig. 6). At the moment of contact of the halves of the tape 2, the latches 22 and 23 - loops are hooked on the hooks, and thus the device is fixed on the finger. Hook-and-loop fastening allows you to repeatedly connect the tape, with virtually no loss of adhesion. The removable module 27 with the camera 1 is placed on the phalanx of the finger (from the side of the fingertip) with the possibility of viewing the palmar surface of the hand and is connected to the microcontroller 25, which is connected to the transmitter 26, such as WiFi. transmitter. The camera 1, the microcontroller 25 and the transmitter 26 are powered by the battery 24, such as a battery. In this case, all elements - 1, 24, 25 and 26 are located in a separate removable module 27. The image captured by the camera 1 is processed by the software processor of the microcontroller 25, where the image (or sequence of images) is processed, recognized and transmitted using the transmitter 26 wirelessly to the terminal device , such as a display or a mobile phone.

Способ ввода информации может быть также реализован следующим образом. На основании 2 (фиг. 7) размещают камеру 1 и проектор 28. Проектор 28 проецирует, например, при помощи лазера, виртуальную информационную матрицу 29 с виртуальными элементами 30 на какую-нибудь поверхность (не показана), например, на крышку стола. Камеру 1 располагают на том же основании 2 и захватывают изображение движения пальцев руки, их взаимное расположение относительно друг друга и относительно виртуальных элементов 30 виртуальной информационной матрицы 29. Пользователь перемещает палец относительно лазерного рисунка информационной матрицы 29 с виртуальными элементами 30 и осуществляет выбор одного из виртуальных элементов 30. Камера 1 захватывает изображения пальца, когда палец движется, чтобы идентифицировать выбор одного из объектов лазерного рисунка. Изображение от камеры 1 передают в микроконтроллер или в терминальное устройство, в котором оно оцифровывается и обрабатывается. Далее программно распознается и анализируются положение и активные движения руки и/или пальцев пользователя, которые в дальнейшем интерпретируются для выработки соответствующих команд на терминальной устройство.The information input method can also be implemented as follows. Based on 2 (Fig. 7), a camera 1 and a projector 28 are placed. The projector 28 projects, for example, using a laser, a virtual information matrix 29 with virtual elements 30 on some surface (not shown), for example, on a table top. The camera 1 is placed on the same base 2 and captures the image of the movement of the fingers, their relative position relative to each other and relative to the virtual elements 30 of the virtual information matrix 29. The user moves the finger relative to the laser pattern of the information matrix 29 with virtual elements 30 and selects one of the virtual elements 30. The camera 1 captures images of the finger as the finger moves to identify the selection of one of the objects of the laser pattern. The image from the camera 1 is transmitted to the microcontroller or to the terminal device, in which it is digitized and processed. Further, the position and active movements of the user's hand and/or fingers are programmatically recognized and analyzed, which are further interpreted to generate appropriate commands on the terminal device.

Способ ввода информации может быть реализован также следующим образом (фиг. 1). Информационную матрицу 5 выполняют в виде, например, напечатанной на принтере сетки или используют естественную, например, деревянную поверхность с элементами 4. Элементами 4 может служить, например текстура дерева, или, например текстура или графические изображения на ткани. Захваченные камерой 1 движения пальца или пальцев руки относительно информационной матрицы 5 программно распознают и интерпретируют как движения компьютерной мышки, распознают также как нажатие управляющих клавиш компьютерной мышки с последующей выдачей команд управления на терминальное устройство. Движения пальца параллельно поверхности информационной матрицы 5 интерпретируют, например, как движение мышки, а движения пальца или пальцев перпендикулярно поверхности информационной матрицы 5 интерпретируют как нажатие на соответствующую клавишу мышки. Сам акт нажатия распознается программно в процессоре терминального устройства или микроконтроллера с выработкой управляющей команды.The information input method can also be implemented as follows (Fig. 1). The information matrix 5 is made in the form of, for example, a grid printed on a printer or a natural, for example, wooden surface with elements 4 is used. The elements 4 can be, for example, a wood texture, or, for example, a texture or graphic images on a fabric. The movements of the finger or fingers of the hand relative to the information matrix 5 captured by the camera 1 are programmatically recognized and interpreted as movements of the computer mouse, they are also recognized as pressing the control keys of the computer mouse with subsequent issuance of control commands to the terminal device. Finger movements parallel to the surface of the information matrix 5 are interpreted, for example, as mouse movement, and movements of the finger or fingers perpendicular to the surface of the information matrix 5 are interpreted as pressing the corresponding mouse button. The very act of pressing is recognized by software in the processor of the terminal device or microcontroller with the generation of a control command.

Под "камерой" понимаются устройства, выполненные в виде видеокамеры, оснащенные объективами, например, сверхширокоугольными объективами или сменными оптическими насадками - сменными объективами с разным фокусным расстоянием. Могут использоваться как одна камера, так и несколько для более точной идентификации элементов информационной матрицы и движения пальца или пальцев. Под "информационной матрицей" понимается поверхность, выполненная из искусственных или природных материалов. На поверхность информационной матрицы могут быть нанесены буквенно-символьные изображения элементов. Также может использоваться текстура поверхности природных или искусственных материалов информационной матрицы, которая представляет в этом случае поверхность, например поверхность деревянного стола или поверхность ткани. Информационная матрица может быть выполнена из бумаги, пластика, кожи, дерева, металла и т.п. Под "информационной матрицей" понимается также виртуальная информационная матрица и виртуально созданное изображение на какой-либо поверхности при помощи проектора. Под "элементами информационной матрицы" понимаются элементы, с нанесенными на них графическими изображениями в виде символьно-буквенных клавиш, цифровых клавиш, управляющих клавиш, функциональных клавиш, клавиш управления курсором, клавиш кода Брайля, в виде сетки, естественные поверхности и т.п. Также в качестве элементов может рассматриваться текстура поверхности, что целесообразно использовать при работе устройства в качестве компьютерной мышки.By "camera" is meant devices in the form of a video camera equipped with lenses, such as ultra-wide-angle lenses or interchangeable optical attachments - interchangeable lenses with different focal lengths. Both one camera and several cameras can be used for more accurate identification of the information matrix elements and the movement of a finger or fingers. By "information matrix" is meant a surface made of artificial or natural materials. On the surface of the information matrix, alphanumeric images of elements can be applied. The surface texture of natural or artificial materials of the information matrix can also be used, which in this case represents a surface, for example the surface of a wooden table or the surface of a fabric. The information matrix can be made of paper, plastic, leather, wood, metal, etc. The "information matrix" also refers to a virtual information matrix and a virtual image created on a surface using a projector. By "information matrix elements" are meant elements with graphic images printed on them in the form of character-alphabetic keys, numeric keys, control keys, function keys, cursor keys, Braille code keys, in the form of a grid, natural surfaces, etc. Also, the surface texture can be considered as elements, which is advisable to use when the device is used as a computer mouse.

Под "основанием" понимается гибкое или эластичное основание (например, из резины), имеющее в зависимости от реализации технического решения различные конструктивные исполнения - напальчник для одной фаланги пальца, перчатка, лента, ремешок, браслет и т.д. В зависимости от размеров руки основания могут индивидуально подбираться для конкретной руки. Основание может полностью охватывать кисть или часть кисти, или пальцев, или запястье или быть разомкнутым. Разомкнутое основание может быть выполнено из металла в виде разомкнутого кольцеобразного элемента, который устанавливают и фиксируют путем его сгибания, а снимают путем его разгибания. Под "ладонной поверхности кисти" понимаются, такие области поверхности руки, как пальцы, ладонь или запястье со стороны ладони. Аналогично для тыльной поверхности кисти.By "base" is meant a flexible or elastic base (for example, made of rubber), which, depending on the implementation of the technical solution, has various designs - a fingertip for one phalanx of a finger, a glove, a ribbon, a strap, a bracelet, etc. Depending on the size of the hand, the bases can be individually selected for a particular hand. The base may completely cover the hand or part of the hand, or fingers, or wrist, or be open. The open base can be made of metal in the form of an open annular element, which is installed and fixed by bending it, and removed by unbending it. By "palmar surface of the hand" is meant areas of the surface of the hand such as the fingers, the palm of the hand, or the palm side of the wrist. Similarly for the back of the hand.

Под "микроконтроллером" понимается вычислительное устройство, которое сочетает функции процессора и периферийных устройств, содержит ОЗУ и (или) ПЗУ. Под "линией связи" понимается как проводная, так и радио- или инфракрасная связь. Под "терминальным устройством" понимаются, например, различные устройства, такие, как мобильные телефоны, планшеты, компьютеры, наручные часы, браслеты, пульты дистанционного управления, дисплеи, различного рода замки и т.п.By "microcontroller" is meant a computing device that combines the functions of a processor and peripheral devices, contains RAM and/or ROM. By "link" is meant both wired and radio or infrared communications. By "terminal device" is meant, for example, various devices such as mobile phones, tablets, computers, wristwatches, wristbands, remote controls, displays, various types of locks, and the like.

Устройство может также использоваться в качестве мыши или джойстика с использованием данных о параллельных и перпендикулярных перемещениях пальца или пальцев относительно информационной матрицы для ввода информации о перемещении. Устройство может также использоваться в качестве пульта дистанционного управления с использованием данных о перемещении и взаимном расположении пальцев относительно информационной матрицы или других пальцев (частей ладони) для ввода информации. Устройство может также использоваться для распознавания жестов при общении глухих людей.The device can also be used as a mouse or joystick using data on parallel and perpendicular movements of the finger or fingers relative to the information matrix to enter movement information. The device can also be used as a remote control using data on the movement and relative position of the fingers relative to the information matrix or other fingers (parts of the palm) to enter information. The device can also be used to recognize gestures when communicating with deaf people.

Промышленная применимостьIndustrial Applicability

При анализе изобретения на соответствие критерию "новизна" выявлено, что часть признаков заявленной совокупности является новой, следовательно, изобретение соответствует критерию "новизна".When analyzing the invention for compliance with the "novelty" criterion, it was revealed that some of the features of the claimed combination are new, therefore, the invention meets the "novelty" criterion.

При анализе изобретения на соответствие критерию "изобретательский уровень" выявлено, что техническое решение анализируемого объекта ново, следовательно, признаки соответствуют критерию "изобретательский уровень", поскольку оно представляет собой новую совокупность признаков, как сочетание известных признаков и нового технического свойства, и также представляет собой новое расположение, количество и связи элементов. Кроме того, посредством предлагаемого способа и устройства достигнут результат, удовлетворяющий давно существующим потребностям (ускорению ввода информации, повышению эргономичности работы).When analyzing the invention for compliance with the "inventive step" criterion, it was revealed that the technical solution of the analyzed object is new, therefore, the features correspond to the "inventive step" criterion, since it is a new set of features, as a combination of known features and a new technical property, and also represents new location, number and relationships of elements. In addition, by means of the proposed method and device, a result has been achieved that satisfies long-standing needs (speeding up the input of information, improving the ergonomics of work).

Изобретение может использоваться в вычислительной технике, может быть тиражировано и, следовательно, соответствует критерию "промышленная применимость". Преимущества заявляемого способа и устройства ввода информации:The invention can be used in computing, can be replicated and, therefore, meets the criterion of "industrial applicability". The advantages of the proposed method and information input device:

- малая масса и габариты;- small weight and dimensions;

- снижение туннельного синдрома при работе;- reduction of tunnel syndrome during work;

- удобство применения;- ease of use;

- адаптивность;- adaptability;

- возможность использования для людей с физическими недостатками;- the possibility of use for people with physical disabilities;

- эргономичность, возможность учета анатомических особенностей конкретного пользователя;- ergonomics, the ability to take into account the anatomical features of a particular user;

- универсальность, достигаемая использованием съемного модуля,- versatility achieved by using a removable module,

- решение задачи распознавания жестов.- solution of the problem of recognition of gestures.

Claims (1)

Способ ввода информации, при котором камера захватывает движения пальцев руки пользователя относительно элементов информационной матрицы, которые в последующем идентифицируют и распознают с выдачей команд управления на терминальное устройство, при этом камеру при помощи основания располагают со стороны ладонной поверхности кисти с возможностью обзора движений пальца или пальцев руки относительно друг друга и матрицы камерой, отличающийся тем, что движение пальца относительно выбранного элемента информационной матрицы идентифицируют по его расположению по отношению к другим элементам информационной матрицы, находящимся в поле зрения камеры, при этом акт взаимодействия пальца с элементом информационной матрицы программно рассчитывается относительно видимых камерой элементов информационной матрицы, соответственно вырабатывается команда для сравнения, при этом используются алгоритмы сравнения с эталоном или по критериям.A method for inputting information, in which the camera captures the movements of the user's fingers relative to the elements of the information matrix, which are subsequently identified and recognized with the issuance of control commands to the terminal device, while the camera is placed using the base on the side of the palmar surface of the hand with the ability to view the movements of the finger or fingers hands relative to each other and the matrix by the camera, characterized in that the movement of the finger relative to the selected element of the information matrix is identified by its location in relation to other elements of the information matrix that are in the field of view of the camera, while the act of interaction of the finger with the element of the information matrix is programmatically calculated relative to the visible the camera elements of the information matrix, respectively, a command is generated for comparison, while using algorithms for comparison with a standard or criteria.
RU2018109407A 2018-03-16 2018-03-16 Method for entering information and device for its implementation RU2765237C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2018109407A RU2765237C2 (en) 2018-03-16 2018-03-16 Method for entering information and device for its implementation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2018109407A RU2765237C2 (en) 2018-03-16 2018-03-16 Method for entering information and device for its implementation

Publications (3)

Publication Number Publication Date
RU2018109407A RU2018109407A (en) 2019-09-17
RU2018109407A3 RU2018109407A3 (en) 2019-12-20
RU2765237C2 true RU2765237C2 (en) 2022-01-27

Family

ID=67989397

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018109407A RU2765237C2 (en) 2018-03-16 2018-03-16 Method for entering information and device for its implementation

Country Status (1)

Country Link
RU (1) RU2765237C2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2141685C1 (en) * 1998-01-13 1999-11-20 Раков Дмитрий Леонидович Method for entering information and device which implements said method
JP2005301583A (en) * 2004-04-09 2005-10-27 Nara Institute Of Science & Technology Typing input device
EP2634670A1 (en) * 2012-03-01 2013-09-04 Asplund Data AB A data input device
US20160127624A1 (en) * 2014-11-03 2016-05-05 Samsung Electronics Co., Ltd. Wearable device and control method thereof
US20160124500A1 (en) * 2014-10-29 2016-05-05 Lg Electronics Inc. Watch type control device
CN105824431A (en) * 2016-06-12 2016-08-03 齐向前 Information input device and method
WO2016121034A1 (en) * 2015-01-28 2016-08-04 株式会社ウェアラブルデバイス総合研究所 Wearable device, input method, and program
US20160370861A1 (en) * 2015-06-16 2016-12-22 Fujitsu Limited Input device and input control method
US20170315620A1 (en) * 2014-11-21 2017-11-02 Abhishek System and Method for Data and Command Input

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2141685C1 (en) * 1998-01-13 1999-11-20 Раков Дмитрий Леонидович Method for entering information and device which implements said method
JP2005301583A (en) * 2004-04-09 2005-10-27 Nara Institute Of Science & Technology Typing input device
EP2634670A1 (en) * 2012-03-01 2013-09-04 Asplund Data AB A data input device
US20160124500A1 (en) * 2014-10-29 2016-05-05 Lg Electronics Inc. Watch type control device
US20160127624A1 (en) * 2014-11-03 2016-05-05 Samsung Electronics Co., Ltd. Wearable device and control method thereof
US20170315620A1 (en) * 2014-11-21 2017-11-02 Abhishek System and Method for Data and Command Input
WO2016121034A1 (en) * 2015-01-28 2016-08-04 株式会社ウェアラブルデバイス総合研究所 Wearable device, input method, and program
US20160370861A1 (en) * 2015-06-16 2016-12-22 Fujitsu Limited Input device and input control method
CN105824431A (en) * 2016-06-12 2016-08-03 齐向前 Information input device and method

Also Published As

Publication number Publication date
RU2018109407A3 (en) 2019-12-20
RU2018109407A (en) 2019-09-17

Similar Documents

Publication Publication Date Title
CN114341779B (en) Systems, methods, and interfaces for performing input based on neuromuscular control
US11543887B2 (en) User interface control of responsive devices
CN112789577B (en) Neuromuscular text input, writing and drawing in augmented reality systems
CN202584010U (en) Wrist-mounting gesture control system
CN102915111B (en) A kind of wrist gesture control system and method
EP2851829B1 (en) Methods for controlling a hand-held electronic device and hand-held electronic device utilizing the same
CA3051912C (en) Gesture recognition devices and methods
US11782514B2 (en) Wearable device and control method thereof, gesture recognition method, and control system
US20090153366A1 (en) User interface apparatus and method using head gesture
US20130069883A1 (en) Portable information processing terminal
KR20150026535A (en) Method and computer readable recording medium for recognizing an object using a captured image
US20170316717A1 (en) Semi-wearable Device for Interpretation of Digital Content for the Visually Impaired
WO2009075433A1 (en) Data input apparatus and data processing method therefor
CN105814511B (en) Offset plane wrist input device, method and computer readable medium
Yoon et al. Lightful user interaction on smart wearables
CN113253908B (en) Key function execution method, device, equipment and storage medium
CN106933364A (en) Characters input method, character input device and wearable device
WO2016112821A1 (en) Interactive method, interactive apparatus, and user equipment
EP1756700B1 (en) System and method for bodily controlled data input
US20200168121A1 (en) Device for Interpretation of Digital Content for the Visually Impaired
Baudisch et al. My new PC is a mobile phone
RU2765237C2 (en) Method for entering information and device for its implementation
CN211149310U (en) Wrist formula intelligent device of high recognition rate
Yang et al. TapSix: A Palm-Worn Glove with a Low-Cost Camera Sensor that Turns a Tactile Surface into a Six-Key Chorded Keyboard by Detection Finger Taps
TW466438B (en) Construction method of gesture mouse