RU2123718C1 - Method for information input to computer - Google Patents

Method for information input to computer Download PDF

Info

Publication number
RU2123718C1
RU2123718C1 RU96119454A RU96119454A RU2123718C1 RU 2123718 C1 RU2123718 C1 RU 2123718C1 RU 96119454 A RU96119454 A RU 96119454A RU 96119454 A RU96119454 A RU 96119454A RU 2123718 C1 RU2123718 C1 RU 2123718C1
Authority
RU
Russia
Prior art keywords
color
computer
selected
control object
object
Prior art date
Application number
RU96119454A
Other languages
Russian (ru)
Other versions
RU96119454A (en
Inventor
В.А. Кузин
С.Н. Петров
Original Assignee
Кузин Виктор Алексеевич
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Кузин Виктор Алексеевич filed Critical Кузин Виктор Алексеевич
Priority to RU96119454A priority Critical patent/RU2123718C1/en
Publication of RU96119454A publication Critical patent/RU96119454A/en
Application granted granted Critical
Publication of RU2123718C1 publication Critical patent/RU2123718C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Abstract

FIELD: computer engineering, in particular, training equipment, interactive computer games, remote input of three-dimensional information to computer, control of robot, manipulator, or another controlled object. SUBSTANCE: method involves scanning of space of expected position of controlling object by color TV cameras, generation of real optical images of scanned space, measuring of three- dimensional coordinates of controlling object, detection of values of its three-dimensional coordinates, inputting values of three-dimensional coordinates into computer. During this process method involves detection of regions of controlling object which correspond to reference points in its graphical image, assigning identification color to each of detected regions of controlling object. Said identification color differs from color of other objects and of background. In addition method involves labeling selected regions of controlling object with labels carrying colors selected for given regions. EFFECT: possibility to input complete and partial information about three-dimensional coordinates of controlling object into computer. 3 cl, 4 dwg

Description

Изобретение относится к области компьютерной техники, робототехники и может быть использовано в тренажерах, в интерактивных компьютерных играх для дистанционного ввода трехмерной информации в компьютер, а также для управления роботом, манипулятором или иным управляемым объектом. The invention relates to the field of computer technology, robotics, may be used in simulators, interactive video games for the three-dimensional distance information input into a computer, and for controlling a robot, manipulator or otherwise controlled object.

Известен способ ввода информации в компьютер [1], при котором на голове и плечах оператора закрепляют оптические маркеры выполненные в виде активных или пассивных источников света. Known way to enter information into the computer [1], wherein the head and shoulders of the operator fixed optical markers made in the form of active or passive light sources. С помощью установленных у потолка и образующих многоугольник фотоэлектрических ячеек, непрерывно измеряют интенсивность света, исходящего от оптических маркеров. Using the installed near the ceiling, forming a polygon of photovoltaic cells is continuously measured intensity of light emanating from the optical markers. По изменению интенсивности света определяют текущие значения координат оптических маркеров, а следовательно и оператора в плане. By variation of the current intensity determining the coordinate values ​​of optical markers, and therefore in terms of the operator. Вводят текущие значения координат оператора в плане в качестве информации в компьютер. Enter the current values ​​of the coordinate operator in the plan as the information in the computer.

Недостатком известного технического решения является невозможность ввода в компьютер информации о пространственных координатах отдельных частей управляющего объекта (оператора). The disadvantage of this technical solution is the inability to enter into the computer information about the spatial coordinates of individual parts of the control object (the operator).

Наиболее близким по технической сущности, достигаемому эффекту и выбранным за прототип является способ ввода информации в компьютер [2], при котором осуществляют оптическое сканирование области расположения не перемещающегося в пространстве испытателя передающими камерами с взаимоперпендикулярными строительными осями, получают действительные оптические изображения сканируемой области, изменяют пространственные координаты отдельных частей тела испытателя с закрепленными на нем двумя источниками света, по проекциям источников све The closest in technical essence, the effect achieved, and chosen as the prototype is a method for inputting information into the computer [2], wherein the carried optical scanning location area does not move in space tester transmitting cameras interperpendicular construction axes receive real optical image of the scanned area, change the spatial the coordinates of parts a test body mounted on it two light sources are projected sources CBE а на действительных оптических изображениях определяют значения пространственных координат частей тела испытателя, вводят значения пространственных координат частей тела испытателя в качестве информации в компьютер. and optical images on the actual values ​​of the spatial coordinates determined tester body parts, the values ​​of the spatial coordinates are administered test body parts as information in the computer. При осуществлении способами один источник света выполнен стационарным, а другой подвижным, при этом, используя разность координат между стационарным и подвижным источниками света, определяют функциональные возможности тела человека. In the method one light source is made stationary and the other movable, while using the coordinate difference between the fixed and movable light sources, determine the functionality of human body.

Прототип позволяет ввести в компьютер информацию о пространственных координатах отдельных частей тела испытателя, но не одновременно, а поочередно. The prototype allows you to enter into the computer information on the spatial coordinates of individual parts of the body test, but not simultaneously, but alternately.

Недостатком прототипа является невозможность единовременного ввода в компьютер информации о пространственных координатах всех частей тела испытателя, которое в данном случае выполняет роль управляющего объекта. The disadvantage of the prototype is the impossibility of a one-time input into the computer information about the spatial location of all parts of the test body, which in this case acts as a control object.

Целью изобретения является осуществление возможности единовременного ввода в компьютер информации о пространственных координатах, выполненного в виде объемного тела управляющего объекта как в целом, так и отдельных его частей. The aim of the invention is the possibility of simultaneous implementation of computer input information about the spatial coordinates formed as a volume body control object as a whole and its individual parts.

При реализации способа ввода информации в компьютер осуществляют сканирование пространства вероятного расположения управляющего передающими камерами, строительные оси которых параллельны осям ортогональной системы координат, причем строительные оси по крайней мере двух передающих камер перпендикулярны друг другу, получают действительные оптические изображения сканируемого пространства, изменяют пространственные координаты управляющего объекта, по проекциям управляющего объекта на действительных оптических изображениях опред In the method of information input to the computer is scanned manager transmitting the probable location of the space chambers, construction axes are parallel to the axes of an orthogonal coordinate system, wherein the building axis at least two transmission chambers are perpendicular to each other, receive the real optical image of the scanned area, change the spatial coordinates of the control object is projected on the real control object optical images opred ляют значения его пространственных координат, вводят значения пространственных координат управляющего объекта в качестве информации в компьютер. lyayut its spatial coordinate values, coordinate values ​​of spatial administered control object as information in the computer.

В отличие от прототипа в процессе осуществления способа выделяют области управляющего объекта, соответствующие опорным точкам его графического изображения, присваивают каждой из выделенных областей управляющего объекта отдельный выбранный для нее цвет, не совпадающий с цветами, выбранными для других выделенных областей управляющего объекта, и цветами фона, вводят информацию "выделенная область управляющего объекта - выбранный для нее цвет" в компьютер, обозначают выделение области управляющего объекта метками выбранных для них цвето Unlike the prior art in the course of the process is isolated area management object corresponding to the reference points of the graphical image is assigned to each of the selected areas of the control object single color selected for it, which does not coincide with the colors selected for other selections of the control object and the background color, input "selected area of ​​the object manager - selected for its color" in the computer allocation region designated control entity labels selected for their tsveto в, при сканировании пространства вероятного расположения управляющего объекта передающими камерами используют цветные передающие камеры, действительные оптические изображения сканируемого пространства получают с проекциями на них цветных меток, определяют плоские координаты на приемниках цветных передающих камер для каждой из цветных меток и вводят их в компьютер, формируют по плоским координатам цветных меток от нескольких цветных передающих камер пространственные координаты каждой их цветных меток, определяют по информации "выб in prepared with projections on their color marks, determine the grid coordinates on the receivers color transmission chambers for each of the color marks and enter them into a computer at a control object scanning probable location of the space transmitting cameras use color transmission chamber real optical image of the scanned space is formed by flat coordinates colored labels from several color cameras transmit spatial coordinates of each of the colored marks are determined according to "choose ранная область управляющего объекта - выбранный для нее цвет" и по пространственным координатам каждой из цветных меток пространственные координаты выделенных областей управляющего объекта. rannaya area control object - chosen for its color, "and the spatial coordinates of each of the colored marks the spatial coordinates of the selected areas of the control object.

Термин "управляющий объект" обозначает объекты, пространственное перемещение которых управляет перемещением объектов ими управляемых, например, изображением этих объектов на экране дисплея или на проекционном экране. The term "control object" refers to objects, the spatial movement of which controls the movement of the managed objects, for example, the image of these objects on a display screen or projection screen.

В качестве управляющего объекта могут быть использованы как тела, отдельные части которых жестко зафиксированы друг относительно друга, так и тела, отдельные части которых имеют друг относительно друга некоторую степень свободы, например имеющие шарнирные соединения. As the control object can be used as body parts which are rigidly fixed relative to each other, and body parts which have relative to each other a certain degree of freedom, for example having a hinge connection. В качестве первых может быть использована рапира фехтовальщика, а в качестве вторых - тело самого спортсмена. As the first can be used rapier fencer, and as the second - the body of the athlete.

Опорными точками графического изображения рапиры, т.е. Reference points graphic foils, ie такими точками, по которым, зная ее размеры, можно всегда определить ее пространственное расположение, могут быть любые две расположенные на клинике и достаточно удаленные друг от друга точки, или две точки, одна из которых расположена на острие, а другая на рукоятке. such points, which, knowing its dimensions, it is always possible to determine its spatial arrangement, any two may be located at a clinic, and sufficiently spaced apart points or two points, one of which is located on the edge, and the other on the handle.

В качестве выделенных областей для определения пространственного расположения как фехтовальщика в целом, так и отдельных частей его тела могут быть использованы верхняя часть головы, кисти рук и ступни ног, области локтевых, плечевых, коленных и тазобедренных суставов. As selections to determine the spatial location as the fencer in the whole and parts of its body can be used the upper part of the head, hands and feet, elbow area, shoulder, knee and hip joints. Подобный выбор выделенных областей дает возможность, зная пространственные координаты этих областей, определить расположение тела фехтовальщика в пространстве при любых его перемещениях. This choice of selections makes it possible, knowing the spatial coordinates of these areas to determine the location of the body in space swordsman in all his movements.

Цветные метки могут быть выполнены из материалов, обладающих диффузным отражением. Colored tags can be made of materials with a diffuse reflection. Это позволит исключить влияние помех, характерных для зеркального отражения. This will eliminate the effect of noise characteristic of specular reflection.

На фиг. FIG. 1 изображена блок-схема устройства, реализующего способ ввода информации в компьютер. 1 is a block diagram of an apparatus embodying the method of entering information into a computer.

На фиг.2 изображены схемы обработки цветных сигналов. 2 illustrates color signal processing circuit.

На фиг.3 иллюстрируется реализация способа вводы информации в компьютер. 3 illustrates an implementation information inputting method in a computer.

На фиг. FIG. 4 иллюстрируется определение плоских координат центров цветных меток несколькими цветными передающими камерами. 4 illustrates the determination of the grid coordinates of color marks the center of several color cameras transmit.

Способ ввода информации в компьютер может быть реализован с помощью устройства, блок схема которого изображена на фиг. inputting information into a computer process may be implemented using a device whose block diagram is shown in FIG. 1. one.

Устройство содержит цветные передающие камеры 1a, 1b, 1c, которые располагают таким образом (фиг.3), что строительные оси камеры 1a и 1b параллельны оси OX ортогональной системы координат, а строительная ось камеры 1c параллельна оси OZ. The apparatus comprises a color transmission chamber 1a, 1b, 1c, which are disposed in such a manner (Figure 3), which construction the chamber axis 1a and 1b are parallel to the OX axis orthogonal coordinate system, and the construction chamber 1c axis parallel to the OZ axis. Кроме того, устройство содержит схемы обработки цветных сигналов 2a, 2b, 2c, вычислитель пространственных координат 3, интерфейс связи 4, компьютер 5 и видеопроектор 6 с проекционным экраном 7. Furthermore, the apparatus comprises a color signal processing circuits 2a, 2b, 2c, spatial coordinate calculator 3, a communication interface 4, the computer 5 and the projector projection screen 6 with 7.

Выходы цветных передающих камер 1a, 1b, 1c электрически соединены с входами соответственно схем обработки цветных сигналов 2a, 2b, 2c, выходы схем обработки цветных сигналов 2a, 2b, 2c электрически соединены соответственно с первым, вторым и третьим входами вычислителя пространственных координат 3, четвертый вход-выход вычислителя пространственных координат 3 электрически соединен с первым входом-выходом интерфейса 4. Второй вход-выход интерфейса 4 электрически соединен с первым входом-выходом компьютера 5, второй выход которого электрически соеди Outputs color transmit cameras 1a, 1b, 1c are electrically coupled to inputs respectively of color signal processing circuits 2a, 2b, 2c, color signal processing circuit outputs 2a, 2b, 2c are electrically connected respectively to the first, second and third inputs of calculating the spatial coordinates of three, four input-output calculating spatial coordinates 3 is electrically connected to the first input-output interface 4. The second input-output interface 4 is electrically connected to the first input-output of the computer 5, the second output of which is electrically Cpd нен с входом видеопроектора 6. Nen with the input video projector 6.

В качестве управляющего объекта используют тело спортсмена 8 и рапиру 9, на которых закреплены, выполненные из материала, обладающего диффузным отражением, цветные метки 10. As the control object using the athlete's body 8 and the foil 9, on which are fixed, made of a material having a diffuse reflection mark 10 colored.

Каждая их схем обработки цветных сигналов 2a, 2b, 2c содержит параллельно включенные друг относительно друга компараторы 11 1 -11 15 , число которых равно числу цветных меток 10 (в нашем случае 15). Each of the color signal processing circuits 2a, 2b, 2c comprises a parallel-connected to each other comparators 11 1 -11 15, the number of which equals the number of color marks 10 (in this case 15). Выходы компараторов 11 1 -11 15 электрически соединены с входами схемы фиксации момента обнаружения 12 цветных меток 10. Выход схемы фиксации момента обнаружения 12 цветных меток 10 является выходом схемы обработки цветных сигналов 2. В процессе осуществления способа с помощью видеопроектора 6 на проекционном экране 7 получают видеоизображение с управляемой виртуальной фигурой 13 спортсмена 8 и виртуальной фигурой противника 14. Видеопроектор 6 установлен перед проекционным экраном 7, не затрудняя визуального контакта спортсмена 8 с проекционным э The outputs of comparators 11 1 -11 15 are electrically connected since the latch circuit 12 inputs the detection of color marks 10. Output torque detection latching circuit 12 of color marks 10 is the output color signal processing circuit 2. In the implementation of the method using a video projector on the projection screen 6 7 prepared video with a controllable virtual athlete figure 8 and 13 virtual enemy piece 14. video projector 6 installed in front of the projection screen 7, without hindering the athlete visual contact with the projection 8 e краном 7. valve 7.

Способ ввода информации в компьютер 5 осуществляется следующим образом. entering information into the computer 5 is performed as follows.

В качестве выделенных областей управляющего объекта, соответствующих опорным точкам их графических изображений, принимают верхнюю часть головы, кисти рук и ступни ног, области локтевых, плечевых, коленных и тазобедренных суставов спортсменов 8. Вышеуказанные области тела спортсмена 8 выбраны потому, что по пространственным координатам этих областей всегда можно определить не только пространственное положение спортсмена 8 в целом, но и пространственное положение отдельных частей тела спортсмена 8 друг относительно друга. As selections management object corresponding to the reference points of the graphic image, receiving the upper part of the head, hands and feet, elbow area, shoulder, knee and hip joints of athletes 8. The above athlete body region 8 were chosen because these spatial coordinates areas always possible to determine not only the spatial position of a sportsman 8 as a whole, but also the spatial position of the individual parts of the athlete's body 8 relative to each other. Цветные метки 10 закреплены на острие и рукоятке рапиры 8, а также на верхней части головы, кистях рук и ступнях ног, на областях локтевых, плечевых, коленных и тазобедренных суставов (15 цветных меток). The color marks 10 are fixed on the tip of the handle and the gripper 8, as well as on top of the head, the hands and soles of the feet, in the elbow areas, shoulder, knee and hip joints (15 colored labels).

Каждой из выделенных областей тела спортсмена 8 присваивают отдельный выбранный только для нее цвет, не совпадающий с цветами выбранными для других выделенных областей тела спортсмена 8 и цветами фона. Each of the selected areas of the athlete's body 8 is assigned to a separate selected only for its color, which does not coincide with the colors chosen for the other selected areas of the athlete's body 8 and floral background.

Например, принимают что верхняя часть головы будет обозначена красным цветом, левое плечо - оранжевым цветом, правое плечо - желтым цветом, левый локоть - зеленым цветом, правый локоть - голубым цветом и т.д. For example, take the upper part of the head will be marked in red, the left shoulder - orange, right shoulder - yellow, left elbow - green, right elbow - blue, etc.

Затем вводят информацию "голова - красный цвет, левое плечо - оранжевый цвет, правое плечо - желтый цвет, левый локоть - зеленый цвет, правый локоть - голубой цвет и т.д." Then enter information "head - red, left shoulder - orange right shoulder - yellow, left elbow - green, right elbow - blue color, etc." в компьютер 5. the computer 5.

Обозначают выделенные области тела спортсмена 8 цветными метками 10, выбранных для них цветов, для чего используют элементы одежды и нашивки (наклейки) на костюме спортсмена 8. Для обозначения верхней части головы спортсмена 8 используют шапочку, для обозначения кистей рук - перчатки, ступней ног - спортивные тапочки, локтевых, плечевых и тазобедренных суставов - нашивки или наклейки соответствующих цветов в соответствующих зонах костюма спортсмена 8. Цвет фона, т.е. Indicate the selected area of ​​the body athlete 8 color labels 10, chosen for their flowers, which are used items of clothing and badges (stickers) to suit athlete 8. To indicate the top of the head 8 an athlete used a hat to indicate the hands - gloves for feet - sports sneakers, elbow, shoulder and hip joints - or stripes stickers corresponding colors in the respective zones sportsman suit 8. The background color, ie, цвет стен помещения и находящихся в помещении предметов, цвет костюма спортсмена 8 выбирается не совпадающим с цветами цветных меток 10. the color of the room's walls and objects in the room, the color of the costume sportsman 8 chosen not match the color of the colored marks 10.

При осуществлении способа пространство вероятного расположения спортсмена 8 сканируют цветными передающими камерами 1a, 1b, 1c. In the method of space the probable location of the athlete 8 scan transmitting colored chambers 1a, 1b, 1c. В процессе ввода информации спортсмен 8 свободно перемещается в зоне действия цветных передающих камер 1a, 1b, 1c. In the process of entering information athlete 8 moves freely in the zone of transmitting color cameras 1a, 1b, 1c.

В процессе сканирования пространства вероятного расположения спортсмена 8 на приемниках цветных передающих камер 1a, 1b, 1c получают плоские проекции сканируемого пространства с проекциями на них цветных меток 10 в виде крупных цветовых пятен. During scanning, the probable location of the space 8 on the athlete receivers transmit color cameras 1a, 1b, 1c receive flat projection space scanned with projections on their color marks 10 in the form of large patches of color.

Видеосигнал с цветной передающей камеры 1a передается на вход схемы обработки цветного сигнала 2a, т.е. Transmitting the video signal from the color camera 1a is transmitted to the input color signal processing circuit 2a, i.e. на входы компараторов 11 a1 -11 a15 , видеосигнал с цветной передающей камеры 1b передается на вход схемы обработки цветного сигнала 2b, т.е. the inputs of the comparators 11 a1 -11 a15, transmitting the video signal from the color camera 1b is transmitted to the processing circuit 2b input color signal, i.e., на входы компараторов 11 b1 -11 b15 , а видеосигнал с цветной передающей камеры 1 c передается на вход схемы обработки цветного сигнала 2c, т.е. the inputs of the comparators 11 b1 -11 b15, and transmitting the video signal from the color camera 1 c is transmitted to the input color signal processing circuit 2c, i.e., входы компараторов 11 c1 -11 c15 . input comparators 11 c1 -11 c15.

Каждый из компараторов 11 an. Each of the comparators 11 an. 11 bn. 11 bn. в цепях цветных передающих камер 1a, 1b, 1c настроен на срабатывание при одном определенном соотношении R, G и B цветов, т. е. на пропускание сигналов цветности элементов разложения отображающих n-ую цветную метку 10. Отношение R : G : B для срабатывающих компараторов 11 an. transmitting circuits in color cameras 1a, 1b, 1c is set to relieve at a certain ratio of R, G and B colors, ie transmissive elements chroma signals expansion displaying n-th color marker 10. The ratio R:.. G: B for triggered comparators 11 an. 11 bn. 11 bn. 11 cn. 11 cn. должно укладываться в пределы (r should fall within the limits (r + + n n Δ 1 ):(g Δ 1) :( g + + n n Δ 2 ):(b Δ 2) :( b + + n n Δ 3 ). Δ 3).
При несовпадении сигналов цветности элементов разложения с настройкой одного из компараторов 11 a1 -11 a15 , 11 b1 -11 b15 , 11 c1 -11 c15 (случай, когда элементы разложения кадра отображают фон, цвет которого не совпадает с цветом ни одной из цветных меток 10) на входах схем фиксации момента обнаружения 12a, 12b и 12c цветных меток 10 нет сигналов. When mismatch elements chrominance signal degradation with the setting of one of comparators 11 a1 -11 a15, 11 b1 -11 b15, 11 c1 -11 c15 (the case where the frame elements decomposition display background color that does not match the color of any color marks 10 ) at the inputs of latch circuits detection points 12a, 12b and 12c have color marks 10 signals.

При совпадении сигналов цветности элементов разложения с настройкой n-х компараторов 11 an. When the coincidence elements chrominance signals decomposition setting n-x comparators 11 an. 11 bn. 11 bn. 11 cn. 11 cn. (случай, когда элементы разложения отображают n-ю цветную метку 10) сигналы проходят на входы схем фиксации момента обнаружения 12a, 12b и 12c цветных меток 10. (The case where the expansion elements represent n-th color label 10) signals pass to the inputs of circuits 12a fixation points detection, 12b and 12c color marks 10.

Схемы фиксации момента обнаружения 12a, 12b и 12c цветных меток 10 фиксируют номер (n) компараторов 11 an. Fixing the time detection circuit 12a, 12b and 12c color marks 10 are fixed number (n) of comparators 11 an. 11 bn. 11 bn. 11 cn. 11 cn. , с которых пришел сигнал и время t прихода сигнала относительно строчного и кадрового синхроимпульсов и по времени t и номеру n вырабатывают сигналы, несущие информацию о плоских координатах, на приемниках цветных передающих камер 1a, 1b, 1c, например, i-го элемента разложения кадра (X ain , Y ain , X bin , Y bin , X cin , Y cin ), отображающего элемент проекции конкретной n-ой цветной метки 10. Сигналы со схем фиксации момента обнаружения 12a, 12b и 12c передаются на первый, второй и третий входы вычислителя пространственных координат 3. From which come the signal and the time of arrival t relative to the horizontal and vertical sync pulses and the time t and the number n generate signals carrying information on the plane coordinates in receivers colored transmit cameras 1a, 1b, 1c, for example, i-th element of the frame decomposition (X ain, Y ain, X bin, Y bin, X cin, Y cin), a display element projections specific n-th color marks 10. signals from the fixing moment detection circuits 12a, 12b and 12c are transmitted to the first, second and third inputs calculating the spatial coordinates 3.

Вычислитель пространственных координат 3 по координатам первого (X lan , Y lan ) и последнего (X Kan , Y Man ) элементов разложения кадра, относящихся к проекциями n-ой из цветных меток 10 (фиг.4а) на приемнике передающей камеры 1a определяет плоские координаты центра (X Oan , Y Oan ) для каждой из цветных меток 10 по следующему алгоритму The calculator 3 to the spatial coordinates of the first coordinates (X lan, Y lan) and last (X Kan, Y Man) frame expansion elements related to the projections of the n-th color marks 10 (Figure 4a) on the transmission chamber 1a receiver determines plane coordinates center (X Oan, Y Oan) for each of the color marks 10 by the following algorithm
X Oan = (X lan + X Kan )/2, (1) X Oan = (X lan + X Kan) / 2 (1)
Y Oan = (Y lan + Y Man )/2, (2) Y Oan = (Y lan + Y Man) / 2 (2)
Аналогичным образом определяются плоские координаты центров для каждой из цветных меток 10 (X Obn , Y Obn , X Ocn , Y Ocn ) на приемниках передающих камер 1b и 1c (фиг.4б и фиг.4в). Similarly determined grid coordinates points for each of the color marks 10 (X Obn, Y Obn, X Ocn, Y Ocn) at the receivers transmit 1b and 1c chambers (4b and 4c).

По плоским координатам центров цветных меток 10 от нескольких цветных передающих камер 1a, 1b, 1c (X Oan , Y Oan , X Obn , Y Obn , X Ocn , Y Ocn ) вычислитель пространственных координат 3 формирует пространственные координаты центра каждой из цветных меток 10 (X On , Y On , Z On ). According flat coordinates of the centers of colored labels 10 from several colored transmit cameras 1a, 1b, 1c (X Oan , Y Oan, X Obn, Y Obn, X Ocn, Y Ocn) calculator spatial coordinates 3 generates spatial coordinates of the center of each of the color marks 10 ( X On, Y On, Z On ).

Для случая изображенного на фиг.3 и 4, когда строительные оси передающих камер 1a и 1b параллельны оси OX, а строительная ось передающей камеры 1c параллельна оси OZ: X On = Y Ocn , Y On = X Oan = -X Obn , Z On = Y Oan = Y Obn . For the case shown in Figures 3 and 4, when the transmission axle construction chambers 1a and 1b are parallel to the axis OX, and the construction of the transmitting chamber 1c axis parallel to axis OZ: X On = Y Ocn, Y On = X Oan = -X Obn, Z On = Y Oan = Y Obn.

Сформированные пространственные координаты центра каждой из цветных меток 10 (X On , Y On , Z On ) с вычислителя пространственных координат 3 через интерфейс 4 передаются в компьютер 5. Formed spatial coordinates of the center of each of the color marks 10 (X On, Y On, Z On) with the spatial coordinates calculator 3 through the interface 4 is transmitted to the computer 5.

Сопоставляя ранее введенную информацию "выбранная область управляющего объекта - выбранный для нее цвет" и полученные пространственные координаты центра каждой из цветных меток 9, компьютер 5 формирует пространственные координаты каждой из выделенных частей тела спортсмена 8. Comparing the previously entered information "selected area of ​​the object manager - selected for its color" and the obtained spatial coordinates of the center of each of the color marks 9, the computer 5 generates the spatial coordinates of each of the selected parts of the athlete's body 8.

По полученным пространственным координатам центра каждой из выделенных частей тела спортсмена 8 на проекционном экране 7 программируемым образом формируется изображение управляемой виртуальной фигуры 13 спортсмена 8, перемещающейся синхронно с перемещением спортсмена 8. Программируемым образом сформированная управляемая виртуальная фигура 13 спортсмена 8 может взаимодействовать со средой, сформированной также программно на проекционном экране 7, например, с виртуальной фигурой противника 14. The obtained spatial coordinates of the center of each of the selected parts of the athlete's body 8 on the projection screen 7 is formed in a programmed manner controllable virtual image 13 of figure 8 athlete moving synchronously with the movement of the athlete 8. Programmable controlled manner formed virtual figure 13 8 athlete may interact with the medium, also formed software on the projection screen 7, for example, with a virtual enemy piece 14.

Таким образом, из вышесказанного следует, что данное изобретение позволит ввести в компьютер информацию о пространственных координатах частей управляющего объекта отдельно друг от друга, что значительно расширяет возможности оператора, например, в интерактивных компьютерных играх. Thus, from the above that the present invention allows a computer to enter information about the spatial coordinates of the object are often run separately from each other, which significantly expands the capabilities of the operator, for example, interactive video games.

Применение изобретения. The use of the invention.

Следует иметь в виду, что вариант реализации изобретения, описанный выше и представленный на чертежах, не является единственным. It will be appreciated that the embodiment of the invention described above and shown in the drawings, is not unique. Могут быть использованы и другие вариации выполнения изобретения в отношении исполнения способа ввода информации в компьютер. It can be used, and other variations of the invention in respect of the process information input to the computer.

Источники информации Information sources
1. Патент США N 5086404, МКИ G 06 G 7/48, НКИ 364/559, публ. 1. US patent N 5086404, IPC G 06 G 7/48, NKI 364/559, publ. 04.02.1992. 04.02.1992.

2. Патент США N 4375674, МКИ A 61 B 5/05, НКИ 364/559, публ. 2. U.S. Patent N 4375674, IPC A 61 B 5/05, NKI 364/559, publ. 01.03.1983. 01.03.1983.

Claims (3)

1. Способ ввода информации в компьютер, в котором осуществляют сканирование пространства вероятного расположения управляющего объекта передающими камерами, строительные оси которых параллельны осям ортогональной системы координат, причем строительные оси по крайней мере двух передающих камер перпендикулярны друг другу, получают действительные оптические изображения сканируемого пространства, изменяют пространственные координаты управляющего объекта, по проекциям управляющего объекта на действительных оптических изображениях оп 1. A method of entering information into a computer, wherein the control object is scanned the likely location of the space transmitting chambers construction axes are parallel to the axes of an orthogonal coordinate system, the axis of construction of at least two transmission chambers are perpendicular to each other, receive the real optical image of the scanned area, change spatial coordinates of the control object, the control object from projections on the virtual optical images op ределяют значения его пространственных координат, вводят значения пространственных координат управляющего объекта в качестве информации в компьютер, отличающийся тем, что в процессе осуществления способа выделяют области управляющего объекта, соответствующие опорным точкам его графического изображения, присваивают каждой из выделенных областей управляющего объекта отдельный выбранный для нее цвет, не совпадающий с цветами, выбранными для других выделенных областей управляющего объекта, и цветами фона, вводят информацию "выделенна dictated by the value of its spatial coordinate input value management object space coordinates as the information to a computer, characterized in that in the course of the process is isolated area management object corresponding to the reference points of the graphical image is assigned to each of the selected areas of the control object single color selected for it which does not coincide with the color chosen for the other selections of the control object and the background color, enter the information "isolated область управляющего объекта - выбранный для нее цвет" в компьютер, обозначают выделенные области управляющего объекта метками выбранных для них цветов, при сканировании пространства вероятного расположения управляющего объекта передающими камерами используют цветные передающие камеры, действительные оптические изображения сканируемого пространства получают с проекциями на них цветных меток, определяют плоские координаты на приемниках цветных передающих камер для каждой из цветных меток и вводят их в компьютер, формируют по плоск region management object - selected for its color "in a computer, indicate selections control entity labels selected for their color, with a control object scanning probable location of the space transmitting cameras use color transmission chamber real optical image of the scanned space is obtained with the projections on these color marks, determining planar coordinates on color receivers transmit chambers for each of the color marks and enter them into a computer, is formed on a flat им координатам цветных меток от нескольких цветных передающих камер пространственные координаты каждой из цветных меток, определяют по информации "выбранная область управляющего объекта - выбранный для нее цвет" и по пространственным координатам каждой из цветных меток пространственные координаты выделенных областей управляющего объекта. they coordinates of color marks on several color cameras transmit spatial coordinates of each of the color marks is determined according to the "selected area of ​​the object manager - selected for its color" and the spatial coordinates of each of the color marks spatial coordinates of the selected areas of the control object.
2. Способ по п.1, отличающийся тем, что в качестве управляющего объекта используют тело оператора, причем в качестве выделенных областей используют верхнюю часть головы, кисти рук и ступни ног, области локтевых, плечевых, коленных и тазобедренных суставов. 2. A method according to claim 1, characterized in that as a control object using the body of the operator, and as the selected areas using the upper part of the head, hands and feet, elbow area, shoulder, knee and hip joints.
3. Способ по п.1 или 2, отличающийся тем, что цветные метки выполняют из материалов, обладающих диффузным отражением. 3. A method according to claim 1 or 2, characterized in that the colored label made of a material having a diffuse reflection.
RU96119454A 1996-09-27 1996-09-27 Method for information input to computer RU2123718C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU96119454A RU2123718C1 (en) 1996-09-27 1996-09-27 Method for information input to computer

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
RU96119454A RU2123718C1 (en) 1996-09-27 1996-09-27 Method for information input to computer
PCT/RU1997/000295 WO1998013746A1 (en) 1996-09-27 1997-09-26 Method for feeding information into a computer
AU46402/97A AU4640297A (en) 1996-09-27 1997-09-26 Method for feeding information into a computer

Publications (2)

Publication Number Publication Date
RU96119454A RU96119454A (en) 1998-10-10
RU2123718C1 true RU2123718C1 (en) 1998-12-20

Family

ID=20186038

Family Applications (1)

Application Number Title Priority Date Filing Date
RU96119454A RU2123718C1 (en) 1996-09-27 1996-09-27 Method for information input to computer

Country Status (3)

Country Link
AU (1) AU4640297A (en)
RU (1) RU2123718C1 (en)
WO (1) WO1998013746A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001075569A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method
WO2001075578A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method
WO2009157792A1 (en) * 2008-06-24 2009-12-30 Rurin Oleg Stanislavovich Method for producing an effect on virtual objects
RU2451982C1 (en) * 2008-06-24 2012-05-27 Олег Станиславович Рурин Method for producing effect on virtual objects
RU2534941C2 (en) * 2009-01-30 2014-12-10 Майкрософт Корпорейшн Standard gestures

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19917660A1 (en) * 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Method and input means for controlling the position of a graphically displayed in a virtual reality object
AU2003241194A1 (en) * 2002-07-25 2004-02-16 Solutionix Corporation Apparatus and method for automatically arranging three dimensional scan data using optical marker
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8234578B2 (en) 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
US8432448B2 (en) 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8345920B2 (en) 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US8972902B2 (en) 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
WO2012172548A1 (en) * 2011-06-14 2012-12-20 Youval Nehmadi Method for translating a movement and an orientation of a predefined object into a computer generated data

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4375674A (en) * 1980-10-17 1983-03-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Kinesimetric method and apparatus
GB2157426B (en) * 1984-04-09 1988-02-10 Gec Avionics Angular position sensors
US4672562A (en) * 1984-12-11 1987-06-09 Honeywell Inc. Method and apparatus for determining location and orientation of objects
SU1355979A1 (en) * 1986-01-13 1987-11-30 Предприятие П/Я В-8719 Video signal digital former
US5086404A (en) * 1988-09-02 1992-02-04 Claussen Claus Frenz Device for simultaneous continuous and separate recording and measurement of head and body movements during standing, walking and stepping
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5297061A (en) * 1993-05-19 1994-03-22 University Of Maryland Three dimensional pointing device monitored by computer vision

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001075569A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method
WO2001075578A1 (en) * 2000-04-04 2001-10-11 Sviridenko Andrei Vladimirovic Remote control method
WO2009157792A1 (en) * 2008-06-24 2009-12-30 Rurin Oleg Stanislavovich Method for producing an effect on virtual objects
RU2451982C1 (en) * 2008-06-24 2012-05-27 Олег Станиславович Рурин Method for producing effect on virtual objects
RU2534941C2 (en) * 2009-01-30 2014-12-10 Майкрософт Корпорейшн Standard gestures

Also Published As

Publication number Publication date
AU4640297A (en) 1998-04-17
WO1998013746A1 (en) 1998-04-02

Similar Documents

Publication Publication Date Title
Braunstein Motion and texture as sources of slant information.
DE19581099B4 (en) Optical surface scanner and surveying method
US5009501A (en) A remotely controllable position indicator system
US5923417A (en) System for determining the spatial position of a target
JP3547459B2 (en) 3-dimensional image display system
US8194924B2 (en) Camera based sensing in handheld, mobile, gaming or other devices
JP3749369B2 (en) Hand pointing device
US5423554A (en) Virtual reality game method and apparatus
US4692878A (en) Three-dimensional spatial image system
Lee et al. Determination of 3D human body postures from a single view
US20050174579A1 (en) Method and device for determining the spatial co-ordinates of an object
US8107682B2 (en) Motion capture using primary and secondary markers
US5530652A (en) Automatic garment inspection and measurement system
US4672562A (en) Method and apparatus for determining location and orientation of objects
US7567833B2 (en) Enhanced illumination device and method
US5759044A (en) Methods and apparatus for generating and processing synthetic and absolute real time environments
ES2325374T3 (en) Increased reality system with identification of real marker object.
US6801801B1 (en) System and method for virtual representation of bones or a bone joint
Warren et al. Direction of self-motion is perceived from optical flow
US9305395B2 (en) Dental imaging apparatus
US5911126A (en) Method and arrangement for digitized three-dimensional sensing of the shape of bodies or body parts
US6618123B2 (en) Range-finder, three-dimensional measuring method and light source apparatus
EP0294101A2 (en) System for measuring the angular displacement of an object
US20030210812A1 (en) Apparatus and method for surgical navigation
US5774261A (en) Image display system