RU2361726C2 - System of controlling anthropomorphous robot and control method - Google Patents

System of controlling anthropomorphous robot and control method Download PDF

Info

Publication number
RU2361726C2
RU2361726C2 RU2007107468/02A RU2007107468A RU2361726C2 RU 2361726 C2 RU2361726 C2 RU 2361726C2 RU 2007107468/02 A RU2007107468/02 A RU 2007107468/02A RU 2007107468 A RU2007107468 A RU 2007107468A RU 2361726 C2 RU2361726 C2 RU 2361726C2
Authority
RU
Russia
Prior art keywords
robot
microcontroller
angles
neural network
manipulators
Prior art date
Application number
RU2007107468/02A
Other languages
Russian (ru)
Other versions
RU2007107468A (en
Inventor
Олег Владимирович Толстель (RU)
Олег Владимирович Толстель
Original Assignee
Общество С Ограниченной Ответственностью "Алгоритм-Робо"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество С Ограниченной Ответственностью "Алгоритм-Робо" filed Critical Общество С Ограниченной Ответственностью "Алгоритм-Робо"
Priority to RU2007107468/02A priority Critical patent/RU2361726C2/en
Publication of RU2007107468A publication Critical patent/RU2007107468A/en
Application granted granted Critical
Publication of RU2361726C2 publication Critical patent/RU2361726C2/en

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

FIELD: electricity.
SUBSTANCE: said control system contains a computer, put in a robot body fitted with trained neural networks, computer vision system, consisting of a television camera installed on the head of the robot, and a video signal processing unit. Tactile sensors are located on the surface of the robot hands and are connected to inputs of a microcontroller. A beacon light is put onto the index finger of the robot hand. The control method involves training three neural networks on carrying out tasks, related to seising and holding different objects, formation of final display access of relative position of the robot and the object and selection of their corresponding values of angles of deflection of the body, manipulators and robot hands, as well as degree of bending of the fingers and degree of curvature of palms. The computer then assigns the task, for example "grab" an object. The first neural network sends signals to the microcontroller with values of angles of deflection of the body and manipulators of the robot to as to touch the object. The second neural network adjusts these angles. The third neural network provides the microcontroller with values of angles of deflection of the robot hands, degree of bending of the fingers and degree of curvature of the palms.
EFFECT: more functional capabilities of the robot.
4 cl, 10 dwg

Description

Изобретение относится к области робототехники и может быть использовано для управления антропоморфным мобильным роботом (робот-игрушка, домашний робот-уборщик, охранник и пр).The invention relates to the field of robotics and can be used to control an anthropomorphic mobile robot (robot toy, home robot cleaner, security guard, etc.).

Известна обучающе-игровая система с компьютерным управлением, предназначенная для управления подвижным устройством, например игрушкой (машинкой) [Патент РФ №2241255, МПК G06F 17/60]. Система содержит персональный компьютер с набором программ, соединенный с базовым модулем приемопередатчика с антенной, дистанционный пульт для управления системой с использованием цифрового и/или аналогового радиоканалов и/или инфракрасного канала, модуль обеспечения обмена информацией, соединенный с центральным модулем управления, установленные на подвижном объекте. Центральный модуль управления выполнен с функцией ретрансляции поступающих с персонального компьютера команд и с функцией ретрансляции на персональный компьютер данных с датчиков окружающей среды. Модуль обеспечения обмена информацией предназначен для трансляции информации на центральный модуль управления.Known learning-game system with computer control, designed to control a mobile device, such as a toy (machine) [RF Patent No. 2241255, IPC G06F 17/60]. The system contains a personal computer with a set of programs connected to the base transceiver module with an antenna, a remote control for controlling the system using digital and / or analog radio channels and / or infrared channels, an information exchange support module connected to a central control module installed on a moving object . The central control module is configured to relay the commands received from the personal computer and to relay data from environmental sensors to the personal computer. The information exchange support module is designed to transmit information to the central control module.

Однако данная система управления предназначена для выполнения одной задачи - перемещение объекта по опорной поверхности. Система предусматривает многоступенчатое управление с трансляцией и ретрансляцией сигналов и требует непрерывного обязательного управления человеком, т.е. все командные сигналы дает он.However, this control system is designed to perform one task - moving an object along a supporting surface. The system provides for multi-stage control with broadcasting and relaying of signals and requires continuous mandatory human control, i.e. he gives all command signals.

Известна система управления (СУ) антропоморфным роботом, состоящим из корпуса с манипуляторами и кистевыми схватами и приводов, принятая за прототип [Авторское свидетельство СССР №1646850, МПК B25J 9/10]. Выходы системы управления соединены с приводами манипулятора и кистевыми схватами.Known control system (SU) by an anthropomorphic robot, consisting of a body with manipulators and hand grips and drives, adopted as a prototype [USSR Author's Certificate No. 1646850, IPC B25J 9/10]. The outputs of the control system are connected to the manipulator drives and hand grips.

Однако известная система управления предназначена только для захвата предметов определенной формы и веса, а также не позволяет обеспечить точное позиционирование кисти робота относительно предмета.However, the known control system is intended only to capture objects of a certain shape and weight, and also does not allow for accurate positioning of the robot brush relative to the object.

Известен способ управления антропоморфным роботом, принятый за прототип [Авторское свидетельство СССР №1646850, МПК B25J 9/10]. Способ осуществляется с помощью системы управления, формирующей команды управления, которые подаются на приводы манипуляторов и кистей робота.A known method of controlling an anthropomorphic robot, adopted as a prototype [USSR Author's Certificate No. 1646850, IPC B25J 9/10]. The method is carried out using a control system that generates control commands that are supplied to the drives of the manipulators and brushes of the robot.

Однако известный способ управления предусматривает установку в системе управления «жесткой» программы, рассчитанной на захват конкретного предмета, или непосредственное управление оператором с помощью многостепенных рукояток.However, the known control method involves the installation in the control system of a "hard" program designed to capture a specific subject, or direct control by the operator using multi-stage handles.

Таким образом, известные система управления и способ управления антропоморфным роботом позволяют выполнять достаточно узкий класс задач - захват предмета определенной формы и веса, а также требуют непосредственного участия человека.Thus, the well-known control system and method for controlling an anthropomorphic robot allow performing a rather narrow class of tasks - capturing an object of a certain shape and weight, and also require the direct participation of a person.

При создании изобретения решалась задача расширения функциональных возможностей робота за счет обеспечения точного позиционирования тела робота и его манипуляторов относительно объекта, имеющего любую форму и вес, и улучшения обеспечения захвата и удержания объекта. Одновременно решалась задача минимизации участия человека в управлении антропоморфным роботом.When creating the invention, the problem was solved of expanding the functionality of the robot by providing accurate positioning of the body of the robot and its manipulators relative to an object having any shape and weight, and improving the capture and retention of the object. At the same time, the task of minimizing human participation in controlling an anthropomorphic robot was solved.

Поставленная задача решена за счет того, что известная система управления антропоморфным роботом, состоящим из корпуса с манипуляторами и кистями и приводов, согласно изобретению снабжена системой технического зрения, включающей не менее одной телекамеры и блок обработки видеосигналов, микроконтроллером, выходы которого соединены с приводами робота, дистанционным пультом управления, тактильными датчиками, световым маячком и компьютером с установленными на нем тремя предварительно обученными нейронными сетями, при этом тактильные датчики установлены на внутренних поверхностях ладоней и пальцев кистей робота и соединены со входами микроконтроллера, а световой маячок размещен на указательном пальце одной из кистей.The problem is solved due to the fact that the known control system of an anthropomorphic robot, consisting of a body with manipulators and brushes and drives, according to the invention is equipped with a technical vision system including at least one camera and a video processing unit, a microcontroller, the outputs of which are connected to the robot drives, remote control panel, tactile sensors, a light beacon and a computer with three pre-trained neural networks installed on it, while tactile yes the sensors are mounted on the inner surfaces of the palms and fingers of the hands of the robot and connected to the inputs of the microcontroller, and the light beacon is placed on the index finger of one of the hands.

Также поставленная задача решена за счет того, что в известном способе управления антропоморфным роботом, состоящим из корпуса с манипуляторами и кистями и приводов, согласно изобретению, используют заявляемую систему управления антропоморфным роботом, определяют положение робота, осуществляют подачу управляющих сигналов на микроконтроллер и включают приводы робота после получения сигналов с микроконтроллера, осуществляют предварительное обучение нейронных сетей на выполнение задач, связанных с захватом и удержанием роботом объектов различной формы и веса, и формируют конечную выборку изображений взаимного расположения робота и объекта и соответствующих им значений углов поворота корпуса, манипуляторов и кистей робота, а также степеней сгибания пальцев и степеней искривления ладоней, причем в качестве входных обучающих сигналов для первой нейронной сети используют полученные от системы технического зрения изображения расположения объекта, находящегося в зоне захвата, относительно корпуса и манипуляторов робота, а в качестве выходных сигналов используют угол α поворота корпуса относительно горизонтальной оси симметрии робота, угол β наклона корпуса по отношению к вертикальной оси, угол γ между плечевой частью манипулятора и корпусом и угол δ между плечевой и локтевой частями манипуляторов, в качестве входных обучающих сигналов для второй нейронной сети используют полученные от системы технического зрения изображения расположения объекта относительно светового маячка, а в качестве выходных сигналов используют корректирующие добавки α1, β1, γ1, δ1 к углам α, β, γ, δ, в качестве входных обучающих сигналов для третьей нейронной сети используют полученные от системы технического зрения изображения формы объекта, а в качестве выходных сигналов используют угол ε поворота плоскости кистей, степени сгибания пальцев и степени искривления плоскости ладоней кистей, затем после постановки задачи последовательно первой нейронной сетью выдают микроконтроллеру значения углов α, β, γ, δ, необходимых для достижения касания объекта кистями робота, второй нейронной сетью выдают микроконтроллеру корректирующие добавки α1, β1, γ1, δ1 к значениям углов α, β, γ, δ, пока на микроконтроллер не поступит сигнал хотя бы с одного тактильного датчика, при поступлении на микроконтроллер сигналов более чем 70% тактильных датчиков третьей нейронной сетью выдают микроконтроллеру значения угла ε, степени сгибания пальцев и степени искривления плоскости ладоней кистейThe problem is also solved due to the fact that in the known method of controlling an anthropomorphic robot, consisting of a body with manipulators and brushes and drives, according to the invention, the inventive control system of the anthropomorphic robot is used, the position of the robot is determined, the control signals are fed to the microcontroller and the robot drives are turned on after receiving signals from the microcontroller, carry out preliminary training of neural networks to perform tasks related to the capture and retention of objects by the robot s of various shapes and weights, and form a final sample of images of the relative position of the robot and the object and the corresponding values of the rotation angles of the body, manipulators and hands of the robot, as well as degrees of flexion of the fingers and degrees of curvature of the palms, and use training signals for the first neural network as input images of the location of an object located in the capture zone relative to the robot body and manipulators obtained from the vision system, and use the angle as output signals α rotation of the body relative to the horizontal axis of symmetry of the robot, angle β of inclination of the body with respect to the vertical axis, angle γ between the shoulder of the manipulator and the body, and the angle δ between the shoulder and ulnar parts of the manipulators, received from the system as input training signals for the second neural network technical view of the image of the location of the object relative to the light beacon, and the correcting additives α 1 , β 1 , γ 1 , δ 1 to the angles α, β, γ, δ are used as output signals; Signals for the third neural network use images of the shape of the object obtained from the technical vision system, and the angle of rotation of the plane of the hands, degree of bending of the fingers and degree of curvature of the plane of the palms of the hands are used as output signals, then after setting the task, the angles are given to the microcontroller with the first neural network α, β, γ, δ, which are necessary to achieve the touch of the object with the hands of the robot, the second neural network gives the microcontroller the corrective additives α 1 , β 1 , γ 1 , δ 1 to the value the angles α, β, γ, δ, until at least one tactile sensor receives a signal from the microcontroller, when more than 70% of the tactile sensors receive signals from the third neural network to the microcontroller, they give the microcontroller the values of the angle ε, the degree of finger flexion and the degree of curvature of the plane palm of hands

Использование предложенных системы управления и способа управления позволяет значительно расширить круг задач, выполняемых роботом, т.е выполнять функции, близкие к тем, которые выполняет человек, без непосредственного участия человека.Using the proposed control system and control method can significantly expand the range of tasks performed by the robot, that is, perform functions close to those performed by a person, without the direct participation of a person.

Изобретение иллюстрируется чертежами, где на фиг.1 показано исходное положение робота (вид сбоку); на фиг.2 - положение робота при наклоне корпуса (вид сбоку); на фиг.3 - положение плечевой части манипулятора относительно корпуса робота; на фиг.4 - взаимное расположение плечевой и локтевой частей манипулятора; на фиг.5 - исходное положение робота (вид сверху); на фиг.6 - положение корпуса робота при его повороте; на фиг.7 - вид А-А (кисть в исходном состоянии); на фиг.8 - схема тактильного датчика; на фиг.9 - вид на внутреннюю сторону кисти; на фиг.10 - общая схема системы управления.The invention is illustrated by drawings, where in Fig.1 shows the initial position of the robot (side view); figure 2 - position of the robot when tilting the body (side view); figure 3 - the position of the shoulder of the manipulator relative to the body of the robot; figure 4 - the relative position of the shoulder and ulnar parts of the manipulator; figure 5 - the initial position of the robot (top view); figure 6 - position of the body of the robot when it is rotated; Fig.7 is a view aa (brush in its original state); on Fig is a diagram of a tactile sensor; figure 9 is a view of the inner side of the brush; figure 10 is a General diagram of a control system.

Система управления (СУ) антропоморфным роботом, состоящим из шасси 1, головы 2 и корпуса 3 с манипуляторами 4 и кистями 5, содержит систему технического зрения (СТЗ) 6, компьютер 7, размещенный внутри корпуса 3 робота, микроконтроллер 8, соединенный с компьютером 7, приводы 9 робота, соединенные с микроконтроллером 8 (фиг.1, 10).The control system (SU) of an anthropomorphic robot, consisting of a chassis 1, a head 2 and a body 3 with manipulators 4 and brushes 5, contains a vision system (STZ) 6, a computer 7, located inside the robot body 3, a microcontroller 8 connected to the computer 7 , drives 9 of the robot connected to the microcontroller 8 (Fig.1, 10).

СТЗ 6 содержит две телекамеры 10, установленные на голове 2 робота, и блок обработки сигналов 11. На конце указательного пальца кисти 5 установлен световой маячок 12, например красный светодиод, который однозначно распознается СТЗ 6 (фиг.5). Выходы СТЗ 6 связаны с тремя обученными нейронными сетями (НС) 13,14,15, установленными на компьютере 7.STZ 6 contains two television cameras 10 mounted on the head 2 of the robot, and a signal processing unit 11. At the end of the index finger of the brush 5 there is a light beacon 12, for example, a red LED that is unambiguously recognized by STZ 6 (Fig. 5). The outputs of STZ 6 are connected to three trained neural networks (NS) 13,14,15 installed on computer 7.

На внутренних поверхностях и кончиках пальцев кистей 5 робота размещены тактильные датчики 16 (фиг.9). Каждый датчик 16 состоит из разделенных калибровочной пружиной 17 наружного 18 и внутреннего 19 чувствительных элементов (фиг.8). Жесткость пружины 17 подбирают с учетом оптимальной степени сжатия для набора объектов различной формы и веса, которыми манипулирует робот.On the inner surfaces and fingertips of the brushes 5 of the robot placed tactile sensors 16 (Fig.9). Each sensor 16 consists of external sensors 18 and internal sensors 19 separated by a calibration spring 17 (Fig. 8). The stiffness of the spring 17 is selected taking into account the optimal compression ratio for a set of objects of various shapes and weights, which are manipulated by the robot.

Ввод команд роботу осуществляют с дистанционного пульта управления 20 либо через расположенный на теле робота микрофон 21, выход которого соединен с компьютером 7. На фиг.2-6 рядом с роботом показан объект 22, например мячик.The commands are entered to the robot from the remote control 20 or through the microphone 21 located on the body of the robot, the output of which is connected to the computer 7. In Fig.2-6, an object 22, for example, a ball, is shown next to the robot.

Система управления работает следующим образом.The control system operates as follows.

Предварительно оператором (человеком) на основе собственного опыта и наблюдаемого результата действий манипуляторов робота производится обучение нейронных сетей (НС) 13, 14, 15 на «касание» и «охват» различных объектов. Все НС 13, 14, 15 обучаются одинаковым образом на основе конечной выборки входных сигналов в виде изображений взаимного расположения робота и объекта, полученных от СТЗ 6, каждому из которых соответственно подбираются необходимые значения углов поворота корпуса 3 и манипуляторов 4 робота, а также степени сгибания пальцев и степени искривления ладони кистей 5, зависящих от формы и веса объекта.Preliminarily, the operator (person), on the basis of his own experience and the observed result of the actions of the robot manipulators, trains the neural networks (NS) 13, 14, 15 on the “touch” and “coverage” of various objects. All NS 13, 14, 15 are trained in the same way on the basis of a finite sample of input signals in the form of images of the relative positions of the robot and the object obtained from STZ 6, each of which respectively selects the necessary values of the rotation angles of the body 3 and the manipulators 4 of the robot, as well as the degree of bending fingers and the degree of curvature of the palm of the hands 5, depending on the shape and weight of the object.

Первую нейронную сеть 13 обучают на выполнение задачи «касание» кисти 5 робота объекта 22, причем под «касанием» понимают момент, когда сработает чувствительный элемент 18 хотя бы одного тактильного датчика 16. Для НС 13 входными обучающими сигналами будут полученные от СТЗ изображения расположения объекта 22 относительно шасси 1, корпуса 3 и манипуляторов 4 робота в момент, когда робот приблизился к объекту 22 настолько, что объект оказался в зоне захвата. Выходными (возвращаемыми) параметрами будут угол α - поворот корпуса 3 от горизонтальной оси симметрии робота, угол β - наклон корпуса 3 по отношению к вертикали, угол γ - между плечевой частью манипулятора 4 и корпусом 3, угол δ - между плечевой и локтевой частями манипулятора 4.The first neural network 13 is trained to perform the task of “touching” the brush 5 of the robot of the object 22, and “touching” means the moment when the sensing element 18 of at least one tactile sensor 16 is triggered. For the NS 13, the input training signals will be images of the location of the object received from the STZ 22 relative to the chassis 1, body 3 and the robots 4 of the robot at the moment when the robot approached the object 22 so that the object was in the capture zone. The output (returned) parameters will be the angle α - rotation of the body 3 from the horizontal axis of symmetry of the robot, angle β - the inclination of the body 3 with respect to the vertical, the angle γ - between the shoulder of the manipulator 4 and the body 3, the angle δ - between the shoulder and elbow of the manipulator four.

Вторая нейронная сеть 14 предназначена для корректировки взаиморасположения манипулятора 4 и объекта 22 с целью более точного позиционирования кисти 5 на случай, если по результатам применения НС 13 «касание» объекта не было достигнуто. Для НС 14 входными обучающими сигналами будут полученные от СТЗ 6 изображения расположения объекта 22 относительно маячка 12. Выходными (возвращаемыми) параметрами будут корректирующие добавки α1, β1, γ1, δ1 к углам α, β, γ, δ.The second neural network 14 is designed to adjust the relative position of the manipulator 4 and the object 22 in order to more accurately position the hand 5 in case if the “touch” of the object was not achieved by the application of NS 13. For NS 14, the input training signals will be the images of the location of object 22 relative to the beacon 12 received from STZ 6. The output (returned) parameters will be the corrective additions α 1 , β 1 , γ 1 , δ 1 to the angles α, β, γ, δ.

Третью нейронную сеть 15 обучают на выполнение задачи «охват » кистью 5 робота объекта 22, причем под «охватом» понимают момент, когда срабатывают чувствительные элементы 18 более чем 70% тактильных датчиков 16. Для НС 15 входными обучающими сигналами будут полученные от СТЗ изображения формы объекта. Выходными (возвращаемыми) параметрами будут угол ε - поворот плоскости кисти 5, степени сгибания пальцев и искривления плоскости ладони кисти 5.The third neural network 15 is trained to perform the task of “brushing” the robot 5 of the object 22 with a brush 5, and “catching” means the moment when the sensing elements 18 of more than 70% of tactile sensors 16 are triggered. For HC 15, the input training signals will be images of the form object. The output (returned) parameters will be the angle ε - the rotation of the plane of the brush 5, the degree of flexion of the fingers and the curvature of the plane of the palm of the brush 5.

После завершения обучения нейронных сетей 13, 14, 15 человек отстраняется от непрерывного управления и только ставит задачи. Например, голосом либо с пульта управления 20 человек ставит задачу «взять объект», например, мячик. Эта задача выполняется максимум в 7 этапов.After completing the training of neural networks 13, 14, 15 people are removed from continuous control and only poses tasks. For example, by voice or from the control panel, 20 people set the task of “taking an object”, for example, a ball. This task is performed in a maximum of 7 steps.

На 1-м этапе осуществляется подъезд робота к объекту 22, для чего с компьютера 7 через микроконтроллер 8 подается сигнал на включение приводов 9 шасси 1 робота. Когда робот подъезжает к объекту 22 на расстояние, достаточное для его захвата (зависит от размеров корпуса робота и длины его манипуляторов), на микроконтроллер 8 подается команда остановки. Это расстояние определяется экспериментально и заносится в память компьютера 7.At the 1st stage, the robot is approaching the object 22, for which a signal is sent from the computer 7 through the microcontroller 8 to turn on the drives 9 of the robot chassis 1. When the robot approaches the object 22 at a distance sufficient to capture it (depends on the size of the robot casing and the length of its manipulators), a stop command is sent to the microcontroller 8. This distance is determined experimentally and is recorded in the memory of computer 7.

Во время движения корпус 3 робота и его манипуляторы 4 находятся в исходном положении, т.е. угол α равен 0°, угол β равен 0°, угол γ равен 0°, угол δ равен 90°, угол ε равен 90°. Таким образом, корпус 3 находится в вертикальном положении и ориентирован по ходу движения робота, манипуляторы 4 опущены вниз и согнуты в локтях, плоскости кистей 5 расположены горизонтально (тыльной стороной вверх).During movement, the body 3 of the robot and its manipulators 4 are in the initial position, i.e. the angle α is 0 °, the angle β is 0 °, the angle γ is 0 °, the angle δ is 90 °, and the angle ε is 90 °. Thus, the housing 3 is in a vertical position and oriented along the movement of the robot, the manipulators 4 are lowered down and bent at the elbows, the planes of the brushes 5 are located horizontally (with the back side up).

2-й этап. После остановки робота СТЗ 6 передает информацию о взаимном расположении корпуса 3, манипуляторов 4 робота и объекта 22 на вход нейронной сети НС 13. Нейронная сеть 13 выдает микроконтроллеру 8 значения углов α, β, γ, δ, необходимых для достижения «касания» кисти 5 объекта 22, т.е поступления сигнала хотя бы с одного чувствительного элемента 18. Угол ε при этом не изменяется. Микроконтроллер 8 последовательно включает приводы 9 корпуса 3 и манипуляторов 4 на время, необходимое для достижения нужных углов.2nd stage. After the robot stops, STZ 6 transmits information about the relative position of the casing 3, the robotic arms 4 and the object 22 to the input of the neural network HC 13. The neural network 13 gives the microcontroller 8 the values of the angles α, β, γ, δ necessary to achieve a “touch” of the brush 5 object 22, that is, the signal from at least one sensing element 18. The angle ε does not change. The microcontroller 8 sequentially includes the drives 9 of the housing 3 and the manipulators 4 for the time necessary to achieve the desired angles.

3-й этап. В случае, если касание не произошло, для более точного позиционирования кисти 5 относительно объекта 22 выполняется дополнительный цикл управления с использованием корректирующей нейронной сети НС 14. Получив от СТЗ 6 информацию о текущем взаимном расположении объекта 22 и светового маячка 12, НС 14 выдает микроконтроллеру 8 значения необходимых корректирующих добавок α1, β1, γ1, δ1 к углам α, β, γ, δ, и микроконтроллер 8 включает приводы 9 манипулятора 4.3rd stage. If the touch did not happen, for a more accurate positioning of the brush 5 relative to the object 22, an additional control cycle is performed using the corrective neural network of the NS 14. Having received from the STZ 6 information about the current relative position of the object 22 and the beacon 12, the NS 14 gives the microcontroller 8 the values of the necessary corrective additives α 1 , β 1 , γ 1 , δ 1 to the angles α, β, γ, δ, and the microcontroller 8 includes actuators 9 of the manipulator 4.

4-й этап - «нащупывание» объекта. В случае, если по окончании 3-го этапа не произошло касания объекта, СУ проводит его поиск, меняя углы (α+α1), (β+β1), (γ+γ1), (δ+δ1) на небольшие значения (α2, β2, γ2, δ2 по алгоритму «случайного поиска» до достижения касания.4th stage - “feeling for” the object. If, at the end of the 3rd stage, the object did not touch, the control system searches for it, changing the angles (α + α 1 ), (β + β 1 ), (γ + γ 1 ), (δ + δ 1 ) by small values (α 2 , β 2 , γ 2 , δ 2 according to the "random search" algorithm until a touch is reached.

5-й этап - «охват» объекта 22, в ходе которого должно быть достигнуто «срабатывание» более чем 70% чувствительных элементов 18 тактильных датчиков 16. НС 15, получив от СТЗ 6 информацию о форме объекта 22, выдает микроконтроллеру 8 корректирующую добавку ε1 к углу ε, степени сгибания пальцев и искривления плоскости ладони, после чего микроконтроллер 8 включает приводы 9 кисти 5, поворачивающие ладонь, сгибающие пальцы и искривляющие плоскость ладони.5th stage - “coverage” of object 22, during which “response” of more than 70% of the sensing elements 18 of the tactile sensors 16 should be achieved. NS 15, having received information about the shape of object 22 from STZ 6, gives microcontroller 8 a correction additive ε 1 to the angle ε, the degree of flexion of the fingers and curvature of the palm plane, after which the microcontroller 8 includes actuators 9 of the brush 5, turning the palm, bending fingers and curving the plane of the palm.

6-й этап - «ощупывание» объекта. В случае, если по окончании 5-го этапа произошло срабатывание менее 70% чувствительных элементов 18 тактильных датчиков 16. СУ изменяет угол (ε+ε1) на небольшие значения ε2, степень сгибания пальцев и степень искривления ладони по алгоритму «случайного поиска» до достижения охвата объекта 22.6th stage - "feeling" the object. In the event that at the end of the 5th stage less than 70% of the sensing elements of 18 tactile sensors are triggered 16. SU changes the angle (ε + ε 1 ) by small values of ε 2 , the degree of finger flexion and the degree of palm curvature according to the “random search” algorithm until reaching facility 22.

7-й этап - «захват» объекта 22. После того, как более 70% чувствительных элементов 18 даст сигнал о «касании» объекта 22, компьютер 7 через микроконтроллер 8 дает команду приводам 9 кисти 5 на дальнейшее сгибание пальцев и искривление плоскости ладони. Сгибание пальцев и искривление плоскости ладони осуществляется до тех пор, пока не поступит сигнал от чувствительных элементов 19 тех датчиков 16, элементы 18 которых коснулись объекта 22. Чувствительные элементы 19 срабатывают в момент достижения пружины 17 заданной степени сжатия, что приводит к соприкосновению между собой чувствительных элементов 18 и 19. После этого объект 22 считается захваченным, и микроконтроллер 8 дает команду приводам 9 кисти 5 прекратить дальнейшее сгибание пальцев и искривление плоскости ладони.The 7th stage is the “capture” of the object 22. After more than 70% of the sensitive elements 18 give a signal about the “touch” of the object 22, the computer 7 through the microcontroller 8 gives the actuators 9 of the brush 5 to further bend the fingers and bend the palm plane. The bending of the fingers and the curvature of the palm plane is carried out until a signal is received from the sensitive elements 19 of those sensors 16, the elements 18 of which touched the object 22. The sensitive elements 19 are activated when the spring 17 reaches a predetermined compression ratio, which leads to contact between the sensitive elements 18 and 19. After that, the object 22 is considered captured, and the microcontroller 8 instructs the actuators 9 of the brush 5 to stop further bending of the fingers and curving the plane of the palm.

Claims (4)

1. Система управления антропоморфным роботом, состоящим из корпуса с манипуляторами и кистями и приводов, отличающаяся тем, что она снабжена системой технического зрения, включающей не менее одной телекамеры и блок обработки видеосигналов, микроконтроллером, выходы которого соединены с приводами робота, дистанционным пультом управления, тактильными датчиками, световым маячком и компьютером с установленными на нем тремя предварительно обученными нейронными сетями, при этом тактильные датчики установлены на внутренних поверхностях ладоней и пальцев кистей робота и соединены с входами микроконтроллера, а световой маячок размещен на указательном пальце одной из кистей.1. The control system of an anthropomorphic robot, consisting of a body with manipulators and brushes and drives, characterized in that it is equipped with a technical vision system, including at least one camera and a video processing unit, a microcontroller, the outputs of which are connected to the robot drives, a remote control unit, tactile sensors, a light beacon and a computer with three pre-trained neural networks installed on it, while tactile sensors are installed on the inner surfaces of the frets ones and fingers of the hands of the robot and are connected to the inputs of the microcontroller, and a light beacon is placed on the index finger of one of the hands. 2. Система по п.1, отличающаяся тем, что каждый тактильный датчик выполнен в виде двух чувствительных элементов, разделенных пружиной, причем жесткость пружины подобрана с учетом оптимальной степени сжатия для набора объектов, которыми манипулирует робот.2. The system according to claim 1, characterized in that each tactile sensor is made in the form of two sensitive elements separated by a spring, the spring stiffness being selected taking into account the optimal compression ratio for a set of objects that the robot manipulates. 3. Способ управления антропоморфным роботом, содержащим корпус с манипуляторами и кистями и приводы, отличающийся тем, что используют систему управления по п.1, определяют положение робота, осуществляют подачу управляющих сигналов на микроконтроллер и включают приводы робота после получения сигналов с микроконтроллера, осуществляют предварительное обучение нейронных сетей на выполнение задач, связанных с захватом и удержанием роботом объектов различной формы и веса и формируют конечную выборку изображений взаимного расположения робота и объекта и соответствующих им значений углов поворота корпуса, манипуляторов и кистей робота, а также степеней сгибания пальцев и степеней искривления ладоней, причем в качестве входных обучающих сигналов для первой нейронной сети используют полученные от системы технического зрения изображения расположения объекта, находящегося в зоне захвата, относительно корпуса и манипуляторов робота, а в качестве выходных сигналов используют угол α поворота корпуса относительно горизонтальной оси симметрии робота, угол β наклона корпуса по отношению к вертикальной оси, угол γ между плечевой частью манипулятора и корпусом и угол δ между плечевой и локтевой частями манипуляторов, в качестве входных обучающих сигналов для второй нейронной сети используют полученные от системы технического зрения изображения расположения объекта относительно светового маячка, а в качестве выходных сигналов используют корректирующие добавки α1, β1, γ1, δ1 к углам α, β, γ, δ, в качестве входных обучающих сигналов для третьей нейронной сети используют полученные от системы технического зрения изображения формы объекта, а в качестве выходных сигналов используют угол ε поворота плоскости кистей, степени сгибания пальцев и степени искривления плоскости ладоней кистей, затем после постановки задачи последовательно первой нейронной сетью выдают микроконтроллеру значения углов α, β, γ, δ, необходимых для достижения касания объекта кистями робота, второй нейронной сетью выдают микроконтроллеру корректирующие добавки α1, β1, γ1, β1 к значениям углов α, β, γ, δ, пока на микроконтроллер не поступит сигнал хотя бы с одного тактильного датчика, при поступлении на микроконтроллер сигналов более чем 70% тактильных датчиков третьей нейронной сетью выдают микроконтроллеру значения угла ε, степени сгибания пальцев и степени искривления плоскости ладоней кистей.3. The method of controlling an anthropomorphic robot containing a housing with manipulators and brushes and drives, characterized in that they use the control system according to claim 1, determine the position of the robot, supply control signals to the microcontroller and turn on the robot drives after receiving signals from the microcontroller, carry out a preliminary training neural networks to perform tasks related to the capture and retention by a robot of objects of various shapes and weights and form a final sample of images of the relative position of the robots of both the object and the corresponding values of the rotation angles of the body, manipulators and hands of the robot, as well as degrees of flexion of the fingers and degrees of curvature of the palms, and images of the location of the object located in the capture zone obtained from the technical vision system are used as input training signals for the first neural network , relative to the body and robot manipulators, and as the output signals use the angle α of rotation of the body relative to the horizontal axis of symmetry of the robot, the angle β of inclination of the body about with respect to the vertical axis, the angle γ between the shoulder part of the manipulator and the body and the angle δ between the shoulder and elbow parts of the manipulators, images of the object’s location relative to the light beacon obtained from the vision system are used as input training signals for the second neural network, and as output signals using corrective additives α 1 , β 1 , γ 1 , δ 1 to the angles α, β, γ, δ, as input training signals for the third neural network, use obtained from the technical vision system from reflection of the shape of the object, and as the output signals use the angle ε of rotation of the plane of the hands, the degree of flexion of the fingers and the degree of curvature of the plane of the palms of the hands, then after setting the task, the angles α, β, γ, δ necessary for achieving touch are given to the microcontroller in sequence with the first neural network object robot brushes a second neural network issue corrective additive microcontroller α 1, β 1, γ 1, β 1 to the values of angles α, β, γ, δ, until the microcontroller signal is received with at least one tactile dates Linda, when signals microcontroller more than 70% of tactile sensors give third neural network microcontroller angle value ε, the degree of flexion of the fingers and palms of the degree of curvature plane brushes. 4. Способ по п.3, отличающийся тем, что корректировку углов (α+α1), (β+β1), (γ+γ1), (δ+δ1), (ε+ε1) на малые значения α2, β2, γ2, δ2, ε2 осуществляют в соответствии с алгоритмом «случайного поиска». 4. The method according to claim 3, characterized in that the correction of the angles (α + α 1 ), (β + β 1 ), (γ + γ 1 ), (δ + δ 1 ), (ε + ε 1 ) by small the values of α 2 , β 2 , γ 2 , δ 2 , ε 2 are carried out in accordance with the random search algorithm.
RU2007107468/02A 2007-02-28 2007-02-28 System of controlling anthropomorphous robot and control method RU2361726C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2007107468/02A RU2361726C2 (en) 2007-02-28 2007-02-28 System of controlling anthropomorphous robot and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2007107468/02A RU2361726C2 (en) 2007-02-28 2007-02-28 System of controlling anthropomorphous robot and control method

Publications (2)

Publication Number Publication Date
RU2007107468A RU2007107468A (en) 2008-09-10
RU2361726C2 true RU2361726C2 (en) 2009-07-20

Family

ID=39866409

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2007107468/02A RU2361726C2 (en) 2007-02-28 2007-02-28 System of controlling anthropomorphous robot and control method

Country Status (1)

Country Link
RU (1) RU2361726C2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108885715A (en) * 2016-03-03 2018-11-23 谷歌有限责任公司 Depth machine learning method and device for robot crawl
CN108875504A (en) * 2017-11-10 2018-11-23 北京旷视科技有限公司 Image detecting method and image detection device neural network based
CN109074513A (en) * 2016-03-03 2018-12-21 谷歌有限责任公司 The depth machine learning method and device grasped for robot
RU2698364C1 (en) * 2018-03-20 2019-08-26 Акционерное общество "Волжский электромеханический завод" Exoskeleton control method
RU2718513C1 (en) * 2019-07-12 2020-04-08 федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) Small anthropomorphic robot educational and research complex
CN111085997A (en) * 2019-12-17 2020-05-01 清华大学深圳国际研究生院 Capturing training method and system based on point cloud acquisition and processing
WO2021133184A1 (en) * 2019-12-23 2021-07-01 Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Институт (Национальный Исследовательский Университет") Method for performing object manipulation
WO2021133183A1 (en) * 2019-12-23 2021-07-01 федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)" Method for controlling robotic manipulator
RU2763460C2 (en) * 2017-10-26 2021-12-29 Комау С.п.А. Automated device with movable structure, such as robot
RU2800443C1 (en) * 2019-12-23 2023-07-21 федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)" Method of object manipulation

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009018991A1 (en) * 2009-05-01 2010-11-04 Airbus Operations Gmbh Device for the spatial alignment of at least two subassembly components and method
CN107030704A (en) * 2017-06-14 2017-08-11 郝允志 Educational robot control design case based on neuroid

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108885715B (en) * 2016-03-03 2020-06-26 谷歌有限责任公司 Deep machine learning method and device for robot grabbing
CN109074513A (en) * 2016-03-03 2018-12-21 谷歌有限责任公司 The depth machine learning method and device grasped for robot
CN108885715A (en) * 2016-03-03 2018-11-23 谷歌有限责任公司 Depth machine learning method and device for robot crawl
US11548145B2 (en) 2016-03-03 2023-01-10 Google Llc Deep machine learning methods and apparatus for robotic grasping
US10946515B2 (en) 2016-03-03 2021-03-16 Google Llc Deep machine learning methods and apparatus for robotic grasping
US10639792B2 (en) 2016-03-03 2020-05-05 Google Llc Deep machine learning methods and apparatus for robotic grasping
CN109074513B (en) * 2016-03-03 2020-02-18 谷歌有限责任公司 Deep machine learning method and device for robot gripping
US11045949B2 (en) 2016-03-03 2021-06-29 Google Llc Deep machine learning methods and apparatus for robotic grasping
RU2763460C2 (en) * 2017-10-26 2021-12-29 Комау С.п.А. Automated device with movable structure, such as robot
CN108875504A (en) * 2017-11-10 2018-11-23 北京旷视科技有限公司 Image detecting method and image detection device neural network based
RU2698364C1 (en) * 2018-03-20 2019-08-26 Акционерное общество "Волжский электромеханический завод" Exoskeleton control method
RU2718513C1 (en) * 2019-07-12 2020-04-08 федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) Small anthropomorphic robot educational and research complex
CN111085997A (en) * 2019-12-17 2020-05-01 清华大学深圳国际研究生院 Capturing training method and system based on point cloud acquisition and processing
WO2021133184A1 (en) * 2019-12-23 2021-07-01 Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Институт (Национальный Исследовательский Университет") Method for performing object manipulation
WO2021133183A1 (en) * 2019-12-23 2021-07-01 федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)" Method for controlling robotic manipulator
RU2800443C1 (en) * 2019-12-23 2023-07-21 федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)" Method of object manipulation
RU2810399C2 (en) * 2021-11-05 2023-12-27 Юрий Хабижевич Хамуков Mobile robot assistant

Also Published As

Publication number Publication date
RU2007107468A (en) 2008-09-10

Similar Documents

Publication Publication Date Title
RU2361726C2 (en) System of controlling anthropomorphous robot and control method
Zeng et al. Simultaneously encoding movement and sEMG-based stiffness for robotic skill learning
CN106826838B (en) Interaction bionic mechanical arm control method based on Kinect visual depth sensor
Fang et al. A robotic hand-arm teleoperation system using human arm/hand with a novel data glove
WO2017033365A1 (en) Remote control robot system
JP5186723B2 (en) Communication robot system and communication robot gaze control method
Fritsche et al. First-person tele-operation of a humanoid robot
Laghi et al. Shared-autonomy control for intuitive bimanual tele-manipulation
CN109571513B (en) Immersive mobile grabbing service robot system
US20210394362A1 (en) Information processing device, control method, and program
CN102402290A (en) Method and system for identifying posture of body
CN103529944A (en) Human body movement identification method based on Kinect
Park et al. A tele-operation interface with a motion capture system and a haptic glove
CN108098780A (en) A kind of new robot apery kinematic system
CN105930775A (en) Face orientation identification method based on sensitivity parameter
Ahn et al. PDA-based mobile robot system with remote monitoring for home environment
Grewal et al. Autonomous wheelchair navigation in unmapped indoor environments
Luberto et al. Enhancing adaptive grasping through a simple sensor-based reflex mechanism
JP7272521B2 (en) ROBOT TEACHING DEVICE, ROBOT CONTROL SYSTEM, ROBOT TEACHING METHOD, AND ROBOT TEACHING PROGRAM
Rosado et al. Reproduction of human arm movements using Kinect-based motion capture data
US20180065246A1 (en) System for Cooperation Between a Human and a Robotic Device
JP6142307B2 (en) Attention target estimation system, robot and control program
Chen et al. Human-aided robotic grasping
CN111399660A (en) Gesture recognition equipment and method for sensor
Ma et al. A sign language interaction system based on pneumatic soft hand

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20100301