RU2361726C2 - System of controlling anthropomorphous robot and control method - Google Patents
System of controlling anthropomorphous robot and control method Download PDFInfo
- Publication number
- RU2361726C2 RU2361726C2 RU2007107468/02A RU2007107468A RU2361726C2 RU 2361726 C2 RU2361726 C2 RU 2361726C2 RU 2007107468/02 A RU2007107468/02 A RU 2007107468/02A RU 2007107468 A RU2007107468 A RU 2007107468A RU 2361726 C2 RU2361726 C2 RU 2361726C2
- Authority
- RU
- Russia
- Prior art keywords
- robot
- microcontroller
- angles
- neural network
- manipulators
- Prior art date
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
Изобретение относится к области робототехники и может быть использовано для управления антропоморфным мобильным роботом (робот-игрушка, домашний робот-уборщик, охранник и пр).The invention relates to the field of robotics and can be used to control an anthropomorphic mobile robot (robot toy, home robot cleaner, security guard, etc.).
Известна обучающе-игровая система с компьютерным управлением, предназначенная для управления подвижным устройством, например игрушкой (машинкой) [Патент РФ №2241255, МПК G06F 17/60]. Система содержит персональный компьютер с набором программ, соединенный с базовым модулем приемопередатчика с антенной, дистанционный пульт для управления системой с использованием цифрового и/или аналогового радиоканалов и/или инфракрасного канала, модуль обеспечения обмена информацией, соединенный с центральным модулем управления, установленные на подвижном объекте. Центральный модуль управления выполнен с функцией ретрансляции поступающих с персонального компьютера команд и с функцией ретрансляции на персональный компьютер данных с датчиков окружающей среды. Модуль обеспечения обмена информацией предназначен для трансляции информации на центральный модуль управления.Known learning-game system with computer control, designed to control a mobile device, such as a toy (machine) [RF Patent No. 2241255, IPC G06F 17/60]. The system contains a personal computer with a set of programs connected to the base transceiver module with an antenna, a remote control for controlling the system using digital and / or analog radio channels and / or infrared channels, an information exchange support module connected to a central control module installed on a moving object . The central control module is configured to relay the commands received from the personal computer and to relay data from environmental sensors to the personal computer. The information exchange support module is designed to transmit information to the central control module.
Однако данная система управления предназначена для выполнения одной задачи - перемещение объекта по опорной поверхности. Система предусматривает многоступенчатое управление с трансляцией и ретрансляцией сигналов и требует непрерывного обязательного управления человеком, т.е. все командные сигналы дает он.However, this control system is designed to perform one task - moving an object along a supporting surface. The system provides for multi-stage control with broadcasting and relaying of signals and requires continuous mandatory human control, i.e. he gives all command signals.
Известна система управления (СУ) антропоморфным роботом, состоящим из корпуса с манипуляторами и кистевыми схватами и приводов, принятая за прототип [Авторское свидетельство СССР №1646850, МПК B25J 9/10]. Выходы системы управления соединены с приводами манипулятора и кистевыми схватами.Known control system (SU) by an anthropomorphic robot, consisting of a body with manipulators and hand grips and drives, adopted as a prototype [USSR Author's Certificate No. 1646850, IPC B25J 9/10]. The outputs of the control system are connected to the manipulator drives and hand grips.
Однако известная система управления предназначена только для захвата предметов определенной формы и веса, а также не позволяет обеспечить точное позиционирование кисти робота относительно предмета.However, the known control system is intended only to capture objects of a certain shape and weight, and also does not allow for accurate positioning of the robot brush relative to the object.
Известен способ управления антропоморфным роботом, принятый за прототип [Авторское свидетельство СССР №1646850, МПК B25J 9/10]. Способ осуществляется с помощью системы управления, формирующей команды управления, которые подаются на приводы манипуляторов и кистей робота.A known method of controlling an anthropomorphic robot, adopted as a prototype [USSR Author's Certificate No. 1646850, IPC B25J 9/10]. The method is carried out using a control system that generates control commands that are supplied to the drives of the manipulators and brushes of the robot.
Однако известный способ управления предусматривает установку в системе управления «жесткой» программы, рассчитанной на захват конкретного предмета, или непосредственное управление оператором с помощью многостепенных рукояток.However, the known control method involves the installation in the control system of a "hard" program designed to capture a specific subject, or direct control by the operator using multi-stage handles.
Таким образом, известные система управления и способ управления антропоморфным роботом позволяют выполнять достаточно узкий класс задач - захват предмета определенной формы и веса, а также требуют непосредственного участия человека.Thus, the well-known control system and method for controlling an anthropomorphic robot allow performing a rather narrow class of tasks - capturing an object of a certain shape and weight, and also require the direct participation of a person.
При создании изобретения решалась задача расширения функциональных возможностей робота за счет обеспечения точного позиционирования тела робота и его манипуляторов относительно объекта, имеющего любую форму и вес, и улучшения обеспечения захвата и удержания объекта. Одновременно решалась задача минимизации участия человека в управлении антропоморфным роботом.When creating the invention, the problem was solved of expanding the functionality of the robot by providing accurate positioning of the body of the robot and its manipulators relative to an object having any shape and weight, and improving the capture and retention of the object. At the same time, the task of minimizing human participation in controlling an anthropomorphic robot was solved.
Поставленная задача решена за счет того, что известная система управления антропоморфным роботом, состоящим из корпуса с манипуляторами и кистями и приводов, согласно изобретению снабжена системой технического зрения, включающей не менее одной телекамеры и блок обработки видеосигналов, микроконтроллером, выходы которого соединены с приводами робота, дистанционным пультом управления, тактильными датчиками, световым маячком и компьютером с установленными на нем тремя предварительно обученными нейронными сетями, при этом тактильные датчики установлены на внутренних поверхностях ладоней и пальцев кистей робота и соединены со входами микроконтроллера, а световой маячок размещен на указательном пальце одной из кистей.The problem is solved due to the fact that the known control system of an anthropomorphic robot, consisting of a body with manipulators and brushes and drives, according to the invention is equipped with a technical vision system including at least one camera and a video processing unit, a microcontroller, the outputs of which are connected to the robot drives, remote control panel, tactile sensors, a light beacon and a computer with three pre-trained neural networks installed on it, while tactile yes the sensors are mounted on the inner surfaces of the palms and fingers of the hands of the robot and connected to the inputs of the microcontroller, and the light beacon is placed on the index finger of one of the hands.
Также поставленная задача решена за счет того, что в известном способе управления антропоморфным роботом, состоящим из корпуса с манипуляторами и кистями и приводов, согласно изобретению, используют заявляемую систему управления антропоморфным роботом, определяют положение робота, осуществляют подачу управляющих сигналов на микроконтроллер и включают приводы робота после получения сигналов с микроконтроллера, осуществляют предварительное обучение нейронных сетей на выполнение задач, связанных с захватом и удержанием роботом объектов различной формы и веса, и формируют конечную выборку изображений взаимного расположения робота и объекта и соответствующих им значений углов поворота корпуса, манипуляторов и кистей робота, а также степеней сгибания пальцев и степеней искривления ладоней, причем в качестве входных обучающих сигналов для первой нейронной сети используют полученные от системы технического зрения изображения расположения объекта, находящегося в зоне захвата, относительно корпуса и манипуляторов робота, а в качестве выходных сигналов используют угол α поворота корпуса относительно горизонтальной оси симметрии робота, угол β наклона корпуса по отношению к вертикальной оси, угол γ между плечевой частью манипулятора и корпусом и угол δ между плечевой и локтевой частями манипуляторов, в качестве входных обучающих сигналов для второй нейронной сети используют полученные от системы технического зрения изображения расположения объекта относительно светового маячка, а в качестве выходных сигналов используют корректирующие добавки α1, β1, γ1, δ1 к углам α, β, γ, δ, в качестве входных обучающих сигналов для третьей нейронной сети используют полученные от системы технического зрения изображения формы объекта, а в качестве выходных сигналов используют угол ε поворота плоскости кистей, степени сгибания пальцев и степени искривления плоскости ладоней кистей, затем после постановки задачи последовательно первой нейронной сетью выдают микроконтроллеру значения углов α, β, γ, δ, необходимых для достижения касания объекта кистями робота, второй нейронной сетью выдают микроконтроллеру корректирующие добавки α1, β1, γ1, δ1 к значениям углов α, β, γ, δ, пока на микроконтроллер не поступит сигнал хотя бы с одного тактильного датчика, при поступлении на микроконтроллер сигналов более чем 70% тактильных датчиков третьей нейронной сетью выдают микроконтроллеру значения угла ε, степени сгибания пальцев и степени искривления плоскости ладоней кистейThe problem is also solved due to the fact that in the known method of controlling an anthropomorphic robot, consisting of a body with manipulators and brushes and drives, according to the invention, the inventive control system of the anthropomorphic robot is used, the position of the robot is determined, the control signals are fed to the microcontroller and the robot drives are turned on after receiving signals from the microcontroller, carry out preliminary training of neural networks to perform tasks related to the capture and retention of objects by the robot s of various shapes and weights, and form a final sample of images of the relative position of the robot and the object and the corresponding values of the rotation angles of the body, manipulators and hands of the robot, as well as degrees of flexion of the fingers and degrees of curvature of the palms, and use training signals for the first neural network as input images of the location of an object located in the capture zone relative to the robot body and manipulators obtained from the vision system, and use the angle as output signals α rotation of the body relative to the horizontal axis of symmetry of the robot, angle β of inclination of the body with respect to the vertical axis, angle γ between the shoulder of the manipulator and the body, and the angle δ between the shoulder and ulnar parts of the manipulators, received from the system as input training signals for the second neural network technical view of the image of the location of the object relative to the light beacon, and the correcting additives α 1 , β 1 , γ 1 , δ 1 to the angles α, β, γ, δ are used as output signals; Signals for the third neural network use images of the shape of the object obtained from the technical vision system, and the angle of rotation of the plane of the hands, degree of bending of the fingers and degree of curvature of the plane of the palms of the hands are used as output signals, then after setting the task, the angles are given to the microcontroller with the first neural network α, β, γ, δ, which are necessary to achieve the touch of the object with the hands of the robot, the second neural network gives the microcontroller the corrective additives α 1 , β 1 , γ 1 , δ 1 to the value the angles α, β, γ, δ, until at least one tactile sensor receives a signal from the microcontroller, when more than 70% of the tactile sensors receive signals from the third neural network to the microcontroller, they give the microcontroller the values of the angle ε, the degree of finger flexion and the degree of curvature of the plane palm of hands
Использование предложенных системы управления и способа управления позволяет значительно расширить круг задач, выполняемых роботом, т.е выполнять функции, близкие к тем, которые выполняет человек, без непосредственного участия человека.Using the proposed control system and control method can significantly expand the range of tasks performed by the robot, that is, perform functions close to those performed by a person, without the direct participation of a person.
Изобретение иллюстрируется чертежами, где на фиг.1 показано исходное положение робота (вид сбоку); на фиг.2 - положение робота при наклоне корпуса (вид сбоку); на фиг.3 - положение плечевой части манипулятора относительно корпуса робота; на фиг.4 - взаимное расположение плечевой и локтевой частей манипулятора; на фиг.5 - исходное положение робота (вид сверху); на фиг.6 - положение корпуса робота при его повороте; на фиг.7 - вид А-А (кисть в исходном состоянии); на фиг.8 - схема тактильного датчика; на фиг.9 - вид на внутреннюю сторону кисти; на фиг.10 - общая схема системы управления.The invention is illustrated by drawings, where in Fig.1 shows the initial position of the robot (side view); figure 2 - position of the robot when tilting the body (side view); figure 3 - the position of the shoulder of the manipulator relative to the body of the robot; figure 4 - the relative position of the shoulder and ulnar parts of the manipulator; figure 5 - the initial position of the robot (top view); figure 6 - position of the body of the robot when it is rotated; Fig.7 is a view aa (brush in its original state); on Fig is a diagram of a tactile sensor; figure 9 is a view of the inner side of the brush; figure 10 is a General diagram of a control system.
Система управления (СУ) антропоморфным роботом, состоящим из шасси 1, головы 2 и корпуса 3 с манипуляторами 4 и кистями 5, содержит систему технического зрения (СТЗ) 6, компьютер 7, размещенный внутри корпуса 3 робота, микроконтроллер 8, соединенный с компьютером 7, приводы 9 робота, соединенные с микроконтроллером 8 (фиг.1, 10).The control system (SU) of an anthropomorphic robot, consisting of a chassis 1, a
СТЗ 6 содержит две телекамеры 10, установленные на голове 2 робота, и блок обработки сигналов 11. На конце указательного пальца кисти 5 установлен световой маячок 12, например красный светодиод, который однозначно распознается СТЗ 6 (фиг.5). Выходы СТЗ 6 связаны с тремя обученными нейронными сетями (НС) 13,14,15, установленными на компьютере 7.STZ 6 contains two
На внутренних поверхностях и кончиках пальцев кистей 5 робота размещены тактильные датчики 16 (фиг.9). Каждый датчик 16 состоит из разделенных калибровочной пружиной 17 наружного 18 и внутреннего 19 чувствительных элементов (фиг.8). Жесткость пружины 17 подбирают с учетом оптимальной степени сжатия для набора объектов различной формы и веса, которыми манипулирует робот.On the inner surfaces and fingertips of the
Ввод команд роботу осуществляют с дистанционного пульта управления 20 либо через расположенный на теле робота микрофон 21, выход которого соединен с компьютером 7. На фиг.2-6 рядом с роботом показан объект 22, например мячик.The commands are entered to the robot from the
Система управления работает следующим образом.The control system operates as follows.
Предварительно оператором (человеком) на основе собственного опыта и наблюдаемого результата действий манипуляторов робота производится обучение нейронных сетей (НС) 13, 14, 15 на «касание» и «охват» различных объектов. Все НС 13, 14, 15 обучаются одинаковым образом на основе конечной выборки входных сигналов в виде изображений взаимного расположения робота и объекта, полученных от СТЗ 6, каждому из которых соответственно подбираются необходимые значения углов поворота корпуса 3 и манипуляторов 4 робота, а также степени сгибания пальцев и степени искривления ладони кистей 5, зависящих от формы и веса объекта.Preliminarily, the operator (person), on the basis of his own experience and the observed result of the actions of the robot manipulators, trains the neural networks (NS) 13, 14, 15 on the “touch” and “coverage” of various objects. All
Первую нейронную сеть 13 обучают на выполнение задачи «касание» кисти 5 робота объекта 22, причем под «касанием» понимают момент, когда сработает чувствительный элемент 18 хотя бы одного тактильного датчика 16. Для НС 13 входными обучающими сигналами будут полученные от СТЗ изображения расположения объекта 22 относительно шасси 1, корпуса 3 и манипуляторов 4 робота в момент, когда робот приблизился к объекту 22 настолько, что объект оказался в зоне захвата. Выходными (возвращаемыми) параметрами будут угол α - поворот корпуса 3 от горизонтальной оси симметрии робота, угол β - наклон корпуса 3 по отношению к вертикали, угол γ - между плечевой частью манипулятора 4 и корпусом 3, угол δ - между плечевой и локтевой частями манипулятора 4.The first
Вторая нейронная сеть 14 предназначена для корректировки взаиморасположения манипулятора 4 и объекта 22 с целью более точного позиционирования кисти 5 на случай, если по результатам применения НС 13 «касание» объекта не было достигнуто. Для НС 14 входными обучающими сигналами будут полученные от СТЗ 6 изображения расположения объекта 22 относительно маячка 12. Выходными (возвращаемыми) параметрами будут корректирующие добавки α1, β1, γ1, δ1 к углам α, β, γ, δ.The second
Третью нейронную сеть 15 обучают на выполнение задачи «охват » кистью 5 робота объекта 22, причем под «охватом» понимают момент, когда срабатывают чувствительные элементы 18 более чем 70% тактильных датчиков 16. Для НС 15 входными обучающими сигналами будут полученные от СТЗ изображения формы объекта. Выходными (возвращаемыми) параметрами будут угол ε - поворот плоскости кисти 5, степени сгибания пальцев и искривления плоскости ладони кисти 5.The third
После завершения обучения нейронных сетей 13, 14, 15 человек отстраняется от непрерывного управления и только ставит задачи. Например, голосом либо с пульта управления 20 человек ставит задачу «взять объект», например, мячик. Эта задача выполняется максимум в 7 этапов.After completing the training of
На 1-м этапе осуществляется подъезд робота к объекту 22, для чего с компьютера 7 через микроконтроллер 8 подается сигнал на включение приводов 9 шасси 1 робота. Когда робот подъезжает к объекту 22 на расстояние, достаточное для его захвата (зависит от размеров корпуса робота и длины его манипуляторов), на микроконтроллер 8 подается команда остановки. Это расстояние определяется экспериментально и заносится в память компьютера 7.At the 1st stage, the robot is approaching the
Во время движения корпус 3 робота и его манипуляторы 4 находятся в исходном положении, т.е. угол α равен 0°, угол β равен 0°, угол γ равен 0°, угол δ равен 90°, угол ε равен 90°. Таким образом, корпус 3 находится в вертикальном положении и ориентирован по ходу движения робота, манипуляторы 4 опущены вниз и согнуты в локтях, плоскости кистей 5 расположены горизонтально (тыльной стороной вверх).During movement, the
2-й этап. После остановки робота СТЗ 6 передает информацию о взаимном расположении корпуса 3, манипуляторов 4 робота и объекта 22 на вход нейронной сети НС 13. Нейронная сеть 13 выдает микроконтроллеру 8 значения углов α, β, γ, δ, необходимых для достижения «касания» кисти 5 объекта 22, т.е поступления сигнала хотя бы с одного чувствительного элемента 18. Угол ε при этом не изменяется. Микроконтроллер 8 последовательно включает приводы 9 корпуса 3 и манипуляторов 4 на время, необходимое для достижения нужных углов.2nd stage. After the robot stops, STZ 6 transmits information about the relative position of the
3-й этап. В случае, если касание не произошло, для более точного позиционирования кисти 5 относительно объекта 22 выполняется дополнительный цикл управления с использованием корректирующей нейронной сети НС 14. Получив от СТЗ 6 информацию о текущем взаимном расположении объекта 22 и светового маячка 12, НС 14 выдает микроконтроллеру 8 значения необходимых корректирующих добавок α1, β1, γ1, δ1 к углам α, β, γ, δ, и микроконтроллер 8 включает приводы 9 манипулятора 4.3rd stage. If the touch did not happen, for a more accurate positioning of the
4-й этап - «нащупывание» объекта. В случае, если по окончании 3-го этапа не произошло касания объекта, СУ проводит его поиск, меняя углы (α+α1), (β+β1), (γ+γ1), (δ+δ1) на небольшие значения (α2, β2, γ2, δ2 по алгоритму «случайного поиска» до достижения касания.4th stage - “feeling for” the object. If, at the end of the 3rd stage, the object did not touch, the control system searches for it, changing the angles (α + α 1 ), (β + β 1 ), (γ + γ 1 ), (δ + δ 1 ) by small values (α 2 , β 2 , γ 2 , δ 2 according to the "random search" algorithm until a touch is reached.
5-й этап - «охват» объекта 22, в ходе которого должно быть достигнуто «срабатывание» более чем 70% чувствительных элементов 18 тактильных датчиков 16. НС 15, получив от СТЗ 6 информацию о форме объекта 22, выдает микроконтроллеру 8 корректирующую добавку ε1 к углу ε, степени сгибания пальцев и искривления плоскости ладони, после чего микроконтроллер 8 включает приводы 9 кисти 5, поворачивающие ладонь, сгибающие пальцы и искривляющие плоскость ладони.5th stage - “coverage” of
6-й этап - «ощупывание» объекта. В случае, если по окончании 5-го этапа произошло срабатывание менее 70% чувствительных элементов 18 тактильных датчиков 16. СУ изменяет угол (ε+ε1) на небольшие значения ε2, степень сгибания пальцев и степень искривления ладони по алгоритму «случайного поиска» до достижения охвата объекта 22.6th stage - "feeling" the object. In the event that at the end of the 5th stage less than 70% of the sensing elements of 18 tactile sensors are triggered 16. SU changes the angle (ε + ε 1 ) by small values of ε 2 , the degree of finger flexion and the degree of palm curvature according to the “random search” algorithm until reaching
7-й этап - «захват» объекта 22. После того, как более 70% чувствительных элементов 18 даст сигнал о «касании» объекта 22, компьютер 7 через микроконтроллер 8 дает команду приводам 9 кисти 5 на дальнейшее сгибание пальцев и искривление плоскости ладони. Сгибание пальцев и искривление плоскости ладони осуществляется до тех пор, пока не поступит сигнал от чувствительных элементов 19 тех датчиков 16, элементы 18 которых коснулись объекта 22. Чувствительные элементы 19 срабатывают в момент достижения пружины 17 заданной степени сжатия, что приводит к соприкосновению между собой чувствительных элементов 18 и 19. После этого объект 22 считается захваченным, и микроконтроллер 8 дает команду приводам 9 кисти 5 прекратить дальнейшее сгибание пальцев и искривление плоскости ладони.The 7th stage is the “capture” of the
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2007107468/02A RU2361726C2 (en) | 2007-02-28 | 2007-02-28 | System of controlling anthropomorphous robot and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2007107468/02A RU2361726C2 (en) | 2007-02-28 | 2007-02-28 | System of controlling anthropomorphous robot and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2007107468A RU2007107468A (en) | 2008-09-10 |
RU2361726C2 true RU2361726C2 (en) | 2009-07-20 |
Family
ID=39866409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2007107468/02A RU2361726C2 (en) | 2007-02-28 | 2007-02-28 | System of controlling anthropomorphous robot and control method |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2361726C2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108885715A (en) * | 2016-03-03 | 2018-11-23 | 谷歌有限责任公司 | Depth machine learning method and device for robot crawl |
CN108875504A (en) * | 2017-11-10 | 2018-11-23 | 北京旷视科技有限公司 | Image detecting method and image detection device neural network based |
CN109074513A (en) * | 2016-03-03 | 2018-12-21 | 谷歌有限责任公司 | The depth machine learning method and device grasped for robot |
RU2698364C1 (en) * | 2018-03-20 | 2019-08-26 | Акционерное общество "Волжский электромеханический завод" | Exoskeleton control method |
RU2718513C1 (en) * | 2019-07-12 | 2020-04-08 | федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) | Small anthropomorphic robot educational and research complex |
CN111085997A (en) * | 2019-12-17 | 2020-05-01 | 清华大学深圳国际研究生院 | Capturing training method and system based on point cloud acquisition and processing |
WO2021133184A1 (en) * | 2019-12-23 | 2021-07-01 | Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Институт (Национальный Исследовательский Университет") | Method for performing object manipulation |
WO2021133183A1 (en) * | 2019-12-23 | 2021-07-01 | федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)" | Method for controlling robotic manipulator |
RU2763460C2 (en) * | 2017-10-26 | 2021-12-29 | Комау С.п.А. | Automated device with movable structure, such as robot |
RU2800443C1 (en) * | 2019-12-23 | 2023-07-21 | федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)" | Method of object manipulation |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009018991A1 (en) * | 2009-05-01 | 2010-11-04 | Airbus Operations Gmbh | Device for the spatial alignment of at least two subassembly components and method |
CN107030704A (en) * | 2017-06-14 | 2017-08-11 | 郝允志 | Educational robot control design case based on neuroid |
-
2007
- 2007-02-28 RU RU2007107468/02A patent/RU2361726C2/en not_active IP Right Cessation
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108885715B (en) * | 2016-03-03 | 2020-06-26 | 谷歌有限责任公司 | Deep machine learning method and device for robot grabbing |
CN109074513A (en) * | 2016-03-03 | 2018-12-21 | 谷歌有限责任公司 | The depth machine learning method and device grasped for robot |
CN108885715A (en) * | 2016-03-03 | 2018-11-23 | 谷歌有限责任公司 | Depth machine learning method and device for robot crawl |
US11548145B2 (en) | 2016-03-03 | 2023-01-10 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
US10946515B2 (en) | 2016-03-03 | 2021-03-16 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
US10639792B2 (en) | 2016-03-03 | 2020-05-05 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
CN109074513B (en) * | 2016-03-03 | 2020-02-18 | 谷歌有限责任公司 | Deep machine learning method and device for robot gripping |
US11045949B2 (en) | 2016-03-03 | 2021-06-29 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
RU2763460C2 (en) * | 2017-10-26 | 2021-12-29 | Комау С.п.А. | Automated device with movable structure, such as robot |
CN108875504A (en) * | 2017-11-10 | 2018-11-23 | 北京旷视科技有限公司 | Image detecting method and image detection device neural network based |
RU2698364C1 (en) * | 2018-03-20 | 2019-08-26 | Акционерное общество "Волжский электромеханический завод" | Exoskeleton control method |
RU2718513C1 (en) * | 2019-07-12 | 2020-04-08 | федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) | Small anthropomorphic robot educational and research complex |
CN111085997A (en) * | 2019-12-17 | 2020-05-01 | 清华大学深圳国际研究生院 | Capturing training method and system based on point cloud acquisition and processing |
WO2021133184A1 (en) * | 2019-12-23 | 2021-07-01 | Федеральное Государственное Автономное Образовательное Учреждение Высшего Образования "Московский Физико-Технический Институт (Национальный Исследовательский Университет") | Method for performing object manipulation |
WO2021133183A1 (en) * | 2019-12-23 | 2021-07-01 | федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)" | Method for controlling robotic manipulator |
RU2800443C1 (en) * | 2019-12-23 | 2023-07-21 | федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)" | Method of object manipulation |
RU2810399C2 (en) * | 2021-11-05 | 2023-12-27 | Юрий Хабижевич Хамуков | Mobile robot assistant |
Also Published As
Publication number | Publication date |
---|---|
RU2007107468A (en) | 2008-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2361726C2 (en) | System of controlling anthropomorphous robot and control method | |
Zeng et al. | Simultaneously encoding movement and sEMG-based stiffness for robotic skill learning | |
CN106826838B (en) | Interaction bionic mechanical arm control method based on Kinect visual depth sensor | |
Fang et al. | A robotic hand-arm teleoperation system using human arm/hand with a novel data glove | |
WO2017033365A1 (en) | Remote control robot system | |
JP5186723B2 (en) | Communication robot system and communication robot gaze control method | |
Fritsche et al. | First-person tele-operation of a humanoid robot | |
Laghi et al. | Shared-autonomy control for intuitive bimanual tele-manipulation | |
CN109571513B (en) | Immersive mobile grabbing service robot system | |
US20210394362A1 (en) | Information processing device, control method, and program | |
CN102402290A (en) | Method and system for identifying posture of body | |
CN103529944A (en) | Human body movement identification method based on Kinect | |
Park et al. | A tele-operation interface with a motion capture system and a haptic glove | |
CN108098780A (en) | A kind of new robot apery kinematic system | |
CN105930775A (en) | Face orientation identification method based on sensitivity parameter | |
Ahn et al. | PDA-based mobile robot system with remote monitoring for home environment | |
Grewal et al. | Autonomous wheelchair navigation in unmapped indoor environments | |
Luberto et al. | Enhancing adaptive grasping through a simple sensor-based reflex mechanism | |
JP7272521B2 (en) | ROBOT TEACHING DEVICE, ROBOT CONTROL SYSTEM, ROBOT TEACHING METHOD, AND ROBOT TEACHING PROGRAM | |
Rosado et al. | Reproduction of human arm movements using Kinect-based motion capture data | |
US20180065246A1 (en) | System for Cooperation Between a Human and a Robotic Device | |
JP6142307B2 (en) | Attention target estimation system, robot and control program | |
Chen et al. | Human-aided robotic grasping | |
CN111399660A (en) | Gesture recognition equipment and method for sensor | |
Ma et al. | A sign language interaction system based on pneumatic soft hand |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20100301 |