WO2021118388A1 - Object handling system - Google Patents

Object handling system Download PDF

Info

Publication number
WO2021118388A1
WO2021118388A1 PCT/RU2019/000928 RU2019000928W WO2021118388A1 WO 2021118388 A1 WO2021118388 A1 WO 2021118388A1 RU 2019000928 W RU2019000928 W RU 2019000928W WO 2021118388 A1 WO2021118388 A1 WO 2021118388A1
Authority
WO
WIPO (PCT)
Prior art keywords
manipulator
module
unit
control
user
Prior art date
Application number
PCT/RU2019/000928
Other languages
French (fr)
Russian (ru)
Inventor
Андрей Владимирович НОВИКОВ
Владимир Николаевич ГЕРАСИМОВ
Роман Александрович ГОРБАЧЕВ
Никита Евгеньевич ШВИНДТ
Владимир Иванович НОВИКОВ
Андрей Евгеньевич ЕФРЕМЕНКО
Дмитрий Леонидович ШИШКОВ
Михаил Нилович ЗАРИПОВ
Филипп Александрович КОЗИН
Алексей Михайлович СТАРОСТЕНКО
Original Assignee
федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)"
Общество С Ограниченной Ответственностью "Нейроассистивные Технологии"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)", Общество С Ограниченной Ответственностью "Нейроассистивные Технологии" filed Critical федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)"
Priority to PCT/RU2019/000928 priority Critical patent/WO2021118388A1/en
Publication of WO2021118388A1 publication Critical patent/WO2021118388A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Definitions

  • the invention relates to robotics, in particular, to robotic systems for manipulating objects by means of a manipulator with a gripping device, and can be used, inter alia, to help people with impaired motor functions caused by the consequences of brain and spinal cord injuries, stroke, neurodegenerative diseases and dr.
  • the declared object manipulation system performs the functions of gripping, holding and moving objects in the environment of a user with limited or impaired motor functions, often moving in a wheelchair.
  • the system can have a modular architecture, personalized for a specific user, and can be used in a hospital or at home.
  • manipulator must be capable of gripping objects of various shapes under the control of the user, while it must be protected from adverse factors such as dust and water.
  • RF patent RU2700246 discloses a method and a system for gripping an object using a robotic object, in which the robotic device is trained using a machine learning algorithm to recognize and memorize the gripping points of objects. Training is performed on data characterizing photographic images of objects and corresponding three-dimensional models of objects in various forms. This makes it possible to improve the accuracy of recognition of the area of object capture by the robotic device. Despite this, the recognition accuracy of the capture area of the object may be insufficient for the application of the known method and system by a user with limited or impaired motor functions. In addition, such a system requires rather long training, and the choice of an object of manipulation from several objects is not provided at all.
  • a robot operating in a work environment can be instructed to determine the work offset.
  • Work offset can describe the location and angular orientation of the work plane of the work environment relative to the base plane of the robot.
  • the robot can identify the work plane.
  • the robot can be controlled to contact one or more points on the work plane.
  • the robot can determine the corresponding locations of the points of the contacting points relative to the reference plane based on the corresponding positions of the robot at the corresponding moments of contact.
  • the robot can determine the location and angular orientation of the work plane relative to the reference plane based on the determined corresponding point locations of the contact points.
  • U.S. Patent Application US2019240843 describes a method for manipulating a deformable object, which includes determining the appropriate three-dimensional position of one or more markers on a deformable object held by a robotic arm, as well as determining a deformable model of the deformable object by displaying the movement of the robot arm and the movement of one or more markers.
  • a robotic arm is controlled based on a defined deformation model to manipulate the deformable object and move one or more markers to the appropriate position.
  • US patent application US2019143506 describes a system that is a robotic arm including a daisy chain containing a first link, a first link and a second link. The second link is between the first link and the first link in the daisy chain.
  • the system further includes a processing unit including one or multiple processors.
  • the processing unit is configured to receive data of the first communication line from the first system of sensors located in the first communication line, generate a first estimate of the connection state of the first connection based on the data of the first communication line and the kinematic model of the robotic arm, and control the first link based on the first estimate of the state connections.
  • the technical result of the invention is to provide high accuracy in determining the object of manipulation among a variety of surrounding objects with a compact and lightweight design and a clear definition of the user's intentions to manipulate the selected objects of manipulation.
  • the object manipulation system comprises a manipulator module, at least one gripper module, a control module, a user interface module, and a fastening module.
  • the manipulator module contains at least one manipulator drive, which includes a manipulator motor and a manipulator gear.
  • Gripper module is installed on the manipulator module and contains at least one gripper drive including the gripper motor.
  • the control module contains a control unit for the manipulator module for controlling the manipulator drive and executing the control algorithm for the manipulator module, 5 as well as a control unit for the gripping device module for controlling the gripping device drive and executing the control algorithm for the gripping device module.
  • the user interface module is designed to control the manipulation system, select an object and perform an operation on the object and contains an eye tracking unit for determining the direction of the user's gaze, a computer vision unit 0 for performing a stereo reconstruction of the area around the object (that is, an area in the service area of the manipulator where required manipulation object), constructing a disparity map and determining the characteristics of the object, including at least the geometric dimensions of the object and the distance to the object, as well as a neuro-headset unit for recording bioelectric potentials of the user's brain activity and transferring them to the control module.
  • the attachment module is designed to attach the manipulator module to an external device, such as a wheelchair.
  • the declared object manipulation system allows you to determine the objects that the user wants to control, and actually control them, where O under control is understood, in particular, to capture an object, hold an object and move objects.
  • an absolute angle sensor can be installed on the manipulator motor shaft.
  • control module may additionally contain PID controllers for current, speed, position and torque.
  • An absolute angle sensor can be installed on the output shaft of the manipulator gearbox.
  • the eye tracking unit is configured to determine the coordinates of the gaze direction vector.
  • the eye tracking unit can be configured to determine the coordinates of the intersection of the gaze direction vector with the plane in which the object is located.
  • the vision unit is configured to perform stereo reconstruction of the area around the object with a given frequency.
  • the technical vision unit contains a stereo pair, including the stereo pair cameras, a stereo image processing unit and a unit for matching images of the area around the object obtained from different angles from the stereo pair cameras and from the eye tracking unit camera.
  • the technical vision unit is preferably located above the head of the disabled operator, and the eye tracking unit is located on the head of the operator wearing glasses, and thus two images are obtained from different angles.
  • the headset unit can contain dry active electrodes for recording bioelectric potentials of the user's brain activity.
  • MM manipulator module
  • MZU gripper module
  • MU 3 - control module
  • BUMM 3.1 - manipulator module control unit
  • MIP user interface module
  • BCG eye tracking unit
  • the object manipulation system is designed to perform operations on objects, in particular, to grip, hold and move objects.
  • the manipulation system should allow the specified operations to be performed by a user with limited mobility, in particular, with limited mobility of the upper limbs, and at the same time guarantee the exact execution of exactly those movements that the user wishes to perform.
  • the manipulation system contains a manipulator module 1 (also MM), at least one gripper module 2 (also MZU), a control module 3 (also MU), a user interface module 4 (also MIP) and a fastening module 5 (also MK ).
  • manipulator module 1 also MM
  • gripper module 2 also MZU
  • control module 3 also MU
  • user interface module 4 also MIP
  • fastening module 5 also MK
  • MM 1 is designed to move in the space of MM 2 and can be installed on any object, including a wheelchair, by means of MK 5 installed at one end of MM 1 or near it.
  • any known design of a robotic arm can be selected, for example, described in RU2700246 or US2007095582.
  • O the number of links MM 1 is from four to six: a smaller number of links may not provide accurate and fast positioning of the MM 2 in a space with many objects, in a larger number of links not only complicates the design of the entire handling system, but also increases its weight, which is critical, in particular, when using it on a wheelchair.
  • US2007095582 also: 5 shows a possible option for attaching MM 1 to a wheelchair by means of MK 5.
  • MM 1 contains at least one manipulator drive, which includes a manipulator motor and a manipulator gearbox (not shown in the figure). It is preferable, but not necessary, if each link MM 1 contains its own manipulator drive, which makes it possible to more accurately position the MM 2 in space.
  • An angle sensor can be additionally installed on the shaft of the manipulator motor of one or more manipulator drives. Even when using precision motors of the manipulator, errors in the positioning of the MM 1 sections are possible, especially critical for the section farthest from the MK 5, on which the MZU 2 is installed, in a confined space and / or a large number of objects.
  • the presence of a rotation angle sensor on the manipulator motor shaft allows precise control of the shaft rotation angle. In this case, the most preferable is the use of an absolute encoder of the angle of rotation, which avoids the accumulation of errors in determining the angle of rotation of the shaft.
  • the output shaft of the manipulator gearbox of one or more manipulator drives the higher the accuracy of determining the rotation of this shaft, the more accurately the MZU 2 is positioned in space. Therefore, in this case, too, it is preferable to install a rotation angle sensor on the output shaft of the manipulator gearbox of one or more manipulator drives, most preferably an absolute rotation angle sensor, which avoids accumulation of errors in determining the shaft rotation angle.
  • MZU 2 is installed at the other end of MM 1 from MK 5 or near it and is designed to grip and hold objects to be manipulated. Any known device for a similar purpose, for example, described in RU118579 or US8936289, can be selected as MZU 2. In this case, it is preferable if the design of the MCD 2 is made in such a way that one drive of the gripper, including the motor of the gripper, is sufficient to control the fingers of the MCD 2. This provides MZU 2 compactness and low weight, which means accurate and fast positioning of MZU 2 in a space with many objects.
  • MU 3 is an electronic device and is designed to execute the control algorithm MM 1 and, accordingly, control MM 1, as well as to execute the control algorithm MZU 2 and, accordingly, control MZU 2.
  • MU 3 contains, respectively, a control unit for the manipulator module 3.1 (also BUMM) and a control unit for the gripper module 3.2 (also BUMZU).
  • MU 3 can be an electronic device based on a 32-bit microcontroller, for example, STM32F103C8T6.
  • a 32-bit microcontroller for example, STM32F103C8T6.
  • voltage stabilizers On the MU 3 board, voltage stabilizers, a CAN bus driver, drivers for controlling the manipulator motors (in BUMM 3.1), drivers for controlling the gripper motors (in BUMZU 3.2), ports for connecting absolute position and speed sensors, if any of they are used in MM 1 and / or MZU 2, an expansion port for connecting external modules, interfaces to encoders and strain gauges.
  • BUMM 3.1 and BUMZU 3.2 can share the specified microcontroller to execute the MM 1 control algorithm and the MCU 2 control algorithm.
  • MU 3 additionally contains proportional-integral-differentiating controllers (PID controllers) of current, speed, position and torque to control the manipulator motors and the gripper motors.
  • PID controllers proportional-integral-differentiating controllers
  • MIP 4 contains an eye tracking unit 4.1 (also BTG), a technical vision unit 4.2 (also BTZ), and a neuro headset unit 4.3 (also WB).
  • eye tracking unit 4.1 also BTG
  • technical vision unit 4.2 also BTZ
  • WB neuro headset unit
  • BTG 4.1 is designed to determine the direction of the user's gaze, which is then used to accomplish the task of user interaction with the manipulation system.
  • BTG 4.1 by means of the camera (or cameras) included in it, can provide the determination of the coordinates of the gaze direction vector and, additionally, the coordinates of the intersection of the gaze direction vector with the plane in which the manipulation object is located.
  • BTZ 4.2 carries out a stereo reconstruction of the area around the object, that is, the area in the movement zone of the MZU 2, in which the manipulation object can be located. Stereo reconstruction methods are widely presented in the prior art and do not require further explanation. In this case, stereo reconstruction can be carried out at a given frequency. BTZ 4.2 also builds a disparity map, that is, a map of the relative position of points displayed on the retinas of the left and right eyes. In addition, another function of BTZ 4.2 is to determine the characteristics of the manipulated object, such as the geometric dimensions of the object, the distance to the object.
  • BTZ 4.2 may contain a stereopair including stereo pair cameras, a stereo image processing unit and a unit for comparing images of the area around the object obtained from different angles from the stereo pair cameras and from the BTG 4.1 camera. Different angles are achieved in particular by the fact that BTZ 4.2 is placed approximately above the user's head, and BTG 4.1 - in glasses, thus 5 providing two images of the area around the object from different angles.
  • BN 4.3 is designed to record bioelectric potentials of the user's brain activity and transfer them to MU 3.
  • BN 4.3 can contain dry active electrodes.
  • the user fixes attention on the object with which he wants to perform manipulations.
  • BTG 4.1 determines the direction of the user's gaze.
  • BTZ 4.2 through its cameras, for example, stereo pair 5 cameras, captures the surrounding environment, based on data from BTG 4.1, calculates the fixation point of the user's gaze on the resulting image, recognizes the object at this point, determines the distance from the user's head to the object and the distance from MZU 2 to the object.
  • the user chooses the action he wants to perform with the recognized object, for example, move the object from one point in space to another, press a key or switch, etc.
  • Recognition of the user's intention in the claimed manipulation system can be implemented in 5 different ways.
  • the first option for recognizing the user's intention is carried out by means of BN 4.3, in which signals from the surface electroencephalogram are recorded.
  • the second option for recognizing the user's intention is carried out by means of BTG 4.1, in which the user selects one of the proposed actions by means of fixing his gaze on one of 0 icons displayed on the optically transparent display of augmented reality BTG 4.1.
  • BTG 4.1 and BTZ 4.2 jointly define a new point.
  • MU 3 by means of BUMM 3.1 and BUMZU 3.2, gives the corresponding commands to MM 1 to bring MZU 2 to the point of location of the manipulation object, about capturing and holding this object MZU 2, moving the manipulation object by means of MM 1 to a new point and release of this object MZU 2.
  • the user can use the object manipulation system for different needs. So the manipulation system can open and close doors, turn on the light, pour drinks, hold a glass of water 5, etc. This is not the end of its functions: it can also remove toys after children, feed a dog, support a person during trips, etc.
  • a distinctive feature of the declared manipulation system is the high accuracy of determining the object of manipulation among many others. objects, compact and lightweight design and a clear definition of the user's intentions to manipulate the selected manipulation objects.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

The invention relates to robotic systems for handling objects by means of a manipulator with a gripping device and can be used for assisting people with motor function disorders. An object handling system comprises a manipulator module, at least one gripping device module mounted on the latter, a control module, a user interface module and a fastening module. The manipulator module comprises at least one manipulator actuator comprising a manipulator motor and a manipulator reduction gear. The control module comprises a manipulator module control unit and a gripping device control unit. The user interface module comprises an eye-tracking unit, a computer vision unit and a neuro headset unit. By means of the user interface module, a user can open and close doors, switch on a light, pour a drink, hold a glass of water, etc. The handling system provides highly accurate determination of an object for handling among a multiplicity of surrounding objects, and also clear determination of the user's intentions regarding the handling of the objects selected for handling, and is compact and lightweight.

Description

СИСТЕМА МАНИПУЛИРОВАНИЯ ОБЪЕКТАМИ OBJECT MANIPULATION SYSTEM
Изобретение относится к робототехнике, в частности, к роботизированным системам для манипулирования объектами посредством манипулятора с захватным устройством, и может быть использовано, в том числе, для помощи людям с нарушениями двигательных функций, вызванных последствиями травм головного и спинного мозга, инсульта, нейродегенеративных заболеваний и др. The invention relates to robotics, in particular, to robotic systems for manipulating objects by means of a manipulator with a gripping device, and can be used, inter alia, to help people with impaired motor functions caused by the consequences of brain and spinal cord injuries, stroke, neurodegenerative diseases and dr.
Заявленная система манипулирования объектами выполняет функции захвата, удержания и перемещения объектов в окружении пользователя с ограниченными или нарушенными двигательными функциями, часто передвигающегося в инвалидной коляске. Система может иметь модульную архитектуру, персонифицируемую под конкретного пользователя, и использоваться в условиях стационара или в домашних условиях. The declared object manipulation system performs the functions of gripping, holding and moving objects in the environment of a user with limited or impaired motor functions, often moving in a wheelchair. The system can have a modular architecture, personalized for a specific user, and can be used in a hospital or at home.
Использование существующих автоматизированных компонентов или модификация уже существующих манипуляторов не в состоянии отвечать всем необходимым требованиям, таким как легкая и компактная конструкция, которая не будет ухудшать балансировку инвалидной коляски пользователя или увеличивать его габариты в ширину. Манипулятор должен быть способен захватывать предметы разнообразных форм под управлением пользователем, при этом он должен быть защищен от воздействия неблагоприятных факторов, таких как пыль и вода. The use of existing automated components or the modification of existing manipulators is not able to meet all the necessary requirements, such as a light and compact design that will not compromise the balance of the user's wheelchair or increase its width. The manipulator must be capable of gripping objects of various shapes under the control of the user, while it must be protected from adverse factors such as dust and water.
Патент РФ RU2700246 раскрывают способ и систему захвата объекта с помощью роботизированного объекта, в котором роботизированное устройство обучается с использованием алгоритма машинного обучения для распознавания и запоминания точек захвата объектов. Обучение выполняется на данных, характеризующих фотографические изображения объектов и соответствующие трехмерные модели объектов в различных видах. Это позволяет повысить точность распознавания области захвата объекта роботизированным устройством. Несмотря на это, точность распознавания области захвата объекта может оказаться недостаточной для применения известного способа и системы пользователем с ограниченными или нарушенными двигательными функциями. Кроме того, такая система требует достаточно длительного обучения, а выбор объекта манипулирования из нескольких объектов вообще не предусмотрен. RF patent RU2700246 discloses a method and a system for gripping an object using a robotic object, in which the robotic device is trained using a machine learning algorithm to recognize and memorize the gripping points of objects. Training is performed on data characterizing photographic images of objects and corresponding three-dimensional models of objects in various forms. This makes it possible to improve the accuracy of recognition of the area of object capture by the robotic device. Despite this, the recognition accuracy of the capture area of the object may be insufficient for the application of the known method and system by a user with limited or impaired motor functions. In addition, such a system requires rather long training, and the choice of an object of manipulation from several objects is not provided at all.
Из заявки на патент США US2017021500 известны системы и способы определения данных о смещении роботизированной установки в рабочей среде. Робот, работающий в рабочей среде, может получить указание для определения рабочего смещения. Рабочее смещение может описывать местоположение и угловую ориентацию рабочей плоскости рабочей среды относительно базовой плоскости робота. В ответ на указание робот может идентифицировать рабочую плоскость. Робот может управляться для контакта с одной или несколькими точками рабочей плоскости. Робот может определять соответствующие местоположения точек контактируемых точек относительно базовой плоскости на основе соответствующих положений робота в соответствующие моменты времени контакта. Робот может определять местоположение и угловую ориентацию рабочей плоскости относительно базовой плоскости на основании определенных соответствующих точечных местоположений контактирующих точек. From US patent application US2017021500, systems and methods for determining displacement data of a robotic installation in a working environment are known. A robot operating in a work environment can be instructed to determine the work offset. Work offset can describe the location and angular orientation of the work plane of the work environment relative to the base plane of the robot. In response to the indication, the robot can identify the work plane. The robot can be controlled to contact one or more points on the work plane. The robot can determine the corresponding locations of the points of the contacting points relative to the reference plane based on the corresponding positions of the robot at the corresponding moments of contact. The robot can determine the location and angular orientation of the work plane relative to the reference plane based on the determined corresponding point locations of the contact points.
Заявка на патент США US2019240843 описывает способ манипулирования деформируемым объектом, который включает определение соответствующего трехмерного положения одного или нескольких маркеров на деформируемом объекте, удерживаемом роботизированным манипулятором, а также определения модели деформации деформируемого объекта путем отображения движения робота- манипулятора и движения одного или нескольких маркеров. Управляют роботизированным манипулятором на основе определенной модели деформации, чтобы манипулировать деформируемым объектом и перемещать один или несколько маркеров в соответствующую позицию. Заявка на патент США US2019143506 описывает систему, которая представляет собой роботизированный манипулятор, включающий в себя последовательную цепь, содержащую первое соединение, первое звено и второе звено. Второе звено находится между первым соединением и первым звеном в последовательной цепи. Система дополнительно включает в себя блок обработки, включающий в себя один или несколько процессоров. Блок обработки выполнен с возможностью приема данных первой линии связи из первой системы датчиков, расположенных в первой линии связи, генерации первой оценки состояния соединения первого соединения на основе данных первой линии связи и кинематической модели роботизированного манипулятора, и 5 управления первым звеном на основании первой оценки состояния соединений. U.S. Patent Application US2019240843 describes a method for manipulating a deformable object, which includes determining the appropriate three-dimensional position of one or more markers on a deformable object held by a robotic arm, as well as determining a deformable model of the deformable object by displaying the movement of the robot arm and the movement of one or more markers. A robotic arm is controlled based on a defined deformation model to manipulate the deformable object and move one or more markers to the appropriate position. US patent application US2019143506 describes a system that is a robotic arm including a daisy chain containing a first link, a first link and a second link. The second link is between the first link and the first link in the daisy chain. The system further includes a processing unit including one or multiple processors. The processing unit is configured to receive data of the first communication line from the first system of sensors located in the first communication line, generate a first estimate of the connection state of the first connection based on the data of the first communication line and the kinematic model of the robotic arm, and control the first link based on the first estimate of the state connections.
В системах и способах манипулирования, раскрытых в указанных выше заявках на патент США, также не предусмотрена возможность выбора объекта манипулирования из нескольких объектов, что является критичным для пользователя с ограниченными или нарушенными двигательными функциями. Известные 0 манипуляторы KINO V A® Gen2 Ultra lightweight robot, iArm и другие содержат для этих целей джойстик, управление которым не всегда удобно или даже возможно, не говоря уже о точности такого управления. The systems and methods of manipulation disclosed in the above US patent applications also do not provide for the ability to select a manipulated object from several objects, which is critical for a user with limited or impaired motor functions. The well-known 0 manipulators KINO V A® Gen2 Ultra lightweight robot, iArm and others contain a joystick for these purposes, the control of which is not always convenient or even possible, not to mention the accuracy of such control.
Таким образом, существует задача создания такого манипулятора с захватным устройством, который мог бы выполнять захват, удержание и перемещение объектов в 5 окружении пользователя с ограниченными или нарушенными двигательными функциями, при этом обеспечивая пользователю точное, легкое и простое управление захватным устройством манипулятора. Thus, there is a problem of creating such a manipulator with a gripper that could grip, hold and move objects in the environment of a user with limited or impaired motor functions, while providing the user with precise, easy and simple control of the gripper of the manipulator.
Техническим результатом изобретения является обеспечение высокой точности определения объекта манипуляции среди множества окружающих объектов при О компактной и легкой конструкции и четком определении намерений пользователя по манипуляциям над выбранными объектами манипуляции. The technical result of the invention is to provide high accuracy in determining the object of manipulation among a variety of surrounding objects with a compact and lightweight design and a clear definition of the user's intentions to manipulate the selected objects of manipulation.
Поставленная задача решается, а заявленный технический результат достигается в предложенной системе манипулирования объектами (далее также система манипулирования) для выполнения операций над объектами, в частности, для захвата, 5 удержания и перемещения объектов. Система манипулирования объектами содержит модуль манипулятора, по меньшей мере один модуль захватного устройства, модуль управления, модуль интерфейса пользователя и модуль крепления. Модуль манипулятора содержит по меньшей мере один привод манипулятора, включающий двигатель манипулятора и редуктор манипулятора. Модуль захватного устройства установлен на модуле манипулятора и содержит по меньшей мере один привод захватного устройства, включающий двигатель захватного устройства. Модуль управления содержит блок управления модулем манипулятора для управления приводом манипулятора и исполнения алгоритма управления модулем манипулятора, 5 а также блок управления модулем захватного устройства для управления приводом захватного устройства и исполнения алгоритма управления модулем захватного устройства. Модуль интерфейса пользователя предназначен для управления системой манипулирования, выбора объекта и выполнения операции над объектом и содержит блок трекинга глаз для определения направления взгляда пользователя, блок 0 технического зрения для осуществления стереореконструкции области вокруг объекта (то есть области в зоне сервиса манипулятора, в которой может находиться требуемый объект манипуляции), построения карты диспаратности и определения характеристик объекта, включающих по меньшей мере геометрические размеры объекта и расстояние до объекта, а также блок нейрогарнитуры для регистрации биоэлектрических 5 потенциалов активности головного мозга пользователя и их передачи модулю управления. Модуль крепления предназначен для крепления модуля манипулятора к внешнему устройству, например, инвалидной коляске. The problem is solved, and the claimed technical result is achieved in the proposed system for manipulating objects (hereinafter also the manipulation system) for performing operations on objects, in particular, for capturing, 5 holding and moving objects. The object manipulation system comprises a manipulator module, at least one gripper module, a control module, a user interface module, and a fastening module. The manipulator module contains at least one manipulator drive, which includes a manipulator motor and a manipulator gear. Gripper module is installed on the manipulator module and contains at least one gripper drive including the gripper motor. The control module contains a control unit for the manipulator module for controlling the manipulator drive and executing the control algorithm for the manipulator module, 5 as well as a control unit for the gripping device module for controlling the gripping device drive and executing the control algorithm for the gripping device module. The user interface module is designed to control the manipulation system, select an object and perform an operation on the object and contains an eye tracking unit for determining the direction of the user's gaze, a computer vision unit 0 for performing a stereo reconstruction of the area around the object (that is, an area in the service area of the manipulator where required manipulation object), constructing a disparity map and determining the characteristics of the object, including at least the geometric dimensions of the object and the distance to the object, as well as a neuro-headset unit for recording bioelectric potentials of the user's brain activity and transferring them to the control module. The attachment module is designed to attach the manipulator module to an external device, such as a wheelchair.
Заявленная система манипулирования объектами позволяет определять объекты, которыми пользователь желает управлять, и собственно управлять ими, где О под управлением понимается, в частности, захват объекта, удержание объекта и перемещение объектов. The declared object manipulation system allows you to determine the objects that the user wants to control, and actually control them, where O under control is understood, in particular, to capture an object, hold an object and move objects.
Поставленная задача решается, а заявленный технический результат достигается также в частных вариантах выполнения заявленной системы манипулирования, которыми, однако, данное изобретение не ограничивается. The problem is solved, and the claimed technical result is also achieved in particular embodiments of the claimed manipulation system, which, however, the present invention is not limited to.
5 Так, на валу двигателя манипулятора может быть установлен абсолютный датчик угла поворота. 5 For example, an absolute angle sensor can be installed on the manipulator motor shaft.
Для управления двигателем манипулятора модуль управления может дополнительно содержать ПИД-регуляторы тока, скорости, положения и крутящего момента. На выходном валу редуктора манипулятора может быть установлен абсолютный датчик угла поворота. To control the manipulator motor, the control module may additionally contain PID controllers for current, speed, position and torque. An absolute angle sensor can be installed on the output shaft of the manipulator gearbox.
Предпочтительно, если блок трекинга глаз выполнен с возможностью определения координат вектора направления взгляда. При этом блок трекинга глаз может быть выполнен с возможностью определения координат пересечения вектора направления взгляда с плоскостью, в которой находится объект. It is preferable if the eye tracking unit is configured to determine the coordinates of the gaze direction vector. In this case, the eye tracking unit can be configured to determine the coordinates of the intersection of the gaze direction vector with the plane in which the object is located.
Также является предпочтительным, если блок технического зрения выполнен с возможностью осуществления стереореконструкции области вокруг объекта с заданной частотой. Еще в одном предпочтительном варианте исполнения изобретения блок технического зрения содержит стереопару, включающую камеры стереопары, блок обработки стереоизображений и блок сопоставления изображений области вокруг объекта, полученных с разных ракурсов от камер стереопары и от камеры блока трекинга глаз. Блок технического зрения, предпочтительно, находится над головой инвалида-оператора, а блок трекинга глаз - на голове оператора в очках, и таким образом получают два изображения с разных ракурсов. It is also preferable if the vision unit is configured to perform stereo reconstruction of the area around the object with a given frequency. In another preferred embodiment of the invention, the technical vision unit contains a stereo pair, including the stereo pair cameras, a stereo image processing unit and a unit for matching images of the area around the object obtained from different angles from the stereo pair cameras and from the eye tracking unit camera. The technical vision unit is preferably located above the head of the disabled operator, and the eye tracking unit is located on the head of the operator wearing glasses, and thus two images are obtained from different angles.
Кром того, блок нейрогарнитуры может содержать сухие активные электроды для регистрации биоэлектрических потенциалов активности головного мозга пользователя. Далее заявленная система манипулирования объектами и ее работа более подробно поясняются со ссылкой на фигуру, на которой схематично представлена система манипулирования. In addition, the headset unit can contain dry active electrodes for recording bioelectric potentials of the user's brain activity. Next, the claimed object manipulation system and its operation are explained in more detail with reference to the figure, which schematically shows the manipulation system.
На фигуре ссылочными позициями отмечены: In the figure, reference numerals indicate:
1 — модуль манипулятора (ММ); 2 — модуль захватного устройства (МЗУ); 1 - manipulator module (MM); 2 - gripper module (MZU);
3 - модуль управления (МУ); 3 - control module (MU);
3.1 - блок управления модулем манипулятора (БУММ); 3.1 - manipulator module control unit (BUMM);
3.2 - блок управления модулем захватного устройства (БУМЗУ); 3.2 - gripper module control unit (BUMZU);
4 — модуль интерфейса пользователя (МИП); 4.1 - блок трекинга глаз (БТГ); 4 - user interface module (MIP); 4.1 - eye tracking unit (BTG);
4.2 - блок технического зрения (БТЗ); 4.2 - unit of technical vision (BTZ);
4.3 - блок нейрогарнитуры (БН); 4.3 - neuro-headset unit (BN);
5 - модуль крепления (МК). 5 - mounting module (MK).
5 Как было указано выше, система манипулирования объектами предназначена для выполнения операций над объектами, в частности, для захвата, удержания и перемещения объектов. Система манипулирования должна позволять выполнять указанные операции пользователю с ограниченной подвижностью, в частности, с ограниченной подвижностью верхних конечностей, и при этом гарантировать точное О выполнение именно тех движений, которые желает осуществить пользователь. 5 As mentioned above, the object manipulation system is designed to perform operations on objects, in particular, to grip, hold and move objects. The manipulation system should allow the specified operations to be performed by a user with limited mobility, in particular, with limited mobility of the upper limbs, and at the same time guarantee the exact execution of exactly those movements that the user wishes to perform.
В целом, система манипулирования содержит модуль манипулятора 1 (также ММ), по меньшей мере один модуль захватного устройства 2 (также МЗУ), модуль управления 3 (также МУ), модуль интерфейса пользователя 4 (также МИП) и модуль крепления 5 (также МК). In general, the manipulation system contains a manipulator module 1 (also MM), at least one gripper module 2 (also MZU), a control module 3 (also MU), a user interface module 4 (also MIP) and a fastening module 5 (also MK ).
5 ММ 1 предназначен для перемещения в пространстве МЗУ 2 и может быть установлен на любом объекте, в том числе на инвалидной коляске, посредством МК 5, установленном на одном конце ММ 1 или вблизи него. В качестве ММ 1 может быть выбрана любая известная конструкция роботизированного манипулятора, например, описанная в RU2700246 или US2007095582. Тем не менее, предпочтительно, чтобы О количество звеньев ММ 1 составляло от четырех до шести: меньшее количество звеньев может не обеспечивать точное и быстрое позиционирование МЗУ 2 в пространстве с множеством предметов, в большее количество звеньев не только усложняет конструкцию всей системы манипулирования, но и увеличивает ее вес, что критично, в частности, при ее использовании на инвалидной коляске. В US2007095582 также :5 приведен возможный вариант крепления ММ 1 к инвалидной коляске посредством МК 5. 5 MM 1 is designed to move in the space of MM 2 and can be installed on any object, including a wheelchair, by means of MK 5 installed at one end of MM 1 or near it. As MM 1, any known design of a robotic arm can be selected, for example, described in RU2700246 or US2007095582. Nevertheless, it is preferable that O the number of links MM 1 is from four to six: a smaller number of links may not provide accurate and fast positioning of the MM 2 in a space with many objects, in a larger number of links not only complicates the design of the entire handling system, but also increases its weight, which is critical, in particular, when using it on a wheelchair. In US2007095582 also: 5 shows a possible option for attaching MM 1 to a wheelchair by means of MK 5.
ММ 1 содержит по меньшей мере один привод манипулятора, включающий двигатель манипулятора и редуктор манипулятора (на фигуре не показаны). Предпочтительно, но не обязательно, если каждое звено ММ 1 содержит свой привод манипулятора, что позволяет более точно позиционировать МЗУ 2 в пространстве. MM 1 contains at least one manipulator drive, which includes a manipulator motor and a manipulator gearbox (not shown in the figure). It is preferable, but not necessary, if each link MM 1 contains its own manipulator drive, which makes it possible to more accurately position the MM 2 in space.
На валу двигателя манипулятора одного или нескольких приводов манипулятора может быть дополнительно установлен датчик угла поворота. Даже при использовании прецизионных двигателей манипулятора возможны ошибки в позиционировании секций ММ 1 , особенно критичные для дальней от МК 5 секции, на которой установлен МЗУ 2, в условиях стесненного пространства и/или большого количества объектов. Наличие датчика угла поворота на валу двигателя манипулятора позволяет точно контролировать угол поворота вала. При этом наиболее предпочтительным является использование абсолютного датчика угла поворота, который позволяет избежать накопления ошибок в определении угла поворота вала. An angle sensor can be additionally installed on the shaft of the manipulator motor of one or more manipulator drives. Even when using precision motors of the manipulator, errors in the positioning of the MM 1 sections are possible, especially critical for the section farthest from the MK 5, on which the MZU 2 is installed, in a confined space and / or a large number of objects. The presence of a rotation angle sensor on the manipulator motor shaft allows precise control of the shaft rotation angle. In this case, the most preferable is the use of an absolute encoder of the angle of rotation, which avoids the accumulation of errors in determining the angle of rotation of the shaft.
То же самое относится и к выходному валу редуктора манипулятора одного или нескольких приводов манипулятора: чем выше точность определения поворота этого вала, тем в итоге точнее позиционируется МЗУ 2 в пространстве. Поэтому и в этом случае предпочтительно устанавливать датчик угла поворота на выходном валу редуктора манипулятора одного или нескольких приводов манипулятора, наиболее предпочтительно - абсолютного датчика угла поворота, который позволяет избежать накопления ошибок в определении угла поворота вала. The same applies to the output shaft of the manipulator gearbox of one or more manipulator drives: the higher the accuracy of determining the rotation of this shaft, the more accurately the MZU 2 is positioned in space. Therefore, in this case, too, it is preferable to install a rotation angle sensor on the output shaft of the manipulator gearbox of one or more manipulator drives, most preferably an absolute rotation angle sensor, which avoids accumulation of errors in determining the shaft rotation angle.
МЗУ 2 установлен на другом конце ММ 1 от МК 5 или вблизи него и предназначен для захвата и удержания объектов манипуляции. В качестве МЗУ 2 может быть выбрано любое известное устройство аналогичного назначения, например, описанное в RU118579 или US8936289. При этом предпочтительно, если конструкция МЗУ 2 выполнена таким образом, что для управления пальцами МЗУ 2 достаточно одного привода захватного устройства, включающего двигатель захватного устройства. Это обеспечивает МЗУ 2 компактность и небольшой вес, а значит, точное и быстрое позиционирование МЗУ 2 в пространстве с множеством предметов. MZU 2 is installed at the other end of MM 1 from MK 5 or near it and is designed to grip and hold objects to be manipulated. Any known device for a similar purpose, for example, described in RU118579 or US8936289, can be selected as MZU 2. In this case, it is preferable if the design of the MCD 2 is made in such a way that one drive of the gripper, including the motor of the gripper, is sufficient to control the fingers of the MCD 2. This provides MZU 2 compactness and low weight, which means accurate and fast positioning of MZU 2 in a space with many objects.
МУ 3 представляет собой электронное устройство и предназначен для исполнения алгоритма управления ММ 1 и соответственно управления ММ 1 , а также для исполнения алгоритма управления МЗУ 2 и соответственно управления МЗУ 2. Для этих целей МУ 3 содержит соответственно блок управления модулем манипулятора 3.1 (также БУММ) и блок управления модулем захватного устройства 3.2 (также БУМЗУ). MU 3 is an electronic device and is designed to execute the control algorithm MM 1 and, accordingly, control MM 1, as well as to execute the control algorithm MZU 2 and, accordingly, control MZU 2. For for these purposes, MU 3 contains, respectively, a control unit for the manipulator module 3.1 (also BUMM) and a control unit for the gripper module 3.2 (also BUMZU).
В частном варианте исполнения МУ 3 может представлять собой электронное устройство на основе 32-битного микроконтроллера, например STM32F103C8T6. На плате МУ 3 также могут быть расположены стабилизаторы напряжения, драйвер CAN- шины, драйверы управления двигателями манипулятора (в БУММ 3.1), драйверы управления двигателями захватного устройства (в БУМЗУ 3.2), порты подключения абсолютных датчиков положения и скорости, если какие-то из них используются в ММ 1 и/или МЗУ 2, порт расширения для подключения внешних модулей, интерфейсы к энкодерам и тензодатчикам. In a private embodiment, MU 3 can be an electronic device based on a 32-bit microcontroller, for example, STM32F103C8T6. On the MU 3 board, voltage stabilizers, a CAN bus driver, drivers for controlling the manipulator motors (in BUMM 3.1), drivers for controlling the gripper motors (in BUMZU 3.2), ports for connecting absolute position and speed sensors, if any of they are used in MM 1 and / or MZU 2, an expansion port for connecting external modules, interfaces to encoders and strain gauges.
БУММ 3.1 и БУМЗУ 3.2 могут совместно использовать указанный микроконтроллер для исполнения алгоритма управления ММ 1 и алгоритма управления МЗУ 2. BUMM 3.1 and BUMZU 3.2 can share the specified microcontroller to execute the MM 1 control algorithm and the MCU 2 control algorithm.
В частном варианте исполнения МУ 3 дополнительно содержит пропорционально-интегрально-дифференцирующие регуляторы (ПИД-регуляторы) тока, скорости, положения и крутящего момента для управления двигателями манипулятора и двигателями захватного устройства. In a private version, MU 3 additionally contains proportional-integral-differentiating controllers (PID controllers) of current, speed, position and torque to control the manipulator motors and the gripper motors.
С помощью МИП 4 пользователь управляет системой манипулирования объектами, выбирает объект и выполняет желаемые операции над объектом. МИП 4 содержит блок трекинга глаз 4.1 (также БТГ), блок технического зрения 4.2 (также БТЗ), блок нейрогарнитуры 4.3 (также БЫ). With the help of MIP 4, the user controls the object manipulation system, selects the object and performs the desired operations on the object. MIP 4 contains an eye tracking unit 4.1 (also BTG), a technical vision unit 4.2 (also BTZ), and a neuro headset unit 4.3 (also WB).
БТГ 4.1 предназначен для определения направления взгляда пользователя, что далее используется для осуществления задачи взаимодействия пользователя с системой манипулирования. В частности, БТГ 4.1 посредством входящей в его состав камеры (или камер) может обеспечивать определение координат вектора направления взгляда и, дополнительно, координаты пересечения вектора направления взгляда с плоскостью, в которой находится объект манипуляции. BTG 4.1 is designed to determine the direction of the user's gaze, which is then used to accomplish the task of user interaction with the manipulation system. In particular, BTG 4.1, by means of the camera (or cameras) included in it, can provide the determination of the coordinates of the gaze direction vector and, additionally, the coordinates of the intersection of the gaze direction vector with the plane in which the manipulation object is located.
В качестве БТГ 4.1 может быть использовано любое известное устройство, например, Tobii Pro или SMI Eye Tracking Glasses. БТЗ 4.2 осуществляет стереореконструкцию области вокруг объекта, то есть области в зоне перемещени МЗУ 2, в которой может находиться объект манипуляции. Способы стереореконструкции широко представлены в уровне техники и не требуют дополнительных пояснений. При этом стереореконструкция может осуществляться с 5 заданной частотой. БТЗ 4.2 также осуществляет построение карты диспаратности, то есть карты взаимного положения точек, отображаемых на сетчатках левого и правого глаза. Кроме того, еще одной функцией БТЗ 4.2 является определение характеристик объекта манипуляции, таких как геометрические размеры объекта, расстояние до объекта. Any known device can be used as BTG 4.1, for example, Tobii Pro or SMI Eye Tracking Glasses. BTZ 4.2 carries out a stereo reconstruction of the area around the object, that is, the area in the movement zone of the MZU 2, in which the manipulation object can be located. Stereo reconstruction methods are widely presented in the prior art and do not require further explanation. In this case, stereo reconstruction can be carried out at a given frequency. BTZ 4.2 also builds a disparity map, that is, a map of the relative position of points displayed on the retinas of the left and right eyes. In addition, another function of BTZ 4.2 is to determine the characteristics of the manipulated object, such as the geometric dimensions of the object, the distance to the object.
0 Для выполнения своих функций БТЗ 4.2 может содержать стереопару, включающую камеры стереопары, блок обработки стереоизображений и блок сопоставления изображений области вокруг объекта, полученных с разных ракурсов от камер стереопары и от камеры БТГ 4.1. Разные ракурсы достигаются в частности тем, что БТЗ 4.2 размещают примерно над головой пользователя, а БТГ 4.1 - в очках, таким 5 образом обеспечивая получение двух изображений области вокруг объекта с разных ракурсов. 0 To perform its functions, BTZ 4.2 may contain a stereopair including stereo pair cameras, a stereo image processing unit and a unit for comparing images of the area around the object obtained from different angles from the stereo pair cameras and from the BTG 4.1 camera. Different angles are achieved in particular by the fact that BTZ 4.2 is placed approximately above the user's head, and BTG 4.1 - in glasses, thus 5 providing two images of the area around the object from different angles.
БН 4.3 предназначен для регистрации биоэлектрических потенциалов активности головного мозга пользователя и передачи их МУ 3. Для этого БН 4.3 может содержать сухие активные электроды. BN 4.3 is designed to record bioelectric potentials of the user's brain activity and transfer them to MU 3. For this, BN 4.3 can contain dry active electrodes.
О Заявленная система манипулирования объектами работает следующим образом. О The declared object manipulation system works as follows.
Пользователь фиксирует внимание на объекте, с которым он хочет осуществить манипуляции. The user fixes attention on the object with which he wants to perform manipulations.
БТГ 4.1 определяет направление взгляда пользователя. BTG 4.1 determines the direction of the user's gaze.
БТЗ 4.2 посредством входящих в ее состав камер, например, камер стереопары 5 фиксирует окружающую обстановку, на основании данных от БТГ 4.1 рассчитывает точку фиксации взгляда пользователя на полученном изображении, распознает находящийся в этой точке объект, определяет расстояние от головы пользователя до объекта и расстояние от МЗУ 2 до объекта. Далее пользователь выбирает действие, которое он хочет выполнить с распознанным объектом, например, переместить объект из одной точки пространства в другую, нажать клавишу или выключатель и т.п. Распознавание намерения пользователя в заявленной системе манипулирования может быть реализовано 5 разными способами. Первый вариант распознавания намерения пользователя осуществляется посредством БН 4.3, при котором регистрируются сигналы поверхностной электроэнцефалограммы. Второй вариант распознавания намерения пользователя осуществляется посредством БТГ 4.1, при котором пользователь выбирает одно из предложенных действий по средствам фиксации взгляда на одной из 0 иконок, отображаемых на оптически прозрачном дисплее дополненной реальности БТГ 4.1. BTZ 4.2, through its cameras, for example, stereo pair 5 cameras, captures the surrounding environment, based on data from BTG 4.1, calculates the fixation point of the user's gaze on the resulting image, recognizes the object at this point, determines the distance from the user's head to the object and the distance from MZU 2 to the object. Next, the user chooses the action he wants to perform with the recognized object, for example, move the object from one point in space to another, press a key or switch, etc. Recognition of the user's intention in the claimed manipulation system can be implemented in 5 different ways. The first option for recognizing the user's intention is carried out by means of BN 4.3, in which signals from the surface electroencephalogram are recorded. The second option for recognizing the user's intention is carried out by means of BTG 4.1, in which the user selects one of the proposed actions by means of fixing his gaze on one of 0 icons displayed on the optically transparent display of augmented reality BTG 4.1.
Для примера предположим, что пользователем выбрано действие по перемещению объекта из одной точки пространства в другую. Тогда после указания на объект манипуляции и выбора намерения переместить объект манипуляции в новую 5 точку, пользователь фиксирует внимание на этой новой точке пространства, куда он хочет переместить объект манипуляции. БТГ 4.1 и БТЗ 4.2 совместно определяют новую точку. For example, let's assume that the user has selected an action to move an object from one point in space to another. Then, after pointing to the manipulation object and choosing the intention to move the manipulation object to a new 5 point, the user fixes his attention on this new point in space where he wants to move the manipulation object. BTG 4.1 and BTZ 4.2 jointly define a new point.
Далее МУ 3 посредством БУММ 3.1 и БУМЗУ 3.2 отдает соответствующие команды ММ 1 на подведение МЗУ 2 к точке расположения объекта манипуляции, О захвата и удержания этого объекта МЗУ 2, перемещение объекта манипуляции посредством ММ 1 в новую точку и высвобождение этого объекта МЗУ 2. Further, MU 3, by means of BUMM 3.1 and BUMZU 3.2, gives the corresponding commands to MM 1 to bring MZU 2 to the point of location of the manipulation object, about capturing and holding this object MZU 2, moving the manipulation object by means of MM 1 to a new point and release of this object MZU 2.
В повседневной жизни пользователь может пользоваться системой манипулирования объектами для разных нужд. Так система манипулирования может открывать и закрывать двери, включать свет, наливать напитки, держать стакан с водой 5 и др. На этом ее функции не заканчиваются: она также может убирать игрушки за детьми, кормить собаку, поддерживать человека во время поездок и др. In everyday life, the user can use the object manipulation system for different needs. So the manipulation system can open and close doors, turn on the light, pour drinks, hold a glass of water 5, etc. This is not the end of its functions: it can also remove toys after children, feed a dog, support a person during trips, etc.
Отличительной особенностью заявленной системы манипуляции является высокая точность определения объекта манипуляции среди множества окружающих объектов, компактная и легкая конструкция и четкое определение намерений пользователя по манипуляциям над выбранными объектами манипуляции. A distinctive feature of the declared manipulation system is the high accuracy of determining the object of manipulation among many others. objects, compact and lightweight design and a clear definition of the user's intentions to manipulate the selected manipulation objects.

Claims

ФОРМУЛА ИЗОБРЕТЕНИЯ CLAIM
1. Система манипулирования объектами для выполнения операций над объектами, в частности, для захвата, удержания и перемещения объектов, содержащая: 1. A system for manipulating objects for performing operations on objects, in particular, for gripping, holding and moving objects, containing:
5 - модуль манипулятора, содержащий по меньшей мере один привод манипулятора, включающий двигатель манипулятора и редуктор манипулятора, 5 - a manipulator module containing at least one manipulator drive, including a manipulator motor and a manipulator gear,
- по меньшей мере один модуль захватного устройства, установленный на модуле манипулятора и содержащий по меньшей мере один привод захватного устройства, включающий двигатель захватного устройства, - at least one gripping device module mounted on the manipulator module and containing at least one gripping device drive including a gripping device motor,
.0 - модуль управления, включающий: блок управления модулем манипулятора, выполненный с возможностью управления приводом манипулятора и исполнения алгоритма управления модулем манипулятора, и блок управления модулем захватного устройства, выполненный с .5 возможностью управления приводом захватного устройства и исполнения алгоритма управления модулем захватного устройства, .0 - control module, including: a manipulator module control unit, configured to control the manipulator drive and execute the manipulator module control algorithm, and a gripping device module control unit, made with .5 the ability to control the gripping device drive and execute the gripping device module control algorithm,
- модуль интерфейса пользователя для управления системой манипулирования, выбора объекта и выполнения операции над объектом, включающий: блок трекинга глаз, выполненный с возможностью определения направления !0 взгляда пользователя, блок технического зрения, выполненный с возможностью осуществления стереореконструкции области вокруг объекта, построения карты диспаратности и определения характеристик объекта, включающих по меньшей мере геометрические размеры объекта и расстояние до объекта, и >5 блок нейрогарнитуры, выполненный с возможностью регистрации биоэлектрических потенциалов активности головного мозга пользователя и их передачи модулю управления, и - a user interface module for controlling the manipulation system, selecting an object and performing an operation on an object, including: an eye tracking unit made with the ability to determine the direction! 0 of the user's gaze, a technical vision unit made with the possibility of performing a stereo reconstruction of the area around the object, constructing a disparity map, and determining the characteristics of the object, including at least the geometric dimensions of the object and the distance to the object, and> 5 a neuro-headset unit configured to register bioelectric potentials of the user's brain activity and transmit them to the control module, and
- модуль крепления для крепления модуля манипулятора. - mounting module for attaching the manipulator module.
2. Система манипулирования по п. 1, в которой на валу двигателя манипулятора установлен абсолютный датчик угла поворота. 2. A manipulation system according to claim 1, in which an absolute rotational angle sensor is installed on the manipulator motor shaft.
3. Система манипулирования по п. 1 или 2, в которой модуль управления 3. A manipulation system according to claim 1 or 2, in which the control module
5 дополнительно содержит ПИД-регуляторы тока, скорости, положения и крутящего момента для управления двигателем манипулятора. 5 additionally contains PID controllers for current, speed, position and torque to control the manipulator motor.
4. Система манипулирования по п. 1, в которой на выходном валу редуктора манипулятора установлен абсолютный датчик угла поворота. 4. The manipulation system according to claim 1, in which an absolute sensor of the angle of rotation is installed on the output shaft of the manipulator reducer.
0 0
5. Система манипулирования по п. 1, в которой блок трекинга глаз выполнен с возможностью определения координат вектора направления взгляда. 5. A manipulation system according to claim 1, wherein the eye tracking unit is configured to determine the coordinates of the gaze direction vector.
6. Система манипулирования по п. 5, в которой блок трекинга глаз выполнен с 5 возможностью определения координат пересечения вектора направления взгляда с плоскостью, в которой находится объект. 6. A manipulation system according to claim 5, in which the eye tracking unit is configured to determine the coordinates of the intersection of the gaze direction vector with the plane in which the object is located.
7. Система манипулирования по п. 1, в которой блок технического зрения выполнен с возможностью осуществления стереореконструкции с заданной частотой. 7. A manipulation system according to claim 1, wherein the vision unit is configured to perform stereo reconstruction with a predetermined frequency.
:0 : 0
8. Система манипулирования по п. 1, 5 или 6, в которой блок технического зрения содержит стереопару, включающую камеры стереопары, блок обработки стереоизображений и блок сопоставления изображений области вокруг объекта, полученных с разных ракурсов от камер стереопары и от камеры блока трекинга глаз. 8. A manipulation system according to claim 1, 5 or 6, in which the vision unit contains a stereopair including stereopair cameras, a stereoimage processing unit and a unit for comparing images of the area around the object obtained from different angles from the stereopair cameras and from the eye tracking unit camera.
!5 !five
8. Система манипулирования по п. 1, в которой блок нейрогарнитуры содержит сухие активные электроды для регистрации биоэлектрических потенциалов активности головного мозга пользователя. 8. The manipulation system according to claim 1, in which the neuro-headset unit contains dry active electrodes for recording bioelectric potentials of the user's brain activity.
PCT/RU2019/000928 2019-12-10 2019-12-10 Object handling system WO2021118388A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/RU2019/000928 WO2021118388A1 (en) 2019-12-10 2019-12-10 Object handling system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2019/000928 WO2021118388A1 (en) 2019-12-10 2019-12-10 Object handling system

Publications (1)

Publication Number Publication Date
WO2021118388A1 true WO2021118388A1 (en) 2021-06-17

Family

ID=76330574

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2019/000928 WO2021118388A1 (en) 2019-12-10 2019-12-10 Object handling system

Country Status (1)

Country Link
WO (1) WO2021118388A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SU1134361A1 (en) * 1982-10-06 1985-01-15 Институт Технической Кибернетики Ан Бсср Perceptive manipulator gripper
SU1296404A1 (en) * 1985-03-04 1987-03-15 Донецкое Отделение Института "Гипроуглеавтоматизация" Double-acting servo system
US20140276944A1 (en) * 2013-03-14 2014-09-18 Board Of Regents Of The University Of Nebraska Methods, Systems, and Devices Relating to Robotic Surgical Devices, End Effectors, and Controllers
EP2813194A1 (en) * 2013-06-12 2014-12-17 Georg-August Universität Göttingen Control of limb device
RU182738U1 (en) * 2018-03-12 2018-08-29 Общество с ограниченной ответственностью "Нейроботикс Трейдинг" Dry active electrode for neurocomputer interface
CN108646915A (en) * 2018-05-03 2018-10-12 东南大学 The method and system of object is captured in conjunction with three-dimensional eye tracking and brain-computer interface control machinery arm
CN109875777A (en) * 2019-02-19 2019-06-14 西安科技大学 It is a kind of with the wheelchair for taking object function and its to take object control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SU1134361A1 (en) * 1982-10-06 1985-01-15 Институт Технической Кибернетики Ан Бсср Perceptive manipulator gripper
SU1296404A1 (en) * 1985-03-04 1987-03-15 Донецкое Отделение Института "Гипроуглеавтоматизация" Double-acting servo system
US20140276944A1 (en) * 2013-03-14 2014-09-18 Board Of Regents Of The University Of Nebraska Methods, Systems, and Devices Relating to Robotic Surgical Devices, End Effectors, and Controllers
EP2813194A1 (en) * 2013-06-12 2014-12-17 Georg-August Universität Göttingen Control of limb device
RU182738U1 (en) * 2018-03-12 2018-08-29 Общество с ограниченной ответственностью "Нейроботикс Трейдинг" Dry active electrode for neurocomputer interface
CN108646915A (en) * 2018-05-03 2018-10-12 东南大学 The method and system of object is captured in conjunction with three-dimensional eye tracking and brain-computer interface control machinery arm
CN109875777A (en) * 2019-02-19 2019-06-14 西安科技大学 It is a kind of with the wheelchair for taking object function and its to take object control method

Similar Documents

Publication Publication Date Title
US11801100B2 (en) Estimation of a position and orientation of a frame used in controlling movement of a tool
Asfour et al. Toward humanoid manipulation in human-centred environments
CN107921645B (en) Remote operation robot system
US10660717B2 (en) Robotic interface positioning determination systems and methods
US8498745B2 (en) Robot apparatus and gripping method for use in robot apparatus
EP2739231B1 (en) Operation support device
EP2617530B1 (en) Master operation input device and master-slave manipulator
WO2011065035A1 (en) Method of creating teaching data for robot, and teaching system for robot
Natale et al. A sensitive approach to grasping
JPWO2018097223A1 (en) Robot control system, machine control system, robot control method, machine control method, and recording medium
JP2011110620A (en) Method of controlling action of robot, and robot system
Vogel et al. EDAN: An EMG-controlled daily assistant to help people with physical disabilities
Fishel et al. Tactile telerobots for dull, dirty, dangerous, and inaccessible tasks
CN111319039B (en) Robot
CN110709211B (en) Robot system and control method for robot system
Wang et al. Free-view, 3d gaze-guided, assistive robotic system for activities of daily living
CN112008692A (en) Teaching method
CN113084784A (en) Wearable external limb robot assisting in operation on top of head
Schwaner et al. MOPS: A modular and open platform for surgical robotics research
JP3482228B2 (en) Manipulator control system by gaze detection
WO2021118388A1 (en) Object handling system
Chu et al. Hands-free assistive manipulator using augmented reality and tongue drive system
Farahmand et al. An intelligent assistive robotic manipulator
Lee et al. A self-reliance assistive tool for disable people
Minamoto et al. Tele-Operation of Robot by Image Processing of Markers Attached to Operator's Head

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19955505

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19955505

Country of ref document: EP

Kind code of ref document: A1