WO2021133186A1 - Method for controlling robotic manipulator - Google Patents

Method for controlling robotic manipulator Download PDF

Info

Publication number
WO2021133186A1
WO2021133186A1 PCT/RU2019/001001 RU2019001001W WO2021133186A1 WO 2021133186 A1 WO2021133186 A1 WO 2021133186A1 RU 2019001001 W RU2019001001 W RU 2019001001W WO 2021133186 A1 WO2021133186 A1 WO 2021133186A1
Authority
WO
WIPO (PCT)
Prior art keywords
laser emitter
scene
coordinate system
target point
point
Prior art date
Application number
PCT/RU2019/001001
Other languages
French (fr)
Russian (ru)
Inventor
Андрей Владимирович НОВИКОВ
Владимир Николаевич ГЕРАСИМОВ
Роман Александрович ГОРБАЧЕВ
Никита Евгеньевич ШВИНДТ
Владимир Иванович НОВИКОВ
Андрей Евгеньевич ЕФРЕМЕНКО
Дмитрий Леонидович ШИШКОВ
Михаил Нилович ЗАРИПОВ
Филипп Александрович КОЗИН
Алексей Михайлович СТАРОСТЕНКО
Original Assignee
федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)"
Общество С Ограниченной Ответственностью "Нейроассистивные Технологии"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)", Общество С Ограниченной Ответственностью "Нейроассистивные Технологии" filed Critical федеральное государственное автономное образовательное учреждение высшего образования "Московский физико-технический институт (национальный исследовательский университет)"
Priority to PCT/RU2019/001001 priority Critical patent/WO2021133186A1/en
Publication of WO2021133186A1 publication Critical patent/WO2021133186A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals

Abstract

The invention relates to robotic systems for handling objects by means of a manipulator with a gripping device. The claimed method for controlling a robotic manipulator comprises selecting an area for projection of a beam from a laser emitter by determining a gaze direction; receiving an image of the scene around the projection area; determining the possibility of projecting a beam onto the projection area; selecting the optimal point for the laser emitter position; determining the current position of the laser emitter in a system of coordinates of a stereoscopic camera of the scene; bringing the laser emitter to the optimal point; and projecting a beam from the laser emitter beam onto the projection area. The method can be realised by means of a robotic system comprising a manipulator with a laser emitter mounted thereon, a stereoscopic camera of the scene and a stereoscopic camera of the eyes. The technical result of the invention consists in increasing the degree of accuracy of controlling a light pointer, more particularly a laser pointer, by means only of the user's gaze.

Description

СПОСОБ УПРАВЛЕНИЯ РОБОТИЗИРОВАННЫМ МАНИПУЛЯТОРОМ METHOD FOR CONTROL OF A ROBOTIC MANIPULATOR
Изобретение относится к робототехнике, в частности, к роботизированным системам для простого управления средствами указания, такими как лазерная указка. The invention relates to robotics, in particular, to robotic systems for easy control of pointing devices such as a laser pointer.
Для пациентов с ограниченной подвижностью рук одной из актуальных задач является непосредственное взаимодействие с объектами окружающей среды и другими людьми. При этом иногда важно иметь возможность указывать на объект интереса напрямую, а не через интерфейс приложения, выводимый на экран. Это может выполняться, например, посредством лазерной указки. For patients with limited hand mobility, one of the urgent tasks is direct interaction with environmental objects and other people. That said, it is sometimes important to be able to point to the object of interest directly, rather than through the application interface displayed on the screen. This can be done, for example, with a laser pointer.
Из патента США US 8442661 известна система телеприсутствия, в состав которой входят мобильный робот, оснащенный лазером, и устройство пользовательского интерфейса. Лазер может наводиться оператором робота посредством устройства пользовательского интерфейса. Устройство пользовательского интерфейса содержит модуль отслеживания положения головы и модуль ввода, включающий, например, джойстик, мышь, клавиатуру, трекбол, тачпад. Недостатком данной системы является невозможность ее использования пользователями с ограниченной подвижностью рук. From US patent US 8442661 known telepresence system, which includes a mobile robot equipped with a laser and a user interface device. The laser can be targeted by the robot operator through a user interface device. The user interface device contains a head tracking module and an input module including, for example, a joystick, mouse, keyboard, trackball, touchpad. The disadvantage of this system is the inability to use it by users with limited hand mobility.
В заявке на патент США US20150331484 предлагается вводить в изображение, воспринимаемое камерой пользовательского устройства, анимированную лазерную указку и управлять ее перемещением взглядом пользователя. Взгляд пользователя отслеживается устройством отслеживания взгляда. Недостатком этой системы является обязательное использование индикатора (пятна анимированной лазерной указки) не на реальном объекте, а на изображении, выводимом на экран, что, помимо прочего, снижает точность позиционирования лазерной указки на объект. In the application for US patent US20150331484 it is proposed to enter an animated laser pointer into the image perceived by the camera of the user device and control its movement by the user's gaze. The user's gaze is tracked by an eye-tracking device. The disadvantage of this system is the mandatory use of an indicator (spots of an animated laser pointer) not on a real object, but on the image displayed on the screen, which, among other things, reduces the positioning accuracy of the laser pointer on the object.
В статье A. Petrushin, В. Giacinto, М. LeonardoGaze-controlled Laser Pointer Platform for People with Severe Motor Impairments: Preliminary Test in Telepresence (опубл. в Conference proceedings: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Conference. 2018. 1813-1816, DOI: 10.1109/EMBC.2018.8512722) ставится задача обеспечения возможности непосредственного взаимодействия пациента с окружающей его средой и другими людьми при помощи указания на объекты лазерным лучом. Для решения этой задачи предложена мобильная платформа, оснащенная лазерной указкой и видеокамерой. Мобильная платформа способна перемещаться в пространстве по указанию пациента. Сцена, регистрируемая видеокамерой мобильной платформы, в режиме потокового видео передается на устройство пациента. Пациент управляет мобильной платформой, перемещая или удерживая взгляд на устройстве пациента. К недостаткам этого решения можно отнести следующие: пациент вынужден указывать только на объекты, находящиеся в поле зрения видеокамеры мобильной платформы; пациент вынужден управлять мобильной платформой через устройство пациента, то есть сам пациент воспринимает окружающую среду не непосредственно, а через экран; режим обеспечения потокового видео требует достаточно надежного канала связи. A. Petrushin, B. Giacinto, M. Leonardo Gaze-controlled Laser Pointer Platform for People with Severe Motor Impairments: Preliminary Test in Telepresence (published in Conference proceedings: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Conference. 2018.1813-1816, DOI: 10.1109 / EMBC.2018.8512722), the task is to ensure the possibility of direct interaction of the patient with the environment its environment and other people by pointing at objects with a laser beam. To solve this problem, a mobile platform equipped with a laser pointer and a video camera has been proposed. The mobile platform is able to move in space at the direction of the patient. The scene recorded by the video camera of the mobile platform is streamed to the patient's device. The patient controls the mobile platform by moving or keeping the gaze on the patient's device. The disadvantages of this solution include the following: the patient is forced to point only to objects in the field of view of the video camera of the mobile platform; the patient is forced to control the mobile platform through the patient's device, that is, the patient himself perceives the environment not directly, but through the screen; the mode of providing streaming video requires a sufficiently reliable communication channel.
Таким образом, существует задача разработки такого способа управления роботизированным манипулятором, который предоставляет пользователю возможность непосредственно указывать на объект интереса, обеспечивая при этом высокую точность позиционирования указательного устройства с применением только взгляда пользователя, т.е. без использования таких дополнительных средств, как джойстик, клавиатура и т.п. Thus, there is a problem of developing such a method for controlling a robotic arm, which provides the user with the ability to directly point to the object of interest, while ensuring high positioning accuracy of the pointing device using only the user's gaze, i.e. without using additional tools such as joystick, keyboard, etc.
Техническим результатом изобретения является повышение точности управления световым указателем, в частности лазерным указателем, при использовании только взгляда пользователя. The technical result of the invention is to improve the control accuracy of the light pointer, in particular the laser pointer, when using only the user's gaze.
Поставленная задача решается, а заявленный технический результат достигается в предложенном способе управления роботизированным манипулятором, содержащим лазерный излучатель, стереокамеру сцены для получения изображений сцены и стереокамеру глаз для получения изображений левого глаза и правого глаза. Способ включает выбор области проекции луча лазерного излучателя путем определения направления взгляда; получение изображения сцены вокруг области проекции; определение возможности проекции луча на область проекции; выбор оптимальной точки положения лазерного излучателя; определение текущего положения лазерного излучателя в системе координат стереокамеры сцены; подвод лазерного излучателя в оптимальную точку; и осуществление проекции луча лазерного излучателя на область проекции. Поставленная задача решается, а заявленный технический результат достигается также в частных вариантах реализации способа управления роботизированным манипулятором, которыми, однако, данное изобретение не ограничивается. The problem is solved, and the claimed technical result is achieved in the proposed method for controlling a robotic manipulator containing a laser emitter, a stereo scene camera for obtaining images of the scene and a stereo eye camera for obtaining images of the left eye and right eye. The method includes selecting a projection area of a beam of a laser emitter by determining a direction of sight; obtaining an image of the scene around the projection area; determination of the possibility of beam projection onto the projection area; selection of the optimal point for the position of the laser emitter; determination of the current position of the laser emitter in the coordinate system of the scene stereo camera; approach of the laser emitter to the optimal point; and projection of the laser emitter beam onto the projection area. The problem is solved, and the claimed technical result is also achieved in particular embodiments of the method for controlling a robotic arm, which, however, the present invention is not limited to.
Если определена невозможность проекции луча на область проекции, предпочтительно определить точки положения лазерного излучателя, из которых достижима область проекции с учетом изображения сцены вокруг области проекции и размеров препятствий. If it is determined that it is impossible to project the beam onto the projection area, it is preferable to determine the points of the position of the laser emitter, from which the projection area is reachable, taking into account the scene image around the projection area and the dimensions of the obstacles.
Кроме того, для определения координат текущего положения лазерного излучателя в системе координат стереокамеры является предпочтительным, если: выбирают первую точку-мишень, вторую точку-мишень, третью точку-мишень и четвертую точку-мишень, не лежащие на одной плоскости; последовательно наводят луч на указанные точки-мишени и определяют координаты указанных точек-мишеней в системе координат стереокамеры сцены; определяют расстояние от первой точки-мишени до лазерного излучателя, расстояние от второй точки-мишени до лазерного излучателя и расстояние от третьей точки- мишени до лазерного излучателя в системе координат стереокамеры сцены, а положение четвертой точки-мишени используют для однозначного определения указанных расстояний; строят ортонормальную систему координат Oxyz с единичными ортами i,j, к, при этом: выбирают первую точку началом координат, выбирают орт вектора, проходящего от первой точки-мишени во вторую точку- мишень, направлением единичного орта i в направлении Ох, выполняют ортогонализацию Грама-Шмидта вектора, проходящего от первой точки-мишени в третью точку-мишень, относительно единичного орта / для получения единичного орта j в направлении Оу, выполняют векторное произведение единичных ортов i и j для получения единичного орта к в направлении Oz, и далее выполняют разложение вектора положения лазерного излучателя в системе координат Oxyz по базису системы координат стереокамеры сцены. In addition, to determine the coordinates of the current position of the laser emitter in the coordinate system of the stereo camera, it is preferable if: select the first target point, the second target point, the third target point and the fourth target point, not lying on the same plane; sequentially direct the beam to the specified target points and determine the coordinates of the specified target points in the coordinate system of the scene stereo camera; determining the distance from the first target point to the laser emitter, the distance from the second target point to the laser emitter and the distance from the third target point to the laser emitter in the coordinate system of the scene stereo camera, and the position of the fourth target point is used to unambiguously determine the indicated distances; build an orthonormal coordinate system Oxyz with unit unit vectors i, j, k, while: select the first point by the origin, select the unit unit vector passing from the first target point to the second target point, with the direction of the unit unit unit i in the direction Ox, perform Gram orthogonalization -Schmidt of the vector passing from the first target point to the third target point, relative to the unit reference unit / to obtain the unit unit unit unit j in the Oy direction, perform the vector product of the unit unit unit vectors i and j to obtain the unit unit unit unit k in the Oz direction, and then perform the decomposition of the position vector of the laser emitter in the Oxyz coordinate system on the basis of the scene stereo camera coordinate system.
Далее заявленное изобретение и некоторые варианты его осуществления более подробно поясняются со ссылкой на фигуру, на которой схематично представлена блок-схема алгоритма осуществления проекции луча лазерного излучателя на выбранную пользователем область проекции. Further, the claimed invention and some variants of its implementation are explained in more detail with reference to the figure, which schematically shows a block diagram of an algorithm for implementing the projection of a laser emitter beam onto a user-selected projection area.
На фигуре использованы следующие сокращения: ЛИ - лазерный излучатель; СК - система координат. The figure uses the following abbreviations: LI - laser emitter; SC - coordinate system.
В качестве роботизированного манипулятора может быть использована любая известная роботизированная система, представляющая собой манипулятор с установленным на нем лазерным излучателем, а также включающая стереокамеру сцены и стереокамеру глаз. As a robotic manipulator, any known robotic system can be used, which is a manipulator with a laser emitter installed on it, as well as including a stereo camera of the scene and a stereo camera of the eyes.
Вместо лазерного излучателя может быть использован любой известный направленный источник света, например полупроводниковый светодиод с системой фокусирующих линз, поэтому термин «лазерный излучатель» не следует понимать как ограничивающий данное изобретение использованием в нем только лазерного излучателя. Instead of a laser emitter, any known directional light source can be used, for example a semiconductor LED with a focusing lens system, therefore the term "laser emitter" should not be understood as limiting this invention to the use of only a laser emitter therein.
Стереокамера сцены предназначена для получения изображения окружающего пространства, также называемого сценой. Стереокамера глаз используется для получения изображений левого глаза и правого глаза посредством входящих в ее состав камеры левого глаза и камеры правого глаза. A stereo scene camera is designed to capture an image of the surrounding area, also called a scene. The stereo eye camera is used to acquire images of the left eye and right eye through its constituent left eye cameras and right eye cameras.
Согласно алгоритму работы заявленной системы, представленному на фигуре, для осуществления проекции луча лазерного излучателя на выбранную пользователем область проекции необходимо посредством стереокамеры глаз получить изображения левого глаза и правого глаза для последующего определения желаемой области проекции луча лазерного излучателя. According to the operation algorithm of the claimed system, shown in the figure, in order to project the laser emitter beam onto the projection area selected by the user, it is necessary to obtain images of the left eye and the right eye using a stereo camera of the eyes for subsequent determination of the desired projection area of the laser emitter beam.
На этом этапе получают изображение левого глаза и изображение правого глаза, содержащие блики от источников света левого глаза и правого глаза, которые могут располагаться рядом со стереокамерой глаз. Далее определяют положение зрачка глаза, определяют положение и проводят нумерацию бликов на роговице глаза, определяют оптическую ось направления взгляда каждого глаза и по ней уже определяют направление взгляда. In this step, an image of the left eye and an image of the right eye are obtained containing glare from the light sources of the left eye and the right eye, which may be located near the stereo camera of the eyes. Next, the position of the pupil of the eye is determined, the position and numbering of the highlights on the cornea of the eye are determined, the optical axis of the direction of the gaze of each eye is determined, and the direction of gaze is already determined from it.
При определении положения зрачка каждого глаза на изображении каждого глаза выполняют предварительный поиск зрачка, выполняют построение предварительного эллипса зрачка и по его узловым точкам строят эллипс зрачка. При определении положения и нумерации бликов на роговице каждого глаза на изображении глаза выполняют поиск бликов, вычисляют размер радужки, исключают блики, находящиеся за пределами радужки, и выполняют нумерацию бликов для определения вектора направления взгляда. При определении оптической оси направления взгляда каждого глаза определяют нодальную точку глаза, точку рефракции для центра зрачка, положение центра зрачка в системе координат камеры сцены. Определение направления взгляда выполняют на основании определенной оптической оси направления взгляда и калибровки направления взгляда. When determining the position of the pupil of each eye on the image of each eye, a preliminary search for the pupil is performed, a preliminary ellipse of the pupil is constructed, and an ellipse of the pupil is constructed from its nodal points. When determining the position and numbering of flares on the cornea of each eye in the eye image, searching for flares, calculating the size of the iris, eliminating flares outside the iris, and numbering the flares to determine the gaze direction vector. When determining the optical axis of the gaze direction of each eye, the nodal point of the eye, the refractive point for the center of the pupil, and the position of the center of the pupil in the coordinate system of the scene camera are determined. The determination of the gaze direction is performed based on the determined optical gaze direction and the gaze direction calibration.
Для предварительного поиска зрачка могут определять предварительное положение центра зрачка, а также количество пикселей в области зрачка, предварительно характеризующее его размер. При построении предварительного эллипса зрачка является предпочтительным, если в предварительной области зрачка находят порог бинаризации и выполняют бинаризацию для определения границы зрачка для построения предварительного эллипса зрачка. Для построения эллипса зрачка по узловым точкам границы предварительного эллипса зрачка можно использовать метод наименьших квадратов. При этом предпочтительно отфильтровывать узловые точки таким образом, чтобы они образовывали выпуклую фигуру. For preliminary search of the pupil, a preliminary position of the center of the pupil can be determined, as well as the number of pixels in the area of the pupil, which preliminarily characterizes its size. When constructing the preliminary pupil ellipse, it is preferable if the binarization threshold is found in the preliminary pupil area and binarization is performed to determine the pupil boundary to construct the preliminary pupil ellipse. To construct an ellipse of the pupil from the anchor points of the boundary of the preliminary ellipse of the pupil, you can use the method of least squares. In this case, it is preferable to filter the nodal points so that they form a convex figure.
Поиск бликов на роговице глаза можно выполнять, например, пороговой обработкой изображения таза с выделением кластеров и фильтрацией кластеров по яркости, размеру и параметру отклонения от круглости. The search for highlights on the cornea of the eye can be performed, for example, by thresholding the image of the pelvis with the selection of clusters and filtering the clusters by brightness, size and the parameter of deviation from roundness.
При вычислении размера радужки предпочтительно использовать информацию о среднем размере человеческой радужки и информацию о расстоянии от соответствующей камеры левого глаза или камеры правого глаза до зрачка, что повышает точность определения направления взгляда. When calculating the size of the iris, it is preferable to use information about the average size of the human iris and information about the distance from the corresponding camera of the left eye or the camera of the right eye to the pupil, which improves the accuracy of determining the direction of gaze.
Нумерация бликов может выполняться от одного блика из верхней пары, ближайшего к переносице, по кругу, в сторону от переносицы, т.е. по часовой стрелке для правого глаза и против часовой стрелки для левого глаза. Flare numbering can be performed from one flare from the upper pair closest to the bridge of the nose, in a circle, away from the bridge of the nose, i.e. clockwise for the right eye and counterclockwise for the left eye.
При определении оптической оси направления взгляда каждого глаза определяют нодальную точку глаза, точку рефракции для центра зрачка, положение центра зрачка в системе координат камеры сцены. Кроме того, этап определения направления взгляда может включать калибровку направления взгляда, которая выполняется либо на одном из указанных этапов, либо заранее. При этом достаточно единожды выполнить калибровку для конкретного пользователя, и повторной калибровки уже не потребуется. В частности, при калибровке направления взгляда учитывают индивидуальные особенности пользователя и взаимное положение камер левого и правого глаза и камеры сцены. When determining the optical axis of the gaze direction of each eye, the nodal point of the eye, the refractive point for the center of the pupil, and the position of the center of the pupil in the coordinate system of the scene camera are determined. In addition, the step of determining the gaze direction may include calibration of the gaze direction, which is performed either at one of the indicated steps or in advance. In this case, it is enough to calibrate once for a specific user, and re-calibration is no longer required. In particular, when calibrating the direction of gaze, the individual characteristics of the user and the relative position of the cameras of the left and right eyes and the scene camera are taken into account.
После выбора области проекции лазерного излучателя, отвечающей направлению взгляда, выполняют этап получения информации о сцене вокруг области проекции посредством стереокамеры сцены. After the selection of the projection area of the laser emitter corresponding to the viewing direction, the step of obtaining information about the scene around the projection area by means of the scene stereo camera is carried out.
В качестве одного из вариантов получения информации о сцене может быть использован способ получения набора объектов трехмерной сцены, в котором одновременно получают изображения кадров с левой камеры и правой камеры в составе стереокамеры сцены, для каждой точки изображения с пиксельными координатами формируют карту диспаратности методом полуглобального установления стереосоответствий, по карте диспаратности определяют истинные координаты указанной точки (т.е. координаты точки в системе координат стереокамеры сцены), формируют карту глубин точек в истинных координатах, формируют двухмерное изображение в шкале серого, в котором яркость точки зависит от истинного расстояния до точки, и на полученном двухмерном изображении в шкале серого выполняют детекцию и идентификацию объектов одним из методов, выбранных из метода Виолы-Джонса (Р. Viola, M.J. Jones. Robust Real-Time Face Detection International Journal of Computer Vision 57(2), 137-154, 2004), метода нейронной сети SSD-mobilenet (см., например, заявку на патент Китая CN109398688) и метода нейронной сети Mask R-CNN ( Kaiming Не, Georgia Gkioxari, Piotr Dollar Ross Girshick. Mask R-CNN; опубликовано 24.01.2018, доступно по ссылке в сети Интернет https://arxiv.org/pdf/1703.06870.pdf). с получением набора объектов трехмерной сцены. При этом карту диспаратности формируют методом полуглобального установления стереосоответствий (Semi-Global Matching, или SGM; метод описан, например, в Heiko Hirschmuller. Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), San Diego, CA, USA, June 20-26, 2005). Истинные координаты точки определяют с учетом фокусных расстояний камер в составе стереокамеры сцены и расстояния между ними. Яркость точки принимается равной нулю, если истинное расстояние до нее выходит за заданный диапазон. As one of the options for obtaining information about the scene, a method for obtaining a set of objects of a three-dimensional scene can be used, in which images of frames from the left camera and the right camera are simultaneously obtained as part of the scene stereo camera, for each image point with pixel coordinates a disparity map is formed by the method of semi-global establishment of stereo correspondences , according to the disparity map, the true coordinates of the specified point are determined (i.e., the coordinates of the point in the coordinate system of the scene stereo camera), the map of the depths of the points in true coordinates is formed, a two-dimensional image in the gray scale is formed, in which the brightness of the point depends on the true distance to the point, and on the obtained two-dimensional image in gray scale, detection and identification of objects is performed by one of the methods selected from the Viola-Jones method (R. Viola, MJ Jones. Robust Real-Time Face Detection International Journal of Computer Vision 57 (2), 137-154, 2004), SSD-mobilenet neural network method (see, n for example, Chinese patent application CN109398688) and the Mask R-CNN neural network method (Kaiming He, Georgia Gkioxari, Piotr Dollar Ross Girshick. Mask R-CNN; published on 01.24.2018, available at the link on the Internet https://arxiv.org/pdf/1703.06870.pdf). with obtaining a set of objects of a three-dimensional scene. In this case, the disparity map is formed by the method of semi-global establishment of stereo correspondences (Semi-Global Matching, or SGM; the method is described, for example, in Heiko Hirschmuller. Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information. IEEE Conference on Computer Vision and Pattern Recognition ( CVPR), San Diego, CA, USA, June 20-26, 2005). The true coordinates of a point are determined taking into account focal lengths of cameras in the scene stereo camera and the distance between them. The brightness of a point is assumed to be zero if the true distance to it is outside the specified range.
Карта диспаратности - это визуальное отображение сдвигов между одинаково расположенными фрагментами снимков левой и правой камер стереокамеры сцены (чем ближе находится точка сцены, тем эти сдвиги больше). Как известно, это «расхождение» можно представить как числовой массив, элементы которого показывают разность в пикселах точек правого и левого изображений, привязанную к одному из них. Ректификация разноракурсных изображений (выравнивание правого и левого снимков по горизонтали) позволяют уменьшить размерность массива - свести его к двумерному. Для удобства восприятия эта матрица представляется в графическом виде: чем больше расхождение между снимками, тем светлее соответствующие пикселы изображения. The disparity map is a visual display of shifts between equally spaced fragments of images of the left and right cameras of the scene stereo camera (the closer the scene point is, the greater these shifts). As you know, this "discrepancy" can be represented as a numeric array, the elements of which show the difference in pixels of the points of the right and left images, tied to one of them. Rectification of images from different angles (alignment of the right and left images horizontally) allows you to reduce the dimension of the array - to reduce it to two-dimensional. For ease of perception, this matrix is presented in a graphical form: the greater the discrepancy between the images, the brighter the corresponding pixels in the image.
Для построения карт диспаратности используется ряд алгоритмов, в целом подразделяющихся на три класса: локальные, глобальные и полуглобальные (частично глобальные). To construct disparity maps, a number of algorithms are used, generally subdivided into three classes: local, global, and semi-global (partially global).
Локальные алгоритмы рассчитывают диспаратность в отдельности для каждого пиксела, при этом учитывая информацию лишь из узкой его окрестности. Алгоритмы используют, в основном, квадратные или прямоугольные окна фиксированного размера и по какой-либо метрике сравнивают суммы абсолютных значений яркости внутри этих окон. Такие алгоритмы характеризуются высокой скоростью и вычислительной эффективностью. Однако приемлемое качество работы обеспечивается только при условии гладкости функции интенсивности пикселей. На границах объектов, где функция интенсивности терпит разрыв, алгоритмы допускают значительное количество ошибок. Дальнейшее развитие методов привело к появлению многооконных алгоритмов и окон с адаптивной структурой, что улучшило качество расчета диспаратности. Но «платой» за это стало значительное увеличение времени работы, что зачастую приводит к невозможности анализа изображений в реальном времени. Local algorithms calculate disparity separately for each pixel, while taking into account information only from its narrow neighborhood. The algorithms mainly use square or rectangular windows of a fixed size and, according to some metric, compare the sums of the absolute values of the brightness within these windows. Such algorithms are characterized by high speed and computational efficiency. However, acceptable performance is only ensured if the pixel intensity function is smooth. At the boundaries of objects, where the intensity function breaks, the algorithms make a significant number of errors. Further development of the methods led to the emergence of multi-window algorithms and windows with an adaptive structure, which improved the quality of disparity calculation. But the "payment" for this was a significant increase in operating time, which often leads to the impossibility of analyzing images in real time.
Глобальные алгоритмы основаны на вычислении диспаратности одновременно для всего изображения, при этом каждый пиксел изображения оказывает влияние на решение во всех остальных пикселах. Глобальные алгоритмы различаются как видом унарного и парного потенциалов, так и алгоритмами минимизации и структурой графа. Несмотря на то, что, как правило, по результативности глобальные алгоритмы превосходят локальные, полученные карты диспаратности не свободны от ошибок, обусловленных теми упрощениями, которые изначально заложены в формулу для функционала энергии. При этом глобальные алгоритмы являются более медленными. Global algorithms are based on calculating the disparity simultaneously for the entire image, while each pixel of the image affects the solution in all other pixels. Global algorithms differ both in the form of unary and pair potentials, and in the minimization algorithms and the structure of the graph. Despite the fact that, as a rule, in terms of efficiency, global algorithms are superior to local ones, the resulting disparity maps are not free from errors caused by the simplifications that were originally incorporated into the formula for the energy functional. Moreover, global algorithms are slower.
Полуглобальные, или частично глобальные, способы являются разумным компромиссом между быстрыми, но неточными локальными методами и более точными, но медленными глобальными, позволяющим рационально использовать их сильные стороны. Идея методов состоит в независимости решения для каждого пиксела с учетом влияния всех (или части, не ограниченной локальной окрестностью) остальных пикселов изображения. Semi-global, or partially global, methods are a reasonable compromise between fast but imprecise local methods and more accurate but slow global methods, allowing rational use of their strengths. The idea of the methods consists in the independence of the solution for each pixel, taking into account the influence of all (or a part, not limited by the local neighborhood) of the remaining pixels of the image.
В частности, для получения информации о сцене вокруг области проекции обеспечивают по существу одновременное получение левого кадра от левой камеры стереокамеры сцены и правого кадра от правой камеры стереокамеры сцены при съемке сцены. Формируют карту диспаратности способом полуглобального установления стереосоответствий с получением диспаратности d(x,y) для каждой точки изображения с пиксельными координатами (х,у). Определяют истинные координаты (C,U,Z) точки с пиксельными координатами (х,у) по формулам: In particular, to obtain information about the scene around the projection area, the left frame from the left camera of the scene stereo camera and the right frame from the right camera of the scene stereo camera are obtained substantially simultaneously when the scene is shot. A disparity map is formed by the method of semi-global establishment of stereo correspondences with obtaining disparity d (x, y) for each image point with pixel coordinates (x, y). Determine the true coordinates (C, U, Z) of a point with pixel coordinates (x, y) by the formulas:
Х=(х · Q00+Q03 )/W, X = (x Q00 + Q03) / W,
Y=(y Q 11 +Q 13 )/w, Y = (y Q 11 + Q 13) / w,
Z-Q23/W, где W=d Q32+Q33, a Q00, Q03, Q11, Q13, Q23 - постоянные, определяемые фокусными расстояниями левой камеры и правой камеры и расстоянием между левой камерой и правой камерой. Далее формируют карту глубин D(x,y), где D - истинное расстояние от левой камеры или правой камеры до точки с пиксельными координатами (х,у). Формируют двухмерное изображение в шкале серого, на котором яркость Ф(х,у) точки с пиксельными координатами (х,у) задают по формулам: Z-Q23 / W, where W = d Q32 + Q33, a Q00, Q03, Q11, Q13, Q23 are constants determined by the focal lengths of the left camera and right camera and the distance between the left camera and the right camera. Next, a depth map D (x, y) is formed, where D is the true distance from the left camera or right camera to the point with pixel coordinates (x, y). A two-dimensional gray-scale image is formed, on which the brightness Ф (x, y) of a point with pixel coordinates (x, y) is set by the formulas:
Ф(х,у) = 0, если D(x,y) < Dmin, Ф (x, y) = 0 if D (x, y) <Dmin,
Ф(х,у) = 255, если D(x,y) > Dmax, Ф (x, y) = 255, if D (x, y)> Dmax,
Ф(х,у) = 255 (D(x,y) - Dmin)/(Dmax - Dmin) - в остальных случаях, где Dmin и Dmax - заданные соответственно минимальное и максимальное значения глубины, определяемые из контекста применения заявленного способа. Ф (x, y) = 255 (D (x, y) - Dmin) / (Dmax - Dmin) - in other cases, where Dmin and Dmax are the specified minimum and maximum depth values, respectively, determined from the context of the application of the claimed method.
На полученном двухмерном изображении в шкале серого выполняют детекцию и идентификацию объектов одним из методов, выбранных из метода Виолы- Джонса, метода нейронной сети SSD-mobilenet и метода нейронной сети Mask R-CNN, с получением набора объектов трехмерной сцены. On the obtained two-dimensional image in gray scale, objects are detected and identified by one of the methods selected from the Viola-Jones method, the SSD-mobilenet neural network method and the Mask R-CNN neural network method, to obtain a set of objects in a three-dimensional scene.
После получения изображения сцены вокруг области проекции определяют, возможно ли проецировать луч лазерного излучателя на область проекции с учетом полученной сцены. Если на пути луча к области проекции окажутся объекты, положение манипулятора и/или направление лазерного излучателя должны быть скорректированы таким образом, чтобы луч мог беспрепятственно достичь области проекции с учетом полученной сцены, включающей объекты-препятствия и их размеры. При этом подходящих положений для беспроблемной проекции луча на область проекции может оказаться несколько, и из таких точек положения лазерного излучателя выбирают наиболее оптимальную точку, например, ближайшую к текущему положению, или отстоящую от границ области возможного перемещения манипулятора, или еще по какому-либо критерию. After obtaining an image of the scene around the projection area, it is determined whether it is possible to project the laser emitter beam onto the projection area, taking into account the obtained scene. If there are objects on the path of the beam to the projection area, the position of the manipulator and / or the direction of the laser emitter must be adjusted so that the beam can easily reach the projection area, taking into account the resulting scene, including obstacle objects and their sizes. In this case, there may be several suitable positions for trouble-free projection of the beam onto the projection area, and from such points of the position of the laser emitter the most optimal point is selected, for example, the one closest to the current position, or one that is distant from the boundaries of the area of possible movement of the manipulator, or according to some other criterion ...
Далее следует определить текущее положение лазерного излучателя, для чего сначала определяют текущее положение лазерного излучателя в системе координат манипулятора, а затем - в системе координат стереокамеры сцены. При этом следует иметь в виду, что текущее положение лазерного излучателя в системе координат манипулятора доступно в любой момент, поскольку лазерный излучатель и манипулятор механически связаны друг с другом, следовательно, их относительное положение известно. Next, you should determine the current position of the laser emitter, for which first determine the current position of the laser emitter in the coordinate system of the manipulator, and then - in the coordinate system of the scene stereo camera. It should be borne in mind that the current position of the laser emitter in the manipulator coordinate system is available at any time, since the laser emitter and the manipulator are mechanically connected to each other, therefore, their relative position is known.
Для определения положения лазерного излучателя в системе координат камеры сцены могут быть использованы различные методы, а наиболее предпочтительный из них, отличающийся простотой, точностью и высоким быстродействием, описан далее. To determine the position of the laser emitter in the coordinate system of the scene camera, various methods can be used, and the most preferable of them, characterized by simplicity, accuracy and high speed, is described below.
Сначала в пространстве произвольно выбирают первую точку-мишень, вторую точку-мишень, третью точку-мишень и четвертую точку-мишень, не лежащие на одной плоскости, а также с условием, что они должны быть видны стереокамере сцены и доступны для луча лазерного излучателя. Здесь нумерация точек-мишеней указана исключительно для удобства понимания дальнейшего описания. First, in space, the first target point, the second target point, the third target point and the fourth target point, which do not lie on the same plane, are arbitrarily selected in space, as well as with the condition that they must be visible to the scene stereo camera and available to the laser beam. Here, the numbering of target points is indicated solely for the convenience of understanding the further description.
Далее последовательно наводят луч лазерного излучателя на указанные точки- мишени и определяют координаты указанных точек-мишеней в системе координат стереокамеры сцены. Next, the laser emitter beam is sequentially directed at the indicated target points and the coordinates of the indicated target points are determined in the coordinate system of the scene stereo camera.
После этого определяют расстояние от первой точки-мишени до лазерного излучателя, расстояние от второй точки-мишени до лазерного излучателя и расстояние от третьей точки-мишени до лазерного излучателя в системе координат стереокамеры сцены, а положение четвертой точки-мишени используют для однозначного определения указанных расстояний, о чем более подробно будет сказано ниже. After that, the distance from the first target point to the laser emitter, the distance from the second target point to the laser emitter and the distance from the third target point to the laser emitter are determined in the coordinate system of the scene stereo camera, and the position of the fourth target point is used to unambiguously determine the indicated distances , which will be discussed in more detail below.
Для удобства понимания предлагаемого метода преобразования координат положения лазерного излучателя из системы координат манипулятора в систему координат стереокамеры введем следующие обозначения: For the convenience of understanding the proposed method of converting the coordinates of the position of the laser emitter from the manipulator coordinate system to the stereo camera coordinate system, we introduce the following designations:
Ai - первая точка-мишень; Ai - first target point;
Аг - вторая точка-мишень; Ar is the second target point;
Аз - третья точка-мишень; Az is the third target point;
А - четвертая точка-мишень; A - fourth target point;
О - точка положения лазерного излучателя. О - point of position of the laser emitter.
Изначально координаты точек Ai, Аг, Аз, Ад известны в системе координат стереокамеры сцены, а координаты точки О известны в системе координат манипулятора. Initially, the coordinates of the points Ai, Ar, Az, Ad are known in the coordinate system of the scene stereo camera, and the coordinates of the point O are known in the coordinate system of the manipulator.
Точки О, Ai, Аг, Аз не должны лежать в одной плоскости, что практически всегда выполняется автоматически. Points O, Ai, Ar, Az should not lie in the same plane, which is almost always done automatically.
Чтобы найти координаты точки О в системе координат стереокамеры сцены, решают систему уравнений: To find the coordinates of point O in the scene stereo camera coordinate system, solve the system of equations:
AiAj 2 = OAi2 + OAj 2 - 2OAiOAj COs(AiOAj), где i, j = 1, 2, 3; AiAj - расстояние между точками Ai и Aj; OAi - расстояние между точками О и Ai, т.е. длина отрезка OAi; AiOAj - угол между отрезками OAi и OAj. AiA j 2 = OAi 2 + OA j 2 - 2OAiOA j CO s (AiOA j ), where i, j = 1, 2, 3; AiA j - distance between points Ai and A j ; OAi is the distance between points O and Ai, i.e. segment length OAi; AiOA j - angle between segments OAi and OAj.
Решив уравнение, например, методом Феррари, получают несколько вариантов значений отрезков OAi, ОА2, ОА3, из которого выбирают нужное с использованием координат Ад точки следующим образом. Для каждого варианта рассчитывают координаты точки О. Выбирают тот единственный вариант, при котором углы А1ОА4, А2ОА4 и А3ОА4 совпадают с известными углами между направлениями луча лазерного излучателя. Таким образом, получают однозначные координаты точки О в системе координат стереокамеры сцены. Having solved the equation, for example, by the Ferrari method, several variants of the values of the segments OAi, OA 2 , OA 3 are obtained, from which the desired one is selected using the coordinates of the Ad point as follows. For each option, calculate the coordinates of the point O. Choose the only option in which the angles A 1 OA4, A 2 OA 4 and A 3 OA 4 coincide with the known angles between the directions of the beam of the laser emitter. Thus, the unique coordinates of the point O are obtained in the coordinate system of the scene stereo camera.
Далее строят ортонормальную систему координат Oxyz с единичными ортами i, j, к. Выбирают началом координат, например, первую точку Аь Выбирают орт вектора, проходящего от Ai во вторую точку Аг, направлением единичного орта г в направлении Ох. Выполняют ортогонализацию Грама-Шмидта вектора, проходящего от Ai в третью точку Аз, относительно единичного орта / для получения единичного орта j в направлении Оу. Выполняют векторное произведение единичных ортов и j для получения единичного орта к в направлении Oz. И, наконец, выполняют разложение вектора положения лазерного излучателя в системе координат Oxyz по базису системы координат стереокамеры сцены. Next, an orthonormal coordinate system Oxyz is constructed with unit unit vectors i, j, k. The origin of coordinates, for example, the first point Ab, is chosen. The unit vectors of the vector passing from Ai to the second point Ai are selected by the direction of the unit unit unit r in the direction Ox. The Gram-Schmidt orthogonalization of the vector passing from Ai to the third point Az is performed relative to the unit reference unit / to obtain a unit unit reference unit j in the direction Оу. The vector product of unit unit vectors and j is performed to obtain unit unit unit unit vectors k in the direction Oz. And finally, the vector of the position of the laser emitter is decomposed in the Oxyz coordinate system in terms of the coordinate system of the scene stereo camera.
Построенная система Oxyz позволяет для любой точки либо вектора выполнить пересчет его координат из системы координат стереокамеры сцены в систему координат манипулятора (или лазерного излучателя), либо в обратном направлении. Действительно, поскольку построение выполняется одновременно в системе координат манипулятора и системе координат стереокамеры сцены, для любого вектора в системе координат манипулятора и системе координат стереокамеры сцены возможно определить его координаты в системе координат Oxyz, скалярно перемножая данный вектор и орты i, j, к. Соответственно, для любого вектора в системе координат Oxyz, подставляя вместо ортов /, j, к их явные разложения по базису системы координат стереокамеры сцены или системы координат манипулятора, можно получить координаты вектора соответственно в системе координат стереокамеры сцены или системе координат манипулятора. The constructed system Oxyz allows for any point or vector to recalculate its coordinates from the coordinate system of the scene stereo camera to the coordinate system of the manipulator (or laser emitter), or in the opposite direction. Indeed, since the construction is performed simultaneously in the manipulator coordinate system and the scene stereo camera coordinate system, for any vector in the manipulator coordinate system and the scene stereo camera coordinate system, it is possible to determine its coordinates in the Oxyz coordinate system by scalar multiplying this vector and the unit vectors i, j, k. Accordingly , for any vector in the Oxyz coordinate system, substituting instead of the unit vectors /, j, to their explicit expansions in the basis of the scene stereo camera coordinate system or the manipulator coordinate system, we can obtain the vector coordinates, respectively, in the scene stereo camera coordinate system or the manipulator coordinate system.
Аналогично для произвольной точки, вычитая из ее координат координаты первой точки Ai (поскольку она была выбрана в качестве начала координат ортонормальной системы координат Oxyz) в исходной системе координат, можно перейти к вектору, с которым можно проделать любые перечисленные выше действия. После этого, прибавляя координаты первой точки в конечной системе координат, переходят от вектора к точке. Заявленный способ управления роботизированным манипулятором был испытан в следующих условиях: линейное смещение между точкой крепления (началом системы координат) лазерного излучателя и точкой крепления (началом системы координат) стереокамеры сцены от 1 до 5 метров; угловое смещение в пределах 1 ,5 радиан по каждой оси; для стереокамеры сцены режимы левой и правой камер 1280x720, расстояние между левой и правой камерами 0,1 м; расстояния между точками-мишенями от 1 до 3 метров. По результатам испытаний ошибка позиционирования не превышала 1 см. Similarly, for an arbitrary point, subtracting from its coordinates the coordinates of the first point Ai (since it was chosen as the origin of the orthonormal coordinate system Oxyz) in the original coordinate system, you can go to a vector with which you can do any of the above actions. After that, adding the coordinates of the first point in the final coordinate system, they pass from the vector to the point. The claimed method of controlling a robotic manipulator was tested under the following conditions: linear displacement between the attachment point (origin of the coordinate system) of the laser emitter and the attachment point (origin of the coordinate system) of the stage stereo camera from 1 to 5 meters; angular displacement within 1.5 radians along each axis; for the scene stereo camera, the modes of the left and right cameras are 1280x720, the distance between the left and right cameras is 0.1 m; distances between target points from 1 to 3 meters. According to the test results, the positioning error did not exceed 1 cm.
Способ быстр и прост в использовании, для распределенной робототехники со сложно предсказуемым перемещением и вращением стереокамеры сцены относительно лазерного излучателя он позволяет быстро определить либо постоянно отслеживать связь между системами координат стереокамеры сцены и лазерного излучателя. The method is quick and easy to use, for distributed robotics with difficultly predictable movement and rotation of the scene stereo camera relative to the laser emitter, it allows you to quickly determine or constantly monitor the relationship between the coordinate systems of the scene stereo camera and the laser emitter.

Claims

ФОРМУЛА ИЗОБРЕТЕНИЯ CLAIM
1. Способ управления роботизированным манипулятором, содержащим лазерный излучатель, стереокамеру сцены для получения изображений сцены и стереокамеру глаз для получения изображений левого глаза и правого глаза, включающий: a) выбор области проекции луча лазерного излучателя путем определения направления взгляда, при котором: al) получают изображения левого глаза и правого глаза, а2) определяют положение зрачка каждого глаза, аЗ) определяют направление вектора направления взгляда каждого глаза, и а4) определяют направление взгляда в системе координат стереокамеры сцены;1. A method of controlling a robotic arm containing a laser emitter, a stereo scene camera for obtaining images of the scene and a stereo camera of the eyes for obtaining images of the left eye and right eye, including: a) selecting the projection area of the laser emitter beam by determining the direction of gaze, in which: al) obtaining images of the left eye and right eye, a2) determine the position of the pupil of each eye, a3) determine the direction of the gaze direction vector of each eye, and a4) determine the gaze direction in the scene stereo camera coordinate system;
B) получение изображения сцены вокруг области проекции; c) определение возможности проекции луча на область проекции; d) выбор оптимальной точки положения лазерного излучателя; e) определение текущего положения лазерного излучателя, при котором: el) определяют текущее положение лазерного излучателя, включающее координаты и вектор направления лазерного излучателя, в системе координат манипулятора, и е2) определяют текущее положение лазерного излучателя, включающее текущие точку положения и вектор направления лазерного излучателя, в системе координат стереокамеры сцены; f) подвод лазерного излучателя в оптимальную точку, и g) осуществление проекции луча лазерного излучателя на область проекции. B) obtaining an image of the scene around the projection area; c) determining whether the beam can be projected onto the projection area; d) selection of the optimum point for the position of the laser emitter; e) determining the current position of the laser emitter, at which: el) determining the current position of the laser emitter, including the coordinates and the direction vector of the laser emitter, in the manipulator coordinate system, and e2) determining the current position of the laser emitter, including the current position point and the direction vector of the laser emitter , in the coordinate system of the scene stereo camera; f) bringing the laser emitter to the optimum point, and g) projection of the laser emitter beam onto the projection area.
2. Способ по п. 1, в котором в случае, если на этапе с) определена невозможность проекции луча на область проекции, определяют точки положения лазерного излучателя, из которых достижима область проекции с учетом изображения сцены вокруг области проекции и размеров препятствий. 2. The method according to claim 1, in which, if at step c) the impossibility of projection of the beam onto the projection area is determined, the points of the position of the laser emitter are determined, from which the projection area is reachable, taking into account the scene image around the projection area and the size of the obstacles.
3. Способ по п. 1, в котором для выполнения этапа е2) осуществляют преобразование координат текущего положения лазерного излучателя из системы координат манипулятора в систему координат стереокамеры, при котором: выбирают первую точку-мишень, вторую точку-мишень, третью точку-мишень и четвертую точку-мишень, не лежащие на одной плоскости; последовательно наводят луч на указанные точки-мишени и определяют координаты указанных точек-мишеней в системе координат стереокамеры сцены; определяют расстояние от первой точки-мишени до лазерного излучателя, расстояние от второй точки-мишени до лазерного излучателя и расстояние от третьей точки- мишени до лазерного излучателя в системе координат стереокамеры сцены, а положение четвертой точки-мишени используют для однозначного определения указанных расстояний; строят ортонормальную систему координат Oxyz с единичными ортами i, j , к, при котором: выбирают первую точку началом координат, выбирают орт вектора, проходящего от первой точки-мишени во вторую точку- мишень, направлением единичного орта i в направлении Ох, выполняют ортогонализацию Грама-Шмидта вектора, проходящего от первой точки-мишени в третью точку-мишень, относительно единичного орта i для получения единичного орта j в направлении Оу, выполняют векторное произведение единичных ортов i и j для получения единичного орта к в направлении Oz, и выполняют разложение вектора положения лазерного излучателя в системе координат Oxyz по базису системы координат стереокамеры сцены. 3. The method according to claim 1, in which, to perform step e2), the coordinates of the current position of the laser emitter are converted from the manipulator coordinate system to the stereo camera coordinate system, in which: the first target point, the second target point, the third target point and the fourth target point, not lying on the same plane; sequentially direct the beam to the specified target points and determine the coordinates of the specified target points in the coordinate system of the scene stereo camera; determining the distance from the first target point to the laser emitter, the distance from the second target point to the laser emitter and the distance from the third target point to the laser emitter in the coordinate system of the scene stereo camera, and the position of the fourth target point is used to unambiguously determine the indicated distances; an orthonormal coordinate system Oxyz is constructed with unit vectors i, j, k, at which: select the first point by the origin, select the unit vector of the vector passing from the first target point to the second target point, with the direction of the unit unit i in the direction Ox, perform Gram orthogonalization -Schmidt of the vector passing from the first target point to the third target point, relative to the unit vector i to obtain the unit vector j in the direction Oy, perform the vector product of the unit vectors i and j to obtain the unit vector k in the direction Oz, and decompose the vector the position of the laser emitter in the Oxyz coordinate system on the basis of the scene stereo camera coordinate system.
PCT/RU2019/001001 2019-12-23 2019-12-23 Method for controlling robotic manipulator WO2021133186A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/RU2019/001001 WO2021133186A1 (en) 2019-12-23 2019-12-23 Method for controlling robotic manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2019/001001 WO2021133186A1 (en) 2019-12-23 2019-12-23 Method for controlling robotic manipulator

Publications (1)

Publication Number Publication Date
WO2021133186A1 true WO2021133186A1 (en) 2021-07-01

Family

ID=76573119

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2019/001001 WO2021133186A1 (en) 2019-12-23 2019-12-23 Method for controlling robotic manipulator

Country Status (1)

Country Link
WO (1) WO2021133186A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060100642A1 (en) * 2002-09-25 2006-05-11 Guang-Zhong Yang Control of robotic manipulation
US20100137880A1 (en) * 2007-06-19 2010-06-03 Medtech S.A. Multi-application robotized platform for neurosurgery and resetting method
US8731720B1 (en) * 2008-10-24 2014-05-20 Anybots 2.0, Inc. Remotely controlled self-balancing robot including kinematic image stabilization
US20180160035A1 (en) * 2009-06-17 2018-06-07 Lc Technologies, Inc. Robot System for Controlling a Robot in a Tele-Operation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060100642A1 (en) * 2002-09-25 2006-05-11 Guang-Zhong Yang Control of robotic manipulation
US20100137880A1 (en) * 2007-06-19 2010-06-03 Medtech S.A. Multi-application robotized platform for neurosurgery and resetting method
US8731720B1 (en) * 2008-10-24 2014-05-20 Anybots 2.0, Inc. Remotely controlled self-balancing robot including kinematic image stabilization
US20180160035A1 (en) * 2009-06-17 2018-06-07 Lc Technologies, Inc. Robot System for Controlling a Robot in a Tele-Operation

Similar Documents

Publication Publication Date Title
US20240000295A1 (en) Light field capture and rendering for head-mounted displays
US11126016B2 (en) Method and device for determining parameters for spectacle fitting
US6373961B1 (en) Eye controllable screen pointer
US11922711B2 (en) Object tracking assisted with hand or eye tracking
WO2018030515A1 (en) Line-of-sight detection device
JP3064928B2 (en) Subject extraction method
JP4825971B2 (en) Distance calculation device, distance calculation method, structure analysis device, and structure analysis method.
US11348262B1 (en) Three-dimensional imaging with spatial and temporal coding for depth camera assembly
RU2001101469A (en) GETTING THREE-DIMENSIONAL PLANS WITH ONE MANUAL RECORDING CAMERA
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
JP2010259605A (en) Visual line measuring device and visual line measuring program
Kondori et al. Head operated electric wheelchair
US20220100268A1 (en) Eye tracking device and a method thereof
CN110895433A (en) Method and apparatus for user interaction in augmented reality
JPH1066678A (en) Non-contact line-of-sight measurement device
CN109587304B (en) Electronic equipment and mobile platform
WO2021133186A1 (en) Method for controlling robotic manipulator
WO2019220464A1 (en) A system and method for alignment between real and virtual objects in a head-mounted optical see-through display
US20200292307A1 (en) Method and apparatus for determining 3d coordinates of at least one predetermined point of an object
KR20180116044A (en) Augmented reality device and method for outputting augmented reality therefor
Schönbein omnidirectional Stereo Vision for autonomous Vehicles
WO2020044809A1 (en) Information processing device, information processing method and program
Vámossy et al. PAL Based Localization Using Pyramidal Lucas-Kanade Feature Tracker
JP2022094744A (en) Subject motion measuring device, subject motion measuring method, program, and imaging system
Kacperski et al. Calibration of vision systems operating in separate coordinate systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19957127

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19957127

Country of ref document: EP

Kind code of ref document: A1