RU151795U1 - Антропоморфный мобильный робот - Google Patents

Антропоморфный мобильный робот Download PDF

Info

Publication number
RU151795U1
RU151795U1 RU2014138397/02U RU2014138397U RU151795U1 RU 151795 U1 RU151795 U1 RU 151795U1 RU 2014138397/02 U RU2014138397/02 U RU 2014138397/02U RU 2014138397 U RU2014138397 U RU 2014138397U RU 151795 U1 RU151795 U1 RU 151795U1
Authority
RU
Russia
Prior art keywords
robot
camera
computer
contour image
video
Prior art date
Application number
RU2014138397/02U
Other languages
English (en)
Inventor
Александр Николаевич Медведь
Андрей Владимирович Рубченков
Марина Сергеевна Андрианова
Мария Владимировна Малькова
Original Assignee
Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Российский государственный гуманитарный университет"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Российский государственный гуманитарный университет" filed Critical Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Российский государственный гуманитарный университет"
Priority to RU2014138397/02U priority Critical patent/RU151795U1/ru
Application granted granted Critical
Publication of RU151795U1 publication Critical patent/RU151795U1/ru

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

Антропоморфный мобильный робот, содержащий устройство перемещения, тактильные датчики, выходы которых связаны с компьютером, размещенным в корпусе робота, узел технического зрения, связанный с компьютером и состоящий из по крайней мере одной телекамеры, установленной на голове робота, и связанного с видеовыходом телекамеры устройства обработки видеосигналов, отличающийся тем, что он снабжен датчиком перемещения, а устройство обработки видеосигналов выполнено в виде блока формирования контурного изображения, связанного с видеовыходом телекамеры, и блока расчета перемещения, вход которого связан с датчиком перемещения, причем блок формирования контурного изображения выполнен в виде блока пространственного дифференцирования видеосигнала и сравнения результата дифференцирования с пороговым значением.

Description

К заявке на полезную модель
МПК 14 В25J 13/00
АНТРОПОМОРФНЫЙ МОБИЛЬНЫЙ РОБОТ
Полезная модель относится к области робототехники и может быть использована для управления антропоморфным мобильным роботом, используемым в частности в качестве помощника, замещающего вспомогательный учебный персонал при организации и осуществлении учебного процесса, а также при проведении лабораторных работ в процессе обучения студентов.
Известен мобильный робот (патент США №6841963), содержащий множество бесконтактных датчиков, расположенных в ряд в нижней части его корпуса. Датчики служат для ориентации робота в пространстве. Позиционирование робота осуществляется посредством направляющих металлических полос, размещенных в полу рабочей зоны. Положение робота и его рабочих элементов рассчитывается блоком управления (БУ) с учетом образа рабочей зоны, заложенной в память БУ.
Недостатком известного технического решения является отсутствие системы технического зрения, которое может обеспечить ориентирование робота в пространстве без использования направляющих полос.
Известен антропоморфный робот (патент РФ №2361726), система управления которого содержит компьютер, размещенный в корпусе робота, с установленными на нем предварительно обученными нейронными сетями, узел технического зрения, состоящий из телекамер, установленных на голове робота, и блока обработки видеосигналов. Тактильные датчики расположены на внутренних поверхностях кистей робота и соединены с входами микроконтроллера. Световой маячок размещен на указательном пальце одной из кистей робота. Применение робота включает предварительное обучение трех нейронных сетей на выполнение задач, связанных с захватом и удержанием различных объектов, формирование конечной выборки изображений взаимного расположения робота и объекта и подбор соответствующих им значений углов поворота корпуса, манипуляторов и кистей робота, а также степеней сгибания пальцев и степеней искривления ладоней. Затем компьютеру ставят задачу, например «захват» объекта, с первой нейронной сети на микроконтроллер поступает сигнал со значениями углов поворота корпуса и манипуляторов робота для достижения касания объекта, вторая нейронная сеть корректирует эти углы, третья нейронная сеть выдает на микроконтроллер значения угла поворота кисти, степени сгибания пальцев и искривления плоскости ладони.
Недостатком данного робота является функциональная ограниченность из-за невозможности обнаружения и регистрации кратковременных выходов рабочих параметров за пределы поля допуска в широком диапазоне частот. Узел технического зрения не обеспечивает ориентирования робота в пространстве и его позиционирования с достаточной точностью.
Наиболее близким техническим решением, выбранным в качестве прототипа, является антропоморфный робот (патент на ПМ RU №124623, опубл. 10.02.2013 года), система управления которого содержит узел технического зрения, подключенный к входу компьютера и микроконтроллер, соединенный с компьютером, приводами робота и выходами тактильных датчиков. Робот дополнительно оснащен контактными и бесконтактными датчиками сбоев, установленными соответственно на линиях связи и интерфейсных шинах или в непосредственной близости до 1-2 см от линии связи или интерфейсной шины для обнаружения внутренних и внешних электромагнитных помех от источников сбоев в виде соединителей/разъемов, интерфейсных шин, шин управления, заземления и электропитания, при этом система выполнена с возможностью алгоритмической обработки сигналов с упомянутых датчиков сбоев.
Перед введением робота в эксплуатацию также необходимо провести предварительное обучение робота на «касание» и «охват» различных объектов с использованием узла технического зрения. Предварительное обучение производится оператором (человеком). Управление роботом осуществляется с компьютера через микроконтроллер посредством подачи сигналов на включение приводов. При этом качество охвата объекта контролирует микроконтроллер через наружные и внутренние чувствительные элементы тактильных датчиков. Введение датчиков сбоев позволяет более точно осуществлять захват роботом различных объектов.
Недостатком данного технического решения является отсутствие возможности определения расстояния между роботом и препятствием и/или между манипулятором (рукой) робота и предметом, на который направлено действие. Указанный недостаток в некоторой степени нивелируется за счет предварительного обучения робота и наличия датчиков сбоев. Вместе с тем, предложенная конструкция усложняет эксплуатацию робота.
В основу полезной модели положена задача упрощения эксплуатации робота, в том числе путем исключения этапа предварительного обучения на «касание». Упрощение достигается за счет совершенствования узла технического зрения посредством введения дополнительной функции - определения расстояния до объекта.
Технический результат заключается в повышении точности позиционирования робота.
Заявленный технический результат достигается тем, что антропоморфный мобильный робот, содержащий тактильные датчики, выходы которых связаны с компьютером, размещенным в корпусе робота, узел технического зрения, связанный с компьютером, и состоящий из, по крайней мере, одной телекамеры, установленной на голове робота, и связанного с видеовыходом телекамеры устройства обработки видеосигналов, согласно полезной модели, снабжен датчиком перемещения, а устройство обработки видеосигналов выполнено в виде блока формирования контурного изображения, связанного с видеовыходом телекамеры, и блока расчета перемещения, вход которого связан с датчиком перемещения.
Возможность достижения заявленного технического результата обусловлена тем, что зная абсолютную величину, на которую осуществилось перемещение робота, и изменение линейных размеров изображения целевого объекта в плоскости изображения телекамеры, можно определить расстояние до объекта, реальные линейные размеры которого неизвестны.
Существо полезной модели будет понятно из последующего подробного пояснения на примере конкретной реализации со ссылкой на чертеж, где показана блок-схема робота.
Антропоморфный мобильный робот содержит тактильные датчики 1, выходы которых связаны с компьютером 2. Компьютер 2 размещен в корпусе робота (корпус на чертеже не показан). Узел технического зрения, связанный с компьютером 2, состоит из, по крайней мере, одной телекамеры 3, установленной на голове робота и устройства обработки видеосигналов, которое выполнено в виде блока 4 формирования контурного изображения и блока 5 расчета перемещения. Робот снабжен датчиком 6 перемещения. Вход блока 4 формирования контурного изображения связан с видеовыходом телекамеры 3, а вход блока 5 расчета перемещения - с датчиком 6 перемещения.
Каждый тактильный датчик 1 состоит из разделенных калибровочной пружиной наружного и внутреннего чувствительных элементов. Жесткость калибровочной пружины подбирают с учетом оптимальной степени сжатия для набора объектов различной формы и веса, которыми манипулирует робот.
Блок 4 формирования контурного изображения представляет собой блок пространственного дифференцирования видеосигнала и сравнения результата дифференцирования с пороговым значением. Устройства, предназначенные для выделения контуров объектов на телевизионном изображении и работающие в реальном масштабе времени широко известны. Известно также использование подобных устройств в системах технического зрения (см., например, патент РФ №2095756).
В случае выполнения нижней части антропоморфного робота (устройства перемещения) в виде тележки, датчик 6 перемещения может быть выполнен в виде счетчика числа оборотов колеса данной тележки. Блок 5 расчета перемещения в данном случае выполняется в виде простого вычислителя, определяющего перемещение (S) робота согласно формуле:
S=NЧ2πR,
где N - число оборотов колеса тележки робота;
R - радиус колеса тележки робота.
В случае антропоморфного робота шагающего типа датчик 6 перемещения выполняется в виде счетчика шагов, а блок 5 выполняется в виде умножителя, производящего расчет перемещения робота умножением количество шагов на длину шага.
Как уже указывалось, в блоке 4 формирования контурного изображения осуществляется выделение на изображении границ между объектами и фоном, формируется контурное изображение. Контурное изображение формируется путем пространственного дифференцирования видеосигнала и сравнения результата дифференцирования с пороговым значением. Такой подход позволяет выделить граничные точки на изображении, т.е. точки, которые принадлежат границе между объектом и фоном.
Использование узла технического зрения, дополненного устройством обработки видеосигналов, которое выполнено в виде блока 4 формирования контурного изображения и блока 5 расчета перемещения обеспечивает автоматическое измерение расстояния до объектов, находящихся по ходу движения робота. Телекамера 3 закреплена впереди таким образом, что в поле зрения попадают объекты, возникающие по ходу движения. В каждый текущий момент времени (например, за каждый телевизионный кадр) на видеовыходе телекамеры 3 будет формироваться изображение, несущее информацию об объектах, находящихся по ходу движения. Телевизионный сигнал с видеовыхода поступает на вход блока 4 формирования контурного изображения. В блоке 4 осуществляется выделение на изображении границ между объектами и фоном, формируется контурное изображение. Контурное изображение формируется путем пространственного дифференцирования видеосигнала и сравнения результата дифференцирования с пороговым значением.
Контурный рисунок с выхода блока 4 поступает на вход блока памяти компьютера 2 и записывается в него. Затем в блок памяти компьютера 2 поступает информация о длине пройденного пути с выхода блока 5 расчета перемещения. Контурное изображение из блока памяти компьютера 2 считывается в процессор компьютера 2, в котором осуществляется анализ контурного изображения и измерение линейных размеров контурного рисунка объекта, находящегося в центре изображения. Затем через интервал времени t (кратный длительности телевизионного кадра) текущее телевизионное изображение с выхода телекамеры 3 при помощи блока 4 преобразуется в контурный рисунок и опять записывается в блок памяти компьютера 2. Затем туда же записываются показания о пройденном пути с выхода блока 5. Контурный рисунок с выхода блока памяти 4 считывается в процессор компьютера 2, который осуществляет анализ изображения и определение линейных размеров контурного изображения наблюдаемого объекта.
Вычисление расстояния до объекта в текущий момент времени осуществляется на основании известной формулы (см., например, патент РФ № 2095756):
D(t)=S(t)ЧN0/(N(t)-N0),
где D(t) - расстояние до объекта;
S(t) - расстояние, на которое переместился робот;
N0- размер изображения объекта до перемещения робота;
N(t) - размер изображения объекта после перемещения робота.
Данное выражение описывает способ определения расстояния до неподвижного объекта при помощи одной телекамеры на основании анализа размеров изображения объекта в плоскости изображения в моменты времени t0 и t.
При определении расстояния до объекта при помощи предложенного способа отпадает необходимость в предварительном определении реальных линейных размеров и ориентации объекта на наблюдаемой сцене. Это позволяет определять расстояние до объектов, линейные размеры которых заранее неизвестны.
Возможность определить расстояние до неподвижных объектов, реальные линейные размеры которых неизвестны, позволяет расширить функциональные возможности робота, при этом исключается необходимость предварительного обучения и занесения в карту памяти расстояний до обслуживаемых или иных целевых объектов.
Аналогичным образом определяется расстояние до объектов, с которыми проводятся манипуляции. В этом случае вместо линейных координат используются угловые координаты, определяемые с использованием тактильных датчиков 1. Расчет перемещения ведется в полярных координатах. В этом случае в качестве координат используются угол α, учитывающий поворот корпуса робота относительно его горизонтальной оси симметрии, угол β, учитывающий наклон корпуса робота по отношению к вертикали, угол γ, учитывающий угловую координату между плечевой частью манипулятора (руки) робота и его корпусом, угол δ, учитывающий угловую координату между плечевой и локтевой частями манипулятора робота.
Использование узла технического зрения, дополненного устройством обработки видеосигналов, которое выполнено в виде блока 4 формирования контурного изображения и блока 5 расчета перемещения обеспечивает точное измерение расстояния до объектов, находящихся по ходу движения робота. Применение полярной системы координат (углы α, β, γ, δ) для определения пространственного положения манипулятора робота позволит также точно определять положение касания без предварительного обучения робота.

Claims (1)

  1. Антропоморфный мобильный робот, содержащий устройство перемещения, тактильные датчики, выходы которых связаны с компьютером, размещенным в корпусе робота, узел технического зрения, связанный с компьютером и состоящий из по крайней мере одной телекамеры, установленной на голове робота, и связанного с видеовыходом телекамеры устройства обработки видеосигналов, отличающийся тем, что он снабжен датчиком перемещения, а устройство обработки видеосигналов выполнено в виде блока формирования контурного изображения, связанного с видеовыходом телекамеры, и блока расчета перемещения, вход которого связан с датчиком перемещения, причем блок формирования контурного изображения выполнен в виде блока пространственного дифференцирования видеосигнала и сравнения результата дифференцирования с пороговым значением.
    Figure 00000001
RU2014138397/02U 2014-09-24 2014-09-24 Антропоморфный мобильный робот RU151795U1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2014138397/02U RU151795U1 (ru) 2014-09-24 2014-09-24 Антропоморфный мобильный робот

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014138397/02U RU151795U1 (ru) 2014-09-24 2014-09-24 Антропоморфный мобильный робот

Publications (1)

Publication Number Publication Date
RU151795U1 true RU151795U1 (ru) 2015-04-20

Family

ID=53297195

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014138397/02U RU151795U1 (ru) 2014-09-24 2014-09-24 Антропоморфный мобильный робот

Country Status (1)

Country Link
RU (1) RU151795U1 (ru)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU173813U1 (ru) * 2016-07-12 2017-09-12 Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ Антропоморфный робот
RU195261U1 (ru) * 2019-07-31 2020-01-21 Общество с ограниченной ответственностью "НейроАс" Проекционный антропоморфный робот "РобоКлон" с возможностью биоуправления

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU173813U1 (ru) * 2016-07-12 2017-09-12 Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ Антропоморфный робот
RU195261U1 (ru) * 2019-07-31 2020-01-21 Общество с ограниченной ответственностью "НейроАс" Проекционный антропоморфный робот "РобоКлон" с возможностью биоуправления

Similar Documents

Publication Publication Date Title
CN109255813B (zh) 一种面向人机协作的手持物体位姿实时检测方法
US8244402B2 (en) Visual perception system and method for a humanoid robot
CN106595630B (zh) 一种基于激光导航变电站巡检机器人的建图系统与方法
CN108214487B (zh) 基于双目视觉和激光雷达的机器人目标定位和抓取方法
KR20180044279A (ko) 깊이 맵 샘플링을 위한 시스템 및 방법
Peng et al. A smartphone-based obstacle sensor for the visually impaired
RU2662913C2 (ru) Способ локализации робота в плоскости локализации
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
CN112706158B (zh) 基于视觉和惯导定位的工业人机交互系统及方法
US9914222B2 (en) Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
Zhang et al. A real-time upper-body robot imitation system
Lippiello et al. 3D monocular robotic ball catching
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
RU151795U1 (ru) Антропоморфный мобильный робот
CN115552348A (zh) 移动目标跟随方法、机器人和计算机可读存储介质
Luchetti et al. Human identification and tracking using ultra-wideband-vision data fusion in unstructured environments
CN113701750A (zh) 一种井下多传感器的融合定位系统
Jo et al. Tracking and interaction based on hybrid sensing for virtual environments
Jin et al. Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind
Yunardi et al. Implementation of motion capture system for trajectory planning of leg swing simulator
Zhou et al. Visual servo control system of 2-DOF parallel robot
Chen et al. Measuring fingertip forces from camera images for random finger poses
Otto et al. Presenting a holistic framework for scalable, marker-less motion capturing: skeletal tracking performance analysis, sensor fusion algorithms and usage in automotive industry
Wang et al. Development of a vision system and a strategy simulator for middle size soccer robot
CN112847374A (zh) 一种抛物-接物机械人系统

Legal Events

Date Code Title Description
MM9K Utility model has become invalid (non-payment of fees)

Effective date: 20170925