KR101486308B1 - Tracking moving objects for mobile robots control devices, methods, and its robot - Google Patents

Tracking moving objects for mobile robots control devices, methods, and its robot Download PDF

Info

Publication number
KR101486308B1
KR101486308B1 KR20130098779A KR20130098779A KR101486308B1 KR 101486308 B1 KR101486308 B1 KR 101486308B1 KR 20130098779 A KR20130098779 A KR 20130098779A KR 20130098779 A KR20130098779 A KR 20130098779A KR 101486308 B1 KR101486308 B1 KR 101486308B1
Authority
KR
South Korea
Prior art keywords
moving object
mobile robot
unit
image
camera
Prior art date
Application number
KR20130098779A
Other languages
Korean (ko)
Inventor
김학일
김형래
최학남
이재홍
이승준
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR20130098779A priority Critical patent/KR101486308B1/en
Application granted granted Critical
Publication of KR101486308B1 publication Critical patent/KR101486308B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

The present invention relates to a method and an apparatus for following a moving object for a mobile robot. The apparatus for controlling a mobile robot comprises: a camera unit which is attached to a fixed position on a mobile robot in order to photograph images; a laser scanner unit which photographs laser signals through a laser scanner; and a control unit which filters the photographed images, calculates the photographed laser signals, and generates a control signal based on the filtered images and the calculated laser signals in order to track a moving object. Therefore, the apparatus can easily determine changes in lighting or the shape of the moving object and can overcome the existing problems due to a narrow angle of view.

Description

이동 객체를 추종하기 위한 이동로봇 제어 장치, 방법 및 이동로봇 {Tracking moving objects for mobile robots control devices, methods, and its robot} Technical Field [0001] The present invention relates to a mobile robot control device, a method, and a mobile robot for tracking a moving object,

본 발명은 이동로봇의 대상인식 기술에 관한 것으로 보다 상세하게는 카메라와 레이저 스캐너의 상호 보완 추적기를 이용한 이동보조를 목적으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 방법 및 장치에 관한 것입니다.
The present invention relates to an object recognition technology of a mobile robot, and more particularly, to a mobile robot control method and apparatus for tracking a moving object for a mobile assistance using a complementary tracker of a camera and a laser scanner.

최근 로봇 기술은 다양한 분야에서 발전하고 있다. 특히 인간 중심의 기술로써 서비스나 이동보조를 목적으로 하는 로봇이 많이 개발되고 있는 추세이다.Recently, robot technology is developing in various fields. Especially, it is a tendency that many robots are being developed for the purpose of service and mobility assistance as human-centered technology.

이러한 로봇들은 인간-로봇 상호작용(HRI: Human-Robot Interaction)의 연장선상에서 사람과 가까운 거리를 유지하며 이동하는 것이 다양한 서비스를 제공하는데 효과적이다. 로봇에서의 컴퓨터비전 기술은 시각을 담당하며 이는 카메라를 이용하여 구현된다. These robots are effective in providing various services by moving close to human on the extension line of Human-Robot Interaction (HRI). Computer vision technology in robots is responsible for vision, which is implemented using cameras.

하지만 이동로봇에서의 물체 추적은 낮, 밤, 실내, 외 같은 다양한 조명조건과 여러 가지 물체 색상, 형태 변화 아래에서 추적을 하여 이루어지기 때문에 많은 문제가 존재한다. 일반적으로 추적이 실패하는 요인은 내부적인 것과 외부적인 것으로 나뉜다. However, there are many problems in object tracking in mobile robots because they are tracked under various lighting conditions such as day, night, indoor, etc and various object color and shape changes. In general, the factors that cause tracking failure are internal and external.

먼저 내부적인 요인은 추적하려는 물체의 자세 및 모양의 변화와 같은 이동 객체 자체적인 변화이고, 외부적인 요인은 카메라의 떨림, 시점의 변화, 조명의 변화, 복잡한 배경, 다른 물체에 의한 가려지는 현상과 같은 이동 객체가 변하는 것 이외에 나타나는 현상이다. 이러한 많은 내부적, 외부적 요인에 의해서 추적성능이 떨어지게 된다.First, the internal factor is the movement of the moving object itself, such as the change of the posture and shape of the object to be tracked. External factors are the camera shake, the change of the viewpoint, the change of illumination, the complex background, It is a phenomenon that appears in addition to the same moving object being changed. Many of these internal and external factors reduce tracking performance.

위와 같은 문제점을 해결하기 위해 강인한 물체 추적에 관한 연구가 계속 이루어지고 있지만, 기존의 연구들은 대부분 로봇의 진행방향과 같은 방향으로 카메라가 설치되어 있기 때문에 추적대상이 카메라 화각 밖으로 벗어나는 경우가 적다.In order to solve the above problem, robust object tracking is still being studied. However, since most of the existing studies have cameras installed in the same direction as the direction of the robot, the tracking object is less likely to deviate from the camera angle of view.

왜냐하면 사람이 카메라 화각(field of view)에서 벗어나기 전에 단순히 로봇의 헤딩(heading)각을 조정하면 추종대상을 영상 중심으로 위치시킬 수 있기 때문이다. This is because if the heading angle of the robot is adjusted simply before the person departs from the field of view of the camera, the subject can be positioned at the center of the image.

또한 이동 로봇의 추종 주행시 필요한 목표지점계산 과정은 추종대상에 대한 거리와 각도를 입력으로 사용하기 때문에 단일 카메라만으로는 그 한계를 갖는다.In addition, since the calculation of the target point required for the tracking of the mobile robot uses the distances and angles to the target to be tracked, the single camera only has its limitations.

한국 특허출원 제 10-2010-0129410은 레이저 스캐너와 비디오 카메라를 융합하여 사람이나 물체 등과 같은 대상체의 위치를 추적하는 추적시스템에서, 별도의 외부 보조물 없이도 레이저 스캐너와 비디오 카메라 사이에서 물리적으로 발생하는 수평적 편의를 자동으로 보정하고, 수평적 편의 보정치를 측정하는 장치 및 방법에 관한 것으로 군집된 영상에서 배경을 인식하여 필터링하고, 대상을 인식하는 방법에서 하나의 특정 대상을 인식하는 본 발명과는 차이가 있다.Korean Patent Application No. 10-2010-0129410 discloses a tracking system for tracking the position of an object such as a person or an object by fusing a laser scanner and a video camera and is provided with a horizontal The present invention relates to an apparatus and a method for automatically correcting an arbitrary bias and measuring a horizontal bias correction value. In the method of recognizing and filtering a background in a crowded image, .

한국 특허출원 제 10-2011-0119438은 인간 작업자 추종 이동 로봇은 전, 후방으로 움직이면서 소정의 도구 또는 물건을 담을 수 있는 공간이 있는 로봇에서 로봇의 센서부는 전 후방에 위치하는 물체에 광신호를 방사하고, 물체에 의해 반사된 광 신호를 통해 물체가 작업자 인식용 반사띠를 착용했는지 감시하고, 설정된 일정 거리만큼 유지하여 추종하는 장치 및 방법에 관한 발명으로 대상의 인식방법에서 사용되는 신호 및 방법이 다르므로 본 발명과는 차이가 있다. Korean Patent Application No. 10-2011-0119438 discloses a robot in which a human operator's tracking mobile robot has a space capable of holding predetermined tools or objects while moving forward and backward. In the robot, The present invention relates to an apparatus and method for monitoring whether an object wears a reflective band for recognizing a worker through an optical signal reflected by an object, It is different from the present invention.

한국 특허출원 제 10-2009-0039481은 추종하고자 하는 대상을 인식하는 것에는 유사점이 있으나 대상을 인식해 내는 방법에 있어서 거리측정센서들이 이용된다. 단지 거리를 측정하는 센서만을 이용하므로 본 발명의 레이저를 통해 대상을 인식하는 방법과는 차이가 있다.Korean Patent Application No. 10-2009-0039481 uses distance measuring sensors in recognizing a target object but recognizing objects in a similar way. Since only the sensor for measuring the distance is used, the method is different from the method for recognizing the object through the laser of the present invention.

한국 특허출원 제 10-2009-0134721은 대상을 인식하여 추종하는 것에는 본 발명과 유사점이 있으나 본 발명과는 다르게 다리의 형태를 특정하여 인식하는 방법으로 본 발명과는 대상을 인식하는 부분이 다르고, 대상을 인식하는 방법 또한 본 발명과는 다릅니다. 또한 레이저 센서의 경우에서도 마찬가지로 대상을 인식하는 영역을 다리에만 한정하므로 대상을 인식하는 알고리즘 방식에도 차이가 있습니다. 따라서 본 발명과는 차이가 있다.
Korean Patent Application No. 10-2009-0134721 is similar to the present invention in recognizing and following an object, but it is different from the present invention in that a method of identifying and recognizing a shape of a leg is different from that of the present invention, , And how to recognize the target is also different from the present invention. Also, in the case of laser sensors, there is also a difference in the method of recognizing the object, since the region that recognizes the object is limited to the legs. Therefore, there is a difference from the present invention.

본 발명이 이루고자 하는 기술적 과제는 이동 객체의 영상신호에서 형태특징을 추출하고 상기 추출된 영상신호가 가진 인식능력의 문제점을 해결하여 외부환경에 방해받지 않는 이동 객체를 추종하기 위한 이동로봇 제어 장치, 방법 및 이동로봇을 제공하는데 있다.SUMMARY OF THE INVENTION The present invention provides a mobile robot control device for extracting shape characteristics from a video signal of a moving object and solving the problem of recognition capability of the extracted video signal to follow a moving object not disturbed by the external environment, And a mobile robot.

본 발명이 이루고자 하는 다른 기술적 과제는 이동로봇의 측면에 설치된 카메라와 전방에 설치된 레이저 스캐너를 기초로 전방뿐만 아니라 측면에서도 대상을 인식하고 추종하는 이동 객체를 추종하기 위한 이동로봇 제어 장치, 방법 및 이동로봇을 제공하는데 있다.According to another aspect of the present invention, there is provided a mobile robot control device for tracking a moving object that recognizes and tracks an object on a front side as well as a front side based on a camera installed on a side surface of the mobile robot and a laser scanner installed on the front side, To provide a robot.

본 발명이 이루고자 하는 또 다른 기술적 과제는 이동 객체가 카메라의 화각에서 벗어날 경우에도 이동 객체의 추적을 끊임없이 진행하는 이동 객체를 추종하기 위한 이동로봇 제어 장치, 방법 및 이동로봇을 제공하는데 있다.
Another object of the present invention is to provide a mobile robot control device, a method, and a mobile robot for following a moving object that keeps track of a moving object even when the moving object deviates from an angle of view of a camera.

이동로봇의 소정의 위치에 부착 카메라를 통해 영상을 촬영하는 카메라부, 레이저 스캐너를 통해 레이저 신호를 촬영하는 레이저 스캐너부, 상기 촬영된 영상을 필터링하고, 상기 촬영된 레이저 신호를 연산하고, 상기 필터링된 영상 및 상기 연산된 레이저 신호중 적어도 하나를 기초로 이동 객체의 추적을 진행하는 제어신호를 생성하는 제어부를 포함할 수 있다.A camera unit for photographing an image through a camera attached to a predetermined position of the mobile robot, a laser scanner unit for photographing a laser signal through a laser scanner, filtering the photographed image, calculating the photographed laser signal, And a control unit for generating a control signal for tracking the moving object based on at least one of the calculated image and the computed laser signal.

상기 카메라부는 이동로봇의 이동경로 측면의 영상을 촬영하는 것을 특징으로 할 수 있다.And the camera unit photographs an image of a moving path side of the mobile robot.

상기 레이저 스캐너부는 상기 카메라부와 겹치는 화각을 포함하고, 상기 카메라부의 화각보다 넓은 화각을 가지며, 상기 이동로봇 경로의 전방을 촬영하여 레이저 신호를 생성할 수 있다.The laser scanner unit includes an angle of view that overlaps with the camera unit, has a wider angle of view than the angle of view of the camera unit, and can capture the front of the robot path to generate a laser signal.

상기 제어부는, 설치된 체스보드를 이용하여 상기 레이저 스캐너 및 상기 카메라 사이의 기하학적 관계를 확인할 수 있다.The control unit can confirm the geometrical relationship between the laser scanner and the camera using the installed chess board.

상기 레이저 스캐너부는, 상기 확인된 기하학적 관계에 따라 보정된 레이저 신호를 생성할 수 있다.The laser scanner unit may generate a laser signal that is corrected according to the identified geometric relationship.

상기 제어부는, 상기 촬영된 영상신호를 기초로 형태특징으로 검출하고, 상기 검출된 형태특징을 기초로 추종하려는 이동 객체를 인식하는 필터링부, 상기 촬영된 레이저신호를 기초로 추종하려는 이동 객체를 인식하는 레이저 신호처리부, 상기 필터링부에서 인식한 이동 객체와 상기 레이저 신호처리부에서 인식한 이동 객체중 적어도 하나의 위치를 산출하고, 상기 산출된 위치에 따라 상기 이동로봇을 이동시키기 위한 제어신호를 생성하는 위치산출부를 포함할 수 있다.The control unit may include a filtering unit that detects a moving object to be detected based on the photographed image signal based on the detected shape characteristic and a moving object to be followed based on the detected shape characteristic, A position of at least one of the moving object recognized by the filtering unit and the moving object recognized by the laser signal processing unit is calculated and a control signal for moving the mobile robot in accordance with the calculated position is generated And a position calculation unit.

상기 필터링부는, 상기 카메라부에서 촬영된 영상의 형태특징을 추출하는 형태특징 검출부, 상기 추출된 형태특징를 기초로 상기 이동 객체를 인식하는 이동 객체 인식부를 포함할 수 있다.The filtering unit may include a shape feature detecting unit for extracting shape features of the image captured by the camera unit, and a moving object recognizing unit for recognizing the moving object based on the extracted shape feature.

상기 형태특징 검출부는, 헤이치오지(HOG: Histogram of Oriented Gradients) 알고리즘을 적용하여 상기 형태특징을 검출할 수 있다.The shape feature detector may detect the shape feature by applying a Histogram of Oriented Gradients (HOG) algorithm.

상기 이동 객체 인식부는, 비디피씨에이(BDPCA: bidirectional PCA) 알고리즘을 적용한 뒤 파티클 필터 알고리즘을 적용하여 상기 이동 객체를 인식할 수 있다.The moving object recognizing unit may recognize the moving object by applying a particle filter algorithm after applying a bidirectional PCA (BDPCA) algorithm.

상기 레이저 신호처리부는, 상기 촬영된 레이저 신호를 기초로 상기 이동로봇 및 상기 이동객체 사이의 상대거리 및 각도를 추출하는 민쉬프트(Mean-shift) 알고리즘을 적용할 수 있다.The laser signal processing unit may apply a mean-shift algorithm for extracting a relative distance and an angle between the mobile robot and the moving object based on the photographed laser signal.

상기 위치산출부는, 상기 영상신호를 기초로 제어신호를 생성하고, 상기 영상의 화각에서 벗어날 경우에는, 상기 레이저 스캐너부의 레이저 신호를 기초로 이동 객체의 추적을 진행하고, 상기 레이저 신호를 기초로 제어신호를 생성할 수 있다.Wherein the position calculating unit generates a control signal based on the image signal and, when the image is out of the angle of view of the image, tracks the moving object based on the laser signal of the laser scanner unit, Signal can be generated.

이동로봇의 소정의 위치에 부착된 카메라로 영상을 촬영하는 단계, 레이저 스캐너를 통해 레이저 신호를 촬영하는 단계, 상기 촬영된 영상을 필터링하고, 상기 촬영된 레이저 신호를 연산하고, 상기 필터링된 영상 및 상기 연산된 레이저 신호중 적어도 하나를 기초로 이동 객체의 추적을 진행하는 제어신호를 생성하는 단계를 포함할 수 있다.The method includes capturing an image with a camera attached to a predetermined position of a mobile robot, photographing a laser signal through a laser scanner, filtering the photographed image, computing the photographed laser signal, And generating a control signal for tracking the moving object based on at least one of the computed laser signals.

상기 영상을 촬영하는 단계는, 이동로봇의 이동경로 측면의 영상을 촬영하는 단계를 포함할 수 있다.The step of photographing the image may include photographing an image of a side of the movement path of the mobile robot.

상기 레이저 신호를 촬영하는 단계는, 상기 촬영된 영상과 겹치는 화각을 포함하고, 상기 촬영된 영상의 화각보다 넓은 화각을 가지며, 상기 이동로봇 경로의 전방을 촬영하여 레이저 신호를 생성하는 단계를 포함할 수 있다.The step of photographing the laser signal includes a step of generating a laser signal by photographing the forward part of the path of the mobile robot including an angle of view overlapping with the photographed image and having a wider angle of view than the angle of view of the photographed image .

상기 제어신호를 생성하는 단계는, 설치된 체스보드를 이용하여 상기 레이저 스캐너 및 상기 카메라 사이의 기하학적 관계를 알아내는 단계를 포함할 수 있다.The generating of the control signal may include finding a geometric relationship between the laser scanner and the camera using a chess board installed.

상기 레이저 신호를 촬영하는 단계는, 상기 확인된 기하학적 관계어 따라 보정된 레이저 신호를 생성할 수 있다.The step of photographing the laser signal may generate a laser signal corrected according to the identified geometric relationship term.

상기 제어신호를 생성하는 단계는, 상기 촬영된 영상신호를 기초로 형태특징으로 검출하고, 상기 검출된 형태특징을 기초로 추종하려는 이동 객체를 인식하는 단계, 상기 촬영된 레이저신호를 기초로 추종하려는 이동 객체를 인식하는 단계, 상기 영상신호를 기초로 인식한 이동 객체와 상기 레이저신호를 기초로 인식한 이동 객체중 적어도 하나의 위치를 산출하고, 상기 산출된 위치에 따라 상기 이동로봇을 이동시키기 위한 제어신호를 생성하는 단계를 포함할 수 있다.The generating of the control signal may include detecting a shape feature based on the photographed image signal and recognizing a moving object to follow based on the detected shape characteristic, A position of at least one of a moving object recognized based on the video signal and a moving object recognized based on the laser signal is calculated, and the moving robot is moved according to the calculated position And generating a control signal.

상기 영상신호를 기초로 이동 객체를 인식하는 단계는, 상기 촬영된 영상신호의 형태특징을 추출하는 단계, 상기 추출된 형태특징를 기초로 상기 이동 객체를 인식하는 단계를 포함할 수 있다.The step of recognizing the moving object based on the video signal may include extracting a shape characteristic of the photographed image signal and recognizing the moving object based on the extracted shape characteristic.

상기 영상의 형태특징을 추출하는 단계는, 헤이치오지(HOG: Histogram of Oriented Gradients) 알고리즘을 적용하여 상기 형태특징을 검출하는 단계를 포함할 수 있다.The step of extracting feature features of the image may include detecting the feature features by applying a Histogram of Oriented Gradients (HOG) algorithm.

상기 이동 객체를 인식하는 단계는, 비디피씨에이(BDPCA: bidirectional PCA) 알고리즘을 적용한 뒤 파티클 필터 알고리즘을 적용하여 상기 이동 객체를 인식하는 단계를 포함할 수 있다.The step of recognizing the moving object may include recognizing the moving object by applying a particle filter algorithm after applying a bidirectional PCA (BDPCA) algorithm.

상기 레이저신호를 기초로 이동 객체를 인식하는 단계는, 상기 촬영된 레이저 신호를 기초로 상기 이동로봇 및 상기 이동객체 사이의 상대거리 및 각도를 추출하는 민쉬프트(Mean-shift) 알고리즘을 적용하는 단계를 포함할 수 있다.The step of recognizing the moving object based on the laser signal may include applying a mean-shift algorithm for extracting a relative distance and an angle between the mobile robot and the moving object based on the photographed laser signal . ≪ / RTI >

상기 제어신호를 생성하는 단계는, 상기 영상신호를 기초로 제어신호를 생성하는 단계, 상기 영상의 화각에서 벗어날 경우에는, 상기 레이저 신호를 기초로 이동 객체의 추적을 진행하는 단계, 상기 레이저 신호를 기초로 제어신호를 생성하는 단계를 포함할 수 있다.The generating of the control signal may include generating a control signal based on the image signal, tracking the moving object based on the laser signal when the image signal is out of the angle of view of the image, And generating a control signal based on the control signal.

이동로봇의 소정의 위치에 부착되어 영상을 촬영하는 카메라부, 레이저 스캐너를 통해 레이저 신호를 촬영하는 레이저 스캐너부, 상기 촬영된 영상을 필터링하고, 상기 촬영된 레이저 신호를 연산하고, 상기 필터링된 영상과 상기 연산된 레이저 신호를 기초로 이동 객체의 추적을 진행하는 제어신호를 생성하는 제어부, 상기 제어신호를 기초로 작동하는 이동장치를 포함할 수 있다.
A camera unit for photographing an image attached to a predetermined position of the mobile robot, a laser scanner unit for photographing a laser signal through a laser scanner, filtering the photographed image, calculating the photographed laser signal, And a control unit for generating a control signal for tracking the moving object on the basis of the calculated laser signal, and a mobile device operating based on the control signal.

본 발명에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치, 방법 및 이동로봇에 따르면, 이동 객체의 영상신호에서 HOG 알고리즘을 적용하여 형태특징을 추출하고 상기 추출된 영상신호를 기초로 파티클 필터 추적을 적용하여 조명변화나 물체의 형태변화에 강한 인식능력을 가질 수 있다.According to the apparatus and method for controlling a mobile robot for tracking a moving object according to the present invention, a shape characteristic is extracted by applying a HOG algorithm to an image signal of a moving object, and a particle filter is traced based on the extracted image signal. It is possible to have a strong cognitive ability to change the shape of the object or illumination change.

측면을 촬영하는 카메라의 화각과 정면을 촬영하는 레이저 스캐너의 화각이 겹쳐지게 설치되어 이동 객체가 상기 카메라의 화각에서 벗어날 경우에도 레이저 스캐너의 신호로 이동 객체를 인식할 수 있다. The angle of view of the camera for photographing the side and the angle of view of the laser scanner for photographing the front are overlapped with each other so that the moving object can be recognized by the signal of the laser scanner even when the moving object deviates from the angle of view of the camera.

측면을 촬영하는 카메라의 화각을 벗어나는 경우 정면을 촬영하는 레이저 스캐너가 대상을 인식하는 방법으로 카메라의 화각 문제를 극복하고 카메라와 레이저 스캐너의 신호를 결합하여 이동 객체의 추적을 끊임없이 진행할 수 있다.
When the angle of the camera is out of the angle of view, the laser scanner that captures the front side can recognize the object and overcome the angle of view problem of the camera and combine the signals of the camera and the laser scanner to continuously track the moving object.

도 1은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치를 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 제어부의 구성을 도시한 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 필터링부의 구성을 도시한 블럭도이다.
도 4은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 형태특징 검출부에서 이동 객체의 형태특징을 검출하는 과정을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치에서 체스보드를 이용한 카메라와 레이저 스캐너의 캘리브레이션(calibration)을 나타내는 개념도이다.
도 6는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 레이저 스캐너부에서 촬영된 레이저 신호를 영상으로 나타낸 도면이다.
도 7는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 레이저 신호처리부에서 적용되는 Mean-shift 알고리즘의 단순화된 순서도이다.
도 8은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 레이저 신호처리부에서 이동 객체가 인식된 예를 보여주는 도면이다.
도 9은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치에서 촬영된 영상신호와 촬영된 레이저 신호를 결합하여 이동하는 물체를 추적하는 과정을 나타내는 도면이다.
도 10은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치가 대상을 인식하고 추적하는 수행과정을 나타내는 순서도이다.
1 is a block diagram illustrating a mobile robot control apparatus for following a moving object according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of a controller of a mobile robot control apparatus for following a moving object according to an embodiment of the present invention. Referring to FIG.
3 is a block diagram illustrating a configuration of a filtering unit of a mobile robot control apparatus for following a moving object according to an embodiment of the present invention.
4 is a diagram illustrating a process of detecting a shape feature of a moving object in a shape feature detector of a mobile robot controller for tracking a moving object according to an exemplary embodiment of the present invention.
5 is a conceptual diagram illustrating calibration of a camera and a laser scanner using a chess board in a mobile robot controller for tracking a moving object according to an embodiment of the present invention.
6 is a view showing an image of a laser signal photographed by a laser scanner unit of a mobile robot controller for tracking a moving object according to an embodiment of the present invention.
7 is a simplified flowchart of a mean-shift algorithm applied to a laser signal processing unit of a mobile robot control apparatus for tracking a moving object according to an embodiment of the present invention.
8 is a diagram illustrating an example in which a moving object is recognized in a laser signal processing unit of a mobile robot control apparatus for tracking a moving object according to an embodiment of the present invention.
9 is a diagram illustrating a process of tracking a moving object by combining a captured image signal and a photographed laser signal in a mobile robot controller for tracking a moving object according to an embodiment of the present invention.
FIG. 10 is a flowchart illustrating a process of recognizing and tracking an object by a mobile robot controller for tracking a moving object according to an exemplary embodiment of the present invention. Referring to FIG.

이하 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 가장 바람직한 실시예를 첨부된 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, in order to facilitate a person skilled in the art to easily carry out the technical idea of the present invention. .

물체 추적 시 사용하는 다양한 특징은 크게 색상 특징과 형태특징으로 나눌 수 있다. 물체의 색상정보는 가장 직관적으로 사용할 수 있는 특징이나, 로봇에서의 물체 추적은 배경과 조명 조건이 쉽게 바뀌기 때문에 더 강인한 특징을 필요로 한다. 따라서 본 발명에서는 색상 기반의 특징보다 조명의 영향을 덜 받는 형태특징을 이용한다. The various features used in object tracking can be divided into color features and shape features. Color information of an object is the most intuitive feature, but object tracking in a robot requires more robust features because background and lighting conditions change easily. Therefore, in the present invention, a shape feature that is less influenced by illumination than a color-based feature is used.

도 1은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치를 도시한 블록도이다.1 is a block diagram illustrating a mobile robot control apparatus for following a moving object according to an embodiment of the present invention.

도 1을 참조하면 카메라부(110)는 로봇의 일면에 부착되어 카메라를 이용해 외부의 이미지를 촬영한다. 상기 카메라는 로봇의 측면에 부착되어 이동로봇 경로의 측면을 촬영할 수 있다.Referring to FIG. 1, the camera unit 110 is attached to one side of a robot and photographs an external image using a camera. The camera may be attached to a side surface of the robot to take a side view of the path of the mobile robot.

제어부(150)는 상기 카메라부(110)에서 획득한 이미지 신호를 기초로 이동 객체의 형태특징을 검출해낼 수 있다. 상기 형태특징을 검출하는 방법은 HOG(Histogram of Gradiedients) 알고리즘이 될 수 있다. The control unit 150 can detect the shape characteristic of the moving object based on the image signal acquired by the camera unit 110. [ The method for detecting the shape feature may be a histogram of gradients (HOG) algorithm.

제어부(150)는 상기 검출된 형태특징을 기초로 이동 객체를 인식할 수 있다. 상기 이동 객체를 인식하는 방법은 강인한 물체 검출 알고리즘인 BDPCA (bidirectional PCA) 알고리즘과 파티클 필터(particle filter) 알고리즘을 적용할 수 있다. The control unit 150 can recognize the moving object based on the detected shape characteristics. The moving object may be recognized by using a bidirectional PCA (BDPCA) algorithm and a particle filter algorithm, which are robust object detection algorithms.

레이저 스캐너부(130)는 카메라부(110)와 겹쳐지는 화각에 레이저 스캐너가 설치가 되며 상기 레이저 스캐너를 통해 레이저 신호를 수신할 수 있다. 레이저 스캐너부(130)는 전방 240도의 범위를 감지할 수 있다. 레이저 스캐너부(130)는 카메라부(110)에 설치된 카메라의 화각보다 넓은 화각을 가지는 레이저 스캐너일 수 있다. The laser scanner unit 130 is provided with a laser scanner at an angle of view overlapping the camera unit 110 and can receive a laser signal through the laser scanner. The laser scanner unit 130 can sense a range of 240 degrees forward. The laser scanner unit 130 may be a laser scanner having a wider angle of view than the angle of view of the camera installed in the camera unit 110.

제어부(150)는 레이저 스캐너부(130)에서 획득한 레이저 신호에서 이동 객체를 인식할 수 있다. 제어부(150)는 레이저 스캐너부(130) 및 카메라부(110)가 겹치는 화각을 포함하고 있으므로 상기 레이저 스캐너부(130)에서 촬영된 레이저신호와 카메라부(110)에서 촬영된 영상신호를 조합하기 위해 기하학적 관계를 알 수 있다. 상기 기하학적 관계에 따라 보정된 레이저신호를 생성할 수 있다. 상기 레이저 신호는 Mean-shift 알고리즘을 적용할 수 있다. 제어부(150)는 상기 레이저 신호에서 이동 객체를 인식하고 로봇과 이동 객체와의 상대거리 및 각도를 산출할 수 있다. The control unit 150 can recognize the moving object from the laser signal acquired by the laser scanner unit 130. [ The control unit 150 may combine the laser signal photographed by the laser scanner unit 130 and the image signal photographed by the camera unit 110 because the laser scanner unit 130 and the camera unit 110 include the overlapping angle of view The geometric relationship can be known. And the laser signal corrected according to the geometric relationship can be generated. A mean-shift algorithm may be applied to the laser signal. The control unit 150 can recognize the moving object from the laser signal and calculate the relative distance and angle between the robot and the moving object.

제어부(150)는 카메라부(110)에서 촬영된 영상신호와 레이저 스캐너부(130)에서 촬영된 레이저 신호를 종합하여 이동 객체의 위치를 파악할 수 있다.The control unit 150 can determine the position of the moving object by combining the video signal photographed by the camera unit 110 and the laser signal photographed by the laser scanner unit 130.

제어부(150)는 카메라부(110)와 레이저 스캐너부(130)의 센서들의 기하관계를 알고 있기 때문에 카메라 영상에서의 추적결과는 레이저 신호의 추적결과와 부합될 수 있다. 제어부(150)는 상기 레이저 신호를 통해 카메라 화각밖에 있는 물체도 추적이 가능할 수 있다. 제어부(150)는 상기 추적된 이동 객체를 기초로 이동 객체를 추종하기 위한 제어신호를 생성할 수 있다. Since the control unit 150 knows the geometric relationships of the sensors of the camera unit 110 and the laser scanner unit 130, the tracking result in the camera image can be matched with the tracking result of the laser signal. The control unit 150 can also track an object outside the angle of view of the camera through the laser signal. The control unit 150 may generate a control signal for following the moving object based on the tracked moving object.

이동장치(20)는 상기 생성된 제어신호를 기초로 동작될 수 있다. 이동장치(20)는 이동 객체를 추종하는 구동을 할 수 있다.The mobile device 20 may be operated based on the generated control signal. The mobile device 20 can drive to follow the moving object.

도 2는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 제어부(150)의 구성을 도시한 블럭도이다.FIG. 2 is a block diagram illustrating the configuration of a controller 150 of a mobile robot controller for following a moving object according to an embodiment of the present invention. Referring to FIG.

도 2를 참조하면, 제어부(150)는 필터링부(120), 레이저 신호처리부(155) 및 위치산출부(157)를 포함할 수 있다. 2, the control unit 150 may include a filtering unit 120, a laser signal processing unit 155, and a position calculating unit 157.

필터링부(120)는 카메라부(110)에서 촬영된 영상신호를 기초로 이동 객체의 형태특징을 검출해 낼 수 있다. 또한, 필터링부(120)는 상기 검출된 형태특징을 기초로 이동 객체를 인식할 수 있다.The filtering unit 120 can detect the shape characteristic of the moving object based on the video signal photographed by the camera unit 110. In addition, the filtering unit 120 may recognize the moving object based on the detected shape characteristics.

레이저 신호처리부(155)는 레이저 스캐너부(130)에서 획득한 레이저 신호에서 이동 객체를 인식할 수 있다. 레이저 신호처리부(155)는 상기 획득한 레이저 신호에서 이동 객체를 인식하고 로봇과 이동 객체와의 상대거리 및 각도를 산출할 수 있다.The laser signal processing unit 155 can recognize the moving object from the laser signal acquired by the laser scanner unit 130. The laser signal processing unit 155 can recognize the moving object from the obtained laser signal and calculate the relative distance and angle between the robot and the moving object.

위치산출부(157)는 필터링부(120) 및 레이저 신호처리부(155)에서 전달받은 영상신호 및 레이저 신호를 결합하여 로봇의 현재위치 및 이동 객체의 현재위치를 파악할 수 있다. 또한, 위치산출부(157)는 파악된 이동 객체의 위치를 기초로 이동장치(20)을 제어하기 위한 제어신호를 생성할 수 있다. The position calculation unit 157 may combine the image signal and the laser signal received from the filtering unit 120 and the laser signal processing unit 155 to determine the current position of the robot and the current position of the moving object. The position calculating unit 157 may generate a control signal for controlling the mobile device 20 based on the position of the detected moving object.

도 3은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 필터링부(120)의 구성을 도시한 블럭도이다.3 is a block diagram illustrating the configuration of a filtering unit 120 of a mobile robot control apparatus for following a moving object according to an embodiment of the present invention.

도 3을 참조하면, 필터링부(120)는 형태특징 검출부(122) 및 이동 객체 인식부(124)를 포함할 수 있다.Referring to FIG. 3, the filtering unit 120 may include a shape feature detection unit 122 and a moving object recognition unit 124.

형태특징 검출부(122)는 카메라부(110)에서 촬영한 영상신호를 기초로 이동 객체의 형태특징을 검출해 낼 수 있다. 상기 형태특징을 검출하는 방법은 외부 환경변화에 강한 HOG(Histogram of Gradiedients) 알고리즘을 적용할 수 있다. 상기 검출된 형태특징은 이동 객체 인식부(124)로 전달될 수 있다.The morphological feature detecting unit 122 can detect the morphological feature of the moving object based on the video signal photographed by the camera unit 110. A method of detecting the shape feature can apply a histogram of gradients (HOG) algorithm that is resistant to changes in the external environment. The detected feature information may be transmitted to the moving object recognizing unit 124.

이동 객체 인식부(124)는 상기 검출된 형태특징을 기초로 이동 객체를 인식할 수 있다. 상기 검출된 형태특징을 기초로 이동 객체를 인식하는 방법은 파티클 필터(particle filter) 알고리즘을 적용할 수 있다. 상기 파티클 필터(particle filter) 알고리즘은 샘플 집합으로 확률 분포를 나타내는 알고리즘이며 칼만필터와 함께 재귀적 베이지안프레임워크(recursive Bayesian framework) 내에 속한다. 상기 이동 객체를 추적하기 전에 강인한 물체 검출 알고리즘인 BDPCA (bidirectional PCA) 알고리즘를 이용하여 이동 객체를 검출할 수 있다.The moving object recognizing unit 124 can recognize the moving object based on the detected shape characteristics. A method of recognizing a moving object based on the detected shape characteristics may be a particle filter algorithm. The particle filter algorithm is an algorithm that represents a probability distribution as a set of samples and belongs to a recursive Bayesian framework along with a Kalman filter. Before tracking the moving object, a moving object can be detected using a BDPCA (bidirectional PCA) algorithm, which is a robust object detection algorithm.

상기 BDPCA (bidirectional PCA) 알고리즘에 의해 검출된 이동 객체의 신호를 파티클 필터(particle filter)에 각 샘플로 적용하여 사각형 형태로 사용할 수 있다. 그로인해 상기 검출된 이동 객체의 신호는 [수학식 2]와 같이 상태변수로 정의할 수 있다.A moving object signal detected by the BDPCA (bidirectional PCA) algorithm can be used as a square filter by applying each signal to a particle filter. Thus, the signal of the detected moving object can be defined as a state variable as shown in Equation (2).

Figure 112013075645612-pat00001
Figure 112013075645612-pat00001

[수학식 1]에서 x 와 y는 영상에서의 해당 샘플의 위치를 나타내고

Figure 112013075645612-pat00002
Figure 112013075645612-pat00003
는 속도를 의미한다. 또한, h는 사각형의 세로를 의미하고, 고정된 사각형 비율(aspect ratio)를 사용하기 때문에 사각형의 가로는 w = 1.1h 일 수 있다.In Equation (1), x and y represent the position of the corresponding sample in the image
Figure 112013075645612-pat00002
Wow
Figure 112013075645612-pat00003
Means speed. Also, h means the height of the rectangle, and since the fixed aspect ratio is used, the width of the rectangle can be w = 1.1h.

파티클 필터(particle filter)는 크게 예측단계와 갱신단계로 이루어지며 각 단계는 각각 [수학식 2]과 [수학식 3]로 표현이 될 수 있다.The particle filter is largely composed of a prediction step and an update step, and each of the steps may be represented by [Equation 2] and [Equation 3].

Figure 112013075645612-pat00004
Figure 112013075645612-pat00004

Figure 112013075645612-pat00005
Figure 112013075645612-pat00005

[수학식 2]과 [수학식 3]에서 z 는 측정변수이며 [수학식 2]에서 이전상태

Figure 112013075645612-pat00006
Figure 112013075645612-pat00007
을 곱해 예측
Figure 112013075645612-pat00008
을 수행하고 식 [수학식 3]는 예측된 현재 상태를 기반으로 새로운 관측
Figure 112013075645612-pat00009
을 통해 현재 상태
Figure 112013075645612-pat00010
를 갱신한다. In Equation (2) and Equation (3), z is a measurement variable and Equation (2)
Figure 112013075645612-pat00006
on
Figure 112013075645612-pat00007
Multiply by
Figure 112013075645612-pat00008
And equation (3) is based on the predicted current state and a new observation
Figure 112013075645612-pat00009
Current state through
Figure 112013075645612-pat00010
.

[수학식 2]을 행렬로써 표현하면 [수학식 4]로 나타낼 수 있다.[Mathematical expression 2] can be expressed as a matrix, and can be expressed as [Mathematical expression 4].

Figure 112013075645612-pat00011
Figure 112013075645612-pat00011

[수학식 4]에서

Figure 112013075645612-pat00012
는 각 변수의 잡음을 발생시키기 위한 난수의 분산 값이다.In Equation (4)
Figure 112013075645612-pat00012
Is the variance of the random number to generate the noise of each variable.

갱신단계는 우도(likelihood) 계산을 통해 이루어지게 되며 이는 앞서 작성한 HOG 서술자를 이용할 수 있다. 각 샘플의 상태 벡터와 학습 된 모델의 유사성을 판별하기 위해

Figure 112013075645612-pat00013
를 누적하여 작성된 히스토그램
Figure 112013075645612-pat00014
과 현재 샘플에 해당하는 히스토그램
Figure 112013075645612-pat00015
를 비교할 수 있다. 상기 유사성을 판단하는 과정은 [수학식 5]과 같이 Bhattacharyya distance를 이용할 수 있다. 이때, 두 히스토그램이 완벽하게 일치하면 0, 불일치하면 1이다.The update step is done through a likelihood calculation, which can be done using the previously created HOG descriptor. To determine the similarity between the state vector of each sample and the learned model
Figure 112013075645612-pat00013
Histogram < RTI ID = 0.0 >
Figure 112013075645612-pat00014
And a histogram corresponding to the current sample
Figure 112013075645612-pat00015
Can be compared. The process of determining the similarity can use the Bhattacharyya distance as shown in Equation (5). At this time, if the two histograms are perfectly matched, 0 is obtained.

Figure 112013075645612-pat00016
Figure 112013075645612-pat00016

Figure 112013075645612-pat00017
Figure 112013075645612-pat00017

Figure 112013075645612-pat00018
Figure 112013075645612-pat00018

[수학식 5]에서 얻어진 각 샘플의 신뢰도를 식 [수학식 6],[수학식 7]과 같이 정규화를 통해 0 ~ 1의 범위를 갖는 확률 값으로 변환할 수 있다. The reliability of each sample obtained in Equation (5) can be converted into a probability value in the range of 0 to 1 through normalization as in Equation (6) and Equation (7).

이동 객체 인식부(124)에서 인식된 이동 객체의 형태특징은 제어부(150)로 전달될 수 있다.The shape characteristic of the moving object recognized by the moving object recognizing unit 124 may be transmitted to the controller 150.

도 4는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 형태특징 검출부(122)에서 이동 객체의 형태특징을 검출하는 과정을 보여주는 도면이다. 상기 이동 객체의 형태를 검출하는 방법으로는 형태특징의 한 종류인 HOG(Histogram of Gradiedients) 알고리즘을 사용할 수 있다. 4 is a diagram illustrating a process of detecting a shape feature of a moving object in a shape feature detector 122 of a mobile robot controller for tracking a moving object according to an exemplary embodiment of the present invention. As a method of detecting the shape of the moving object, a Histogram of Gradient (HOG) algorithm, which is one type of shape characteristic, can be used.

도 4를 참조하면, 상기 HOG(Histogram of Gradiedients)는 하나의 사각형 내에서 2 × 3개의 서술자(discriptor)를 사용하며, 각 서술자는 8개의 방향성으로 표현된다. 벡터(410, 420, 430, 440, 450, 460)는 각 격자에서의 서술자를 나타낸다.Referring to FIG. 4, HOG (Histogram of Gradientients) uses 2 × 3 descriptors in one square, and each descriptor is represented by eight directions. The vectors 410, 420, 430, 440, 450, and 460 represent descriptors in each grid.

Figure 112013075645612-pat00019
Figure 112013075645612-pat00019

[수학식 8]에서 mi(x,y)는 기울기(gradient)의 크기(magnitude)를 의미하고 θi(x,y)는 기울기의 각도를 의미한다. x,y는 해당 격자의 위치를 나타낸다. In Equation (8), m i (x, y) means the magnitude of the gradient and θ i (x, y) means the angle of the gradient. x and y represent the position of the corresponding lattice.

도 5는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치에서 체스보드(510)를 이용한 카메라(110)와 레이저 스캐너(130)의 캘리브레이션(calibration)을 나타내는 개념도이다.5 is a conceptual diagram illustrating calibration of a camera 110 and a laser scanner 130 using a chess board 510 in a mobile robot controller for tracking a moving object according to an embodiment of the present invention.

도 5를 참조하면, 레이저 스캐너(130)는 이동로봇의 전방을 촬영할 수 있다. 카메라(110)는 이동로봇의 측면을 촬영할 수 있다. 레이저 스캐너(130)와 카메라(110)는 겹치는 화각을 포함할 수 있다. 감지범위와 설치방향이 다른 카메라(110)와 레이저 스캐너(130)의 정보를 공유하기 위하여 서로의 기하학적 관계를 알아야 한다. 따라서 카메라(110)와 레이저 스캐너(130)의 겹치는 화각 부분에 체스보드(510)를 배치하여 동시에 얻은 영상과 레이저 거리값을 기반으로 Q.Zhang 알고리즘을 적용할 수 있다.Referring to FIG. 5, the laser scanner 130 can photograph the front of the mobile robot. The camera 110 can photograph the side of the mobile robot. The laser scanner 130 and the camera 110 may include an overlapping angle of view. The geometric relationship between the camera 110 and the laser scanner 130 must be known in order to share the information of the camera 110 and the camera 110 having different sensing ranges and installation directions. Therefore, the chess board 510 can be disposed at the overlapping angle of view between the camera 110 and the laser scanner 130, and the Q.Zhang algorithm can be applied based on the image and the laser distance value obtained at the same time.

캘리브레이션(calibration)은 [수학식 9]와 같이 레이저 스캐너(130)에서 카메라(110)로 3×3 회전 행렬 Φ와 3차원 이동벡터 Δ를 구하는 과정이다. Calibration is a process of obtaining a 3 × 3 rotation matrix Φ and a 3D motion vector Δ from the laser scanner 130 to the camera 110 as shown in Equation (9).

Figure 112013075645612-pat00020
Figure 112013075645612-pat00020

체스보드(510) 위의 임의의 레이저 데이터의 좌표를 Pl 이라고 하고, 이 좌표가 카메라 좌표계에 Pc 로 표현된다. [수학식 9]에서 K는 카메라 내부의 파라미터이고 p는 영상 내의 좌표이다.The coordinate of arbitrary laser data on the chess board 510 is referred to as P l , and this coordinate is represented by P c in the camera coordinate system. In Equation (9), K is a parameter inside the camera and p is a coordinate in the image.

카메라(110)와 레이저 스캐너(130)와의 캘리브레이션(calibration)은 각각 이동행렬과 회전벡터인

Figure 112013075645612-pat00021
로 표현될 수 있다. 상기 캘리브레이션(calibration)을 위해 레이저 스캐너(130)는 지면과 수평으로 놓고, 카메라(110)는 레이저 스캐너(130) 위에서 오른쪽으로 90도 정도 회전시켜 장착할 수 있다. 상기 레이저 스캐너(130)의 레이저 신호가 카메라(110)의 화각에 들어오게 하기 위해 한 변이 100mm인 격자무늬를 이용하여 10×7의 체스보드(510)를 이용할 수 있다.The calibration between the camera 110 and the laser scanner 130 is performed using a moving matrix and a rotation vector
Figure 112013075645612-pat00021
. ≪ / RTI > The laser scanner 130 may be horizontally placed on the ground for the calibration and the camera 110 may be mounted on the laser scanner 130 by turning it 90 degrees to the right. A 10 × 7 chess board 510 can be used by using a grid pattern having a side length of 100 mm so that the laser signal of the laser scanner 130 enters the angle of view of the camera 110.

본 발명의 일 실시예에서 구한

Figure 112013075645612-pat00022
는 [수학식 10]과 같다.In one embodiment of the present invention,
Figure 112013075645612-pat00022
Is expressed by Equation (10).

Figure 112013075645612-pat00023
Figure 112013075645612-pat00023

레이저 신호처리부(155)는 [수학식 10]과 같이 회전행렬과 이동벡터를 구하고 [수학식 9]를 이용하면 촬영된 레이저 신호를 영상 내에 투영시킬 수 있다. The laser signal processing unit 155 can project the photographed laser signal into the image using the rotation matrix and the motion vector as shown in Equation (10) and using Equation (9).

도 6는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 레이저 스캐너부에서 촬영된 레이저 신호를 영상으로 나타낸 도면이다.6 is a view showing an image of a laser signal photographed by a laser scanner unit of a mobile robot controller for tracking a moving object according to an embodiment of the present invention.

도 6를 참조하면, 카메라(110)와 레이저 스캐너(130)와의 캘리브레이션(calibration)은 결합되어 레이저 신호 데이터를 영상 내에 투영시킬 수 있다. 영상(511)은 레이저 스캐너부(130)에서 쵤영되어 레이저 신호(515)로 인식될 수 있다. 또한, 영상(521)은 레이저 스캐너부(130)에서 촬영되어 레이저 신호(525)로 인식될 수 있다.Referring to FIG. 6, the calibration of the camera 110 and the laser scanner 130 may be combined to project the laser signal data into an image. The image 511 is displayed on the laser scanner unit 130 and can be recognized as the laser signal 515. Further, the image 521 may be photographed by the laser scanner unit 130 and recognized as a laser signal 525. [

도 7는 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 레이저 신호처리부(155)에서 적용되는 Mean-shift 알고리즘의 단순화된 순서도이다.7 is a simplified flowchart of a mean-shift algorithm applied to the laser signal processor 155 of the mobile robot controller for tracking a moving object according to an embodiment of the present invention.

도 7을 참조하면, 상기 Mean-shift 알고리즘은 레이저 신호처리부(155)에서 사람을 인식하는 과정을 나타내고 있다.Referring to FIG. 7, the mean-shift algorithm indicates a process of recognizing a person in the laser signal processor 155.

Mean-shift 알고리즘은 데이터 집합의 밀도 분포에서 지역극값(local extrema)을 찾는 강인한 방법으로 알려져 있다. 상기 Mean-shift 알고리즘은 연속분포에서 제대로 적용되며, 이는 데이터의 밀도 히스토그램에 제대로 적용된 '언덕 오르기(hill climbing)' 방법이라고 볼 수 있다. 그러나 이산데이터 집합에서는 커널(kernel)을 이용하여 윈도우 안에 존재하는 데이터 점들만을 사용하여 움직이는 형태로 동작한다. 상기 알고리즘에서 사용된 커널은 윈도우 내의 모든 가중치가 균등한 uniform 커널을 사용하였고 2차원 레이저 도메인에서 mean-shift 추적을 진행할 수 있다. 상기 Mean-shift 알고리즘을 이용하여 로봇과 사람과의 상대 거리 및 각도를 추출할 수 있기 때문에 로봇의 제어가 가능할 수 있다.The mean-shift algorithm is known to be a robust method of finding local extrema in the density distribution of a data set. The mean-shift algorithm works well for continuous distributions, which can be viewed as a 'hill climbing' method that is well applied to the density histogram of the data. In a discrete data set, however, the kernel operates using only the data points existing in the window. The kernel used in this algorithm uses a uniform kernel with all the weights in the window and can perform mean-shift tracking in the 2D laser domain. Since the relative distance and angle between the robot and the person can be extracted using the mean-shift algorithm, the robot can be controlled.

레이저 신호처리부(155)는 레이저 스캐너부(130)에서 촬영된 레이저 신호를 기초로 커널밀도를 추정한다(S100).The laser signal processing unit 155 estimates the kernel density based on the laser signal photographed by the laser scanner unit 130 (S100).

레이저 신호처리부(155)는 상기 추정된 커널밀도를 기초로 밀도 기울기를 추정한다(S110).The laser signal processing unit 155 estimates the density gradient based on the estimated kernel density (S110).

레이저 신호처리부(155)는 상기 추정된 밀도 기울기를 기초로 벡터를 계산한다(S120). 상기 벡터는 Mean-shift 벡터일 수 있다.The laser signal processing unit 155 calculates a vector based on the estimated density gradient (S120). The vector may be a mean-shift vector.

레이저 신호처리부(155)는 상기 계산된 벡터가 수렴되는지 여부를 판단할 수 있다(S130). 상기 수렴이 되는 벡터는 이동 객체로 인식할 수 있다. 또한, 단계(S130)에서 수렴되는 벡터가 없을 경우 단계(S120)의 과정을 다시 수행할 수 있다.The laser signal processing unit 155 may determine whether the calculated vector is converged (S130). The convergent vector can be recognized as a moving object. If there is no vector converged in step S130, the process of step S120 may be performed again.

도 8은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치의 레이저 신호처리부에서 이동 객체가 인식된 예를 보여주는 도면이다.8 is a diagram illustrating an example in which a moving object is recognized in a laser signal processing unit of a mobile robot control apparatus for tracking a moving object according to an embodiment of the present invention.

도 8을 참조하면, 레이저 신호처리부(155)에서 Mean-shift 알고리즘을 이용하여 이동 객체를 추적할 수 있다. 상기 Mean-shift 알고리즘에서 로봇과 이동 객체와의 상대거리 및 각도를 추출할 수 있다. 인식점(711), 인식점(721), 인식점(731), 인식점(741), 인식점(751) 및 인식점(761)은 인식된 이동 객체를 나타낼 수 있다. 인식점(715), 인식점(725), 인식점(735), 인식점(745), 인식점(755) 및 인식점(765)은 이동로봇의 현재 위치를 나타낼 수 있다. Referring to FIG. 8, the laser signal processor 155 may track a moving object using a mean-shift algorithm. In the mean-shift algorithm, the relative distance and angle between the robot and the moving object can be extracted. The recognition point 711, the recognition point 721, the recognition point 731, the recognition point 741, the recognition point 751 and the recognition point 761 may represent the recognized moving object. The recognition point 715, the recognition point 725, the recognition point 735, the recognition point 745, the recognition point 755 and the recognition point 765 can represent the current position of the mobile robot.

레이저 신호처리부(155)는 상기 인식점들을 판단하여 이동로봇의 현재위치와 인식된 이동 객체 사이의 상대 거리 및 각도를 추출할 수 있다.The laser signal processing unit 155 may extract the relative distance and angle between the current position of the mobile robot and the recognized moving object by determining the recognition points.

도 9은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치에서 촬영된 영상신호와 촬영된 레이저 신호를 결합하여 이동하는 물체를 추적하는 과정을 나타내는 도면이다. 9 is a diagram illustrating a process of tracking a moving object by combining a captured image signal and a photographed laser signal in a mobile robot controller for tracking a moving object according to an embodiment of the present invention.

도 9을 참조하면, 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치는 카메라부(110)와 레이저 스캐너부(130)의 신호를 종합하여 이동 객체가 카메라의 화각에서 벗어난 경우에도 추적이 이루어진다는 것을 알 수 있다.9, a mobile robot controller for tracking a moving object according to an exemplary embodiment of the present invention synthesizes signals from a camera unit 110 and a laser scanner unit 130, Even if you do, you can see that tracking is done.

인식점(811), 인식점(821), 인식점(831), 인식점(841)은 이동로봇의 현재위치를 나타낼 수 있다. 인식점(813), 인식점(823), 인식점(833), 인식점(843)은 이동 객체가 인식된 위치를 나타낼 수 있다.The recognition point 811, the recognition point 821, the recognition point 831, and the recognition point 841 can represent the current position of the mobile robot. The recognition point 813, the recognition point 823, the recognition point 833, and the recognition point 843 may represent positions where the moving object is recognized.

이미지(815)는 영상신호를 기초로 이동 객체(817)을 판단해 낼 수 있고, 레이저신호를 기초로 현재위치(813)를 판단해 낼 수 있다. 이미지(815)는 이동 객체(817)를 인식하고 레이저신호와 결합되어 이동 객체의 현재위치(813)을 판단할 수 있다. 이미지(825)는 영상신호를 기초로 이동 객체(827)를 판단해 낼 수 있고, 레이저신호를 기초로 현재위치(823)를 판단해 낼 수 있다. 이미지(825)는 이동 객체(827)를 인식하고 레이저신호와 결합되어 이동 객체의 현재위치(823)을 판단할 수 있다. The image 815 can determine the moving object 817 based on the video signal and can determine the current position 813 based on the laser signal. The image 815 may recognize the moving object 817 and may combine with the laser signal to determine the current location 813 of the moving object. The image 825 can determine the moving object 827 based on the video signal and can determine the current position 823 based on the laser signal. The image 825 can recognize the moving object 827 and combine with the laser signal to determine the current position 823 of the moving object.

이미지(835)는 영상신호를 기초로 이동 객체(837)를 판단해 낼 수 있고, 레이저신호를 기초로 현재위치(833)를 판단해 낼 수 있다. 이미지(835)는 장애물(839)가 있음에도 이동 객체(837)를 인식하고, 레이저신호와 결합되어 이동객체의 현재위치(823)을 판단할 수 있다. The image 835 can determine the moving object 837 based on the video signal and can determine the current position 833 based on the laser signal. The image 835 may recognize the moving object 837 even with the obstacle 839 and may combine with the laser signal to determine the current position 823 of the moving object.

이미지(845)는 이동 객체가 없어 이미지(847)과 같이 영상신호를 기초로 이동 객체를 판단할 수 없다. 그러나 레이저 신호를 기초로 이동 객체의 현재위치(843)를 판단하고, 이동로봇의 이동장치(20)를 구동시켜 이동 객체의 추적을 끊임없이 수행할 수 있다. The image 845 can not determine the moving object based on the video signal, such as the image 847, because there is no moving object. However, the current position 843 of the moving object may be determined based on the laser signal, and the moving device 20 of the mobile robot may be driven to continuously track the moving object.

도 10은 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 장치가 이동 객체를 인식하고 추적하는 수행과정을 나타내는 순서도이다.FIG. 10 is a flowchart illustrating a process of a mobile robot control device for tracking a moving object according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 일 실시예에 따른 이동 객체를 추종하기 위한 이동로봇 제어 방법으로 추적을 진행하게 되면 카메라의 화각 밖에 있는 물체도 추적이 가능할 수 있다.Referring to FIG. 10, when tracking is performed using the mobile robot control method for tracking a moving object according to an embodiment of the present invention, an object outside the angle of view of the camera can be tracked.

레이저 스캐너부(130)는 레이저 스캐너에서 레이저신호를 촬영한다(S200). 상기 레이저 스캐너는 이동로봇의 경로 전방을 촬영하며 240도의 화각을 가질 수 있다. 상기 레이저 스캐너는 카메라와의 기하학적 관계가 입력되어 있을 수 있다. 상기 레이저 신호는 레이저 신호처리부(155)로 전달될 수 있다.The laser scanner unit 130 captures a laser signal from the laser scanner (S200). The laser scanner photographs the path ahead of the mobile robot and can have an angle of view of 240 degrees. The laser scanner may have a geometric relationship with the camera. The laser signal may be transmitted to the laser signal processing unit 155.

레이저 신호처리부(155)는 상기 레이저 신호를 기초로 이동 객체를 판단한다(S210). 상기 이동 객체를 판단하는 방법은 Mean-shift 알고리즘이 적용될 수 있다. 상기 판단된 레이저 신호는 제어부(150)로 전달될 수 있다.The laser signal processing unit 155 determines a moving object based on the laser signal (S210). The method of determining the moving object may be a mean-shift algorithm. The determined laser signal may be transmitted to the control unit 150.

카메라부(110)는 부착되어 있는 카메라에서 영상을 촬영한다(S220). 상기 카메라는 이동로봇의 일면에 부착되어 이동로봇 경로의 측면을 촬영할 수 있다. 상기 촬영된 영상은 필터링부(120)로 전달될 수 있다.The camera unit 110 captures an image from an attached camera (S220). The camera may be attached to one side of the mobile robot to photograph the side of the mobile robot path. The photographed image may be transmitted to the filtering unit 120.

필터링부(120)는 상기 촬영된 영상을 처리하는 과정을 수행하여 이동 객체를 인식한다(S230). 상기 영상을 처리하는 과정은 형태특징을 검출하는 HOG 알고리즘, 파티클 필터 알고리즘을 적용할 수 있다. 상기 촬영된 영상은 이동 객체가 인식이 되지 않을 수 있다. 상기 인식된 영상신호는 제어부(150)에 전달될 수 있다.The filtering unit 120 processes the photographed image to recognize a moving object (S230). In the process of processing the image, a HOG algorithm and a particle filter algorithm for detecting a shape feature may be applied. The photographed image may not be recognized as a moving object. The recognized video signal may be transmitted to the control unit 150.

제어부(150)는 레이저 신호처리부(155)에서 전달된 레이저신호 및 필터링부(120)에서 전달된 영상을 결합하여 이동 객체를 인식한다(S240). 제어부(150)는 상기 결합된 영상에서 이동 객체의 인식 여부를 판단할 수 있다. The control unit 150 recognizes the moving object by combining the laser signal transmitted from the laser signal processing unit 155 and the image transmitted from the filtering unit 120 at step S240. The control unit 150 may determine whether the moving object is recognized in the combined image.

단계(S240)에서 이동 객체가 인식되지 않을 경우, 위치산출부(157)는 레이저 신호를 기초로 제어신호를 생성할 수 있다(S250). 상기 생성된 제어신호는 이동장치(20)로 전달될 수 있다.If the moving object is not recognized in step S240, the position calculating unit 157 may generate a control signal based on the laser signal (S250). The generated control signal may be transmitted to the mobile device 20.

단계(S240)에서 이동 객체가 인식될 경우, 위치산출부(157)는 영상신호를 기초로 제어신호를 생성할 수 있다(S260). 상기 생성된 제어신호는 이동장치(20)로 전달될 수 있다.If the moving object is recognized in step S240, the position calculating unit 157 may generate a control signal based on the video signal (S260). The generated control signal may be transmitted to the mobile device 20.

이동장치(20)은 상기 생성된 제어신호를 기초로 작동된다(S250). 이동장치(20)는 사람을 추종하여 이동할 수 있다.
The mobile device 20 operates based on the generated control signal (S250). The mobile device 20 can move following the person.

20: 이동장치 110: 카메라부
120: 필터링부 122: 형태특징 검출부
124: 이동 객체 인식부 130: 레이저 스캐너부
150: 제어부 155: 레이저 신호처리부
157: 위치산출부
20: mobile device 110: camera part
120: filtering unit 122: shape feature detecting unit
124: moving object recognition unit 130: laser scanner unit
150: control unit 155: laser signal processing unit
157:

Claims (23)

이동로봇의 측면에 부착된 카메라를 통해 영상을 촬영하는 카메라부;
상기 카메라의 화각과 겹치는 화각을 포함하고, 상기 카메라와의 기하학적 관계가 입력되며, 상기 이동로봇 경로의 전방을 촬영하여 레이저 신호를 생성하는 레이저 스캐너부; 및
상기 촬영된 영상을 필터링하고, 상기 생성된 레이저 신호를 연산하며, 상기 촬영된 영상에 이동 객체가 없는 경우, 상기 연산된 레이저신호를 기초로 상기 이동 객체의 추적을 진행하고, 상기 촬영된 영상에 상기 이동 객체가 있는 경우, 상기 필터링된 영상을 기초로 이동 객체의 추적을 진행하는 제어신호를 생성하는 제어부를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 장치.
A camera unit for photographing an image through a camera attached to a side surface of the mobile robot;
A laser scanner unit including an angle of view overlapping with an angle of view of the camera and inputting a geometrical relationship with the camera and generating a laser signal by photographing a front of the robot path; And
And a controller for controlling the movement of the moving object on the basis of the calculated laser signal when the moving object is not present in the photographed image, And a controller for generating a control signal for tracking the moving object based on the filtered image if the moving object is present.
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 제어부는,
상기 촬영된 영상신호를 기초로 형태특징으로 검출하고, 상기 검출된 형태특징을 기초로 추종하려는 이동 객체를 인식하는 필터링부;
상기 촬영된 레이저신호를 기초로 추종하려는 이동 객체를 인식하는 레이저 신호처리부; 및
상기 필터링부에서 인식한 이동 객체와 상기 레이저 신호처리부에서 인식한 이동 객체중 적어도 하나의 위치를 산출하고, 상기 산출된 위치에 따라 상기 이동로봇을 이동시키기 위한 제어신호를 생성하는 위치산출부를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 장치.
The method according to claim 1,
Wherein,
A filtering unit for detecting a moving object to be detected based on the detected shape characteristic on the basis of the detected shape characteristic and a moving object for tracking based on the detected shape characteristic;
A laser signal processor for recognizing a moving object to be followed based on the photographed laser signal; And
And a position calculation unit for calculating a position of at least one of the moving object recognized by the filtering unit and the moving object recognized by the laser signal processing unit and generating a control signal for moving the mobile robot according to the calculated position Wherein the mobile robot is a mobile robot.
제 6항에 있어서,
상기 필터링부는,
상기 카메라부에서 촬영된 영상의 형태특징을 추출하는 형태특징 검출부; 및
상기 추출된 형태특징를 기초로 상기 이동 객체를 인식하는 이동 객체 인식부를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 장치.
The method according to claim 6,
Wherein the filtering unit comprises:
A shape feature detector for extracting a shape feature of an image photographed by the camera unit; And
And a moving object recognizing unit for recognizing the moving object based on the extracted shape characteristic.
제 7항에 있어서,
상기 형태특징 검출부는,
헤이치오지(HOG: Histogram of Oriented Gradients) 알고리즘을 적용하여 상기 형태특징을 검출하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 장치.
8. The method of claim 7,
The shape feature detecting unit,
Wherein the shape feature is detected by applying a Histogram of Oriented Gradients (HOG) algorithm to the mobile robot.
제 7항에 있어서,
상기 이동 객체 인식부는,
비디피씨에이(BDPCA: bidirectional PCA) 알고리즘을 적용한 뒤 파티클 필터 알고리즘을 적용하여 상기 이동 객체를 인식하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 장치.
8. The method of claim 7,
The moving object recognizing unit,
Wherein the mobile robot recognizes the moving object by applying a particle filter algorithm after applying a bidirectional PCA (BDPCA) algorithm.
제 6항에 있어서,
상기 레이저 신호처리부는,
상기 촬영된 레이저 신호를 기초로 상기 이동로봇 및 상기 이동객체 사이의 상대거리 및 각도를 추출하는 민쉬프트(Mean-shift) 알고리즘을 적용하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 장치.
The method according to claim 6,
Wherein the laser signal processing unit comprises:
And a mean-shift algorithm for extracting a relative distance and an angle between the mobile robot and the moving object based on the photographed laser signal is applied to the mobile robot.
삭제delete 이동로봇의 측면에 부착된 카메라로 영상을 촬영하는 단계;
상기 카메라부의 화각과 겹치는 화각을 포함하고, 상기 카메라와의 기하학적 관계가 입력되며, 상기 이동로봇 경로의 전방을 촬영하여 레이저 신호를 생성하는 단계; 및
상기 촬영된 영상을 필터링하고, 상기 생성된 레이저 신호를 연산하며, 상기 촬영된 영상에 이동 객체가 없는 경우, 상기 연산된 레이저 신호를 기초로 상기 이동 객체의 추적을 진행하고, 상기 촬영된 영상에 상기 이동 객체가 있는 경우, 상기 필터링된 영상을 기초로 이동 객체의 추적을 진행하는 제어신호를 생성하는 단계를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 방법.
Capturing an image with a camera attached to a side surface of the mobile robot;
Generating a laser signal by capturing an image of a front side of the path of the mobile robot, wherein the geometric relationship with the camera is input, including an angle of view overlapping with an angle of view of the camera unit; And
And a controller for controlling the movement of the moving object on the basis of the calculated laser signal when the moving object is not present in the photographed image, And generating a control signal for tracking the moving object on the basis of the filtered image if the moving object is present.
삭제delete 삭제delete 삭제delete 삭제delete 제 12항에 있어서,
상기 제어신호를 생성하는 단계는,
상기 촬영된 영상신호를 기초로 형태특징으로 검출하고, 상기 검출된 형태특징을 기초로 추종하려는 이동 객체를 인식하는 단계;
상기 촬영된 레이저신호를 기초로 추종하려는 이동 객체를 인식하는 단계; 및
상기 영상신호를 기초로 인식한 이동 객체와 상기 레이저신호를 기초로 인식한 이동 객체중 적어도 하나의 위치를 산출하고, 상기 산출된 위치에 따라 상기 이동로봇을 이동시키기 위한 제어신호를 생성하는 단계를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 방법.
13. The method of claim 12,
Wherein the step of generating the control signal comprises:
Detecting a shape feature based on the photographed image signal and recognizing a moving object to follow based on the detected shape characteristic;
Recognizing a moving object to be followed based on the photographed laser signal; And
Calculating a position of at least one of a moving object recognized based on the video signal and a moving object recognized based on the laser signal and generating a control signal for moving the mobile robot according to the calculated position, And controlling the moving robot to follow the moving object.
제 17항에 있어서,
상기 영상신호를 기초로 이동 객체를 인식하는 단계는,
상기 촬영된 영상신호의 형태특징을 추출하는 단계; 및
상기 추출된 형태특징를 기초로 상기 이동 객체를 인식하는 단계를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 방법.
18. The method of claim 17,
Wherein the step of recognizing the moving object based on the video signal comprises:
Extracting shape characteristics of the photographed image signal; And
And recognizing the moving object on the basis of the extracted shape characteristic.
제 18항에 있어서,
상기 영상의 형태특징을 추출하는 단계는,
헤이치오지(HOG: Histogram of Oriented Gradients) 알고리즘을 적용하여 상기 형태특징을 검출하는 단계를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 방법.
19. The method of claim 18,
Wherein the step of extracting feature features of the image comprises:
And detecting the shape feature by applying a Histogram of Oriented Gradients (HOG) algorithm to the mobile robot.
제 18항에 있어서,
상기 이동 객체를 인식하는 단계는,
비디피씨에이(BDPCA: bidirectional PCA) 알고리즘을 적용한 뒤 파티클 필터 알고리즘을 적용하여 상기 이동 객체를 인식하는 단계를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 방법.
19. The method of claim 18,
Wherein the recognizing of the moving object comprises:
And a step of recognizing the moving object by applying a particle filter algorithm after applying a bidirectional PCA (BDPCA) algorithm to the moving object.
제 18항에 있어서,
상기 레이저신호를 기초로 이동 객체를 인식하는 단계는,
상기 촬영된 레이저 신호를 기초로 상기 이동로봇 및 상기 이동객체 사이의 상대거리 및 각도를 추출하는 민쉬프트(Mean-shift) 알고리즘을 적용하는 단계를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇 제어 방법.
19. The method of claim 18,
Wherein the step of recognizing the moving object based on the laser signal comprises:
And applying a mean-shift algorithm for extracting a relative distance and an angle between the mobile robot and the moving object based on the photographed laser signal. Robot control method.
삭제delete 이동로봇의 측면에 부착되어 영상을 촬영하는 카메라부;
상기 카메라부의 화각과 겹치는 화각을 포함하고, 상기 카메라부와의 기하학적 관계가 입력되며, 상기 이동로봇 경로의 전방을 촬영하여 레이저 신호를 생성하는 레이저 스캐너부;
상기 촬영된 영상을 필터링하고, 상기 생성된 레이저 신호를 연산하며, 상기 촬영된 영상에 이동 객체가 없는 경우, 상기 연산된 레이저 신호를 기초로 상기 이동 객체의 추적을 진행하고, 상기 촬영된 영상에 상기 이동 객체가 있는 경우, 상기 필터링된 영상을 기초로 이동 객체의 추적을 진행하는 제어신호를 생성하는 제어부; 및
상기 제어신호를 기초로 작동하는 이동장치를 포함하는 것을 특징으로 하는 이동 객체를 추종하기 위한 이동로봇.
A camera unit attached to a side surface of the mobile robot for capturing an image;
A laser scanner part including an angle of view overlapping with an angle of view of the camera part and inputting a geometrical relationship with the camera part and generating a laser signal by photographing the forward part of the robot path;
And a controller for controlling the movement of the moving object on the basis of the calculated laser signal when the moving object is not present in the photographed image, A control unit for generating a control signal for tracking the moving object based on the filtered image when the moving object exists; And
And a mobile device operating on the basis of the control signal.
KR20130098779A 2013-08-20 2013-08-20 Tracking moving objects for mobile robots control devices, methods, and its robot KR101486308B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130098779A KR101486308B1 (en) 2013-08-20 2013-08-20 Tracking moving objects for mobile robots control devices, methods, and its robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130098779A KR101486308B1 (en) 2013-08-20 2013-08-20 Tracking moving objects for mobile robots control devices, methods, and its robot

Publications (1)

Publication Number Publication Date
KR101486308B1 true KR101486308B1 (en) 2015-02-04

Family

ID=52589865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130098779A KR101486308B1 (en) 2013-08-20 2013-08-20 Tracking moving objects for mobile robots control devices, methods, and its robot

Country Status (1)

Country Link
KR (1) KR101486308B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017034062A1 (en) * 2015-08-26 2017-03-02 한화테크윈 (주) Following system in which mobile robot follows moving object
KR20180009935A (en) * 2016-07-20 2018-01-30 현대자동차주식회사 Apparatus and Method for Controlling Smart Trunk
KR20180055292A (en) * 2016-11-16 2018-05-25 국민대학교산학협력단 Integration method for coordinates of multi lidar
US10362277B2 (en) 2016-11-23 2019-07-23 Hanwha Defense Co., Ltd. Following apparatus and following system
CN111618848A (en) * 2020-04-28 2020-09-04 平安科技(深圳)有限公司 Multi-robot cooperation control method and device and computer equipment
WO2021040214A1 (en) * 2019-08-27 2021-03-04 주식회사 케이티 Mobile robot and method for controlling same
KR20210147259A (en) * 2020-05-28 2021-12-07 에이지로보틱스 주식회사 Following robot system
KR20220072326A (en) * 2020-11-25 2022-06-02 에이지로보틱스 주식회사 AI-based agricultural support robot
US11733702B2 (en) 2020-10-30 2023-08-22 Hanwha Aerospace Co., Ltd. Unmanned following vehicle

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
논문1.2012.6 *
논문1.2012.6*
논문2.2012.6 *
논문2.2012.6*
논문3.2012.8 *
논문3.2012.8*

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017034062A1 (en) * 2015-08-26 2017-03-02 한화테크윈 (주) Following system in which mobile robot follows moving object
KR20170024926A (en) * 2015-08-26 2017-03-08 한화테크윈 주식회사 Following system wherein moving robot follows moving object
KR101726696B1 (en) * 2015-08-26 2017-04-13 한화테크윈 주식회사 Following system wherein moving robot follows moving object
US10775794B2 (en) 2015-08-26 2020-09-15 Hanwha Defense Co., Ltd. Following system for mobile robot to follow moving object
KR20180009935A (en) * 2016-07-20 2018-01-30 현대자동차주식회사 Apparatus and Method for Controlling Smart Trunk
KR102552481B1 (en) * 2016-07-20 2023-07-06 현대자동차주식회사 Apparatus and Method for Controlling Smart Trunk
KR20180055292A (en) * 2016-11-16 2018-05-25 국민대학교산학협력단 Integration method for coordinates of multi lidar
US10362277B2 (en) 2016-11-23 2019-07-23 Hanwha Defense Co., Ltd. Following apparatus and following system
WO2021040214A1 (en) * 2019-08-27 2021-03-04 주식회사 케이티 Mobile robot and method for controlling same
KR20210025327A (en) * 2019-08-27 2021-03-09 주식회사 케이티 Moving robot and method for control of the moving robot
KR102369062B1 (en) * 2019-08-27 2022-02-28 주식회사 케이티 Moving robot and method for control of the moving robot
CN111618848A (en) * 2020-04-28 2020-09-04 平安科技(深圳)有限公司 Multi-robot cooperation control method and device and computer equipment
KR20210147259A (en) * 2020-05-28 2021-12-07 에이지로보틱스 주식회사 Following robot system
KR102381958B1 (en) * 2020-05-28 2022-04-01 에이지로보틱스(주) Following robot system
US11733702B2 (en) 2020-10-30 2023-08-22 Hanwha Aerospace Co., Ltd. Unmanned following vehicle
KR20220072326A (en) * 2020-11-25 2022-06-02 에이지로보틱스 주식회사 AI-based agricultural support robot
KR102405667B1 (en) * 2020-11-25 2022-06-07 에이지로보틱스(주) AI-based agricultural support robot

Similar Documents

Publication Publication Date Title
KR101486308B1 (en) Tracking moving objects for mobile robots control devices, methods, and its robot
US11392146B2 (en) Method for detecting target object, detection apparatus and robot
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US9652860B1 (en) System and method for autonomous PTZ tracking of aerial targets
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
KR100790860B1 (en) Human tracking apparatus and method thereof, and recording media and removing electronic system therefor
KR101077967B1 (en) Apparatus and method for surveillance and tracking
KR100738522B1 (en) Apparatus and method for distinction between camera movement and object movement and extracting object in video surveillance system
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
TWI481980B (en) Electronic apparatus and navigation method thereof
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
TWI640931B (en) Image object tracking method and apparatus
US20140348380A1 (en) Method and appratus for tracking objects
US9367748B1 (en) System and method for autonomous lock-on target tracking
KR20110011424A (en) Method for recognizing position and controlling movement of a mobile robot, and the mobile robot using the same
JP2006071471A (en) Moving body height discrimination device
EP3306529A1 (en) Machine control measurements device
US8929603B1 (en) Autonomous lock-on target tracking with geospatial-aware PTZ cameras
Meshram et al. Traffic surveillance by using image processing
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
KR20200102108A (en) Apparatus for detecting object of vehicle and method thereof
US20220084218A1 (en) System and method for monitoring movements
Dai et al. Robot tracking using vision and laser sensors
TWI453698B (en) The method of automatic tracking of ball camera

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171213

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181121

Year of fee payment: 5