KR100557682B1 - Locomotion methode of mobile robot using floor image informations - Google Patents

Locomotion methode of mobile robot using floor image informations Download PDF

Info

Publication number
KR100557682B1
KR100557682B1 KR1020030049893A KR20030049893A KR100557682B1 KR 100557682 B1 KR100557682 B1 KR 100557682B1 KR 1020030049893 A KR1020030049893 A KR 1020030049893A KR 20030049893 A KR20030049893 A KR 20030049893A KR 100557682 B1 KR100557682 B1 KR 100557682B1
Authority
KR
South Korea
Prior art keywords
mobile robot
driving
image
floor
information
Prior art date
Application number
KR1020030049893A
Other languages
Korean (ko)
Other versions
KR20050011054A (en
Inventor
고민수
남중현
권오상
김병수
이응혁
홍승홍
Original Assignee
주식회사 한울로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한울로보틱스 filed Critical 주식회사 한울로보틱스
Priority to KR1020030049893A priority Critical patent/KR100557682B1/en
Publication of KR20050011054A publication Critical patent/KR20050011054A/en
Application granted granted Critical
Publication of KR100557682B1 publication Critical patent/KR100557682B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법에 관한 것으로, 그 목적은 어안렌즈가 장착된 카메라부에 의해 주행하고자 하는 바닥면의 영상정보를 획득하여 이동로봇의 주행상태를 정확하게 인식하고, 이를 통해 작업을 신속하고 정확하게 수행하고 주행성능을 향상시킬 수 있는 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법을 제공하는 것이다.The present invention relates to a driving control method of a mobile robot using driving floor image information. The object of the present invention is to accurately obtain a driving state of a mobile robot by acquiring image information of a floor to be driven by a camera unit equipped with a fisheye lens. It is to provide a driving control method of the mobile robot using the image of the driving floor surface that can recognize the work, thereby performing the work quickly and accurately and improve the driving performance.

본 발명은 이동로봇의 주행제어방법에 있어서; 이동로봇이 적용되는 바닥면의 정보를 영상처리하여 입력/설정하는 단계; 상기 바닥면의 정보에 따라 이동로봇의 주행경로를 설정하는 단계; 상기 주행경로 설정에 따라 이동로봇 제어부에 의해 이동로봇 구동부를 구동시키는 단계; 상기 구동되는 이동로봇의 전면부에 설치된 어안렌즈 및 카메라부를 통해 주행 바닥면 및 이에 인접한 걸레받이의 정보를 영상으로 획득하는 단계; 상기 획득된 영상의 왜곡된 부분을 실시간으로 보정하고 영상의 특정요소를 표현하는 단계; 상기 획득된 주행 바닥면 영상과 설정된 바닥면 영상에 표현되어 있는 특정요소를 대비하는 단계; 상기 특정요소의 대비에 의한 오차의 산출에 의해 이동로봇의 현재 주행상태를 확인하는 단계; 상기 오차값에 따라 이동로봇의 자세를 보정하여 주행경로를 보정하는 단계를 포함하여 이루어져 이동로봇의 자세 및 주행경로를 실시간으로 보정하여 주행성능을 향상시키는 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법을 제공함에 있다. The present invention relates to a traveling control method of a mobile robot; Image processing and inputting / setting information on the bottom surface to which the mobile robot is applied; Setting a driving route of the mobile robot according to the information on the bottom surface; Driving the mobile robot driver by the mobile robot controller according to the driving path setting; Acquiring the information of the driving floor and the baseboard adjacent thereto through the fisheye lens and the camera unit installed in the front part of the driven mobile robot as an image; Correcting the distorted portion of the obtained image in real time and expressing a specific element of the image; Contrasting a specific element represented in the obtained driving floor image with the set floor image; Confirming a current driving state of the mobile robot by calculating an error due to contrast of the specific element; Compensating the driving route by correcting the attitude of the mobile robot according to the error value, the mobile robot travel using the driving floor image information to improve the driving performance by real-time correcting the attitude and driving path of the mobile robot. To provide a control method.

이동로봇, 주행경로, 로봇주행, 바닥면, 실시간보정Mobile robot, driving route, robot driving, floor surface, real time correction

Description

주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법 {Locomotion methode of mobile robot using floor image informations} Driving control method of mobile robot using driving floor image information {Locomotion methode of mobile robot using floor image informations}             

도 1 은 본 발명에 따른 개략적 구성을 보인 블록도1 is a block diagram showing a schematic configuration according to the present invention

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

(10) : 어안렌즈가 장착된 CCD 카메라부 (20) : 주행 바닥면 영상획득(10): CCD camera unit equipped with a fisheye lens (20): acquisition of the driving floor image

(30) : 영상왜곡보정/조명처리 (40) : 영상내 특징요소 추출(30): Image distortion correction / lighting processing (40): Extraction of feature elements in the image

(50) : 바닥면지도와 특정요소대비 (60) : 이동로봇의 주행상태 추정(50): Floor map and specific factors (60): Estimation of driving status of mobile robot

(70) : 기타 센서정보(70): Other sensor information

본 발명은 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법에 관한 것으로, 어안렌즈가 설치된 CCD 카메라부에 의해 획득된 주행면의 영상정보와 미리 설정되어 있는 바닥면 영상정보를 비교하여 주행되는 이동로봇의 자세와 움직임을 제어할 수 있는 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법에 관한 것이다. The present invention relates to a traveling control method of a mobile robot using traveling floor image information. The present invention relates to a traveling control method of a moving robot obtained by comparing the image information of a traveling surface obtained by a CCD camera unit equipped with a fisheye lens with preset floor image information. The present invention relates to a traveling control method of a mobile robot using driving floor image information capable of controlling the attitude and movement of the mobile robot.

일반적으로 이동용 로봇은 본체 상에 설치된 초음파 센서를 이용하여 벽이나 장애물로 둘러싸인 공간의 감지하고, 이를 토대로 주행방향을 설정하며, 설정된 주행경로에 따라 바퀴의 회전수 및 회전각도를 검출하는 센서를 통해 검출된 신호로부터 주행거리 및 현재 위치를 산출하면서 계획된 주행경로를 주행할 수 있도록 바퀴를 구동시키게 되어 있다. In general, the mobile robot detects a space surrounded by a wall or an obstacle using an ultrasonic sensor installed on the main body, sets the driving direction based on the sensor, and detects the number of rotations and the rotation angle of the wheel according to the set driving path. The wheels are driven to drive the planned driving route while calculating the driving distance and the current position from the detected signals.

그러나, 이러한 종래의 주행제어방법은 이동로봇이 주행하는 동안 바퀴의 슬립, 바닥면의 굴곡 등에 의해 센서로 검출된 신호로부터 산출된 주행방향과 실제 주행방향 사이에 오차가 발생하게되며, 이러한 방향 인식오차는 이동로봇이 주행하면 할 수록 누적되어 오차량이 커지게 되는 경향이 있었다. However, in the conventional driving control method, an error occurs between the driving direction and the actual driving direction calculated from the signal detected by the sensor due to the slip of the wheel, the bending of the bottom surface, etc. while the mobile robot is traveling. The errors tended to accumulate as the mobile robot travels, increasing the amount of error.

이와 같은 오차량의 증가에 의해 이동로봇은 최초로 계획되어 설정된 경로를 이탈하게 되기도 하며, 이러한 주행경로 이탈로 인하여 작업수행능력 및 효율이 저하되고, 예기치 못한 충돌사고가 발생되기도 하며, 이로인해 수리비용이 발생되었다. 특히, 특정공간내를 순차적으로 왕복이동하는 로봇이나, 설정된 구역을 청소하는 청소용 로봇의 경우, 설정된 주행경로를 이탈하게 될 경우, 작업이 불가능하게 되고, 감시자가 항시 대기하거나 수시로 주행상태를 체크해야 하므로, 추가 인력이 필요하며, 이로 인해 로봇의 적용목적을 무의미하게 하는 등 여러가지 문제점이 있었다. Due to such an increase in the amount of error, the mobile robot may deviate from the originally planned and established path, and the deviation of the driving path may cause a deterioration of work performance and efficiency, and an unexpected collision accident may occur. This occurred. In particular, in the case of a robot that reciprocates in a specific space sequentially or a robot that cleans a set area, the work becomes impossible when the set driving path is departed, and the monitor must wait or check the driving state at any time. Therefore, additional manpower is required, and this causes various problems such as making the purpose of the robot meaningless.

본 발명은 상기와 같은 문제점을 고려하여 이루어진 것으로, 그 목적은 어안렌즈가 장착된 카메라부에 의해 주행하고자 하는 바닥면의 영상정보를 획득하여 이동로봇의 주행방향을 정확하게 인식하고, 이를 통해 작업을 신속하고 정확하게 수행하고 주행성능을 향상시킬 수 있는 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법을 제공하는 것이다.The present invention has been made in consideration of the above problems, the object of which is to acquire the image information of the floor to be driven by the camera unit equipped with a fisheye lens to accurately recognize the driving direction of the mobile robot, through which work It is to provide a driving control method of the mobile robot using the image of the driving floor surface that can be performed quickly and accurately and improve the driving performance.

본 발명은 이동로봇의 주행제어방법에 있어서; 이동로봇이 적용되는 바닥면 및 걸레받이의 정보를 영상처리하여 직선성분을 검출/입력하는 단계; 상기 바닥면의 정보에 따라 이동로봇의 주행경로를 설정하는 단계; 상기 주행경로 설정에 따라 이동로봇 제어부에 의해 이동로봇 구동부를 구동시키는 단계; 상기 구동되는 이동로봇의 전면부에 설치된 어안렌즈 및 카메라부를 통해 주행 바닥면 및 이에 인접한 걸레받이의 정보를 영상으로 획득하는 단계; 상기 획득된 영상의 왜곡된 부분을 실시간으로 보정하고 영상의 특정요소를 표현하는 단계; 상기 획득된 주행 바닥면 영상과 설정된 바닥면 영상에 표현되어 있는 특정요소를 대비하는 단계; 상기 특정요소의 대비에 의한 오차의 산출에 의해 이동로봇의 현재 주행상태를 확인하는 단계; 상기 오차값에 따라 이동로봇의 자세를 보정하여 주행경로를 보정하는 단계를 포함하여 이루어져 이동로봇의 자세 및 주행경로를 실시간으로 보정하여 주행성능을 향상시키는 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법을 제공함에 있다.
The present invention relates to a traveling control method of a mobile robot; Detecting / inputting a linear component by image processing information of the floor surface and the baseboard to which the mobile robot is applied; Setting a driving route of the mobile robot according to the information on the bottom surface; Driving the mobile robot driver by the mobile robot controller according to the driving path setting; Acquiring the information of the driving floor and the baseboard adjacent thereto through the fisheye lens and the camera unit installed in the front of the driven mobile robot as an image; Correcting the distorted portion of the obtained image in real time and expressing a specific element of the image; Contrasting a specific element represented in the obtained driving floor image with the set floor image; Confirming a current driving state of the mobile robot by calculating an error due to contrast of the specific element; Compensating the driving route by correcting the attitude of the mobile robot according to the error value, the driving of the mobile robot using the driving floor image information to improve the driving performance by real-time correcting the attitude and the driving path of the mobile robot. To provide a control method.

도 1 은 본 발명에 따른 개략적 구성을 보인 블록도를 도시한 것으로, 본 발명은 이동로봇이 적용되는 바닥면의 무늬를 영상처리하여 직선성분을 검출/설정/입력하고, 이동로봇의 전면에 설치된 카메라부 및 어안렌즈를 통해 주행하는 로봇의 바닥면 영상을 획득하며, 상기 획득된 영상과 설정 입력된 영상을 대비하여, 주행하는 이동로봇의 주행상태 및 이동로봇의 자세를 파악한 다음, 최초의 설정값과 대비하여 이동로봇의 자세를 보정하므로써, 주행방향(각도)를 보정하도록 되어 있다. 1 is a block diagram showing a schematic configuration according to the present invention, the present invention is to detect / set / input a linear component by image processing the pattern of the bottom surface to which the mobile robot is applied, installed on the front of the mobile robot Acquires the bottom image of the robot running through the camera unit and the fisheye lens, and compares the acquired image and the set input image, determines the driving state of the mobile robot and the attitude of the mobile robot, and then sets the initial setting. By correcting the attitude of the mobile robot against the value, the traveling direction (angle) is corrected.

본 발명은 이동로봇이 적용되는 공간내 바닥면 형상의 특정요소를 중심으로 영상처리하여 직선성분을 검출/입력한다. 이때 상기 특정요소의 상세한 정보 즉, 직선성분의 거리, 길이, 방향, 형상, 특정요소들간의 거리 등등의 정보가 입력된다. 이와 같은 특정요소를 중심으로 바닥면 영상정보에 대한 직선성분의 설정이 완료되면, 이를 이동로봇에 기본 설정값으로 입력하고, 상기 기본 설정값을 토대로 이동로봇의 주행경로를 설정한 다음, 로봇제어부에 의해 로봇구동부를 작동시켜 주행경로를 따라 이동로봇을 주행시킨다. 이때, 상기 이동로봇은 전면부에 설치된 어안렌즈 및 카메라부를 통해 주행하는 방향의 바닥면 영상을 획득하게 되며, 획득된 영상은 영상처리부를 통해 왜곡된 부분이 보정되고 조명처리된 후 영상분석부를 통해 특정요소가 분석되어 표시된다. 이와 같은 획득된 영상의 처리가 완료되면, 상기 획득된 영상정보와 설정된 영상정보를 대비하여 이동로봇의 주행상태를 확인하게 된다. The present invention detects / inputs a linear component by image processing around a specific element of a floor shape in a space to which a mobile robot is applied. At this time, detailed information of the specific element, that is, information such as the distance, length, direction, shape, distance between specific elements, etc. of the linear components is input. When the setting of the straight line components for the floor image information is completed based on the specific element, the robot is input to the mobile robot as a default setting value, the driving path of the mobile robot is set based on the default setting value, and then the robot controller By operating the robot driving unit to drive the mobile robot along the driving path. At this time, the mobile robot obtains the bottom image of the driving direction through the fisheye lens and the camera unit installed in the front portion, the obtained image is corrected and illuminated through the image processing unit through the image analysis unit Specific elements are analyzed and displayed. When the processing of the acquired image is completed, the driving state of the mobile robot is checked by comparing the acquired image information with the set image information.

이를 각 단계별로 설명하면 다음과 같다. This is explained in each step as follows.

먼저, 이동로봇이 적용되는 바닥면 및 이에 인접한 걸레받이의 정보를 영상처리하여 직선성분을 검출/입력하는 단계와, 상기 직선성분에 따라 이동로봇의 주행경로를 설정하는 주행경로 설정단계와, 상기 주행경로 설정에 따라 이동로봇의 구동부를 구동시키는 이동로봇구동단계와, 상기 구동되는 이동로봇의 전면부에 설치된 어안렌즈 및 카메라부를 통해 주행 바닥면의 정보를 영상으로 획득하여 실시간으로 보정하고 특정요소를 표현하는 영상획득단계와, 상기 획득된 영상과 설정된 영상의 특정요소를 대비하는 영상대비단계와, 상기 특정요소의 대비에 의해 주행상태를 확인하는 주행상태 확인단계와, 상기 주행상태에 따라 이동로봇의 자세를 보정하는 자세보정단계로 이루어져 있다. First, a step of detecting / inputting a linear component by image processing information of the floor surface to which the mobile robot is applied and the baseboard adjacent thereto, and setting a driving route of the mobile robot according to the linear component, The mobile robot driving step of driving the driving unit of the mobile robot according to the setting of the driving path, the fisheye lens and the camera unit installed in the front of the driven mobile robot obtains the information of the driving floor as an image and corrects it in real time. An image acquisition step of expressing an image, an image contrast step of contrasting a specific element of the acquired image and a set image, a driving state checking step of checking a driving state by contrast of the specific element, and moving according to the driving state It consists of a posture correction step to correct the posture of the robot.

상기 바닥면 및 이에 인접한 걸레받이의 정보를 영상처리하는 단계는 이동로봇을 사용하고자 하는 장소의 바닥면 및 이에 인접하는 걸레받이의 직선성분을 검출하는 것으로, 이동로봇의 전면부에 설치된 어안렌즈 및 카메라부를 이용하여 개략적인 바닥면 지도를 작성하고, 개략적인 바닥면 지도가 완성되면, 다시 바닥면의 외곽으로부터 이동로봇을 이동시켜 영상의 중심에 특징요소가 위치하게 되면, 크기와 모양을 결정하여 특징요소의 모양 및 위치를 입력하여 세부 지도를 작성한다. 이때, 상기 특정요소로 사용할 수 있는 바닥면 정보는 바닥면과 벽면의 경계선, 바닥면의 형상, 바닥면의 무늬, 문틀의 모서리부분 및 형상, 도어 하단의 형상, 폭, 모서리부분 등의 직선성분 요소들을 사용할 수 있다.The image processing of the bottom surface and the information about the baseboard adjacent thereto is to detect the bottom surface of the place where the mobile robot is to be used and the linear components of the baseboard adjacent thereto, the fisheye lens installed on the front surface of the mobile robot; When the rough floor map is made by using the camera unit and the rough floor map is completed, the mobile robot is moved again from the outside of the floor to determine the size and shape when the feature is located at the center of the image. Create a detailed map by entering the shape and location of the feature. At this time, the bottom surface information that can be used as the specific element is a linear component such as the boundary line between the bottom surface and the wall surface, the shape of the bottom surface, the pattern of the bottom surface, the corner portion and shape of the door frame, the shape of the bottom of the door, the width, the corner portion You can use elements.

상기 영상획득단계는 이동로봇의 전면부에 설치된 어안렌즈 및 카메라부를 통해 주행하는 로봇의 주행방향 바닥면 영상을 획득하는 것으로, 어안렌즈가 장착된 카메라부로 주행방향의 바닥면을 촬영하여 주행 바닥면 영상을 획득하고, 상기 획득된 영상의 왜곡부분을 실시간으로 영상처리부에서 처리하여 영상분석부로 전송하며, 상기 영상분석부에서는 입력된 영상에서 직선성분을 구비하는 특정요소를 분리하여 그 위치를 설정/입력하도록 되어 있다. 상기 어안렌즈가 장착된 카메라부는 하나 또는 다수개가 설치될 수 있다. 상기 영상처리부는 어안렌즈 및 카메라부를 통해 획득된 영상의 왜곡된 부분을 보정하고 조명처리 한다음 이를 이미지화하여 영상분석부로 전송한다.The image acquisition step is to acquire the image of the driving direction bottom surface of the robot traveling through the fisheye lens and the camera unit installed on the front of the mobile robot, the bottom of the driving direction with the camera unit equipped with the fisheye lens is photographed Acquire an image, process the distortion part of the obtained image in real time by the image processing unit, and transmit the image analysis unit, and the image analysis unit separates a specific element having a linear component from the input image and sets its position. It is supposed to be entered. One or more camera units equipped with the fisheye lens may be installed. The image processing unit corrects and illuminates the distorted portion of the image acquired through the fisheye lens and the camera unit, and then images the image processing unit and transmits the image to the image analyzer.

상기 영상대비단계에 의해 실제 주행상태와 설정된 주행상태에 대한 오차값이 산출되며, 이러한 오차값의 산출에 의해 이동로봇의 주행상태를 확인할 수 있게 된다. 또한, 상기 오차값의 산출을 토대로 주행경로에 맞도록 이동로봇의 자세를 보정하도록 되어 있다. An error value for the actual driving state and the set driving state is calculated by the image contrast step, and the driving state of the mobile robot can be confirmed by calculating the error value. In addition, the attitude of the mobile robot is corrected to fit the driving path based on the calculation of the error value.

상기와 같은 수단에 의해 로봇의 주행상태를 추정할 수 있으며, 어안렌즈가 장착된 카메라부를 통한 주행 바닥면 영상정보 이외에 로봇에 설치되어 있는 다양한 거리센서를 통한 정보를 병행하여 사용할 수 있다.The driving state of the robot can be estimated by the above means, and in addition to the driving floor image information through the camera unit on which the fisheye lens is mounted, information through various distance sensors installed in the robot can be used in parallel.

이와 같은 이동로봇의 주행상태가 파악되면, 이동로봇이 차후 주행하여야 하는 경로를 계획(보정)하고, 이러한 경로를 추정하는 명령을 로봇 제어부에서 생성하여 로봇구동부로 전달하게 되며, 이와 같은 제어에 의해 최초의 주행설정값에 따라 이동로봇이 신속하게 주행하게 된다. When the driving state of the mobile robot is detected, the robot plans the path to be driven in the future and generates a command for estimating such a path in the robot controller to transmit the command to the robot driver. The mobile robot will travel quickly according to the initial travel setting value.

사각플레이트 형상의 나무 바닥재가 설치된 바닥면을 주행하도록 이동로봇의 주행경로를 설정할 경우, 상기 사각플레이트 형상의 나무 바닥재가 설치된 바닥면은 종방향으로 일직선의 라인이 일정폭을 유지하며 형성되어 있다. 이러한 바닥면의 정보 즉, 라인의 형상과 길이, 라인간의 거리 등을 영상처리하여 직선성분을 구비하는 특정요소를 중심으로 이미지화 한 다음 이를 로봇에 기본 설정값으로 설정한다. 이와 같이 기본 설정값이 설정되면, 상기 바닥면의 정보를 토대로 주행경로를 설정한 다음, 로봇구동부를 작동하여 이동로봇을 주행시키면, 상기 이동로봇은 전면에 설치된 어안렌즈 및 카메라부에 의해 주행되는 방향의 바닥면 정보(직선성분을 구비하는 나무바닥재의 라인형상과 길이, 라인간의 거리 등등)를 영상으로 획득하게 되고, 상기 획득된 영상정보의 왜곡된 부분은 영상처리부를 통해 처리됨과 동시에 영상분서부를 통해 특정요소의 위치 및 상태가 파악된다. 이와 같이 획득영상의 정보가 분석되면, 상기 분석된 정보와 설정된 바닥면의 정보를 대비하여 현재 주행되는 이동로봇의 주행상태를 확인할 수 있게 된다. 상기와 같은 이동로봇의 주행상태 확인에 의해 최초 주행설정값에 맞도록 이동로봇의 자세를 보정할 수 있다. When the traveling path of the mobile robot is set to travel on the floor surface on which the wooden plate of the square plate shape is installed, the floor surface of the wooden plate of the rectangular plate shape is formed with a straight line in a longitudinal direction. The information on the bottom surface, that is, the shape and length of the line, the distance between the lines, and the like is imaged and imaged around a specific element having a linear component, and then the robot is set as a default setting value. When the basic setting value is set as described above, if the driving path is set based on the information on the floor, the robot driving unit is operated to drive the mobile robot, and the mobile robot is driven by the fisheye lens and the camera unit installed at the front. Directional surface information (line shape and length of the wooden flooring material having a linear component, distance between the lines, etc.) is acquired as an image, and the distorted portion of the acquired image information is processed through an image processor and simultaneously The west identifies the location and status of specific elements. When the information of the acquired image is analyzed as described above, it is possible to check the driving state of the mobile robot currently running in contrast to the analyzed information and the set floor information. By confirming the driving state of the mobile robot as described above, the attitude of the mobile robot can be corrected to match the initial travel setting value.

본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위내에 있게 된다.The present invention is not limited to the above-described specific preferred embodiments, and various modifications can be made by any person having ordinary skill in the art without departing from the gist of the present invention claimed in the claims. Of course, such changes will fall within the scope of the claims.

이와 같이 본 발명은 바닥면에 설치 및 형성된 직선성분을 구비하는 특정요소에 의해 입력된 바닥면지도의 정보와 획득된 주행 바닥면 영상정보를 대비하여 주행하는 청소용 로봇의 주행상태를 실시간으로 파악할 수 있으며, 이동로봇의 자세 및 움직임의 신속한 제어가 가능하고, 이를 통해 이동로봇의 주행성능을 향상시킬 수 있다. As described above, the present invention can grasp in real time the driving state of the cleaning robot running in comparison with the information of the floor map inputted by the specific element having the linear component installed and formed on the floor and the obtained driving floor image information. In addition, it is possible to quickly control the posture and movement of the mobile robot, thereby improving the running performance of the mobile robot.

또한, 본 발명은 어안렌즈를 통해 바닥면 영상을 획득하도록 되어 있어, 광범위한 영상을 획득할 수 있는 등 많은 효과가 있다.











In addition, the present invention is to acquire the bottom surface image through the fisheye lens, it is possible to obtain a wide range of images, there are many effects.











Claims (5)

삭제delete 이동로봇의 주행제어방법에 있어서;A traveling control method of a mobile robot; 이동로봇이 적용되는 바닥면의 정보를 영상처리하여 입력/설정하는 단계;Image processing and inputting / setting information on the bottom surface to which the mobile robot is applied; 상기 바닥면의 정보에 따라 이동로봇의 주행경로를 설정하는 단계; Setting a driving route of the mobile robot according to the information on the bottom surface; 상기 주행경로 설정에 따라 이동로봇을 구동하여 어안렌즈 및 카메라부를 통해 주행 바닥면의 정보를 영상으로 획득하는 단계;Driving the mobile robot according to the driving path setting to obtain information of the driving bottom surface through the fisheye lens and the camera unit as an image; 상기 획득된 영상의 왜곡된 부분을 실시간으로 보정하고 영상의 특정요소를 표현하는 단계;Correcting the distorted portion of the obtained image in real time and expressing a specific element of the image; 상기 획득된 주행 바닥면 영상과 설정된 바닥면 영상에 표현되어 있는 특정요소를 대비하는 단계;Contrasting a specific element represented in the obtained driving floor image with the set floor image; 상기 특정요소의 대비에 의한 오차의 산출에 의해 이동로봇의 현재 주행상태를 확인하고 오차값에 따라 이동로봇의 자세를 보정하여 주행경로를 보정하는 단계를 포함하고,Checking the current driving state of the mobile robot by calculating the error by contrast of the specific element, and correcting the driving path by correcting the attitude of the mobile robot according to the error value; 상기 설정 입력되는 바닥면 정보는 이동로봇의 전면부에 설치된 어안렌즈 및 CCD 카메라부를 이용하여 개략적인 바닥면지도를 작성하는 단계와,The setting and input of the bottom surface information comprises the steps of creating a rough floor map using a fisheye lens and a CCD camera unit installed in the front part of the mobile robot; 상기 개략적인 바닥면 지도를 토대로 바닥면의 외곽으로부터 이동로봇을 이동시켜 영상의 중심에 특정요소가 위치하게 되면 크기와 모양을 결정하여 바닥면의 특정요소로 입력하여 특정요소를 포함하는 세부 지도를 작성하는 단계에 의해 이루어지는 것을 특징으로 하는 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법.Based on the rough floor map, when the mobile robot is moved from the outside of the floor to locate a specific element in the center of the image, the size and shape are determined and inputted as the specific element of the floor to obtain a detailed map including the specific element. A traveling control method of a mobile robot using the driving floor image information, characterized in that the step of making. 제 2 항에 있어서;The method of claim 2; 상기 특정요소는 바닥면의 형상, 바닥면의 무늬, 문틀의 모서리부분 및 형상, 도어 하단의 형상, 폭, 모서리부분의 직선성분을 구비하는 군에서 하나 이상을 선택하여 사용하는 것을 특징으로 하는 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법.The specific element is characterized in that one or more selected from the group having the shape of the bottom surface, the pattern of the bottom surface, the corner portion and shape of the door frame, the shape of the bottom of the door, the width, the corner portion is used to select one or more Travel control method of mobile robot using floor image information. 제 2 항 또는 제 3 항에 있어서;The method of claim 2 or 3; 상기 특정요소는 다각형으로 표현하여 설정하는 것을 특징으로 하는 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법.The specific element is represented by a polygon set to the driving control method of the mobile robot using the driving floor image information. 삭제delete
KR1020030049893A 2003-07-21 2003-07-21 Locomotion methode of mobile robot using floor image informations KR100557682B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030049893A KR100557682B1 (en) 2003-07-21 2003-07-21 Locomotion methode of mobile robot using floor image informations

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030049893A KR100557682B1 (en) 2003-07-21 2003-07-21 Locomotion methode of mobile robot using floor image informations

Publications (2)

Publication Number Publication Date
KR20050011054A KR20050011054A (en) 2005-01-29
KR100557682B1 true KR100557682B1 (en) 2006-03-07

Family

ID=37223162

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030049893A KR100557682B1 (en) 2003-07-21 2003-07-21 Locomotion methode of mobile robot using floor image informations

Country Status (1)

Country Link
KR (1) KR100557682B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100933539B1 (en) * 2007-12-11 2009-12-23 포스데이타 주식회사 Driving control method of mobile robot and mobile robot using same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100776215B1 (en) * 2005-01-25 2007-11-16 삼성전자주식회사 Apparatus and method for estimating location and generating map of mobile body, using upper image, computer-readable recording media storing computer program controlling the apparatus
KR100757937B1 (en) * 2006-06-30 2007-09-12 삼성전자주식회사 Simultaneous localization and map building method for robot
KR101409987B1 (en) 2007-12-11 2014-06-23 삼성전자주식회사 Method and apparatus for correcting pose of moving robot
KR101407508B1 (en) * 2007-12-21 2014-06-17 재단법인 포항산업과학연구원 System and method for extracting mobile path of mobile robot using ground configuration cognition algorithm
KR101417315B1 (en) * 2012-08-13 2014-07-10 서울과학기술대학교 산학협력단 Robot cleaner
KR101516545B1 (en) * 2013-10-31 2015-05-04 삼성중공업 주식회사 Apparatus for displaying photographing image of robot
CN109760043B (en) * 2018-12-05 2021-07-20 北京百度网讯科技有限公司 Mobile robot control method, device, equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100933539B1 (en) * 2007-12-11 2009-12-23 포스데이타 주식회사 Driving control method of mobile robot and mobile robot using same

Also Published As

Publication number Publication date
KR20050011054A (en) 2005-01-29

Similar Documents

Publication Publication Date Title
EP2495079B1 (en) Slip detection apparatus and method for a mobile robot
US9037336B2 (en) Robot system
EP3304491B1 (en) Systems and methods for image capture device calibration for a materials handling vehicle
EP3511678B1 (en) Systems and methods for materials handling vehicle odometry calibration
JP4604703B2 (en) Parking assistance device
JP3442335B2 (en) Position correction method and position correction device for automatic guided vehicle
US20170285643A1 (en) Mobile apparatus
US20080140286A1 (en) Parking Trace Recognition Apparatus and Automatic Parking System
JP2006260161A (en) Self-propelled working robot
KR20140147011A (en) Automatic guided vehicle and method for operating an automatic guided vehicle
KR20200019725A (en) Parking Assistance Method and Parking Control Device
JP2009123061A (en) System for detecting robot position
KR100557682B1 (en) Locomotion methode of mobile robot using floor image informations
JP5218479B2 (en) Mobile system
JPH1040499A (en) Outside recognizing device for vehicle
JP6450530B2 (en) In-vehicle camera mounting angle adjustment processing, mounting angle detection device
KR102564663B1 (en) Coordinates recognition apparatus of automatic guided vehicle and method thereof
KR101424636B1 (en) Automatic parking system for vehicle
JP5004031B2 (en) MOBILE BODY CONTROL METHOD, CONTROL DEVICE, AND MOBILE BODY SYSTEM
KR100586648B1 (en) The methode of self-localization for cleaning robot using ceiling image
JP5024560B2 (en) Moving body
JP7259662B2 (en) travel control device
KR100955381B1 (en) Bridge inspecting system capable of processing continuous arrange of image
JP2881245B2 (en) Control device for autonomous vehicle
JP4983783B2 (en) Mobile body and mobile body system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120306

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130827

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee