KR101119788B1 - Apparatus for driving mobile robot and method for driving thereof - Google Patents

Apparatus for driving mobile robot and method for driving thereof Download PDF

Info

Publication number
KR101119788B1
KR101119788B1 KR1020090043107A KR20090043107A KR101119788B1 KR 101119788 B1 KR101119788 B1 KR 101119788B1 KR 1020090043107 A KR1020090043107 A KR 1020090043107A KR 20090043107 A KR20090043107 A KR 20090043107A KR 101119788 B1 KR101119788 B1 KR 101119788B1
Authority
KR
South Korea
Prior art keywords
obstacle
mobile robot
unit
light emitting
light receiving
Prior art date
Application number
KR1020090043107A
Other languages
Korean (ko)
Other versions
KR20100124058A (en
Inventor
김종화
김주훈
김영근
Original Assignee
주식회사 포스코아이씨티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포스코아이씨티 filed Critical 주식회사 포스코아이씨티
Priority to KR1020090043107A priority Critical patent/KR101119788B1/en
Publication of KR20100124058A publication Critical patent/KR20100124058A/en
Application granted granted Critical
Publication of KR101119788B1 publication Critical patent/KR101119788B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은, 이동 로봇의 자율 주행 및 자율 주행시 장애물을 회피하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법에 관한 것으로, 이동 로봇의 위치 및 장애물의 위치를 인식하고, 상기 장애물의 크기, 위치, 이동 방향, 및 이동 속도 중 적어도 하나의 장애물 정보를 인식하며, 상기 장애물 정보를 이용하여 상기 이동 로봇의 이동 경로를 수정한다.The present invention relates to a device for driving a mobile robot and a method of driving the mobile robot which avoids obstacles during autonomous driving and autonomous driving of the mobile robot, and recognizes the position of the mobile robot and the position of the obstacle, and the size and position of the obstacle. Recognizes at least one obstacle information of the movement direction, and the moving speed, and corrects the movement path of the mobile robot by using the obstacle information.

Description

이동 로봇의 구동 장치 및 그의 구동 방법{Apparatus for driving mobile robot and method for driving thereof}Apparatus for driving mobile robot and method for driving

본 발명은 이동 로봇에 관한 것으로서, 특히 이동 로봇의 자율 주행 및 자율 주행시 장애물을 회피하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile robot, and more particularly, to a driving apparatus of a mobile robot and a driving method of the mobile robot, which avoid obstacles during autonomous driving and autonomous driving of the mobile robot.

일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일환으로 사용되거나, 인간이 작업을 수행할 수 없는 환경에서 인간을 대신하여 작업을 수행하는 데 사용되어 왔다. 이러한 로봇 분야는 근래에 들어 최첨단의 우주 개발 산업에 사용되면서 발전을 거듭하여 최근에 들어서는 인간 친화적인 가정용 로봇뿐만 아니라 의료용 기기를 대체하여 치료에까지 이용된다.In general, robots have been developed for industrial purposes and used as part of factory automation, or have been used to perform tasks on behalf of humans in environments in which humans cannot work. The robot field has recently been used in the state-of-the-art space development industry and has been evolving, replacing the medical device as well as the human-friendly home robot in recent years.

또한, 최근 이동 로봇 기술 개발이 활발해지면서 이동 로봇이 산업용 로봇, 청소용 로봇, 가정용 로봇, 교육용 로봇, 의료용 로봇 등의 다양한 형태로 이용되고 있다. 이러한 이동 로봇의 자율 주행 방식은 지도를 이동 로봇 자체에서 생성하고 상기 생성한 지도를 참조하여 주행하는 방식과, 청소 로봇 등과 같이 지도를 만들지 않고 랜덤하게 주행하는 방식이 있다.In addition, with the recent development of mobile robot technology, mobile robots are being used in various forms such as industrial robots, cleaning robots, home robots, educational robots, and medical robots. The autonomous driving method of the mobile robot includes a method of generating a map by the mobile robot itself and driving with reference to the generated map, and a method of randomly driving without making a map such as a cleaning robot.

이동 로봇의 자율 주행 방식에서 지도를 생성하고 생성한 지도를 참조하여 주행하는 방식은, 사람이 수동으로 이동 로봇을 끌고 다니거나 혹은 이동 로봇 스스로 다니면서 장애물을 감지하여 지도를 생성하게 된다. 여기서, 상기 이동 로봇의 바퀴 굴림에 의한 오도메트리(odometry) 정보를 이용하여 상기 이동 로봇의 이동 거리를 측정하며, 상기 측정한 이동 로봇의 이동 거리를 이용하여 지도를 생성한다. 이때, 상기 이동 로봇의 바퀴가 미끄러지거나 장애물에 걸렸을 경우, 상기 오도메트리 정보를 이용하여 이동 로봇의 이동 거리를 정확하게 측정할 수 없으며, 그에 따라 정확한 지도 생성이 어렵다.In the autonomous driving method of the mobile robot, a map is generated and the driving is performed by referring to the generated map, and a person generates a map by manually dragging the mobile robot or moving the robot by itself. Here, the moving distance of the mobile robot is measured using odometry information caused by the wheel rolling of the mobile robot, and a map is generated using the measured moving distance of the mobile robot. In this case, when the wheel of the mobile robot is slipped or caught in an obstacle, the moving distance of the mobile robot may not be accurately measured using the odometry information, and thus, accurate map generation is difficult.

또한, 상기 지도를 생성하고 생성한 지도를 이용하여 주행하는 방식은, 지도를 작성한 후 상기 작성한 지도를 참조하여 이동 로봇이 이동하기 위해 이동 로봇 스스로 위치를 인식하고, 자율 주행한다. 여기서, 상기 오도메트리 정보를 이용하여 이동 로봇이 자신의 위치를 인식한다. 이때, 상기 이동 로봇의 바퀴가 미끄러지거나 장애물에 걸렸을 경우, 오도메트리 정보를 이용하여 이동 로봇의 위치를 정확하게 측정할 수 없으며, 그에 따라 정확한 이동 로봇의 위치 인식이 어렵다.In addition, in the manner of generating the map and driving using the generated map, the mobile robot recognizes the position of the mobile robot and moves autonomously in order to move the robot by referring to the created map after creating the map. Here, the mobile robot recognizes its position using the odometry information. In this case, when the wheel of the mobile robot is slipped or caught in an obstacle, the position of the mobile robot cannot be accurately measured using odometry information, and thus, it is difficult to accurately recognize the location of the mobile robot.

다시 말해, 이동 로봇의 바퀴의 미끄러짐 또는 걸림 등에 의해 바퀴 굴림에 오류가 발생하고 상기 오류에 의해 잘못된 오도메트리 정보를 이용하여 이동 로봇의 이동 거리 측정 또는 이동 로봇의 위치 측정이 이루어짐으로, 정확한 지도 생성 및 이동 로봇의 위치 인식이 어려우며, 그에 따라 이동 로봇의 정상적인 자율 주행이 어렵다.In other words, an error occurs in the rolling of the wheel due to the sliding or locking of the wheel of the mobile robot, and the measurement of the moving distance of the mobile robot or the location of the mobile robot is performed by using incorrect odometry information. It is difficult to generate and recognize the position of the mobile robot, and thus, normal autonomous driving of the mobile robot is difficult.

아울러, 이동 로봇의 자율 주행 중 장애물 회피를 위해 센서(예컨대 적외선 또는 초음파 센서 등)를 이용하며, 상기 센서는 이동 로봇의 전면과 측면 등에 부착된다. 이때, 이동 로봇의 자율 주행 중 이동 로봇의 전방에 장애물이 존재할 경우, 상기 센서를 이용하여 장애물의 존재를 감지하고, 상기 오도메트리 정보를 이용하여 상기 장애물과의 거리 정보를 인식하며, 상기 장애물과의 거리 정보를 이용하여 상기 장애물을 회피한다. 여기서, 상기 장애물 회피시 장애물의 크기나 이동 방향 및 속도 등을 인식하지 못하고, 단순히 장애물과의 거리 정보만을 이용하여 장애물을 회피함에 따라 이동 로봇을 복잡한 실생활에 적용하기 어렵다.In addition, a sensor (eg, an infrared or ultrasonic sensor) is used to avoid obstacles during autonomous driving of the mobile robot, and the sensor is attached to the front and side surfaces of the mobile robot. At this time, if an obstacle exists in front of the mobile robot during autonomous driving of the mobile robot, the presence of the obstacle is detected using the sensor, the distance information with the obstacle is recognized using the odometry information, and the obstacle The obstacle is avoided by using the distance information with the. Here, when avoiding the obstacle, it is difficult to recognize the size, the moving direction, the speed, and the like of the obstacle, and it is difficult to apply the mobile robot to the complex real life by simply avoiding the obstacle using only the distance information with the obstacle.

따라서, 본 발명의 목적은, 이동 로봇의 위치와 이동 거리, 및 장애물을 정확하게 인식하여 이동 로봇의 자율 주행 및 자율 주행시 장애물을 회피하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a device for driving a mobile robot and a method for driving the mobile robot, which accurately recognizes a position, a moving distance, and an obstacle of the mobile robot to avoid obstacles during autonomous driving and autonomous driving of the mobile robot. .

또한, 본 발명의 다른 목적은, 랜드마크(landmark) 정보를 이용하여 이동 로봇의 이동 거리 및 위치를 정확하게 인식한 후 지도를 생성하고, 이동 로봇이 생성한 지도를 참조하여 최적의 경로로 자율 주행하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법을 제공함에 있다.In addition, another object of the present invention, by using the landmark (landmark) information to accurately recognize the moving distance and location of the mobile robot to generate a map, with reference to the map generated by the mobile robot autonomous driving in the optimal path The present invention provides a driving apparatus for a mobile robot and a driving method for the mobile robot.

아울러, 본 발명의 또 다른 목적은, 센서를 이용하여 자율 주행시 장애물의 크기, 위치, 이동 방향, 이동 속도 등을 인식하여 장애물을 효율적으로 회피하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법을 제공함에 있다.In addition, another object of the present invention, the driving device of the mobile robot and the method of driving the mobile robot to efficiently avoid the obstacle by recognizing the size, position, direction of movement, moving speed, etc. of the obstacle during autonomous driving using the sensor. In providing.

상기한 목적들을 달성하기 위한 본 발명의 방법은, 이동 로봇의 위치 및 장애물의 위치를 인식하는 단계: 상기 장애물의 크기, 위치, 이동 방향, 및 이동 속도 중 적어도 하나의 장애물 정보를 인식하는 단계; 및 상기 장애물 정보를 이용하여 상기 이동 로봇의 이동 경로를 수정하는 단계를 포함하는 것을 특징으로 한다.The method of the present invention for achieving the above object, the step of recognizing the position of the position and the obstacle of the mobile robot: Recognizing the obstacle information of at least one of the size, position, direction of movement, and movement speed of the obstacle; And modifying a movement path of the mobile robot using the obstacle information.

상기한 목적들을 달성하기 위한 본 발명의 장치는, 이동 로봇의 위치를 인식하는 위치 인식부; 발광부와 상기 발광부에 대응되는 수광부가 교대로 층을 이루는 장애물 센서를 이용하여 장애물의 크기, 위치, 이동 방향, 및 이동 속도 중 적어도 하나의 정보를 인식하는 장애물 인식부; 및 상기 이동 로봇의 위치와 상기 장애물을 고려하여 이동 경로를 생성하고, 상기 이동 로봇을 목적지까지 이동시키는 제어부를 포함하는 것을 특징으로 한다.An apparatus of the present invention for achieving the above objects, the position recognition unit for recognizing the position of the mobile robot; An obstacle recognition unit configured to recognize at least one of the size, position, movement direction, and movement speed of the obstacle using an obstacle sensor in which the light emitting unit and the light receiving unit corresponding to the light emitting unit are alternately layered; And a controller configured to generate a movement path in consideration of the position of the mobile robot and the obstacle, and to move the mobile robot to a destination.

본 발명은, 랜드마크 정보를 이용하여 이동 로봇의 위치와 이동 거리를 정확하게 인식함으로써, 정확한 지도를 생성하고 상기 생성한 지도를 참조하여 최적의 경로로 이동 로봇이 자율 주행하도록 할 수 있다. 그에 따라, 본 발명은 이동 로봇이 장애물 등의 외부 환경에 구애 받지 받고 효율적으로 자율 주행할 수 있다. 또한, 센서를 이용하여 장애물의 크기, 위치, 이동 방향, 이동 속도 등을 인식함으로써, 이동 로봇의 자율 주행시 장애물을 보다 효율적으로 회피할 수 있다. 그러므로, 본 발명은 다양한 장애물이 존재하는 실생활과 같이 복잡한 환경에 이동 로봇을 용이하게 적용할 수 있다.According to the present invention, by accurately recognizing the position and the moving distance of the mobile robot by using the landmark information, it is possible to generate an accurate map and to allow the mobile robot to autonomously travel in an optimal path with reference to the generated map. Accordingly, the present invention can efficiently run autonomously regardless of the external environment such as obstacles. In addition, by using the sensor to recognize the size, location, direction of movement, moving speed, etc. of the obstacle, it is possible to more efficiently avoid the obstacle during autonomous running of the mobile robot. Therefore, the present invention can easily apply a mobile robot to a complex environment such as real life in which various obstacles exist.

이하, 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 흩뜨리지 않도록 생략될 것이라는 것을 유의하여야 한다. 그러면 여기서, 도 1을 참조하여 본 발명의 실시예에 따른 이동 로봇의 구동 장치를 보다 구체적으로 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that in the following description, only parts necessary for understanding the operation according to the present invention will be described, and descriptions of other parts will be omitted so as not to distract from the gist of the present invention. Then, the driving device of the mobile robot according to the embodiment of the present invention will be described in more detail with reference to FIG. 1.

도 1은 본 발명의 실시예에 따른 이동 로봇의 구동 장치 구조를 개략적으로 도시한 도면이다.1 is a view schematically showing a structure of a driving device of a mobile robot according to an embodiment of the present invention.

도 1을 참조하면, 상기 이동 로봇의 구동 장치는, 이동 로봇의 자율 주행시 장애물을 감지하는 장애물 센서(105), 상기 장애물 센서(105)가 감지한 장애물을 인식하는 장애물 인식부(110), 이동 로봇의 이동 거리를 측정하는 거리 측정부(115), 상기 이동 로봇의 위치를 감지하는 위치 센서(120), 상기 위치 센서(120)가 감지한 이동 로봇의 위치를 인식하는 위치 인식부(125), 이동 로봇의 자율 주행 및 장애물 회피 등을 제어하는 제어부(130), 이동 로봇의 자율 주행을 위한 지도를 저장하는 저장부(135), 이동 로봇을 이동시키는 구동부(140), 및 이동 로봇에 전원을 공급하는 전원부(146)를 포함한다.Referring to FIG. 1, the driving device of the mobile robot may include an obstacle sensor 105 for detecting an obstacle during autonomous driving of the mobile robot, an obstacle recognition unit 110 for recognizing an obstacle detected by the obstacle sensor 105, and a movement. Distance measuring unit 115 for measuring the moving distance of the robot, the position sensor 120 for detecting the position of the mobile robot, the position sensor 120 for recognizing the position of the mobile robot sensed by the position sensor 120 The controller 130 controls autonomous driving and obstacle avoidance of the mobile robot, a storage unit 135 for storing a map for autonomous driving of the mobile robot, a driving unit 140 for moving the mobile robot, and a power source for the mobile robot. It includes a power supply unit 146 for supplying.

상기 장애물 센서(105)는, N개의 센서 모듈이 M개의 층으로 배열된 다층 구조를 가지며, 적외선 또는 초음파 등을 이용하여 이동 로봇이 위치한 곳의 장애물을 감지하며, 장애물의 감지 신호를 장애물 인식부(110)로 전송한다. 여기서, 상기 장애물 센서(105)에 대해서는 도 4와 도 5를 참조하여 보다 구체적으로 설명하기로 한다.The obstacle sensor 105 has a multi-layer structure in which N sensor modules are arranged in M layers, and detects an obstacle where a mobile robot is located by using infrared rays or ultrasonic waves, and detects an obstacle detection signal by an obstacle recognition unit. Transmit to 110. Here, the obstacle sensor 105 will be described in more detail with reference to FIGS. 4 and 5.

상기 장애물 인식부(110)는, 장애물 센서(105)로부터 장애물의 감지 신호를 수신하고, 상기 장애물의 감지 신호를 이용하여 상기 장애물 센서(105)가 감지한 장애물의 크기, 위치, 이동 방향, 및 이동 속도 등을 인식한다. 여기서, 상기 장애물 인식부(110)는 상기 장애물 센서(105)의 다층 구조로 배열된 각 센서 모듈과 장애물과의 거리를 계산하고, 상기 계산된 거리를 이용하여 장애물의 크기, 위치, 이동 방향, 및 이동 속도 등을 인식한다. 그리고, 상기 장애물 인식부(110)는 장애물의 크기, 위치, 이동 방향, 및 이동 속도 등을 제어부(130)로 제공한다. 여기서, 상기 장애물 인식부(110)에 대해서는 도 4와 도 5를 참조하여 보다 구체적으로 설명하기로 한다.The obstacle recognizing unit 110 receives the detection signal of the obstacle from the obstacle sensor 105, and uses the detection signal of the obstacle to detect the size, location, direction of movement, and movement of the obstacle detected by the obstacle sensor 105. Recognize moving speed Here, the obstacle recognition unit 110 calculates the distance between each sensor module arranged in a multi-layer structure of the obstacle sensor 105 and the obstacle, and using the calculated distance, the size, position, direction of movement, And moving speed and the like. The obstacle recognition unit 110 provides the controller 130 with the size, location, movement direction, and movement speed of the obstacle. Here, the obstacle recognition unit 110 will be described in more detail with reference to FIGS. 4 and 5.

상기 거리 측정부(115)는, 이동 로봇의 바퀴의 회전량을 계산하고, 상기 계산한 바퀴 회전량을 이용하여 이동 로봇의 이동 거리를 측정하며, 상기 이동 로봇의 이동 거리를 포함한 이동 거리 정보를 제어부(130)로 제공한다. 이때, 제어부(130)는 이동 로봇의 위치 및 이동 거리 인식을 위해 상기 위치 인식부(125)로부터 수신한 정보를 주로 활용하며, 상기 거리 측정부(115)로부터 수신한 정보는 보조적으로 활용한다.The distance measuring unit 115 calculates the rotation amount of the wheel of the mobile robot, measures the moving distance of the mobile robot using the calculated wheel rotation amount, and calculates the moving distance information including the moving distance of the mobile robot. Provided to the controller 130. In this case, the controller 130 mainly uses the information received from the position recognition unit 125 for recognizing the position and the moving distance of the mobile robot, and assists the information received from the distance measuring unit 115.

상기 위치 센서(120)는, 이동 로봇이 위치한 곳의 천정에 존재하는 랜드마크(landmark)를 감지하며, 랜드마크 감지 신호를 위치 인식부(125)로 전송한다. 여기서, 상기 위치 센서(120)는 상기 장애물 센서(105)와 같이 다층 구조를 가질 수 있으며, 적외선 또는 초음파 등을 이용하여 상기 랜드마크를 감지할 수 있다. 여기서, 이동 로봇을 자율 주행시키기 위한 장소(공간)의 천장에 각 위치 별로 해당 위치를 나타내는 상이한 마크가 사전에 표시됨에 따라 상기 랜드마크가 형성된다. 예컨대, 이동 로봇이 가정에서 자율 주행할 경우, 가정의 안방, 거실, 주방 등을 나타내는 상이한 마크가 안방, 거실, 주방 등의 천장에 각각 표시되며, 안방, 거실, 주방 등 간의 이동 경로 천장에도 각각 해당 위치를 나타내는 상이한 기호가 각각 표시된다. 그에 따라, 가정의 천정에 이동 로봇의 자율 주행시 이용할 랜드마크가 형성된다.The position sensor 120 detects a landmark existing on the ceiling of the location where the mobile robot is located, and transmits a landmark detection signal to the position recognition unit 125. Here, the position sensor 120 may have a multilayer structure like the obstacle sensor 105, and may detect the landmark by using infrared rays or ultrasonic waves. Here, the landmark is formed as a different mark indicating a corresponding position for each position is previously displayed on the ceiling of a place (space) for autonomous running of the mobile robot. For example, when the mobile robot runs autonomously in the home, different marks indicating the home's home, living room, and kitchen are displayed on the ceilings of the home, the living room, and the kitchen, respectively. Different symbols representing the position are respectively displayed. Accordingly, a landmark to be used for autonomous driving of the mobile robot is formed on the ceiling of the home.

상기 위치 인식부(125)는, 위치 센서(125)로부터 랜드 마크 감지 신호를 수 신하고, 상기 랜드마크 감지 신호를 이용하여 이동 로봇의 위치 및 이동 거리를 인식한다. 여기서, 상기 위치 인식부(125)는, 상기 랜드마크 감지 신호를 이용하여 이동 로봇이 위치한 곳의 천정에 존재하는 랜드마크를 확인함에 따라 이동 로봇의 위치를 인식한다. 그리고, 상기 위치 인식부(125)는, 이동 로봇이 이동하면 상기 이동에 따라 확인되는 랜드마크가 변경되며, 랜드마크의 변경을 고려하여 이동 로봇의 이동 거리를 인식한다. 그리고, 상기 위치 인식부(125)는 이동 로봇의 위치 및 이동 거리를 제어부(130)로 제공한다.The position recognition unit 125 receives a landmark detection signal from the position sensor 125 and recognizes the position and the moving distance of the mobile robot using the landmark detection signal. Here, the position recognition unit 125 recognizes the position of the mobile robot by identifying a landmark existing on the ceiling of the place where the mobile robot is located by using the landmark detection signal. In addition, when the mobile robot moves, the location recognition unit 125 changes the landmark identified according to the movement, and recognizes the movement distance of the mobile robot in consideration of the change of the landmark. In addition, the position recognition unit 125 provides the position and the movement distance of the mobile robot to the controller 130.

상기 제어부(130)는, 상기 장애물 인식부(110)로부터 장애물의 위치, 크기, 이동 방향, 및 이동 속도 등을 제공받고, 상기 위치 인식부(125)로부터 이동 로봇의 이동 거리 및 위치를 제공받는다. 그리고, 상기 제어부(130)는 상기 제공받은 파라미터들을 이용하여 구동부(140)를 통해 이동 로봇을 구동시키고, 상기 이동 로봇을 제어한다. 또한, 상기 제어부(130)는, 상기 장애물 인식부(110)로부터 장애물의 크기 및 위치와, 상기 위치 인식부(125)로부터 제공받은 이동 로봇의 이동 거리 및 위치를 고려하여 이동 로봇의 자율 주행시 참조하는 지도를 생성한다. 그리고, 상기 제어부(130)는 상기 생성한 지도를 저장부(135)에 저장한다. 여기서, 상기 지도 생성은 이동 로봇의 자율 주행을 위한 사전 동작으로 이동 로봇의 이동 거리 및 위치, 장애물의 크기 및 위치를 고려하여 지도를 생성한다.The controller 130 receives the position, size, movement direction, and movement speed of the obstacle from the obstacle recognition unit 110, and receives the movement distance and the position of the mobile robot from the position recognition unit 125. . The controller 130 drives the mobile robot through the driver 140 using the provided parameters and controls the mobile robot. In addition, the controller 130 may refer to the size and position of the obstacle from the obstacle recognition unit 110 and the moving distance and the position of the mobile robot provided from the position recognition unit 125 when autonomous driving of the mobile robot is performed. Create a map. The controller 130 stores the generated map in the storage 135. Here, the map generation is a pre-operation for autonomous driving of the mobile robot and generates a map in consideration of the moving distance and location of the mobile robot and the size and location of the obstacle.

또한, 상기 제어부(130)는, 지도를 참조한 이동 로봇의 자율 주행시 최적의 경로로 이동 로봇이 자율 주행하도록, 상기 지도에서 장애물을 고려하여 이동 로봇의 최적의 자율 주행 경로를 탐색하고, 탐색한 최적의 자율 주행 경로를 이동 로봇 의 자율 주행 경로로 설정한다. 그리고, 상기 제어부(130)는, 자율 주행시 상기 장애물 인식부(110)로부터 제공받은 장애물의 위치, 크기, 이동 방향, 및 이동 속도 등을 고려하여 상기 지도 상에서 최적의 경로로의 장애물 회피를 설정한다. 그에 따라, 상기 이동 로봇은 상기 설정한 최적의 경로로 장애물을 회피한다.In addition, the controller 130 searches for the optimal autonomous driving path of the mobile robot in consideration of obstacles on the map, and searches for the optimal autonomous driving path so that the mobile robot autonomously travels on the optimal path during autonomous driving of the mobile robot referring to the map. Set autonomous driving route of autonomous driving route of mobile robot. The controller 130 sets obstacle avoidance to an optimal path on the map in consideration of the position, size, movement direction, and movement speed of the obstacle provided from the obstacle recognition unit 110 during autonomous driving. . Accordingly, the mobile robot avoids obstacles in the optimal path set.

상기 구동부(140)는 상기 제어부(130)의 제어에 의해 이동 로봇을 이동시키며, 전원부(145)가 공급한 전원에 의해 모터를 구동시켜 상기 이동 로봇을 이동시킨다. 그러면 여기서, 도 2 및 도 3을 참조하여 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서(105)를 보다 구체적으로 설명하기로 한다.The driving unit 140 moves the mobile robot under the control of the controller 130, and moves the mobile robot by driving a motor by the power supplied from the power supply unit 145. Next, the obstacle sensor 105 in the driving apparatus of the mobile robot according to the embodiment of the present invention will be described in more detail with reference to FIGS. 2 and 3.

도 2는 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서의 구조를 개략적으로 도시한 도면이고, 도 3은 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서의 회로도이다.2 is a view schematically illustrating a structure of an obstacle sensor in a driving apparatus of a mobile robot according to an embodiment of the present invention, and FIG. 3 is a circuit diagram of an obstacle sensor in a driving apparatus of a mobile robot according to an embodiment of the present invention.

도 2 및 도 3을 참조하면, 상기 장애물 센서(105)는 N개의 센서 모듈이 M개의 층으로 배열된 다층 구조, 예컨대 25개의 센서 모듈이 3개의 층으로 배열된 다층 구조(210)를 갖는다. 그리고, 각 센서 모듈은 발광부(220)와 수광부(230)를 각각 포함한다.2 and 3, the obstacle sensor 105 has a multilayer structure in which N sensor modules are arranged in M layers, for example, a multilayer structure 210 in which 25 sensor modules are arranged in three layers. Each sensor module includes a light emitting unit 220 and a light receiving unit 230, respectively.

상기 발광부(220)는 제1전압 단자와 연결된 제1저항부(305), 상기 제1저항부(310)와 연결되며 장애물의 거리를 감지하기 위한 신호를 방출하는 출력부(310), 및 상기 출력부(310)를 접지 단자와 연결하며 상기 출력부(310)가 방출하는 신호를 변조하는 스위칭부(315)를 포함한다. 그리고, 상기 수광부(230)는, 제2전압 단자와 연결된 제2저항부(320), 상기 제2저항부(320)와 접지 단자 간에 연결되며 장애물로 부터 반사되는 신호를 수신하는 수신부(325), 및 상기 수신부(325)가 수신한 신호를 필터링하는 필터(330)를 포함한다. 여기서, 상기 스위칭부(315)는 트랜지스터가 될 수 있으며, 상기 필터(330)는 수광부(230)로 입력된 신호에서 해당 센서 모듈의 신호만을 필터링하는 밴드 패스 필터(BPF: Band Pass Filter, 이하 'BPF'라 칭하기로 함)가 될 수 있다. 그리고, 상기 수신부(325)는 상기 발광부(220)의 출력부(310)로부터 방출된 신호가 장애물에서 반사되면 상기 반사된 신호를 수신한다.The light emitting unit 220 may include a first resistor unit 305 connected to a first voltage terminal, an output unit 310 connected to the first resistor unit 310 and emitting a signal for detecting a distance of an obstacle, and And a switching unit 315 connecting the output unit 310 to a ground terminal and modulating a signal emitted from the output unit 310. The light receiver 230 includes a second resistor 320 connected to a second voltage terminal, a receiver 325 connected between the second resistor 320 and a ground terminal and receiving a signal reflected from an obstacle. And a filter 330 for filtering the signal received by the receiver 325. Here, the switching unit 315 may be a transistor, and the filter 330 is a band pass filter (BPF) that filters only a signal of a corresponding sensor module from a signal input to the light receiving unit 230. BPF '). The receiver 325 receives the reflected signal when the signal emitted from the output unit 310 of the light emitter 220 is reflected from an obstacle.

그리고, 각 센서 모듈은 상기 발광부(220)가 방출한 신호와 상기 수광부(230)가 수신한 신호를 이용하여 장애물을 감지하고, 상기 장애물의 감지 신호를 장애물 인식부(110)로 전송한다. 그리고, 상기 장애물 인식부(110)는 장애물 센서(105)의 각 센서 모듈로부터 상기 장애물의 감지 신호를 수신하고, 상기 장애물의 감지 신호를 이용하여 장애물의 위치, 크기, 이동 방향, 이동 속도 등을 인식한다.Each sensor module detects an obstacle using a signal emitted from the light emitter 220 and a signal received by the light receiver 230, and transmits a detection signal of the obstacle to the obstacle recognition unit 110. The obstacle recognition unit 110 receives the detection signal of the obstacle from each sensor module of the obstacle sensor 105 and uses the detection signal of the obstacle to determine the position, size, movement direction, and moving speed of the obstacle. Recognize.

보다 구체적으로 설명하면, 장애물의 거리를 감지하기 위해 각 센서 모듈의 발광부(220)가 신호를 방출하면, 상기 방출된 신호가 장애물에 반사되고, 상기 반사된 신호가 수광부(230)로 수신된다. 그러면, 상기 각 센서 모듈은 발광부(220)의 신호 방출 및 수광부(230)의 신호 수신에 따라 장애물의 감지 신호를 장애물 인식부(110)로 전송한다. 상기 장애물 인식부(110)는, 상기 발광부(220)에서 방출된 신호가 장애물에 반사되어 수광부(230)로 수신되는 시간을 계산하며, 상기 계산한 시간을 통해 각 센서 모듈과 장애물과의 거리를 계산하여 상기 장애물의 거리를 인식한다.In more detail, when the light emitter 220 of each sensor module emits a signal to detect the distance of the obstacle, the emitted signal is reflected on the obstacle and the reflected signal is received by the light receiver 230. . Then, each sensor module transmits a detection signal of the obstacle to the obstacle recognition unit 110 according to the signal emission of the light emitting unit 220 and the signal reception of the light receiving unit 230. The obstacle recognition unit 110 calculates a time when the signal emitted from the light emitting unit 220 is reflected by the obstacle and received by the light receiving unit 230, and the distance between each sensor module and the obstacle through the calculated time. Recognize the distance of the obstacle by calculating.

그리고, 상기 장애물 인식부(110)는 각 센서 모듈과 장애물과의 거리를 계산한 후, 상기 계산한 거리를 조합하여 장애물의 위치, 크기를 인식한다. 예컨대, #1번 센서 모듈이 계산한 장애물과의 거리가 30이고, #2번, #3번, 및 #4번 센서 모듈이 계산한 장애물과의 거리가 20이며, #5번 센서 모듈이 계산한 장애물과의 거리가 30이면, 상기 장애물 인식부(110)는, 장애물이 이동 로봇과의 거리가 20인 곳에 위치함으로 인식하고, 상기 #2번, #3번, 및 #4번 센서 모듈 간의 거리를 통해 장애물의 크기를 인식한다. 또한, 각 센서 모듈의 발광부(220)가 초당 15번의 신호를 방출하고, 그에 상응하여 수광부(230)가 반사된 신호를 수신하면, 초당 15 프레임에서 장애물의 거리, 크기, 및 위치를 인식하게 되며, 각 프레임에서 장애물의 거리, 크기, 및 위치 간 차를 이용하여 장애물의 이동 속도 및 이동 방향을 인식한다. 이렇게 장애물의 거리, 위치, 크기, 이동 속도, 및 이동 방향을 인식한 후, 상기 장애물 인식부(110)는, 상기 장애물의 거리, 위치, 크기, 이동 속도, 및 이동 방향을 포함한 장애물 정보를 제어부(130)로 제공한다.The obstacle recognition unit 110 calculates the distance between each sensor module and the obstacle, and then recognizes the position and size of the obstacle by combining the calculated distances. For example, the distance from the obstacle calculated by the sensor module # 1 is 30, the distance from the obstacle calculated by the sensor modules # 2, # 3, and # 4 is 20, and the sensor module # 5 is calculated. When the distance to one obstacle is 30, the obstacle recognition unit 110 recognizes that the obstacle is located at a distance of 20 from the mobile robot, and between the sensor modules # 2, # 3, and # 4. Recognize the size of obstacles through distance. In addition, when the light emitting unit 220 of each sensor module emits 15 signals per second and the light receiving unit 230 receives the reflected signal, the light emitting unit 220 recognizes the distance, size, and position of the obstacle at 15 frames per second. In each frame, the moving speed and the moving direction of the obstacle are recognized by using the distance between the obstacle, the size, and the position of the obstacle. After recognizing the distance, position, size, moving speed, and moving direction of the obstacle, the obstacle recognizing unit 110 controls obstacle information including the distance, position, size, moving speed, and moving direction of the obstacle. Provided at 130.

여기서, 각 센서 모듈에서 #1번 센서 모듈의 발광부가 신호를 방출하면, 상기 방출된 신호가 장애물에서 반사되고, 상기 반사된 신호가 각 센서 모듈의 모든 수광부로 입력될 경우, 장애물 인식부(110)가 각 센서 모듈과 장애물과의 정확한 거리 계산이 어려울 수 있으나, 각 센서 모듈이 후술할 두가지 방식으로 장애물을 감지함에 따라 상기 장애물 인식부(110)는 장애물과의 거리를 정확하게 계산한다.Here, when the light emitting unit of the sensor module # 1 in each sensor module emits a signal, the emitted signal is reflected from the obstacle, when the reflected signal is input to all the light receiving unit of each sensor module, obstacle recognition unit 110 It may be difficult to calculate the exact distance between each sensor module and the obstacle, but as each sensor module detects the obstacle in two ways to be described later, the obstacle recognition unit 110 accurately calculates the distance from the obstacle.

우선, 제1방식부터 설명하면, 각 센서 모듈의 발광부는 각각 서로 다른 주파수를 갖는 신호를 방출하고, 상기 서로 다른 주파수를 갖는 신호는 장애물에서 반 사되어 각 센서 모듈의 모든 수광부로 입력된다. 여기서, 상기 수광부는 각 센서 모듈에 해당하는 주파수의 신호만을 필터링하는 BPF를 포함한다. 그러므로, 상기 서로 다른 주파수를 갖는 신호를 수신한 각 센서 모듈의 수광부는, BPF를 이용하여 상기 서로 다른 주파수를 갖는 신호에서 해당하는 센스 모듈의 신호를 필터링한다.First, from the first method, the light emitting units of the respective sensor modules emit signals having different frequencies, and the signals having the different frequencies are reflected from obstacles and input to all light receiving units of the respective sensor modules. Here, the light receiving unit includes a BPF for filtering only a signal having a frequency corresponding to each sensor module. Therefore, the light receiving unit of each sensor module receiving the signals having different frequencies filters the signals of the corresponding sense modules from the signals having different frequencies using BPF.

즉, 상기 각 센스 모듈은 장애물을 감지하기 위해 각각 서로 다른 주파수를 갖는 신호를 방출하고, 장애물로부터 반사된 신호에서 BPF를 이용하여 자신에게 해당하는 주파수를 갖는 신호만을 필터링 수신한다. 이렇게 상기 각 센스 모듈이 자신에게 해당하는 신호만을 방출 및 수신함에 따라, 상기 장애물 인식부(110)는 각 센서 모듈과 장애물과의 거리를 정확하게 계산할 수 있으며, 전술한 바와 같이 계산한 장애물과의 거리를 조합하여 장애물의 위치, 크기를 인식하며, 또한 각 프레임에서 장애물의 거리, 크기, 및 위치 간 차를 이용하여 장애물의 이동 속도 및 이동 방향을 인식한다.That is, each of the sense modules emits signals having different frequencies to detect obstacles, and filters and receives only signals having frequencies corresponding to them by using BPF from signals reflected from the obstacles. As the sense module emits and receives only a signal corresponding to the sensor, the obstacle recognition unit 110 can accurately calculate the distance between each sensor module and the obstacle, and the distance between the obstacle calculated as described above. Recognize the position and size of the obstacle by using a combination, and also recognize the movement speed and the direction of movement of the obstacle using the distance, size, and position of the obstacle in each frame.

그리고, 제2방식을 설명하면, 각 센서 모듈의 발광부는 각 센서 모듈 별로 순차적으로 신호를 방출하고, 상기 방출된 신호는 장애물에서 반사되어 각 센서 모듈의 수광부에서 수신된다. 여기서, 각 센서 모듈의 수광부는 각 센서 모듈 별로 순차적으로 전원이 온(on)되어 반사된 신호를 수신한다. 다시 말해, #1번 센서 모듈의 발광부의 전원이 온되어 신호를 방출하면, 상기 #1번 센서 모듈의 수광부의 전원만 온되며, 장애물에서 반사된 신호를 상기 #1번 센서 모듈의 수광부만 수신한다. 그리고, #2번 센서 모듈의 발광부 및 수광부, #3번 센서 모듈의 발광부 및 수광가 순차적으로 전원이 온되며, 마지막 센서 모듈의 발광부 및 수광부까지 순차적 으로 전원이 온됨에 따라 각 센서 모듈에서 신호의 방출 및 수신이 각 센서 모듈 별로 순차적으로 이루어진다. 여기서, 각 센서 모듈의 발광부 및 수광부의 전원은 해당 센서 모듈의 발광부 및 수광부의 전원만 온되고, 나머지 센서 모듈의 발광부 및 수광부의 전원은 오프(off)되며, 각 센서 모듈의 발광부 및 수광부의 전원 온/오프는 제어부(130)로부터 제어된다.In the second method, the light emitting unit of each sensor module sequentially emits a signal for each sensor module, and the emitted signal is reflected from an obstacle and received by the light receiving unit of each sensor module. Here, the light receiving unit of each sensor module receives the reflected signal by sequentially turning on the power for each sensor module. In other words, when the light emitting unit of the sensor module # 1 is turned on and emits a signal, only the light receiving unit of the sensor module # 1 is turned on, and receives only the light receiving unit of the sensor module # 1 receiving a signal reflected from an obstacle. do. In addition, the light emitting unit and the light receiving unit of sensor module # 2, the light emitting unit and the light receiving unit of sensor module # 3 are sequentially turned on, and in each sensor module as power is sequentially turned on to the light emitting unit and the light receiving unit of the last sensor module. The signal is emitted and received sequentially for each sensor module. Here, the power of the light emitting unit and the light receiving unit of each sensor module is only the power of the light emitting unit and the light receiving unit of the corresponding sensor module, the power of the light emitting unit and the light receiving unit of the remaining sensor module is off (off), the light emitting unit of each sensor module And power on / off of the light receiving unit is controlled from the controller 130.

이렇게 각 센서 모듈에서 신호의 방출 및 수신이 각 센서 모듈 별로 순차적으로 이루어짐에 따라, 상기 장애물 인식부(110)는 각 센서 모듈과 장애물과의 거리를 정확하게 계산할 수 있다. 그리고, 상기 장애물 인식부(110)는, 전술한 바와 같이 계산한 장애물과의 거리를 조합하여 장애물의 위치, 크기를 인식하며, 또한 각 프레임에서 장애물의 거리, 크기, 및 위치 간 차를 이용하여 장애물의 이동 속도 및 이동 방향을 인식한다. 그러면 여기서, 도 4를 참조하여 이동 로봇의 자율 주행시 참조하는 지도를 생성하는 사전 동작 과정을 구체적으로 설명하기로 한다.As the emission and reception of signals in each sensor module are sequentially performed for each sensor module, the obstacle recognition unit 110 may accurately calculate the distance between each sensor module and the obstacle. In addition, the obstacle recognition unit 110 recognizes the position and size of the obstacle by combining the distance with the obstacle calculated as described above, and further, by using the distance between the obstacle, the size, and the position in each frame. Recognize the speed and direction of movement of obstacles. Next, the pre-operation process of generating a map referenced during autonomous driving of the mobile robot will be described in detail with reference to FIG. 4.

도 4는 본 발명의 실시예에 따른 이동 로봇의 구동 장치의 지도 생성 과정을 개략적으로 도시한 도면이다.4 is a diagram schematically illustrating a map generation process of a driving device of a mobile robot according to an exemplary embodiment of the present invention.

도 4를 참조하면, S410단계에서 이동 로봇이 이동할 경로를 사전에 인식하도록 이동 로봇이 위치한 곳의 천정에 존재하는 랜드마크를 감지하고, 상기 감지한 랜드마크의 위치 및 방향을 계산하고, 상기 계산된 랜드마크의 위치 및 방향을 이용하여 이동 로봇의 위치 및 이동 거리를 인식한다.Referring to FIG. 4, in step S410, a landmark existing on a ceiling of a location where a mobile robot is located is detected in advance so that the mobile robot recognizes a path to be moved, and the location and direction of the detected landmark are calculated, and the calculation is performed. The location and the movement distance of the mobile robot are recognized using the location and direction of the landmark.

그리고, S420단계에서, 상기 인식한 이동 로봇의 위치를 이용하여 이동 로봇이 이동하는 경로를 거리로 계산하며, 그에 따라 상기 이동 로봇의 이동 거리를 계 산한다. 여기서, 상기 이동 로봇의 이동 거리는 이동 로봇의 바퀴의 회전량을 계산하고, 상기 계산한 바퀴 회전량을 이용하여 이동 로봇의 이동 거리를 측정하며, 상기 측정한 이동 로봇의 이동 거리를 이용하여 계산할 수도 있다.In operation S420, a path for moving the mobile robot using the recognized position of the mobile robot is calculated as a distance, and accordingly, a moving distance of the mobile robot is calculated. Here, the moving distance of the mobile robot may calculate the amount of rotation of the wheel of the mobile robot, measure the moving distance of the mobile robot using the calculated amount of wheel rotation, and calculate the calculated distance using the measured moving distance of the mobile robot. have.

또한, S430단계에서 다층 구조를 갖는 센서 모듈을 이용하여 장애물의 거리를 계산하고, 상기 장애물의 거리를 이용하여 장애물의 크기 및 위치를 인식한다. 그런 다음, S440단계에서 상기 이동 로봇의 위치와 이동 거리, 및 상기 장애물의 크기와 위치를 이용하여 지도를 생성한다. 그러면 여기서, 도 5를 참조하여 이동 로봇의 자율 주행을 위한 사전 동작으로 지도가 생성되면, 상기 생성된 지도를 참조한 이동 로봇의 자율 주행 및 자율 주행시 장애물 회피를 설명하기로 한다.In operation S430, the distance of the obstacle is calculated using a sensor module having a multilayer structure, and the size and location of the obstacle are recognized using the distance of the obstacle. Then, in step S440 generates a map using the location and the moving distance of the mobile robot, and the size and location of the obstacle. Then, when a map is generated by a pre-operation for autonomous driving of the mobile robot with reference to FIG. 5, obstacle avoidance during autonomous driving and autonomous driving of the mobile robot with reference to the generated map will be described.

도 5는 본 발명의 실시예에 따른 이동 로봇의 자율 주행 동작 과정을 개략적으로 도시한 도면이다.5 is a diagram schematically illustrating an autonomous driving operation process of a mobile robot according to an exemplary embodiment of the present invention.

도 5를 참조하면, S510단계에서 이동 로봇이 자율 주행으로 이동할 목적지를 입력받는다. 그리고, S520단계에서 도 4에서 설명한 바와 같이 사전 생성된 지도를 참조하여 상기 입력된 목적지까지 이동 로봇이 자율 주행할 최적의 경로를 설정한다. 다음으로, S530단계에서 이동 로봇이 위치한 곳의 천정에 존재하는 랜드마크를 감지하고, 상기 감지한 랜드마크의 위치를 이용하여 이동 로봇의 위치를 인식하며, 상기 설정된 최적의 경로로 자율 주행을 시작한다.Referring to FIG. 5, in step S510, the mobile robot receives a destination to be moved by autonomous driving. In operation S520, the mobile robot automatically sets an optimal route to the input destination by referring to the previously generated map as described with reference to FIG. 4. Next, in step S530 it detects the landmark on the ceiling of the location where the mobile robot is located, recognizes the location of the mobile robot by using the detected position of the landmark, and starts autonomous driving in the optimal path set do.

S540단계에서 상기 설정된 최적의 경로로 자율 주행하는 중에 장애물의 존재 여부를 확인한다. 여기서, 상기 장애물의 존재 여부 확인은, 앞서 설명한 바와 같이 각 센서 모듈의 발광부가 장애물을 감지하기 위한 신호를 방출하고, 상기 각 센 서 모듈의 수광부가 장애물로부터 반사된 신호를 수신함으로 이루어진다.In step S540, the existence of an obstacle is checked while autonomous driving is performed in the optimal path. In this case, the existence of the obstacle is determined by the light emitting unit of each sensor module emitting a signal for detecting the obstacle as described above, and the light receiving unit of each sensor module receives a signal reflected from the obstacle.

상기 S540단계에서의 확인 결과 장애물이 존재하면, S550단계에서 장애물과의 거리를 계산하고, 상기 계산한 거리를 조합하여 장애물의 위치, 크기를 인식하며, 각 프레임에서 장애물의 거리, 크기, 및 위치 간 차를 이용하여 장애물의 이동 속도 및 이동 방향을 인식한다. 그리고, S560단계에서 장애물의 위치, 크기, 이동 방향, 이동 속도 등을 고려하여 상기 설정한 최적의 경로로부터 상기 생성한 지도상에서 최적의 경로로의 장애물 회피를 설정한다.If there is an obstacle as a result of the check in step S540, in step S550, the distance to the obstacle is calculated, and the position and size of the obstacle are recognized by combining the calculated distances. Using the difference between the vehicle to recognize the moving speed and direction of the obstacle. In step S560, the obstacle avoidance from the set optimal path to the optimal path on the generated map is set in consideration of the position, the size, the moving direction, the moving speed, and the like of the obstacle.

그런 다음, S570단계에서 상기 설정한 장애물 회피를 통해 상기 확인된 장애물을 회피한다. 그리고, S580단계에서 최적의 경로로 자율 주행하여 입력된 목적지에 도착하며, 상기 이동 로봇이 도착한 위치의 천정에 존재하는 랜드마크를 감지하고, 상기 감지한 랜드마크의 위치를 이용하여 이동 로봇의 위치를 인식한다.Then, the identified obstacle is avoided through the obstacle avoidance set in the step S570. In operation S580, the autonomous vehicle arrives at the input destination by autonomous driving in an optimal path, and detects a landmark existing on the ceiling of the location where the mobile robot arrives, and uses the location of the detected landmark to locate the mobile robot. Recognize.

한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the scope of the following claims, but also by the equivalents of the claims.

도 1은 본 발명의 실시예에 따른 이동 로봇의 구동 장치 구조를 개략적으로 도시한 도면.1 is a view schematically showing a structure of a driving device of a mobile robot according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서의 구조를 개략적으로 도시한 도면.2 is a view schematically showing the structure of an obstacle sensor in a driving device of a mobile robot according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서의 회로도.3 is a circuit diagram of an obstacle sensor in a driving device of a mobile robot according to an embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 이동 로봇의 구동 장치의 지도 생성 과정을 개략적으로 도시한 도면.4 is a view schematically illustrating a map generation process of a driving device of a mobile robot according to an embodiment of the present invention.

도 5는 본 발명의 실시예에 따른 이동 로봇의 자율 주행 동작 과정을 개략적으로 도시한 도면.5 is a view schematically showing a process of autonomous driving of a mobile robot according to an embodiment of the present invention.

Claims (19)

이동 로봇의 구동 장치에 있어서,In the driving device of the mobile robot, 이동 로봇의 위치를 인식하는 위치 인식부;A position recognition unit recognizing a position of the mobile robot; 발광부와 상기 발광부에 대응되는 수광부가 교대로 층을 이루는 장애물 센서를 이용하여 장애물의 크기, 위치, 이동 방향, 및 이동 속도 중 적어도 하나의 정보를 인식하는 장애물 인식부; 및An obstacle recognition unit configured to recognize at least one of the size, position, movement direction, and movement speed of the obstacle using an obstacle sensor in which the light emitting unit and the light receiving unit corresponding to the light emitting unit are alternately layered; And 상기 이동 로봇의 위치와 상기 장애물을 고려하여 이동 경로를 생성하고, 상기 이동 로봇을 목적지까지 이동시키는 제어부를 포함하고,A controller configured to generate a movement path in consideration of the position of the mobile robot and the obstacle, and move the mobile robot to a destination; 상기 발광부는, 제1전압 단자와 연결된 제1저항부, 상기 제1저항부와 연결되며 발신 신호를 출력하는 출력부, 및 상기 출력부를 접지 단자와 연결하며 상기 발신 신호를 변조하는 스위칭부를 포함하는 것을 특징으로 하는 이동 로봇의 구동 장치.The light emitting unit includes a first resistor unit connected to a first voltage terminal, an output unit connected to the first resistor unit and outputting a transmission signal, and a switching unit connecting the output unit to a ground terminal and modulating the transmission signal. Driving device for a mobile robot, characterized in that. 제1항에 있어서,The method of claim 1, 상기 발광부는 층별로 복수의 발광 센서를 포함하고, 각 발광 센서는 서로 다른 주파수를 갖는 발신 신호를 출력하는 것을 특징으로 하는 이동 로봇의 구동 장치.The light emitting unit includes a plurality of light emitting sensors per layer, and each light emitting sensor outputs an outgoing signal having a different frequency. 삭제delete 제1항에 있어서,The method of claim 1, 상기 수광부는 층별로 복수의 수광 센서를 포함하고, 각 수광 센서는 상기 발광부에서 출력되며 상기 장애물에서 반사된 발신 신호를 주파수 별로 필터링하여 수신하는 것을 특징으로 하는 이동 로봇의 구동 장치.The light receiving unit includes a plurality of light receiving sensors for each floor, and each light receiving sensor is a driving device of a mobile robot, characterized in that for receiving by filtering the transmission signal output from the light emitting unit reflected from the obstacle for each frequency. 제1항에 있어서,The method of claim 1, 상기 수광부는, 제1전압 단자와 연결된 제1저항부, 상기 제1저항부와 접지 단자 간에 연결되며 상기 장애물에서 반사된 발신 신호를 수신하는 수신부, 및 상기 발광부에서 출력되며 상기 장애물에서 반사된 발신 신호를 주파수 별로 필터링하는 밴드 패스 필터(BPF: Band Pass Filter)를 포함하는 것을 특징으로 하는 이동 로봇의 구동 장치.The light receiving unit may include a first resistor unit connected to a first voltage terminal, a receiver connected between the first resistor unit and a ground terminal to receive an outgoing signal reflected from the obstacle, and output from the light emitting unit and reflected from the obstacle. And a band pass filter (BPF) for filtering the outgoing signal for each frequency. 제1항에 있어서,The method of claim 1, 상기 발광부는 층별로 복수의 발광 센서를 포함하고, 상기 복수의 발광 센서는 순차적으로 발신 신호를 출력하는 것을 특징으로 하는 이동 로봇의 구동 장치.The light emitting unit includes a plurality of light emitting sensors per layer, and the plurality of light emitting sensors sequentially drive the mobile robot, characterized in that the output signal. 제1항에 있어서,The method of claim 1, 상기 수광부는 층별로 복수의 수광 센서를 포함하고, 상기 복수의 수광 센서는 상기 발광부에서 출력되며 상기 장애물에서 반사된 발신 신호를 순차적으로 수 신하는 것을 특징으로 하는 이동 로봇의 구동 장치.The light receiving unit includes a plurality of light receiving sensors for each floor, and the plurality of light receiving sensors are sequentially driven by the light emitting unit and receive the transmission signal reflected from the obstacle. 제1항에 있어서,The method of claim 1, 상기 장애물 인식부는, 상기 발광부에서 출력된 발신 신호가 상기 장애물에 반사되어 상기 수광부에 수신되는 시간을 이용하여 상기 장애물의 위치를 인식하는 것을 특징으로 하는 이동 로봇의 구동 장치.The obstacle recognizing unit recognizes the position of the obstacle by using the time when the outgoing signal output from the light emitting unit is reflected by the obstacle received by the light receiving unit. 제8항에 있어서,The method of claim 8, 상기 장애물 인식부는, 각 프레임 별로 상기 장애물의 위치를 인식하고, 상기 장애물의 프레임 별 위치 차를 이용하여 상기 장애물의 이동 속도 및 이동 방향을 인식하는 것을 특징으로 하는 이동 로봇의 구동 장치.The obstacle recognizing unit recognizes the position of the obstacle for each frame, and using the position difference for each frame of the obstacle to recognize the movement speed and the direction of movement of the obstacle robot. 제1항에 있어서,The method of claim 1, 상기 장애물 인식부는, 상기 장애물에서 반사되어 상기 수광부에 수신되는 수광 센서의 수를 이용하여 상기 장애물의 크기를 인식하는 것을 특징으로 하는 이동 로봇의 구동 장치.The obstacle recognizing unit recognizes the size of the obstacle using the number of light receiving sensors reflected from the obstacle received by the light receiving unit. 제1항에 있어서,The method of claim 1, 상기 제어부는, 상기 이동 로봇의 이동 중 상기 장애물이 인식되면, 상기 장애물의 크기, 위치, 이동 방향 및 이동 송도 중 적어도 하나를 고려하여 상기 이동 경로를 수정하여 상기 목적지까지 이동시키는 것을 특징으로 하는 이동 로봇의 구동 장치.When the obstacle is recognized during the movement of the mobile robot, the controller modifies the movement path in consideration of at least one of the size, position, movement direction, and movement trajectory of the obstacle, and moves the movement to the destination. Driving device of the robot. 제1항에 있어서,The method of claim 1, 상기 위치 인식부는 상기 이동 로봇의 위치 및 이동 경로를 표시하는 랜드마크(landmark)를 감지하는 감지 센서를 이용하여 상기 이동 로봇의 위치를 인식하는 것을 특징으로 하는 이동 로봇의 구동 장치.And the location recognizing unit recognizes a location of the mobile robot by using a sensor that detects a landmark indicating a location and a movement path of the mobile robot. 이동 로봇의 구동 방법에 있어서,In the driving method of a mobile robot, 이동 로봇의 위치 및 장애물의 위치를 인식하는 단계:Recognizing the position of the mobile robot and the position of the obstacle: 발광부와 상기 발광부에 대응되는 수광부가 교대로 층을 이루는 장애물 센서를 이용하여 상기 장애물의 크기, 위치, 이동 방향, 및 이동 속도 중 적어도 하나의 장애물 정보를 인식하는 단계; - 상기 발광부는, 제1전압 단자와 연결된 제1저항부, 상기 제1저항부와 연결되며 발신 신호를 출력하는 출력부, 및 상기 출력부를 접지 단자와 연결하며 상기 발신 신호를 변조하는 스위칭부를 포함함- 및Recognizing at least one obstacle information among a size, a position, a moving direction, and a moving speed of the obstacle using an obstacle sensor in which a light emitting unit and a light receiving unit corresponding to the light emitting unit alternately form a layer; The light emitting part includes a first resistor part connected to a first voltage terminal, an output part connected to the first resistor part and outputting an outgoing signal, and a switching part connecting the output part to a ground terminal and modulating the outgoing signal. -And 상기 장애물 정보를 이용하여 상기 이동 로봇의 이동 경로를 수정하는 단계를 포함하는 이동 로봇의 구동 방법.And modifying a movement path of the mobile robot using the obstacle information. 삭제delete 제13항에 있어서,The method of claim 13, 상기 발광부는 층별로 구성된 복수의 발광 센서가 서로 다른 주파수를 갖는 발신 신호를 출력하고, 상기 수광부는 상기 복수의 발광 센서에 대응되는 복수의 수광 센서가 상기 장애물에서 반사된 발신 신호를 주파수 별로 필터링하여 수신하는 것을 특징으로 하는 이동 로봇의 구동 방법.The light emitting unit outputs an outgoing signal having a different frequency from a plurality of light emitting sensors arranged in layers, and the light receiving unit filters out the outgoing signal reflected from the obstacle by a plurality of light receiving sensors corresponding to the plurality of light emitting sensors by frequency. A method of driving a mobile robot, characterized in that receiving. 제13항에 있어서,The method of claim 13, 상기 발광부는 층별로 구성된 복수의 발광 센서가 순차적으로 발신 신호를 출력하고, 상기 수광부는 상기 복수의 발광 센서에 대응되는 복수의 수광 센서가 상기 장애물에서 반사된 발신 신호를 순차적으로 수신하는 것을 특징으로 하는 이동 로봇의 구동 방법.The light emitting unit sequentially outputs a transmission signal by a plurality of light emitting sensors configured for each layer, and the light receiving unit sequentially receives a transmission signal reflected from the obstacle by a plurality of light receiving sensors corresponding to the plurality of light emitting sensors. Method of driving a mobile robot. 제13항에 있어서,The method of claim 13, 상기 장애물 정보를 인식하는 단계는, 상기 발광부에서 출력된 발신 신호가 상기 장애물에서 반사되어 상기 수광부에 수신되는 시간을 이용하여 상기 장애물의 위치를 인식하는 것을 특징으로 하는 이동 로봇의 구동 방법.Recognizing the obstacle information, the driving method of the mobile robot, characterized in that for recognizing the position of the obstacle using the time that the outgoing signal output from the light emitting unit is reflected from the obstacle received by the light receiving unit. 제13항에 있어서,The method of claim 13, 상기 장애물 정보를 인식하는 단계는, 상기 장애물에서 반사되어 상기 수광부에 수신되는 수광 센서의 수를 이용하여 상기 장애물의 크기를 인식하는 것을 특징으로 하는 이동 로봇의 구동 방법.Recognizing the obstacle information, the driving method of the mobile robot, characterized in that for recognizing the size of the obstacle using the number of light receiving sensors reflected from the obstacle received by the light receiving unit. 제13항에 있어서,The method of claim 13, 상기 장애물 정보를 인식하는 단계는, 각 프레임 별로 상기 장애물의 위치를 인식하고, 상기 장애물의 프레임 별 위치 차를 이용하여 상기 장애물의 이동 속도 및 이동 방향을 인식하는 것을 특징으로 하는 이동 로봇의 구동 방법.Recognizing the obstacle information, the location of the obstacle for each frame, the method of driving the mobile robot, characterized in that for recognizing the moving speed and the direction of movement of the obstacle using the position difference of each frame of the obstacle. .
KR1020090043107A 2009-05-18 2009-05-18 Apparatus for driving mobile robot and method for driving thereof KR101119788B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090043107A KR101119788B1 (en) 2009-05-18 2009-05-18 Apparatus for driving mobile robot and method for driving thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090043107A KR101119788B1 (en) 2009-05-18 2009-05-18 Apparatus for driving mobile robot and method for driving thereof

Publications (2)

Publication Number Publication Date
KR20100124058A KR20100124058A (en) 2010-11-26
KR101119788B1 true KR101119788B1 (en) 2012-03-12

Family

ID=43408415

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090043107A KR101119788B1 (en) 2009-05-18 2009-05-18 Apparatus for driving mobile robot and method for driving thereof

Country Status (1)

Country Link
KR (1) KR101119788B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102151790B1 (en) * 2020-01-21 2020-09-03 박진태 Robot furniture system and arrangement method for robot furniture
KR102772205B1 (en) * 2023-02-28 2025-02-21 강현욱 A rough terrain driving equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101386610B1 (en) * 2012-05-10 2014-04-29 경북대학교 산학협력단 remote portable robot system for monitoring and lighting, and control method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060084885A (en) * 2005-01-21 2006-07-26 황일규 Anti-collision device for mobile robot using infrared sensor
KR100692897B1 (en) * 2005-10-28 2007-03-12 엘지전자 주식회사 Mobile robot
KR20070066192A (en) * 2005-12-21 2007-06-27 재단법인 포항산업과학연구원 Method and device for location recognition of indoor mobile robot
KR20070109748A (en) * 2006-05-12 2007-11-15 삼성전자주식회사 Indoor Mapping Device and Method of Mobile Robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060084885A (en) * 2005-01-21 2006-07-26 황일규 Anti-collision device for mobile robot using infrared sensor
KR100692897B1 (en) * 2005-10-28 2007-03-12 엘지전자 주식회사 Mobile robot
KR20070066192A (en) * 2005-12-21 2007-06-27 재단법인 포항산업과학연구원 Method and device for location recognition of indoor mobile robot
KR20070109748A (en) * 2006-05-12 2007-11-15 삼성전자주식회사 Indoor Mapping Device and Method of Mobile Robot

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102151790B1 (en) * 2020-01-21 2020-09-03 박진태 Robot furniture system and arrangement method for robot furniture
KR20210094441A (en) * 2020-01-21 2021-07-29 박진태 Robot furniture system and arrangement method for robot furniture
KR102406448B1 (en) * 2020-01-21 2022-06-07 박진태 Robot furniture system and arrangement method for robot furniture
KR102772205B1 (en) * 2023-02-28 2025-02-21 강현욱 A rough terrain driving equipment

Also Published As

Publication number Publication date
KR20100124058A (en) 2010-11-26

Similar Documents

Publication Publication Date Title
US7860608B2 (en) Method and apparatus for generating and tracing cleaning trajectory of home cleaning robot
KR100600487B1 (en) Coordinate correction method of robot cleaner and robot cleaner system using same
JP4279703B2 (en) Autonomous mobile robot system
CN102818568B (en) The position fixing and navigation system of Indoor Robot and method
JP4763359B2 (en) Mobile robot object position recognition apparatus and method
JP5247494B2 (en) Autonomous mobile device
KR101505129B1 (en) Method for location recognization using system for location recognization and mapping using laser scanner
JP2005192994A (en) Cleaning robot and controlling method therefor
CN109154662A (en) Positioning using negative mapping
JP2009093308A (en) Robot system
US11675072B2 (en) Mobile robot and method of controlling the same
KR20100098997A (en) Robot cleaner and method for detecting position thereof
JP2018106695A (en) Method of operating autonomously traveling transfer vehicle
Zaki et al. Microcontroller-based mobile robot positioning and obstacle avoidance
JP2009237851A (en) Mobile object control system
US20200397207A1 (en) Robotic vacuum cleaner and control method therefor
JP2012014265A (en) Movable body
KR101119788B1 (en) Apparatus for driving mobile robot and method for driving thereof
KR100704486B1 (en) Automatic charging station return system and method for mobile robot
JP5439552B2 (en) Robot system
KR101634522B1 (en) Robot cleaner and controlling method of the same
KR101634521B1 (en) Robot cleaner and controlling method of the same
JP2010262461A (en) Mobile object
KR101290726B1 (en) Control method of robot cleaner
KR20230079670A (en) Path tracking device and method for agricultural self-driving robot.

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20090518

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20110419

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20111124

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20120216

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20120216

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20150213

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20150213

Start annual number: 4

End annual number: 4

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20170109