KR101119788B1 - Apparatus for driving mobile robot and method for driving thereof - Google Patents
Apparatus for driving mobile robot and method for driving thereof Download PDFInfo
- Publication number
- KR101119788B1 KR101119788B1 KR1020090043107A KR20090043107A KR101119788B1 KR 101119788 B1 KR101119788 B1 KR 101119788B1 KR 1020090043107 A KR1020090043107 A KR 1020090043107A KR 20090043107 A KR20090043107 A KR 20090043107A KR 101119788 B1 KR101119788 B1 KR 101119788B1
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- mobile robot
- unit
- light emitting
- light receiving
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000001914 filtration Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims 6
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은, 이동 로봇의 자율 주행 및 자율 주행시 장애물을 회피하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법에 관한 것으로, 이동 로봇의 위치 및 장애물의 위치를 인식하고, 상기 장애물의 크기, 위치, 이동 방향, 및 이동 속도 중 적어도 하나의 장애물 정보를 인식하며, 상기 장애물 정보를 이용하여 상기 이동 로봇의 이동 경로를 수정한다.The present invention relates to a device for driving a mobile robot and a method of driving the mobile robot which avoids obstacles during autonomous driving and autonomous driving of the mobile robot, and recognizes the position of the mobile robot and the position of the obstacle, and the size and position of the obstacle. Recognizes at least one obstacle information of the movement direction, and the moving speed, and corrects the movement path of the mobile robot by using the obstacle information.
Description
본 발명은 이동 로봇에 관한 것으로서, 특히 이동 로봇의 자율 주행 및 자율 주행시 장애물을 회피하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법에 관한 것이다.BACKGROUND OF THE
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일환으로 사용되거나, 인간이 작업을 수행할 수 없는 환경에서 인간을 대신하여 작업을 수행하는 데 사용되어 왔다. 이러한 로봇 분야는 근래에 들어 최첨단의 우주 개발 산업에 사용되면서 발전을 거듭하여 최근에 들어서는 인간 친화적인 가정용 로봇뿐만 아니라 의료용 기기를 대체하여 치료에까지 이용된다.In general, robots have been developed for industrial purposes and used as part of factory automation, or have been used to perform tasks on behalf of humans in environments in which humans cannot work. The robot field has recently been used in the state-of-the-art space development industry and has been evolving, replacing the medical device as well as the human-friendly home robot in recent years.
또한, 최근 이동 로봇 기술 개발이 활발해지면서 이동 로봇이 산업용 로봇, 청소용 로봇, 가정용 로봇, 교육용 로봇, 의료용 로봇 등의 다양한 형태로 이용되고 있다. 이러한 이동 로봇의 자율 주행 방식은 지도를 이동 로봇 자체에서 생성하고 상기 생성한 지도를 참조하여 주행하는 방식과, 청소 로봇 등과 같이 지도를 만들지 않고 랜덤하게 주행하는 방식이 있다.In addition, with the recent development of mobile robot technology, mobile robots are being used in various forms such as industrial robots, cleaning robots, home robots, educational robots, and medical robots. The autonomous driving method of the mobile robot includes a method of generating a map by the mobile robot itself and driving with reference to the generated map, and a method of randomly driving without making a map such as a cleaning robot.
이동 로봇의 자율 주행 방식에서 지도를 생성하고 생성한 지도를 참조하여 주행하는 방식은, 사람이 수동으로 이동 로봇을 끌고 다니거나 혹은 이동 로봇 스스로 다니면서 장애물을 감지하여 지도를 생성하게 된다. 여기서, 상기 이동 로봇의 바퀴 굴림에 의한 오도메트리(odometry) 정보를 이용하여 상기 이동 로봇의 이동 거리를 측정하며, 상기 측정한 이동 로봇의 이동 거리를 이용하여 지도를 생성한다. 이때, 상기 이동 로봇의 바퀴가 미끄러지거나 장애물에 걸렸을 경우, 상기 오도메트리 정보를 이용하여 이동 로봇의 이동 거리를 정확하게 측정할 수 없으며, 그에 따라 정확한 지도 생성이 어렵다.In the autonomous driving method of the mobile robot, a map is generated and the driving is performed by referring to the generated map, and a person generates a map by manually dragging the mobile robot or moving the robot by itself. Here, the moving distance of the mobile robot is measured using odometry information caused by the wheel rolling of the mobile robot, and a map is generated using the measured moving distance of the mobile robot. In this case, when the wheel of the mobile robot is slipped or caught in an obstacle, the moving distance of the mobile robot may not be accurately measured using the odometry information, and thus, accurate map generation is difficult.
또한, 상기 지도를 생성하고 생성한 지도를 이용하여 주행하는 방식은, 지도를 작성한 후 상기 작성한 지도를 참조하여 이동 로봇이 이동하기 위해 이동 로봇 스스로 위치를 인식하고, 자율 주행한다. 여기서, 상기 오도메트리 정보를 이용하여 이동 로봇이 자신의 위치를 인식한다. 이때, 상기 이동 로봇의 바퀴가 미끄러지거나 장애물에 걸렸을 경우, 오도메트리 정보를 이용하여 이동 로봇의 위치를 정확하게 측정할 수 없으며, 그에 따라 정확한 이동 로봇의 위치 인식이 어렵다.In addition, in the manner of generating the map and driving using the generated map, the mobile robot recognizes the position of the mobile robot and moves autonomously in order to move the robot by referring to the created map after creating the map. Here, the mobile robot recognizes its position using the odometry information. In this case, when the wheel of the mobile robot is slipped or caught in an obstacle, the position of the mobile robot cannot be accurately measured using odometry information, and thus, it is difficult to accurately recognize the location of the mobile robot.
다시 말해, 이동 로봇의 바퀴의 미끄러짐 또는 걸림 등에 의해 바퀴 굴림에 오류가 발생하고 상기 오류에 의해 잘못된 오도메트리 정보를 이용하여 이동 로봇의 이동 거리 측정 또는 이동 로봇의 위치 측정이 이루어짐으로, 정확한 지도 생성 및 이동 로봇의 위치 인식이 어려우며, 그에 따라 이동 로봇의 정상적인 자율 주행이 어렵다.In other words, an error occurs in the rolling of the wheel due to the sliding or locking of the wheel of the mobile robot, and the measurement of the moving distance of the mobile robot or the location of the mobile robot is performed by using incorrect odometry information. It is difficult to generate and recognize the position of the mobile robot, and thus, normal autonomous driving of the mobile robot is difficult.
아울러, 이동 로봇의 자율 주행 중 장애물 회피를 위해 센서(예컨대 적외선 또는 초음파 센서 등)를 이용하며, 상기 센서는 이동 로봇의 전면과 측면 등에 부착된다. 이때, 이동 로봇의 자율 주행 중 이동 로봇의 전방에 장애물이 존재할 경우, 상기 센서를 이용하여 장애물의 존재를 감지하고, 상기 오도메트리 정보를 이용하여 상기 장애물과의 거리 정보를 인식하며, 상기 장애물과의 거리 정보를 이용하여 상기 장애물을 회피한다. 여기서, 상기 장애물 회피시 장애물의 크기나 이동 방향 및 속도 등을 인식하지 못하고, 단순히 장애물과의 거리 정보만을 이용하여 장애물을 회피함에 따라 이동 로봇을 복잡한 실생활에 적용하기 어렵다.In addition, a sensor (eg, an infrared or ultrasonic sensor) is used to avoid obstacles during autonomous driving of the mobile robot, and the sensor is attached to the front and side surfaces of the mobile robot. At this time, if an obstacle exists in front of the mobile robot during autonomous driving of the mobile robot, the presence of the obstacle is detected using the sensor, the distance information with the obstacle is recognized using the odometry information, and the obstacle The obstacle is avoided by using the distance information with the. Here, when avoiding the obstacle, it is difficult to recognize the size, the moving direction, the speed, and the like of the obstacle, and it is difficult to apply the mobile robot to the complex real life by simply avoiding the obstacle using only the distance information with the obstacle.
따라서, 본 발명의 목적은, 이동 로봇의 위치와 이동 거리, 및 장애물을 정확하게 인식하여 이동 로봇의 자율 주행 및 자율 주행시 장애물을 회피하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a device for driving a mobile robot and a method for driving the mobile robot, which accurately recognizes a position, a moving distance, and an obstacle of the mobile robot to avoid obstacles during autonomous driving and autonomous driving of the mobile robot. .
또한, 본 발명의 다른 목적은, 랜드마크(landmark) 정보를 이용하여 이동 로봇의 이동 거리 및 위치를 정확하게 인식한 후 지도를 생성하고, 이동 로봇이 생성한 지도를 참조하여 최적의 경로로 자율 주행하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법을 제공함에 있다.In addition, another object of the present invention, by using the landmark (landmark) information to accurately recognize the moving distance and location of the mobile robot to generate a map, with reference to the map generated by the mobile robot autonomous driving in the optimal path The present invention provides a driving apparatus for a mobile robot and a driving method for the mobile robot.
아울러, 본 발명의 또 다른 목적은, 센서를 이용하여 자율 주행시 장애물의 크기, 위치, 이동 방향, 이동 속도 등을 인식하여 장애물을 효율적으로 회피하는 이동 로봇의 구동 장치 및 상기 이동 로봇의 구동 방법을 제공함에 있다.In addition, another object of the present invention, the driving device of the mobile robot and the method of driving the mobile robot to efficiently avoid the obstacle by recognizing the size, position, direction of movement, moving speed, etc. of the obstacle during autonomous driving using the sensor. In providing.
상기한 목적들을 달성하기 위한 본 발명의 방법은, 이동 로봇의 위치 및 장애물의 위치를 인식하는 단계: 상기 장애물의 크기, 위치, 이동 방향, 및 이동 속도 중 적어도 하나의 장애물 정보를 인식하는 단계; 및 상기 장애물 정보를 이용하여 상기 이동 로봇의 이동 경로를 수정하는 단계를 포함하는 것을 특징으로 한다.The method of the present invention for achieving the above object, the step of recognizing the position of the position and the obstacle of the mobile robot: Recognizing the obstacle information of at least one of the size, position, direction of movement, and movement speed of the obstacle; And modifying a movement path of the mobile robot using the obstacle information.
상기한 목적들을 달성하기 위한 본 발명의 장치는, 이동 로봇의 위치를 인식하는 위치 인식부; 발광부와 상기 발광부에 대응되는 수광부가 교대로 층을 이루는 장애물 센서를 이용하여 장애물의 크기, 위치, 이동 방향, 및 이동 속도 중 적어도 하나의 정보를 인식하는 장애물 인식부; 및 상기 이동 로봇의 위치와 상기 장애물을 고려하여 이동 경로를 생성하고, 상기 이동 로봇을 목적지까지 이동시키는 제어부를 포함하는 것을 특징으로 한다.An apparatus of the present invention for achieving the above objects, the position recognition unit for recognizing the position of the mobile robot; An obstacle recognition unit configured to recognize at least one of the size, position, movement direction, and movement speed of the obstacle using an obstacle sensor in which the light emitting unit and the light receiving unit corresponding to the light emitting unit are alternately layered; And a controller configured to generate a movement path in consideration of the position of the mobile robot and the obstacle, and to move the mobile robot to a destination.
본 발명은, 랜드마크 정보를 이용하여 이동 로봇의 위치와 이동 거리를 정확하게 인식함으로써, 정확한 지도를 생성하고 상기 생성한 지도를 참조하여 최적의 경로로 이동 로봇이 자율 주행하도록 할 수 있다. 그에 따라, 본 발명은 이동 로봇이 장애물 등의 외부 환경에 구애 받지 받고 효율적으로 자율 주행할 수 있다. 또한, 센서를 이용하여 장애물의 크기, 위치, 이동 방향, 이동 속도 등을 인식함으로써, 이동 로봇의 자율 주행시 장애물을 보다 효율적으로 회피할 수 있다. 그러므로, 본 발명은 다양한 장애물이 존재하는 실생활과 같이 복잡한 환경에 이동 로봇을 용이하게 적용할 수 있다.According to the present invention, by accurately recognizing the position and the moving distance of the mobile robot by using the landmark information, it is possible to generate an accurate map and to allow the mobile robot to autonomously travel in an optimal path with reference to the generated map. Accordingly, the present invention can efficiently run autonomously regardless of the external environment such as obstacles. In addition, by using the sensor to recognize the size, location, direction of movement, moving speed, etc. of the obstacle, it is possible to more efficiently avoid the obstacle during autonomous running of the mobile robot. Therefore, the present invention can easily apply a mobile robot to a complex environment such as real life in which various obstacles exist.
이하, 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 흩뜨리지 않도록 생략될 것이라는 것을 유의하여야 한다. 그러면 여기서, 도 1을 참조하여 본 발명의 실시예에 따른 이동 로봇의 구동 장치를 보다 구체적으로 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that in the following description, only parts necessary for understanding the operation according to the present invention will be described, and descriptions of other parts will be omitted so as not to distract from the gist of the present invention. Then, the driving device of the mobile robot according to the embodiment of the present invention will be described in more detail with reference to FIG. 1.
도 1은 본 발명의 실시예에 따른 이동 로봇의 구동 장치 구조를 개략적으로 도시한 도면이다.1 is a view schematically showing a structure of a driving device of a mobile robot according to an embodiment of the present invention.
도 1을 참조하면, 상기 이동 로봇의 구동 장치는, 이동 로봇의 자율 주행시 장애물을 감지하는 장애물 센서(105), 상기 장애물 센서(105)가 감지한 장애물을 인식하는 장애물 인식부(110), 이동 로봇의 이동 거리를 측정하는 거리 측정부(115), 상기 이동 로봇의 위치를 감지하는 위치 센서(120), 상기 위치 센서(120)가 감지한 이동 로봇의 위치를 인식하는 위치 인식부(125), 이동 로봇의 자율 주행 및 장애물 회피 등을 제어하는 제어부(130), 이동 로봇의 자율 주행을 위한 지도를 저장하는 저장부(135), 이동 로봇을 이동시키는 구동부(140), 및 이동 로봇에 전원을 공급하는 전원부(146)를 포함한다.Referring to FIG. 1, the driving device of the mobile robot may include an
상기 장애물 센서(105)는, N개의 센서 모듈이 M개의 층으로 배열된 다층 구조를 가지며, 적외선 또는 초음파 등을 이용하여 이동 로봇이 위치한 곳의 장애물을 감지하며, 장애물의 감지 신호를 장애물 인식부(110)로 전송한다. 여기서, 상기 장애물 센서(105)에 대해서는 도 4와 도 5를 참조하여 보다 구체적으로 설명하기로 한다.The
상기 장애물 인식부(110)는, 장애물 센서(105)로부터 장애물의 감지 신호를 수신하고, 상기 장애물의 감지 신호를 이용하여 상기 장애물 센서(105)가 감지한 장애물의 크기, 위치, 이동 방향, 및 이동 속도 등을 인식한다. 여기서, 상기 장애물 인식부(110)는 상기 장애물 센서(105)의 다층 구조로 배열된 각 센서 모듈과 장애물과의 거리를 계산하고, 상기 계산된 거리를 이용하여 장애물의 크기, 위치, 이동 방향, 및 이동 속도 등을 인식한다. 그리고, 상기 장애물 인식부(110)는 장애물의 크기, 위치, 이동 방향, 및 이동 속도 등을 제어부(130)로 제공한다. 여기서, 상기 장애물 인식부(110)에 대해서는 도 4와 도 5를 참조하여 보다 구체적으로 설명하기로 한다.The
상기 거리 측정부(115)는, 이동 로봇의 바퀴의 회전량을 계산하고, 상기 계산한 바퀴 회전량을 이용하여 이동 로봇의 이동 거리를 측정하며, 상기 이동 로봇의 이동 거리를 포함한 이동 거리 정보를 제어부(130)로 제공한다. 이때, 제어부(130)는 이동 로봇의 위치 및 이동 거리 인식을 위해 상기 위치 인식부(125)로부터 수신한 정보를 주로 활용하며, 상기 거리 측정부(115)로부터 수신한 정보는 보조적으로 활용한다.The
상기 위치 센서(120)는, 이동 로봇이 위치한 곳의 천정에 존재하는 랜드마크(landmark)를 감지하며, 랜드마크 감지 신호를 위치 인식부(125)로 전송한다. 여기서, 상기 위치 센서(120)는 상기 장애물 센서(105)와 같이 다층 구조를 가질 수 있으며, 적외선 또는 초음파 등을 이용하여 상기 랜드마크를 감지할 수 있다. 여기서, 이동 로봇을 자율 주행시키기 위한 장소(공간)의 천장에 각 위치 별로 해당 위치를 나타내는 상이한 마크가 사전에 표시됨에 따라 상기 랜드마크가 형성된다. 예컨대, 이동 로봇이 가정에서 자율 주행할 경우, 가정의 안방, 거실, 주방 등을 나타내는 상이한 마크가 안방, 거실, 주방 등의 천장에 각각 표시되며, 안방, 거실, 주방 등 간의 이동 경로 천장에도 각각 해당 위치를 나타내는 상이한 기호가 각각 표시된다. 그에 따라, 가정의 천정에 이동 로봇의 자율 주행시 이용할 랜드마크가 형성된다.The
상기 위치 인식부(125)는, 위치 센서(125)로부터 랜드 마크 감지 신호를 수 신하고, 상기 랜드마크 감지 신호를 이용하여 이동 로봇의 위치 및 이동 거리를 인식한다. 여기서, 상기 위치 인식부(125)는, 상기 랜드마크 감지 신호를 이용하여 이동 로봇이 위치한 곳의 천정에 존재하는 랜드마크를 확인함에 따라 이동 로봇의 위치를 인식한다. 그리고, 상기 위치 인식부(125)는, 이동 로봇이 이동하면 상기 이동에 따라 확인되는 랜드마크가 변경되며, 랜드마크의 변경을 고려하여 이동 로봇의 이동 거리를 인식한다. 그리고, 상기 위치 인식부(125)는 이동 로봇의 위치 및 이동 거리를 제어부(130)로 제공한다.The
상기 제어부(130)는, 상기 장애물 인식부(110)로부터 장애물의 위치, 크기, 이동 방향, 및 이동 속도 등을 제공받고, 상기 위치 인식부(125)로부터 이동 로봇의 이동 거리 및 위치를 제공받는다. 그리고, 상기 제어부(130)는 상기 제공받은 파라미터들을 이용하여 구동부(140)를 통해 이동 로봇을 구동시키고, 상기 이동 로봇을 제어한다. 또한, 상기 제어부(130)는, 상기 장애물 인식부(110)로부터 장애물의 크기 및 위치와, 상기 위치 인식부(125)로부터 제공받은 이동 로봇의 이동 거리 및 위치를 고려하여 이동 로봇의 자율 주행시 참조하는 지도를 생성한다. 그리고, 상기 제어부(130)는 상기 생성한 지도를 저장부(135)에 저장한다. 여기서, 상기 지도 생성은 이동 로봇의 자율 주행을 위한 사전 동작으로 이동 로봇의 이동 거리 및 위치, 장애물의 크기 및 위치를 고려하여 지도를 생성한다.The
또한, 상기 제어부(130)는, 지도를 참조한 이동 로봇의 자율 주행시 최적의 경로로 이동 로봇이 자율 주행하도록, 상기 지도에서 장애물을 고려하여 이동 로봇의 최적의 자율 주행 경로를 탐색하고, 탐색한 최적의 자율 주행 경로를 이동 로봇 의 자율 주행 경로로 설정한다. 그리고, 상기 제어부(130)는, 자율 주행시 상기 장애물 인식부(110)로부터 제공받은 장애물의 위치, 크기, 이동 방향, 및 이동 속도 등을 고려하여 상기 지도 상에서 최적의 경로로의 장애물 회피를 설정한다. 그에 따라, 상기 이동 로봇은 상기 설정한 최적의 경로로 장애물을 회피한다.In addition, the
상기 구동부(140)는 상기 제어부(130)의 제어에 의해 이동 로봇을 이동시키며, 전원부(145)가 공급한 전원에 의해 모터를 구동시켜 상기 이동 로봇을 이동시킨다. 그러면 여기서, 도 2 및 도 3을 참조하여 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서(105)를 보다 구체적으로 설명하기로 한다.The driving
도 2는 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서의 구조를 개략적으로 도시한 도면이고, 도 3은 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서의 회로도이다.2 is a view schematically illustrating a structure of an obstacle sensor in a driving apparatus of a mobile robot according to an embodiment of the present invention, and FIG. 3 is a circuit diagram of an obstacle sensor in a driving apparatus of a mobile robot according to an embodiment of the present invention.
도 2 및 도 3을 참조하면, 상기 장애물 센서(105)는 N개의 센서 모듈이 M개의 층으로 배열된 다층 구조, 예컨대 25개의 센서 모듈이 3개의 층으로 배열된 다층 구조(210)를 갖는다. 그리고, 각 센서 모듈은 발광부(220)와 수광부(230)를 각각 포함한다.2 and 3, the
상기 발광부(220)는 제1전압 단자와 연결된 제1저항부(305), 상기 제1저항부(310)와 연결되며 장애물의 거리를 감지하기 위한 신호를 방출하는 출력부(310), 및 상기 출력부(310)를 접지 단자와 연결하며 상기 출력부(310)가 방출하는 신호를 변조하는 스위칭부(315)를 포함한다. 그리고, 상기 수광부(230)는, 제2전압 단자와 연결된 제2저항부(320), 상기 제2저항부(320)와 접지 단자 간에 연결되며 장애물로 부터 반사되는 신호를 수신하는 수신부(325), 및 상기 수신부(325)가 수신한 신호를 필터링하는 필터(330)를 포함한다. 여기서, 상기 스위칭부(315)는 트랜지스터가 될 수 있으며, 상기 필터(330)는 수광부(230)로 입력된 신호에서 해당 센서 모듈의 신호만을 필터링하는 밴드 패스 필터(BPF: Band Pass Filter, 이하 'BPF'라 칭하기로 함)가 될 수 있다. 그리고, 상기 수신부(325)는 상기 발광부(220)의 출력부(310)로부터 방출된 신호가 장애물에서 반사되면 상기 반사된 신호를 수신한다.The
그리고, 각 센서 모듈은 상기 발광부(220)가 방출한 신호와 상기 수광부(230)가 수신한 신호를 이용하여 장애물을 감지하고, 상기 장애물의 감지 신호를 장애물 인식부(110)로 전송한다. 그리고, 상기 장애물 인식부(110)는 장애물 센서(105)의 각 센서 모듈로부터 상기 장애물의 감지 신호를 수신하고, 상기 장애물의 감지 신호를 이용하여 장애물의 위치, 크기, 이동 방향, 이동 속도 등을 인식한다.Each sensor module detects an obstacle using a signal emitted from the
보다 구체적으로 설명하면, 장애물의 거리를 감지하기 위해 각 센서 모듈의 발광부(220)가 신호를 방출하면, 상기 방출된 신호가 장애물에 반사되고, 상기 반사된 신호가 수광부(230)로 수신된다. 그러면, 상기 각 센서 모듈은 발광부(220)의 신호 방출 및 수광부(230)의 신호 수신에 따라 장애물의 감지 신호를 장애물 인식부(110)로 전송한다. 상기 장애물 인식부(110)는, 상기 발광부(220)에서 방출된 신호가 장애물에 반사되어 수광부(230)로 수신되는 시간을 계산하며, 상기 계산한 시간을 통해 각 센서 모듈과 장애물과의 거리를 계산하여 상기 장애물의 거리를 인식한다.In more detail, when the
그리고, 상기 장애물 인식부(110)는 각 센서 모듈과 장애물과의 거리를 계산한 후, 상기 계산한 거리를 조합하여 장애물의 위치, 크기를 인식한다. 예컨대, #1번 센서 모듈이 계산한 장애물과의 거리가 30이고, #2번, #3번, 및 #4번 센서 모듈이 계산한 장애물과의 거리가 20이며, #5번 센서 모듈이 계산한 장애물과의 거리가 30이면, 상기 장애물 인식부(110)는, 장애물이 이동 로봇과의 거리가 20인 곳에 위치함으로 인식하고, 상기 #2번, #3번, 및 #4번 센서 모듈 간의 거리를 통해 장애물의 크기를 인식한다. 또한, 각 센서 모듈의 발광부(220)가 초당 15번의 신호를 방출하고, 그에 상응하여 수광부(230)가 반사된 신호를 수신하면, 초당 15 프레임에서 장애물의 거리, 크기, 및 위치를 인식하게 되며, 각 프레임에서 장애물의 거리, 크기, 및 위치 간 차를 이용하여 장애물의 이동 속도 및 이동 방향을 인식한다. 이렇게 장애물의 거리, 위치, 크기, 이동 속도, 및 이동 방향을 인식한 후, 상기 장애물 인식부(110)는, 상기 장애물의 거리, 위치, 크기, 이동 속도, 및 이동 방향을 포함한 장애물 정보를 제어부(130)로 제공한다.The
여기서, 각 센서 모듈에서 #1번 센서 모듈의 발광부가 신호를 방출하면, 상기 방출된 신호가 장애물에서 반사되고, 상기 반사된 신호가 각 센서 모듈의 모든 수광부로 입력될 경우, 장애물 인식부(110)가 각 센서 모듈과 장애물과의 정확한 거리 계산이 어려울 수 있으나, 각 센서 모듈이 후술할 두가지 방식으로 장애물을 감지함에 따라 상기 장애물 인식부(110)는 장애물과의 거리를 정확하게 계산한다.Here, when the light emitting unit of the
우선, 제1방식부터 설명하면, 각 센서 모듈의 발광부는 각각 서로 다른 주파수를 갖는 신호를 방출하고, 상기 서로 다른 주파수를 갖는 신호는 장애물에서 반 사되어 각 센서 모듈의 모든 수광부로 입력된다. 여기서, 상기 수광부는 각 센서 모듈에 해당하는 주파수의 신호만을 필터링하는 BPF를 포함한다. 그러므로, 상기 서로 다른 주파수를 갖는 신호를 수신한 각 센서 모듈의 수광부는, BPF를 이용하여 상기 서로 다른 주파수를 갖는 신호에서 해당하는 센스 모듈의 신호를 필터링한다.First, from the first method, the light emitting units of the respective sensor modules emit signals having different frequencies, and the signals having the different frequencies are reflected from obstacles and input to all light receiving units of the respective sensor modules. Here, the light receiving unit includes a BPF for filtering only a signal having a frequency corresponding to each sensor module. Therefore, the light receiving unit of each sensor module receiving the signals having different frequencies filters the signals of the corresponding sense modules from the signals having different frequencies using BPF.
즉, 상기 각 센스 모듈은 장애물을 감지하기 위해 각각 서로 다른 주파수를 갖는 신호를 방출하고, 장애물로부터 반사된 신호에서 BPF를 이용하여 자신에게 해당하는 주파수를 갖는 신호만을 필터링 수신한다. 이렇게 상기 각 센스 모듈이 자신에게 해당하는 신호만을 방출 및 수신함에 따라, 상기 장애물 인식부(110)는 각 센서 모듈과 장애물과의 거리를 정확하게 계산할 수 있으며, 전술한 바와 같이 계산한 장애물과의 거리를 조합하여 장애물의 위치, 크기를 인식하며, 또한 각 프레임에서 장애물의 거리, 크기, 및 위치 간 차를 이용하여 장애물의 이동 속도 및 이동 방향을 인식한다.That is, each of the sense modules emits signals having different frequencies to detect obstacles, and filters and receives only signals having frequencies corresponding to them by using BPF from signals reflected from the obstacles. As the sense module emits and receives only a signal corresponding to the sensor, the
그리고, 제2방식을 설명하면, 각 센서 모듈의 발광부는 각 센서 모듈 별로 순차적으로 신호를 방출하고, 상기 방출된 신호는 장애물에서 반사되어 각 센서 모듈의 수광부에서 수신된다. 여기서, 각 센서 모듈의 수광부는 각 센서 모듈 별로 순차적으로 전원이 온(on)되어 반사된 신호를 수신한다. 다시 말해, #1번 센서 모듈의 발광부의 전원이 온되어 신호를 방출하면, 상기 #1번 센서 모듈의 수광부의 전원만 온되며, 장애물에서 반사된 신호를 상기 #1번 센서 모듈의 수광부만 수신한다. 그리고, #2번 센서 모듈의 발광부 및 수광부, #3번 센서 모듈의 발광부 및 수광가 순차적으로 전원이 온되며, 마지막 센서 모듈의 발광부 및 수광부까지 순차적 으로 전원이 온됨에 따라 각 센서 모듈에서 신호의 방출 및 수신이 각 센서 모듈 별로 순차적으로 이루어진다. 여기서, 각 센서 모듈의 발광부 및 수광부의 전원은 해당 센서 모듈의 발광부 및 수광부의 전원만 온되고, 나머지 센서 모듈의 발광부 및 수광부의 전원은 오프(off)되며, 각 센서 모듈의 발광부 및 수광부의 전원 온/오프는 제어부(130)로부터 제어된다.In the second method, the light emitting unit of each sensor module sequentially emits a signal for each sensor module, and the emitted signal is reflected from an obstacle and received by the light receiving unit of each sensor module. Here, the light receiving unit of each sensor module receives the reflected signal by sequentially turning on the power for each sensor module. In other words, when the light emitting unit of the
이렇게 각 센서 모듈에서 신호의 방출 및 수신이 각 센서 모듈 별로 순차적으로 이루어짐에 따라, 상기 장애물 인식부(110)는 각 센서 모듈과 장애물과의 거리를 정확하게 계산할 수 있다. 그리고, 상기 장애물 인식부(110)는, 전술한 바와 같이 계산한 장애물과의 거리를 조합하여 장애물의 위치, 크기를 인식하며, 또한 각 프레임에서 장애물의 거리, 크기, 및 위치 간 차를 이용하여 장애물의 이동 속도 및 이동 방향을 인식한다. 그러면 여기서, 도 4를 참조하여 이동 로봇의 자율 주행시 참조하는 지도를 생성하는 사전 동작 과정을 구체적으로 설명하기로 한다.As the emission and reception of signals in each sensor module are sequentially performed for each sensor module, the
도 4는 본 발명의 실시예에 따른 이동 로봇의 구동 장치의 지도 생성 과정을 개략적으로 도시한 도면이다.4 is a diagram schematically illustrating a map generation process of a driving device of a mobile robot according to an exemplary embodiment of the present invention.
도 4를 참조하면, S410단계에서 이동 로봇이 이동할 경로를 사전에 인식하도록 이동 로봇이 위치한 곳의 천정에 존재하는 랜드마크를 감지하고, 상기 감지한 랜드마크의 위치 및 방향을 계산하고, 상기 계산된 랜드마크의 위치 및 방향을 이용하여 이동 로봇의 위치 및 이동 거리를 인식한다.Referring to FIG. 4, in step S410, a landmark existing on a ceiling of a location where a mobile robot is located is detected in advance so that the mobile robot recognizes a path to be moved, and the location and direction of the detected landmark are calculated, and the calculation is performed. The location and the movement distance of the mobile robot are recognized using the location and direction of the landmark.
그리고, S420단계에서, 상기 인식한 이동 로봇의 위치를 이용하여 이동 로봇이 이동하는 경로를 거리로 계산하며, 그에 따라 상기 이동 로봇의 이동 거리를 계 산한다. 여기서, 상기 이동 로봇의 이동 거리는 이동 로봇의 바퀴의 회전량을 계산하고, 상기 계산한 바퀴 회전량을 이용하여 이동 로봇의 이동 거리를 측정하며, 상기 측정한 이동 로봇의 이동 거리를 이용하여 계산할 수도 있다.In operation S420, a path for moving the mobile robot using the recognized position of the mobile robot is calculated as a distance, and accordingly, a moving distance of the mobile robot is calculated. Here, the moving distance of the mobile robot may calculate the amount of rotation of the wheel of the mobile robot, measure the moving distance of the mobile robot using the calculated amount of wheel rotation, and calculate the calculated distance using the measured moving distance of the mobile robot. have.
또한, S430단계에서 다층 구조를 갖는 센서 모듈을 이용하여 장애물의 거리를 계산하고, 상기 장애물의 거리를 이용하여 장애물의 크기 및 위치를 인식한다. 그런 다음, S440단계에서 상기 이동 로봇의 위치와 이동 거리, 및 상기 장애물의 크기와 위치를 이용하여 지도를 생성한다. 그러면 여기서, 도 5를 참조하여 이동 로봇의 자율 주행을 위한 사전 동작으로 지도가 생성되면, 상기 생성된 지도를 참조한 이동 로봇의 자율 주행 및 자율 주행시 장애물 회피를 설명하기로 한다.In operation S430, the distance of the obstacle is calculated using a sensor module having a multilayer structure, and the size and location of the obstacle are recognized using the distance of the obstacle. Then, in step S440 generates a map using the location and the moving distance of the mobile robot, and the size and location of the obstacle. Then, when a map is generated by a pre-operation for autonomous driving of the mobile robot with reference to FIG. 5, obstacle avoidance during autonomous driving and autonomous driving of the mobile robot with reference to the generated map will be described.
도 5는 본 발명의 실시예에 따른 이동 로봇의 자율 주행 동작 과정을 개략적으로 도시한 도면이다.5 is a diagram schematically illustrating an autonomous driving operation process of a mobile robot according to an exemplary embodiment of the present invention.
도 5를 참조하면, S510단계에서 이동 로봇이 자율 주행으로 이동할 목적지를 입력받는다. 그리고, S520단계에서 도 4에서 설명한 바와 같이 사전 생성된 지도를 참조하여 상기 입력된 목적지까지 이동 로봇이 자율 주행할 최적의 경로를 설정한다. 다음으로, S530단계에서 이동 로봇이 위치한 곳의 천정에 존재하는 랜드마크를 감지하고, 상기 감지한 랜드마크의 위치를 이용하여 이동 로봇의 위치를 인식하며, 상기 설정된 최적의 경로로 자율 주행을 시작한다.Referring to FIG. 5, in step S510, the mobile robot receives a destination to be moved by autonomous driving. In operation S520, the mobile robot automatically sets an optimal route to the input destination by referring to the previously generated map as described with reference to FIG. 4. Next, in step S530 it detects the landmark on the ceiling of the location where the mobile robot is located, recognizes the location of the mobile robot by using the detected position of the landmark, and starts autonomous driving in the optimal path set do.
S540단계에서 상기 설정된 최적의 경로로 자율 주행하는 중에 장애물의 존재 여부를 확인한다. 여기서, 상기 장애물의 존재 여부 확인은, 앞서 설명한 바와 같이 각 센서 모듈의 발광부가 장애물을 감지하기 위한 신호를 방출하고, 상기 각 센 서 모듈의 수광부가 장애물로부터 반사된 신호를 수신함으로 이루어진다.In step S540, the existence of an obstacle is checked while autonomous driving is performed in the optimal path. In this case, the existence of the obstacle is determined by the light emitting unit of each sensor module emitting a signal for detecting the obstacle as described above, and the light receiving unit of each sensor module receives a signal reflected from the obstacle.
상기 S540단계에서의 확인 결과 장애물이 존재하면, S550단계에서 장애물과의 거리를 계산하고, 상기 계산한 거리를 조합하여 장애물의 위치, 크기를 인식하며, 각 프레임에서 장애물의 거리, 크기, 및 위치 간 차를 이용하여 장애물의 이동 속도 및 이동 방향을 인식한다. 그리고, S560단계에서 장애물의 위치, 크기, 이동 방향, 이동 속도 등을 고려하여 상기 설정한 최적의 경로로부터 상기 생성한 지도상에서 최적의 경로로의 장애물 회피를 설정한다.If there is an obstacle as a result of the check in step S540, in step S550, the distance to the obstacle is calculated, and the position and size of the obstacle are recognized by combining the calculated distances. Using the difference between the vehicle to recognize the moving speed and direction of the obstacle. In step S560, the obstacle avoidance from the set optimal path to the optimal path on the generated map is set in consideration of the position, the size, the moving direction, the moving speed, and the like of the obstacle.
그런 다음, S570단계에서 상기 설정한 장애물 회피를 통해 상기 확인된 장애물을 회피한다. 그리고, S580단계에서 최적의 경로로 자율 주행하여 입력된 목적지에 도착하며, 상기 이동 로봇이 도착한 위치의 천정에 존재하는 랜드마크를 감지하고, 상기 감지한 랜드마크의 위치를 이용하여 이동 로봇의 위치를 인식한다.Then, the identified obstacle is avoided through the obstacle avoidance set in the step S570. In operation S580, the autonomous vehicle arrives at the input destination by autonomous driving in an optimal path, and detects a landmark existing on the ceiling of the location where the mobile robot arrives, and uses the location of the detected landmark to locate the mobile robot. Recognize.
한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the scope of the following claims, but also by the equivalents of the claims.
도 1은 본 발명의 실시예에 따른 이동 로봇의 구동 장치 구조를 개략적으로 도시한 도면.1 is a view schematically showing a structure of a driving device of a mobile robot according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서의 구조를 개략적으로 도시한 도면.2 is a view schematically showing the structure of an obstacle sensor in a driving device of a mobile robot according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 이동 로봇의 구동 장치에서 장애물 센서의 회로도.3 is a circuit diagram of an obstacle sensor in a driving device of a mobile robot according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 이동 로봇의 구동 장치의 지도 생성 과정을 개략적으로 도시한 도면.4 is a view schematically illustrating a map generation process of a driving device of a mobile robot according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 이동 로봇의 자율 주행 동작 과정을 개략적으로 도시한 도면.5 is a view schematically showing a process of autonomous driving of a mobile robot according to an embodiment of the present invention.
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090043107A KR101119788B1 (en) | 2009-05-18 | 2009-05-18 | Apparatus for driving mobile robot and method for driving thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090043107A KR101119788B1 (en) | 2009-05-18 | 2009-05-18 | Apparatus for driving mobile robot and method for driving thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100124058A KR20100124058A (en) | 2010-11-26 |
KR101119788B1 true KR101119788B1 (en) | 2012-03-12 |
Family
ID=43408415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090043107A KR101119788B1 (en) | 2009-05-18 | 2009-05-18 | Apparatus for driving mobile robot and method for driving thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101119788B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102151790B1 (en) * | 2020-01-21 | 2020-09-03 | 박진태 | Robot furniture system and arrangement method for robot furniture |
KR102772205B1 (en) * | 2023-02-28 | 2025-02-21 | 강현욱 | A rough terrain driving equipment |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101386610B1 (en) * | 2012-05-10 | 2014-04-29 | 경북대학교 산학협력단 | remote portable robot system for monitoring and lighting, and control method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060084885A (en) * | 2005-01-21 | 2006-07-26 | 황일규 | Anti-collision device for mobile robot using infrared sensor |
KR100692897B1 (en) * | 2005-10-28 | 2007-03-12 | 엘지전자 주식회사 | Mobile robot |
KR20070066192A (en) * | 2005-12-21 | 2007-06-27 | 재단법인 포항산업과학연구원 | Method and device for location recognition of indoor mobile robot |
KR20070109748A (en) * | 2006-05-12 | 2007-11-15 | 삼성전자주식회사 | Indoor Mapping Device and Method of Mobile Robot |
-
2009
- 2009-05-18 KR KR1020090043107A patent/KR101119788B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060084885A (en) * | 2005-01-21 | 2006-07-26 | 황일규 | Anti-collision device for mobile robot using infrared sensor |
KR100692897B1 (en) * | 2005-10-28 | 2007-03-12 | 엘지전자 주식회사 | Mobile robot |
KR20070066192A (en) * | 2005-12-21 | 2007-06-27 | 재단법인 포항산업과학연구원 | Method and device for location recognition of indoor mobile robot |
KR20070109748A (en) * | 2006-05-12 | 2007-11-15 | 삼성전자주식회사 | Indoor Mapping Device and Method of Mobile Robot |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102151790B1 (en) * | 2020-01-21 | 2020-09-03 | 박진태 | Robot furniture system and arrangement method for robot furniture |
KR20210094441A (en) * | 2020-01-21 | 2021-07-29 | 박진태 | Robot furniture system and arrangement method for robot furniture |
KR102406448B1 (en) * | 2020-01-21 | 2022-06-07 | 박진태 | Robot furniture system and arrangement method for robot furniture |
KR102772205B1 (en) * | 2023-02-28 | 2025-02-21 | 강현욱 | A rough terrain driving equipment |
Also Published As
Publication number | Publication date |
---|---|
KR20100124058A (en) | 2010-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7860608B2 (en) | Method and apparatus for generating and tracing cleaning trajectory of home cleaning robot | |
KR100600487B1 (en) | Coordinate correction method of robot cleaner and robot cleaner system using same | |
JP4279703B2 (en) | Autonomous mobile robot system | |
CN102818568B (en) | The position fixing and navigation system of Indoor Robot and method | |
JP4763359B2 (en) | Mobile robot object position recognition apparatus and method | |
JP5247494B2 (en) | Autonomous mobile device | |
KR101505129B1 (en) | Method for location recognization using system for location recognization and mapping using laser scanner | |
JP2005192994A (en) | Cleaning robot and controlling method therefor | |
CN109154662A (en) | Positioning using negative mapping | |
JP2009093308A (en) | Robot system | |
US11675072B2 (en) | Mobile robot and method of controlling the same | |
KR20100098997A (en) | Robot cleaner and method for detecting position thereof | |
JP2018106695A (en) | Method of operating autonomously traveling transfer vehicle | |
Zaki et al. | Microcontroller-based mobile robot positioning and obstacle avoidance | |
JP2009237851A (en) | Mobile object control system | |
US20200397207A1 (en) | Robotic vacuum cleaner and control method therefor | |
JP2012014265A (en) | Movable body | |
KR101119788B1 (en) | Apparatus for driving mobile robot and method for driving thereof | |
KR100704486B1 (en) | Automatic charging station return system and method for mobile robot | |
JP5439552B2 (en) | Robot system | |
KR101634522B1 (en) | Robot cleaner and controlling method of the same | |
KR101634521B1 (en) | Robot cleaner and controlling method of the same | |
JP2010262461A (en) | Mobile object | |
KR101290726B1 (en) | Control method of robot cleaner | |
KR20230079670A (en) | Path tracking device and method for agricultural self-driving robot. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20090518 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20110419 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20111124 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20120216 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20120216 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20150213 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20150213 Start annual number: 4 End annual number: 4 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20170109 |