KR101234799B1 - Method and apparatus for controlling movement of robot - Google Patents

Method and apparatus for controlling movement of robot Download PDF

Info

Publication number
KR101234799B1
KR101234799B1 KR1020060011822A KR20060011822A KR101234799B1 KR 101234799 B1 KR101234799 B1 KR 101234799B1 KR 1020060011822 A KR1020060011822 A KR 1020060011822A KR 20060011822 A KR20060011822 A KR 20060011822A KR 101234799 B1 KR101234799 B1 KR 101234799B1
Authority
KR
South Korea
Prior art keywords
pointer
mobile robot
image
image frame
frame
Prior art date
Application number
KR1020060011822A
Other languages
Korean (ko)
Other versions
KR20070080479A (en
Inventor
박동렬
방석원
이형기
명현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060011822A priority Critical patent/KR101234799B1/en
Publication of KR20070080479A publication Critical patent/KR20070080479A/en
Application granted granted Critical
Publication of KR101234799B1 publication Critical patent/KR101234799B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 이동 로봇 제어 장치 및 방법에 관한 것이다. The present invention relates to a mobile robot control apparatus and method.

본 발명의 실시예에 따른 이동 로봇 제어 방법은 이동 명령이 수신되면 이동 로봇을 정지 상태에서 회전시키면서 소정의 주기 마다 영상 프레임을 생성하는 단계, 상기 생성된 영상 프레임을 사용하여 포인터를 검출하는 단계, 및 상기 검출된 포인터의 위치로 상기 이동 로봇을 이동시키는 단계를 포함한다.According to an embodiment of the present invention, a method of controlling a mobile robot may include generating an image frame at predetermined intervals while rotating the mobile robot in a stationary state when a movement command is received, detecting a pointer using the generated image frame; And moving the mobile robot to a position of the detected pointer.

이동 로봇, 리모콘 Mobile robot, remote control

Description

이동 로봇 제어 장치 및 방법{Method and apparatus for controlling movement of robot}Mobile robot control apparatus and method {Method and apparatus for controlling movement of robot}

도 1은 본 발명의 일 실시예에 따른 이동 로봇 제어 시스템을 개략적으로 나타낸 도면이다.1 is a view schematically showing a mobile robot control system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 이동 로봇 제어 장치를 나타낸 블록도이다.2 is a block diagram showing a mobile robot control apparatus according to an embodiment of the present invention.

도 3a는 영상 프레임을 생성하도록 지시하는 제어 신호와 지시광을 조사하도록 지시하는 제어 신호의 타이밍도이다.3A is a timing diagram of a control signal for instructing to generate an image frame and a control signal for irradiating the indicator light.

도 3b는 본 발명의 일 실시예에 따른 이동 로봇이 촬영한 영상 프레임을 나타낸 도면이다. 3B is a view showing an image frame photographed by a mobile robot according to an embodiment of the present invention.

도 4a 및 도 4b는 본 발명의 일 실시예에 따른 차분 프레임 생성 과정을 나타낸 도면이다. 4A and 4B are views illustrating a difference frame generation process according to an embodiment of the present invention.

도 5는 연속된 영상 프레임을 나타낸 도면이다. 5 illustrates a series of image frames.

도 6은 본 발명의 일 실시예에 따른 이동 로봇 제어 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a mobile robot control method according to an embodiment of the present invention.

도 7은 영상 프레임을 통한 위치 및 방향 감지 방식을 설명하기 위한 도면이다. 7 is a view for explaining a position and direction detection method through an image frame.

<도면의 주요 부분에 관한 부호의 설명>DESCRIPTION OF THE REFERENCE NUMERALS

110 : 수신부 120 : 주행 관리부110: receiving unit 120: driving management unit

130 : 제어부 140 : 촬영부130: control unit 140: recording unit

150 : 영상 프레임 처리부 160 : 포인터 검출부150: image frame processing unit 160: pointer detection unit

본 발명은 이동 로봇에 관한 것으로서, 더욱 상세하게는 이동 로봇을 이동시키기 위한 제어 방법 및 장치에 관한 것이다.The present invention relates to a mobile robot, and more particularly to a control method and apparatus for moving a mobile robot.

일반적으로 로봇은 산업용으로 개발되어 공장자동화의 일환으로 사용되거나, 인간이 견딜 수 없는 극한의 환경에서 인간을 대신하여 작업을 수행하는 데 사용되어 왔다. 이러한 로봇 공학분야는 근래에 들어 최첨단의 우주개발산업에 사용되면서 발전을 거듭하여 최근에 들어서는 인간친화적인 가정용 로봇의 개발에까지 이르렀다. 덧붙여, 로봇은 의료용 기기를 대체하여 인간 생체 내에 투입됨으로써, 기존의 의료용 기기로는 치료가 불가능했던 미세한 인간 생체조직의 치료에까지 이용된다. 이와 같은 눈부신 로봇공학의 발전은 인터넷에 의한 정보혁명과 이를 뒤이어 유행하고 있는 생명공학분야를 대체하여 새롭게 등장할 최첨단 분야로서 각광받고 있다.In general, robots have been developed for industrial purposes and used as part of factory automation, or have been used to perform tasks on behalf of humans in extreme environments that humans cannot tolerate. This field of robotics has recently been used in the state-of-the-art space development industry and has evolved to the development of human-friendly home robots. In addition, the robot is used in the human body instead of the medical device, and thus is used for the treatment of the minute human biological tissue which was impossible to treat with the conventional medical device. The development of such dazzling robotics has been spotlighted as a cutting-edge field that will newly emerge in place of the information revolution by the Internet and the biotechnology field that is popular.

이 중 상기 가정용 로봇은 산업용 로봇에 국한되어왔던 기존의 중공업 중심의 로봇공학분야를 경공업 중심의 로봇공학 분야까지 확대시킨 주역으로서 가장 기 본적으로 상기되는 것으로 청소용 로봇을 그 예로 들 수 있다. 이러한 상기 청소용 로봇은 보통 이동을 위한 구동수단과, 청소를 위한 청소 수단 그리고, 전방위 장애물을 감지하기 위한 감시수단 등으로 구성되어 있다.Among them, the robot for home use is the main role, which is the main role of expanding the existing heavy industry-oriented robotics field into the light industry-oriented robotics field, which has been limited to industrial robots. The cleaning robot is usually composed of a driving means for movement, a cleaning means for cleaning, and a monitoring means for detecting an omnidirectional obstacle.

일반적으로, 상기 구동수단은 구동력을 발휘하기 위한 구동모터와, 상기 구동모터에 의해 구동되는 무한궤도 또는 소정직경의 바퀴와, 구동을 제어하기 위한 구동 제어회로 등으로 구성되어 있다. 그리고, 상기 청소수단은 먼지 등을 집진하여 제거하기 위한 집진기 등과, 집진행동을 제어하기 위한 집진 제어회로 등으로 구성되어 있다. 또한, 상기 감시수단은 전방위 장애물을 포착하기 위한 감시용 카메라와, 상기 감시용 카메라로 포착되는 영상을 사용자에게 전송하기 위한 전송장치로 구성되어 있다.In general, the drive means is composed of a drive motor for exerting a driving force, a wheel having a track or a predetermined diameter driven by the drive motor, a drive control circuit for controlling the drive and the like. The cleaning means includes a dust collector for collecting and removing dust and the like, and a dust collecting control circuit for controlling the dust collecting behavior. In addition, the monitoring means is composed of a surveillance camera for capturing omnidirectional obstacles, and a transmission device for transmitting an image captured by the surveillance camera to the user.

이러한 이동 로봇은 스스로 움직이면서 할당된 작업을 수행하지만, 경우에 따라서는 원하는 위치로 이동 로봇을 이동시키기 위하여 사용자가 직접 이동 로봇을 들고 이동시키게 되기도 한다. 따라서 이동 로봇을 간편히 원하는 위치까지 이동시키기 위한 기술이 요구된다. Such a mobile robot performs assigned tasks while moving by itself, but in some cases, a user directly moves the mobile robot in order to move the mobile robot to a desired position. Therefore, a technique for simply moving a mobile robot to a desired position is required.

본 발명은 이동 로봇을 사용자가 원하는 위치로 간편히 이동시키는데 그 목적이 있다.It is an object of the present invention to simply move a mobile robot to a location desired by a user.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 이동 로봇 제어 방법은 이동 명령이 수신되면 이동 로봇을 정지 상태에서 회전시키면서 소정의 주기 마다 영상 프레임을 생성하는 단계, 상기 생성된 영상 프레임을 사용하여 포인터를 검출하는 단계, 및 상기 검출된 포인터의 위치로 상기 이동 로봇을 이동시키는 단계를 포함한다. In order to achieve the above object, the method for controlling a mobile robot according to an embodiment of the present invention generates an image frame at predetermined intervals while rotating the mobile robot in a stationary state when a movement command is received, using the generated image frame. Detecting a pointer, and moving the mobile robot to a position of the detected pointer.

상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 이동 로봇 제어 장치는 이동 명령이 수신되면 소정의 주기 마다 영상 프레임을 생성하는 촬영부, 상기 생성된 영상 프레임에서 포인터를 검출하는 포인터 검출부, 및 상기 이동 명령이 수신되면 이동 로봇을 정지 상태에서 회전시키고, 상기 포인터가 검출되면 상기 포인터의 위치로 상기 이동 로봇을 이동시키는 주행 관리부를 포함한다. In order to achieve the above object, a mobile robot control apparatus according to an embodiment of the present invention, the photographing unit for generating an image frame every predetermined period when a movement command is received, a pointer detector for detecting a pointer in the generated image frame, and And a travel management unit configured to rotate the mobile robot in a stationary state when the movement command is received and to move the mobile robot to a position of the pointer when the pointer is detected.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Specific details of other embodiments are included in the detailed description and the drawings.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 이동 로봇 제어 시스템을 개략적으로 나타낸 도면이다. 도시된 이동 로봇 제어 시스템은 이동 로봇(100)과 리모콘(200)을 포함한다. 1 is a view schematically showing a mobile robot control system according to an embodiment of the present invention. The illustrated mobile robot control system includes a mobile robot 100 and a remote controller 200.

리모콘(200)은 지시광(10)을 출력한다. 지시광(10)의 포인팅 위치(30)는 이동 로봇(100)의 목적지를 지시하는 포인터가 된다. 리모콘(200)은 일정 주기마다 지시광(10)을 조사할 수 있다. 지시광(10)으로는 IR 레이져가 사용되는 것이 바람직하다. 그러나, 본 발명은 지시광(10)의 종류에 제한되지 않는다.The remote controller 200 outputs the indicator light 10. The pointing position 30 of the indicator light 10 becomes a pointer indicating the destination of the mobile robot 100. The remote controller 200 may irradiate the indicator light 10 at regular intervals. As the indicator light 10, an IR laser is preferably used. However, the present invention is not limited to the kind of the indicator light 10.

또한 리모콘(200)은 이동 로봇(100)에게 이동 명령 신호를 전송한다. 이동 신호로는 소정 주파수 대의 RF 신호가 사용될 수 있다. 이동 명령 신호는 이동 로봇(100)의 영상 촬영 시점을 지시광(10)의 조사 시점과 동기화시키는 동기화 정보를 포함한 수 있다. In addition, the remote controller 200 transmits a movement command signal to the mobile robot 100. An RF signal of a predetermined frequency band may be used as the moving signal. The movement command signal may include synchronization information for synchronizing an image photographing time point of the mobile robot 100 with an irradiation time point of the indicator light 10.

이동 로봇(100)은 주행 및 정지 상태에서의 회전이 가능하다. 또한 이동 로봇은 주변 영상을 촬영하고, 촬영된 영상을 통해서 포인터를 검출하는 기능을 갖는다. The mobile robot 100 may rotate in a driving and stopping state. In addition, the mobile robot has a function of capturing a surrounding image and detecting a pointer through the captured image.

이동 로봇(100)을 특징 위치로 이동시키려는 경우, 사용자는 리모콘(200)을 사용하여 원하는 지점에 지시광(10)을 조사시킬 수 있다. 사용자가 지시광(10)의 포인팅 위치(30)를 시각적으로 감지할 수 있도록 하기 위하여, 리모콘(200)은 지시광(10)과 함께 가시광(20)을 조사시킬 수 있다. 따라서 사용자는 가시광의 조사 지점을 확인함으로써, 포인팅 위치(30)를 조절할 수 있다. In order to move the mobile robot 100 to a feature position, the user may irradiate the indicator light 10 to a desired point by using the remote controller 200. In order to enable the user to visually sense the pointing position 30 of the indicator light 10, the remote controller 200 may irradiate the visible light 20 together with the indicator light 10. Therefore, the user can adjust the pointing position 30 by checking the irradiation point of the visible light.

리모콘(200)은 지시광(10)의 조사시 이동 명령 신호를 전송한다. 리모콘(200)으로부터 이동 명령 신호를 수신한 이동 로봇(100)은 정지상태에서 회전하면서 일정 주기마다 영상을 촬영하고, 촬영한 영상들을 사용하여 포인터를 검출한다. 포인터가 검출되면 이동 로봇(100)은 포인터의 위치까지 주행하게 된다. The remote controller 200 transmits a movement command signal when the indicator light 10 is irradiated. The mobile robot 100 that receives the movement command signal from the remote controller 200 photographs the images at regular intervals while rotating in the stationary state, and detects the pointer using the photographed images. When the pointer is detected, the mobile robot 100 travels to the position of the pointer.

이하 이러한 이동 로봇(100)의 제어하기 위한 장치 및 방법에 대하여 보다 구체적으로 설명하도록 한다. Hereinafter, an apparatus and method for controlling the mobile robot 100 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른 이동 로봇 제어 장치를 나타낸 블록도이다. 도시된 이동 로봇 제어 장치는 수신부(110), 주행 관리부(120), 제어부(130), 촬영부(140), 영상 프레임 처리부(150), 및 포인터 검출부(160)를 포함하고, 이동 로봇(100)에 포함될 수 있다. 2 is a block diagram showing a mobile robot control apparatus according to an embodiment of the present invention. The illustrated mobile robot control apparatus includes a receiver 110, a travel manager 120, a controller 130, a photographing unit 140, an image frame processor 150, and a pointer detector 160, and a mobile robot 100. ) May be included.

수신부(110)는 리모콘(200)으로부터 수신되는 이동 명령 신호를 수신한다. 본 발명의 일 실시예에 따르면, 이동 명령 신호는 RF 신호를 통해서 전송될 수 있다. 그러나 본 발명은 이에 한정되지 않는다. The receiver 110 receives a movement command signal received from the remote controller 200. According to an embodiment of the present invention, the move command signal may be transmitted through an RF signal. However, the present invention is not limited thereto.

주행 관리부(120)는 이동 로봇(100)의 움직임을 제어한다. 이를 위하여 주행 관리부(120)는 복수의 주행 바퀴(미도시)와 방향 제어 장치(미도시)를 포함하지만, 이동 로봇(100)의 이동이 가능한 한 다른 공지의 주행 수단을 포함할 수도 있다. 만약, 수신부(110)가 리모콘으로부터 이동 명령을 수신한다면, 주행 관리부(120)는 이동 로봇(120)이 정지 상태에서 회전하도록 제어한다. The driving manager 120 controls the movement of the mobile robot 100. To this end, the driving manager 120 includes a plurality of driving wheels (not shown) and a direction control device (not shown), but may include other known driving means as far as possible to move the mobile robot 100. If the receiver 110 receives a movement command from the remote controller, the driving manager 120 controls the mobile robot 120 to rotate in a stopped state.

또한, 주행 관리부(120)는 주행 바퀴의 회전 속도를 감지한다. 이를 통하 여, 주행 관리부(120)는 이동 로봇(100)의 이전 위치와 현재 위치 사이의 위치 변화 및 방향 변화를 측정할 수 있다. 이를 위하여 주행 관리부(120)는 엔코더나 자이로스코프를 포함할 수 있다. In addition, the driving manager 120 detects the rotation speed of the driving wheel. Through this, the driving manager 120 may measure the position change and the direction change between the previous position and the current position of the mobile robot 100. For this purpose, the driving manager 120 may include an encoder or a gyroscope.

촬영부(140)는 이동 로봇(100)의 주변 영상을 촬영하여 영상 프레임을 생성한다. 바람직하게는, 촬영부(140)는 ccd(chage-coupled device) 카메라를 포함할 수 있다. 그러나 본 발명은 이에 한정되지 않으며, 촬영부(140)는 리모콘(200)이 조사하는 지시광(10)을 촬상시킬 수 있는 공지의 카메라를 포함하여도 무방하다. 리모콘(200)이 조사하는 지시광(10)의 포인팅 지점(30)의 검출 성능을 높이고 잡음을 감소시키기 위하여 촬영부(140)는 지시광(10)의 주파수를 포함하는 소정의 주파수 대역을 필터링하는 광학 필터를 포함할 수 있다. The photographing unit 140 generates an image frame by photographing a surrounding image of the mobile robot 100. Preferably, the photographing unit 140 may include a ccd (chage-coupled device) camera. However, the present invention is not limited thereto, and the photographing unit 140 may include a known camera capable of capturing the indicator light 10 irradiated by the remote controller 200. In order to increase detection performance of the pointing point 30 of the indicator light 10 irradiated by the remote controller 200 and to reduce noise, the photographing unit 140 filters a predetermined frequency band including the frequency of the indicator light 10. It may include an optical filter.

촬영부(140)는 수신부(110)가 리모콘(200)으로부터 이동 명령 신호를 수신한 때부터 주기적으로 영상 프레임을 생성한다. 최초의 영상 프레임 생성 시점은 이동 명령 신호에 포함된 소정의 동기화 정보를 통하여 동기화되며, 촬영부(140)의 영상 프레임 생성 주기는 리모콘(200)이 지시광(10)을 조사하는 주기의 절반인 것이 바람직하다. 이를 도 3a를 참조하여 설명한다. The photographing unit 140 generates an image frame periodically from the time when the receiving unit 110 receives the movement command signal from the remote controller 200. The first image frame generation time is synchronized through predetermined synchronization information included in the movement command signal, and the image frame generation period of the photographing unit 140 is half of the period in which the remote controller 200 irradiates the indicator light 10. It is preferable. This will be described with reference to FIG. 3A.

도 3a는 촬영부(140)가 영상 프레임을 생성하도록 지시하는 제어 신호(A)와 리모콘(200)이 지시광(10)을 조사하도록 지시하는 제어 신호(B)의 타이밍도이다. 촬영부(140)는 제어 신호(A)가 하이(high) 값을 가질 때 영상 프레임을 생성하고, 리모콘(200)은 제어 신호(B)가 하이(high) 값을 가질 때 지시광(10)을 조사한다. 3A is a timing diagram of a control signal A instructing the photographing unit 140 to generate an image frame and a control signal B instructing the remote controller 200 to irradiate the indicator light 10. The photographing unit 140 generates an image frame when the control signal A has a high value, and the remote controller 200 indicates the indicator light 10 when the control signal B has a high value. Investigate

도시된 타이밍도에서 촬영부(140)가 최초의 영상 프레임을 얻는 시점(t1)이 리모콘(200)이 지시광(10)을 조사하는 시점과 동일함을 알 수 있는데, 이는 동기화 정보를 통해서 동기화된 결과이다. 또한, 도시된 타이밍도에 따르면 촬영부(140)가 영상 프레임을 생성하는 주기가 리모콘(200)이 지시광(10)을 조사하는 주기의 절반인 것을 알 수 있다. 따라서 촬영부(140)가 지시광(10)의 포인팅 지점(30)을 연속적으로 촬영한 결과 얻어진 영상 프레임을 살펴보면 도 3b에 도시된 바와 같이 홀수번째 영상 프레임 마다 포인터(310)가 촬영 된다. 동기화 조절에 따라서 짝수번째 영상 프레임 마다 포인터가 촬영될 수도 있다. In the illustrated timing diagram, it can be seen that the time point t1 at which the photographing unit 140 acquires the first image frame is the same as the time point at which the remote controller 200 irradiates the indicator light 10, which is synchronized through the synchronization information. Is the result. In addition, according to the illustrated timing diagram, it can be seen that the period in which the photographing unit 140 generates the image frame is half of the period in which the remote controller 200 emits the indicator light 10. Accordingly, when the photographing unit 140 looks at the image frame obtained by continuously photographing the pointing point 30 of the indicator light 10, as illustrated in FIG. 3B, the pointer 310 is photographed every odd-numbered image frame. Depending on the synchronization control, a pointer may be photographed every even-numbered image frame.

영상 프레임 처리부(150)는 촬영부(140)가 제공하는 연속되는 영상 프레임 간의 차분 프레임을 생성한다. 바람직하게는, 영상 프레임 처리부(150)는 촬영부(140)가 제공하는 영상 프레임에서 포인터로 인식되는 상(phase)이 존재하는 경우, 해당 영상 프레임을 포함하는 연속된 세 개의 영상 프레임 중에서 시간적으로 인접한 영상 프레임 간의 차분 프레임을 생성할 수 있다. The image frame processor 150 generates a difference frame between successive image frames provided by the photographing unit 140. Preferably, when there is a phase recognized as a pointer in the image frame provided by the photographing unit 140, the image frame processor 150 temporally among three consecutive image frames including the image frame. A difference frame between adjacent image frames may be generated.

예를 들어, 포인터에 대응하는 상이 존재하는 영상 프레임이 입력되면, 영상 프레임 처리부(150)는 도 4a에 도시한 바와 같이 해당 영상 프레임(410)과 해당 영상 프레임(410)의 전후에 인접한 두개의 프레임(420, 430) 간의 차분 프레임(440, 450)을 생성할 수 있다. 이 경우는 중심 영상 프레임(410)에만 포인터(460)가 존재하게 된다. For example, when an image frame in which an image corresponding to a pointer exists is input, the image frame processing unit 150 may have two adjacent image frames 410 and two adjacent front and rear sides of the image frame 410 as shown in FIG. 4A. The difference frames 440 and 450 between the frames 420 and 430 may be generated. In this case, the pointer 460 exists only in the center image frame 410.

다른 예로써, 포인터에 대응하는 상이 존재하는 영상 프레임이 입력되면, 영상 프레임 처리부(150)는 도 4b에 도시한 바와 같이 해당 영상 프레임(510)의 다음으로 입력되는 두개의 영상 프레임(520, 530) 간의 차분 프레임(550)과 해당 영상 프레임(540) 직후 입력된 영상 프레임(520) 간의 차분 프레임(540)을 생성할 수 있다. 이 경우는 세 개의 영상 프레임(510, 520, 530) 중에서 첫번째 영상 프레임(510)과 세번째 영상 프레임(530)에 포인터(560a, 560b)가 존재하게 된다. As another example, when an image frame in which an image corresponding to a pointer exists is input, the image frame processing unit 150 may input two image frames 520 and 530 which are next to the image frame 510 as shown in FIG. 4B. ) May generate a difference frame 540 between the difference frame 550 between the image frame 550 and the image frame 520 input immediately after the corresponding image frame 540. In this case, among the three image frames 510, 520, and 530, pointers 560a and 560b exist on the first image frame 510 and the third image frame 530.

이상에서 언급된 차분 프레임은 두개의 영상 프레임의 차이값에 대한 절대치로 얻어질 수 있다. 또한 영상 프레임에 포인터에 대응하는 상(phase)이 존재하는지의 여부는, 실제 포인터를 촬영함으로써 얻어지는 상에 대한 기준 정보를 사전에 저장하여 두었다가 영상 프레임 내에서 기준 정보와 임계치 이상의 유사도를 갖는 상을 검색함으로써 판단할 수 있다. The difference frame mentioned above may be obtained as an absolute value for the difference between two image frames. In addition, whether or not a phase corresponding to a pointer exists in an image frame may include storing reference information about an image obtained by photographing an actual pointer in advance, and then storing an image having a similarity to the reference information and a threshold or more within the image frame. It can judge by searching.

포인터 검출부(160)는 영상 프레임 처리부(150)가 제공하는 두개의 차분 프레임에서 포인터에 대응하는 상(phase)을 포함하는 템플릿을 추출하고, 추출된 템플릿들간의 템플릿 매칭 작업을 수행함으로써 영상 프레임에서 포인터가 상호 매칭되는지의 여부를 판단한다. The pointer detector 160 extracts a template including a phase corresponding to a pointer from two difference frames provided by the image frame processor 150, and performs a template matching operation between the extracted templates. It is determined whether the pointers match each other.

이 때 포인터 검출부(160)는 주행 관리부(120)로부터 제공되는 이동 로봇의 회전 속도와 촬영부(140)의 영상 프레임 생성 주기를 이용하여 각 영상 프레임 간의 회전 정도를 예측할 수 있다. 연속된 영상 프레임이라도 이동 로봇(100)의 회전 운동에 따라서 도 5에 도시한 바와 같이 촬영 지역에 대하여 차이가 나게 되는데, 영상 프레임 간의 회전 정도란 이러한 차이를 말하는 것이다. 영상 프레임 간의 회전 정도는 사전 실험을 통하여 미리 저장되어 있을 수도 있다. 따라서 포인터 검출부(160)는 영상 프레임 간의 회전 정도에 따라서 영상 프레임 내에 템플릿을 비교할 탐색 영역을 설정할 수도 있다. 이를 통하여 포인터 검출에 대한 오류 를 감소시킬 수 있다. In this case, the pointer detector 160 may predict the degree of rotation between each image frame using the rotational speed of the mobile robot provided from the driving manager 120 and the image frame generation cycle of the photographing unit 140. Even in successive image frames, there is a difference with respect to the photographing area according to the rotational motion of the mobile robot 100, and the degree of rotation between the image frames refers to such a difference. The degree of rotation between image frames may be stored in advance through a preliminary experiment. Accordingly, the pointer detector 160 may set a search area to compare the templates in the image frames according to the degree of rotation between the image frames. This can reduce the error of pointer detection.

이상에서 설명한 이동 로봇 제어 장치를 구성하는 기능성 블록들인 '~부'는 일종의 모듈로 구현될 수 있다. 모듈은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.The functional blocks constituting the mobile robot control apparatus described above may be implemented as a kind of module. A module refers to software or a hardware component such as a Field Programmable Gate Array (FPGA) or an Application Specific Integrated Circuit (ASIC), where the module plays certain roles. However, a module is not limited to software or hardware. A module may be configured to reside on an addressable storage medium and may be configured to execute one or more processors. Thus, by way of example, a module may include components such as software components, object-oriented software components, class components and task components, and processes, functions, attributes, procedures, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as will be appreciated by those skilled in the art. The functionality provided by the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules.

도 6은 본 발명의 일 실시예에 따른 이동 로봇 제어 방법을 나타낸 흐름도이다. 6 is a flowchart illustrating a mobile robot control method according to an embodiment of the present invention.

먼저, 수신부(110)가 리모콘(200)으로부터 이동 명령 신호를 수신하면(S610), 주행 관리부(120)는 이동 로봇(100)이 일정한 속도로 회전하도록 제어한다(S615). 이동 로봇(100)의 회전 운동은 이하에서 설명할, 임계 횟수 이상의 포인터 검출 성공시 또는 포인터 검출 실패 확정시까지 계속된다. First, when the receiver 110 receives a movement command signal from the remote controller 200 (S610), the driving manager 120 controls the mobile robot 100 to rotate at a constant speed (S615). The rotational motion of the mobile robot 100 is continued until a pointer detection success or a pointer detection failure is confirmed, which will be described below.

이와 동시에 촬영부(140)는 촬영 작업을 수행하여 영상 프레임을 생성한다(S620). 앞서 설명한 바와 같이 촬영부(140)는 이동 명령 신호에 포함된 동기화 정보를 사용하여, 영상 프레임 생성 시점을 리모콘(200)의 지시광(10) 조사 시점과 동기화 시킨다. 또한 촬영부(140)는 일정 주기로 영상 프레임을 생성하는데, 영상 프레임의 생성 주기는 리모콘(200)의 지시광(10) 조사 주기의 절반이다.At the same time, the photographing unit 140 generates an image frame by performing a photographing operation (S620). As described above, the photographing unit 140 uses the synchronization information included in the movement command signal to synchronize the image frame generation time with the irradiation time of the indicator light 10 of the remote controller 200. In addition, the photographing unit 140 generates an image frame at a predetermined period, and the generation period of the image frame is half of the irradiation period of the indicator light 10 of the remote controller 200.

그 후, 제어부(130)는 기 추출된 템플릿이 존재하는지 판단한다(S625). 템플릿이 존재하지 않으면, 영상 프레임 처리부(150)는 촬영부(140)가 제공하는 연속된 영상 프레임에 포인터에 대응하는 상(phase)이 존재하는지 판단한다(S630). Thereafter, the controller 130 determines whether a pre-extracted template exists (S625). If the template does not exist, the image frame processing unit 150 determines whether a phase corresponding to the pointer exists in the consecutive image frames provided by the photographing unit 140 (S630).

만약 포인터에 대응하는 상이 존재한다면, 영상 프레임 처리부(150)는 해당 프레임을 포함하는 연속된 세개의 영상 프레임 중에서 시간적으로 인접한 영상 프레임 간의 차분 프레임을 생성한다(S635). If there is an image corresponding to the pointer, the image frame processor 150 generates a difference frame between temporally adjacent image frames among three consecutive image frames including the frame (S635).

이 때 각 영상 프레임들은 이동 로봇(100)의 회전에 의하여 약간씩 다른 장면을 촬영한 결과 얻어지게 된다. 따라서 본 발명의 일 실시예에 따르면, 영상 프레임 처리부(150)는 이동 로봇(100)의 회전 정도를 고려하여 영상 프레임 간에 동일 영역에 대한 차분값을 구할 수 있다.In this case, each image frame is obtained as a result of photographing a slightly different scene by the rotation of the mobile robot 100. Therefore, according to an exemplary embodiment of the present invention, the image frame processor 150 may obtain a difference value for the same region between image frames in consideration of the degree of rotation of the mobile robot 100.

포인터 검출부(160)는 영상 프레임 처리부(150)가 생성한 차분 프레임에서 포인터에 대응하는 상을 포함하는 템플릿을 추출하고(S640), 템플릿 매칭 작업을 수행한다(S645). 템플릿 매칭 작업은 공지의 기술을 사용할 수 있으므로, 그 구체적인 설명에 대해서는 생략하도록 한다. 만약 두개의 템플릿이 매칭된다면, 포인터 검출부(160)는 영상 프레임 내에 실제 포인터가 존재하는 것으로 판단할 수 있 다. The pointer detector 160 extracts a template including an image corresponding to a pointer from the difference frame generated by the image frame processor 150 (S640), and performs a template matching operation (S645). Since the template matching operation may use a known technique, the detailed description thereof will be omitted. If the two templates match, the pointer detector 160 may determine that the actual pointer exists in the image frame.

한편, 과정 S625의 판단 결과 기 추출된 템플릿이 존재하면, 포인터 검출부(160)는 기 추출된 템플릿을 사용하여 템플릿 매칭 작업을 수행한다(S645). 이를 통하여 포인터 검출부(160)는 영상 프레임 내에서 템플릿과 매칭되는 영역이 존재하면, 해당 영역을 포인터의 존재 영역으로 판단할 수 있다. On the other hand, if the extracted template is present as a result of the determination in step S625, the pointer detector 160 performs a template matching operation using the extracted template (S645). As a result, if an area matching the template exists in the image frame, the pointer detector 160 may determine the corresponding area as a pointer existence area.

템플릿 매칭 작업 결과 영상 프레임에서 포인터가 검출되면(S650). 제어부(130) 포인터 검출 횟수가 소정의 임계 횟수보다 큰지의 여부를 판단한다(S655). 포인터 검출 횟수가 임계 횟수보다 크면 주행 관리부(120)는 포인터가 검출된 위치로 이동 로봇을 주행시킨다(S660).If a pointer is detected in the image frame as a result of the template matching operation (S650). The controller 130 determines whether the number of pointer detections is greater than a predetermined threshold number of times (S655). If the number of times of detecting the pointer is greater than the threshold number of times, the driving manager 120 drives the mobile robot to the position where the pointer is detected (S660).

포인터가 검출된 위치는 포인터가 영상 프레임에서 포인터의 좌표를 통하여 얻을 수 있다. 예를 들어 사전에 이동 로봇이 촬영한 영상을 도 7에 도시한 바와 같이 소정의 블록으로 나누고, 각 블록에 해당하는 지역이 실제 이동 로봇으로부터 어느 정도의 거리와 방향을 갖는지에 대한 정보를 사전 실험을 통하여 저장시켜 둘 수 있다. 이 경우 이동 로봇(100)은 영상 프레임에서 포인터가 위치하는 블록에 대응하는 거리와 방향 정보를 획득할 수 있다. 이 밖에도 영상 프레임 상의 특정 지점까지 이동 로봇을 이동시키기 위한 공지의 다양한 기술이 적용될 수 있다. The position at which the pointer is detected may be obtained through the coordinates of the pointer in the image frame. For example, the image previously photographed by the mobile robot is divided into predetermined blocks as shown in FIG. 7, and pre-experimental information on how far the direction and the direction of the area corresponding to each block has from the actual mobile robot is shown. Can be stored through. In this case, the mobile robot 100 may obtain distance and direction information corresponding to the block where the pointer is located in the image frame. In addition, various known techniques for moving a mobile robot to a specific point on an image frame may be applied.

다시 도 6을 참조하면, 과정 S655에서 포인터의 검출 횟수가 임계 횟수보다 크지 않으면, 제어부(130)는 과정 S620부터 전술한 과정을 반복 수행하도록 이동 로봇(100)의 각 구성 요소들을 제어한다.Referring back to FIG. 6, if the number of detection of the pointer is not greater than the threshold number of times in step S655, the controller 130 controls each component of the mobile robot 100 to repeat the above process from step S620.

한편, 과정 S645에서 포인터가 검출되지 않았다면, 제어부(130)는 이동 로봇 (100)의 회전 각도가 임계 각도보다 작은지의 여부를 판단한다(S665). 이동 로봇(100)의 회전 각도는 주행 관리부(120)를 통해서 얻을 수 있다. 만약 이동 로봇(100)의 회전 각도가 임계 각도보다 작다면, 제어부(130)는 과정 S620부터 전술한 과정을 반복 수행하도록 이동 로봇(100)의 각 구성 요소들을 제어한다. On the other hand, if the pointer is not detected in step S645, the controller 130 determines whether the rotation angle of the mobile robot 100 is smaller than the threshold angle (S665). The rotation angle of the mobile robot 100 may be obtained through the driving manager 120. If the rotation angle of the mobile robot 100 is smaller than the threshold angle, the controller 130 controls each component of the mobile robot 100 to repeat the above-described process from step S620.

그러나, 이동 로봇(100)의 회전 각도가 임계 각도 이상이라면, 제어부(130)는 포인터 검출에 실패하였음을 사용자에게 알린다(S670). However, if the rotation angle of the mobile robot 100 is greater than or equal to the threshold angle, the controller 130 notifies the user that the pointer detection has failed (S670).

이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

상기한 바와 같은 본 발명의 이동 로봇 제어 방법 및 장치에 따르면 사용자가 원하는 위치로 이동 로봇을 간편히 이동시킬 수 있는 효과가 있다. According to the mobile robot control method and apparatus of the present invention as described above has the effect that the user can easily move the mobile robot to a desired position.

Claims (10)

이동 명령이 수신되면 이동 로봇을 정지 상태에서 회전시키면서 소정의 주기 마다 영상 프레임을 생성하는 단계;Generating an image frame every predetermined period while rotating the mobile robot in a stationary state when a movement command is received; 상기 생성된 영상 프레임 중에서 시간적으로 인접한 프레임 간의 비교를 통하여 포인터를 검출하는 단계; 및Detecting a pointer through comparison between adjacent frames in time among the generated image frames; And 상기 검출된 포인터의 위치로 상기 이동 로봇을 이동시키는 단계를 포함하는, 이동 로봇 제어 방법.Moving the mobile robot to a position of the detected pointer. 제 1항에 있어서,The method of claim 1, 상기 영상 프레임을 생성하는 단계는,Generating the image frame, 상기 이동 명령에 포함된 동기화 신호를 사용하여 촬영 시점을 동기화시키는 단계; 및Synchronizing a photographing time point using a synchronization signal included in the movement command; And 상기 촬영 시점에서부터 상기 주기 마다 영상을 촬영하는 단계를 포함하는, 이동 로봇 제어 방법.And photographing an image for each period from the photographing time point. 제 1항에 있어서, The method of claim 1, 상기 포인터는 소정의 리모콘이 조사하는 지시광의 포인팅 위치이고,The pointer is a pointing position of the indicator light irradiated by a predetermined remote controller, 상기 영상 프레임의 생성 주기는 상기 지시광의 조사 주기의 절반인, 이동 로봇 제어 방법.The generation period of the image frame is half the irradiation period of the indicator light, mobile robot control method. 제 1항에 있어서, The method of claim 1, 상기 검출하는 단계는,The detecting step, 상기 영상 프레임에서 소정의 기준 정보에 대응하는 상이 존재하는 경우, 상기 영상 프레임을 포함하는 연속된 세 개의 영상 프레임들 중에서 시간적으로 인접한 영상 프레임 간의 차분 프레임을 생성하는 단계;Generating a difference frame between temporally adjacent image frames among three consecutive image frames including the image frame when an image corresponding to predetermined reference information exists in the image frame; 상기 차분 프레임에서 상기 상을 포함하는 템플릿을 추출하는 단계; 및Extracting a template including the image from the difference frame; And 상기 템플릿에 대한 매칭 작업을 수행하는 단계를 포함하는, 이동 로봇 제어 방법. And performing a matching operation with respect to the template. 제 1항에 있어서,The method of claim 1, 상기 이동 로봇을 이동시키는 단계는,Moving the mobile robot, 상기 포인터가 임계 회수 이상 검출되는 경우 상기 검출된 포인터의 위치로 상기 이동 로봇을 이동시키는 단계를 포함하는, 이동 로봇 제어 방법. Moving the mobile robot to a position of the detected pointer when the pointer is detected more than a threshold number of times. 이동 명령이 수신되면 소정의 주기 마다 영상 프레임을 생성하는 촬영부;A photographing unit generating an image frame at a predetermined cycle when a movement command is received; 상기 생성된 영상 프레임 중에서 시간적으로 인접한 프레임 간의 비교를 통하여 포인터를 검출하는 포인터 검출부; 및A pointer detector which detects a pointer through a comparison between temporally adjacent frames among the generated image frames; And 상기 이동 명령이 수신되면 이동 로봇을 정지 상태에서 회전시키고, 상기 포인터가 검출되면 상기 포인터의 위치로 상기 이동 로봇을 이동시키는 주행 관리부를 포함하는, 이동 로봇 제어 장치.And a travel management unit configured to rotate the mobile robot in a stopped state when the movement command is received and to move the mobile robot to a position of the pointer when the pointer is detected. 제 6항에 있어서,The method according to claim 6, 상기 촬영부는 상기 이동 명령에 포함된 동기화 신호를 사용하여 촬영 시점을 동기화시키고, 상기 촬영 시점에서부터 상기 주기 마다 영상을 촬영하는, 이동 로봇 제어 장치.The photographing unit synchronizes a photographing time point using a synchronization signal included in the movement command, and photographs an image every cycle from the photographing time point. 제 6항에 있어서, The method according to claim 6, 상기 포인터는 소정의 리모콘이 조사하는 지시광의 포인팅 위치이고,The pointer is a pointing position of the indicator light irradiated by a predetermined remote controller, 상기 영상 프레임의 생성 주기는 상기 지시광의 조사 주기의 절반인, 이동 로봇 제어 장치.And a generation period of the image frame is half of an irradiation period of the indicator light. 제 6항에 있어서, The method according to claim 6, 상기 영상 프레임에서 소정의 기준 정보에 대응하는 상이 존재하는 경우, 상기 영상 프레임을 포함하는 연속된 세 개의 영상 프레임들 중에서 시간적으로 인접한 영상 프레임 간의 차분 프레임을 생성하는 영상 프레임 처리부를 더 포함하고,If there is an image corresponding to the predetermined reference information in the image frame, further comprising an image frame processing unit for generating a difference frame between adjacent video frames in time from among three consecutive image frames including the image frame, 상기 포인터 검출부는 상기 차분 프레임에서 상기 상을 포함하는 템플릿을 추출하고, 상기 템플릿에 대한 매칭 작업을 수행하는, 이동 로봇 제어 장치. The pointer detector extracts a template including the image from the difference frame and performs a matching operation on the template. 제 6항에 있어서,The method according to claim 6, 상기 주행 관리부는, 상기 포인터가 임계 회수 이상 검출되는 경우 상기 검출된 포인터의 위치로 상기 이동 로봇을 이동시키는, 이동 로봇 제어 장치.And the traveling management unit moves the mobile robot to the position of the detected pointer when the pointer is detected more than a threshold number of times.
KR1020060011822A 2006-02-07 2006-02-07 Method and apparatus for controlling movement of robot KR101234799B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060011822A KR101234799B1 (en) 2006-02-07 2006-02-07 Method and apparatus for controlling movement of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060011822A KR101234799B1 (en) 2006-02-07 2006-02-07 Method and apparatus for controlling movement of robot

Publications (2)

Publication Number Publication Date
KR20070080479A KR20070080479A (en) 2007-08-10
KR101234799B1 true KR101234799B1 (en) 2013-02-20

Family

ID=38600851

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060011822A KR101234799B1 (en) 2006-02-07 2006-02-07 Method and apparatus for controlling movement of robot

Country Status (1)

Country Link
KR (1) KR101234799B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180098891A (en) * 2017-02-27 2018-09-05 엘지전자 주식회사 Moving Robot and controlling method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CZ302789B6 (en) * 2009-11-25 2011-11-09 Zentiva, K. S. Method of increasing solubility of pharmaceutically active compounds and targeted (controlled) transport thereof into intestine
CN112230652A (en) * 2020-09-04 2021-01-15 安克创新科技股份有限公司 Walking robot, method of controlling movement of walking robot, and computer storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312035A (en) * 2001-04-16 2002-10-25 Toshiba Tec Corp Autonomous traveling robot
KR20020088880A (en) * 2001-05-22 2002-11-29 안현기 Multi Functional Robot and Method for Controlling thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312035A (en) * 2001-04-16 2002-10-25 Toshiba Tec Corp Autonomous traveling robot
KR20020088880A (en) * 2001-05-22 2002-11-29 안현기 Multi Functional Robot and Method for Controlling thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180098891A (en) * 2017-02-27 2018-09-05 엘지전자 주식회사 Moving Robot and controlling method
WO2018155999A3 (en) * 2017-02-27 2018-10-04 Lg Electronics Inc. Moving robot and control method thereof
KR102235271B1 (en) * 2017-02-27 2021-04-01 엘지전자 주식회사 Moving Robot and controlling method

Also Published As

Publication number Publication date
KR20070080479A (en) 2007-08-10

Similar Documents

Publication Publication Date Title
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
EP3508935B1 (en) System for spot cleaning by a mobile robot
US7507948B2 (en) Method of detecting object using structured light and robot using the same
US7599548B2 (en) Image processing apparatus and image processing method
JP2007149088A (en) Own position recognition method for moving robot and its apparatus
KR100912874B1 (en) Method and apparatus for relocating a mobile robot
KR20180098891A (en) Moving Robot and controlling method
SE523438C2 (en) Mobile robot system using RF module
KR101234799B1 (en) Method and apparatus for controlling movement of robot
US20190007630A1 (en) System and Method for Automated Camera Guard Tour Operation
KR102560462B1 (en) Moving robot
KR20160120841A (en) Smart cleaning system and method using a cleaning robot
US10775242B2 (en) Tracking and ranging system and method thereof
KR20120033414A (en) Robot for operating recognition of self-position and operation method thereof
JPS6240916B2 (en)
KR101789294B1 (en) Around view system of vehicle and method thereof
US20200039074A1 (en) Interaction between mobile robot and method
JP2004213648A (en) Method and device for tracking object
JP2001060406A (en) Automatically tracking lighting system
KR20040045572A (en) Method calculating rotated angles of robot cleaner
KR20190092051A (en) Object detection method and robot system
JP2006338203A (en) Image processor and image processing method
WO2023166868A1 (en) Mobile imaging robot system and method for controlling same
JP2006011594A (en) Autonomous travel monitor and program
KR102526251B1 (en) Education Apparatus for Artificial Intelligence Having Object Tracking Function

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160119

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170119

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180119

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190116

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200120

Year of fee payment: 8