KR20130074903A - A method for remote controlling robot using wrap around image and an apparatus thereof - Google Patents
A method for remote controlling robot using wrap around image and an apparatus thereof Download PDFInfo
- Publication number
- KR20130074903A KR20130074903A KR1020110143004A KR20110143004A KR20130074903A KR 20130074903 A KR20130074903 A KR 20130074903A KR 1020110143004 A KR1020110143004 A KR 1020110143004A KR 20110143004 A KR20110143004 A KR 20110143004A KR 20130074903 A KR20130074903 A KR 20130074903A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- area
- image
- input
- obstacle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 27
- 230000003287 optical effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1615—Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
- B25J9/162—Mobile manipulator, movable base with manipulator arm mounted on it
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Abstract
Description
본 발명은 로봇 제어 기술에 관한 것으로, 보다 상세하게는 장애물 영역과 함께 랩어라운드(wrap around) 영상을 제공하여, 직관적으로 장애물을 인식하고 로봇을 원격 제어하기 위한 방법 및 이를 위한 장치에 관한 것이다. The present invention relates to a robot control technology, and more particularly, to a method and an apparatus therefor for intuitively recognizing an obstacle and remotely controlling the robot by providing a wrap around image together with an obstacle area.
로봇(Robot)은 자동 조절에 의해 조작이나 이동 등의 일을 수행할 수 있는 기계 장치로서, 인간을 대신하여 여러 작업에 이용되고 있다. 그 동안 로봇 산업은 급속도로 발전해 왔으며, 산업용/특수 작업용 로봇에 대한 연구에서 가정용, 교육용 로봇과 같이 인간의 작업을 돕고 인간의 생활에 즐거움을 주는 목적으로 만들어지는 로봇에 대한 연구로 확대되고 있는 실정이다. 이러한 로봇들은 인간 생활환경 안에서 작업을 수행하기 때문에, 주로 작은 크기의 이동 로봇(Mobile Robot)들이 대부분이다. 이런 이동 로봇의 주행에 관한 연구는 로봇 분야에서 매우 중요한 연구 분야 중 하나이다. 기존의 이동 로봇에 대한 연구는 특정 영역에서 고정되어 있는 형태 또는 미리 정형화된 경로(Path)를 따라서만 이동하는 형태의 로봇에 대해 주로 행해졌다. 하지만, 사용자의 제어를 통해 로봇을 이동시키는 기술에 대한 연구가 점차 활성화되어 왔다. Robot is a mechanical device that can perform operations such as operation and movement by automatic adjustment, and is used for various tasks on behalf of humans. The robot industry has developed rapidly, and is expanding from the research on industrial / special work robots to the research on robots that are made for the purpose of helping humans and enjoying human life such as home and educational robots. to be. Most of these robots are small sized mobile robots because they perform work in the human living environment. Research on the travel of such mobile robots is one of the most important research fields in robotics. Research on existing mobile robots is mainly performed for robots that are fixed in a specific area or move only along a predetermined path. However, research on the technology of moving the robot through the control of the user has been gradually activated.
종래의 로봇을 원격제어 할 경우 시야각이 제한된 하나의 카메라로 한정된 시야각을 통한 원격제어만 가능하였다. 이를 극복하려고 많은 연구가 시도되었다. 전체의 시각을 볼 수 있는 전방향(Omni-directional) 카메라, 또는 어안렌즈를 사용하는 광각의 카메라 등이 연구되었다. 그러나 이러한 시도들은 각각 왜곡된 영상을 제공하여 훈련이나 경험을 통해서만 숙련된 조작법을 익힐 수 있어 조작에 어려움이 있다. 특히, 종래의 로봇을 원격 제어할 경우, 제공되는 영상을 통해 장애물을 인식하기에는 많은 수의 센서가 필요하고, 사용자의 시각으로 장애물을 인식하는 경우에는 제공되는 화면의 해상도에 따라 정확한 인식이 어려울 수도 있다. In the case of remote control of a conventional robot, only one camera with a limited viewing angle was able to remotely control the viewing angle. Many studies have been attempted to overcome this. Omni-directional cameras, or wide-angle cameras using fisheye lenses, have been studied. However, these attempts have difficulty in manipulation because they provide distorted images and can be learned only by skilled operators through training or experience. In particular, when remotely controlling a conventional robot, a large number of sensors are required to recognize an obstacle through a provided image, and when the obstacle is recognized from a user's perspective, accurate recognition may be difficult depending on the resolution of the provided screen. have.
상술한 바와 같은 점을 감안한 본 발명의 목적은 로봇의 원격 제어를 직관적으로 할 수 있는 방법 및 장치를 제공함에 있다. SUMMARY OF THE INVENTION An object of the present invention in view of the above-described points is to provide a method and apparatus capable of intuitively remotely controlling a robot.
또한, 로봇의 원격 제어 시, 장애물을 직관적으로 판단할 수 있도록 제어 화면을 제공하는 방법 및 장치를 제공함에 있다. In addition, the present invention provides a method and apparatus for providing a control screen for intuitively determining an obstacle when remotely controlling a robot.
특히, 로봇의 원격 제어 시, 카메라 센서 이외의 다른 센서의 도움 없이 장애물을 직관적으로 인식할 수 있는 방법 및 장치를 제공함에 있다. In particular, the present invention provides a method and apparatus for intuitively recognizing an obstacle without the aid of a sensor other than a camera sensor when remotely controlling a robot.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시 예에 따른 로봇을 원격으로 제어하기 위한 장치는, 로봇 자신을 기준으로 상기 로봇을 중심으로 사방을 평면도와 같이 나타내는 랩어라운드 영상을 생성하고, 상기 랩어라운드 영상에서 로봇 자신의 위치한 영역이 아닌 영역을 장애물 영역으로 표시하며, 장애물 영역이 표시된 랩어라운드 영상을 전송하는 상기 로봇과, 상기 장애물 영역이 표시된 랩어라운드 영상을 화면으로 표시하고, 표시된 랩어라운드 영상에 따라 로봇의 위치 이동을 위한 입력이 있으면, 상기 입력에 따라 로봇이 이동하도록 제어하는 제어 신호를 상기 로봇에 전송하는 단말을 포함한다. An apparatus for remotely controlling a robot according to a preferred embodiment of the present invention for achieving the above object, generates a wrap-around image showing the four sides of the robot as a plan view with respect to the robot itself, In the wrap-around image, an area other than the robot's own area is displayed as an obstacle area, the robot transmitting a wrap-around image in which the obstacle area is displayed, and a wrap-around image in which the obstacle area is displayed on the screen, and the displayed wrap If there is an input for moving the position of the robot in accordance with the around image, and includes a terminal for transmitting a control signal for controlling the robot to move in accordance with the input.
여기서, 로봇은 그래프 기반 이미지 세그멘테이션(Efficient Graph based Segmentation) 기법을 이용하여, 랩어라운드 영상을 복수의 영역으로 분할하고, 분할된 영역 중 로봇이 위치한 영역과 텍스처 비교를 통해 미리 설정된 기준에 따라 로봇이 속한 영역과 유사도를 가지는 영역을 로봇과 동일한 영역으로 포함시키고, 나머지 영역을 장애물 영역으로 설정할 수 있다. Here, the robot divides the wrap-around image into a plurality of areas by using an efficient graph based segmentation technique, and compares the robot with the area where the robot is located according to a preset criteria by comparing the texture with the area where the robot is located. An area having similarity with the area to which it belongs may be included as the same area as the robot, and the remaining area may be set as an obstacle area.
또한, 로봇은 로봇을 중심으로 사방을 모두 촬영하는 복수의 카메라를 포함하며, 랩어라운드 영상은 상기 로봇을 중심으로 사방을 모두 촬영한 복수의 영상을 하나의 영상으로 병합한 영상인 것을 특징으로 하는 로봇을 원격으로 제어할 수 있다. In addition, the robot includes a plurality of cameras to shoot all around the robot, and the wrap-around image is characterized in that the image is a combination of a plurality of images taken all around the robot into one image The robot can be controlled remotely.
여기서, 단말은 랩어라운드 영상에 상기 로봇을 직관적으로 나타내는 로봇 아이콘을 표시하고, 상기 장애물 영역과 장애물 영역이 아닌 영역과 구분되도록 표시하며, 상기 로봇 아이콘을 이동시키는 터치에 의한 입력을 감지하여, 상기 터치 입력에 의한 자취가 상기 장애물 영역에 포함되면, 이동할 수 없는 영역임을 나타내는 에러 메시지를 출력하고, 상기 터치 입력에 의한 자취가 상기 장애물 영역에 포함되지 않으면, 상기 터치에 의한 입력의 자취를 포함하는 제어 신호를 생성할 수 있다. Herein, the terminal displays a robot icon that intuitively represents the robot on a wraparound image, displays the robot icon to be distinguished from the obstacle area and the non-obstacle area, and detects an input by a touch for moving the robot icon. If the trace by the touch input is included in the obstacle area, an error message indicating that it cannot move is output; and when the trace by the touch input is not included in the obstacle area, the trace of the input by the touch is included. A control signal can be generated.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시 예에 따른 로봇을 원격으로 제어하기 위한 방법에 있어서, 상기 로봇이 로봇 자신을 기준으로 상기 사방을 평면도와 같이 나타내는 랩어라운드 영상을 생성하는 단계와, 상기 랩어라운드 영상에서 로봇 자신의 위치한 영역이 아닌 영역을 장애물 영역으로 설정하는 단계와, 상기 장애물 영역이 표시된 랩어라운드 영상을 단말에 전송하는 단계와, 상기 단말이 상기 랩어라운드 영상을 표시하는 단계와, 상기 단말이 상기 표시된 랩어라운드 영상에 로봇의 위치 이동을 위한 입력이 있으면, 상기 입력에 따라 상기 로봇이 이동하도록 제어하는 제어 신호를 생성하는 단계 및 상기 제어 신호를 상기 로봇에 전송하는 단계를 포함한다. In the method for remotely controlling a robot according to a preferred embodiment of the present invention for achieving the object as described above, the robot generating a wrap-around image showing the four sides of the robot as a plan view based on the robot itself And setting an area other than the robot's own area as an obstacle area in the wraparound image, transmitting a wraparound image in which the obstacle area is displayed to the terminal, and displaying the wraparound image by the terminal. And generating, by the terminal, a control signal for controlling the robot to move according to the input if the terminal has an input for moving the position of the robot on the displayed wraparound image, and transmitting the control signal to the robot. It includes.
여기서, 상기 설정하는 단계는 그래프 기반 이미지 세그멘테이션(Efficient Graph based Segmentation) 기법을 이용하여, 상기 랩어라운드 영상을 복수의 영역으로 분할하는 단계와, 상기 분할된 영역 중 로봇이 위치한 영역과 텍스처 비교를 통해 미리 설정된 기준에 따라 로봇이 속한 영역과 유사도를 가지는 영역을 로봇과 동일한 영역으로 포함시키고, 나머지 영역을 장애물 영역으로 설정하는 단계를 포함한다. Here, the setting may be performed by dividing the wraparound image into a plurality of regions by using an efficient graph based segmentation technique, and comparing the texture with the region where the robot is located among the divided regions. And including an area having a similarity with the area to which the robot belongs, as the same area as the robot, and setting the remaining area as an obstacle area according to a preset criterion.
또한, 상기 표시하는 단계는 상기 단말은 랩어라운드 영상에 상기 로봇을 직관적으로 나타내는 로봇 아이콘을 표시하고, 장애물 영역을 장애물이 아닌 영역과 구분되도록 표시할 수 있다. 이에 따라, 상기 제어 신호를 생성하는 단계는 상기 로봇 아이콘을 이동시키는 터치에 의한 입력을 감지하여, 상기 터치 입력에 의한 자취가 상기 장애물 영역에 포함되면, 이동할 수 없는 영역임을 나타내는 에러 메시지를 출력하고, 상기 터치 입력에 의한 자취가 상기 장애물 영역에 포함되지 않으면, 상기 터치에 의한 입력의 자취를 포함하는 제어 신호를 생성할 수 있다. In addition, the displaying may include displaying a robot icon that intuitively represents the robot on a wraparound image, and displaying an obstacle area to be distinguished from an area that is not an obstacle. Accordingly, the generating of the control signal detects an input by a touch for moving the robot icon, and outputs an error message indicating that the touch input is an area that cannot be moved when the trace by the touch input is included in the obstacle area. If the trace by the touch input is not included in the obstacle area, a control signal including the trace of the input by the touch may be generated.
또한, 상기 로봇은 상기 사방을 촬영하는 복수의 카메라를 구비하며, 상기 랩어라운드 영상을 생성하는 단계는 상기 로봇을 중심으로 복수의 카메라를 통해 촬영한 복수의 영상을 병합하여 상기 랩어라운드 영상을 생성할 수 있다. The robot may include a plurality of cameras for photographing the four sides, and the generating of the wraparound image may include generating a wraparound image by merging a plurality of images photographed by a plurality of cameras around the robot. can do.
상술한 바와 같이 본 발명은 랩어라운드 영상을 이용하여 로봇을 마치 하늘에서 내려다 보다는 시점, 즉, 로봇을 중심으로 사방을 평면도와 같이 표현한 영상을 제공함으로써, 사용자가 로봇의 이동 경로를 제어할 때, 직관적으로 제어할 수 있도록 한다. 특히, 사용자가 로봇을 위에서 내려다보는 관점에서 제어를 할 수 있어 좁은 지역에서 상대적으로 짧은 이동과 회전이 많은 로봇의 경우, 예컨대, 청소 로봇 등의 경우에, 훨씬 더 직관적인 제어가 가능하다. As described above, the present invention provides a view of the robot as a plan view of the four sides of the robot, rather than looking down from the sky as if using a wrap-around image, when the user controls the movement path of the robot, Intuitive control. In particular, since the user can control the robot from the viewpoint of looking down from the top, a robot having a lot of relatively short movements and rotations in a small area, for example, a cleaning robot, etc., is much more intuitive to control.
또한, 본 발명은 랩어라운드 영상에 장애물을 표시하여 제공함으로써, 사용자가 직관적으로 장애물을 인식할 수 있으며, 로봇을 조작할 시, 장애물을 인식하여 조작할 수 있으며, 오직, 카메라, 즉, 광학 센서만을 이용하여 장애물을 인식할 수 있어, 비용이 절약되며, 효율적으로 로봇을 조작할 수 있다. In addition, the present invention by displaying the obstacle in the wrap-around image, the user can intuitively recognize the obstacle, when operating the robot can recognize and manipulate the obstacle, only the camera, that is, the optical sensor Obstacles can be recognized using the bay, which saves money and enables the robot to be operated efficiently.
도 1은 본 발명의 실시예에 따른 로봇 원격 제어를 위한 시스템을 설명하기 위한 블록도.
도 2는 도 1에 도시된 본 발명의 실시예에 따른 로봇의 보다 구체적인 구성을 설명하기 위한 블록도.
도 3은 도 1에 도시된 본 발명의 실시예에 따른 단말의 보다 구체적인 구성을 설명하기 위한 블록도.
도 4는 본 발명의 실시예에 따른 랩어라운드 영상을 얻는 방법을 설명하기 위한 화면 예.
도 5는 본 발명의 실시예에 따른 장애물 영역을 설정하는 방법을 설명하기 위한 흐름도.
도 6은 본 발명의 실시예에 따른 장애물 영역을 설정하는 방법을 설명하기 위한 화면 예.
도 7은 본 발명의 실시예에 따른 랩어라운드 영상을 이용한 로봇의 제어 방법을 설명하기 위한 화면 예.
도 8은 본 발명의 실시예에 따른 랩어라운드 영상을 이용한 제어 방법을 설명하기 위한 흐름도. 1 is a block diagram illustrating a system for robot remote control according to an embodiment of the present invention.
2 is a block diagram for explaining a more specific configuration of a robot according to an embodiment of the present invention shown in FIG.
3 is a block diagram for explaining a more specific configuration of a terminal according to an embodiment of the present invention shown in FIG.
4 is a screen example for explaining a method of obtaining a wraparound image according to an embodiment of the present invention.
5 is a flowchart illustrating a method of setting an obstacle area according to an embodiment of the present invention.
6 is a screen example for explaining a method for setting an obstacle area according to an embodiment of the present invention.
7 is a screen example for explaining a control method of a robot using a wraparound image according to an embodiment of the present invention.
8 is a flowchart illustrating a control method using a wraparound image according to an embodiment of the present invention.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다. 실시 예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다. 마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention. In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention belongs and are not directly related to the present invention will be omitted. This is for the sake of clarity of the present invention without omitting the unnecessary explanation. For the same reason, some of the components in the drawings are exaggerated, omitted, or schematically illustrated. Also, the size of each component does not entirely reflect the actual size.
도 1은 본 발명의 실시예에 따른 로봇 원격 제어를 위한 시스템을 설명하기 위한 블록도이다. 1 is a block diagram illustrating a system for robot remote control according to an embodiment of the present invention.
본 발명의 실시예에 따른 로봇 원격 제어 시스템은 로봇(100)과 로봇을 원격 제어하기 위한 단말(200)을 포함한다. Robot remote control system according to an embodiment of the present invention includes a
로봇(100)은 랩어라운드 영상을 지속적으로 획득한다. 여기서, 랩어라운드 영상은 로봇(100) 자신을 기준으로 기 설정된 반경 이내의 사방의 지면을 촬영한 복수의 영상을 병합한 것이며, 특히, 랩어라운드 영상은 로봇(100)을 중심으로 사방을 평면도와 같이 나타낸다. 이를 위하여, 로봇(100)은 복수의 카메라를 구비할 수 있다. 그리고 로봇(100)은 랩어라운드 영상을 단말(200)에 전송한다. The
단말(200)은 랩어라운드 영상을 화면(바람직하게, 터치스크린)에 표시한다. 이때, 랩어라운드 영상은 로봇(100)을 중심으로 촬영된 것이기 때문에, 단말(100)은 그 영상에 중심에 로봇(100)을 나타내는 아이콘을 같이 표시한다. 사용자가 그 로봇(100)을 이동시키고자 하는 자취를 터치스크린을 통해 입력하면, 단말(200)이 사용자의 입력을 반영한 제어 신호를 생성하여, 로봇(100)에 전송한다. 그러면, 로봇(100)은 제어 신호에 따라 이동할 수 있다. The
도 2는 도 1에 도시된 본 발명의 실시예에 따른 로봇의 보다 구체적인 구성을 설명하기 위한 블록도이다. 2 is a block diagram illustrating a more specific configuration of a robot according to an embodiment of the present invention shown in FIG. 1.
도 2를 참조하면, 본 발명의 실시 예에 따른 로봇(100)은 통신 모듈(110), 카메라 모듈(120), 저장 모듈(130), 표시 모듈(140), 이동 모듈(150) 및 제어 모듈(150)을 포함한다. Referring to FIG. 2, the
통신 모듈(110)은 단말(200)과의 통신을 위한 것이다. 통신 모듈(110)은 제어모듈(150)의 제어에 의해 랩어라운드 영상을 단말(200)에 전송한다. 또한, 통신 모듈(110)은 단말(200)로부터 제어 신호를 수신하면, 수신된 제어 신호를 제어 모듈(150)에 전달한다. 이러한 통신 모듈(110)의 통신 프로토콜은 제한이 있는 것이 아니나, ISM 대역(Industrial Scientific Medical band)을 이용할 수 있는 통신 프로토콜을 사용함이 바람직하며, 광대역을 이용하는 통신 프로토콜도 무방하다. The
카메라 모듈(120)은 랩어라운드 영상을 촬영하기 위한 것으로, "랩어라운드 카메라 모듈"이 될 수 있다. 본 발명의 실시예에서 "랩어라운드 영상"은 로봇을 기준으로 기 설정된 반경의 사방의 영상을 촬영한 것이다. 특히, 랩어라운드 영상은 로봇을 중심으로 사방을 평면도와 같이 나타낸다. 카메라 모듈(120)은 랩어라운드 영상을 구성하기 위해 서로 다른 방향의 영상을 촬영하는 복수의 카메라로 이루어질 수 있다. 카메라는 렌즈, 광학 센서, 신호처리장치 및 영상처리장치를 구비할 수 있다. 광학 센서는 렌즈를 통해 영상을 촬영하며, 촬영된 영상인 광학적 화상 신호를 전기적 화상 신호로 변환한다. 광학 센서는 CCD(Charge Coupled Device) 센서를 사용함이 바람직하다. 신호처리장치는 광학 센서로부터 출력되는 아날로그 화상 신호를 디지털 화상 신호로 변환한다. 여기서 신호처리장치는 DSP(Digital Signal Processor)로 구현함이 바람직하다. 영상처리장치는 신호처리장치에서 출력되는 화상 신호를 가공하여 표시 장치에 맞춰 표시하는 화면 화상 신호를 생성하여 출력한다. The
저장 모듈(130)은 소위 하드디스크(hard disk)와 같은 스토리지 디바이스(storage device), 소위 디램(DRAM)과 같은 메모리(memory)를 포함하며, 스토리지 디바이스 및 메모리는 착탈 가능한 형태로 구현될 수 있다. 저장 모듈(130)은 착탈 가능하도록 소정의 착탈 장비를 포함하여 구성될 수 있다. 이러한 저장 모듈(130)은 본 발명의 실시 예에 따른 필요한 데이터를 저장한다. The
표시 모듈(140)은 현재 로봇의 상태 정보(예컨대, 위치, 배터리 등)를 시각적으로 알리기 위한 화면, 로봇이 제공한 서비스를 안내하는 화면 등의 정보를 제공한다. 이러한 표시 모듈(140)은 터치스크린 형태로 형성될 수 있다. 터치스크린 형태로 표시 모듈(140)이 형성된 경우, 표시 모듈(140)은 입력 장치의 역할의 일부 또는 전부를 수행할 수 있다. The
이동 모듈(150)은 제어 모듈(160)의 제어에 따라 제어 모듈(160)이 제공한 경로를 통해 로봇을 이동시킨다. 이를 위하여, 이동 모듈(150)은 실제로 로봇을 이동시키기 위한 수단인 이동 장치를 포함한다. 이동 장치는 바퀴, 캐터필러(caterpillar), 4족, 6족, 등 다양한 형태로 구성될 수 있다.The
제어 모듈(160)은 로봇의 전반적인 기능을 제어하기 위한 것으로, 본 발명의 실시 예에 따른 제어 모듈(160)은 카메라 모듈의 복수의 카메라를 통해 촬영된 영상을 하나의 영상, 즉, 랩어라운드 영상을 병합하고, 병합된 영상을 통신 모듈(110)을 통해 단말(200)에 전송하는 역할을 수행한다. 또한, 제어 모듈(150)은 그래프 기반 이미지 세그멘테이션(Efficient Graph based Segmentation) 기법 및 텍스처 비교를 통해 로봇이 속한 영역과 로봇이 속하지 않은 영역인 장애물 영역을 구분하여 설정한다. 또한, 제어 모듈(160)은 단말(200)로부터 제어 신호를 통신 모듈(110)을 통해 수신하여, 제어 신호에 따라 이동 모듈(150)을 제어하여, 로봇(100)을 이동시키도록 한다. The
도 3은 도 1에 도시된 본 발명의 실시예에 따른 단말의 보다 구체적인 구성을 설명하기 위한 블록도이다. 3 is a block diagram illustrating a more specific configuration of a terminal according to an embodiment of the present invention shown in FIG. 1.
본 발명의 실시예에 따른 단말(200)은 이동통신 단말(200)기, PDA, 노트북, PC, TV, 노트패드, 휴대용 게임기 등을 예시할 수 있으며, 로봇(100)을 제어하기 위한 전용의 장치가 될 수도 있다. 특히, 단말(200)은 로봇(100)과 통신하여 로봇(100)의 랩어라운드 영상을 수신하고, 이를 통해 로봇을 제어할 수 있다면, 어떤 종류의 장치라도 무방하다. The terminal 200 according to the embodiment of the present invention may exemplify a
도 3을 참조하면, 본 발명의 실시예에 따른 단말(200)은 통신부(210), 표시부(220), 입력부(230), 저장부(250) 및 제어부(260)를 포함한다. 여기서, 표시부(220) 및 입력부(230)가 통합되는 경우 표시부(220) 및 입력부(230)는 표시입력부(240)가 될 수 있다. Referring to FIG. 3, the terminal 200 according to the embodiment of the present invention includes a
통신부(210)는 로봇(100)과 통신하여, 데이터를 송수신하는 수단으로서, 특히, 랩어라운드 영상을 수신하고, 로봇(100)을 제어하는 제어 신호를 전송하기 위한 것이다. 여기서, 통신부(210)는 로봇(100)의 통신 모듈(110)과 동일한 프로토콜을 이용하여 통신함이 바람직하다. 로봇(100)과 통신하기 위한 통신부(210)의 통신 프로토콜은 제한이 있는 것이 아니나, ISM 대역(Industrial Scientific Medical band)을 이용할 수 있는 통신 프로토콜을 사용함이 바람직하며, 광대역을 이용하는 통신 프로토콜도 무방하다. 통신부(210)의 통신은 무선랜(WLAN, Wireless Local Area Network)급이거나, 무선팬(WPAN, Wireless Personal Area Network)급 통신이 될 수 있다. 구체적으로, 통신부(210)는 블루투스(Bluetooth), 적외선 통신(IrDA), 지그비(ZigBee) 등을 이용하여 통신할 수 있다. 통신부(210)는 랩어라운드 영상을 수신하면, 수신된 영상을 제어부(260)에 전달한다. 또한, 제어부(260)로부터 로봇(100)을 제어하기 위한 제어 신호를 수신하면, 이를 로봇(100)에 전송한다. The
표시부(220)는 기본적으로, 단말(200)의 동작에 따른 결과 또는 정보를 사용자가 시각적으로 인식 가능하도록 출력하는 수단이다. 본 발명의 실시예에서, 표시부(220)는 랩어라운드 영상 등을 시각적인 정보로 출력하는 디스플레이 수단이다. 이러한 디스플레이 수단은 터치스크린(touch screen)이 될 수 있으며, 이와 같이, 터치스크린 형태로 디스플레이 수단이 형성된 경우, 디스플레이 수단은 입력부(230)의 기능 중 일부 또는 전부를 수행할 수 있다. The
입력부(230)는 사용자의 명령, 선택, 데이터, 정보 중에서 어느 하나를 입력 받기 위한 수단으로서, 숫자 또는 문자 정보를 입력 받고 다양한 기능을 설정하기 위한 다수의 입력키 및 기능키를 포함할 수 있다. 그리고 입력부(230)는 사용자의 키 입력을 감지하여, 감지된 키 입력에 따른 입력 신호를 제어부(260)로 전달한다. 예컨대, 입력부(230)는 키보드, 키패드, 마우스, 조이스틱 등과 같은 통상적인 입력 장치 외에도 향후 개발될 수 있는 모든 형태의 입력 수단이 사용될 수 있다. 이러한 입력부(230)는 표시부(220)가 터치스크린 형태인 경우, 터치스크린에 포함될 수 있다. The
본 발명의 실시예에서는 터치스크린이 가장 바람직함으로, 터치스크린을 기준으로 설명하며, "표시입력부(240)"로 칭하기로 한다. 표시입력부(240)는 랩어라운드 영상을 표시하며, 사용자의 터치 입력을 입력 받아, 입력 받은 터치 입력의 자취를 제어부(260)에 전달한다. In the exemplary embodiment of the present invention, the touch screen is most preferable. The touch screen will be described with reference to the touch screen and will be referred to as a "
저장부(250)는 데이터를 저장하기 위한 장치로, 주 기억 장치 및 보조 기억 장치를 포함한다. 이러한 저장부(250)는 운영 체제, 각종 어플리케이션을 저장할 수 있다. 특히, 저장부(250)는 본 발명의 실시예에 따라 로봇(100)을 제어하기 위한 어플리케이션을 저장할 수 있다. 그리고 저장부(250)는 로봇(100)으로부터 수신된 랩어라운드 영상을 저장하라 수 있다. 저장부(260)에 저장되는 데이터 등은 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The
제어부(260)는 운영 체제 및 어플리케이션 등을 실제로 구동시키는 프로세스 장치가 될 수 있다. 예컨대, 제어부는 중앙처리장치(CPU, Central Processing Unit)가 될 수 있다. 제어부(260)는 단말(200)의 전원이 켜지면, 운영 체제(OS, Operation System)를 저장부(250)의 보조 기억 장치로부터 주 기억 장치로 이동시킨 후, 운영 체제를 구동하는 부팅(booting)을 수행한다. 또한, 제어부(260)는 사용자의 조작에 따른 어플리케이션의 실행의 요청이 있는 경우, 저장부(250)에 미리 저장된 어플리케이션을 로드하여 실행시킬 수 있다. 특히, 제어부(260)는 랩어라운드 영상을 표시입력부(240)에 표시하며, 사용자의 터치 입력이 있는 경우, 이러한 입력에 따른 자취를 표시입력부(240)로부터 수신하여, 이러한 자취를 포함하는 제어 신호를 생성한 후, 생성된 제어 신호를 로봇(100)에 전송하여 로봇(100)이 터치 입력의 자취에 따라 이동하도록 한다. 이때, 제어부(260)는 랩어라운드 영상에서 장애물 영역을 침범하는 터치 입력이 있는 경우, 에러 메시지를 출력한다. The
도 4는 본 발명의 실시예에 따른 랩어라운드 영상을 얻는 방법을 설명하기 위한 화면 예이다. 4 is a screen example for explaining a method of obtaining a wraparound image according to an exemplary embodiment of the present invention.
도 4를 참조하면, 본 발명의 실시예에서 랩어라운드 영상을 얻기 위해 4개의 카메라를 이용한다고 가정한다. 또한, 도면 부호 (a)에 도시된 바와 같이, 특정 공간에 로봇(100)이 화살표(400) 방향을 향하고 있다고 가정한다. 그리고 도면 부호 (b)에 도시된 바와 같이, 로봇(100)은 로봇 자신을 중심(450)으로 4개의 카메라를 통해 제1 내지 제4 영상(410 내지 440)을 촬영한다. 로봇(100)은 이러한 4개의 영상(410 내지 440)을 조합하여 하나의 랩어라운드 영상을 생성할 수 있다. 도시된 바와 같이, 랩어라운드 영상은 마치 하늘에서 내려다보는 것과 같은 모습을 보인다. 즉, 랩어라운드 영상은 로봇을 중심으로 사방을 평면도와 같이 표현한다. Referring to FIG. 4, it is assumed that an embodiment of the present invention uses four cameras to obtain a wraparound image. Also, as shown by reference numeral (a), it is assumed that the
랩어라운드 영상을 생성하기 전, 로봇(100)은 체커 보드를 이용하여 칼리브레이션을 수행하여, 카메라의 내부변수 및 외부변수를 얻는다. 그런 다음, 로봇(100)은 이웃하는 카메라들 간에 렉터피케이션을 수행한다. 렉터피케이션은 칼리브레이션을 통해 구한 외부변수를 통해 이웃하는 카메라의 영상을 변형하여 두 영상의 y 축을 일치시키는 것을 말한다. 렉터피케이션은 이웃하는 카메라 간의 영상을 매칭시킬 때 연산량을 줄일 수 있다. 예를 들어, 제1 영상(410)의 한 점에 대한 제2 영상(420) 또는 제4 영상(440)의 매칭점을 찾을 때, 렉터피케이션 하지 않았을 경우 제2 영상(420) 또는 제4 영상(440)의 전체 또는 일부를 검색해야하는 반면, 렉터피케이션을 한 후에는 동일 y 좌표를 가지는 가로선 하나만을 검색하면 되기 때문에 연산량을 줄일 수 있다. 칼리브레이션 및 렉터피케이션을 수행한 후, 로봇(100)은 제1 내지 제4 영상(410 내지 440)을 조합하여 랩어라운드(Wrap Around) 영상을 생성한다. Before generating the wraparound image, the
도 5는 본 발명의 실시예에 따른 장애물 영역을 설정하는 방법을 설명하기 위한 흐름도이며, 도 6은 본 발명의 실시예에 따른 장애물 영역을 설정하는 방법을 설명하기 위한 화면 예이다. 5 is a flowchart illustrating a method for setting an obstacle area according to an embodiment of the present invention, and FIG. 6 is a screen example for explaining a method for setting an obstacle area according to an embodiment of the present invention.
도 4, 도 5 및 도 6을 참조하면, 로봇(100)은 S10 단계에서 복수의 카메라로부터 복수의 영상을 획득한다. 그런 다음, 로봇(100)은 S20 단계에서 복수의 영상을 하나의 랩어라운드 영상으로 조합한다. 이는 앞서 설명한 바와 같다. 이러한 화면 예를 도 6의 (a)에 도시하였다. 랩어라운드 영상을 표시부(220) 또는 표시입력부(240)에 표시한다. 이때, 로봇(100)은 랩어라운드 영상을 생성할 시, 로봇(100) 자신을 중심(450)으로 촬영한 영상을 조합함으로, 화면의 중심에 로봇(100)이 위치한다. 랩어라운드 영상(510)을 표시할 때, 이러한 로봇(100)의 위치(450)를 같이 표시하며, 로봇(100)을 직관적으로 식별할 수 있는 로봇 아이콘(101) 등을 이용하여 표시할 수 있다. 4, 5 and 6, the
그런 다음, 로봇(100)은 S30 단계에서 랩어라운드 영상을 복수의 영역으로 분할한다. 도 6의 도면 부호 (b)에 하나의 랩어라운드 영상을 복수의 영역으로 분할한 화면을 도시하였다. 본 발명의 실시예에서는 랩어라운드 영상으로부터 그래프 기반 이미지 세그멘테이션(Efficient Graph based Segmentation) 기법을 이용하여, 랩어라운드 영상을 복수의 영역으로 분할한다. 이때, 분할되는 영상에 대한 파라미터를 설정할 때, 가우시안 값을 조절하여, 너무 많은 영역으로 분할되지 않도록 조절한다. 이러한 가우시안 값은 실험값으로 결정함이 바람직하다. Then, the
로봇(100)은 S40 단계에서 분할된 복수의 영역에서 로봇(100)이 속한 영역과 그렇지 않은 영역으로 구분한다. 이러한 구분은 분할된 영역의 텍스처와 다른 영역의 텍스처를 비교하여 이루어진다. 즉, 로봇(100)은 분할된 영역 중 로봇(100)이 위치한 영역과 텍스처 비교를 통해 미리 설정된 기준에 따라 로봇(100)이 속한 영역과 유사도를 가지는 영역을 로봇이 속한 영역과 동일한 영역으로 포함시킨다. The
그런 다음, 로봇(100)은 S50 단계에서 앞서 S40 단계에서 포함되지 않은 영역을 장애물 영역(610)으로 설정하여 표시한다. Then, the
정리하면, 로봇(100)이 이동할 수 있는 영역은 일반적으로 바닥이며, 이때, 바닥은 동일한 텍스처를 가진다. 본 발명의 실시예에서는 그래프 기반 이미지 세그멘테이션(Efficient Graph based Segmentation) 기법을 이용하여 1차로 복수의 영역으로 구분하고, 1차로 구분된 영역에서 로봇(100)이 위치한 영역과 다른 영역의 텍스처의 비교를 통해 미리 결정된 유사도에 따라 1차로 구분된 영역에서 로봇(100)이 위치한 영역과 유사한 텍스처를 가지는 영역을 로봇이 속한 영역에 포함시킨다. 그리고 나머지 영역을 장애물 영역(610)으로 결정한다. 이와 같이, 랩어라운드 영상에 장애물 영역(610)을 설정한 화면 예를 도 6의 (c)에 도시하였다. In summary, the area in which the
도 7은 본 발명의 실시예에 따른 랩어라운드 영상을 이용한 로봇의 제어 방법을 설명하기 위한 화면 예이다. 7 is a screen example for explaining a control method of a robot using a wraparound image according to an exemplary embodiment of the present invention.
도 4 내지 도 7을 참조하면, 로봇(100)은 장애물 영역(610)을 설정하고, 표시한 랩어라운드 영상을 단말(200)에 전송한다. 단말(200)은 랩어라운드 영상을 표시부(220) 또는 표시입력부(240)에 표시할 수 있다. 이때, 로봇(100)은 랩어라운드 영상을 생성할 시, 로봇(100) 자신을 중심(450)으로 촬영한 영상을 조합함으로, 화면의 중심에 로봇(100)이 위치한다. 단말(200)은 표시부(220) 또는 표시입력부(240)에 랩어라운드 영상(510)을 표시할 때, 이러한 로봇(100)의 위치(450)에 로봇(100)을 직관적으로 식별할 수 있는 로봇 아이콘(101) 등을 이용하여 표시할 수 있다. 4 to 7, the
사용자는 터치 입력을 통해 해당 로봇 아이콘(101)을 이동시킬 수 있다. 예컨대, 사용자는 표시입력부(240)에서 로봇 아이콘(101)을 터치하여 이동을 원하는 위치로 드래그 할 수 있다. The user may move the
도 7의 (a)를 참조하면, 사용자의 터치 입력인 드래그에 따른 자취(710)가 장애물 영역(610)을 침범하였다. 이러한 경우, 단말(200)은 해당 영역으로 이동할 수 없음을 알리는 에러 메시지 등을 출력한다. 이러한 에러 메시지는 소리, 음성, 진동, 텍스트, 램프 등 다양한 방법을 제공될 수 있다. Referring to FIG. 7A, the
한편, 도 7의 (b)를 참조하면, 사용자의 터치 입력에 따른 자취(720)가 장애물 영역(610)을 침범하지 않았다. 이러한 경우, 표시입력부(240)는 이러한 터치 입력에 따른 자취(720)를 제어부(260)에 전달한다. 그러면, 제어부(260)는 이러한 자취(720)를 포함하는 제어 신호를 생성한 후, 생성된 제어 신호를 로봇(100)에 전송하여 로봇(100)이 터치 입력의 자취(720)에 따라 이동하도록 한다. Meanwhile, referring to FIG. 7B, the
도 8은 본 발명의 실시예에 따른 랩어라운드 영상을 이용한 제어 방법을 설명하기 위한 흐름도이다. 8 is a flowchart illustrating a control method using a wraparound image according to an embodiment of the present invention.
도 8을 참조하면, 로봇(100)은 S801 단계에서 복수의 방향에 대한 영상, 즉, 로봇(100)을 중심으로 사방의 영상(410, 420, 430, 440)을 복수의 카메라를 이용하여 획득한다. 그런 다음, 로봇(100)은 S603 단계에서 복수의 영상(410, 420, 430, 440)을 하나로 병합하여 랩어라운드 영상을 얻고, 장애물 영역(610)을 설정한다. 즉, 랩어라운드 영상으로부터 그래프 기반 이미지 세그멘테이션(Efficient Graph based Segmentation) 기법을 이용하여, 랩어라운드 영상을 복수의 영역으로 분할하고, 분할된 복수의 영역에서 텍스처의 유사도를 이용하여 로봇이 속하지 않은 영역을 장애물 영역(610)으로 설정하여 표시한다. 랩어라운드 영상에 장애물 영역(610)을 설정한 화면 예를 도 6의 (c)에 도시하였다. 이와 같이, 장애물 영역(610)을 설정한 랩어라운드 영상을 생성한 후, 로봇(100)은 S805 단계에서 랩어라운드 영상을 단말(200)에 전송한다. Referring to FIG. 8, in operation S801, the
단말(200)은 랩어라운드 영상을 수신하면, 선택적으로, 단말(200)과 로봇(100)은 S807 단계에서 랩어라운드 영상에 대해 동기를 맞추는 작업을 진행할 수 있다. 예컨대, 단말(200)의 표시부(220) 또는 표시입력부(240)의 해상도와 스크린의 크기에 따라 랩어라운드 영상(510)의 일부는 표시되지 못할 수 있다. 이러한 이유로, 단말(200)이 표시 또는 제어할 수 있는 랩어라운드 영상(510)의 높이(height) 및 폭(width)에 대해 상호간에 동기를 맞추는 것이 바람직하다. When the terminal 200 receives the wraparound image, optionally, the terminal 200 and the
랩어라운드 영상(510)에 대한 상호간에 동기 설정이 완료되면, 단말(200)은 S809 단계에서 수신된 랩어라운드 영상(510)을 표시입력부(240)에 표시한다. 랩어라운드 영상은 로봇을 중심(450)으로 촬영되었기 때문에, 단말(200)은 도 4의 로봇(100)의 위치(450)에 로봇을 직관적으로 나타내는 로봇 아이콘(101) 등을 이용하여 표시할 수 있다. 특히, 랩어라운드 영상은 장애물 영역(610)을 같이 표시한다. When the synchronization setting for the wraparound image 510 is completed, the terminal 200 displays the wraparound image 510 received in step S809 on the
사용자는 로봇 아이콘(101)을 통해 로봇(100)의 현재 위치를 직관적으로 인식할 수 있으며, 터치 입력을 이용하여 로봇을 이동시키고자 하는 경로를 입력할 수 있다. 또한, 사용자는 장애물 영역(610)을 통해 장애물을 직관적으로 인식할 수 있다. 이때, 사용자가 터치 입력을 통해 로봇을 이동시키고자 하는 경로를 입력하면, 단말(200)은 S811 단계에서 이러한 터치 입력을 수신한다. 그런 다음, 단말(200)은 S813 단계에서 터치 입력의 자취를 포함하는 제어 신호를 생성한다. 이때, 터치 입력의 자취가 장애물 영역(610)을 침범하는 경우, 에러 메시지를 리턴하고, 제어 신호를 생성하지 않을 수 있다. 이어서, 단말(200)은 S815 단계에서 제어 신호를 로봇(100)에 전송한다. The user may intuitively recognize the current position of the
제어 신호를 수신한 로봇(100)은 S817 단계에서 수신된 제어 신호의 터치 입력의 자취에 따라 이동하되, 실제 지면에서의 스케일에 따라 이동한다. The
한편, 지금까지, 표시입력부(240)를 통해서 랩어라운드 영상을 표시하고, 로봇(100)의 이동을 위한 터치입력이 행해지는 것으로 설명되었지만, 표시부(220) 및 입력부(230)를 분할하여 표시부(220)에서 랩어라운드 영상을 표시하고, 입력부(230)의 조작을 통해 랩어라운드 영상의 로봇 아이콘(101)을 이동시킴으로써 로봇(100)을 조작할 수도 있다. On the other hand, it has been described that the display of the wrap-around image through the
상술한 본 발명의 실시예에 따른 로봇의 원격 제어 방법은, 다양한 컴퓨터 수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함 할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The remote control method of the robot according to the embodiment of the present invention described above may be implemented in a program form readable through various computer means and recorded on a computer readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be those specially designed and constructed for the present invention, or may be known and available to those skilled in computer software. For example, the recording medium may be a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical medium such as a CD-ROM or a DVD, a magneto-optical medium such as a floppy disk magneto-optical media, and hardware devices that are specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
지금까지, 본 명세서와 도면에는 본 발명의 바람직한 실시 예에 대하여 개시하였으나, 여기에 개시된 실시 예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications, and variations will be apparent to those skilled in the art. It is obvious to those who have the knowledge of. In addition, although specific terms are used in the specification and the drawings, they are only used in a general sense to easily explain the technical contents of the present invention and to help the understanding of the present invention, and are not intended to limit the scope of the present invention.
본 발명은 랩어라운드 영상을 이용한 로봇 원격 제어를 위한 방법 및 이를 위한 장치에 관한 것이며, 이러한 본 발명은 로봇 자신을 기준으로 상기 로봇을 중심으로 사방을 평면도와 같이 나타내는 랩어라운드 영상을 생성하고, 상기 랩어라운드 영상에서 로봇 자신의 위치한 영역이 아닌 영역을 장애물 영역으로 표시하며, 장애물 영역이 표시된 랩어라운드 영상을 전송하는 상기 로봇과, 상기 장애물 영역이 표시된 랩어라운드 영상을 화면으로 표시하고, 표시된 랩어라운드 영상에 따라 로봇의 위치 이동을 위한 입력이 있으면, 상기 입력에 따라 로봇이 이동하도록 제어하는 제어 신호를 상기 로봇에 전송하는 단말을 포함하여 제공한다. 상술한 바와 같이 본 발명은 랩어라운드를 이용하여 로봇을 마치 하늘에서 내려다 보다는 시점을 제공함으로써, 사용자가 로봇의 이동 경로를 제어할 때, 직관적으로 제어할 수 있도록 한다. 특히, 사용자가 로봇을 위에서 내려다보는 관점에서 제어를 할 수 있어 좁은 지역에서 상대적으로 짧은 이동과 회전이 많은 로봇의 경우, 예컨대, 청소 로봇 등의 경우에, 훨씬 더 직관적인 제어가 가능하다. 또한, 본 발명은 랩어라운드 영상에 장애물을 표시하여 제공함으로써, 사용자가 직관적으로 장애물을 인식할 수 있으며, 로봇을 조작할 시, 장애물을 인식하여 조작할 수 있으며, 오직, 카메라, 즉, 광학 센서만을 이용하여 장애물을 인식할 수 있어, 비용이 절약되며, 효율적으로 로봇을 조작할 수 있다. 이는 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있다. The present invention relates to a method for remotely controlling a robot using a wraparound image, and an apparatus therefor. The present invention generates a wraparound image representing a plane around the robot as a plan view based on the robot itself. In the wrap-around image, an area other than the robot's own area is displayed as an obstacle area, and the robot transmitting a wrap-around image in which the obstacle area is displayed, and a wrap-around image in which the obstacle area is displayed, are displayed on the screen. If there is an input for moving the position of the robot according to the image, it provides a terminal including a control signal for controlling the robot to move according to the input to the robot. As described above, the present invention provides a viewpoint through the robot as if looking down from the sky, so that the user can intuitively control the robot's movement path. In particular, since the user can control the robot from the viewpoint of looking down from the top, a robot having a lot of relatively short movements and rotations in a small area, for example, a cleaning robot, etc., is much more intuitive to control. In addition, the present invention by displaying the obstacle in the wrap-around image, the user can intuitively recognize the obstacle, when operating the robot can recognize and manipulate the obstacle, only the camera, that is, the optical sensor Obstacles can be recognized using the bay, which saves money and enables the robot to be operated efficiently. This is not only a possibility of commercialization or sales, but also a possibility of being industrially applicable since it is practically possible to carry out clearly.
100: 로봇
110: 카메라 모듈 120: 통신 모듈
130: 저장 모듈 140: 표시 모듈
150: 이동 모듈 160: 제어 모듈
200: 단말
210: 통신부 220: 표시부
230: 입력부 240: 표시입력부
250: 저장부 260: 제어부100: Robot
110: camera module 120: communication module
130: storage module 140: display module
150: moving module 160: control module
200: terminal
210: communication unit 220: display unit
230: input unit 240: display input unit
250: storage unit 260: control unit
Claims (8)
로봇 자신을 기준으로 상기 로봇을 중심으로 사방을 평면도와 같이 나타내는 랩어라운드 영상을 생성하고, 상기 랩어라운드 영상에서 로봇 자신의 위치한 영역이 아닌 영역을 장애물 영역으로 표시하며, 장애물 영역이 표시된 랩어라운드 영상을 전송하는 상기 로봇; 및
상기 장애물 영역이 표시된 랩어라운드 영상을 화면으로 표시하고, 표시된 랩어라운드 영상에 따라 로봇의 위치 이동을 위한 입력이 있으면, 상기 입력에 따라 로봇이 이동하도록 제어하는 제어 신호를 상기 로봇에 전송하는 단말;을 포함하는 것을 특징으로 하는
로봇을 원격으로 제어하기 위한 장치. An apparatus for remotely controlling a robot,
Create a wrap-around image showing the four sides of the robot as a plan view with respect to the robot itself, and display a region around the robot as the obstacle region, the wrap-around image showing the obstacle region in the wrap-around image The robot to transmit; And
A terminal for displaying a wraparound image in which the obstacle area is displayed on the screen, and transmitting a control signal to the robot to control the robot to move according to the input when an input for moving the robot is located according to the displayed wraparound image; Characterized in that it comprises
Device for controlling the robot remotely.
그래프 기반 이미지 세그멘테이션(Efficient Graph based Segmentation) 기법을 이용하여, 랩어라운드 영상을 복수의 영역으로 분할하고, 분할된 영역 중 로봇이 위치한 영역과 텍스처 비교를 통해 미리 설정된 기준에 따라 로봇이 속한 영역과 유사도를 가지는 영역을 로봇과 동일한 영역으로 포함시키고, 나머지 영역을 장애물 영역으로 설정하는 것을 특징으로 하는 로봇을 원격으로 제어하기 위한 장치. The method of claim 1, wherein the robot
Using an efficient graph based segmentation technique, the wraparound image is divided into a plurality of areas, and the similarity with the area to which the robot belongs is set according to a predetermined standard through texture comparison with the area where the robot is located among the divided areas. An apparatus for remotely controlling a robot comprising an area having a same area as the robot and setting the remaining area as an obstacle area.
상기 로봇을 중심으로 사방을 모두 촬영하는 복수의 카메라를 포함하며,
랩어라운드 영상은 상기 로봇을 중심으로 사방을 모두 촬영한 복수의 영상을 하나의 영상으로 병합한 영상인 것을 특징으로 하는 로봇을 원격으로 제어하기 위한 장치. The method of claim 1, wherein the robot
It includes a plurality of cameras for shooting all around the robot,
Wrap-around image is a device for remotely controlling the robot, characterized in that the image is a combination of a plurality of images taken all around the robot into one image.
상기 로봇을 직관적으로 나타내는 로봇 아이콘을 표시하고,
상기 장애물 영역과 장애물 영역이 아닌 영역과 구분되도록 표시하며,
상기 로봇 아이콘을 이동시키는 터치에 의한 입력을 감지하여, 상기 터치 입력에 의한 자취가 상기 장애물 영역에 포함되면, 이동할 수 없는 영역임을 나타내는 에러 메시지를 출력하고, 상기 터치 입력에 의한 자취가 상기 장애물 영역에 포함되지 않으면, 상기 터치에 의한 입력의 자취를 포함하는 제어 신호를 생성하는 것을 특징으로 하는 로봇을 원격으로 제어하기 위한 장치. The method of claim 1, wherein the terminal is a wraparound video
Displaying a robot icon that intuitively represents the robot,
It is displayed to be distinguished from the obstacle area and the non-obstruction area,
Detects an input by a touch for moving the robot icon, and if the trace by the touch input is included in the obstacle area, outputs an error message indicating that the robot cannot move, and the trace by the touch input is the obstacle area. If not included, the apparatus for remotely controlling the robot, characterized in that for generating a control signal including a trace of the input by the touch.
상기 로봇이 로봇 자신을 기준으로 상기 사방을 평면도와 같이 나타내는 랩어라운드 영상을 생성하는 단계;
상기 랩어라운드 영상에서 로봇 자신의 위치한 영역이 아닌 영역을 장애물 영역으로 설정하는 단계;
상기 장애물 영역이 표시된 랩어라운드 영상을 단말에 전송하는 단계;
상기 단말이 상기 랩어라운드 영상을 표시하는 단계;
상기 단말이 상기 표시된 랩어라운드 영상에 로봇의 위치 이동을 위한 입력이 있으면, 상기 입력에 따라 상기 로봇이 이동하도록 제어하는 제어 신호를 생성하는 단계; 및
상기 제어 신호를 상기 로봇에 전송하는 단계;를 포함하는 것을 특징으로 하는 로봇을 원격으로 제어하기 위한 방법. In the method for controlling the robot remotely,
Generating, by the robot, a wrap around image representing the four sides of the robot as a plan view based on the robot itself;
Setting an area other than the robot's own area as an obstacle area in the wraparound image;
Transmitting a wraparound image displaying the obstacle area to a terminal;
Displaying, by the terminal, the wraparound image;
Generating, by the terminal, a control signal for controlling the robot to move according to the input if an input for moving the position of the robot exists in the displayed wraparound image; And
Transmitting the control signal to the robot.
상기 설정하는 단계는
그래프 기반 이미지 세그멘테이션(Efficient Graph based Segmentation) 기법을 이용하여, 상기 랩어라운드 영상을 복수의 영역으로 분할하는 단계; 및
상기 분할된 영역 중 로봇이 위치한 영역과 텍스처 비교를 통해 미리 설정된 기준에 따라 로봇이 속한 영역과 유사도를 가지는 영역을 로봇과 동일한 영역으로 포함시키고, 나머지 영역을 장애물 영역으로 설정하는 단계;를 포함하는 것을 특징으로 하는
것을 특징으로 하는 로봇을 원격으로 제어하기 위한 방법. The method of claim 5,
The setting step
Dividing the wraparound image into a plurality of regions by using an efficient graph based segmentation technique; And
And including an area having similarity with the area to which the robot belongs according to a preset reference through texture comparison with the area where the robot is located among the divided areas as the same area as the robot, and setting the remaining area as an obstacle area. Characterized by
A method for remotely controlling a robot, characterized in that.
상기 표시하는 단계는 상기 단말은 랩어라운드 영상에 상기 로봇을 직관적으로 나타내는 로봇 아이콘을 표시하고, 장애물 영역을 장애물이 아닌 영역과 구분되도록 표시하며,
상기 제어 신호를 생성하는 단계는 상기 로봇 아이콘을 이동시키는 터치에 의한 입력을 감지하여, 상기 터치 입력에 의한 자취가 상기 장애물 영역에 포함되면, 이동할 수 없는 영역임을 나타내는 에러 메시지를 출력하고, 상기 터치 입력에 의한 자취가 상기 장애물 영역에 포함되지 않으면, 상기 터치에 의한 입력의 자취를 포함하는 제어 신호를 생성하는 것을 특징으로 하는 로봇을 원격으로 제어하기 위한 방법. The method of claim 5,
In the displaying, the terminal displays a robot icon that intuitively represents the robot on a wraparound image, and displays an obstacle area to be distinguished from an area that is not an obstacle.
The generating of the control signal may include detecting an input by a touch for moving the robot icon, outputting an error message indicating that the touch input is an area that cannot be moved when the trace input by the touch input is included in the obstacle area, and touching the touch. If the trace by the input is not included in the obstacle area, generating a control signal including the trace of the input by the touch.
상기 로봇은 상기 사방을 촬영하는 복수의 카메라를 구비하며,
상기 랩어라운드 영상을 생성하는 단계는 상기 로봇을 중심으로 복수의 카메라를 통해 촬영한 복수의 영상을 병합하여 상기 랩어라운드 영상을 생성하는 것을 특징으로 하는
로봇을 원격으로 제어하기 위한 방법.The method of claim 5,
The robot has a plurality of cameras for shooting the four sides,
The generating of the wraparound image may include generating a wraparound image by merging a plurality of images taken by a plurality of cameras based on the robot.
Method for remotely controlling the robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110143004A KR101305947B1 (en) | 2011-12-27 | 2011-12-27 | A method for remote controlling robot using wrap around image and an apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110143004A KR101305947B1 (en) | 2011-12-27 | 2011-12-27 | A method for remote controlling robot using wrap around image and an apparatus thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130074903A true KR20130074903A (en) | 2013-07-05 |
KR101305947B1 KR101305947B1 (en) | 2013-09-12 |
Family
ID=48988880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110143004A KR101305947B1 (en) | 2011-12-27 | 2011-12-27 | A method for remote controlling robot using wrap around image and an apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101305947B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024075953A1 (en) * | 2022-10-07 | 2024-04-11 | 주식회사 클로봇 | System and method for acquiring mobile robot map image and object position based on multiple cameras |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102085751B1 (en) | 2018-02-14 | 2020-04-29 | 경북대학교 산학협력단 | Remote control method for Robot manipulator using distance measurement and robot thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060116922A (en) * | 2005-05-11 | 2006-11-16 | 엘지전자 주식회사 | Remote controller of roving robot |
KR101087058B1 (en) * | 2009-12-28 | 2011-11-28 | 전자부품연구원 | Omni-directional Camera and Driving Method thereof |
-
2011
- 2011-12-27 KR KR1020110143004A patent/KR101305947B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024075953A1 (en) * | 2022-10-07 | 2024-04-11 | 주식회사 클로봇 | System and method for acquiring mobile robot map image and object position based on multiple cameras |
Also Published As
Publication number | Publication date |
---|---|
KR101305947B1 (en) | 2013-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103092432B (en) | The trigger control method of man-machine interactive operation instruction and system and laser beam emitting device | |
US10101874B2 (en) | Apparatus and method for controlling user interface to select object within image and image input device | |
US10579152B2 (en) | Apparatus, method and recording medium for controlling user interface using input image | |
KR101305944B1 (en) | A method for remote controlling robot using wrap around image and an apparatus thereof | |
US20160196692A1 (en) | Virtual lasers for interacting with augmented reality environments | |
JP5213183B2 (en) | Robot control system and robot control program | |
EP3021206B1 (en) | Method and device for refocusing multiple depth intervals, and electronic device | |
US9377860B1 (en) | Enabling gesture input for controlling a presentation of content | |
WO2014149537A9 (en) | Detection of a scrolling gesture | |
JP6357023B2 (en) | Information processing program, information processing apparatus, information processing apparatus control method, and information processing system | |
WO2016178783A1 (en) | Interactive integrated display and processing device | |
US9477302B2 (en) | System and method for programing devices within world space volumes | |
EP3989118A1 (en) | Target tracking method and system, readable storage medium and moving platform | |
KR100957575B1 (en) | Method, terminal and computer-readable recording medium for performing visual search based on movement or pose of terminal | |
US20130285904A1 (en) | Computer vision based control of an icon on a display | |
KR102627014B1 (en) | electronic device and method for recognizing gestures | |
KR101553503B1 (en) | Method for controlling a external device using object recognition | |
JP2013012158A (en) | Electronic apparatus and control method | |
KR101305947B1 (en) | A method for remote controlling robot using wrap around image and an apparatus thereof | |
US10506290B2 (en) | Image information projection device and projection device control method | |
US9350918B1 (en) | Gesture control for managing an image view display | |
KR102617252B1 (en) | Electronic Device and the Method for Automatically Switching to Panorama Capture Mode thereof | |
JP6473048B2 (en) | Mobile device operation terminal, mobile device operation method, and mobile device operation program | |
JP5558899B2 (en) | Information processing apparatus, processing method thereof, and program | |
KR102248741B1 (en) | Display appaeatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160901 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180627 Year of fee payment: 6 |