KR101760881B1 - Remote apparatus and teaching method of robot thereof - Google Patents

Remote apparatus and teaching method of robot thereof Download PDF

Info

Publication number
KR101760881B1
KR101760881B1 KR1020100103471A KR20100103471A KR101760881B1 KR 101760881 B1 KR101760881 B1 KR 101760881B1 KR 1020100103471 A KR1020100103471 A KR 1020100103471A KR 20100103471 A KR20100103471 A KR 20100103471A KR 101760881 B1 KR101760881 B1 KR 101760881B1
Authority
KR
South Korea
Prior art keywords
basic operation
robot
user
information
result
Prior art date
Application number
KR1020100103471A
Other languages
Korean (ko)
Other versions
KR20120042014A (en
Inventor
김경록
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100103471A priority Critical patent/KR101760881B1/en
Publication of KR20120042014A publication Critical patent/KR20120042014A/en
Application granted granted Critical
Publication of KR101760881B1 publication Critical patent/KR101760881B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/12Arrangements for remote connection or disconnection of substations or of equipment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Abstract

원격 단말기 및 이를 이용한 로봇 교시방법이 개시된다. 본 발명에 따른 원격 단말기 및 이를 이용한 로봇 교시방법은 주위 환경을 촬영하는 카메라부를 포함하고 위치를 인식하여 지도를 생성하는 로봇과 무선 네트워크를 통해 연결되며 로봇에 필요한 작업을 교시하는 원격 단말기에 있어서, 수행 가능한 복수의 기본동작을 저장하는 메모리부, 로봇의 카메라부로부터 촬영된 영상정보 및 생성된 지도정보를 수신하는 통신부, 통신부로부터 수신된 영상정보, 지도정보 및 메모리부에 저장된 기본동작의 정보를 사용자에게 제공하여 필요한 기본동작을 선택받는 유저 인터페이스부 및 유저 인터페이스부에 의해 선택된 적어도 하나의 기본동작을 조합하여 새로운 작업을 생성하는 작업 생성부를 포함한다.
따라서, 본 발명은 이미 프로그래밍 된 기본동작을 조합하여 고수준의 작업을 생성하고 이를 로봇에게 실시간으로 전송함으로써 로봇이 기본동작 이외에 더 다양한 작업을 처리할 수 있게 한다.
A remote terminal and a robot teaching method using the same are disclosed. A remote terminal and a robot teaching method using the same according to the present invention are a remote terminal connected to a robot for generating a map by recognizing a position and a camera section for photographing an environment, A communication section for receiving the image information photographed by the camera section of the robot and the generated map information, the image information received from the communication section, the map information, and the basic operation information stored in the memory section And a job generating unit for generating a new job by combining at least one basic operation selected by a user interface unit and a user interface unit, which are provided to a user and select a necessary basic operation.
Therefore, the present invention combines the basic operations already programmed to generate a high-level task and transmit it to the robot in real time, thereby enabling the robot to handle more various tasks in addition to the basic operation.

Description

원격 단말기 및 이를 이용한 로봇 교시방법{REMOTE APPARATUS AND TEACHING METHOD OF ROBOT THEREOF}TECHNICAL FIELD [0001] The present invention relates to a remote terminal and a robot teaching method using the remote terminal.

본 발명은 원격 단말기 및 이를 이용한 로봇 교시방법에 관한 것으로서, 보다 상세하게는 로봇에게 실시간으로 새로운 작업을 교시할 수 있는 원격 단말기 및 이를 이용한 로봇 교시방법에 관한 것이다.The present invention relates to a remote terminal and a robot teaching method using the same, and more particularly, to a remote terminal capable of teaching a robot a new task in real time and a robot teaching method using the remote terminal.

로봇 기술은 1990년대에 들어와 산업용 로봇에서 비산업용 로봇으로의 전환이 시도되면서 많은 발전이 이루어졌으나, 상용화되기에는 아직 많은 문제점이 있다. Robot technology has been developed in the 1990s with the transition from industrial robots to non-industrial robots, but there are still many problems to be commercialized.

특히, 서비스 로봇이 사용자가 원하는 서비스를 제공하기 위해서는 로봇이 주어진 명령을 이해하고 주변 환경을 인식하여 스스로 판단할 수 있어야 한다.In particular, in order for the service robot to provide the service desired by the user, the robot must be able to understand the given command and recognize the surrounding environment and to judge for itself.

그러나, 프로그래머가 사전에 일어날 수 있는 모든 경우에 대하여 예측하여 프로그래밍을 해야 한다는 단점이 있으며, 그 결과 프로그래머가 예측하지 못한 상황에 대해서는 처리 불가능하게 되는 문제점이 있다.However, there is a disadvantage in that the programmer has to predict and program all the cases that may occur in advance, and as a result, there is a problem that the programmer can not process a situation that is not predicted by the programmer.

이에 따라 실시간으로 로봇에게 작업을 교시하는 기술의 중요성이 대두되는데 기존에는 산업용 로봇들에 사용되는 Teach Pendant 방식이 사용되었다. 그러나 이러한 방식은 저수준의 여러가지 명령들이 매핑된 단추들을 사용하여 사용자의 일방적인 교시에 의해 일련의 동작이 일어나고 또한 그 행동 양식도 모터 제어를 통한 로봇 팔의 이동이 대부분인 문제점이 있다. Therefore, the importance of teaching the robot to work in real time emerges. In the past, Teach Pendant method used in industrial robots was used. However, this method has a problem in that a series of operations are performed by the unilateral instruction of the user by using buttons to which various commands of low level are mapped, and most of the movement of the robot arm by its behavior and motor control is also a problem.

또한, 오랜 시간 동안 로봇이 스스로 학습하고 사용자의 간단한 참/거짓에 대한 지시를 통해 작업을 구성하는 방법이 있지만 이 또한 실시간으로 로봇을 교시하는데 부적합한 문제점이 존재한다. In addition, there is a problem that the robot learns for a long time and constructs the task through instructions of the user's simple truth / falsehood, but there are also problems that are not suitable for teaching the robot in real time.

따라서, 산업용 로봇에서 탈피해 다양한 목적을 가지고 복잡한 고수준의 작업을 수행하도록 효과적으로 로봇에게 작업을 교시하는 방법이 요구되는 실정이다. Therefore, there is a need for a method of instructing a robot to work effectively so as to perform complex high-level tasks with various purposes by moving away from industrial robots.

본 발명의 일 측면에 의하면 미리 저장된 기본 동작의 조합으로 새로운 작업이 생성되고, 생성된 작업을 로봇으로 전송하여 이를 수행하게 하는 원격 단말기 및 이를 이용한 로봇 교시방법을 제공하고자 한다. According to an aspect of the present invention, there is provided a remote terminal for generating a new job with a combination of basic operations stored in advance and transmitting the created job to a robot, and a robot teaching method using the remote terminal.

전술한 목적을 달성하기 위한 본 발명의 일 측면에 따른 원격단말기는 주위 환경을 촬영하는 카메라부를 포함하고 위치를 인식하여 지도를 생성하는 로봇과 무선 네트워크를 통해 연결되며 로봇에 필요한 작업을 교시하는 원격 단말기로서, 수행 가능한 복수의 기본동작을 저장하는 메모리부, 로봇의 카메라부로부터 촬영된 영상정보 및 생성된 지도정보를 수신하는 통신부, 통신부로부터 수신된 영상정보, 지도정보 및 메모리부에 저장된 기본동작 정보를 사용자에게 제공하여 필요한 기본동작을 선택받는 유저 인터페이스부 및 유저 인터페이스부에 의해 선택된 적어도 하나의 기본동작을 조합하여 새로운 작업을 생성하는 작업 생성부를 포함한다.According to one aspect of the present invention, there is provided a remote terminal including a camera unit for photographing an environment, a robot for recognizing a position and generating a map, a remote controller connected to the robot through a wireless network, A terminal, comprising: a memory unit for storing a plurality of basic operations that can be performed; a communication unit for receiving image information photographed from a camera unit of the robot and generated map information; image information received from the communication unit; map information; And a job creation unit for creating a new job by combining at least one basic operation selected by a user interface unit and a user interface unit, which provide information to a user and select a necessary basic operation.

한편, 유저 인터페이스부는 사용자로부터 선택된 기본동작에 대해 로봇의 작업위치, 작업대상 및 작업내용에 대한 정보인 세부정보를 입력받을 수 있다.On the other hand, the user interface unit can receive detailed information on the basic operation selected by the user, which is information on the robot's operation position, operation object, and operation contents.

또한, 통신부는 세부정보가 입력된 기본동작의 명령을 로봇에게 전송하여 기본동작을 수행한 로봇의 영상정보를 수신하고, 유저 인터페이스부는 기본동작을 수행한 로봇의 영상정보를 사용자에게 제공하여 그 수행결과에 대해 피드백 받을 수 있다.In addition, the communication unit transmits the command of the basic operation in which the detailed information is input to the robot, receives the image information of the robot performing the basic operation, and the user interface unit provides the image information of the robot performing the basic operation to the user, Feedback on the results can be obtained.

또한, 작업 생성부는 유저 인터페이스부로부터 입력된 기본동작의 수행결과가 '성공'이면 해당 기본동작을 저장하고, '실패'이면 해당 기본동작을 삭제할 수 있다.In addition, the job creation unit may store the basic operation if the execution result of the basic operation inputted from the user interface unit is 'successful', and may delete the basic operation if it is 'failure'.

또한, 유저 인터페이스부는 사용자로부터 추가 기본동작을 입력받고, 작업 생성부는 추가 기본동작이 존재하면 기저장된 기본동작에 추가 기본동작을 추가 저장하고, 존재하지 않으면 기저장된 기본동작을 최종 작업으로 설정하여 이를 메모리부에 저장시킬 수 있다.In addition, the user interface unit receives the additional basic operation from the user, and the job creating unit additionally stores the additional basic operation in the pre-stored basic operation if the additional basic operation exists, and sets the pre-stored basic operation as the final operation And can be stored in the memory unit.

전술한 목적을 달성하기 위한 본 발명의 다른 측면에 따른 로봇 교시방법은주위 환경을 촬영하고 위치를 인식하여 지도를 생성하는 로봇과 무선 네트워크를 통해 연결되는 원격 단말기를 이용한 로봇 교시방법으로서, 촬영된 주위 환경의 영상정보 및 생성된 지도정보를 로봇으로부터 수신하고, 사용자로부터 수신된 영상정보 및 지도정보에 근거하여 새로운 작업을 생성할 것을 입력받고, 새로운 작업 생성이 입력되면, 미리 저장된 복수의 기본동작에서 작업을 수행하는데 필요한 기본동작을 선택받고, 선택된 기본동작에 대해 로봇의 작업위치, 작업대상 및 작업내용에 대한 정보인 세부정보를 입력받고, 세부정보가 입력된 기본동작을 로봇에 전송하여 기본동작의 수행결과에 대해 피드백받고, 피드백 결과에 따라 기본동작을 저장한다.According to another aspect of the present invention, there is provided a robot teaching method using a robot for capturing an environment and generating a map by recognizing a position and a remote terminal connected through a wireless network, Receiving the image information of the surrounding environment and the generated map information from the robot, inputting to generate a new job based on the image information and the map information received from the user, and when a new job creation is inputted, And receives detailed information, which is information on the robot's operation position, operation target, and operation details, with respect to the selected basic operation, and transmits the basic operation in which the detailed information is inputted to the robot, Receives feedback on the performance result of the operation, and stores the basic operation according to the feedback result.

한편, 피드백 결과에 따라 기본동작을 저장하는 것은 기본동작의 수행결과가 '성공'이면 해당 기본동작을 저장하고, '실패'이면 해당 기본동작을 삭제할 수 있다. Meanwhile, if the result of the basic operation is 'successful', the basic operation is stored. If the result of the basic operation is 'successful', the basic operation can be deleted.

또한, 사용자로부터 추가 기본동작을 입력받고, 추가 기본동작이 존재하면 기저장된 기본동작에 추가 기본동작을 추가 저장하고, 존재하지 않으면 기저장된 기본동작을 최종 작업으로 설정하여 이를 저장할 수 있다.In addition, if an additional basic operation is input from the user, the additional basic operation is additionally stored in the preliminarily stored basic operation, and if not, the preliminarily stored basic operation is set as the final operation and stored.

또한, 추가 기본동작이 존재하면, 미리 저장된 복수의 기본동작에서 추가 기본동작을 선택받고, 선택된 추가 기본동작에 대해 세부정보를 입력받고, 세부정보가 입력된 추가 기본동작을 로봇에 전송하여 추가 기본동작의 수행결과에 대해 피드백받고, 피드백 결과에 따라 추가 기본동작을 저장하는 과정을 반복 수행할 수 있다.In addition, if there is an additional basic action, the additional basic action is selected from a plurality of pre-stored basic actions, the detailed information about the selected additional basic action is received, and the additional basic action to which the detailed information is inputted is transmitted to the robot, And the process of storing the additional basic operation according to the feedback result can be repeatedly performed.

본 발명은 좀 더 다양하고 정밀한 행동 제어가 요구되는 서비스용 로봇에 원격 단말기를 연결시키고, 원격 단말기를 통해 이미 프로그래밍된 기본 동작을 조합하여 고수준의 작업을 생성함으로써 로봇이 기본 동작 이외에 더 다양한 작업을 처리할 수 있도록 한다.The present invention connects a remote terminal to a service robot requiring more various and precise behavior control, and combines basic operations already programmed through a remote terminal to generate a high-level task so that the robot performs more various operations So that it can be processed.

또한 영상, 지도 정보 등의 로봇이 제공하는 실시간 정보를 활용하여 원격 단말기의 터치 패널로 기본 동작의 세부 정보를 입력함으로써 로봇 작업 교시의 실시간성, 사용성 및 편리성이 제고될 수 있다. In addition, by inputting detailed information of the basic operation to the touch panel of the remote terminal by utilizing the real time information provided by the robot such as image and map information, the real time property, usability and convenience of the robot operation teaching can be improved.

따라서, 사용자 입장에서는 로봇의 지능이 인간에 가깝게 느낄 수 있도록 하는 효과가 있다.Therefore, it is effective for the user to feel the intelligence of the robot close to the human being.

도 1은 본 발명의 일실시예에 따른 로봇 교시 시스템의 구성을 나타낸 도면이다.
도 2는, 도 1에 도시된 로봇 교시 시스템의 블록도이다.
도 3은 본 발명의 일실시예에 따른 원격 단말기의 모습을 도시한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 로봇 교시방법을 나타낸 순서도이다.
도 5a는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5b는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5c는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5d는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5e는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5f는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
1 is a block diagram of a robot teaching system according to an embodiment of the present invention.
2 is a block diagram of the robot teaching system shown in Fig.
3 is a diagram illustrating a remote terminal according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a robot teaching method according to another embodiment of the present invention.
5A is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG.
5B is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG.
FIG. 5C is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG. 3. FIG.
5D is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG.
FIG. 5E is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG. 3. FIG.
FIG. 5F is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG. 3. FIG.

이하 도 1 내지 도 5f를 참조하여 본 발명에 따른 원격 단말기 및 이를 이용한 로봇 교시방법의 바람직한 실시예를 설명한다.Hereinafter, a preferred embodiment of a remote terminal and a robot teaching method using the same according to the present invention will be described with reference to FIGS. 1 to 5F.

도 1은 본 발명의 일실시예에 따른 로봇 교시 시스템의 구성을 나타낸 도면이고, 도 2는 도 1에 도시된 로봇 교시 시스템의 블록도이다.FIG. 1 is a block diagram of a robot teaching system according to an embodiment of the present invention. FIG. 2 is a block diagram of the robot teaching system shown in FIG. 1. Referring to FIG.

본 실시예에 따른 로봇 교시 시스템은 로봇(200)의 정보를 전달받고 사용자가 그에 따라 작업을 교시할 수 있게 하는 원격 단말기(100)와, 원격 단말기(100)로부터 수신된 명령을 수행하는 로봇(200)과, 원격 단말기(100)와 로봇(200)간의 데이터 송수신 통로를 제공하는 통신 네트워크(300)를 포함한다.The robot teaching system according to the present embodiment includes a remote terminal 100 that receives information of the robot 200 and allows a user to instruct the robot 200 according to the instruction, And a communication network 300 for providing a data transmission / reception path between the remote terminal 100 and the robot 200.

원격 단말기(100)는 유저 인터페이스부(110), 제어부(120), 메모리부(130) 및 통신부(140)를 포함한다.The remote terminal 100 includes a user interface unit 110, a control unit 120, a memory unit 130, and a communication unit 140.

유저 인터페이스부(110)는 원격 단말기(100)의 입/출력부로서 터치패널로 구성되고, 터치 패널로 입력된 내용이나 명령 실행 결과를 출력한다.The user interface unit 110 is constituted by a touch panel as an input / output unit of the remote terminal 100, and outputs contents or command execution results input to the touch panel.

특히 본 실시예의 유저 인터페이스부(110)는 로봇(200)으로부터 수신한 영상 정보와 지도 정보를 출력하고, 사용자로 하여금 영상 정보 및 지도 정보에 기초하여 작업을 생성할 수 있도록 한다.In particular, the user interface unit 110 of the present embodiment outputs image information and map information received from the robot 200, and allows the user to create a job based on the image information and the map information.

한편, 작업은 메모리부(130)에 저장된 기본 동작의 조합으로 생성되며, 이러한 작업을 생성하기 위해 유저 인터페이스부(110)는 필요한 정보를 사용자에게 제공하고, 사용자로부터 정보를 입력받는 것이다.Meanwhile, the job is generated by a combination of the basic operations stored in the memory unit 130, and the user interface unit 110 provides necessary information to the user and receives information from the user to generate the job.

제어부(120)는 유저 인터페이스 처리부(121) 및 작업 생성부(122)를 포함한다.The control unit 120 includes a user interface processing unit 121 and a task generation unit 122. [

유저 인터페이스 처리부(121)는 유저 인터페이스부(110)의 터치 패널로 입/출력되는 신호를 제어한다. The user interface processing unit 121 controls signals input to / output from the touch panel of the user interface unit 110. [

유저 인터페이스 처리부(121)는 터치 패널로부터 입력된 아날로그 신호를 디지털 형태의 터치 패널 데이터로 변환하여 그 터치 패널 데이터를 처리하고, 처리된 데이터를 다시 아날로그 형태의 신호로 변환하여 유저 인터페이스부(110)로 출력하는 동작을 수행한다. 또한 유저 인터페이스 처리부(121)는 사용자가 터치 패널에 입력한 내용을 사용자가 확인할 수 있도록 전달하는 역할을 수행한다.The user interface processing unit 121 converts the analog signal input from the touch panel into touch panel data in a digital form, processes the touch panel data, converts the processed data back into analog signals, As shown in FIG. In addition, the user interface processing unit 121 transmits the contents inputted by the user to the touch panel so that the user can confirm the contents.

구체적으로, 유저 인터페이스 처리부(121)는 통신부(140)로부터 수신된 영상 정보, 지도 정보 및 음성 정보를 유저 인터페이스부(110)에 출력하거나, 유저 인터페이스부(110)로부터 입력된 텍스트 정보, 음성 정보를 변환하여 통신부(140)로 전송한다. 또한 사용자가 입력한 내용을 확인할 수 있게 유저 인터페이스부(110)에 출력하고, 사용자의 입력에 따른 유저 인터페이스부(110)에 출력될 화면의 변화를 제어한다.Specifically, the user interface processing unit 121 outputs the video information, the map information, and the audio information received from the communication unit 140 to the user interface unit 110, or the text information and audio information input from the user interface unit 110 And transmits it to the communication unit 140. Further, the user interface unit 110 outputs the user input to the user interface unit 110 so as to check the change of the screen to be output to the user interface unit 110 according to the input of the user.

작업 생성부(122)는 새로운 작업을 생성할 것을 사용자로부터 입력받고, 사용자를 통해 메모리부(130)에 저장된 복수의 기본 동작 중에서 적어도 하나의 기본 동작이 선택되면, 선택된 기본 동작을 작업을 구성하는 하위 기본 동작으로 저장한다.When at least one basic operation among a plurality of basic operations stored in the memory unit 130 is selected by the user through the user, the job creation unit 122 generates a basic operation based on the selected basic operation, Save it as a subordinate action.

또한 작업 생성부(122)는 작업이 복수의 하위 기본 동작으로 구성될 경우, 사용자가 선택한 순서대로 하위 기본 동작들을 정렬하여 저장한다. 예컨대, 사용자가 메모리부(130)에 저장된 기본 동작 중에서 '이동하기', '얼굴 인식', '말하기'의 순서대로 선택했다면, 작업 생성부(122)는 생성된 작업이 '이동하기'→'얼굴 인식'→'말하기'의 순서대로 구성됨을 저장하는 것이다.In addition, when the job is configured with a plurality of sub-basic operations, the job creating unit 122 sorts and stores the sub-basic operations in the order selected by the user. For example, if the user selects one of the basic operations stored in the memory unit 130 in the order of 'move', 'face recognition', and 'speech', the task creation unit 122 ' Quot ;, " face recognition ", and " talking ".

작업 생성부(122)는 사용자로부터 하위 기본 동작들이 모두 선택되면, 선택된 하위 기본 동작들로 구성된 작업에 대한 정보를 메모리부(130)에 저장시킨다.When all the lower basic operations are selected from the user, the task generating unit 122 stores information on the task composed of the selected lower basic operations in the memory unit 130. [

메모리부(130)는 미리 프로그래밍된 복수의 기본 동작을 저장하고, 작업 생성부(122)로부터 생성된 새로운 작업에 대한 정보를 저장한다.The memory unit 130 stores a plurality of preliminarily programmed basic operations and stores information on a new job generated from the job creation unit 122. [

통신부(140)는 원격 단말기(100)가 전화 회선, 인터넷 전용 회선 등 무선 네트워크를 통해 로봇(200)과 통신하기 위한 모뎀 등으로 구성된다.The communication unit 140 includes a modem for communicating with the robot 200 through a wireless network such as a telephone line or an Internet-only line.

특히, 본 실시예에 따른 통신부(140)는 로봇(200)으로부터 영상 정보와 지도 정보를 수신하고, 로봇(200)에게 기본 동작이나 생성된 작업을 수행하도록 하는 동작 명령 신호를 전송한다.In particular, the communication unit 140 according to the present embodiment receives the image information and the map information from the robot 200, and transmits an operation command signal to the robot 200 to perform a basic operation or a generated operation.

로봇(200)은 카메라부(210), 제어부(220) 및 통신부(230)를 구비한다.The robot 200 includes a camera unit 210, a control unit 220, and a communication unit 230.

카메라부(210)는 3차원 깊이(3D Depth) 및 2차원 픽셀 정보를 동시에 입력할 수 있는 전하 결합 소자(CCD) 카메라, 적외선(IR) 카메라, TOF 카메라, Z-Cam 중 어느 하나일 수 있다. The camera unit 210 may be any one of a charge coupled device (CCD) camera, an infrared (IR) camera, a TOF camera, and a Z-Cam capable of simultaneously inputting 3D depth and two-dimensional pixel information .

특히, 카메라부(210)는 로봇(200)의 상태 및 로봇(200) 주변의 상황을 촬상하고, 얻어진 영상 신호를 제어부(220)에 송출한다.Particularly, the camera unit 210 captures the state of the robot 200 and the situation around the robot 200, and sends the obtained video signal to the control unit 220.

제어부(220)는 로봇(200)의 위치를 인식하여 지도 정보를 작성하고, 통신부(230)를 통해 수신된 명령 신호에 따라 로봇(200)이 구동하도록 제어한다. 또한 제어부(220)에는 롬, 램 또는 플래쉬 형태의 메모리가 포함되어 로봇(200)의 시스템 데이터 또는 지도 정보, 메시지 정보 등이 저장될 수 있다.The control unit 220 recognizes the position of the robot 200 and generates map information, and controls the robot 200 to be driven according to the command signal received through the communication unit 230. In addition, the control unit 220 may include a memory such as a ROM, a RAM, or a flash memory to store system data, map information, message information, and the like of the robot 200.

구체적으로, 제어부(220)는 자신의 위치 및 특정 장소의 위치를 인식하고 이를 등록하여 지도 정보를 작성한다. 이에 따라 로봇(200)이 자신의 위치와 이동할 위치 간의 상대적인 방향과 거리를 계산하여 이를 토대로 이동할 수 있게 한다. 이러한 지도 정보는 일정 공간 내에 자율 이동에 따라 스스로 공간 내에 표식을 통해 작성될 수 있다.Specifically, the control unit 220 recognizes the position of the user and the position of the specific place, registers the same, and creates the map information. Accordingly, the robot 200 calculates a relative direction and a distance between a position of the robot 200 and a position to which the robot 200 moves, thereby enabling the robot 200 to move based on the calculated direction. Such map information can be created by marking itself in a space according to autonomous movement within a certain space.

제어부(220)는 통신부(230)로부터 수신된 동작 명령을 동작 제어신호로 변환하고 동작 제어신호를 해석하여 동작 구동신호를 생성한다. 또한 이러한 동작 구동신호를 로봇(200)의 구동 기구에 전달하는 것에 의해 로봇(200)을 전, 후, 좌, 우로 이동시키거나 로봇(200)의 팔과 다리를 일정한 방향으로 유동시킨다.The control unit 220 converts an operation command received from the communication unit 230 into an operation control signal and analyzes the operation control signal to generate an operation drive signal. Further, by transmitting the operation driving signal to the driving mechanism of the robot 200, the robot 200 is moved forward, backward, leftward and rightward, or the arms and legs of the robot 200 are moved in a predetermined direction.

또한, 제어부(220)는 카메라부(210)로부터의 영상 신호에 대하여 소정의 신호처리를 수행하고, 이렇게 얻어진 영상 신호를 통신부(230)에 송출한다.In addition, the control unit 220 performs predetermined signal processing on the video signal from the camera unit 210, and sends the video signal thus obtained to the communication unit 230.

도 3은 본 발명의 일실시예에 따른 원격 단말기의 모습을 도시한 도면이다.3 is a diagram illustrating a remote terminal according to an exemplary embodiment of the present invention.

본 실시예에 따른 원격 단말기(100)는 로봇(200)의 카메라부(210)로부터 촬상된 영상 신호를 전송받아 로봇 주변의 환경 영상을 출력하는 영상 화면(10)과 로봇(200)의 현재 위치가 표시된 지도 정보를 출력하는 지도 화면(20)이 표시된다. 따라서, 사용자는 영상 화면(10)과 지도 화면(20)을 토대로 로봇에게 교시할 작업을 생성하게 된다.The remote terminal 100 according to the present embodiment receives a video signal captured by the camera unit 210 of the robot 200 and displays the environment image of the surroundings of the robot and the current position of the robot 200 A map screen 20 for displaying the map information displayed on the map screen 20 is displayed. Therefore, the user creates a task to be taught to the robot based on the video screen 10 and the map screen 20. [

사용자가 교시 작업을 생성하기 위해 유저 인터페이스부(110)는 영상 화면(10)과 지도 화면(20)의 하단에 이미 프로그래밍되어 수행 가능한 로봇의 기본 동작을 표시하는 작업 리스트(30)를 사용자에게 표시한다. 사용자는 영상 화면(10)과 지도 화면(20)을 토대로 파악된 로봇의 현재 상태에 기초하여 필요한 기본 동작을 작업 리스트(30)에서 선택한다.The user interface unit 110 displays the work list 30 indicating the basic operation of the robot that has already been programmed and executed at the bottom of the image screen 10 and the map screen 20 to the user so as to create a teaching job do. The user selects a necessary basic operation from the work list 30 based on the current state of the robot based on the image screen 10 and the map screen 20. [

또한 작업 리스트(30)에서 기본 동작이 선택되면 선택된 기본 동작의 세부 정보를 입력할 수 있는 작업 정보 입력창(40)이 생성된다.In addition, when the basic operation is selected in the work list 30, a work information input window 40 for inputting detailed information of the selected basic operation is generated.

사용자는 작업 정보 입력창(40)에서 로봇(200)의 작업 위치, 작업 대상 및 작업 내용 중 적어도 어느 하나의 세부 정보를 입력한다. 예컨대, 사용자는 작업 정보 입력창(40)에 '제 1 위치'(작업 위치)로 '이동하기'(작업 내용)를 입력하거나, '홍길동'(작업 대상)에게 '안녕하세요'를 말하기(작업 내용)를 입력할 수 있다.The user inputs detailed information of at least one of the work position, the work object, and the work contents of the robot 200 in the work information input window 40. [ For example, the user inputs 'move' (job content) to the 'first position' (job position) in the job information input window 40, or 'hello' ) Can be input.

한편, 로봇(200)이 원하는 서비스를 효과적으로 제공하려면 주변 환경에 따라 복잡한 작업을 수행할 수 있어야 한다. 그러나 사전에 일어날 수 있는 모든 상황에 대비하여 다양한 작업을 미리 프로그래밍한다는 것은 비효율적이므로 사용자가 실시간으로 복잡한 고수준의 작업을 교시하는 방법이 요구된다.On the other hand, in order for the robot 200 to effectively provide a desired service, it is necessary to perform complicated operations according to the surrounding environment. However, it is inefficient to pre-program various tasks in preparation for any situation that may occur in advance, and therefore a method is required for the user to teach complex high-level tasks in real time.

따라서, 도 3에 도시된 원격 단말기(100)의 유저 인터페이스부(110)를 통해 미리 저장된 기본 동작을 선택하고 조합하여 좀더 복잡한 작업을 교시하는 방법이 도 4를 통해 개시된다.Accordingly, a method for selecting a basic operation stored in advance through the user interface unit 110 of the remote terminal 100 shown in FIG. 3 and combining the basic operations to teach a more complex task will be described with reference to FIG.

도 4는 본 발명의 다른 실시예에 따른 원격 단말기의 로봇 교시 방법을 나타낸 순서도이고, 도 5a 내지 도 5f는, 도 3에 도시된 원격 단말기의 유저 인터페이스부에서 작업을 생성하는 화면을 나타낸 도면이다.   FIG. 4 is a flowchart illustrating a robot teaching method of a remote terminal according to another embodiment of the present invention, and FIGS. 5A to 5F are views illustrating a screen for creating a task in the user interface unit of the remote terminal shown in FIG. 3 .

먼저, 원격 단말기(100)는 로봇(200)의 카메라부(210)에서 촬영된 로봇 주위 환경에 대한 영상 정보와 로봇(200)의 위치가 표시된 지도 정보를 통신부(140)를 통해 수신한다(410).First, the remote terminal 100 receives the image information about the environment of the robot captured by the camera unit 210 of the robot 200 and the map information showing the location of the robot 200 through the communication unit 140 (410 ).

유저 인터페이스부(110)는 수신된 영상 정보 및 지도 정보를 표시하여 사용자에게 로봇(200)의 현재 상태에 대한 정보를 제공한다.The user interface unit 110 displays the received image information and map information and provides the user with information on the current state of the robot 200.

따라서, 사용자는 원격 단말기(100)에 제공된 로봇(200)의 현재 상태에 따라 필요한 작업을 실시간으로 생성한다.Accordingly, the user generates necessary work in real time according to the current state of the robot 200 provided to the remote terminal 100. [

구체적으로, 사용자는 유저 인터페이스부(110)에 표시된 작업 리스트에(30) 수행해야 될 작업이 존재하지 않으면, 새로운 작업을 생성할 것을 유저 인터페이스부(110)에 입력한다(420). Specifically, if there is no job to be performed (30) in the job list displayed on the user interface unit 110, the user inputs 420 to the user interface unit 110 to create a new job (420).

새로운 작업을 생성할 때의 유저 인터페이스부(110)의 모습을 도시한 도 5a를 참조하여 구체적으로 설명하면, 먼저 사용자는 작업 리스트(30)에서 수행해야 할 작업이 존재하지 않으므로 '추가'를 선택하고(①) 이에 따라 추가하려는 작업의 이름을 입력하는 작업 정보 입력창(40)이 등장한다. 사용자는 작업 정보 입력창(40)에 '환영하기'라는 작업의 이름을 입력하고(②) 해당 작업의 생성을 개시하는 '저장'을 선택한다(③).5A showing a state of the user interface unit 110 at the time of creating a new job, the user first selects 'Add' because there is no job to be performed in the work list 30 (1) Then, a work information input window 40 for entering the name of the work to be added appears. The user inputs the name of the job 'welcome' in the job information input window 40 (2) and selects 'save' to start the generation of the job (3).

해당 작업의 생성이 개시되면 사용자는 미리 저장된 기본 동작을 적어도 하나 이상을 선택하고(430), 선택된 기본 동작에 세부 정보를 부여하여(440) 기본 동작이 조합된 작업을 생성시킨다.When the generation of the job is started, the user selects at least one pre-stored basic operation (430) and gives detailed information to the selected basic operation (440), thereby creating a combined operation of the basic operation.

구체적으로 도 5b, 도 5c를 통해 설명하면, 사용자는 작업 리스트(30)에서 기본 동작인 '이동하기'를 선택(도 5b의 ①, ②)하고, '이동하기'에 부여할 세부 정보를 작업 정보 입력창(40)에서 입력한다(440).5B and FIG. 5C, the user selects the basic operation 'Move' (① and ② in FIG. 5B) in the work list 30, and transmits detailed information to be given to 'move' Is input in the information input window 40 (440).

'이동하기'에 부여할 세부 정보는 이동 위치와 이동 속도에 해당하는데, 이동 위치(도 5c의 ①)는 텍스트 상에서 사용자가 직접적으로 입력할 수도 있으나, 유저 인터페이스부(110) 상에 표시되는 지도 화면(20)에서 이동할 목적지를 선택하여(도 5c의 ②) 선택된 목적지에 상응하는 좌표가 자동적으로 작업 정보 입력창(40)에 입력된다(도 5c의 ②).The detailed information to be given to the 'move' corresponds to the movement position and the movement speed. The movement position (① in FIG. 5C) may be directly input by the user on the text, The coordinates corresponding to the selected destination are automatically input to the job information input window 40 (② in FIG. 5C) by selecting a destination to be moved on the screen 20 (② in FIG. 5C).

이렇게 세부 정보가 입력되면 이를 저장하고(도 5c의 ③) 기본 동작의 명령을 통신부(140)를 통해 로봇(200)에게 전송하여 기본 동작을 실행하도록 한다(도 5c의 ④, 450).
원격 단말기(100)는 이렇게 실행된 기본 동작의 수행 결과를 다시 로봇(200)으로부터 전송받아 이를 유저 인터페이스부(110)에 표시한다. 사용자는 표시된 수행 결과를 통해 기본 동작이 성공적으로 수행되었는지 피드백한다(460).
When the detailed information is inputted, the basic information is stored (step 3 in FIG. 5C), and the basic operation is transmitted to the robot 200 through the communication unit 140 to execute the basic operation (step 450 in FIG. 5C).
The remote terminal 100 receives the execution result of the basic operation again from the robot 200 and displays it on the user interface unit 110. The user feedbacks whether the basic operation has been successfully performed through the displayed execution result (460).

삭제delete

사용자로부터 수행 결과에 대해 피드백 받는 과정을 도 5d를 통해 설명하면, 사용자는 기본 동작의 수행 결과를 유저 인터페이스부(110)의 영상 화면(10)을 통해 확인하고, 작업 정보 입력창(40)에 수행 결과가 성공적인지 여부를 입력시킨다(①). 수행 결과가 성공적이면 사용자는 작업 정보 입력창(40)에서 '예'를 선택하고 기본 동작이 사용자가 의도한 동작이 아니라고 판단되면 '아니요'를 선택하여 실시간으로 사용자로부터 피드백 받을 수 있다.5D, the user confirms the execution result of the basic operation through the image screen 10 of the user interface unit 110, and displays the operation result in the operation information input window 40 Enter whether the execution result is successful (①). If the execution result is successful, the user selects 'Yes' in the job information input window 40, and if it is determined that the basic operation is not the operation intended by the user, the user can select 'No' and receive feedback from the user in real time.

사용자로부터 기본 동작이 성공적으로 수행되었다는 피드백을 받으면(460에서의 '예'), 원격 단말기(100)의 작업 생성부(122)는 사용자로부터 받은 피드백 결과에 따라 기본 동작을 저장한다(470).When the user receives a feedback indicating that the basic operation has been successfully performed (Yes at 460), the task creation unit 122 of the remote terminal 100 stores the basic operation according to the feedback result received from the user (470).

구체적으로, 기본 동작의 수행 결과가 성공적이면 작업 생성부(122)는 기본 동작을 작업의 하위 기본 동작으로 저장하지만, 실패면 작업 생성부(122)는 해당 기본 동작에 대해 입력된 세부 정보를 삭제하고 다시 사용자로부터 필요한 기본 동작을 입력받게 한다.Specifically, if the result of the basic operation is successful, the task creation unit 122 stores the basic operation as a subordinate basic operation of the task. However, the failed surface task creation unit 122 deletes the detailed information inputted for the basic operation And then input the necessary basic operation from the user again.

즉, 기본 동작의 수행 결과에 대해 사용자로부터 성공임을 피드백 받을 때까지 기본 동작을 선택받고, 선택된 기본 동작에 대해 세부 정보를 입력받으며 이를 로봇(200)으로 하여금 수행하게 하는 과정이 반복되는 것이다.That is, the basic operation is selected until the user receives feedback from the user about the result of performing the basic operation, the detailed information about the selected basic operation is input, and the robot 200 performs the process.

작업을 구성하는 하위 기본 동작이 저장되면, 유저 인터페이스부(110)는 사용자로부터 추가할 기본 동작이 존재하는지 여부를 입력받고(480), 추가 기본 동작이 존재하면(480에서의 '예'), 작업 생성부(122)는 추가 기본 동작을 하위 기본 동작으로서 추가 저장하고(430, 440, 450, 460, 470), 존재하지 않으면(480에서의 '아니요') 현재까지 저장된 적어도 하나 이상의 하위 기본 동작을 최종 작업으로 설정하여 최종 작업을 메모리부(130)에 저장시킨다(490).When the lower basic operation constituting the task is stored, the user interface unit 110 receives (480) whether the basic operation to be added is present from the user, and if there is an additional basic operation (Yes at 480) The job creation unit 122 additionally stores (430, 440, 450, 460, 470) additional basic operations as subordinate basic operations, and if there is not at least one subordinate basic operation Is set as the final operation and the final operation is stored in the memory unit 130 (490).

한편, 추가 기본 동작도 위에 기재된 과정과 동일하게 기본 동작의 선택, 세부 정보의 입력, 피드백 과정을 거친다(430, 440, 450, 460, 470).Meanwhile, the additional basic operation is performed in the same manner as described above (430, 440, 450, 460, 470).

도 5e를 참조하여 추가 기본 동작을 저장하는 과정(430, 440, 450, 460, 470)에 대해 설명하면, 사용자는 작업 리스트(30)에서 '얼굴 인식'을 선택하고, '얼굴 인식'에 부여할 세부 정보를 작업 정보 입력창(40)에 입력한다.5E, the user selects 'Face Recognition' from the work list 30, and assigns 'Face Recognition' to the 'Face Recognition' And inputs the detailed information to be input into the work information input window 40. [

한편, '얼굴 인식'에 부여할 세부 정보는 얼굴을 인식할 사람의 이름, 얼굴, 사람의 위치인데, 사람의 위치는 앞서 설명한 바와 같이 지도 화면(20)에서 사람이 위치하는 장소를 선택하여 선택된 장소에 상응하는 좌표가 자동적으로 작업 정보 입력창(40)에 입력되고, 사람의 이름인 '홍길동'은 텍스트 입력창으로 입력될 수 있다. 또한, 인식할 얼굴은 유저 인터페이스부(110) 상에 표시되는 영상 화면(10)에서 선택될 수 있다(①, ②).On the other hand, the detailed information to be given to the 'face recognition' is a name, a face, and a position of a person to recognize a face. The position of a person is selected by selecting a place where a person is located on the map screen 20 Coordinates corresponding to the place are automatically input into the work information input window 40 and the name of the person 'Hong Kil-Dong' can be inputted into the text input window. In addition, the face to be recognized can be selected on the video screen 10 displayed on the user interface unit 110 (1, 2).

따라서, 이러한 세부 정보가 입력된 기본 동작이 로봇(200)에 의해 수행되면 입력된 장소에 위치한 '홍길동'이란 사람의 얼굴을 인식한다(③, ④).Accordingly, when the basic operation in which the detailed information is inputted is performed by the robot 200, 'Hong Kil-dong' located at the input location recognizes the face of a person (③, ④).

도 5f를 참조하여 작업 생성을 완료하는 과정(480, 490)에 대해 설명하면, 먼저 사용자가 작업 리스트(30)에서 생성된 작업인 '환영하기'에 대해 '보기'를 선택하면(①) 작업 정보 입력창(40)에는 '환영하기' 작업의 기저장된 하위 기본 동작과 그 기본 동작의 동작 순서가 표시된다(이동하기→얼굴 인식→말하기). Referring to FIG. 5F, the steps 480 and 490 for completing job creation will be described. First, when the user selects 'view' for the 'welcome' job created in the work list 30, In the information input window 40, the previously stored lower basic operation of the 'welcome' job and the operation sequence of the basic operation are displayed (Move → Face Recognition → Speech).

또한 작업 정보 입력창(40)에는 작업 생성을 완료할 것인지 여부를 선택하도록 표시되는데, 사용자는 추가할 기본 동작이 있으면 '아니요'를 선택하여 기본 동작을 추가하는 과정을 반복하고, 더 이상 추가할 기본 동작이 없으면 '예'를 선택하여 작업 생성을 완료시킨다(②).In addition, the job information input window 40 is displayed to select whether or not to complete job creation. If there is a basic operation to be added, the user repeats the process of selecting 'No' to add the basic operation, If there is no default action, select 'Yes' to complete job creation (②).

이로써, 본 실시예에 따른 로봇 교시방법은 현재 상황에 따라 수행 가능한 기본동작의 조합으로 복잡하고 다양한 작업을 실시간으로 생성할 수 있다. 따라서, 사용자 입장에서는 원격 단말기의 조작만으로 로봇의 지능이 인간에 가깝게 느낄 수 있도록 하는 효과가 있다.Thus, the robot teaching method according to the present embodiment can generate complex and diverse tasks in real time with a combination of basic operations that can be performed according to the current situation. Therefore, the user has the effect of making the intelligence of the robot close to the human being by only the operation of the remote terminal.

100: 원격 단말기
200: 로봇
100: remote terminal
200: Robot

Claims (9)

주위 환경을 촬영하는 카메라부를 포함하고 위치를 인식하여 지도를 생성하는 로봇과 무선 네트워크를 통해 연결되며 상기 로봇에 필요한 작업을 교시하는 원격 단말기에 있어서,
수행 가능한 복수의 기본 동작들을 저장하는 메모리부;
상기 로봇으로부터 상기 촬영된 주위 환경의 영상 정보 및 상기 생성된 지도 정보를 수신하는 통신부;
상기 통신부를 통해 수신된 상기 영상 정보 및 상기 지도 정보를 표시하여 사용자에게 상기 로봇의 현재 상태에 대한 정보를 제공하고, 상기 사용자로부터 상기 로봇의 현재 상태에 기초한 새로운 작업 생성 명령을 입력받고, 상기 사용자로부터 상기 저장된 복수의 기본 동작들 중에서 상기 새로운 작업을 수행하는데 필요한 기본 동작을 선택받고, 상기 사용자로부터 상기 선택된 기본 동작에 대해 상기 로봇의 작업 위치, 작업 대상 및 작업 내용에 대한 정보인 세부 정보를 입력받는 유저 인터페이스부; 및
상기 세부 정보가 입력된 기본 동작의 수행 명령을 상기 통신부를 통해 상기 로봇에 전송하여 상기 기본 동작이 수행되도록 하는 제어부를 포함하되,
상기 유저 인터페이스부는 상기 통신부를 통해 상기 로봇으로부터 수신된 상기 기본 동작의 수행 결과를 상기 사용자에게 표시하고, 상기 사용자로부터 상기 기본 동작의 수행 결과에 대해 피드백받고,
상기 제어부는 상기 피드백의 결과에 따라 상기 기본 동작을 저장하는 작업 생성부를 포함하는 원격 단말기.
1. A remote terminal connected to a robot via a wireless network, the robot including a camera unit for photographing an environment and generating a map by recognizing a position of the robot,
A memory unit for storing a plurality of basic operations that can be performed;
A communication unit for receiving image information of the photographed surrounding environment from the robot and the generated map information;
A display unit for displaying the image information and the map information received through the communication unit and providing the user with information on the current state of the robot, receiving a new job creation command based on the current state of the robot from the user, Which is the information on the operation position, the operation target, and the operation details of the robot with respect to the selected basic operation, from the user A receiving user interface unit; And
And a control unit for transmitting the execution command of the basic operation to which the detailed information is input to the robot through the communication unit to perform the basic operation,
Wherein the user interface unit displays the result of performing the basic operation received from the robot through the communication unit to the user, receives feedback on the result of performing the basic operation from the user,
And the control unit includes a job generation unit for storing the basic operation according to a result of the feedback.
삭제delete 삭제delete 제1항에 있어서,
상기 작업 생성부는 상기 기본 동작의 수행 결과가 '성공'이면 해당 기본 동작을 저장하고, 상기 기본 동작의 수행 결과가 '실패'면 해당 기본 동작을 삭제하는 원격 단말기.
The method according to claim 1,
Wherein the job creation unit stores the basic operation if the result of the basic operation is 'successful' and deletes the corresponding basic operation if the result of the basic operation is 'failure'.
제4항에 있어서,
상기 유저 인터페이스부는 상기 사용자로부터 새로운 작업을 수행하는데 필요한 추가 기본 동작이 존재하는지 여부를 입력받고,
상기 작업 생성부는 상기 추가 기본 동작이 존재하면 기저장된 기본 동작에 상기 추가 기본 동작을 추가 저장하고, 상기 추가 기본 동작이 존재하지 않으면 상기 기저장된 기본 동작을 최종 작업으로 설정하여 이를 상기 메모리부에 저장하는 원격 단말기.
5. The method of claim 4,
The user interface unit receives input from the user whether or not there is an additional basic operation necessary for performing a new operation,
Wherein the job creation unit further stores the additional basic operation in a preliminarily stored basic operation if the additional basic operation exists and sets the preliminarily stored basic operation as a final operation if the additional basic operation does not exist and stores it in the memory unit Lt; / RTI >
주위 환경을 촬영하고 위치를 인식하여 지도를 생성하는 로봇과 무선 네트워크를 통해 연결되는 원격 단말기를 이용한 로봇 교시방법에 있어서,
상기 로봇으로부터 상기 촬영된 주위 환경의 영상 정보 및 상기 생성된 지도 정보를 수신하고;
상기 영상 정보 및 상기 지도 정보를 표시하여 사용자에게 상기 로봇의 현재 상태에 대한 정보를 제공하고;
상기 사용자로부터 상기 로봇의 현재 상태에 기초한 새로운 작업 생성 명령을 입력받고;
상기 사용자로부터 미리 저장된 복수의 기본 동작들 중에서 상기 새로운 작업을 수행하는데 필요한 기본 동작을 선택받고;
상기 사용자로부터 상기 선택된 기본 동작에 대해 상기 로봇의 작업 위치, 작업 대상 및 작업 내용에 대한 정보인 세부 정보를 입력받고;
상기 세부 정보가 입력된 기본 동작의 수행 명령을 상기 로봇에 전송하여 상기 기본 동작이 수행되도록 하고;
상기 로봇으로부터 상기 기본 동작의 수행 결과를 수신하여 상기 사용자에게 표시하고;
상기 사용자로부터 상기 기본 동작의 수행 결과에 대해 피드백받고;
상기 피드백의 결과에 따라 상기 기본 동작을 저장하는 로봇 교시방법.
A robot teaching method using a remote terminal connected through a wireless network with a robot for capturing an environment and generating a map by recognizing a position,
Receiving image information of the photographed surrounding environment and the generated map information from the robot;
Displaying the image information and the map information to provide a user with information on the current state of the robot;
Receiving a new job creation command based on the current state of the robot from the user;
Selecting a basic operation necessary for performing the new operation from among a plurality of basic operations stored in advance from the user;
Receiving details of the selected basic operation from the user, the detailed information being information on a work position, an operation target, and a work content of the robot;
The basic operation is performed by transmitting an execution command of the basic operation to which the detailed information is inputted to the robot;
Receiving a result of performing the basic operation from the robot and displaying it to the user;
Receiving feedback from the user on the result of performing the basic operation;
And the basic operation is stored according to a result of the feedback.
제6항에 있어서,
상기 피드백의 결과에 따라 상기 기본 동작을 저장하는 것은 상기 기본 동작의 수행 결과가 '성공'이면 해당 기본 동작을 저장하고, 상기 기본 동작의 수행 결과가 '실패'면 해당 기본 동작을 삭제하는 것인 로봇 교시방법.
The method according to claim 6,
Storing the basic operation according to a result of the feedback includes storing the basic operation if the result of the basic operation is 'successful', and deleting the corresponding basic operation if the result of the basic operation is 'failure' Robot teaching method.
제7항에 있어서,
상기 사용자로부터 새로운 작업을 수행하는데 필요한 추가 기본 동작이 존재하는지 여부를 입력받고;
상기 추가 기본 동작이 존재하면 기저장된 기본 동작에 상기 추가 기본 동작을 추가 저장하고, 상기 추가 기본 동작이 존재하지 않으면 상기 기저장된 기본 동작을 최종 작업으로 설정하여 이를 저장하는 것을 더 포함하는 로봇 교시방법.
8. The method of claim 7,
Receiving, from the user, whether there are additional basic operations required to perform a new task;
Further storing the additional basic operation in a pre-stored basic operation if the additional basic operation exists, and storing the pre-stored basic operation as a final operation if the additional basic operation does not exist, .
제8항에 있어서,
상기 추가 기본 동작이 존재하면,
상기 사용자로부터 상기 미리 저장된 복수의 기본 동작들 중에서 상기 추가 기본 동작을 선택받고;
상기 사용자로부터 상기 선택된 추가 기본 동작에 대해 상기 세부 정보를 입력받고;
상기 세부 정보가 입력된 추가 기본 동작의 수행 명령을 상기 로봇에 전송하여 상기 추가 기본 동작이 수행되도록 하고;
상기 로봇으로부터 상기 추가 기본 동작의 수행 결과를 수신하여 상기 사용자에게 표시하고;
상기 사용자로부터 상기 추가 기본 동작의 수행 결과에 대해 피드백받고;
상기 피드백의 결과에 따라 상기 추가 기본 동작을 저장하는 과정을 반복 수행하는 로봇 교시방법.
9. The method of claim 8,
If the additional basic operation exists,
Selecting the additional basic operation from among the plurality of basic operations stored in advance from the user;
Receiving the detailed information from the user for the selected additional basic operation;
Transmitting an additional basic operation execution command to which the detailed information is input to the robot so that the additional basic operation is performed;
Receiving the result of performing the additional basic operation from the robot and displaying it to the user;
Receiving feedback from the user about the result of performing the additional basic operation;
And the step of storing the additional basic operation is repeated according to a result of the feedback.
KR1020100103471A 2010-10-22 2010-10-22 Remote apparatus and teaching method of robot thereof KR101760881B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100103471A KR101760881B1 (en) 2010-10-22 2010-10-22 Remote apparatus and teaching method of robot thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100103471A KR101760881B1 (en) 2010-10-22 2010-10-22 Remote apparatus and teaching method of robot thereof

Publications (2)

Publication Number Publication Date
KR20120042014A KR20120042014A (en) 2012-05-03
KR101760881B1 true KR101760881B1 (en) 2017-07-24

Family

ID=46262881

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100103471A KR101760881B1 (en) 2010-10-22 2010-10-22 Remote apparatus and teaching method of robot thereof

Country Status (1)

Country Link
KR (1) KR101760881B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101872410B1 (en) 2016-01-20 2018-06-28 충북대학교 산학협력단 System and method for controlling mobile robot remotely based on force-feedback using expanded guide circle
KR101957742B1 (en) 2017-03-09 2019-03-13 충북대학교 산학협력단 Real-time obstacle avoidance method of non-holonomic mobile robot using expanded guide circle, and system for controlling non-holonomic mobile robot remotely implementing the same
KR102480986B1 (en) * 2018-03-17 2022-12-22 임진국 Multi-User Operation System and the method using Mixed Reality Device
CN109272815A (en) * 2018-11-19 2019-01-25 韩开龙 A kind of learning machine with camera
CN114077257A (en) * 2021-11-23 2022-02-22 上海优必杰教育科技有限公司 Control method, operation method, control device and operation device of multi-legged robot

Also Published As

Publication number Publication date
KR20120042014A (en) 2012-05-03

Similar Documents

Publication Publication Date Title
KR101760881B1 (en) Remote apparatus and teaching method of robot thereof
Ishii et al. Designing laser gesture interface for robot control
JP5246672B2 (en) Robot system
US10475240B2 (en) System, method, and apparatus to display three-dimensional robotic workcell data
EP3342555A1 (en) Remote control manipulator system and operation method thereof
TWI694904B (en) Robot speech control system and method
US11375162B2 (en) Remote terminal and method for displaying image of designated area received from mobile robot
WO2016074628A1 (en) Method for constructing map by self-moving robot and operating method by using map
US20110238211A1 (en) Robot device, remote control method of robot device, and program
TW200642813A (en) Motion control apparatus for teaching robot position, robot-position teaching apparatus, motion control method for teaching robot position, robot-position teaching method, and motion control program for teaching robot-position
JP2015182213A (en) Robot control apparatus, robot, robot system, instruction method, and program
JPWO2013114493A1 (en) Communication pull-in system, communication pull-in method and communication pull-in program
CN104199390B (en) Robot Internet of things system
KR20130060952A (en) Remote control system for service robot
KR100956839B1 (en) Jointed arm-robot simulation control program development tool
JP2020049569A (en) Support device for creating program of robot
JP2007160427A (en) Robot control system
KR100725516B1 (en) Robot cleaning System
JP2015093353A (en) Multifunctional information terminal remote-manipulation type robot
JP2019046159A (en) Mobile body equipped with camera, control system for mobile body equipped with camera, and program
JP2020042787A (en) Automatic driving support method, driving device, support device, and computer-readable storage medium
KR101942837B1 (en) Cloud system of robot remote-actuation by way of game interface and method thereof
CN113687656B (en) Robot control method and system
KR20170002048A (en) Apparatus and Method for controlling object moving
WO2017092620A1 (en) Smart device, smart control method thereof and computer storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant