KR101760881B1 - Remote apparatus and teaching method of robot thereof - Google Patents
Remote apparatus and teaching method of robot thereof Download PDFInfo
- Publication number
- KR101760881B1 KR101760881B1 KR1020100103471A KR20100103471A KR101760881B1 KR 101760881 B1 KR101760881 B1 KR 101760881B1 KR 1020100103471 A KR1020100103471 A KR 1020100103471A KR 20100103471 A KR20100103471 A KR 20100103471A KR 101760881 B1 KR101760881 B1 KR 101760881B1
- Authority
- KR
- South Korea
- Prior art keywords
- basic operation
- robot
- user
- information
- result
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/12—Arrangements for remote connection or disconnection of substations or of equipment thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
Abstract
원격 단말기 및 이를 이용한 로봇 교시방법이 개시된다. 본 발명에 따른 원격 단말기 및 이를 이용한 로봇 교시방법은 주위 환경을 촬영하는 카메라부를 포함하고 위치를 인식하여 지도를 생성하는 로봇과 무선 네트워크를 통해 연결되며 로봇에 필요한 작업을 교시하는 원격 단말기에 있어서, 수행 가능한 복수의 기본동작을 저장하는 메모리부, 로봇의 카메라부로부터 촬영된 영상정보 및 생성된 지도정보를 수신하는 통신부, 통신부로부터 수신된 영상정보, 지도정보 및 메모리부에 저장된 기본동작의 정보를 사용자에게 제공하여 필요한 기본동작을 선택받는 유저 인터페이스부 및 유저 인터페이스부에 의해 선택된 적어도 하나의 기본동작을 조합하여 새로운 작업을 생성하는 작업 생성부를 포함한다.
따라서, 본 발명은 이미 프로그래밍 된 기본동작을 조합하여 고수준의 작업을 생성하고 이를 로봇에게 실시간으로 전송함으로써 로봇이 기본동작 이외에 더 다양한 작업을 처리할 수 있게 한다.A remote terminal and a robot teaching method using the same are disclosed. A remote terminal and a robot teaching method using the same according to the present invention are a remote terminal connected to a robot for generating a map by recognizing a position and a camera section for photographing an environment, A communication section for receiving the image information photographed by the camera section of the robot and the generated map information, the image information received from the communication section, the map information, and the basic operation information stored in the memory section And a job generating unit for generating a new job by combining at least one basic operation selected by a user interface unit and a user interface unit, which are provided to a user and select a necessary basic operation.
Therefore, the present invention combines the basic operations already programmed to generate a high-level task and transmit it to the robot in real time, thereby enabling the robot to handle more various tasks in addition to the basic operation.
Description
본 발명은 원격 단말기 및 이를 이용한 로봇 교시방법에 관한 것으로서, 보다 상세하게는 로봇에게 실시간으로 새로운 작업을 교시할 수 있는 원격 단말기 및 이를 이용한 로봇 교시방법에 관한 것이다.The present invention relates to a remote terminal and a robot teaching method using the same, and more particularly, to a remote terminal capable of teaching a robot a new task in real time and a robot teaching method using the remote terminal.
로봇 기술은 1990년대에 들어와 산업용 로봇에서 비산업용 로봇으로의 전환이 시도되면서 많은 발전이 이루어졌으나, 상용화되기에는 아직 많은 문제점이 있다. Robot technology has been developed in the 1990s with the transition from industrial robots to non-industrial robots, but there are still many problems to be commercialized.
특히, 서비스 로봇이 사용자가 원하는 서비스를 제공하기 위해서는 로봇이 주어진 명령을 이해하고 주변 환경을 인식하여 스스로 판단할 수 있어야 한다.In particular, in order for the service robot to provide the service desired by the user, the robot must be able to understand the given command and recognize the surrounding environment and to judge for itself.
그러나, 프로그래머가 사전에 일어날 수 있는 모든 경우에 대하여 예측하여 프로그래밍을 해야 한다는 단점이 있으며, 그 결과 프로그래머가 예측하지 못한 상황에 대해서는 처리 불가능하게 되는 문제점이 있다.However, there is a disadvantage in that the programmer has to predict and program all the cases that may occur in advance, and as a result, there is a problem that the programmer can not process a situation that is not predicted by the programmer.
이에 따라 실시간으로 로봇에게 작업을 교시하는 기술의 중요성이 대두되는데 기존에는 산업용 로봇들에 사용되는 Teach Pendant 방식이 사용되었다. 그러나 이러한 방식은 저수준의 여러가지 명령들이 매핑된 단추들을 사용하여 사용자의 일방적인 교시에 의해 일련의 동작이 일어나고 또한 그 행동 양식도 모터 제어를 통한 로봇 팔의 이동이 대부분인 문제점이 있다. Therefore, the importance of teaching the robot to work in real time emerges. In the past, Teach Pendant method used in industrial robots was used. However, this method has a problem in that a series of operations are performed by the unilateral instruction of the user by using buttons to which various commands of low level are mapped, and most of the movement of the robot arm by its behavior and motor control is also a problem.
또한, 오랜 시간 동안 로봇이 스스로 학습하고 사용자의 간단한 참/거짓에 대한 지시를 통해 작업을 구성하는 방법이 있지만 이 또한 실시간으로 로봇을 교시하는데 부적합한 문제점이 존재한다. In addition, there is a problem that the robot learns for a long time and constructs the task through instructions of the user's simple truth / falsehood, but there are also problems that are not suitable for teaching the robot in real time.
따라서, 산업용 로봇에서 탈피해 다양한 목적을 가지고 복잡한 고수준의 작업을 수행하도록 효과적으로 로봇에게 작업을 교시하는 방법이 요구되는 실정이다. Therefore, there is a need for a method of instructing a robot to work effectively so as to perform complex high-level tasks with various purposes by moving away from industrial robots.
본 발명의 일 측면에 의하면 미리 저장된 기본 동작의 조합으로 새로운 작업이 생성되고, 생성된 작업을 로봇으로 전송하여 이를 수행하게 하는 원격 단말기 및 이를 이용한 로봇 교시방법을 제공하고자 한다. According to an aspect of the present invention, there is provided a remote terminal for generating a new job with a combination of basic operations stored in advance and transmitting the created job to a robot, and a robot teaching method using the remote terminal.
전술한 목적을 달성하기 위한 본 발명의 일 측면에 따른 원격단말기는 주위 환경을 촬영하는 카메라부를 포함하고 위치를 인식하여 지도를 생성하는 로봇과 무선 네트워크를 통해 연결되며 로봇에 필요한 작업을 교시하는 원격 단말기로서, 수행 가능한 복수의 기본동작을 저장하는 메모리부, 로봇의 카메라부로부터 촬영된 영상정보 및 생성된 지도정보를 수신하는 통신부, 통신부로부터 수신된 영상정보, 지도정보 및 메모리부에 저장된 기본동작 정보를 사용자에게 제공하여 필요한 기본동작을 선택받는 유저 인터페이스부 및 유저 인터페이스부에 의해 선택된 적어도 하나의 기본동작을 조합하여 새로운 작업을 생성하는 작업 생성부를 포함한다.According to one aspect of the present invention, there is provided a remote terminal including a camera unit for photographing an environment, a robot for recognizing a position and generating a map, a remote controller connected to the robot through a wireless network, A terminal, comprising: a memory unit for storing a plurality of basic operations that can be performed; a communication unit for receiving image information photographed from a camera unit of the robot and generated map information; image information received from the communication unit; map information; And a job creation unit for creating a new job by combining at least one basic operation selected by a user interface unit and a user interface unit, which provide information to a user and select a necessary basic operation.
한편, 유저 인터페이스부는 사용자로부터 선택된 기본동작에 대해 로봇의 작업위치, 작업대상 및 작업내용에 대한 정보인 세부정보를 입력받을 수 있다.On the other hand, the user interface unit can receive detailed information on the basic operation selected by the user, which is information on the robot's operation position, operation object, and operation contents.
또한, 통신부는 세부정보가 입력된 기본동작의 명령을 로봇에게 전송하여 기본동작을 수행한 로봇의 영상정보를 수신하고, 유저 인터페이스부는 기본동작을 수행한 로봇의 영상정보를 사용자에게 제공하여 그 수행결과에 대해 피드백 받을 수 있다.In addition, the communication unit transmits the command of the basic operation in which the detailed information is input to the robot, receives the image information of the robot performing the basic operation, and the user interface unit provides the image information of the robot performing the basic operation to the user, Feedback on the results can be obtained.
또한, 작업 생성부는 유저 인터페이스부로부터 입력된 기본동작의 수행결과가 '성공'이면 해당 기본동작을 저장하고, '실패'이면 해당 기본동작을 삭제할 수 있다.In addition, the job creation unit may store the basic operation if the execution result of the basic operation inputted from the user interface unit is 'successful', and may delete the basic operation if it is 'failure'.
또한, 유저 인터페이스부는 사용자로부터 추가 기본동작을 입력받고, 작업 생성부는 추가 기본동작이 존재하면 기저장된 기본동작에 추가 기본동작을 추가 저장하고, 존재하지 않으면 기저장된 기본동작을 최종 작업으로 설정하여 이를 메모리부에 저장시킬 수 있다.In addition, the user interface unit receives the additional basic operation from the user, and the job creating unit additionally stores the additional basic operation in the pre-stored basic operation if the additional basic operation exists, and sets the pre-stored basic operation as the final operation And can be stored in the memory unit.
전술한 목적을 달성하기 위한 본 발명의 다른 측면에 따른 로봇 교시방법은주위 환경을 촬영하고 위치를 인식하여 지도를 생성하는 로봇과 무선 네트워크를 통해 연결되는 원격 단말기를 이용한 로봇 교시방법으로서, 촬영된 주위 환경의 영상정보 및 생성된 지도정보를 로봇으로부터 수신하고, 사용자로부터 수신된 영상정보 및 지도정보에 근거하여 새로운 작업을 생성할 것을 입력받고, 새로운 작업 생성이 입력되면, 미리 저장된 복수의 기본동작에서 작업을 수행하는데 필요한 기본동작을 선택받고, 선택된 기본동작에 대해 로봇의 작업위치, 작업대상 및 작업내용에 대한 정보인 세부정보를 입력받고, 세부정보가 입력된 기본동작을 로봇에 전송하여 기본동작의 수행결과에 대해 피드백받고, 피드백 결과에 따라 기본동작을 저장한다.According to another aspect of the present invention, there is provided a robot teaching method using a robot for capturing an environment and generating a map by recognizing a position and a remote terminal connected through a wireless network, Receiving the image information of the surrounding environment and the generated map information from the robot, inputting to generate a new job based on the image information and the map information received from the user, and when a new job creation is inputted, And receives detailed information, which is information on the robot's operation position, operation target, and operation details, with respect to the selected basic operation, and transmits the basic operation in which the detailed information is inputted to the robot, Receives feedback on the performance result of the operation, and stores the basic operation according to the feedback result.
한편, 피드백 결과에 따라 기본동작을 저장하는 것은 기본동작의 수행결과가 '성공'이면 해당 기본동작을 저장하고, '실패'이면 해당 기본동작을 삭제할 수 있다. Meanwhile, if the result of the basic operation is 'successful', the basic operation is stored. If the result of the basic operation is 'successful', the basic operation can be deleted.
또한, 사용자로부터 추가 기본동작을 입력받고, 추가 기본동작이 존재하면 기저장된 기본동작에 추가 기본동작을 추가 저장하고, 존재하지 않으면 기저장된 기본동작을 최종 작업으로 설정하여 이를 저장할 수 있다.In addition, if an additional basic operation is input from the user, the additional basic operation is additionally stored in the preliminarily stored basic operation, and if not, the preliminarily stored basic operation is set as the final operation and stored.
또한, 추가 기본동작이 존재하면, 미리 저장된 복수의 기본동작에서 추가 기본동작을 선택받고, 선택된 추가 기본동작에 대해 세부정보를 입력받고, 세부정보가 입력된 추가 기본동작을 로봇에 전송하여 추가 기본동작의 수행결과에 대해 피드백받고, 피드백 결과에 따라 추가 기본동작을 저장하는 과정을 반복 수행할 수 있다.In addition, if there is an additional basic action, the additional basic action is selected from a plurality of pre-stored basic actions, the detailed information about the selected additional basic action is received, and the additional basic action to which the detailed information is inputted is transmitted to the robot, And the process of storing the additional basic operation according to the feedback result can be repeatedly performed.
본 발명은 좀 더 다양하고 정밀한 행동 제어가 요구되는 서비스용 로봇에 원격 단말기를 연결시키고, 원격 단말기를 통해 이미 프로그래밍된 기본 동작을 조합하여 고수준의 작업을 생성함으로써 로봇이 기본 동작 이외에 더 다양한 작업을 처리할 수 있도록 한다.The present invention connects a remote terminal to a service robot requiring more various and precise behavior control, and combines basic operations already programmed through a remote terminal to generate a high-level task so that the robot performs more various operations So that it can be processed.
또한 영상, 지도 정보 등의 로봇이 제공하는 실시간 정보를 활용하여 원격 단말기의 터치 패널로 기본 동작의 세부 정보를 입력함으로써 로봇 작업 교시의 실시간성, 사용성 및 편리성이 제고될 수 있다. In addition, by inputting detailed information of the basic operation to the touch panel of the remote terminal by utilizing the real time information provided by the robot such as image and map information, the real time property, usability and convenience of the robot operation teaching can be improved.
따라서, 사용자 입장에서는 로봇의 지능이 인간에 가깝게 느낄 수 있도록 하는 효과가 있다.Therefore, it is effective for the user to feel the intelligence of the robot close to the human being.
도 1은 본 발명의 일실시예에 따른 로봇 교시 시스템의 구성을 나타낸 도면이다.
도 2는, 도 1에 도시된 로봇 교시 시스템의 블록도이다.
도 3은 본 발명의 일실시예에 따른 원격 단말기의 모습을 도시한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 로봇 교시방법을 나타낸 순서도이다.
도 5a는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5b는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5c는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5d는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5e는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.
도 5f는, 도 3에 도시된 원격 단말기의 유저 인터페이스에서 작업을 생성하는 화면을 나타낸 도면이다.1 is a block diagram of a robot teaching system according to an embodiment of the present invention.
2 is a block diagram of the robot teaching system shown in Fig.
3 is a diagram illustrating a remote terminal according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a robot teaching method according to another embodiment of the present invention.
5A is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG.
5B is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG.
FIG. 5C is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG. 3. FIG.
5D is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG.
FIG. 5E is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG. 3. FIG.
FIG. 5F is a diagram illustrating a screen for creating a job in the user interface of the remote terminal shown in FIG. 3. FIG.
이하 도 1 내지 도 5f를 참조하여 본 발명에 따른 원격 단말기 및 이를 이용한 로봇 교시방법의 바람직한 실시예를 설명한다.Hereinafter, a preferred embodiment of a remote terminal and a robot teaching method using the same according to the present invention will be described with reference to FIGS. 1 to 5F.
도 1은 본 발명의 일실시예에 따른 로봇 교시 시스템의 구성을 나타낸 도면이고, 도 2는 도 1에 도시된 로봇 교시 시스템의 블록도이다.FIG. 1 is a block diagram of a robot teaching system according to an embodiment of the present invention. FIG. 2 is a block diagram of the robot teaching system shown in FIG. 1. Referring to FIG.
본 실시예에 따른 로봇 교시 시스템은 로봇(200)의 정보를 전달받고 사용자가 그에 따라 작업을 교시할 수 있게 하는 원격 단말기(100)와, 원격 단말기(100)로부터 수신된 명령을 수행하는 로봇(200)과, 원격 단말기(100)와 로봇(200)간의 데이터 송수신 통로를 제공하는 통신 네트워크(300)를 포함한다.The robot teaching system according to the present embodiment includes a
원격 단말기(100)는 유저 인터페이스부(110), 제어부(120), 메모리부(130) 및 통신부(140)를 포함한다.The
유저 인터페이스부(110)는 원격 단말기(100)의 입/출력부로서 터치패널로 구성되고, 터치 패널로 입력된 내용이나 명령 실행 결과를 출력한다.The
특히 본 실시예의 유저 인터페이스부(110)는 로봇(200)으로부터 수신한 영상 정보와 지도 정보를 출력하고, 사용자로 하여금 영상 정보 및 지도 정보에 기초하여 작업을 생성할 수 있도록 한다.In particular, the
한편, 작업은 메모리부(130)에 저장된 기본 동작의 조합으로 생성되며, 이러한 작업을 생성하기 위해 유저 인터페이스부(110)는 필요한 정보를 사용자에게 제공하고, 사용자로부터 정보를 입력받는 것이다.Meanwhile, the job is generated by a combination of the basic operations stored in the
제어부(120)는 유저 인터페이스 처리부(121) 및 작업 생성부(122)를 포함한다.The
유저 인터페이스 처리부(121)는 유저 인터페이스부(110)의 터치 패널로 입/출력되는 신호를 제어한다. The user
유저 인터페이스 처리부(121)는 터치 패널로부터 입력된 아날로그 신호를 디지털 형태의 터치 패널 데이터로 변환하여 그 터치 패널 데이터를 처리하고, 처리된 데이터를 다시 아날로그 형태의 신호로 변환하여 유저 인터페이스부(110)로 출력하는 동작을 수행한다. 또한 유저 인터페이스 처리부(121)는 사용자가 터치 패널에 입력한 내용을 사용자가 확인할 수 있도록 전달하는 역할을 수행한다.The user
구체적으로, 유저 인터페이스 처리부(121)는 통신부(140)로부터 수신된 영상 정보, 지도 정보 및 음성 정보를 유저 인터페이스부(110)에 출력하거나, 유저 인터페이스부(110)로부터 입력된 텍스트 정보, 음성 정보를 변환하여 통신부(140)로 전송한다. 또한 사용자가 입력한 내용을 확인할 수 있게 유저 인터페이스부(110)에 출력하고, 사용자의 입력에 따른 유저 인터페이스부(110)에 출력될 화면의 변화를 제어한다.Specifically, the user
작업 생성부(122)는 새로운 작업을 생성할 것을 사용자로부터 입력받고, 사용자를 통해 메모리부(130)에 저장된 복수의 기본 동작 중에서 적어도 하나의 기본 동작이 선택되면, 선택된 기본 동작을 작업을 구성하는 하위 기본 동작으로 저장한다.When at least one basic operation among a plurality of basic operations stored in the
또한 작업 생성부(122)는 작업이 복수의 하위 기본 동작으로 구성될 경우, 사용자가 선택한 순서대로 하위 기본 동작들을 정렬하여 저장한다. 예컨대, 사용자가 메모리부(130)에 저장된 기본 동작 중에서 '이동하기', '얼굴 인식', '말하기'의 순서대로 선택했다면, 작업 생성부(122)는 생성된 작업이 '이동하기'→'얼굴 인식'→'말하기'의 순서대로 구성됨을 저장하는 것이다.In addition, when the job is configured with a plurality of sub-basic operations, the
작업 생성부(122)는 사용자로부터 하위 기본 동작들이 모두 선택되면, 선택된 하위 기본 동작들로 구성된 작업에 대한 정보를 메모리부(130)에 저장시킨다.When all the lower basic operations are selected from the user, the
메모리부(130)는 미리 프로그래밍된 복수의 기본 동작을 저장하고, 작업 생성부(122)로부터 생성된 새로운 작업에 대한 정보를 저장한다.The
통신부(140)는 원격 단말기(100)가 전화 회선, 인터넷 전용 회선 등 무선 네트워크를 통해 로봇(200)과 통신하기 위한 모뎀 등으로 구성된다.The
특히, 본 실시예에 따른 통신부(140)는 로봇(200)으로부터 영상 정보와 지도 정보를 수신하고, 로봇(200)에게 기본 동작이나 생성된 작업을 수행하도록 하는 동작 명령 신호를 전송한다.In particular, the
로봇(200)은 카메라부(210), 제어부(220) 및 통신부(230)를 구비한다.The
카메라부(210)는 3차원 깊이(3D Depth) 및 2차원 픽셀 정보를 동시에 입력할 수 있는 전하 결합 소자(CCD) 카메라, 적외선(IR) 카메라, TOF 카메라, Z-Cam 중 어느 하나일 수 있다. The
특히, 카메라부(210)는 로봇(200)의 상태 및 로봇(200) 주변의 상황을 촬상하고, 얻어진 영상 신호를 제어부(220)에 송출한다.Particularly, the
제어부(220)는 로봇(200)의 위치를 인식하여 지도 정보를 작성하고, 통신부(230)를 통해 수신된 명령 신호에 따라 로봇(200)이 구동하도록 제어한다. 또한 제어부(220)에는 롬, 램 또는 플래쉬 형태의 메모리가 포함되어 로봇(200)의 시스템 데이터 또는 지도 정보, 메시지 정보 등이 저장될 수 있다.The
구체적으로, 제어부(220)는 자신의 위치 및 특정 장소의 위치를 인식하고 이를 등록하여 지도 정보를 작성한다. 이에 따라 로봇(200)이 자신의 위치와 이동할 위치 간의 상대적인 방향과 거리를 계산하여 이를 토대로 이동할 수 있게 한다. 이러한 지도 정보는 일정 공간 내에 자율 이동에 따라 스스로 공간 내에 표식을 통해 작성될 수 있다.Specifically, the
제어부(220)는 통신부(230)로부터 수신된 동작 명령을 동작 제어신호로 변환하고 동작 제어신호를 해석하여 동작 구동신호를 생성한다. 또한 이러한 동작 구동신호를 로봇(200)의 구동 기구에 전달하는 것에 의해 로봇(200)을 전, 후, 좌, 우로 이동시키거나 로봇(200)의 팔과 다리를 일정한 방향으로 유동시킨다.The
또한, 제어부(220)는 카메라부(210)로부터의 영상 신호에 대하여 소정의 신호처리를 수행하고, 이렇게 얻어진 영상 신호를 통신부(230)에 송출한다.In addition, the
도 3은 본 발명의 일실시예에 따른 원격 단말기의 모습을 도시한 도면이다.3 is a diagram illustrating a remote terminal according to an exemplary embodiment of the present invention.
본 실시예에 따른 원격 단말기(100)는 로봇(200)의 카메라부(210)로부터 촬상된 영상 신호를 전송받아 로봇 주변의 환경 영상을 출력하는 영상 화면(10)과 로봇(200)의 현재 위치가 표시된 지도 정보를 출력하는 지도 화면(20)이 표시된다. 따라서, 사용자는 영상 화면(10)과 지도 화면(20)을 토대로 로봇에게 교시할 작업을 생성하게 된다.The
사용자가 교시 작업을 생성하기 위해 유저 인터페이스부(110)는 영상 화면(10)과 지도 화면(20)의 하단에 이미 프로그래밍되어 수행 가능한 로봇의 기본 동작을 표시하는 작업 리스트(30)를 사용자에게 표시한다. 사용자는 영상 화면(10)과 지도 화면(20)을 토대로 파악된 로봇의 현재 상태에 기초하여 필요한 기본 동작을 작업 리스트(30)에서 선택한다.The
또한 작업 리스트(30)에서 기본 동작이 선택되면 선택된 기본 동작의 세부 정보를 입력할 수 있는 작업 정보 입력창(40)이 생성된다.In addition, when the basic operation is selected in the
사용자는 작업 정보 입력창(40)에서 로봇(200)의 작업 위치, 작업 대상 및 작업 내용 중 적어도 어느 하나의 세부 정보를 입력한다. 예컨대, 사용자는 작업 정보 입력창(40)에 '제 1 위치'(작업 위치)로 '이동하기'(작업 내용)를 입력하거나, '홍길동'(작업 대상)에게 '안녕하세요'를 말하기(작업 내용)를 입력할 수 있다.The user inputs detailed information of at least one of the work position, the work object, and the work contents of the
한편, 로봇(200)이 원하는 서비스를 효과적으로 제공하려면 주변 환경에 따라 복잡한 작업을 수행할 수 있어야 한다. 그러나 사전에 일어날 수 있는 모든 상황에 대비하여 다양한 작업을 미리 프로그래밍한다는 것은 비효율적이므로 사용자가 실시간으로 복잡한 고수준의 작업을 교시하는 방법이 요구된다.On the other hand, in order for the
따라서, 도 3에 도시된 원격 단말기(100)의 유저 인터페이스부(110)를 통해 미리 저장된 기본 동작을 선택하고 조합하여 좀더 복잡한 작업을 교시하는 방법이 도 4를 통해 개시된다.Accordingly, a method for selecting a basic operation stored in advance through the
도 4는 본 발명의 다른 실시예에 따른 원격 단말기의 로봇 교시 방법을 나타낸 순서도이고, 도 5a 내지 도 5f는, 도 3에 도시된 원격 단말기의 유저 인터페이스부에서 작업을 생성하는 화면을 나타낸 도면이다. FIG. 4 is a flowchart illustrating a robot teaching method of a remote terminal according to another embodiment of the present invention, and FIGS. 5A to 5F are views illustrating a screen for creating a task in the user interface unit of the remote terminal shown in FIG. 3 .
먼저, 원격 단말기(100)는 로봇(200)의 카메라부(210)에서 촬영된 로봇 주위 환경에 대한 영상 정보와 로봇(200)의 위치가 표시된 지도 정보를 통신부(140)를 통해 수신한다(410).First, the
유저 인터페이스부(110)는 수신된 영상 정보 및 지도 정보를 표시하여 사용자에게 로봇(200)의 현재 상태에 대한 정보를 제공한다.The
따라서, 사용자는 원격 단말기(100)에 제공된 로봇(200)의 현재 상태에 따라 필요한 작업을 실시간으로 생성한다.Accordingly, the user generates necessary work in real time according to the current state of the
구체적으로, 사용자는 유저 인터페이스부(110)에 표시된 작업 리스트에(30) 수행해야 될 작업이 존재하지 않으면, 새로운 작업을 생성할 것을 유저 인터페이스부(110)에 입력한다(420). Specifically, if there is no job to be performed (30) in the job list displayed on the
새로운 작업을 생성할 때의 유저 인터페이스부(110)의 모습을 도시한 도 5a를 참조하여 구체적으로 설명하면, 먼저 사용자는 작업 리스트(30)에서 수행해야 할 작업이 존재하지 않으므로 '추가'를 선택하고(①) 이에 따라 추가하려는 작업의 이름을 입력하는 작업 정보 입력창(40)이 등장한다. 사용자는 작업 정보 입력창(40)에 '환영하기'라는 작업의 이름을 입력하고(②) 해당 작업의 생성을 개시하는 '저장'을 선택한다(③).5A showing a state of the
해당 작업의 생성이 개시되면 사용자는 미리 저장된 기본 동작을 적어도 하나 이상을 선택하고(430), 선택된 기본 동작에 세부 정보를 부여하여(440) 기본 동작이 조합된 작업을 생성시킨다.When the generation of the job is started, the user selects at least one pre-stored basic operation (430) and gives detailed information to the selected basic operation (440), thereby creating a combined operation of the basic operation.
구체적으로 도 5b, 도 5c를 통해 설명하면, 사용자는 작업 리스트(30)에서 기본 동작인 '이동하기'를 선택(도 5b의 ①, ②)하고, '이동하기'에 부여할 세부 정보를 작업 정보 입력창(40)에서 입력한다(440).5B and FIG. 5C, the user selects the basic operation 'Move' (① and ② in FIG. 5B) in the
'이동하기'에 부여할 세부 정보는 이동 위치와 이동 속도에 해당하는데, 이동 위치(도 5c의 ①)는 텍스트 상에서 사용자가 직접적으로 입력할 수도 있으나, 유저 인터페이스부(110) 상에 표시되는 지도 화면(20)에서 이동할 목적지를 선택하여(도 5c의 ②) 선택된 목적지에 상응하는 좌표가 자동적으로 작업 정보 입력창(40)에 입력된다(도 5c의 ②).The detailed information to be given to the 'move' corresponds to the movement position and the movement speed. The movement position (① in FIG. 5C) may be directly input by the user on the text, The coordinates corresponding to the selected destination are automatically input to the job information input window 40 (② in FIG. 5C) by selecting a destination to be moved on the screen 20 (② in FIG. 5C).
이렇게 세부 정보가 입력되면 이를 저장하고(도 5c의 ③) 기본 동작의 명령을 통신부(140)를 통해 로봇(200)에게 전송하여 기본 동작을 실행하도록 한다(도 5c의 ④, 450).
원격 단말기(100)는 이렇게 실행된 기본 동작의 수행 결과를 다시 로봇(200)으로부터 전송받아 이를 유저 인터페이스부(110)에 표시한다. 사용자는 표시된 수행 결과를 통해 기본 동작이 성공적으로 수행되었는지 피드백한다(460).When the detailed information is inputted, the basic information is stored (
The
삭제delete
사용자로부터 수행 결과에 대해 피드백 받는 과정을 도 5d를 통해 설명하면, 사용자는 기본 동작의 수행 결과를 유저 인터페이스부(110)의 영상 화면(10)을 통해 확인하고, 작업 정보 입력창(40)에 수행 결과가 성공적인지 여부를 입력시킨다(①). 수행 결과가 성공적이면 사용자는 작업 정보 입력창(40)에서 '예'를 선택하고 기본 동작이 사용자가 의도한 동작이 아니라고 판단되면 '아니요'를 선택하여 실시간으로 사용자로부터 피드백 받을 수 있다.5D, the user confirms the execution result of the basic operation through the
사용자로부터 기본 동작이 성공적으로 수행되었다는 피드백을 받으면(460에서의 '예'), 원격 단말기(100)의 작업 생성부(122)는 사용자로부터 받은 피드백 결과에 따라 기본 동작을 저장한다(470).When the user receives a feedback indicating that the basic operation has been successfully performed (Yes at 460), the
구체적으로, 기본 동작의 수행 결과가 성공적이면 작업 생성부(122)는 기본 동작을 작업의 하위 기본 동작으로 저장하지만, 실패면 작업 생성부(122)는 해당 기본 동작에 대해 입력된 세부 정보를 삭제하고 다시 사용자로부터 필요한 기본 동작을 입력받게 한다.Specifically, if the result of the basic operation is successful, the
즉, 기본 동작의 수행 결과에 대해 사용자로부터 성공임을 피드백 받을 때까지 기본 동작을 선택받고, 선택된 기본 동작에 대해 세부 정보를 입력받으며 이를 로봇(200)으로 하여금 수행하게 하는 과정이 반복되는 것이다.That is, the basic operation is selected until the user receives feedback from the user about the result of performing the basic operation, the detailed information about the selected basic operation is input, and the
작업을 구성하는 하위 기본 동작이 저장되면, 유저 인터페이스부(110)는 사용자로부터 추가할 기본 동작이 존재하는지 여부를 입력받고(480), 추가 기본 동작이 존재하면(480에서의 '예'), 작업 생성부(122)는 추가 기본 동작을 하위 기본 동작으로서 추가 저장하고(430, 440, 450, 460, 470), 존재하지 않으면(480에서의 '아니요') 현재까지 저장된 적어도 하나 이상의 하위 기본 동작을 최종 작업으로 설정하여 최종 작업을 메모리부(130)에 저장시킨다(490).When the lower basic operation constituting the task is stored, the
한편, 추가 기본 동작도 위에 기재된 과정과 동일하게 기본 동작의 선택, 세부 정보의 입력, 피드백 과정을 거친다(430, 440, 450, 460, 470).Meanwhile, the additional basic operation is performed in the same manner as described above (430, 440, 450, 460, 470).
도 5e를 참조하여 추가 기본 동작을 저장하는 과정(430, 440, 450, 460, 470)에 대해 설명하면, 사용자는 작업 리스트(30)에서 '얼굴 인식'을 선택하고, '얼굴 인식'에 부여할 세부 정보를 작업 정보 입력창(40)에 입력한다.5E, the user selects 'Face Recognition' from the
한편, '얼굴 인식'에 부여할 세부 정보는 얼굴을 인식할 사람의 이름, 얼굴, 사람의 위치인데, 사람의 위치는 앞서 설명한 바와 같이 지도 화면(20)에서 사람이 위치하는 장소를 선택하여 선택된 장소에 상응하는 좌표가 자동적으로 작업 정보 입력창(40)에 입력되고, 사람의 이름인 '홍길동'은 텍스트 입력창으로 입력될 수 있다. 또한, 인식할 얼굴은 유저 인터페이스부(110) 상에 표시되는 영상 화면(10)에서 선택될 수 있다(①, ②).On the other hand, the detailed information to be given to the 'face recognition' is a name, a face, and a position of a person to recognize a face. The position of a person is selected by selecting a place where a person is located on the
따라서, 이러한 세부 정보가 입력된 기본 동작이 로봇(200)에 의해 수행되면 입력된 장소에 위치한 '홍길동'이란 사람의 얼굴을 인식한다(③, ④).Accordingly, when the basic operation in which the detailed information is inputted is performed by the
도 5f를 참조하여 작업 생성을 완료하는 과정(480, 490)에 대해 설명하면, 먼저 사용자가 작업 리스트(30)에서 생성된 작업인 '환영하기'에 대해 '보기'를 선택하면(①) 작업 정보 입력창(40)에는 '환영하기' 작업의 기저장된 하위 기본 동작과 그 기본 동작의 동작 순서가 표시된다(이동하기→얼굴 인식→말하기). Referring to FIG. 5F, the
또한 작업 정보 입력창(40)에는 작업 생성을 완료할 것인지 여부를 선택하도록 표시되는데, 사용자는 추가할 기본 동작이 있으면 '아니요'를 선택하여 기본 동작을 추가하는 과정을 반복하고, 더 이상 추가할 기본 동작이 없으면 '예'를 선택하여 작업 생성을 완료시킨다(②).In addition, the job
이로써, 본 실시예에 따른 로봇 교시방법은 현재 상황에 따라 수행 가능한 기본동작의 조합으로 복잡하고 다양한 작업을 실시간으로 생성할 수 있다. 따라서, 사용자 입장에서는 원격 단말기의 조작만으로 로봇의 지능이 인간에 가깝게 느낄 수 있도록 하는 효과가 있다.Thus, the robot teaching method according to the present embodiment can generate complex and diverse tasks in real time with a combination of basic operations that can be performed according to the current situation. Therefore, the user has the effect of making the intelligence of the robot close to the human being by only the operation of the remote terminal.
100: 원격 단말기
200: 로봇100: remote terminal
200: Robot
Claims (9)
수행 가능한 복수의 기본 동작들을 저장하는 메모리부;
상기 로봇으로부터 상기 촬영된 주위 환경의 영상 정보 및 상기 생성된 지도 정보를 수신하는 통신부;
상기 통신부를 통해 수신된 상기 영상 정보 및 상기 지도 정보를 표시하여 사용자에게 상기 로봇의 현재 상태에 대한 정보를 제공하고, 상기 사용자로부터 상기 로봇의 현재 상태에 기초한 새로운 작업 생성 명령을 입력받고, 상기 사용자로부터 상기 저장된 복수의 기본 동작들 중에서 상기 새로운 작업을 수행하는데 필요한 기본 동작을 선택받고, 상기 사용자로부터 상기 선택된 기본 동작에 대해 상기 로봇의 작업 위치, 작업 대상 및 작업 내용에 대한 정보인 세부 정보를 입력받는 유저 인터페이스부; 및
상기 세부 정보가 입력된 기본 동작의 수행 명령을 상기 통신부를 통해 상기 로봇에 전송하여 상기 기본 동작이 수행되도록 하는 제어부를 포함하되,
상기 유저 인터페이스부는 상기 통신부를 통해 상기 로봇으로부터 수신된 상기 기본 동작의 수행 결과를 상기 사용자에게 표시하고, 상기 사용자로부터 상기 기본 동작의 수행 결과에 대해 피드백받고,
상기 제어부는 상기 피드백의 결과에 따라 상기 기본 동작을 저장하는 작업 생성부를 포함하는 원격 단말기.1. A remote terminal connected to a robot via a wireless network, the robot including a camera unit for photographing an environment and generating a map by recognizing a position of the robot,
A memory unit for storing a plurality of basic operations that can be performed;
A communication unit for receiving image information of the photographed surrounding environment from the robot and the generated map information;
A display unit for displaying the image information and the map information received through the communication unit and providing the user with information on the current state of the robot, receiving a new job creation command based on the current state of the robot from the user, Which is the information on the operation position, the operation target, and the operation details of the robot with respect to the selected basic operation, from the user A receiving user interface unit; And
And a control unit for transmitting the execution command of the basic operation to which the detailed information is input to the robot through the communication unit to perform the basic operation,
Wherein the user interface unit displays the result of performing the basic operation received from the robot through the communication unit to the user, receives feedback on the result of performing the basic operation from the user,
And the control unit includes a job generation unit for storing the basic operation according to a result of the feedback.
상기 작업 생성부는 상기 기본 동작의 수행 결과가 '성공'이면 해당 기본 동작을 저장하고, 상기 기본 동작의 수행 결과가 '실패'면 해당 기본 동작을 삭제하는 원격 단말기.The method according to claim 1,
Wherein the job creation unit stores the basic operation if the result of the basic operation is 'successful' and deletes the corresponding basic operation if the result of the basic operation is 'failure'.
상기 유저 인터페이스부는 상기 사용자로부터 새로운 작업을 수행하는데 필요한 추가 기본 동작이 존재하는지 여부를 입력받고,
상기 작업 생성부는 상기 추가 기본 동작이 존재하면 기저장된 기본 동작에 상기 추가 기본 동작을 추가 저장하고, 상기 추가 기본 동작이 존재하지 않으면 상기 기저장된 기본 동작을 최종 작업으로 설정하여 이를 상기 메모리부에 저장하는 원격 단말기.5. The method of claim 4,
The user interface unit receives input from the user whether or not there is an additional basic operation necessary for performing a new operation,
Wherein the job creation unit further stores the additional basic operation in a preliminarily stored basic operation if the additional basic operation exists and sets the preliminarily stored basic operation as a final operation if the additional basic operation does not exist and stores it in the memory unit Lt; / RTI >
상기 로봇으로부터 상기 촬영된 주위 환경의 영상 정보 및 상기 생성된 지도 정보를 수신하고;
상기 영상 정보 및 상기 지도 정보를 표시하여 사용자에게 상기 로봇의 현재 상태에 대한 정보를 제공하고;
상기 사용자로부터 상기 로봇의 현재 상태에 기초한 새로운 작업 생성 명령을 입력받고;
상기 사용자로부터 미리 저장된 복수의 기본 동작들 중에서 상기 새로운 작업을 수행하는데 필요한 기본 동작을 선택받고;
상기 사용자로부터 상기 선택된 기본 동작에 대해 상기 로봇의 작업 위치, 작업 대상 및 작업 내용에 대한 정보인 세부 정보를 입력받고;
상기 세부 정보가 입력된 기본 동작의 수행 명령을 상기 로봇에 전송하여 상기 기본 동작이 수행되도록 하고;
상기 로봇으로부터 상기 기본 동작의 수행 결과를 수신하여 상기 사용자에게 표시하고;
상기 사용자로부터 상기 기본 동작의 수행 결과에 대해 피드백받고;
상기 피드백의 결과에 따라 상기 기본 동작을 저장하는 로봇 교시방법.A robot teaching method using a remote terminal connected through a wireless network with a robot for capturing an environment and generating a map by recognizing a position,
Receiving image information of the photographed surrounding environment and the generated map information from the robot;
Displaying the image information and the map information to provide a user with information on the current state of the robot;
Receiving a new job creation command based on the current state of the robot from the user;
Selecting a basic operation necessary for performing the new operation from among a plurality of basic operations stored in advance from the user;
Receiving details of the selected basic operation from the user, the detailed information being information on a work position, an operation target, and a work content of the robot;
The basic operation is performed by transmitting an execution command of the basic operation to which the detailed information is inputted to the robot;
Receiving a result of performing the basic operation from the robot and displaying it to the user;
Receiving feedback from the user on the result of performing the basic operation;
And the basic operation is stored according to a result of the feedback.
상기 피드백의 결과에 따라 상기 기본 동작을 저장하는 것은 상기 기본 동작의 수행 결과가 '성공'이면 해당 기본 동작을 저장하고, 상기 기본 동작의 수행 결과가 '실패'면 해당 기본 동작을 삭제하는 것인 로봇 교시방법.The method according to claim 6,
Storing the basic operation according to a result of the feedback includes storing the basic operation if the result of the basic operation is 'successful', and deleting the corresponding basic operation if the result of the basic operation is 'failure' Robot teaching method.
상기 사용자로부터 새로운 작업을 수행하는데 필요한 추가 기본 동작이 존재하는지 여부를 입력받고;
상기 추가 기본 동작이 존재하면 기저장된 기본 동작에 상기 추가 기본 동작을 추가 저장하고, 상기 추가 기본 동작이 존재하지 않으면 상기 기저장된 기본 동작을 최종 작업으로 설정하여 이를 저장하는 것을 더 포함하는 로봇 교시방법.8. The method of claim 7,
Receiving, from the user, whether there are additional basic operations required to perform a new task;
Further storing the additional basic operation in a pre-stored basic operation if the additional basic operation exists, and storing the pre-stored basic operation as a final operation if the additional basic operation does not exist, .
상기 추가 기본 동작이 존재하면,
상기 사용자로부터 상기 미리 저장된 복수의 기본 동작들 중에서 상기 추가 기본 동작을 선택받고;
상기 사용자로부터 상기 선택된 추가 기본 동작에 대해 상기 세부 정보를 입력받고;
상기 세부 정보가 입력된 추가 기본 동작의 수행 명령을 상기 로봇에 전송하여 상기 추가 기본 동작이 수행되도록 하고;
상기 로봇으로부터 상기 추가 기본 동작의 수행 결과를 수신하여 상기 사용자에게 표시하고;
상기 사용자로부터 상기 추가 기본 동작의 수행 결과에 대해 피드백받고;
상기 피드백의 결과에 따라 상기 추가 기본 동작을 저장하는 과정을 반복 수행하는 로봇 교시방법.9. The method of claim 8,
If the additional basic operation exists,
Selecting the additional basic operation from among the plurality of basic operations stored in advance from the user;
Receiving the detailed information from the user for the selected additional basic operation;
Transmitting an additional basic operation execution command to which the detailed information is input to the robot so that the additional basic operation is performed;
Receiving the result of performing the additional basic operation from the robot and displaying it to the user;
Receiving feedback from the user about the result of performing the additional basic operation;
And the step of storing the additional basic operation is repeated according to a result of the feedback.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100103471A KR101760881B1 (en) | 2010-10-22 | 2010-10-22 | Remote apparatus and teaching method of robot thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100103471A KR101760881B1 (en) | 2010-10-22 | 2010-10-22 | Remote apparatus and teaching method of robot thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120042014A KR20120042014A (en) | 2012-05-03 |
KR101760881B1 true KR101760881B1 (en) | 2017-07-24 |
Family
ID=46262881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100103471A KR101760881B1 (en) | 2010-10-22 | 2010-10-22 | Remote apparatus and teaching method of robot thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101760881B1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101872410B1 (en) | 2016-01-20 | 2018-06-28 | 충북대학교 산학협력단 | System and method for controlling mobile robot remotely based on force-feedback using expanded guide circle |
KR101957742B1 (en) | 2017-03-09 | 2019-03-13 | 충북대학교 산학협력단 | Real-time obstacle avoidance method of non-holonomic mobile robot using expanded guide circle, and system for controlling non-holonomic mobile robot remotely implementing the same |
KR102480986B1 (en) * | 2018-03-17 | 2022-12-22 | 임진국 | Multi-User Operation System and the method using Mixed Reality Device |
CN109272815A (en) * | 2018-11-19 | 2019-01-25 | 韩开龙 | A kind of learning machine with camera |
CN114077257A (en) * | 2021-11-23 | 2022-02-22 | 上海优必杰教育科技有限公司 | Control method, operation method, control device and operation device of multi-legged robot |
-
2010
- 2010-10-22 KR KR1020100103471A patent/KR101760881B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20120042014A (en) | 2012-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101760881B1 (en) | Remote apparatus and teaching method of robot thereof | |
Ishii et al. | Designing laser gesture interface for robot control | |
JP5246672B2 (en) | Robot system | |
US10475240B2 (en) | System, method, and apparatus to display three-dimensional robotic workcell data | |
EP3342555A1 (en) | Remote control manipulator system and operation method thereof | |
TWI694904B (en) | Robot speech control system and method | |
US11375162B2 (en) | Remote terminal and method for displaying image of designated area received from mobile robot | |
WO2016074628A1 (en) | Method for constructing map by self-moving robot and operating method by using map | |
US20110238211A1 (en) | Robot device, remote control method of robot device, and program | |
TW200642813A (en) | Motion control apparatus for teaching robot position, robot-position teaching apparatus, motion control method for teaching robot position, robot-position teaching method, and motion control program for teaching robot-position | |
JP2015182213A (en) | Robot control apparatus, robot, robot system, instruction method, and program | |
JPWO2013114493A1 (en) | Communication pull-in system, communication pull-in method and communication pull-in program | |
CN104199390B (en) | Robot Internet of things system | |
KR20130060952A (en) | Remote control system for service robot | |
KR100956839B1 (en) | Jointed arm-robot simulation control program development tool | |
JP2020049569A (en) | Support device for creating program of robot | |
JP2007160427A (en) | Robot control system | |
KR100725516B1 (en) | Robot cleaning System | |
JP2015093353A (en) | Multifunctional information terminal remote-manipulation type robot | |
JP2019046159A (en) | Mobile body equipped with camera, control system for mobile body equipped with camera, and program | |
JP2020042787A (en) | Automatic driving support method, driving device, support device, and computer-readable storage medium | |
KR101942837B1 (en) | Cloud system of robot remote-actuation by way of game interface and method thereof | |
CN113687656B (en) | Robot control method and system | |
KR20170002048A (en) | Apparatus and Method for controlling object moving | |
WO2017092620A1 (en) | Smart device, smart control method thereof and computer storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |