KR102222468B1 - Interaction System and Interaction Method for Human-Robot Interaction - Google Patents

Interaction System and Interaction Method for Human-Robot Interaction Download PDF

Info

Publication number
KR102222468B1
KR102222468B1 KR1020200156202A KR20200156202A KR102222468B1 KR 102222468 B1 KR102222468 B1 KR 102222468B1 KR 1020200156202 A KR1020200156202 A KR 1020200156202A KR 20200156202 A KR20200156202 A KR 20200156202A KR 102222468 B1 KR102222468 B1 KR 102222468B1
Authority
KR
South Korea
Prior art keywords
robot
interaction
information
command
human
Prior art date
Application number
KR1020200156202A
Other languages
Korean (ko)
Other versions
KR20200133705A (en
Inventor
박정민
이중재
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020200156202A priority Critical patent/KR102222468B1/en
Publication of KR20200133705A publication Critical patent/KR20200133705A/en
Application granted granted Critical
Publication of KR102222468B1 publication Critical patent/KR102222468B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Abstract

인간-로봇 상호작용을 위한 인터랙션 시스템이 제공된다. 인간-로봇 상호작용을 위한 인터랙션 시스템은 작업 명령을 수신하는 작업 명령 수신부; 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 작업 명령 추론부; 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 로봇 동작 명령 생성부를 포함한다.An interaction system for human-robot interaction is provided. An interaction system for human-robot interaction includes: a work command receiving unit for receiving a work command; A work command inference unit for inferring the work command and determining at least one interaction type constituting the work command; And a robot motion command generation unit that generates a robot motion command based on the determined one or more interaction types, and provides the generated robot motion command to the robot.

Description

인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법{Interaction System and Interaction Method for Human-Robot Interaction}Interaction System and Interaction Method for Human-Robot Interaction}

본 발명은 인간-로봇 상호작용(Human-Robot Interaction, HRI)을 위한 인터랙션 시스템 및 방법에 관한 것으로, 인간과 로봇의 상호작용을 지원하는 인터페이스에서, 인간 중심의 인터랙션을 지원할 수 있는 인터랙션 시스템 및 방법에 관한 것이다.The present invention relates to an interaction system and method for human-robot interaction (HRI), and in an interface supporting human-robot interaction, an interaction system and method capable of supporting human-centered interaction It is about.

[국가지원 연구개발에 대한 설명][Explanation of nationally supported R&D]

본 연구는 한국연구재단의 관리 하에 과학기술정보통신부의 글로벌프론티어지원(R&D) 사업의 "원격 사용자간 협업을 위한 손 기반 Seamless CoUI 기술 개발에 관한 연구"(과제 고유번호: 1711073470, 세부과제번호: 2011-0031425)의 지원에 의하여 이루어진 것이다.This study is under the management of the National Research Foundation of Korea, "A Study on the Development of Hand-Based Seamless CoUI Technology for Collaboration between Remote Users" of the Global Frontier Support (R&D) Project of the Ministry of Science and ICT. 2011-0031425).

로봇 기술의 발전과 함께 산업 현장에서 인간이 수행하던 많은 일들을 로봇, 매니퓰레이터 등에 의해 수행하는 것으로 대체되어 가고 있으며, 인간은 로봇, 매니퓰레이터와 협동하거나, 이를 제어, 관리하는 방향으로 산업이 발전하고 있다. 또한, 산업 분야뿐만 아니라, 인간과 상호 작용이 중요한 의료 서비스, 가사 서비스, 소셜 서비스 등에도 로봇이 적용되는 사례가 증가하고 있다. 따라서, 인간과 로봇의 상호작용이 보다 중요해지고 있다.With the advancement of robot technology, many tasks that humans used in the industrial field are being replaced by robots, manipulators, etc., and the industry is developing in the direction that humans cooperate with, control, and manage robots and manipulators. . In addition, cases where robots are applied not only to industrial fields, but also to medical services, housekeeping services, and social services in which human interaction is important are increasing. Therefore, the interaction between humans and robots is becoming more important.

이러한, 인간과 로봇의 상호작용이 효율적으로 수행되기 위해서는 인간과 로봇의 의사소통, 즉 인간의 명령이 로봇에게 자연스럽게 전달되어야 한다. 다만, 인간이 사용하는 언어와 로봇이 사용하는 언어가 상이하기에, 인간은 로봇에게 명령을 전달하기 위해 로봇의 동작을 중심으로 하는 세부 명령을 제공하여야 하는 불편함이 발생한다. 예시적으로, 인간은 "물체 A를 물체 B 위에 올려줘"라는 동작을 로봇이 수행하는 것을 원하지만, 위치, 속도, 가속도, 토크 등와 로봇의 물리적 특징을 고려하고, 특정 좌표를 설정한 로봇의 세부 동작과 관련된 명령을 로봇에게 전달하여야 한다. 즉, 전반적인 로봇의 작업 내용에 지시하는 다소 추상적인 인간의 언어와 로봇의 물리적인 세부적인 동작에 대한 로봇의 언어 사이의 괴리감에 의해, 인간과 로봇의 상호작용이 효율적으로 수행되기에는 다소 한계가 있다.In order for the human-robot interaction to be efficiently performed, human-robot communication, that is, human commands must be naturally transmitted to the robot. However, since the language used by humans and the language used by robots are different, humans are inconvenient to provide detailed commands centering on the movement of the robot in order to transmit commands to the robot. For example, a human wants the robot to perform an action of "Put object A on object B", but the details of the robot that have set specific coordinates in consideration of the physical characteristics of the robot, such as position, speed, acceleration, torque, etc. Commands related to motion must be transmitted to the robot. In other words, due to the discrepancy between the rather abstract human language instructing the overall robot's work content and the robot's language for the detailed physical motions of the robot, it is somewhat limited for the efficient interaction between humans and robots have.

따라서, 인간과 로봇의 보다 효율적인 상호작용을 위해 인간 중심의 인터랙션을 지원할 수 있는 시스템 및 방법이 요구되고 있다.Therefore, there is a need for a system and method capable of supporting human-centered interaction for more efficient interaction between humans and robots.

M.R.Cutkosky, On Grasp Choice, Grasp Models, and the Design of Hands for Manufacturing Tasks, IEEE Trans. on Robotics and Automation, Vol.5,No.3, 1989 M.R. Cutkosky, On Grasp Choice, Grasp Models, and the Design of Hands for Manufacturing Tasks, IEEE Trans. on Robotics and Automation, Vol. 5, No. 3, 1989

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 인간과 로봇의 보다 효율적인 상호작용을 위해 인간 중심의 인터랙션을 지원할 수 있는 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법을 제공한다.The present invention has been devised to solve the above-described problems, and provides an interaction system and method for human-robot interaction that can support human-centered interaction for more efficient interaction between human and robot.

본 명세서의 일 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템은 작업 명령을 수신하는 작업 명령 수신부; 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 작업 명령 추론부; 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 로봇 동작 명령 생성부를 포함한다.An interaction system for human-robot interaction according to an embodiment of the present specification includes: a work command receiving unit for receiving a work command; A work command inference unit for inferring the work command and determining at least one interaction type constituting the work command; And a robot motion command generation unit that generates a robot motion command based on the determined one or more interaction types, and provides the generated robot motion command to the robot.

일 실시예에서, 상기 작업 명령 추론부는 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정할 수 있다. In one embodiment, the work command inference unit first classifies the work command into at least one sub-task, classifies the classified at least one sub-task into the at least one or more interaction types, and determines the work structure of the work command. You can decide.

일 실시예에서, 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함하는 데이터 베이스부를 더 포함하며, 상기 작업 명령 추론부는 상기 데이터 베이스부에서 독출(Read-Out)된 상기 로봇 정보, 상기 대상물 정보, 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정할 수 있다. In one embodiment, further comprising a database unit including an interaction type generation interface, robot information, object information, and human information, wherein the work command inference unit is the robot information read out from the database unit, The at least one interaction type may be determined by further considering the object information and the human information.

일 실시예에서, 상기 작업 명령 추론부는 상기 로봇 정보, 대상물 정보, 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정할 수 있다. In an embodiment, the work command inference unit may determine the work structure of the work command by further considering the robot information, object information, and human information.

일 실시예에서, 상기 로봇 동작 명령에 따른 로봇의 작업이 수행된 결과가 반영된 현재 대상물 정보, 현재 로봇 정보, 현재 인간 정보는 상기 데이터 베이스부에 피드백되어 저장될 수 있다. In an embodiment, current object information, current robot information, and current human information reflecting a result of the robot operation according to the robot operation command may be fed back to the database and stored.

일 실시예에서, 상기 로봇 동작 명령 생성부는 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정할 수 있다. In one embodiment, the robot motion command generator generates the robot motion command in consideration of a characteristic of the robot and an error generated by performing the interaction type, and the current robot is properly changed while appropriately changing a parameter applied to the interaction type. Estimates can be made as to whether the work order can be properly performed.

본 발명의 다른 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법은 작업 명령을 수신하는 단계; 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계; 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계를 포함한다. An interaction method for human-robot interaction according to another embodiment of the present invention includes the steps of: receiving a work instruction; Inferring the work command to determine at least one interaction type constituting the work command; And generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot.

일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 포함할 수 있다. In one embodiment, the step of determining at least one interaction type constituting the work command by inferring the work command includes first classifying the work command into at least one sub-task, and the classified at least one sub-task Classifying the at least one interaction type may include determining a work structure of the work command.

일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 포함할 수 있다. In one embodiment, the step of inferring the work command and determining at least one or more interaction types constituting the work command may include reading an interaction type generation interface, robot information, object information, and human information from the database unit. -Out), and determining the at least one interaction type by further considering the robot information, the object information, and the human information.

일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 포함할 수 있다. In one embodiment, the step of inferring the work command and determining at least one or more interaction types constituting the work command may include reading an interaction type generation interface, robot information, object information, and human information from the database unit. -Out), and determining the work structure of the work command in consideration of the robot information, the object information, and the human information.

일 실시예에서, 상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 데이터 베이스부에 피드백되어 저장되는 단계를 더 포함할 수 있다. In an embodiment, after the operation of the robot is performed according to the provided robot operation command, the step of feeding back and storing object information, robot information, and human information to a database unit may be further included.

일 실시예에서, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계는, 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 포함할 수 있다. In one embodiment, generating a robot motion command based on the determined one or more interaction types and providing the generated robot motion command to the robot includes: The robot motion command may be generated in consideration of, and may include estimating whether the current robot can properly perform the work command while appropriately changing a parameter applied to the interaction type.

본 발명의 또 다른 실시예에 따른 저장 매체는 하드웨어와 결합되어 제7항 내지 제12항 중 어느 한 항에 따른 인간-로봇 상호작용을 위한 인터랙션 방법을 실행하도록 매체에 저장된다. A storage medium according to another embodiment of the present invention is stored in a medium to execute the interaction method for human-robot interaction according to any one of claims 7 to 12 by being combined with hardware.

본 발명의 일 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법은 작업 명령을 추론, 인터랙션의 최소 단위인 인터랙션 타입 단위의 명령을 생성하여 로봇에 제공할 수 있으며, 로봇은 인터랙션 타입 단위 명령에 기초하여 지시된 작업을 수행하게 된다. In the interaction system and method for human-robot interaction according to an embodiment of the present invention, a work command can be inferred and provided to a robot by generating an instruction in an interaction type unit, which is a minimum unit of interaction, and the robot is an interaction type unit. Based on the command, you will perform the indicated task.

즉, 인간과 로봇 사이에서 발생하는 상호 작용의 최소 의미 단위로 명령을 전달하는 바, 인간이 작업을 지시하는 데 편의성을 높일 수 있다. 또한, 인터랙션의 최소 의미 단위인 인터랙션 타입 단위를 사용함에 따라, 해당 작업의 목표가 뚜렷해지며 로봇이 전체 작업을 보다 쉽게 이해할 수 있어, 인간 중심의 효율적인 인간-로봇 사이의 인터랙션이 수행된다. In other words, since commands are delivered in the smallest unit of meaning of interaction between humans and robots, convenience for humans to instruct tasks can be improved. In addition, as the interaction type unit, which is the smallest semantic unit of interaction, is used, the target of the task becomes clear and the robot can more easily understand the entire task, thereby performing an efficient human-robot interaction.

도 1은 인간-로봇 상호작용을 위한 인터랙션 시스템, 인간 및 로봇의 관계를 설명하기 위한 예시도이다.
도 2는 인간-로봇 상호작용을 위한 인터랙션 시스템의 블록도이다.
도 3은 작업 명령은 작업 구조(Task Tree)를 나타낸 구조도이다.
도 4는 본 발명의 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법의 순서도이다.
1 is an exemplary diagram for explaining a relationship between an interaction system for human-robot interaction, a human and a robot.
2 is a block diagram of an interaction system for human-robot interaction.
3 is a structural diagram showing a task structure (Task Tree) of a task command.
4 is a flowchart of an interaction method for human-robot interaction according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당 업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있다. 따라서, 후술하는 상세한 설명은 한정적인 의미로 기술된 것이 아니며, 본 발명의 범위는 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description of the present invention described below refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail enough to enable a person skilled in the art to practice the present invention. The various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. Further, the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not described in a limiting sense, and the scope of the present invention is limited only by the appended claims along with all scopes equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions in various aspects.

본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terms used in the present specification have selected general terms that are currently widely used as possible while considering functions, but this may vary according to the intention or custom of a technician working in the field, or the emergence of new technologies. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in the description of the corresponding specification. Therefore, terms used in the present specification should be interpreted based on the actual meaning of the term and the entire contents of the present specification, not a simple name of the term.

도 1은 인간-로봇 상호작용을 위한 인터랙션 시스템(10), 인간(H) 및 로봇(R)의 관계를 설명하기 위한 예시도이다.1 is an exemplary diagram for explaining a relationship between an interaction system 10 for human-robot interaction, a human H, and a robot R.

도 1을 참조하면, 인간-로봇 상호작용을 위한 인터랙션 시스템은 인간(H)의 명령에 따라 로봇(R)의 동작을 제어하기 위한 시스템일 수 있다. 여기서, 로봇(R)은 로봇 팔, 매니퓰레이터일 수 있으나, 이에 한정되는 것은 아니며, 인간 형태를 가진 로봇으로 인간이 수행하는 각종 서비스(의료 서비스, 가사 서비스 등)를 대신 수행하는 서비스 로봇일 수도 있다. 본 발명은 인간(H)과 로봇(R)이 보다 효과적이며, 효율적으로 상호작용할 수 있는 인간 중심의 인터랙션 시스템을 제공한다. 즉, 인간(H)은 로봇(R)에게 인간 중심의 다소 추상적인 작업 명령을 인간-로봇 상호작용을 위한 인터랙션 시스템(10)에 전달할 수 있으며, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 이를 추론하여 로봇의 동작에 적합한 명령을 생성, 로봇에게 제공할 수 있다. 본 발명의 인간-로봇 상호작용을 위한 인터랙션 시스템은 로봇에 포함되는 시스템일 수 있으나, 이에 한정되는 것은 아니며, 로봇(R)과 별개의 시스템으로 구현될 수도 있다. 이하, 본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 구성 및 동작에 대해 보다 상세히 설명하도록 한다.Referring to FIG. 1, the interaction system for human-robot interaction may be a system for controlling an operation of a robot R according to a command of a human H. Here, the robot R may be a robot arm or a manipulator, but is not limited thereto, and may be a service robot that performs various services (medical services, housekeeping services, etc.) performed by humans as a robot having a human form. . The present invention provides a human-centered interaction system in which a human (H) and a robot (R) can interact more effectively and efficiently. That is, the human (H) can transmit a human-centered somewhat abstract work command to the robot (R) to the interaction system 10 for human-robot interaction, and the interaction system 10 for human-robot interaction. Can infer this, generate a command suitable for the robot's motion, and provide it to the robot. The interaction system for human-robot interaction of the present invention may be a system included in a robot, but is not limited thereto, and may be implemented as a system separate from the robot R. Hereinafter, the configuration and operation of the interaction system 10 for human-robot interaction according to the present embodiment will be described in more detail.

도 2는 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 블록도이다. 도 3은 작업 명령은 작업 구조(Task Tree)를 나타낸 구조도이다.2 is a block diagram of an interaction system 10 for human-robot interaction. 3 is a structural diagram showing a task structure (Task Tree) of a task command.

도 2 및 도 3을 참조하면, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 작업 명령 수신부(110), 작업 명령 추론부(120), 데이터 베이스부(130), 로봇 동작 명령 생성부(140)를 포함한다.2 and 3, the interaction system 10 for human-robot interaction includes a work command reception unit 110, a work command inference unit 120, a database unit 130, and a robot motion command generation unit ( 140).

실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10) 및 이를 구성하는 각각의 장치 또는 부(unit)는, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 각각의 구성요소는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭한다. 하드웨어는 CPU(Central Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다. 예를 들어, 작업 명령 추론부(120)는, 작업 명령을 추론하기 위한 하드웨어 및 이를 위한 소프트웨어의 조합을 지칭할 수 있다.The interaction system 10 for human-robot interaction according to the embodiments and each device or unit constituting the same may have an aspect that is entirely hardware or partially hardware and partially software. For example, each component of the interaction system 10 for human-robot interaction refers to a combination of hardware and software driven by the hardware. The hardware may be a data processing device including a central processing unit (CPU) or another processor. In addition, software driven by hardware may refer to an executing process, an object, an executable file, a thread of execution, a program, and the like. For example, the work command inference unit 120 may refer to a combination of hardware for inferring a work command and software for the same.

또한, 본 명세서에서 인간-로봇 상호작용을 위한 인터랙션 시스템(10)을 구성하는 각 부는 반드시 물리적으로 구분되는 별개의 구성요소를 지칭하는 것으로 의도되지 않는다. 즉, 도 2에서 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 각 부는 서로 구분되는 별개의 블록으로 도시되었으나, 이는 인간-로봇 상호작용을 위한 인터랙션 시스템(10)을 이에 의해 실행되는 동작에 의해 기능적으로 구분한 것이다. 실시예에 따라서는 전술한 각 부 중 일부 또는 전부가 동일한 하나의 장치 내에 집적화될 수 있으며, 또는 하나 이상의 부가 다른 부와 물리적으로 구분되는 별개의 장치로 구현될 수도 있다. 예컨대, 각각의 부는 분산 컴퓨팅 환경 하에서 서로 통신 가능하게 연결된 컴포넌트들일 수도 있다.In addition, in the present specification, each unit constituting the interaction system 10 for human-robot interaction is not intended to refer to separate components that are physically separated. That is, in FIG. 2, each part of the interaction system 10 for human-robot interaction is shown as separate blocks, which are distinguished from each other, but this allows the interaction system 10 for human-robot interaction to be executed by the operation. It is functionally classified by Depending on the embodiment, some or all of the above-described units may be integrated into the same single device, or one or more units may be implemented as separate devices that are physically separated from other units. For example, each unit may be components that are communicatively connected to each other in a distributed computing environment.

작업 명령 수신부(110)는 작업 명령을 수신한다. 작업 명령은 로봇이 수행하여야 하는 작업에 대한 명령일 수 있다. 예시적으로, 로봇이 특정 좌표로 이동하게 하는 명령어가 아닌, 특정 대상물을 특정 인간에게 전달하는 것과 같은 다소 추상적인 작업에 대한 명령일 수 있다. 이러한 로봇이 수행하여야 하는 작업 전체에 대한 명령은 인간에게 보다 친숙한 의사 소통 방법일 수 있으며, 로봇 중심이 아닌 인간 중심의 상호작용 수단일 수 있다.The work command receiving unit 110 receives a work command. The work command may be a command for a work to be performed by the robot. For example, it may be a command for a rather abstract task, such as delivering a specific object to a specific human, not a command that causes the robot to move to a specific coordinate. The command for the entire task that the robot must perform may be a more familiar communication method to humans, and may be a human-centered interaction means rather than a robot-centric.

작업 명령은 인간으로부터 제공된 명령일 수 있다. 작업 명령은 키보드, 마우스 등의 입력 수단을 통해 제공될 수 있으나, 이에 한정되는 것은 아니며, 인간의 음성 또는 인간의 동작 등을 인식하여 생성될 수도 있다. 작업 명령 수신부(110)는 작업 명령이 입력되는 입력 모듈, 인간의 음성을 인식하는 음성 인식 모듈 및 인간의 동작을 인식하는 동작 인식 모듈 중 적어도 하나를 포함할 수 있다. 작업 명령 수신부(110)에서 수신된 작업 명령은 작업 명령 추론부(120)에 제공된다. The work order may be an order provided by a human. The work command may be provided through an input means such as a keyboard or a mouse, but is not limited thereto, and may be generated by recognizing a human voice or a human motion. The work command receiving unit 110 may include at least one of an input module for inputting a work command, a voice recognition module for recognizing a human voice, and a motion recognition module for recognizing a human motion. The work command received by the work command receiving unit 110 is provided to the work command inferring unit 120.

작업 명령 추론부(120)는 작업 명령을 추론하여 작업 구조(Task Tree)를 결정한다. 작업 명령은 적어도 하나 이상의 서브 작업으로 구성되며, 각 서브 작업은 적어도 하나 이상의 인터랙션 타입으로 구성된다. 작업 명령 추론부(120)는 작업 명령을 구성하는 적어도 하나 이상의 서브 작업을 결정하고, 결정된 서브 작업을 수행하기 위해 필요한 적어도 하나 이상의 인터랙션 타입을 결정한다.The work command inference unit 120 infers the work command and determines a work structure (Task Tree). The work order consists of at least one or more subtasks, and each subtask consists of at least one or more interaction types. The work command inference unit 120 determines at least one or more sub-tasks constituting the work command, and determines at least one or more interaction types required to perform the determined sub-task.

예시적으로, "물체 A를 사용자 1에게 전달" - 작업 명령은 물체 A 들기, 사용자 1에게 물체 A 건네 주기, 원위치(GoToHome)의 세가지 서브 작업으로 구성될 수 있다. 물체 A 들기-서브 작업이 수행되기 위해서는 MoveTo, Grasp, LiftUp과 같은 세가지 인터랙션 타입이 필요할 수 있다. 작업 명령 추론부(120)는 "물체 A을 사용자 1에게 전달"이라는 작업 명령을 수신한 이후, 상술한 바와 같은 복수의 서브 작업 및 각 서브 작업을 수행하기 위해 필요한 인터랙션 타입을 결정한다.For example, "transfer object A to user 1"-The work command may be composed of three sub-tasks: lifting object A, handing object A to user 1, and home position (GoToHome). Lifting Object A-In order to perform the sub-task, three types of interaction may be required: MoveTo, Grasp, and LiftUp. After receiving the work command "transfer object A to user 1", the work command inference unit 120 determines a plurality of sub-tasks as described above and an interaction type required to perform each sub-task.

여기서, 본 실시예에서, MoveTo, Grasp, LiftUp와 같은 인터랙션 타입은 인간과 로봇과의 인터랙션이 발생하게 하는 최소 단위의 명령일 수 있다. 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 작업 명령을 추론, 인터랙션의 최소 단위인 인터랙션 타입 단위의 명령을 생성하여 로봇에 제공할 수 있으며, 로봇은 인터랙션 타입 단위 명령에 기초하여 지시된 작업을 수행하게 된다. 즉, 인간과 로봇 사이에서 발생하는 상호 작용의 최소 의미 단위로 명령을 전달하는 바, 인간이 작업을 지시하는 데 편의성을 높일 수 있다. 또한, 인터랙션의 최소 의미 단위인 인터랙션 타입 단위를 사용함에 따라, 해당 작업의 목표가 뚜렷해지며 로봇이 전체 작업을 보다 쉽게 이해할 수 있게 한다.Here, in the present embodiment, an interaction type such as MoveTo, Grasp, and LiftUp may be a command of a minimum unit that causes an interaction between a human and a robot. The interaction system 10 for human-robot interaction can infer a work command, generate a command in an interaction type unit, which is the smallest unit of interaction, and provide it to the robot. Will be performed. In other words, since commands are delivered in the smallest unit of meaning of interaction between humans and robots, convenience for humans to instruct tasks can be improved. In addition, as the interaction type unit, which is the smallest semantic unit of interaction, is used, the target of the task becomes clear and the robot can understand the whole task more easily.

이러한, 인터랙션 타입은 로봇과의 자연스러운 상호작용을 위해 미리 정의된 상태일 수 있다. 또한, 정의된 상호작용을 로봇이 수행하기 위한 로봇의 세부 동작은 각 인터랙션 타입에 따라 정의된 상태일 수 있다. 이러한 인터랙션 타입은 시스템의 내부 또는 시스템의 외부에서 생성되어 추가될 수 있다. 인터랙션 타입의 인터페이스는 데이터 베이스부(130)에 저장된 상태이며, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 인터랙션 타입의 인터페이스 중에서 현재 작업 명령에 적합한 인터랙션 타입을 추론을 통해 동적으로 결정할 수 있다.Such an interaction type may be a predefined state for natural interaction with the robot. In addition, detailed operations of the robot for the robot to perform the defined interaction may be in a state defined according to each interaction type. These interaction types can be added by being created inside the system or outside the system. The interaction type interface is in a state stored in the database unit 130, and the work command inference unit 120 dynamically determines an interaction type suitable for the current work command from among the interaction type interfaces stored in the database unit 130. You can decide.

데이터 베이스부(130)는 인터랙션 타입의 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함할 수 있다. 데이터 베이스부(130)에 저장된 상기 정보는 작업 명령을 로봇이 수행한 이후 로봇, 대상물, 인간 등의 최신 상태를 반영하여 업데이트될 수 있다. The database unit 130 may include an interaction type interface, robot information, object information, and human information. The information stored in the database unit 130 may be updated by reflecting the latest state of a robot, an object, or a human after the robot executes a work command.

로봇 정보는 작업을 수행하는 로봇에 관련된 정보를 의미하며, 적어도 로봇의 위치에 대한 정보를 포함한다. 여기서, 상기 대상물은 로봇과 인간이 속해있는 환경에 포함된 물체로 로봇 및/또는 사람과 상호작용이 가능한 물체를 의미한다. 대상물 정보는 상기 환경 내에 위치한 모든 대상물의 위치 정보 및 크기, 무게 등과 같은 물리적 정보를 포함한다. 인간 정보는 상기 로봇, 대상물과 인터랙션 가능한 인간에 대한 정보를 의미하며, 적어도 인간의 위치 정보, 인간과 인터랙션이 수행되는 위치(예를 들어, 손의 위치)를 포함한다.The robot information refers to information related to a robot performing a task, and includes at least information on the position of the robot. Here, the object is an object included in an environment in which the robot and the human belong, and means an object capable of interacting with the robot and/or human. The object information includes location information of all objects located in the environment, and physical information such as size and weight. The human information refers to information on the robot and a human capable of interacting with an object, and includes at least human location information and a location where the human interaction is performed (eg, the location of a hand).

작업 명령 추론부(120)는 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여, 작업 명령의 작업 구조를 결정할 수 있다. 즉, 작업 명령 추론부(120)는 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여, 작업 명령을 수행하기 위해 필요한 서브 작업(Sub Task)을 추가적으로 더 생성할 수 있다. 도 3에 도시된 바와 같이, 작업 명령 수신부(110)에서 제공된 작업 명령이 "물체 A을 사용자 1에게 전달"이나, 물체 A이 물체 B의 밑에 위치하는 대상물에 대한 정보를 고려하여, 물체 B를 옮기기 위한 서브 작업을 추가적으로 더 생성할 수 있다. 즉, 작업 명령 추론부(120)는 로봇, 대상물, 인간 등에 대한 정보를 고려하여, 물체 A을 사용자 1에게 전달하는 작업 명령을 수행하기 위한 서브 작업을 "물체 B 들기, 물체 B 내려놓기, 물체 A 들기, 사용자 1에게 물체 A 건네 주기, 원위치(GoToHome)"와 같은 구성으로 결정할 수 있다.The work command inference unit 120 may determine the work structure of the work command by further considering robot information, object information, human information, and the like. That is, the work command inference unit 120 may additionally generate a sub task required to perform the work command by further considering robot information, object information, human information, and the like. As shown in FIG. 3, the work command provided by the work command receiving unit 110 is "transmit object A to user 1", or object B is selected in consideration of information on an object located under object B. You can create additional subtasks to move. That is, the work command inference unit 120 considers information on a robot, an object, a human, and the like, and performs a sub-task for performing a work command for transferring the object A to the user 1, "Lifting the object B, putting down the object B, and Lifting A, passing object A to user 1, and going to home (GoToHome).

또한, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여 서브 작업을 수행하기 위해 필요한 인터랙션 타입을 동적으로(Dynamically) 결정할 수 있다. In addition, the work command inference unit 120 may dynamically determine an interaction type required to perform a sub-task by further considering robot information, object information, and human information stored in the database unit 130.

인터랙션 타입은 작업 명령, 로봇, 인간 및 대상물의 정보 중 적어도 하나에 따라 설정된 값이 상이할 수 있다. 즉, 물체 A 들기-서브 작업의 LiftUp 동작과 물체 B 들기-서브 작업의 LiftUp 동작은 동일한 LiftUp 인터페이스로 구성되나 물체 A을 들어올리는 LiftUp 동작과 물체 B를 들어올리는 LiftUp 동작은 로봇에 제공되는 세부적인 파라미터에서 차이점이 존재한다.The interaction type may have different values set according to at least one of information on a work command, a robot, a human, and an object. In other words, the LiftUp motion of Lifting Object A-Lifting Sub-task and Lifting Lifting Object B-Lifting Sub-task consist of the same LiftUp interface, but the LiftUp motion of lifting Object A and LiftUp motion of lifting Object B are detailed. There are differences in parameters.

다른 예시로, 동일한 MoveTo에 해당하는 인터랙션 타입이라도 대상물 및 대상에 따라 이동하는 방향 및 속도가 상이할 수 있다. 또한, 이동 과정에 충돌이 예상되는 장애물이 있는 경우, 해당 장애물을 피하도록 MovoTo는 생성되어야 한다. 또한, 사용자에게 물체 A를 건네는 경우, HandOver 인터랙션 타입은 인간과 인터랙션이 수행되는 위치에 따라 변경될 수 있다. 즉, 작업 명령 및 주변 환경에 따라 MoveTo, HandOver와 같은 인터랙션 타입들은 다른 파라미터 값을 가지도록 동적으로 생성되어야 한다. 따라서, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 로봇, 대상물, 인간 등에 정보와 인터랙션 타입의 인터페이스를 독출(Read-out)하여, 현재 제공받은 작업 명령을 구성하는 복수의 인터랙션 타입을 동적으로 생성할 수 있다.As another example, even if the interaction type corresponding to the same MoveTo, the moving direction and speed may be different depending on the object and the object. In addition, when there is an obstacle that is expected to collide in the moving process, MovoTo must be created to avoid the obstacle. In addition, when the object A is handed to the user, the HandOver interaction type may be changed according to the location where the interaction with the human is performed. That is, interaction types such as MoveTo and HandOver must be dynamically generated to have different parameter values according to the work command and the surrounding environment. Accordingly, the work command inference unit 120 reads out information and an interaction type interface stored in the database unit 130, such as robots, objects, and humans, and provides a plurality of interactions constituting the currently provided work command. Types can be created dynamically.

작업 명령 추론부(120)는 작업 명령에 대한 추론을 통해 동적으로 생성된 인터랙션 타입에 대한 정보를 로봇 동작 명령 생성부(140)로 제공한다.The work command inference unit 120 provides information on the interaction type dynamically generated through inference on the work command to the robot operation command generation unit 140.

로봇 동작 명령 생성부(140)는 동적으로 생성된 복수의 인터랙션 타입을 로봇이 수행하도록 로봇 작업의 순서를 결정하고, 로봇 동작 명령을 생성할 수 있다. 로봇 동작 명령 생성부(140)는 로봇의 동작을 동적으로 생성된 인터랙션 타입을 기초로 계획할 수 있으며, 각 인터랙션 타입이 수행되는 과정을 전체적으로 계획할 수 있다. 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령을 로봇에게 제공할 수 있다. The robot motion command generation unit 140 may determine an order of robot tasks so that the robot performs a plurality of dynamically generated interaction types, and may generate a robot motion command. The robot motion command generation unit 140 may plan the motion of the robot based on the dynamically generated interaction type, and may plan a process in which each interaction type is performed as a whole. The robot motion command generation unit 140 may provide the generated robot motion command to the robot.

또한, 로봇 동작 명령 생성부(140)는 로봇의 특성, 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 로봇에 제공될 로봇 동작 명령을 생성할 수 있다. 즉, 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령에 따라 로봇의 동작을 추정(Estimation)할 수 있다. 로봇 동작 명령 생성부(140)는 각 인터랙션 타입 단위에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대한 추정이 가능하다. 본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 인터랙션 타입 단위로 로봇 동작 명령을 생성하는 바, 추정 로직 구성을 단위화할 수 있고, 파라미터의 개수를 최소화할 수 있다. In addition, the robot motion command generation unit 140 may generate a robot motion command to be provided to the robot in consideration of an error generated by performing a characteristic of the robot and an interaction type. That is, the robot motion command generation unit 140 may estimate the motion of the robot according to the generated robot motion command. The robot motion command generation unit 140 may estimate whether the current robot can properly perform a work command while appropriately changing a parameter applied to each interaction type unit. The interaction system 10 for human-robot interaction according to the present embodiment generates a robot motion command in units of interaction type, so that the estimated logic configuration can be united and the number of parameters can be minimized.

인터랙션 타입의 조합인 로봇 동작 명령에 따라 로봇은 전체적인 작업을 수행할 수 있으며, 로봇의 작업이 수행된 결과가 반영된 대상물, 인간, 로봇의 현재 정보는 데이터 베이스부(130)에 피드백되어 저장될 수 있으며, 다음 작업 명령에 대응한 인터랙션 타입을 동적으로 생성하는 데 사용될 수 있다. The robot can perform the entire task according to the robot motion command, which is a combination of interaction types, and the object, human, and current information of the robot reflecting the result of the robot's task execution can be fed back to the database unit 130 and stored. It can be used to dynamically create an interaction type corresponding to the next work command.

이하, 본 발명의 다른 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 대해 설명하도록 한다. Hereinafter, an interaction method for human-robot interaction according to another embodiment of the present invention will be described.

도 4는 본 발명의 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법의 순서도이다. 인간-로봇 상호작용을 위한 인터랙션 방법은 도 2에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템에서 수행되는 방법으로 도 2의 설명이 참조될 수 있다. 4 is a flowchart of an interaction method for human-robot interaction according to an embodiment of the present invention. The interaction method for human-robot interaction is a method performed in the interaction system for human-robot interaction according to FIG. 2, and the description of FIG. 2 may be referred to.

도 4를 참조하면, 인간-로봇 상호작용을 위한 인터랙션 방법은 작업 명령을 수신하는 단계(S100), 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110) 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계(S120)를 포함한다. 4, the interaction method for human-robot interaction includes receiving a work command (S100), inferring a work command to determine at least one interaction type constituting the work command (S110), and And generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot (S120).

먼저, 작업 명령을 수신한다(S100).First, a work command is received (S100).

작업 명령을 수신은 작업 명령 수신부(110)에서 수행될 수 있다. 작업 명령은 인간으로부터 제공된 명령일 수 있다. 작업 명령은 키보드, 마우스 등의 입력 수단을 통해 제공될 수 있으나, 이에 한정되는 것은 아니며, 인간의 음성 또는 인간의 동작 등을 인식하여 생성되어 제공될 수도 있다.Receiving the work command may be performed by the work command receiving unit 110. The work order may be an order provided by a human. The work command may be provided through an input means such as a keyboard or a mouse, but is not limited thereto, and may be generated and provided by recognizing a human voice or a human motion.

이어서, 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정한다(S110).Subsequently, at least one interaction type constituting the work command is determined by inferring a work command (S110).

작업 명령을 추론하여 작업 구조를 결정하는 상기 단계는 작업 명령 추론부(120)에서 수행될 수 있다. 작업 명령은 적어도 하나 이상의 서브 작업으로 구성되며, 각 서브 작업은 적어도 하나 이상의 인터랙션 타입으로 구성된다. 작업 명령 추론부(120)는 작업 명령을 구성하는 적어도 하나 이상의 서브 작업을 결정하고, 결정된 서브 작업을 수행하기 위해 필요한 적어도 하나 이상의 인터랙션 타입을 결정한다. 인터랙션 타입은 인간과 로봇과의 인터랙션이 발생하게 하는 최소 단위의 명령일 수 있다. 이러한, 인터랙션 타입은 로봇과의 자연스러운 상호작용을 위해 미리 정의된 상태일 수 있다. 즉, 인터랙션 타입의 인터페이스는 데이터 베이스부(130)에 저장된 상태이며, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 인터랙션 타입의 인터페이스 중에서 현재 작업 명령에 적합한 인터랙션 타입을 추론을 통해 동적으로 결정할 수 있다. The step of determining the work structure by inferring the work command may be performed by the work command inference unit 120. The work order consists of at least one or more subtasks, and each subtask consists of at least one or more interaction types. The work command inference unit 120 determines at least one or more sub-tasks constituting the work command, and determines at least one or more interaction types required to perform the determined sub-task. The interaction type may be a command of a minimum unit that causes an interaction between a human and a robot. Such an interaction type may be a predefined state for natural interaction with the robot. That is, the interaction type interface is in a state stored in the database unit 130, and the work command inference unit 120 infers an interaction type suitable for the current work command from among the interaction type interfaces stored in the database unit 130. Can be determined dynamically.

상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110)는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정할 수 있다. In the step of determining at least one interaction type constituting the work command by inferring the work command (S110), the interaction type generation interface, robot information, object information, and human information are read from the database unit (Read-Out ), and further considers the robot information, the object information, and the human information to determine the work structure of the work command.

또한, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110)는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 포함한다.In addition, in the step of inferring the work command and determining at least one interaction type constituting the work command (S110), the interaction type generation interface, robot information, object information, and human information are read from the database unit. -Out), and further considering the robot information, the object information, and the human information to determine the at least one interaction type.

다음으로, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공한다(S120).Next, a robot motion command is generated based on the determined one or more interaction types, and the generated robot motion command is provided to the robot (S120).

동적으로 생성된 복수의 인터랙션 타입을 로봇이 수행하도록 로봇 작업의 순서를 결정하고, 로봇 동작 명령을 생성할 수 있다. 이러한 단계는 로봇 동작 명령 생성부(140)에서 수행된다. 로봇 동작 명령 생성부(140)는 로봇의 동작을 동적으로 생성된 인터랙션 타입을 기초로 계획할 수 있으며, 각 인터랙션 타입이 수행되는 과정을 전체적으로 계획할 수 있다. 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령을 로봇에게 제공할 수 있다.The order of robot tasks may be determined so that the robot performs a plurality of dynamically generated interaction types, and a robot motion command may be generated. This step is performed by the robot motion command generation unit 140. The robot motion command generation unit 140 may plan the motion of the robot based on the dynamically generated interaction type, and may plan a process in which each interaction type is performed as a whole. The robot motion command generation unit 140 may provide the generated robot motion command to the robot.

또한, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계(S120)는, 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 포함할 수 있다. In addition, the step (S120) of generating a robot motion command based on the determined one or more interaction types and providing the generated robot motion command to the robot (S120) includes: The robot motion command may be generated in consideration of, and may include estimating whether the current robot can properly perform the work command while appropriately changing a parameter applied to the interaction type.

본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법은 상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 데이터 베이스부에 피드백되어 저장되는 단계를 더 포함할 수 있다. In the interaction method for human-robot interaction according to the present embodiment, after the operation of the robot is performed according to the provided robot operation command, object information, robot information, and human information are fed back to and stored in a database unit. It may contain more.

즉, 로봇 동작 명령에 따라 로봇은 전체적인 작업을 수행할 수 있으며, 로봇의 작업이 수행된 결과가 반영된 대상물, 인간, 로봇의 현재 정보는 데이터 베이스부(130)에 피드백되어 저장될 수 있으며, 다음 작업 명령에 대응한 인터랙션 타입을 동적으로 생성하는 데 사용될 수 있다.That is, according to the robot operation command, the robot can perform the entire operation, and the object, human, and current information of the robot reflecting the result of the operation of the robot can be fed back to the database unit 130 and stored. It can be used to dynamically create interaction types corresponding to work orders.

이상에서 설명한 실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 의한 동작은, 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.The operation by the interaction method for human-robot interaction according to the above-described embodiments may be implemented at least partially as a computer program and recorded on a computer-readable recording medium. A program for implementing an operation by an interaction method for human-robot interaction according to the embodiments is recorded, and the computer-readable recording medium includes all types of recording devices in which data that can be read by a computer is stored. do. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage devices. In addition, the computer-readable recording medium may be distributed over a computer system connected through a network, and computer-readable codes may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing this embodiment may be easily understood by those of ordinary skill in the art to which this embodiment belongs.

이상에서는 실시예들을 참조하여 설명하였지만 본 발명은 이러한 실시예들 또는 도면에 의해 한정되는 것으로 해석되어서는 안 되며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to examples, the present invention should not be construed as being limited by these examples or drawings, and those skilled in the art will be able to understand the spirit and scope of the present invention described in the following claims. It will be appreciated that various modifications and changes can be made to the present invention without departing from.

10: 인간-로봇 상호작용을 위한 인터랙션 시스템
110: 작업 명령 수신부
120: 작업 명령 추론부
130: 데이터 베이스부
140: 로봇 동작 명령 생성부
10: Interaction system for human-robot interaction
110: work command receiver
120: work order reasoning unit
130: database unit
140: robot motion command generation unit

Claims (7)

인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함하는 데이터 베이스부;
작업 명령을 수신하는 작업 명령 수신부;
상기 작업 명령, 상기 데이터 베이스부에서 독출(Read-Out)된 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 추론하여 로봇이 상기 작업 명령을 수행하기 위한 적어도 하나 이상의 인터랙션 타입을 상기 인터랙션 타입의 생성 인터페이스에서 동적으로 결정하는 작업 명령 추론부; 및
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 로봇 동작 명령 생성부를 포함하며,
상기 인터랙션 타입은 인간과 로봇과의 인터랙션이 발생하게 하는 최소 의미 단위의 명령이며, 동일한 작업 명령이라도 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보 중 적어도 하나에 따라 결정되는 인터랙션 타입의 종류, 개수 및 적용되는 파라미터 중 적어도 하나가 상이하고,
상기 로봇 동작 명령에 따른 로봇의 작업이 수행된 결과가 반영된 현재 대상물 정보, 현재 로봇 정보, 현재 인간 정보는 상기 데이터 베이스부에 피드백되어 저장되고,
상기 작업 명령 추론부는 상기 데이터 베이스부에 피드백되어 저장된 현재 대상물 정보, 현재 로봇 정보, 현재 인간 정보를 기초로 다음 작업 명령에 대응한 인터랙션 타입 및 인터랙션 타입에 적용되는 파라미터를 동적으로 결정하며,
상기 로봇 동작 명령 생성부는 상기 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하고, 상기 인터랙션 타입에 적용되는 파라미터를 변경하면서 현재 로봇이 상기 작업 명령을 수행할 수 있는 지 여부를 추정하여 상기 로봇 동작 명령을 생성하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
A database unit including an interaction type generation interface, robot information, object information, and human information;
A work command receiving unit for receiving a work command;
Generation of the interaction type for at least one interaction type for the robot to perform the work command by inferring the work command, the robot information read-out from the database unit, the object information, and the human information A work command inference unit dynamically determined by the interface; And
And a robot motion command generation unit that generates a robot motion command based on the determined one or more interaction types, and provides the generated robot motion command to the robot,
The interaction type is a command of a minimum semantic unit for causing an interaction between a human and a robot, and the type and number of interaction types determined according to at least one of the robot information, the object information, and the human information even if the same work command At least one of the parameters to be applied is different,
Current object information, current robot information, and current human information reflecting the result of the operation of the robot according to the robot motion command are fed back to the database and stored
The work command inference unit dynamically determines an interaction type corresponding to the next work command and a parameter applied to the interaction type based on the current object information, current robot information, and current human information stored by being fed back to the database unit,
The robot motion command generator considers the characteristics of the robot and the error generated by performing the interaction type, and estimates whether the current robot can perform the work command while changing a parameter applied to the interaction type. The interaction system for human-robot interaction, characterized in that to generate the robot motion command.
제1 항에 있어서,
상기 작업 명령 추론부는 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
The method of claim 1,
The work command inference unit first classifies the work command into at least one sub-task, classifies the classified at least one sub-task into the at least one or more interaction types, and determines a work structure of the work command. Interaction system for human-robot interaction.
제2 항에 있어서,
상기 작업 명령 추론부는 상기 로봇 정보, 대상물 정보, 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
The method of claim 2,
The work command inference unit further considers the robot information, object information, and human information to determine a work structure of the work command.
작업 명령을 수신하는 단계;
데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고,
상기 작업 명령, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 추론하여 로봇이 상기 작업 명령을 수행하기 위한 적어도 하나 이상의 인터랙션 타입을 상기 인터랙션 타입의 생성 인터페이스에서 동적으로 결정하는 단계;
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계;및
상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 상기 데이터 베이스부에 피드백되어 저장되는 단계를 포함하고,
상기 인터랙션 타입은 인간과 로봇과의 인터랙션이 발생하게 하는 최소 의미 단위의 명령이며, 동일한 작업 명령이라도 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보 중 적어도 하나에 따라 결정되는 인터랙션 타입의 종류, 개수 및 적용되는 파라미터 중 적어도 하나가 상이하고,
상기 데이터 베이스부에 피드백되어 저장된 현재 대상물 정보, 현재 로봇 정보, 현재 인간 정보는 다음 작업 명령에 대응한 인터랙션 타입 및 인터랙션 타입에 적용되는 파라미터를 동적으로 결정하는 데 사용되며,
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계는,
상기 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하고, 상기 인터랙션 타입에 적용되는 파라미터를 변경하면서 현재 로봇이 상기 작업 명령을 수행할 수 있는 지 여부에 대해 추정하여 상기 로봇 동작 명령을 생성하는 것을 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
Receiving a work instruction;
From the database unit, the interaction type generation interface, robot information, object information, and human information are read out,
Inferring the work command, the robot information, the object information, and the human information, and dynamically determining at least one interaction type for the robot to perform the work command in the interaction type generation interface;
Generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot; And
After the operation of the robot is performed according to the provided robot operation command, object information, robot information, and human information are fed back to and stored in the database unit,
The interaction type is a command of a minimum semantic unit for causing an interaction between a human and a robot, and the type and number of interaction types determined according to at least one of the robot information, the object information, and the human information even if the same work command At least one of the parameters to be applied is different,
The current object information, current robot information, and current human information, which are fed back and stored in the database unit, are used to dynamically determine an interaction type corresponding to the next work command and a parameter applied to the interaction type,
Generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot,
The robot operation command is performed by considering the characteristics of the robot and the error generated by performing the interaction type, and estimating whether the current robot can perform the work command while changing a parameter applied to the interaction type. Interaction method for human-robot interaction comprising generating.
제4 항에 있어서,
상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 동적으로 결정하는 단계는,
상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
The method of claim 4,
Dynamically determining at least one or more interaction types constituting the work command,
Human-robot interaction comprising first classifying the work command into at least one or more sub-tasks, classifying the classified at least one or more sub-tasks into the at least one or more interaction types, and determining a work structure of the work command Interaction method for
제5 항에 있어서,
상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 동적으로 결정하는 단계는,
상기 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
The method of claim 5,
Dynamically determining at least one or more interaction types constituting the work command,
The database unit reads out the interaction type generation interface, robot information, object information, and human information, and further considers the robot information, the object information, and the human information to determine the work structure of the work command. Including determining the interaction method for human-robot interaction.
하드웨어와 결합되어 제4항 내지 제6항 중 어느 한 항에 따른 인간-로봇 상호작용을 위한 인터랙션 방법을 실행하도록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a medium to execute the interaction method for human-robot interaction according to any one of claims 4 to 6 in combination with hardware.
KR1020200156202A 2020-11-20 2020-11-20 Interaction System and Interaction Method for Human-Robot Interaction KR102222468B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200156202A KR102222468B1 (en) 2020-11-20 2020-11-20 Interaction System and Interaction Method for Human-Robot Interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200156202A KR102222468B1 (en) 2020-11-20 2020-11-20 Interaction System and Interaction Method for Human-Robot Interaction

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180152404A Division KR20200071814A (en) 2018-11-30 2018-11-30 Interaction System and Interaction Method for Human-Robot Interaction

Publications (2)

Publication Number Publication Date
KR20200133705A KR20200133705A (en) 2020-11-30
KR102222468B1 true KR102222468B1 (en) 2021-03-04

Family

ID=73641750

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200156202A KR102222468B1 (en) 2020-11-20 2020-11-20 Interaction System and Interaction Method for Human-Robot Interaction

Country Status (1)

Country Link
KR (1) KR102222468B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2532357B2 (en) 1983-05-02 1996-09-11 株式会社日立製作所 Control method of operation sequence
KR101772583B1 (en) 2012-12-13 2017-08-30 한국전자통신연구원 Operating method of robot providing user interaction services
JP2017213612A (en) 2016-05-30 2017-12-07 トヨタ自動車株式会社 Robot and method for controlling robot

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07100778A (en) * 1993-10-06 1995-04-18 Nec Corp Robot control system
KR101021836B1 (en) * 2008-10-09 2011-03-17 한국전자통신연구원 System for cooperation of multiple mobile robot using dynamic behavior binding and method thereof
KR20110026212A (en) * 2009-09-07 2011-03-15 삼성전자주식회사 Robot and control method thereof
KR101262840B1 (en) * 2011-08-05 2013-05-09 한국과학기술연구원 Human-robot cooperative system and method of parts based on the same
KR101945185B1 (en) * 2012-01-12 2019-02-07 삼성전자주식회사 robot and method to recognize and handle exceptional situations

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2532357B2 (en) 1983-05-02 1996-09-11 株式会社日立製作所 Control method of operation sequence
KR101772583B1 (en) 2012-12-13 2017-08-30 한국전자통신연구원 Operating method of robot providing user interaction services
JP2017213612A (en) 2016-05-30 2017-12-07 トヨタ自動車株式会社 Robot and method for controlling robot

Also Published As

Publication number Publication date
KR20200133705A (en) 2020-11-30

Similar Documents

Publication Publication Date Title
US10022870B2 (en) System and method for flexible human-machine collaboration
Sanfilippo et al. Controlling Kuka industrial robots: Flexible communication interface JOpenShowVar
US6807461B2 (en) Coordinated robot control from multiple remote instruction sources
US8452448B2 (en) Robotics systems
Björkelund et al. On the integration of skilled robot motions for productivity in manufacturing
US11951631B2 (en) Object marking to support tasks by autonomous machines
Zenkevich et al. Logical control a group of mobile robots
Sanfilippo et al. A universal control architecture for maritime cranes and robots using genetic algorithms as a possible mapping approach
US11904473B2 (en) Transformation mode switching for a real-time robotic control system
Karami et al. Task allocation for multi-robot task and motion planning: A case for object picking in cluttered workspaces
KR102222468B1 (en) Interaction System and Interaction Method for Human-Robot Interaction
Liu Research toward IoT and robotics in intelligent manufacturing: a survey
KR20200071814A (en) Interaction System and Interaction Method for Human-Robot Interaction
Schierl Object-oriented modeling and coordination of mobile robots
Pohl et al. MAkE-able: Memory-centered and Affordance-based Task Execution Framework for Transferable Mobile Manipulation Skills
JP7468694B2 (en) Information collection device, information collection method, and program
WO2022107324A1 (en) Assistance control device, assistance device, robot control system, assistance control method, and storage medium
WO2023119350A1 (en) Control device, control system, control method and storage medium
US20230278203A1 (en) Robot execution system
WO2022224449A1 (en) Control device, control method, and storage medium
JP7435815B2 (en) Operation command generation device, operation command generation method and program
JPH089152B2 (en) Automatic generation method of operation procedure of multi-arm manipulator
WO2022244060A1 (en) Motion planning device, motion planning method, and storage medium
Palchaudhary et al. Path Planning and Path Optimization for Industrial Robots Using Moveit! and ROS Melodic
Foit Modular Approach to the Planning of the Robot’s Tasks in the Context of Holons and Graph-Based Methods

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant