KR20200071814A - Interaction System and Interaction Method for Human-Robot Interaction - Google Patents

Interaction System and Interaction Method for Human-Robot Interaction Download PDF

Info

Publication number
KR20200071814A
KR20200071814A KR1020180152404A KR20180152404A KR20200071814A KR 20200071814 A KR20200071814 A KR 20200071814A KR 1020180152404 A KR1020180152404 A KR 1020180152404A KR 20180152404 A KR20180152404 A KR 20180152404A KR 20200071814 A KR20200071814 A KR 20200071814A
Authority
KR
South Korea
Prior art keywords
robot
interaction
command
human
work
Prior art date
Application number
KR1020180152404A
Other languages
Korean (ko)
Inventor
박정민
이중재
Original Assignee
한국과학기술연구원
재단법인 실감교류인체감응솔루션연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원, 재단법인 실감교류인체감응솔루션연구단 filed Critical 한국과학기술연구원
Priority to KR1020180152404A priority Critical patent/KR20200071814A/en
Publication of KR20200071814A publication Critical patent/KR20200071814A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

Provided is an interaction system for human-robot interaction. The interaction system for the human-robot interaction includes: a work command reception unit receiving a work command; a work command inference unit inferring the work command and determining at least one interaction type constituting the work command; and a robot motion command generation unit generating a robot motion command based on determined one or more interaction types and providing the generated robot motion command to a robot. The present invention provides the interaction system and method for the human-robot interaction which can support human-centered interaction for more efficient interaction between a human and the robot.

Description

인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법{Interaction System and Interaction Method for Human-Robot Interaction}Interaction System and Interaction Method for Human-Robot Interaction

본 발명은 인간-로봇 상호작용(Human-Robot Interaction, HRI)을 위한 인터랙션 시스템 및 방법에 관한 것으로, 인간과 로봇의 상호작용을 지원하는 인터페이스에서, 인간 중심의 인터랙션을 지원할 수 있는 인터랙션 시스템 및 방법에 관한 것이다.The present invention relates to an interaction system and method for human-robot interaction (HRI), in an interface supporting human-robot interaction, an interaction system and method capable of supporting human-centered interaction It is about.

[국가지원 연구개발에 대한 설명][Explanation on national support R&D]

본 연구는 한국연구재단의 관리 하에 과학기술정보통신부의 글로벌프론티어지원(R&D) 사업의 "원격 사용자간 협업을 위한 손 기반 Seamless CoUI 기술 개발에 관한 연구"(과제 고유번호: 1711073470, 세부과제번호: 2011-0031425)의 지원에 의하여 이루어진 것이다.This study is under the supervision of the Korea Research Foundation, "Study on Hand-based Seamless CoUI Technology Development for Remote User Collaboration" of the Global Frontier Support (R&D) Project of the Ministry of Science and ICT (Task ID: 1711073470, Detailed Assignment No. 2011-0031425).

로봇 기술의 발전과 함께 산업 현장에서 인간이 수행하던 많은 일들을 로봇, 매니퓰레이터 등에 의해 수행하는 것으로 대체되어 가고 있으며, 인간은 로봇, 매니퓰레이터와 협동하거나, 이를 제어, 관리하는 방향으로 산업이 발전하고 있다. 또한, 산업 분야뿐만 아니라, 인간과 상호 작용이 중요한 의료 서비스, 가사 서비스, 소셜 서비스 등에도 로봇이 적용되는 사례가 증가하고 있다. 따라서, 인간과 로봇의 상호작용이 보다 중요해지고 있다.With the development of robot technology, many things that humans have been doing in the industrial field are being replaced by robots, manipulators, etc., and humans are cooperating with robots, manipulators, or the industry is developing in the direction of controlling and managing them. . In addition, the number of cases in which robots are applied not only in the industrial field, but also in medical services, household services, and social services in which human interaction is important is increasing. Therefore, human-robot interaction becomes more important.

이러한, 인간과 로봇의 상호작용이 효율적으로 수행되기 위해서는 인간과 로봇의 의사소통, 즉 인간의 명령이 로봇에게 자연스럽게 전달되어야 한다. 다만, 인간이 사용하는 언어와 로봇이 사용하는 언어가 상이하기에, 인간은 로봇에게 명령을 전달하기 위해 로봇의 동작을 중심으로 하는 세부 명령을 제공하여야 하는 불편함이 발생한다. 예시적으로, 인간은 "물체 A를 물체 B 위에 올려줘"라는 동작을 로봇이 수행하는 것을 원하지만, 위치, 속도, 가속도, 토크 등와 로봇의 물리적 특징을 고려하고, 특정 좌표를 설정한 로봇의 세부 동작과 관련된 명령을 로봇에게 전달하여야 한다. 즉, 전반적인 로봇의 작업 내용에 지시하는 다소 추상적인 인간의 언어와 로봇의 물리적인 세부적인 동작에 대한 로봇의 언어 사이의 괴리감에 의해, 인간과 로봇의 상호작용이 효율적으로 수행되기에는 다소 한계가 있다.In order for the human-robot interaction to be efficiently performed, human-robot communication, that is, human commands must be naturally transmitted to the robot. However, since the language used by the human is different from the language used by the robot, inconvenience arises in that the human needs to provide detailed commands centered on the robot's operation in order to transmit commands to the robot. Exemplarily, the human wants the robot to perform the action "Put object A on object B", but considers the position, speed, acceleration, torque, and physical characteristics of the robot, and details of the robot that sets specific coordinates. Commands related to motion must be transmitted to the robot. That is, due to the gap between the somewhat abstract human language instructing the overall robot's work and the robot's language for the physical detailed motion of the robot, it is somewhat limited to effectively perform human-robot interaction. have.

따라서, 인간과 로봇의 보다 효율적인 상호작용을 위해 인간 중심의 인터랙션을 지원할 수 있는 시스템 및 방법이 요구되고 있다.Accordingly, there is a need for a system and method capable of supporting human-centered interaction for more efficient interaction between humans and robots.

M.R.Cutkosky, On Grasp Choice, Grasp Models, and the Design of Hands for Manufacturing Tasks, IEEE Trans. on Robotics and Automation, Vol.5,No.3, 1989 M.R.Cutkosky, On Grasp Choice, Grasp Models, and the Design of Hands for Manufacturing Tasks, IEEE Trans. on Robotics and Automation, Vol. 5, No. 3, 1989

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 인간과 로봇의 보다 효율적인 상호작용을 위해 인간 중심의 인터랙션을 지원할 수 있는 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법을 제공한다.The present invention has been devised to solve the above-mentioned problems, and provides an interaction system and method for human-robot interaction capable of supporting human-centered interaction for more efficient interaction between humans and robots.

본 명세서의 일 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템은 작업 명령을 수신하는 작업 명령 수신부; 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 작업 명령 추론부; 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 로봇 동작 명령 생성부를 포함한다.An interaction system for human-robot interaction according to an embodiment of the present specification includes a work command receiving unit for receiving a work command; A work command inference unit for inferring the work command and determining at least one interaction type constituting the work command; And a robot motion command generation unit that generates a robot motion command based on the determined one or more interaction types, and provides the generated robot motion command to a robot.

일 실시예에서, 상기 작업 명령 추론부는 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정할 수 있다. In one embodiment, the work command inference unit first classifies the work command into at least one sub-task, and classifies the classified at least one sub-task into the at least one interaction type, thereby classifying the work structure of the work command. Can decide.

일 실시예에서, 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함하는 데이터 베이스부를 더 포함하며, 상기 작업 명령 추론부는 상기 데이터 베이스부에서 독출(Read-Out)된 상기 로봇 정보, 상기 대상물 정보, 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정할 수 있다. In one embodiment, the interaction type generation interface, robot information, object information, further comprising a database unit including human information, the operation command inference unit read (Read-Out) the robot information from the database unit, The at least one interaction type may be determined by further considering the object information and the human information.

일 실시예에서, 상기 작업 명령 추론부는 상기 로봇 정보, 대상물 정보, 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정할 수 있다. In one embodiment, the work command inference unit may determine the work structure of the work command by further considering the robot information, object information, and human information.

일 실시예에서, 상기 로봇 동작 명령에 따른 로봇의 작업이 수행된 결과가 반영된 현재 대상물 정보, 현재 로봇 정보, 현재 인간 정보는 상기 데이터 베이스부에 피드백되어 저장될 수 있다. In one embodiment, the current object information, current robot information, and current human information reflecting the result of the robot's operation according to the robot operation command may be fed back and stored in the database unit.

일 실시예에서, 상기 로봇 동작 명령 생성부는 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정할 수 있다. In one embodiment, the robot motion command generation unit generates the robot motion command in consideration of the characteristics of the robot and the error caused by performing the interaction type, and changes the parameters applied to the interaction type appropriately, thereby allowing the current robot to It is possible to estimate whether the work order can be properly performed.

본 발명의 다른 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법은 작업 명령을 수신하는 단계; 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계; 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계를 포함한다. An interaction method for human-robot interaction according to another embodiment of the present invention includes receiving a work command; Determining at least one interaction type constituting the work command by inferring the work command; And generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot.

일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 포함할 수 있다. In an embodiment, determining the at least one interaction type constituting the work command by inferring the work command may first classify the work command as at least one sub-task, and the classified at least one sub-task It may be classified into the at least one interaction type, and determining a work structure of the work command.

일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 포함할 수 있다. In one embodiment, the step of determining at least one interaction type constituting the work command by inferring the work command comprises reading an interaction type creation interface, robot information, object information, and human information from the database unit (Read -Out) and may further include determining the at least one interaction type by further considering the robot information, the object information, and the human information.

일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 포함할 수 있다. In one embodiment, the step of determining at least one interaction type constituting the work command by inferring the work command comprises reading an interaction type creation interface, robot information, object information, and human information from the database unit (Read -Out), and further considering the robot information, the object information, and the human information may include determining a work structure of the work command.

일 실시예에서, 상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 데이터 베이스부에 피드백되어 저장되는 단계를 더 포함할 수 있다. In one embodiment, after the operation of the robot is performed according to the provided robot operation command, the method may further include storing object information, robot information, and human information fed back to the database unit and stored.

일 실시예에서, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계는, 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 포함할 수 있다. In one embodiment, generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot may include characteristics of the robot and errors generated by performing the interaction type. In consideration of the above, the robot operation command may be generated, and it may include estimating whether or not the current robot can properly perform a work command while appropriately changing parameters applied to the interaction type.

본 발명의 또 다른 실시예에 따른 저장 매체는 하드웨어와 결합되어 제7항 내지 제12항 중 어느 한 항에 따른 인간-로봇 상호작용을 위한 인터랙션 방법을 실행하도록 매체에 저장된다. A storage medium according to another embodiment of the present invention is stored in a medium in combination with hardware to execute an interaction method for human-robot interaction according to any one of claims 7 to 12.

본 발명의 일 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법은 작업 명령을 추론, 인터랙션의 최소 단위인 인터랙션 타입 단위의 명령을 생성하여 로봇에 제공할 수 있으며, 로봇은 인터랙션 타입 단위 명령에 기초하여 지시된 작업을 수행하게 된다. The interaction system and method for human-robot interaction according to an embodiment of the present invention may infer a work command, generate a command of an interaction type unit that is a minimum unit of interaction, and provide the command to the robot, and the robot is an interaction type unit Based on the command, the indicated operation is performed.

즉, 인간과 로봇 사이에서 발생하는 상호 작용의 최소 의미 단위로 명령을 전달하는 바, 인간이 작업을 지시하는 데 편의성을 높일 수 있다. 또한, 인터랙션의 최소 의미 단위인 인터랙션 타입 단위를 사용함에 따라, 해당 작업의 목표가 뚜렷해지며 로봇이 전체 작업을 보다 쉽게 이해할 수 있어, 인간 중심의 효율적인 인간-로봇 사이의 인터랙션이 수행된다. That is, since the command is transmitted in the minimum semantic unit of interaction between the human and the robot, it is possible to increase convenience for the human to instruct the work. In addition, as the interaction type unit, which is the minimum semantic unit of interaction, is used, the target of the corresponding task becomes clear and the robot can understand the entire task more easily, so that efficient human-centered interaction between human and robots is performed.

도 1은 인간-로봇 상호작용을 위한 인터랙션 시스템, 인간 및 로봇의 관계를 설명하기 위한 예시도이다.
도 2는 인간-로봇 상호작용을 위한 인터랙션 시스템의 블록도이다.
도 3은 작업 명령은 작업 구조(Task Tree)를 나타낸 구조도이다.
도 4는 본 발명의 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법의 순서도이다.
1 is an exemplary diagram for explaining an interaction system for human-robot interaction, and a relationship between humans and robots.
2 is a block diagram of an interaction system for human-robot interaction.
3 is a structural diagram showing a task structure of a task command.
4 is a flowchart of an interaction method for human-robot interaction according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당 업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있다. 따라서, 후술하는 상세한 설명은 한정적인 의미로 기술된 것이 아니며, 본 발명의 범위는 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에서 동일하거나 유사한 기능을 지칭한다.For a detailed description of the present invention, which will be described later, reference is made to the accompanying drawings that illustrate, by way of example, specific embodiments in which the invention may be practiced. These embodiments are described in detail enough to enable a person skilled in the art to practice the present invention. Various embodiments of the present invention are different, but need not be mutually exclusive. For example, the specific shapes, structures, and properties described herein can be implemented in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. In addition, the location or placement of individual components within each disclosed embodiment can be changed without departing from the spirit and scope of the invention. Therefore, the detailed description to be described later is not described in a limiting sense, and the scope of the present invention is limited only by the appended claims, along with all ranges equivalent to the claims. In the drawings, similar reference numerals refer to the same or similar functions in various aspects.

본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terminology used in the present specification is a general terminology that is currently widely used while considering functions, but this may vary according to intentions or customs of technicians in the field or the appearance of new technologies. In addition, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, the meaning will be described in the description of the corresponding specification. Therefore, the terms used in this specification should be interpreted based on not only the names of simple terms, but the actual meanings of the terms and contents throughout the present specification.

도 1은 인간-로봇 상호작용을 위한 인터랙션 시스템(10), 인간(H) 및 로봇(R)의 관계를 설명하기 위한 예시도이다.1 is an exemplary diagram for explaining a relationship between an interaction system 10 for human-robot interaction, a human (H) and a robot (R).

도 1을 참조하면, 인간-로봇 상호작용을 위한 인터랙션 시스템은 인간(H)의 명령에 따라 로봇(R)의 동작을 제어하기 위한 시스템일 수 있다. 여기서, 로봇(R)은 로봇 팔, 매니퓰레이터일 수 있으나, 이에 한정되는 것은 아니며, 인간 형태를 가진 로봇으로 인간이 수행하는 각종 서비스(의료 서비스, 가사 서비스 등)를 대신 수행하는 서비스 로봇일 수도 있다. 본 발명은 인간(H)과 로봇(R)이 보다 효과적이며, 효율적으로 상호작용할 수 있는 인간 중심의 인터랙션 시스템을 제공한다. 즉, 인간(H)은 로봇(R)에게 인간 중심의 다소 추상적인 작업 명령을 인간-로봇 상호작용을 위한 인터랙션 시스템(10)에 전달할 수 있으며, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 이를 추론하여 로봇의 동작에 적합한 명령을 생성, 로봇에게 제공할 수 있다. 본 발명의 인간-로봇 상호작용을 위한 인터랙션 시스템은 로봇에 포함되는 시스템일 수 있으나, 이에 한정되는 것은 아니며, 로봇(R)과 별개의 시스템으로 구현될 수도 있다. 이하, 본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 구성 및 동작에 대해 보다 상세히 설명하도록 한다.Referring to FIG. 1, an interaction system for human-robot interaction may be a system for controlling the operation of the robot R according to a command of the human H. Here, the robot R may be a robot arm or a manipulator, but is not limited thereto, and may be a service robot that performs various services (medical service, housekeeping service, etc.) performed by a human as a robot having a human form. . The present invention provides a human-centered interaction system in which a human (H) and a robot (R) can interact more effectively and efficiently. That is, the human (H) can transmit the human-centered somewhat abstract work command to the robot R to the interaction system 10 for human-robot interaction, and the interaction system 10 for human-robot interaction By inferring this, a command suitable for the operation of the robot can be generated and provided to the robot. The interaction system for human-robot interaction of the present invention may be a system included in a robot, but is not limited thereto, and may be implemented as a system separate from the robot R. Hereinafter, the configuration and operation of the interaction system 10 for human-robot interaction according to the present embodiment will be described in more detail.

도 2는 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 블록도이다. 도 3은 작업 명령은 작업 구조(Task Tree)를 나타낸 구조도이다.2 is a block diagram of an interaction system 10 for human-robot interaction. 3 is a structural diagram showing a task structure of a task command.

도 2 및 도 3을 참조하면, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 작업 명령 수신부(110), 작업 명령 추론부(120), 데이터 베이스부(130), 로봇 동작 명령 생성부(140)를 포함한다.2 and 3, the interaction system 10 for human-robot interaction includes a work command receiving unit 110, a work command inference unit 120, a database unit 130, and a robot operation command generation unit ( 140).

실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10) 및 이를 구성하는 각각의 장치 또는 부(unit)는, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 각각의 구성요소는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭한다. 하드웨어는 CPU(Central Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다. 예를 들어, 작업 명령 추론부(120)는, 작업 명령을 추론하기 위한 하드웨어 및 이를 위한 소프트웨어의 조합을 지칭할 수 있다.The interaction system 10 for human-robot interaction according to embodiments and each device or unit constituting the same may have aspects that are entirely hardware, or partially hardware and partially software. For example, each component of the interaction system 10 for human-robot interaction refers to a combination of hardware and software driven by the hardware. The hardware may be a data processing device including a central processing unit (CPU) or other processor. Also, software driven by hardware may refer to a running process, an object, an executable, a thread of execution, a program, or the like. For example, the work command inference unit 120 may refer to a combination of hardware and software for inferring the work command.

또한, 본 명세서에서 인간-로봇 상호작용을 위한 인터랙션 시스템(10)을 구성하는 각 부는 반드시 물리적으로 구분되는 별개의 구성요소를 지칭하는 것으로 의도되지 않는다. 즉, 도 2에서 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 각 부는 서로 구분되는 별개의 블록으로 도시되었으나, 이는 인간-로봇 상호작용을 위한 인터랙션 시스템(10)을 이에 의해 실행되는 동작에 의해 기능적으로 구분한 것이다. 실시예에 따라서는 전술한 각 부 중 일부 또는 전부가 동일한 하나의 장치 내에 집적화될 수 있으며, 또는 하나 이상의 부가 다른 부와 물리적으로 구분되는 별개의 장치로 구현될 수도 있다. 예컨대, 각각의 부는 분산 컴퓨팅 환경 하에서 서로 통신 가능하게 연결된 컴포넌트들일 수도 있다.In addition, each part constituting the interaction system 10 for human-robot interaction in the present specification is not intended to refer to separate components that are physically separated. That is, in FIG. 2, each part of the interaction system 10 for human-robot interaction is illustrated as a separate block that is distinct from each other, but this is related to the operation executed by the interaction system 10 for human-robot interaction. Functionally. Depending on the embodiment, some or all of the above-described parts may be integrated in the same one device, or one or more parts may be implemented as separate devices physically separated from other parts. For example, each part may be components communicatively connected to each other under a distributed computing environment.

작업 명령 수신부(110)는 작업 명령을 수신한다. 작업 명령은 로봇이 수행하여야 하는 작업에 대한 명령일 수 있다. 예시적으로, 로봇이 특정 좌표로 이동하게 하는 명령어가 아닌, 특정 대상물을 특정 인간에게 전달하는 것과 같은 다소 추상적인 작업에 대한 명령일 수 있다. 이러한 로봇이 수행하여야 하는 작업 전체에 대한 명령은 인간에게 보다 친숙한 의사 소통 방법일 수 있으며, 로봇 중심이 아닌 인간 중심의 상호작용 수단일 수 있다.The work command receiving unit 110 receives a work command. The work command may be a command to be performed by the robot. For example, it may not be a command that causes the robot to move to a specific coordinate, but rather a command for a rather abstract task such as delivering a specific object to a specific human. The command for the entire work to be performed by the robot may be a communication method that is more familiar to humans, and may be a human-centered interaction means, not a robot-centered one.

작업 명령은 인간으로부터 제공된 명령일 수 있다. 작업 명령은 키보드, 마우스 등의 입력 수단을 통해 제공될 수 있으나, 이에 한정되는 것은 아니며, 인간의 음성 또는 인간의 동작 등을 인식하여 생성될 수도 있다. 작업 명령 수신부(110)는 작업 명령이 입력되는 입력 모듈, 인간의 음성을 인식하는 음성 인식 모듈 및 인간의 동작을 인식하는 동작 인식 모듈 중 적어도 하나를 포함할 수 있다. 작업 명령 수신부(110)에서 수신된 작업 명령은 작업 명령 추론부(120)에 제공된다. The work order may be a command provided by a human. The work command may be provided through an input means such as a keyboard and a mouse, but is not limited thereto, and may be generated by recognizing a human voice or a human action. The work command receiving unit 110 may include at least one of an input module to which a work command is input, a voice recognition module for recognizing human voice, and a motion recognition module for recognizing human motion. The work command received from the work command receiving unit 110 is provided to the work command inference unit 120.

작업 명령 추론부(120)는 작업 명령을 추론하여 작업 구조(Task Tree)를 결정한다. 작업 명령은 적어도 하나 이상의 서브 작업으로 구성되며, 각 서브 작업은 적어도 하나 이상의 인터랙션 타입으로 구성된다. 작업 명령 추론부(120)는 작업 명령을 구성하는 적어도 하나 이상의 서브 작업을 결정하고, 결정된 서브 작업을 수행하기 위해 필요한 적어도 하나 이상의 인터랙션 타입을 결정한다.The task command inference unit 120 infers a task command to determine a task tree. The work command is composed of at least one sub-task, and each sub-task is composed of at least one interaction type. The work command inference unit 120 determines at least one sub-task constituting the work command, and determines at least one interaction type required to perform the determined sub-task.

예시적으로, "물체 A를 사용자 1에게 전달" - 작업 명령은 물체 A 들기, 사용자 1에게 물체 A 건네 주기, 원위치(GoToHome)의 세가지 서브 작업으로 구성될 수 있다. 물체 A 들기-서브 작업이 수행되기 위해서는 MoveTo, Grasp, LiftUp과 같은 세가지 인터랙션 타입이 필요할 수 있다. 작업 명령 추론부(120)는 "물체 A을 사용자 1에게 전달"이라는 작업 명령을 수신한 이후, 상술한 바와 같은 복수의 서브 작업 및 각 서브 작업을 수행하기 위해 필요한 인터랙션 타입을 결정한다.Illustratively, "pass object A to user 1"-a work command may consist of three sub-tasks: lifting object A, passing object A to user 1, and the home position (GoToHome). Object A lifting-sub operation may require three interaction types: MoveTo, Grasp, and LiftUp. The work command inference unit 120 determines a plurality of sub-tasks as described above and an interaction type required to perform each sub-task, after receiving a work command of “deliver object A to user 1”.

여기서, 본 실시예에서, MoveTo, Grasp, LiftUp와 같은 인터랙션 타입은 인간과 로봇과의 인터랙션이 발생하게 하는 최소 단위의 명령일 수 있다. 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 작업 명령을 추론, 인터랙션의 최소 단위인 인터랙션 타입 단위의 명령을 생성하여 로봇에 제공할 수 있으며, 로봇은 인터랙션 타입 단위 명령에 기초하여 지시된 작업을 수행하게 된다. 즉, 인간과 로봇 사이에서 발생하는 상호 작용의 최소 의미 단위로 명령을 전달하는 바, 인간이 작업을 지시하는 데 편의성을 높일 수 있다. 또한, 인터랙션의 최소 의미 단위인 인터랙션 타입 단위를 사용함에 따라, 해당 작업의 목표가 뚜렷해지며 로봇이 전체 작업을 보다 쉽게 이해할 수 있게 한다.Here, in this embodiment, an interaction type such as MoveTo, Grasp, LiftUp may be a command of a minimum unit that causes an interaction between a human and a robot. The interaction system 10 for human-robot interaction can infer a work command and generate a command of an interaction type unit, which is a minimum unit of interaction, and provide it to the robot, and the robot works based on the interaction type unit command. Will do. That is, since the command is transmitted in the minimum semantic unit of interaction between the human and the robot, it is possible to increase convenience for the human to instruct the work. In addition, as the interaction type unit, which is the minimum semantic unit of interaction, is used, the target of the corresponding task becomes clear and the robot can understand the entire task more easily.

이러한, 인터랙션 타입은 로봇과의 자연스러운 상호작용을 위해 미리 정의된 상태일 수 있다. 또한, 정의된 상호작용을 로봇이 수행하기 위한 로봇의 세부 동작은 각 인터랙션 타입에 따라 정의된 상태일 수 있다. 이러한 인터랙션 타입은 시스템의 내부 또는 시스템의 외부에서 생성되어 추가될 수 있다. 인터랙션 타입의 인터페이스는 데이터 베이스부(130)에 저장된 상태이며, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 인터랙션 타입의 인터페이스 중에서 현재 작업 명령에 적합한 인터랙션 타입을 추론을 통해 동적으로 결정할 수 있다.The interaction type may be a predefined state for natural interaction with the robot. Further, the detailed operation of the robot for the robot to perform the defined interaction may be a state defined according to each interaction type. This type of interaction can be created and added inside the system or outside the system. The interface of the interaction type is stored in the database unit 130, and the work command inference unit 120 dynamically adjusts an interaction type suitable for the current work command from the interaction type interface stored in the database unit 130 through inference. Can decide.

데이터 베이스부(130)는 인터랙션 타입의 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함할 수 있다. 데이터 베이스부(130)에 저장된 상기 정보는 작업 명령을 로봇이 수행한 이후 로봇, 대상물, 인간 등의 최신 상태를 반영하여 업데이트될 수 있다. The database unit 130 may include an interaction type interface, robot information, object information, and human information. The information stored in the database unit 130 may be updated by reflecting the latest state of the robot, the object, the human, etc. after the robot executes the work command.

로봇 정보는 작업을 수행하는 로봇에 관련된 정보를 의미하며, 적어도 로봇의 위치에 대한 정보를 포함한다. 여기서, 상기 대상물은 로봇과 인간이 속해있는 환경에 포함된 물체로 로봇 및/또는 사람과 상호작용이 가능한 물체를 의미한다. 대상물 정보는 상기 환경 내에 위치한 모든 대상물의 위치 정보 및 크기, 무게 등과 같은 물리적 정보를 포함한다. 인간 정보는 상기 로봇, 대상물과 인터랙션 가능한 인간에 대한 정보를 의미하며, 적어도 인간의 위치 정보, 인간과 인터랙션이 수행되는 위치(예를 들어, 손의 위치)를 포함한다.The robot information refers to information related to a robot performing a task, and at least includes information about the position of the robot. Here, the object is an object included in an environment to which a robot and a human belong, and means an object that can interact with a robot and/or a person. The object information includes physical information such as location information, size, and weight of all objects located in the environment. The human information refers to information about a human capable of interacting with the robot and the object, and includes at least human location information and a location (for example, a hand position) where the human interaction is performed.

작업 명령 추론부(120)는 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여, 작업 명령의 작업 구조를 결정할 수 있다. 즉, 작업 명령 추론부(120)는 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여, 작업 명령을 수행하기 위해 필요한 서브 작업(Sub Task)을 추가적으로 더 생성할 수 있다. 도 3에 도시된 바와 같이, 작업 명령 수신부(110)에서 제공된 작업 명령이 "물체 A을 사용자 1에게 전달"이나, 물체 A이 물체 B의 밑에 위치하는 대상물에 대한 정보를 고려하여, 물체 B를 옮기기 위한 서브 작업을 추가적으로 더 생성할 수 있다. 즉, 작업 명령 추론부(120)는 로봇, 대상물, 인간 등에 대한 정보를 고려하여, 물체 A을 사용자 1에게 전달하는 작업 명령을 수행하기 위한 서브 작업을 "물체 B 들기, 물체 B 내려놓기, 물체 A 들기, 사용자 1에게 물체 A 건네 주기, 원위치(GoToHome)"와 같은 구성으로 결정할 수 있다.The work command reasoning unit 120 may determine the work structure of the work command by further considering robot information, object information, and human information. That is, the work command inference unit 120 may further generate a sub task required to perform a work command in consideration of robot information, object information, and human information. As shown in FIG. 3, the work command provided from the work command receiving unit 110 is “delivering object A to user 1”, or considering object B information under which object A is located under object B. You can create additional subtasks to move. That is, the work command inference unit 120 considers information about a robot, an object, a human, and the like, and performs a sub-task for carrying out a work command to transfer the object A to the user 1 "lift object B, put object B down, object It can be decided by the configuration such as "A lifting, passing object A to user 1, home position (GoToHome)".

또한, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여 서브 작업을 수행하기 위해 필요한 인터랙션 타입을 동적으로(Dynamically) 결정할 수 있다. In addition, the work command inference unit 120 may dynamically determine (Dynamically) the type of interaction required to perform the sub-task by further considering robot information, object information, and human information stored in the database unit 130.

인터랙션 타입은 작업 명령, 로봇, 인간 및 대상물의 정보 중 적어도 하나에 따라 설정된 값이 상이할 수 있다. 즉, 물체 A 들기-서브 작업의 LiftUp 동작과 물체 B 들기-서브 작업의 LiftUp 동작은 동일한 LiftUp 인터페이스로 구성되나 물체 A을 들어올리는 LiftUp 동작과 물체 B를 들어올리는 LiftUp 동작은 로봇에 제공되는 세부적인 파라미터에서 차이점이 존재한다.The interaction type may have different values set according to at least one of a work command, robot, human, and object information. In other words, the LiftUp operation of lifting object-sub operation and the LiftUp operation of lifting object B are composed of the same LiftUp interface, but the LiftUp operation lifting object A and LiftUp operation lifting object B are the details provided to the robot. There are differences in parameters.

다른 예시로, 동일한 MoveTo에 해당하는 인터랙션 타입이라도 대상물 및 대상에 따라 이동하는 방향 및 속도가 상이할 수 있다. 또한, 이동 과정에 충돌이 예상되는 장애물이 있는 경우, 해당 장애물을 피하도록 MovoTo는 생성되어야 한다. 또한, 사용자에게 물체 A를 건네는 경우, HandOver 인터랙션 타입은 인간과 인터랙션이 수행되는 위치에 따라 변경될 수 있다. 즉, 작업 명령 및 주변 환경에 따라 MoveTo, HandOver와 같은 인터랙션 타입들은 다른 파라미터 값을 가지도록 동적으로 생성되어야 한다. 따라서, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 로봇, 대상물, 인간 등에 정보와 인터랙션 타입의 인터페이스를 독출(Read-out)하여, 현재 제공받은 작업 명령을 구성하는 복수의 인터랙션 타입을 동적으로 생성할 수 있다.As another example, even in an interaction type corresponding to the same MoveTo, the moving direction and speed may be different according to the object and the object. In addition, if there is an obstacle that is expected to collide in the movement process, the MovoTo must be generated to avoid the obstacle. In addition, when handing the object A to the user, the HandOver interaction type may be changed according to the location where the interaction with the human is performed. That is, depending on the work command and the surrounding environment, interaction types such as MoveTo and HandOver should be dynamically generated to have different parameter values. Accordingly, the work command inference unit 120 reads out an interface of information and an interaction type stored in the database unit 130 to a robot, an object, a human, and the like, and a plurality of interactions constituting a work command currently provided. Types can be created dynamically.

작업 명령 추론부(120)는 작업 명령에 대한 추론을 통해 동적으로 생성된 인터랙션 타입에 대한 정보를 로봇 동작 명령 생성부(140)로 제공한다.The work command inference unit 120 provides information on the dynamically generated interaction type through inference on the work command to the robot operation command generation unit 140.

로봇 동작 명령 생성부(140)는 동적으로 생성된 복수의 인터랙션 타입을 로봇이 수행하도록 로봇 작업의 순서를 결정하고, 로봇 동작 명령을 생성할 수 있다. 로봇 동작 명령 생성부(140)는 로봇의 동작을 동적으로 생성된 인터랙션 타입을 기초로 계획할 수 있으며, 각 인터랙션 타입이 수행되는 과정을 전체적으로 계획할 수 있다. 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령을 로봇에게 제공할 수 있다. The robot motion command generation unit 140 may determine a sequence of robot tasks so that the robot performs a plurality of dynamically generated interaction types, and generate a robot motion command. The robot motion command generation unit 140 may plan the motion of the robot based on the dynamically generated interaction type, and can overall plan the process in which each interaction type is performed. The robot motion command generation unit 140 may provide the generated robot motion command to the robot.

또한, 로봇 동작 명령 생성부(140)는 로봇의 특성, 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 로봇에 제공될 로봇 동작 명령을 생성할 수 있다. 즉, 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령에 따라 로봇의 동작을 추정(Estimation)할 수 있다. 로봇 동작 명령 생성부(140)는 각 인터랙션 타입 단위에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대한 추정이 가능하다. 본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 인터랙션 타입 단위로 로봇 동작 명령을 생성하는 바, 추정 로직 구성을 단위화할 수 있고, 파라미터의 개수를 최소화할 수 있다. In addition, the robot motion command generation unit 140 may generate a robot motion command to be provided to the robot in consideration of an error generated as the robot performs characteristics and interaction types. That is, the robot motion command generation unit 140 may estimate the motion of the robot according to the generated robot motion command. The robot motion command generation unit 140 can estimate whether the current robot can properly perform a work command while appropriately changing parameters applied to each interaction type unit. The interaction system 10 for human-robot interaction according to the present embodiment generates a robot operation command in an interaction type unit, so that the estimated logic configuration can be united and the number of parameters can be minimized.

인터랙션 타입의 조합인 로봇 동작 명령에 따라 로봇은 전체적인 작업을 수행할 수 있으며, 로봇의 작업이 수행된 결과가 반영된 대상물, 인간, 로봇의 현재 정보는 데이터 베이스부(130)에 피드백되어 저장될 수 있으며, 다음 작업 명령에 대응한 인터랙션 타입을 동적으로 생성하는 데 사용될 수 있다. According to the robot motion command, which is a combination of interaction types, the robot can perform the entire operation, and the current information of the object, human, and robot reflecting the result of the robot's operation can be fed back and stored in the database unit 130. It can be used to dynamically create an interaction type corresponding to the next work command.

이하, 본 발명의 다른 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 대해 설명하도록 한다. Hereinafter, an interaction method for human-robot interaction according to another embodiment of the present invention will be described.

도 4는 본 발명의 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법의 순서도이다. 인간-로봇 상호작용을 위한 인터랙션 방법은 도 2에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템에서 수행되는 방법으로 도 2의 설명이 참조될 수 있다. 4 is a flowchart of an interaction method for human-robot interaction according to an embodiment of the present invention. The method of interaction for human-robot interaction may be referred to the description of FIG. 2 as a method performed in the interaction system for human-robot interaction according to FIG. 2.

도 4를 참조하면, 인간-로봇 상호작용을 위한 인터랙션 방법은 작업 명령을 수신하는 단계(S100), 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110) 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계(S120)를 포함한다. Referring to FIG. 4, an interaction method for human-robot interaction includes receiving a work command (S100), inferring a work command, and determining at least one interaction type constituting the work command (S110), and And generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot (S120).

먼저, 작업 명령을 수신한다(S100).First, a work command is received (S100).

작업 명령을 수신은 작업 명령 수신부(110)에서 수행될 수 있다. 작업 명령은 인간으로부터 제공된 명령일 수 있다. 작업 명령은 키보드, 마우스 등의 입력 수단을 통해 제공될 수 있으나, 이에 한정되는 것은 아니며, 인간의 음성 또는 인간의 동작 등을 인식하여 생성되어 제공될 수도 있다.Receiving a work command may be performed by the work command receiving unit 110. The work order may be a command provided by a human. The work command may be provided through an input means such as a keyboard or a mouse, but is not limited thereto, and may be generated and provided by recognizing a human voice or a human action.

이어서, 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정한다(S110).Subsequently, at least one interaction type constituting the work command is determined by inferring the work command (S110 ).

작업 명령을 추론하여 작업 구조를 결정하는 상기 단계는 작업 명령 추론부(120)에서 수행될 수 있다. 작업 명령은 적어도 하나 이상의 서브 작업으로 구성되며, 각 서브 작업은 적어도 하나 이상의 인터랙션 타입으로 구성된다. 작업 명령 추론부(120)는 작업 명령을 구성하는 적어도 하나 이상의 서브 작업을 결정하고, 결정된 서브 작업을 수행하기 위해 필요한 적어도 하나 이상의 인터랙션 타입을 결정한다. 인터랙션 타입은 인간과 로봇과의 인터랙션이 발생하게 하는 최소 단위의 명령일 수 있다. 이러한, 인터랙션 타입은 로봇과의 자연스러운 상호작용을 위해 미리 정의된 상태일 수 있다. 즉, 인터랙션 타입의 인터페이스는 데이터 베이스부(130)에 저장된 상태이며, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 인터랙션 타입의 인터페이스 중에서 현재 작업 명령에 적합한 인터랙션 타입을 추론을 통해 동적으로 결정할 수 있다. The step of determining the work structure by inferring the work command may be performed by the work command reasoning unit 120. The work command is composed of at least one sub-task, and each sub-task is composed of at least one interaction type. The work command inference unit 120 determines at least one sub-task constituting the work command, and determines at least one interaction type required to perform the determined sub-task. The interaction type may be a minimum unit command that causes human-robot interaction to occur. The interaction type may be a predefined state for natural interaction with the robot. That is, the interface of the interaction type is stored in the database unit 130, and the work command inference unit 120 infers an interaction type suitable for the current work command from among the interaction type interfaces stored in the database unit 130. Can be determined dynamically.

상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110)는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정할 수 있다. Determining at least one interaction type constituting the work command by inferring the work command (S110), reading the interaction type creation interface, robot information, object information and human information from the database unit (Read-Out) ), and further consider the robot information, the object information, and the human information to determine a work structure of the work command.

또한, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110)는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 포함한다.In addition, the step of determining at least one interaction type constituting the work command by inferring the work command (S110), reading the interaction type creation interface, robot information, object information and human information in the database unit (Read -Out), and determining the at least one interaction type by further considering the robot information, the object information, and the human information.

다음으로, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공한다(S120).Next, a robot motion command is generated based on the determined one or more interaction types, and the generated robot motion command is provided to the robot (S120).

동적으로 생성된 복수의 인터랙션 타입을 로봇이 수행하도록 로봇 작업의 순서를 결정하고, 로봇 동작 명령을 생성할 수 있다. 이러한 단계는 로봇 동작 명령 생성부(140)에서 수행된다. 로봇 동작 명령 생성부(140)는 로봇의 동작을 동적으로 생성된 인터랙션 타입을 기초로 계획할 수 있으며, 각 인터랙션 타입이 수행되는 과정을 전체적으로 계획할 수 있다. 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령을 로봇에게 제공할 수 있다.A robot operation order may be determined and a robot operation command may be generated so that the robot performs a plurality of dynamically generated interaction types. These steps are performed by the robot operation command generation unit 140. The robot motion command generation unit 140 may plan the motion of the robot based on the dynamically generated interaction type, and can overall plan the process in which each interaction type is performed. The robot motion command generation unit 140 may provide the generated robot motion command to the robot.

또한, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계(S120)는, 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 포함할 수 있다. In addition, generating a robot operation command based on the determined one or more interaction types, and providing the generated robot operation command to the robot (S120), the characteristics of the robot, an error caused by performing the interaction type In consideration of the above, the robot operation command may be generated, and it may include estimating whether or not the current robot can properly perform a work command while appropriately changing parameters applied to the interaction type.

본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법은 상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 데이터 베이스부에 피드백되어 저장되는 단계를 더 포함할 수 있다. In the interaction method for human-robot interaction according to the present embodiment, after the operation of the robot is performed according to the provided robot operation command, object information, robot information, and human information are fed back and stored in the database unit. It may further include.

즉, 로봇 동작 명령에 따라 로봇은 전체적인 작업을 수행할 수 있으며, 로봇의 작업이 수행된 결과가 반영된 대상물, 인간, 로봇의 현재 정보는 데이터 베이스부(130)에 피드백되어 저장될 수 있으며, 다음 작업 명령에 대응한 인터랙션 타입을 동적으로 생성하는 데 사용될 수 있다.That is, according to the robot operation command, the robot can perform the entire operation, and the current information of the object, human, and robot reflecting the result of the robot's operation can be fed back to the database unit 130 and stored. Next It can be used to dynamically create an interaction type corresponding to a work order.

이상에서 설명한 실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 의한 동작은, 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.The operation by the interaction method for human-robot interaction according to the above-described embodiments may be recorded in a computer-readable recording medium at least partially implemented by a computer program. A program for implementing an operation by an interaction method for human-robot interaction according to embodiments is recorded, and a computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer is stored. do. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, and optical data storage devices. In addition, the computer readable recording medium may be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment will be easily understood by those skilled in the art to which this embodiment belongs.

이상에서는 실시예들을 참조하여 설명하였지만 본 발명은 이러한 실시예들 또는 도면에 의해 한정되는 것으로 해석되어서는 안 되며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments, the present invention should not be construed as being limited by these embodiments or the drawings, and those skilled in the art will think and scope of the present invention described in the following claims It will be understood that various modifications and changes can be made to the present invention without departing from the scope.

10: 인간-로봇 상호작용을 위한 인터랙션 시스템
110: 작업 명령 수신부
120: 작업 명령 추론부
130: 데이터 베이스부
140: 로봇 동작 명령 생성부
10: Interaction system for human-robot interaction
110: work command receiver
120: work order reasoning
130: database unit
140: robot operation command generation unit

Claims (13)

작업 명령을 수신하는 작업 명령 수신부;
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 작업 명령 추론부; 및
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 로봇 동작 명령 생성부를 포함하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
A work command receiver for receiving a work command;
A work command inference unit for inferring the work command and determining at least one interaction type constituting the work command; And
And a robot motion command generator for generating a robot motion command based on the determined one or more interaction types and providing the generated robot motion command to a robot.
제1 항에 있어서,
상기 작업 명령 추론부는 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
According to claim 1,
The work command inference unit may classify the work command into at least one sub-task first, and classify the classified at least one sub-task into the at least one interaction type to determine a work structure of the work command. Interaction system for human-robot interaction.
제2 항에 있어서,
인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함하는 데이터 베이스부를 더 포함하며,
상기 작업 명령 추론부는 상기 데이터 베이스부에서 독출(Read-Out)된 상기 로봇 정보, 상기 대상물 정보, 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
According to claim 2,
It further includes a database unit including an interaction type creation interface, robot information, object information, and human information,
The operation command inference unit determines the at least one interaction type by further considering the robot information, the object information, and the human information read-out from the database unit. Interaction system for.
제3 항에 있어서,
상기 작업 명령 추론부는 상기 로봇 정보, 대상물 정보, 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
According to claim 3,
The work command inference unit is an interaction system for human-robot interaction, characterized by determining the work structure of the work command in consideration of the robot information, object information, and human information.
제3 항에 있어서,
상기 로봇 동작 명령에 따른 로봇의 작업이 수행된 결과가 반영된 현재 대상물 정보, 현재 로봇 정보, 현재 인간 정보는 상기 데이터 베이스부에 피드백되어 저장되는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
According to claim 3,
Interaction system for human-robot interaction, characterized in that current object information, current robot information, and current human information reflecting the result of the robot's operation according to the robot operation command are fed back and stored in the database unit.
제1 항에 있어서,
상기 로봇 동작 명령 생성부는 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며,
상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.
According to claim 1,
The robot motion command generation unit generates the robot motion command in consideration of the characteristics of the robot and the error generated by performing the interaction type
Interaction system for human-robot interaction, characterized by estimating whether a current robot can properly perform a work command while appropriately changing a parameter applied to the interaction type.
작업 명령을 수신하는 단계;
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계; 및
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계를 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
Receiving a work order;
Determining at least one interaction type constituting the work command by inferring the work command; And
And generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to a robot.
제7 항에 있어서,
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는,
상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
The method of claim 7,
Inferring the work command to determine at least one interaction type constituting the work command,
Human-robot interaction comprising first classifying the work order into at least one sub-work, and classifying the classified at least one sub-work into the at least one interaction type to determine a work structure of the work command. How to interact.
제8 항에 있어서,
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는,
데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
The method of claim 8,
Inferring the work command to determine at least one interaction type constituting the work command,
The database unit reads out an interaction type creation interface, robot information, object information, and human information, and further determines the at least one interaction type by further considering the robot information, the object information, and the human information An interaction method for human-robot interaction, including doing.
제8 항에 있어서,
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는,
데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
The method of claim 8,
Determining at least one interaction type constituting the work command by inferring the work command,
The database unit reads out an interaction-type creation interface, robot information, object information, and human information, and further considers the robot information, the object information, and the human information to determine a work structure of the work command. Including interaction method for human-robot interaction.
제8 항에 있어서,
상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 데이터 베이스부에 피드백되어 저장되는 단계를 더 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
The method of claim 8,
After the operation of the robot is performed according to the provided robot operation command, the object information, robot information, human information further comprises the step of being fed back and stored in the database unit interaction method for human-robot interaction.
제7 항에 있어서,
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계는,
로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.
The method of claim 7,
Generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot,
The robot operation command is generated in consideration of the characteristics of the robot and the error caused by performing the interaction type. A method of interaction for human-robot interaction, including estimating about a.
하드웨어와 결합되어 제7항 내지 제12항 중 어느 한 항에 따른 인간-로봇 상호작용을 위한 인터랙션 방법을 실행하도록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a medium to execute an interaction method for human-robot interaction according to any one of claims 7 to 12 in combination with hardware.
KR1020180152404A 2018-11-30 2018-11-30 Interaction System and Interaction Method for Human-Robot Interaction KR20200071814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180152404A KR20200071814A (en) 2018-11-30 2018-11-30 Interaction System and Interaction Method for Human-Robot Interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180152404A KR20200071814A (en) 2018-11-30 2018-11-30 Interaction System and Interaction Method for Human-Robot Interaction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200156202A Division KR102222468B1 (en) 2020-11-20 2020-11-20 Interaction System and Interaction Method for Human-Robot Interaction

Publications (1)

Publication Number Publication Date
KR20200071814A true KR20200071814A (en) 2020-06-22

Family

ID=71142433

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180152404A KR20200071814A (en) 2018-11-30 2018-11-30 Interaction System and Interaction Method for Human-Robot Interaction

Country Status (1)

Country Link
KR (1) KR20200071814A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230151526A (en) * 2021-02-18 2023-11-01 생츄어리 코그니티브 시스템즈 코포레이션 Systems, devices and methods for multi-purpose robots

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M.R.Cutkosky, On Grasp Choice, Grasp Models, and the Design of Hands for Manufacturing Tasks, IEEE Trans. on Robotics and Automation, Vol.5,No.3, 1989

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230151526A (en) * 2021-02-18 2023-11-01 생츄어리 코그니티브 시스템즈 코포레이션 Systems, devices and methods for multi-purpose robots

Similar Documents

Publication Publication Date Title
US10807237B2 (en) System and method for flexible human-machine collaboration
US8452448B2 (en) Robotics systems
US8295978B2 (en) System for cooperation of multiple robots using dynamic behavior binding and method thereof
Björkelund et al. On the integration of skilled robot motions for productivity in manufacturing
US11951631B2 (en) Object marking to support tasks by autonomous machines
KR102257938B1 (en) Skill interface for industrial applications
US11904473B2 (en) Transformation mode switching for a real-time robotic control system
Salman et al. Fogification of industrial robotic systems: Research challenges
Karami et al. Task allocation for multi-robot task and motion planning: a case for object picking in cluttered workspaces
Alzetta et al. Towards a real-time BDI model for ROS 2
KR20200071814A (en) Interaction System and Interaction Method for Human-Robot Interaction
KR102040901B1 (en) System for generating robot task plans
Lindorfer et al. Towards user-oriented programming of skill-based automation systems using a domain-specific meta-modeling approach
Liu Research toward IoT and robotics in intelligent manufacturing: a survey
KR102222468B1 (en) Interaction System and Interaction Method for Human-Robot Interaction
US11679498B2 (en) Robot execution system
Andres et al. ROSoClingo: A ROS package for ASP-based robot control
US20240217097A1 (en) Compiling robot behavior trees
Piaggio et al. Programming real time distributed multiple robotic systems
Mocan et al. FRAMEWORK FOR DEVELOPING A MULTIMODAL PROGRAMMING INTERFACE USED ON INDUSTRIAL ROBOTS.
Piaggio et al. Ethnos-ii: A programming environment for distributed multiple robotic systems
Lee et al. Message-based evaluation in scheme for high-level robot control
Valner et al. Nav 2 PYIF: Python-based motion planning for ROS 2 Navigation 2

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination