KR20200071814A - Interaction System and Interaction Method for Human-Robot Interaction - Google Patents
Interaction System and Interaction Method for Human-Robot Interaction Download PDFInfo
- Publication number
- KR20200071814A KR20200071814A KR1020180152404A KR20180152404A KR20200071814A KR 20200071814 A KR20200071814 A KR 20200071814A KR 1020180152404 A KR1020180152404 A KR 1020180152404A KR 20180152404 A KR20180152404 A KR 20180152404A KR 20200071814 A KR20200071814 A KR 20200071814A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- interaction
- command
- human
- work
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 인간-로봇 상호작용(Human-Robot Interaction, HRI)을 위한 인터랙션 시스템 및 방법에 관한 것으로, 인간과 로봇의 상호작용을 지원하는 인터페이스에서, 인간 중심의 인터랙션을 지원할 수 있는 인터랙션 시스템 및 방법에 관한 것이다.The present invention relates to an interaction system and method for human-robot interaction (HRI), in an interface supporting human-robot interaction, an interaction system and method capable of supporting human-centered interaction It is about.
[국가지원 연구개발에 대한 설명][Explanation on national support R&D]
본 연구는 한국연구재단의 관리 하에 과학기술정보통신부의 글로벌프론티어지원(R&D) 사업의 "원격 사용자간 협업을 위한 손 기반 Seamless CoUI 기술 개발에 관한 연구"(과제 고유번호: 1711073470, 세부과제번호: 2011-0031425)의 지원에 의하여 이루어진 것이다.This study is under the supervision of the Korea Research Foundation, "Study on Hand-based Seamless CoUI Technology Development for Remote User Collaboration" of the Global Frontier Support (R&D) Project of the Ministry of Science and ICT (Task ID: 1711073470, Detailed Assignment No. 2011-0031425).
로봇 기술의 발전과 함께 산업 현장에서 인간이 수행하던 많은 일들을 로봇, 매니퓰레이터 등에 의해 수행하는 것으로 대체되어 가고 있으며, 인간은 로봇, 매니퓰레이터와 협동하거나, 이를 제어, 관리하는 방향으로 산업이 발전하고 있다. 또한, 산업 분야뿐만 아니라, 인간과 상호 작용이 중요한 의료 서비스, 가사 서비스, 소셜 서비스 등에도 로봇이 적용되는 사례가 증가하고 있다. 따라서, 인간과 로봇의 상호작용이 보다 중요해지고 있다.With the development of robot technology, many things that humans have been doing in the industrial field are being replaced by robots, manipulators, etc., and humans are cooperating with robots, manipulators, or the industry is developing in the direction of controlling and managing them. . In addition, the number of cases in which robots are applied not only in the industrial field, but also in medical services, household services, and social services in which human interaction is important is increasing. Therefore, human-robot interaction becomes more important.
이러한, 인간과 로봇의 상호작용이 효율적으로 수행되기 위해서는 인간과 로봇의 의사소통, 즉 인간의 명령이 로봇에게 자연스럽게 전달되어야 한다. 다만, 인간이 사용하는 언어와 로봇이 사용하는 언어가 상이하기에, 인간은 로봇에게 명령을 전달하기 위해 로봇의 동작을 중심으로 하는 세부 명령을 제공하여야 하는 불편함이 발생한다. 예시적으로, 인간은 "물체 A를 물체 B 위에 올려줘"라는 동작을 로봇이 수행하는 것을 원하지만, 위치, 속도, 가속도, 토크 등와 로봇의 물리적 특징을 고려하고, 특정 좌표를 설정한 로봇의 세부 동작과 관련된 명령을 로봇에게 전달하여야 한다. 즉, 전반적인 로봇의 작업 내용에 지시하는 다소 추상적인 인간의 언어와 로봇의 물리적인 세부적인 동작에 대한 로봇의 언어 사이의 괴리감에 의해, 인간과 로봇의 상호작용이 효율적으로 수행되기에는 다소 한계가 있다.In order for the human-robot interaction to be efficiently performed, human-robot communication, that is, human commands must be naturally transmitted to the robot. However, since the language used by the human is different from the language used by the robot, inconvenience arises in that the human needs to provide detailed commands centered on the robot's operation in order to transmit commands to the robot. Exemplarily, the human wants the robot to perform the action "Put object A on object B", but considers the position, speed, acceleration, torque, and physical characteristics of the robot, and details of the robot that sets specific coordinates. Commands related to motion must be transmitted to the robot. That is, due to the gap between the somewhat abstract human language instructing the overall robot's work and the robot's language for the physical detailed motion of the robot, it is somewhat limited to effectively perform human-robot interaction. have.
따라서, 인간과 로봇의 보다 효율적인 상호작용을 위해 인간 중심의 인터랙션을 지원할 수 있는 시스템 및 방법이 요구되고 있다.Accordingly, there is a need for a system and method capable of supporting human-centered interaction for more efficient interaction between humans and robots.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 인간과 로봇의 보다 효율적인 상호작용을 위해 인간 중심의 인터랙션을 지원할 수 있는 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법을 제공한다.The present invention has been devised to solve the above-mentioned problems, and provides an interaction system and method for human-robot interaction capable of supporting human-centered interaction for more efficient interaction between humans and robots.
본 명세서의 일 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템은 작업 명령을 수신하는 작업 명령 수신부; 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 작업 명령 추론부; 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 로봇 동작 명령 생성부를 포함한다.An interaction system for human-robot interaction according to an embodiment of the present specification includes a work command receiving unit for receiving a work command; A work command inference unit for inferring the work command and determining at least one interaction type constituting the work command; And a robot motion command generation unit that generates a robot motion command based on the determined one or more interaction types, and provides the generated robot motion command to a robot.
일 실시예에서, 상기 작업 명령 추론부는 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정할 수 있다. In one embodiment, the work command inference unit first classifies the work command into at least one sub-task, and classifies the classified at least one sub-task into the at least one interaction type, thereby classifying the work structure of the work command. Can decide.
일 실시예에서, 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함하는 데이터 베이스부를 더 포함하며, 상기 작업 명령 추론부는 상기 데이터 베이스부에서 독출(Read-Out)된 상기 로봇 정보, 상기 대상물 정보, 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정할 수 있다. In one embodiment, the interaction type generation interface, robot information, object information, further comprising a database unit including human information, the operation command inference unit read (Read-Out) the robot information from the database unit, The at least one interaction type may be determined by further considering the object information and the human information.
일 실시예에서, 상기 작업 명령 추론부는 상기 로봇 정보, 대상물 정보, 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정할 수 있다. In one embodiment, the work command inference unit may determine the work structure of the work command by further considering the robot information, object information, and human information.
일 실시예에서, 상기 로봇 동작 명령에 따른 로봇의 작업이 수행된 결과가 반영된 현재 대상물 정보, 현재 로봇 정보, 현재 인간 정보는 상기 데이터 베이스부에 피드백되어 저장될 수 있다. In one embodiment, the current object information, current robot information, and current human information reflecting the result of the robot's operation according to the robot operation command may be fed back and stored in the database unit.
일 실시예에서, 상기 로봇 동작 명령 생성부는 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정할 수 있다. In one embodiment, the robot motion command generation unit generates the robot motion command in consideration of the characteristics of the robot and the error caused by performing the interaction type, and changes the parameters applied to the interaction type appropriately, thereby allowing the current robot to It is possible to estimate whether the work order can be properly performed.
본 발명의 다른 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법은 작업 명령을 수신하는 단계; 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계; 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계를 포함한다. An interaction method for human-robot interaction according to another embodiment of the present invention includes receiving a work command; Determining at least one interaction type constituting the work command by inferring the work command; And generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot.
일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 포함할 수 있다. In an embodiment, determining the at least one interaction type constituting the work command by inferring the work command may first classify the work command as at least one sub-task, and the classified at least one sub-task It may be classified into the at least one interaction type, and determining a work structure of the work command.
일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 포함할 수 있다. In one embodiment, the step of determining at least one interaction type constituting the work command by inferring the work command comprises reading an interaction type creation interface, robot information, object information, and human information from the database unit (Read -Out) and may further include determining the at least one interaction type by further considering the robot information, the object information, and the human information.
일 실시예에서, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 포함할 수 있다. In one embodiment, the step of determining at least one interaction type constituting the work command by inferring the work command comprises reading an interaction type creation interface, robot information, object information, and human information from the database unit (Read -Out), and further considering the robot information, the object information, and the human information may include determining a work structure of the work command.
일 실시예에서, 상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 데이터 베이스부에 피드백되어 저장되는 단계를 더 포함할 수 있다. In one embodiment, after the operation of the robot is performed according to the provided robot operation command, the method may further include storing object information, robot information, and human information fed back to the database unit and stored.
일 실시예에서, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계는, 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 포함할 수 있다. In one embodiment, generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot may include characteristics of the robot and errors generated by performing the interaction type. In consideration of the above, the robot operation command may be generated, and it may include estimating whether or not the current robot can properly perform a work command while appropriately changing parameters applied to the interaction type.
본 발명의 또 다른 실시예에 따른 저장 매체는 하드웨어와 결합되어 제7항 내지 제12항 중 어느 한 항에 따른 인간-로봇 상호작용을 위한 인터랙션 방법을 실행하도록 매체에 저장된다. A storage medium according to another embodiment of the present invention is stored in a medium in combination with hardware to execute an interaction method for human-robot interaction according to any one of claims 7 to 12.
본 발명의 일 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법은 작업 명령을 추론, 인터랙션의 최소 단위인 인터랙션 타입 단위의 명령을 생성하여 로봇에 제공할 수 있으며, 로봇은 인터랙션 타입 단위 명령에 기초하여 지시된 작업을 수행하게 된다. The interaction system and method for human-robot interaction according to an embodiment of the present invention may infer a work command, generate a command of an interaction type unit that is a minimum unit of interaction, and provide the command to the robot, and the robot is an interaction type unit Based on the command, the indicated operation is performed.
즉, 인간과 로봇 사이에서 발생하는 상호 작용의 최소 의미 단위로 명령을 전달하는 바, 인간이 작업을 지시하는 데 편의성을 높일 수 있다. 또한, 인터랙션의 최소 의미 단위인 인터랙션 타입 단위를 사용함에 따라, 해당 작업의 목표가 뚜렷해지며 로봇이 전체 작업을 보다 쉽게 이해할 수 있어, 인간 중심의 효율적인 인간-로봇 사이의 인터랙션이 수행된다. That is, since the command is transmitted in the minimum semantic unit of interaction between the human and the robot, it is possible to increase convenience for the human to instruct the work. In addition, as the interaction type unit, which is the minimum semantic unit of interaction, is used, the target of the corresponding task becomes clear and the robot can understand the entire task more easily, so that efficient human-centered interaction between human and robots is performed.
도 1은 인간-로봇 상호작용을 위한 인터랙션 시스템, 인간 및 로봇의 관계를 설명하기 위한 예시도이다.
도 2는 인간-로봇 상호작용을 위한 인터랙션 시스템의 블록도이다.
도 3은 작업 명령은 작업 구조(Task Tree)를 나타낸 구조도이다.
도 4는 본 발명의 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법의 순서도이다.1 is an exemplary diagram for explaining an interaction system for human-robot interaction, and a relationship between humans and robots.
2 is a block diagram of an interaction system for human-robot interaction.
3 is a structural diagram showing a task structure of a task command.
4 is a flowchart of an interaction method for human-robot interaction according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당 업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있다. 따라서, 후술하는 상세한 설명은 한정적인 의미로 기술된 것이 아니며, 본 발명의 범위는 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에서 동일하거나 유사한 기능을 지칭한다.For a detailed description of the present invention, which will be described later, reference is made to the accompanying drawings that illustrate, by way of example, specific embodiments in which the invention may be practiced. These embodiments are described in detail enough to enable a person skilled in the art to practice the present invention. Various embodiments of the present invention are different, but need not be mutually exclusive. For example, the specific shapes, structures, and properties described herein can be implemented in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. In addition, the location or placement of individual components within each disclosed embodiment can be changed without departing from the spirit and scope of the invention. Therefore, the detailed description to be described later is not described in a limiting sense, and the scope of the present invention is limited only by the appended claims, along with all ranges equivalent to the claims. In the drawings, similar reference numerals refer to the same or similar functions in various aspects.
본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terminology used in the present specification is a general terminology that is currently widely used while considering functions, but this may vary according to intentions or customs of technicians in the field or the appearance of new technologies. In addition, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, the meaning will be described in the description of the corresponding specification. Therefore, the terms used in this specification should be interpreted based on not only the names of simple terms, but the actual meanings of the terms and contents throughout the present specification.
도 1은 인간-로봇 상호작용을 위한 인터랙션 시스템(10), 인간(H) 및 로봇(R)의 관계를 설명하기 위한 예시도이다.1 is an exemplary diagram for explaining a relationship between an
도 1을 참조하면, 인간-로봇 상호작용을 위한 인터랙션 시스템은 인간(H)의 명령에 따라 로봇(R)의 동작을 제어하기 위한 시스템일 수 있다. 여기서, 로봇(R)은 로봇 팔, 매니퓰레이터일 수 있으나, 이에 한정되는 것은 아니며, 인간 형태를 가진 로봇으로 인간이 수행하는 각종 서비스(의료 서비스, 가사 서비스 등)를 대신 수행하는 서비스 로봇일 수도 있다. 본 발명은 인간(H)과 로봇(R)이 보다 효과적이며, 효율적으로 상호작용할 수 있는 인간 중심의 인터랙션 시스템을 제공한다. 즉, 인간(H)은 로봇(R)에게 인간 중심의 다소 추상적인 작업 명령을 인간-로봇 상호작용을 위한 인터랙션 시스템(10)에 전달할 수 있으며, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 이를 추론하여 로봇의 동작에 적합한 명령을 생성, 로봇에게 제공할 수 있다. 본 발명의 인간-로봇 상호작용을 위한 인터랙션 시스템은 로봇에 포함되는 시스템일 수 있으나, 이에 한정되는 것은 아니며, 로봇(R)과 별개의 시스템으로 구현될 수도 있다. 이하, 본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 구성 및 동작에 대해 보다 상세히 설명하도록 한다.Referring to FIG. 1, an interaction system for human-robot interaction may be a system for controlling the operation of the robot R according to a command of the human H. Here, the robot R may be a robot arm or a manipulator, but is not limited thereto, and may be a service robot that performs various services (medical service, housekeeping service, etc.) performed by a human as a robot having a human form. . The present invention provides a human-centered interaction system in which a human (H) and a robot (R) can interact more effectively and efficiently. That is, the human (H) can transmit the human-centered somewhat abstract work command to the robot R to the
도 2는 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 블록도이다. 도 3은 작업 명령은 작업 구조(Task Tree)를 나타낸 구조도이다.2 is a block diagram of an
도 2 및 도 3을 참조하면, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 작업 명령 수신부(110), 작업 명령 추론부(120), 데이터 베이스부(130), 로봇 동작 명령 생성부(140)를 포함한다.2 and 3, the
실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10) 및 이를 구성하는 각각의 장치 또는 부(unit)는, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 각각의 구성요소는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭한다. 하드웨어는 CPU(Central Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다. 예를 들어, 작업 명령 추론부(120)는, 작업 명령을 추론하기 위한 하드웨어 및 이를 위한 소프트웨어의 조합을 지칭할 수 있다.The
또한, 본 명세서에서 인간-로봇 상호작용을 위한 인터랙션 시스템(10)을 구성하는 각 부는 반드시 물리적으로 구분되는 별개의 구성요소를 지칭하는 것으로 의도되지 않는다. 즉, 도 2에서 인간-로봇 상호작용을 위한 인터랙션 시스템(10)의 각 부는 서로 구분되는 별개의 블록으로 도시되었으나, 이는 인간-로봇 상호작용을 위한 인터랙션 시스템(10)을 이에 의해 실행되는 동작에 의해 기능적으로 구분한 것이다. 실시예에 따라서는 전술한 각 부 중 일부 또는 전부가 동일한 하나의 장치 내에 집적화될 수 있으며, 또는 하나 이상의 부가 다른 부와 물리적으로 구분되는 별개의 장치로 구현될 수도 있다. 예컨대, 각각의 부는 분산 컴퓨팅 환경 하에서 서로 통신 가능하게 연결된 컴포넌트들일 수도 있다.In addition, each part constituting the
작업 명령 수신부(110)는 작업 명령을 수신한다. 작업 명령은 로봇이 수행하여야 하는 작업에 대한 명령일 수 있다. 예시적으로, 로봇이 특정 좌표로 이동하게 하는 명령어가 아닌, 특정 대상물을 특정 인간에게 전달하는 것과 같은 다소 추상적인 작업에 대한 명령일 수 있다. 이러한 로봇이 수행하여야 하는 작업 전체에 대한 명령은 인간에게 보다 친숙한 의사 소통 방법일 수 있으며, 로봇 중심이 아닌 인간 중심의 상호작용 수단일 수 있다.The work
작업 명령은 인간으로부터 제공된 명령일 수 있다. 작업 명령은 키보드, 마우스 등의 입력 수단을 통해 제공될 수 있으나, 이에 한정되는 것은 아니며, 인간의 음성 또는 인간의 동작 등을 인식하여 생성될 수도 있다. 작업 명령 수신부(110)는 작업 명령이 입력되는 입력 모듈, 인간의 음성을 인식하는 음성 인식 모듈 및 인간의 동작을 인식하는 동작 인식 모듈 중 적어도 하나를 포함할 수 있다. 작업 명령 수신부(110)에서 수신된 작업 명령은 작업 명령 추론부(120)에 제공된다. The work order may be a command provided by a human. The work command may be provided through an input means such as a keyboard and a mouse, but is not limited thereto, and may be generated by recognizing a human voice or a human action. The work
작업 명령 추론부(120)는 작업 명령을 추론하여 작업 구조(Task Tree)를 결정한다. 작업 명령은 적어도 하나 이상의 서브 작업으로 구성되며, 각 서브 작업은 적어도 하나 이상의 인터랙션 타입으로 구성된다. 작업 명령 추론부(120)는 작업 명령을 구성하는 적어도 하나 이상의 서브 작업을 결정하고, 결정된 서브 작업을 수행하기 위해 필요한 적어도 하나 이상의 인터랙션 타입을 결정한다.The task
예시적으로, "물체 A를 사용자 1에게 전달" - 작업 명령은 물체 A 들기, 사용자 1에게 물체 A 건네 주기, 원위치(GoToHome)의 세가지 서브 작업으로 구성될 수 있다. 물체 A 들기-서브 작업이 수행되기 위해서는 MoveTo, Grasp, LiftUp과 같은 세가지 인터랙션 타입이 필요할 수 있다. 작업 명령 추론부(120)는 "물체 A을 사용자 1에게 전달"이라는 작업 명령을 수신한 이후, 상술한 바와 같은 복수의 서브 작업 및 각 서브 작업을 수행하기 위해 필요한 인터랙션 타입을 결정한다.Illustratively, "pass object A to user 1"-a work command may consist of three sub-tasks: lifting object A, passing object A to user 1, and the home position (GoToHome). Object A lifting-sub operation may require three interaction types: MoveTo, Grasp, and LiftUp. The work
여기서, 본 실시예에서, MoveTo, Grasp, LiftUp와 같은 인터랙션 타입은 인간과 로봇과의 인터랙션이 발생하게 하는 최소 단위의 명령일 수 있다. 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 작업 명령을 추론, 인터랙션의 최소 단위인 인터랙션 타입 단위의 명령을 생성하여 로봇에 제공할 수 있으며, 로봇은 인터랙션 타입 단위 명령에 기초하여 지시된 작업을 수행하게 된다. 즉, 인간과 로봇 사이에서 발생하는 상호 작용의 최소 의미 단위로 명령을 전달하는 바, 인간이 작업을 지시하는 데 편의성을 높일 수 있다. 또한, 인터랙션의 최소 의미 단위인 인터랙션 타입 단위를 사용함에 따라, 해당 작업의 목표가 뚜렷해지며 로봇이 전체 작업을 보다 쉽게 이해할 수 있게 한다.Here, in this embodiment, an interaction type such as MoveTo, Grasp, LiftUp may be a command of a minimum unit that causes an interaction between a human and a robot. The
이러한, 인터랙션 타입은 로봇과의 자연스러운 상호작용을 위해 미리 정의된 상태일 수 있다. 또한, 정의된 상호작용을 로봇이 수행하기 위한 로봇의 세부 동작은 각 인터랙션 타입에 따라 정의된 상태일 수 있다. 이러한 인터랙션 타입은 시스템의 내부 또는 시스템의 외부에서 생성되어 추가될 수 있다. 인터랙션 타입의 인터페이스는 데이터 베이스부(130)에 저장된 상태이며, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 인터랙션 타입의 인터페이스 중에서 현재 작업 명령에 적합한 인터랙션 타입을 추론을 통해 동적으로 결정할 수 있다.The interaction type may be a predefined state for natural interaction with the robot. Further, the detailed operation of the robot for the robot to perform the defined interaction may be a state defined according to each interaction type. This type of interaction can be created and added inside the system or outside the system. The interface of the interaction type is stored in the
데이터 베이스부(130)는 인터랙션 타입의 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함할 수 있다. 데이터 베이스부(130)에 저장된 상기 정보는 작업 명령을 로봇이 수행한 이후 로봇, 대상물, 인간 등의 최신 상태를 반영하여 업데이트될 수 있다. The
로봇 정보는 작업을 수행하는 로봇에 관련된 정보를 의미하며, 적어도 로봇의 위치에 대한 정보를 포함한다. 여기서, 상기 대상물은 로봇과 인간이 속해있는 환경에 포함된 물체로 로봇 및/또는 사람과 상호작용이 가능한 물체를 의미한다. 대상물 정보는 상기 환경 내에 위치한 모든 대상물의 위치 정보 및 크기, 무게 등과 같은 물리적 정보를 포함한다. 인간 정보는 상기 로봇, 대상물과 인터랙션 가능한 인간에 대한 정보를 의미하며, 적어도 인간의 위치 정보, 인간과 인터랙션이 수행되는 위치(예를 들어, 손의 위치)를 포함한다.The robot information refers to information related to a robot performing a task, and at least includes information about the position of the robot. Here, the object is an object included in an environment to which a robot and a human belong, and means an object that can interact with a robot and/or a person. The object information includes physical information such as location information, size, and weight of all objects located in the environment. The human information refers to information about a human capable of interacting with the robot and the object, and includes at least human location information and a location (for example, a hand position) where the human interaction is performed.
작업 명령 추론부(120)는 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여, 작업 명령의 작업 구조를 결정할 수 있다. 즉, 작업 명령 추론부(120)는 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여, 작업 명령을 수행하기 위해 필요한 서브 작업(Sub Task)을 추가적으로 더 생성할 수 있다. 도 3에 도시된 바와 같이, 작업 명령 수신부(110)에서 제공된 작업 명령이 "물체 A을 사용자 1에게 전달"이나, 물체 A이 물체 B의 밑에 위치하는 대상물에 대한 정보를 고려하여, 물체 B를 옮기기 위한 서브 작업을 추가적으로 더 생성할 수 있다. 즉, 작업 명령 추론부(120)는 로봇, 대상물, 인간 등에 대한 정보를 고려하여, 물체 A을 사용자 1에게 전달하는 작업 명령을 수행하기 위한 서브 작업을 "물체 B 들기, 물체 B 내려놓기, 물체 A 들기, 사용자 1에게 물체 A 건네 주기, 원위치(GoToHome)"와 같은 구성으로 결정할 수 있다.The work
또한, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 로봇 정보, 대상물 정보, 인간 정보 등을 더 고려하여 서브 작업을 수행하기 위해 필요한 인터랙션 타입을 동적으로(Dynamically) 결정할 수 있다. In addition, the work
인터랙션 타입은 작업 명령, 로봇, 인간 및 대상물의 정보 중 적어도 하나에 따라 설정된 값이 상이할 수 있다. 즉, 물체 A 들기-서브 작업의 LiftUp 동작과 물체 B 들기-서브 작업의 LiftUp 동작은 동일한 LiftUp 인터페이스로 구성되나 물체 A을 들어올리는 LiftUp 동작과 물체 B를 들어올리는 LiftUp 동작은 로봇에 제공되는 세부적인 파라미터에서 차이점이 존재한다.The interaction type may have different values set according to at least one of a work command, robot, human, and object information. In other words, the LiftUp operation of lifting object-sub operation and the LiftUp operation of lifting object B are composed of the same LiftUp interface, but the LiftUp operation lifting object A and LiftUp operation lifting object B are the details provided to the robot. There are differences in parameters.
다른 예시로, 동일한 MoveTo에 해당하는 인터랙션 타입이라도 대상물 및 대상에 따라 이동하는 방향 및 속도가 상이할 수 있다. 또한, 이동 과정에 충돌이 예상되는 장애물이 있는 경우, 해당 장애물을 피하도록 MovoTo는 생성되어야 한다. 또한, 사용자에게 물체 A를 건네는 경우, HandOver 인터랙션 타입은 인간과 인터랙션이 수행되는 위치에 따라 변경될 수 있다. 즉, 작업 명령 및 주변 환경에 따라 MoveTo, HandOver와 같은 인터랙션 타입들은 다른 파라미터 값을 가지도록 동적으로 생성되어야 한다. 따라서, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 로봇, 대상물, 인간 등에 정보와 인터랙션 타입의 인터페이스를 독출(Read-out)하여, 현재 제공받은 작업 명령을 구성하는 복수의 인터랙션 타입을 동적으로 생성할 수 있다.As another example, even in an interaction type corresponding to the same MoveTo, the moving direction and speed may be different according to the object and the object. In addition, if there is an obstacle that is expected to collide in the movement process, the MovoTo must be generated to avoid the obstacle. In addition, when handing the object A to the user, the HandOver interaction type may be changed according to the location where the interaction with the human is performed. That is, depending on the work command and the surrounding environment, interaction types such as MoveTo and HandOver should be dynamically generated to have different parameter values. Accordingly, the work
작업 명령 추론부(120)는 작업 명령에 대한 추론을 통해 동적으로 생성된 인터랙션 타입에 대한 정보를 로봇 동작 명령 생성부(140)로 제공한다.The work
로봇 동작 명령 생성부(140)는 동적으로 생성된 복수의 인터랙션 타입을 로봇이 수행하도록 로봇 작업의 순서를 결정하고, 로봇 동작 명령을 생성할 수 있다. 로봇 동작 명령 생성부(140)는 로봇의 동작을 동적으로 생성된 인터랙션 타입을 기초로 계획할 수 있으며, 각 인터랙션 타입이 수행되는 과정을 전체적으로 계획할 수 있다. 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령을 로봇에게 제공할 수 있다. The robot motion
또한, 로봇 동작 명령 생성부(140)는 로봇의 특성, 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 로봇에 제공될 로봇 동작 명령을 생성할 수 있다. 즉, 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령에 따라 로봇의 동작을 추정(Estimation)할 수 있다. 로봇 동작 명령 생성부(140)는 각 인터랙션 타입 단위에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대한 추정이 가능하다. 본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템(10)은 인터랙션 타입 단위로 로봇 동작 명령을 생성하는 바, 추정 로직 구성을 단위화할 수 있고, 파라미터의 개수를 최소화할 수 있다. In addition, the robot motion
인터랙션 타입의 조합인 로봇 동작 명령에 따라 로봇은 전체적인 작업을 수행할 수 있으며, 로봇의 작업이 수행된 결과가 반영된 대상물, 인간, 로봇의 현재 정보는 데이터 베이스부(130)에 피드백되어 저장될 수 있으며, 다음 작업 명령에 대응한 인터랙션 타입을 동적으로 생성하는 데 사용될 수 있다. According to the robot motion command, which is a combination of interaction types, the robot can perform the entire operation, and the current information of the object, human, and robot reflecting the result of the robot's operation can be fed back and stored in the
이하, 본 발명의 다른 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 대해 설명하도록 한다. Hereinafter, an interaction method for human-robot interaction according to another embodiment of the present invention will be described.
도 4는 본 발명의 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법의 순서도이다. 인간-로봇 상호작용을 위한 인터랙션 방법은 도 2에 따른 인간-로봇 상호작용을 위한 인터랙션 시스템에서 수행되는 방법으로 도 2의 설명이 참조될 수 있다. 4 is a flowchart of an interaction method for human-robot interaction according to an embodiment of the present invention. The method of interaction for human-robot interaction may be referred to the description of FIG. 2 as a method performed in the interaction system for human-robot interaction according to FIG. 2.
도 4를 참조하면, 인간-로봇 상호작용을 위한 인터랙션 방법은 작업 명령을 수신하는 단계(S100), 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110) 및 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계(S120)를 포함한다. Referring to FIG. 4, an interaction method for human-robot interaction includes receiving a work command (S100), inferring a work command, and determining at least one interaction type constituting the work command (S110), and And generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot (S120).
먼저, 작업 명령을 수신한다(S100).First, a work command is received (S100).
작업 명령을 수신은 작업 명령 수신부(110)에서 수행될 수 있다. 작업 명령은 인간으로부터 제공된 명령일 수 있다. 작업 명령은 키보드, 마우스 등의 입력 수단을 통해 제공될 수 있으나, 이에 한정되는 것은 아니며, 인간의 음성 또는 인간의 동작 등을 인식하여 생성되어 제공될 수도 있다.Receiving a work command may be performed by the work
이어서, 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정한다(S110).Subsequently, at least one interaction type constituting the work command is determined by inferring the work command (S110 ).
작업 명령을 추론하여 작업 구조를 결정하는 상기 단계는 작업 명령 추론부(120)에서 수행될 수 있다. 작업 명령은 적어도 하나 이상의 서브 작업으로 구성되며, 각 서브 작업은 적어도 하나 이상의 인터랙션 타입으로 구성된다. 작업 명령 추론부(120)는 작업 명령을 구성하는 적어도 하나 이상의 서브 작업을 결정하고, 결정된 서브 작업을 수행하기 위해 필요한 적어도 하나 이상의 인터랙션 타입을 결정한다. 인터랙션 타입은 인간과 로봇과의 인터랙션이 발생하게 하는 최소 단위의 명령일 수 있다. 이러한, 인터랙션 타입은 로봇과의 자연스러운 상호작용을 위해 미리 정의된 상태일 수 있다. 즉, 인터랙션 타입의 인터페이스는 데이터 베이스부(130)에 저장된 상태이며, 작업 명령 추론부(120)는 데이터 베이스부(130)에 저장된 인터랙션 타입의 인터페이스 중에서 현재 작업 명령에 적합한 인터랙션 타입을 추론을 통해 동적으로 결정할 수 있다. The step of determining the work structure by inferring the work command may be performed by the work
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110)는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정할 수 있다. Determining at least one interaction type constituting the work command by inferring the work command (S110), reading the interaction type creation interface, robot information, object information and human information from the database unit (Read-Out) ), and further consider the robot information, the object information, and the human information to determine a work structure of the work command.
또한, 상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계(S110)는, 데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 포함한다.In addition, the step of determining at least one interaction type constituting the work command by inferring the work command (S110), reading the interaction type creation interface, robot information, object information and human information in the database unit (Read -Out), and determining the at least one interaction type by further considering the robot information, the object information, and the human information.
다음으로, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공한다(S120).Next, a robot motion command is generated based on the determined one or more interaction types, and the generated robot motion command is provided to the robot (S120).
동적으로 생성된 복수의 인터랙션 타입을 로봇이 수행하도록 로봇 작업의 순서를 결정하고, 로봇 동작 명령을 생성할 수 있다. 이러한 단계는 로봇 동작 명령 생성부(140)에서 수행된다. 로봇 동작 명령 생성부(140)는 로봇의 동작을 동적으로 생성된 인터랙션 타입을 기초로 계획할 수 있으며, 각 인터랙션 타입이 수행되는 과정을 전체적으로 계획할 수 있다. 로봇 동작 명령 생성부(140)는 생성된 로봇 동작 명령을 로봇에게 제공할 수 있다.A robot operation order may be determined and a robot operation command may be generated so that the robot performs a plurality of dynamically generated interaction types. These steps are performed by the robot operation
또한, 상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계(S120)는, 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 포함할 수 있다. In addition, generating a robot operation command based on the determined one or more interaction types, and providing the generated robot operation command to the robot (S120), the characteristics of the robot, an error caused by performing the interaction type In consideration of the above, the robot operation command may be generated, and it may include estimating whether or not the current robot can properly perform a work command while appropriately changing parameters applied to the interaction type.
본 실시예에 따른 인간-로봇 상호작용을 위한 인터랙션 방법은 상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 데이터 베이스부에 피드백되어 저장되는 단계를 더 포함할 수 있다. In the interaction method for human-robot interaction according to the present embodiment, after the operation of the robot is performed according to the provided robot operation command, object information, robot information, and human information are fed back and stored in the database unit. It may further include.
즉, 로봇 동작 명령에 따라 로봇은 전체적인 작업을 수행할 수 있으며, 로봇의 작업이 수행된 결과가 반영된 대상물, 인간, 로봇의 현재 정보는 데이터 베이스부(130)에 피드백되어 저장될 수 있으며, 다음 작업 명령에 대응한 인터랙션 타입을 동적으로 생성하는 데 사용될 수 있다.That is, according to the robot operation command, the robot can perform the entire operation, and the current information of the object, human, and robot reflecting the result of the robot's operation can be fed back to the
이상에서 설명한 실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 의한 동작은, 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들에 따른 인간-로봇 상호작용을 위한 인터랙션 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.The operation by the interaction method for human-robot interaction according to the above-described embodiments may be recorded in a computer-readable recording medium at least partially implemented by a computer program. A program for implementing an operation by an interaction method for human-robot interaction according to embodiments is recorded, and a computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer is stored. do. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, and optical data storage devices. In addition, the computer readable recording medium may be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment will be easily understood by those skilled in the art to which this embodiment belongs.
이상에서는 실시예들을 참조하여 설명하였지만 본 발명은 이러한 실시예들 또는 도면에 의해 한정되는 것으로 해석되어서는 안 되며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments, the present invention should not be construed as being limited by these embodiments or the drawings, and those skilled in the art will think and scope of the present invention described in the following claims It will be understood that various modifications and changes can be made to the present invention without departing from the scope.
10: 인간-로봇 상호작용을 위한 인터랙션 시스템
110: 작업 명령 수신부
120: 작업 명령 추론부
130: 데이터 베이스부
140: 로봇 동작 명령 생성부10: Interaction system for human-robot interaction
110: work command receiver
120: work order reasoning
130: database unit
140: robot operation command generation unit
Claims (13)
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 작업 명령 추론부; 및
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 로봇 동작 명령 생성부를 포함하는 인간-로봇 상호작용을 위한 인터랙션 시스템.A work command receiver for receiving a work command;
A work command inference unit for inferring the work command and determining at least one interaction type constituting the work command; And
And a robot motion command generator for generating a robot motion command based on the determined one or more interaction types and providing the generated robot motion command to a robot.
상기 작업 명령 추론부는 상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.According to claim 1,
The work command inference unit may classify the work command into at least one sub-task first, and classify the classified at least one sub-task into the at least one interaction type to determine a work structure of the work command. Interaction system for human-robot interaction.
인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보, 인간 정보를 포함하는 데이터 베이스부를 더 포함하며,
상기 작업 명령 추론부는 상기 데이터 베이스부에서 독출(Read-Out)된 상기 로봇 정보, 상기 대상물 정보, 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.According to claim 2,
It further includes a database unit including an interaction type creation interface, robot information, object information, and human information,
The operation command inference unit determines the at least one interaction type by further considering the robot information, the object information, and the human information read-out from the database unit. Interaction system for.
상기 작업 명령 추론부는 상기 로봇 정보, 대상물 정보, 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.According to claim 3,
The work command inference unit is an interaction system for human-robot interaction, characterized by determining the work structure of the work command in consideration of the robot information, object information, and human information.
상기 로봇 동작 명령에 따른 로봇의 작업이 수행된 결과가 반영된 현재 대상물 정보, 현재 로봇 정보, 현재 인간 정보는 상기 데이터 베이스부에 피드백되어 저장되는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.According to claim 3,
Interaction system for human-robot interaction, characterized in that current object information, current robot information, and current human information reflecting the result of the robot's operation according to the robot operation command are fed back and stored in the database unit.
상기 로봇 동작 명령 생성부는 로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며,
상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 특징으로 하는 인간-로봇 상호작용을 위한 인터랙션 시스템.According to claim 1,
The robot motion command generation unit generates the robot motion command in consideration of the characteristics of the robot and the error generated by performing the interaction type
Interaction system for human-robot interaction, characterized by estimating whether a current robot can properly perform a work command while appropriately changing a parameter applied to the interaction type.
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계; 및
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계를 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.Receiving a work order;
Determining at least one interaction type constituting the work command by inferring the work command; And
And generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to a robot.
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는,
상기 작업 명령을 적어도 하나 이상의 서브 작업으로 먼저 분류하고, 상기 분류된 적어도 하나 이상의 서브 작업을 상기 적어도 하나 이상의 인터랙션 타입으로 분류하여, 상기 작업 명령의 작업 구조를 결정하는 것을 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.The method of claim 7,
Inferring the work command to determine at least one interaction type constituting the work command,
Human-robot interaction comprising first classifying the work order into at least one sub-work, and classifying the classified at least one sub-work into the at least one interaction type to determine a work structure of the work command. How to interact.
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는,
데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 적어도 하나 이상의 인터랙션 타입을 결정하는 것을 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.The method of claim 8,
Inferring the work command to determine at least one interaction type constituting the work command,
The database unit reads out an interaction type creation interface, robot information, object information, and human information, and further determines the at least one interaction type by further considering the robot information, the object information, and the human information An interaction method for human-robot interaction, including doing.
상기 작업 명령을 추론하여 상기 작업 명령을 구성하는 적어도 하나 이상의 인터랙션 타입을 결정하는 단계는,
데이터 베이스부에서 인터랙션 타입의 생성 인터페이스, 로봇 정보, 대상물 정보 및 인간 정보를 독출(Read-Out)하고, 상기 로봇 정보, 상기 대상물 정보 및 상기 인간 정보를 더 고려하여 상기 작업 명령의 작업 구조를 결정하는 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.The method of claim 8,
Determining at least one interaction type constituting the work command by inferring the work command,
The database unit reads out an interaction-type creation interface, robot information, object information, and human information, and further considers the robot information, the object information, and the human information to determine a work structure of the work command. Including interaction method for human-robot interaction.
상기 제공된 로봇 동작 명령에 따라 상기 로봇의 작업이 수행된 이후, 대상물 정보, 로봇 정보, 인간 정보가 데이터 베이스부에 피드백되어 저장되는 단계를 더 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.The method of claim 8,
After the operation of the robot is performed according to the provided robot operation command, the object information, robot information, human information further comprises the step of being fed back and stored in the database unit interaction method for human-robot interaction.
상기 결정된 하나 이상의 인터랙션 타입을 기초로 로봇 동작 명령을 생성하고, 상기 생성된 로봇 동작 명령을 로봇에게 제공하는 단계는,
로봇의 특성, 상기 인터랙션 타입을 수행함에 따라 발생하는 오차를 고려하여 상기 로봇 동작 명령을 생성하며, 상기 인터랙션 타입에 적용되는 파라미터를 적절히 변경하면서 현재 로봇이 작업 명령을 적절히 수행할 수 있는 지 여부에 대해 추정하는 것을 포함하는 인간-로봇 상호작용을 위한 인터랙션 방법.The method of claim 7,
Generating a robot motion command based on the determined one or more interaction types, and providing the generated robot motion command to the robot,
The robot operation command is generated in consideration of the characteristics of the robot and the error caused by performing the interaction type. A method of interaction for human-robot interaction, including estimating about a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152404A KR20200071814A (en) | 2018-11-30 | 2018-11-30 | Interaction System and Interaction Method for Human-Robot Interaction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152404A KR20200071814A (en) | 2018-11-30 | 2018-11-30 | Interaction System and Interaction Method for Human-Robot Interaction |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200156202A Division KR102222468B1 (en) | 2020-11-20 | 2020-11-20 | Interaction System and Interaction Method for Human-Robot Interaction |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200071814A true KR20200071814A (en) | 2020-06-22 |
Family
ID=71142433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180152404A KR20200071814A (en) | 2018-11-30 | 2018-11-30 | Interaction System and Interaction Method for Human-Robot Interaction |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200071814A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230151526A (en) * | 2021-02-18 | 2023-11-01 | 생츄어리 코그니티브 시스템즈 코포레이션 | Systems, devices and methods for multi-purpose robots |
-
2018
- 2018-11-30 KR KR1020180152404A patent/KR20200071814A/en not_active IP Right Cessation
Non-Patent Citations (1)
Title |
---|
M.R.Cutkosky, On Grasp Choice, Grasp Models, and the Design of Hands for Manufacturing Tasks, IEEE Trans. on Robotics and Automation, Vol.5,No.3, 1989 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230151526A (en) * | 2021-02-18 | 2023-11-01 | 생츄어리 코그니티브 시스템즈 코포레이션 | Systems, devices and methods for multi-purpose robots |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10807237B2 (en) | System and method for flexible human-machine collaboration | |
US8452448B2 (en) | Robotics systems | |
US8295978B2 (en) | System for cooperation of multiple robots using dynamic behavior binding and method thereof | |
Björkelund et al. | On the integration of skilled robot motions for productivity in manufacturing | |
US11951631B2 (en) | Object marking to support tasks by autonomous machines | |
KR102257938B1 (en) | Skill interface for industrial applications | |
US11904473B2 (en) | Transformation mode switching for a real-time robotic control system | |
Salman et al. | Fogification of industrial robotic systems: Research challenges | |
Karami et al. | Task allocation for multi-robot task and motion planning: a case for object picking in cluttered workspaces | |
Alzetta et al. | Towards a real-time BDI model for ROS 2 | |
KR20200071814A (en) | Interaction System and Interaction Method for Human-Robot Interaction | |
KR102040901B1 (en) | System for generating robot task plans | |
Lindorfer et al. | Towards user-oriented programming of skill-based automation systems using a domain-specific meta-modeling approach | |
Liu | Research toward IoT and robotics in intelligent manufacturing: a survey | |
KR102222468B1 (en) | Interaction System and Interaction Method for Human-Robot Interaction | |
US11679498B2 (en) | Robot execution system | |
Andres et al. | ROSoClingo: A ROS package for ASP-based robot control | |
US20240217097A1 (en) | Compiling robot behavior trees | |
Piaggio et al. | Programming real time distributed multiple robotic systems | |
Mocan et al. | FRAMEWORK FOR DEVELOPING A MULTIMODAL PROGRAMMING INTERFACE USED ON INDUSTRIAL ROBOTS. | |
Piaggio et al. | Ethnos-ii: A programming environment for distributed multiple robotic systems | |
Lee et al. | Message-based evaluation in scheme for high-level robot control | |
Valner et al. | Nav 2 PYIF: Python-based motion planning for ROS 2 Navigation 2 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination |