KR20120135935A - Robot control system and robot control method using a cognitive architecture - Google Patents
Robot control system and robot control method using a cognitive architecture Download PDFInfo
- Publication number
- KR20120135935A KR20120135935A KR1020110054827A KR20110054827A KR20120135935A KR 20120135935 A KR20120135935 A KR 20120135935A KR 1020110054827 A KR1020110054827 A KR 1020110054827A KR 20110054827 A KR20110054827 A KR 20110054827A KR 20120135935 A KR20120135935 A KR 20120135935A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- skill
- unit
- term
- memory
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/022—Optical sensing devices using lasers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1615—Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
- B25J9/162—Mobile manipulator, movable base with manipulator arm mounted on it
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Abstract
Description
본 발명은 인지 아키텍쳐를 이용한 로봇 제어 시스템 및 로봇 제어 방법에 관한 것으로, 더 상세하게는 로봇의 주변 환경을 인지하고, 환경 변화에 따라 로봇의 이동 및 작업 수행을 능동적으로 제어하는 로봇 제어 시스템 및 로봇 제어 방법에 관한 것이다. The present invention relates to a robot control system and a robot control method using a cognitive architecture. More particularly, the present invention relates to a robot control system and a robot that recognizes a surrounding environment of a robot and actively controls movement and execution of a robot according to environmental changes. It relates to a control method.
최근 일상 생활 가운데서도 로봇을 이용하고자 하는 시도가 늘어나고 있다. 인간 생활 공간에서 로봇을 이용하기 위해서는 여러 돌발 상황에 잘 대응할 수 있어야 하며 안전하게 작업 수행이 가능해야 한다. 기존의 로봇은 미리 정해 놓은 순서에 따라 수동적으로 작업을 실행하게 되며, 이러한 방식은 안정성과 여러 가지 환경 변화에 따른 대처 능력을 떨어뜨리게 된다. 따라서 사람의 인지 능력을 모방한 인지 구조를 이용한 로봇으로 가정 내에서 작업을 안전하게 수행하고자 하는 욕구가 증대되고 있다.Recently, attempts to use robots in daily life are increasing. In order to use a robot in the human living space, it must be able to cope with various unexpected situations and be able to safely perform work. Existing robots perform tasks manually in a predetermined order, which reduces the stability and the ability to cope with various environmental changes. Therefore, the desire to safely perform tasks in the home with a robot using a cognitive structure that mimics the cognitive ability of a person is increasing.
상기한 과제를 실현하기 위하여, 본 발명은 인지 아키텍쳐를 이용하여 주변 환경 변화에 따른 다양한 상황 하에서 능동적으로 로봇을 제어하여 작업을 수행할 수 있는 로봇 제어 시스템 및 로봇 제어 방법을 제공한다. In order to realize the above object, the present invention provides a robot control system and a robot control method capable of performing a task by actively controlling the robot under various circumstances according to the change of the surrounding environment by using the cognitive architecture.
전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 로봇 제어 시스템은, 외부 환경 정보를 감지하는 센싱부와, 감지된 환경 정보를 인지 아키텍쳐에 전달하고 이로부터 실행 명령을 전달받는 송수신부와, 실행 명령을 수신하여 작동하는 구동부를 갖는 로봇; 및 상기 센싱부에서 감지한 외부 환경 정보를 수신하여, 상기 로봇의 현재 상태를 추론하고, 상기 로봇이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하여 상기 로봇의 송수신부로 전송하는 인지 아키텍쳐를 포함한다. Robot control system according to an embodiment of the present invention for achieving the above object, a sensing unit for sensing the external environment information, and a transceiver for transmitting the detected environment information to the cognitive architecture and receiving the execution command therefrom and A robot having a driving unit configured to receive and execute an execution command; And a cognitive architecture for receiving external environment information sensed by the sensing unit, inferring the current state of the robot, generating an execution command corresponding to a target to be performed by the robot, and transmitting the generated execution command to the transceiver of the robot. .
상기 인지 아키텍쳐는, 상기 로봇과 유무선 네트워크를 통해 통신하는 수신부; 상기 수신부를 통해 수신된 로봇의 외부 환경 정보를 기반으로, 인지 추론 과정을 거쳐 상기 로봇을 구동시키는 실행 명령을 생성하는 인지 모델부; 및 상기 로봇의 구동부를 작동시키도록, 상기 인지 모델부에서 생성한 실행 명령을 상기 로봇으로 전송하는 송신부를 포함할 수 있다. The cognitive architecture may include a receiver configured to communicate with the robot through a wired or wireless network; A cognitive model unit configured to generate an execution command for driving the robot through a cognitive inference process based on external environment information of the robot received through the receiver; And a transmission unit configured to transmit an execution command generated by the cognitive model unit to the robot to operate the driving unit of the robot.
상기 인지 모델부는, 상기 수신부에서 수신한 로봇의 외부 환경 정보를 인식하는 인식부; 상기 로봇의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리; 상기 인식부에서 인식한 정보와 상기 장기 개념 메모리에 저장된 정보를 비교하여 로봇의 현재 상태를 추론하는 개념 추론부; 상기 개념 추론부에서 추론된 로봇의 현재 상태에 관한 정보를 일시적으로 저장하여 스킬 검색 및 선택부로 전달하는 단기 개념 메모리; 상기 로봇이 수행하고자 하는 목표가 일시 저장되는 단기 목표 메모리; 상기 로봇의 동작에 관한 정보가 미리 정의되어 저장된 장기 스킬 메모리; 상기 단기 목표 메모리에 저장된 목표를 달성하도록, 상기 개념 추론부에서 추론한 로봇의 현재 상태에서 상기 로봇이 실행가능한 스킬을 상기 장기 스킬 메모리로부터 검색 및 선택하는 스킬 검색 및 선택부; 및 상기 스킬 검색 및 선택부에서 선택된 스킬을 기반으로 상기 로봇을 구동시키는 실행 명령을 생성하는 실행 명령 생성부를 포함할 수 있다. The recognition model unit, a recognition unit for recognizing the external environment information of the robot received by the receiving unit; A long term concept memory in which information about a state of the robot is predefined and stored; A concept inference unit that infers a current state of the robot by comparing the information recognized by the recognition unit with information stored in the long-term concept memory; A short-term concept memory that temporarily stores information on the current state of the robot inferred by the concept inference unit and transfers the information to the skill search and selection unit; A short-term target memory for temporarily storing a target to be performed by the robot; A long term skill memory in which information about the operation of the robot is predefined; A skill retrieval and selection unit for retrieving and selecting a skill executable by the robot in the current state of the robot inferred by the concept inference unit from the long-term skill memory to achieve a goal stored in the short-term target memory; And an execution command generation unit configured to generate an execution command for driving the robot based on the skill selected by the skill search and selection unit.
상기 인지 모델부는, 상기 스킬 검색 및 선택부가 상기 장기 스킬 메모리로부터 원하는 스킬을 검색하지 못한 경우, 상기 단기 목표 메모리에 저장된 단기목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 상기 장기 스킬 메모리에서 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 상기 장기 스킬 메모리에 새로운 스킬로 저장시키는 스킬 학습부를 더 포함할 수 있다. When the skill search and selection unit does not search for a desired skill from the long-term skill memory, the cognitive model unit decomposes the short-term target stored in the short-term target memory into subgoals and corresponds to each sub-target. The method may further include a skill learning unit searching for a skill in the long-term skill memory and storing the found skills as a new skill in the long-term skill memory in association with a detailed goal and a final goal.
상기 센싱부는 위치 인식 센서, 음성 인식 센서, 레이저 센서 또는 카메라 센서 중 어느 하나 이상을 포함할 수 있다. The sensing unit may include at least one of a position recognition sensor, a voice recognition sensor, a laser sensor, and a camera sensor.
상기 로봇은 복수 개로 구성되며, 상기 인지 아키텍쳐는 복수의 로봇을 각각 구동시키는 복수의 실행 명령을 생성하여, 상기 복수의 로봇을 각각 제어할 수 있다. The robot may include a plurality of robots, and the cognitive architecture may generate a plurality of execution commands for driving the plurality of robots, respectively, to control the plurality of robots.
본 발명의 일 실시예에 따른 로봇 제어 방법은, 로봇이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하는 인지 아키텍쳐를 이용한 방법으로서, 상기 로봇에서 감지한 외부 환경 정보가 상기 인지 아키텍쳐로 수신되는 단계; 상기 수신된 외부 환경 정보에 대응하여 상기 로봇을 구동시키는 실행 명령을 인지 추론 과정을 통해 생성하는 단계; 및 상기 인지 아키텍쳐에서 생성한 상기 실행 명령을 상기 로봇의 구동부로 전달하여, 상기 로봇을 제어하는 단계를 포함한다. The robot control method according to an embodiment of the present invention is a method using a cognitive architecture for generating an execution command corresponding to a target that a robot wants to perform, and receiving external environment information sensed by the robot as the cognitive architecture. ; Generating an execution command for driving the robot in response to the received external environment information through a cognitive inference process; And controlling the robot by transferring the execution command generated by the cognitive architecture to a driving unit of the robot.
상기 인지 추론 과정을 통해 실행 명령을 생성하는 단계는, 상기 로봇의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리의 정보와 상기 외부 환경 정보를 비교하여, 상기 로봇의 현재 상태를 개념 추론부에서 추론하는 단계; 상기 로봇이 수행하고자 하는 목표를 달성하도록, 상기 개념 추론부에서 추론한 로봇의 현재 상태에서 상기 로봇이 실행가능한 스킬을 장기 스킬 메모리로부터 검색 및 선택하는 단계; 및 상기 선택된 스킬을 기반으로 상기 로봇을 구동시키는 실행 명령을 생성하는 단계를 포함할 수 있다. In the generating of the execution command through the cognitive inference process, the information about the state of the robot is predefined and compares the information of the long-term concept memory and the external environment information, the current state of the robot in the concept inference unit Inferring; Retrieving and selecting, from the long-term skill memory, a skill executable by the robot in the current state of the robot inferred by the concept inference unit to achieve the goal that the robot is to perform; And generating an execution command for driving the robot based on the selected skill.
상기 인지 추론 과정을 통해 실행 명령을 생성하는 단계는, 상기 장기 스킬 메모리로부터 원하는 스킬을 검색하지 못한 경우, 로봇이 수행하고자 하는 목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 새로운 스킬로 상기 장기 스킬 메모리에 저장하는 단계를 더 포함할 수 있다.In the generating of the execution command through the cognitive inference process, if a desired skill is not retrieved from the long-term skill memory, the robot decomposes a target to be performed into subgoals and then corresponds to each subgoal. The method may further include retrieving a skill to be stored in the long-term skill memory as a new skill in association with the detailed goal and the final goal.
본 발명의 로봇 제어 시스템은 사람의 인지 능력을 모방한 인지 아키텍쳐를 이용하여 로봇의 작업에 필요한 명령들을 추론함으로써 실시간으로 환경 변화에 따른 능동적인 대처가 가능한 효과가 있다. The robot control system of the present invention has the effect of proactively responding to environmental changes in real time by inferring the commands necessary for the robot's work using a cognitive architecture that mimics the human's cognitive ability.
또한, 본 발명의 로봇 제어 시스템은, 로봇이 가정 또는 작업장에서 작업을 수행하거나 이동하는 경우, 주변 장애물을 실시간으로 인식하여 안전하게 로봇을 제어할 수 있는 효과가 있다. In addition, the robot control system of the present invention, when the robot performs a task or moves in the home or workplace, there is an effect that can safely control the robot by recognizing the surrounding obstacles in real time.
도 1은 본 발명의 일 실시예에 따른 로봇 제어 시스템의 구성도이다.
도 2는 도 1의 인지 모델부의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 로봇 제어 방법을 도시한 순서도이다.
도 4는 본 발명의 다른 실시예에 따른 하나 이상의 로봇을 포함하는 로봇 제어 시스템의 구성도이다.1 is a block diagram of a robot control system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating the recognition model of FIG. 1.
3 is a flowchart illustrating a robot control method according to an embodiment of the present invention.
4 is a block diagram of a robot control system including one or more robots according to another embodiment of the present invention.
이하에서는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따른 로봇 제어 시스템 및 로봇 제어 방법에 대하여 상세히 설명한다. Hereinafter, a robot control system and a robot control method according to a preferred embodiment of the present invention with reference to the accompanying drawings will be described in detail.
도 1은 본 발명의 일 실시예에 따른 로봇 제어 시스템의 구성도이다.1 is a block diagram of a robot control system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 로봇 제어 시스템(1)은, 로봇(200)을 제어하는 인지 아키텍쳐(100) 및 직접 작업을 수행하는 로봇(200)을 포함한다. Referring to FIG. 1, the
구체적으로, 인지 아키텍쳐(100)는 수신부(110), 인지 모델부(120) 및 송신부(130)를 포함하며, 로봇(200)은 센싱부(210), 송수신부(220) 및 구동부(230)를 포함한다. 여기서, 도 1에 도시된 구성요소들은 기본적인 구성요소들로서, 그보다 더 많은 구성요소를 갖는 로봇 제어 시스템이 구현될 수 있으며, 구동부(230)를 2개 이상으로 구성하는 것과 같이 각 구성요소를 복수 개로 구성할 수도 있다.In detail, the
인지 아키텍쳐(100)는 로봇(200)으로부터 외부 환경 정보를 수신하고, 로봇(200)이 수행하고자 하는 목표를 달성하기 위해 상기 로봇(200)에 포함되는 구동부(230)를 직접 구동시키는 로봇 동작 신호를 생성한 후, 상기 로봇(200)의 송수신부(220)로 전달하여, 로봇(200)의 동작을 제어한다. The
상기 로봇 동작 신호는, 로봇(200)에 전송되어 로봇(200)의 구동부(230)를 제어할 수 있는 실행 명령 신호를 의미한다. 상기 실행 명령 신호가 전송되면, 각각의 구동부(230)에 구현되어 있는 알고리즘을 통해 로봇(200)이 실행 명령 신호에 따라 작업을 수행할 수 있다. The robot operation signal refers to an execution command signal that is transmitted to the
수신부(110)는 유무선 네트워크를 통해 로봇(200)과 통신을 수행하여, 로봇(200)의 센싱부(210)에서 감지한 외부 환경 정보를 수신한다. 상기 로봇(200)의 센싱부(210)에서 감지한 외부 환경 정보는, 로봇(200)이 작업을 수행하기 위해 필요한 위치 정보, 장애물 정보, 정리 대상 물건 정보 또는 로봇(200)의 현재 상태 정보 등을 포함할 수 있다.The
인지 모델부(120)는 상기 수신부(110)를 통해 수신된 외부 환경 정보를 기반으로, 인지 추론 과정을 거쳐 로봇(200)을 구동시키는 실행 명령을 생성한다. The
인지 아키텍쳐(100)는 로봇(200)이 주어진 목표를 달성하기 위해 필요한 로봇(200)의 구동부(230)를 제어할 수 있는 기본 동작 명령 정보를 미리 저장하고 있다. 상기 인지 모델부(120)는 추론 과정을 통해 로봇(200)의 구동부(230)를 제어할 수 있는 실행 명령을 생성한다. The
송신부(130)는 상기 인지 모델부(120)에서 생성된 실행 명령을 다시 로봇(200)으로 전송하여, 로봇(200)에 포함된 하나 이상의 구동부(230)를 직접 구동시킬 수 있다. 인지 아키텍쳐(100)의 수신부(110)와 송신부(130)는 유무선 네트워크를 통해 로봇(200)과 통신하며, 이를 통해 로봇(200)의 피드백 제어가 이루어질 수 있다. The
센싱부(210)는 센서를 이용하여 인지 아키텍쳐(100)가 추론 작업을 하기 위해 필요한 외부 환경 정보를 획득한다. 센싱부(210)는 위치 인식 센서, 음성 인식 센서, 레이저 센서, 카메라 센서 중 어느 하나 이상을 포함할 수 있다. The
예를 들어, 센싱부(210)는 상기 위치 인식 센서를 통해 로봇(200)의 현재 위치 및 방위각 등 로봇(200)의 위치 정보를 인식할 수 있으며, 상기 음성 인식 센서를 통해 긴급 상황 발생 시 로봇(200)에게 명령을 직접 전달하거나, 센서 오인식 등에 대응할 수 있으며, 상기 레이저 센서를 통해 로봇(200) 앞에 나타나는 장애물의 위치 및 방향, 크기 등의 정보를 얻을 수 있고, 상기 카메라 센서를 통해 로봇(200)이 작업하고 있는 물체의 정보를 획득할 수 있다.For example, the
구동부(230)는 인지 아키텍쳐(100)로부터 전송된 실행 명령을 수신하여 로봇(200)의 구동 동작을 실현한다. 구동부(230)는 로봇(200)의 다자유도 운동을 보장하도록 2개 이상의 구동부로 구성될 수 있다.The
인지 모델부(120)는 인간의 인지 구조를 모방하여 추론 작업을 수행한다. 도 1의 인지 모델부의 구성을 상세히 도시한 도 2를 참조하면, 인지 모델부(120)는 인식부(121), 장기 개념 메모리(122), 개념 추론부(123), 단기 개념 메모리(124), 스킬(skill) 검색 및 선택부(125), 장기 스킬 메모리(126), 단기 목표(goal) 메모리(127) 및 실행 명령 생성부(128)를 포함하며, 필요에 따라 문제 해결을 위한 스킬 학습부(129)를 더 포함할 수 있다.The
인식부(121)는 수신부(110)에서 수신한 로봇(200)의 외부 환경 정보를 인식한다. 전술한 바와 같이, 외부 환경 정보는, 로봇(200)이 작업을 수행하기 위해 필요한 위치 정보, 장애물 정보, 정리 대상 물건 정보 또는 로봇(200)의 현재 상태 정보 등을 포함한다. The
장기 개념 메모리(122)는 로봇(200)의 상태를 기술하는데 사용되는 일반 정보가 미리 정의되어 저장되어 있다. 여기서, 로봇(200)의 상태에 관한 정보는, 로봇(200)의 각 관절의 위치 및 방위각, 로봇(200)과 장애물과의 거리 등과 관련된 정보가 될 수 있다. The long-
개념 추론부(123)는 인식부(121)에서 인식한 정보를 바탕으로 상기 장기 개념 메모리(122)에 저장된 정보를 사용하여 로봇의 현재 상태를 추론한다. The
단기 개념 메모리(124)는 개념 추론부(123)에서 추론된 로봇(200)의 현재 상태에 관한 정보를 일시적으로 저장하여 스킬 검색 및 선택부(125)를 비롯한 인지 아키텍쳐의 다른 부분들이 이를 사용할 수 있도록 한다. The short-
장기 스킬 메모리(126)에는 로봇(200)의 동작에 관한 일반 정보가 미리 정의되어 저장되어 있으며, 단기 목표 메모리(127)에는 로봇(200)이 수행하고자 하는 목표가 일시 저장된다. In the long-
스킬 검색 및 선택부(125)는 단기 목표 메모리(127)에 저장된 목표를 달성하도록, 개념 추론부(123)에서 추론한 로봇의 현재 상태에서 상기 로봇(200)이 실행가능한 스킬을 장기 스킬 메모리(126)로부터 검색 및 선택한다. The skill retrieval and
실행 명령 생성부(128)는 스킬 검색 및 선택부(125)에서 선택된 스킬을 기반으로 로봇(200)을 구동시키는 실행 명령을 생성한다. The execution
스킬 학습부(129)는 스킬 검색 및 선택부(125)가 장기 스킬 메모리(126)로부터 원하는 스킬을 검색하지 못한 경우, 단기 목표 메모리(127)에 저장된 단기목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 장기 스킬 메모리(126)에서 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 장기 스킬 메모리(126)에 저장시킨다. When the skill search and
이하에서는, 상기 인지 모델부(120)의 추론 과정을 구체적인 예시를 통해 설명한다. Hereinafter, the inference process of the
우선, 로봇(200)이 수행하고자 하는 목표를 테이블 상에 임의의 적색 블록들과 청색 블록들 중, 적색 블록들을 5개 쌓아올리도록 설정하면, 상기 목표는 단기 목표 메모리(127)에 일시적으로 저장된다. First, when the
이어서, 로봇(200)에 장착된 센싱부(210)는 로봇(200) 주변의 외부 환경 정보를 감지하며, 감지된 환경 정보는 송수신부(220)를 통해 인지 아키텍쳐(100)의 수신부(110)로 전달된다. Subsequently, the
계속하여, 인식부(121)는 수신부(110)로부터 입력된 정보로부터 외부 환경 정보를 인식한다. 이에 따라, 로봇(200)과 테이블 사이의 거리, 테이블 상에 놓여진 적색 블록과 청색 블록들의 위치, 로봇 팔의 위치와 방위각 등의 정보가 인식될 수 있다. Subsequently, the
이어서, 개념 추론부(123)는 인식부(121)에서 인식한 정보를 바탕으로 상기 장기 개념 메모리(122)에 저장된 일반 정보를 이용하여 로봇의 현재 상태를 추론한다. 이에 따라, 로봇(200)과 테이블 사이의 거리, 테이블 상에 놓여진 적색 블록과 청색 블록들의 위치, 로봇 팔의 위치와 방위각 등의 정보로부터, 보다 고차원적인 정보, 즉, 로봇 팔이 특정 블록에까지 도달할 수 있는지의 여부, 어떤 블록이 테이블 위에 놓여 있는지의 여부, 어떤 블록이 다른 블록 위에 놓여 있는지의 여부 등이 추론되며, 추론된 정보는 단기 개념 메모리(124)에 저장된다.Subsequently, the
장기 스킬 메모리(126)에는 소정 공간 내에서 로봇(200)이 장애물들을 피하여 테이블 앞까지 이동하여, 로봇(200)이 테이블 상의 적색 블록을 선택하여 잡은 후, 쌓아올리는 일련의 로봇 동작에 관한 스킬이 저장되어 있으며, 스킬 검색 및 선택부(125)는 상기 동작들을 수행하기 위한 스킬들을 검색하여 단기 개념 메모리(124)에 저장된 로봇의 현재 상태에 적합한 것을 선택한다. In the long-
이어서, 실행 명령 생성부(128)는 소정 공간 내에서 로봇(200)이 장애물들을 피하여 테이블 앞까지 이동하여, 적색 블록들을 5개 쌓아올리고자 하는 목표를 실행하기 위해 일련의 로봇 동작에 관한 스킬들로부터 실행 명령을 생성하여, 로봇(200)으로 전달한다. Subsequently, the
계속하여, 로봇(200)의 구동부(230)가 작동하여, 로봇(200)이 테이블 앞까지 이동한 후, 로봇 팔이 테이블 상에서 움직이면서 5개의 적색 블록을 취사 선택하여 쌓아올릴 수 있다. Subsequently, the driving
여기서, 만약, 초기의 테이블 상에서 청색 블록이 적색 블록 위에 놓여져 있어서, 로봇(200)이 적색 블록을 잡을 수 없는 상태라면, 적색 블록들을 5개 쌓아올리고자 하는 단기목표가 수행될 수 없으며, 스킬 검색 및 선택부(125)는 로봇 동작에 필요한 적당한 스킬이 없는 것으로 판단한다. Here, if the blue block is placed on the red block on the initial table, and the
상기와 같이 단기목표를 수행할 수 없는 경우에, 스킬 학습부(129)는, 5개의 적색 블록을 취사 선택하여 쌓아올리는 단기목표를 분해한다. 즉, 적색 블록을 선택하기 위해 우선 청색 블록을 제거하는 단계, 적색 블록을 잡아, 적색 블록끼리 쌓는 단계와 같이 본래의 단기목표를 분해하여 세부 목표로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 장기 스킬 메모리(126)로부터 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 장기 스킬 메모리(126)에 저장시킨다. When the short-term goal cannot be performed as described above, the
이어서, 스킬 검색 및 선택부(125)는 각각의 세부 목표에 대응하는 스킬들을 다시 장기 스킬 메모리(126)에서 검색하여 실행 명령 생성부(128)로 전달하고, 실행 명령 생성부(128)는 청색 블록을 제거하는 단계, 적색 블록을 잡아, 적색 블록끼리 쌓는 단계를 수행하기 위한 실행 명령을 생성하여, 로봇(200)으로 전송한다. Subsequently, the skill search and
계속하여, 로봇(200)의 구동부(230)가 작동하여, 적색 블록을 5개 쌓는 목표를 달성한다. Subsequently, the driving
상기 예시는 본 발명의 구성요소들이 동작하는 과정을 설명하기 위한 것으로, 본 발명의 사상은 상기 예시의 설명에 의해 제한되지 않는다. The above example is for explaining the operation of the components of the present invention, the spirit of the present invention is not limited by the description of the above example.
도 3은 본 발명의 일 실시예에 따른 로봇 제어 방법을 도시한 순서도이다. 3 is a flowchart illustrating a robot control method according to an embodiment of the present invention.
도 3을 참조하면, 로봇(200)이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하는 인지 아키텍쳐를 이용한 로봇 제어 방법으로서, 우선, 로봇(200)에서 감지한 외부 환경 정보가 인지 아키텍쳐(100)로 수신된다(S310). Referring to FIG. 3, a robot control method using a cognitive architecture for generating an execution command corresponding to a target to be performed by the
다음으로, 인지 아키텍쳐(100)는 상기 수신된 외부 환경 정보에 대응하여 로봇(200)을 구동시키는 실행 명령을 인지 추론 과정을 통해 생성한다(S320). Next, the
여기서, 인지 추론 과정을 통해 실행 명령을 생성하는 과정은, 로봇(200)의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리(122)의 정보를 이용하여 상기 외부 환경 정보를 바탕으로, 로봇(200)의 현재 상태를 개념 추론부(123)에서 추론하여 단기 개념 메모리(124)에 저장하는 과정과, 상기 로봇이 수행하고자 하는 목표를 달성하도록, 단기 개념 메모리(124)에 저장된 로봇(200)의 현재 상태에서 로봇(200)이 실행가능한 스킬을 장기 스킬 메모리(126)로부터 검색 및 선택하는 과정과, 상기 선택된 스킬을 기반으로 로봇(200)을 구동시키는 실행 명령을 생성하는 과정을 포함할 수 있다. Here, the process of generating an execution command through the cognitive inference process, based on the external environment information by using the information of the long-
또한, 상기 인지 추론 과정을 통해 실행 명령을 생성하는 과정은, 장기 스킬 메모리(126)로부터 원하는 스킬을 검색하지 못한 경우, 로봇(200)이 수행하고자 하는 목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 장기 스킬 메모리(126)에서 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 상기 장기 스킬 메모리(126)에 저장하는 과정을 더 포함할 수 있다. In addition, in the process of generating an execution command through the cognitive inference process, if the desired skill is not retrieved from the long-
계속하여, 인지 아키텍쳐(100)에서 생성한 상기 실행 명령을 로봇(200)의 구동부(230)로 전달하여, 로봇(200)을 제어한다(S330). Subsequently, the execution command generated by the
도 4는 본 발명의 다른 실시예에 따른 하나 이상의 로봇을 포함하는 로봇 제어 시스템의 구성도이다. 4 is a block diagram of a robot control system including one or more robots according to another embodiment of the present invention.
도 4를 참조하면, 인지 아키텍쳐(100)가 제어하는 로봇(200a, 200b, 200c,...)이 복수 개로 구성된다. 복수의 로봇(200a, 200b, 200c,...)은 동일한 형태 또는 서로 다른 형태로 구성될 수 있다. Referring to FIG. 4, a plurality of
인지 아키텍쳐(100)는 각각 상이한 로봇(200a, 200b, 200c,...)을 구동하기 위한 로봇별 특징을 그 내부에 미리 저장하거나, 상기 로봇(200a, 200b, 200c,...)들로부터 수신하여, 각각의 로봇(200a, 200b, 200c,...)에 대해 추론 작업을 수행하여 실행 명령을 생성할 수 있다. 여기서, 인지 아키텍쳐(100)는 복수의 로봇(200a, 200b, 200c,...)을 각각 구동시키는 복수의 실행 명령을 생성하여, 상기 복수의 로봇(200a, 200b, 200c,...)을 각각 제어할 수 있다. The
또한, 인지 아키텍쳐(100)는 설정에 따라서, 동일한 동작을 수행하는 실행 명령을 각각의 로봇(200a, 200b, 200c,...)으로 전송하거나, 상이한 동작을 수행하는 상이한 실행 명령을 각각의 로봇(200a, 200b, 200c,...)으로 전송할 수 있다.In addition, the
또한, 인지 아키텍쳐(100)는 설정에 따라서, 각각의 로봇(200a, 200b, 200c,...)이 동시에 동작하거나, 각기 다른 시점에 동작하도록 실행 명령을 전송하여 각각의 로봇(200a, 200b, 200c,...)을 제어할 수 있다. In addition, the
상기에서는 본 발명의 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명의 범위에 속하는 것은 당연하다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Of course.
1: 로봇 제어 시스템
100: 인지 아키텍쳐
110: 수신부
120: 인지 모델부
121: 인식부
122: 장기 개념 메모리
123: 개념 추론부
124: 단기 개념 메모리
125: 스킬 검색 및 선택부
126: 장기 스킬 메모리
127: 단기 목표 메모리
128: 실행 명령 생성부
129: 스킬 학습부
130: 송신부
200: 로봇
210: 센싱부
220: 송수신부
230: 구동부1: robot control system
100: cognitive architecture
110:
120: cognitive model unit
121: recognition unit
122: long-term conceptual memory
123: Inference Unit
124: Short-Term Concept Memory
125: skill search and selection unit
126: long-term skill memory
127: short-term target memory
128: execution command generation unit
129: skill learning unit
130: transmitter
200: robot
210: sensing unit
220: transceiver
230:
Claims (9)
상기 센싱부에서 감지한 외부 환경 정보를 수신하여, 상기 로봇의 현재 상태를 추론하고, 상기 로봇이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하여 상기 로봇의 송수신부로 전송하는 인지 아키텍쳐를 포함하는 것을 특징으로 하는 로봇 제어 시스템.A robot having a sensing unit which senses external environment information, a transmitting / receiving unit which transmits the sensed environmental information to a cognitive architecture and receives an execution command therefrom, and a driving unit which receives and executes an execution command; And
Receiving an external environment information sensed by the sensing unit, inferring the current state of the robot, generating an execution command corresponding to a target to be performed by the robot, and including a cognitive architecture for transmitting to the transceiver of the robot Robot control system characterized in that.
상기 로봇과 유무선 네트워크를 통해 통신하는 수신부;
상기 수신부를 통해 수신된 로봇의 외부 환경 정보를 기반으로, 인지 추론 과정을 거쳐 상기 로봇을 구동시키는 실행 명령을 생성하는 인지 모델부; 및
상기 로봇의 구동부를 작동시키도록, 상기 인지 모델부에서 생성한 실행 명령을 상기 로봇으로 전송하는 송신부를 포함하는 것을 특징으로 하는 로봇 제어 시스템.The method of claim 1, wherein the cognitive architecture,
A receiver for communicating with the robot through a wired or wireless network;
A cognitive model unit configured to generate an execution command for driving the robot through a cognitive inference process based on external environment information of the robot received through the receiver; And
And a transmitter configured to transmit an execution command generated by the cognitive model unit to the robot to operate the driving unit of the robot.
상기 수신부에서 수신한 로봇의 외부 환경 정보를 인식하는 인식부;
상기 로봇의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리;
상기 인식부에서 인식한 정보와 상기 장기 개념 메모리에 저장된 정보를 비교하여 로봇의 현재 상태를 추론하는 개념 추론부;
상기 개념 추론부에서 추론된 로봇의 현재 상태에 관한 정보를 일시적으로 저장하여 스킬 검색 및 선택부로 전달하는 단기 개념 메모리;
상기 로봇이 수행하고자 하는 목표가 일시 저장되는 단기 목표 메모리;
상기 로봇의 동작에 관한 정보가 미리 정의되어 저장된 장기 스킬 메모리;
상기 단기 목표 메모리에 저장된 목표를 달성하도록, 상기 개념 추론부에서 추론한 로봇의 현재 상태에서 상기 로봇이 실행가능한 스킬을 상기 장기 스킬 메모리로부터 검색 및 선택하는 스킬 검색 및 선택부; 및
상기 스킬 검색 및 선택부에서 선택된 스킬을 기반으로 상기 로봇을 구동시키는 실행 명령을 생성하는 실행 명령 생성부를 포함하는 것을 특징으로 하는 로봇 제어 시스템.The method of claim 2, wherein the cognitive model unit,
Recognizing unit for recognizing the external environment information of the robot received by the receiving unit;
A long term concept memory in which information about a state of the robot is predefined and stored;
A concept inference unit that infers a current state of the robot by comparing the information recognized by the recognition unit with information stored in the long-term concept memory;
A short-term concept memory that temporarily stores information on the current state of the robot inferred by the concept inference unit and transfers the information to the skill search and selection unit;
A short-term target memory for temporarily storing a target to be performed by the robot;
A long term skill memory in which information about the operation of the robot is predefined;
A skill retrieval and selection unit for retrieving and selecting a skill executable by the robot in the current state of the robot inferred by the concept inference unit from the long-term skill memory to achieve a goal stored in the short-term target memory; And
And an execution command generation unit configured to generate an execution command for driving the robot based on the skill selected by the skill search and selection unit.
상기 인지 아키텍쳐는 복수의 로봇을 각각 구동시키는 복수의 실행 명령을 생성하여, 상기 복수의 로봇을 각각 제어하는 것을 특징으로 하는 로봇 제어 시스템.According to claim 1, wherein the robot is composed of a plurality,
The cognitive architecture generates a plurality of execution commands for driving the plurality of robots, respectively, and control the plurality of robots, characterized in that the robot.
상기 로봇에서 감지한 외부 환경 정보가 상기 인지 아키텍쳐로 수신되는 단계;
상기 수신된 외부 환경 정보에 대응하여 상기 로봇을 구동시키는 실행 명령을 인지 추론 과정을 통해 생성하는 단계; 및
상기 인지 아키텍쳐에서 생성한 상기 실행 명령을 상기 로봇의 구동부로 전달하여, 상기 로봇을 제어하는 단계를 포함하는 것을 특징으로 하는 로봇 제어 방법.A robot control method using a cognitive architecture for generating an execution command corresponding to a target that a robot wants to perform,
Receiving external environment information sensed by the robot as the cognitive architecture;
Generating an execution command for driving the robot in response to the received external environment information through a cognitive inference process; And
And transmitting the execution command generated by the cognitive architecture to a driving unit of the robot to control the robot.
상기 로봇의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리의 정보와 상기 외부 환경 정보를 비교하여, 상기 로봇의 현재 상태를 개념 추론부에서 추론하는 단계;
상기 로봇이 수행하고자 하는 목표를 달성하도록, 상기 개념 추론부에서 추론한 로봇의 현재 상태에서 상기 로봇이 실행가능한 스킬을 장기 스킬 메모리로부터 검색 및 선택하는 단계; 및
상기 선택된 스킬을 기반으로 상기 로봇을 구동시키는 실행 명령을 생성하는 단계를 포함하는 것을 특징으로 하는 로봇 제어 방법.The method of claim 7, wherein the generating of the execution command through the cognitive inference process,
Inferring a current state of the robot from a concept inference unit by comparing information of a long-term concept memory with information about a state of the robot previously stored and external environment information;
Retrieving and selecting, from the long-term skill memory, a skill executable by the robot in the current state of the robot inferred by the concept inference unit to achieve the goal that the robot intends to perform; And
And generating an execution command for driving the robot based on the selected skill.
상기 장기 스킬 메모리로부터 원하는 스킬을 검색하지 못한 경우, 로봇이 수행하고자 하는 목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 상기 장기 스킬 메모리에 저장하는 단계를 더 포함하는 것을 특징으로 하는 로봇 제어 방법.The method of claim 8, wherein the generating of the execution command through the cognitive inference process comprises:
If the desired skill is not retrieved from the long-term skill memory, the robot disassembles the target to be performed into subgoals, searches for a skill corresponding to each subgoal, and searches the skills for the subgoal and final goal. And storing in the long-term skill memory in association with the robot control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110054827A KR101273300B1 (en) | 2011-06-08 | 2011-06-08 | Robot control system and robot control method using a cognitive architecture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110054827A KR101273300B1 (en) | 2011-06-08 | 2011-06-08 | Robot control system and robot control method using a cognitive architecture |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120135935A true KR20120135935A (en) | 2012-12-18 |
KR101273300B1 KR101273300B1 (en) | 2013-06-11 |
Family
ID=47903495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110054827A KR101273300B1 (en) | 2011-06-08 | 2011-06-08 | Robot control system and robot control method using a cognitive architecture |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101273300B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019208950A1 (en) * | 2018-04-25 | 2019-10-31 | 삼성전자주식회사 | Mobile robot device and method for providing service to user |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101769513B1 (en) * | 2015-11-17 | 2017-08-21 | 동국대학교 산학협력단 | Robot system and control method thereof |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1304177C (en) | 2001-10-22 | 2007-03-14 | 索尼公司 | Robot apparatus and control method thereof |
JP2007125629A (en) | 2005-11-01 | 2007-05-24 | Sony Corp | Robot device and motion control method |
KR101021694B1 (en) | 2008-09-22 | 2011-03-15 | 재단법인대구경북과학기술원 | Mobile terminal based mobile robot control system and mobile terminal based mobile robot control method |
KR101058077B1 (en) * | 2009-05-21 | 2011-08-24 | 한국과학기술연구원 | Method and device for performing service of robot |
-
2011
- 2011-06-08 KR KR1020110054827A patent/KR101273300B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019208950A1 (en) * | 2018-04-25 | 2019-10-31 | 삼성전자주식회사 | Mobile robot device and method for providing service to user |
US11931906B2 (en) | 2018-04-25 | 2024-03-19 | Samsung Electronics Co., Ltd. | Mobile robot device and method for providing service to user |
Also Published As
Publication number | Publication date |
---|---|
KR101273300B1 (en) | 2013-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10105843B2 (en) | Robot device, remote control method of robot device, and program | |
US20180243920A1 (en) | Industrial remote control robot system | |
US10514687B2 (en) | Hybrid training with collaborative and conventional robots | |
EP3585569B1 (en) | Systems, apparatus, and methods for robotic learning and execution of skills | |
US10967515B2 (en) | Apparatus for remotely controlling robots and control method thereof | |
US20150019012A1 (en) | Robot system and work facility | |
US11833682B2 (en) | Robot, method, and manipulating system | |
US11440185B2 (en) | Multi-operation unit integration device, control method therefor, and autonomous learning type robot device | |
US11458632B2 (en) | Robot having reduced vibration generation in in arm portion | |
KR101273300B1 (en) | Robot control system and robot control method using a cognitive architecture | |
WO2018113263A1 (en) | Method, system and apparatus for controlling robot, and robot | |
US10232519B2 (en) | Robot and method of controlling the same | |
US20210339392A1 (en) | Robot control system and robot control method | |
JP7247552B2 (en) | LEARNING DEVICE, ROBOT CONTROL DEVICE, AND ROBOT CONTROL SYSTEM | |
KR20220046540A (en) | Method for learning robot task and robot system using the same | |
JP2005125457A (en) | Mobile robot for work | |
US20230241770A1 (en) | Control device, control method and storage medium | |
Levratti et al. | Safe navigation and experimental evaluation of a novel tire workshop assistant robot | |
KR101696362B1 (en) | Robot remote control apparatus for installing pipe and method thereof | |
Huang et al. | A semi-autonomous tele-impedance method based on vision and voice interfaces | |
WO2022080006A1 (en) | Robot system, control method for same, program, and system | |
KR20090065890A (en) | Situation dependent behavior based robot control appartus and method | |
WO2022114042A1 (en) | Information processing device, and picking device | |
KR20170114614A (en) | Task performing robot and method based on human robot interaction | |
JP2020097072A (en) | Control device and learning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160601 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170601 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180409 Year of fee payment: 6 |