KR20120135935A - Robot control system and robot control method using a cognitive architecture - Google Patents

Robot control system and robot control method using a cognitive architecture Download PDF

Info

Publication number
KR20120135935A
KR20120135935A KR1020110054827A KR20110054827A KR20120135935A KR 20120135935 A KR20120135935 A KR 20120135935A KR 1020110054827 A KR1020110054827 A KR 1020110054827A KR 20110054827 A KR20110054827 A KR 20110054827A KR 20120135935 A KR20120135935 A KR 20120135935A
Authority
KR
South Korea
Prior art keywords
robot
skill
unit
term
memory
Prior art date
Application number
KR1020110054827A
Other languages
Korean (ko)
Other versions
KR101273300B1 (en
Inventor
김강건
유범재
박정민
최동규
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020110054827A priority Critical patent/KR101273300B1/en
Publication of KR20120135935A publication Critical patent/KR20120135935A/en
Application granted granted Critical
Publication of KR101273300B1 publication Critical patent/KR101273300B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

PURPOSE: A robot control system using cognitive architecture and a robot controlling method are provided to deduce commands required for a task of a robot by using the cognitive architecture so that the robot can actively cope with environmental variations on a real time basis. CONSTITUTION: A robot control system(1) comprises a robot(200) and cognitive architecture(100). The robot comprises a sensing unit(210), a transceiving unit(220), and a driving unit(230). The sensing unit senses the information of an external environment. The transceiving unit transmits the sensed environmental information to the cognitive architecture and receives an execution command from the cognitive architecture. The driving unit receives the execution command. The architecture receives the external environmental information sensed by the sensing unit, thereby deducing a present condition of the robot and transmits the execution commands to the transceiving unit of the robot by generating the execution command corresponding to a goal. [Reference numerals] (AA) Wire/wireless network

Description

인지 아키텍쳐를 이용한 로봇 제어 시스템 및 로봇 제어 방법 {ROBOT CONTROL SYSTEM AND ROBOT CONTROL METHOD USING A COGNITIVE ARCHITECTURE}Robot control system and robot control method using cognitive architecture {ROBOT CONTROL SYSTEM AND ROBOT CONTROL METHOD USING A COGNITIVE ARCHITECTURE}

본 발명은 인지 아키텍쳐를 이용한 로봇 제어 시스템 및 로봇 제어 방법에 관한 것으로, 더 상세하게는 로봇의 주변 환경을 인지하고, 환경 변화에 따라 로봇의 이동 및 작업 수행을 능동적으로 제어하는 로봇 제어 시스템 및 로봇 제어 방법에 관한 것이다. The present invention relates to a robot control system and a robot control method using a cognitive architecture. More particularly, the present invention relates to a robot control system and a robot that recognizes a surrounding environment of a robot and actively controls movement and execution of a robot according to environmental changes. It relates to a control method.

최근 일상 생활 가운데서도 로봇을 이용하고자 하는 시도가 늘어나고 있다. 인간 생활 공간에서 로봇을 이용하기 위해서는 여러 돌발 상황에 잘 대응할 수 있어야 하며 안전하게 작업 수행이 가능해야 한다. 기존의 로봇은 미리 정해 놓은 순서에 따라 수동적으로 작업을 실행하게 되며, 이러한 방식은 안정성과 여러 가지 환경 변화에 따른 대처 능력을 떨어뜨리게 된다. 따라서 사람의 인지 능력을 모방한 인지 구조를 이용한 로봇으로 가정 내에서 작업을 안전하게 수행하고자 하는 욕구가 증대되고 있다.Recently, attempts to use robots in daily life are increasing. In order to use a robot in the human living space, it must be able to cope with various unexpected situations and be able to safely perform work. Existing robots perform tasks manually in a predetermined order, which reduces the stability and the ability to cope with various environmental changes. Therefore, the desire to safely perform tasks in the home with a robot using a cognitive structure that mimics the cognitive ability of a person is increasing.

상기한 과제를 실현하기 위하여, 본 발명은 인지 아키텍쳐를 이용하여 주변 환경 변화에 따른 다양한 상황 하에서 능동적으로 로봇을 제어하여 작업을 수행할 수 있는 로봇 제어 시스템 및 로봇 제어 방법을 제공한다. In order to realize the above object, the present invention provides a robot control system and a robot control method capable of performing a task by actively controlling the robot under various circumstances according to the change of the surrounding environment by using the cognitive architecture.

전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 로봇 제어 시스템은, 외부 환경 정보를 감지하는 센싱부와, 감지된 환경 정보를 인지 아키텍쳐에 전달하고 이로부터 실행 명령을 전달받는 송수신부와, 실행 명령을 수신하여 작동하는 구동부를 갖는 로봇; 및 상기 센싱부에서 감지한 외부 환경 정보를 수신하여, 상기 로봇의 현재 상태를 추론하고, 상기 로봇이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하여 상기 로봇의 송수신부로 전송하는 인지 아키텍쳐를 포함한다. Robot control system according to an embodiment of the present invention for achieving the above object, a sensing unit for sensing the external environment information, and a transceiver for transmitting the detected environment information to the cognitive architecture and receiving the execution command therefrom and A robot having a driving unit configured to receive and execute an execution command; And a cognitive architecture for receiving external environment information sensed by the sensing unit, inferring the current state of the robot, generating an execution command corresponding to a target to be performed by the robot, and transmitting the generated execution command to the transceiver of the robot. .

상기 인지 아키텍쳐는, 상기 로봇과 유무선 네트워크를 통해 통신하는 수신부; 상기 수신부를 통해 수신된 로봇의 외부 환경 정보를 기반으로, 인지 추론 과정을 거쳐 상기 로봇을 구동시키는 실행 명령을 생성하는 인지 모델부; 및 상기 로봇의 구동부를 작동시키도록, 상기 인지 모델부에서 생성한 실행 명령을 상기 로봇으로 전송하는 송신부를 포함할 수 있다. The cognitive architecture may include a receiver configured to communicate with the robot through a wired or wireless network; A cognitive model unit configured to generate an execution command for driving the robot through a cognitive inference process based on external environment information of the robot received through the receiver; And a transmission unit configured to transmit an execution command generated by the cognitive model unit to the robot to operate the driving unit of the robot.

상기 인지 모델부는, 상기 수신부에서 수신한 로봇의 외부 환경 정보를 인식하는 인식부; 상기 로봇의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리; 상기 인식부에서 인식한 정보와 상기 장기 개념 메모리에 저장된 정보를 비교하여 로봇의 현재 상태를 추론하는 개념 추론부; 상기 개념 추론부에서 추론된 로봇의 현재 상태에 관한 정보를 일시적으로 저장하여 스킬 검색 및 선택부로 전달하는 단기 개념 메모리; 상기 로봇이 수행하고자 하는 목표가 일시 저장되는 단기 목표 메모리; 상기 로봇의 동작에 관한 정보가 미리 정의되어 저장된 장기 스킬 메모리; 상기 단기 목표 메모리에 저장된 목표를 달성하도록, 상기 개념 추론부에서 추론한 로봇의 현재 상태에서 상기 로봇이 실행가능한 스킬을 상기 장기 스킬 메모리로부터 검색 및 선택하는 스킬 검색 및 선택부; 및 상기 스킬 검색 및 선택부에서 선택된 스킬을 기반으로 상기 로봇을 구동시키는 실행 명령을 생성하는 실행 명령 생성부를 포함할 수 있다. The recognition model unit, a recognition unit for recognizing the external environment information of the robot received by the receiving unit; A long term concept memory in which information about a state of the robot is predefined and stored; A concept inference unit that infers a current state of the robot by comparing the information recognized by the recognition unit with information stored in the long-term concept memory; A short-term concept memory that temporarily stores information on the current state of the robot inferred by the concept inference unit and transfers the information to the skill search and selection unit; A short-term target memory for temporarily storing a target to be performed by the robot; A long term skill memory in which information about the operation of the robot is predefined; A skill retrieval and selection unit for retrieving and selecting a skill executable by the robot in the current state of the robot inferred by the concept inference unit from the long-term skill memory to achieve a goal stored in the short-term target memory; And an execution command generation unit configured to generate an execution command for driving the robot based on the skill selected by the skill search and selection unit.

상기 인지 모델부는, 상기 스킬 검색 및 선택부가 상기 장기 스킬 메모리로부터 원하는 스킬을 검색하지 못한 경우, 상기 단기 목표 메모리에 저장된 단기목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 상기 장기 스킬 메모리에서 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 상기 장기 스킬 메모리에 새로운 스킬로 저장시키는 스킬 학습부를 더 포함할 수 있다. When the skill search and selection unit does not search for a desired skill from the long-term skill memory, the cognitive model unit decomposes the short-term target stored in the short-term target memory into subgoals and corresponds to each sub-target. The method may further include a skill learning unit searching for a skill in the long-term skill memory and storing the found skills as a new skill in the long-term skill memory in association with a detailed goal and a final goal.

상기 센싱부는 위치 인식 센서, 음성 인식 센서, 레이저 센서 또는 카메라 센서 중 어느 하나 이상을 포함할 수 있다. The sensing unit may include at least one of a position recognition sensor, a voice recognition sensor, a laser sensor, and a camera sensor.

상기 로봇은 복수 개로 구성되며, 상기 인지 아키텍쳐는 복수의 로봇을 각각 구동시키는 복수의 실행 명령을 생성하여, 상기 복수의 로봇을 각각 제어할 수 있다. The robot may include a plurality of robots, and the cognitive architecture may generate a plurality of execution commands for driving the plurality of robots, respectively, to control the plurality of robots.

본 발명의 일 실시예에 따른 로봇 제어 방법은, 로봇이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하는 인지 아키텍쳐를 이용한 방법으로서, 상기 로봇에서 감지한 외부 환경 정보가 상기 인지 아키텍쳐로 수신되는 단계; 상기 수신된 외부 환경 정보에 대응하여 상기 로봇을 구동시키는 실행 명령을 인지 추론 과정을 통해 생성하는 단계; 및 상기 인지 아키텍쳐에서 생성한 상기 실행 명령을 상기 로봇의 구동부로 전달하여, 상기 로봇을 제어하는 단계를 포함한다. The robot control method according to an embodiment of the present invention is a method using a cognitive architecture for generating an execution command corresponding to a target that a robot wants to perform, and receiving external environment information sensed by the robot as the cognitive architecture. ; Generating an execution command for driving the robot in response to the received external environment information through a cognitive inference process; And controlling the robot by transferring the execution command generated by the cognitive architecture to a driving unit of the robot.

상기 인지 추론 과정을 통해 실행 명령을 생성하는 단계는, 상기 로봇의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리의 정보와 상기 외부 환경 정보를 비교하여, 상기 로봇의 현재 상태를 개념 추론부에서 추론하는 단계; 상기 로봇이 수행하고자 하는 목표를 달성하도록, 상기 개념 추론부에서 추론한 로봇의 현재 상태에서 상기 로봇이 실행가능한 스킬을 장기 스킬 메모리로부터 검색 및 선택하는 단계; 및 상기 선택된 스킬을 기반으로 상기 로봇을 구동시키는 실행 명령을 생성하는 단계를 포함할 수 있다. In the generating of the execution command through the cognitive inference process, the information about the state of the robot is predefined and compares the information of the long-term concept memory and the external environment information, the current state of the robot in the concept inference unit Inferring; Retrieving and selecting, from the long-term skill memory, a skill executable by the robot in the current state of the robot inferred by the concept inference unit to achieve the goal that the robot is to perform; And generating an execution command for driving the robot based on the selected skill.

상기 인지 추론 과정을 통해 실행 명령을 생성하는 단계는, 상기 장기 스킬 메모리로부터 원하는 스킬을 검색하지 못한 경우, 로봇이 수행하고자 하는 목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 새로운 스킬로 상기 장기 스킬 메모리에 저장하는 단계를 더 포함할 수 있다.In the generating of the execution command through the cognitive inference process, if a desired skill is not retrieved from the long-term skill memory, the robot decomposes a target to be performed into subgoals and then corresponds to each subgoal. The method may further include retrieving a skill to be stored in the long-term skill memory as a new skill in association with the detailed goal and the final goal.

본 발명의 로봇 제어 시스템은 사람의 인지 능력을 모방한 인지 아키텍쳐를 이용하여 로봇의 작업에 필요한 명령들을 추론함으로써 실시간으로 환경 변화에 따른 능동적인 대처가 가능한 효과가 있다. The robot control system of the present invention has the effect of proactively responding to environmental changes in real time by inferring the commands necessary for the robot's work using a cognitive architecture that mimics the human's cognitive ability.

또한, 본 발명의 로봇 제어 시스템은, 로봇이 가정 또는 작업장에서 작업을 수행하거나 이동하는 경우, 주변 장애물을 실시간으로 인식하여 안전하게 로봇을 제어할 수 있는 효과가 있다. In addition, the robot control system of the present invention, when the robot performs a task or moves in the home or workplace, there is an effect that can safely control the robot by recognizing the surrounding obstacles in real time.

도 1은 본 발명의 일 실시예에 따른 로봇 제어 시스템의 구성도이다.
도 2는 도 1의 인지 모델부의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 로봇 제어 방법을 도시한 순서도이다.
도 4는 본 발명의 다른 실시예에 따른 하나 이상의 로봇을 포함하는 로봇 제어 시스템의 구성도이다.
1 is a block diagram of a robot control system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating the recognition model of FIG. 1.
3 is a flowchart illustrating a robot control method according to an embodiment of the present invention.
4 is a block diagram of a robot control system including one or more robots according to another embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따른 로봇 제어 시스템 및 로봇 제어 방법에 대하여 상세히 설명한다. Hereinafter, a robot control system and a robot control method according to a preferred embodiment of the present invention with reference to the accompanying drawings will be described in detail.

도 1은 본 발명의 일 실시예에 따른 로봇 제어 시스템의 구성도이다.1 is a block diagram of a robot control system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 로봇 제어 시스템(1)은, 로봇(200)을 제어하는 인지 아키텍쳐(100) 및 직접 작업을 수행하는 로봇(200)을 포함한다. Referring to FIG. 1, the robot control system 1 of the present invention includes a cognitive architecture 100 that controls the robot 200 and a robot 200 that directly performs a task.

구체적으로, 인지 아키텍쳐(100)는 수신부(110), 인지 모델부(120) 및 송신부(130)를 포함하며, 로봇(200)은 센싱부(210), 송수신부(220) 및 구동부(230)를 포함한다. 여기서, 도 1에 도시된 구성요소들은 기본적인 구성요소들로서, 그보다 더 많은 구성요소를 갖는 로봇 제어 시스템이 구현될 수 있으며, 구동부(230)를 2개 이상으로 구성하는 것과 같이 각 구성요소를 복수 개로 구성할 수도 있다.In detail, the cognitive architecture 100 includes a receiver 110, a cognitive model 120, and a transmitter 130, and the robot 200 includes a sensing unit 210, a transceiver 220, and a driver 230. It includes. Here, the components shown in FIG. 1 are basic components, and a robot control system having more components may be implemented, and each component is divided into a plurality of elements such as two or more driving units 230. It can also be configured.

인지 아키텍쳐(100)는 로봇(200)으로부터 외부 환경 정보를 수신하고, 로봇(200)이 수행하고자 하는 목표를 달성하기 위해 상기 로봇(200)에 포함되는 구동부(230)를 직접 구동시키는 로봇 동작 신호를 생성한 후, 상기 로봇(200)의 송수신부(220)로 전달하여, 로봇(200)의 동작을 제어한다. The cognitive architecture 100 receives the external environment information from the robot 200, and directly operates the robot 230 to drive the driver 230 included in the robot 200 in order to achieve a goal that the robot 200 intends to perform. After generating, and transmits to the transceiver 220 of the robot 200, to control the operation of the robot 200.

상기 로봇 동작 신호는, 로봇(200)에 전송되어 로봇(200)의 구동부(230)를 제어할 수 있는 실행 명령 신호를 의미한다. 상기 실행 명령 신호가 전송되면, 각각의 구동부(230)에 구현되어 있는 알고리즘을 통해 로봇(200)이 실행 명령 신호에 따라 작업을 수행할 수 있다. The robot operation signal refers to an execution command signal that is transmitted to the robot 200 to control the driver 230 of the robot 200. When the execution command signal is transmitted, the robot 200 may perform an operation according to the execution command signal through an algorithm implemented in each driver 230.

수신부(110)는 유무선 네트워크를 통해 로봇(200)과 통신을 수행하여, 로봇(200)의 센싱부(210)에서 감지한 외부 환경 정보를 수신한다. 상기 로봇(200)의 센싱부(210)에서 감지한 외부 환경 정보는, 로봇(200)이 작업을 수행하기 위해 필요한 위치 정보, 장애물 정보, 정리 대상 물건 정보 또는 로봇(200)의 현재 상태 정보 등을 포함할 수 있다.The receiver 110 communicates with the robot 200 through a wired or wireless network to receive external environment information detected by the sensing unit 210 of the robot 200. The external environment information sensed by the sensing unit 210 of the robot 200 may include location information, obstacle information, object information for cleaning, current state information of the robot 200, etc. necessary for the robot 200 to perform a task. It may include.

인지 모델부(120)는 상기 수신부(110)를 통해 수신된 외부 환경 정보를 기반으로, 인지 추론 과정을 거쳐 로봇(200)을 구동시키는 실행 명령을 생성한다. The cognitive model unit 120 generates an execution command for driving the robot 200 through a cognitive inference process based on the external environment information received through the receiver 110.

인지 아키텍쳐(100)는 로봇(200)이 주어진 목표를 달성하기 위해 필요한 로봇(200)의 구동부(230)를 제어할 수 있는 기본 동작 명령 정보를 미리 저장하고 있다. 상기 인지 모델부(120)는 추론 과정을 통해 로봇(200)의 구동부(230)를 제어할 수 있는 실행 명령을 생성한다. The cognitive architecture 100 previously stores basic operation command information for controlling the driver 230 of the robot 200 required for the robot 200 to achieve a given goal. The cognitive model unit 120 generates an execution command that can control the driving unit 230 of the robot 200 through an inference process.

송신부(130)는 상기 인지 모델부(120)에서 생성된 실행 명령을 다시 로봇(200)으로 전송하여, 로봇(200)에 포함된 하나 이상의 구동부(230)를 직접 구동시킬 수 있다. 인지 아키텍쳐(100)의 수신부(110)와 송신부(130)는 유무선 네트워크를 통해 로봇(200)과 통신하며, 이를 통해 로봇(200)의 피드백 제어가 이루어질 수 있다. The transmitter 130 may directly transmit the execution command generated by the recognition model unit 120 to the robot 200 to directly drive one or more drivers 230 included in the robot 200. The receiver 110 and the transmitter 130 of the cognitive architecture 100 communicate with the robot 200 through a wired or wireless network, through which feedback control of the robot 200 may be performed.

센싱부(210)는 센서를 이용하여 인지 아키텍쳐(100)가 추론 작업을 하기 위해 필요한 외부 환경 정보를 획득한다. 센싱부(210)는 위치 인식 센서, 음성 인식 센서, 레이저 센서, 카메라 센서 중 어느 하나 이상을 포함할 수 있다. The sensing unit 210 acquires external environment information necessary for the cognitive architecture 100 to perform inference using a sensor. The sensing unit 210 may include at least one of a location recognition sensor, a voice recognition sensor, a laser sensor, and a camera sensor.

예를 들어, 센싱부(210)는 상기 위치 인식 센서를 통해 로봇(200)의 현재 위치 및 방위각 등 로봇(200)의 위치 정보를 인식할 수 있으며, 상기 음성 인식 센서를 통해 긴급 상황 발생 시 로봇(200)에게 명령을 직접 전달하거나, 센서 오인식 등에 대응할 수 있으며, 상기 레이저 센서를 통해 로봇(200) 앞에 나타나는 장애물의 위치 및 방향, 크기 등의 정보를 얻을 수 있고, 상기 카메라 센서를 통해 로봇(200)이 작업하고 있는 물체의 정보를 획득할 수 있다.For example, the sensing unit 210 may recognize the position information of the robot 200 such as the current position and the azimuth of the robot 200 through the position recognition sensor, and the robot when an emergency occurs through the voice recognition sensor. Directly to the command 200, it may correspond to a sensor misrecognition, and the like, it is possible to obtain information such as the position and direction, the size of the obstacle appearing in front of the robot 200 through the laser sensor, the robot ( 200 may obtain information about the object being worked on.

구동부(230)는 인지 아키텍쳐(100)로부터 전송된 실행 명령을 수신하여 로봇(200)의 구동 동작을 실현한다. 구동부(230)는 로봇(200)의 다자유도 운동을 보장하도록 2개 이상의 구동부로 구성될 수 있다.The driver 230 receives the execution command transmitted from the cognitive architecture 100 to realize the driving operation of the robot 200. The driving unit 230 may be configured with two or more driving units to ensure the multiple degree of freedom of movement of the robot 200.

인지 모델부(120)는 인간의 인지 구조를 모방하여 추론 작업을 수행한다. 도 1의 인지 모델부의 구성을 상세히 도시한 도 2를 참조하면, 인지 모델부(120)는 인식부(121), 장기 개념 메모리(122), 개념 추론부(123), 단기 개념 메모리(124), 스킬(skill) 검색 및 선택부(125), 장기 스킬 메모리(126), 단기 목표(goal) 메모리(127) 및 실행 명령 생성부(128)를 포함하며, 필요에 따라 문제 해결을 위한 스킬 학습부(129)를 더 포함할 수 있다.The cognitive model unit 120 performs an inference operation by mimicking a human cognitive structure. Referring to FIG. 2, which illustrates the configuration of the cognitive model unit of FIG. 1 in detail, the cognitive model unit 120 includes a recognition unit 121, a long term concept memory 122, a concept inference unit 123, and a short term concept memory 124. A skill search and selection unit 125, a long term skill memory 126, a short term goal memory 127, and an execution command generator 128, and a skill learning for problem solving as needed. The unit 129 may further include.

인식부(121)는 수신부(110)에서 수신한 로봇(200)의 외부 환경 정보를 인식한다. 전술한 바와 같이, 외부 환경 정보는, 로봇(200)이 작업을 수행하기 위해 필요한 위치 정보, 장애물 정보, 정리 대상 물건 정보 또는 로봇(200)의 현재 상태 정보 등을 포함한다. The recognition unit 121 recognizes external environment information of the robot 200 received by the receiving unit 110. As described above, the external environment information includes position information, obstacle information, object information for cleaning, current state information of the robot 200, etc. necessary for the robot 200 to perform a task.

장기 개념 메모리(122)는 로봇(200)의 상태를 기술하는데 사용되는 일반 정보가 미리 정의되어 저장되어 있다. 여기서, 로봇(200)의 상태에 관한 정보는, 로봇(200)의 각 관절의 위치 및 방위각, 로봇(200)과 장애물과의 거리 등과 관련된 정보가 될 수 있다. The long-term concept memory 122 stores predefined general information used to describe the state of the robot 200. Here, the information about the state of the robot 200 may be information related to the position and azimuth angle of each joint of the robot 200, the distance between the robot 200, and the obstacle.

개념 추론부(123)는 인식부(121)에서 인식한 정보를 바탕으로 상기 장기 개념 메모리(122)에 저장된 정보를 사용하여 로봇의 현재 상태를 추론한다. The concept inference unit 123 infers the current state of the robot using the information stored in the long-term concept memory 122 based on the information recognized by the recognition unit 121.

단기 개념 메모리(124)는 개념 추론부(123)에서 추론된 로봇(200)의 현재 상태에 관한 정보를 일시적으로 저장하여 스킬 검색 및 선택부(125)를 비롯한 인지 아키텍쳐의 다른 부분들이 이를 사용할 수 있도록 한다. The short-term concept memory 124 temporarily stores information about the current state of the robot 200 inferred by the concept inference unit 123 so that other parts of the cognitive architecture, including the skill search and selection unit 125, may use it. Make sure

장기 스킬 메모리(126)에는 로봇(200)의 동작에 관한 일반 정보가 미리 정의되어 저장되어 있으며, 단기 목표 메모리(127)에는 로봇(200)이 수행하고자 하는 목표가 일시 저장된다. In the long-term skill memory 126, general information about the operation of the robot 200 is predefined and stored, and a target that the robot 200 intends to perform is temporarily stored in the short-term target memory 127.

스킬 검색 및 선택부(125)는 단기 목표 메모리(127)에 저장된 목표를 달성하도록, 개념 추론부(123)에서 추론한 로봇의 현재 상태에서 상기 로봇(200)이 실행가능한 스킬을 장기 스킬 메모리(126)로부터 검색 및 선택한다. The skill retrieval and selection unit 125 stores the skills that can be executed by the robot 200 in the current state of the robot inferred by the concept inference unit 123 to achieve the target stored in the short-term target memory 127. 126).

실행 명령 생성부(128)는 스킬 검색 및 선택부(125)에서 선택된 스킬을 기반으로 로봇(200)을 구동시키는 실행 명령을 생성한다. The execution command generation unit 128 generates an execution command for driving the robot 200 based on the skill selected by the skill search and selection unit 125.

스킬 학습부(129)는 스킬 검색 및 선택부(125)가 장기 스킬 메모리(126)로부터 원하는 스킬을 검색하지 못한 경우, 단기 목표 메모리(127)에 저장된 단기목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 장기 스킬 메모리(126)에서 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 장기 스킬 메모리(126)에 저장시킨다. When the skill search and selection unit 125 does not search for a desired skill from the long-term skill memory 126, the skill learning unit 129 decomposes the short-term goal stored in the short-term goal memory 127 into subgoals. Thereafter, the skills corresponding to each detailed goal are retrieved from the long term skill memory 126, and the retrieved skills are stored in the long term skill memory 126 in association with the detailed goal and the final goal.

이하에서는, 상기 인지 모델부(120)의 추론 과정을 구체적인 예시를 통해 설명한다. Hereinafter, the inference process of the cognitive model unit 120 will be described with specific examples.

우선, 로봇(200)이 수행하고자 하는 목표를 테이블 상에 임의의 적색 블록들과 청색 블록들 중, 적색 블록들을 5개 쌓아올리도록 설정하면, 상기 목표는 단기 목표 메모리(127)에 일시적으로 저장된다. First, when the robot 200 is set to stack five red blocks among arbitrary red blocks and blue blocks on the table, the target is temporarily stored in the short-term target memory 127. do.

이어서, 로봇(200)에 장착된 센싱부(210)는 로봇(200) 주변의 외부 환경 정보를 감지하며, 감지된 환경 정보는 송수신부(220)를 통해 인지 아키텍쳐(100)의 수신부(110)로 전달된다. Subsequently, the sensing unit 210 mounted on the robot 200 detects external environment information around the robot 200, and the detected environment information is received by the receiver 110 of the cognitive architecture 100 through the transceiver 220. Is passed to.

계속하여, 인식부(121)는 수신부(110)로부터 입력된 정보로부터 외부 환경 정보를 인식한다. 이에 따라, 로봇(200)과 테이블 사이의 거리, 테이블 상에 놓여진 적색 블록과 청색 블록들의 위치, 로봇 팔의 위치와 방위각 등의 정보가 인식될 수 있다. Subsequently, the recognition unit 121 recognizes the external environment information from the information input from the receiving unit 110. Accordingly, information such as the distance between the robot 200 and the table, the positions of the red and blue blocks placed on the table, the position and the azimuth angle of the robot arm, and the like can be recognized.

이어서, 개념 추론부(123)는 인식부(121)에서 인식한 정보를 바탕으로 상기 장기 개념 메모리(122)에 저장된 일반 정보를 이용하여 로봇의 현재 상태를 추론한다. 이에 따라, 로봇(200)과 테이블 사이의 거리, 테이블 상에 놓여진 적색 블록과 청색 블록들의 위치, 로봇 팔의 위치와 방위각 등의 정보로부터, 보다 고차원적인 정보, 즉, 로봇 팔이 특정 블록에까지 도달할 수 있는지의 여부, 어떤 블록이 테이블 위에 놓여 있는지의 여부, 어떤 블록이 다른 블록 위에 놓여 있는지의 여부 등이 추론되며, 추론된 정보는 단기 개념 메모리(124)에 저장된다.Subsequently, the concept inference unit 123 infers the current state of the robot using the general information stored in the long-term concept memory 122 based on the information recognized by the recognition unit 121. Accordingly, from the information such as the distance between the robot 200 and the table, the positions of the red and blue blocks placed on the table, the position and the azimuth angle of the robot arm, the higher-order information, that is, the robot arm reaches the specific block. Whether or not, which blocks are on the table, which blocks are on the other, and the like, and the inferred information is stored in the short term concept memory 124.

장기 스킬 메모리(126)에는 소정 공간 내에서 로봇(200)이 장애물들을 피하여 테이블 앞까지 이동하여, 로봇(200)이 테이블 상의 적색 블록을 선택하여 잡은 후, 쌓아올리는 일련의 로봇 동작에 관한 스킬이 저장되어 있으며, 스킬 검색 및 선택부(125)는 상기 동작들을 수행하기 위한 스킬들을 검색하여 단기 개념 메모리(124)에 저장된 로봇의 현재 상태에 적합한 것을 선택한다. In the long-term skill memory 126, the robot 200 moves in front of the table avoiding obstacles in a predetermined space, and the robot 200 selects and grabs a red block on the table, and then stacks a stack of skills related to the robot operation. The skill search and selection unit 125 searches for skills for performing the operations and selects the one suitable for the current state of the robot stored in the short term concept memory 124.

이어서, 실행 명령 생성부(128)는 소정 공간 내에서 로봇(200)이 장애물들을 피하여 테이블 앞까지 이동하여, 적색 블록들을 5개 쌓아올리고자 하는 목표를 실행하기 위해 일련의 로봇 동작에 관한 스킬들로부터 실행 명령을 생성하여, 로봇(200)으로 전달한다. Subsequently, the execution command generator 128 moves the robot 200 to the front of the table avoiding obstacles in a predetermined space, and executes a series of skills related to the robot operation to execute a goal of stacking five red blocks. The execution command is generated from and transmitted to the robot 200.

계속하여, 로봇(200)의 구동부(230)가 작동하여, 로봇(200)이 테이블 앞까지 이동한 후, 로봇 팔이 테이블 상에서 움직이면서 5개의 적색 블록을 취사 선택하여 쌓아올릴 수 있다. Subsequently, the driving unit 230 of the robot 200 operates to move the robot 200 to the front of the table, and the robot arm moves on the table to select and stack five red blocks.

여기서, 만약, 초기의 테이블 상에서 청색 블록이 적색 블록 위에 놓여져 있어서, 로봇(200)이 적색 블록을 잡을 수 없는 상태라면, 적색 블록들을 5개 쌓아올리고자 하는 단기목표가 수행될 수 없으며, 스킬 검색 및 선택부(125)는 로봇 동작에 필요한 적당한 스킬이 없는 것으로 판단한다. Here, if the blue block is placed on the red block on the initial table, and the robot 200 cannot catch the red block, the short-term goal of stacking five red blocks cannot be performed. The selector 125 determines that there is no suitable skill for robot operation.

상기와 같이 단기목표를 수행할 수 없는 경우에, 스킬 학습부(129)는, 5개의 적색 블록을 취사 선택하여 쌓아올리는 단기목표를 분해한다. 즉, 적색 블록을 선택하기 위해 우선 청색 블록을 제거하는 단계, 적색 블록을 잡아, 적색 블록끼리 쌓는 단계와 같이 본래의 단기목표를 분해하여 세부 목표로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 장기 스킬 메모리(126)로부터 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 장기 스킬 메모리(126)에 저장시킨다. When the short-term goal cannot be performed as described above, the skill learning unit 129 decomposes the short-term goal of picking and stacking five red blocks. In other words, in order to select a red block, first, by removing a blue block, grabbing a red block, and stacking red blocks, the original short-term target is decomposed into detailed targets, and then a skill corresponding to each detailed target is obtained. Is retrieved from the long-term skill memory 126 and stored in the long-term skill memory 126 in association with the detailed goal and the final goal.

이어서, 스킬 검색 및 선택부(125)는 각각의 세부 목표에 대응하는 스킬들을 다시 장기 스킬 메모리(126)에서 검색하여 실행 명령 생성부(128)로 전달하고, 실행 명령 생성부(128)는 청색 블록을 제거하는 단계, 적색 블록을 잡아, 적색 블록끼리 쌓는 단계를 수행하기 위한 실행 명령을 생성하여, 로봇(200)으로 전송한다. Subsequently, the skill search and selection unit 125 retrieves the skills corresponding to each detailed target from the long-term skill memory 126 and delivers the skills to the execution command generator 128, and the execution command generator 128 is blue. Removing the block, catching the red blocks, generates an execution command for performing the step of stacking the red blocks, and transmits to the robot 200.

계속하여, 로봇(200)의 구동부(230)가 작동하여, 적색 블록을 5개 쌓는 목표를 달성한다. Subsequently, the driving unit 230 of the robot 200 operates to achieve the goal of stacking five red blocks.

상기 예시는 본 발명의 구성요소들이 동작하는 과정을 설명하기 위한 것으로, 본 발명의 사상은 상기 예시의 설명에 의해 제한되지 않는다. The above example is for explaining the operation of the components of the present invention, the spirit of the present invention is not limited by the description of the above example.

도 3은 본 발명의 일 실시예에 따른 로봇 제어 방법을 도시한 순서도이다. 3 is a flowchart illustrating a robot control method according to an embodiment of the present invention.

도 3을 참조하면, 로봇(200)이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하는 인지 아키텍쳐를 이용한 로봇 제어 방법으로서, 우선, 로봇(200)에서 감지한 외부 환경 정보가 인지 아키텍쳐(100)로 수신된다(S310). Referring to FIG. 3, a robot control method using a cognitive architecture for generating an execution command corresponding to a target to be performed by the robot 200, first, the external environment information detected by the robot 200 is a cognitive architecture 100. Is received (S310).

다음으로, 인지 아키텍쳐(100)는 상기 수신된 외부 환경 정보에 대응하여 로봇(200)을 구동시키는 실행 명령을 인지 추론 과정을 통해 생성한다(S320). Next, the cognitive architecture 100 generates an execution command for driving the robot 200 in response to the received external environment information through a cognitive inference process (S320).

여기서, 인지 추론 과정을 통해 실행 명령을 생성하는 과정은, 로봇(200)의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리(122)의 정보를 이용하여 상기 외부 환경 정보를 바탕으로, 로봇(200)의 현재 상태를 개념 추론부(123)에서 추론하여 단기 개념 메모리(124)에 저장하는 과정과, 상기 로봇이 수행하고자 하는 목표를 달성하도록, 단기 개념 메모리(124)에 저장된 로봇(200)의 현재 상태에서 로봇(200)이 실행가능한 스킬을 장기 스킬 메모리(126)로부터 검색 및 선택하는 과정과, 상기 선택된 스킬을 기반으로 로봇(200)을 구동시키는 실행 명령을 생성하는 과정을 포함할 수 있다. Here, the process of generating an execution command through the cognitive inference process, based on the external environment information by using the information of the long-term concept memory 122, the information on the state of the robot 200 is stored in advance, the robot ( The robot 200 stored in the short-term concept memory 124 to infer the current state of the current state 200 in the concept inference unit 123 and store in the short-term concept memory 124, and to achieve the target to be performed by the robot. Searching for and selecting a skill that the robot 200 can execute in the current state of the memory from the long-term skill memory 126, and generating an execution command for driving the robot 200 based on the selected skill. have.

또한, 상기 인지 추론 과정을 통해 실행 명령을 생성하는 과정은, 장기 스킬 메모리(126)로부터 원하는 스킬을 검색하지 못한 경우, 로봇(200)이 수행하고자 하는 목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 장기 스킬 메모리(126)에서 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 상기 장기 스킬 메모리(126)에 저장하는 과정을 더 포함할 수 있다. In addition, in the process of generating an execution command through the cognitive inference process, if the desired skill is not retrieved from the long-term skill memory 126, the robot 200 decomposes the target to be performed into subgoals. The method may further include retrieving a skill corresponding to each sub-target from the long-term skill memory 126 and storing the retrieved skills in the long-term skill memory 126 in association with the sub-target and the final goal.

계속하여, 인지 아키텍쳐(100)에서 생성한 상기 실행 명령을 로봇(200)의 구동부(230)로 전달하여, 로봇(200)을 제어한다(S330). Subsequently, the execution command generated by the cognitive architecture 100 is transmitted to the driving unit 230 of the robot 200 to control the robot 200 (S330).

도 4는 본 발명의 다른 실시예에 따른 하나 이상의 로봇을 포함하는 로봇 제어 시스템의 구성도이다. 4 is a block diagram of a robot control system including one or more robots according to another embodiment of the present invention.

도 4를 참조하면, 인지 아키텍쳐(100)가 제어하는 로봇(200a, 200b, 200c,...)이 복수 개로 구성된다. 복수의 로봇(200a, 200b, 200c,...)은 동일한 형태 또는 서로 다른 형태로 구성될 수 있다. Referring to FIG. 4, a plurality of robots 200a, 200b, 200c,... Controlled by the cognitive architecture 100 are configured. The plurality of robots 200a, 200b, 200c,... May be configured in the same form or in different forms.

인지 아키텍쳐(100)는 각각 상이한 로봇(200a, 200b, 200c,...)을 구동하기 위한 로봇별 특징을 그 내부에 미리 저장하거나, 상기 로봇(200a, 200b, 200c,...)들로부터 수신하여, 각각의 로봇(200a, 200b, 200c,...)에 대해 추론 작업을 수행하여 실행 명령을 생성할 수 있다. 여기서, 인지 아키텍쳐(100)는 복수의 로봇(200a, 200b, 200c,...)을 각각 구동시키는 복수의 실행 명령을 생성하여, 상기 복수의 로봇(200a, 200b, 200c,...)을 각각 제어할 수 있다. The cognitive architecture 100 previously stores therein robot-specific features for driving different robots 200a, 200b, 200c, ..., or from the robots 200a, 200b, 200c, ..., respectively. In response to each of the robots 200a, 200b, 200c,..., Inferring work may be performed to generate an execution command. Here, the cognitive architecture 100 generates a plurality of execution commands for driving the plurality of robots 200a, 200b, 200c,..., Respectively, to operate the plurality of robots 200a, 200b, 200c,... Each can be controlled.

또한, 인지 아키텍쳐(100)는 설정에 따라서, 동일한 동작을 수행하는 실행 명령을 각각의 로봇(200a, 200b, 200c,...)으로 전송하거나, 상이한 동작을 수행하는 상이한 실행 명령을 각각의 로봇(200a, 200b, 200c,...)으로 전송할 수 있다.In addition, the cognitive architecture 100 transmits execution instructions to perform the same operation to each robot 200a, 200b, 200c, ..., or sets different execution instructions to perform different operations. (200a, 200b, 200c, ...).

또한, 인지 아키텍쳐(100)는 설정에 따라서, 각각의 로봇(200a, 200b, 200c,...)이 동시에 동작하거나, 각기 다른 시점에 동작하도록 실행 명령을 전송하여 각각의 로봇(200a, 200b, 200c,...)을 제어할 수 있다. In addition, the cognitive architecture 100 transmits an execution command to operate the robots 200a, 200b, 200c, ... at the same time or at different times, depending on the settings. 200c, ...) can be controlled.

상기에서는 본 발명의 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명의 범위에 속하는 것은 당연하다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Of course.

1: 로봇 제어 시스템
100: 인지 아키텍쳐
110: 수신부
120: 인지 모델부
121: 인식부
122: 장기 개념 메모리
123: 개념 추론부
124: 단기 개념 메모리
125: 스킬 검색 및 선택부
126: 장기 스킬 메모리
127: 단기 목표 메모리
128: 실행 명령 생성부
129: 스킬 학습부
130: 송신부
200: 로봇
210: 센싱부
220: 송수신부
230: 구동부
1: robot control system
100: cognitive architecture
110:
120: cognitive model unit
121: recognition unit
122: long-term conceptual memory
123: Inference Unit
124: Short-Term Concept Memory
125: skill search and selection unit
126: long-term skill memory
127: short-term target memory
128: execution command generation unit
129: skill learning unit
130: transmitter
200: robot
210: sensing unit
220: transceiver
230:

Claims (9)

외부 환경 정보를 감지하는 센싱부와, 감지된 환경 정보를 인지 아키텍쳐에 전달하고 이로부터 실행 명령을 전달받는 송수신부와, 실행 명령을 수신하여 작동하는 구동부를 갖는 로봇; 및
상기 센싱부에서 감지한 외부 환경 정보를 수신하여, 상기 로봇의 현재 상태를 추론하고, 상기 로봇이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하여 상기 로봇의 송수신부로 전송하는 인지 아키텍쳐를 포함하는 것을 특징으로 하는 로봇 제어 시스템.
A robot having a sensing unit which senses external environment information, a transmitting / receiving unit which transmits the sensed environmental information to a cognitive architecture and receives an execution command therefrom, and a driving unit which receives and executes an execution command; And
Receiving an external environment information sensed by the sensing unit, inferring the current state of the robot, generating an execution command corresponding to a target to be performed by the robot, and including a cognitive architecture for transmitting to the transceiver of the robot Robot control system characterized in that.
제1항에 있어서, 상기 인지 아키텍쳐는,
상기 로봇과 유무선 네트워크를 통해 통신하는 수신부;
상기 수신부를 통해 수신된 로봇의 외부 환경 정보를 기반으로, 인지 추론 과정을 거쳐 상기 로봇을 구동시키는 실행 명령을 생성하는 인지 모델부; 및
상기 로봇의 구동부를 작동시키도록, 상기 인지 모델부에서 생성한 실행 명령을 상기 로봇으로 전송하는 송신부를 포함하는 것을 특징으로 하는 로봇 제어 시스템.
The method of claim 1, wherein the cognitive architecture,
A receiver for communicating with the robot through a wired or wireless network;
A cognitive model unit configured to generate an execution command for driving the robot through a cognitive inference process based on external environment information of the robot received through the receiver; And
And a transmitter configured to transmit an execution command generated by the cognitive model unit to the robot to operate the driving unit of the robot.
제2항에 있어서, 상기 인지 모델부는,
상기 수신부에서 수신한 로봇의 외부 환경 정보를 인식하는 인식부;
상기 로봇의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리;
상기 인식부에서 인식한 정보와 상기 장기 개념 메모리에 저장된 정보를 비교하여 로봇의 현재 상태를 추론하는 개념 추론부;
상기 개념 추론부에서 추론된 로봇의 현재 상태에 관한 정보를 일시적으로 저장하여 스킬 검색 및 선택부로 전달하는 단기 개념 메모리;
상기 로봇이 수행하고자 하는 목표가 일시 저장되는 단기 목표 메모리;
상기 로봇의 동작에 관한 정보가 미리 정의되어 저장된 장기 스킬 메모리;
상기 단기 목표 메모리에 저장된 목표를 달성하도록, 상기 개념 추론부에서 추론한 로봇의 현재 상태에서 상기 로봇이 실행가능한 스킬을 상기 장기 스킬 메모리로부터 검색 및 선택하는 스킬 검색 및 선택부; 및
상기 스킬 검색 및 선택부에서 선택된 스킬을 기반으로 상기 로봇을 구동시키는 실행 명령을 생성하는 실행 명령 생성부를 포함하는 것을 특징으로 하는 로봇 제어 시스템.
The method of claim 2, wherein the cognitive model unit,
Recognizing unit for recognizing the external environment information of the robot received by the receiving unit;
A long term concept memory in which information about a state of the robot is predefined and stored;
A concept inference unit that infers a current state of the robot by comparing the information recognized by the recognition unit with information stored in the long-term concept memory;
A short-term concept memory that temporarily stores information on the current state of the robot inferred by the concept inference unit and transfers the information to the skill search and selection unit;
A short-term target memory for temporarily storing a target to be performed by the robot;
A long term skill memory in which information about the operation of the robot is predefined;
A skill retrieval and selection unit for retrieving and selecting a skill executable by the robot in the current state of the robot inferred by the concept inference unit from the long-term skill memory to achieve a goal stored in the short-term target memory; And
And an execution command generation unit configured to generate an execution command for driving the robot based on the skill selected by the skill search and selection unit.
제3항에 있어서, 상기 인지 모델부는, 상기 스킬 검색 및 선택부가 상기 장기 스킬 메모리로부터 원하는 스킬을 검색하지 못한 경우, 상기 단기 목표 메모리에 저장된 단기목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 상기 장기 스킬 메모리에서 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 상기 장기 스킬 메모리에 저장시키는 스킬 학습부를 더 포함하는 것을 특징으로 하는 로봇 제어 시스템.The method of claim 3, wherein the cognitive model unit decomposes the short-term target stored in the short-term target memory into subgoals when the skill search and selection unit does not search for a desired skill from the long-term skill memory. And a skill learning unit which searches for the skills corresponding to the detailed targets in the long-term skill memory and stores the found skills in the long-term skill memory in association with the detailed targets and the final targets. 제1항에 있어서, 상기 센싱부는 위치 인식 센서, 음성 인식 센서, 레이저 센서 또는 카메라 센서 중 어느 하나 이상을 포함하는 것을 특징으로 하는 로봇 제어 시스템. The robot control system of claim 1, wherein the sensing unit comprises at least one of a position recognition sensor, a voice recognition sensor, a laser sensor, and a camera sensor. 제1항에 있어서, 상기 로봇은 복수 개로 구성되며,
상기 인지 아키텍쳐는 복수의 로봇을 각각 구동시키는 복수의 실행 명령을 생성하여, 상기 복수의 로봇을 각각 제어하는 것을 특징으로 하는 로봇 제어 시스템.
According to claim 1, wherein the robot is composed of a plurality,
The cognitive architecture generates a plurality of execution commands for driving the plurality of robots, respectively, and control the plurality of robots, characterized in that the robot.
로봇이 수행하고자 하는 목표에 대응하는 실행 명령을 생성하는 인지 아키텍쳐를 이용한 로봇 제어 방법으로서,
상기 로봇에서 감지한 외부 환경 정보가 상기 인지 아키텍쳐로 수신되는 단계;
상기 수신된 외부 환경 정보에 대응하여 상기 로봇을 구동시키는 실행 명령을 인지 추론 과정을 통해 생성하는 단계; 및
상기 인지 아키텍쳐에서 생성한 상기 실행 명령을 상기 로봇의 구동부로 전달하여, 상기 로봇을 제어하는 단계를 포함하는 것을 특징으로 하는 로봇 제어 방법.
A robot control method using a cognitive architecture for generating an execution command corresponding to a target that a robot wants to perform,
Receiving external environment information sensed by the robot as the cognitive architecture;
Generating an execution command for driving the robot in response to the received external environment information through a cognitive inference process; And
And transmitting the execution command generated by the cognitive architecture to a driving unit of the robot to control the robot.
제7항에 있어서, 상기 인지 추론 과정을 통해 실행 명령을 생성하는 단계는,
상기 로봇의 상태에 관한 정보가 미리 정의되어 저장된 장기 개념 메모리의 정보와 상기 외부 환경 정보를 비교하여, 상기 로봇의 현재 상태를 개념 추론부에서 추론하는 단계;
상기 로봇이 수행하고자 하는 목표를 달성하도록, 상기 개념 추론부에서 추론한 로봇의 현재 상태에서 상기 로봇이 실행가능한 스킬을 장기 스킬 메모리로부터 검색 및 선택하는 단계; 및
상기 선택된 스킬을 기반으로 상기 로봇을 구동시키는 실행 명령을 생성하는 단계를 포함하는 것을 특징으로 하는 로봇 제어 방법.
The method of claim 7, wherein the generating of the execution command through the cognitive inference process,
Inferring a current state of the robot from a concept inference unit by comparing information of a long-term concept memory with information about a state of the robot previously stored and external environment information;
Retrieving and selecting, from the long-term skill memory, a skill executable by the robot in the current state of the robot inferred by the concept inference unit to achieve the goal that the robot intends to perform; And
And generating an execution command for driving the robot based on the selected skill.
제8항에 있어서, 상기 인지 추론 과정을 통해 실행 명령을 생성하는 단계는,
상기 장기 스킬 메모리로부터 원하는 스킬을 검색하지 못한 경우, 로봇이 수행하고자 하는 목표를 세부 목표(subgoal)로 분해한 후, 각각의 세부 목표에 대응하는 스킬을 검색하고, 검색된 스킬들을 세부 목표 및 최종 목표와 연계하여 상기 장기 스킬 메모리에 저장하는 단계를 더 포함하는 것을 특징으로 하는 로봇 제어 방법.
The method of claim 8, wherein the generating of the execution command through the cognitive inference process comprises:
If the desired skill is not retrieved from the long-term skill memory, the robot disassembles the target to be performed into subgoals, searches for a skill corresponding to each subgoal, and searches the skills for the subgoal and final goal. And storing in the long-term skill memory in association with the robot control method.
KR1020110054827A 2011-06-08 2011-06-08 Robot control system and robot control method using a cognitive architecture KR101273300B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110054827A KR101273300B1 (en) 2011-06-08 2011-06-08 Robot control system and robot control method using a cognitive architecture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110054827A KR101273300B1 (en) 2011-06-08 2011-06-08 Robot control system and robot control method using a cognitive architecture

Publications (2)

Publication Number Publication Date
KR20120135935A true KR20120135935A (en) 2012-12-18
KR101273300B1 KR101273300B1 (en) 2013-06-11

Family

ID=47903495

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110054827A KR101273300B1 (en) 2011-06-08 2011-06-08 Robot control system and robot control method using a cognitive architecture

Country Status (1)

Country Link
KR (1) KR101273300B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019208950A1 (en) * 2018-04-25 2019-10-31 삼성전자주식회사 Mobile robot device and method for providing service to user

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101769513B1 (en) * 2015-11-17 2017-08-21 동국대학교 산학협력단 Robot system and control method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1304177C (en) 2001-10-22 2007-03-14 索尼公司 Robot apparatus and control method thereof
JP2007125629A (en) 2005-11-01 2007-05-24 Sony Corp Robot device and motion control method
KR101021694B1 (en) 2008-09-22 2011-03-15 재단법인대구경북과학기술원 Mobile terminal based mobile robot control system and mobile terminal based mobile robot control method
KR101058077B1 (en) * 2009-05-21 2011-08-24 한국과학기술연구원 Method and device for performing service of robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019208950A1 (en) * 2018-04-25 2019-10-31 삼성전자주식회사 Mobile robot device and method for providing service to user
US11931906B2 (en) 2018-04-25 2024-03-19 Samsung Electronics Co., Ltd. Mobile robot device and method for providing service to user

Also Published As

Publication number Publication date
KR101273300B1 (en) 2013-06-11

Similar Documents

Publication Publication Date Title
US10105843B2 (en) Robot device, remote control method of robot device, and program
US20180243920A1 (en) Industrial remote control robot system
US10514687B2 (en) Hybrid training with collaborative and conventional robots
EP3585569B1 (en) Systems, apparatus, and methods for robotic learning and execution of skills
US10967515B2 (en) Apparatus for remotely controlling robots and control method thereof
US20150019012A1 (en) Robot system and work facility
US11833682B2 (en) Robot, method, and manipulating system
US11440185B2 (en) Multi-operation unit integration device, control method therefor, and autonomous learning type robot device
US11458632B2 (en) Robot having reduced vibration generation in in arm portion
KR101273300B1 (en) Robot control system and robot control method using a cognitive architecture
WO2018113263A1 (en) Method, system and apparatus for controlling robot, and robot
US10232519B2 (en) Robot and method of controlling the same
US20210339392A1 (en) Robot control system and robot control method
JP7247552B2 (en) LEARNING DEVICE, ROBOT CONTROL DEVICE, AND ROBOT CONTROL SYSTEM
KR20220046540A (en) Method for learning robot task and robot system using the same
JP2005125457A (en) Mobile robot for work
US20230241770A1 (en) Control device, control method and storage medium
Levratti et al. Safe navigation and experimental evaluation of a novel tire workshop assistant robot
KR101696362B1 (en) Robot remote control apparatus for installing pipe and method thereof
Huang et al. A semi-autonomous tele-impedance method based on vision and voice interfaces
WO2022080006A1 (en) Robot system, control method for same, program, and system
KR20090065890A (en) Situation dependent behavior based robot control appartus and method
WO2022114042A1 (en) Information processing device, and picking device
KR20170114614A (en) Task performing robot and method based on human robot interaction
JP2020097072A (en) Control device and learning device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160601

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170601

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180409

Year of fee payment: 6