KR20030019125A - 로봇의 지능 보완 방법 및 시스템, 이에 의한 로봇을이용한 다이나믹 교육 방법 및 시스템 - Google Patents

로봇의 지능 보완 방법 및 시스템, 이에 의한 로봇을이용한 다이나믹 교육 방법 및 시스템 Download PDF

Info

Publication number
KR20030019125A
KR20030019125A KR1020020050726A KR20020050726A KR20030019125A KR 20030019125 A KR20030019125 A KR 20030019125A KR 1020020050726 A KR1020020050726 A KR 1020020050726A KR 20020050726 A KR20020050726 A KR 20020050726A KR 20030019125 A KR20030019125 A KR 20030019125A
Authority
KR
South Korea
Prior art keywords
robot
command
management server
educator
trainee
Prior art date
Application number
KR1020020050726A
Other languages
English (en)
Other versions
KR100486382B1 (ko
Inventor
신경철
박성주
김종현
김신
김성호
Original Assignee
주식회사유진로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사유진로보틱스 filed Critical 주식회사유진로보틱스
Publication of KR20030019125A publication Critical patent/KR20030019125A/ko
Application granted granted Critical
Publication of KR100486382B1 publication Critical patent/KR100486382B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Abstract

본 발명은 메모리 사이즈의 한계로 지능 및 능력 확장에 한계가 있는 로봇을 통신네트워크를 통해 처리능력 및 데이타저장능력이 무한하게 확장될 수 있는 서버에 접속하여, 서버를 통해 로봇의 행동제어를 가능하게 함으로서, 로봇의 지능을 보완하는 방법 및 시스템과, 이를 이용하여 구현가능한 교육방법 및 시스템에 관한 것이다.
즉, 본 발명은 로봇 자체에서 처리할 수 없는 명령에 대해, 관리서버를 검색하여, 관리서버 또는 관리자로부터 지시된 명령에 대한 행동정의를 지시받아 명령을 수행토록 함으로서, 더 많은 서비스 제공을 가능하게 하며, 또한, 이때, 다운로드되는 데이타를 교육컨텐츠로 하여, 로봇을 통해 사용자를 교육시킬 수 있도록 하는 것을 요지로 한다.

Description

로봇의 지능 보완 방법 및 시스템, 이에 의한 로봇을 이용한 다이나믹 교육 방법 및 시스템 {METHOD AND SYSTEM FOR DEVELOPING INTELLIGENCE OF ROBOT, METHOD AND SYSTEM FOR EDUCATING ROBOT THEREBY}
본 발명은 컴퓨터 네트워크를 이용한 로봇 지능 보완 방법 및 시스템에 관한 것으로서, 특히 컴퓨터 네트워크를 통해 원격지의 서버 시스템과 정보를 교환하여 높은 수준의 지능을 구비한 것과 같은 행동제어가 가능한 컴퓨터 네트워크를 이용한 로봇 지능 보완 방법 및 시스템에 관한 것이다.
로봇 기술은 1990년대에 들어와, 산업용 로봇에서 비산업용 로봇으로의 전환이 시도되면서 많은 발전이 이루어졌으나, 상용화되기에는 아직 많은 문제점이 있다.
특히, 서비스 로봇이 사용자가 원하는 서비스를 제공하기 위해서는, 로봇이 주어진 명령을 이해하고, 주변환경을 인식하여 스스로 판단할 수 있어야 하며, 이러한 기능을 갖기 위해서는 로봇은 인공지능을 갖고 있어야 한다.
인공지능(人工知能 Artificial Intelligence)이란 학습이나 의사결정과 같은 인간의 능력과 유사한 동작을 컴퓨터가 대행할 수 있도록 하는 기술을 말하는 것으로서, 1950년대 중반에 연구가 시작되었으며 현재는 게임, 수학적 증명, 컴퓨터비전, 음성 인식, 자연어 인식, 전문가 시스템, 로봇공학, 생산자동화 등의 분야에서널리 연구, 활용되고 있다.
그런데, 지금까지 인공지능 기술은 전문가 시스템과 같이, 모든 지식과 추론 형태를 미리 저장해 두고, 이를 기반으로 하여 상징적(symbolic)인 환경을 모델링하고, 상기 모델을 바탕으로 상황을 판단하고 결정하도록 구성되어 왔다.
그러나, 이러한 방법은 프로그래머가 사전에 일어날 수 있는 모든 경우에 대하여 예측하여 프로그래밍을 하여야 한다는 단점이 있으며, 그 결과 프로그래머가 예측하지 못한 상황에 대해서는 처리불가능하게 되는 문제점이 있다.
이에 인간의 능력과 더 유사하게 하고자 하는 시도로서, 생태학이나 뇌과학적인 측면에서 접근하는 방법이 연구되고 있으나, 아직은 동물의 지능에도 못미치는 미비한 형편으로, 수십년후에나 실용화가 가능할 것으로 예측되고 있다.
또한, 컴퓨터 기술의 발달로 컴퓨터를 탑재한 로봇이 늘어나면서, 로봇의 연산력과 기억력등은 매우 향상되었으나, 센서기술과 이러한 수집정보를 처리하는 기술은 아직 미약한 수준이다. 예를 들어, 카메라를 통한 인식은 특별한 경우를 제외하고는 제대로 수행되지 않으며, 음성인식 역시 자연어 인식 처리에는 아직 못 미치고 있으며, 추론이나 사고는 현재 고려조차 못하고 있는 실정이다.
이와 같은 상태에서, 사용자가 원하는 작업을 로봇에게 수행시키기 위해서는 로봇을 관리하는 사람이 옆에서 지켜보고 있거나, 일어날 수 있는 모든 상황을 감안하여 프로그램을 개발하는 등의 실현불가능한 방법밖에 없다.
따라서, 서비스용 로봇이 사용자가 원하는 행동을 수행할 정도의 지능을 갖도록 하기 위한 새로운 방법이 요구되고 있다.
본 발명은 상술한 종래의 문제점을 해결하기 위하여 제안된 것으로서, 예측되지 않은 상황이 발생된 경우 로봇이 컴퓨터네트워크를 통해 서버 또는 관리자로부터 지시를 받아 대처하도록 함으로서, 사용자측면에서 로봇이 인간과 유사한 지능을 가지고 있는 것처럼 느낄 수 있도록 하는 로봇의 지능 보완 방법 및 시스템을 제공하는 것이다.
본 발명의 다른 목적은 컴퓨터네트워크를 통해 관리자가 로봇의 음성 및 화상인식 데이타를 획득하여 로봇의 움직임제어가 가능하도록 함으로서, 미흡한 로봇의 지능을 보완하여 더 다양한 서비스 구현을 가능하게 한 로봇의 지능 보완 방법 및 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은 로봇에 교육프로그램을 저장시켜 로봇을 통해 교육이 이루어지게 하면서 예측되지 않은 상황이 발생된 경우 로봇이 컴퓨터네트워크를 통해 서버 또는 관리자로부터 지시를 받아 대처하도록 함으로서, 피교육자에게 보다 현실감있는 학습환경을 제공하는 로봇을 이용한 교육 방법 및 시스템을 제공하는 것이다.
본 발명의 다른 목적 및 장점들은 하기에 설명될 것이며, 본 발명의 실시에 의해 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 첨부된 특허청구범위에 나타낸 수단 및 조합에 의해 실현될 수 있다.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.
도 1은 본 발명에 의한 로봇의 지능 보완 시스템 구성을 보인 도면이다.
도 2a는 본 발명에 사용되는 로봇의 개략적인 구성을 보인 블럭도이다.
도 2b는 상기 로봇의 제어구조를 보인 블럭구성도이다.
도 3은 본 발명에 사용되는 로봇의 상세 구성에 대한 실시예를 보인 블럭도이다.
도 4는 본 발명에 따른 로봇의 지능 보완을 위한 명령 처리 과정을 보인 플로우차트이다.
도 5는 본 발명에 의한 로봇의 지능 보완 시스템에서 이용되는 확장명령의 구조도이다.
도 6은 스크립트를 이용하여 구성된 본 발명에 따른 로봇의 명령을 보인 예시도이다.
도 7은 본 발명에 의한 로봇의 지능 보완 시스템에 명령어로 사용되는 스크립트의 집합을 도시한 테이블이다.
도 8은 본 발명에 의한 로봇의 지능 보완 시스템을 통해 이루어지는 1:1 대화 수행과정을 보인 플로우챠트이다.
도 9는 본 발명에 의한 로봇의 지능 보완 시스템에서 이루어지는 음성 및 영상 신호 처리 과정을 보인 흐름도이다.
도 10은 본 발명에 의한 로봇의 지능 보완 시스템을 적용하여 구현된 다이나믹 교육 시스템의 구성도이다.
도 11는 본 발명에 의한 교육시스템에서 피교육자가 소지하는 위치추적장치의 개략적인 구성도이다.
도 12은 본 발명에 따른 학습관리서버의 기능적인 구성도이다.
도 13은 본 발명에 따른 바람직한 실시예의 피교육자 위치추정 과정을 나타내는 흐름도이다.
도 14는 본 발명에 따른 교육 컨텐츠 다운로드 및 교육자 단말과의 접속과정을 나타내는 흐름도이다.
도 15 및 도 16은 교육 로봇을 이용하여 피교육자를 상대로 다이나믹한 교육을 실행하는 과정을 나타내는 흐름도이다.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 로봇
200 : 인터넷
300 ; 관리서버
500 : 관리자 단말기
상기와 같은 목적을 달성하기 위한 본 발명의 일 양태로서의 로봇의 지능 보안 시스템은
여러가지 상황에 대한 로봇의 행동을 정의한 데이타를 저장관리하고, 새로운 상황이 발생시 로봇의 행동정의데이타를 새로 갱신하여 관리하는 관리서버;, 상기 관리서버에 무선인터넷을 통해 접속되며, 자유롭게 이동가능하고, 외부에서 또는 자체 판단에 의해 명령 생성시, 자체 행동정의데이타베이스 및 통신네트워크를 통해 접속된 관리서버의 행동 정의 데이타베이스를 검색하여 인식된 명령에 대한 적절한 행동 정의를 검색하여 수행하는 로봇; 상기 관리서버와 로봇간에 데이타통신을 가능하게 하는 통신네트워크로 이루어져, 로봇에서 새로운 명령 발생시 내부 프로그램된 행동정의가 없는 경우 로봇이 상기 관리서버에 접속하여 관리서버의 데이타를 검색하여 적절한 행동정의를 검색하고, 검색된 행동정의데이타를 수신받아 수행토록 하는 것을 특징으로 한다. 이러한 구성에 의하여, 로봇의 지능이 기프로그램된 것으로 한정되지 않고, 관리서버에서 제공하는 데이타만큼 확장가능하게 된다.
더하여, 상기 시스템에 있어서, 상기 로봇에 주어지는 명령은 로봇이 수행할 하나의 행동을 정의하는 기본명령과, 상기 기본명령을 바탕으로 이루어지는 것으로, 로봇이 수행할 하나의 행동에 대하여 로봇의 상태에 따라서 각각 정의되는 다수의 기본명령으로 이루어지는 확장명령으로 구성되며, 이러한 명령은 스크립트 언어 방식으로 구현될 수 있다. 이러한 명령체계는 사용자의 로봇 조작을 용이하게 할 수 있다.
더하여, 상기 시스템은 상기 관리서버에 연결되어, 상기 관리서버로부터 로봇으로부터 전달된 데이타를 출력하고 관리자가 입력한 데이타를 상기 관리서버를 통해 로봇으로 전달가능한 하나 이상의 관리자 단말기를 더 구비하고, 상기 로봇에서 요구하는 명령에 대한 행동정의데이타가 관리서버에 존재하는 않는 경우, 관리서버는 접속가능한 관리자 단말기를 검색하여 해당 관리자 단말기로 로봇의 상황을 전달하고, 관리자가 입력한 행동정의를 로봇으로 전달하도록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.
더하여, 상기 시스템은 상기 관리자가 지시한 로봇의 응답명령은 스크립트를 이용하여 로봇이 취해야할 행동 및 동영상이 객체화되고, 이벤트화되며, 하나의 명령과 관련된 객체들은 묶어 로봇으로 전달하고, 로봇은 모든 명령데이타가 수신된 후 행동을 수행토록 하는 것을 특징으로 한다. 그 결과, 로봇의 명령수행시 시간지연등에 의한 부자연스러움을 없앨 수 있다.
또한, 상기 시스템에서 상기 관리자 단말기는 관리서버에 저장된 명령 수행 및 행동 정의 데이타 목록을 제공하여, 관리자가 상기 관리자 단말기로 제공되는 관리서버의 정의 행동을 선택하거나, 상기 목록에 적절한 행동이 존재하지 않으면 직접 입력하도록 할 수 있다.
그리고, 상기 관리자가 관리자 단말기로 입력한 응답내용은 텍스트형태로 로봇에 전달되고, 상기 로봇은 수신된 텍스트형태의 내용을 TTS 기능을 통해 로봇의 음성으로 출력되도록 하여, 사용자 입장에서 항상 일정한 음성으로 대화가 가능하며, 그 결과 동일성을 유지할 수 있게 되는 효과가 있다.
본 발명에 의한 다른 양태로서, 로봇과 관리서버와 관리자 단말기를 통신네트워크로 연결하여 로봇의 지능을 보완하는 방법은 a) 로봇에서 사용자의 지시 또는 내부 상태변화에 따라 소정의 명령이 생성되는 단계; b) 로봇이 상기 단계에서 생성된 명령을 인식하고, 생성된 명령에 대한 행동정의가 존재하는지 자체 데이타를 검색하는 단계; c) 상기 검색결과 해당 명령에 대한 행동정의가 존재하면, 검색된 행동정의를 수행하고, 행동정의가 존재하지 않으면 무선네트워크를 통해 관리서버에 접속하여 상기 명령에 대한 행동정의의 검색을 요구하는 단계; d) 관리서버에서 로봇으로부터 전달된 명령에 대한 행동 정의가 데이타베이스에 존재하는지 검색하여, 존재하는 경우 해당 행동정의를 로봇으로 전송해주는 단계; 및 e) 로봇이 상기 관리서버로부터 전송된 데이타를 수신하여, 수신된 데이타의 행동정의에 따라 명령을 수행하는 단계;로 이루어지는 것을 특징으로 한다.
더하여, 상기 로봇의 지능 보완 방법은 f) 상기 d)단계에서, 관리서버내에 해당 명령에 대한 행동 정의가 존재하지 않는 경우, 상기 로봇의 요구를 관리자 단말기로 전달하는 단계; g) 관리자가 로봇으로부터 전달된 명령에 대해 로봇이 수행할 내용을 관리자 단말기로 입력하고, 관리자 단말기는 관리서버를 통해 관리자가 입력된 내용을 로봇으로 전달하는 단계; 를 더 포함하고, 로봇이 관리서버 또는 관리자 단말기로부터 제공된 지시된 행동을 수행토록 할 수 있다. 그 결과, 사용자는 로봇의 지능이 인간에 근접하는 것처럼 느낄 수 있다.
또 다른 본 발명의 양태로서, 로봇의 지능을 보완하는 방법은 사용자가 로봇에게 1:1 대화명령을 지시하는 단계; 로봇이 사용자가 지시한 1:1 대화명령을 인식하여 관리서버로 전달하는 단계; 관리서버가 상기 로봇으로부터 1:1 대화명령을 수신하면, 접속가능한 관리자를 검색하여, 해당 관리자의 단말기로 로봇의 1:1 대화요구를 전달하고, 상기 관리자 단말기와 로봇의 통신로를 연결시키는 단계; 및 로봇 서버는 관리자 단말기와 1:1로 연결되면, 사용자의 음성 및 영상을 수집하여 관리자 단말기로 보내고, 관리자는 관리자 단말기에서 사용자의 상태를 보고 그에 대한 응답내용을 로봇으로 지시하는 단계로 이루어져, 로봇에서 자연스러운 1:1 대화 서비스 제공을 가능하게 한다.
더하여, 상기의 로봇 지능 보완 방법은 관리서버가 관리자 단말기로 정의된 행동정의 목록을 제공하고, 관리자가 관리자 단말기를 통해 상기 목록을 검색하여, 적절한 대응명령이 있는 경우, 해당 명령을 선택하는 단계; 상기 관리자가 선택한 대응명령이 관리서버를 통해 로봇으로 전달되어 수행되는 단계; 상기 관리서버에서 제공하는 목록에 적절한 대응명령이 없는 경우, 관리자가 관리자 단말기를 통해 대응명령을 직접 입력하고, 입력된 명령이 로봇으로 전달되어 수행되는 단계를 더 포함할 수 있다.
본 발명의 또 다른 양태로서 로봇을 이용한 교육 방법은 자유롭게 이동가능하고, 컴퓨터 네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 지능형 로봇과, 이 로봇에 다양한 교육정보를 제공하는 컴퓨터를 통해 교육자가 특정 피교육자를 학습시키는 방법으로서, 상기 로봇이 상기 피교육자의 위치를 탐색하고, 상기 피교육자에 대해 교육이 가능한 거리로 접근하기 위하여 이동하는 단계와; 피교육자가 교육 가능범위내에 포함되면, 상기 컴퓨터에 로봇의 고유식별코드를 전송하고, 이 식별코드에 해당하는 교육 컨텐츠를 다운로드받는 단계와;상기 로봇과 특정 교육자를 컴퓨터 네트워크망을 통해 연결하는 단계를 포함한다.
또한, 상기 교육방법은 상기 교육 컨텐츠내에 교육자의 학습지도를 요구하는 정보가 포함되어 있는지 여부를 판별하는 단계를 더 포함한다. 따라서, 상기 학습관리 컴퓨터는 교육자의 학습지도가 필요한 경우에만 상기 로봇과 교육자를 네트워크로 연결한다.
본 발명의 교육방법은 상기 로봇이 상기 교육 컨텐츠에 액션 명령이 존재하는지 여부를 판별하는 단계와; 액션 명령이 존재하는 경우, 해당 액션 명령을 분석하고, 이 액션명령에 따라 로봇이 특정한 모션을 수행하는 단계를 더 포함할 수 있다.
또한, 상기 교육방법은 상기 피교육자가 특정한 질문과 같은 피교육자측 요구를 상기 로봇에 입력하는 단계와; 상기 로봇이 상기 피교육자측 요구를 상기 교육자에게 출력하는 단계와; 상기 교육자가 상기 피교육자측 요구에 상응하는 응답을 상기 로봇에 입력하는 단계와; 상기 로봇이 상기 응답을 상기 피교육자에게 출력하는 단계를 더 포함할 수 있다.
또한, 상기 교육방법은 상기 교육 컨텐츠에 기반한 교육스케쥴이 종료되면, 교육수행결과를 상기 컴퓨터에 전송하는 단계와; 상기 교육수행결과를 저장하고, 이 교육수행결과를 상기 교육자에게 출력하는 단계와; 상기 교육자가 상기 교육수행결과에 근거하여 평가를 내리고, 이 평가정보를 상기 컴퓨터에 입력하는 단계와; 상기 평가정보를 상기 피교육자에게 출력하는 단계를 더 포함한다.
상기 교육방법은 상기 컴퓨터가 상기 교육수행결과에 근거하여 자체적으로평가를 내리고, 이 평가정보를 상기 피교육자에게 출력하는 단계를 더 포함한다.
본 발명의 다른 일 양태로서의 교육시스템은 자유롭게 이동가능하고, 컴퓨터 네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 지능형 로봇과; 컴퓨터 네트워크를 통해 상기 지능형 로봇에 적절한 교육컨텐츠를 제공하기 위한 학습관리 컴퓨터를 포함하고; 이로인해, 상기 지능형 로봇은 상기 학습관리 컴퓨터로부터 제공되는 교육 컨텐츠를 음성, 화상 및 모션을 통해 피교육자에게 출력하고, 상기 피교육자는 상기 지능형 로봇을 통해 상기 학습관리 컴퓨터에 자신의 의사를 전달하는 것이 가능하다.
또한, 상기 교육시스템은 컴퓨터 네트워크를 통해 상기 지능형 로봇에 교육자의 음성 이나 모션을 전달하기 위한 교육자 정보단말을 더 포함한다. 이때, 상기 학습관리 컴퓨터는 상기 지능형 로봇과 상기 교육자 정보단말을 정보의 송, 수신이 가능하도록 상호 접속시키는 역할을 더 수행할 수 있다.
또한, 본 발명의 지능형 로봇은 피교육자가 부착하고 있는 RF모듈과 위치추적신호를 송, 수신하는 것에 의해 피교육자의 위치를 탐색하고, 위치가 탐색된 피교육자에 대해 일정한 거리로 접근하기 위한 위치추적시스템을 포함한다.
본 발명의 지능형 로봇은 피교육자의 화상을 촬상하고, 이 촬상신호를 디지털화하여 이 디지털 촬상신호를 상기 교육자 정보단말에 전달하기 위한 화상처리시스템을 포함한다. 따라서, 상기 교육자는 피교육자의 학습상태를 수시로 관찰하여 효율적인 학습관리를 수행하는 것이 가능해진다.
본 발명의 또 다른 일 양태로서의 교육방법은 자유롭게 이동가능하고, 컴퓨터 네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 지능형 로봇과, 이 로봇에 다양한 교육정보를 제공하는 컴퓨터를 통해 교육자가 특정 피교육자를 학습시키는 방법으로서, 상기 피교육자가 상기 로봇을 통해 상기 컴퓨터에 학습요구를 입력하는 단계와; 상기 학습요구에 따라 대응하는 교육 컨텐츠를 상기 로봇에 다운로드하는 단계와; 상기 로봇이 음성, 화상 및 모션을 통해 상기 교육 컨텐츠를 상기 피교육자에게 출력하는 단계를 포함한다.
상기 교육방법은 상기 학습요구에 따라 상기 로봇과 특정 교육자를 네트워크를 통해 접속시키는 단계와; 상기 피교육자가 질문을 포함하는 피교육자측 요구를 상기 로봇에 입력하는 단계와; 상기 피교육자측 요구를 대응하는 교육자에게 출력하는 단계와; 상기 피교육자측 요구에 기반한 교육자측 응답을 입력하는 단계와; 상기 로봇이 음성, 화상 및 모션을 통해 상기 교육자측 응답을 상기 피교육자에게 출력하는 단계를 더 포함할 수 있다.
또한, 상기 교육방법은 로봇이 상기 피교육자의 위치를 탐색하고, 상기 피교육자에 대해 교육이 가능한 거리내로 접근하기 위하여 이동하는 단계를 더 포함할 수 있다.
이하, 첨부된 도면들을 참조로 본 발명의 바람직한 실시예들을 상세히 설명하기로 한다.
먼저, 도 1은 본 발명의 바람직한 실시예에 따른 로봇의 지능 보완 시스템을 나타낸 시스템구성도이다.
도면에 도시된 바와 같이, 본 발명에 의한 로봇의 지능 보완 시스템은 무선데이타통신기능을 구비하고 프로그램상에서 처리할 수 없는 명령이나 상황 발생시 무선데이타통신기능을 통해 관리서버(300)에 접속하여 적절한 명령을 지시받아 수행하는 로봇(100)과, 상기 로봇(100)과 관리서버(300)간의 데이타 송수신 통로를 제공하는 통신네트워크(200)와, 다수의 상황에 대한 로봇(100)이 수행할 명령데이타를 저장하고 상기 로봇(100)으로부터 전송된 데이타를 입력받아 상기 로봇(100)의 상황을 인식하고 그에 따른 대응지시를 검색하거나 관리자단말기(400)로부터 제공받아 상기 로봇(100)에 제공하는 관리서버(300)와, 상기 관리서버(300)에 연결되어 있으며 관리서버(300)를 통해 로봇(100)의 정보를 전달받고 관리자가 그에 따른 지시를 내릴 수 있는 관리자 단말기(400)로 이루어진다.
상기 통신네트워크(20)의 로봇(100)측과 연결되는 터미널은 상기 로봇(100)의 무선데이타를 송수신하기 위한 무선모뎀이 설치되고, 다른 터미널은 관리서버(300)에 연결되어 이루어지며, 상기 관리서버(300)와 관리자 단말기(400)의 하드웨어 구성은 일반적인 인터넷 서버와 단말기의 구성과 같다.
상기에서, 로봇(100)은 도 2a에 도시된 바와 같이, 자유롭게 이동가능하도록 전원을 공급하기 위한 밧데리(110)와, 상기 밧데리(110)로부터 제공된 전원을 각 부품이나 보드에 적절한 전압 및 전류로 변환하여 공급하는 전원부(120)와, 상기 로봇(100)에 장착된 다수의 센서 및 감지수단으로부터 입력된 신호를 통해 로봇의 상태를 인식하여 로봇이 수행할 명령을 생성하거나 및 외부 입력된 명령을 인식하여 명령을 수행하도록 행동을 지시하는 상위제어부(130)와, 상기 상위제어부(130)로부터의 지시에 따라 각종 구동장치를 실시간으로 제어하는 하위제어부(140)와, 상기 하위제어부(140)의 제어신호를 바탕으로 각각 로봇의 구동부 바퀴, 팔, 머리의 움직임을 만들어내며, 움직임 및 상태를 감지하는 구동/센서부(150)로 이루어진다.
또한, 상기 로봇(100)의 제어처리구조는 도 2b에 도시한 바와 같이 구성된다. 먼저, 상기 로봇(100)의 상위제어부(130)는 네트윅 처리부(131)와, 명령생성부(132)와, 명령처리부(133)와, 제어통신부(134)로 이루어진다.
상기 네트윅처리부(131)는 인터넷(200) 상에 있는 관리서버(300)에 접속하여 상황을 보고하고, 그에 대한 적절한 행동명령을 서버(300)로부터 수신하는 기능을 수행한다.
그리고, 명령생성부(132)는 음성 또는 영상인식, 키보드 또는 버튼등으로부터 입력된 데이타를 이용하여 명령을 생성하는 곳으로, 명령 생성은 상기와 같은 외부 데이타 뿐만 아니라 로봇 내부의 상태 변환에 의해서 발생된다. 예를 들어, 밧데리 소모나 모터 고장 등과 같은 하드웨어 상태 변화나, 감정의 변화 같은 소프트웨어상의 상태 변화 등과 같은 내부 상태의 변화에 의해서도 명령이 생성된다.
상기와 같이 명령생성부(132)에서 특정한 명령이 생성되면, 이 명령은 명령처리부(133)로 전달되어, 로봇이 수행할 수 있는 명령인지를 판단하게 된다. 또한, 명령처리부(133)는 로봇이 처리할 수 있는 명령이 입력된 경우, 현재 수행되고 있는 명령들과 우선순위를 비교하여, 우선순위에 따라 명령을 실행시킨다.
상기 명령처리부(133)로부터 내려온 명령은 제어통신부(134) 및인터페이스(141)를 통해 하위제어부(140)의 콘트롤러(142)에 전달되고, 콘틀롤러(142)를 통해 행동제어가 이루어진다.
즉, 콘트롤러(142)에서 행동제어명령에 따라 해당 장치의 드라이버(143)로 동작제어신호를 전달하면, 각 드라이버(143)에서는 해당 장치(144)를 구동시키고, 이에 의해 나타나는 변화는 센서부(150)에서 검출되어 다시 상기 하위제어부(140)로 전달된다.
그리고, 상기 로봇(100)에서 이루어지는 동작을 좀더 이해하기 쉽도록, 로봇(100)의 일실시예를 도 3에 보인다.
이하에서, 도 3을 참조하여 상기 로봇(100)의 구체적인 구성을 설명한다.
상기 로봇(100)은 기본적으로, 화상처리부(380), 음성처리부(390), 제어부(310), 저장장치(320), 모션제어부(360), 모션기구(365), 키입력부(350), 통신유닛(340), RF모듈(330), 안테나(335), 센서부(370)를 포함한다.
상기 화상처리부(380)는 다시 CCD(charge coupled device)카메라로 이루어진 화상인식부(386)와, 액정표시패널(LCD)로 이루어진 화상표시부(385)로 구성된다.
즉, 상기 화상인식부(386)는 주변의 상황을 촬상하고, 얻어진 촬상신호를 화상처리부(380)에 송출한다. 화상처리부(380)는 화상인식부(386)로부터 주어진 촬상신호나 상기 통신유닛(340)으로부터 공급되는 화상정보에 기초하여 화상인식부(386)에 의해 촬상된 외부의 상황이나, 외부로부터 전화회선 등을 통해 전달되는 화상의 내용을 인식하고, 이 인식결과를 화상인식신호로서 상기 제어부(310)에 송출한다.
또, 상기 화상처리부(380)는 제어부(310)의 제어하에 화상인식부(386)로부터의 촬상신호에 대하여 소정의 신호처리를 수행하고, 얻어진 화상신호를 통신유닛(340)에 송출한다.
상기 음성처리부(390)는 다시 마이크(396)와 스피커(395)로 구성된다.
상기 마이크(396)는 사용자로부터 주어지는 소리 등의 외부음을 집음하여 얻어진 집음신호를 음성처리부(390)에 송출한다.
음성처리부(390)는 마이크(396)로부터 공급된 집음신호나 상기 통신유닛(340)으로부터 공급된 음성정보에 기초하여 마이크(396)를 통하여 집음한 단어 등이나 외부로부터 전화회선 등을 통하여 전달되는 단어의 의미를 인식하고, 이 인식결과를 음성인식신호로서 제어부(310) 및 통신유닛(340)에 송출한다. 또, 음성처리부(390)는 제어부(310)의 제어하에 합성음성을 생성하고, 이것을 음성신호로서 스피커(395)나 통신유닛(340)에 송출한다.
상기 통신유닛(340)은 상기 제어부(310)가 전화회선, 인터넷 전용회선 등을 통해 외부와 통신하기 위한 무선 모뎀 등으로 구성된다.
상기 키입력부(350)는 사용자가 입력한 코드번호에 기초하여 지령내용을 인식하고, 이 인식결과를 키입력신호로서 제어부(310)에 송출한다.
상기 모션제어부(360)는 상기 제어부(310)로부터 전달되는 모션제어신호를 해석하여 모션구동신호를 생성하고, 이 모션구동신호를 상기 모션기구(365)에 전달하는 것에 의해 상기 로봇(300)을 전, 후, 좌, 우로 이동시키거나 로봇의 팔과 다리를 일정한 방향으로 유동시킨다.
상기 RF모듈(330)은 로봇이 인식하는 사용자를 식별하기 위한 코드를 포함한 위치추적신호를 생성하여 이를 안테나(335)를 통해 외부로 송출하고, 안테나(335)를 통해 수신되는 외부 위치추적신호를 소정의 신호처리후에 제어부(310)로 송출한다.
상기 저장장치(320)는 하드디스크와 같은 보조기억장치의 일종으로서, 관리서버(300)로부터 전송되는 데이타를 사용자가 인식할 수 있는 형태로 전환하여 상기 화상표시부(385)를 통해 디스플레이하는 브라우저 프로그램과, 상기 관리서버(400)로부터 다운로드된 컨텐츠 및 이 컨텐츠에 포함된 프로그램과, 로봇을 스케쥴에 따라 제어하기 위한 로봇제어 프로그램과, 피교육자의 위치를 탐색하고, 추적하기 위한 위치추적프로그램 및 이들 프로그램을 실행하기 위한 플랫폼을 제공하는 운영체제 프로그램 등을 내장한다.
상기 센서부(370)는 다수의 센서로 이루어져 로봇의 상태 및 주변환경을 검출한다.
상기 제어부(310)는 음성처리부(390), 화상처리부(380), 통신유닛(340), 키입력부(350), RF모듈(330) 및 센서부(370) 로부터 각각 주어진 음성인식신호, 화상인식신호, 수신정보신호, 키입력신호, 센서신호 등에 기초하여 주변의 상황이나 사용자로부터의 동작 유무, 이상 유무, 사용자 또는 외부의 지령유무, 사용자의 학습상태 및 자기자신의 자세 및 위치 등을 판단한다.
그리고, 제어부(310)는 이 판단결과 상기 로봇 제어프로그램에 기초하여 다음에 이어지는 자기의 행동을 결정하고, 결정결과에 기초하여 필요한모션기구(365)를 구동시킴으로써 로봇의 머리나 팔, 다리를 상, 하, 좌, 우로 흔들거나, 다리를 구동하여 보행시키는 등의 행동이나 동작을 하게한다.
또, 제어부(310)는 필요에 따라 음성처리부(390), 화상처리부(380)를 제어함으로써 통신유닛(340)을 거쳐서 수신된 음성정보에 기초한 음성이나 음성처리부(390)에서 생성한 합성음성을 스피커(395)를 거쳐서 외부에 출력하거나 통신유닛(340)을 거쳐서 수신된 외부 화상정보에 기초한 화상이나 화상처리부(380)에서 생성한 화상을 화상표시부(385)에 표시하거나 외부로 송출할 위치추적신호를 상기 RF모듈(330)에 송출한다.
또한, 제어부(310)는 필요에 따라 통신유닛(340)을 제어함으로써 음성처리부(390)로부터의 음성신호에 기초한 음성정보나 화상처리부(380)로부터의 화상신호에 기초한 화상정보 및 외부조작 등에 따라 제어부(310) 자신이 생성한 명령정보를 학습관리서버(400)나 교육자 정보단말(500)에 송신한다.
상기 제어부는 CPU(central processing unit), ROM(read only memory), 및 RAM(random access memory)을 포함하는 구조를 갖는다.
상기와 같이 구성된 로봇(100)에서 키입력부(350) 또는 음성처리부(390)를 통해 명령이 입력되거나, 다수의 센서등을 통해 로봇 자체의 상태를 감지하여 로봇상태에 따른 소정의 명령이 생성된 경우, 로봇(100)은 자체 프로그램에 따라 상기 명령에 따라 수행할 행동정의가 존재하는 지를 검색한다. 이때, 로봇(100)내에서 지시된 명령에 대한 로봇의 행동이 정의되어 있으면, 해당 정의에 따라 상기 명령을 수행하고, 자체 데이타베이스에 해당 명령에 대한 행동이 정의되어 있지 않는 경우, 상기 관리서버(300)에 접속하여, 상기 관리서버(300)의 데이타베이스에서 상기 명령에 대한 행동이 정의되어 있는지를 검색한다. 상기 관리서버(300)에 해당 명령에 대한 행동이 정의되어 있으면, 해당 행동명령을 전송받아 수행한다.
또한, 상기와 같이 구성된 로봇으로 이루어진 도 1의 시스템은, 로봇의 사용자가 로봇(100)에 1:1 대화를 요구하면, 로봇(100)은 인터넷(200)을 통해 서버(300)에 접속하여 사용자의 1:1 대화요구를 전달한 후, 사용자의 음성 및 영상을 전송한다. 그리고, 상기 서버(300)는 1:1대화요구를 체크하여, 상기 로봇(100)과 임의의 관리자 단말기(400)를 연결시켜 주고, 이에, 로봇(100)으로부터 전송된 음성 및 영상은 해당 관리자 단말기(400)로 전달되고, 관리자는 상기 관리자 단말기(400)로 출력되는 로봇(100)으로부터 전달된 음성 및 영상을 보고 대화를 입력하거나 명령을 지시한다. 이러한 관리자의 지시 내용은 소정 방식으로 관리자 단말기(400)으로부터 로봇(100)으로 전송되고, 로봇(100)은 전송된 명령을 해석하여 지시된 음성이나 영상을 출력하거나, 지시된 명령을 실행한다.
상기 처리에 의해, 사용자는 로봇(100)과 자연스러운 1:1 대화를 할 수 있다.
이상의 지능 보완 시스템에 의한 명령처리과정은 첨부된 도면을 참조하여 이하에 상술한다.
도 4는 상술한 설명중 로봇의 명령 처리 과정을 보인 플로우챠트로서, 로봇(100)은 사용자의 음성을 주명령원으로 사용하지만, 다른 수단, 예를 들어 키보드나 버튼으로부터 입력된 데이타를 명령원으로 사용할 수 있고, 또한 로봇내부의 상태에 따라 스스로 명령을 생성해내는 등 다양한 방법으로 명령을 받을 수 있다.
어떠한 방식이든 간에 로봇(100)에 명령이 주어지면, 로봇(100)은 먼저, 내부 제어부에 장착된 데이터베이스를 검색하여 주어진 명령에 대한 지시가 있는 지를 검색한다(S402). 이때, 자체 데이터베이스에 해당 명령이 존재하면(S403), 검색된 데이타에 따라 명령을 수행한다(S404).
상기에서, 로봇 자체의 데이터베이스에 주어진 명령과 관련된 데이타가 존재하지 않는다면, 로봇(100)은 네트웍처리부(131)가 구동하여 서버(300)에 접속하고(S405), 상기 서버(300)의 데이타베이스내에서 해당 명령이 있는 지를 검색한다(S406).
상기 서버(300)의 데이터베이스에 해당 명령에 대한 지시가 있다면(407), 상기 서버(300)로부터 명령을 수신받아(408), 해당 명령을 수행한다(404).
반대로, 서버(300)의 데이터베이스에도 관련된 명령이 존재하지 않는다면, 명령을 수행할 수 없음을 알리는 메시지를 출력한다(409).
상기에 의하여, 로봇(100)은 자체 데이터베이스에서 보유하고 있는 명령보다 더 많은 명령의 처리가 가능해진다.
상기에서, 로봇(100)에 주어지는 명령은 스크립트 언어 방식으로 구현한다.
스크립트 언어로 로봇의 명령을 구성하는 경우, 여러가지 환경에 대한 로봇의 행동을 쉽게 구현할 수 있으며, 확장이 용이하다.
상기 로봇(100)의 명령은 기본명령과, 상기 기본명령을 바탕으로 이루어지는 확장명령으로 구성된다. 상기 기본명령은 로봇(100)의 제어부를 위해 주어지면, 하나의 기본명령이 로봇(100)이 수행할 하나의 행동이 된다.
그리고, 확장명령은 로봇(100)의 여러가지 상태에 따라서 다르게 반응하여야 할 경우를 위해서 존재한다.
예를 들어, 기본명령으로 이동명령이 내려진 경우, 밧데리가 거의 다 소비된 경우와, 전원 공급이 충분히 된 경우 각각 다르게 움직일 필요가 있다. 이와 같은 상황을 위해서, 내부 하나의 확장명령이 갖는 기본명령들은 내부 상태에 따라 동일하다면, 하나의 기본 명령을 갖고, 내부 상태에 따라 틀리다면, 상태 개수만큼의 확장명령을 갖는다. 이러한 구조를 채택함으로서, 사용자가 로봇(100)의 명령체계를 더 쉽게 이해할 수 있으며, 그 결과 사용자의 로봇 조작이 용이해진다.
도 5는 상기 확장명령의 구조를 도시한 도면으로서, 확장명령ID와, 사용자의 음성명령을 인식하기 위한 음성인식용 키워드, 그리고, 명령처리의 우선순위, 이어서 로봇(100)의 내부 상태수만큼의 기본명령들과, 마지막으로 확장명령정보로 이루어진다.
도 6은 본 발명에 따라 스크립트를 이용하여 구성된 명령의 한 예를 보인 것이다.
서비스용 로봇은 단순히 움직이는 것이 아니라, 사용자가 원하는 서비스를 제공하여야 한다. 따라서, 사용자가 원하는 하나의 서비스를 제공하기 위해서는 이러한 명령들이 모여서 새로운 단위를 이루어야 한다. 즉, 사용자의 명령과 환경에따라서 확장명령이 모여져 있는 명령 단위가 필요하다. 상기 도 6은 스크립트 언어를 이용하여 이와 같은 명령을 구현한 예를 보인 것으로서, 하나의 확장 명령에 대응하는 하나의 스트립트 함수가 존재하며, 이들 스크립트 함수를 이용하여, 로봇의 행동을 정의할 수 있다.
그러나, 기본 명령에 대한 스크립트도 존재하며, 전문가등이 보다 세부적인 로봇의 움직임을 정의하기 위해서 기본명령을 사용할 수 도 있다. 로봇의 움직임을 제어하기 위한 스크립트 이외에도 보다 손쉽게 로봇의 행동을 프로그래밍하기 위한 if, switch, repeat 등과 같은 논리적인 스크립트도 존재한다.
이렇게 구현된 스크립트의 종류는 도 7과 같다. 이와 같이, 하나의 일련된 행동을 조합하여 이루어지는 로봇의 행동은 상기 도 7과 같은 스크립트를 이용하여 용이하게 프로그래밍할 수 있다.
도 6은 상기와 같은 스크립트로 구현된 명령의 일례를 보인 것으로서, 사용자와 간단한 대화를 하는 명령을 보여주는 것이다. 이 명령의 이름은 Hello로 정의되며 함수로 저장되게 된다. Hello 함수는 실행이 되면서 Move 함수를 호출하게 된다. 여기서, Move 함수는 사용자에게 이동하는 것으로 정의되어 있다고 가정하자. Hello 명령이 실행되면, 로봇은 먼저 Move 함수 호출을 통해서 사용자에게 이동해가고, TTS 스크립트를 통해서 사용자에게 "안녕하세요"라는 말을 내보낸다. 그 다음, REPLY 스크립트를 통해서 사용자로부터 "응"이나 "아니"라는 음성을 받게 되며, 이 결과는 a라는 임시 변수에, "응"이 응답될 경우 "1"로 저장되고, "아니"라는 응답을 받는 경우 2로 저장된다. 상기 a라는 임시변수의 값에 따라서, switch스크립트는 결과가 1인 경우, 즉 "응"으로 대답한 경우, TTS 스크립트를 통해서 사용자에게 "무엇을 도와드릴까요?"라는 메시지를 내보내게 되고, 2인 경우 즉 "아니"로 대답한 경우, MoveHome 스크립트를 호출하게 된다. 여기서 MoveHome이 로봇이 원위치로 돌아가는 함수로 정의되어 있다고 가정하면, 사용자가 "아니"라고 대답한 경우 로봇은 원래 있던 위치로 돌아가게 되는 것이다.
그리고, 사용자가 음성을 이용하여 로봇(100)에게 명령을 내린 경우의 로봇의 처리는 앞서 설명한 도 4의 명령처리과정과 유사하게 이루어진다.
먼저, 로봇(100)의 상위제어부(130)에서 사용자가 명령한 음성명령을 인식하여, 명령처리부(133)로 인식된 결과를 보낸다. 상기 명령처리부(133)는 앞서와 같이 음성명령을 자체 데이타베이스내에서 검색한다. 이때, 내부 데이타베이스에서 적절한 명령을 찾게 되면, 해당 명령을 수행하고, 그렇지 못할 경우에는 네트웍처리부(131)를 통해 서버(300)에서 그와 같은 명령에 대한 스크립트 명령이 있는 지를 검색한다. 상기 결과, 서버(300)에 주어진 명령에 대한 로봇의 행동이 정의되어 있는 경우, 로봇(100)은 서버(300)로부터 상기 정의된 로봇의 행동을 다운로드 받고, 다운로드받은 스크립트를 이용하여 행동을 제어한다.
따라서, 사용자는 로봇이 미리 프로그램되어 있지 않은 상황에 대해서도, 스스로 판단하여 움직이는 것처럼 느끼게 된다.
또한, 상기 로봇(100)은 정기적으로 서버(300)에 접속하여, 새로운 행동정의 스크립트를 자체 데이타베이스에 다운로드받는다. 이렇게 함으로서, 상기 로봇(100)의 능력에 대한 확장 및 변경이 가능해진다.
상술한 바와 같이, 상기 시스템은 로봇(100)의 자체 데이타 베이스에 주어진 명령에 대한 로봇의 행동이 정의되어 있지 않은 경우, 더 많은 데이타를 저장한 서버(300)에 접속하여, 서버(300)로부터 행동지시를 받는다.
그런데, 상기 서버(300)의 데이타베이스에 주어진 명령에 대한 로봇의 행동이 정의되어 있지 않은 경우, 로봇(100)에서 명령수행이 불가함을 알리는 에러메시지를 출력할 수 도 있지만, 이 경우, 사용자는 로봇(100)으로부터 원하는 서비스를 제공받지 못하게 된다.
이를 해결하는 방법으로, 상기 서버(300)는 로봇(100)측에서 요구하는 명령에 대한 행동데이타가 존재하지 않는 경우, 상기 로봇(100)으로 에러 메시지를 전송하는 대신, 상기 로봇(100)으로부터 전송된 명령을 관리자 단말기(400)로 보내어, 답을 요구할 수 있다.
관리자 단말기(400)에는 한명 이상의 관리자가 배치되어 있어, 서버(300)로부터의 요구를 확인한 후, 로봇(100)으로부터 전달된 명령에 대한 적절한 해답(행동 또는 메시지출력등과 같은 로봇(100)의 대처방안)을 관리자 클라언트(400)를 통해 서버(300)에 제공한다.
서버(300)는 관리자 단말기(400)로부터 제시된 행동정의를 로봇(100)으로 전달하고, 상기 로봇(100)은 관리자의 지시를 바탕으로 주어진 명령을 수행한다.
이에 의하여, 로봇(100)은 보다 다양한 명령수행이 가능하게 되며, 사용자 입장에서는 로봇(100)의 수행능력이 더 높게 평가된다.
더하여, 상기 시스템은 사용자에게 1:1 대화 서비스를 제공할 수 있다.
도 8은 상기 시스템을 통해 사용자에게 1:1 대화 서비스를 제공하는 과정을 보인 플로우챠트로서, 앞서와 마찬가지로, 사용자로부터 로봇(100)에게 1:1 대화명령이 음성 또는 키입력등으로 주어지면(S801), 로봇(100)의 명령인식장치에서 명령을 인식하고(S802), 인식된 1:1 대화명령을 명령처리부(133)로 전달한다(S803).
상기 명령처리부(133)는 1:1대화명령인 경우, 네트윅처리부(131)를 통해 로봇서버(300)에 접속하여, 이와 같은 1:1대화명령을 서버(300)에 전달한다(S804).
이 경우, 서버(300)는 1:1대화명령이 요구된 경우, 로봇(100)과 접속이 가능한 관리자를 찾아 로봇(100)의 1:1대화요구를 전달하여, 접속이 가능한 관리자의 단말기(400)를 로봇(100)과 연결시킨다(S805). 예를 들어, 다수의 관리자 단말기(400)에 로봇(100)의 1:1 대화명령요구를 전달하고, 상기 요구를 접수한 다수의 관리자 단말기(400)중 응답이 온 관리자단말기(400)를 상기 로봇(100)과 연결시킬 수 있다.
그런데, 상기에서 로봇(100)과 접속가능한 관리자가 없는 경우, 로봇(100)으로 에러메시지를 전송하고, 이에 로봇(100)은 명령수행불가 메시지를 출력하고 1:1대화를 종료하게 된다(S806, S807).
반대로, 상기와 같은 처리에 의해, 접속가능한 관리자가 존재할 경우, 로봇(100)과 해당 관리자 클라언트(400)를 접속시킨다(S808).
감독자와 접속된 로봇(100)에서 사용자의 음성과 영상을 실시간으로 효과적으로 보내기 위해서는 음성 및 영상에 대해 압축이 이루어져야 한다. 이를 위해, 영상과 음성을 위한 코덱을 로드해서 실행한다. 이 과정이 끝나면 사용자의 음성을분석하여, 명령 실행이나 1:1 대화의 종료 또는 자동화된 반복적인 대화처리등을 위해서 구문 분석기가 실행되게 된다. 상기 구문분석기에서 종료 명령이 호출되면 1:1 대화를 종료하게 된다.
상기에 의해, 로봇(100)은 임의의 관리자 단말기(400)와 접속이 완료되면, 장착된 카메라와 마이크를 통해 사용자의 모습과 음성을 획득하여 관리자 클라이언트(400)로 전달하고, 관리자는 전달된 사용자의 상태를 확인하여, 응답내용을 입력한다. 이러한 관리자의 응답은 관리자클라이언트(400) 및 관리서버(300)를 통해 로봇(100)으로 전달되어, 로봇(100)을 통해 음성 또는 모션으로 구현된다(S809~S813).
상기에서, 로봇(100)은 사용자의 영상과 음성을 전달함으로서, 관리자는 사용자의 상황을 정확하게 이해할 수 있으므로, 이에 대한 정확한 반응을 지시할 수 있다. 즉, 상기에서 관리자는 관리자단말기(400)를 통해 화상채팅과 같은 방법으로 사용자의 영상과 음성을 제공받고, 그에 따른 로봇(100)의 액션이나 로봇(100)이 해야할 말을 만들어주게 된다.
그런데, 상기에서 시간지연이 발생할 경우, 사용자와 로봇(100)간에 자연스러운 대화형식이 이루어지지 않을 수 있다. 그리고, 예를 들어, 실제 로봇(100)과 관리자 단말기(400)의 통신은 이더넷을 통해 TCP/IP 방식으로 직렬통신하게 된다. 따라서, HTML과 같은 데이터가 관리자단말기(400)으로부터 도착하면서 그것을 화면에 표시하거나 행동을 시작하게 되면, 로봇(100)의 제어가 불안정하게 되거나, 사용자가 무슨 의미인지 알수 없게 된다. 또한, 1:1대화의 경우, 로봇(100)은 행동을하면서 동시에 말을 하거나, 표정을 지어야 한다. 또한, 화면으로 동영상이나 애니메이션을 보여주면서 행동을 취해야 할 경우도 있다.
따라서, 일반적이 인터넷 통신처럼, HTML과 같이 단순한 직렬 프로토콜을 사용하게 되면, 동기가 맞지 않을 수 도 있고, 원하는 행동을 할 수 없게 된다.
본 발명에서는 이를 위해서, 앞서 설명한 바와 같이, 스크립트를 이용하여, 로봇이 취해야할 행동이나 동영상등이 객체화되고, 이벤트화된 프로토콜을 사용한다. 즉, 로봇이 취해야 할 행동이나 음성, 표정, 동영상, 애니메이션 등은 각각의 스크립트를 통해서 하나의 객체로 취급되며, 동시에 실행되어야 되는 객체들은 JOIN이라는 스크립트를 통해서, 하나의 커다란 스크립트로 인식된다.
따라서, 동시에 실행되야 하는 객체의 데이터길이가 다르더라도, 모든 객체가 로봇(100)으로 전달되어지고 난 후에야 같이 실행되게 된다.
또한, 상기와 같이 통신네트워크를 통해 로봇(100)을 직접 제어하게 되면, 통신 지연시간에 의해 로봇(100)이 오작동하거나 불안정해질 수 있다. 그러나, 상기와 같이, 스크립트 방식을 이용하여 로봇(100)에 주어진 명령을 전달하는 경우, 로봇(100)은 통신지연과는 무관하게 로봇(100)에서 자연스런 모션이나 움직임이 기능해 진다.
이러한 방법에 의해 관리자가 로봇(100)을 제어하게 되면, 사용자는 로봇(100)과 대화하면서, 사람과 대화하는 것과 같은 자연스러움을 느낄 수 있게된다.
또한, 1:1대화에 있어서, 로봇(100)이 사용자에게 말해야할 내용은 관리자로부터 지시되는데, 관리자는 관리자단말기(400)를 통해 확인한 음성 및 영상정보를 바탕으로 로봇이 해야 할 말을 결정하고, 그 결정사항이 서버(300)에 저장된 유형의 데이타로 충분한 경우, 단순히 서버(300)에서 관리자단말기(400)에 제공하는 명령데이타를 선택만 하면 된다. 이때, 서버(300)로부터 저장되어 저장된 음성을 내보낼 수 있다. 상기 관리자가 선택한 내용은 텍스트 형태로 로봇에게 전달되게 되고, 로봇의 TTS 기능을 통해, 로봇이 가지고 있는 로봇 음성으로 사용자에게 전달된다.
따라서, 서로 다른 관리자들이 접속되더라도, 사용자는 항상 로봇(100) 고유의 음성을 듣게 된다.
상기에서, 답변내용이 서버(300)에 저장되어 있지 않은 유형이라면, 관리자는 관리자단말기(400)로 직접 답변을 입력하고, 이는 텍스트형태로 로봇(100)에 전달된어, 상기와 마찬가지로 로봇(100)의 음성으로 출력된다.
이러한 지능 보안 시스템은 관리, 교육등 다양한 분야에서 이용될 수 있다.
예를 들어, 로봇(100)을 교육용으로 프로그래밍하고, 상기 서버(300)에서 다양한 명령에 대한 행동 정의데이타 뿐만아니라, 다양한 교육자료를 관리하도록 하여, 로봇(100)은 교육시마다 해당 교육자료를 서버(300)로부터 제공받아 사용자를 교육시키도록 할 수 있으며, 또 다른 실시예로서 상술한 1:1 대화서비스를 이용하여 노인들을 위한 대화상대 및 노인 관리 서비스도 제공가능하게 된다.
이하, 본 발명의 변형예로서, 상술한 지능 보안 시스템을 이용하여 구축한 교육 서비스 제공 시스템에 대하여 상세하게 설명한다.
도 10은 본 발명의 바람직한 실시예에 따른 로봇을 이용한 다이나믹 교육 서비스를 실현하기 위한 시스템구성도이다.
도면에 도시된 바와 같이, 상기 시스템은 교육 로봇(100a)과, 교육자 단말(400a)과, 학습관리 서버(300a)가 인터넷과 같은 네트워크망(200)을 통해 서로 접속되어 구성된다. 또한, 피교육자(600)는 RF모듈(610)을 통해 자신의 위치를 상기 교육로봇(100a)에 알린다.
특히, 상기 학습관리 서버(300a)는 인터넷과 같은 컴퓨터 네트워크(200)를 통해 특정 피교육자(600)와 교육자(500)를 커뮤니케이션이 가능하도록 연결하고, 피교육자(600)에게 소정의 교육 컨텐츠를 제공하는 컴퓨터 시스템이다. 상기 학습관리 서버(300a)의 구체적 기능에 대해서는 도 12를 참조하여 상세하게 후술한다.
상기 교육 로봇(100a)은 상기 학습관리 서버(300a)로부터 교육 컨텐츠를 다운로드 받고, 이 교육 컨텐츠를 기반으로, 음성, 화상 및 모션을 상기 피교육자(600)에게 출력하며, 상기 교육자(500)와 피교육자(600) 사이의 커뮤니케이션을 인터페이싱하는 것으로. 내부 상세 구성은 도 3으로 참조가능하다.
상기 교육자 단말기(400a)는 서버(300a) 및 네트워크(200)를 통해 상기 교육 로봇(100a)과 접속되는 개인용 컴퓨터로서, 로봇기능에 더하여, 데이터를 송,수신하기 위한 통신모듈과 운영체제 프로그램 및 웹브라우저 프로그램을 구비하고 있다. 따라서, 상기 교육자 단말기(400a)는 상기 교육 로봇(100a)으로부터 전송되는 음성, 화상정보를 교육자(500)에게 출력하고, 교육자(500)로부터 입력되는 정보를 네트워크를 통해 상기 학습관리 서버(300a) 또는 교육로봇(100a)에 전송한다.
상기 네트워크(200)는 대표적으로 인터넷을 지칭하지만, 반드시 이에 한정되지 않고, 인트라넷, 엑스트라넷, 전용선망을 모두 포함하는 것으로 이해되어야 한다.
그리고, 상기 교육로봇(100a)은 상기 관리 서버(300a)로부터 교육 컨텐츠를 다운로드 받고, 이 컨텐츠를 해석한 후 음성, 화상 및 모션을 통해 피교육자를 학습시키고, 피교육자의 음성이나 화상을 통신유닛(340)을 통해 상기 교육자 정보단말(400a)에 전달하며, 교육자 정보단말(400a)로부터 전송되는 교육자(500)의 응답정보를 음성, 화상 및 모션으로 전환하여 피교육자(600)에게 전달한다.
또한, 상기 교육로봇(100a)은 로봇 제어프로그램에 의해 셋팅된 스케쥴에 따라 상기 위치추적프로그램을 구동하고, RF모듈(330)을 통해 위치추적신호를 외부로 송출한다. 또한, 외부로부터 수신되는 대응 위치추적신호를 분석하여 피교육자(600)의 위치를 탐색하는 것에 의해 피교육자를 교육이 가능한 거리내로 이동한다.
이하에서는 도 11을 참조하여 피교육자(600)가 소지하는 위치추적용 RF모듈(radio frequency module)(610)에 대하여 설명한다.
도 11에 도시된 RF모듈(610)은 피교육자(600)의 위치를 상기 교육로봇(100a)에 알리기 위한 장치로서, 목걸이나 팔찌 등의 형태로 제작되어 피교육자(600)가 소지가능하게 된다.
그리고, 도11에서, 상기 RF모듈(610)의 RF수신모듈(613)은 교육로봇(100a)의 RF모듈(330)로부터 외부로 송출된 위치추적신호를 수신하여 이를신호처리모듈(611)에 전달한다. 상기 신호처리모듈(611)은 상기 수신 위치추적신호를 분석하여 피교육자 식별코드를 추출하고, 추출된 식별코드가 해당 피교육자를 가리키는 경우 응답 위치추적신호를 생성하여 이를 RF송신모듈(612)에 송출한다.
상기 RF송신모듈(612)은 이 응답 위치추적신호를 미도시된 안테나를 통해 외부로 방출한다.
다음으로, 도 12에는 학습관리 서버(300a)의 기능적인 구성이 도시되어 있다.
이 학습관리 서버(300a)는 상기 교육로봇(100a)과 통신하여 교육로봇(100a)에서 요구하는 소정 명령에 대한 행동정의를 자체 데이타베이스에서 검색하거나, 교육자 단말기(500a)로부터 입력받아 교육로봇(100a)에 제공한다. 더하여, 사용자가 요구하는 교육컨텐츠를 제공하고, 특정 교육로봇(100a)을 임의의 교육자 단말기(400a)와 네트워크적으로 연결하며, 교육로봇(100a)으로부터 제공되는 학습결과정보에 기초하여 학습에 대한 평가를 내리고, 이 학습평가에 근거하여 결과리포트를 작성하여 피교육자에게 전달하는 컴퓨터 시스템이다.
이 학습관리 서버(300a)는 중앙처리장치, 램(RAM), 롬(ROM), 네트워크 인터페이스, 데이터 기억장치 등을 포함하는 대용량 컴퓨터 시스템이다. 상당한 양의 메모리와 처리능력을 갖춘 전통적인 개인 컴퓨터나 워크스테이션이 학습관리 서버(300a)로 사용될 수 있다.
상기 학습관리 서버(300a)는 정보처리나 데이터베이스 탐색에 있어 엄청난 양의 수학적 계산을 실행함으로써 대량의 업무처리를 할 수 있다.
도 12는 상기 학습관리 서버(300a)의 롬에 로드되어 있는 프로그램 모듈들과, 데이터 기억장치를 구성하는 다수의 데이터베이스를 도시한 것이다.
이하에서, 상세히 설명하면 다음과 같다.
상기 학습관리 서버(300a)는 데이터베이스 관리모듈(410)과, 교육 컨텐츠 제공모듈(420)과, 교육자 연결모듈(430)과, 학습평가모듈(440)과, 결과리포트 생성 및 전송모듈(450)을 포함하는 프로그램 모듈과, 교육 컨텐츠 DB(460), 교육자 정보 DB(470), 로봇정보 DB(480)를 포함하는 데이터베이스 시스템으로 구성된다.
상기 데이터베이스 관리모듈(410)은 상기 교육 컨텐츠 DB(460), 교육자 정보 DB(470), 로봇정보 DB(480)를 구축하고, 구축된 데이터베이스에 변경사항이 발생하면 이 변경사항을 반영하여 데이터베이스를 수정하는 등 데이터베이스를 전체적으로 관리하기 위한 프로그램이다.
상기 교육컨텐츠 제공모듈(420)은 교육로봇(300)으로부터 교유식별코드를 포함하는 학습요구가 입력되면, 상기 고유식별코드에 근거하여 피교육자를 식별하고, 해당하는 피교육자의 진도상태를 판별하여 해당 교육로봇에 제공할 교육 컨텐츠를 확정하며, 확정된 교육 컨텐츠를 네트워크를 통해 상기 교육로봇(300)에 다운로드시키기 위한 프로그램이다.
상기 교육자 연결모듈(430)은 상기 교육 컨텐츠내에 교육자 연결 명령이 존재하거나 또는 상기 로봇(100a)로부터 연결요청이 있을 경우 상기 교육자 정보 데이터베이스(470)를 검색하여 적절한 교육자를 선정한 후, 선정된 교육자의 정보단말(500)과 상기 피교육자의 교육로봇(300)을 네트워크적으로 연결하기 위한 프로그램이다.
상기 학습평가모듈(440)은 상기 교육 컨텐츠에 따른 학습이 종료된 후, 상기 교육로봇(100a)으로부터 교육 수행결과정보를 전송받아 이 수행결과정보를 로봇정보 데이터베이스(480)에 저장하거나 해당하는 교육자 단말기(400a)에 전송한다. 또한, 상기 수행결과정보에 근거하여 자체적인 평가를 실행하고, 이 평가정보를 로봇정보 데이터베이스(480)에 저장하기 위한 프로그램이다.
도 12의 경우 이 학습평가모듈(440)이 학습관리 서버(300a)측에 있는 것으로 기술되고 있으나, 상기 학습평가모듈(440)은 상기 교육 컨텐츠내에 포함되어 상기 교육로봇(100a)내에 저장될 수도 있다. 이 경우, 앞서와는 반대로 자체적인 평가결과가 로봇(100a)에서 상기 학습관리 서버(300a)로 업로드되어야 할 것이다.
또한, 상기 결과리포트 생성 및 전송모듈(450)은 상기 자체 평가결과와 상기 교육자로부터 전달되는 평가결과를 합산하여 해당 피교육자를 위한 결과 리포트를 생성하고, 이 리포트를 미리 설정되어 있는 피교육자의 이메일이나 핸드폰으로 전송하기 위한 프로그램이다.
상기 교육 컨텐츠 데이터베이스(460)는 상기 교육로봇(300)에 다운로드될 다양한 교육 컨텐츠를 저장, 관리하기 위한 것이다. 즉, 개별 피교육자의 교육 스케쥴 정보(또는, 교육 진도정보)와 이 스케쥴에 따른 교육 컨텐츠 정보가 개별 피교육자별로 저장되어 있다.
상기 교육자 정보 데이터베이스(470)는 현재 학습관리 서버(300a)와 연결되어 있는 다수 클라이언(400) 및 교육자 리스트와, 각 교육자들의 신상정보(주민번호, 주소, 교육경력, 전공 등) 및 이 교육자들의 스케쥴 정보를 저장, 관리한다. 상기 스케쥴 정보를 파악하는 것에 의해 학습관리 서버는 현재 교육로봇과 연결이 가능한 교육자가 누구인지를 판별할 수 있다.
상기 로봇정보 데이터베이스(480)는 로봇 고유식별코드, 대상 피교육자의 신상정보(주민번호, 학력, 주소, 이름 등), 매 교육별 학습평가결과, 결과리포트, 학습레벨, 학업진도 등의 정보를 저장, 관리한다.
이하에서는, 상기와 같은 시스템을 통해 구현되는 본 발명에 따른 다이나믹한 교육방법의 구체적인 프로세스를 도 13 내지 도 16을 참조하여 설명한다.
먼저, 도 13은 교육로봇이 피교육자를 교육이 가능한 거리내로 추적하는 과정을 설명하고 있다.
로봇의 제어부(310)는 저장장치(320)내에 내장된 로봇 제어프로그램을 로드하여 로봇을 초기화한 후(S1301), 로봇 스케쥴 정보내에 이동명령(즉, 학습타임에 도달되었는지 여부 확인)이 존재하는지 여부를 판별한다(S1303).
이때, 로봇 스케쥴 정보내에 이동명령이 존재하면, 제어부(310)는 위치추적프로그램내의 위치추정 모듈을 초기화한다(S1305).
상기 위치추정 모듈은 외부로 송출할 위치추적신호를 예를 들어, PSK 변조방법을 이용하여 생성하고, 이를 RF모듈(330)과 안테나(335)를 통해 외부로 송출한다(S1307).
상기 위치추적신호에는 피교육자를 식별하기 위한 고유의 식별코드가 포함된다.
상기 위치추적신호가 외부로 송출되어, 피교육자(600)의 몸에 부착되어 있는 RF모듈(610)의 RF수신모듈(613)이 이 위치추적신호를 수신하면, 상기 수신된 위치추적신호를 신호처리모듈(611)로 전달한다(S1309).
상기 신호처리모듈(611)은 입력된 위치추적신호를 복조하여 상기 고유 식별코드를 확인하고, 해당 위치추적신호가 피교육자용으로 판별되면, 위치 응답신호를 생성하여 이를 RF송신모듈(612)에 전달한다(S1311).
상기 RF송신모듈(612)은 이 위치 응답신호를 미도시된 안테나를 통해 외부로 송출한다(S1313).
상기 로봇의 안테나(335)는 상기 RF송신모듈(612)로부터 송출된 위치 응답신호를 수신하여 이를 RF모듈(330)에 전달하고, 상기 RF모듈(330)은 이 위치 응답신호를 분석하여 상기 제어부(310)의 위치추정모듈에 전달한다(S1315).
상기 제어부(310)의 위치추정모듈은 송신된 위치추적신호와 수신된 위치응답신호의 전계강도 또는 위상차 또는 시간지연 등을 이용하여 피교육자와의 거리와 방향각을 계산한다(S1317).
상기와 같이, 피교육자와의 거리와 방향각이 계산되면, 이렇게 계산된 값으로부터 모션제어신호를 생성하고, 이 모션제어신호를 상기 모션제어부(360)에 전달한다(S1319).
상기 모션 제어부(360)는 이 모션제어신호에 기초하여 모션구동신호를 생성하고, 이 모션구동신호를 모션기구(365)로 전달하는 것에 의해 교육 로봇(100a)을 사용자 쪽으로 이동시킨다(S1321).
상기 단계 S1307 내지 S1321의 과정을 반복 수행하는 것에 의해 로봇(100a)은 피교육자를 교육이 가능한 거리내로 추적하게 된다.
상기 도 13의 과정을 수행하는 것에 의해 로봇(100a)이 피교육자를 교육이 가능한 거리내로 추적하면, 도 14의 단계 S1401 내지 S1419를 통해 교육 컨텐츠 다운로드 및 교육자 연결과정이 수행된다.
즉, 로봇의 화상인식부(386)를 통해 피교육자의 모습이 제어부(310)로 전달되면, 제어부(310)는 피교육자를 인식한다(S1401).
피교육자를 인식한 상태에서 상기 제어부(310)는 예를들어, "교육시간이 되었습니다. 학습을 수행하시겠습니까?"라는 안내 음성을 생성하고, 이를 스피커(395)를 통해 피교육자에게 출력한다(S1403).
이때, 피교육자가 마이크(396)나 키입력부(350)를 통해 학습을 수행하겠다는 의사를 로봇(300)에 전달하면(S1405), 로봇의 제어부(310)는 통신유닛(340)을 통해 상기 학습관리 서버(300a)에 접속한다(S1407).
이때, 로봇의 제어부(310)는 도시하지 않은 내부 메모리에 저장되어 있는 로봇 고유식별코드를 판독하여 이를 학습관리 서버(300a)의 교육컨텐츠 제공모듈(420)에 전송한다(S1409).
상기 교육로봇(100a)으로부터 로봇 고유식별코드를 전송받은 교육 컨텐츠 제공모듈(420)은 로봇정보 데이터베이스(480)에 엑세스하여 상기 고유식별코드에 대응하는 피교육자와 이 피교육자의 학습 진도를 확인한다(S1411).
학습진도를 확인한 교육컨텐츠 제공모듈(420)은 교육 컨텐츠데이터베이스(460)로부터 상기 학습진도에 맞는 교육 컨텐츠를 추출하고, 이를 해당 교육 로봇(100a)에 다운로드시킨다(S1413).
교육 컨텐츠를 다운로드 받은 로봇의 제어부(310)는 이 컨텐츠를 저장장치(320)에 저장한다. 이때, 상기 교육 컨텐츠에는 그림, 문자, 영상, 소리, 음성 등의 각종 멀티미디어 정보 뿐만 아니라 로봇의 모션을 지시하는 로봇 모션제어정보를 포함한다. 또한, 상기 교육 컨텐츠에는 상기한 멀티미디어 정보와 모션제어정보를 적절히 연동시켜 이를 로봇을 통해 실행시키기 위한 실행 프로그램(즉, 교육 프로그램)도 포함될 수 있다. 또는 상기 로봇의 저장장치에는 이미 상기 멀티미디어 정보와 모션제어정보를 해석하고, 실행하기 위한 실행 프로그램이 미리 저장되어 있을 수도 있다.
이와같이, 학습관리 서버(300a)로부터 교육 컨텐츠를 다운로드 받은 로봇 제어부(310)는 상기 교육 컨텐츠정보를 분석하여 컨텐츠 정보내에 교육자 접속명령이 존재하는지 여부를 판별한다(S1415).
이때, 상기 컨텐츠 정보내에 교육자 접속명령이 존재하면, 로봇 제어부(310)는 통신유닛을 통해 상기 학습관리 서버의 교육자 연결모듈에 교육자 연결요청을 요구한다. 로봇(100a)으로부터 교육자 연결요청을 받은 교육자 연결모듈(430)은 교육자 정보 데이터베이스(470)를 검색하여 상기 로봇(100a)과 접속이 가능한 교육자를 조사한다. 이때, 접속이 가능한 교육자가 존재하는 경우, 해당 로봇(100a)과 상기 교육자 단말기(400a)를 연결한다(S1417).
물론, 상기 단계 S1415에 있어서, 로봇의 요청과 상관없이 컨텐츠의 다운로드와 동시에 자동으로 로봇과 특정 교육자를 네트워크적으로 연결할 수도 있다.
상기 로봇(100a)과 교육자 단말기(400a)가 네트워크적으로 접속된 상태에서, 상기 로봇 제어부(310)는 다운로드되어 저장된 교육 컨텐츠를 분석하여 첨부도면 도 15 및 도 16과 같이 피교육자를 상대로 교육을 실행한다(S1419).
즉, 로봇 제어부(310)가 다운로드된 교육 컨텐츠에 기초하여 화상표시부(385)와 스피커(395)를 통해 피교육자에게 음성 및 화상에 기반한 교육을 실행하는 중에 컨텐츠내에 액션명령이 존재하는 경우(S1501, S1502), 제어부(310)는 이 액션명령에 기초하여 모션제어신호를 생성하고, 이를 모션제어부(360)에 전달하여, 지시된 액션을 실행한다(S1503, S1504). 즉, 로봇(100a)이 전,후,좌,우로 이동하거나 팔이나 다리를 일정한 방향으로 움직임으로써 음성, 화상과 더불어 제스쳐가 가미된 다이나믹 교육을 실행한다.
반면에, 컨텐츠내에 액션 명령이 존재하지 않는 경우에는 상기 단계 S1501로 복귀하여 음성 및 화상에 기반한 교육을 계속적으로 실행한다(S1502).
한편, 교육 컨텐츠에 기반한 교육을 실행하던 중에 피교육자로부터 질문과 같은 피교육자측 요구가 발생하면(S1505), 로봇 제어부(310)는 이 요구가 자체내의 프로그램내에서 처리가 가능한지 여부를 판별한다(S1506). 즉, 상기 사용자요구에 대한 자체 데이타베이스내에 적당한 행동정의나 행동수행데이타가 존재하는지를 검색하는 것이다.
이때, 자체내의 프로그램내에서 처리가 가능한 요구일 경우에는 프로그래밍에 따라서 응답을 피교육자에게 출력한다(S1507) 즉, 일정하게 셋팅된 음성, 화상및 모션을 피교육자에게 출력한다.
반면에, 해당 요구가 자체 프로그램내에서 처리가 불가능한 경우에는, 상기 피교육자(600)의 요구를 기 접속되어 있는 관리서버(300a)에 전달한다(S1508).
따라서, 상기 관리서버(300a)내에 해당 요구에 대한 행동정의가 존재하는 경우, 해당 행동정의를 로봇(100a)으로 전송하고, 관리서버(300a)내에 적절한 행동정의가 존재하지 않는 경우에는 교육자 단말기(400a)에 문의하여, 교육자(500)로부터 응답을 입력받는다(S1508, S1509).
상기와 같은 피교육자의 요구에 대한 응답데이타는 네트워크를 통해 상기 로봇(100a)에 전달되고, 로봇 제어부(310)는 이 응답정보를 분석한 후(S1510), 이 교육자의 응답을 화상, 음성 및 모션을 통해 피교육자에게 출력한다(S1511).
상술한 단계 S1501 내지 단계 S1511을 수행하는 과정에서 피교육자의 모습은 화상인식부(386)를 통해 촬상된 후, 통신유닛(340)을 거쳐 항상 상기 교육자 정보단말에 전달되기 때문에 교육자는 교육내내 피교육자의 학습상태를 관찰할 수 있다.
따라서, 교육자는 피교육자의 요청없이도 필요한 지시를 자신의 단말기(400a)를 통해 상기 로봇(100a)에 전달할 수 있고, 로봇(100a)은 상기 교육자의 지시를 음성, 화상 및 모션을 통해 피교육자에게 전달한다.
한편, 교육 컨텐츠의 스케쥴에 따라 모든 교육이 종료되면(S1512), 로봇 제어부(310)는 지금까지의 교육 수행결과를 상기 학습관리 서버(300a)의 학습평가모듈(440)에 전달한다(S1514).
상기 학습평가모듈(440)은 교육 수행결과를 로봇 정보 데이터베이스(480)의 대응 피교육자 디렉토리에 저장함과 동시에 이 수행결과를 대응하는 교육자 단말기(500)에 전송한다(S1515, S1516).
또한, 학습평가모듈(440)은 로봇 정보 데이터베이스(480)에 저장되어 있는 교육 수행결과에 근거하여 자동으로 해당 피교육자에 대한 평가정보를 생성하고, 이를 로봇 정보 데이터베이스(480)의 대응 피교육자 디렉토리에 저장한다(S1518).
한편, 교육 수행결과정보를 전송받은 교육자는 해당 피교육자에 대한 평가정보를 상기 학습관리서버의 학습평가모듈(440)에 입력하고, 학습평가모듈(440)은 이 교육자의 평가정보 역시 로봇 정보 데이터베이스(480)의 대응 피교육자 디렉토리에 저장한다(S1517)
이와같이, 자동 평가정보와 교육자 평가정보가 저장된 상태에서, 상기 결과리포트 생성 및 전송모듈(450)은 상기 자동 평가정보와 교육자 평가정보에 근거하여 결과 리포트를 생성하고, 이를 로봇 정보 데이터베이스(480)의 대응 피교육자 디렉토리에 저장한다(S1519)
또한, 상기 결과 리포트 생성 및 전송모듈은 이 결과 리포트를 해당 피교육자에게 이메일이나 핸드폰 문자메세지로 전달한다(S1520).
이상, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조로 설명하였다. 여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
상술한 바와같이, 본 발명은 좀더 다양하고 정밀한 행동제어가 요구되는 서비스용 로봇에 무선모뎀을 장착하고, 상기 무선모뎀을 통해 로봇관리서버 및 관리자 단말기에 연결시켜, 로봇 자체에서 처리불가능한 명령이나 지시에 대한 행동정의를 상기 관리서버 또는 관리자 단말기에서 제공토록 함으로서, 로봇 자체에 프로그램된 기능이외에 더 다양한 기능을 처리할 수 있도록 하고, 사용자 입장에서 로봇의 지능이 인간에 가깝게 느낄 수 있도록 하는 효과가 있다.
또한, 상기 로봇과 관리자 단말기를 1:1 연결하여, 관리자를 통해 로봇이 1:1 명령을 수행토록 함으로서, 로봇에게 더 인간적인 행동을 부여할 수 있는 우수한 효과가 있다.
더하여, 본 발명은 상기 로봇과 학습관리 서버 및 교육자 단말기 및 상기 장치간에 데이터 통신이 가능하도록 함으로서, 로봇을 통해 보다 다이나믹한 교육서비스를 제공할 수 있게 된다.
또한, 본 발명은 로봇이 학습시점을 자동으로 체크하고, 학습시점이 되면 피교육자를 추적하여 교육을 시키기 때문에 보다 능동적인 학습관리가 가능하다.

Claims (26)

  1. 여러가지 상황에 대한 로봇의 행동을 정의한 데이타를 저장관리하고, 새로운 상황이 발생시 로봇의 행동정의데이타를 새로 갱신하여 관리하는 관리서버;
    상기 관리서버에 무선인터넷을 통해 접속되며, 자유롭게 이동가능하고, 외부에서 또는 자체 판단에 의해 명령 생성시, 자체 행동정의데이타베이스 및 통신네트워크를 통해 접속된 관리서버의 행동 정의 데이타베이스를 검색하여 인식된 명령에 대한 적절한 행동 정의를 검색하여 수행하는 로봇;
    상기 관리서버와 로봇간에 데이타통신을 가능하게 하는 통신네트워크로 이루어져,
    로봇에서 새로운 명령 발생시 내부 프로그램된 행동정의가 없는 경우 로봇이 상기 관리서버에 접속하여 관리서버의 데이타를 검색하여 적절한 행동정의를 검색하고, 검색된 행동정의데이타를 수신받아 수행토록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.
  2. 제 1 항에 있어서, 상기 로봇에 지어지는 명령은
    로봇이 수행할 하나의 행동을 정의하는 기본명령과,
    상기 기본명령을 바탕으로 이루어지는 것으로, 로봇이 수행할 하나의 행동에 대하여 로봇의 상태에 따라서 각각 정의되는 다수의 기본명령으로 이루어지는 확장명령으로 구성되는 것을 특징으로 하는 로봇의 지능 보완 시스템.
  3. 제 2 항에 있어서, 상기 로봇에 주어지는 명령은 스크립트 언어 방식으로 구현되는 것을 특징으로 하는 로봇의 지능 보완 시스템.
  4. 제 1 항에 있어서, 상기 시스템은
    상기 관리서버에 연결되어, 상기 관리서버로부터 로봇으로부터 전달된 데이타를 출력하고 관리자가 입력한 데이타를 상기 관리서버를 통해 로봇으로 전달가능한 하나 이상의 관리자 단말기를 더 구비하고,
    상기 로봇에서 요구하는 명령에 대한 행동정의데이타가 관리서버에 존재하는 않는 경우, 관리서버는 접속가능한 관리자 단말기를 검색하여 해당 관리자 단말기로 로봇의 상황을 전달하고, 관리자가 입력한 행동정의를 로봇으로 전달하도록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.
  5. 제 4 항에 있어서, 상기 시스템은
    로봇에서 1;1 대화요구가 인식되면, 1:1대화요구를 관리서버로 전달하고,
    상기 관리서버는 접속가능한 관리자를 검색하여, 해당 관리자 단말기와 상기 로봇의 통화로를 연결시키고,
    이후, 로봇으로 입력된 사용자의 음성 및 영상이 관리자 단말기로 전달되고, 관리자가 관리자 단말기로 입력한 응답이 로봇에게 전달되어 수행됨으로서, 1:1 대화 서비스를 수행하는 것을 특징으로 하는 로봇의 지능 보완 시스템.
  6. 제 4 항에 있어서, 상기 시스템은
    상기 관리자가 지시한 로봇의 응답명령은 스크립트를 이용하여 로봇이 취해야할 행동 및 동영상이 객체화되고, 이벤트화되며, 하나의 명령과 관련된 객체들은 묶어 로봇으로 전달하고,
    로봇은 모든 명령데이타가 수신된 후 행동을 수행토록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.
  7. 제 4 항에 있어서,
    상기 관리자 단말기는 관리서버에 저장된 명령 수행 및 행동 정의 데이타 목록을 제공하여,
    관리자가 상기 관리자 단말기로 제공되는 관리서버의 정의 행동을 선택하거나, 상기 목록에 적절한 행동이 존재하지 않으면 직접 입력하도록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.
  8. 제 4 항에 있어서,
    관리자가 관리자 단말기로 입력한 응답내용은 텍스트형태로 로봇에 전달되고,
    상기 로봇은 수신된 텍스트형태의 내용을 TTS 기능을 통해 로봇의 음성으로 출력하는 것을 특징으로 하는 로봇의 지능 보완 시스템.
  9. 로봇과 관리서버와 관리자 단말기를 통신네트워크로 연결하여 로봇의 지능을 보완하는 방법에 있어서,
    a) 로봇에서 사용자의 지시 또는 내부 상태변화에 따라 소정의 명령이 생성되는 단계;
    b) 로봇이 상기 단계에서 생성된 명령을 인식하고, 생성된 명령에 대한 행동정의가 존재하는지 자체 데이타를 검색하는 단계;
    c) 상기 검색결과 해당 명령에 대한 행동정의가 존재하면, 검색된 행동정의를 수행하고, 행동정의가 존재하지 않으면 무선네트워크를 통해 관리서버에 접속하여 상기 명령에 대한 행동정의의 검색을 요구하는 단계;
    d) 관리서버에서 로봇으로부터 전달된 명령에 대한 행동 정의가 데이타베이스에 존재하는지 검색하여, 존재하는 경우 해당 행동정의를 로봇으로 전송해주는 단계; 및
    e) 로봇이 상기 관리서버로부터 전송된 데이타를 수신하여, 수신된 데이타의 행동정의에 따라 명령을 수행하는 단계;
    로 이루어지는 것을 특징으로 하는 로봇의 지능 보완 방법.
  10. 제 9 항에 있어서, 상기 방법은
    f) 상기 d)단계에서, 관리서버내에 해당 명령에 대한 행동 정의가 존재하지 않는 경우, 상기 로봇의 요구를 관리자 단말기로 전달하는 단계;
    g) 관리자가 로봇으로부터 전달된 명령에 대해 로봇이 수행할 내용을 관리자 단말기로 입력하고, 관리자 단말기는 관리서버를 통해 관리자가 입력된 내용을 로봇으로 전달하는 단계;
    를 더 포함하고, 로봇이 관리서버 또는 관리자 단말기로부터 제공된 지시된 행동을 수행토록 하는 것을 특징으로 하는 로봇의 지능 보완 방법.
  11. 로봇과 관리서버와 관리자 단말기를 통신네트워크로 연결하여 로봇의 지능을 보완하는 방법에 있어서,
    사용자가 로봇에게 1:1 대화명령을 지시하는 단계;
    로봇이 사용자가 지시한 1:1 대화명령을 인식하여 관리서버로 전달하는 단계;
    관리서버가 상기 로봇으로부터 1:1 대화명령을 수신하면, 접속가능한 관리자를 검색하여, 해당 관리자의 단말기로 로봇의 1:1 대화요구를 전달하고, 상기 관리자 단말기와 로봇의 통신로를 연결시키는 단계; 및
    로봇 서버는 관리자 단말기와 1:1로 연결되면, 사용자의 음성 및 영상을 수집하여 관리자 단말기로 보내고, 관리자는 관리자 단말기에서 사용자의 상태를 보고 그에 대한 응답내용을 로봇으로 지시하는 단계로 이루어지는 것을 특징으로 하는 로봇의 지능 보완 방법.
  12. 제 11 항에 있어서, 상기 방법은
    관리서버가 관리자 단말기로 정의된 행동정의 목록을 제공하고, 관리자가 관리자 단말기를 통해 상기 목록을 검색하여, 적절한 대응명령이 있는 경우, 해당 명령을 선택하는 단계;
    상기 관리자가 선택한 대응명령이 관리서버를 통해 로봇으로 전달되어 수행되는 단계;
    상기 관리서버에서 제공하는 목록에 적절한 대응명령이 없는 경우, 관리자가 관리자 단말기를 통해 대응명령을 직접 입력하고, 입력된 명령이 로봇으로 전달되어 수행되는 단계를 더 포함하는 것을 특징으로 하는 로봇의 지능 보완 방법.
  13. 제 11 항에 있어서, 상기 관리자 단말기로부터 로봇으로 전달되는 대응명령은 텍스트형태로 제공되고, 로봇은 수신된 텍스트 형태의 명령을 TTS 기능을 통해 로봇음성으로 출력하는 것을 특징으로 하는 로봇의 지능 보완 방법.
  14. 자유롭게 이동가능하고, 컴퓨터 네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 로봇과, 이 로봇과 네트워크로 연결된 서버를 통해 교육자가 특정 피교육자를 학습시키는 방법에 있어서,
    상기 로봇이 상기 피교육자의 위치를 탐색하고, 상기 피교육자에 대해 교육이 가능한 거리로 접근하기 위하여 이동하는 단계;
    피교육자가 교육 가능범위내에 포함되면, 상기 서버에 접속하여 로봇의 고유식별코드를 전송하는 단계;
    상기 서버에서 로봇으로부터 전송된 식별코드에 해당하는 교육 컨텐츠를 로봇으로 다운로드시키고, 상기 접속가능한 교육자를 검색하여 해당 교육자 단말기를 로봇과 연결시키는 단계;
    상기 로봇이 다운로드 받은 교육컨텐츠를 실행하여 피교육자를 교육시키는 단계;
    를 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.
  15. 제 14 항에 있어서, 상기 방법은
    상기 교육 컨텐츠내에 교육자의 학습지도를 요구하는 정보가 포함되어 있는지 여부를 판별하는 단계를 더 포함하고;
    교육자의 학습지도가 필요한 경우에만 상기 로봇과 교육자를 네트워크를 통해 연결하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.
  16. 제 14 항에 있어서, 상기 방법은
    상기 로봇이 상기 교육 컨텐츠에 액션 명령이 존재하는지 여부를 판별하는 단계와;
    액션 명령이 존재하는 경우, 해당 액션 명령을 분석하고, 이 액션명령에 따라 로봇이 특정한 모션을 수행하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.
  17. 제 14 항에 있어서,
    상기 피교육자가 특정한 질문과 같은 피교육자측 요구를 상기 로봇에 입력하는 단계와;
    상기 로봇이 상기 피교육자측 요구를 상기 교육자 단말기로 전송하는 단계와;
    상기 교육자가 상기 피교육자측 요구에 상응하는 응답을 교육자 단말기로 입력하면, 상기 응답이 로봇으로 전달되는 단계와;
    상기 로봇이 상기 응답을 상기 피교육자에게 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.
  18. 제 14 항에 있어서, 상기 방법은
    상기 교육 컨텐츠에 기반한 교육스케쥴이 종료되면, 교육수행결과를 상기 서버로 전송하는 단계와;
    상기 서버에서 교육수행결과를 저장하고, 이 교육수행결과를 상기 교육자 단말기로 출력하는 단계와;
    상기 교육자가 상기 교육수행결과에 근거하여 평가를 내리고, 이 평가정보를 상기 서버에 입력하는 단계와;
    상기 서버에서 상기 평가정보를 상기 로봇을 통해 피교육자에게 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.
  19. 제 18 항에 있어서, 상기 방법은
    상기 서버가 상기 교육수행결과에 근거하여 자체적으로 평가를 내리고, 이 평가정보를 상기 피교육자에게 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.
  20. 여러가지 상황에 대한 로봇의 행동을 정의한 데이타 및 다수의 교육컨텐츠를 제공하기 위한 교육서버;
    자유롭게 이동가능하고 통신네트워크를 통해 상기 교육서버를 통해 접속하여 데이타를 송수신하고 그 데이타처리하는 로봇을 포함하고,
    상기 로봇이 교육서버로부터 제공되는 교육컨텐츠를 음성, 화상 및 모션을 통해 피교육자에게 출력하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육시스템.
  21. 제 20 항에 있어서, 상기 장치는
    상기 교육서버를 통해 상기 로봇에 연결되어, 상기 지능형 로봇으로부터 전달된 상황정보에 따라 교육자가 피교육자에게 교육지시를 내리는 교육자 정보단말을 더 포함하고;
    상기 학습관리 컴퓨터는 상기 로봇과 상기 교육자 정보단말을 정보의 송, 수신이 가능하도록 상호 접속시키는 역할을 더 수행하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육시스템.
  22. 제 21 항에 있어서, 상기 시스템는
    피교육자가 소지하고 위치추적신호를 송출하는 RF모듈과, 상기 로봇에 설치되어 상기 피교육자가 부착하고 있는 RF모듈과 위치추적신호를 송, 수신하는 것에 의해 피교육자의 위치를 탐색하고, 위치가 탐색된 피교육자에 대해 일정한 거리로 접근하기 위한 방향 및 거리를 산출하는 위치추적부로 이루어진 위치추적장치를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육시스템.
  23. 제 22 항에 있어서, 상기 로봇은
    피교육자의 화상을 촬상하고, 이 촬상신호를 디지털화하여 이 디지털 촬상신호를 상기 교육자 정보단말에 전달하기 위한 화상처리장치를 더 포함하고;
    이로 인해, 상기 교육자는 피교육자의 학습상태를 수시로 관찰하여 효율적인 학습관리를 수행하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육시스템.
  24. 자유롭게 이동가능하고, 통신네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 지능형 로봇과, 이 로봇에 다양한 교육정보를 제공하는 서버를 통해 교육자가 특정 피교육자를 학습시키는 방법으로서,
    상기 피교육자가 상기 로봇을 통해 상기 컴퓨터에 학습요구를 입력하는 단계와;
    상기 학습요구에 따라 대응하는 교육 컨텐츠를 상기 로봇에 다운로드하는 단계와;
    상기 로봇이 음성, 화상 및 모션을 통해 상기 교육 컨텐츠를 상기 피교육자에게 출력하는 단계를 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.
  25. 제 24 항에 있어서, 상기 방법은
    상기 학습요구에 따라 상기 로봇과 특정 교육자를 네트워크를 통해 접속시키는 단계와;
    상기 피교육자가 질문을 포함하는 피교육자측 요구를 상기 로봇에 입력하는 단계와;
    상기 피교육자측 요구를 대응하는 교육자에게 출력하는 단계와;
    상기 피교육자측 요구에 기반한 교육자측 응답을 입력하는 단계와;
    상기 로봇이 음성, 화상 및 모션을 통해 상기 교육자측 응답을 상기 피교육자에게 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다아나믹 교육방법.
  26. 제 24 항에 있어서, 상기 방법은
    상기 로봇이 상기 피교육자의 위치를 탐색하고, 상기 피교육자에 대해 교육이 가능한 거리내로 접근하기 위하여 이동하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.
KR10-2002-0050726A 2001-08-28 2002-08-27 로봇의 지능 보완 방법 및 시스템, 이에 의한 로봇을이용한 다이나믹 교육 방법 및 시스템 KR100486382B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20010051964 2001-08-28
KR1020010051964 2001-08-28

Publications (2)

Publication Number Publication Date
KR20030019125A true KR20030019125A (ko) 2003-03-06
KR100486382B1 KR100486382B1 (ko) 2005-04-29

Family

ID=19713620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0050726A KR100486382B1 (ko) 2001-08-28 2002-08-27 로봇의 지능 보완 방법 및 시스템, 이에 의한 로봇을이용한 다이나믹 교육 방법 및 시스템

Country Status (2)

Country Link
KR (1) KR100486382B1 (ko)
WO (1) WO2003019452A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040042242A (ko) * 2002-11-13 2004-05-20 삼성전자주식회사 홈서버를 이용하는 홈로봇 및 이를 포함하는 홈네트워크시스템
KR100627506B1 (ko) * 2004-07-05 2006-09-21 한국과학기술원 고유 아이피 주소를 지닌 네트워크 기반 소프트웨어 로봇 시스템
WO2006135209A1 (en) * 2005-06-16 2006-12-21 Sk Telecom Co., Ltd. Interaction between mobile robot and user, system for same
KR100824314B1 (ko) * 2006-08-01 2008-04-22 주식회사 유진로봇 로봇을 통한 유아 학습시 동기 유발을 위한 영상 합성시스템
KR101456554B1 (ko) * 2012-08-30 2014-10-31 한국과학기술원 클래스 확률 출력망에 기초한 불확실성 측도를 이용한 능동학습기능이 구비된 인공인지시스템 및 그 능동학습방법
WO2018030577A1 (ko) * 2016-08-12 2018-02-15 엘지전자 주식회사 자가 학습 로봇
KR20180114537A (ko) * 2018-10-08 2018-10-18 엘지전자 주식회사 자가 학습 로봇

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100360204C (zh) * 2005-06-16 2008-01-09 上海交通大学 基于多处理器协作的智能表演机器人的控制系统
KR101209012B1 (ko) * 2012-01-31 2012-12-24 한성대학교 산학협력단 캐릭터 로봇을 이용한 교육용 연극 인터페이스 장치
US20170046965A1 (en) * 2015-08-12 2017-02-16 Intel Corporation Robot with awareness of users and environment for use in educational applications
HK1204748A2 (en) * 2015-08-20 2015-11-27 Smart Kiddo Education Ltd An education system using connected toys
JP2017047519A (ja) * 2015-09-04 2017-03-09 Rapyuta Robotics株式会社 クラウドロボティクスシステム、情報処理装置、プログラム、並びに、クラウドロボティクスシステムにおけるロボットの制御または支援方法
CN108377251A (zh) * 2018-05-08 2018-08-07 山西乐博特机器人教育科技有限公司 教育机器人教学系统
CN110827179A (zh) * 2019-10-18 2020-02-21 引力互联国际有限公司 提供人工智能教育的方法、装置以及存储介质
CN110861085B (zh) * 2019-11-18 2022-11-15 哈尔滨工业大学 一种基于VxWorks的机械臂指令解释器系统
CN111429263B (zh) * 2019-12-11 2024-04-26 南京奥拓电子科技有限公司 一种机器人的信息交互方法、装置、服务器及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2873222B2 (ja) * 1997-05-12 1999-03-24 川崎重工業株式会社 ロボット情報処理装置
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
US6149490A (en) * 1998-12-15 2000-11-21 Tiger Electronics, Ltd. Interactive toy
KR100316630B1 (ko) * 1999-04-22 2001-12-12 윤덕용 인터넷을 이용한 원격 이동 로봇의 인터넷 직접 제어 시스템 및그 방법
KR20010095514A (ko) * 2000-04-10 2001-11-07 김성헌 원격제어에 의한 의료 기능을 갖는 완구 시스템
JP2002120184A (ja) * 2000-10-17 2002-04-23 Human Code Japan Kk ネットワーク上のロボット動作制御システム
KR20020037618A (ko) * 2000-11-15 2002-05-22 윤종용 디지털 컴패니언 로봇 및 시스템
KR20020043982A (ko) * 2000-12-05 2002-06-12 구자홍 언어 학습기능을 가지는 지능형 애완 로봇
KR100423592B1 (ko) * 2001-05-28 2004-03-22 주식회사 새손텔레콤 알에프 통신을 사용한 학습 가능한 인공지능 장난감로봇작동시스템 및 그 동작방법
KR20020000538A (ko) * 2001-12-05 2002-01-05 이정욱 이더넷을 이용한 무선로봇의 원격제어 시스템

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040042242A (ko) * 2002-11-13 2004-05-20 삼성전자주식회사 홈서버를 이용하는 홈로봇 및 이를 포함하는 홈네트워크시스템
KR100627506B1 (ko) * 2004-07-05 2006-09-21 한국과학기술원 고유 아이피 주소를 지닌 네트워크 기반 소프트웨어 로봇 시스템
WO2006135209A1 (en) * 2005-06-16 2006-12-21 Sk Telecom Co., Ltd. Interaction between mobile robot and user, system for same
KR100824314B1 (ko) * 2006-08-01 2008-04-22 주식회사 유진로봇 로봇을 통한 유아 학습시 동기 유발을 위한 영상 합성시스템
KR101456554B1 (ko) * 2012-08-30 2014-10-31 한국과학기술원 클래스 확률 출력망에 기초한 불확실성 측도를 이용한 능동학습기능이 구비된 인공인지시스템 및 그 능동학습방법
WO2018030577A1 (ko) * 2016-08-12 2018-02-15 엘지전자 주식회사 자가 학습 로봇
US11294383B2 (en) 2016-08-12 2022-04-05 Lg Electronics Inc. Self-learning robot
KR20180114537A (ko) * 2018-10-08 2018-10-18 엘지전자 주식회사 자가 학습 로봇

Also Published As

Publication number Publication date
KR100486382B1 (ko) 2005-04-29
WO2003019452A1 (en) 2003-03-06

Similar Documents

Publication Publication Date Title
KR100486382B1 (ko) 로봇의 지능 보완 방법 및 시스템, 이에 의한 로봇을이용한 다이나믹 교육 방법 및 시스템
CN108297098A (zh) 人工智能驱动的机器人控制系统及方法
US11468885B2 (en) System and method for conversational agent via adaptive caching of dialogue tree
CN111801730A (zh) 用于人工智能驱动的自动伴侣的系统和方法
JP2022524944A (ja) インタラクション方法、装置、電子機器及び記憶媒体
US11017551B2 (en) System and method for identifying a point of interest based on intersecting visual trajectories
CN105126355A (zh) 儿童陪伴机器人与儿童陪伴系统
Lallée et al. Towards a platform-independent cooperative human-robot interaction system: I. perception
CN112204654A (zh) 用于基于预测的先发式对话内容生成的系统和方法
CN112204565A (zh) 用于基于视觉背景无关语法模型推断场景的系统和方法
CN112204563A (zh) 用于基于用户通信的视觉场景构建的系统和方法
CN106446141B (zh) 面向智能机器人系统的交互数据处理方法及机器人系统
WO2018000267A1 (zh) 一种机器人交互内容的生成方法、系统及机器人
CN114287030A (zh) 用于跨真实和增强现实的自适应对话管理的系统和方法
Kanda et al. Person identification and interaction of social robots by using wireless tags
KR20210033809A (ko) 인공 신경망을 이용하여 로봇을 제어하는 제어 서버 및 방법와, 이를 구현하는 로봇
Inamura et al. SIGVerse: A cloud-based VR platform for research on social and embodied human-robot interaction
Higgins et al. Head pose for object deixis in vr-based human-robot interaction
CN114303151A (zh) 经由使用组合神经网络的场景建模进行自适应对话的系统和方法
Cho et al. Implementation of human-robot VQA interaction system with dynamic memory networks
Ma et al. A cloud-based quadruped service robot with multi-scene adaptability and various forms of human-robot interaction
Kanda et al. Effects of observation of robot–robot communication on human–robot communication
US20240160929A1 (en) Device for training and managing a visual scene graph model and control method thereof
US11478697B2 (en) Terminal connected to action robot and operating method thereof
Nakajo et al. Acquisition of viewpoint transformation and action mappings via sequence to sequence imitative learning by deep neural networks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130416

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140411

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160412

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20170413

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190415

Year of fee payment: 15