KR20010052699A - 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체 - Google Patents

로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체 Download PDF

Info

Publication number
KR20010052699A
KR20010052699A KR1020007013955A KR20007013955A KR20010052699A KR 20010052699 A KR20010052699 A KR 20010052699A KR 1020007013955 A KR1020007013955 A KR 1020007013955A KR 20007013955 A KR20007013955 A KR 20007013955A KR 20010052699 A KR20010052699 A KR 20010052699A
Authority
KR
South Korea
Prior art keywords
instinct
emotion
output
unit
module
Prior art date
Application number
KR1020007013955A
Other languages
English (en)
Inventor
나가쓰카노리오
이노우에마코토
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR20010052699A publication Critical patent/KR20010052699A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

감정 모듈은 인식 오브젝트로부터 정보가 입력되면, 입력되는 정보의 종별을 판별하고, 그 입력된 정보에 대응한 파라미터를 이용하여 각 감정 유니트의 감정 레벨을 변화시킨다. 감정 모듈은 감정 레벨이 문지방값을 넘는 감정 유니트 가운데 감정 레벨이 최대가 되는 감정 유니트를 선택한다. 선택된 감정 유니트는 그 정보를 예를 들면 행동생성 오브젝트 등 출력을 요구하는 오브젝트에 대해 통지한다.

Description

로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체 {ROBOT, METHOD OF ROBOT CONTROL, AND PROGRAM RECORDING MEDIUM}
종래부터 개나 고양이와 같은 발이 많은 동물을 본 뜬 로봇 장치가 개발되어 왔다. 종래부터 제안되고 있는 이러한 로봇 장치는 미리 프로그램되어 정해진 작업만을 묵묵히 계속하거나 단순한 시퀀스를 따라 춤을 추는 동작밖에 행할 수 없었다.
그런데, 휴대 단말기 중에서 감정 모델을 탑재한 가상의 애완 동물을 사육하는 것이 있는데, 이러한 가상의 애완 동물은 실세계에서 움직이며 돌아다니는 것은 불가능하기 때문에 리얼리티나 생동감이 떨어졌다.
본 발명은 생물체와 같이 자연스러운 동작을 하는 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체에 관한 것이다.
도 1은 본 발명을 적용한 로봇 장치의 구성을 나타내는 블록도,
도 2는 위의 로봇 장치를 제어하는 프로그램의 구성을 나타내는 도면,
도 3은 감정 모듈과 다른 오브젝트의 관계를 설명하기 위한 도면,
도 4는 위의 감정 모듈에 외부로부터 정보가 들어왔을 때의 동작을 설명하기 위한 흐름도,
도 5는 위의 감정 모듈이 시간 경과에 따라 변화할 때의 상태를 설명하기 위한 흐름도,
도 6은 본능 모듈과 다른 오브젝트의 관계를 설명하기 위한 도면,
도 7은 본능 모듈에 외부로부터 정보가 들어왔을 때의 동작을 설명하기 위한 흐름도,
도 8은 위의 본능 모듈이 시간 경과에 따라 변화할 때의 상태를 설명하기 위한 흐름도,
도 9는 위의 로봇 장치와 다른 로봇 장치가 통신하고 있을 때의 상태를 설명하기 위한 도면,
도 10은 개인용 컴퓨터가 위의 로봇 장치의 감정과 그 행동을 제어할 때의 상태를 설명하기 위한 도면.
본 발명은 전술한 실정을 감안하여 이루어진 것으로, 실세계에서 리얼리티나 생동감 있게 행동할 수 있는 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체를 제공하는 것을 목적으로 한다.
여기서, 본 발명에 따른 로봇 장치는 다양한 감정을 나타내는 복수의 감정 유니트가 서로 영향을 미침으로써 감정을 출력하는 감정 모듈과, 이 감정 모듈이 출력하는 감정에 기초하여 동작을 하는 동작 수단을 구비한다.
이 로봇 장치는 복수의 감정 유니트로 이루어지는 감정 모듈의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같이 자연스러운 행동을 한다.
또한, 본 발명에 따른 로봇 장치의 제어방법은 다양한 감정을 나타내는 복수의 감정 유니트가 서로 영향을 미침으로써 감정을 출력하는 감정 출력 공정과, 이 감정 출력 공정에 의해 출력된 감정에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 공정을 구비한다.
이 로봇 장치의 제어방법에서는 복수의 감정 유니트에 의한 감정 출력 공정의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같은 자연스러운 행동을 하도록 로봇 장치를 제어한다.
또한, 본 발명에 따른 프로그램 기록매체는 다양한 감정을 나타내는 복수의 감정 유니트가 서로 영향을 미침으로써 감정을 출력하는 감정 출력 공정과, 이 감정 출력 공정에 의해 출력된 감정에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 공정을 행하는 프로그램이 기록되어 있다.
이 프로그램 기록매체에서는 복수의 감정 유니트에 의한 감정 출력 공정의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같은 자연스러운 행동을 하도록 로봇 장치를 제어한다.
또한, 본 발명에 따른 로봇 장치는 다양한 본능을 나타내는 복수의 감정 유니트가 각각 본능을 출력하는 본능 모듈과, 이 본능 모듈이 출력하는 본능에 기초하여 동작을 하는 동작 수단을 구비한다.
이 로봇 장치는 복수의 본능 유니트로 이루어지는 본능 모듈의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같이 자연스러운 행동을 한다.
또한, 본 발명에 따른 로봇 장치의 제어방법은 다양한 본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 출력 공정과, 이 본능 출력 공정에 의해 출력된 본능에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 공정을 구비한다.
이 로봇 장치의 제어방법에서는 복수의 본능 유니트에 의한 본능 출력 공정의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같은 자연스러운 행동을 하도록 로봇 장치를 제어한다.
또한, 본 발명에 따른 프로그램 기록매체는 다양한 감정을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 출력 공정과, 이 본능 출력 공정에 의해 출력된 본능에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 공정을 행하는 프로그램이 기록되어 있다.
이 프로그램 기록매체에서는 복수의 본능 유니트에 의한 본능 출력 공정의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같은 자연스러운 행동을 하도록 로봇 장치를 제어한다.
또한, 본 발명에 따른 로봇 장치는 감정을 나타내는 복수의 감정 유니트가 각각 감정을 출력하는 감정 모듈과, 본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 모듈과, 감정 모듈이 출력하는 감정과 본능 모듈이 출력하는 본능에 기초하여 동작을 하는 동작 수단을 구비한다.
이 로봇 장치는 복수의 감정 유니트로 이루어지는 감정 모듈의 출력과 복수의 본능 유니트로 이루어지는 본능 모듈의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같이 자연스러운 행동을 한다.
또한, 본 발명에 따른 로봇 장치의 제어방법은 감정을 나타내는 복수의 감정 유니트가 각각 감정을 출력하는 감정 출력 공정과, 본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 출력 공정과, 감정 출력 공정에 의해 출력된 감정과 본능 출력 공정에 의해 출력된 본능에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 공정을 구비한다.
이 로봇 장치의 제어방법에서는 복수의 감정 유니트에 의한 감정 출력 공정의 출력과 복수의 본능 유니트에 의한 본능 출력 공정의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같은 자연스러운 행동을 하도록 로봇 장치를 제어한다.
또한, 본 발명에 따른 프로그램 기록매체는 감정을 나타내는 복수의 감정 유니트가 각각 감정을 출력하는 감정 출력 공정과, 본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 출력 공정과, 감정 출력 공정에 의해 출력된 감정과 본능 출력 공정에 의해 출력된 본능에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 공정을 행하는 프로그램이 기록되어 있다.
이 프로그램 기록매체에서는 복수의 감정 유니트에 의한 감정 출력 공정의 출력과 복수의 본능 유니트에 의한 본능 출력 공정의 출력에 기초하여 리얼리티나 생동감을 갖는 생물체와 같은 자연스러운 행동을 하도록 로봇 장치를 제어한다.
이하, 본 발명의 실시예에 대해 도면을 참조하여 설명한다.
본 발명은 예를 들면 도 1에 나타내는 구성의 로봇 장치(1)에 적용된다. 이 로봇 장치(1)는 시스템 전체를 제어하는 중앙 처리 연산부(CPU : central processing unit)(11), 예컨대 CCD(charge coupled device) 이미지 센서를 구비하는 비디오 카메라(12), 이 비디오 카메라(12)로부터의 비디오 데이터 등을 기억하는 기억부(13), 및 시리얼 버스의 호스트 컨트롤러 등을 하나로 정리한 대규모 집적회로(LSI : large-scale integrated circuit)(14)를 구비한다.
LSI(14)는 예를 들면 시리얼 통신, 패럴렐 통신, USB 통신 등의 인터페이스로 이루어지는 통신부(14a)를 구비하며, 이 통신부(14a)를 통해 외부의 개인용 컴퓨터(100)와 접속된다. 이 때, 개인용 컴퓨터(100)는 LSI(14)를 통해 예를 들면 CPU(11)를 동작시키는 프로그램을 변경하거나 그 조작을 행할 수 있다.
LSI(14)는 PC 카드 인터페이스(15)를 통해 PC 카드 규격 등의 다양한 디바이스, 예컨대 PC 카드 슬롯에 삽입되는 ATA(advanced technology attachment) 플래시 메모리 카드 등의 기억장치(200)나 무선통신 카드 등의 통신장치(300)와 접속된다.
기억장치(200)에는 감정 유니트의 감정 레벨이나 본능 유니트의 본능 레벨을 제어하기 위한 각종 파라미터가 기억되어 있다. 구체적으로는 감정 유니트의 감정 레벨을 변화시켜 제어하기 위한 요소로 되는 감정 파라미터, 입력 작용 파라미터, 감쇠 파라미터, 상호 작용 파라미터 등이 기억되어 있다. 또한, 본능 유니트의 본능 레벨을 변화시켜 제어하기 위한 요소로 되는 본능 파라미터, 입력 작용 파라미터, 증가 파라미터 등도 기억되어 있다. 실행 시에는 기억장치(200)로부터 이들 파라미터가 독출(讀出)되어 사용된다.
위의 LSI(14)는 리얼타임의 시간 정보를 얻기 위한 도시되지 않은 타이머와, 배터리의 잔량 관리나 타이머와 연계하여 임의의 시간에 전원을 켜는 등의 제어를 행하기 위한 도시되지 않은 배터리 매니저를 구비한다.
또한, 위의 로봇 장치(1)는 손발, 귀, 입 등을 구성하는 제1 내지 제4 CPC(configurable technology attachment) 디바이스(20, 30, 40, 50)를 구비한다. 각 CPC 디바이스는 LSI(14) 내의 시리얼 버스 허브(SBH)(14b)에 접속되어 있다. 여기서는 CPC 디바이스를 4가지 나타내고 있으나, 그 수가 특별히 한정되는 것이 아닌 것은 물론이다.
제1 CPC 디바이스(20)는 LSI(14)로부터의 제어 명령에 따라 당해 디바이스 내의 각 회로를 제어하는 버스(21), 제어신호나 검출신호 등을 일시 기억하는 메모리(22), 가속도를 검출하는 가속도 센서(23), 포텐쇼미터(potentiometer)(24) 및 관절 등의 역할을 하는 액츄에이터(25)를 구비한다. 가속도 센서(23)는 수십 밀리초 단위로 3축 방향의 가속도를 각각 검출하고, 그 검출 결과를 버스(21)와 시리얼 버스 허브(14b)를 통해 CPU(11)에 공급한다.
제2 CPC 디바이스(30)는 허브(31), 메모리(32), 회전 각속도를 검출하는 회전 각속도 센서(33), 포텐쇼미터(34) 및 액츄에이터(35)를 구비한다. 회전 각속도 센서(33)는 수십 밀리초 단위로 3축 방향의 회전 각속도를 검출하고, 그 검출 결과를 버스(31)와 시리얼 버스 허브(14b)를 통해 LSI(14)에 공급한다.
제3 CPC 디바이스(40)는 허브(41), 메모리(42), 예컨대 발광함으로써 외부로부터 자극을 받은 것을 나타내는 발광 다이오드(LED)(43) 및 외부와 접촉하였는지의 여부를 검출하는 터치 센서(44)를 구비한다.
제4 CPC 디바이스(50)는 허브(51), 메모리(52), 외부에 음성을 출력하는 입의 역할을 하는 스피커(53) 및 외부의 음성을 검출하는 귀의 역할을 하는 마이크(54)를 구비한다.
위의 로봇 장치(1)의 외관은 여러 발로 보행하는 로봇의 형상이다. 즉, 위의 로봇 장치(1)는 여러 발로 보행하는 다관절형 로봇으로서 4개의 발이 있는 동물의 형상을 하고 있다. 또한, 로봇 장치는 이에 한정되는 것이 아니라 예를 들면 두발로 보행하는 다관절형 로봇이어도 된다.
또한, 전술한 가속도 센서(23)는 X축, Y축, Z축 방향에 대한 가속도를 검출한다. 회전 각속도 센서(33)는 X축, Y축, Z축을 회전축으로 하여 회전할 때의 R각, P각, Y각에 대한 회전 각속도를 검출한다.
위의 로봇 장치(1)를 제어하는 프로그램은 도 2에 나타낸 바와 같이 계층화하여 설계되어 있다. 위의 프로그램은 구체적으로는 전술한 구성의 하드웨어에서 동작하는 편입용 OS(operating system) 상에 시스템 소프트웨어, 미들웨어, 어플리케이션의 3층이 형성됨으로써 구성된다.
시스템 소프트웨어 층은 예를 들면 디바이스를 직접 제어하는 디바이스 드라이버와 상위층의 오브젝트로 서비스를 제공하는 서버오브젝트로 구성된다.
미들웨어 층은 예를 들면 화상, 음, 접촉 등의 센서 정보를 처리하는 인식 오브젝트, 보행이나 자세 등의 로봇의 운동제어를 행하는 운동제어 오브젝트 및 손발이나 머리, 꼬리를 움직여서 표현하는 동작생성 오브젝트로 구성된다.
어플리케이션 층은 예를 들면 학습을 행하는 학습 오브젝트, 감정이나 본능을 취급하는 감정·본능 모델 오브젝트, 춤추기를 결정하는 행동생성 오브젝트 및 이 로봇 장치 전체를 특징짓는 시나리오 오브젝트로 구성된다.
위의 감정·본능 모델 오브젝트는 감정 모듈과 본능 모듈을 구비한다.
감정 모듈은 데이터로서 복수 종류의 감정 유니트를 취급한다. 감정 유니트는 예를 들면 현재의 감정 레벨(이하, 감정 레벨이라고 함), 최소 감정 레벨, 최대 감정 레벨 및 감정을 통지하는 기준이 되는 문지방값으로 구성된다. 감정 유니트는 취급하는 감정의 종류만 준비되며, 예를 들면 기쁨, 슬픔, 분노, 공포, 놀람, 혐오 등의 감정으로 구성된다. 이들 각 감정 레벨은 처음에 감정 파라미터 값으로 초기화되고, 그 후 인식 오브젝트 등의 외부로부터의 정보나 시간의 경과에 따라 변화한다.
각 감정 유니트는 서로 감정 레벨을 높이거나 낮게 하여 영향을 미치는 성질을 갖는다. 예를 들면, 슬픔 감정 유니트의 감정 레벨이 높을 때는 분노 감정 유니트의 감정 레벨이 높아진다. 또한, 기쁨 감정 유니트의 감정 레벨이 높을 때는 분노나 혐오의 감정 유니트의 감정 레벨은 낮아진다. 또, 전술한 감정 유니트는 한 가지 예이므로 이에 한정되지는 않는다.
본능 모듈은 감정 모듈과 마찬가지로 데이터로서 본능 유니트를 취급하고 있다. 본능 유니트는 예를 들면 현재의 본능 레벨(이하, 본능 레벨이라고 함), 최소 본능 레벨, 최대 본능 레벨 및 본능을 통지하는 기준이 되는 문지방값으로 구성된다. 본능 유니트는 취급하는 본능의 종류만 준비되며, 예를 들면 식욕, 운동욕, 휴식욕, 애정욕, 지식욕, 성욕 등의 본능 욕구로 구성된다. 이들 각 본능 레벨은 처음에 본능 파라미터 값으로 초기화되고, 그 후 인식 오브젝트 등의 외부로부터의 정보나 시간의 경과에 따라 변화한다. 또한, 각 본능 유니트는 감정 유니트의 경우와 달리 서로 본능 유니트를 높이는 경우는 없다. 다만, 본능 모듈과 감정 모듈은 서로 영향을 미쳐도 된다. 예를 들면, 본능으로서 「배가 고플」 때에 「화난다」라고 하는 감정이 되기 쉬운 것과 같다.
전술한 각 오브젝트는 오브젝트 지향의 설계 방식에 따라 구성되어 상층에 있는가 하층에 있는가에 관계없이 다른 오브젝트로부터의 정보를 받고 이에 대응하여 상태에 변화가 생기는 동시에 자기의 상태에 대응한 정보를 다른 오브젝트에 대해 출력한다. 즉, 각 오브젝트간에 서로 정보의 주고받기가 행해져서 서로 영향을 주고 있다. 또한, 이러한 오브젝트로서는 생물체 운동의 요인이 되는 것(예를 들면 학습, 사고, 지식)이나 생물체 행동을 행하기 위한 수단(손발, 관절, 운동제어) 등 생물체 행동에 관한 다양한 요소를 적용할 수 있다.
다음에, 위의 감정 모듈의 출력에 기초하여 행동을 일으키는 경우에 대해 설명한다.
감정 모듈은 외부 정보가 입력됨으로써 각 감정 유니트의 감정 레벨이 변화하는 경우와 시간의 경과에 따라 스스로 그 감정 레벨이 변화하는 경우가 있다.
처음에, 전술한 인식 오브젝트는 하드웨어인 도 1에 나타낸 제1 내지 제4의 CPC 디바이스(20, 30, 40, 50)의 각종 센서 정보로서, 예를 들면 색 센서에 의한 화상의 색 정보, 음 센서에 의한 스피커의 음 정보, 접촉 센서에 의한 접촉 정보 등의 입력 정보를 취급한다. 그리고, 인식 오브젝트는 통지해야 하는 정보를 인식하면, 도 3에 나타낸 바와 같이 이러한 인식 결과의 정보를 감정·본능 모델 오브젝트의 감정 모듈에 통지한다.
감정 모듈은 인식 오브젝트로부터 정보가 입력되면, 도 4에 나타낸 바와 같이 입력되는 정보의 종별을 판별하고(단계 ST1), 그 입력된 정보에 대응하는 파라미터를 사용하여 각 감정 유니트의 감정 레벨을 변화시킨다(단계 ST2). 그리고, 감정 모듈은 감정 레벨이 문지방값을 넘는 감정 유니트 가운데 감정 레벨이 최대가 되는 감정 유니트를 선택한다. 선택된 감정 유니트는 그 정보를 예를 들면 행동생성 오브젝트 등 출력을 요구하는 오브젝트에 대해 통지한다. 또한, 출력을 요구하는 오브젝트는 오브젝트 지향의 업저버 패턴에 의해 감정 모듈에 업저버로서 자신을 등록해둘 필요가 있다. 또한, 감정 모듈은 본능 모듈이 욕구불만을 해소한 메시지를 받아들이는 등 직접 센서 정보를 다루지 않는 오브젝트로부터의 입력도 받아들인다.
행동생성 오브젝트는 동작생성 오브젝트 등을 통해 하드웨어를 제어한다. 즉, 도 1에 나타내는 제1 내지 제4의 CPC 디바이스(20, 30, 40, 50)를 제어해서 예컨대 손발, 머리, 꼬리 등을 이용한 동작이나 음의 발생, LED의 점멸 간격 등을 행해서 감정을 표현한다.
한편, 감정 모듈은 시간이 경과하여 가면, 도 5에 나타내는 단계(ST11) 이하의 처리를 실행한다.
단계(ST11)에 있어서, 감정 모듈은 감정 레벨이나 파라미터의 초기화를 행하고 단계(ST12)로 나아간다.
단계(ST12)에 있어서, 감정 모듈은 LSI(14)가 구비하는 타이머를 이용하여 일정 시간이 경과하였는지를 판정하고, 일정 시간이 경과하지 않았을 때는 단계(ST12)에서 대기하며, 일정 시간이 경과하였을 때는 단계(ST13)로 나아간다.
단계(ST13)에 있어서, 감정 모듈은 각 감정 유니트의 감정 레벨을 감쇠시키고 단계(ST14)로 나아간다. 또한, 감쇠의 크기는 기억부(13)에 기억되어 있는 감쇠 파라미터에 의해 결정된다.
단계(ST14)에 있어서, 감정 모듈은 각 감정 상호의 억제/자극에 의해 감정 레벨을 변화시키고 단계(ST15)로 나아간다. 예를 들면, 공포가 클 때는 기쁨이 작아지나 혐오가 클 때는 분노도 커진다. 또한, 상호작용의 관계나 그 크기는 기억부(13)에 기억되어 있는 상호 파라미터에 의해 결정된다.
단계(ST15)에 있어서, 감정 모듈은 문지방값을 넘는 감정 유니트가 있는지를 판정하고, 이러한 감정 유니트가 없을 때는 단계(ST12)로 되돌아가며 이러한 감정 유니트가 있을 때는 단계(ST16)로 나아간다.
단계(ST16)에 있어서, 감정 모듈은 문지방값을 넘는 감정 유니트 가운데 감정 레벨이 최대인 감정 유니트를 선택하고 단계(ST17)로 나아간다.
단계(ST17)에 있어서, 감정 모듈은 선택한 감정 유니트의 정보를 행동생성 오브젝트에 대해 통지한다. 선택된 감정 유니트는 그 정보를, 예를 들면 행동생성 오브젝트 등 출력을 요구하는 오브젝트에 대해 통지한다. 또한, 감정 모듈은 본능 모듈이 욕구불만을 해소한 메시지를 받아들이는 등 직접 센서 정보를 다루지 않는 오브젝트로부터의 입력도 받아들인다.
행동생성 오브젝트는 동작생성 오브젝트 등을 통해 하드웨어를 제어한다. 즉, 도 1에 나타내는 제1 내지 제4의 CPC 디바이스(20, 30, 40, 50)를 제어해서 예컨대 손발, 머리, 꼬리 등을 이용한 동작이나 음의 발생, LED의 점멸 간격 등을 행해서 감정을 표현한다. 그리고, 단계(ST12)로 되돌아간다.
이와 같이 하여, 감정 모듈은 외부 정보나 내부 변화에 의해 감정 레벨이 변화한 각 감정 유니트 가운데 감정 레벨이 최대인 감정 유니트의 정보를 다른 오브젝트에 통지함으로써 다양한 감정이 서로 얽혔을 때의 상태를 행동생성 오브젝트에 통지할 수 있다. 행동생성 오브젝트는 감정 모듈로부터의 정보에 기초하여 시스템 소프트웨어, OS를 통해 하드웨어인 제1 내지 제4의 CPC 디바이스(20, 30, 40, 50)를 제어한다.
이상과 같이 위의 로봇 장치(1)에서는 감정 모듈은 각 감정이 복잡하게 유기적으로 관련되어 있을 때 가장 감정 레벨이 높은 감정 유니트의 정보를 행동생성 오브젝트에 통지함으로써 그 때의 상황에 대응하는 최적의 감정 표현을 실현할 수 있다.
위의 로봇 장치(1)는 외계로부터의 입력에 반응하는 감정 모듈만이 아니라 내부로부터 서서히 욕구가 높아져 가는 본능 모듈도 구비한다. 여기서, 위의 본능 모듈의 출력에 기초하여 행동을 일으키는 경우에 대해 설명한다.
본능 모듈은 외부 정보가 입력됨으로써 각 본능 유니트의 본능 레벨이 변화하는 경우와 시간의 경과에 의해 스스로 그 본능 레벨이 변화하는 경우가 있다.
처음에, 전술한 인식 오브젝트는 하드웨어인 도 1에 나타낸 제1 내지 제4의 CPC 디바이스(20, 30, 40, 50)의 각종 센서 정보로서, 예를 들면 색 센서에 의한 화상의 색 정보, 음 센서에 의한 스피커의 음 정보, 접촉 센서에 의한 접촉 정보 등의 입력 정보를 취급한다. 그리고, 인식 오브젝트는 통지해야 하는 정보를 인식하면, 도 6에 나타낸 바와 같이 이러한 인식 결과의 정보를 본능??본능 모델 오브젝트의 본능 모듈에 통지한다.
본능 모듈은 인식 오브젝트로부터 정보가 입력되면, 도 7에 나타낸 바와 같이 입력되는 정보의 종별을 판별하고(단계 ST21), 그 입력된 정보에 대응하는 파라미터를 사용하여 각 본능 유니트의 본능 레벨을 변화시킨다(단계 ST22). 예를 들면, 식욕의 본능 유니트는 배터리가 없어지게 되면 본능 레벨이 커져서 식욕 욕구 예컨대 충전 요구가 커진다. 또한, 본능 모듈은 행동생성 모듈이나 동작생성 모듈이 욕구 행동을 완료하여 출력한 정보 등 각종 센서로부터의 정보를 다루지 않는 오브젝트가 출력하는 정보도 받아들인다. 예를 들면, 심한 운동의 종료가 통지되면, 운동 욕구의 본능 레벨은 대폭 감쇠된다.
본능 모듈은 본능 레벨이 문지방값을 넘는 본능 유니트 가운데 본능 레벨이 최대가 되는 본능 유니트를 선택한다. 선택된 본능 유니트는 그 정보를 예를 들면 행동생성 오브젝트 등 출력을 요구하는 오브젝트에 대해 통지한다. 또한, 출력을 요구하는 오브젝트는 오브젝트 지향의 업저버 패턴에 의해 본능 모듈에 업저버로서 자신을 등록해둘 필요가 있다.
행동생성 오브젝트는 동작생성 오브젝트 등을 통해 하드웨어를 제어한다. 즉, 도 1에 나타내는 제1 내지 제4의 CPC 디바이스(20, 30, 40, 50)를 제어한다. 예를 들면, 행동생성 오브젝트는 운동 욕구가 높아졌을 때는 심하게 움직이도록 하고, 역으로 휴식 욕구가 높아질 때는 휴식을 취하도록 손발, 머리, 꼬리 등을 동작시켜 본능을 표현한다.
한편, 본능 모듈은 시간이 경과하여 가면, 도 8에 나타내는 단계(ST31) 이하의 처리를 실행한다.
단계(ST31)에 있어서, 본능 모듈은 본능 레벨이나 파라미터의 초기화를 행하고 단계(ST32)로 나아간다.
단계(ST32)에 있어서, 본능 모듈은 LSI(14)가 구비하는 타이머를 이용하여 일정 시간이 경과하였는지를 판정하고, 일정 시간이 경과하지 않았을 때는 단계(ST32)에서 대기하며, 일정 시간이 경과하였을 때는 단계(ST33)로 나아간다.
단계(ST33)에 있어서, 본능 모듈은 각 본능 유니트의 본능 레벨을 증가시키고 단계(ST34)로 나아간다. 또한, 증가의 크기는 기억부(13)에 기억되어 있는 증가 파라미터에 의해 결정된다.
단계(ST34)에 있어서, 본능 모듈은 문지방값을 넘는 본능 유니트가 있는지를 판정하고, 이러한 본능 유니트가 없을 때는 단계(ST32)로 되돌아가며 이러한 본능 유니트가 있을 때는 단계(ST35)로 나아간다.
단계(ST35)에 있어서, 본능 모듈은 문지방값을 넘는 본능 유니트 가운데 본능 레벨이 최대인 본능 유니트를 선택하고 단계(ST36)로 나아간다.
단계(ST36)에 있어서, 본능 모듈은 선택한 본능 유니트의 정보를 행동생성 오브젝트 등의 클라이언트 모듈에 대해 통지한다. 선택된 본능 유니트는 그 정보를, 예를 들면 행동생성 오브젝트 등 출력을 요구하는 오브젝트에 대해 통지한다.
행동생성 오브젝트는 동작생성 오브젝트 등을 통해 전술한 바와 같이 하드웨어를 제어하여 단계(ST32)로 되돌아간다.
이와 같이 하여, 본능 모듈은 외부 정보나 내부 변화에 의해 본능 레벨이 변화한 각 본능 유니트 가운데 본능 레벨이 최대인 본능 유니트의 정보를 다른 오브젝트에 통지함으로써 본능이 높아졌을 때의 상태를 행동생성 오브젝트에 통지할 수 있다. 행동생성 오브젝트는 본능 모듈로부터의 정보에 기초하여 시스템 소프트웨어, OS를 통해 하드웨어인 제1 내지 제4의 CPC 디바이스(20, 30, 40, 50)를 제어하고, 그 때의 상황에 대응하는 최적의 본능 표현을 실현할 수 있다.
이상에서 설명한 바와 같이, 감정 모듈도 본능 모듈도 다양한 오브젝트로부터의 정보에 기초하여 동작하고 있으나, 각각 병렬적으로 독립하여 제어되고 있다. 이로써 감정이나 본능이 섞여 있는 복잡한 심리 상태를 로봇 장치(1)에 자연스럽게 표현시킬 수 있다.
또한, 위의 로봇 장치(1)는 학습기능도 갖추고 있다. 즉, 전술한 바와 같이 기억장치(200)에는 각 감정 유니트의 감정 레벨이나 각 본능 유니트의 본능 레벨을 변화시키기 위한 요소로 되는 감정 파라미터나 본능 파라미터 등이 기억되어 있다. 그리고, 로봇 장치(1) 자신이 학습을 행하거나 성장한 경우에는 학습 오브젝트가 기억장치(200)의 각종 파라미터를 바꿔 씀으로써 그 성격이나 행동을 변화시킬 수도 있다.
또한, 위의 로봇 장치(1)는 통신장치(300)를 통해 도시하지 않은 다른 로봇 장치(1A)와 통신할 수 있다.
구체적으로는, 로봇 장치(1)의 감정 모듈은 감정 레벨이 가장 높은 감정 유니트의 정보를 위의 통신장치(300)(예를 들면 무선통신 카드)에 통지한다. 통신장치(300)는 이 감정 유니트의 정보를 미리 지정되어 있는 다른 로봇 장치(1A)에 대해 무선으로 송신한다. 이로써 위의 다른 로봇 장치(1A)는 위의 로봇 장치(1)의 감정을 읽어낼 수 있어서 로봇 장치(1)와 위의 다른 로봇 장치(1A) 사이에서 감정에 의한 커뮤니케이션을 행할 수 있다.
이로써, 예를 들면 로봇 장치(1)가 분노하고 있는 경우에는 다른 로봇 장치(1A)는 이에 반응하여 행동을 취할 수 있도록 된다. 구체적으로는, 다른 로봇 장치(1A)가 자신의 세력 범위를 침범하고 있다고 판단하였을 때 로봇 장치(1)는 분노에 반응한 행동으로서, 예컨대 도 9에 나타낸 바와 같이 으르렁거리며 짖는 행동을 취한다. 또한, 이에 따라 로봇 장치(1)의 분노의 감정 유니트의 감정 레벨은 높아진다. 그리고, 이 때 로봇 장치(1)의 통신장치(300)로부터 분노의 감정 유니트의 감정 레벨이 다른 로봇 장치(1A)에 송신된다.
로봇 장치(1)의 분노의 감정을 수신한 다른 로봇 장치(1A)는 이에 대응한 행동으로서, 예를 들면 도 9에 나타낸 바와 같이 도망치는 행동을 취한다. 예를 들면, 이와 같이 다른 로봇 장치(1A)가 취하는 도망가는 행동은 로봇 장치(1)로부터 송신되어온 분노의 감정에 따라 다른 로봇 장치(1A)가 자기의 공포 또는 놀람의 감정 레벨이 높아짐으로써 이루어진다.
이와 같이 로봇 장치(1)와 위의 다른 로봇 장치(1A) 사이에서 감정에 의한 커뮤니케이션을 행하고 이에 대응한 행동을 취할 수 있는 데, 이 행동은 전술한 행동에 한정되는 것은 아니다.
예를 들면, 로봇 장치(1)가 기쁜 경우에는 다른 로봇 장치(1A)는 이에 대응하여 기쁨의 행동을 취할 수도 있다. 즉, 로봇 장치(1)의 기쁨의 감정을 수신한 다른 로봇 장치(1A)는 로봇 장치(1)로부터 송신되어온 기쁨의 감정에 반응하여 자기의 기쁨의 감정 레벨을 높여서 로봇 장치(1)와 함께 기쁨의 행동을 취한다.
또한, 본능 유니트의 정보도 마찬가지로 위의 로봇 장치(1)로부터 위의 다른 로봇 장치(1A)로 송신할 수 있다. 이로써 본능 유니트의 정보에 대해서도 로봇 장치간에 통신하여 커뮤니케이션을 행할 수 있다.
더욱이, 로봇 장치간의 통신만이 아니라 도 10에 나타낸 바와 같이 소위 개인용 컴퓨터(PC)(400) 간에 통신을 행해도 된다. 즉, PC는 로봇 장치(1)의 감정 모듈의 출력을 제어해서 그 감정에 대응한 행동을 일으킬 수 있다.
또한, 무선으로 통신을 행하는 경우에 한하지 않고 유선을 사용하여 통신해도 되며 또 로봇 장치(1)에서 감정 유니트 등의 정보를 메모리 카드 등의 기록매체에 기록해두고, 이를 다른 로봇 장치(1A)에 장착해도 되는 것은 물론이다.
또한, 위의 로봇 장치(1)는 인터페이스가 동일하면 일본국 특허출원 98-030793호에 기재되어 있는 가상 애완 동물 장치에서의 전자 애완 동물 간에도 커뮤니케이션을 행할 수 있다.
더욱이, 전술한 하드웨어 구성으로 이루어지는 로봇 장치(1)를 동작시키기 위해 메모리 카드 등의 기록매체를 당해 로봇 장치(1)에 장착하고, 그 기록매체에 기록되어 있는 제어 프로그램을 인스톨함으로써 행해도 된다. 위의 기록매체에 기록되어 있는 제어 프로그램으로서는 도 2에 나타낸 바와 같은 OS, 시스템 소프트웨어, 미들웨어, 어플리케이션으로 이루어지는 제어 프로그램이 해당한다.
본 발명에 따른 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록매체에 의하면 오브젝트 지향으로 설계된 다양한 감정을 나타내는 복수의 감정 유니트가 서로 영향을 미침으로써 감정을 출력하고, 이 출력되는 감정에 기초하여 동작함으로써 리얼리티나 생동감을 갖는 생물체와 같이 자연스러운 행동을 할 수 있다.

Claims (92)

  1. 감정을 나타내는 복수의 감정 유니트가 서로 영향을 미침으로써 감정을 출력하는 감정 모듈과,
    상기 감정 모듈이 출력하는 감정에 기초하여 동작을 하는 동작 수단
    을 포함하는 로봇 장치.
  2. 제1항에 있어서,
    생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트를 구비하며,
    상기 감정 모듈은 상기 복수의 오브젝트로부터의 정보에 기초하여 복수의 감정 유니트가 서로 영향을 미쳐 감정을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 감정 모듈로부터의 감정에도 영향을 받아 정보를 출력하는
    것을 특징으로 하는 로봇 장치.
  3. 제1항에 있어서,
    상기 감정 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 로봇 장치.
  4. 제2항에 있어서,
    상기 동작 수단은 생물체의 행동 수단에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로 이루어지는
    것을 특징으로 하는 로봇 장치.
  5. 제1항에 있어서,
    상기 감정 모듈은 서로 영향을 미치는 복수의 감정 유니트 가운데 가장 감정 레벨이 높은 감정 유니트의 정보를 상기 감정으로서 출력하는
    것을 특징으로 하는 로봇 장치.
  6. 제5항에 있어서,
    상기 감정 모듈은 외부 정보에 기초하여 각 감정 유니트가 서로 영향을 미치는
    것을 특징으로 하는 로봇 장치.
  7. 제5항에 있어서,
    상기 감정 모듈은 시간의 경과에 따라 각 감정 유니트가 서로 영향을 미치는
    것을 특징으로 하는 로봇 장치.
  8. 제1항에 있어서,
    각 감정 유니트의 감정 상태를 제어하는 복수의 파라미터를 기억하는 기억 수단을 구비하며,
    상기 감정 모듈은 상기 기억 수단에 기억된 각 파라미터에 기초하여 각 감정 유니트의 감정 상태를 제어하는
    것을 특징으로 하는 로봇 장치.
  9. 제1항에 있어서,
    상기 감정 모듈이 출력하는 감정을 송신하고/하거나 외부로부터의 감정을 수신하여 상기 동작 수단에 통지하는 송신/수신 수단을 구비하는
    것을 특징으로 하는 로봇 장치.
  10. 제9항에 있어서,
    상기 송신/수신 수단에 의해 수신한 다른 로봇 장치의 감정에 대응한 행동을 취하는
    것을 특징으로 하는 로봇 장치.
  11. 제10항에 있어서,
    상기 감정 모듈은 다른 로봇 장치의 감정에 대응하여 상기 감정 유니트의 감정 상태를 변화시키는
    것을 특징으로 하는 로봇 장치.
  12. 제2항에 있어서,
    다양한 본능을 나타내는 복수의 본능 유니트가 각각 본능 레벨을 변화시킴으로써 본능을 출력하는 본능 모듈을 구비하며,
    상기 감정 모듈 및 상기 본능 모듈은 상기 복수의 오브젝트에 영향을 주면서 각각 독립적으로 동작하며,
    상기 동작 수단은 상기 감정 모듈 및 상기 본능 모듈로부터의 출력에 기초하여 동작하는
    것을 특징으로 하는 로봇 장치.
  13. 감정을 나타내는 복수의 감정 유니트가 서로 영향을 미침으로써 감정을 출력하는 감정 출력 단계와,
    상기 감정 출력 단계에 의해 출력된 감정에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 단계
    를 포함하는 로봇 장치의 제어방법.
  14. 제13항에 있어서,
    상기 감정 출력 단계에서는 생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로부터의 정보에 기초하여 복수의 감정 유니트가 서로 영향을 미쳐 감정을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 감정 출력 단계로부터의 감정에도 영향을 받아 정보를 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  15. 제13항에 있어서,
    상기 감정 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 로봇 장치의 제어방법.
  16. 제13항에 있어서,
    상기 감정 출력 단계에서는 서로 영향을 미치는 복수의 감정 유니트 가운데 가장 감정 레벨이 높은 감정 유니트의 정보를 상기 감정으로서 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  17. 제16항에 있어서,
    상기 감정 출력 단계에서는 외부 정보에 기초하여 각 감정 유니트가 서로 영향을 미치는
    것을 특징으로 하는 로봇 장치의 제어방법.
  18. 제16항에 있어서,
    상기 감정 출력 단계에서는 시간의 경과에 따라 각 감정 유니트가 서로 영향을 미치는
    것을 특징으로 하는 로봇 장치의 제어방법.
  19. 제13항에 있어서,
    상기 감정 출력 단계에서는 각 감정 유니트의 감정 상태를 제어하는 파라미터에 기초하여 각 감정 유니트의 감정 상태를 제어하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  20. 제13항에 있어서,
    다른 로봇 장치가 출력한 당해 다른 로봇 장치의 감정을 수신하고, 당해 다른 로봇 장치의 감정에 대응한 행동을 취하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  21. 제20항에 있어서,
    상기 감정 출력 단계에서는 상기 다른 로봇 장치의 감정에 대응하여 상기 감정 유니트의 감정 상태를 변화시키는
    것을 특징으로 하는 로봇 장치의 제어방법.
  22. 제14항에 있어서,
    다양한 본능을 나타내는 복수의 본능 유니트가 각각 본능 레벨을 변화시킴으로써 본능을 출력하는 본능 출력 단계를 구비하며,
    상기 감정 출력 단계 및 상기 본능 출력 단계에서는 상기 복수의 오브젝트의 영향을 받아 각각 독립적으로 감정 및 본능을 출력하며,
    상기 동작 제어 단계에서는 상기 감정 출력 단계 및 상기 본능 출력 단계에서 출력된 감정 및 본능에 기초하여 로봇 장치의 동작을 제어하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  23. 감정을 나타내는 복수의 감정 유니트가 서로 영향을 미침으로써 감정을 출력하는 감정 출력 단계와,
    상기 감정 출력 단계에 의해 출력된 감정에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 단계
    를 실행하는 프로그램이 기록된 것을 특징으로 하는 프로그램 기록매체.
  24. 제23항에 있어서,
    상기 감정 출력 단계에서는 생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로부터의 정보에 기초하여 복수의 감정 유니트가 서로 영향을 미쳐 감정을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 감정 출력 단계로부터의 감정에도 영향을 받아 정보를 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  25. 제23항에 있어서,
    상기 감정 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 프로그램 기록매체.
  26. 제23항에 있어서,
    상기 감정 출력 단계에서는 서로 영향을 미치는 복수의 감정 유니트 가운데 가장 감정 레벨이 높은 감정 유니트의 정보를 상기 감정으로서 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  27. 제26항에 있어서,
    상기 감정 출력 단계에서는 외부 정보에 기초하여 각 감정 유니트가 서로 영향을 미치는
    것을 특징으로 하는 프로그램 기록매체.
  28. 제26항에 있어서,
    상기 감정 출력 단계에서는 시간의 경과에 따라 각 감정 유니트가 서로 영향을 미치는
    것을 특징으로 하는 프로그램 기록매체.
  29. 제23항에 있어서,
    상기 감정 출력 단계에서는 각 감정 유니트의 감정 상태를 제어하는 파라미터에 기초하여 각 감정 유니트의 감정 상태를 제어하는
    것을 특징으로 하는 프로그램 기록매체.
  30. 제23항에 있어서,
    다른 로봇 장치가 출력한 당해 다른 로봇 장치의 감정을 수신하고, 당해 다른 로봇 장치의 감정에 대응한 행동을 취하는
    것을 특징으로 하는 프로그램 기록매체.
  31. 제30항에 있어서,
    상기 감정 출력 단계에서는 상기 다른 로봇 장치의 감정에 대응하여 상기 감정 유니트의 감정 상태를 변화시키는
    것을 특징으로 하는 프로그램 기록매체.
  32. 제24항에 있어서,
    다양한 본능을 나타내는 복수의 본능 유니트가 각각 본능 레벨을 변화시킴으로써 본능을 출력하는 본능 출력 단계의 프로그램이 기록되며,
    상기 감정 출력 단계 및 상기 본능 출력 단계에서는 상기 복수의 오브젝트의 영향을 받아 각각 독립적으로 감정 및 본능을 출력하며,
    상기 동작 제어 단계에서는 상기 감정 출력 단계 및 상기 본능 출력 단계에서 출력된 감정 및 본능에 기초하여 로봇 장치의 동작을 제어하는
    것을 특징으로 하는 프로그램 기록매체.
  33. 본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 모듈과,
    상기 본능 모듈이 출력하는 본능에 기초하여 동작을 하는 동작 수단
    을 포함하는 로봇 장치.
  34. 제33항에 있어서,
    생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트를 구비하며,
    상기 본능 모듈은 상기 복수의 오브젝트로부터의 정보에 기초하여 본능 유니트가 본능을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 본능 모듈로부터의 본능에도 영향을 받아 정보를 출력하는
    것을 특징으로 하는 로봇 장치.
  35. 제33항에 있어서,
    상기 본능 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 로봇 장치.
  36. 제34항에 있어서,
    상기 동작 수단은 생물체의 행동 수단에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로 이루어지는
    것을 특징으로 하는 로봇 장치.
  37. 제33항에 있어서,
    상기 본능 모듈은 가장 본능 레벨이 높은 본능 유니트의 정보를 상기 본능으로서 출력하는
    것을 특징으로 하는 로봇 장치.
  38. 제37항에 있어서,
    상기 본능 모듈은 외부 정보에 기초하여 본능을 출력하는
    것을 특징으로 하는 로봇 장치.
  39. 제37항에 있어서,
    상기 본능 모듈은 시간의 경과에 따라 각 본능 유니트가 본능을 출력하는
    것을 특징으로 하는 로봇 장치.
  40. 제33항에 있어서,
    각 본능 유니트의 본능 상태를 제어하는 복수의 파라미터를 기억하는 기억 수단을 구비하며,
    상기 본능 모듈은 상기 기억 수단에 기억된 각 파라미터에 기초하여 각 본능 유니트의 본능 상태를 제어하는
    것을 특징으로 하는 로봇 장치.
  41. 제33항에 있어서,
    상기 본능 모듈이 출력하는 본능을 송신하고/하거나 외부로부터의 본능을 수신하여 상기 동작 수단에 통지하는 송신/수신 수단을 구비하는
    것을 특징으로 하는 로봇 장치.
  42. 제41항에 있어서,
    상기 송신/수신 수단에 의해 수신한 다른 로봇 장치의 본능에 대응한 행동을 취하는
    것을 특징으로 하는 로봇 장치.
  43. 제42항에 있어서,
    상기 본능 모듈은 다른 로봇 장치의 본능에 대응하여 상기 본능 유니트의 본능 상태를 변화시키는
    것을 특징으로 하는 로봇 장치.
  44. 제34항에 있어서,
    다양한 감정을 나타내는 복수의 감정 유니트가 각각 감정 레벨을 변화시킴으로써 감정을 출력하는 감정 모듈을 구비하며,
    상기 본능 모듈 및 상기 감정 모듈은 상기 복수의 오브젝트에 영향을 주면서 각각 독립적으로 동작하며,
    상기 동작 수단은 상기 본능 모듈 및 상기 감정 모듈로부터의 출력에 기초하여 동작하는
    것을 특징으로 하는 로봇 장치.
  45. 본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 출력 단계와,
    상기 본능 출력 단계에 의해 출력된 본능에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 단계
    를 포함하는 로봇 장치의 제어방법.
  46. 제45항에 있어서,
    상기 본능 출력 단계에서는 생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로부터의 정보에 기초하여 복수의 본능 유니트가 본능을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 본능 출력 단계로부터의 본능에도 영향을 받아 정보를 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  47. 제45항에 있어서,
    상기 본능 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 로봇 장치의 제어방법.
  48. 제45항에 있어서,
    상기 본능 출력 단계에서는 가장 본능 레벨이 높은 본능 유니트의 정보를 상기 본능으로서 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  49. 제48항에 있어서,
    상기 본능 출력 단계에서는 외부 정보에 기초하여 본능을 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  50. 제48항에 있어서,
    상기 본능 출력 단계에서는 시간의 경과에 따라 각 본능 유니트가 본능을 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  51. 제45항에 있어서,
    상기 본능 출력 단계에서는 각 본능 유니트의 본능 상태를 제어하는 파라미터에 기초하여 각 본능 유니트의 본능 상태를 제어하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  52. 제45항에 있어서,
    다른 로봇 장치가 출력한 당해 다른 로봇 장치의 본능을 수신하고, 당해 다른 로봇 장치의 본능에 대응한 행동을 취하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  53. 제52항에 있어서,
    상기 본능 출력 단계에서는 상기 다른 로봇 장치의 본능에 대응하여 상기 본능 유니트의 본능 상태를 변화시키는
    것을 특징으로 하는 로봇 장치의 제어방법.
  54. 제46항에 있어서,
    다양한 감정을 나타내는 복수의 감정 유니트가 각각 감정 레벨을 변화시킴으로써 감정을 출력하는 감정 출력 단계를 구비하며,
    상기 본능 출력 단계 및 상기 감정 출력 단계에서는 상기 복수의 오브젝트의 영향을 받아 각각 독립적으로 본능 및 감정을 출력하며,
    상기 동작 제어 단계에서는 상기 본능 출력 단계 및 상기 감정 출력 단계에서 출력된 본능 및 감정에 기초하여 로봇 장치의 동작을 제어하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  55. 본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 출력 단계와,
    상기 본능 출력 단계에 의해 출력된 본능에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 단계
    를 실행하는 프로그램이 기록된 것을 특징으로 하는 프로그램 기록매체.
  56. 제55항에 있어서,
    상기 본능 출력 단계에서는 생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로부터의 정보에 기초하여 복수의 본능 유니트가 본능을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 본능 출력 단계로부터의 본능에도 영향을 받아 정보를 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  57. 제55항에 있어서,
    상기 본능 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 프로그램 기록매체.
  58. 제55항에 있어서,
    상기 본능 출력 단계에서는 가장 본능 레벨이 높은 본능 유니트의 정보를 상기 본능으로서 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  59. 제58항에 있어서,
    상기 본능 출력 단계에서는 외부 정보에 기초하여 각 본능 유니트가 본능을 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  60. 제58항에 있어서,
    상기 본능 출력 단계에서는 시간의 경과에 따라 각 본능 유니트가 본능을 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  61. 제55항에 있어서,
    상기 본능 출력 단계에서는 각 본능 유니트의 본능 상태를 제어하는 파라미터에 기초하여 각 본능 유니트의 본능 상태를 제어하는
    것을 특징으로 하는 프로그램 기록매체.
  62. 제55항에 있어서,
    다른 로봇 장치가 출력한 당해 다른 로봇 장치의 본능을 수신하고, 당해 다른 로봇 장치의 본능에 대응한 행동을 취하는
    것을 특징으로 하는 프로그램 기록매체.
  63. 제62항에 있어서,
    상기 본능 출력 단계에서는 상기 다른 로봇 장치의 본능에 대응하여 상기 본능 유니트의 본능 상태를 변화시키는
    것을 특징으로 하는 프로그램 기록매체.
  64. 제56항에 있어서,
    다양한 감정을 나타내는 복수의 감정 유니트가 각각 감정 레벨을 변화시킴으로써 감정을 출력하는 감정 출력 단계의 프로그램이 기록되며,
    상기 본능 출력 단계 및 상기 감정 출력 단계에서는 상기 복수의 오브젝트의 영향을 받아 각각 독립적으로 본능 및 감정을 출력하며,
    상기 동작 제어 단계에서는 상기 본능 출력 단계 및 상기 감정 출력 단계에서 출력된 본능 및 감정에 기초하여 로봇 장치의 동작을 제어하는
    것을 특징으로 하는 프로그램 기록매체.
  65. 감정을 나타내는 복수의 감정 유니트가 각각 감정을 출력하는 감정 모듈과,
    본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 모듈과,
    상기 감정 모듈이 출력하는 감정과 상기 본능 모듈이 출력하는 본능에 기초하여 동작을 하는 동작 수단
    을 포함하는 로봇 장치.
  66. 제65항에 있어서,
    상기 감정 유니트는 상기 본능 모듈이 출력한 본능에 영향을 받으며,
    상기 본능 유니트는 상기 감정 모듈이 출력한 감정에 영향을 받는
    것을 특징으로 하는 로봇 장치.
  67. 제65항에 있어서,
    상기 복수의 감정 유니트는 서로 영향을 미침으로써 감정을 출력하는
    것을 특징으로 하는 로봇 장치.
  68. 제65항에 있어서,
    생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트를 구비하며,
    상기 감정 모듈은 상기 복수의 오브젝트로부터의 정보에 기초하여 감정을 출력하며,
    상기 본능 모듈은 상기 복수의 오브젝트로부터의 정보에 기초하여 본능을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 감정 모듈로부터의 감정과 상기 본능 모듈로부터의 본능에 영향을 받아 정보를 출력하는
    것을 특징으로 하는 로봇 장치.
  69. 제65항에 있어서,
    상기 감정 유니트 및 본능 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 로봇 장치.
  70. 제66항에 있어서,
    상기 동작 수단은 생물체의 행동 수단에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로 이루어지는
    것을 특징으로 하는 로봇 장치.
  71. 제65항에 있어서,
    상기 감정 모듈은 감정 레벨이 높은 감정 유니트의 정보를 상기 감정으로서 출력하며,
    상기 본능 모듈은 본능 레벨이 높은 본능 유니트의 정보를 상기 본능으로서 출력하는
    것을 특징으로 하는 로봇 장치.
  72. 감정을 나타내는 복수의 감정 유니트가 각각 감정을 출력하는 감정 출력 단계와,
    본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 출력 단계와,
    상기 감정 출력 단계에 의해 출력된 감정과 상기 본능 출력 단계에 의해 출력된 본능에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 단계
    를 포함하는 로봇 장치의 제어방법.
  73. 제72항에 있어서,
    상기 감정 유니트는 상기 본능 출력 단계에서 출력한 본능에 영향을 받으며,
    상기 본능 유니트는 상기 감정 출력 단계에서 출력한 감정에 영향을 받는
    것을 특징으로 하는 로봇 장치의 제어방법.
  74. 제72항에 있어서,
    상기 복수의 감정 유니트는 서로 영향을 미침으로써 감정을 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  75. 제72항에 있어서,
    상기 감정 출력 단계에서는 생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로부터의 정보에 기초하여 감정을 출력하며,
    상기 본능 출력 단계에서는 생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로부터의 정보에 기초하여 본능을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 감정 출력 단계에서 출력된 감정과 상기 본능 출력 단계에서 출력된 본능에 영향을 받아 정보를 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  76. 제72항에 있어서,
    상기 감정 유니트 및 본능 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 로봇 장치의 제어방법.
  77. 제72항에 있어서,
    상기 감정 출력 단계에서는 감정 레벨이 높은 감정 유니트의 정보를 상기 감정으로서 출력하며,
    상기 본능 출력 단계에서는 본능 레벨이 높은 본능 유니트의 정보를 상기 본능으로서 출력하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  78. 감정을 나타내는 복수의 감정 유니트가 각각 감정을 출력하는 감정 출력 단계와,
    본능을 나타내는 복수의 본능 유니트가 각각 본능을 출력하는 본능 출력 단계와,
    상기 감정 출력 단계에 의해 출력된 감정과 상기 본능 출력 단계에 의해 출력된 본능에 기초하여 로봇 장치의 동작을 제어하는 동작 제어 단계
    를 실행하는 프로그램이 기록된 것을 특징으로 하는 프로그램 기록매체.
  79. 제78항에 있어서,
    상기 감정 유니트는 상기 본능 출력 단계에서 출력한 본능에 영향을 받으며,
    상기 본능 유니트는 상기 감정 출력 단계에서 출력한 감정에 영향을 받는
    것을 특징으로 하는 프로그램 기록매체.
  80. 제78항에 있어서,
    상기 복수의 감정 유니트는 서로 영향을 미침으로써 감정을 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  81. 제79항에 있어서,
    상기 감정 출력 단계에서는 생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로부터의 정보에 기초하여 감정을 출력하며,
    상기 본능 출력 단계에서는 생물체의 행동에 대응하여 각각 오브젝트 지향 방식으로 설계된 복수의 오브젝트로부터의 정보에 기초하여 본능을 출력하며,
    상기 복수의 오브젝트는 각각 서로 영향을 미치는 동시에 상기 감정 출력 단계에서 출력된 감정과 상기 본능 출력 단계에서 출력된 본능에 영향을 받아 정보를 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  82. 제78항에 있어서,
    상기 감정 유니트 및 본능 유니트는 오브젝트 지향 방식으로 설계되어 있는
    것을 특징으로 하는 프로그램 기록매체.
  83. 제78항에 있어서,
    상기 감정 출력 단계에서는 감정 레벨이 높은 감정 유니트의 정보를 상기 감정으로서 출력하며,
    상기 본능 출력 단계에서는 본능 레벨이 높은 본능 유니트의 정보를 상기 본능으로서 출력하는
    것을 특징으로 하는 프로그램 기록매체.
  84. 외부로부터 주어지는 자극을 검출하는 검출 수단과,
    상기 자극에 관한 정보의 이력을 기억하는 기억 수단과,
    상기 검출 수단에서 검출한 자극에 기초하여 응답처리를 결정하는 응답처리 결정수단과,
    상기 응답처리 결정수단에 의해 결정된 상기 응답처리를 실행하는 응답실행수단
    을 포함하며,
    상기 응답처리 결정수단은 상기 응답처리를 결정할 때 상기 기억 수단에 기억된 이력 정보에 기초하여 행하는
    것을 특징으로 하는 로봇 장치.
  85. 제84항에 있어서,
    상기 응답처리 결정수단은 감정에 기인하는 상기 자극에 따라 변화하는 상기 이력 정보인 감정 레벨에 따라 감정을 결정하는 감정 모듈이며,
    상기 응답실행수단은 상기 감정 모듈이 결정한 감정을 표출하는 행동 및/또는 동작을 하는
    것을 특징으로 하는 로봇 장치.
  86. 제84항에 있어서,
    상기 응답처리 결정수단은 본능에 기인하는 상기 자극에 따라 변화하는 상기 이력 정보인 본능 레벨에 따라 본능을 결정하는 본능 모듈이며,
    상기 응답실행수단은 상기 본능 모듈이 결정한 본능을 표출하는 행동 및/또는 동작을 하는
    것을 특징으로 하는 로봇 장치.
  87. 외부로부터 로봇 장치에 주어지는 자극을 검출하는 검출 단계와,
    상기 검출 단계에서 검출한 자극에 기초하여 상기 로봇 장치의 응답처리를 결정하는 응답처리 결정단계와,
    상기 응답처리 결정단계에서 결정된 상기 응답처리를 상기 로봇 장치에 의해 실행하는 응답실행단계
    를 포함하며,
    상기 응답처리 결정단계에서는 상기 응답처리를 결정할 때 기억 수단에 기억된 상기 자극에 관한 정보의 이력에 기초하여 행하는
    것을 특징으로 하는 로봇 장치의 제어방법.
  88. 제87항에 있어서,
    상기 응답처리 결정수단은 감정에 기인하는 상기 자극에 따라 변화하는 상기 이력 정보인 감정 레벨에 따라 감정을 결정하는 감정 모듈이며,
    상기 응답실행수단은 상기 감정 모듈이 결정한 감정을 표출하는 행동 및/또는 동작을 상기 로봇 장치에 시키는
    것을 특징으로 하는 로봇 장치의 제어방법.
  89. 제87항에 있어서,
    상기 응답처리 결정수단은 본능에 기인하는 상기 자극에 따라 변화하는 상기 이력 정보인 본능 레벨에 따라 본능을 결정하는 본능 모듈이며,
    상기 응답실행수단은 상기 본능 모듈이 결정한 본능을 표출하는 행동 및/또는 동작을 상기 로봇 장치에 시키는
    것을 특징으로 하는 로봇 장치의 제어방법.
  90. 외부로부터 로봇 장치에 주어지는 자극을 검출하는 검출 단계와,
    상기 검출 단계에서 검출한 자극에 기초하여 상기 로봇 장치의 응답처리를 결정하는 응답처리 결정단계와,
    상기 응답처리 결정단계에서 결정된 상기 응답처리를 상기 로봇 장치에 의해 실행하는 응답실행단계
    를 포함하며,
    상기 응답처리 결정단계에서는 상기 응답처리를 결정할 때 기억 수단에 기억된 상기 자극에 관한 정보의 이력에 기초하여 실행하는
    프로그램이 기록된 것을 특징으로 하는 프로그램 기록매체.
  91. 제90항에 있어서,
    상기 응답처리 결정수단은 감정에 기인하는 상기 자극에 따라 변화하는 상기 이력 정보인 감정 레벨에 따라 감정을 결정하는 감정 모듈이며,
    상기 응답실행수단은 상기 감정 모듈이 결정한 감정을 표출하는 행동 및/또는 동작을 상기 로봇 장치에 시키는
    프로그램이 기록된 것을 특징으로 하는 프로그램 기록매체.
  92. 제90항에 있어서,
    상기 응답처리 결정수단은 본능에 기인하는 상기 자극에 따라 변화하는 상기 이력 정보인 본능 레벨에 따라 본능을 결정하는 본능 모듈이며,
    상기 응답실행수단은 상기 본능 모듈이 결정한 본능을 표출하는 행동 및/또는 동작을 상기 로봇 장치에 시키는
    프로그램이 기록된 것을 특징으로 하는 프로그램 기록매체.
KR1020007013955A 1998-11-30 1999-11-30 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체 KR20010052699A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP98-340716 1998-11-30
JP34071698 1998-11-30
PCT/JP1999/006713 WO2000032361A1 (fr) 1998-11-30 1999-11-30 Robot, procede de commande de robot et support d'enregistrement de programme

Publications (1)

Publication Number Publication Date
KR20010052699A true KR20010052699A (ko) 2001-06-25

Family

ID=18339637

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007013955A KR20010052699A (ko) 1998-11-30 1999-11-30 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체

Country Status (6)

Country Link
US (1) US7076331B1 (ko)
EP (1) EP1136194A4 (ko)
KR (1) KR20010052699A (ko)
CN (1) CN1146493C (ko)
HK (1) HK1040664B (ko)
WO (1) WO2000032361A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
KR100819248B1 (ko) * 2006-09-05 2008-04-02 삼성전자주식회사 소봇의 감정변환 방법
KR100858079B1 (ko) * 2002-01-03 2008-09-10 삼성전자주식회사 에이전트 감정 생성 방법 및 장치

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4524524B2 (ja) * 2000-10-11 2010-08-18 ソニー株式会社 ロボット装置及びその制御方法
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
KR20020061961A (ko) * 2001-01-19 2002-07-25 사성동 지능형 애완로봇
JP2002239256A (ja) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd 自動応答玩具における感情決定装置および自動応答玩具
WO2005069890A2 (en) * 2004-01-15 2005-08-04 Mega Robot, Inc. System and method for reconfiguring an autonomous robot
KR100825719B1 (ko) 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
CN101224343B (zh) * 2007-01-19 2011-08-24 鸿富锦精密工业(深圳)有限公司 类生物及其部件控制模块
DE102007048085A1 (de) 2007-10-05 2009-04-16 Navalis Nutraceuticals Gmbh Arzneimittel enthaltend Frauenmantel, Mönchspfeffer zur Behandlung von Endometritis, Vagintis
DE502008002255D1 (de) 2007-03-23 2011-02-24 Navalis Nutraceuticals Gmbh Arzneimittel enthaltend Fraumenmantel zur Behandlung von Endometritis, Vaginitis
DE102007014595A1 (de) 2007-03-23 2008-09-25 Navalis Nutraceuticals Gmbh Arzneimittel enthaltend Frauenmantel (Alchemilla vulgaris) zur Behandlung von Endometritis
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
US9155961B2 (en) 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
US8939840B2 (en) 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
FR2989209B1 (fr) * 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
US9387588B1 (en) 2014-08-25 2016-07-12 Google Inc. Handling gait disturbances with asynchronous timing
US9618937B1 (en) 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
US10081098B1 (en) 2014-08-25 2018-09-25 Boston Dynamics, Inc. Generalized coordinate surrogates for integrated estimation and control
US9446518B1 (en) * 2014-11-11 2016-09-20 Google Inc. Leg collision avoidance in a robotic device
US9499218B1 (en) 2014-12-30 2016-11-22 Google Inc. Mechanically-timed footsteps for a robotic device
US9996369B2 (en) 2015-01-05 2018-06-12 Anki, Inc. Adaptive data analytics service
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
US9586316B1 (en) 2015-09-15 2017-03-07 Google Inc. Determination of robotic step path
US9789919B1 (en) 2016-03-22 2017-10-17 Google Inc. Mitigating sensor noise in legged robots
CN106504614B (zh) * 2016-12-01 2022-07-26 华南理工大学 一种积木式编程的教育机器人
JP6605442B2 (ja) 2016-12-27 2019-11-13 本田技研工業株式会社 情報提供装置および情報提供方法
WO2019068634A1 (en) * 2017-10-02 2019-04-11 Starship Technologies Oü DEVICE AND METHOD FOR DISTRIBUTING ARTICLES CONSUMABLE BY A MOBILE ROBOT
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4657104A (en) * 1983-07-23 1987-04-14 Cybermation, Inc. Concentric shaft mobile base for robots and the like
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト
US5742738A (en) * 1988-05-20 1998-04-21 John R. Koza Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations
JPH0612401A (ja) 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US5963712A (en) * 1996-07-08 1999-10-05 Sony Corporation Selectively configurable robot apparatus
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JPH10235019A (ja) * 1997-02-27 1998-09-08 Sony Corp 携帯型ライフゲーム装置及びそのデータ管理装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
KR100858079B1 (ko) * 2002-01-03 2008-09-10 삼성전자주식회사 에이전트 감정 생성 방법 및 장치
KR100819248B1 (ko) * 2006-09-05 2008-04-02 삼성전자주식회사 소봇의 감정변환 방법
US7827126B2 (en) 2006-09-05 2010-11-02 Samsung Electronics Co., Ltd Method for changing emotion of software robot

Also Published As

Publication number Publication date
WO2000032361A1 (fr) 2000-06-08
EP1136194A1 (en) 2001-09-26
US7076331B1 (en) 2006-07-11
HK1040664B (zh) 2005-03-18
CN1312750A (zh) 2001-09-12
HK1040664A1 (en) 2002-06-21
CN1146493C (zh) 2004-04-21
EP1136194A4 (en) 2001-09-26

Similar Documents

Publication Publication Date Title
KR20010052699A (ko) 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US6667593B2 (en) Robot apparatus
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US7363108B2 (en) Robot and control method for controlling robot expressions
US7515992B2 (en) Robot apparatus and emotion representing method therefor
US6362589B1 (en) Robot apparatus
EP1136193A2 (en) Humanoid robot communicating with body language
WO2004080665A1 (ja) ロボット装置、その行動制御方法及びプログラム
KR20020067699A (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
JP2001353678A (ja) オーサリング・システム及びオーサリング方法、並びに記憶媒体
WO2000066239A1 (fr) Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2001212782A (ja) ロボット装置及びロボット装置の制御方法
JP2002049385A (ja) 音声合成装置、疑似感情表現装置及び音声合成方法
JP3925140B2 (ja) 情報提供方法及び情報提供装置、並びにコンピュータ・プログラム
JP2004298975A (ja) ロボット装置、障害物探索方法
JP4296736B2 (ja) ロボット装置
JP2003191187A (ja) ロボット装置及びその制御方法
JP2007125629A (ja) ロボット装置及びその行動制御方法
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP2004114285A (ja) ロボット装置及びその行動制御方法
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP3501123B2 (ja) ロボット装置及びロボット装置の行動制御方法
JP2001191279A (ja) 行動管理システム、行動管理方法及びロボット装置
JP2005169567A (ja) コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application