KR20020067696A - 로봇 장치와 정보 표시 시스템 및 정보 표시 방법 - Google Patents

로봇 장치와 정보 표시 시스템 및 정보 표시 방법 Download PDF

Info

Publication number
KR20020067696A
KR20020067696A KR1020027007444A KR20027007444A KR20020067696A KR 20020067696 A KR20020067696 A KR 20020067696A KR 1020027007444 A KR1020027007444 A KR 1020027007444A KR 20027007444 A KR20027007444 A KR 20027007444A KR 20020067696 A KR20020067696 A KR 20020067696A
Authority
KR
South Korea
Prior art keywords
information
robot
message
diary
sentence
Prior art date
Application number
KR1020027007444A
Other languages
English (en)
Inventor
오사무 오따
사또꼬 오구레
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20020067696A publication Critical patent/KR20020067696A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

퍼스널 컴퓨터에 있어서, 로봇 장치(1)가 메모리 카드에 기억되어 있는 정보나, 기억 장치 등에 기억되어 있는 데이터베이스의 데이터 등을 사용하여, 일기 화면으로서, 메시지의 원어(110) 및 그 번역(111), 화상(112), 사용자의 메시지(113) 등을 표시한다.

Description

로봇 장치와 정보 표시 시스템 및 정보 표시 방법{ROBOT APPARATUS, INFORMATION DISPLAY SYSTEM, AND INFORMATION DISPLAY METHOD}
최근, 주위 환경이나 내부 상태에 따라서 자율적으로 행동하는 자율형 로봇 장치가 제안되어 있다. 로봇 장치에는, 외관 형상이 개 등의 동물을 모방하여 형성되어 있고, 주위 환경이나 내부 상태에 따라서 감정이나 본능을 변화시키고, 그 변화된 감정이나 본능에 기초하여 행동을 하는 것이 있다. 이러한 로봇 장치는 페트화되거나 혹은 가족의 일원으로 되어, 사용자는 그와 같은 로봇 장치와 다양한 대화를 즐길 수 있다.
한편, 로봇 장치는, 자신이 구비하고 있는 마이크나 다리 등을 이용하여, 음성이나 행동에 의해 사용자와 대화를 하고 있다. 그러나, 사용자는, 로봇 장치의 감정 등을 말을 통해 알 수는 없다. 특히, 페트 혹은 가족의 일원으로서 로봇 장치와 공동 생활을 하고 있는 사용자는, 로봇 장치와 말을 통해 대화를 하고 싶다고생각하는 것은 지극히 당연한 일이다.
〈발명의 개시〉
본 발명은, 상술한 실정을 감안하여 이루어진 것으로, 로봇 장치와 말을 통해 대화를 가능하게 하는 로봇 장치, 그와 같은 로봇 장치를 이용한 정보 표시 시스템 및 그 방법, 로봇 시스템과 기록 매체를 제공하는 것을 목적으로 하고 있다.
본 발명에 따른 로봇 장치는, 상술한 과제를 해결하기 위해, 정보 표시 장치에 표시시키기 위한 정보를 취득하는 정보 취득 수단과, 정보 취득 수단에 의해 취득한 정보를 정보 표시 장치로 전송하기 위한 정보 전송 수단을 포함한다.
이러한 구성을 구비한 로봇 장치는, 정보 표시 장치에 표시시키기 위한 정보를 정보 취득 수단에 의해 취득하고, 정보 취득 수단에 의해 취득한 정보를 정보 표시 장치로 정보 전송 수단에 의해 전송한다.
이러한 로봇 장치는, 해당 로봇 장치에 의해 취득한 정보에 기초하여 정보 표시부에 문서를 표시하는 정보 처리 장치 등에, 자신이 취득한 정보를 전송한다.
또한, 본 발명에 따른 정보 표시 시스템은, 상술한 과제를 해결하기 위해, 정보를 취득하는 정보 취득 수단과, 정보 취득 수단에 의해 취득한 정보를 전송하기 위한 정보 전송 수단을 포함하는 로봇 장치를 구비한다. 또한, 정보 표시 시스템은, 정보 전송 수단에 의해 전송되어 온 정보 전송 수단이 취득한 정보에 기초하여, 사전에 준비하고 있는 문장 패턴을 이용하여 정보 표시부에 문장을 표시하는 정보 처리 장치를 구비한다.
이에 따라, 정보 표시 시스템에서, 로봇 장치는, 정보를 정보 취득 수단에의해 취득하고, 정보 취득 수단에 의해 취득한 정보를 정보 표시 수단으로 정보 전송 수단에 의해 전송한다. 한편, 정보 처리 장치는, 정보 전송 수단에 의해 전송되어 온 정보 취득 수단이 취득한 정보에 기초하여, 사전에 준비하고 있는 문장 패턴을 이용하여 정보 표시부에 문장을 표시한다.
이러한 정보 표시 시스템은, 로봇 장치에서 취득한 정보에 기초하여, 정보 표시부에 문서를 표시한다.
또한, 본 발명에 따른 정보 표시 방법은, 상술한 과제를 해결하기 위해, 로봇 장치에 의해 정보를 취득하고, 정보 처리 장치에서, 로봇 장치에 의해 취득한 정보에 기초하여, 사전에 준비하고 있는 문장 패턴을 이용하여 정보 표시부에 문장을 표시한다. 즉, 정보 표시 방법에 의하면, 로봇 장치에서 취득한 정보에 기초하여, 정보 표시부에 문서가 표시된다.
또한, 본 발명에 따른 로봇 시스템은, 상술한 과제를 해결하기 위해, 자율적으로 행동하는 로봇 장치와, 상기 로봇 장치에 기초한 정보를 처리하는 정보 처리 장치와, 상기 정보 처리 장치에 의해 처리된 정보에 관한 내용을 표시하는 화상 표시 수단을 포함한다.
여기서, 로봇 시스템에서, 로봇 장치는, 해당 로봇 장치의 활동에 기초한 활동 정보를 취득하는 정보 취득 수단과, 해당 정보 취득 수단에 의해 취득된 활동 정보를 기억하는 기억 수단을 포함하며, 정보 처리 장치는, 복수의 메시지 또는 문장이 기억된 메시지 패턴 기억 수단과, 상기 활동 정보와 상기 메시지 또는 문장에 기초하여, 상기 로봇 장치에 관한 일기를 작성하는 일기 작성 수단을 포함하고, 상기 화상 표시 수단은, 상기 일기 작성 수단에 의해 작성된 상기 일기를 표시한다.
이러한 로봇 시스템은, 로봇 장치에서 취득한 활동 정보에 기초하여, 화상 표시 수단에 해당 로봇 장치에 관한 일기를 표시한다.
또한, 본 발명에 따른 정보 표시 방법은, 상술한 과제를 해결하기 위해, 자율적으로 행동하는 로봇 장치에 의해, 해당 로봇 장치의 활동에 기초한 활동 정보를 취득하고, 정보 처리 장치가, 복수의 메시지 또는 문장이 기억된 메시지 패턴 기억 수단에서의 상기 메시지 또는 문장과 상기 활동 정보에 기초하여, 상기 로봇 장치에 관한 일기를 작성하고, 화상 표시 수단에 표시한다. 즉, 정보 표시 방법에 의하면, 로봇 장치에서 취득한 활동 정보에 기초하여, 화상 표시 수단에 해당 로봇 장치에 관한 일기가 표시된다.
또한, 본 발명에 따른 기록 매체는, 상술한 과제를 해결하기 위해, 자율적으로 행동하는 로봇 장치의 활동에 기초한 활동 정보와, 복수의 메시지 또는 문장으로부터 상기 로봇 장치에 관한 일기를 작성하는 프로그램을 기록하고 있다. 즉, 이 기록 매체에 기록된 프로그램에 의하면, 로봇 장치에서 취득한 활동 정보에 기초하여, 화상 표시 수단에 해당 로봇 장치에 관한 일기가 표시된다.
본 발명의 또 다른 목적, 본 발명에 의해 얻어지는 구체적인 이점은, 이하에 설명되는 실시예의 설명으로부터 한층 명백하게 될 것이다.
본 발명은 로봇 장치, 정보 표시 시스템 및 그 방법, 로봇 시스템과 기록 매체에 관한 것으로, 더 상세하게는, 외관 형상을 동물을 모방하여 형성한 로봇 장치, 그와 같은 로봇 장치를 이용한 정보 표시 시스템 및 방법, 로봇 시스템과 기록 매체에 관한 것이다.
도 1은 본 발명의 실시예인 로봇 장치의 외관 구성을 도시한 사시도.
도 2는 상술한 로봇 장치의 회로 구성을 도시한 블록도.
도 3은 상술한 로봇 장치의 소프트웨어 구성을 도시한 블록도.
도 4는 상술한 로봇 장치의 소프트웨어 구성에서의 미들웨어층의 구성을 도시한 블록도.
도 5는 상술한 로봇 장치의 소프트웨어 구성에서의 어플리케이션층의 구성을 도시한 블록도.
도 6은 상술한 어플리케이션층의 행동 모델 라이브러리의 구성을 도시한 블록도.
도 7은 로봇 장치의 행동 결정을 위한 정보가 되는 유한 확률 오토마톤을 설명하기 위해 사용한 도면.
도 8은 유한 확률 오토마톤의 각 노드에 준비된 상태 천이표를 도시한 도면.
도 9는 본 발명의 실시예인 시스템 구성을 도시한 사시도.
도 10은 일기 화면을 도시한 도면.
도 11은 로봇 세계에서 사용되고 있는 것으로서 예시한 예의 언어를 도시한 도면.
도 12는 입력 세만틱스의 구체예인 전반 부분을 도시한 도면.
도 13은 입력 세만틱스의 구체예인 후반 부분을 도시한 도면.
도 14는 출력 세만틱스의 구체예인 전반 부분을 도시한 도면.
도 15는 출력 세만틱스의 구체예인 중반 부분을 도시한 도면.
도 16은 출력 세만틱스의 구체예의 후반 부분을 도시한 도면.
도 17은 감정의 파라미터값에 기초하여 촬상 화상을 취득해 가는 일련의 공정을 설명하는 흐름도.
도 18은 감정의 파라미터값에 기초하여 정리된 촬상 화상 데이터를 도시한 도면.
도 19는 일기 화면에 표시되는 화상의 예를 도시한 도면.
도 20은 캐릭터 및 그 캐릭터에 의한 메시지가 표시된 일기 화면을 도시한 도면.
도 21은 캐릭터의 다른 메시지 예를 도시한 도면.
〈발명을 실시하는 위한 최량의 형태〉
이하, 본 발명의 실시예에 대하여 도면을 참조하여 상세히 설명한다. 본 실시예는, 주위 환경이나 내부 상태에 따라 자율적으로 행동을 하는 자율형 로봇 장치이다. 로봇 장치(1)는 퍼스널 컴퓨터 등의 정보 처리 장치 상에서 기동되는 일기(DIARY) 기능을 실현하기 위한 기능을 갖고 있다.
실시예에서는, 우선, 로봇 장치의 구성에 대하여 설명하고, 그 후, 로봇 장치를 이용한 일기 기능을 상세히 설명한다.
(1) 본 실시예에 따른 로봇 장치의 구성
도 1에 도시한 바와 같이,「개」등의 동물을 모방한 형상의 소위 페트 로봇으로 되고, 동체부 유닛(2)의 전후 좌우에 각각 다리부 유닛(3A, 3B, 3C, 3D)이 연결됨과 함께, 동체부 유닛(2)의 전단부 및 후단부에 각각 머리부 유닛(4) 및 꼬리부 유닛(5)이 연결되어 구성되어 있다.
동체부 유닛(2)에는, 도 2에 도시한 바와 같이, CPU(Central Processing Unit)(10), DRAM(Dynamic Random Access Memory)(11), 플래시 ROM(Read Only Memory)(12), PC(Personal Computer) 카드 인터페이스 회로(13) 및 신호 처리 회로(14)가 내부 버스(15)를 통해 서로 접속됨으로써 형성된 컨트롤부(16)와, 이 로봇 장치(1)의 동력원으로서의 배터리(17)가 수납되어 있다. 또한, 동체부 유닛(2)에는, 로봇 장치(1)의 방향이나 움직임의 가속도를 검출하기 위한 각속도 센서(18) 및 가속도 센서(19) 등도 수납되어 있다.
또한, 머리부 유닛(4)에는, 외부 상황을 촬상하기 위한 CCD(Charge Coupled Device) 카메라 등의 촬상 장치(20)와, 사용자로부터의「쓰다듬다」나「때리다」등의 물리적인 행위에 의해 받은 압력을 검출하기 위한 터치 센서(21)와, 전방에 위치하는 물체까지의 거리를 측정하기 위한 거리 센서(22)와, 외부음을 집음하기 위한 마이크로폰(23)과, 울음소리 등의 음성을 출력하기 위한 스피커(24)와, 로봇 장치(1)의 외관상「눈」에 상당하는 LED(Light Emitting Diode)(도시 생략) 등이 각각 소정 위치에 배치되어 있다.
또한, 각 다리부 유닛(3A∼3D)의 관절 부분이나 각 다리부 유닛(3A∼3D) 및 동체부 유닛(2)의 각 연결 부분, 머리부 유닛(4) 및 동체부 유닛(2)의 연결 부분, 및 꼬리부 유닛(5)의 꼬리(5A)의 연결 부분 등에는 각각 자유도수분의 액튜에이터(251∼25n) 및 전위차계(261∼26n)가 배치되어 있다. 예를 들면, 액튜에이터(251∼25n)는 서보 모터를 구성으로서 갖고 있다. 서보 모터의 구동에 의해,다리부 유닛(3A∼3D)이 제어되어, 목표의 자세 또는 동작으로 천이한다.
그리고, 이들 각속도 센서(18), 가속도 센서(19), 터치 센서(21), 거리 센서(22), 마이크로폰(23), 스피커(24) 및 각 전위차계(261∼26n) 등의 각종 센서와 LED 및 각 액튜에이터(251∼25n)는, 각각 대응하는 허브(271∼27n)를 통해 컨트롤부(16)의 신호 처리 회로(14)와 접속되고, 촬상 장치(20) 및 배터리(17)는, 각각 신호 처리 회로(14)와 직접 접속되어 있다.
신호 처리 회로(14)는, 상술한 각 센서로부터 공급되는 센서 데이터나 화상 데이터 및 음성 데이터를 순차적으로 취득하고, 이들을 각각 내부 버스(15)를 통해 DRAM(11) 내의 소정 위치에 순차적으로 저장한다. 또한 신호 처리 회로(14)는, 이와 함께 배터리(17)로부터 공급되는 배터리 잔량을 나타내는 배터리 잔량 데이터를 순차적으로 취득하고, 이것을 DRAM(11) 내의 소정 위치에 저장한다.
이와 같이 하여 DRAM(11)에 저장된 각 센서 데이터, 화상 데이터, 음성 데이터 및 배터리 잔량 데이터는, 이 후 CPU(10)가 이 로봇 장치(1)의 동작 제어를 행할 때 이용된다.
실제로, CPU(10)는 로봇 장치(1)의 전원이 투입된 초기 시, 동체부 유닛(2)의 도시하지 않은 PC 카드 슬롯에 장전된 메모리 카드(28) 또는 플래시 ROM(12)에 저장된 제어 프로그램을 PC 카드 인터페이스 회로(13)를 통하거나 또는 직접 판독하여, 이것을 DRAM(11)에 저장한다.
또한, CPU(10)는, 이 후 상술한 바와 같이 신호 처리 회로(14)로부터DRAM(11)에 순차적으로 저장되는 각 센서 데이터, 화상 데이터, 음성 데이터 및 배터리 잔량 데이터에 기초하여 자신 및 주위 상황이나, 사용자로부터의 지시 및 행위의 유무 등을 판단한다.
또한, CPU(10)는, 이 판단 결과 및 DRAM(11)에 저장한 제어 프로그램에 기초하여 후속되는 행동을 결정함과 함께, 해당 결정 결과에 기초하여 필요한 액튜에이터(251∼25n)를 구동시킴으로써, 머리부 유닛(4)을 상하 좌우로 흔들거나, 꼬리부 유닛(5)의 꼬리(5A)를 움직이거나, 각 다리부 유닛(3A∼3D)을 구동시켜 보행시키는 등의 행동을 행하게 한다.
또한, 이 때 CPU(10)는, 필요에 따라서 음성 데이터를 생성하고, 이것을 신호 처리 회로(14)를 통해 음성 신호로서 스피커(24)에 전송함으로써 해당 음성 신호에 기초한 음성을 외부로 출력시키거나, 상술한 LED를 점등, 소등 또는 점멸시킨다.
이와 같이 하여 로봇 장치(1)에서는, 자신 및 주위 상황이나, 사용자로부터의 지시 및 행위에 따라서 자율적으로 행동할 수 있도록 이루어져 있다.
(2) 제어 프로그램의 소프트웨어 구성
여기서, 로봇 장치(1)에서의 상술한 제어 프로그램의 소프트웨어 구성은, 도 3에 도시된 바와 같다. 도 3에서, 디바이스 드라이버층(30)은, 이 제어 프로그램의 최하위층에 위치하며, 복수의 디바이스 드라이버로 이루어지는 디바이스 드라이버 세트(31)로 구성되어 있다. 이 경우, 각 디바이스 드라이버는, 촬상 장치(20)(도 2)나 타이머 등의 통상의 컴퓨터에서 이용되는 하드웨어에 직접 액세스하는 것이 허용된 오브젝트로서, 대응하는 하드웨어로부터의 인터럽트를 받아 처리를 행한다.
또한, 로보틱 서버 오브젝트(32)는, 디바이스 드라이버층(30)의 최하위층에 위치하며, 예를 들면 상술한 각종 센서나 액튜에이터(251∼25n) 등의 하드웨어에 액세스하기 위한 인터페이스를 제공하는 소프트웨어군으로 이루어지는 버츄얼 로봇(33)과, 전원의 전환 등을 관리하는 소프트웨어군으로 이루어지는 파워 매니저(34)와, 그 밖의 다양한 디바이스 드라이버를 관리하는 소프트웨어군으로 이루어지는 디바이스 드라이버 매니저(35)와, 로봇 장치(1)의 기구를 관리하는 소프트웨어군으로 이루어지는 디자인된 로봇(36)으로 구성되어 있다.
매니저 오브젝트(37)는 오브젝트 매니저(38) 및 서비스 매니저(39)로 구성되어 있다. 오브젝트 매니저(38)는 로보틱 서버 오브젝트(32), 미들웨어층(40) 및 어플리케이션층(41)에 포함되는 각 소프트웨어군의 기동이나 종료를 관리하는 소프트웨어군이며, 서비스 매니저(39)는 메모리 카드(28)(도 2)에 저장된 커넥션 파일에 기록되어 있는 각 오브젝트 간의 접속 정보에 기초하여 각 오브젝트의 접속을 관리하는 소프트웨어군이다.
미들웨어층(40)은, 로보틱 서버 오브젝트(32)의 상위층에 위치하고, 화상 처리나 음성 처리 등의 로봇 장치(1)의 기본적인 기능을 제공하는 소프트웨어군으로 구성되어 있다. 또한, 어플리케이션층(41)은, 미들웨어층(40)의 상위층에 위치하며, 해당 미들웨어층(40)을 구성하는 각 소프트웨어군에 의해 처리된 처리 결과에 기초하여 로봇 장치(1)의 행동을 결정하기 위한 소프트웨어군으로 구성되어 있다.
또한, 미들웨어층(40) 및 어플리케이션층(41)의 구체적인 소프트웨어 구성을 각각 도 4에 도시한다.
또한, 상술한 설명에서는, 화상 처리 또는 음성 처리 등을 행하는 음계 인식용의 신호 처리 모듈(53) 또는 색 인식용의 신호 처리 모듈(58)이, 미들웨어층(40)에 구비되어 있는 경우에 대하여 설명하고 있지만, 예를 들면, 이들 기능을 어플리케이션(41)에 구비하는 것도 가능하다.
미들웨어층(40)은, 도 4에 도시한 바와 같이, 소음 검출용, 온도 검출용, 밝기 검출용, 음계 인식용, 거리 검출용, 자세 검출용, 터치 센서용, 움직임 검출용 및 색 인식용의 각 신호 처리 모듈(50∼58)과 입력 세만틱스 컨버터 모듈(59) 등을 갖는 인식계(60)와, 출력 세만틱스 컨버터 모듈(68)과 자세 관리용, 트랙킹용, 모션 재생용, 보행용, 전도 복귀용, LED 점등용 및 음 재생용의 각 신호 처리 모듈(61∼67) 등을 갖는 출력계(69)로 구성되어 있다.
인식계(60)의 각 신호 처리 모듈(50∼58)은, 로보틱 서버 오브젝트(32)의 버츄얼 로봇(33)에 의해 DRAM(11)(도 2)으로부터 판독되는 각 센서 데이터나 화상 데이터 및 음성 데이터 중 대응하는 데이터를 취득하고, 해당 데이터에 기초하여 소정의 처리를 실시하고, 처리 결과를 입력 세만틱스 컨버터 모듈(59)에 공급한다. 여기서, 예를 들면, 버츄얼 로봇(33)은, 소정의 통신 규약에 의해 신호의 수수 또는 변환을 하는 부분으로서 구성되어 있다.
입력 세만틱스 컨버터 모듈(59)은, 이들 각 신호 처리 모듈(50∼58)로부터 공급되는 처리 결과에 기초하여,「시끄럽다」, 「덥다」,「밝다」,「볼을 검출하였다」,「전도를 검출하였다」,「쓰다듬어졌다」,「맞았다」,「도미솔의 음계가 들렸다」,「움직이는 물체를 검출하였다」또는「장해물을 검출하였다」등의 자신 및 주위 상황이나, 사용자로부터의 명령 및 행위를 인식하고, 그 인식 결과를 어플리케이션층(41)(도 2)으로 출력한다.
어플리케이션층(41)은, 도 5에 도시한 바와 같이, 행동 모델 라이브러리(70), 행동 전환 모듈(71), 학습 모듈(72), 감정 모델(73) 및 본능 모델(74)의 5개의 모듈로 구성되어 있다.
행동 모델 라이브러리(70)에는, 도 6에 도시한 바와 같이,「배터리 잔량이 적어진 경우」,「전도 복귀한다」,「장해물을 회피하는 경우」,「감정을 표현하는 경우」,「볼을 검출한 경우」 등의 사전에 선택된 몇몇 조건 항목에 각각 대응시켜, 각각 독립된 행동 모델(701∼70n)이 설정되어 있다.
그리고, 이들 행동 모델(701∼70n)은, 각각 입력 세만틱스 컨버터 모듈(59)로부터 인식 결과가 주어졌을 때나, 최후의 인식 결과가 주어지고 나서 일정 시간이 경과했을 때 등에, 필요에 따라서 후술하는 바와 같이 감정 모델(73)에 유지되어 있는 대응하는 정서의 파라미터값이나, 본능 모델(74)에 보유되어 있는 대응하는 욕구의 파라미터값을 참조하면서 후속하는 행동을 각각 결정하고, 그 결정 결과를 행동 전환 모듈(71)로 출력한다.
또한, 본 실시예의 경우, 각 행동 모델(701∼70n)은, 다음의 행동을 결정하는 방법으로서, 도 7에 도시한 바와 같은 하나의 노드(상태) NODE0∼NODEn으로부터 다른 어떤 노드 NODE0∼NODEn으로 천이하는지를 각 노드 NODE0∼NODEn사이를 접속하는 아크 ARC1∼ARCn1에 대하여 각각 설정된 천이 확률 P1∼Pn에 기초하여 확률적으로 결정하는 유한 확률 오토마톤이라 불리는 알고리즘을 이용한다.
구체적으로, 각 행동 모델(701∼70n)은, 각각 자기의 행동 모델(701∼70n)을 형성하는 노드 NODE0∼NODEn에 각각 대응시켜, 이들 노드 NODE0∼NODEn마다 도 8에 도시한 바와 같은 상태 천이표(80)를 갖고 있다.
이 상태 천이표(80)에서는, 그 노드 NODE0∼NODEn에서 천이 조건으로 하는 입력 이벤트(인식 결과)가「입력 이벤트명」의 열에 우선순으로 열기되고, 그 천이 조건에 대한 또 다른 조건이「데이터명」및「데이터의 범위」의 열에서의 대응하는 행에 기술되어 있다.
따라서, 도 8의 상태 천이표(80)에서 표시되는 노드 NODE100에서는,「볼을 검출(BALL)」이라는 인식 결과가 주어진 경우에, 해당 인식 결과와 함께 주어지는 그 볼의「크기(SIZE)」가「0 내지 100」의 범위인 것이나,「장해물을 검출(OBSTACLE)」이라는 인식 결과가 주어진 경우에, 해당 인식 결과와 함께 주어지는 그 장해물까지의「거리(DISTANCE)」가「0 내지 100」의 범위인 것이 다른 노드로 천이하기 위한 조건으로 되어 있다.
또한, 이 노드 NODE100에서는, 인식 결과의 입력이 없는 경우에서도, 행동 모델(701∼70n)이 주기적으로 참조하는 감정 모델(73) 및 본능 모델(74)에 각각 유지된 각 정서 및 각 욕구의 파라미터값 중, 감정 모델(73)에 유지된「기쁨(JOY)」, 「놀람(SURPRISE)」혹은「슬픔(SADNESS)」중 어느 하나의 파라미터값이「50 내지 100」의 범위일 때에는 다른 노드로 천이할 수 있도록 되어 있다.
또한, 상태 천이표(80)에서는,「다른 노드로의 천이 확률」란에서의「천이처 노드」의 행에 그 노드 NODE0∼NODEn으로부터 천이할 수 있는 노드명이 열기되어 있음과 함께,「입력 이벤트명」,「데이터명」및「데이터의 범위」의 열에 기술된 모든 조건이 갖추어졌을 때 천이할 수 있는 다른 각 노드 NODE0∼NODEn으로의 천이 확률이「다른 노드로의 천이 확률」란 내의 대응하는 개소에 각각 기술되고, 그 노드 NODE0∼NODEn으로 천이할 때 출력하여야 할 행동이「다른 노드로의 천이 확률」란에서의「출력 행동」의 행에 기술되어 있다. 또한,「다른 노드로의 천이 확률」란에서의 각 행의 확률의 합은 100[%]로 되어 있다.
따라서, 도 8의 상태 천이표(80)에서 표시되는 노드 NODE100에서는, 예를 들면「볼을 검출(BALL)」하고, 그 볼의「SIZE(크기)」가「0 내지 1000」의 범위라고 하는 인식 결과가 주어진 경우에는, 「30[%]」의 확률로「노드 NODE120(node120)」으로 천이할 수 있고, 그 때「ACTION1」의 행동이 출력되게 된다.
각 행동 모델(701∼70n)은, 각각 이러한 상태 천이표(80)로서 기술된 노드NODE0∼NODEn이 몇개 연결되도록 하여 구성되어 있고, 입력 세만틱스 컨버터 모듈(59)로부터 인식 결과가 주어졌을 때 등에, 대응하는 노드 NODE0∼NODEn의 상태 천이표를 이용하여 확률적으로 다음의 행동을 결정하고, 그 결정 결과를 행동 전환 모듈(71)로 출력하도록 이루어져 있다.
도 5에 도시한 행동 전환 모듈(71)은, 행동 모델 라이브러리(70)의 각 행동 모델(701∼70n)로부터 각각 출력되는 행동 중, 사전에 정해진 우선 순위가 높은 행동 모델(701∼70n)로부터 출력된 행동을 선택하고, 해당 행동을 실행하여야 할 취지의 커맨드(이하, 이것을 행동 커맨드라 함)를 미들웨어층(40)의 출력 세만틱스 컨버터 모듈(68)로 송출한다. 또한, 본 실시예에서는, 도 6에서 하측에 표기된 행동 모델(701∼70n)만큼 우선 순위가 높게 설정되어 있다.
또한, 행동 전환 모듈(71)은, 행동 완료 후에 출력 세만틱스 컨버터 모듈(68)로부터 주어지는 행동 완료 정보에 기초하여, 그 행동이 완료한 것을 학습 모듈(72), 감정 모델(73) 및 본능 모델(74)에 통지한다.
한편, 학습 모듈(72)은, 입력 세만틱스 컨버터 모듈(59)로부터 주어지는 인식 결과 중,「맞았다」나「쓰다듬어졌다」등, 사용자로부터의 행위로서 받은 교시의 인식 결과를 입력한다.
그리고, 학습 모듈(72)은, 이 인식 결과 및 행동 전환 모듈(71)로부터의 통지에 기초하여,「맞았다(꾸중들었다)」일 때에는 그 행동의 발현 확률을 저하시키고,「쓰다듬어졌다(칭찬 받았다)」일 때에는 그 행동의 발현 확률을 상승시키도록, 행동 모델 라이브러리(70)에서의 대응하는 행동 모델(701∼70n)의 대응하는 천이 확률을 변경한다.
한편, 감정 모델(73)은,「기쁨(joy)」,「슬픔(sadness)」,「분노(anger)」, 「놀람(surprise)」,「혐오(disgust)」및「두려움(fear)」의 합계 6개의 정서에 대하여, 각 정서마다 그 정서의 강함을 표시하는 파라미터를 보유하고 있다. 그리고, 감정 모델(73)은, 이들 각 정서의 파라미터값을, 각각 입력 세만틱스 컨버터 모듈(59)로부터 주어지는「맞았다」및「쓰다듬어졌다」등의 특정한 인식 결과와, 경과 시간 및 행동 전환 모듈(71)로부터의 통지 등에 기초하여 주기적으로 갱신한다. 이 갱신은, 메모리 카드(28) 상의 데이터의 갱신이다. 이러한 점으로부터, 메모리 카드(28)에는, 로봇 장치(1)의 각종 정서의 최신 파라미터값이 기억되게 된다. 또한, 이 경우에서, 메모리 카드(28)에의 파라미터값의 기입은, 구체적으로는, CPU(10)에 의해 이루어져 있고, 이것은, 정보 취득 기능에 의해 취득한 파라미터값을 메모리 카드(28)에 기입한다는 CPU(10)의 일 기능에 의해 실현된 것이다. 후술하는 본능 모델(74)에서도 마찬가지고, 이와 같이, CPU(10)는, 정보 취득 기능에 의해 취득한 각종 정보를 메모리 카드(28)에 기억하고 있다.
구체적으로는, 감정 모델(73)은, 입력 세만틱스 컨버터 모듈(59)로부터 주어지는 인식 결과와, 그 때의 로봇 장치(1)의 행동과, 전회 갱신하고 나서의 경과 시간 등에 기초하여 소정의 연산식에 의해 산출되는 그 때의 그 정서의 변동량을 ΔE[t], 현재의 그 정서의 파라미터값을 E[t], 그 정서의 감도를 나타내는 계수를 ke로 하여, 수학식 1에 의해 다음의 주기에서의 그 정서의 파라미터값 E[t+1]을 산출하고, 이것을 현재의 그 정서의 파라미터값 E[t]로 치환하도록 하여 그 정서의 파라미터값을 갱신한다. 또한, 감정 모델(73)은, 이와 마찬가지로 하여 모든 정서의 파라미터값을 갱신한다.
또한, 각 인식 결과나 출력 세만틱스 컨버터 모듈(68)로부터의 통지가 각 정서의 파라미터값의 변동량 ΔE[t]에 어느 정도의 영향을 줄지는 사전에 결정되어 있고, 예를 들면「맞았다」라는 인식 결과는「분노」의 정서 파라미터값의 변동량 ΔE[t]에 큰 영향을 주고,「쓰다듬어졌다」라는 인식 결과는「기쁨」의 정서 파라미터값의 변동량 ΔE[t]에 큰 영향을 주도록 되어 있다.
여기서, 출력 세만틱스 컨버터 모듈(68)로부터의 통지란, 소위 행동의 피드백 정보(행동 완료 정보)로서, 행동의 출현 결과의 정보이며, 감정 모델(73)은, 이러한 정보에 의해서도 감정을 변화시킨다. 이것은, 예를 들면, 「짖는다」라고 한 행동에 의해 분노의 감정 레벨이 내려간다고 하는 것이다. 또한, 출력 세만틱스 컨버터 모듈(68)로부터의 통지는, 상술한 학습 모듈(72)에도 입력되어 있고, 학습 모듈(72)은, 그 통지에 기초하여 행동 모델(701∼70n)의 대응하는 천이 확률을 변경한다.
또한, 행동 결과의 피드백은, 행동 전환 모듈(71)의 출력(감정이 부가된 행동)에 의해 이루어지는 것이어도 된다.
한편, 본능 모델(74)은, 「운동욕(exercise)」, 「애정욕(affection)」,「식욕(appetite)」,「호기심(curiosity)」및「수면욕(sleep)」의 상호 독립된 4개의 욕구에 대하여, 이들 욕구마다 그 욕구의 강함을 나타내는 파라미터를 보유하고 있다. 그리고, 본능 모델(74)은, 이들 욕구의 파라미터값을, 각각 입력 세만틱스 컨버터 모듈(59)로부터 주어지는 인식 결과나, 경과 시간 및 행동 전환 모듈(71)로부터의 통지 등에 기초하여 주기적으로 갱신한다. 이 갱신은, 메모리 카드(28) 상의 데이터의 갱신이다. 이러한 점으로부터, 메모리 카드(28)에는, 로봇 장치(1)의 각종 욕구의 최신의 파라미터값이 기억되게 된다.
구체적으로는, 본능 모델(74)은,「운동욕」,「애정욕」및「호기심」에 대해서는, 인식 결과, 경과 시간 및 출력 세만틱스 컨버터 모듈(68)로부터의 통지 등에 기초하여 소정의 연산식에 의해 산출되는 그 때의 그 욕구의 변동량을 ΔI[k], 현재의 그 욕구의 파라미터값을 I[k],그 욕구의 감도를 나타내는 계수 ki로서, 소정 주기로 수학식 2를 이용하여 다음의 주기에서의 그 욕구의 파라미터값 I[k+1]을 산출하고, 이 연산 결과를 현재의 그 욕구의 파라미터값 [k]로 치환하도록 하여 그 욕구의 파라미터값을 갱신한다. 또한, 본능 모델(74)은, 이것과 마찬가지로 하여 「식욕」을 제외한 각 욕구의 파라미터값을 갱신한다.
또한, 인식 결과 및 출력 세만틱스 컨버젼 모듈(68)로부터의 통지 등이 각 욕구의 파라미터값의 변동량 ΔI[k]에 어느 정도의 영향을 줄지는 사전에 결정되고 있고, 예를 들면 출력 세만틱스 컨버터 모듈(68)로부터의 통지는,「피로」의 파라미터값의 변동량 ΔI[k]에 큰 영향을 주도록 되어 있다.
또한, 본 실시예에서는, 각 정서 및 각 욕구(본능)의 파라미터값이 각각 0 내지 100까지의 범위에서 변동하도록 규제되어 있고, 또한 계수 ke, ki의 값도 각 정서 및 각 욕구마다 개별로 설정되어 있다.
한편, 미들웨어층(40)의 출력 세만틱스 컨버터 모듈(68)은, 도 4에 도시한 바와 같이, 상술한 바와 같이 하여 어플리케이션층(41)의 행동 전환 모듈(71)로부터 주어지는「전진」,「기뻐한다」,「운다」또는「트랙킹(볼을 쫓아간다)」이라는 추상적인 행동 커맨드를 출력계(69)의 대응하는 신호 처리 모듈(61∼67)에 공급한다.
그리고 이들 신호 처리 모듈(61∼67)은, 행동 커맨드가 주어지면 해당 행동 커맨드에 기초하여, 그 행동을 행하기 위해 대응하는 액튜에이터(251∼25n)(도 2)에 공급해야 되는 서보 명령값, 스피커(24)(도 2)로부터 출력하는 음의 음성 데이터, 또는「눈」의 LED 혹은「꼬리」에 공급하는 구동 데이터를 생성하고, 이들 데이터를 로보틱 서버 오브젝트(32)의 버츄얼 로봇(33) 및 신호 처리 회로(14)(도 2)를 순차적으로 통해 대응하는 액튜에이터(251∼25n) 또는 스피커(24) 또는 LED로 순차 송출한다.
이와 같이 하여 로봇 장치(1)에서는, 제어 프로그램에 기초하여, 자신(내부) 및 주위(외부) 상황이나, 사용자로부터의 지시 및 행위에 대응한 자율적인 행동을 행할 수 있도록 이루어져 있다.
(3) 일기 기능
(3-1) 시스템
상술한 로봇 장치(1)에 의해 일기(DIARY) 기능이 실현된다. 일기 기능에서는, 실제로는, 로봇 장치(1)가 메모리 카드(28)에 기억한 정보가 참조되어, 퍼스널 컴퓨터 등의 정보 처리 장치에서, 로봇 장치가 기재한 것으로 되는 일기가 표시된다. 구체적으로는, 도 9에 도시한 바와 같이 일기 기능을 실현하는 시스템이 구성되어 있다. 이 시스템에서는, 로봇 장치(1)에서, 로봇 장치(1)의 활동에 기초하는 다양한 정보, 예를 들면 활동 정보가 기억된 메모리 카드(28)가 퍼스널 컴퓨터100에 장착된다. 또한, 메모리 카드를 통하지 않고, 무선으로 정보를 전송하도록 하여도 상관없다. 그리고, 퍼스널 컴퓨터(100)에서, 장착된 메모리 카드(28)에 기억되어 있던 정보에 기초하여, 모니터(101)에 로봇 장치가 기재한 것으로 되는 일기가 표시된다. 여기서, 퍼스널 컴퓨터(100)는, 정보 전송 수단으로 되는 메모리 카드(28)에 기억된 정보(활동 정보 등)에 기초하여, 사전에 준비되어 있는 문장 또는 메시지 패턴을 이용하여 화상 표시 수단인 모니터(101)에 일기 등의 문장을 표시하는 정보 처리 장치로 되어 있다. 퍼스널 컴퓨터(100)에는, 활동 정보와 문장 또는 메시지 패턴에 기초하여 일기 등을 작성하는 프로그램이 저장되어 있다.
(3-2) 표시할 정보
일기 기능을 실현하기 위해 퍼스널 컴퓨터(100)의 모니터(101)에 표시하는 정보로서는, 하기의 표에 나타내는 바와 같이, 로봇 장치에 의한 문장(원어에 번역을 병기), 촬상 화상(예를 들면, 1장), 캐릭터 및 캐릭터의 코멘트, 사용자의 코멘트와 오늘의 연월일 및 캘린더 등을 예로 들 수 있다.
표시할 정보(일기 내용)
로봇 장치에 의한 문장(원어에 번역을 병기)촬상 장치(예를 들면, 1장)캐릭터 및 캐릭터의 코멘트사용자의 코멘트오늘의 년월일 및 캘린더
그리고, 이들 정보는, 일기 형식의 화면(이하, 일기 화면이라 함)으로서 모니터(101)에 표시된다. 구체적으로는, 모니터(101)에는 도 10에 도시한 바와 같이 일기 화면이 표시된다. 모니터(101)에는, 구체예로 되는 도 10에 도시한 바와 같이, 로봇 장치(1)에 의한 원어(110)에 번역(111)이 병기된 문장, 촬상 화상(112), 사용자의 코멘트(113) 등이 표시된다. 또한, 모니터(101)에는, 소정의 기능을 실행시키기 위한 소위 아이콘도 표시되어 있다. 예를 들면,「캘린더」의 아이콘(114)을 선택함으로써, 캘린더 다이얼로그가 표시되어, 날짜를 지정하여 일기를 볼 수 있다. 구체적으로는,「캘린더」의 아이콘(114)의 선택에 의해, 일기가 존재하는 날을 캘린더 상에서 볼 수 있다.
이러한 일기 화면의 모니터(101)에의 표시는, 예를 들면 어플리케이션 소프트의 실행에 의해 실현된다. 예를 들면, 퍼스널 컴퓨터(100)에서는, 어플리케이션 소프트의 실행에 의해, 해당 메모리 카드(28)에 기억되어 있는 로봇 장치(1)에서 취득된 정보를 이용하여, 도 10에 도시한 바와 같이 일기 화면을 모니터(101) 상으로 출력한다.
또한, 로봇 장치(1)에서는, 촬상 장치(20)에 의해 얻어진 화상이 소정의 타이밍에서 정지 화상으로서 메모리 카드(28)에 기억되어 있다. 정지 화상을 메모리 카드(28)에 기억하는 타이밍은 정서 파라미터가 소정의 값이 된 것을 조건 등으로 하는 것으로, 이것은 후에 상술한다.
이와 같이 메모리 카드(28)에 기억되어 있는 정지 화상에 대해서도, 도 10에 도시한 바와 같이, 일기 화상 내에 포함시켜 모니터(101)로 출력할 수도 있다. 이러한 경우에는 일기가 그림 일기풍으로 된다.
또한, 예를 들면, 일기 화면은 소정의 포맷으로서 사전에 준비된 화상 정보로서 준비되어 있고, 로봇 장치(1)에서 얻어진 정보(혹은 데이터)에 기초하여 작성된 정보가, 그와 같은 포맷의 일기 화면의 원하는 위치에 첨부되어, 최종적으로 도 10에 도시한 바와 같은 일기 화면이 모니터(101)에 표시된다.
또한, 일기 화면은, 열람 소프트웨어로 되는 소위 브라우저 형식으로서 구축할 수 있다. 이에 따라, 사용자는, 지정된 소위 PC 어플리케이션 소프트를 사용하지 않더라도 일기 화면을 열람할 수 있다.
(3-3) 표시되는 메시지의 패턴
모니터(101)에는, 상술한 바와 같이, 일기 화면 중에 다양한 메시지가 표시되어 있다. 메시지의 패턴은, 예를 들면 퍼스널 컴퓨터(100)의 기억 장치(예를 들면, 하드디스크(HD) 장치)에 기억되어 있다. 퍼스널 컴퓨터(100)에서, 로봇 장치(1)에서 취득된 데이터에 기초하여 메시지의 패턴이 선택되어, 로봇 장치의 언어로서 일기 화면 중의 원하는 위치에 표시된다. 또한, 이 때, 로봇 세계에서 통용하는 가상적인 언어에 의한 메시지가 표시되지만, 그 번역(예를 들면, 일본어)도 병기하여 표시한다. 본 실시예에서는, 도 10에 도시한 바와 같이, 원어(110) 및 번역(111)이 병기되어 5개의 메시지가 표시되는 예로 되어 있다.
또한, 로봇 세계에서 통용하는 원어와, 그 번역이란, 예를 들면 테이블 등으로 대응된 형태로서 퍼스널 컴퓨터(100)의 기억 장치에 기억되어 있고, 이것에 기초하여, 원어(110)와 그 번역(111)이 메시지로서 표시된다. 도 11에 도시한 바와 같은 언어를, 그 언어에 대응하여 그 번역으로 되는 예를 들면 일본어 혹은 알파벳을 테이블로서 갖고 있다.
또한, 이러한 메시지 패턴은, 복수의 그룹으로 분류되고 기억되어 있다. 예를 들면, 메시지의 패턴은, 하기의 표에 나타낸 바와 같은 그룹으로 분류되어 있다.
우선순위 표시 메시지에 대응한 그룹의 분류
1234567 탄생일계기념일계성장일계입출력 정보계(해석정보계)성인에서의 타입 변화계성장, 본능계기타
이 표에 도시한 바와 같이, 예를 들면 탄생일계, 기념일계, 성장일계, 입출력 정보계, 성인에서의 타입 변화계, 성장 및 본능계와 기타로서 메시지가 그룹화되어 있다. 또한, 이들 그룹에는 우선 순위가 매겨져 있다.
이러한 그룹화된 메시지는, 표시하여야 할 내용의 존재 즉 기본이 되는 데이터가 메모리 카드(28)에 존재하는 것과, 그 우선 순위에 따른 것이 조건으로 되어 선택된다.
상술한 바와 같이 일기 화면에 표시 가능한 메시지는 유한(본 실시예에서는 5개)이기 때문에, 매겨져 있는 우선 순위에 기초하여 그룹을 선택하고, 선택한 그룹 내의 하나의 메시지를 표시하도록 한다. 우선 순위는, 예를 들면 이벤트성의 높이 등에 의해 결정한다. 예를 들면, 어떤 사람에 대하여 탄생일과 기념일을 보면, 탄생일은 통상 1년에 1번이며, 기념일은 통상 1년에 여러번 있는 것이 통상적이다. 이러한 점으로부터 탄생일계를 기념일계의 우선 순위보다 높게 한다. 이에 따라, 그룹의 선택은 다음과 같이 이루어진다.
예를 들면, 탄생일계는 우선 순위가 1번이지만, 표시하여야 할 메시지에 사용되는 데이터가 메모리 카드(28)에 없는 경우에는, 예를 들면, 표시하여야 할 메시지에 사용하는 데이터가 메모리 카드(28)에 있는 우선 순위가 2번째의 기념일계를 선택한다. 그리고, 해당 데이터에 기초하여 해당 기념일계로서 준비되어 있는 메시지를 표시한다.
또한, 각 그룹에는, 메모리 카드(28)에 기억되어 있던 데이터에 따라서, 동일한 취지를 나타내는 메시지가 복수 종류 존재하고 있고, 하나의 메시지를 예를 들면 랜덤하게 선택할 수도 있다. 또한, 준비되는 메시지는, 메시지 전체가 불변으로 되어도 무방하고, 메모리 카드(28)에 기억되어 있던 데이터에 따라서 특정한 부분만이 가변으로 된 메시지이어도 된다. 예를 들면, 가변부에 대해서는, 메시지의 주체 등을 들 수 있다. 이하에, 각 그룹마다 준비되어 있는 메시지의 구체예를설명한다.
(3-3-1) 탄생일계 그룹의 메시지
이 탄생일계의 그룹은, 탄생일의 데이터가 존재하는 경우에 선택된다. 탄생일계로서 준비되는 메시지로서는, 예를 들면,「오늘은(가변부) 탄생일」등을 들 수 있다. 그리고, 탄생일계의 그룹에는, 이러한 내용과 동일한 취지의 메시지가 복수 종류 존재하고 있다.
상술한 예에 나타내는 메시지는, 또한 일부가 가변부로 되어 있고, 그 가변부가 탄생일의 주체의 명칭으로 되어 있다. 즉 예를 들면, 가변부는, 로봇 장치(1)에 사용자가 붙인 명칭 또는 사용자의 명칭 등이다. 이러한 가변부는, 탄생일에 대한 데이터에 기초하여 선택된다.
예를 들면, 탄생일의 데이터에 대해서는, 다른 어플리케이션 소프트에 의해서 사용자 등에 의해 등록된 데이터를 유용한다.
즉, 다른 어플리케이션 소프트 등에 의해, 임의의 기회에서 사용자 등에 관한 제반 데이터가 퍼스널 컴퓨터(100) 상에 데이터베이스로서 기억되는 경우가 있다. 여기서, 제반 데이터란, 사용자 자신이나 그 관계자의 탄생일이나 이름 등이다. 일기 기능의 어플리케이션 소프트는, 이러한 데이터 베이스로서 등록되어 있는 탄생일 데이터, 예를 들면 탄생일이나 이름을 유용하여, 메시지의 선택을 행한다. 이러한 방법에 의해 메시지를 선택함으로써, 일기 기능의 어플리케이션 소프트의 실행 상에서 탄생일 데이터의 키 입력이 없더라도, 일기 기능에서, 사용자의 탄생일에 메시지를 표시할 수 있다. 이와 같이 함으로써, 사용자는, 키 입력한 기억이 없는데도, 일기에 기재된 자신의 탄생일 메시지를 보고 놀라게 된다.
또한, 로봇 장치(1)의 탄생일의 데이터에 대해서는, 메모리 카드(28)에 기억되어 있고, 이것을 이용하여 메시지를 선택한다. 예를 들면, 로봇 장치(1)는, 구입 후의 최초의 기동 시에서 기동 일시 로그를 남기고 있고, 이 기동 일시 로그를 탄생일 데이터로서 이용한다.
이상과 같이, 탄생일계 그룹의 메시지가 준비되어 있고, 탄생일의 데이터에 기초하여 가변부가 선택되어, 해당 가변부에 의한 메시지가 일기 화면 내에 표시된다. 또한, 탄생일계의 그룹 내에도 복수의 메시지가 있기 때문에, 랜덤하게 하나의 메시지를 선택하여, 이것을 표시한다. 이에 따라, 탄생일에 동일한 내용의 메시지가 몇번이나 표시되는 것이 방지되게 된다.
또한, 탄생일계의 메시지로서는, 탄생일 당일 이외, 예를 들면 1주일 전, 3일 전, 전날, 나아가서는 다음날에 대해서도 메시지를 표시하는 것이 가능하게 된다. 예를 들면, 그와 같은 탄생일 이외의 날에 표시되는 탄생일계의 메시지로서, 하기의 표에 나타내는 메시지를 준비한다. 여기서도 가변부가 있는 메시지를 준비한다.
시기 탄생일계의 탄생일 당일 이외의 예고 메시지로서 준비된 패턴
1주일전3일전전날다음날 「드디어(가변부)(탄생일)의 날」「이제 곧(가변부)(탄생일)의 날」「내일은(가변부)(탄생일)의 날」「어제는(가변부)(탄생일)의 날」
이에 따라, 탄생일 당일 이외에 대해서도, 탄생일에 관한 메시지가 표시되도록 된다. 또한, 1주일 전의 것으로서 준비되어 있는 메시지에 대해서는, 예를 들면, 4일 전부터 1주일 전 중 어느 한 날에 표시되게 한다. 이것에 대해서는, 3일전의 메시지에 대해서도 마찬가지다.
(3-3-2) 기념일계 그룹의 메시지
이 기념일계의 그룹은, 기념일의 데이터가 존재하는 경우에 선택된다. 기념일계로서 준비되는 표시 메시지로서는, 예를 들면,「오늘은(가변부) (기념일)의 날」등을 들 수 있다. 그리고, 기념일계의 그룹에는, 이러한 내용과 동일한 취지의 메시지가 복수 종류 존재하고 있다.
예를 들면, 기념일에는, 그 사람의 고유의 기념일과, 공통(예를 들면, 국민 전체)의 기념일이 있다. 이에 따라, 로봇 장치에 사용자가 붙인 명칭이나 사용자의 명칭 등이 되는 가변부가 필요한 메시지와, 그와 같은 가변부가 필요하지 않은 메시지로 분류할 수 있다. 이러한 점으로부터, 가변부 있음과, 가변부 없음으로, 하기의 표와 같이 분류하여, 메시지를 준비한다.
가변부 있음의 기념일의 예
탄생일(상기의 탄생일과는 별개)결혼 기념일비밀의 날일생 최대의 날추억의 날약속의 날이별의 날
가변부 없음의 기념일의 예
설날크리스마스3월3일의 히나마쯔리어린이날경로의 날아버지의 날어머니의 날발렌타인데이
또한, 가변부로서는, 하기의 표에 도시한 바와 같은 표시를 들 수 있다.
기념일계의 주체명의 표시 패턴
모두나아버지어머니할아버지할머니「이름」
이상과 같이 분류되어 메시지가 준비되어 있다. 이에 따라, 기념일의 데이터에 기초하여 메시지가 선택되고, 또한 가변부가 필요하면 가변부가 선택되어, 메시지가 일기 화면 중에 표시된다. 또한, 기념일계의 그룹 내에도 복수의 메시지가 있기 때문에, 랜덤하게 하나의 메시지를 선택하여, 이것을 표시한다.
또한, 이러한 메시지나 가변부를 선택하기 위한 데이터는, 탄생일계에서 설명한 경우와 마찬가지로, 다른 기회에 사용자가 등록한 데이터를 유용한다.
또한, 상술한 탄생일계와 마찬가지로, 기념일 당일 이외에 대해서도 메시지를 표시하도록 할 수도 있다. 예를 들면, 그와 같은 기념일 이외의 날에 표시되는 기념일계의 메시지로서는, 하기의 표에 나타내는 것을 들 수 있다. 여기서도 가변부가 있는 메시지를 준비한다.
시기 기념일계의 기념일 당일 이외의 예고 메시지로서 준비된 패턴
1주일 전3일 전전일다음날 「드디어(가변부)(탄생일)의 날」「이제 곧(가변부)(탄생일)의 날」「내일은(가변부)(탄생일)의 날」「어제는(가변부)(탄생일)의 날」
이에 따라, 기념일 당일 이외에 대해서도, 기념일에 관한 메시지가 표시되도록 된다.
(3-3-3) 성장일계 그룹의 메시지
이 성장일계의 그룹은, 성장의 데이터가 존재하는 경우에 선택된다. 또한, 성장일계로서 준비되는 메시지로서는, 예를 들면「오늘, 어엿한 어른이 되었다.」등을 들 수 있다. 그리고, 성장일계의 그룹에는, 이러한 내용과 동일한 취지의 메시지가 복수 종류 존재하고 있다.
로봇 장치(1)는, 예를 들면, 유년기에서 성인까지 복수의 단계로 변화하는 성장 모델을 갖고 있고, 성장 단계에 따라서 행동을 취하도록 이루어져 있다. 그리고, 로봇 장치(1)에서는, 상술한 성장 단계의 데이터가 메모리 카드(28)에 기억되어 있다. 성장일계의 그룹에서는, 메모리 카드(28)에 기억되어 있는 성장 단계에 대한 단계 변경 정보를 참조하여 선택되고, 대응되는 메시지의 선택이 이루어진다. 그리고, 선택된 메시지가 일기 화면 내에 표시된다. 또한, 성장일계의 그룹 내에도 복수의 메시지가 있기 때문에, 랜덤하게 하나의 메시지를 선택하여, 이것을 표시한다.
또한, 성장일계의 메시지에 대해서는 성장 단계의 각 단계에 따라서 준비 되어 있다. 이에 따라, 성장 단계가 다음의 단계로 올라갔다고 하여도, 진행한 단계가 아이와 어른에서는, 성장한 것을 나타내는 내용이더라도, 다른 표현으로 이루어지는 메시지가 표시되도록 된다.
(3-3-4) 입출력 세만틱스(Semantics)계 그룹의 메시지
우선, 입출력 세만틱스란, 로봇 장치(1)에 대하여 입출력된 정보를 사용자가 해석 가능한 정보(예를 들면, 인식 정보)로 하는 것으로, 예를 들면 외부로부터의 정보에 기초하여 해석한「맞았다」,「쓰다듬어졌다」등의 정보이거나, 혹은 자신의 행동으로서 해석되는「볼을 찼다」,「손을 내밀었다」, 등의 정보이다. 따라서, 입출력 세만틱스계의 메시지는, 이러한 사용자가 해석 가능하게 된 정보에 기초하는 것이다. 이 입출력 세만틱스는, 로봇 장치(1)에 있어서 메모리 카드(28) 상에서 갱신되어 있는 데이터이다.
예를 들면, 입출력 세만틱스계로서 준비되는 메시지로서는, 「(시간 가변부)에 (사용자명)이 (입력 세만틱스)하였다」나, 「오늘은 많이 (출력 세만틱스) 해서」등을 들 수 있다.
여기서, 입출력 세만틱스는, 기본적으로는 하루에 복수회 취할 수 있기 때문에, 시간대가 가변부되는 메시지를 준비한다. 시간 가변부의 표시로서는, 하기의 표에 나타내는 바와 같이 각 시간에 대응한 표시를 들 수 있다.
시간대 표시 패턴
4:00~10:00를 시간대 110 :00~16:00를 시간대 216:00~22:00를 시간대 322:00~4:00를 시간대 4시간대 3에서 시간대 4에 걸친 시간 「아침」「점심」「밤」「심야」「밤」
또, 이들 이외의 시간대, 예를 들면 시간대 1∼3의 복수에 걸친 경우 등에는,「오늘」로서 취급하는 것으로 하여, 시간 가변부는 표시하지 않도록 할 수도 있다.
또한, 입출력 세만틱스의 내용에 따라서 가변부가 있는 것과 없는 것으로 분류하여 메시지를 준비하고 있다. 또한, 가변부가 있는 세만틱스이더라도, 가변부 표시가 있는 메시지와 가변부 표시가 없는 메시지를 준비한다. 그리고, 각 세만틱스마다, 그 내용이 동일한 취지의 메시지를 복수 종류 준비한다.
또한, 로봇 장치(1)는 많은 입출력 세만틱스를 갖고 있기 때문에, 메시지로서 표시되는 세만틱스의 후보를 선택하는 것도 가능하다. 예를 들면, 입출력 세만틱스에 대해서는 입출력 로그와 그 기동 시간이 얻어지기 때문에, 그 단위 시간당 발생 빈도(예를 들면, 입출력 로그에 기초한 기동 횟수를 시간으로 나눈 값)를 산출하여, 그것이 소정의 임계값을 넘은 것을 후보로 한다. 여기서, 소정의 임계값은, 선택 대상이 되는 각 세만틱스마다 준비되어 있다.
또한, 그와 같은 입출력 세만틱스의 후보 수가 일기 화면 내에 표시 가능한 메시지의 최대 수(예를 들면, 본 실시예에서는 5개)를 넘는 경우에는, 더욱 후보를 줄여간다. 예를 들면 랜덤하게, 표시 가능한 메시지의 최대 수분만큼 선택하여, 후보를 줄여간다.
또한, 우선 순위가 높은 상술한 탄생일계, 기념일계나 성장일계의 그룹의 메시지가 이미 몇갠가 표시되는 것이 결정되어 있는 경우가 있으므로, 이것을 고려하여, 잔여 표시 가능 수만큼 후보 수를 줄여간다.
이상과 같이, 입출력 세만틱스계의 그룹의 메시지가 준비되어 있고, 메모리 카드(28)에 기억되어 있는 세만틱스(경우에 따라서는 더 선택되어 후보가 된 세만틱스)에 기초하여 메시지가 선택되고, 해당 메시지가 일기 화면 내에 표시된다. 또한, 동일한 세만틱스에도 복수의 메시지가 준비되어 있기 때문에, 랜덤하게 하나의 메시지를 선택하여, 이것을 표시한다.
상술한 바와 같이, 세만틱스에 대응되는 메시지가 선택되어도 또한, 표시 수(본 실시예에서는, 5개)에 충족되지 않는 경우에, 우선 순위가 낮은 메시지로 이루어지는 이하에 설명하는 성인에서의 타입계, 성장, 본능계 또는 기타로 준비된 메시지가 선택되고, 일기 화면 내에 표시되도록 된다.
또, 구체적으로는, 도 12 내지 도 16에 도시한 바와 같은 내용의 입출력 세만틱스가 준비되어 있으며, 또한, 경우에 따라서 각 입출력 세만틱스에 대하여 복수의 메시지가 준비되어 있다.
(3-3-5) 성장에서의 타입 변화계 그룹의 메시지
우선, 성장에서의 타입 변화란, 동일 성장 단계에서의 타입의 변화이다. 로봇 장치(1)는 어느 성장 단계에서 타입(예를 들면, 성격)이 변화하고, 그 타입에 따라서 행동을 하도록 이루어져 있다. 성장에서의 타입 변화란, 이러한 동일 성장 단계에서의 타입 변화로서, 소위 횡성장 변화이다. 이러한 점으로부터, 상술한 바와 같은 성장일계는, 소위 종성장에 대하여 말하는 것이다.
로봇 장치(1)에서는, 상술의 성장에서의 타입이 메모리 카드(28)에 기억되어 있다. 성장에서의 타입 변화계의 그룹은, 메모리 카드(28)에 기억되어 있는 그와 같은 타입을 참조하여 선택되고, 대응되는 메시지의 선택이 이루어진다.
예를 들면, 성장에서의 타입 변화계로서 준비되는 메시지로서는, 예를 들면「오늘, 어엿한 어른이 되었다.」등을 들 수 있다.
또한, 성장에서의 타입 변화계의 메시지에 대해서는 성장 단계의 각 단계에 따라서 준비할 수도 있다. 이에 따라, 변화한 타입에 따라서, 성장을 나타내는 내용을, 다른 표현으로 이루어지는 메시지로서 표시할 수 있게 된다.
(3-3-6) 감정, 본능계 그룹의 메시지
감정, 본능계로서 준비되는 메시지로서는, 예를 들면「오늘은 계속 졸리웠다. 」등을 들 수 있다. 예를 들면, 로봇 장치(1)는, 감정의 상태, 본능의 상태혹은 각성도, 상호 작용도에 따라서 메시지를 선택한다. 감정, 본능 혹은 각성도, 상호 작용도는, 로봇 장치(1)가 메모리 카드(28) 상에서 갱신하고 있는 데이터이다. 이러한 메모리 카드(28)에 기억되어 있는 데이터에 기초하여, 감정, 본능계의 그룹이 선택되고, 메시지가 선택된다.
또한, 로봇 장치(1)는, 감정이 복수의 정서에 의해 구성되며, 또한, 본능이 복수의 욕구에 의해 구성되어 있다. 따라서, 복수의 정서, 복수의 욕구, 그 외에 각성도, 상호 작용도가 단순히 변화한 경우를 조건으로서 메시지를 선택하면, 많은 메시지가 선택되기 때문에, 소정의 시간마다(예를 들면, 15분마다) 이들의 값을 샘플링하여, 그 평균값에 기초하여 우선 후보를 선택한다.
후보의 선택에 대해서는, 예를 들면, 상술한 바와 같은 감정 또는 본능, 각성도 혹은 상호 작용도의 값(예를 들면, 평균값)을, 소정의 임계값과 비교함으로써 행한다. 예를 들면, 임계값에 대해서는, 비교 대상이 되는 감정 등에 대응하여 각각 준비되어 있는 것으로 한다. 예를 들면, 하한 임계값 이하의 경우나 상한 임계값 이상의 경우로서 경우를 나누어, 후보를 선택한다.
또한, 후보 수가 표시 메시지의 최대 수(예를 들면, 본 실시예에서는 5개)를 넘은 경우에는, 후보를 더 줄여간다. 예를 들면 랜덤하게, 표시 가능한 메시지의 최대 수만큼 선택하여, 후보를 줄여간다.
또한, 우선 순위가 높은 상술한 그룹으로부터 이미 몇갠가 표시되는 것이 결정되어 있는 경우가 있으므로, 이것을 고려하여, 잔여 표시 가능 수만큼을 랜덤하게 선택하도록 한다.
이상과 같이, 감정, 본능계 그룹의 메시지가 준비되어 있고, 메모리 카드(28)에 기억되어 있는 감정의 상태, 본능의 상태 혹은 각성도, 상호 작용도(경우에 따라서는 더 선택되어 후보로 된 것)에 기초하여 메시지가 선택되고, 해당 메시지가 일기 화면 내에 표시된다. 또한, 동일한 취지에 대하여 복수의 메시지가 준비되어 있기 때문에, 랜덤하게 하나의 메시지를 선택하여, 이것을 표시한다.
(3-3-7) 그 밖의 메시지
그 밖의 메시지로서는, 예를 들면「오늘은 아무일도 없는 날이었다.」나「로봇으로서 태어난 이상은 강해지고 싶다.」등을 들 수 있다. 이러한 메시지는, 상술한 바와 같은 각계에 사용되는 데이터를 얻을 수 없는 경우의 메시지이고, 이에 따라, 로봇 장치(1) 자신을 포함시켜, 주위 상황의 변화가 없더라도 적어도 메시지를 일기 화면에 표시하는 것이 가능하게 된다. 또한, 표시 수분만큼 랜덤하게 메시지를 표시한다.
이상과 같이 하여 그룹이 선택되고, 또한 해당 선택된 그룹 내에서 메시지가 선택되며, 또한 경우에 따라서는 가변부가 선택되어, 최종적으로 도 10에 도시한 바와 같이 메시지가 포함된 일기 화면이 모니터(101)에 표시되도록 된다. 이것에 의해서, 사용자는 로봇 장치(1)와 말을 통해 대화가 가능하게 된다.
(3-4) 로봇 장치(1)에서의 화상의 취득
로봇 장치(1)는, 상술한 바와 같은 일기에 메시지를 기재하는 것 외에 화상을 첨부할 수도 있다. 여기서는, 그 첨부되는 화상의 취득에 대하여 구체적으로 설명한다. 예를 들면, 감정 상태에 따라서 촬상 정보를 얻는 경우에 대하여 설명한다.
로봇 장치(1)는, 상술한 바와 같이, 주위 상황이나 내부 상황에 따라서 감정 모델의 정서 파라미터값을 변화시키고 있고, 이 값에 따라서 다음과 같이 촬상 화상을 취득하고 있다. 또한, 감정의 정서에 대해서는,「기쁨」,「우려」등을 들 수 있지만, 예를 들면,「우려」의 파라미터값에 기초하여 촬상 화상을 취득한다.
도 17에 도시한 바와 같이, 단계 S1에서, CPU(10)는 감정 모델(73)의 출력 값(감정 파라미터)이 소정의 임계값에 도달하고 있는지의 여부를 판정한다. 단계 S1에서, 감정 모델(73)의 출력값이 소정의 임계값을 넘지 않는다고 판정된 경우, 단계 S1로 되돌아간다. 단계 S1에서, 감정 모델(73)의 출력값이 소정의 임계값을 넘고 있다고 판정된 경우, 단계 S2로 진행한다.
단계 S2에서, CPU(10)는 메모리 카드(28)의 기억 영역이 비어 있는지의 여부를 판정한다. 단계 S2에서, 기억 영역이 비어 있다고 판정된 경우, 단계 S3으로 진행하고, CPU(10)는 촬상 장치(20)로부터 취득한 화상 데이터를 메모리 카드(28)가 비어 있는 영역에 기억시킨다. 이 때, CPU(10)는 화상 데이터에 대응시켜 이 화상 데이터의 특성 정보로서 일시 데이터 및 감정 파라미터도 기억시킨다.
단계 S4에서, CPU(10)는 감정 모델(73)의 출력이 큰 순으로 촬상 화상을 재배열하고, 단계 S1로 되돌아간다. 즉, 도 18에 도시한 바와 같이, 메모리 카드(28)의 기억 영역은, 특성 정보로 되는 일시 데이터나 감정 파라미터를 기억하고 있는 헤더부(111)와, 촬상 화상 데이터를 기억하고 있는 화상 데이터부(112)로 구성되어 있고, CPU(10)는 감정의 파라미터값이 큰 순으로 촬상 화상 데이터를 소트한다.
단계 S2에서, 기억 영역이 비어 있지 않다고 판정된 경우, 단계 S5로 진행하고, CPU(10)는, 감정 모델(73)의 현재의 출력값이, 메모리 카드(28)에 기억되어 있는 촬상 화상 데이터에 부수하는 감정의 파라미터값의 최소값보다 큰지의 여부를 판정한다. 즉, 도 18에서, 가장 아래에 배치되어 있는 감정의 파라미터값보다 큰지의 여부를 판정한다. 단계 S5에서, 기억되어 있는 감정 출력의 최소값보다도 크지 않다 (작다)라고 판정된 경우, 단계 S1로 되돌아간다.
단계 S5에 있어서, 현재의 출력값이, 기억되어 있는 감정의 파라미터값의 최소값보다도 크다고 판정된 경우, 단계 S6으로 진행하고, CPU(10)는 감정의 파라미터값의 최소값에 대응하는 화상 데이터를 소거한다.
그리고, 단계 S3에 진행하여, 그 때의 감정의 파라미터값을 기억시킨다. 이에 따라, 감정의 파라미터값이 큰 것으로부터 순서대로 메모리 카드(28)에 기억된다.
이상과 같은 처리에 의해, 로봇 장치(1)는 감정 모델의 감정 정보를 참조하여, 기억 수단이 되는 메모리 카드(28)에 화상 데이터를 기억할 수 있다. 이에 따라, 퍼스널 컴퓨터(100)에서는, 이와 같이 메모리 카드(28)에 기억된 화상의 내의 가장 파라미터값이 큰 화상을 상술한 바와 같은 각종 메시지 등이 표시되어 있는 일기 화면 내에 표시할 수 있다. 이에 따라, 예를 들면, 도 19에 도시한 바와 같은 촬상 화상 P가 일기 화면 내에 표시된다. 도 19에 도시한 촬상 화상은, 눈앞의 장해물(예를 들면, 소파 등)에 공포를 느껴 감정의 정서 파라미터값이 최대값을 취했을 때의 화상이다.
또, 상술한 예에서는, 감정 모델의 파라미터값에 기초를 둔 화상 데이터의 취득에 대하여 설명하였지만, 이것에 한정되는 것은 아니다. 예를 들면, 본능 모델의 파라미터값, 외부 자극의 크기 등의 데이터에 기초하여, 화상 데이터를 취득하는 것도 가능하다.
또한, 촬상 화상을 반드시 얻고 있다고 한정하지 않는다. 이러한 경우에는, 도 20에 도시한 바와 같이, 일기 화면에서 본래 촬상 화상이 들어가는 위치에, 인간을 모방한 캐릭터를 표시함과 함께,「사진 찍은 것같지 않다」등으로 캐릭터에 의한 메시지를 표시한다. 또한, 캐릭터에 의한 메시지는, 이것에 한정되는 것이 아니라,「사진이 삭제되어 있습니다…」등과 같은 것으로 할 수도 있다.
또한, 상술한 실시예에서는, 퍼스널 컴퓨터(100)로의 데이터의 전송 매체로서 메모리 카드(28)를 사용한 경우에 대하여 설명하였다. 그러나, 이것에 한정되는 것이 아니라, 로봇 장치(1)와 퍼스널 컴퓨터(100)가 유선 또는 무선의 통신 수단에 의해 접속되어 있고, 퍼스널 컴퓨터(100)에서는, 로봇 장치(1)로부터 그와 같은 통신 수단을 통해 송신되어 오는 데이터에 기초하여 일기 기능을 실행할 수도 있다.
또한, 상술한 실시예에서는, 일기 기능을 실현하기 위한 일기 화면이나 메시지를 구체적으로 예를 들어 설명하였지만, 이것에 한정되는 것은 아니다.
또한, 상술한 실시예에서는, 메시지의 그룹 분류로서 탄생일계, 기념일계 등의 그룹을 예를 들어 설명하였지만 이것에 한정되지 않는 것은 물론이다.
또한, 상술한 실시예에서는, 일기 내용을 구성하는 메시지 등을 데이터베이스로서 구축할 수 있지만, 그와 같은 데이터베이스를 인터넷 등으로부터 다운로드할 수도 있다. 이에 따라, 네트워크 상에 존재하는 데이터에 의해 기존의 데이터베이스의 내용을 갱신할 수 있게 되어, 싫증나지 않는 일기를 작성할 수 있게 된다.
또한, 상술한 실시예에서는, 일기 내용에 집어 넣은 화상의 촬상 타이밍을 감정 등에 기초하고 있지만, 이것에 한정되는 것은 아니다. 예를 들면, 사용자 등으로부터의 음성 커맨드를 촬상 타이밍으로 하는 것도 가능하다.
상술한 바와 같은 본 발명을 이용함으로써, 로봇 장치는, 해당 로봇 장치에 의해 취득한 정보에 기초하여 정보 표시부에 문서를 표시하는 정보 처리 장치 등에, 자신이 취득한 정보를 전송할 수 있다. 이에 따라, 사용자는, 로봇 장치와 말을 통해 대화하는 것이 가능해진다.

Claims (30)

  1. 취득한 정보가 정보 표시 장치에서 표시되는 로봇 장치에 있어서,
    상기 정보 표시 장치에 표시시키기 위한 정보를 취득하는 정보 취득 수단과,
    상기 정보 취득 수단에 의해 취득한 정보를 상기 정보 표시 장치로 전송하기 위한 정보 전송 수단
    을 포함하는 것을 특징으로 하는 로봇 장치.
  2. 제1항에 있어서,
    상기 정보 표시 장치는 표시부를 구비한 정보 처리 장치인 것을 특징으로 하는 로봇 장치.
  3. 제1항에 있어서,
    상기 정보 취득 수단은 외부로부터의 정보를 취득하는 것을 특징으로 하는 로봇 장치.
  4. 제3항에 있어서,
    상기 정보 취득 수단은 촬상 수단인 것을 특징으로 하는 로봇 장치.
  5. 제1항에 있어서,
    상기 정보 취득 수단은, 내부의 정보를 취득하는 것을 특징으로 하는 로봇 장치.
  6. 제5항에 있어서,
    외부 정보 및/또는 내부 상태에 따라서 변화하는 감정 상태에 기초하여 행동하고,
    상기 정보 취득 수단은, 상기 감정 상태를 상기 내부의 정보로서 취득하는 것을 특징으로 하는 로봇 장치.
  7. 제5항에 있어서,
    외부 정보 및/또는 내부 상태에 따라서 변화하는 본능 상태에 기초하여 행동하고,
    상기 정보 취득 수단은, 상기 본능 상태를 상기 내부의 정보로서 취득하는 것을 특징으로 하는 로봇 장치.
  8. 제5항에 있어서,
    외부 정보 및/또는 내부 상태에 따라서 변화하는 성장 상태에 기초하여 행동하고,
    상기 정보 취득 수단은, 상기 성장 상태를 상기 내부의 정보로서 취득하는 것을 특징으로 하는 로봇 장치.
  9. 제5항에 있어서,
    자율적으로 행동하고 있으며,
    상기 정보 취득 수단은, 자율 행동 결과를 상기 내부의 정보로서 취득하는 것을 특징으로 하는 로봇 장치.
  10. 제1항에 있어서,
    상기 정보 전송 수단은, 착탈 가능하게 되는 외부 기억 수단이고,
    상기 외부 기억 수단에는, 상기 정보 취득 수단에 의해서 취득한 정보가 기억되며,
    상기 외부 기억 수단에 기억된 정보에 기초하여 상기 정보 표시 장치가 정보를 표시하는 것을 특징으로 하는 로봇 장치.
  11. 정보를 취득하는 정보 취득 수단과, 상기 정보 취득 수단에 의해서 취득한 정보를 전송하기 위한 정보 전송 수단을 포함하는 로봇 장치와,
    상기 정보 전송 수단에 의해 전송되어 온 상기 정보 취득 수단이 취득한 정보에 기초하여, 사전에 준비하고 있는 문장 패턴을 이용하여 정보 표시부에 문장을 표시하는 정보 처리 장치
    를 구비한 것을 특징으로 하는 정보 표시 시스템.
  12. 제11항에 있어서,
    상기 정보 처리 장치는, 상기 정보 전송 수단에 의해 취득한 정보에 기초하여, 사전에 준비하고 있는 로봇 세계 사용 언어를 상기 문장에 병기하여 상기 정보 표시부에 표시하는 것을 특징으로 하는 정보 표시 시스템.
  13. 제11항에 있어서,
    상기 정보 처리 장치는, 상기 정보 표시 장치에 표시되는 정보에 따라서 행동하는 인간 캐릭터 또는 동물 캐릭터를 상기 정보 표시부에 표시하는 것을 특징으로 하는 정보 표시 시스템.
  14. 제11항에 있어서,
    상기 정보 처리 장치는, 자기가 보유하는 데이터베이스 상의 정보를 유용하여, 사전에 준비되어 있는 문장 패턴을 이용하여 상기 정보 표시부에 문장의 표시도 행하는 것을 특징으로 하는 정보 표시 시스템.
  15. 제11항에 있어서,
    상기 정보 처리 장치는, 우선 순위가 매겨진 복수 종류의 그룹으로 분류하여 문장 패턴을 준비하고 있고,
    상기 정보 처리 장치는, 상기 정보 전송 수단에 의해 취득한 정보 및 상기 우선 순위에 기초하여, 그룹을 선택하고, 해당 그룹 내의 문장 패턴을 이용하여 상기 정보 처리부에 문장을 표시하는 것을 특징으로 하는 정보 표시 시스템.
  16. 제15항에 있어서,
    상기 복수 종류의 그룹은 적어도 탄생일, 기념일, 성장, 로봇 장치의 입출력 정보, 로봇 장치 성격과 로봇 장치의 감정 및 본능으로 분류된 그룹이며,
    우선 순위는 탄생일, 기념일, 성장, 로봇 장치의 입출력 정보, 로봇 장치 성격과 로봇 장치의 감정 및 본능의 순서로 매겨져 있는 것을 특징으로 하는 정보 표시 시스템.
  17. 제11항에 있어서,
    상기 정보 취득 수단은, 로봇 장치에 대한 외부로부터의 정보를 취득하는 것을 특징으로 하는 정보 표시 시스템.
  18. 제17항에 있어서,
    상기 정보 취득 수단은, 촬상 수단이며,
    상기 정보 처리 장치는, 상기 촬상 수단에 의해 촬상된 화상을 상기 정보 표시부에 표시하는 것을 특징으로 하는 정보 표시 시스템.
  19. 제11항에 있어서,
    상기 정보 취득 수단은, 상기 로봇 장치의 내부의 정보를 취득하는 것을 특징으로 하는 정보 표시 시스템.
  20. 제19항에 있어서,
    상기 로봇 장치는, 외부 정보 및/또는 내부 상태에 따라서 변화하는 감정 상태에 기초하여 행동하고,
    상기 정보 취득 수단은, 상기 감정 상태를 상기 내부의 정보로서 취득하는 것을 특징으로 하는 정보 표시 시스템.
  21. 제19항에 있어서,
    상기 로봇 장치는, 외부 정보 및/또는 내부 상태에 따라서 변화하는 본능 상태에 기초하여 행동하고,
    상기 정보 취득 수단은, 상기 본능 상태를 상기 내부의 정보로서 취득하는 것을 특징으로 하는 정보 표시 시스템.
  22. 제19항에 있어서,
    상기 로봇 장치는, 외부 정보 및/또는 내부 상태에 따라서 변화하는 성장 상태에 기초하여 행동하며,
    상기 정보 취득 수단은, 상기 성장 상태를 상기 내부의 정보로서 취득하는 것을 특징으로 하는 정보 표시 시스템.
  23. 제19항에 있어서,
    상기 로봇 장치는, 자율적으로 행동하고 있고,
    상기 정보 취득 수단은, 자율 행동 결과를 상기 내부의 정보로서 취득하는 것을 특징으로 하는 정보 표시 시스템.
  24. 제11항에 있어서,
    상기 정보 전송 수단은, 착탈 가능하게 되는 외부 기억 수단이고,
    상기 로봇 장치는, 상기 외부 기억 수단에 상기 정보 취득 수단에 의해 취득한 정보를 기억하고,
    상기 정보 처리 장치는, 상기 외부 기억 수단에 기억된 정보에 기초하여, 사전에 준비하고 있는 문장 패턴을 이용하여 정보 표시부에 문장을 표시하는 것을 특징으로 하는 정보 표시 시스템.
  25. 로봇 장치에 의해 정보를 취득하고,
    정보 처리 장치에서, 상기 로봇 장치에 의해 취득한 정보에 기초하여, 사전에 준비하고 있는 문장 패턴을 이용하여 정보 표시부에 문장을 표시하는 것을 특징으로 하는 정보 표시 방법.
  26. 자율적으로 행동하는 로봇 장치와, 상기 로봇 장치에 기초하는 정보를 처리하는 정보 처리 장치와, 상기 정보 처리 장치에 의해서 처리된 정보에 관한 내용을표시하는 화상 표시 수단을 포함하는 로봇 시스템에 있어서,
    상기 로봇 장치는, 해당 로봇 장치의 활동에 기초하는 활동 정보를 취득하는 정보 취득 수단과, 해당 정보 취득 수단에 의해서 취득된 활동 정보를 기억하는 기억 수단을 포함하고,
    상기 정보 처리 장치는, 복수의 메시지 또는 문장이 기억된 메시지 패턴 기억 수단과, 상기 활동 정보와 상기 메시지 또는 문장에 기초하여, 상기 로봇 장치에 관한 일기를 작성하는 일기 작성 수단을 포함하고,
    상기 화상 표시 수단은, 상기 일기 작성 수단에 의해 작성된 상기 일기를 표시하는 것을 특징으로 하는 로봇 시스템.
  27. 제26항에 있어서,
    상기 메시지 패턴 기억 수단은, 인터넷 상에 설정되어 있는 것을 특징으로 하는 로봇 시스템.
  28. 제26항에 있어서,
    상기 활동 정보는, 화상 정보를 포함하고,
    상기 일기는, 상기 메시지 또는 문장과 상기 화상 정보로 구성되어 있는 것을 특징으로 하는 로봇 시스템.
  29. 자율적으로 행동하는 로봇 장치에 의해, 해당 로봇 장치의 활동에 기초한 활동 정보를 취득하고,
    정보 처리 장치가, 복수의 메시지 또는 문장이 기억된 메시지 패턴 기억 수단에서의 상기 메시지 또는 문장과 상기 활동 정보에 기초하여, 상기 로봇 장치에 관한 일기를 작성하고, 화상 표시 수단에 표시하는 것을 특징으로 하는 정보 표시 방법.
  30. 자율적으로 행동하는 로봇 장치의 활동에 기초하는 활동 정보와, 복수의 메시지 또는 문장으로부터, 상기 로봇 장치에 관한 일기를 작성하는 프로그램이 기록된 컴퓨터 제어 가능한 기록 매체.
KR1020027007444A 2000-10-11 2001-10-11 로봇 장치와 정보 표시 시스템 및 정보 표시 방법 KR20020067696A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2000-00311323 2000-10-11
JP2000311323 2000-10-11
PCT/JP2001/008952 WO2002030629A1 (fr) 2000-10-11 2001-10-11 Appareil robot, systeme d"affichage d"information et procede d"affichage d"information

Publications (1)

Publication Number Publication Date
KR20020067696A true KR20020067696A (ko) 2002-08-23

Family

ID=18791110

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027007444A KR20020067696A (ko) 2000-10-11 2001-10-11 로봇 장치와 정보 표시 시스템 및 정보 표시 방법

Country Status (4)

Country Link
US (1) US20030056252A1 (ko)
KR (1) KR20020067696A (ko)
CN (1) CN1392828A (ko)
WO (1) WO2002030629A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100681919B1 (ko) * 2005-10-17 2007-02-12 에스케이 텔레콤주식회사 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치
KR100791382B1 (ko) * 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203097B2 (en) * 2004-07-27 2007-04-10 Samsung Electronics Co., Ltd. Method of operating a semiconductor device and the semiconductor device
JP5537432B2 (ja) * 2007-10-22 2014-07-02 本田技研工業株式会社 分散人型ロボットアーキテクチャにおける通信ミドルウェアの設計および評価
US20100181943A1 (en) * 2009-01-22 2010-07-22 Phan Charlie D Sensor-model synchronized action system
WO2011016280A1 (ja) * 2009-08-03 2011-02-10 本田技研工業株式会社 ロボットおよび制御システム
JP4972218B1 (ja) * 2011-08-12 2012-07-11 株式会社バンダイ 動作体玩具
US8924011B2 (en) * 2012-04-03 2014-12-30 Knu-Industry Cooperation Foundation Intelligent robot apparatus responsive to environmental change and method of controlling and reconfiguring intelligent robot apparatus
US10289076B2 (en) * 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
CN107480766B (zh) * 2017-07-18 2021-01-22 北京光年无限科技有限公司 多模态虚拟机器人的内容生成的方法和系统
CN111496802A (zh) * 2019-01-31 2020-08-07 中国移动通信集团终端有限公司 人工智能设备的控制方法、装置、设备及介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4857912A (en) * 1988-07-27 1989-08-15 The United States Of America As Represented By The Secretary Of The Navy Intelligent security assessment system
JP3930138B2 (ja) * 1998-02-27 2007-06-13 株式会社東芝 情報解析方法および情報解析プログラムを記憶した媒体
JP2000135384A (ja) * 1998-10-30 2000-05-16 Fujitsu Ltd 情報処理装置及び擬似生物機器
JP2000203465A (ja) * 1999-01-13 2000-07-25 Equos Research Co Ltd 情報記録装置
US6505097B1 (en) * 1999-01-13 2003-01-07 Sony Corporation Arithmetic processing device, inter-object communication method, and robot
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
JP2000218065A (ja) * 1999-01-28 2000-08-08 Sony Corp 情報処理装置及び情報処理方法
KR20010071805A (ko) * 1999-05-10 2001-07-31 이데이 노부유끼 제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체
US6445978B1 (en) * 1999-05-10 2002-09-03 Sony Corporation Robot device and method for controlling the same
US6374155B1 (en) * 1999-11-24 2002-04-16 Personal Robotics, Inc. Autonomous multi-platform robot system
EP1279081B1 (en) * 2000-05-01 2012-01-04 iRobot Corporation Method and system for remote control of mobile robot
US6507771B2 (en) * 2000-07-10 2003-01-14 Hrl Laboratories Method and apparatus for controlling the movement of a plurality of agents
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100681919B1 (ko) * 2005-10-17 2007-02-12 에스케이 텔레콤주식회사 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치
KR100791382B1 (ko) * 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
US8463018B2 (en) 2006-06-01 2013-06-11 Samsung Electronics Co., Ltd. Method, medium and apparatus classifying and collecting area feature information according to a robot's moving path, and a robot controlled by the area features
US8755591B2 (en) 2006-06-01 2014-06-17 Samsung Electronics Co., Ltd. Method, medium and apparatus classifying and collecting area feature information according to a robot's moving path, and a robot controlled by the area features

Also Published As

Publication number Publication date
US20030056252A1 (en) 2003-03-20
WO2002030629A1 (fr) 2002-04-18
CN1392828A (zh) 2003-01-22

Similar Documents

Publication Publication Date Title
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
Keijzer Representation and behavior
Lungarella et al. Developmental robotics: a survey
CN102103707B (zh) 情感引擎、情感引擎系统及电子装置的控制方法
Breazeal et al. Toward teaching a robot ‘infant’using emotive communication acts
US20070156625A1 (en) Method for movie animation
KR20020026165A (ko) 로봇 장치의 행동 결정 방법 및 로봇 장치
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
US7063591B2 (en) Edit device, edit method, and recorded medium
KR20020067696A (ko) 로봇 장치와 정보 표시 시스템 및 정보 표시 방법
US20110131165A1 (en) Emotion engine, emotion engine system and electronic device control method
JP2006110707A (ja) ロボット装置
JP2004298975A (ja) ロボット装置、障害物探索方法
Holland The future of embodied artificial intelligence: Machine consciousness?
JP2002239952A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
Kuppuswamy et al. A cognitive control architecture for an artificial creature using episodic memory
Thomaz et al. Robot science meets social science: An embodied computational model of social referencing
JP2002192485A (ja) ロボット装置、情報表示システム及び方法、ロボットシステム、並びに記録媒体
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2001157980A (ja) ロボット装置及びその制御方法
JP2008129845A (ja) 人工知能として人格を実現するコンピュータ・プログラムおよび装置
Lee et al. A user-centered framework for developing personal pet robots
Weng et al. Computational Autonomous Mental Development
Favela What is Next for Affordances? Taking Brains Seriously in Organism-Environment Systems

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid