KR20010071833A - 로봇 장치 및 그 제어 방법 및 기록 매체 - Google Patents

로봇 장치 및 그 제어 방법 및 기록 매체 Download PDF

Info

Publication number
KR20010071833A
KR20010071833A KR1020017000415A KR20017000415A KR20010071833A KR 20010071833 A KR20010071833 A KR 20010071833A KR 1020017000415 A KR1020017000415 A KR 1020017000415A KR 20017000415 A KR20017000415 A KR 20017000415A KR 20010071833 A KR20010071833 A KR 20010071833A
Authority
KR
South Korea
Prior art keywords
emotion
light emitting
emitting means
blinking
robot apparatus
Prior art date
Application number
KR1020017000415A
Other languages
English (en)
Inventor
이노우에마코토
야마기시타케시
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR20010071833A publication Critical patent/KR20010071833A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/24Details or accessories for drive mechanisms, e.g. means for winding-up or starting toy engines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/006Dolls provided with electrical lighting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/005Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J7/00Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries
    • H02J7/0042Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries characterised by the mechanical construction
    • H02J7/0044Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries characterised by the mechanical construction specially adapted for holding portable devices containing batteries
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J7/00Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries
    • H02J7/0047Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries with monitoring or indicating devices or circuits
    • H02J7/0048Detection of remaining charge capacity or state of charge [SOC]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

로봇 장치 및 그 제어 방법 및 기록 매체에 있어서, 외부 센서의 출력에 근거하여, 감정을 표현하도록 외견상의 눈으로서 기능하는 발광 소자를 점멸시키도록 함으로써, 발광 소자의 발광 상태에 근거하여 사용자가 해당 로봇 장치의 감정을 용이하게 인식할 수 있고, 그 만큼 로봇 장치에 대한 사용자의 애착심이나 호기심을 향상시키고, 로봇 장치의 엔터테인먼트성을 더 한층 향상시킬 수 있다.

Description

로봇 장치 및 그 제어 방법 및 기록 매체{Robot device, its control method, and recorded medium}
최근, 사용자로부터의 지시나 주위의 환경에 따라서 자율적으로 행동을 행하는 네발 보행형의 페트 로봇이 본원 특허 출원인에 의해 개발되고 있다. 상기와 같은 페트 로봇은, 일반 가정에서 사육되는 개나 고양이와 비슷한 형상을 가지고, 사용자로부터의 지령이나 주위의 환경 등에 따라서 행동하는 것이다.
그런데 상기 페트 로봇에 있어서, 예를 들면 사용자로부터의 「때린다」나 「쓰다듬는다」와 같은 작용에 대하여 「노여움」이나 「기쁨」 등의 감정을 표현할 수 있도록 할 수 있으면, 사용자가 페트 로봇과 커뮤니케이션을 원활하게 행할 수 있게 되어서, 그만큼 페트 로봇에 대한 사용자의 애착심 및 호기심을 향상시키고, 엔터테인먼트성을 더 한층 향상시킬 수 있을 것이라고 생각된다.
본 발명은 로봇 장치 및 그 제어 방법 및 기록 매체에 관한 것이며, 예를 들면 페트 로봇에 적용하기에 적합한 것이다.
도 1은 본 실시예에 의한 페트 로봇의 구성을 도시하는 사시도.
도 2는 페트 로봇의 구성을 도시하는 블록도.
도 3은 LED의 구성을 도시하는 사시도.
도 4는 LED의 구성을 도시하는 사시도.
도 5는 컨트롤러의 처리의 설명에 이용하는 블록도.
도 6은 각 감정의 설명에 이용하는 노선도.
도 7은 확률 오토머턴(automaton)의 설명에 이용하는 개념도.
도 8은 상태 천이표를 도시하는 개념도.
도 9는 다른 실시예의 설명에 이용하는 노선도.
* 도면의 주요 부호에 대한 간단한 설명 *
1 : 페트 로봇 4 : 머리부 유닛
4a : 반투명 커버 10 : 컨트롤러
10A : 메모리 15 : CCD 카메라
16 : 마이크로폰 17 : 터치 센서
19 : LED 19R1, 19R2: 적색 LED
19G1, 19G2: 녹색 LED 211내지 21n: 액추에이터
30 : 상태 인식부 31 : 감정·본능 모델부
32 : 행동 결정부 33 : 행동 생성부
40 : 상태 천이표 S3 : 음성 신호
S4 : LED 구동 신호 S10 : 상태 인식 정보
S11 : 행동 결정 정보 S12(S121내지 S12n) : 구동 신호
본 발명은 이상의 점을 고려하여 이루어진 것으로, 엔터테인먼트성을 더 한층 향상시킬 수 있는 로봇 장치 및 그 제어 방법 및 기록 매체를 제안하고자 하는것이다.
상기와 같은 과제를 해결하기 위해서 본 발명에 있어서는, 로봇 장치에 있어서, 외견상의 눈으로서 기능하는 발광 수단과, 외부의 상황 및 또는 외부로부터의 입력을 검출하는 외부 센서와, 외부 센서의 출력에 근거하여, 감정을 표현하도록 발광 수단을 점멸시키는 제어 수단을 설치하도록 함으로써, 발광 수단의 발광 상태에 근거하여 사용자가 해당 로봇 장치의 감정을 용이하게 인식할 수 있다. 이와 같이 함으로써 사용자와의 커뮤니케이션을 원활하게 행하는 수 있고, 이와 같이 하여 엔터테인먼트성을 더 한층 향상시킬 수 있는 로봇 장치를 실현할 수 있다.
또한 본 발명에 있어서는, 외견상의 눈으로서 기능하는 발광 수단과, 외부의 상황 및 또는 외부로부터의 입력을 검출하는 외부 센서를 가지는 로봇 장치의 제어 방법에 있어서, 외부 센서의 출력에 근거하여 외부의 상황 및 또는 외부로부터의 입력을 인식하는 제 1 단계와, 인식 결과에 근거하여, 감정을 표현하도록 발광 수단을 점멸시키는 제 2 단계를 설치하도록 함으로써, 사용자가 로봇 장치의 발광 수단의 발광 상태에 근거하여 사용자가 해당 로봇 장치의 감정을 용이하게 인식할 수 있다. 상기와 같이 하여 사용자와 로봇 장치의 커뮤니케이션을 원활화시킬 수 있고, 이와 같이 하여 엔터테인먼트성을 더 한층 향상시킬 수 있는 로봇 장치의 제어 방법을 실현할 수 있다.
더욱이 본 발명에 있어서는, 외견상의 눈으로서 기능하는 발광 수단과, 외부의 상황 및 또는 외부로부터의 입력을 검출하는 외부 센서를 가지는 로봇 장치의 제어 프로그램이 기록된 기록 매체에 있어서, 외부 센서의 출력에 근거하여 외부의상황 및 또는 외부로부터의 입력을 인식하는 제 1 단계와, 해당 인식 결과에 근거하여, 감정을 표현하도록 발광 수단을 점멸시키는 제 2 단계를 가지는 제어 프로그램을 기록하도록 하였다. 이 결과 이 기록 매체에 기록된 제어 프로그램에 의하면, 사용자가 로봇 장치의 발광 수단의 발광 상태에 근거하여 사용자가 해당 로봇 장치의 감정을 용이하게 인식할 수 있음으로써, 사용자와 로봇 장치의 커뮤니케이션을 원활화시킬 수 있고, 이렇게 하여 로봇 장치의 엔터테인먼트성을 더 한층 향상시킬 수 있는 기록 매체를 실현할 수 있다.
이하 도면에 대해서, 본 발명의 1실시예를 상술한다.
(1) 본 실시예에 의한 페트 로봇(1)의 구성
도 1에 있어서, 1은 전체로서 본 실시예에 의한 페트 로봇을 도시하고, 동체부 유닛(2)의 전후좌우에 각각 다리부 유닛(3A 내지 3D)이 연결되는 동시에, 동체부 유닛(2)의 전단부 및 후단부에 각각 머리부 유닛(4) 및 꼬리부 유닛(5)이 연결됨으로서 구성되어 있다.
이 경우 동체부 유닛(2)에는, 도 2에 도시하는 바와 같이, 이 페트 로봇(1) 전체의 동작을 제어하는 컨트롤러(10)와, 이 페트 로봇(1)의 동력원으로서의 배터리(11)와, 배터리 센서(12) 및 온도 센서(13) 등으로 이루어지는 내부 센서부(14)등이 수납되어 있다.
또한 머리부 유닛(4)에는, 이 페트 로봇(1)의 실질적인 「눈」으로서 기능하는 CCD(Charge Coupled Device) 카메라(15), 「귀」로서 기능하는 마이크로폰(16) 및 터치 센서(17) 등으로 이루어지는 외부 센서부(18)와, 외견상의 「눈」으로서 기능하는 LED(Light Emitting Diode)(19)와, 「입」으로서 기능하는 스피커(20) 등이 각각 소정의 위치에 배치되어 있다.
더욱이 각 다리부 유닛(3A 내지 3D)의 관절부분이나, 각 다리부 유닛(3A 내지 3D) 및 동체부 유닛(2)의 각 연결부분, 머리부 유닛(4) 및 동체부 유닛(2)의 연결부분 및 꼬리부 유닛(5)에 있어서의 꼬리(5A)(도 1)의 뿌리 부분(root part) 등에는, 각각 대응하는 자유도 수분의 액추에이터(211내지 21n)가 배치되어 있다.
그리고, 머리부 유닛(4)의 CCD 카메라(15)는, 주위의 상황을 촬상하고, 얻어진 화상 신호(S1A)를 컨트롤러(10)로 송출한다. 또한 마이크로폰(16)은, 사용자로부터 도시하지 않는 사운드 커맨드를 통해 음계로서 주어지는 「걸어라」, 「엎드려라」 또는 「공을 쫓아라」 등의 지령음을 수집하고, 얻어진 음성 신호(S1B)를 컨트롤러(10)로 송출한다.
더욱이 터치 센서(17)는, 도 1에 있어서 분명하게 한 바와 같이 머리부 유닛(4)의 상부에 설치되어 있고, 사용자로부터의 「쓰다듬는다」나 「때린다」 등의 물리적인 작용에 의해 받은 압력을 검출하고, 검출 결과를 압력 검출 신호(S1C)로서 컨트롤러(10)로 송출한다.
더욱이 배터리 센서(12)는, 배터리(11)의 잔량을 검출하고, 검출 결과를 배터리 잔량 검출 신호(S2A)로서 컨트롤러(10)로 송출하며, 온도 센서(13)는 페트 로봇(1) 내부의 온도를 검출하여 검출 결과를 온도 검출 신호(S2B)로서 컨트롤러(10)로 송출한다.
컨트롤러(10)는, 외부 센서부(18)의 CCD 카메라(15), 마이크로폰(16) 및 터치 센서(17)로부터 각각 공급되는 화상 신호(S1A), 음성 신호(S1B) 및 압력 검출 신호(S1C;이하, 이들을 모아서 외부 센서 신호(S1)라고 부른다)와, 내부 센서부(14)의 배터리 센서 및 열 센서로부터 각각 주어지는 배터리 잔량 검출 신호(S2A) 및 온도 검출 신호(S2B;이하, 이들을 모아서 내부 센서 신호(S2)라고 부른다) 등에 근거하여, 페트 로봇(1)의 주위 및 내부의 상황이나, 사용자로부터의 지령, 사용자로부터의 활동 작용의 유무 등을 판단한다.
그리고 컨트롤러(10)는, 이 판단 결과와, 이미 메모리(10A)에 격납되어 있는 제어 프로그램에 근거하여 계속되는 행동을 결정하고, 결정 결과에 근거하여 필요한 액추에이터(211내지 21n)를 구동시킴으로써, 머리부 유닛(4)을 상하좌우로 흔들거나, 꼬리부 유닛(5)의 꼬리를 움직이게 하거나, 각 다리부 유닛(3A 내지 3D)을 구동하여 보행시키는 등의 행동을 행하게 한다.
또한 이때 컨트롤러(10)는, 필요에 따라서 소정의 음성 신호(S3)를 스피커(20)에 전달함으로써 해당 음성 신호(S3)에 근거하는 음성을 외부로 출력시키거나, 외견상의 「눈」으로서의 LED(19)에 LED 구동 신호(S4)를 출력함으로써 이것을 점멸시킨다.
이와 같이 하여 이 페트 로봇(1)에 있어서는, 주위 및 내부의 상황이나, 사용자로부터의 지령 및 작용의 유무 등에 근거하여 자율적으로 행동할 수 있도록 이루어져 있다.
또한 페트 로봇(1)의 외견상의 「눈」으로서의 LED(19)의 구체적인 구성을 도 3에 도시한다. 이 도 3에서도 분명히 한 바와 같이, LED(19)는 각각 적색광을 발광하는 한쌍의 적색 LED(19R1, 19R2)와, 각각 녹색광을 발광하는 한쌍의 녹색 LED(19G1, 19G2)로 구성된다.
이 경우 각 적색 LED(19R1, 19R2)는, 각각 발광부가 소정의 길이의 직선 형상을 가지고 있고, 화살 표시(a)로 도시하는 머리부 유닛(4)의 앞방향으로 감에 따라서 앞이 좁아지는 위치 관계가 되도록 머리부 유닛(4)의 긴쪽 방향의 거의 중단부에 배치되어 있다. 이로써 이 페트 로봇(1)에 있어서는, 이들 적색 LED(19R1, 19R2)를 함께 점등함으로써, 마치 눈을 치켜뜨고 화내고 있는 듯한, 「노여움」의 표정을 표현할 수 있도록 이루어져 있다.
또한 각 녹색 LED(19G1, 19G2)는, 각각 발광부가 소정의 길이의 활과 같은 형상을 가지고 있고, 각각 머리부 유닛(4)에 있어서의 대응하는 적색 LED(19R1, 19R2)의 직전 위치에, 활과 같은 형상의 내측을 앞방향(화살 표시(a))을 향한 상태로 배치되어 있다. 이로써 이 페트 로봇(1)에 있어서는, 상기 녹색 LED(19G1, 19G2)를 함께 점등함으로써, 마치 웃고 있는 듯한, 「기쁨」의 표정을 표현할 수 있도록 이루어져 있다.
그리고 상기와 같은 페트 로봇(1)에서는, 상기 적색 LED(19R1, 19R2) 및 녹색 LED(19G1, 19G2)를 덮어서 감추도록, 머리부 유닛(4)의 전단 근방으로부터 터치 센서(17)의 직전까지의 케이스의 상부 부분이, 예를 들면 합성 수지재로 이루어지는 흑색의 반투명 커버(4a)로 덮여져 있다.
이로써 이 페트 로봇에서는, LED(19)가 점등하지 않는 상태일 때에는 이들이 외측으로부터 눈으로 확인하기 어렵고, 이에 대하여 LED(19)가 점등하는 상태일 때에는 이것을 외측으로부터 용이하게 눈으로 확인할 수 있도록 할 수 있으며, 이와 같이 하여 2종류의 형상의 「눈」(적색 LED(19R1, 19R2) 및 녹색 LED(19G1, 19G2))가 노출되어 있는 것에 기인하는 위화감을 유효하게 회피할 수 있도록 이루어져 있다.
또한 이 페트 로봇(1)에서는, 실질상의 「눈」으로서 기능하는 CCD 카메라(15)가 머리부 유닛(4)의 선단부에 그 광학축이 화살 표시(a)와 평행하게 배치되어 있고, 이로써 이 CCD 카메라(15)에 의해서 머리부 유닛(4)이 향하고 있는 전방의 상황을 확실하게 촬상할 수 있도록 이루어져 있다.
(2) 컨트롤러(10)의 처리
다음에 이 페트 로봇(1)에 있어서의 컨트롤러(10)의 구체적인 처리에 대해서 설명한다.
컨트롤러(10)는, 메모리(10A)에 격납된 제어 프로그램에 따라서 상술한 바와 같은 각종 처리를 실행한다. 그리고 상기와 같은 컨트롤러(10)의 처리 내용을 기능적으로 분류하면, 도 5에 도시하는 바와 같이, 외부 및 내부의 상태를 인식하는상태 인식부(30)와, 상태 인식부(30)의 인식 결과에 근거하여 감정 및 본능의 상태를 결정하는 감정·본능 모델부(31)와, 상태 인식부(30)의 인식 결과 및 감정·본능 모델부(31)의 출력에 근거하여 계속되는 행동을 결정하는 행동 결정부(32)와, 행동 결정부(32)의 결정 결과에 따른 행동을 페트 로봇에 생성(발현)시키는 행동 생성부(33)로 분류할 수 있다.
이하, 상기 상태 인식부(30), 감정·본능 모델부(31), 행동 결정부(32) 및 행동 생성부(33)에 대해서 상세하게 설명한다.
(2-1) 상태 인식부(30)의 구성
상태 인식부(30)는 외부 센서부(18)(도 2)로부터 주어지는 외부 정보 신호(S1)와, 내부 센서부(14)(도 2)로부터 주어지는 내부 정보 신호(S2)에 근거하여 특정한 상태를 인식하고, 인식 결과를 상태 인식 정보(S10)로서 감정·본능 모델부(31) 및 행동 결정부(32)에 통지한다.
실제상, 상태 인식부(30)는 외부 센서부(18)의 CCD 카메라(15)(도 2)로부터 주어지는 화상 신호(S1A)(도 2)를 상시 감시하고, 해당 화상 신호(S1A)에 근거하는 화상 내에, 예를 들면, 「빨갛고 둥근 것」이나, 「수직의 평면」을 검출하였을 때에는, 「볼이 있다」, 「벽이 있다」라고 인식하고, 인식 결과를 감정·본능 모델부(31) 및 행동 결정부(32)에 통지한다.
또한 상태 인식부(30)는 마이크로폰(16)(도 2)으로부터 주어지는 음성 신호(S1B)(도 2)를 상시 감시하고, 해당 음성 신호(S1B)에 근거하여 「걸어라」, 「엎드려라」, 「볼을 쫓아라」 등의 지령음이 입력된 것을 인식하면, 상기와 같은인식 결과를 감정·본능 모델부(31) 및 행동 결정부(32)에 통지한다.
더욱이 상태 인식부(30)는 터치 센서(17)(도 2)로부터 주어지는 압력 검출 신호(S1C)(도 2)를 상시 감시하고, 해당 압력 검출 신호(S1C)에 근거하여 소정의 임계치 이상의 또한 단시간(예를 들면, 2초 미만)의 압력을 검출하였을 때에는 「맞았다(꾸중 들었다)」 라고 인식하고, 소정의 임계 미만의 또한 장시간(예를 들면, 2초 이상)의 압력을 검출하였을 때에는 「쓰다듬어 주었다(칭찬받았다)」라고 인식하여, 인식 결과를 감정·본능 모델부(31) 및 행동 결정부(32)에 통지한다.
더욱이 상태 인식부(30)는, 내부 센서부(14)(도 2)의 온도 센서(13)(도 2)로부터 주어지는 온도 검출 신호(S2B)(도 2)를 상시 감시하고, 해당 온도 검출 신호(S2B)에 근거하여 소정 이상의 온도를 검출하였을 때에는 「내부 온도가 상승하였다」라고 인식하고, 인식 결과를 감정·본능 모델부(31) 및 행동 결정부(32)에 통지한다.
(2-2) 감정·본능 모델부(31)의 구성
감정·본능 모델부(31)는, 「기쁨」, 「슬픔」, 「놀라움」, 「공포」, 「혐오」 및 「노여움」의 합계 6개의 정동(情動)에 대해서, 각 정동마다 그 정동의 강도를 나타내는 파라미터를 보유하고 있다. 그리고, 감정·본능 모델부(31)는 상기 각 정동의 파라미터치를, 각각 상태 인식부(30)로부터 상태 인식 정보(S10)로서 주어지는 「맞았다」 및 「쓰다듬어 주었다」 등의 특정의 인식 결과와, 후술하는 바와 같이 행동 결정부(32)로부터 주어지는 결정된 출력 행동을 나타내는 행동 결정 정보(S12)와, 경과 시간 등에 근거하여 순차 갱신한다.
구체적으로 감정·본능 모델부(31)는 상태 인식 정보(S10)에 근거하여 얻어지는 인식 결과 및 행동 결정 정보(S12)에 근거하는 출력 행동이 그 정동에 대하여 작용하는 정도(이미 설정되어 있다)와, 다른 정동으로부터 받는 억제 및 자극의 정도와, 경과 시간 등에 근거하여 소정의 연산식에 의해 산출되는 그 정동의 변화량을 △E〔t〕, 현재의 그 정동의 파라미터치를 E〔t〕, 인식 결과 등에 따라서 그 정동을 변화시키는 비율을 나타내는 계수를 ke로 하여, 소정의 주기로 다음식
E〔t+1〕= E〔t〕+ ke×△E〔t〕 …… (1)
을 이용하여 다음 주기에 있어서의 그 정동의 파라미터치(E〔t+1〕)를 산출한다.
그리고 감정·본능 모델부(31)는 이 연산 결과를 현재의 그 정동의 파라미터치(E〔t〕)로 바꿔 놓도록 하여 그 정동의 파라미터치를 갱신한다. 또한 각 인식 결과나 각 출력 행동에 대하여 어떤 정동의 파라미터치를 갱신할지는 이미 정해져 있고, 예를 들면 「맞았다」는 인식 결과가 주어진 경우에는 「노여움」의 정동의 파라미터치가 오르는 동시에 「기쁨」의 정동의 파라미터가 내려가고, 「쓰다듬어 주었다」는 인식 결과가 주어진 경우에는 「기쁨」의 정동의 파라미터치가 오르는 동시에 「슬픔」의 정동의 파라미터치가 내려간다. 또한 각 정동에 대한 보다 구체적인 설명 및 상기 정동이 변화하는 구체적인 요인의 일예를 도 6에 도시한다.
이와 같이 하여, 감정·본능 모델부(31)는 「운동욕」, 「애정욕」, 「식욕」 및 「호기심」의 서로 독립한 4개의 욕구에 대해서, 상기 욕구마다 그 욕구의 강도를 나타내는 파라미터를 보유하고 있다. 그리고 감정·본능 모델부(31)는 상기 욕구의 파라미터치를 각각 상태 인식부(30)로부터의 인식 결과나, 경과 시간 및 행동 결정부(32)로부터의 통지 등에 근거하여 순차 갱신한다.
구체적으로 감정·본능 모델부(31)는, 「운동욕」, 「애정욕」 및 「호기심」에 대해서는, 페트 로봇(1)의 출력 행동, 경과 시간 및 인식 결과 등에 근거하여 소정의 연산식에 의해 산출되는 그 욕구의 변동량을 △Ⅰ〔k〕, 감산의 그 욕구의 파라미터치를 Ⅰ〔k〕, 그 욕구의 감도를 나타내는 계수를 ki로 하여, 소정의 주기로 다음식
Ⅰ〔k+1〕= Ⅰ〔k〕+ ki×△Ⅰ〔k〕 …… (2)
를 이용하여 다음 주기에 있어서의 그 욕구의 파라미터치(Ⅰ〔k+1〕)를 산출하고, 이 연산 결과를 현재의 그 욕구의 파라미터치(Ⅰ〔k〕)로 바꿔 놓도록 하여 그 욕구의 파라미터치를 갱신한다. 또한 출력 행동이나 인식 결과 등에 대하여 어떤 욕구의 파라미터치를 변화시킬지는 이미 정해져 있고, 예를 들면 행동 결정부(32)로부터 어떠한 행동을 행하였다는 통지가 있었을 때에는 「운동욕」의 파라미터치가 내려 간다.
또한 감정·본능 모델부(31)는 「식욕」에 대해서는, 상태 인식부(30)를 통해 주어지는 배터리 잔량 검출 신호(S2A)(도 2)에 근거하여, 배터리 잔량을 BL로 하여 소정의 주기로 다음식
Ⅰ〔k〕= 100-BL…… (3)
에 의해 「식욕」의 파라미터치(Ⅰ〔k+1〕)를 산출하고, 이 연산 결과를 현재의 식욕의 파라미터치(Ⅰ〔k〕)로 바꿔 놓도록 하여 해당 「식욕」의 파라미터치를 갱신한다.
또한 본 실시예에 있어서는, 각 정동 및 각 욕구의 파라미터치가 각각 O에서 100까지의 범위로 변동하도록 규제되고 있고, 또한 계수(ke, ki)의 값도 각 정동 및 각 욕구마다 개별로 설정되어 있다.
(2-3) 행동 결정부(32)의 구성
행동 결정부(32)는, 상태 인식부(30)으로부터 주어지는 상태 인식 정보(S10)와, 감정·본능 모델부(31)에 있어서의 각 정동 및 각 욕구의 파라미터치와, 이미 메모리(10A)에 격납된 행동 모델과, 시간 경과 등에 근거하여 다음 행동을 결정하고, 결정 결과를 행동 결정 정보(S12)로서 감정·본능 모델부(31) 및 행동 생성부(33)로 출력한다.
이 경우, 행동 결정부(32)는, 다음 행동을 결정하는 수법으로서, 도 7에 도시하는 바와 같은 1개의 노드(상태)(NODE0)부터 같은 또는 다른 어떤 노드(NODE0내지 NODEn)로 천이하는지를 각 노드(NODE0내지 NODEn)간을 접속하는 아크(ARC0내지 ARCn)에 대하여 각각 설정된 천이 확률(P0내지 Pn)에 근거하여 확률적으로 결정하는 확률 오토머턴이라고 불리는 알고리즘을 이용한다.
보다 구체적으로는, 메모리(1OA)에는 행동 모델로서, 각 노드(NODE0내지 NODEn)마다 도 8에 도시하는 바와 같은 상태 천이표(40)가 격납되어 있고, 행동 결정부(32)가 이 상태 천이표(40)에 근거하여 다음 행동을 결정하도록 이루어져 있다.
여기서 상태 천이표(40)에 있어서는, 그 노드(NODE0내지 NODEn)에 있어서 천이 조건으로 하는 입력 이벤트(상태 인식부(30)의 인식 결과)가 「입력 이벤트」의 행에 우선순으로 배열 기록되고, 그 조건에 대한 추가 조건이 「데이터명」 및 「데이터 범위」의 행에 있어서의 대응하는 열에 기술되어 있다.
따라서 도 8의 상태 천이표(40)에서 정의된 노드(NODE100)에서는 「볼을 검출했다(BALL)」라고 인식 결과가 주어진 경우에, 해당 인식 결과와 함께 주어지는 그 볼의 「크기(SIZE)」가 「0부터 1000의 범위(0,1000)」인 것이나, 「장해물을 검출(OBSTACLE)」이라는 인식 결과가 주어진 경우에, 해당 인식 결과와 함께 주어지는 그 장해물까지의 「거리(DISTANCE)」가 「0부터 1000의 범위(0,1000)」인 것이 자기 또는 다른 노드로 천이하기 위한 조건으로 되어 있다.
또한 이 노드(NODE10O)에서는, 인식 결과의 입력이 없는 경우에 있어서도, 행동 결정부(32)가 주기적으로 참조하는 감정·본능 모델부(31)의 각 정동 및 각 욕구의 파라미터치 중 「기쁨(JOY)」, 「놀라움(SUPRISE)」 또는 「슬픔(SUDNESS)」중 어느 하나의 정동의 파라미터치가 「50부터 100의 범위(50, 100)」일 때에는 자기 또는 다른 노드로 천이할 수 있다.
더욱이 상태 천이표(40)에서는, 「다른 로드로의 천이 확률」의 란에 있어서의 「천이처 노드」의 열에 그 노드(NODE0내지 NODEn)로부터 천이 할 수 있는 노드명이 배열 기록되는 동시에, 「입력 이벤트명」, 「데이터치」 및 「데이터의 범위」의 각 행에 기술된 모든 조건이 갖추어진 경우에 있어서의 그 노드(NODE0내지 NODEn)로의 천이 확률이 「다른 노드로의 천이 확률」의 란에서의 그 노드(NODE0내지 NODEn)의 행에 기술되고, 이때 출력되는 행동 또는 동작이 「출력 행동」의 행에 기술된다. 또한 「다른 노드로의 천이 확률」의 란에 있어서의 각 행의 천이 확률의 합은 100〔%〕가 되고 있다.
따라서 이 예의 노드(NODE100)에서는, 예를 들면 「볼을 검출(BALL)」하고, 그 볼의 「크기(SIZE)」가 「0부터 1000의 범위(0, 1000)」라는 인식 결과가 주어진 경우에는, 「30〔%〕」의 확률로 「노드(NODE120(node120))」로 천이할 수 있고, 그 때 「ACTION1」의 행동 또는 동작이 출력되게 된다.
그리고 행동 모델은, 이와 같은 상태 천이표(40)로서 기술된 노드(NODE0내지 NODEn)가 몇개나 연결되도록 하여 구성되어 있다.
상기와 같이 하여 행동 결정부(32)는, 상태 인식부(30)로부터 상태 인식 정보(S10)가 주어졌을 때나, 최후에 행동을 발현하고 나서 일정 시간이 경과하였을 때 등에, 메모리(10A)에 격납되어 있는 행동 모델 중의 대응하는 노드(NODE0내지 NODEN)의 상태 천이표(40)를 이용하여 다음 행동이나 동작(「출력 행동」의 행에 기술된 행동 또는 동작)을 확률적으로 결정하고, 결정 결과를 행동 결정 정보(S12)로서 감정·본능 모델부(31) 및 행동 생성부(33)로 출력한다.
(2-3) 행동 생성부(33)의 처리
행동 생성부(33)는, 행동 결정부로부터 주어지는 행동 결정 정보(S12)에 근거하여, 필요한 액추에이터(211내지 21n)(도 2)로 구동 신호(S131내지 S13n)를 송출하거나, 스피커(20)(도 2)로 필요한 음성 신호(S3)를 송출하거나, LED(19)로 LED 구동 신호(S4)를 송출한다.
이로써 행동 생성부(33)는 이 구동 신호(S131내지 S13n)에 근거하여 필요한 액추에이터(211내지 21n)를 소정의 상태로 구동시키거나, 음성 신호(3)에 근거하는 음성을 스피커(20)로부터 출력시키거나, LED 구동 신호(S3)에 근거하는 점멸 패턴으로 LED(19)를 점멸시킨다.
(3) 감정과 「눈」의 점멸의 관계
다음에 이 페트 로봇(1)에 있어서의 감정 표현과, 외견상의 「눈」으로서 기능하는 LED(19)의 점멸의 관계에 대해서 설명한다.
이 페트 로봇(1)에서는, 상술한 바와 같이 컨트롤러(10)의 기능의 하나인 행동 결정부(32)에 있어서, 대응하는 상태 천이표(40)(도 8)에 근거하여 계속되는 행동이나 동작을 결정한다.
이 경우 상태 천이표(40)에 있어서의 「쓰다듬어 주었다(PAT)」라는 인식 결과와 대응지어진 각 출력 행동(예를 들면, 도 8에 있어서의 「ACTON2」)에는, LED(19) 중의 각 녹색 LED(19G1, 19G2)를 점멸시키는 행동이 관련지어져 있다.
또한 행동 결정부(32)는 상태 인식부(30)로부터 「쓰다듬어 주었다」라는 인식 결과가 주어진 경우에는, 상술한 바와 같이 대응하는 상태 천이표(40)를 이용하여 확률적으로 다음 행동이나 동작을 결정하고, 결정한 행동이나 동작을 행동 결정 정보(S12)로서 행동 생성부(33)로 출력하는 한편, 이와 함께 감정·본능 모델부(31)에 있어서의 「기쁨」의 파라미터의 값을 판독하고, 이것을 행동 생성부(33)에 통지하도록 이루어져 있다.
상기와 같이 하여 이때 행동 생성부(33)는 행동 결정부(32)로부터 주어지는 행동 결정 정보(S12)에 근거하여, 필요한 액추에이터(211내지 21n)를 구동함으써 지정된 「기쁨」을 표현하는 행동을 행하게 하는 한편, 이와 함께 또는 대신에 그때의 「기쁨」의 파라미터의 값에 따라서, 해당 값이 크면 클 수록 점멸 주기가 빨라지도록 각 녹색 LED(19G1, 19G2)를 점멸시킨다. 이로써 페트 로봇(1)은, 마치 웃고 있는 듯한, 「기쁨」의 감정을 표정으로서 표현할 수 있다.
또한 이와 마찬가지로 하여, 상태 천이표에 있어서의 「맞았다(HIT)」라고 하는 인식 결과와 대응지어진 각 출력 행동(예를 들면, 도 8에 있어서의 「ACTON3」)에는, LED(19) 중 각 적색 LED(19G1내지 19G2)를 점멸시키는 행동이 관련지어져 있다.
또한 행동 결정부(32)는 상태 인식부(30)로부터 「맞았다」라는 인식 결과가 주어진 경우에는, 대응하는 상태 천이표(40)를 이용하여 확률적으로 다음 행동이나 동작을 결정하고, 결정한 행동이나 동작을 행동 결정 정보(S12)로서 행동 생성부(33)로 출력하는 한편, 이와 함께 감정·본능 모델부(31)에 있어서의 「노여움」의 파라미터의 값을 판독하고, 이것을 행동 생성부(33)에 통지하도록 이루어져 있다.
이와 같이 하여 이때 행동 생성부(33)는 행동 결정부(32)로부터 주어지는 행동 결정 정보(S12)에 근거하여, 필요한 액추에이터(211내지 21n)를 구동함으로써, 지정된 「노여움」를 나타내는 행동을 행하게 하는 한편, 이와 함께 또는 이 대신에 그때의 「노여움」의 파라미터의 값에 따라서, 해당 값이 크면 클 수록 점멸 주기가 빨라지도록 각 적색 LED(19R1, 19R2)를 점멸시킨다. 이로써 페트 로봇(1)은 마치 화내고 있는 듯한, 「노여움」의 감정을 표정으로서 표현할 수 있다.
이것에 대하여 행동 결정부(32)는는 상태 천이표(40)에 있어서의 예를 들면, 「큰 소리의 입력(SOUND)〕과 같은 이미 정해진 「놀라움」을 표현해야할 특정한 인식 결정과 대응지어진 각 출력 행동(예를 들면, 도 8에 있어서의 「ACTON4」)에는, LED의 각 적색 LED(19R1, 19R2) 및 각 녹색 LED(19G1, 19G2)를 순차 교대에 점멸시키는 행동이 관련지어져 있다.
또한 행동 결정부(32)는 상태 인식부(30)로부터 상기와 같은 「놀라움」을 표현해야할 특정한 인식 결과가 주어진 경우에는, 대응하는 상태 천이표(40)를 이용하여 확률적으로 다음 행동이나 동작을 결정하고, 결정 결과를 행동 생성부(33)에 통지한다.
이와 같이 하여 이때 행동 생성부(33)는 행동 결정부(32)로부터 주어지는 행동 결정 정보(S12)에 근거하여, 필요한 액추에이터(211내지 21n)를 구동함으로써,지정된 「놀라움」을 나타내는 페트 로봇(1)에 행동을 행하게 하는 한편, 이와 함께 각 적색 LED(19R1, 19R2) 및 각 녹색 LED(19G1, 19G2)를 순차 교대로 점멸시킨다. 이로써 페트 로봇(1)은 마치 웃고 있는 듯한 표정과, 화내고 있는 듯한 표정을 순차 교대로 반복함으로써, 「놀라움」의 감정을 표정으로서 표현할 수 있다.
이와 같이 하여 이 페트 로봇(1)에 있어서는, 「쓰다듬어 주었다」는 것에 대한 「기쁨」의 감정이나, 「맞았다」는 것에 대한 「노여움」의 감정 및 어느 특정한 인식 결과에 근거하는 「놀라움」의 감정을, 각 적색 LED(19R1, 19R2) 및 또는 각 녹색 LED(19G1, 19G2)의 점멸에 의해서 표정으로서 표현할 수 있도록 이루어져 있다.
(4) 본 실시예의 동작 및 효과
이상의 구성에 있어서, 이 페트 로봇(1)에서는, 사용자가 머리부 유닛(4)의 상부(터치 센서(17))를 때리면 각 적색 LED(19R1, 19R2)가 동시에 점멸함으로써, 마치 눈을 치켜 떠서 화를 내고 있는 듯한 「노여움 」의 감정을 표정으로서 표현하고, 이것에 대하여 사용자가 쓰다듬으면 각 녹색 LED(19G1, 19G2)가 동시에 점멸함으로써, 마치 웃고 있는 듯한 「기쁨」의 감정을 표정으로서 표현한다. 또한 페트 로봇(1)에서는, 예를 들면 주위에서 큰 소리가 발생하면 각 적색 LED(19R1, 19R2) 및 각 녹색 LED(19G1, 19G2)가 순차 교대로 점멸함으로써, 눈을 개폐시켜서 놀라고 있는 듯한 「놀라움」의 감정을 표정으로서 표현한다.
따라서 이 페트 로봇(1)에서는, 사용자가 페트 로봇(1)의 감정 상태를 LED(19)의 점멸 상태에 근거하여 용이하게 인식하기 쉽고, 또한 「쓰다듬다」나 「때린다」라는 사용자의 작용에 따라서 해당 작용에 따른 감정을 표현하기 때문에, 사용자와의 커뮤니케이션을 더욱 원활하게 행할 수 있도록 할 수 있다.
이상의 구성에 의하면, 페트 로봇(1)의 감정을 외견상의 「눈」으로서의 LED(19)의 점멸에 의해 표현하도록 함으로써, 사용자와의 커뮤니케이션을 보다 원활하게 행할 수 있도록 할 수 있고, 이와 같이 함으로써 엔터테인먼트성을 단계적으로 향상시킬 수 있는 페트 로봇을 실현할 수 있다.
(5) 다른 실시예
또한 상술한 실시예에 있어서는, 본 발명을 도 1과 마찬가지로 구성된 네발 보행형의 페트 로봇(1)에 적용하도록 한 경우에 대해서 설명하였지만, 본 발명은 이것에 한정되지 않고, 이 밖에 여러가지의 형상의 로봇 장치(이른바 완구(장난감, 토이(Toy)를 포함한다)에 널리 적용할 수 있다.
또한 상술한 실시예에 있어서는, 발광 수단으로서 LED(19)를 적용하도록 한 경우에 대해서 설명하였지만, 본 발명은 이에 한정되지 않고, 요는, 빛을 발광하는 이 밖에 여러가지의 발광 수단을 널리 적용할 수 있다.
이 경우에 있어서, 예를 들면 도 9와 같이 발광 소자(50)를 어레이형으로 배치한 것이나, 컬러 또는 흑백의 액정 디스플레이 등도 적용할 수 있고, 이와 같은 발광 수단을 적용함으로써 외견상의 눈으로서 보다 다양한 형상을 표시하고, 이로써 보다 다양한 표정을 표현할 수 있도록 할 수 있다.
더욱이 상술한 실시예에 있어서는, 「기쁨」, 「노여움」 및 「놀라움」의 3가지의 감정(정동)을 외견상의 눈으로서 기능하는 LED(19)의 발광 상태에 의해 표현하도록 한 경우에 대해서 설명하였지만, 본 발명은 이에 한정되지 않고, 상기 감정에 더해서 또는 상기의 감정 대신에 다른 감정(정동)을 LED(19)의 발광 상태에 의해 표현하도록 하여도 좋다.
더욱이 상술한 실시예에 있어서는, LED(19)로서 적색 LED(19R1, 19R2) 및 녹색 LED(19G1, 19G2)의 2색분의 LED를 이용하도록 한 경우에 대해서 설명하였지만, 본 발명은 이에 한정되지 않고, 1색 또는 3색 이상의 LED를 준비하고, 이것을 감정에 따라서 소정의 발광 패턴으로 발광시키도록 하여도 좋다.
더욱이 상술한 실시예에 있어서는, 감정이 강하면 강할 수록 LED(19)의 점멸 주기를 빨리 하도록 한 경우에 대해서 설명하였지만, 본 발명은 이에 한정되지 않고, 감정이 강하면 강할 수록 LED(19)의 발광 휘도를 올리도록 하여도 좋고, 요는, 감정의 강도에 따라서 LED(19)의 발광 패턴을 변화시키도록 하는 것이면, 그 발광 패턴으로서는 이 밖에 여러가지의 발광 패턴을 적용할 수 있다.
더욱이 상술한 실시예에 있어서는, 외부 상황이나 외부 입력을 검출하는 외부 센서로서 CCD 카메라(15), 마이크로폰(16) 및 터치 센서(17)를 적용하도록 한 경우에 대해서 설명하였지만, 본 발명은 이에 한정되지 않고, 요는, 외부 상황이나 외부 입력을 검출할 수 있는 것이면, 외부 센서로서는 이에 더하여 또는 이 대신에 이밖의 여러가지의 센서를 널리 적용할 수 있다.
더욱이 상술한 실시예에 있어서는, 페트 로봇(1)에 있어서 제어 프로그램을 기록하는 기록 매체로서 메모리(10A)를 적용하도록 한 경우에 대해서 설명하였지만, 본 발명은 이에 한정되지 않고, 요는 제어 프로그램을 기록하고, 이것을 재생할 수 있는 것이면, 기록 매체로서는 이밖의 여러가지의 것을 널리 적용할 수 있다.
더욱이 상술한 실시예에 있어서는, 터치 센서(17)를 페트 로봇(1)의 머리부 유닛(4)의 상부에 배치하도록 한 경우에 대해서 설명하였지만, 본 발명은 이에 한정되지 않고, 이밖의 장소에 배치하도록 하여도 좋다. 단, 이와 같이 더치 센서(17)를 페트 로봇(1)의 머리부의 이마나 정수리에 배치함으로써, 실험적 및 경험적으로도, 페트 로봇(1)과 사용자의 커뮤니케이션을 도모하기 쉽고, 사용자가 페트 로봇(1)에 대하여 감정 이입을 하기 쉽게 할 수 있다는 이점이 있다.
더욱이 상술한 실시예에 있어서는, 사용자로부터의 「때린다」나 「쓰다듬는다」와 같은 활동 작용을 검출하는 수단으로서 터치 센서(17)를 적용하도록 한 경우에 대해서 설명하였지만, 본 발명은 이에 한정되지 않고, 예를 들면 터치 센서(17) 대신에 단순한 스위치를 배치하고, 해당 스위치의 온/오프에 의해서 「때린다」라는 사용자의 활동 작용을 검출하고, 해당 검출 결과에 근거하여 LED(19)를 점멸시키는 등으로 하여 페트 로봇에 감동을 표현시키도록 하여도 좋다.
본 발명은, 페트 로봇 등의 엔터테인먼트 로봇에 적용할 수 있다.

Claims (18)

  1. 외견상의 눈으로서 기능하는 발광 수단과,
    외부의 상황 및 또는 외부로부터의 입력을 검출하는 외부 센서와,
    상기 외부 센서의 출력에 근거하여, 감정을 표현하도록 상기 발광 수단을 점멸시키는 제어 수단을 구비하는 것을 특징으로 하는 로봇 장치.
  2. 제 1 항에 있어서, 상기 발광 수단은, 발광 다이오드로 이루어지는 것을 특징으로 하는 로봇 장치.
  3. 제 1 항에 있어서, 상기 제어 수단은,
    상기 발광 수단의 점멸 패턴에 의해서 상기 감정의 강도를 표현하는 것을 특징으로 하는 로봇 장치.
  4. 제 1 항에 있어서, 각각 다른 색으로 발광하는 복수의 상기 발광 수단을 구비하고,
    상기 제어 수단은,
    점멸시키는 상기 발광 수단의 상기 색에 의해서 상기 감정을 표현하는 것을 특징으로 하는 로봇 장치.
  5. 제 1 항에 있어서, 가동부와,
    상기 가동부를 구동하는 구동 수단을 구비하고,
    상기 제어 수단은,
    상기 발광 수단의 점멸에 더하여, 상기 구동 수단을 제어하여 상기 가동부를 소정의 패턴으로 구동시킴으로써, 상기 감정을 표현하는 것을 특징으로 하는 로봇 장치.
  6. 제 1 항에 있어서, 상기 제어 수단은,
    상기 외부 센서의 출력에 근거하여, 이미 보유하고 있는 감정을 모델화한 감정 모델을 갱신하고,
    해당 갱신한 감정 모델에 근거하여 감정을 결정하며,
    결정한 상기 감정을 표현하도록 상기 발광 수단을 점멸시키는 것을 특징으로 하는 로봇 장치.
  7. 제 1 항에 있어서, 상기 발광 수단은,
    표현하는 상기 감정에 따른 복수 형상의 발광부를 갖고, 또는 표현하는 상기 감정에 따른 복수 형상을 표시하는 것을 특징으로 하는 로봇 장치.
  8. 제 1 항에 있어서, 상기 로봇 장치는, 머리부를 갖고,
    상기 발광 수단은,
    상기 머리부에 배치되는 동시에, 반투명한 커버로 덮여진 것을 특징으로 하는 로봇 장치.
  9. 외견상의 눈으로서 기능하는 발광 수단과, 외부의 상황 및 또는 외부로부터의 입력을 검출하는 외부 센서를 갖는 로봇 장치의 제어 방법에 있어서,
    상기 외부 센서의 출력에 근거하여 상기 외부의 상황 및 또는 상기 외부로부터의 입력을 인식하는 제 1 단계와,
    상기 인식 결과에 근거하여, 감정을 표현하도록 상기 발광 수단을 점멸시키는 제 2 단계를 구비하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  10. 제 9 항에 있어서, 상기 제 2 단계에서는,
    상기 발광 수단의 점멸 패턴에 의해서 상기 감정의 강도를 표현하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  11. 제 9 항에 있어서, 상기 로봇 장치는, 각각 다른 색으로 발광하는 복수의 상기 발광 수단을 구비하고,
    상기 제 2 단계에서는,
    점멸시키는 상기 발광 수단의 상기 색에 의해서 상기 감정을 표현하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  12. 제 9 항에 있어서, 상기 로봇 장치는,
    가동부와,
    상기 가동부를 구동하는 구동 수단을 구비하고,
    상기 제 2 단계에서는,
    상기 발광 수단의 점멸에 더하여, 상기 구동 수단을 제어하여 상기 가동부를 소정의 패턴으로 구동시킴으로써, 상기 감정을 표현하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  13. 제 9 항에 있어서, 상기 제 2 단계에서는,
    상기 외부 센서의 출력에 근거하여, 이미 보유하고 있는 감정을 모델화한 감정 모델을 갱신하고,
    해당 갱신한 감정 모델에 근거하여 감정을 결정하며,
    결정한 상기 감정을 표현하도록 상기 발광 수단을 점멸시키는 것을 특징으로 하는 로봇 장치의 제어 방법.
  14. 외견상의 눈으로서 기능하는 발광 수단과, 외부의 상황 및 또는 외부로부터의 입력을 검출하는 외부 센서를 갖는 로봇 장치의 제어 프로그램이 기록된 기록 매체에 있어서,
    상기 외부 센서의 출력에 근거하여 상기 외부의 상황 및 또는 상기 외부로부터의 입력을 인식하는 제 1 단계와,
    해당 인식 결과에 근거하여, 감정을 표현하도록 상기 발광 수단을 점멸시키는 제 2 단계를 구비하는 상기 제어 프로그램이 기록된 것을 특징으로 하는 기록 매체.
  15. 제 14 항에 있어서, 상기 제 2 단계에서는,
    상기 발광 수단의 점멸 패턴에 의해서 상기 감정의 강도를 표현하는 것을 특징으로 하는 기록 매체.
  16. 제 14 항에 있어서, 상기 로봇 장치는, 각각 다른 색으로 발광하는 복수의 상기 발광 수단을 구비하고,
    상기 제 2 단계에서는,
    점멸시키는 상기 발광 수단의 상기 색에 의해서 상기 감정을 표현하는 것을 특징으로 하는 기록 매체.
  17. 제 14 항에 있어서, 상기 로봇 장치는,
    가동부와,
    상기 가동부를 구동하는 구동 수단을 구비하고,
    상기 제 2 단계에서는,
    상기 발광 수단의 점멸에 더하여, 상기 구동 수단을 제어하여 상기 가동부를 소정의 패턴으로 구동시킴으로써, 상기 감정을 표현하는 것을 특징으로 하는 기록매체.
  18. 제 14 항에 있어서, 상기 제 2 단계에서는,
    상기 제 1 단계에서의 상기 인식 결과에 근거하여, 이미 보유하고 있는 감정을 모델화한 감정 모델을 갱신하고,
    해당 갱신한 감정 모델에 근거하여 감정을 결정하며,
    결정한 상기 감정을 표현하도록 상기 발광 수단을 점멸시키는 것을 특징으로 하는 기록 매체.
KR1020017000415A 1999-05-10 2000-05-10 로봇 장치 및 그 제어 방법 및 기록 매체 KR20010071833A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP99-129279 1999-05-10
JP12927999 1999-05-10
PCT/JP2000/002990 WO2000068879A1 (fr) 1999-05-10 2000-05-10 Dispositif robot, son procede de commande et support d'enregistrement

Publications (1)

Publication Number Publication Date
KR20010071833A true KR20010071833A (ko) 2001-07-31

Family

ID=15005664

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020017000415A KR20010071833A (ko) 1999-05-10 2000-05-10 로봇 장치 및 그 제어 방법 및 기록 매체

Country Status (7)

Country Link
US (2) US6458011B1 (ko)
EP (1) EP1120740B1 (ko)
JP (1) JP4518229B2 (ko)
KR (1) KR20010071833A (ko)
CN (1) CN1304516A (ko)
DE (1) DE60036599T2 (ko)
WO (2) WO2000068880A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100458079B1 (ko) * 2001-11-23 2004-11-18 (주)로보티즈 감정 표현 로보트
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
KR100880613B1 (ko) * 2007-08-10 2009-01-30 주식회사 쿼터뷰 지능형로봇의 감정표현지원시스템과 지원방법 및 이를이용한 지능형 로봇 시스템
KR101101750B1 (ko) * 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6616464B1 (en) * 1999-05-10 2003-09-09 Sony Corporation Robot device
JP2002301674A (ja) * 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP2003060745A (ja) * 2001-08-22 2003-02-28 Sony Corp 情報伝達装置、情報伝達方法及びモニタ装置
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
US7165637B2 (en) * 2004-11-04 2007-01-23 The Boeing Company Robotic all terrain surveyor
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
JP4893887B2 (ja) * 2007-04-02 2012-03-07 本田技研工業株式会社 充電装置
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
US8057275B2 (en) * 2008-09-23 2011-11-15 Hasbro, Inc. Toy with pivoting portions capable of rolling over and methods thereof
AU2012368731A1 (en) 2012-02-03 2014-08-21 Nec Corporation Communication draw-in system, communication draw-in method, and communication draw-in program
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
US9104231B2 (en) 2012-09-27 2015-08-11 Microsoft Technology Licensing, Llc Mood-actuated device
US9046884B2 (en) * 2012-12-31 2015-06-02 Microsoft Technology Licensing, Llc Mood-actuated device
US20140273728A1 (en) * 2013-03-15 2014-09-18 Rehco, Llc Motorized and non-motorized interactive character
CN105243967A (zh) * 2015-09-29 2016-01-13 塔米智能科技(北京)有限公司 一种支持多种颜色的led点阵机器人面部结构
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
WO2017187620A1 (ja) 2016-04-28 2017-11-02 富士通株式会社 ロボット
WO2018012219A1 (ja) * 2016-07-11 2018-01-18 Groove X株式会社 自律行動型ロボット
US11150255B2 (en) * 2016-07-12 2021-10-19 EMULATE, Inc. Additive channels
CN106904226B (zh) * 2017-03-10 2022-12-23 杭州宇树科技有限公司 一种电驱动四足机器人的腿部动力系统结构
US11407120B2 (en) * 2017-04-28 2022-08-09 Sony Corporation Control device, and control method
USD848549S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy dog
USD848550S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy bulldog
USD848552S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy horse
USD916160S1 (en) * 2017-10-31 2021-04-13 Sony Corporation Robot
JP1622873S (ja) * 2017-12-29 2019-01-28 ロボット
EP3705237A4 (en) * 2017-10-31 2020-12-02 Sony Corporation ROBOTIC DEVICE
JP7238796B2 (ja) * 2018-01-10 2023-03-14 ソニーグループ株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
CN108499128A (zh) * 2018-04-17 2018-09-07 郭斌 一种智能机器人玩具
CN113727767B (zh) 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 机器动物拼插模型
CN112970034A (zh) * 2018-10-30 2021-06-15 索尼集团公司 信息处理设备、信息处理方法和程序
JP7081577B2 (ja) * 2019-10-31 2022-06-07 カシオ計算機株式会社 ロボット
USD985645S1 (en) * 2021-04-16 2023-05-09 Macroact Inc. Companion robot
USD986985S1 (en) * 2022-05-27 2023-05-23 Jinwei Chen Dog robot toy
USD1030917S1 (en) * 2022-07-15 2024-06-11 Shenzhen Tbz Technology Co., Ltd. Artificial intelligence robot dog

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JP2593149B2 (ja) * 1987-02-04 1997-03-26 株式会社 ナムコ 感情表現玩具
JPS63191582A (ja) * 1987-02-05 1988-08-09 株式会社明電舎 ロボツトの歩行装置
JPS6419492U (ko) * 1987-07-20 1989-01-31
US5929585A (en) * 1996-11-19 1999-07-27 Sony Corporation Robot system and its control method
JP3956414B2 (ja) * 1996-11-19 2007-08-08 ソニー株式会社 ロボット装置及びロボット装置の制御方法
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
US6095887A (en) * 1998-02-24 2000-08-01 Onilco Innovacion S.A. Doll capable of walking with unsteady steps and with falling and upright recovery motions
EP1034899B1 (en) * 1998-06-09 2011-03-30 Sony Corporation Robot and method of its attitude control
JP2000317876A (ja) * 1999-05-10 2000-11-21 Sony Corp ロボット装置
JP2001239479A (ja) * 1999-12-24 2001-09-04 Sony Corp 脚式移動ロボット及びロボットのための外装モジュール
AU2001259610A1 (en) * 2000-05-09 2001-11-20 Hasbro, Inc. Self-stabilizing walking apparatus that is capable of being reprogrammed or puppeteered
US6705917B2 (en) * 2000-12-15 2004-03-16 Andrew S. Filo Self-phase synchronized walking and turning quadruped apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
US7333969B2 (en) 2001-10-06 2008-02-19 Samsung Electronics Co., Ltd. Apparatus and method for synthesizing emotions based on the human nervous system
KR100458079B1 (ko) * 2001-11-23 2004-11-18 (주)로보티즈 감정 표현 로보트
KR100880613B1 (ko) * 2007-08-10 2009-01-30 주식회사 쿼터뷰 지능형로봇의 감정표현지원시스템과 지원방법 및 이를이용한 지능형 로봇 시스템
KR101101750B1 (ko) * 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법

Also Published As

Publication number Publication date
EP1120740B1 (en) 2007-10-03
CN1304516A (zh) 2001-07-18
EP1120740A1 (en) 2001-08-01
JP4518229B2 (ja) 2010-08-04
US6591923B2 (en) 2003-07-15
US20030019671A1 (en) 2003-01-30
WO2000068880A1 (fr) 2000-11-16
US6458011B1 (en) 2002-10-01
WO2000068879A1 (fr) 2000-11-16
DE60036599T2 (de) 2008-02-07
DE60036599D1 (de) 2007-11-15
EP1120740A4 (en) 2005-08-31

Similar Documents

Publication Publication Date Title
KR20010071833A (ko) 로봇 장치 및 그 제어 방법 및 기록 매체
JP3277500B2 (ja) ロボット装置
US6760646B2 (en) Robot and control method for controlling the robot's motions
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP3963162B2 (ja) ロボット装置及びロボット装置の制御方法ロボット装置
US6512965B2 (en) Robot and control method for entertainment
JP2001038663A (ja) マシンの制御システム
WO2001039932A1 (fr) Robot, son procede de commande et procede d'appreciation du caractere du robot
JP2001191276A (ja) ロボットシステム、ロボット装置及びその外装
KR20010102425A (ko) 편집 장치, 편집 방법 및 기록 매체
US20080058988A1 (en) Robots with autonomous behavior
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP4296736B2 (ja) ロボット装置
JP4524524B2 (ja) ロボット装置及びその制御方法
JP2001353674A (ja) ロボット装置
JP2001154707A (ja) ロボット装置及びその制御方法
JP4411503B2 (ja) ロボット装置及びその制御方法
JP2001157980A (ja) ロボット装置及びその制御方法
JP4419035B2 (ja) ロボット装置及びその制御方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP2004130426A (ja) ロボット装置及びその動作制御方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP2002264057A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP4385281B2 (ja) ロボット装置及びその制御方法
JP2003071765A (ja) ロボット装置及びロボット装置の入力方法

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
E801 Decision on dismissal of amendment
B601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20070111

Effective date: 20070625