KR20020026165A - 로봇 장치의 행동 결정 방법 및 로봇 장치 - Google Patents

로봇 장치의 행동 결정 방법 및 로봇 장치 Download PDF

Info

Publication number
KR20020026165A
KR20020026165A KR1020017015057A KR20017015057A KR20020026165A KR 20020026165 A KR20020026165 A KR 20020026165A KR 1020017015057 A KR1020017015057 A KR 1020017015057A KR 20017015057 A KR20017015057 A KR 20017015057A KR 20020026165 A KR20020026165 A KR 20020026165A
Authority
KR
South Korea
Prior art keywords
behavior
action
tendency
appearance
factor
Prior art date
Application number
KR1020017015057A
Other languages
English (en)
Inventor
쯔요시 다까기
마사히로 후지따
리까 하세가와
고따로 사베
크라그로날드 아라낀
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR20020026165A publication Critical patent/KR20020026165A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Abstract

행동 결정 시스템(70)은 CCD 카메라(20), 거리 센서(22), 마이크로폰(23) 등이 검출한 외부 또는 내부 정보로서, 행동에 영향을 주는 정보가 되는 원인 인자를 취득하고, 그 취득한 원인 인자에 기초하여 상기 원인 인자에 영향을 받는 행동의 출현 경향을 취득하는 지각 정보 취득부(90) 및 동기 정보 취득부(81)와, 지각 정보 취득부(90) 및 동기 정보 취득부(81)가 취득한 2개 이상의 행동에 대응하는 출현 경향에서, 동일 그룹이 되는 출현 경향을 비교하고, 그 출현 경향의 비교 결과에 기초하여, 하나의 행동을 선택하는 행동 선택 연산부(82)와, 행동 선택 연산부(82)가 선택한 행동에 기초하여, 동작부를 제어하여 상기 선택된 행동을 출현시키는 출력 시맨틱스 컨버터 모듈(68)을 구비한다. 이에 따라, 생물감이 향상되며, 보다 동물답게 행동하는 로봇 장치를 제공할 수 있다.

Description

로봇 장치의 행동 결정 방법 및 로봇 장치{METHOD FOR DETERMINING ACTION OF ROBOT AND ROBOT}
최근, 동물을 모방한 형상으로 이루어진 로봇 장치, 소위 페트 로봇이 제안되어 있다. 이러한 로봇 장치는, 일반 가정에서 사육되는 개나 고양이와 닮은 형상을 하고 있으며, 사용자(기르는 주인)로부터의「때리기」나「쓰다듬기」라고 하는 행위이나, 주위 환경 등에 따라 자율적으로 행동한다. 예를 들면, 자율적인 행동으로서, 실제 동물과 마찬가지로「짖기」,「잠자기」등과 같은 행동을 한다.
그런데, 로봇 장치가 실제의 동물과 같은 행동에 보다 근접할 수 있으면, 로봇 장치의 생물감이 한층 증가하여, 사용자(기르는 주인)는 로봇 장치에 친근감이나 만족감을 더욱 느끼게 된다. 이에 따라, 로봇 장치의 유희성이 향상된다.
예를 들면, 실제의 동물과 같은 행동을 시키는 것으로서, 동물 행동학적인 어프로치로부터 로봇 장치의 행동 결정을 하는 것 등이 고려될 수 있다.
동물 행동적인 어프로치로부터 이루어진 행동 연구의 성과로서, 예를 들면,동물 행동학자인 Sibly, Mcfarland 등이 동기 부여 공간 표상의 상태를 1975년에 논문으로 발표하고 있다 ("동물 커뮤니케이션" 니시무라 서점). 또한, Ludlow는, 1976년에 행동 경합 모델에 대하여 발표하고 있다. 그리고, 이들 성과를 Bruce Mitchell Blumberg(Bruce of Arts, Amherst College, 1977, Master of Science, Sloan School of Management, MIT, 1981)가「Old Tricks, New Dogs: Ethology and Interactive Creatures」(1997년 4월)에서 검증하고 있다. Bruce Mitchell Blumberg는, 3D의 CG(컴퓨터 그래픽)의 개에 대하여 상술한 이론을 적용하여, 행동 선택 메카니즘으로서 검증하고 있다.
그런데, Bruce Mitchell Blumberg는 CG 모델로써의 동물의 행동 선택 메카니즘에 대하여 검증하고 있으며, 실세계에서 존재하는 로봇 장치에 적용시킨 것은 아니다.
CG 등의 컴퓨터 시스템의 디스플레이 등에 표시되는 가상 생물에서는, 행동 선택과 행동 실현을 직접 결부시키는 것(행동 선택=행동 실현)이 가능하기 때문에, 행동 선택에 의한 동기로의 피드백이 가능하지만, 실제 로봇에서는, 행동 선택과 행동 실현을 직접 결부시킬 수 있다고는 한정하지 않는다 (즉, 행동 선택=행동 실현으로 된다고는 한정하지 않음). 이것은, 이하와 같은 사실을 그 이유로서 들 수 있다.
반사 행동 등의 계획된 행동과는 무관하게 실행되는 행동에 의해 상쇄될 가능성이 있다.
센서로부터의 입력의 피드백을 사용하지 않으면, 행동이 참된 의미로 실현가능하였는지를 알지 못하는 경우가 있다.
이러한 이유에 있어서 후자의 구체적인 예로서는 "발로 볼을 차는" 행동을, 볼과의 거리가 차는 것이 가능한 거리에 도달한 시점에 행동이 선택되어, 행동 명령이 출력되었다고 하여도, 볼이 놓여 있는 부분에 경사가 있거나 하면, 찰 수 없는 경우가 존재한다. "발로 볼을 차는" 행동 결과로서의 "볼을 찰 수 있었다" 는 것을 인식하기 위해서는, 볼과 로봇 장치가 접촉하여, 볼이 전방으로 진행한 것을 인식하고 나서야 비로소 "찰 수 있었다"는 행동 결과로 되는 것이다. 즉, 로봇 장치가 갖는 센서의 센서 정보를 사용하여 행동에 대한 평가를 행하고, 로봇 장치의 내부 상태를 변화시키는 것이 필요하게 된다.
이와 같이, 상술한 바와 같은 Bruce Mitchell Blumberg가 제창한 기술만으로는, 실세계에서의 존재인 로봇 장치의 행동을 결정하는 것은 불가능하다.
본 발명은, 로봇 장치의 행동 결정 방법 및 로봇 장치에 관한 것으로, 특히, 자율적으로 행동하는 로봇 장치 및 그와 같은 로봇 장치의 행동을 결정하는 로봇 장치의 행동 결정 방법에 관한 것이다.
도 1은 본 발명의 실시예인 로봇 장치의 외관 구성을 나타내는 사시도.
도 2는 상술한 바와 같은 로봇 장치의 회로 구성을 나타내는 블록도.
도 3은 상술한 바와 같은 로봇 장치의 소프트웨어 구조를 나타내는 블록도.
도 4는 상술한 바와 같은 로봇 장치의 소프트웨어의 미들웨어층의 구성을 나타내는 블록도.
도 5는 상술한 바와 같은 행동 결정 시스템의 구성을 나타내는 블록도.
도 6A, 도 6B는 상기 동물 행동학적인 어프로치에 의한 행동 결정을 하는 로봇 장치를 설명하기 위해 사용한 도면.
도 7은 행동 선택부에서 구축된, 복수의 행동이 계층 구조로 된 행동 선택 시스템을 나타내는 도면.
도 8은 상술한 바와 같은 행동 결정 시스템을 구성하는 각부의 기능을 설명하기 위해 사용한 전반의 도면.
도 9는 상술한 바와 같은 행동 결정 시스템을 구성하는 각부의 기능을 설명하기 위해 사용한 후반의 도면.
도 10은 동물 행동학적인 어프로치에 의해, 지각(知覺) 및 동기에 의해 행동을 결정하는 경우에 대하여 설명하기 위해 사용한 블록도.
도 11A∼도 11C는 원인 인자에 의해 구성되는 원인 인자 상태 공간과, 원인 인자 상태 공간에 의해 규정된 행동의 출현 경향이 사상(寫象)되는 출현 경향 공간을 나타내는 특성도.
도 12는 인자 상태 공간을 설명하기 위해 사용한 도면.
도 13A, 도 13B는 동물 행동학적인 어프로치를 수식화하는 설명에 사용한 섭식(攝食) 행동 및 섭수(攝水) 행동의 원인 인자 상태 공간을 나타내는 특성도.
도 14는 동물 행동학적인 어프로치를 수식화하는 설명에 사용한 섭식 경향과 섭수 경향으로 구성되는 출현 경향 공간을 나타내는 특성도.
도 15A는 원인 인자 상태 공간으로부터 사상된 값이 섭식 행동 선택 영역에 있는 경우를, 도 15B는 원인 인자 상태 공간으로부터 사상된 값이 섭수 행동 선택 영역에 있는 경우를 각각 나타내는 특성도.
도 16은 배타 제어를 설명하기 위해 사용한 도면.
도 17은 동물 행동학적인 어프로치에 의한 계산식에 의해 실현되는 행동의 선택을 설명하기 위해 사용한 출현 경향 공간을 나타내는 특성도.
도 18은 로봇 장치의 실제의 처리에 의한 행동의 선택을 설명하기 위해 사용한 출현 경향 공간을 나타내는 특성도.
도 19는 행동 선택부를 구성하는 지각 정보 취득부와, 동기 정보 취득부와, 행동 정보 선택부 간의 정보의 흐름을 나타내는 블록도.
도 20은 배타 제어 전의 출현 경향의 산출을 설명하기 위해 사용한 도면.
도 21은 배타 제어에 의한 출현 경향의 산출을 설명하기 위해 사용한 도면.
도 22는 출현 경향의 산출 수순을 나타내는 흐름도.
도 23은 지각 정보 취득부의 구성을 나타내는 블록도.
도 24는 상술한 바와 같은 지각 정보 취득부에서의 처리 수순을 나타내는 흐름도.
도 25는 동기 정보 취득부를 설명하기 위해 사용한 도면.
도 26A, 도 26B는 로봇 장치의 다른 실시예로서, 계층 구조로 된 행동 선택 시스템에서 하위층에서의 행동의 선택이 동기에 의해 영향을 받지 않는 경우를 설명하기 위해 사용한 도면.
도 27은 상술한 바와 같은 다른 실시예의 로봇 장치의 행동 선택 연산부 및 동작 생성부의 기능을 설명하기 위해 사용한 도면.
도 28은 상술한 바와 같은 다른 실시예의 로봇 장치의 행동 결정 시스템의구성을 나타내는 블록도.
도 29는 동작 생성부의 구성을 나타내는 블록도.
도 30은 오브젝트로 된 복수의 행동 선택부를 나타내는 블록도.
도 31은 서브 시스템층, 모드층, 모듈층에서의 각 행동 그룹 구성의 전반의 구체예를 나타내는 도면.
도 32는 서브 시스템층, 모드층, 모듈층에서의 각 행동 그룹 구성의 후반의 구체예를 나타내는 도면.
본 발명은, 상술한 바와 같은 실정을 감안하여 이루어진 것으로, 보다 생물감이 향상된 로봇 장치 및 로봇 장치의 행동 결정 방법의 제공을 목적으로 하고 있다.
본 발명에 따른 로봇 장치는, 상술한 바와 같은 과제를 해결하기 위해 동작부를 제어하여 행동을 출현시키는 로봇 장치에 있어서, 외부 또는 내부 정보를 검출하는 검출 수단과, 검출 수단이 검출한 외부 또는 내부 정보로서, 행동에 영향을 미치는 정보가 되는 원인 인자를 취득하는 원인 인자 취득 수단과, 원인 인자 취득 수단이 취득한 원인 인자에 기초하여 이러한 원인 인자에 영향을 미치는 행동의 출현 경향을 취득하는 출현 경향 취득 수단과, 출현 경향 취득 수단이 취득한 둘 이상의 행동에 대응하는 출현 경향으로서, 동일 그룹이 되는 출현 경향을 비교하는 출현 경향 비교 수단과, 출현 경향 비교 수단에 의한 출현 경향의 비교 결과에 기초하여 하나의 행동을 선택하는 행동 선택 수단과, 행동 선택 수단이 선택한 행동에 기초하여 동작부를 제어하여, 이러한 선택된 행동을 출현시키는 동작 제어 수단을 포함하며, 행동 선택 수단이 선택된 하나의 행동의 출현 경향이, 이러한 행동의 실제 출현에 따라 변화하는 원인 인자에 따라 변화한다.
이러한 구성을 구비한 로봇 장치는, 외부 또는 내부 정보를 검출 수단에 의해 검출하고, 검출 수단이 검출한 외부 또는 내부 정보에 있어서, 행동에 영향을 미치는 정보가 되는 원인 인자를 원인 인자 취득 수단에 의해 취득하고, 원인 인자 취득 수단이 취득한 원인 인자에 기초하여 이러한 원인 인자에 영향을 미치는 행동의 출현 경향을 출현 경향 취득 수단에 의해 취득한다.
그리고, 로봇 장치는, 출현 경향 취득 수단이 취득한 둘 이상의 행동에 대응하는 출현 경향에 있어서, 동일 그룹이 되는 출현 경향을 출현 경향 비교 수단에 의해 비교하고, 출현 경향 비교 수단에 의한 출현 경향의 비교 결과에 기초하여 하나의 행동을 행동 선택 수단에 의해 선택하고, 행동 선택 수단이 선택한 행동에 기초하여 동작부를 동작부 제어 수단에 의해 제어하여, 이러한 선택된 행동을 출현시킨다. 그리고, 행동 선택 수단이 선택한 하나의 행동의 출현 경향은, 이러한 행동의 실제 출현에 의해 변화하는 원인 인자에 따라 변화한다.
이와 같은 로봇 장치는, 원인 인자에 영향을 받아 결정되는 출현 경향에 대하여 비교함으로써, 하나의 행동을 선택하고 있으며, 동물 행동학적인 어프로치로서의 행동을 출현시키게 된다.
또한, 본 발명에 따른 로봇 장치의 행동 결정 방법은, 상술한 바와 같은 과제를 해결하기 위해 로봇 장치의 외부 또는 내부 정보를 검출 수단에 의해 검출하는 정보 검출 공정과, 정보 검출 공정으로부터 검출한 외부 또는 내부 정보의 로봇 장치의 행동에 영향을 미치는 정보가 되는 원인 인자를 취득하는 원인 인자 취득 공정과, 원인 인자 취득 공정으로부터 취득한 원인 인자에 기초하여 이러한 원인 인자에 영향을 미치는 행동의 출현 경향을 취득하는 출현 경향 취득 공정과, 출현 경향 취득 공정으로부터 취득한 둘 이상의 행동에 대응하는 출현 경향에 있어서, 동일 그룹이 되는 출현 경향을 비교하는 출현 경향 비교 공정과, 출현 경향 비교 공정에서의 출현 경향의 비교 결과에 기초하여 하나의 행동을 선택하는 행동 선택 공정과, 행동 선택 공정으로부터 선택된 행동에 기초하여 로봇 장치의 동작부를 제어하여, 이러한 로봇 장치에 선택된 행동을 출현시키는 동작부 제어 공정을 포함하며, 행동 선택 공정으로부터 선택된 하나의 행동의 출현 경향이, 이러한 행동의 실제 출현에 의해 변화하는 원인 인자에 따라 변화한다.
이와 같은 로봇 장치의 행동 결정 방법은, 로봇 장치의 외부 또는 내부의 정보가 되는 외부 또는 내부 정보를 정보 검출 공정으로부터 검출 수단에 의해 검출하고, 정보 검출 공정으로부터 검출한 외부 또는 내부 정보의 로봇 장치의 행동에 영향을 미치는 정보가 되는 원인 인자를 원인 인자 취득 공정으로부터 취득하고, 원인 인자 취득 공정으로부터 취득한 원인 인자에 기초하여 이러한 원인 인자에 영향을 미치는 행동의 출현 경향을 출현 경향 취득 공정으로부터 취득한다.
그리고, 로봇 장치의 행동 결정 방법은, 출현 경향 취득 공정으로부터 취득한 둘 이상의 행동에 대응하는 출현 경향에 있어서, 동일 그룹이 되는 출현 경향을 출현 경향 비교 공정에서 비교하여, 출현 경향 비교 공정에서의 출현 경향의 비교 결과에 기초하여 하나의 행동을 행동 선택 공정으로부터 선택하고, 행동 선택 공정으로부터 선택된 행동에 기초하여 로봇 장치의 동작부를 동작 제어 공정에서 제어하여, 이 로봇 장치에 선택된 행동을 출현시킨다. 그리고, 행동 선택 공정으로부터 선택된 하나의 행동의 출현 경향은, 이러한 행동의 실제 출현에 의해 변화하는 원인 인자에 따라 변화한다.
이와 같은 로봇 장치의 행동 결정 방법에 의해, 로봇 장치는, 원인 인자에 영향을 받아 결정되는 출현 경향에 대하여 비교함으로써, 하나의 행동을 선택하고 있으며, 동물 행동학적인 어프로치로서의 행동을 출현하게 된다.
이하, 본 발명의 실시예에 대하여 도면을 이용하여 상세히 설명한다. 본 실시예는 본 발명을, 외적 요인 및 내적 요인에 기초하여 본능 및 감정의 상태를 변화시켜, 이 본능 및 감정의 상태에 따라 행동을 하는 로봇 장치에 적용한 것이다.
실시예에서는, 우선, 로봇 장치의 구성에 대하여 설명하고, 그 후, 로봇 장치에서의 본 발명의 적용 부분에 대하여 상세히 설명한다.
(1) 본 실시예에 따른 로봇 장치의 구성
도 1에 도시한 바와 같이,「개」를 모방한 형상의 소위 페트 로봇으로 되고, 동체부 유닛(12)의 전후 좌우에 각각 다리부 유닛(3A, 3B, 3C, 3D)이 연결됨과 함께, 동체부 유닛(2)의 전단부 및 후단부에 각각 머리부 유닛(4) 및 꼬리부 유닛(5)이 연결되어 구성되어 있다.
동체부 유닛(2)에는, 도 2에 도시한 바와 같이, CPU(Central Processing Unit: 10), DRAM(Dynamic Random Access Memory: 11), 플래시 ROM(Read OnlyMemory: 12), PC(Personal Computer) 카드 인터페이스 회로(13) 및 신호 처리 회로(14)가 내부 버스(15)를 통해 상호 접속됨으로써 형성된 제어부(16)와, 이 로봇 장치(1)의 동력원으로서의 배터리(17)가 수납되어 있다. 또한 동체부 유닛(2)에는, 로봇 장치(1)의 방향이나 움직임의 가속도를 검출하기 위한 각속도 센서(18) 및 가속도 센서(19) 등도 수납되어 있다.
또한, 머리부 유닛(4)에는, 외부 상황을 촬상하기 위한 CCD(Charge Coupled Device) 카메라(20)와, 사용자로부터의「쓰다듬기」나「때리기」라고 하는 물리적인 행위에 의해 받은 압력을 검출하기 위한 터치 센서(21)와, 전방에 위치하는 물체까지의 거리를 측정하기 위한 거리 센서(22)와, 외부음을 모으기 위한 마이크로폰(23)과, 울음소리 등의 음성을 출력하기 위한 스피커(24)와, 로봇 장치(1)의「눈」에 상당하는 LED(Light Emitting Diode: 도시하지 않음) 등이 각각 소정 위치에 배치되어 있다.
또한, 각 다리부 유닛(3A∼3D)의 관절 부분이나 각 다리부 유닛(3A∼3D) 및 동체부 유닛(2)의 각 연결 부분, 머리부 유닛(4) 및 동체부 유닛(2)의 연결 부분, 및 꼬리부 유닛(5)의 꼬리(5A)의 연결 부분 등에는 각각 자유도 수분의 액튜에이터(251, 252, …) 및 전위차계(261, 262,…)가 배치되어 있다. 예를 들면, 액튜에이터(251, 252,…)는 서보 모터를 구성으로서 가지고 있다. 서보 모터의 구동에 의해, 다리부 유닛(3A∼3D)이 제어되어, 목표로 하는 자세 혹은 동작으로 천이한다.
그리고, 이들 각속도 센서(18), 가속도 센서(19), 터치 센서(21), 거리 센서(22), 마이크로폰(23), 스피커(24) 및 각 전위차계(261, 262,…) 등의 각종 센서 및 LED 및 각 액튜에이터(251, 252,…)는 각각 대응하는 허브(271∼27n)를 통해 제어부(16)의 신호 처리 회로(14)와 접속되고, CCD 카메라(20) 및 배터리(17)는 각각 신호 처리 회로(14)와 직접 접속되어 있다.
신호 처리 회로(14)는, 상술한 바와 같은 각 센서로부터 공급되는 센서 데이터나 화상 데이터 및 음성 데이터를 순차적으로 받아들이고, 이들을 각각 내부 버스(15)를 통해 DRAM(11) 내의 소정 위치에 순차적으로 저장한다. 또한 신호 처리 회로(14)는 이와 함께 배터리(17)로부터 공급되는 배터리 잔량을 나타내는 배터리 잔량 데이터를 순차적으로 받아들이고, 이것을 DRAM(11) 내의 소정 위치에 저장한다.
이와 같이 하여 DRAM(11)에 저장된 각 센서 데이터, 화상 데이터, 음성 데이터 및 배터리 잔량 데이터는, 이 후 CPU(10)가 이 로봇 장치(1)의 동작 제어를 행할 때 이용된다.
실제로 CPU(10)는, 로봇 장치(1)의 전원이 투입된 초기 시, 동체부 유닛(2)의 도시하지 않은 PC 카드 슬롯에 장전된 메모리 카드(28) 또는 플래시 ROM(12)에 저장된 제어 프로그램을 PC 카드 인터페이스 회로(13)를 통해 또는 직접 판독하고, 이것을 DRAM(11)에 저장한다.
또한, CPU(10)는, 이 후 상술하는 바와 같이 신호 처리 회로(14)로부터DRAM(11)에 순차적으로 저장되는 각 센서 데이터, 화상 데이터, 음성 데이터 및 배터리 잔량 데이터에 기초하여 자신 및 주위 상황이나, 사용자로부터의 지시 및 사용자의 행위의 유무 등을 판단한다.
또한, CPU(10)는, 이 판단 결과 및 DRAM(11)에 저장된 제어 프로그램에 기초하여 계속되는 행동을 결정함과 함께, 이러한 결정 결과에 기초하여 필요한 액튜에이터(251, 252, …)를 구동시킴에 따라, 머리부 유닛(4)을 상하 좌우로 흔들거나, 꼬리부 유닛(5)의 꼬리(5A)를 움직이거나, 각 다리부 유닛(3A∼3D)을 구동시켜 보행시키는 등의 행동을 행하게 시킨다.
또, 이 때 CPU(10)는, 필요에 따라 음성 데이터를 생성하고, 이것을 신호 처리 회로(14)를 통해 음성 신호로서 스피커(24)에 제공함으로써 이러한 음성 신호에 기초한 음성을 외부로 출력시키거나, 상술한 바와 같은 LED를 점등, 소등 또는 점멸시킨다.
이와 같이 하여 이 로봇 장치(1)에서는, 자신 및 주위 상황이나, 사용자로부터의 지시 및 사용자의 행위에 따라 자율적으로 행동할 수 있도록 이루어져 있다.
(2) 제어 프로그램의 소프트웨어 구성
여기서 로봇 장치(1)에서의 상술한 바와 같은 제어 프로그램의 소프트웨어 구성은, 도 3에 도시된 바와 같다. 이 도 3에서, 디바이스 드라이버층(30)은, 이 제어 프로그램의 최하위층에 위치하며, 복수의 디바이스 드라이버로 이루어지는 디바이스 드라이버 세트(31)로 구성되어 있다. 이 경우 각 디바이스 드라이버는 CCD카메라(20: 도 2)나 타이머 등의 통상의 컴퓨터에서 이용되는 하드웨어에 직접 액세스하는 것이 허용된 오브젝트이며, 대응하는 하드웨어로부터의 인터럽트를 받아 처리를 행한다.
또한, 로보틱 서버 오브젝트(32)는 디바이스 드라이버층(30)의 최하위층에 위치하며, 예를 들면 상술한 바와 같은 각종 센서나 액튜에이터(251, 252,…) 등의 하드웨어에 액세스하기 위한 인터페이스를 제공하는 소프트웨어군으로 이루어지는 버츄얼 로봇(33)과, 전원의 전환 등을 관리하는 소프트웨어군으로 이루어지는 파워 매니저(34)와, 다른 다양한 디바이스 드라이버를 관리하는 소프트웨어군으로 이루어지는 디바이스 드라이버 매니저(35)와, 로봇 장치(1)의 기구를 관리하는 소프트웨어군으로 이루어지는 디자인된 로봇(36)으로 구성되어 있다.
매니저 오브젝트(37)는 오브젝트 매니저(38) 및 서비스 매니저(39)로 구성되어 있다. 이 경우 오브젝트 매니저(38)는 로보틱 서버 오브젝트(32), 미들웨어층(40) 및 어플리케이션층(41)에 포함되는 각 소프트웨어군의 기동이나 종료를 관리하는 소프트웨어군이며, 서비스 매니저(39)는 메모리 카드(28: 도 2)에 저장된 커넥션 파일에 기술되어 있는 각 오브젝트 간의 접속 정보에 기초하여 각 오브젝트의 접속을 관리하는 소프트웨어군이다.
미들웨어층(40)은 로보틱 서버 오브젝트(32)의 상위층에 위치하며, 화상 처리나 음성 처리 등의 이 로봇 장치(1)의 기본적인 기능을 제공하는 소프트웨어군으로 구성되어 있다. 또한, 어플리케이션층(41)은 미들웨어층(40)의 상위층에 위치하고, 이러한 미들웨어층(40)을 구성하는 각 소프트웨어군에 의해 처리된 처리 결과에 기초하여 로봇 장치(1)의 행동을 결정하기 위한 소프트웨어군으로 구성되어 있다.
또, 미들웨어층(40) 및 어플리케이션 층(41)의 구체적인 소프트웨어 구성을 각각 도 4에 도시한다.
미들웨어층(4O)에서는, 도 4에 도시한 바와 같이, 소음 검출용, 온도 검출용, 밝기 검출용, 음계 인식용, 거리 검출용, 자세 검출용, 터치 센서용, 움직임 검출용 및 색 인식용의 각 신호 처리 모듈(50∼58) 및 입력 시맨틱스 컨버터 모듈(59) 등을 갖는 인식계(60)와, 출력 시맨틱스 컨버터 모듈(68) 및 자세 관리용, 트랙킹용, 모션 재생용, 보행용, 전도 복귀용, LED 점등용 및 음 재생용의 각 신호 처리 모듈(61∼67) 등을 갖는 인식계(60)로 구성되어 있다.
인식계(60)의 각 신호 처리 모듈(50∼58)은, 로보틱 서버 오브젝트(32)의 버츄얼 로봇(33)에 의해 DRAM(11: 도 2)으로부터 판독되는 각 센서 데이터나 화상 데이터 및 음성 데이터 중 대응하는 데이터를 받아들여, 이러한 데이터에 기초하여 소정의 처리를 실시하여, 그 처리 결과를 입력 시맨틱스 컨버터 모듈(59)에 제공한다. 여기서, 예를 들면, 버츄얼 로봇(33)은 소정의 통신 규약에 의해 신호의 수수(授受) 혹은 변환을 하는 부분으로서 구성되어 있다.
입력 시맨틱스 컨버터 모듈(59)은, 이들 각 신호 처리 모듈(50∼58)로부터 제공되는 처리 결과에 기초하여「시끄럽다」,「덥다」,「밝다」,「볼을 검출하였다」,「전도를 검출하였다」,「쓰다듬어졌다」,「맞았다」,「도미솔의 음계가 들렸다」,「움직이는 물체를 검출하였다」또는「장해물을 검출하였다」등의 자신 및 주위 상황이나, 사용자로부터의 지령 및 사용자의 행위를 인식하고, 그 인식 결과를 어플리케이션층(41: 도 2)으로 출력한다. 또, 어플리케이션층(41)에는, 후술하는 행동 결정을 위한 행동 결정 시스템이 구축되어 있다.
한편, 출력계(69)에서는, 출력 시맨틱스 컨버터 모듈(8)이, 행동 정보에 기초하여 각 신호 처리 모듈(61∼67)을 제어한다. 즉, 예를 들면, 인식계(60)의 인식 결과에 따라「시끄럽다」,「덥다」,「밝다」,「볼을 검출하였다」,「전도를 검출하였다」,「쓰다듬어졌다」,「맞았다」,「도미솔의 음계가 들렸다」,「움직이는 물체를 검출하였다」또는「장해물을 검출하였다」등의 자신 및 주위 상황이나, 사용자로부터의 지령 및 사용자로부터의 행위에 대응하여 제어 정보(커맨드)를 각 신호 처리 모듈(61∼67)로 출력한다.
출력 시맨틱스 컨버터 모듈(68)에 입력되는 행동 정보는,「전진」,「기뻐한다」,「운다」또는「트랙킹(볼을 쫓아감)」이라고 하는 추상적인 행동 커맨드로서, 출력 시맨틱스 컨버터 모듈(68)은, 이들 행동 커맨드를 대응하는 각 신호 처리 모듈(61∼67)로 제공된다. 그리고, 출력 시맨틱스 컨버터 모듈(68)에 입력되는 행동 정보는, 상위의 정보 처리부로 되는 행동 결정 시스템으로부터의 것인데, 본 발명에 따른 주요부이며, 후에 상술하는 부분이다.
그리고, 각 신호 처리 모듈(61∼67)은, 출력 시맨틱스 컨버터 모듈(68)로부터의 행동 커맨드에 기초하여 각 디바이스를 제어하는 제어 신호를, 버츄얼 로봇(33)으로 출력한다. 구체적으로는, 신호 처리 모듈(61∼67)은, 행동 커맨드가제공되면 이러한 행동 커맨드에 기초하여 그 행동을 행하기 위해 대응하는 액튜에이터(251, 252, …: 도 2)에 제공해야 되는 서보 지령값이나, 스피커(24: 도 2)로부터 출력하는 음의 음성 데이터 및 또는「눈」인 LED에 제공되는 구동 데이터를 생성하고, 이들 데이터를 로보틱 서버 오브젝트(32)의 버츄얼 로봇(33) 및 신호 처리 회로(14: 도 2)를 순차적으로 통해 대응하는 액튜에이터(251, 252, …) 또는 스피커(24) 또는 LED로 순차적으로 송출한다.
각 디바이스가 버츄얼 로봇(33)으로부터의 신호(커맨드)에 기초하여 제어됨으로써, 로봇 장치(1)에 의해 소정의 행동의 출현이 이루어지게 된다.
다음에, 입력 시맨틱스 컨버터 모듈(59)로부터의 인식 결과에 기초하여 다음의 행동(천이하는 행동 혹은 목적의 행동)을 결정하고, 이러한 결정된 행동 정보를 출력 시맨틱스 컨버터 모듈(68)로 출력하는 행동 결정 시스템에 대하여 설명한다.
(3) 로봇 장치의 행동 결정 시스템의 구성
로봇 장치(1)는, 도 5에 도시한 바와 같은 행동 결정 시스템(70)에 의해 행동을 결정하고 있다. 행동 결정 시스템(70)은, 입력 시맨틱스 컨버터 모듈(59)로부터의 인식 결과에 기초하여 행동을 결정하며, 그 행동을 출력 시맨틱스 컨버터 모듈(68)로 출력하고 있다. 구체적으로는, 로봇 장치(1)는 행동 선택부(80), 내적 상태 모델부(71) 및 변조기(72)를 구비하고 있다.
행동 선택부(80)는, 복수의 행동으로부터 원하는 행동을 선택한다. 구체적으로는, 행동 선택부(80)는 입력 시맨틱스 컨버터 모듈(59)의 인식 결과에 기초하여 원하는 행동을 선택한다. 예를 들면, 행동 선택부(80)는 지각 정보 취득부(90), 동기 정보 취득부(81) 및 행동 선택 연산부(82)를 구비하고, 행동의 선택을 한다.
이러한 행동 결정 시스템(70)에서, 지각 정보 취득부(90) 및 동기 정보 취득부(81)는 CCD 카메라(20), 거리 센서(22), 마이크로폰(23) 등의 외부 또는 내부 정보를 검출하는 검출 수단이 검출한 외부 또는 내부 정보로서, 행동에 영향을 미치는 정보가 되는 원인 인자를 취득하는 원인 인자 취득 수단 및 원인 인자 취득 수단으로서 취득한 원인 인자에 기초하여 이러한 원인 인자에 영향을 미치는 행동의 출현 경향을 취득하는 출현 경향 취득 수단을 구성하고, 행동 선택 연산부(82)는 지각 정보 취득부(90) 및 동기 정보 취득부(81)가 취득한 둘 이상의 행동에 대응하는 출현 경향으로서, 동일 그룹이 되는 출현 경향을 비교하는 출현 경향 비교 수단 및 출현 경향 비교 수단에 의한 출현 경향의 비교 결과에 기초하여 하나의 행동을 선택하는 행동 선택 수단을 구성하고, 출력 시맨틱스 컨버터 모듈(68)은, 행동 선택 연산부(82)가 선택한 행동에 기초하여 동작부를 제어하여, 이러한 선택된 행동을 출현시키는 동작부 제어 수단을 구성한다.
여기서, 행동 선택부(80)는, 지각 정보 취득부(90)가 인식 결과로부터 취득한 지각 정보와, 동기 정보 취득부(81)가 내적 상태 모델부(71)로부터의 내적 상태 정보로부터 취득한 동기 정보에 기초하여 행동 선택 연산부(82)에서 행동을 선택한다. 이 행동 선택부(80)에 대해서는 후에 상술한다.
한편, 내적 상태 모델부(71)는 외적 요인이나 내적 요인에 따라 로봇장치(1)의 본능 및 감정의 상태(내적 상태)를 변화시키는 내부 상태 모델을 가지고 있다. 여기서, 외적 요인이란, 예를 들면, 맞은 정보, 쓰다듬어진 정보, 혹은 사용자로부터의 명령 등이다. 또한, 내적 요인은, 배터리 잔량이 줄어들었거나 체온이 상승하고 있다고 하는 정보 등이다.
구체적으로는, 내적 상태 모델부(71)는 입력 시맨틱스 컨버터 모듈(59)의 인식 결과에 기초하여 내적 상태를 변화시키고 있으며, 내적 상태의 정보를 행동 선택부(80) 및 변조기(72)로 출력하고 있다.
동기 정보 취득부(81)에서는, 이 내적 상태 정보에 기초하여 동기 정보를 취득한다. 이것에 대해서는 후에 상술한다.
한편, 변조기(72)는 최종적으로 출현시키는 행동 정보(행동 커맨드)를 생성하는 부분이다. 구체적으로는, 변조기(72)는 행동 선택부(80)에서 선택된 행동과, 내적 상태 모델부(71)로부터의 내적 상태의 정보로부터 최종적으로 출현시키는 행동 정보를 생성하고, 출력 시맨틱스 컨버터 모듈(68)로 출력한다.
이와 같은 변조기(72)에 의해, 행동 선택부(80)에 의해 결정(선택)된 행동에, 내적 상태 모델부(71)에 의해 얻어지는 본능이나 감정의 상태를 부가시킨 것으로서, 로봇 장치(1)에 행동을 출현시킬 수 있게 된다. 즉, 예를 들면, 행동 선택부(80)에서는 인식 결과 등으로부터 다음 행동으로서「사과를 먹는다」라고 하는 행동이 선택되고, 한편, 내적 상태 모델부(71)에서는, 인식 결과에 따라 현재의 로봇 장치(1)의 내적 상태로서 예를 들면「화를 내고 있다」가 취득된다. 그리고, 변조기(72)에서는, 이들 정보에 기초하여「사과를 먹는다」는 행동에「화를 내고있다」는 내적 상태를 부가시켜,「기분 나쁘게 사과를 먹는다」는 행동 정보를 생성하여, 그 정보를 출력 시맨틱스 컨버터 모듈(68)로 출력한다. 출력 시맨틱스 컨버터 모듈(68)은, 각 신호 처리 모듈(61∼67)로 신호를 보내고, 각 디바이스를 제어하여 동작부를 제어하므로, 이에 따라, 로봇 장치(1)는 다음의 행동(목적의 행동)으로서 기분 나쁘게 사과를 먹는 행동을 출현시키게 된다.
또한, 내적 상태 모델부(71)에서 생성되는 본능이나 감정의 상태를 나타내는 내적 상태 정보에서는, 로봇 장치(1)가 행동을 결정(선택)할 때의 정보로서도 사용되며, 결정된 행동에 대해서도 표출되는(부가되는) 형태로 사용된다.
이와 같이 행동 결정 시스템(70)은, 인식 결과에 기초하여 행동을 결정하고 있다. 이하, 이 행동 결정 시스템(70)을 구성하는 각부에 대하여 더욱 상세히 설명한다.
(3-1) 내적 상태 모델부의 구성
내적 상태 모델부(71)는, 외적 요인 및 내적 요인에 따라 본능 및 감정이라고 하는 내적 상태를 변화시키고 있다. 그리고, 내적 상태 모델부(71)에 의해 얻어지는 본능 및 감정의 상태는, 상술한 바와 같이, 로봇 장치(1)가 행동을 결정할 때의 정보로서 사용되며, 또한, 결정된 행동에 대해서도 표출되는(부가되는) 형태로도 사용된다.
이와 같은 내적 상태 모델부(71)는, 외적 요인이나 내적 요인에 따라 변화하는 본능(욕구)이나 성격에 관한 요소를 복수개 가지고 구성되어 있다.
구체적으로는, 내적 상태 모델부(71)는 피로(fatigue), 열 혹은 체내온도(temperature), 아픔(pain), 식욕 혹은 배고픔(hunger), 목마름(thirst), 애정(affection), 호기심(curiosity), 배설(elimination) 및 성욕(sexual) 등의 9개의 본능적 요소와, 행복(happiness), 슬픔(sadness), 분노(anger), 놀람(surprise), 혐오(disgust), 두려움(fear), 초조함(frustration), 지루함(boredom), 졸림(somnolence), 사교성(gregarious ness), 끈기(patience), 긴장(tense), 이완(relaxed), 경계(alertness), 죄(guilt), 악의(spite), 성실함(loyalty), 복종성(submission) 및 질투(jealousy) 등의 18개의 정서적 요소를 가지고, 전체로서 27개의 내적 상태를 나타내는 요소를 가지고 있다.
정서적 요소는, 각 정서마다 그 정서의 강함을 나타내는 파라미터를 유지하고 있다. 그리고, 내적 상태 모델부(71)에서는, 이들 각 요소의 파라미터값을, 각각 입력 시맨틱스 컨버터 모듈(59)로부터 주어지는「맞다」및「쓰다듬어졌다」와 같은 특정한 인식 결과와, 경과 시간 등에 기초하여 주기적으로 변경한다.
구체적으로는, 정서적 요소는 입력 시맨틱스 컨버터 모듈(59)로부터 제공되는 인식 결과와, 그 때의 로봇 장치(1)의 행동과, 전회 갱신하고 나서의 경과 시간 등에 기초하여 소정의 연산식에 의해 산출되는 그 때의 그 정서의 변동량을 ΔE[t], 현재의 그 정서의 파라미터값을 E[t], 그 정서의 감도를 나타내는 계수를 ke로 하여, 수학식 1에 의해 다음 주기에서의 그 정서의 파라미터값 E[t+1]을 산출하고, 이것을 현재의 그 정서의 파라미터값 E[t]로 치환하도록 하여 그 정서의 파라미터값을 갱신한다.
내적 상태 모델부(71)는, 이와 같이 나타나는 수학식 1에 의해 상술한 바와 같은「행복」등의 모든 정서의 파라미터값을 갱신한다.
또, 각 인식 결과나 출력 시맨틱스 컨버터 모듈(68)로부터의 통지가 각 정서의 파라미터값의 변동량 ΔE[t]에 어느 정도의 영향을 주게 되는지는 사전에 정해져 있으며, 예를 들면「맞았다」라는 인식 결과는「분노」라는 정서의 파라미터값의 변동량 ΔE[t]에 커다란 영향을 미치고,「쓰다듬어졌다」는 인식 결과는「기쁨」이란 정서의 파라미터값의 변동량 ΔE[t]에 큰 영향을 미치게 된다.
여기서, 출력 시맨틱스 컨버터 모듈(68)로부터의 통지란, 소위 행동의 피드백 정보(행동 완료 정보)이고, 행동의 출현 결과의 정보이며, 내적 상태 모델부(71)는, 이러한 정보에 따라서도 감정을 변화시킨다. 또, 내적 상태 모델부(71)는, 마찬가지로, 후술하는 본능도 변화시킨다.
이것은, 예를 들면,「짖는다」는 행동에 의해 분노의 감정 레벨이 내려간다고 하는 것이다. 또, 행동 결과의 피드백은, 변조기(72)의 출력(감정이 부가된 행동)에 의해 이루어지는 것이어도 된다.
한편, 본능적 요소는 욕구(본능)마다 그 욕구의 강함을 나타내는 파라미터를 유지하고 있다. 그리고, 본능적 요소는, 이들 욕구의 파라미터값을, 각각 입력 시맨틱스 컨버터 모듈(59)로부터 제공되는 인식 결과나, 경과 시간 및 출력 시맨틱스컨버터 모듈(68)로부터의 통지 등에 기초하여 주기적으로 갱신한다.
구체적으로 본능적 요소는,「피로」,「애정」및,「호기심」,「성욕」「배설」의 인식 결과, 경과 시간 및 출력 시맨틱스 컨버터 모듈(68)로부터의 통지 등에 기초하여 소정의 연산식에 의해 산출되는 그 때의 그 욕구의 변동량을 ΔI[k], 현재의 그 욕구의 파라미터값을 I[k], 그 욕구의 감도를 나타내는 계수 ki로 하여, 소정 주기에서 수학식 2를 이용하여 다음의 주기에서의 그 욕구의 파라미터값 I[k+1]을 산출하고, 이 연산 결과를 현재의 그 욕구의 파라미터값 I[k]로 치환하도록 하여 그 욕구의 파라미터값을 갱신한다.
내적 상태 모델부(71)는, 이 수학식 2에 의해 상술한 바와 같은 피로 등의 모든 본능(욕구)의 파라미터값을 갱신한다.
또, 인식 결과 및 출력 시맨틱스 컨버터 모듈(68)로부터의 통지 등이 각 본능적 요소의 각 욕구의 파라미터값의 변동량 ΔI[k]에 어느 정도의 영향을 주게 되는지는 사전에 정해져 있으며, 예를 들면 출력 시맨틱스 컨버터 모듈(68)로부터의 통지는,「피로」의 파라미터값의 변동량 ΔI[k]에 큰 영향을 미치게 된다.
또한, 이하에 나타내는 바와 같이, 소정의 욕구의 파라미터값을 결정할 수도 있다. 본능적 요소 중,「아픔」에 대해서는 미들웨어층(40)의 자세 검출용의 신호 처리 모듈(55)과, 입력 시맨틱스 컨버터 모듈(59)을 통해 통지되는 이상 자세의횟수에 기초하여 횟수를 N으로 하고, 아픔의 강도를 K1로 하고, 아픔이 감소하는 속도의 상수를 K2로 하며, 수학식 3에 의해「아픔」의 파라미터값 I[k]를 산출하고, 이 연산 결과를 현재의 아픔의 파라미터값 I[k]로 치환하도록 하여 이러한「아픔」의 파라미터값을 변경한다. 단, I[k]<0일 때는 I[k]=0, t=0, N=0으로 한다.
또한,「열」에 대해서는, 입력 시맨틱스 컨버터 모듈(59)을 통해 제공되는 온도 검출용의 신호 처리 모듈(51)로부터의 온도 데이터에 기초하여 온도를 T로 하고, 외부 기온을 T0으로 하며, 온도 상승 계수 K3으로 하여, 수학식 4에 의해,「열」의 파라미터값 I[k]를 산출하고, 이 연산 결과를 현재의 열의 파라미터값 I[k]로 치환하도록 하여 이러한「열」의 파라미터값을 갱신한다. T-T0<0일 때는, I[k]=0으로 한다.
또한,「식욕」에 대해서는, 입력 시맨틱스 컨버터 모듈(59)을 통해 제공되는 배터리 잔량 데이터(도시하지 않은 배터리 잔량 검출용의 모듈이 얻은 정보)에 기초하여 배터리 잔량을 BL로 하여, 소정 주기로 수학식 5에 의해「식욕」의 파라미터값 I[k]를 산출하고, 이 연산 결과를 현재의 식욕 파라미터값 I[k]로 치환하도록 하여 이러한「식욕」의 파라미터값을 갱신한다.
또한,「목마름」에 대해서는, 입력 시맨틱스 컨버터 모듈(59)을 통해 제공되는 배터리 잔량 변화 속도에 기초하여 시각 t에서의 배터리 잔량을 BL(t)로 하고, 지금 시각 t1과 t2에서 배터리 잔량 데이터를 취득하였다고 하면, 수학식 6에 의해「목마름」의 파라미터값 I[k]를 산출하고, 이 연산 결과를 현재의 목마름 파라미터값 I[k]로 치환하도록 하여 이러한「목마름」의 파라미터를 갱신한다.
또, 본 실시예에서는, 각 정서 및 각 욕구(본능)의 파라미터값이 각각 0∼100까지의 범위에서 변동하도록 규제되어 있으며, 또한 계수 ke, ki의 값도 각 정서 및 각 욕구마다 개별로 설정되어 있다.
이상 진술한 바와 같이 내적 상태 모델부(71)가 구성되고, 로봇 장치(1)는,내적 상태 모델부(71)에 의해 자신 및 주위 상황이나, 사용자로부터의 지시 및 사용자로부터의 행위에 따라, 본능(욕구)이나 감정 상태(파라미터)를 변화시켜 자율적인 행동을 할 수 있도록 이루어져 있다.
(3-2) 환경에 따른 본능 및 감정의 변화
이러한 구성 외에 이 로봇 장치(1)의 경우, 예를 들면, 주위가「밝을」때는 쾌활하게 되고, 이것에 반하여 주위가「어두울」때는 조용하게 되는 등, 주위 환경중의「소음」,「온도」및「조도」의 3개의 조건(이하, 환경 조건이라고 함)의 정도에 따라 감정과 본능을 변화시키도록 이루어져 있다.
즉, 이 로봇 장치(1)에는, 주위 상황을 검출하기 위한 외부 센서로서, 상술한 바와 같은 CCD 카메라(20), 거리 센서(22), 터치 센서(21) 및 마이크로폰(23) 등 외에 주위의 온도를 검출하기 위한 온도 센서(도시하지 않음)가 소정 위치에 설치되어 있다. 대응하는 구성으로서, 미들웨어층(40)의 인식계(60)에는, 소음 검출용, 온도 검출용 및 밝기 검출용의 각 신호 처리 모듈(50∼52)이 설치되어 있다.
그리고, 소음 검출용의 신호 처리 모듈(50)은, 로보틱 서버 오브젝트(32)의 버츄얼 로봇(33)을 통해 제공되는 마이크로폰(23: 도 2)으로부터의 음성 데이터에 기초하여 주위의 소음 레벨을 검출하고, 그 검출 결과를 입력 시맨틱스 컨버터 모듈(59)로 출력하도록 이루어져 있다.
또한, 온도 검출용의 신호 처리 모듈(51)은, 버츄얼 로봇(33)을 통해 제공되는 온도 센서로부터의 센서 데이터에 기초하여 주위의 온도를 검출하고, 그 검출 결과를 입력 시맨틱스 컨버터 모듈(59)로 출력한다.
또한, 밝기 검출용의 신호 처리 모듈(52)은, 버추얼 로봇(33)을 통해 제공되는 CCD 카메라(20: 도 2)로부터의 화상 데이터에 기초하여 주위의 조도를 검출하고, 그 검출 결과를 입력 시맨틱스 컨버터 모듈(59)로 출력한다.
입력 시맨틱스 컨버터 모듈(59)은, 이들 각 신호 처리 모듈(50∼52)의 출력에 기초하여 주위의「소음」,「온도」및「조도」의 정도를 인식하고, 이러한 인식 결과를 상술된 바와 같이 어플리케이션 모듈(41: 도 5)의 내적 상태 모델부(71)로출력한다.
구체적으로, 입력 시맨틱스 컨버터 모듈(59)은 소음 검출용의 신호 처리 모듈(50)의 출력에 기초하여 주위의「소음」정도를 인식하여,「시끄럽다」또는「조용하다」고 하는 인식 결과를 내적 상태 모델부(71)로 출력한다.
또한, 입력 시맨틱스 컨버터 모듈(59)은, 온도 검출용의 신호 처리 모듈(51)의 출력에 기초하여 주위의「온도」의 정도를 인식하여,「덥다」또는「춥다」고 하는 인식 결과를 내적 상태 모델부(71) 및 지각 정보 취득부(90)에 출력한다.
또한, 입력 시맨틱스 컨버터 모듈(59)은 밝기 검출용의 신호 처리 모듈(52)의 출력에 기초하여 주위의「조도」정도를 인식하여,「밝다」또는「어둡다」고 하는 인식 결과를 내적 상태 모델부(71) 등으로 출력한다.
내적 상태 모델부(71)는, 상술된 바와 같이, 입력 시맨틱스 컨버터 모듈(59)로부터 제공되는 각종 인식 결과에 기초하여 수학식 1에 따라 각 파라미터값을 주기적으로 변경한다.
그리고, 내적 상태 모델부(71)는, 입력 시맨틱스 컨버터 모듈(59)로부터 제공되는「소음」,「온도」및「조도」에 대한 인식 결과에 기초하여 사전에 정해진 대응하는 정서에 대한 수학식 1의 계수 ke의 값을 증감시킨다.
구체적으로는, 내적 상태 모델부(71)는, 예를 들면「시끄럽다」는 인식 결과가 주어진 경우에는「분노」의 정서에 대한 계수 ke의 값을 소정 수 증가시키고, 이것에 대하여「조용하다」는 인식 결과가 주어진 경우에는「분노」의 정서에 대한계수 ke의 값을 소정 수 감소시킨다. 이에 따라, 주위의「소음」에 영향을 미쳐「분노」의 파라미터값이 변화하게 된다.
또한, 내적 상태 모델부(71)는「덥다」는 인식 결과가 주어진 경우에는「기쁨」이란 정서에 대한 계수 ke의 값을 소정 수 감소시켜, 이것에 대하여「춥다」는 인식 결과가 주어진 경우에는「슬픔」이란 정서에 대한 계수 ke의 값을 소정 수 증가시킨다. 이에 따라, 주위의「온도」에 영향을 받아「슬픔」의 파라미터값이 변화하게 된다.
또한, 내적 상태 모델부(71)는,「밝다」는 인식 결과가 주어진 경우에는「기쁨」의 정서에 대한 계수 ke의 값을 소정 수 증가시키고, 이것에 대하여「어둡다」는 인식 결과가 주어진 경우에는「두려움」의 정서에 대한 계수 ke의 값을 소정 수 증가시킨다. 이에 따라, 주위의「조도」에 영향을 받아「두려움」의 파라미터값이 변화하게 된다.
이것과 마찬가지로 하여, 내적 상태 모델부(71)는, 상술한 바와 같이 입력 시맨틱스 컨버터 모듈(59)로부터 제공되는 각종 인식 결과 등에 기초하여 수학식 2 내지 수학식 6에 따라 각 욕구의 파라미터값을 주기적으로 변경한다.
또한, 내적 상태 모델부(71)는, 입력 시맨틱스 컨버터 모듈(59)로부터 제공되는「소음」,「온도」및「조도」정도에 대한 인식 결과에 기초하여 사전에 정해진 대응하는 욕구의 수학식 2의 계수 ki의 값을 증감시킨다.
구체적으로 내적 상태 모델부(71)는, 예를 들면「시끄럽다」나「밝다」고 하는 인식 결과가 주어진 경우에는,「피로」에 대한 계수 ki의 값을 소정 수 감소시키고, 이것에 대하여「조용하다」나「어둡다」고 하는 인식 결과가 주어진 경우에는「피로」에 대한 계수 ki의 값을 소정 수 증가시킨다. 또한, 내적 상태 모델부(71)는,「덥다」또는「춥다」고 하는 인식 결과가 주어진 경우에는「피로」에 대한 계수 ki의 값을 소정 수 증가시킨다.
이 결과, 이 로봇 장치(1)에서는, 예를 들면 주위가「시끄러울」때는,「분노」의 파라미터값이 증가하기 쉽고,「피로」의 파라미터값이 감소하기 쉽게 되기 때문에, 전체적인 행동이「쉽게 짜증을 내는」행동으로 되고, 이것에 반하여 주위가「조용할」때는,「분노」의 파라미터값이 감소하기 쉽고,「피로」의 파라미터값이 증가하기 쉽게 되기 때문에, 전체로서 행동이「안정된」행동으로 된다.
또한, 주위가「더울」때는「기쁨」의 파라미터값이 감소하기 쉽고,「피로」의 파라미터값이 증가하기 쉽게 되기 때문에, 전체적인 행동이「나타해지는」행동으로 되고, 이것에 반하여 주위가「추울」때는,「슬픔」의 파라미터값이 증가하기 쉽고,「피로」의 파라미터값이 증가하기 쉽게 되기 때문에, 전체적인 행동이「추워하고 있는」행동으로 된다.
또한, 주위가「밝을」때에,「기쁨」의 파라미터값이 증가하기 쉽고,「피로」의 파라미터값이 감소하기 쉽게 되기 때문에, 전체적인 행동이「쾌활」한 행동으로되고, 이것에 반하여 주위가「어두울」때는,「기쁨」의 파라미터값이 증가하기 쉽고,「피로」의 파라미터값이 증가하기 쉽게 되기 때문에, 전체적으로 행동이「조용」한 행동으로 된다.
이와 같이 하여 로봇 장치(1)는, 내적 상태 모델부(71)에 의해 환경(외적 요인이나 내적 요인)에 따라 본능 및 감정의 상태를 변화시킬 수 있고, 이 본능이나 감정을 행동으로 표출시키는 것이 가능하다. 또한, 내적 상태 모델부(71)에 의해 얻어지는 본능 및 감정의 상태는, 행동 선택부(80)에서 행동을 선택하기 위한 정보로서도 사용된다.
(3-3) 행동 선택부의 구성
행동 선택부(80)는, 사전에 준비되어 있는 복수의 행동으로부터 하나의 행동을 선택한다. 이 행동 선택부(80)는, 동물 행동학적인 어프로치에 의해 행동 선택(결정)을 하도록 구축되어 있다.
일반적으로는, 동물은, 행동에 영향을 미치는 복수의 외적 원인 인자 및 내적 원인 인자(이하, 모두 원인 인자라고 함)에 기초하여 행동을 결정하고 있다고 생각되고, 또한 이들 인자가 복잡하게 얽힌 상태에서 행동을 결정하고 있다. 로봇 장치(1)는, 그와 같은 일반적인 동물의 행동 결정의 메카니즘을 도입하여, 그 행동을 결정하도록 이루어져 있다.
행동 결정의 메카니즘이 동물 행동학인 어프로치에 의해 구축된 로봇 장치(1)는, 예를 들면, 도 6A에 도시한 바와 같이, 눈앞에 물을 발견했을 때 다음과 같은 수순에 의해 출현시킬 행동을 결정한다.
로봇 장치(1)는「물을 발견」,「물까지는 10㎝」라는 외적 원인 인자(외적지각 요소, 예를 들면, 지각에 기초하는 것)를 지각하여 인식한다(평가한다). 한편으로, 로봇 장치(1)는, 예를 들면, 내적 원인 인자(내적 동기 요소, 예를 들면, 본능이나 감정에 기초하는 것)으로서의 동기가「목마름의 정도가 높고」,「중간 정도로 화를 내고 있는」상태에 있다. 또, 동기는, 상술한 바와 같은 내적 상태 모델부(71)의 파라미터값을 사용하여 취득되는 것이다. 이것은, 후에 상술한다.
여기서, 동물 행동학적인 어프로치에 따르면 그 행동 결정에 있어서 적어도 다음과 같은 판단이 이루어진다.
「목마름의 정도가 높은」상태에 있고, 또한「물을 발견」한 경우에 있어서도, 예를 들면, 물까지의 거리가 멀 때에는 물을 마시는 행동(섭수 행동)을 일으킨다고 한정하지 않는다. 예를 들면, 물까지의 거리가 먼 경우에는, 체력도 그만큼 소비하게 되어, 목마름의 정도가 더 심하게 된다고 하는 것이 본능적으로 처리되기 때문이다.
반대로,「목마름의 정도가 낮은」상태에 있으며, 또한「물이 눈앞에 있는」상태일 때는, 섭수 행동을 하는 경우도 있다. 이와 같이,「목마름」이라고 하는 내적 원인 인자로부터 일률적으로 섭수 행동이 이루어질지의 여부가 판단되는 것이 아니라,「물이 있다」또「물이 눈앞에 있다」라고 하는 외적 원인 인자로부터 행동 결정의 판단이 이루어지는 것이다. 즉, 행동은, 복수의 외적 원인 인자 및 내적 원인 인자에 기초하여 결정되며, 이들 인자가 복잡하게 얽힌 상태에서 결정된다.
또한, 이 때, 다른 행동과 비교하여, 최종적으로 행동이 결정된다. 예를 들면,「물을 마시고 싶다」또는「음식물을 먹고 싶다」고 하는 상태에 있는 경우에는,「물을 마시고 싶다」는 상태의 정도 혹은 그 실현 가능성과,「음식물을 먹고 싶다」고 하는 상태의 정도 혹은 그 실현 가능성을 비교하여, 하나의 행동으로서 예를 들면, 섭수 행동을 선택한다.
이와 같은 동물 행동학적인 어프로치에 의해, 로봇 장치(1)는 최종적으로 행동을 결정하고 있다. 즉, 로봇 장치(1)는「목마름의 정도가 높다」라고 하는 상황하의「물의 발견」, 또한「물까지는 10㎝」라고 하는 정보 등으로부터 종합적으로 판단하고,「섭식 행동」등의 다른 행동을 배제하여,「섭수 행동」를 출현시킨다.
또한, 로봇 장치(1)는「중간 정도로 화가 나 있다」의 상태로서, 화가 난 동작을 따라 섭수 행동을 출현시킨다. 이것은 상술한 변조기(72)에 의해 실현되는 것이다. 그리고, 예를 들면 로봇 장치(1)는 내부 상태로서 물을 발견한 것에 따라, 상기한「화가 난다」의 레벨을 저하시킨다. 이것은 상술한 출력 시맨틱스 컨버터 모듈(68)로부터 내적 상태 모델부(71)로의 행동 완료 정보의 피드백에 의해 실현된다.
도 6B에는 상술한 바와 같은 동물 행동학적인 어프로치에 의해「섭수 행동」의 구체적인 행동으로서「앞쪽으로 걷는다」를 선택하기까지의 수순을 나타내고 있다.
우선, 로봇 장치(1)는 상술한 도 6A에 도시한 바와 같은 상태에 놓여진 경우, 복수의 행동으로부터「섭취 행동」을 선택한다. 선택되지 않은 다른 행동으로서는, 예를 들면「투쟁 행동」,「탐색 행동」등을 들 수 있다. 예를 들면, 로봇 장치(1)는 이러한「섭취 행동」,「투쟁 행동」및「탐색 행동」등이 선택 가능한 행동 그룹으로 되어 서브 시스템(서브 시스템층)으로서 유지하고 있다.
여기서, 행동 그룹은 상위의 행동을 구현화하는 복수의 하위의 행동군으로 이루어져, 예를 들면 하위의 행동은 상호 억제하는 관계에 있다. 이하, 마찬가지이다.
다음에, 로봇 장치(1)는 선택한 섭취 행동 내로부터 하나의 행동으로서「섭수 행동」을 선택한다. 선택되지 않은 다른 섭취 행동으로서는, 예를 들면「섭식 행동」을 들 수 있다. 예를 들면, 로봇 장치(1)는 이러한「섭수 행동」이나「섭식 행동」등이 선택 가능한 행동 그룹으로 되어, 모드(모드층)로서 유지하고 있다. 즉,「섭수 행동」이나「섭식 행동」을 행동 그룹으로 하고,「섭취 행동」의 하위 행동으로서 유지하고 있다.
다음에, 선택한 섭수 행동 내로부터 하나의 행동으로서「물에 가까이 간다」를 선택한다. 다른 섭수 행동로서는, 예를 들면「물을 입안에 넣는다」를 들 수 있다. 예를 들면, 로봇 장치(1)는 이와 같은「물에 가까이 간다」나「물을 입안에 넣는다」등이 선택 가능한 그룹으로 되어 모듈(모듈층)로서 유지하고 있다.
다음에,「물에 가까이 간다」의 구체적 행동으로서「앞으로 간다」를 선택하여, 실제의 행동으로서 출현시킨다. 또, 선택되지 않은 다른「물에 가까이 간다」의 행동으로서는, 예를 들면「뒤로 간다」,「오른쪽으로 돌아 간다」및「왼쪽으로 돌아간다」를 들 수 있다. 예를 들면, 로봇 장치(1)는 이와 같은「앞으로 간다」,「뒤로 간다」,「오른쪽으로 돌아간다」및「왼쪽으로 돌아간다」등이 선택 가능한 그룹으로 되어 모터 커맨드(모터 커맨드층)로서 유지하고 있다.
이러한 수순에 의해, 로봇 장치(1)는 동물 행동학적인 어프로치로부터「앞쪽으로 걷는다」와 같은 최하위층의 행동을 상위의 행동을 규정하는「섭취 행동」의 최종적인 행동으로서 출현시키고 있다.
도 7에는 로봇 장치(1)가 갖는 행동 결정을 위해 구축되어 있는 행동 선택 시스템을 나타낸다. 이 행동 선택 시스템은, 예를 들면 행동 선택부(80)에 있어서 구축되어 있다.
행동 선택 시스템은 복수의 행동이 계층 구조(트리 구조)로 되어 구축되어 있다. 이 계층 구조로 되는 행동 선택 시스템에서는 하위의 행동이 여러개로 이루어지는 행동 그룹이 상위를 구현화하는 행동군으로 구성되어 있다. 예를 들면, 상위의 행동이「투쟁 행동」과 같은 경우에는 하위의 행동이「싸움·포식 행동」, 「방어·도피 행동」과 같은 행동으로 이루어지게 된다.
예를 들면, 이 행동 선택 시스템은 각 행동의 정보를 데이터 형태(예를 들면, 데이터 베이스 형태)로서 유지하는 것으로 해도 되며, 오브젝트 지향으로서 설계되어도 된다. 예를 들면, 오브젝트 지향으로서 행동 선택부가 설계된 경우, 행동 선택 시스템은 각 행동이 독립하여 오브젝트의 단위로서 구성되며, 각 오브젝트 단위로 행동 선택을 위한 각종 처리가 이루어지게 된다.
이 도 7에 도시한 바와 같이 복수의 행동이 계층 구조로 되어 구축되어 있는 행동 선택 시스템에서는 보다 상위층 행동이 원망(願望)하는 것과 같은 추상적인 행동이 되고, 하위층의 행동이 그와 같은 원망을 실현하기 위한 구체적인 행동으로 되어 있다.
이러한 행동 선택 시스템에서는, 하위 층으로 진행하면서 행동을 선택해가고, 즉 상위의 행동을 실현화하는 행동을 선택해가고, 최종적인 행동의 선택이 이루어진다. 즉, 중간층에서의 행동에 대해 언급하면, 최상위의 행동으로부터 최하위의 행동이 선택되기까지의 선택된 경로 상의 정보를 나타내게 된다.
이와 같이 상위의 층으로부터 하위의 층으로 진행하는 중에 각층에서 행동의 선택이 이루어져 갈 때에 각층에서는 상술한 바와 같은 외적 원인 인자나 내적 원인 인자에 의해 하나의 행동의 선택이 이루어져 가는 것이다. .
행동 선택부(80)는 구체적으로는, 도 5에 도시한 바와 같이, 지각 정보 취득부(90), 동기 정보 취득부(81) 및 행동 선택 연산부(82)를 구비하고 있다. 이 행동 선택부(80)를 구성하는 각부는 개략으로서, 도 8 및 도 9에 도시한 바와 같이 기능한다.
지각 정보 취득부(90)는 행동마다 지각 정보를 취득한다. 예를 들면, 지각 정보의 취득으로서, 후술하는 릴리스 메카니즘(Release Mechanism)에서의 지각의 평가를 나타내는 RM치를 계산한다. 예를 들면, 이 지각 정보 취득부(90)에 의해, 물이 발견되며, 물까지의 거리가 10㎝라는 인식이 이루어진다. 이에 따라, 섭취 행동(섭수 행동)의 값이 높아지는, 즉 선택 가능성이 높아지게 된다.
동기 정보 취득부(81)는 내적 상태에 기초하여 행동마다의 동기 정보를 취득한다. 예를 들면, 행동마다의 동기 정보의 취득으로서, 상술한 본능치, 감정치에 기초하여 행동마다의 동기를 계산한다. 구체적으로는, 후술하는 모티베이션 크리에이터에서의 동기의 상태를 나타내는 Mot치를 계산한다. 예를 들면, 동기 정보취득부(81)에 의해 목이 마른 상태가 취득된다. 이에 따라, 섭식 행동의 동기값이 높아지고 섭식 행동 중 섭수 행동이 더 높아진다.
행동 선택 연산부(82)는 행동마다 동기 정보 취득부(81)로부터의 동기 정보(동기치)와, 지각 정보 취득부(90)로부터의 지각 정보(값)로부터 원하는 행동을 선택한다. 그리고, 행동 선택 연산부(82)는 원하는 행동의 선택 시에 동일 그룹(행동 그룹) 내의 다른 행동을 배타적으로 제어한다. 예를 들면, 이 행동 선택 연산부(82)에 의해 서브 시스템층에서는 섭취 행동이 선택되고, 또한 섭취 행동 중 섭수 행동이 선택된다.
또한, 행동 선택 연산부(82)는 선택된 행동에 기초하여, 실제의 동작군을 계획한다. 예를 들면,「앞쪽으로 이동(Move-forward)」을 선택한다는 등의 것이다.
또, 내적 상태 모델부(71)는 상술한 바와 같이, 체내의 본능이나 감정의 상태 등의 내적 상태에 대한 정보를 취득한다. 예를 들면, 내적 상태의 정보의 취득으로서, 본능치나 감정치를 산출한다. 구체적으로는, 상술한 본능(욕구)의 파라미터값이나 정서의 파라미터값 혹은 후술하는 IE치를 산출한다. 예를 들면, 이 내적 상태 모델부(71)에서는 움직였기 때문에 목이 마르다는 상태의 정보가 취득된다.
또한, 출력 시맨틱스 컨버터 모듈(68)은 도 8에 도시한 바와 같이, 행동을 로봇 장치(1)의 타입에 따른 동작 열로 변환하는 모듈이다. 예를 들면, 출력 시맨틱스 컨버터 모듈(68)은 현재, 로봇 장치(1)의 타입이 네발 로봇인 것을 인식하고, 입력되어 있는 행동 및 감정 상태에 따라 동작 열로 변환한다. 즉, 출력 시맨틱스 컨버터 모듈(68)은 상위의 행동 결정 시스템(70)으로부터의 행동의 커맨드로부터대응하는 각 신호 처리 모듈(61∼67)에 커맨드를 보낸다.
또, 도 9에 도시한 바와 같은 변조기(72), 자세 관리 모듈 등에 대해서는, 후에 상술한다. 또, 도 9에 있어서「input」란은 입력되는 커맨드의 형태를 나타내고,「output」란은 출력되는 커맨드의 형태를 나타낸다.
이상과 같이, 행동 선택부(80)가 구성되어 있다. 다음에, 행동 선택부(80)가 행동 선택의 시스템으로서 채용하는 동물 행동학적인 어프로치에 대하여 더 상세히 설명한다.
(3-4) 동물 행동학적인 어프로치에 의한 행동 선택
일반적으로는, 동물의 행동의 결정(선택)은 상술된 바와 같이, 복수의 인자가 복잡하게 얽혀서 이루어지는 것이다. 단순한 예로서는, 도 10에 도시한 바와 같이, 지각과 동기로부터 행동이 결정된다.
여기서, 지각은 행동에 영향을 주는 외부로부터의 정보로서, 입력된 외계 환경에 따라 유발 혹은 제약되는 조건이라고 생각할 수 있다. 또한, 동기는「배가 고프다」등의 내부의 정보로서, 내적 상태를 표현하고 있고, 그 행동을 유발시키는 등의 내적 의도라고 생각할 수 있다. 이와 같이, 지각이나 동기와 같은 것을 원인으로 하여, 그 작용으로서 행동의 결정이 이루어진 것이라고 할 수 있다.
지각 및 동기에 기초하는 행동 결정은, 구체적으로는 다음과 같이 하여 이루어진다. 또, 다음에 설명하는 행동 결정(선택)을 위한 원리는 Silby와 Mcfarland (1975)가 제창한 상태 공간 어프로치에 의한 것이다.
Silby와 Mcfarland(1975)는 우선 동물은 가장 출현 경향이 높은 활동(행동)을 수행한다는 가정으로부터 이론을 출발시키고 있다. 출현 경향의 배열을 분명히 나타내는 하나의 방향으로서 벡터 공간이 있다. 그래서, 벡터의 크기는 어떤 공통성을 갖는 지표에 기초한, 소위 출현 경향의 강도를 나타내고 있다. 출현 경향이란, 예를 들면 섭식 행동이 출현되는 경향(정도)이나 섭수 행동이 출현되는 경향(정도) 등이 있다. 그리고, 모든 출현 경향의 상태는 이 출현 경향 공간 상의 점으로서 나타낸다.
그리고, 이 공간은 출현 경향이 가장 높은 행동이 어느 것인가라고 하는 영역마다 나누어지고, 그 경계선이「전환 경계선(스위칭 라인, switching line)」이 된다.
한편, 출현 경향은 여러가지 원인 인자에 의존하고 있다. 예를 들면, 섭식 경향은, 음식물 제한, 섭식 기회, 보식의 가능성 등에 의존하고 있는 것이다. 이들 모든 원인 인자를 분명히 나타내는 방법은 다른 하나의 벡터 공간을 이용하는 것이다. 원인 인자로부터 출현 경향을 결정한다는 것은, 다음과 같은 표현과 동일한 의미가 된다. 즉, 원인 인자의 상태 공간으로부터 출현 경향 공간으로의 사상이 있고, 그래서 원인 인자의 어떠한 상태에 대해서도 대응하는 출현 경향의 상태 공간이 존재하도록 되어 있다. 그리고, 어떤 행동이 행해질지의 결정을 할 수 있는 것이다. 원인 인자와 출현 경향과의 관련성을 도 11A∼도 11C를 이용하여 설명한다.
도 11A 및 도 11C는 원인 인자의 상태를 나타내는 원인 인자 상태 공간을 나타내는 것이다. 이 원인 인자 상태 공간은 임의의 행동이 유도되는 데 영향을 주는 원인 인자에 의해 구성된다. 원인 인자로서는 상술한「지각」,「동기」를 들 수 있다. 또, 이 도 11A∼도 11C에서는 단순화를 위해 2차원 공간만을 검토하였지만, 실제로는 행동의 출현 경향의 대부분은 3차원 이상의 원인 인자 상태 공간에 의해 결정되는 것이다.
도 11A는 구체적으로는, 섭식의 행동이 출현되는 경향, 즉「섭식 행동」의 출현 경향(이하, 섭식 경향이라고 함)을 나타내는 것으로, 원인 인자가 되는「동기」로서「공복」을 횡축에 취하고, 원인 인자가 되는「지각」으로서「맛」을 종축에 취한다. 또한, 도 11C는 섭수의 행동이 출현되는 경향, 즉「섭수 행동」의 출현 경향(이하, 섭수 경향이라 함)을 나타내는 것으로,「동기」로서「목이 마름」을 횡축에 취하고,「지각」으로서「물과의 거리」를 종축에 취한다.
또한, 도 11B는 도 11A 및 도 11C에서의 원인 인자의 상태에 기초한「섭식 경향」및「섭수 경향」의 출현 경향의 공간을 나타낸다. 즉, 원인 인자에 의해 영향을 받는 행동의 출현 경향이 사상되며, 이들의 출현 경향의 비교가 가능하게 되는 공간을 나타낸다.
우선, 원인 인자 상태 공간에 대하여 도 12를 이용하여 구체적으로 설명한다. 이 도 12에 도시한 원인 인자 상태 공간은 상술한 도 11A에 도시한「섭식 행동」의 원인 인자 상태 공간이다.
도 12에 도시한 바와 같이, 아주 맛있는 것이 있는데(m2상태), 그다지 배가 고프지 않은 상태(원인 상태)에 있을 때(n1상태), 한편 매우 배가고프지만(n2(>n1) 상태), 그다지 맛이 없는 음식이 있는 상태(원인 상태)에 있을 때(m1(<m2) 상태), 섭식 행동이 출현된다. 즉, 일률적으로 동기가 되는「공복」에만 의존하여 섭식 행동이 출현되는 것은 아니고, 또한 지각이 되는「맛이 있다」에만 의존하여 섭식 행동이 출현되는 것도 아니며,「공복」과「맛이 있다」가 서로 작용하여 섭식 행동이 출현된다.
즉,「공복」의 정도가 다른 경우라도 섭식 행동은 출현되며,「공복」과「맛이 있다」와의 상태에 따라서는, 원인 인자 상태 공간 내에 섭식 행동이 출현되는 정도가 동일한 원인 상태, 즉 섭식 경향을 동일한 정도로 하는 원인 상태가 복수점에 존재한다. 예를 들면, 공복이 아닐 때 아주 맛있는 음식을 주거나 했을 때, 혹은 매우 공복일 때 그다지 맛이 없는 음식을 주었을 때, 동일한 정도의 섭식 경향이 존재한다는 것이다.
예를 들면, 섭식 행동에서는「공복」과「맛이 있다」를 원인 인자로서 본 경우, 그 출현 경향이 같은 정도가 되기 위해서는,「공복」이 높을(많을) 때에는「맛이 있다」가 낮고(적고), 또한「공복」이 낮을(적을) 때는「맛이 있다」가 높다(많다). 따라서, 섭식 경향을 같은 정도로 하는 것을 생각한 경우,「공복」과「맛이 있다」는 반비례의 관계가 되며, 섭식 경향이 같은 정도가 되는 점을 연결하면, 도 12에 있어서, 예를 들면 그것이 곡선으로서 표현된다. 즉, 도 12에 도시한 바와 같이, 섭식 경향의 소위 강도(벡터의 강도) y를 같은 정도로 하는 원인 인자의 상태가 복수 존재하여 그들은 원인 인자 상태 공간에서 곡선으로서 표현된다.
또한, 원인 인자 상태 공간에는 다른 복수의 섭식 경향의 강도 y1, y2, …가 존재하고, 도 12에 도시한 바와 같이, 그것이 섭식 경향의 강도의 분포로서, 소위 등고선으로서 표현된다.
또, 도 12에 있어서 원인 인자 상태 공간에서의 우측 상방향으로 갈수록, 섭식의 강도는 강해지는 것을 나타낸다. 이것은 매우 배가 고프고, 또한 눈앞에는 아주 맛있는 음식물이 있으면, 누구든지 섭식 행동을 취하게 된다는 것과 같은 것을 의미하는 것이다.
이와 같이, 원인 인자에 의해 섭식 경향의 강도를 정의시킬 수 있고 마찬가지로 하여 섭수 경향의 강도를 정의시킬 수 있다.
즉, 섭수 행동은 목이 마른 정도가 심할 때에는 물(물이 있는 장소)과의 거리가 멀어도 출현되고, 또한 목이 마른 정도가 적을 때에도 물과의 거리가 가까운 경우에 출현되고,「목이 마르다」와「물과의 거리」가 서로 작용하여 섭수 행동이 출현된다.
즉,「목이 마르다」의 정도가 다른 경우라도 섭수 행동은 출현되며,「목이 마르다」와「물과의 거리」의 상태에 따라서는 원인 인자 상태 공간 내에 섭수 경향을 같은 정도로 하는 원인 상태가 복수점에 존재한다. 예를 들면, 물이 부족하지 않을 때에 물이 눈앞에 있거나, 혹은 물이 매우 부족할 때에는 물이 멀리 있거나 할 때가 같은 정도가 되는 섭수 경향이 존재한다는 것이다.
그리고, 섭수 경향을 같은 정도로 하는 것을 고려한 경우,「목이 마르다」와「물과의 거리」는 반비례의 관계에 있어, 섭수 경향이 같은 정도가 되는 점을 연결하면, 예를 들면 도 11C에 있어서 원인 인자 상태 공간 내에서 곡선으로서 표현된다. 즉, 도 11C에 도시한 바와 같이, 섭수 경향의 소위 강도 x가 같은 정도가 되는 원인 인자의 상태가 복수 존재하여, 그들은 원인 인자 상태 공간에서 곡선으로서 표현된다. 그리고, 도 11C에 도시한 바와 같이 원인 인자 상태 공간에는 다른 섭수 경향의 강도 x1, x2, …가 등고선으로서 표시된다.
이상 진술한 바와 같이,「섭식 경향」의 강도와,「섭수 경향」의 강도가 각 원인 인자의 상태에 기초하여 구해지고, 이들 강도에 기초하여 그 비교가 이루어져, 하나의 행동의 결정(선택)이 이루어진다. 그리고, 그와 같은 출현 경향이 비교되는 것이 도 11B에 도시한 출현 경향 공간에서 나타난다. 출현 경향 공간은 출현 가능한 행동의 경향으로 구성되어 있다.
예를 들면, 임의의 원인 상태에서 임의의 섭식 경향의 강도 y1과 임의의 섭수 경향의 강도 x2가 얻어진 경우, 도 11B에 도시한 바와 같이, 원인 인자 상태 공간으로부터 사상된 섭식 경향의 강도 y1과 섭수 경향의 강도 x2가 출현 경향 공간 상에 있어 조합되어 비교된다. 구체적으로는, 다음과 같이 하여 행동의 선택이 이루어진다.
도 11B에 도시한 바와 같이, 전환 경계선의 설정에 의해서, 출현 경향 공간이 2가지의 영역으로 분할된다. y=0(섭수 경향을 나타내는 x축)과 전환 경계선으로 둘러싸인 영역(이하, 섭수 행동 선택 영역이라 함)과, x=0(섭식 경향을 나타내는 y축)과 전환 경계선으로 둘러싸인 영역(이하, 섭식 행동 선택 영역이라 함)이 형성된다.
이와 같이 출현 경향 공간에서 전환 경계선의 설정에 의해 형성되는 각 영역에 원인 인자 상태 공간으로부터 사상된 값 (x, y)의 위치에 의해 하나의 행동이 결정된다. 즉, 값 (x, y)가 섭수 행동 선택 영역 내에 있는 경우에는 섭수 행동이 선택되고, 또한 값 (x, y)가 섭식 행동 선택 영역 내에 있는 경우에는 섭식 행동이 선택되게 된다. 따라서, 도 11C에 도시한 예에서는 값 (x2, y1)이 섭수 행동 선택 영역이 되기 때문에 섭수 행동이 선택되게 된다.
또, 단순화를 위해 원인 인자의 상태 공간을, 섭식과 섭수 각각에 관여한 상태 변수(원인 인자)로 나누어서 나타내고 있지만, 실제로는 하나의 상태 변수는 복수의 행동의 출현 경향에 영향을 미친다. 원인 인자 공간의 곡선은 특정한 행동의 출현 경향과 동일한 레벨을 가져오는 상태로 연결된다.
또한, 최종적으로 선택된 행동에 의해서 그에 따른 원인 인자나 그 이외의 복수의 원인 인자에 영향을 미치게 할 가능성이 있다. 그렇기 때문에, 정보의 배타 처리가 이루어져 있다.
이상과 같은 동물 행동학적인 어프로치로서 원인 인자를 이용한 행동 결정(선택)의 수법은, 예를 들면 Silby와 Mcfarland(1975의 논문)나 Ludlow(경합 모델로서)를 제창하고 있다.
(3-5) 동물 행동학적인 어프로치에 의한 행동 결정을 실현하는 계산식
상술한 바와 같은 행동 결정으로의 동물 행동학적인 어프로치는 어디까지나 이론으로서, 실제의 로봇 장치(1)에 적용하기 위해서는 상술한 동물 행동학적인 어프로치를 데이터 베이스 등으로서의 정보화, 혹은 수식화할 필요가 있다. 그래서, 본 발명을 실현하기 위해서, 상술한 동물 행동학적인 어프로치로부터의 행동 결정을 다음과 같이 수식화하였다.
도 13A에 도시한 바와 같이,「섭식 행동」의 원인 인자가 되는「공복」의 상태(정도)를 Mot[0]으로 하고,「맛이 있다」의 평가를 RM[0]으로 한다. 그리고, 임의의 Mot[0] 및 RM[0]이 임의의 값에서의 섭식 경향(경향의 강도)을 Be[0]으로 한다.
마찬가지로, 도 13B에 도시한 바와 같이, 섭수 행동의 원인 인자가 되는「목이 마르다」의 상태(정도)를 Mot[1]로 하고「물과의 거리」의 평가를 RM[1]로 한다. 그리고, Mot[1] 및 RM[1]이 임의의 값에서의 섭수 경향(경향의 강도)을 Be[0]으로 한다. 이들의 관계는 다음에 나타내는 표와 같다.
또, 본 예에서는 비교하는 출현 경향이「섭식 행동」및「섭수 행동」2가지이기 때문에, 지각에 대해서는 RM[0], RM[1]의 2치로 하고, 동기에 대해서는 Mot[0], Mot[1]의 2치로 하고 있지만, 대부분의 출현 경향에 대해서도 비교하는 것은 가능하다. 그렇기 때문에, 지각(외적 지적 요소)을 RM[i], 동기(내적 동기 요소)를 Mot[i] 및 출현 경향을 Be[i]로 하고, 여기서 i를 정수로서 일반화한다. 이하, 특히 출현되는 행동의 종류를 언급하지 않을 때에는 이들 일반화된 것을 나타낸다.
또, 상술한 예에서「섭식 행동」에 대해서 본 경우, 같은 정도의 출현 경향은「공복」과「맛이 있다」가 반비례 관계로 성립됨에 대하여 진술하고 있지만, 같은 정도의 출현 경향이 되기 위해서는 출현 경향에 작용하는 원인 인자가 반드시 반비례의 관계에 있다고는 한정하지 않는다. 즉, Be[i]와 RM[i]와 Mot[i]는 수학식 7과 같은 관계로서 나타낼 수 있지만, RM[i]와 Mot[i]와의 관계가 반드시 반비례의 관계가 된다고는 한하지 않는다. 요컨대, 출현 경향은 동기(내적 동기 요소)에만 영향을 받는 것은 아니고 지각(외적 지적 요소)의 영향도 받는다는 것이다.
또한,「맛이 있다」와「물과의 거리」등의 지각 평가 RM[i]는 지각 정보 취득부(90)에 있어서 취득되는 것이고, 또한「공복」과「목이 마르다」와 같은 동기 Mot[i]는 동기 정보 취득부(81)에 있어서 취득되는 것이다. 지각 정보 취득부(90) 및 동기 정보 취득부(81)에서의 이들 정보의 취득을 위한 구체적인 처리 등에 대해서는 후술한다.
그리고, 상술한 바와 같이 지각(외적 지적 요소)과 동기(내적 동기 요소)로부터 얻어진 섭식 경향 및 섭수 경향은 도 14에 도시한 바와 같은 출현 경향 공간상에 나타난다.
여기서, 이 도 14에 도시한 출현 경향 공간은 제1 전환 경계선(y=αx)과 제2 전환 경계선(y=βX)과 같은 2개의 전환 경계선이 설정되어 있다. 즉, 출현 경향 공간이 3개의 영역으로 분할되어 있다. 한편, 상술한 도 11B에 도시한 출현 경향 공간에서는 전환선이 1개였다. 이것은 다음과 같은 이유에서이다.
이론적으로는, 상술한 바와 같이 전환 경계선이 1개라도 다른 행동 사이에서 선택은 가능하다. 그러나, 실제의 로봇 장치(1)에 그와 같은 이론을 그대로 적용한 경우, 각 행동의 출현 경향이 설정된 전환 경계선 부근에 존재하면, 현재 선택한 행동과 다른 행동과의 선택의 전환 횟수가 많아져서 로봇 장치(1)의 행동에 침착성이 결여된다. 이러한 현상은 행동이 선택되어 실시된 경우에 이러한 행동의 출현 경향이 다른 행동에 대하여 상대적으로 작아진다는 것이 전제가 되어 발생한다. 즉, 동기(원망)가 달성되면, 그 동기의 정도가 작아지고, 결과로서 그 동기에 영향을 받는 행동의 출현 경향이 작아진다는 것 때문이다.
이와 같이, 2개의 전환 경계선에 의해 영역을 분할함으로써,「섭식 행동」이 선택되는 영역(섭식 행동 선택 영역),「섭수 행동」이 선택되는 영역(섭수 행동 선택 영역),「섭식 행동」또는「섭수 행동」중 어느 하나가 선택되는 영역(이하, 섭식 또는 섭수 행동 선택 영역이라고 함)의 3가지 행동 선택의 영역이 형성된다. 이에 따라, 로봇 장치(1)의 행동에 침착성이 없어지는 것을 방지할 수 있다. 이와 같이, 2개의 전환 경계선을 설정함으로써, 로봇 장치(1)의 행동에 침착성이 없어지는 것이 방지되는 이유에 대해서는 후술한다.
본 도 14에 도시한 출현 경향 공간에 있어서, 출현 경향의 가장 강한 행동이 다음과 같은 관계로부터 선택된다.
도 14에 도시한 출현 경향 공간은, 섭식 경향 Be[0]을 x축으로 하고, 섭수 경향 Be[1]을 y축으로 하며, 섭식 경향 Be[0]과 섭수 경향 Be[1]로 구성되어 있다. 그리고, 이러한 출현 경향 공간에서 제1 및 제2 전환 경계선을 각각 y=αx 및 y=βx로서 설정한다. 예를 들면, 기울기 계수 α, β는 임의의 값으로서 결정하고, 예를 들면 로봇 장치(1)의 성장 등에 따라 결정할 수 있게 된다.
여기에서, 섭식 경향 Be[0]은 도 13A에 도시한「공복」Mot[0] 및「맛이 있다」RM[0]에 의해 결정되는 값이고, 섭수 경향 Be[1]은 도 13B에 도시한「목이 마르다」Mot[1],「물과의 거리」RM[1]에 의해 결정되는 값이다.
이러한 출현 경향 공간에서, 도 14에 도시한 바와 같이, 원인 인자 상태 공간으로부터 사상된 값 (a, a')이 섭식 행동 선택 영역에 있는 경우(점 C)에는 하나의 행동으로서 섭식 행동이 선택되며, 한편, 값 (a, a')가 섭수 행동 선택 영역에 있는 경우(점 D)에는 하나의 행동으로서 섭수 행동이 선택된다.
그리고, 값 (a, a')는, 예를 들면 도 13A에 도시한 바와 같이,「공복」이 Mot [0]=n0,「맛이 있다」이 RM[0]=m0의 상태에 있어, 이 때「섭식 경향」Be[0]이 a가 되고 또한 도 13B에 도시한 바와 같이,「목이 마르다」가 Mot[1]=n1,「물과의 거리」가 RM[1]=m1의 상태에 있어, 이 때「섭수 경향」Be[1]이 a'가 된 경우이다.
이상과 같은 행동의 선택은 다음과 같은 수식화에 의해 실현할 수 있다.
우선, a'/a(Be[1]/Be[0])의 값으로서 생각한다. x=0과 제2 전환 경계선(y=βx)에 의해 둘러싸인 섭수 행동 선택 영역에 값 (a, a')가 위치되는 조건은 ∞>a'/a>β 이다. 또한, y=0과 제1 전환 경계선(y=αx)에 의해 둘러싸인 섭식 행동 선택 영역에 값 (a, a')가 위치되는 조건은 α>a'/a>0이다.
이러한 관계식으로부터 이하와 같은 식을 도출할 수 있다. α>a'/a>0의 경우, 즉 값 (a, a')가 섭식 행동 선택 영역에 있는 경우에는, 도 15A에 도시한 바와 같이, 수학식 8 및 수학식 9가 성립된다.
여기서, 제1 전환 경계선의 기울기 α는 수학식 10과 같은 관계의 α'로서 나타낼 수 있다. 또, α'는 후술하는 바와 같이, 섭수 경향 Be[1]로부터 섭식 경향 Be[0]에 대한 배타 제어 게인(>1)이 된다.
이러한 관계로부터,「섭식 행동」이 선택되기 위한 조건은 수학식 11을 충족시키는 것이 도출된다.
다음에, 도 15B는 섭수 행동의 경우를 나타내고 있고, 제2 전환 경계선의 기울기 β는 수학식 12에서 주어진다. 또, β는 후술하는 바와 같이, 섭식 경향 Be[0]으로부터 섭수 경향 Be[1]에 대한 배타 제어 게인(>1)이 된다.
이러한 관계로부터,「섭수 행동」이 선택되기 위한 조건은 수학식 13을 충족시키는 것이 도출된다.
또, 상술한 조건을 충족시키는 것은, 수학식 14 또한 수학식 15인 경우이다. 따라서, 섭식 행동을 취하게 될 때에는 수학식 14를 충족시키고, 섭수 행동을 취하게 될 때에는, 수학식 15가 충족된다.
여기서, 상술한 바와 같은 (a-a'α') 및 (a'-aβ)를 행렬로서 기술하면 수학식 16과 같아진다.
또한, 이것을 이산적으로 계산하는 것으로 하면, 시각 t에서의 출현 경향 Bet[i]와 시각 t-1에서의 출현 경향 Be(t-1)[i]를 이용하여 기술하면 수학식 17과 같아진다.
여기서, α'는 섭수 경향 Be[1]로부터 섭식 경향 Bet[0]에 대한 배타 제어 게인(>1)을 나타내고, 또한 β는 섭식 경향 Bet[0]으로부터 섭수 경향 Bet[1]에 대한 배타 제어 게인(>1)을 나타내게 된다. 예를 들면, 이미지적으로는 도 16에 도시한 바와 같이, α'가 섭식 경향 Bet[0]에 대한 배타 제어 게인으로서 작용하고, 또한 β가 섭식 경향 Bet1]에 대한 배타 제어 게인으로서 작용한다.
이와 같이, 복수의 행동에 대한 출현 경향을 행렬식으로서 나타낼 수 있게된다. 그리고, 행렬식의 좌변에서의 행렬 중에 플러스가 되는 Bet[i]가 있을 때, 이러한 출현 경향 Bet[i]에 대응되는 행동이 하나의 행동으로서 선택된다.
또, 상술한 바와 같은 행렬식의 경우에는 한쪽의 출현 경향의 값이 마이너스로 되어 있기 때문에, 마이너스로 되어 있는 이러한 출현 경향에 대해서는 0을 대입하여 재귀적으로 계산을 한다.
상술한 수학식 17을 이용하여 배타 제어를 재귀적으로 행함으로써, 도 17에 도시한 바와 같은 행동의 선택이 이루어지게 된다.
여기서, 전제로서 선택된 하나의 행동이 실행되면, 이 하나의 행동에 대한 원인 인자의 영향이 적어지며, 이러한 실행된 하나의 행동의 출현 경향이 작아지게 되도록 한다. 즉, 예를 들면「섭식 행동」이 하나의 행동으로서 선택된 경우, 섭식 행동이 실현되어 섭식에 대한 동기 등이 충족되기 때문에, 이러한「섭식 행동」에 대한 원인 인자(동기)의 영향이 적어지고, 그 결과, 섭식 경향이 작아진다는(약해진다는) 것이다. 수학식 17을 이용하여 배타 제어를 재귀적으로 행함으로써 다음과 같이 행동의 선택이 이루어진다.
도 17에 도시한 바와 같이, 예를 들면(섭식 경향 Be[0], 섭수 경향[1])=(a, a')가 섭식 행동 선택 영역 내(y=0과 y=αx로 둘러싸인 영역)에 있는 경우에는 값 (a, a')가 이러한 섭식 행동 선택 영역에 있는 한, 하나의 행동으로서 섭식 행동이 선택된다. 여기서, 값 (a, a')가 섭식 행동 선택 영역에 있는 경우, 상술한 수학식 17의 좌변의 섭식 경향 Bet[0]은 플러스를 나타낸다.
그리고, 섭식 행동이 계속 선택되면, 상술한 바와 같이 이러한 섭식 행동의 실현에 의해 원인 인자의 영향이 작아지기 때문에 섭식 경향 Bet[0]은 작아지게(약해지게) 된다. 섭식 경향 Bet가 작아지면, 값 (a, a')는 섭식 또는 섭수 선택 영역에 이른다. 즉, 도 17에 도시한 그래프 중에서 화살표 P1에 도시한 바와 같이 값 (a, a')가 변화한다.
섭식 또는 섭수 행동 선택 영역에서는 섭식 행동이 선택된다. 또한, 상술한 수학식 17에서 좌변의 섭식 경향 Bet[0]도 플러스를 나타낸다. 그리고, 섭식 행동이 계속 선택되면, 이러한 섭식 행동의 실현에 의해 원인 인자의 영향이 작아지기 때문에 섭식 경향 Bet[0]은 작아지게 된다. 그리고, 값 (a, a')는 섭식 또는 섭수 행동 선택 영역으로부터 섭수 영역(x=0과 y=βx로 둘러싸인 영역)에 이른다. 즉, 도 17에 도시한 그래프 중에서 화살표 P2에 도시한 바와 같이 값 (a, a')가 변화한다.
섭수 선택 영역에서는 섭수 행동이 선택된다. 여기서, 값 (a, a')가 섭수 행동 선택 영역에 있는 경우, 상술한 수학식 17의 좌변의 섭수 경향 Bet[1]이 이번에는 플러스를 나타낸다.
그리고, 섭수 행동이 계속 선택되면, 이러한 섭수 행동 선택 영역에서는 이러한 섭수 행동의 실현에 의해 원인 인자의 영향이 작아지기 때문에 섭수 경향 Bet[1]은 작아지게 된다. 그리고, 값 (a, a')는 섭수 행동 선택 영역으로부터 섭식또는 섭수 행동 선택 영역에 이른다. 섭식 또는 섭수 행동 선택 영역에서는 섭수 행동이 선택되며, 상술한 수학식 17에서 좌변의 섭식 경향 Bet[1]도 플러스를 나타낸다. 또한, 섭수 행동이 계속 선택되면, 섭수 경향 Bet[1]은 감소하고 값 (a, a')는 섭식 또는 섭수 행동 선택 영역으로부터 섭식 행동 선택 영역에 이른다. 섭식 행동 선택 영역에서는 다시 섭식 행동이 선택되게 된다. 즉, 섭수 행동 선택 영역으로부터 섭식 행동 선택 영역으로의 값 (a, a')의 변화는 도 17에 도시한 그래프 중에서 화살표 P3으로 나타낸 바와 같다. 그리고, 이후 이와 같이 행동이 선택되어 행동이 전환되어 간다.
또한, 출현 경향 공간에서 2개의 전환 경계선을 설정하는 것으로, 행동이 빈번하게 전환하는 것이 방지되게 되며 행동에 침착성이 없어지는 것이 방지된다.
이상과 같이, 섭식 경향 Bet[0]과 섭수 경향 Bet[1]이 변화함으로써, 이들 값의 관계로부터 값 (a, a')=(Bet[0], Bet[1])이 출현 경향 공간 상에 특정되어, 하나의 행동이 선택된다. 그리고, 이 때, 수학식 17에 있어서는 섭식 경향 Bet[0],섭수 경향 Bet[1] 중 어느 하나가 플러스의 값을 나타내고, 플러스를 나타낸 출현 경향이 선택되는 하나의 행동으로 된다. 이러한 행동 결정을 도 5에 도시한 결정 선택부(71)에 의해 행한다.
또, 상술한 실시예에서는 섭식 경향 Bet[0] 및 섭수 경향 Bet[1]에 의해 섭식 행동 및 섭수 행동의 2가지의 행동이 전환되는 경우에 대해 설명하였다. 그러나,실제로는 더 많은 행동(n개의 행동)을 출현 경향 공간 상에서 비교하여 하나의 행동을 선택한다. 즉, n차원에 의해 도시된 출현 경향 공간에 의해 하나의 행동의 선택이 이루어진다. n개의 행동으로부터 하나의 행동을 선택하는 경우에 대해서는 수학식 18에 도시한 바와 같은 행렬식이 된다.
여기에서, G[i][j]는 임의의 행동의 출현 경향 Bet[j]에 대한 임의의 행동의 출현 경향 Bet[i]의 배타 제어 게인이 된다.
이상과 같은 수식화에 의해 지각이나 동기와 같은 원인 인자에 기초하여 각 행동의 출현 경향을 구하고, 출현 경향의 강도(크기)로부터 하나의 행동의 결정(혹은 선택)이 이루어지는 동물 행동학적인 어프로치에 의한 행동 결정이 가능하게 된다.
또, 예를 들면 상술한 도 17에 도시한 바와 같이 행동이 선택되어 있는 경우에는 최종적으로 출현 경향이 0, 즉 섭식 경향 Be[0] 및 섭수 경향 Be[1]이 0(원점)으로 수속되게 고려된다. 이것은, 상술한 바와 같이 행동이 실현되면, 그 상태에서는 이러한 행동에 대한 원인 인자(예를 들면, 동기)의 영향이 한정없이 무(無)에 가까워지기 때문이다.
그러나, 선택된 하나의 행동이 실행되는 동안에 선택되지 않은 다른 행동에 대한 원인 인자의 영향이 커지기 때문에 문제는 없다고 할 수 있다. 즉, 예를 들면 섭수 행동이 실행되는 동안에 선택되어 있지 않은 섭식 행동에 대한 원인 인자인, 예를 들면「배가 고프다」의 상태가 변화하여, 이에 따라「공복」의 평가가 변화함으로써, 섭식 경향이 높아지기 때문이다. 「잠잔다」혹은「걷는다」라는 등에 의해 식욕이 회복하게 된다. 즉, 선택된 행동이 실행되는 동안에 선택되지 않은 행동의 출현 경향이 소위 회복되며, 이것을 도시하면, 예를 들면 도 18에 도시된 바와 같다.
또한, 제1 및 제2 전환 경계선의 기울기 α, β에 대해서는 임의로 결정할 수 있다. 이에 따라, 예를 들면 성장 단계에 맞추어서, 혹은 성격에 맞추어서 설정함으로써, 그와 같은 행동을 적절하게 나타낼 수 있게 된다.
예를 들면, 로봇 장치(1)는 성장 단계에 따라서 출현시키는 행동을 변화시키는 성장 행동 모델을 구비하고 있고, 그 성장 모델에서의 성장 단계가「유아」일 때에는, 제1 전환 경계선의 기울기 α와 제2 전환 경계선의 기울기 β를 가까운 값으로 하여, 섭식 또는 섭수 행동 선택 영역을 좁힌다. 또한, 성장 단계가「성인」일 때에는 섭식 또는 섭수 행동 선택 영역이 넓어지게 제1 전환 경계선의 기울기 α와 제2 전환 경계선의 기울기 β를 설정한다.
이에 따라, 로봇 장치(1)는「유아」일 때에는 섭식 행동과 섭수 행동과의 전환이 빈번하게 행해지며, 너무 침착성이 없는 행동을 출현하게 되고, 또한「성인」일 때에는 섭식 행동과 섭수 행동와의 전환이 적당한 간격으로 선택하여 침착성이 있는 행동을 출현하게 된다.
또한, 출현 경향의 소위 회복 속도와 같은 것을 가변으로 할 수 있게 된다. 예를 들면, 성장 레벨이 낮을 때에는 회복 속도를 빠르게 하고, 성장 레벨이 높을 때에는 회복 속도를 느리게 한다는 것과 같이 성장 레벨에 따라 회복 속도를 설정한다. 이와 같이 설정한 경우에는「유아」일 때에는 섭식 행동과 섭수 행동과의 전환이 빈번하게 행해지게 되며,「성인」일 때에는 섭식 행동과 섭수 행동과의 전환이 적당하게 이루어지게 되어, 전술한 예와 마찬가지의 효과를 얻을 수 있다.
또, 상술한 바와 같이 출현 경향의 회복을 이용하여 수속하지 않게 이루어지지만, 이것을 계산 상으로 조작하여 마찬가지로 수속을 방지하는 것으로 해도 된다.
이상, 동물 행동학적인 어프로치에 의한 행동 결정을 현실의 로봇 장치(1)에 있어서 실현하기 위한 계산식에 대하여 설명하였다. 그리고, 행동 선택부(80)가 이러한 계산식에 의해 행동의 선택을 행하고 있다.
(3-6) 행동 선택부에서의 구체적인 처리
이하, 행동 선택부(80)에서의 구체적인 처리에 대하여 설명한다.
행동 선택부(80)는 도 19에 도시한 바와 같이, 지각 정보(RM)를 취득하는 지각 정보 취득부(Release Mechanism, 릴리스 메카니즘: 90)와, 동기 정보(Mot)를 취득하는 동기 정보 취득부(모티베이션 크리에이터, Motivation Creator: 81)와, 지각 정보(RM)와 동기 정보(Mot)에 기초하여 하나의 행동을 선택하는 행동 선택 연산부(82)를 구비하고 있다.
(3-6-1) 출현 경향의 취득 수순
지각 평가(지각 정보) RM[i]와 동기 상태(동기 정보) Mot[i]에 기초하여 출현 경향 Bet[i]를 구하는 수순에 대하여 설명한다. 출현 경향 Bet[i]를 구하는 수순은 배타 제어 전의 값의 산출과, 배타 제어를 한 값의 산출로 대별된다. 즉, 상술한 수학식 18의 우변의 제1항의 출현 경향 Bet[i]의 산출과, 수학식 18의 좌변의 출현 경향 Bet[i]의 산출로 대별된다.
전자의 계산과 후자의 계산에 대하여, 3가지의 다른 행동의 출현 경향 Bet[i]를 취득하는 경우를 예로 들어 설명한다. 3가지의 다른 행동은 동일 행동 그룹이다. 예를 들면, 도 20에 도시한 바와 같이, 3가지의 각 행동에 대하여, 3가지의 제1 내지 제3 지각 평가 RM[0], RM[1], RM[2]와 3가지의 제1 내지 제3 동기 상태 Mot[0], Mot[1], Mot[2]로부터 대응되는 제1 내지 제3 출현 경향 Bet[0], Bet[1], Bet[2]를 취득한다는 경우이다.
예를 들면, 비교 대상이 되는 3개의 행동으로서는,「섭식 행동」,「섭수 행동」및「배설 행동」을 예로 들 수 있다. 제1 행동이 되는「섭식 행동」에 대해서는 제1 지각 평가 RM[0]으로서「맛이 있다」를 예로 들 수 있고, 제1 동기 상태 Mot[0]으로서「공복」을 예로 들 수 있다. 또한, 제2 행동이 되는「섭수 행동」에 대해서는, 제2 지각 평가 RM[1]로서「물과의 거리」를 예로 들 수 있고, 제2 동기상태 Mot[1]로서「목이 마르다」를 예로 들 수 있다. 또한, 제3 행동이 되는「배설 행동」에 대해서는 제3 지각 평가 RM[2]로서「화장실과의 거리」를 예로 들 수 있고, 제1 동기 상태 Mot[2]로서「대변 또는 소변이 막혀 있다」를 예로 들 수 있다. 그리고, 출현 경향 공간은 이들 섭식 경향 Bet[0], 섭수 경향 Bet[1], 배설 경향 Bet[2]에 의해 구성된다.
각 지각 평가 RM[i] 및 동기 상태 Mot[i]에 기초하여「섭식 행동」,「섭수 행동」및「배설 행동」에 대응되는 각 출현 경향 Bet[i]의 산출은 다음과 같아진다.
지각 평가 RM[i]와 동기 상태 Mot[i]로부터 수학식 19에 도시한 바와 같이 출현 경향 Bet[i]를 산출한다.
여기서, 지각 평가 RM[i]와 동기 상태 Mot[i] 사이에 반비례의 관계가 있는 경우에는 그 관계를 예를 들면 수학식 20과 같이 나타낼 수 있다.
이 지각 평가 RM[i]를, 수학식 19에 대입하면, A[i]가 Bet[i]로서 산출된다. 즉, 지각 평가 RM[i]와 동기 상태 Mot[i] 사이에 반비례의 관계가 있는 경우에는그 계수 A[i]가 출현 경향 Bet[i]로서 산출되는 것이다.
이러한 계산에 의해, 배타 제어 전의 출현 경향 Bet[i]를 산출할 수 있다. 그리고, 배타 제어가 고려된 출현 경향 Bet[i]에 대해서는 수학식 21에 의해 산출할 수 있다.
이미지적으로는, 도 21에 도시한 바와 같이, 배타 제어 게인 G[i][j](i=0, 1, 2, j=0, 1, 2)에 의해, 제1 내지 제3 행동의 출현 경향 Bet[0], Bet[1], Bet[2]가 배타 제어로서 산출이 이루어진다.
이상과 같이, 배타 제어 전의 출현 경향과, 그 배타 전의 출현 경향을 사용하고, 배타 제어가 고려된 출현 경향과의 산출이 이루어진다.
예를 들면, 도 22에 도시한 바와 같은 수순에 의해 이들 일련의 계산이 이루어진다.
우선, 단계 S1에 도시한 바와 같이, t=0, Be(t-1)[i]=0으로서 각 값을 초기화한다. 그리고, 단계 S2∼단계 S6에 있어서, Bet[0]∼Bet[2]까지의 수학식 21의 우변 제1항의 값이 산출된다. 즉, 배타 제어 전의 출현 경향 Bet[i]가 산출된다. 단계 S2∼단계 S6의 처리는 구체적으로는 다음과 같아진다.
단계 S2에서는 i=0이 된다. 이에 따라, Bet[0]에 대한 계산이 개시된다.
이어서, 단계 S3에서 지각 평가 RM[0]과, 동기 상태 Mot[0]이 산출된다. 즉, 예를 들면「맛이 있다」의 평가 RM[0]을 취득하고,「공복」의 상태 Mot[1]을 취득한다.
이어서, 단계 S4에서는, 수학식 21의 우변 제1항의 값으로서,「섭식 행동」의 출현 경향 Bet[0]을 산출한다.
그리고, 단계 S5에 있어서, i=3인지의 여부에 대한 판별이 이루어진다. 즉, 비교 대상이 되는 모든 출현 경향 Bet[0]∼Bet[2]의 값이 산출되었는지의 여부의 판별이 이루어진다.
여기서, i=3이 아닐 때, 단계 S6에 있어서 i=i+1이 되고, 다시 단계 S3으로부터의 처리를 개시한다.
이와 같은 단계 S1∼단계 S6의 처리에 의해, 배타 제어 전의 값으로서, 섭식 경향 Bet[0]에 이어서 섭수 행동 경향 Bet[1] 및 배설 경향 Bet[2]가 산출되게 된다.
그리고, 단계 S5에 있어서, i=3이 되었을 때, 단계 S7의 처리를 실행한다. 단계 S7에서는 수학식 21의 좌변의 출현 경향 Bet[i](i=0∼2)가 산출된다. 즉, 수학식 21에 의해 배타 제어가 고려된 출현 경향 Bet[i]가 산출된다.
이어서, 단계 S8에 있어서, Bet[i] 중 어느 하나가 플러스 값으로 되어 있는지의 여부의 판단이 이루어진다. 여기서, Bet[i] 중 어느 하나도 플러스 값으로 되어 있지 않은 경우에는 단계 S9에 있어서 t=t+1로 하여 다시 단계 S1로부터의 처리를 실행한다. 이에 따라, 수학식 21에 도시한 바와 같은 재귀적인 계산이 이루어지게 된다. 즉, 전 처리에 의해 얻어진 Bet[i]가 Be(t-1)[i]로 되어 계산이 이루어진다.
한편, 여기서 출현 경향 Bet[i] 중 어느 하나가 플러스 값으로 되어 있는 경우에는 이러한 출현 경향 Bet[i]에 대응되는 행동을 실제로 출현시키는 하나의 행동으로서 선택하여 행동의 선택 처리를 종료한다.
이상과 같이, 지각 평가(지각 정보) RM[i]와 동기 상태(동기 정보) Mot[i]에 기초하여 출현 경향 Bet[i]를 구할 수 있다.
(3-6-2) 지각 정보 취득부에서의 처리
다음에, 지각 평가 RM[i]를 취득하는 지각 정보 취득부(90)와, 동기 상태 Mot[i]를 취득하는 동기 정보 취득부(81)와의 구체적인 구성에 대하여 설명한다. 우선, 지각 정보 취득부(90)에 대하여 설명한다.
지각 정보 취득부(90)는 외부 또는 내부의 정보(인식 결과)에 따라 행동의 원인 인자가 되는 지각 정보(평가)를 취득한다. 이 지각 정보 취득부(90)는 도 23에 도시한 바와 같이, 행동 기억기(91), 대상물명 기억기(92), 대상물 결정기(93),대상물 정보 기억기(94) 및 지각 정보 연산기(95)를 구비하고 있다.
행동 기억기(91)는 선택 가능해지는 복수의 행동이 기억되어 있다. 예를 들면, 복수의 행동이 데이터 베이스로서 기억되어 있다.
그리고, 이 행동 기억기(91)는 행동 그룹 번호(신호)가 입력됨으로써, 비교 대상이 되는 복수의 행동을 하나의 행동 그룹으로서 대상물 결정기(93)에 출력한다.
예를 들면,「사과를 먹는다(사과의 섭식 행동)」에 대하여 예를 들면 다음과 같이 된다.
「사과를 먹는다」의 행동을 구현화하는 행동으로서는, 예를 들면「사과에 가까이 간다」,「사과 냄새를 맡는다」,「사과를 입안에 넣는다」,「사과에 손을 갖다댄다」등을 예로 들 수 있다. 예를 들면,「가까이 간다」는 대상물과의 거리를 짧게 하는 행동이고, 또한「냄새를 맡는다」는 대상물에 대하여 예를 들면 코를 가까이 한다는 행동이고,「입안에 넣는다」는 대상물을 입안으로 옮기는 행동,「손을 갖다 댄다」는 행동은 대상물에 손(다리)을 접촉시키는 행동을 말한다. 이들「가까이 간다」,「냄새를 맡는다」,「입안에 넣는다」및「갖다댄다」등에 대응하는 행동은 대상물 일반에 적용 가능한 행동이 된다. 즉, 대상물이「귤」인 경우에 있어서, 그 거리를 짧게 하는 행동은「귤에 가까이 간다」는 행동이 되고, 또한, 코를 가까이 대는 행동은「귤의 냄새를 맡는다」는 행동이 되며, 입으로 옮기는 행동은「귤을 입안에 넣는다」는 행동이 되고, 또한, 손을 접촉시키는 행동은「귤에 손을 갖다댄다」는 행동이 된다.
행동 기억기(91)는 이러한「가까이 간다」등의 대상물 일반에 적용 가능한 복수의 행동 정보를 하나의 행동 그룹으로서 대상물 결정기(93)로 출력하고 있다. 즉, 행동 기억기(91)는 이러한「사과를 먹는다」등의 상위의 행동을 구현화하는 하위의 행동의 대상물의 정보를 추출하여 규정된 행동명 정보를 대상물 결정기(93)로 출력하고 있다. 그리고, 이 행동 기억기(91)로부터 출력되는 행동명 정보는 행동 선택 연산부(82)에서 출현 경향이 비교되는 행동에 대응되는 것이다. 따라서, 상호 억제하는 관계에 있는 행동이 된다.
이와 같이 대상물 일반에 적용 가능한 정보로서의 행동명 정보를 보유하고 있는 것은, 대상물이 다른 동일한 동작에 대하여 신호(커맨드)를 복수개 정의할 필요를 없애고, 각 대상물마다의 행동을 규정한 경우의 예를 들면 데이터 베이스 등의 시스템의 비대를 방지하며, 반대로 동일한 행동을 일으키는 경우에 대상물마다 행동 자체에 큰 차이는 없는 것에 의한다. 또, 특별한 행동에 대해서는 대상물의 정보를 포함시켜 다시 행동을 규정하면 된다.
한편, 대상물명 기억기(92)에는 대상물명이 기억되어 있다. 이 대상물명 기억기(92)에 기억되는 대상물명은 상위의 행동에서 선택된 대상물명이다. 예를 들면, 상위의 행동으로서「사과를 먹는다(사과의 섭식 행동)」라는 행동이 선택된 경우에는, 로봇 장치(1)가 사과의 존재를 인식한 경우이고, 이 경우,「사과」가 대상물명으로서 대상물명 기억기(92)에 기억된다. 그리고, 대상물명 기억기(92)는 대상물명 정보(대상물 신호)를 대상물 결정기(93)로 출력한다.
상술한 행동 기억기(91)에서는 하위의 행동에 대하여 대상물 일반에 적용 가능한 행동 정보를 대상물 결정기(93)로 출력하고 있고, 이 대상물명 기억기(92)는 그 대상물명을 대상물 결정기(93)로 출력하는 것이다. 따라서, 대상물 결정기(93)에서는 행동 기억기(91)로부터 출력되는 정보(행동명 신호)와 대상물명 기억기(92)로부터 출력되는 정보(대상물 신호)로부터, 비교 대상이 되는 복수의 행동이 완전한 정보로서 형성된다.
대상물 결정기(93)는 그와 같이 비교 가능한 형태로서 복수의 행동 정보(행동 그룹 신호)를 지각 정보 연산기(95)로 출력한다. 즉, 대상물 결정기(93)는 행동 기억기(91)에 의해 취득한 행동명과, 대상물명 기억기(92)에 의해 취득한 대상물명을 대응한 형태(쌍)로서 지각 정보 연산기(95)로 출력한다.
또, 비교 대상이 되는 복수의 행동 전체가 대상물을 필요로 하는 행동이라고는 할 수 없다. 이러한 경우에는, 대상물명 기억기(92)로부터는 그와 같은 행동에 대응하여「대상물은 없다」라는 정보를 대상물 결정기(93)로 출력하도록 한다. 이에 따라, 대상물 결정기(93)에서는 대상물이 없는 행동의 정보로서, 행동 기억기(91)로부터 출력된 행동의 정보를 지각 정보 연산기(95)로 출력한다.
이와 같이 구성되어 있는 행동 기억기(91), 대상물명 기억기(92) 및 대상물 결정기(93)는 예를 들면 다음과 같이 처리를 행한다. 예를 들면, 행동 기억기(91)는 행동 그룹 번호 "1"이 입력되면, 행동 그룹 "1"을 구성하는 "행동(Behavior) 0", "행동 1", "행동 2", "행동 3"을 대상물 결정기(93)로 출력한다. 한편, 대상물명 기억기(92)는 "행동 0"에 대응하여 "음식물"을 출력하고, "행동 1"에 대응하여 "물"을 출력하며, 행동 "2"에 대응하여 "대상물 없음"을 출력하고, "행동 3"에대응하여 "대상물 없음"을 출력한다. 예를 들면, 이러한 예는 상위의 행동이「섭취 행동」인 경우이고, 상술한 바와 같이, 상위의 행동이「사과를 먹는다」이면, 이 대상물명 기억기(92)로부터는 "사과"만이 출력된다. 그리고, 대상물 결정기(93)에서는 행동 기억기(91)로부터 출력된 각 "행동"과, 대상물명 기억기(92)로부터 출력된 "대상물명"을 쌍으로 하여, 의미가 있는 행동 정보로서 지각 정보 연산기(95)로 출력한다.
입력 시맨틱스 컨버터 모듈(59)은, 대상물 정보 기억기(94)에 대하여, 로봇 장치(1)에 입력되어 온 지각에 관한 정보를 출력하고, 대상물 정보 기억기(94)에서는 입력 시맨틱스 컨버터 모듈(59)로부터 송신되어 오는 지각에 관한 정보가 기억된다. 즉, 예를 들면, 대상물 정보 기억기(94)에는 대상물이 되는「사과」,「사과까지의 거리」,「사과가 있는 방향」등인 출현 경향의 산출에 사용하는 지각 평가를 위한 파라미터가 기억된다.
지각 정보 연산기(95)는 대상물 정보 기억기(94)로부터의 대상물 정보(대상물 정보 신호)와, 대상물 결정기(93)로부터의 행동 그룹 정보(행동 그룹 정보 신호)에 기초하여 행동 선택 연산부(82)에서 출현 경향이 비교되는 각 행동에 대응한 지각 평가 RM[i]를 취득한다. 즉, 예를 들면,「사과까지의 거리」를 이용하여,「사과를 먹는다(사과의 섭식 행동)」에 대한 지각 평가를 행하거나,「사과에 가까이 간다」에 대하여 지각 평가를 행하기도 한다.
그리고, 이와 같이 지각 정보 연산기(95)에 의해 취득된 지각 평가 RM[i]가 행동 선택 연산부(82)로 출력된다. 예를 들면, 지각 평가 RM[i]는, 도 19에 도시한 바와 같이, 벡터량으로서 지각 정보 취득부(90)로부터 행동 선택 연산부(82)로 출력된다.
또, 대상물 결정기(93)로부터 동기 신호를 대상물 정보 기억기(94)로 출력할 수도 있다. 동기 신호에 의해 대상물 결정기(93)의 출력과 대상물 정보 기억기(94)의 출력의 동기를 취할 수 있게 되고, 이에 따라, 지각 정보 연산기(95)에는 대상물 결정기(93)로부터의 행동에 대응되는 파라미터를 소정의 타이밍에서 입력시킬 수 있게 된다.
또한, 기본적으로는, 로봇 장치(1)는 이 지각 정보 취득부(90)를 하나만 구비하는 것이다. 그러나, 지각 정보 취득부(90)를 각 행동 각각에 대하여 각각에 구비할 수도 있다. 이러한 경우에는, 지각 정보 취득부(90)가 하나의 행동에 대하여 대상물 일반에 적용하는 것만을 고려하면 되기 때문에, 행동 기억기(91)를 구비할 필요가 없게 된다. 예를 들면, 이러한 예는 후술하는 행동 선택부를 복수의 오브젝트로서 구성하는 경우이다.
이 지각 정보 취득부(90)에서의 처리 수순에 대하여 도 24를 이용하여 설명한다.
우선, 단계 S11에 있어서, 행동 그룹명의 취득이 이루어진다. 행동 그룹명의 취득이란,「사과를 먹는다」의 하위 행동인「사과에 가까이 간다」,「사과의 냄새를 맡는다」등을 나타내는 행동 그룹명의 취득이다.
계속해서 대상물 선택 루틴이 실행된다. 대상물 선택 루틴에서는, 단계 S12에서, 계산하는 행동명군의 취득이 이루어진다. 이 행동명군의 취득에 의해, 행동기억기(91)에 복수의 행동(대상물 일반에 적용 가능한 형태의 행동 정보)이 기억된다. 예를 들면,「가까이 간다」,「냄새를 맡는다」등의 행동명을 규정하는 정보이다.
또한, 단계 S13에서, 대상물명의 취득이 이루어진다. 이 대상물명의 취득에 의해, 대상물명 기억기(92)에 상위의 행동에서 취득된 대상물 명칭이 기억된다. 예를 들면,「사과」등의 대상물의 정보이다.
이와 같이 대상물 선택 루틴에 있어서, 행동명군의 취득 및 대상물명의 취득이 이루어진다. 계속되는 단계 S14에 있어서, 선택된 모든 행동에 대하여, 지각 정보 연산기(95)에서의 지각 평가 RM[i]의 계산을 행하였는지의 여부의 판별이 이루어진다. 선택된 모든 행동에 대하여 지각 평가 RM[i]의 계산이 종료된 경우에는 상기 처리를 종료하고, 선택된 모든 행동에 대하여 지각 평가 RM[i]의 계산이 종료되지 않은 경우에는 지각 평가 산출 루틴이 실행된다.
지각 평가 산출 루틴은 지각 정보 연산기(95)에서 실행되는 것으로 다음과 같은 처리로 이루어진다.
단계 S15에 있어서, 대상물이 존재하는지의 여부에 대한 판별이 이루어진다. 대상물이 존재하는 경우에는 단계 S16으로 진행하고, 대상물이 존재하지 않는 경우에는 단계 S18로 진행한다.
단계 S16에 있어서, 지각 정보 연산기(95)는 대상물 정보 기억기(94)로부터의 대상물에 대한 거리 및 방향(지각 평가 취득을 위한 파라미터)을 취득하여, 단계 S17에서 지각 평가(Value) RM[i]를 산출한다. 즉, 예를 들면,「사과까지의 거리」로부터「사과에 가까이 간다」라는 평가 RM[i]를 산출한다. 또, 거리는 거리 센서(22)에 의해 검출하고, 방향은 CCD 카메라(20)의 촬상 화상 등을 이용하여 검출한다.
한편, 단계 S18에 있어서, 지각 정보 취득기(95)는 대상물이 없는 상태에서 지각 평가(Value) RM[i]를 산출한다. 예를 들면, 이 처리는 지각 평가를 행하는 행동이 대상물을 필요로 하지 않는 경우에 대응된다.
이러한 지각 평가 산출 루틴은, 상술한 단계 S14의 판별 처리에 있어서, 비교 대상이 되는 모든 행동(행동 그룹을 구성하는 복수의 행동)에 대하여 지각 평가 RM[i]의 계산을 행했다고 판단될 때까지 실행된다. 즉, 단계 S14의 처리와 지각 평가 산출 루틴에서, 행동 그룹 내의 모든 행동에 대한 지각 평가 RM[i]가 산출된다.
단계 S14에서, 행동 그룹 내의 모든 행동의 지각 평가 RM[i]가 산출되었다고 판단되면, 상기 처리가 종료된다.
이상과 같이 지각 정보 취득부(90)가 구성되어 있고, 이 지각 정보 취득부(90)에 의해 행동 그룹에서의 비교 대상의 복수의 행동에 대한 지각 평가 RM[i]를 취득할 수 있다.
(3-6-3) 동기 정보 취득부에서의 처리
동기 정보 취득부(81)는, 외부 또는 내부의 정보(인식 결과)에 따라 변화되는 본능 및 감정의 상태에 기초하여, 행동의 원인 인자의 하나인 동기를 취득한다. 이 동기 정보 취득부(81)는, 도 25에 도시한 바와 같이, 본능·감정 파라미터IE[p]를 복수개(본능·감정 파라미터군) 가지고, 이에 따라 복수개의 행동의 동기 Mot[i]를 취득하고 있다. 구체적으로는, 다음과 같이 하여 행동의 동기를 취득한다.
본능·감정 파라미터군 IE[p]는 본능이나 감정에 영향을 받는 정보에 의해 구성되어 있고, 구체적으로는, 상술한 바와 같은 내적 상태 모델에 의해 결정되는 복수의 파라미터로 구성되어 있다. 즉, 본능·감정 파라미터로서, 예를 들면,「피로」,「체내 온도」,「아픔」,「배고픔」,「목마름」,「애정」,「복종성」,「호기심」,「배설」,「행복」,「슬픔」,「분노」,「놀람」,「혐오」,「두려움」,「초조함 」,「지루함」,「졸림」,「사교성」,「끈기」,「긴장·이완」,「경계」,「죄」,「악의」,「성실함」,「성욕」,「질투」등을 들 수 있다.
또한, 행동의 동기군 Mot[i]는 동일한 행동 그룹 내에 있어서의 복수의 행동에 대응되는 동기군이다. 예를 들면,「섭식 행동」에 대한「공복」등이나「섭수 행동」에 대한「목마름」등이다.
이 동기 정보 취득부(81)는 이러한 본능·감정 파라미터 IE[p]를 맵핑하여 각 행동에 대한 동기 Mot[i]를 산출한다. 구체적으로는 수학식 22에 의해 산출한다.
이 수학식 22에 의해, 본능·감정 파라미터 IE[p]에 계수 K[i][p]를 곱하여, 선형합으로서의 맵핑에 의해 각 행동의 동기 Mot[i]를 산출한다. 이러한 행렬식으로서 산출된 동기 Mot[i]는, 도 19에 도시한 바와 같이, 벡터량으로서 동기 정보 취득부(81)로부터 행동 선택 연산부(82)로 출력된다.
예를 들면,「탐색」,「졸라댐」,「휴식」의 동기를 예를 들어 구체적으로 설명한다.「탐색」의 동기 Mot[0],「졸라댐」의 동기 Mot[1] 및「휴식」의 동기 Mot[2]는 수학식 23으로서 제공된다.
또한, K[i][p]를 수학식 24에 나타낸 바와 같이 제공한다.
또한, 본능·감정 파라미터 IE[p]는 수학식 25에 나타낸 바와 같이 제공한다.
이러한 관계로부터,「탐색」,「졸라댐」,「휴식」의 각 동기는 수학식 26과 같이 나타낸다.
이 수학식 26에서는,「탐색」은「피로」가 마이너스 인자로서 작용하고,「호기심」이 플러스 인자로서 작용하는 본능·감정 파라미터의 함수가 되는 것을 나타낸다. 또한,「졸라댐」은「애정욕」이 플러스 인자로서 작용하는 본능·감정 파라미터의 함수가 되는 것을 나타낸다. 또한,「휴식」은「피로」가 플러스 인자로서 작용하고,「호기심」이 마이너스 인자로서 작용하는 본능·감정 파라미터의 함수가 되는 것을 나타낸다.
여기서, 제1 예로서, 본능·감정 파라미터 IE[p]가 [10, 50, 20]인 경우에 대해 생각해 본다. 예를 들면, 이러한 상태는 호기심이 높은 상태를 말한다. 이러한 상태에서는,「탐색」Mot[0]이 400(=-100+500+0)이 되고,「졸라댐」Mot[1]이 300(=0+0+300)이 되며,「휴식」Mot[2]가 -150(=100-250+0)이 된다.
제2 예로서, 본능·감정 파라미터 IE[p]가 [70, 10, 30]인 경우에 대해 생각해 본다. 예를 들면, 이러한 상태는 찾다 지친 상태를 말한다. 이러한 상태에서는,「탐색」Mot[0]이 -600(=-700+100+0)이 되고,「졸라댐」Mot[1]이 450(=0+0+450)이 되며,「휴식」Mot[2]가 650(=700-50+0)이 된다.
제3 예로서, 본능·감정 파라미터 IE[p]가 [30, 20, 60]인 경우에 대해 생각해 본다. 예를 들면, 이러한 상태는 피로가 상당히 회복되고, 애정욕이 높은 상태를 말한다. 이러한 상태에서는,「탐색」Mot[0]이 -100(=-300+200+0)이 되고,「졸라댐」Mot[1]이 300(=0+0+300)이 되며,「휴식」Mot[2]가 200(=300-100+0)이 된다.
이와 같이 하여, 본능·감정 파라미터군 IE[p]와 계수 K[i][m]으로부터, 행동의 동기 Mot[i]를 취득할 수 있다. 그리고, 본능·감정 파라미터군 K[i][p]의 맵핑을 적절하게 설정함으로써, 출현 경향 RM[i]의 취득을 위한 원하는 동기 Mot[i]를 얻을 수 있다. 즉, 예를 들면, 상술한 예에서「목마름」,「공복」이란 동기도 얻을 수 있다.
이상과 같이 동기 정보 취득부(81)가 구성되어 있고, 이 동기 정보 취득부(81)에 의해 각 행동에 대한 동기 Mot[i]를 취득할 수 있다. 이 동기 정보 취득부(81)에 의해 얻어지는 동기는 본능이나 감정의 파라미터값의 변화에 따라 변화되는 것이며, 결과로서, 선택된 행동에 반영된다. 예를 들면, 상술한 예에서는 다음과 같이 동기가 행동에 반영되게 된다.
욕구는 기본적으로는 시간 증가이기 때문에, 충족되지 않으면 증가된다. 호기심이 높아지면, 로봇 장치(1)는 탐색을 시작한다(상술한 제1 예). 탐색함으로써여기저기 돌아다니기 때문에, 걸어다닌 만큼 피로가 축적된다. 또한, 호기심 자체도 탐색함으로써 감소되어 간다. 오랫동안 돌아다녀도 아무것도 입력되지 않으면, 호기심이 감소하고, 피로가 증대됨으로써, 휴식을 취하는 행동으로 전환된다(상술한 제2 예). 얼마동안 휴식을 취함으로써 피로가 감소되고, 시간에 의해 증가되어 온 애정욕에 의해 로봇 장치(1)의 행동은 조르는 행동으로 전환된다(상술한 제3 예). 이와 같이, 동기가 선택된 행동에 반영되는 것을 알 수 있다.
또, 상술한 계수 K[i][p]의 값에 대해서는 임의로 설정할 수 있다. 예를 들면, 임의로 설정함으로써, 동기 Mot[i]의 취득을 위한 본능·감정 파라미터 IE[p]에 의한 맵핑을 여러 가지로 변화시킬 수 있게 된다. 이에 따라, 계수 K[i][p]의 설정에 의해서는 로봇 장치(1)에 적용하는 동물의 종류나 성장 레벨 등에 대응하여, 맵핑할 수 있게 된다.
이상, 지각 평가 RM[i]를 취득하는 지각 정보 취득부(90) 및 동기 상태 Mot[i]를 취득하는 동기 정보 취득부(81)와의 구체적인 구성에 대하여 설명하였다. 이상과 같은 지각 정보 취득부(90) 및 동기 정보 취득부(81)에 의해 취득된 지각 평가 RM[i] 및 동기 상태 Mot[i]에 의해, 행동 선택 연산부(82)에서 하나의 행동의 선택이 이루어진다.
그리고, 이러한 행동의 선택 처리가 최하위의 행동층에서의 행동의 선택이 이루어질 때까지 실행된다. 즉, 상술한 도 7에 도시한 바와 같이 행동 선택을 위한 시스템을 계층 구조로서 구축하고, 최하위의 행동(실제로 출력하는 행동)을 결정할 때까지, 각층에서 상술한 바와 같이 지각 평가 RM[i]와 동기 정보 Mot[i]에의한 행동 선택 처리를 실행한다. 즉, 도 6B에 도시한 바와 같이,「섭취 행동」은 서브 시스템층에서 행한 지각 평가 RM[i]와 동기 정보 Mot[i]에 기초하는 행동 선택의 결과이고,「섭수 행동」은 더욱 구현화된 행동군으로 이루어진 모드층에서 행한 지각 평가 RM[i]와 동기 정보 Mot[i]에 기초하는 행동 선택의 결과이며,「물에 가까이 간다」는 더욱 더 구현화된 행동군으로 이루어진 모듈층에서 행한 지각 평가 RM[i]와 동기 정보 Mot[i]에 기초하는 행동 선택의 결과이고,「전진한다」는 더욱 더 구현화된 행동군으로 이루어진 모터 커맨드층에서 행한 지각 평가 RM[i]와 동기 정보 Mot[i]에 기초하는 행동 선택의 결과이다. 이러한 선택 처리에 의해, 추상적인 행동(원망으로서의 행동)인「섭식 행동」이「전진한다」라는 실제의 행동에 의해 실현되게 된다.
또, 각층에서의 행동의 선택에 있어서, 상술한 바와 같이, 지각이나 동기 등의 원인 인자에 의해 그 출현 경향이 산출되고, 그것에 기초하여 하나의 행동이 선택되어 있지만, 출현 경향을 산출할 때에 사용하는 동기 정보를 모든 층에서 일률적인 것을 사용해도 된다. 즉, 예를 들면,「섭취 행동」이 상위의 행동으로 되어 있는 경우에는, 그 하위의 행동은 모두「섭취 행동」을 실현하기 위한 것으로 생각하면, 상기 하위의 행동은「배고픔(목마름)」의 상태를 충족시키기 위한 행동이 된다. 따라서,「섭취 행동」을 실현하기 위한 하위의 행동은「배고픔(목마름)」의 상태가 동기의 정보(원인 인자)가 된다.
또, 지각에 대해서는 반드시 그와 같은 관계가 되지는 않는다. 「물에 가까이 간다」의 지각 정보(외부 지적 요소)로서「물까지의 거리」를 들 수 있지만, 그「물에 가까이 간다」의 하위의「전진한다」의 지각 정보로서는「물이 있는 방향」이 최적인 경우도 있기 때문이다.
(3-7) 변조기에서의 처리
변조기(72) 및 후술하는 출력 시맨틱스 컨버터 모듈(68)에 의해, 상술한 바와 같이, 행동 선택 연산부(82)에서 선택된 하나의 행동을 실제로 출현하기 위한 처리가 이루어진다.
변조기(72)는 행동 선택부(80)에서 선택된 하나의 행동과, 내적 상태 모델부(71)로부터 출력된 대표 감정 정보(대표 감정 신호)로부터 최종적으로 출현시키는 행동을 결정한다.
여기서, 내적 감정 모델부(71)로부터 출력되는 대표 감정 정보는 로봇 장치(1)의 현재의 감정 상태를 나타내는 것이다. 예를 들면, 내적 감정 모델부(71)는 본능(욕구) 또는 감정의 파라미터값이 가장 큰 본능 또는 감정을 대표 감정 정보로서 출력한다.
변조기(72)는 이러한 대표 감정에 기초하여, 행동 선택부(80)에서 선택된 하나의 행동을 소위 변조하는 것이다. 즉, 변조기(72)의 처리에 의해, 행동에 있어서 감정이 표출되게 된다.
이에 따라, 예를 들면, 현재의 감정을 로봇 장치(1)의 행동으로서 직접적으로 출현시킬 필요는 없지만, 감정 표현을 포함시켜 행동을 출현시키는 경우에 유효하게 된다. 즉, 예를 들면, 정말로 화가 나 있지 않은 상태이지만, 약간 화가 나 있는 경우에, 행동 선택부(80)에 의해 선택된 행동에「불쾌함」을 동반시키는(부가시키는) 경우이다.
변조기(72)는 상술한 바와 같은 감정에 의해 변조되어 선택된 하나의 행동에 대한 정보를 출력 시맨틱스 컨버터 모듈(68)로 출력한다. 예를 들면, 변조기(72)는 행동 정보를 추상적인 행동 커맨드로서 출력 시맨틱스 컨버터 모듈(68)로 출력한다.
출력 시맨틱스 컨버터 모듈(68)은 변조기(72)로부터의 행동 정보에 대응하는 출력을 신호 처리 모듈(61∼67)에 제공한다. 이에 따라, 로봇 장치(1)는 행동 결정 시스템(70)에서 결정된 행동을 실제의 것으로서 출력한다.
이상, 행동 결정 시스템(70)에 대하여 설명하였다. 상술한 바와 같은 행동 결정 시스템(70)에 의해, 입력 시맨틱스 컨버터 모듈(59)에서의 인식 결과에 기초하여 내적 상태 모델부(71)에서는 로봇 장치(1)의 본능 및 감정 상태 등의 내적 상태를 변화시킬 수 있다. 또한, 행동 선택부(80)에서는, 인식 결과에 기초하여, 복수의 행동으로부터 로봇 장치(1)가 출현하는 하나의 행동을 선택할 수 있다.
그리고, 변조기(72)에 의해, 내적 상태 모델부(71)에 의해 얻어진 내적 상태와 행동 선택부(80)에 의해 얻어진 하나의 행동에 기초하여, 감정이 부가된 행동 정보의 생성이 이루어진다. 그리고 변조기(72)에 의해, 감정이 부가된 행동 정보가 출력 시맨틱스 컨버터 모듈(68)로 출력된다.
(4) 출력 시맨틱스 컨버터 모듈에서의 처리
출력 시맨틱스 컨버터 모듈(68)은 로봇 장치(1)의 타입(예를 들면, 2족 보행형이나 4족 보행형 등)이나 형상 등의 정보를 보유하고 있고, 이 정보에 따라 변조기(72)로부터의 행동 정보로 각 신호 처리 모듈(61∼67)을 제어한다. 예를 들면, 4발로 보행하는 본 실시예의 로봇 장치(1)의 경우에는, 출력 시맨틱스 컨버터 모듈(68)은 4족 보행형의 로봇 장치(1)인 것을 파악하고 있기 때문에,「전진한다」라는 행동 정보가 변조기(72)로부터 송신되어 왔을 때는 그「전진한다」를 실현하기 위해 4개의 다리를 제어하는 신호 처리 모듈로 커맨드를 출력한다. 여기서, 출력 시맨틱스 컨버터 모듈(68)은 변조기(72)로부터의 추상적인 행동 커맨드에 의해 그와 같이 대응되는 각 신호 처리 모듈(61∼67)에 커맨드를 송신한다.
각 신호 처리 모듈(61∼67)은 출력 시맨틱스 컨버터 모듈(68)로부터의 커맨드에 기초하여, 대응하는 디바이스를 제어한다. 이에 따라, 상술한 바와 같은 행동 결정 시스템(70)에서 결정(선택)된 행동이 실제적으로 로봇 장치(1)의 행동으로서 출현되게 된다.
또한, 이러한 로봇 장치(1)의 행동 출현은 자세와 동작이 관리된 것에 기초하여 이루어지고 있다. 로봇 장치(1)의 각 부는 원칙적으로는 독립적으로 동작할 수 있지만, 자세와 동작을 관리함으로써 소정의 동작을 독립적으로 동작시키는 것을 금지하고 있다.
로봇 장치(1)는, 도 1에 도시한 바와 같이, 동체부 유닛(2)에 대하여 다리부 유닛(3A∼3D), 머리부 유닛(4) 및 꼬리부 유닛(5)이 연결되어 구성되어 있다. 이에 따라, 기본적으로 로봇 장치(1)는 선택된 행동에 따라 각 신호 처리 모듈을 개별로 제어함으로써, 각 부가 독립적으로 동작할 수 있도록 이루어져 있다. 그러나, 경우에 따라서는 각 유닛의 동작 간섭에 의해, 부적절한 동작이 행해지는 경우도 있다. 또한, 목적으로 하는 자세 혹은 동작으로의 천이가 현재의 자세에서 무리일 때도 있다.
그래서, 로봇 장치(1)는 무리한 자세나, 부위(각 유닛)끼리의 간섭이 발생하는 것을 방지하기 위해, 각 유닛간의 정합을 취하여 자세와 동작의 관리를 행하고 있다. 로봇 장치(1)는 이러한 자세나 동작을 도 4에 도시한 자세 관리 모듈(61)에 의해 관리하고 있다.
구체적으로 자세 관리 모듈(61)은, 로봇 장치(1)는 앉아 있는 경우에, "앞으로 걸어"라는 명령을 수신했을 때는「앉은 상태」로부터「걷는 상태」로의 천이시키는 자세 천이 경로를 탐색한다. 예를 들면, 복수의 자세나 동작을 경유하여,「앉은 상태」로부터「걷는 상태」로의 천이 경로를 탐색한다. 그리고,「앉은 상태」로부터「걷는 상태」로의 천이 경로 탐색의 결과에 기초하여, 그와 같은 천이 경로 상에 있는 자세나 동작을 실행하기 위해, 천이시키는 경로의 순서에 따라 명령을 각 신호 처리 모듈로 출력한다. 이에 따라, 로봇 장치(1)는 무리한 자세나, 부위끼리의 간섭을 방지하여, 목적으로 하는 원하는 자세나 동작, 즉, 상술한 행동 결정 시스템(70)에서 결정된 행동에 도달할 수 있다.
이상, 로봇 장치(1)의 구성 및 그 처리에 대하여 설명하였다. 상술한 바와 같은 구성을 구비함으로써, 로봇 장치(1)는 동물 행동학적인 어프로치에 의해 결정된 행동을 출현시킬 수 있게 된다. 이에 따라, 로봇 장치(1)의 생물감이 한층 증가되고, 사용자(기르는 주인)는 로봇 장치(1)에 한층 더 친근감이나 만족감을 느끼게 된다.
(5) 다른 실시예
이상, 로봇 장치(1)에 대하여 최량의 실시예에 대하여 설명하였다. 그러나, 본 발명은 다음에 진술하는 다른 실시예로서도 실현할 수 있다.
상술한 실시예에서는, 행동 결정 시스템(70)이 최종 단계의 행동 선택을 동기 정보도 참조하여 결정하고 있다. 예를 들면, 도 6B에 도시한 예에서는,「전진한다」가 동기 정보를 참조하여 선택되어 있는 것이다. 그러나, 최종 단계의 행동 선택에 대해서는 동기 정보를 제외하고 결정해도 된다.
즉, 예를 들면, 도 26A 및 도 26B에 도시한 바와 같이,「섭취 행동」의 하위의 행동(동작)이 되는「물에 가까이 간다」는 그 하위의 행동(동작)인「전진한다」의 선택을 동기 정보를 제외한 정보, 예를 들면 대상물까지의 거리 등의 지각 정보를 참조하여 선택한 것이다. 예를 들면, 어떤 행동(예를 들면, 막연한 행동)을 하려고 하는 경우에는 동기가 그 행동 선택에 크게 작용하고, 그리고, 하고 싶은 행동을 어느 정도 압축한 후에는 동기와는 분리되어, 행동의 선택 처리(선택 사고)가 그와 같은 행동을 실현하기 위한 것으로 전환된다. 즉, 최종적으로 선택되는 동작은 동기의 영향을 받지 않고 결정되는 점이 포인트가 된다. 그리고, 그와 같은 최종적으로 동작을 결정하는 경우에, 예를 들면, 지각 정보를 사용한다는 것이다. 또, 모드층의 계층은 0계층 이상이고, 모듈층의 계층은 1계층인 것으로서 정의해도 된다.
예를 들면, 상술한 바와 같은 동기 정보에 기초하지 않고 동작을 결정하는 부분으로서, 예를 들면 도 27 및 도 28에 도시한 바와 같이, 동작 생성부(100)를구비한다. 동작 생성부(100)는 행동 선택 연산부에 의해 선택된 행동으로부터 지각 정보 등에 기초하여,「물에 가까이 간다」나 그 하위의 동작이 되는「전진」의 행동을 실현하는 동작의 선택을 행한다. 그리고, 동작 생성부(100)는 선택한 동작을 변조기(72)로 출력한다. 변조기(72)에서는, 앞에서 설명한 바와 같이, 내적 상태 모델부(71)로부터 송신되어 오는 감정에 의해 변조된 행동을 출력한다.
구체적으로는, 동작 생성부(100)는, 도 29에 도시한 바와 같이, 지각 정보 취득부(90), 행동 선택 연산부(102)를 구비하여 구성된다. 예를 들면, 출력 시맨틱스 컨버터 모듈(68)로부터의 각종 정보가 축적되는 대상물 정보 기억부(94)를 이용하여, 행동 선택 연산부(102)에서 동작의 선택을 행한다. 이에 따라, 동작 생성부(100)는 예를 들면,「전진할」때는 대상물 정보 기억기(94)에 기억되어 있는 정보인 대상물까지 거리(예를 들면, 대상물까지의 거리가 10㎝인 정보)나 방향(예를 들면, 대상물이 우측 방향에 있는 정보)의 정보만을 이용하여, 행동 선택 연산부(102)에서 동작의 선택을 행한다.
또한, 상술한 실시예에서는 행동 선택부(80)에 의해 복수의 행동으로부터 하나의 행동을 선택하는 경우에 대해 설명하였다. 예를 들면, 행동 선택부(80)에서는 복수의 행동 정보를 보유하고 있고, 이들 행동 데이터에 기초하여 하나의 행동을 결정하고 있다. 그러나, 이것에 한정되는 것은 아니다.
예를 들면, 행동 결정 시스템(70)은 행동을 결정하는 부분을 오브젝트 지향에 의해 설계할 수 있다. 또, 오브젝트 지향으로서 행동을 결정하는 시스템을 구축하는 경우라도, 상위의 행동과 하위의 행동이라는 계층 구조로서의 관계는 그대로 이용된다. 그리고, 행동의 선택은 오브젝트 단위로서 구성되는 행동 그룹으로부터 상기 오브젝트 단위에서 하나의 행동을 선택하도록 한다. 구체적으로는, 도 30에 도시한 바와 같이, 행동 시스템에서 행동의 선택을 복수의 행동 선택부(오브젝트 혹은 쓰레드: 801, 802, 803)에서 계층 구조로서 구비하도록 한다.
본 예에서는, 도 30에 도시한 바와 같이, 오브젝트로 되는 행동 선택부가 2계층으로 되어 시스템이 구축되어 있지만, 이에 한정되지 않는 것은 물론이다.
각 행동 선택부(801, 802, 803)는, 상술한 행동 결정 시스템(70)이 유일하게 구비하는 행동 선택부(80)와 마찬가지로, 지각 정보 취득부(90), 동기 정보 취득부(81) 및 행동 선택 연산부(82)를 구비한다.
이와 같이 구성한 경우, 상위의 행동 선택부(801)가 선택한 행동에 기초하여, 하위의 행동 선택부(802, 803)에서 행동의 선택을 행한다. 여기서, 상위의 행동의 선택은 하위층의 하나의 행동 선택부의 선택이 된다. 그리고, 선택된 하나의 행동 선택부는 더 하위의 행동의 선택을 행한다.
그리고, 이러한 복수의 행동 선택부(801, 802, 803)로 이루어진 시스템의 최하위에 위치되는 행동 선택부가 선택된 행동 정보를 상술한 바와 같은 동작 생성부(100)로 인도한다.
이러한, 오브젝트 지향으로서 행동 결정을 위한 시스템을 구축함으로써, 행동 선택을 위해 항상 시스템 전체에 대한 처리 혹은 파악을 행할 필요가 없어져, 행동 선택의 처리 부담이 경감되게 된다. 또한, 후에 새로운 행동을 가하는 경우라도, 그와 같은 새로운 오브젝트를 가하는 것만으로 완료되므로, 행동 선택을 위한 데이터를 전부 재기입하는 수고를 할 필요가 없다. 예를 들면, 새로운 행동을 가하는 경우란 학습에 의해 새로운 행동을 취득한 경우나, 성장 레벨의 변화에 의해 새로운 행동이 가해지는 경우를 말한다.
또한, 도 6B 혹은 도 26B에 도시한 서브 시스템층(SUBSYSTEM), 모드층(MODE1, MODE2), 모듈층(MODULE)에서의 각 행동 그룹 구성의 구체예는 도 31 및 도 32에 도시된 바와 같다.
이상 설명한 바와 같은 로봇 장치는 외부 또는 내부 정보를 검출 수단에 의해 검출하고, 검출 수단이 검출한 외부 또는 내부 정보로서, 행동에 영향을 주는 정보가 되는 원인 인자를 원인 인자 취득 수단에 의해 취득하며, 원인 인자 취득 수단이 취득한 원인 인자에 기초하여, 상기 원인 인자에 영향을 받는 행동의 출현 경향을 출현 경향 취득 수단에 의해 취득하고, 출현 경향 취득 수단이 취득한 2개 이상의 행동에 대응하는 출현 경향에서, 동일 그룹이 되는 출현 경향을 출현 경향 비교 수단에 의해 비교하며, 출현 경향 비교 수단에 의한 출현 경향 비교 결과에 기초하여 하나의 행동을 행동 선택 수단에 의해 선택하고, 행동 선택 수단이 선택한 행동에 기초하여, 동작부를 동작부 제어 수단에 의해 제어하여 상기 선택된 행동을 출현시킴으로써, 원인 인자에 영향을 받아 결정되는 출현 경향에 대하여 비교함으로써, 하나의 행동을 선택하고, 동물 행동학적인 어프로치로서의 행동을 출현시키게 된다.
이러한 로봇 장치의 행동 결정 방법은, 로봇 장치의 외부 또는 내부 정보를 정보 검출 공정에서 검출 수단에 의해 검출하고, 정보 검출 공정에서 검출한 외부또는 내부 정보의 로봇 장치의 행동에 영향을 주는 정보가 되는 원인 인자를 원인 인자 취득 공정에서 취득하며, 원인 인자 취득 공정에서 취득한 원인 인자에 기초하여, 상기 원인 인자에 영향을 받는 행동의 출현 경향을 출현 경향 취득 공정에서 취득하고, 출현 경향 취득 공정에서 취득한 2개 이상의 행동에 대응하는 출현 경향에서, 동일 그룹이 되는 출현 경향을 출현 경향 비교 공정에서 비교하고, 출현 경향 비교 공정에서의 출현 경향의 비교 결과에 기초하여, 하나의 행동을 행동 선택 공정에서 선택하며, 행동 선택 공정에서 선택된 행동에 기초하여, 로봇 장치의 동작부를 동작부 제어 공정에서 제어하여 상기 로봇 장치에 선택된 행동을 출현시킴으로써, 로봇 장치는 원인 인자에 영향을 받아 결정되는 출현 경향에 대하여 비교함으로써, 하나의 행동을 선택하고, 동물 행동학적인 어프로치로서의 행동을 출현시키게 된다.

Claims (20)

  1. 동작부를 제어하여 행동을 출현시키는 로봇 장치에 있어서,
    외부 또는 내부 정보를 검출하는 검출 수단과,
    상기 검출 수단이 검출한 외부 또는 내부 정보로서, 행동에 영향을 주는 정보가 되는 원인 인자를 취득하는 원인 인자 취득 수단과,
    상기 원인 인자 취득 수단이 취득한 원인 인자에 기초하여, 상기 원인 인자에 영향을 받는 행동의 출현 경향을 취득하는 출현 경향 취득 수단과,
    상기 출현 경향 취득 수단이 취득한 2개 이상의 행동에 대응하는 출현 경향에서, 동일 그룹이 되는 출현 경향을 비교하는 출현 경향 비교 수단과,
    상기 출현 경향 비교 수단에 의한 출현 경향의 비교 결과에 기초하여, 하나의 행동을 선택하는 행동 선택 수단과,
    상기 행동 선택 수단이 선택한 행동에 기초하여, 동작부를 제어하여 상기 선택된 행동을 출현시키는 동작부 제어 수단
    을 포함하며,
    상기 행동 선택 수단이 선택한 하나의 행동의 출현 경향은, 상기 행동의 실제의 출현에 의해 변화되는 원인 인자에 따라 변화되는 것을 특징으로 하는 로봇 장치.
  2. 제1항에 있어서,
    상기 원인 인자 취득 수단은 적어도 지각에 관한 원인 인자 및 동기에 관한 원인 인자를 취득하는 것을 특징으로 하는 로봇 장치.
  3. 제2항에 있어서,
    상기 원인 인자 취득 수단은 상기 동기에 관한 원인 인자로서, 적어도 본능적 요소 또는 정서적 요소로 이루어진 것을 취득하는 것을 특징으로 하는 로봇 장치.
  4. 제3항에 있어서,
    상기 본능적 요소가 피로(fatigue), 열 혹은 체내 온도(temperature), 아픔(pain), 식욕 혹은 배고픔(hunger), 목마름(thirst), 애정(affection), 호기심(curiosity), 배설(elimination) 또는 성욕(sexual) 중 적어도 하나이고, 상기 정서적 요소가 행복(happiness), 슬픔(sadness), 분노(anger), 놀람(surprise), 혐오(disgust), 두려움(fear), 초조함(frustration), 지루함(boredom), 졸림(somnolence), 사교성(gregariousness), 끈기(patience), 긴장(tense), 이완(relaxed), 경계(alertness), 죄(guilt), 악의(spite), 성실함(loyalty), 복종성(submission) 또는 질투(jealousy) 중 적어도 하나인 것을 특징으로 하는 로봇 장치.
  5. 제1항에 있어서,
    출현 가능하게 되는 복수의 행동이 계층 구조로서 구축되고, 동일 그룹이 되는 복수의 하위의 행동이 상위의 행동의 구체적인 행동을 나타내는 행동 선택 시스템을 가지며,
    상기 출현 경향 비교 수단은 상기 상위의 행동에 대응되는 그룹 내의 복수의 하위의 행동에 대하여 출현 경향을 비교하고,
    상기 행동 선택 수단은 상기 출현 경향 비교 수단에 의한 출현 경향의 비교 결과에 기초하여, 하나의 하위의 행동을 선택하고,
    상기 동작부 제어 수단은, 상기 행동 선택 수단이 선택한 행동이 최하위의 행동일 때, 상기 최하위의 행동에 기초하여 동작부를 제어하는
    것을 특징으로 하는 로봇 장치.
  6. 제5항에 있어서,
    상기 원인 인자 취득 수단은, 지각에 관한 원인 인자 및 동기에 관한 원인 인자를 취득하고,
    상기 출현 경향 취득 수단은, 적어도 최하위층의 행동에 대해서는 상기 지각에 관한 원인 인자에 기초하여 상기 최하위층의 행동의 출현 경향을 취득하는
    것을 특징으로 하는 로봇 장치.
  7. 제1항에 있어서,
    각 행동에 대응하여, 행동 선택을 위한 복수의 오브젝트를 가지고 있고,
    상기 원인 인자 취득 수단, 상기 출현 경향 취득 수단 및 상기 행동 선택 수단이 각 오브젝트에 의해 실현되는
    것을 특징으로 하는 로봇 장치.
  8. 제1항에 있어서,
    상기 출현 경향 비교 수단은 비교하는 행동의 출현 경향 사이에서 배타 처리를 행하여, 복수의 출현 경향을 비교하는 것을 특징으로 하는 로봇 장치.
  9. 제1항에 있어서,
    상기 검출 수단은 센서인 것을 특징으로 하는 로봇 장치.
  10. 제9항에 있어서,
    상기 원인 인자 취득 수단은 상기 센서가 검출한 외부 또는 내부 정보가 되는 센서 정보로부터, 행동을 평가하기 위한 원인 인자를 취득하는 것을 특징으로 하는 로봇 장치.
  11. 로봇 장치의 외부 또는 내부 정보를 검출 수단에 의해 검출하는 정보 검출 공정과,
    상기 정보 검출 공정에서 검출한 외부 또는 내부 정보의 로봇 장치의 행동에 영향을 주는 정보가 되는 원인 인자를 취득하는 원인 인자 취득 공정과,
    상기 원인 인자 취득 공정에서 취득한 원인 인자에 기초하여, 상기 원인 인자에 영향을 받는 행동 출현 경향을 취득하는 출현 경향 취득 공정과,
    상기 출현 경향 취득 공정에서 취득한 2개 이상의 행동에 대응하는 출현 경향에서, 동일 그룹이 되는 출현 경향을 비교하는 출현 경향 비교 공정과,
    상기 출현 경향 비교 공정에서의 출현 경향의 비교 결과에 기초하여, 하나의 행동을 선택하는 행동 선택 공정과,
    상기 행동 선택 공정에서 선택된 행동에 기초하여, 상기 로봇 장치의 동작부를 제어하여 상기 로봇 장치에 상기 선택된 행동을 출현시키는 동작부 제어 공정
    을 포함하고,
    상기 행동 선택 공정에서 선택된 하나의 행동 출현 경향은 상기 행동의 실제 출현에 의해 변화되는 원인 인자에 따라 변화되는 것을 특징으로 하는 로봇 장치의 행동 결정 방법.
  12. 제11항에 있어서,
    상기 원인 인자 취득 공정에서는 적어도 지각에 관한 원인 인자 및 동기에 관한 원인 인자를 취득하는 것을 특징으로 하는 로봇 장치의 행동 결정 방법.
  13. 제12항에 있어서,
    상기 원인 인자 취득 공정에서는, 상기 동기에 관한 원인 인자로서 적어도 본능적 요소 또는 정서적 요소로 이루어진 것을 취득하는 것을 특징으로 하는 로봇장치의 행동 결정 방법.
  14. 제13항에 있어서,
    상기 본능적 요소가 피로(fatigue), 열 혹은 체내 온도(temperature), 아픔(pain), 식욕 혹은 배고픔(hunger), 목마름(thirst), 애정(affection), 호기심(curiosity), 배설(elimination) 또는 성욕(sexual) 중 적어도 하나이고, 상기 정서적 요소가 행복(happiness), 슬픔(sadness), 분노(anger), 놀람(surprise), 혐오(disgust), 두려움(fear), 초조함(frustration), 지루함(boredom), 졸림(somnolence), 사교성(gregariousness), 끈기(patience), 긴장(tense), 이완(relaxed), 경계(alertness), 죄(guilt), 악의(spite), 성실함(loyalty), 복종성(submission) 또는 질투(jealousy) 중 적어도 하나인 것을 특징으로 하는 로봇 장치의 행동 결정 방법.
  15. 제11항에 있어서,
    상기 로봇 장치가 출현 가능하게 되는 복수의 행동 정보를 계층 구조로서 구축하고, 동일 그룹이 되는 복수의 하위의 행동이 상위의 행동의 구체적인 행동을 나타내는 행동 선택 시스템을 가지며,
    상기 출현 경향 취득 공정에서는, 상기 상위의 행동에 대응되는 그룹 내의 복수의 하위의 행동에 대하여 출현 경향을 비교하고,
    상기 행동 선택 공정에서는, 하위의 행동의 출현 경향의 비교 결과에 기초하여, 하나의 하위의 행동을 선택하고,
    상기 동작부 제어 공정에서는, 상기 행동 선택 공정에서 선택된 행동이 최하위의 행동일 때, 상기 최하위의 행동에 기초하여 로봇 장치의 동작부를 제어하는
    것을 특징으로 하는 로봇 장치의 행동 결정 방법.
  16. 제15항에 있어서,
    상기 원인 인자 취득 공정에서는 지각에 관한 원인 인자 및 동기에 관한 원인 인자를 취득하고,
    상기 출현 경향 취득 공정에서는, 적어도 최하위층의 행동에 대해서는 상기지각에 관한 원인 인자에 기초하여, 상기 최하위층의 행동의 출현 경향을 취득하는 것을 특징으로 하는 로봇 장치의 행동 결정 방법.
  17. 제11항에 있어서,
    로봇 장치가, 각 행동에 대응하여, 행동 선택을 위한 복수의 오브젝트를 가지고 있고,
    상기 원인 인자 취득 공정, 상기 출현 경향 취득 공정 및 상기 행동 선택 공정은 각 오브젝트에 의해 실행되는
    것을 특징으로 하는 로봇 장치의 행동 결정 방법.
  18. 제11항에 있어서,
    상기 출현 경향 비교 공정에서는 비교하는 행동의 출현 경향 사이에서 배타 처리를 하여, 복수의 출현 경향을 비교하는 것을 특징으로 하는 로봇 장치의 행동 결정 방법.
  19. 제11항에 있어서,
    상기 검출 수단이 센서인 것을 특징으로 하는 로봇 장치의 행동 결정 방법.
  20. 제19항에 있어서,
    상기 원인 인자 취득 공정에서는 상기 센서가 검출한 외부 또는 내부 정보가 되는 센서 정보로부터 행동을 평가하기 위한 원인 인자를 취득하는 것을 특징으로 하는 로봇 장치의 행동 결정 방법.
KR1020017015057A 2000-03-24 2001-03-26 로봇 장치의 행동 결정 방법 및 로봇 장치 KR20020026165A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000088596 2000-03-24
JPJP-P-2000-00088596 2000-03-24
PCT/JP2001/002419 WO2001070468A1 (fr) 2000-03-24 2001-03-26 Determination de l'action d'un robot et robot

Publications (1)

Publication Number Publication Date
KR20020026165A true KR20020026165A (ko) 2002-04-06

Family

ID=18604453

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020017015057A KR20020026165A (ko) 2000-03-24 2001-03-26 로봇 장치의 행동 결정 방법 및 로봇 장치

Country Status (5)

Country Link
US (1) US6650965B2 (ko)
EP (1) EP1247624A1 (ko)
KR (1) KR20020026165A (ko)
CN (1) CN1372506A (ko)
WO (1) WO2001070468A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100825719B1 (ko) * 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
KR100827088B1 (ko) * 2006-09-07 2008-05-02 삼성전자주식회사 소프트웨어 로봇 장치
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
US7797079B2 (en) 2005-12-09 2010-09-14 Electronics And Telecommunications Research Institute Apparatus for controlling robot and method thereof
KR101028814B1 (ko) * 2007-02-08 2011-04-12 삼성전자주식회사 소프트웨어 로봇 장치와 그 장치에서 소프트웨어 로봇의행동 발현 방법
US8204839B2 (en) 2007-02-08 2012-06-19 Samsung Electronics Co., Ltd Apparatus and method for expressing behavior of software robot

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
US7813835B2 (en) * 2002-03-15 2010-10-12 Sony Corporation Robot behavior control system, behavior control method, and robot device
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
US7613553B1 (en) * 2003-07-31 2009-11-03 The United States Of America As Represented By The Secretary Of The Navy Unmanned vehicle control system
JP4271193B2 (ja) * 2003-08-12 2009-06-03 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット用制御システム
GB0407260D0 (en) * 2004-03-31 2004-05-05 Ibm Accelerated solution of constraint satisfaction problems by partioning of the variable space
KR100762653B1 (ko) * 2004-03-31 2007-10-01 삼성전자주식회사 캐릭터 육성 시뮬레이션을 제공하는 이동 통신 장치 및 방법
US7747350B2 (en) * 2004-04-16 2010-06-29 Panasonic Corporation Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
JP4179230B2 (ja) * 2004-06-07 2008-11-12 ソニー株式会社 ロボット装置及びその動作制御方法
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
US7047108B1 (en) * 2005-03-01 2006-05-16 Sony Corporation Enhancements to mechanical robot
US8588969B2 (en) * 2005-03-01 2013-11-19 Sony Corporation Enhancements to mechanical robot
JP2007041735A (ja) * 2005-08-01 2007-02-15 Toyota Motor Corp ロボット制御システム
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP5150341B2 (ja) * 2008-04-10 2013-02-20 株式会社東芝 データ作成装置及び方法
US8565922B2 (en) * 2008-06-27 2013-10-22 Intuitive Automata Inc. Apparatus and method for assisting in achieving desired behavior patterns
CN101504546B (zh) * 2008-12-12 2010-04-21 北京科技大学 一种儿童机器人的体位跟踪装置
US20100181943A1 (en) * 2009-01-22 2010-07-22 Phan Charlie D Sensor-model synchronized action system
CN101780675B (zh) * 2010-03-19 2011-08-31 上海大学 双面机器人头部装置
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US8762305B1 (en) * 2010-11-11 2014-06-24 Hrl Laboratories, Llc Method and system for dynamic task selection suitable for mapping external inputs and internal goals toward actions that solve problems or elicit rewards
CN102063640B (zh) * 2010-11-29 2013-01-30 北京航空航天大学 基于效用差分网络的机器人行为学习模型
FR2969026B1 (fr) * 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation
CN103179157A (zh) * 2011-12-22 2013-06-26 张殿礼 一种智能网络机器人及控制方法
JP2013146310A (ja) * 2012-01-17 2013-08-01 Sharp Corp 自走式電子機器
WO2014049953A1 (ja) * 2012-09-28 2014-04-03 パナソニック株式会社 行動傾向の特定方法および行動傾向の特定システム
US9324245B2 (en) * 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings
US9211645B2 (en) * 2012-12-13 2015-12-15 Korea Institute Of Industrial Technology Apparatus and method for selecting lasting feeling of machine
CN103752019A (zh) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 娱乐机器犬
CN103752018A (zh) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 娱乐机器猩猩
US9498882B2 (en) * 2014-06-12 2016-11-22 Play-i, Inc. System and method for reinforcing programming education through robotic feedback
CN104554510B (zh) * 2015-01-04 2017-01-11 武汉理工大学 带有柔性结构的仿生机器狗
CN107291654A (zh) * 2016-03-31 2017-10-24 深圳光启合众科技有限公司 机器人的智能决策系统和方法
JP6495486B2 (ja) * 2016-05-20 2019-04-03 Groove X株式会社 自律行動型ロボット及びコンピュータプログラム
CN105945949A (zh) * 2016-06-01 2016-09-21 北京光年无限科技有限公司 面向智能机器人的信息处理方法及系统
WO2017212723A1 (ja) * 2016-06-06 2017-12-14 ソニー株式会社 仮想生物制御システムおよび仮想生物制御方法
JP6761598B2 (ja) * 2016-10-24 2020-09-30 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
WO2018157355A1 (zh) * 2017-03-02 2018-09-07 深圳市爱维尔智能科技有限公司 一种人型智能机器人及人机交流系统
US20190061617A1 (en) * 2017-08-29 2019-02-28 GM Global Technology Operations LLC Audio Control Systems And Methods Based On Driver Helmet Use
US10635102B2 (en) * 2017-10-17 2020-04-28 Steering Solutions Ip Holding Corporation Driver re-engagement assessment system for an autonomous vehicle
CN107598928B (zh) * 2017-10-25 2019-11-12 中国科学院沈阳自动化研究所 基于语义模型的相机与机器人控制系统及其自动适配方法
US10754318B2 (en) * 2017-12-21 2020-08-25 X Development Llc Robot interaction with objects based on semantic information associated with embedding spaces
CN109991973A (zh) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 一种机器人运动控制方法、装置以及机器人
US11097418B2 (en) 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
US20200022335A1 (en) * 2018-07-18 2020-01-23 Yuan Qing Wu Dog's play partner AI dog

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4657104A (en) * 1983-07-23 1987-04-14 Cybermation, Inc. Concentric shaft mobile base for robots and the like
US5742738A (en) * 1988-05-20 1998-04-21 John R. Koza Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
JPH0876810A (ja) 1994-09-06 1996-03-22 Nikon Corp 強化学習方法及び装置
JP3413694B2 (ja) 1995-10-17 2003-06-03 ソニー株式会社 ロボット制御方法およびロボット
US5963712A (en) * 1996-07-08 1999-10-05 Sony Corporation Selectively configurable robot apparatus
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JP3761286B2 (ja) 1997-06-02 2006-03-29 富士通株式会社 ロボット制御方法、制御装置、記憶媒体及びロボット
JP3178393B2 (ja) 1997-11-11 2001-06-18 オムロン株式会社 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100825719B1 (ko) * 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
US7778730B2 (en) 2005-12-09 2010-08-17 Electronics And Telecommunications Research Institute Robot for generating multiple emotions and method of generating multiple emotions in robot
US7797079B2 (en) 2005-12-09 2010-09-14 Electronics And Telecommunications Research Institute Apparatus for controlling robot and method thereof
KR100827088B1 (ko) * 2006-09-07 2008-05-02 삼성전자주식회사 소프트웨어 로봇 장치
US7890446B2 (en) 2006-09-07 2011-02-15 Samsung Electronics Co., Ltd. Software robot apparatus
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
KR101028814B1 (ko) * 2007-02-08 2011-04-12 삼성전자주식회사 소프트웨어 로봇 장치와 그 장치에서 소프트웨어 로봇의행동 발현 방법
US8204839B2 (en) 2007-02-08 2012-06-19 Samsung Electronics Co., Ltd Apparatus and method for expressing behavior of software robot

Also Published As

Publication number Publication date
CN1372506A (zh) 2002-10-02
WO2001070468A1 (fr) 2001-09-27
US20020156751A1 (en) 2002-10-24
US6650965B2 (en) 2003-11-18
EP1247624A1 (en) 2002-10-09

Similar Documents

Publication Publication Date Title
KR20020026165A (ko) 로봇 장치의 행동 결정 방법 및 로봇 장치
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
Blumberg Old tricks, new dogs: ethology and interactive creatures
US6445978B1 (en) Robot device and method for controlling the same
Barto et al. Intrinsically motivated learning of hierarchical collections of skills
US8483873B2 (en) Autonomous robotic life form
KR101137205B1 (ko) 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
Breazeal et al. Toward teaching a robot ‘infant’using emotive communication acts
KR20020008848A (ko) 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
JP2005193331A (ja) ロボット装置及びその情動表出方法
US6711467B2 (en) Robot apparatus and its control method
JP2001191281A (ja) 編集装置、編集方法及び記録媒体
JP2006110707A (ja) ロボット装置
US20080058988A1 (en) Robots with autonomous behavior
JP3558222B2 (ja) ロボットの行動制御システム及び行動制御方法、並びにロボット装置
EP1956529A2 (en) Method and apparatus for learning behavior in software robot
JP4296736B2 (ja) ロボット装置
JP2001334482A (ja) ロボット装置及びロボット装置の行動決定方法
KR20020067696A (ko) 로봇 장치와 정보 표시 시스템 및 정보 표시 방법
Krichmar et al. Design principles for neurorobotics
Fujita How to make an autonomous robot as a partner with humans: design approach versus emergent approach
JP2001157980A (ja) ロボット装置及びその制御方法
Policastro et al. Learning of shared attention in sociable robotics
Blumberg D-learning: what learning in dogs tells us about building characters that learn what they ought to learn

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid