KR20020067699A - 로봇 장치 및 로봇 장치의 행동 제어 방법 - Google Patents

로봇 장치 및 로봇 장치의 행동 제어 방법 Download PDF

Info

Publication number
KR20020067699A
KR20020067699A KR1020027007499A KR20027007499A KR20020067699A KR 20020067699 A KR20020067699 A KR 20020067699A KR 1020027007499 A KR1020027007499 A KR 1020027007499A KR 20027007499 A KR20027007499 A KR 20027007499A KR 20020067699 A KR20020067699 A KR 20020067699A
Authority
KR
South Korea
Prior art keywords
behavior
internal state
information acquisition
action
learning
Prior art date
Application number
KR1020027007499A
Other languages
English (en)
Other versions
KR100864339B1 (ko
Inventor
마사히로 후지따
쯔요시 다까기
리까 호리나까
준 요꼬노
가브리엘 코스타
히데끼 시모무라
가쯔끼 미나미노
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20020067699A publication Critical patent/KR20020067699A/ko
Application granted granted Critical
Publication of KR100864339B1 publication Critical patent/KR100864339B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33053Modular hardware, software, easy modification, expansion, generic, oop
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33056Reinforcement learning, agent acts, receives reward, emotion, action selective
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35453Voice announcement, oral, speech input
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

로봇 장치는 지각부(120)에 의해 취득된 정보 등에 기초하여, 감정부(130)에서의 정서 등을 변화시킴으로써, 자율 행동으로서의 정보 획득의 행동을 표출시킨다. 또한, 로봇 장치는 언어 획득 행동을 하도록 하는 행동 제어 수단이나 의미 획득 수단을 포함한다. 또한, 로봇 장치는 자신의 학습 대상물을 가리키는 행동 제어를 하는 제어 수단을 포함한다. 또한, 로봇 장치는 대상물에 기초하는 내부 상태의 변화와 대상물을 관련시켜 기억 수단에 기억한다.

Description

로봇 장치 및 로봇 장치의 행동 제어 방법{ROBOT DEVICE AND BEHAVIOR CONTROL METHOD FOR ROBOT DEVICE}
최근, 외관 형상이 개 등의 동물을 모방하여 형성된 로봇 장치가 제공되고 있다. 이 로봇 장치는, 예를 들면 외부로부터의 정보나 내부의 상태(예를 들면, 감정 상태) 등에 따라 동물과 같이 행동한다. 그리고, 이러한 로봇 장치에는 볼을 차는 등의 행동을 하는 것이 있다. 또한, 이러한 로봇 장치에는 학습 기능을 갖춘 것도 있다. 예를 들면, 학습 기능으로서는 언어 학습 기능을 들 수 있다.
그런데, 패트형의 로봇 장치에서의 하나의 궁극적인 목표는 살아 있는 듯한(Life-like) 로봇 장치를 구성하는 것이다. 이것은 다시 말하면, 오픈-엔디드(OPEN-ENDED) 시스템을 구축하는 것이라고 할 수 있다.
종래에는, 어떻게 복잡도를 증가시켜 보일까 등의 살아 있는 듯한(Life-like) 로봇 장치를 구성한다는 목표에 근접하고 있다. 그 중에는 학습이나 성장과 같은 요소도 고려되어 있다.
그러나, 그 실장은 행동 생성을 위해서 고정적으로 설정하고 있는 확률적 스테이트 머신의 확률을 강화 학습에 의해 변경 혹은 스테이트 머신 전체의 교환에 의해 실현하고 있다.
행동의 생성 빈도나 그 패턴을 사용자나 외계와의 상호 작용(interaction)에 의해 변화하여, 로봇 장치가 갖는 복잡도를 증가시키고는 있지만, 설계자(프로그래머)가 처음에 상정한 행동, 반응을 넘어서는 것은 아니다. 또한, 로봇 장치에 의해 인식 가능해지는 대상물은 한정적인 것으로 되어 있으며, 이에 따라 프로그래머가 설정한 이외의 것을 인식할 수는 없다. 이들은 미지 자극에 대하여 어떻게 행동할 것인지를 결정하는 능력이 결여되어 있는 것을 의미한다.
설계자의 설정을 초월하는 오픈-엔디드(OPEN-ENDED) 시스템을 만들기 위해서 필요한 것은 이하와 같다.
(1) 미지 자극을 인식할 수 있는 능력
(2) 새로운 행동을 창출하는 능력
(3) 미지 자극에 대한 적절한 행동을 선택하는 능력
또한, 패트형의 로봇 장치인 것을 고려한 경우, 인간과 상호 작용하는 능력은 특히 중요하다. 다양한 미지의 사항을 학습하는 경우도, 인간과의 상호 작용을 통하여 학습하는 것이 많은 것도 사실이다.
인간과의 상호 작용에 있어서 가장 중요시하는 것이 언어에 의한 커뮤니케이션이다. 상술한 (1)의 미지 자극을 인식하는 능력에 관해서는, 적절한 카테고리 분류와 그 심볼(Symbol)로서의 이름을 획득하는 것이나, 그 행동의 이름을 획득하는 것이 그 첫걸음이라고 생각된다. 이것은 소위 언어 획득이라고 하는 연구 분야이지만, 특히 이들의 심볼은 물리적으로 관련짓거나 혹은 접지(Ground)하는 것이 중요하다고 지적되고 있다.
이에 관해서는, 예를 들면, Kaplan에 의한 보고(Kaplan, F. Talking AIBO: First experimentation of verbal interactions with an autonomous four-legged robot. In proceedings of the CELE-Twente workshop on interacting agents, October, 2000; 이하, 문헌 1이라고 함), Roy 등에 의한 보고(Roy, D. and Pent land A. Learning words from natural audio-visual input, in proceedings of International Conference on Spoken Language Processing, 1998; 이하, 문헌 2라고 함), 혹은 Steels에 의한 보고(Steels, L. Perceptually Grounded Meaning Creation, In proceedings of the International Conference on Multi-Agent Systems, 1996; 이하, 문헌 3이라고 함)로 들 수 있다.
또한, 상술한 (2)의 행동 획득에 관해서는, 모방(imitation)에 의한 것, 보강 학습(reinforcement learning)에 의한 것, Evolutionary Computing에 의한 것 등이 있다.
이것에 관해서는, Damasio에 의한 보고(Damasio, A. Descartes' Error: Emotion, Reason, and the Human Brain, Putman Publishing Group, 1994; 이하, 문헌 4라고 함)나 Mataric에 의한 보고(Mataric, M. , Sensory-motor primitives as a basis for imitation: Linking perception to action and biology to robotics, Imitation in Animals and Artifacts, C. Nehniv and K. Dautenhalm(eds), The MIT Press, 2000; 이하, 문헌 5라 함) 등으로 예를 들 수 있다.
그러나, 상술한 (3)의 미지 자극에 대한 적절한 행동에 관해서는, 실세계에서는 매우 원시적인 것이 보고되어 있을 뿐이다. 혹은 가상적인 세계에서 몇몇 관련되는 것이 있을 뿐이다.
앞서 설명한 (3)이 의미하는 것은, 그 물체가 로봇 장치에 대하여 어떠한 의미를 갖는 것인지를 어떻게 하여 획득하는지에 있다. 예를 들면, 그것이 음식물인지, 장난감인지, 위험한 것인지 등이다. 이를 위해서는 인식 대상물을 물리적으로 관련시키거나 혹은 접지(ground)하는 것뿐만 아니라, 로봇 장치의 내적 상태에 어떻게 영향을 미칠지, 즉 내적 상태(예를 들면, primary emotion, secondary emotion 등)에 관련시키는(ground) 것이 필요하다.
<발명의 개시>
본 발명은 상술한 실정을 감안하여 이루어진 것으로, 보다 살아 있는 듯한(Life-like) 것에 근접한 로봇 장치 및 그와 같은 로봇 장치의 행동 제어 방법을 제공하는 것을 목적으로 한다.
본 발명에 따른 로봇 장치는, 상술한 과제를 해결하기 위해서, 자율 행동의 하나의 행동으로서 정보 획득 행동을 시키는 행동 제어 수단을 포함한다. 이러한 구성을 구비하는 로봇 장치는 자율 행동의 하나의 행동으로서 정보 획득 행동을 표출한다.
또한, 본 발명에 따른 로봇 장치의 행동 제어 방법은 상술한 과제를 해결하기 위해서, 로봇 장치의 자율적 행동의 하나의 행동으로서 정보 획득 행동을 시킨다. 이러한 로봇 장치의 행동 제어 방법에 의해, 로봇 장치는 자율적 행동의 하나의 행동으로서 정보 획득 행동을 표출한다.
또한, 본 발명에 따른 로봇 장치는 상술한 과제를 해결하기 위해서, 대상물의 의미를 획득하는 의미 획득 수단을 포함한다. 이러한 구성을 구비하는 로봇 장치는 대상물의 의미를 획득한다.
또한, 본 발명에 따른 로봇 장치의 행동 제어 방법은 상술한 과제를 해결하기 위해서, 내부 상태에 기초하여 행동을 하고 있는 로봇 장치가 대상물에 대한 행동을 했을 때의 내부 상태의 변화를 해당 대상물의 의미로서 획득한다.
이러한 로봇 장치의 행동 제어 방법에 의해, 로봇 장치는 내부 상태에 기초하여 행동을 하고, 대상물에 대한 행동을 했을 때의 내부 상태의 변화를 해당 대상물의 의미로서 획득한다.
또한, 본 발명에 따른 로봇 장치는 상술한 과제를 해결하기 위해서, 음성 입력 수단과, 발화했을 때의 단어 계열의 특징량에 기초하여 구분지어진 복수의 단어 계열 특징 모델과, 음성 입력 수단에서 이루어진 발화 입력을 단어 계열 특징 모델에 기초하여 평가하는 발화 입력 평가 수단과, 발화 입력 평가 수단의 평가치에 기초하여 발화 입력의 단어 계열을 특정하는 단어 계열 특정 수단을 포함한다.
이러한 구성을 구비하는 로봇 장치는 음성 입력 수단에서 이루어진 발화 입력을 발화했을 때의 단어 계열의 특징량에 기초하여 구분지어진 복수의 단어 계열 특징 모델에 기초하여 발화 입력 평가 수단에 의해 평가하고, 발화 입력 평가 수단의 평가치에 기초하여 발화 입력의 단어 계열을 단어 계열 특정 수단에 의해 특정한다. 이에 따라, 로봇 장치는 입력된 발화를 최적의 단어 계열로서 특정한다.
또한, 본 발명에 따른 로봇 장치의 행동 제어 방법은 상술한 과제를 해결하기 위해서, 음성 입력 공정과, 음성 입력 공정에서 이루어진 발화 입력을 발화했을 때의 단어 계열의 특징량에 기초하여 구분된 복수의 단어 계열 특징 모델에 기초하여 평가하는 발화 입력 평가 공정과, 발화 입력 평가 공정에서 얻은 평가치에 기초하여, 발화 입력의 단어 계열을 특정하는 단어 계열 특정 공정을 갖는다. 이러한 로봇 장치의 행동 제어 방법에 의해, 로봇 장치는 입력된 발화를 최적의 단어 계열로서 특정한다.
또한, 본 발명에 따른 로봇 장치는 상술한 과제를 해결하기 위해서, 자신의 학습 대상물을 지시하는 행동 제어를 하는 제어 수단을 포함한다. 이러한 구성을 구비한 로봇 장치는 자신의 학습 대상물을 지시하는 행동을 한다.
또한, 본 발명에 따른 로봇 장치의 행동 제어 방법은, 상술한 과제를 해결하기 위해서, 자율 행동하는 로봇 장치가 자신의 학습 대상물을 가리키도록 로봇 장치의 행동을 제어한다. 이러한 로봇 장치의 행동 제어 방법에 의해 로봇 장치는 자신의 학습 대상물을 가리키는 행동을 한다.
또한, 본 발명에 따른 로봇 장치는, 상술한 과제를 해결하기 위해서, 대상물을 검출하는 센서와, 센서로부터의 입력 신호를 평가하는 지각용 평가부와, 지각용 평가부의 평가 결과가 입력되고, 해당 평가 결과에 기초하여 변화하는 의사적 내부 상태를 관리하는 내부 상태 관리부와, 대상물과 해당 대상물에 기초하는 내부 상태의 변화와의 관계를 기억하는 기억 수단을 포함한다.
이러한 구성을 구비하는 로봇 장치는 대상물이 검출되었을 때에, 검출된 대상물에 기초하는 상기 내부 상태의 변화와 상기 대상물을 관련시켜 상기 기억 수단에 기억한다.
또한, 본 발명에 따른 로봇 장치의 행동 제어 방법은, 상술한 과제를 해결하기 위해서, 대상물을 검출하는 센서로부터의 입력 신호를 평가하는 지각 평가 공정과, 지각 평가 공정에서의 평가 결과에 기초하여 변화하는 의사적 내부 상태를 관리하는 내부 상태 관리 공정과, 대상물과 해당 대상물에 기초하는 내부 상태의 변화와의 관계를 기억 수단에 기억하는 기억 공정을 갖는다. 이러한 로봇 장치의 행동 제어 방법에 의해, 로봇 장치는 대상물이 검출되었을 때에, 검출된 대상물에 기초하는 상기 내부 상태의 변화와 상기 대상물을 관련시켜 상기 기억 수단에 기억한다.
본 발명의 또 다른 목적, 본 발명에 의해 얻어지는 구체적인 이점은 이하에 설명되는 실시예의 설명으로부터 한층 명백해질 것이다.
본 발명은 로봇 장치나 그와 같은 로봇 장치의 행동 제어 방법에 관한 것이다.
도 1은 본 발명의 실시 형태인 로봇 장치의 외관 구성을 도시하는 사시도.
도 2는 상술한 로봇 장치의 회로 구성을 도시하는 블록도.
도 3은 상술한 로봇 장치의 소프트웨어 구성을 도시하는 블록도.
도 4는 상술한 로봇 장치의 소프트웨어 구성에서의 미들웨어층의 구성을 도시하는 블록도.
도 5는 상술한 로봇 장치의 소프트웨어 구성에서의 어플리케이션층의 구성을 도시하는 블록도.
도 6은 상술한 어플리케이션층의 행동 모델 라이브러리의 구성을 도시하는 블록도.
도 7은 로봇 장치의 행동 결정을 위한 정보가 되는 유한 확률 오토마톤을 설명하기 위해서 사용한 도면.
도 8은 유한 확률 오토마톤의 각 노드에 준비된 상태 천이표를 도시하는 도면.
도 9는 행동을 선택하는 구성부를 도시하는 블록도.
도 10은 지각에 의해 행동을 선택하는 구성부를 도시하는 블록도.
도 11은 서브 시스템의 구체예를 도시하는 도면.
도 12는 행동을 선택하는 구성의 보다 구체적인 구성부를 도시하는 블록도.
도 13은 로봇 장치를 포함하는 네트워크 시스템의 구성을 도시하는 도면.
도 14는 로봇 장치가 공동주의에 의해 정보 획득 행동 또는 정보 확인 행동을 표출하기까지의 일련의 수순을 설명하는 흐름도.
도 15A 및 도 15B는 임의의 단일색으로 이루어지는 입력 화상의 컬러 세그먼테이션에 대한 설명에 사용한 도면.
도 16A 및 도 16B는 사람이 포함된 입력 화상의 컬러 세그먼테이션에 대한 설명에 사용한 도면.
도 17은 컬러 세그먼테이션의 클러스터링의 설명에 사용한 도면.
도 18A 및 도 18B는 입력 화상의 클러스터링의 모습을 도시하는 도면.
도 19는 컬러 세그먼테이션에 의해 추출된 외형 분석의 결과를 도시하는 도면.
도 20은 발화 인식을 실현하는 구성부를 도시하는 블록도.
도 21은 미지어 입력용 HMM의 구성예를 도시하는 도면.
도 22는 발화 인식의 결과를 도시하는 도면.
도 23은, 내부 상태에 관한 정보를 도시하는 도면이다.
도 24는 가상적인 위와 가상적인 방광 등의 관계를 도시하는 도면.
도 25는 학습용 메모리의 구성을 도시하는 블록도.
도 26은 외부 자극, 내부 상태에 기초하는 정보로부터, 공동주의에 의한 정보 획득 행동 또는 정보 확인 행동을 표출하기까지의 처리를 도시하는 도면.
<발명을 실시하기 위한 최량의 형태>
이하, 본 발명의 실시 형태에 대하여 도면을 이용하여 상세히 설명한다. 이 실시 형태는 주위 환경(혹은 외부 자극)이나 내부 상태에 따라 자율 행동을 하는 자율형의 로봇 장치이다.
실시 형태에서는, 우선 로봇 장치의 구성에 대하여 설명하고, 그 후 로봇 장치에서의 본 발명의 적용 부분에 대하여 상세히 설명한다.
(1) 본 실시 형태에 의한 로봇 장치의 구성
도 1에 도시한 바와 같이, 「개」 등의 동물을 모방한 형상의 소위 패트형 로봇으로서, 동체부 유닛(2)의 전후 좌우에 각각 다리부 유닛(3A, 3B, 3C, 3D)이 연결됨과 함께, 동체부 유닛(2)의 전단부 및 후단부에 각각 머리부 유닛(4) 및 꼬리부 유닛(5)이 연결되어 구성된다.
동체부 유닛(2)에는 도 2에 도시한 바와 같이, CPU(Central Processing Unit; 10), DRAM(Dynamic Random Access Memory; 11), 플래시 ROM(Read Only Memory; 12), PC(Personal Computer) 카드 인터페이스 회로(13) 및 신호 처리 회로(14)가 내부 버스(15)를 통해 서로 접속됨으로써 형성된 컨트롤부(16)와, 이 로봇 장치(1)의 동력원으로서의 배터리(17)가 수납되어 있다. 또한, 동체부 유닛(2)에는 로봇 장치(1)의 방향이나 움직임의 가속도를 검출하기 위한 각속도 센서(18) 및 가속도 센서(19) 등도 수납되어 있다.
또한, 머리부 유닛(4)에는 외부의 상황을 촬상하기 위한 CCD(Charge Coupled Device) 카메라(20)와, 사용자로부터의 「쓰다듬는다」나 「때린다」와 같은 물리적인 행위에 의해 받은 압력을 검출하기 위한 터치 센서(21)와, 전방에 위치하는 물체까지의 거리를 측정하기 위한 거리 센서(22)와, 외부음을 집음하기 위한 마이크로폰(23)과, 울음소리 등의 음성을 출력하기 위한 스피커(24)와, 로봇 장치(1)의 「눈」에 상당하는 LED(Light Emitting Diode)(도시하지 않음) 등이 각각 소정 위치에 배치되어 있다.
또한, 각 다리부 유닛(3A∼3D)의 관절 부분이나 각 다리부 유닛(3A∼3D) 및 동체부 유닛(2)의 각 연결 부분, 머리부 유닛(4) 및 동체부 유닛(2)의 연결 부분, 및 꼬리부 유닛(5)의 꼬리(5A)의 연결 부분 등에는 각각 자유도수분의 액튜에이터(251∼25n) 및 전위차계(261∼26n)가 배치되어 있다. 예를 들면, 액튜에이터(251∼25n)는 서보 모터를 구성으로서 갖고 있다. 서보 모터의 구동에 의해,다리부 유닛(3A∼3D)이 제어되어 목표의 자세 혹은 동작으로 천이한다.
그리고, 이들 각속도 센서(18), 가속도 센서(19), 터치 센서(21), 거리 센서(22), 마이크로폰(23), 스피커(24) 및 각 전위차계(261∼26n) 등의 각종 센서와 LED 및 각 액튜에이터(251∼25n)는 각각 대응하는 허브(271∼27n)를 통해 컨트롤부(16)의 신호 처리 회로(14)와 접속되고, CCD 카메라(20) 및 배터리(17)는 각각 신호 처리 회로(14)와 직접 접속된다.
신호 처리 회로(14)는 상술한 각 센서로부터 공급되는 센서 데이터나 화상 데이터 및 음성 데이터를 순차적으로 취득하여, 이들을 각각 내부 버스(15)를 통해 DRAM(11) 내의 소정 위치에 순차적으로 저장한다. 또한 신호 처리 회로(14)는 이와 함께 배터리(17)로부터 공급되는 배터리 잔량을 나타내는 배터리 잔량 데이터를 순차적으로 취득하고, 이것을 DRAM(11) 내의 소정 위치에 저장한다.
이와 같이 하여 DRAM(11)에 저장된 각 센서 데이터, 화상 데이터, 음성 데이터 및 배터리 잔량 데이터는, 그 후 CPU(10)가 로봇 장치(1)의 동작 제어를 행할 때에 이용된다.
실제로 CPU(10)는 로봇 장치(1)의 전원이 투입된 초기 시에, 동체부 유닛(2)의 도시하지 않은 PC 카드 슬롯에 장전된 메모리 카드(28) 또는 플래시 ROM(12)에 저장된 제어 프로그램을 PC 카드 인터페이스 회로(13)를 통해 또는 직접 판독하고, 이것을 DRAM(11)에 저장한다.
또한, CPU(10)는, 그 후 상술한 바와 같이 신호 처리 회로(14)로부터DRAM(11)에 순차적으로 저장되는 각 센서 데이터, 화상 데이터, 음성 데이터 및 배터리 잔량 데이터에 기초하여 자기 및 주위의 상황이나 사용자로부터의 지시 및 행위의 유무 등을 판단한다.
또한, CPU(10)는 이 판단 결과 및 DRAM(11)에 저장된 제어 프로그램에 기초하여 후속하는 행동을 결정함과 함께, 해당 결정 결과에 기초하여 필요한 액튜에이터(251∼25n)를 구동시킴으로써, 머리부 유닛(4)을 상하 좌우로 흔들거나 꼬리부 유닛(5)의 꼬리(5A)를 움직이거나 각 다리부 유닛(3A∼3D)을 구동시켜 보행시키는 등의 행동을 행하게 한다.
또한, 이 때 CPU(10)는 필요에 따라 음성 데이터를 생성하고, 이것을 신호 처리 회로(14)를 통해 음성 신호로서 스피커(24)에 전송함으로써 해당 음성 신호에 기초하는 음성을 외부에 출력시키거나 상술한 LED를 점등, 소등 또는 점멸시킨다.
이와 같이 하여 로봇 장치(1)에 있어서는 자기 및 주위의 상황이나 사용자로부터의 지시 및 행위에 따라 자율적으로 행동할 수 있도록 이루어져 있다.
(2) 제어 프로그램의 소프트웨어 구성
여기서, 로봇 장치(1)에서의 상술한 제어 프로그램의 소프트웨어 구성은 도 3에 도시한 바와 같다. 도 3에서, 디바이스 드라이버 층(30)은 이 제어 프로그램의 최하위층에 위치하고, 복수의 디바이스 드라이버로 이루어지는 디바이스 드라이버 세트(31)로 구성된다. 이 경우, 각 디바이스 드라이버는 CCD 카메라(20)(도 2)나 타이머 등의 통상의 컴퓨터에서 이용되는 하드웨어에 직접 액세스하는 것이 허용된 오브젝트로, 대응하는 하드웨어로부터의 인터럽트를 받아 처리를 행한다.
또한, 로보틱 서버 오브젝트(32)는 디바이스 드라이버 층(30)의 최하위층에 위치하고, 예를 들면 상술한 각종 센서나 액튜에이터(251∼25n) 등의 하드웨어에 액세스하기 위한 인터페이스를 제공하는 소프트웨어군인 가상 로봇(33)과, 전원의 전환 등을 관리하는 소프트웨어군인 파워 매니저(34)와, 그 밖의 다양한 디바이스 드라이버를 관리하는 소프트웨어군인 디바이스 드라이버 매니저(35)와, 로봇 장치(1)의 기구를 관리하는 소프트웨어군인 디자인된 로봇(36)으로 구성되어 있다.
매니저 오브젝트(37)는 오브젝트 매니저(38) 및 서비스 매니저(39)로 구성된다. 오브젝트 매니저(38)는 로보틱 서버 오브젝트(32), 미들웨어층(40) 및 어플리케이션층(41)에 포함되는 각 소프트웨어군의 기동이나 종료를 관리하는 소프트웨어군이며, 서비스 매니저(39)는 메모리 카드(28)(도 2)에 저장된 커넥션 파일에 기술되어 있는 각 오브젝트간의 접속 정보에 기초하여 각 오브젝트의 접속을 관리하는 소프트웨어군이다.
미들웨어층(40)은 로봇틱 서버 오브젝트(32)의 상위층에 위치하고, 화상 처리나 음성 처리 등의 로봇 장치(1)의 기본적인 기능을 제공하는 소프트웨어군으로 구성된다. 또한, 어플리케이션층(41)은 미들웨어층(40)의 상위층에 위치하고, 해당 미들웨어층(40)을 구성하는 각 소프트웨어군에 의해 처리된 처리 결과에 기초하여 로봇 장치(1)의 행동을 결정하기 위한 소프트웨어군으로 구성된다.
또, 미들웨어층(40) 및 어플리케이션층(41)의 구체적인 소프트웨어 구성을각각 도 4에 도시한다.
미들웨어층(40)은 도 4에 도시한 바와 같이, 소음 검출용, 온도 검출용, 밝기 검출용, 음계 인식용, 거리 검출용, 자세 검출용, 터치 센서용, 움직임 검출용 및 색 인식용의 각 신호 처리 모듈(50∼58)과 입력 세만틱스 컨버터 모듈(59) 등을 갖는 인식계(60)와, 출력 세만틱스 컨버터 모듈(68) 및 자세 관리용, 트랙킹용, 모션 재생용, 보행용, 전도 복귀용, LED 점등용 및 음 재생용의 각 신호 처리 모듈(61∼67) 등을 갖는 출력계(69)로 구성된다.
인식계(60)의 각 신호 처리 모듈(50∼58)은 로보틱 서버 오브젝트(32)의 가상 로봇(33)에 의해 DRAM(11)(도 2)으로부터 판독되는 각 센서 데이터나 화상 데이터 및 음성 데이터 중의 대응하는 데이터를 취득하고, 해당 데이터에 기초하여 소정의 처리를 실시하고, 그 처리 결과를 입력 세만틱스 컨버터 모듈(59)에 전송한다. 여기서, 예를 들면, 가상 로봇(33)은 소정의 통신 규약에 의해 신호의 수수 혹은 변환을 하는 부분으로서 구성되어 있다.
입력 세만틱스 컨버터 모듈(59)은 이들 각 신호 처리 모듈(50∼58)로부터 주어지는 처리 결과에 기초하여, 「시끄럽다」, 「덥다」,「밝다」, 「볼을 검출하였다」, 「전도를 검출하였다」, 「쓰다듬었다」, 「맞았다」, 「도미솔의 음계가 들렸다」, 「움직이는 물체를 검출하였다」 또는 「장해물을 검출하였다」 등의 자기 및 주위의 상황이나 사용자로부터의 명령 및 행위를 인식하고, 그 인식 결과를 어플리케이션층(41)(도 2)에 출력한다.
어플리케이션층(41)은 도 5에 도시한 바와 같이, 행동 모델 라이브러리(70),행동 전환 모듈(71), 학습 모듈(72), 감정 모델(73) 및 본능 모델(74)의 5개의 모듈로 구성되어 있다.
행동 모델 라이브러리(70)에는, 도 6에 도시한 바와 같이, 「배터리 잔량이 적어진 경우」, 「전도 복귀한다」, 「장해물을 회피하는 경우」, 「감정을 표현하는 경우」, 「볼을 검출한 경우」 등의 사전에 선택된 몇개의 조건 항목에 각각 대응시켜 각각 독립된 행동 모델(701∼70n)이 설정되어 있다.
그리고, 이들 행동 모델(701∼70n)은 각각 입력 세만특스 컨버터 모듈(59)로부터 인식 결과가 주어졌을 때나 최후의 인식 결과가 주어지고나서 일정 시간이 경과했을 때 등에, 필요에 따라 후술하는 바와 같이 감정 모델(73)에 유지되어 있는 대응하는 정서의 파라미터값이나 본능 모델(74)에 유지되어 있는 대응하는 욕구의 파라미터값을 참조하면서 후속하는 행동을 각각 결정하고, 그 결정 결과를 행동 전환 모듈(71)에 출력한다.
또, 본 실시 형태의 경우, 각 행동 모델(701∼70n)은 다음의 행동을 결정하는 방법으로서, 도 7에 도시한 바와 같은 하나의 노드(상태) NODE0∼NODEn으로부터 다른 어떤 노드 NODE0∼NODEn으로 천이하는지를 각 노드 NODE0∼NODEn에 사이를 접속하는 아크 ARC1∼ARCn에 대하여 각각 설정된 천이 확률 P1∼Pn에 기초하여 확률적으로 결정하는 유한 확률 오토마톤이라고 불리는 알고리즘을 이용한다.
구체적으로, 각 행동 모델(701∼70n)은 각각 자신의 행동 모델(701∼70n)을형성하는 노드 NODE0∼NODEn에 각각 대응시켜, 이들 노드 NODE0∼NODEn마다 도 8에 도시한 바와 같은 상태 천이표(80)를 갖고 있다.
이 상태 천이표(80)에서는, 그 노드 NODE0∼NODEn에서 천이 조건으로 하는 입력 이벤트(인식 결과)가 「입력 이벤트명」의 열에 우선순으로 열기되고, 그 천이 조건에 대한 추가 조건이 「데이터명」 및 「데이터 범위」의 열에서의 대응하는 행에 기술되어 있다.
따라서, 도 8의 상태 천이표(80)에 나타내는 노드 NODE100에서는 「볼을 검출(BALL)」이라는 인식 결과가 주어진 경우에, 해당 인식 결과와 함께 주어지는 그 볼의 「크기(SIZE)」가 「0에서 1000」의 범위인 것이나, 「장해물을 검출(OBSTACLE)」이라는 인식 결과가 주어진 경우에, 해당 인식 결과와 함께 주어지는 그 장해물까지의 「거리(DISTANCE)」가 「0에서 100」의 범위인 것이 다른 노드로 천이하기 위한 조건으로 되어 있다.
또한, 노드 NODE100에서는 인식 결과의 입력이 없는 경우에도, 행동 모델(701∼70n)이 주기적으로 참조하는 감정 모델(73) 및 본능 모델(74)에 각각 유지된 각 정서 및 각 욕구의 파라미터값 중, 감정 모델(73)에 유지된 「기쁨(JOY)」, 「놀람(SURPRISE)」 혹은 「슬픔(SADNESS)」 중 어느 하나의 파라미터값이 「50에서 100」의 범위일 때에는 다른 노드로 천이할 수 있게 된다.
또한, 상태 천이표(80)에서는 「다른 노드로의 천이 확률」의 란에서의 「천이처 노드」의 행에 그 노드 NODE0∼NODEn으로부터 천이할 수 있는 노드명이 열기되어 있음와 함께, 「입력 이벤트명」, 「데이터명」 및 「데이터의 범위」의 열에 기술된 모든 조건이 갖추어졌을 때에 천이할 수 있는 다른 각 노드 NODE0∼NODEn으로의 천이 확률이 「다른 노드로의 천이 확률」의 란 내의 대응하는 개소에 각각 기술되며, 그 노드 NODE0∼NODEn으로 천이할 때에 출력해야 할 행동이 「다른 노드로의 천이 확률」의 란에서의 「출력 행동」의 행에 기술되어 있다. 또, 「다른 노드로의 천이 확률」의 란에서의 각 행의 확률의 합은 100[%]로 되어 있다.
따라서, 도 8의 상태 천이표(80)에 나타내는 노드 NODE100에서는, 예를 들면 「볼을 검출(BALL)」하고, 그 볼의 「SIZE (크기)」가 「0에서 1000」의 범위라는 인식 결과가 주어진 경우에는, 「30[%]」의 확률로 「노드 NODE120(node120)」으로 천이할 수 있고, 그 때 「ACTTON 1」의 행동이 출력되게 된다.
각 행동 모델(701∼70n)은 각각 이러한 상태 천이표(80)로서 기술된 노드 NODE0∼NODEn이 몇개나 연결되도록 하여 구성되어 있고, 입력 세만틱스 컨버터 모듈(59)로부터 인식 결과가 주어질 때 등에, 대응하는 노드 NODE0∼NODEn의 상태 천이표를 이용하여 확률적으로 다음의 행동을 결정하고, 그 결정 결과를 행동 전환하여 모듈(71)에 출력하도록 이루어져 있다.
도 5에 도시하는 행동 전환 모듈(71)은 행동 모델 라이브러리(70)의 각 행동모델(701∼70n)로부터 각각 출력되는 행동 중, 사전에 정해진 우선 순위가 높은 행동 모델(701∼70n)로부터 출력된 행동을 선택하고, 해당 행동을 실행해야 할 취지의 커맨드(이하, 이것을 행동 커맨드라고 함)를 미들웨어층(40)의 출력 세만틱스 컨버터 모듈(68)에 송출한다. 또, 본 실시 형태에 있어서는, 도 6에서 하측에 표기된 행동 모델(701∼70n)만큼 우선 순위가 높게 설정되어 있다.
또한, 행동 전환 모듈(71)은 행동 완료 후에 출력 세만틱스 컨버터 모듈(68)로부터 주어지는 행동 완료 정보에 기초하여, 그 행동이 완료한 것을 학습 모듈(72), 감정 모델(73) 및 본능 모델(74)에 통지한다.
한편, 학습 모듈(72)은 입력 세만틱스 컨버터 모듈(59)로부터 주어지는 인식 결과 중, 「맞았다」나 「쓰다듬었다」 등, 사용자로부터의 행위로서 받은 교시의 인식 결과를 입력한다.
그리고, 학습 모듈(72)은 이 인식 결과 및 행동 전환 모듈(71)로부터의 통지에 기초하여, 「맞았다(꾸중들었다)」일 때에는 그 행동의 발현 확률을 저하시키고, 「쓰다듬었다(칭찬받았다)」일 때에는 그 행동의 발현 확률을 상승시키도록, 행동 모델 라이브러리(70)에서의 대응하는 행동 모델(701∼70n)의 대응하는 천이 확률을 변경한다.
한편, 감정 모델(73)은 「기쁨(joy)」, 「슬픔(sadness)」, 「분노(anger)」, 「놀람(surprise)」, 「혐오(disgust)」 및 「우려(fear)」의 합계 6개의 정서에 대하여, 각 정서에 대하여, 각 정서마다 그 정서의 강도를 나타내는 파라미터를유지하고 있다. 그리고, 감정 모델(73)은 이들 각 정서의 파라미터값을, 각각 입력 세만틱스 컨버터 모듈(59)로부터 주어지는 「맞았다」 및 「쓰다듬었다」 등의 특정한 인식 결과와, 경과 시간 및 행동 전환 모듈(71)로부터의 통지 등에 기초하여 주기적으로 갱신한다.
구체적으로는, 감정 모델(73)은 입력 세만틱스 컨버터 모듈(59)로부터 주어지는 인식 결과와, 그 때의 로봇 장치(1)의 행동과, 전회 갱신하고나서의 경과 시간과 등에 기초하여 소정의 연산식에 의해 산출되는 그 때의 그 정서의 변동량을 ΔE[t], 현재의 그 정서의 파라미터값을 E[t], 그 정서의 감도를 나타내는 계수를 ke로 하여, 수학식 1에 의해 다음의 주기에서의 그 정서의 파라미터값 E[t+1]을 산출하고, 이것을 현재의 그 정서의 파라미터값 E[t]로 치환하도록 하여 그 정서의 파라미터값을 갱신한다. 또한, 감정 모델(73)은 이와 마찬가지로 하여 모든 정서의 파라미터값을 갱신한다.
또, 각 인식 결과나 출력 세만틱스 컨버터 모듈(68)로부터의 통지가 각 정서의 파라미터값의 변동량 ΔE[t]에 어느 정도의 영향을 끼칠지는 사전에 결정되어 있으며, 예를 들면 「맞았다」라는 인식 결과는 「분노」의 정서의 파라미터값의 변동량 ΔE[t]에 큰 영향을 주고, 「쓰다듬었다」라는 인식 결과는 「기쁨」의 정서의 파라미터값의 변동량 ΔE[t]에 큰 영향을 주게 되어 있다.
여기서, 출력 세만틱스 컨버터 모듈(68)로부터의 통지란, 소위 행동의 피드백 정보(행동 완료 정보)로서, 행동의 출현 결과의 정보이고, 감정 모델(73)은 이러한 정보에 의해서도 감정을 변화시킨다. 이것은, 예를 들면 「짖는다」라는 행동에 의해 분노의 감정 레벨이 하강하는 것과 같은 것이다. 또, 출력 세만틱스 컨버터 모듈(68)로부터의 통지는 상술한 학습 모듈(72)에도 입력되고 있으며, 학습 모듈(72)은 그 통지에 기초하여 행동 모델(701∼70n)의 대응하는 천이 확률을 변경한다.
또, 행동 결과의 피드백은 행동 전환 모듈(71)의 출력(감정이 부가된 행동)에 의해 이루어지는 것이어도 된다.
한편, 본능 모델(74)은 「운동욕(exercise)」, 「애정욕(affection)」, 「식욕(appetite)」 및 「호기심(curiosity)」의 상호 독립된 4개의 욕구에 대하여, 이들 욕구마다 그 욕구의 강도를 나타내는 파라미터를 유지하고 있다. 그리고, 본능 모델(74)은, 이들 욕구의 파라미터값을, 각각 입력 세만틱스 컨버터 모듈(59)로부터 주어지는 인식 결과나, 경과 시간 및 행동 전환 모듈(71)로부터의 통지 등에 기초하여 주기적으로 갱신한다.
구체적으로는, 본능 모델(74)은 「운동욕」, 「애정욕」 및 「호기심」에 대해서는, 인식 결과, 경과 시간 및 출력 세만틱스 컨버터 모듈(68)로부터의 통지 등에 기초하여 소정의 연산식에 의해 산출되는 그 때의 그 욕구의 변동량을 ΔI [k], 현재의 그 욕구의 파라미터값을 I[k], 그 욕구의 감도를 나타내는 계수 ki로 하여,소정 주기에서 수학식 2를 이용하여 다음의 주기에서의 그 욕구의 파라미터값 I[k+1]를 산출하고, 이 연산 결과를 현재의 그 욕구의 파라미터값 I[k]로 치환하도록 하여 그 욕구의 파라미터값을 갱신한다. 또한, 본능 모델(74)은 이와 마찬가지로 하여 「식욕」을 제외한 각 욕구의 파라미터값을 갱신한다.
또, 인식 결과 및 출력 세만틱스 컨버터 모듈(68)로부터의 통지 등이 각 욕구의 파라미터값의 변동량 ΔI[k]에 어느 정도의 영향을 줄지는 사전에 결정되고 있고, 예를 들면 출력 세만틱스 컨버터 모듈(68)로부터의 통지는 「피곤함」의 파라미터값의 변동량 ΔI[k]에 큰 영향을 주게 되어 있다.
또, 본 실시 형태에 있어서는, 각 정서 및 각 욕구(본능)의 파라미터값이 각각 0 내지 100까지의 범위에서 변동하도록 규제되어 있으며, 또한 계수 ke, ki의 값도 각 정서 및 각 욕구마다 개별로 설정되어 있다.
한편, 미들웨어층(40)의 출력 세만틱스 컨버터 모듈(68)은 도 4에 도시한 바와 같이, 상술한 바와 같이 하여 어플리케이션층(41)의 행동 전환 모듈(71)로부터 주어지는 「전진」, 「기뻐한다」, 「운다」 또는 「트랙킹(볼을 쫓아간다)」 등의 추상적인 행동 커맨드를 출력계(69)의 대응하는 신호 처리 모듈(61∼67)에 공급한다.
그리고 이들 신호 처리 모듈(61∼67)은, 행동 커맨드가 주어지면 해당 행동커맨드에 기초하여, 그 행동을 행하기 위해 대응하는 액튜에이터(251∼25n)(도 2)에 공급해야 할 서보 명령값이나 스피커(24)(도 2)로부터 출력되는 음의 음성 데이터 또는 「눈」의 LED에 공급하는 구동 데이터를 생성하고, 이들 데이터를 로보틱 서버 오브젝트(32)의 가상 로봇(33) 및 신호 처리 회로(14)(도 2)를 순차적으로 경유하여 대응하는 액튜에이터(251∼25n) 또는 스피커(24) 또는 LED에 순차적으로 송출한다.
이와 같이 하여 로봇 장치(1)에서는, 제어 프로그램에 기초하여, 자기(내부) 및 주위(외부)의 상황이나 사용자로부터의 지시 및 행위에 대응한 자율적인 행동을 행할 수 있도록 이루어져 있다.
(3) 로봇 장치에의 본 발명의 적용
여기서, 설명하는 기술은 본 발명을 로봇 장치에 적용하기 위한 원리가 되는 기술이다.
(3-1) 시스템 구조의 개요
우선, 정서 관련 심볼 획득(Emotinally Gounded Symbol Acquisition)을 실현하는 시스템 구조의 개요를 설명한다.
여기서, 우선 시스템을 구축하는 데 있어서 이하의 문제를 제기하고, 본 발명을 적용한 시스템으로서는 이것을 해결하여 종래에서 달성할 수 없었던, 살아 있는 듯한(Life-like) 로봇 장치의 실현을 도모하고 있다.
(Req-1) 언어 획득 행동을 어떻게 로봇 장치(1)와 같은 자율 행동 시스템에매립할 것인가?
(Req-2) 정서 관련 심볼(Emotionally Grounded Symbol)을 어떻게 하여 구성할 것인가?
(Req-3) 실세계에서의 인식 대상물을 어떻게 카테고리 분류할 것인가?
(Req-4) 로봇 장치(1)와 사람 사이에서 어떻게 하여 동일한 대상물에 주의를 기울이게 할 것인가? 즉, 공동주의(Shared Attention)의 문제를 어떻게 해결할 것인가?
이상과 같이 우선 문제를 제기하였다. 우선, (Req-1)에 대해서는, 동물 행동학적 모델(Ethological Model)에 의한 자율 행동 생성과 물리 관련 심볼 획득(Physically Grounded Symbol Acquisition)의 방법을 통합함으로써 해결하였다.
여기서, 동물 행동학적 모델(Ethological Model)에 의한 자율 행동 생성은, 예를 들면 Arkin 등의 보고(Arkin, R. C., Fujita, M., Takagi, T., and Hasegava, R. Ethological Model …, submitted to ICRA-2001; 이하, 문헌 6이라고 함)나 Bates의 보고(Bates, J. The nature of character in interactive worlds and the oz project. Technical Report CMU-CS-92-200, Carnegie Mellon Unversity, Oct 1992; 이하, 문헌 6이라고 함)에 있어서 제창되어 있는 기술이다.
또한, 물리 관련 심볼 획득(Physically Grounded Symbol Acquisition)의 방법은, 예를 들면 상술한 문헌 1, 문헌 2 및 문헌 3에 있어서 제창되어 있는 기술이다.
특히, 자율 행동의 하나로서 정보에 관한 기아감을 충족시키도록 한 행동으로서의 정보 획득 행동을 정의하고, 음식물을 먹는 행동과 마찬가지인 서브 시스템으로서, 정보를 「먹는다」라는 정보 획득 행동을 실현하고 있다. 획득 대상이라는 정보로서는, 대상물의 호명이나 의미이다.
여기서, 서브 시스템은 로봇 장치(1)의 행동을 규정하는 시스템으로서, 로봇 장치(1)는 이 서브 시스템을 행동의 종류에 따라 복수 종류 가지고 있다. 그리고, 서브 시스템은, 주로 지각이나 내부 상태에 따라 결정하도록 이루어져 있다.
또한, 상술한 (Req-2)의 정서 관련 심볼(Emotionally Grounded Symbol)에 관해서는, 이들 행동의 동기를 생성하고 있는 내부 상태의 변화와 그 때의 입력, 행동을 관련지음으로써 해결한다. 구체적으로는, 입력이 있었을 때의 내부 상태 그 자체가 아니고, 입력에 대한 내부 상태의 변화를 관련지음으로써, 그 대상물의 개체에 대한 의미와 그 내부 상태가 충족되었 때에 정서 상기(想起)와의 관련을 가능하게 하고 있다.
또한, (Req-3)에 관해서는 대상물을 지각(Perception)으로 인식(Categorize)하고, 지각으로서 검출한 색 등의 카테고라이저(Categorizer)로서 통계적인 모델 등을 이용함으로써, 실세계의 인식 대상물을 적절하게 카테고리 분류하고 있다.
예를 들면, 컴퓨터 내에 구축된 가상적(Virtual)인 세계에서 제안되어 있는 El-Nasr 등의 보고(El-Nasr, M. , Loeger, T. , and Yen, J. , PETEEI: A Pet with Evolving Emotionaly Intelligence, in proceedings of International Conference on Autonomous Agents, 2000; 이하, 문헌 8이라고 함)에 있어서 제창되어 있는Synthesis Creatur와의 차이는 로봇 장치가 실세계에서 동작해야만 한다는 점이다. 실세계의 물체에 있어서는, 색이나 형상 등의 것이 각각의 특징 공간에서 연속적으로 분포되어 있다. 또한, 그것을 보는 것 만으로는 현실적으로 어떠한 의미를 갖는 것인지를 사전에 프로그램해두지 않으면 알 수가 없다. 그렇기 때문에, 상술한 (Req-3)에 관해서는 지각(Perception)의 카테고라이저(Categorizer)로서 통계적인 모델 등을 이용하여 해결하였다.
상술한 (Req-4)의 공동주의의 문제에 관해서는, 이 동물 행동학적 모델(Ethological Model)의 행동 선택 중에, 임의의 대상물에 주목한 행동을 취한다고 하는 부분을 이용하여 자연스러운 형태로 실행함으로써 해결하고 있다.
실세계에서의 심볼 획득(Symbol Acquisition)으로 중요한 기능에 Shared Attention(공동주의) 혹은 Joint Attention과 같은 것이 있다. Bruner의 보고(Bruner, J. Learning how to do things with words, in J. Bruner and A. Garton(Eds. ) Human growth and development, Wolfson College Lectures, Claredon Press, 1978; 이하, 문헌 9라고 함)에서는, 공동주의(Shared Attention)는 유아의 학습 과정에서 중요한 기능을 하는 것이 인지 심리학 등으로부터 지적되어 있다. 예를 들면, 손가락으로 가리킨 방향이나 시선의 방향을 유아가 자연스럽게 봄으로써, 가르치는 측과 가르침을 받는 측이 주의를 기울이는 대상물을 공유한다는 능력이다.
이러한 공동주의를 동물 행동학적 모델(Ethological Model)의 행동 선택 중에, 임의의 대상물에 주목한 행동을 취한다는 부분을 이용하여 자연스러운 형태로자율 행동으로 도입하고 있다.
이하, 우선 최초로, 동물 행동학의 연구(Ethological Study)를 고려한 행동 제어(Behavior Control)에 관하여 간단히 설명한다. 예를 들면, 동물 행동학의 동작 제어의 기술로서는 상술한 문헌 6을 예로 들 수 있다.
이어서, 구조 전체와 어떻게 정보 획득 행동을 자율형 로봇 장치(1)의 소프트웨어에 통합할 것인지에 관하여 설명하고, 공동주의에 관한 해결 방법에 대하여 설명한다.
(3-2) 외적 자극과 내적 상태와의 관련화(Fusion of External Stimuli and Internal Variables)
동물 행동학적 모델(Ethological Model)에서의 중요점은 행동이 내부 상태 및 외적 자극의 양자에 의해서 선택된다는 점과, 내부 상태로부터의 동기 부여(Motivation) 생성과 외적 자극으로부터의 지각 자극(Release signal)은 각각 독립적으로 평가되고, 행동 평가치(Behavior Value) 생성 시에 관련화(fusion)된다는 점에 있다. 이에 따라, 내부 상태를 어느 범위 내에 멈추도록 한 호메오스타시스 행동을 생성할 수 있다. 여기서, 호메스타시스 행동이란, 예를 들면 내부 상태를 일정하게 유지하도록 표출되는 행동이다.
도 9에는 임의의 행동에 대하여, 대응하는 내부 상태와 외적 자극을 독립적으로 평가하기 위한 구성을 도시하고 있다. 또한, 도 10에는 호메스타시스 행동을 실현하기 위한 구성으로서, 구체적으로는 행동이 체계적으로 구성되고, 외부 환경을 풀어 외적 자극을 얻고, 내부 상태를 일정하게 유지하는 행동이 선택되기 위한구성을 도시하고 있다.
도 9에 대하여, 섭식 행동(ingestive)의 경우를 예로 들어 설명한다. 동기 부여 생성부(Motivation Creator)(101)는 공복도 등의 내부 상태로부터 섭식 행동의 동기 부여치(motivation value)를 평가하여 출력한다. 한편, 릴리스 메카니즘(release mechanism)(102)은 섭식 행동에 관계하는 외적 자극, 예를 들면 음식물이 있으면 그 섭식 행동의 지각 신호(release signal)를 평가하여 출력한다. 그리고, 동기 부여치(motivation value)와 릴리스 신호 혹은 지각 신호(release signal)는 독립적으로 평가되고 있다.
행동 평가부(Behavior evaluator)(103)에서는, 동기 부여치(motivation value)와 릴리스 신호(release signal)를 평가하고, 그 행동 그 자체의 평가치를 행동 평가치(behavior value)로서 출력한다. 이러한 행동이 복수 존재하고, 각각이 독립적으로 행동 평가치(behavior value)를 계산하고, 후술하는 행동 선택부(Action selection)에 출력한다. 행동 선택부(Action selection)에서는 가장 높은 평가를 준 행동을 선택하고, 그 행동을 실행한다.
여기서, 동기 부여 생성부(motivation creator)(101)를 내부 상태가 적당한 범위에서 벗어난 경우에, 그것을 원래의 범위로 복귀시킬 수 있는 행동으로 하도록 정의시킴으로써, 그 행동의 대상물이 외계에 존재하면 그것을 획득하기 어럽다는 일반적인 행동 정의가 실현되며, 이에 따라 호메오스타시스 행동이 실현되게 된다.
(3-3) 정서 관련 심볼 획득의 구축(Emotionally Grounded Symbol Acquisition Architecture)
정서 관련 심볼 획득(Fmotionally Grounded Symbol Acquisition)에 의해, 자율 행동의 일부로서의 미지의 대상물에 대한 정보 획득 행동을 실현하고 있다. 정서 관련 심볼 획득(Emotionally Grounded Symbol Acquisition)이 자율 행동의 일부로서 실현되는 구성은, 예를 들면 도 12에 도시한 바와 같은 구성이 된다. 이 시스템 구축에서의 포인트는 이하와 같이 된다.
(i) 미지 입력인지 기지 입력인지를 판별할 수 있는 각 채널의 카테고라이저.
(ii) 각 채널의 카테고리 분류의 결과를 내부 상태가 변화하는 타이밍에서 기억하는 연상 기억.
(iii) 내부 상태와 외부 자극의 동물 행동학적 모델(Ethological Model)에 의한 통합.
이상이 시스템 구축에서의 포인트가 된다. 또, 외부 자극이 기지의 자극이면, 통상의 동물 행동학적(Ethological Model)에 의한 호메오스타시스 행동을 기본으로 하는 자율 행동을 유발하도록 하고 있다.
또한, 본 발명을 적용하여 실현한 정서 관련 심볼 획득(Emotionally Grounded Symbol Acquisition)에서는, 그 대상물이 내부 상태의 어떤 것에 대하여 중요한지를 기억하는 것도 특징이며, 이 점에서 통상의 물리 관련 심볼 획득(Physically Grounded Symbol Acquisition)과 크게 다르다.
이와 같이, 정서 관련 심볼 획득(Emotionally Grounded Symbol Acquisition)에서는, 대상물에 정서 관련(Emotionally Grounded) 정보를 관련시켜 두어, 정보로하고 있고, 이와 같이 대상물에 정서를 관련시켜 둠으로써, 새로운 대상물에 대해서도, 어떤 행동(Action)을 취하여야 할 것인지를 릴리스 메카니즘(Release Mechanism)으로 평가하는 것을 가능하게 하고 있다.
또한, 내부 상태의 변화를 대상물과의 관계에서 연상 기억으로서 가짐으로써, 학습 완료된 입력이 제시되었을 때, 연상 기억으로부터 2차 정서(secondary emotion)에 기억하고 있는 내부 상태(internal variables)의 변화를 출력하고, 그에 따라 2차 정서를 생성할 수도 있다. 예를 들면, 기쁨이나 공포 등을 정서(emotion)로서 만들어 낸다.
이에 따라, 대상물 등을 본 것에 대응하여, 정서 표출 행동으로서 표정을 만들거나, 행동 선택에 영향을 미치게 하거나, 동작에 변조를 부여할 수 있게 된다.
(3-4) 정보 획득 행동(Information Eating Behavior)
자율 행동의 일부로서의 정보 획득 행동을 실현하기 위해서, 내부 상태를 나타내는 모델로서, 내부 상태의 인자로서의 정보 획득 욕구에 관련하는 변수(이하, 정보 획득 변수라고 함)를 갖는 서브 시스템(이하, 정보 획득 행동 서브 시스템이라고 함)을 정의한다.
예를 들면, 정보 획득 행동 서브 시스템은 그 정보 획득 변수가 연상 기억이 미지의 입력에 대하여 학습을 행한 경우에 증가하고, 시간과 함께 감소하도록 한 내부 모델로서 정의한다. 이 정보 획득 행동 서브 시스템은, 정보 획득 변수가 결핍 상태가 되면, 정보 획득 행동에 대한 동기 부여(Motivation)를 생성한다.
또한, 이 경우에 있어서, 릴리스 메카니즘(Release Mechanism)은 입력(정보)이 미지의 것이면 릴리스 신호(release signal)를 생성하도록 한다. 이에 따라, 음식물을 먹는 것과 동일하게, 정보를 획득하는 행동을 내부 상태 및 외부 자극의 관련화(fusion)으로서 생성할 수 있게 된다.
정보 획득 행동으로서 표출되는 구체적인 행동으로서는, 전형적인 것으로서, 정보 획득욕이 커지면, 미지의 물체를 찾는 행동을 발생하고, 또한 그에 대하여 "이것은 뭐지?" 등의 질문 행동을 취하는 것 등을 들 수 있다. 그리고, 일반적으로, 이러한 행동은 사용자와의 대화로서 형성되는 것이다.
이러한 시스템을 구축함으로써, 호기심을 베이스로 한 대화에 의한 정보 획득을 실현할 수 있고, 또한 그와 같은 정보 획득 행동이 자율 행동 중에 자연스럽게 매립할 수 있게 된다. 즉, 로봇 장치(1)에 있어서 자율 행동으로서 실현되어 있는 상호 작용이 새로운 요소로서 정보 획득 행동이 실현된다.
(3-5) 공동주의(Shared Attention)
시스템 중에는 Shared Attention 혹은 Joint Attention을 자연스러운 형태로서 매립되어 있다. 시스템 구조에 있어서, 공동주의에 기초하는 정보 획득(Information Eating)의 행동은 이하와 같이 실행된다.
상술된 바와 같이 내부 상태와 외부 자극과의 관련화(fusion)에 의해 정보 획득 행동이 행동 선택부(Action selectjon)(116)에 의해 선택된 것으로 한다.
릴리스 메카니즘(Release Mechanism)(102)이 릴리스 신호를 출력하는 기인이 된 대상물이 정보 획득을 행하는 타깃이다. 또한, 내부 상태의 기아감만으로부터 이 행동이 선택된 것이라고 하면, 탐색이 행해지고, 그 결과로서 어떤 대상물이 정보 획득 행동의 타깃이 된다. 이와 같이 정보 획득을 행하는 타깃이 공동주의(Shared Attention)의 타깃이 된다.
로봇 중심의 경우에는, 즉 내부 상태의 기아감에 기인하는 정보 획득 행동의 경우, 로봇 장치(1)는 그 타깃에 다가가서 손가락으로 가리켜, "이것은 뭐지?"와 같은 질문으로 사람의 주의를 그 대상물에 기울이게 함으로써 공동주의(Shared Attention)가 달성된다.
한편, 사용자가 주도권을 쥐고 있는 경우, 즉, 릴리스 메카니즘(Release Nechanism)(102)이 낸 릴리스 신호를 요인으로서 타깃을 특정하는 경우, 우선 로봇 장치(1)는 음이나 대상물을 움직이게 함으로써, 사용자에게 주의를 재촉하도록 한다. 이에 대응하여, 사용자는 예를 들면 손가락으로 타깃을 가리키면서, "이것은 뭐지?"와 같은 질문을 하는 것이 상정되지만, 로봇 장치(1)에서는 이 손가락이나 질문에 의해 행동 획득 행동이 선택된 경우, 손가락으로 가리켜진 물건을 그 대상물로서 특정한다. 이에 따라, 사용자가 주도권을 쥐고 있는 경우에서도 동일한 대상물에 대한 공동주의(Shared Attention)가 달성된다.
이와 같이, 본 발명에서는 시스템에, 주의가 내부 상태로서 욕심을 내는 것, 혹은 외부 자극이 강한 것에 대하여 기울여진다는 일반적인 사고방식의 일부로서 공동주의(Shared Attention)를 받아들이고 있다.
(3-6) 내부 상태 변화와 정서(INTERNAL VARIABLES AND EMOTIONS)
도 12에 도시한 바와 같이, 감정부(Emotion part)(130)는 크게 나누어, 지각용 내부 상태부(131), 내부 상태부(132) 및 정서부(133)로 구성되어 있다.
첫번째의 내부 상태부(132)는 내부 상태 그 자체의 다이나믹스를 관리하는 부분이다. 여기서 말하는 내부 상태에는, 후술하는 바와 같이 영양소, 수분, 피로, 호기심 등이 의사적으로 변수로서 존재하고 있다(도 23). 단, 이들의 내부 상태는 상술한 것 외에, 생물 또는 동물에게 보이는 다른 내부 상태이어도 된다. 내부 상태부(132)는 그 개체 유지에 필요한 상태를 모니터하고, 그것이 적절한 값으로부터 벗어난 것을 검지한다. 또한, 내부 상태부(132)는 그 내부 상태를 일정하게 유지하기 위해서, 즉 항상성을 유지하기 위해서 필요한 행동에 대한 동기 부여 생성부(Motivation Creator)에 대하여, 내부 상태를 유지하기 위해서 필요한 행동을 재촉하는 신호를 송신하는 부분이다.
두번째의 지각용 내부 상태부(131)는 내부 센서 혹은 외부 센서로부터의 입력을 해석하고, 내부 상태 관리부로 해석 결과를 입력하는 부분이다. 여기서, 센서 신호 해석은 본래의 동물이면, 혈액 중 당분의 비율 등으로부터 검출되는 식사에 관한 정보나 피로에 관한 정보 등에 해당한다. 로봇 장치(1)에 있어서는, 배터리 잔량 해석 등이 그에 해당하지만, 로봇 장치(1)에서는 의사적인 식욕 등을 상정하고, 적당한 행동(Action)을 행함으로써 의사적으로 내부 상태를 일정하게 유지하기 위한 입력 신호를 만들어 내고 있다.
세번째의 정서부(133)는 내부 상태의 변화로부터 유쾌, 불쾌 등을 생성하고, 기쁨, 분노 등에 대응하는 정서(emotions)를 생성하는 부분이다. 이 정서부(133)는 2차 정서라고도 하며, 내부 정서(이것을 1차 정서라고 함)가 만족되고 있는 상태에 의해 유쾌, 불쾌 신호 등을 발생한다. 또한, 정서부(133)에서는, 이 유쾌,불쾌 신호와 각성도, 확신도 등으로부터 소위 기쁨, 슬픔, 분노 등의 정서를 생성한다. 2차 정서는 정서 표출을 위한 동작, 예를 들면 얼굴의 표정 생성이나 그것에 대응하는 LED의 광 패턴 생성 등에 이용된다.
이 내부 상태의 변화는 도 12에 도시한 바와 같이, 학습용 메모리 (Associative Memory)(140)의 학습의 타이밍으로 사용된다. 이것은 즉, 학습은 내부 상태가 크게 변화했을 때에 행한다는 것이다. 또한, 내부 상태와 정서 상태는 각각 행동(Behavior) 생성부의 동기 부여 생성부(Motivation Creator)에 입력되고, 각각의 행동 동기의 기인으로서 이용된다.
(3-7) 미지 자극의 지각(PERCEPTION FOR UNKNOWN STIMULI)
실세계에서의 로봇 장치(1)의 개발에 있어서 「인식」은 큰 과제로 되어 있다. 특히, 실제 환경 하에서의 실시간 인식에서는, 여러가지 요인으로 변화하는 입력을 이미 학습하고 있는 정보와 동일시 할 것인지, 그렇지 않으면 신규한 자극이라고 판단할 것인지가 큰 문제를 생성한다.
최근, 이러한 인식의 분야에서 큰 성과를 얻고 있는 방법으로서, 통계적 패턴 인식(Statistical(or probabilistic) Pattern Classification)이 있다. 이것은 특징 공간에 분포하는 입력 샘플을 리스크 함수 최소화를 통계적 문제로서 다루고, 그를 위한 파라미터를 구하는 인식 방법이다. 후술하는 발화 인식으로서 현재 주류로 되어 있는 Hidden-Markov-Model(이하, HMM이라고 함)도 이 범주의 인식 방법으로서, 또한 화상 인식에서도 대표적인 인식 방법이다.
본 시스템에서는, 이 통계적 패턴 인식 방법을 이용하여 입력이 미지의 오브젝트인지, 그렇지 않으면 기지의 오브젝트인지를 판단한다.
통계적 패턴 인식에서는, 오브젝트가 그 프로토타입인지의 여부를 확률 혹은 우도를 부여하고 있고, 이 확률 혹은 우도를 이용하여 오브젝트가 미지 자극인 것인지 기지의 자극인 것인지의 식별을 행하고 있다. 또한, 임의의 센서 채널의 특징 공간에서의 거리가 가깝고, 이 채널에서만 판별이 곤란한 경우라도 다른 채널을 이용한 경우, 우위인 차가 관측되어, 원래의 공간에서의 식별 파라미터의 조절을 행하는 것 등도 가능하다.
(3-8) 감정이 기억되는 학습용 메모리(ASSOCIATIVE MEMORY WITH EMOTIONS)
학습용 메모리(Associative Memory)는 각 지각용 채널(Perceptual Channel)의 출력에 의해 내부 상태가 변화한 것을 트리거로 학습을 행하기 위한 것이다. 여기서, 학습이란, 구체적으로는 그와 같이 트리거로 된 내부 상태의 변화와, 내부 상태를 변화시킨, 즉 내부 상태로 영향을 준 대상물을 연상 기억하는 것이다.
여기서, 내부 상태의 변화는, 예를 들면 상술한 「(3-6) 내부 상태 변화와 정서(INTERNAL VARIABLES AND EMOTIONS)」에서 설명하였다, 센서 신호 해석에 있어서 실제로 감지할 수 있는 양(관절에서 소비되는 전류 등)과 의사적으로 감지하는 양(의사적인 음식물에 대하여 먹는다는 동작을 하고 있는 것의 검출)을 바탕으로 생기는 것이다. 여기서, 관절에서 소비되는 전류란, 예를 들면 동작된 횟수 등에 의해 결정되는 것으로, 예를 들면 「피곤함」의 요인을 구성한다.
연상으로서는 지각 채널(Perception Channel)으로부터 전송되어 오는 프로토타입(prototype)의 번호와 그 프로토타입(prototype)에 속하는 확률 혹은 우도를바탕으로, 동시에 생성되고 있는 사상의 결부를 학습하고 있다. 여기서 말하는 사상 중에는 행동 생성을 통해 전송되어 오는 대상물에 대한 명칭 등의 소위 물리 관련 심볼(Physically Grounded Symbol)도 포함되어 있으며, 이것도 학습으로서 획득한다.
또한, 동시에 트리거로 되는 내부 상태의 변화와 대상물에 대하여 행한 행동을 동일하게 연상 기억한다. 이에 따라, 그 대상물에 어떠한 행동을 취하면, 어떠한 내부 상태의 변화가 발생할지가 기억되게 된다. 이러한 학습이 정서 관련 심볼(Emotionally Grounded Symbol)의 획득이 된다.
여기서, 정서(Emotion)란, 직접적으로는 내부 상태의 변화이기 때문에 1차 정서라고 칭하는 것이지만, 1차 정서의 변화에 의해 2차 정서를 생기게 할 수 있기 때문에, 공포 등에도 관련화(Grounded)된 심볼(Symbol)이다.
(3-9) 서브 시스템 및 행동(SUBSYSTEMS AND BEHAVIORS)
행동은 도 10에 도시한 바와 같은 분류 가능한 복수의 행동군이 되는 서브 시스템(subsystem)(1151∼115n)에 기초하여 제어되고 있다. 서브 시스템(1151∼115n)은 계층 구조이고 또한 트리 구조를 갖는 것으로, 최상위층이 실제의 서브 시스템이 된다.
예를 들면, 상술한 문헌 6에서 Arkin 등이 보고하고 있는 동물 행동학의 연구에 있어서, canny behavior로서 필요 충분으로 생각되는 서브 시스템을 예를 들고 있다. 문헌 6에서 보고되어 있는 기술의 특징은, 서브 시스템의 하나인 섭식행동(Investigative)을 정보를 먹는다는 행동으로서 정의하고 있는 것이다. 예를 들면, 섭식 행동(ingestive)이라는 서브 시스템은 음식물(전기)을 먹는다는 행동으로서 정의되어 있다. 이에 따라, 이상적으로는 배터리 잔량을 내부 상태로서, 그것을 어느 범위 내에 유지하도록 한 행동을 생성하고, 배터리가 적게 되면, 충전 장소의 탐색, 충전 욕구, 혹은 자동 충전이라는 행동을 생성하는 동기 부여(Motivation)를 생성하는 것이 가능하게 되어 있다.
본 시스템에서는, 이러한 사고방식을 정보 획득의 단계에서 도입하고, 내부 상태의 항목으로서 "신규 정보의 학습량"에 대응하는 것을 설정하고, 시간 등의 인자에 의해, 감소하도록 한 내부 상태의 다이나믹스를 정의하고 있다. 그리고, 이러한 내부 상태의 다이나믹스에서는, 배터리의 경우와 마찬가지로 "학습량"에 대응한 행동을 생성하도록 한다. 즉 예를 들면, 로봇 장치(1)는 "학습량"을 임의의 범위 내에 유지하도록 행동하고, 또한 "학습량"이 적어지면 신규 정보를 획득하기 위해서, 미지 대상물의 탐색, 미지 대상물이 외적 자극으로서 존재하면, 그것에 접근하고, 손가락으로 가리켜, "what is this?(이것은 뭐지?)"와 같은 행동을 하고, 혹은 사람이 발화한 이름을 연상 기억으로 학습한다는 행동을 생성하도록 한다. 여기서, 학습량은, 예를 들면 그 학습 대상물의 특징에 따라 결정되거나, 또한 학습량은 시간 경과적으로 감소하도록 하는 변화량이다.
또한, 만일 대상물의 이름을 학습하였지만, 그것이 내부 상태에 대하여 어떠한 의미가 있는지를 획득하는 행동을 정의할 수도 있다. 이것은 그 대상물에 있는 행동을 실시하고, 내부 상태가 변화했을 때에 그 행동(action)과 내부 상태 변화를연상 학습한다는 것으로 실현할 수 있다.
(4) 실제의 로봇 장치에의 적용(IMPLEMENTATlON)
(4-1) 네발 보행형의 로봇 장치의 구조(Enhanced Four-legged Robot Platform)
상술한 시스템이 실장된 네발 보행형의 로봇 장치(1)에 대하여 설명한다. 도 13에는 로봇 장치(1)를 구성으로서 구비한 네트워크 시스템의 일례를 도시한다.
이 네트워크 시스템에 있어서, 로봇 장치(1)는 무선 LAN용 카드(wireless LANcard)(161)를 이용함으로써, TCP/IP(Transmission Control Protocol/Internet Prorocol)의 프로토콜을 이용하여 네트워크에 접속하고 있다.
로봇 장치(1)는, 예를 들면 MIPS R4XXX의 약 100MIPS의 특성을 갖는 CPU와 16MB의 main memory를 구비하고 있다. 그리고, 이 로봇 장치(1)는 출력으로서 primitive behaviors(basic posture transition, to search an object, to track an object, to close to an object, to kick an object. to eat an object, etc) 등의 실행하는 소프트웨어와 발음 기호 열을 입력으로 하는 Speech의 오브젝트(object)를 구비한다. 또한, 로봇 장치(1)는 눈에 대응하는 LED를 이용하여 몇개의 표정을 만드는 커맨드도 준비되어 있다.
이러한 로봇 장치(1)에 있어서, 상술한 바와 같은 시스템이 구축되어 있고, 로봇 장치(1)는, 예를 들면 자율 행동의 일부로서 정보 획득 행동을 표출한다.
또한, 이러한 로봇 장치(1)가 접속되어 있는 네트워크 시스템에 의해, 워크스테이션(163) 상에서도 로봇 장치(1)에서의 처리와 마찬가지의 처리를 실행할 수있다. 예를 들면, 이에 따라 워크스테이션(163) 상에서, 로봇 장치(1)에서의 동작 확인을 할 수 있게 된다. 워크스테이션(163) 상에서 처리를 행하는 경우에 대해서는 이하와 같이 이루어진다.
로봇 장치(1)는, 입력은 화상 신호를 캡쳐(capture)하고, 무선 LAN용 카드(161)에 의해, 무선 LAN(wireless LAN)를 통해 화상을 액세스 포인트(162)로 송신한다. 그리고, 화상은 액세스 포인트(162)로부터 이더넷(ethernet)을 통해 워크스테이션(163)으로 전송된다.
또한, 이러한 로봇 장치(1)로부터 워크스테이션(163)으로 화상을 전송하는 경우와 마찬가지로, 로봇 장치(1)에서의 관절 각도 검출이나 터치 센서, 가속도 센서 등에 의한 센서 검출 정보가 워크스테이션(163)에 전송된다. 또한, 예를 들면 이와 같이 워크스테이션(163)에서 처리하는 경우에는, 음에 관해서는 로봇 장치(1)의 마이크를 사용하지 않고, 워크스테이션(163)의 마이크로 입력할 수도 있다.
워크스테이션(163) 상에서는, 상술한 화상 등의 입력 신호를 이용하여 상술한 Perception, Evaluation for internal variable, Behavior subsystem, action selection 등을 실행한다. 이들 기능은, 예를 들면 Linux 상에 실장된 OPEN-R(소니 주식회사가 제공하는 시스템)에 의해 워크스테이션 상에도 로봇 장치 내와 동일하게 OPEN-R 오브젝트(OPEN-R objects)를 설계하고, 이들을 네트워크 상에서 자유롭게 결합함으로써 실현된다. 예를 들면, 현재는 Matlab 프로그램과 OPEN-R objects on Linux의 혼재로 동작을 하고 있다.
(4-2) 실제 기기의 기능과 실험 결과(Implemented Functions andExperimental Results)
로봇 장치(1)는, 본 발명이 적용됨으로써, 최종적으로는 자율 행동의 일부로서의 공동주의에 의한 정보 획득 행동 또는 정서 확인 행동을 표출하도록 이루어져 있다. 구체적으로는, 로봇 장치(1)는 도 14에 도시한 바와 같이, 크게 구별하여, 자율 행동(단계 S1), 대상물의 입력(단계 S2) 및 행동 선택(단계 S3)에 단계를 거쳐서, 최종적으로, 공동주의에 의한 정보 획득 행동이나 정보 확인 행동을 표출시킨다(단계 S4). 그리고, 로봇 장치(1)는 이러한 각 단계를 자율 행동의 일부로서 처리한다.
(4-2-1) 지각부(Perception Part)
도 10에 도시한 바와 같이, 지각부(111)는 로봇 장치(1) 내에 구비되어 있다. 구체적으로는, 도 12에 도시한 바와 같이, 지각부(121)는 화상을 지각하기 위한 색 지각부(122) 및 형상 지각부(123)와, 접촉을 지각하는 접촉 지각부(촉각부)(124)와, 음을 지각하는 음성 지각부(125)를 구비하고 있다.
구체적으로는, 색지각부(122)는 대상물의 정보로부터 후술하는 자동 컬러 세그먼테이션을 행하는 부분이고, 형상 지각부(123)는 화상 정보에 기초하여 대상물의 형상을 분석을 하는 부분이고, 또한, 음성 지각부(125)는 마이크로부터의 발화 입력에 대하여 발화 인식을 하는 부분이다. 이하의 설명은, 이러한 각 지각부에서 이루어지는 처리에 대한 설명이 된다.
또한, 접촉 지각부(124)는, 예를 들면 로봇 장치(1)의 발바닥에 구비된 소위 육구 형상으로 된 소위 육구 센서로부터의 신호에 의해서 대상물에의 접촉을 검출한다.
(4-2-1-1) 자동 컬러 세그먼테이션(Automatic Color Segmentation)
색을 이용한 컬러 세그먼테이션이 지각 자극의 입력에서 우선 행해진다. 컬러 세그먼테이션에서는, 임의의 단일색으로 이루어지는 복수의 오브젝트를 절단하는 것이 가능하게 되고 있다. 또한, 컬러 세그먼테이션에서는 교사없이 학습에 의한 클러스터링 알고리즘에 의한 것을 사용한다.
도 15A는 인공적으로 도색한 오브젝트를 도시하고, 도 15B는 그 컬러 세그먼테이션의 결과를 도시한다. 또한, 도 16A는 사람의 손을 포함하는 자연 화상, 사람의 얼굴을 포함하는 자연 화상을 도시하고, 도 16B는 그 컬러 세그먼테이션의 결과를 도시한다.
여기서, 입력 화상은 비교적 좁은 시야각(53x41도)의 카메라로 시스템에의 입력 시에 이미 Low pass filter를 통해 88x60pixels로 떨어뜨려진 것이다. 이것을 고려하여, 세그먼테이션은 화소(pixel)마다 독립된 처리만으로 행한다. 이와 같이 함으로써, 도 15B 및 도 16B에 도시한 바와 같은 양호한 결과를 거의 실시간으로 얻을 수 있다.
또한, 통상, 컬러 세그먼테이션은 RGB 혹은 정규화한 RGB 공간에서 행하는 것이 많지만, 카메라의 신호가 Y, Cr, Cb 포맷인 것부터, (Nr, Nb)=(atan(Cr/Y), atan(Cb/Y))의 2차원 공간을 색 공간으로 한다. RGB 공간에 사상(맵핑)할 때에 생기는 계산량과 양자화할 때의 오차 등을 고려하면 매우 효율적인 처리이다.
또, 이러한 컬러 세그먼테이션은 형상 해석을 위한 초기 처리로서 이용된다.
이하에, 상술한 컬러 세그먼테이션에서의 클러스터링 알고리즘의 처리 단계 (i)∼(vi)의 예를 설명한다.
단계 (i)에서는, 적당한 수의 프로토타입(prototype)을 균일하게 배치한다.
단계 (ii)에서는, 하기의 수학식 3을 거리로서 모든 화소에 대하여 가장 가까운 프로토타입(prototype)에의 클래스 라벨을 붙인다.
여기서, σhue, σsat은 도 17에 도시한 바와 같이, 각각 hue와 saturation에 대응하는 분포로서, 이들은 사전에 적당한 샘플 화상의 분포로부터 구한 것이며, 일반적으로 σhuesat이다. 즉, hue 방향의 오차에 가중치를 갖게 한 거리라고 생각할 수 있다.
단계 (iii)에서는, 만일 그 프로토타입에 속하는 화소가 적은 경우에는 그 프로토타입을 변경한다.
단계 (iv)에서는, 동일한 클래스 라벨이 붙은 평균 위치에 그 프로토타입을 이동시킨다.
단계 (v)에서는, 만일 2개 이상의 프로토타입이 임의의 거리 이하인 경우에는 하나로 통합한다.
단계 (vi)에서는, 프로토타입의 위치의 갱신이 적어지거나, 혹은 적당한 횟수가 되면 종료한다. 그 이외는 상술한 단계 (ii)로 되돌아가 다시 처리를 개시한다.
또, 도 18A 및 도 18B에는 입력 화상에 대한 클러스터링의 모습을 도시한다. 도 18A 및 도 18B에 도시한 예에서는, 사전에 기억하여 있는 피부색 영역을 분석하고, 손가락으로 가리키는 방향의 검출과 그 연장선 상에 있는 물체의 노출을 행하는 경우를 도시하고 있다. 예를 들면, 이 정보는 후술하는 공동주의(Shared Attention)에 있어서 사용된다.
(4-2-1-2) 형상 분석(Shape Analysis)
형상 분석(Shape Analysis)은 크기, 회전의 보편 특징량인 푸리에 기술자(FD) 를 이용하여 행한다. 예를 들면, 이 형상 분석에 있어서, 카테고리 분류는, Fourier Descriptor의 공간(64차원)에서의 L2 노옴을 이용한다. 입력된 물체를 FD 공간에서 나타내고, 가장 가까운 프로토타입과의 거리를 이용하여 신규 프로토타입으로 할 것인지의 여부를 결정한다. 또, 도 19에는 컬러 세그먼테이션으로 잘라낸 물체의 형상 분석의 결과를 도시하고 있다.
(4-2-1-3) 발화 인식(Speech Recognition)
발화 인식(Speech Recognition)으로서 HMM을 이용한 연속 발화 인식을 이용하고 있다. 이 기술로서는, 상술한 문헌 5에 있어서 제창하는 기술이 있다.
이 시스템은, 도 20에 도시한 바와 같이, 음성 입력부(171), 복수의 HMM을 구비한 HMM 레지스터(172), 미지어 입력용 HMM(173) 및 비교부(174)를 구비하고 있다.
HMM 레지스터(172)의 HMM은 일본어의 음운 학습을 한 HMM으로서, 사전에 필요한 단어가 등록되어 있다. 또한, HMM 레지스터(172)의 HMM에는 후발적으로 획득된 단어가 학습되어 있는 것도 포함되어 있다. 여기서, 예를 들면 등록되어 있는 혹은 획득된 단어로서는, 명사 및 동사 등을 들 수 있다. 입력된 음운 계열은 이러한 HMM 레지스터(172)의 HMM에서 확신도로서 평가된다.
미지어 입력용 HMM(173)은 미지어 획득을 위한 HMM이다. 이 미지어 입력용 HMM(173)은 도 21에 도시한 바와 같이, 모든 음운 모델을 스테이트로 하고, 모든 음운 스테이트에 결합하고 있다. 예를 들면, 미지어 입력용 HMM(173)은 도 21에 도시한 바와 같이, "bouruu"라는 발화 입력이 이루어진 경우에는, "booru"로서 인식한다.
입력된 음운 계열은, 이미 등록 혹은 획득된 단어의 HMM과, 이 미지어 단어 입력용 HMM(173)에 있어서 평가되지만, 이 때, 확신도(verification value)를 이용하여 최대로 매칭된 HMM과의 거리가 비교부(174)에서 평가된다. 그리고, 확신도(verification value)가 임의의 값 이상이면 신규 음운 계열로서 새로운 라벨을 붙이고, 그것이 HMM 레지스터(172)의 HMM으로서 등록된다.
예로서, HMM 레지스터(172)가 HMM으로서, "tomare(stop)"와 "kere(kick)"라는 2개의 단어가 등록되어 있는 것만을 갖는 경우에 대해 설명한다. 도 22에는 이러한 시스템을 사용한 경우의 결과를 도시한다.
도 22에 있어서, 우측에는 등록되어 있는 단어에 대한 입력 신호의 확신도(verification)의 값을 나타낸다. 또, 이 확신도(verification)의 값은 낮을수록 확신도가 높다.
예를 들면, "tomare"이라는 발화에 대하여, 시스템은 "tomoare"라는 음운 계열의 입력이라고 추정하고, 그 확신도(verification)의 값은 0. 136이다.
한편, 도 22에 있어서 위에서 3번째의 "booru(ball)"이라는 미지어의 입력에 대해서는, 가장 맞는 모델은 "tomare"이고, 그 확신도(verificahon)는 4. 835로 매우 크기 때문에 unknown-1이라는 새로운 심볼이 할당되어 등록된다. 이에 따라, 시스템은, 차회의 발화 입력인 도 22에서 위에서 4번째로 나타내는 "booru(ball)"의 발화 입력에 대해서는, unknown-1에 대응하는 HMM이 가장 가깝고, 그 확신도(verification)는 0.41로 작은 값을 취하여, 올바르게 unknovn-1에 의해 "booru(ball)"가 획득되도록 된다.
또한, 이 시스템에서는 HMM이 연속 발화 인식이 가능하기 때문에, 도 22에서 위에서 7번째의 발화와 같이 "booru kere"에 대하여, 먼저 획득한 "booru"에 대한 라벨 unknown-1에 이어서, kere라는 심볼을 인식하는 것이 가능하게 되어 있다.
이러한 발화 인식의 시스템에 의해서, 예를 들면 공을 차, 멈춰 등이다. 만일, "공"이라는 명사를 획득하면, "공을 차"라는 명령에 의해 로봇 장치(1)는 공을 찰 수 있게 된다.
(4-2-1-4) 감정부(Emotion Part)
도 23에는 내부 상태(Internal Variables) 및 그에 관련된 행동(subsytem)의 관계를 도시한다.
본 예는 섭식 행동의 생리학 모델 등을 참고로 하여, 일반적인 내부 상태 유지를 위해, 가상적인 체내 영양 저장 버퍼와 배설용 버퍼를 상정하고, 그 저장량을 내부 상태로서 정의하고 있다. 그것은, 예를 들면 Energy-2(의사 음식물, Fake Food)의 양과 Fake 배설물(excrement)의 양이다.
예를 들면, 도 24에 도시한 바와 같이, 가상적인 위(체내 영양 저장 버퍼)와 가상적인 방광 또는 장(배설용 버퍼)을 관련시킴으로써, 가상적인 위의 저장량의 감소가 가상적인 방광 등의 저장량의 증가를 초래하도록 하고 있다.
도 23에 도시한 바와 같이, 어떤 요인으로 증가 혹은 감소하도록 한 다이나믹스를 가지고 있다. 동기 부여 생성부(Motivation Creator)의 기본적인 동작은 이 내부 상태 변수를 어느 허용 범위로 유지하기 위해서, 대응하는 행동군(subsystem)의 동기 부여(Notivation)를 올리는 것으로 된다.
또한, 의사적(Fake)인 음식물이나 물은 주로 로봇 장치(1)의 오락성(Entertainment)의 목적으로 실장된다고 생각되지만, 그 외에 본래의 의미에서의 전기 Energy나 피로에 상당하는 내적 상태 변수도 존재한다. 이들도 도 23에 도시하는 증가, 감소 요인에 의해 다이나믹스를 구성하고, 대응하는 서브 시스템(subsystem)의 동기 부여 생성부(motivation creator)는 이것을 일정하게 유지하도록 행동의 동기를 부여하여 이루어져 있다. 단, 로봇 장치(1)가 소위 충전 장치에 자율 행동으로서 장착되도록 한 자동 충전 행동도 생각되지만, 이러한 자동 충전 행동을 구비하지 않은 경우에는 로봇 장치(1)는 충전에 관해서는 그것을 요구하는 행동을 하여, 다른 사람에게 충전받도록 한다.
또한, 연상 기억에 획득되는 정보에서도 마찬가지의 내부 상태 변수를 준비한다. 연상 기억으로 가상적인 의미의 내부 획득 정보량을 계산하여 보내진다. 이 경우, 망각이 없으면 연상 기억의 내부 정보량은 증가할 뿐이지만, 망각을 실장하지 않더라도 된다. 적당한 시간 범위 내의 각 정보량의 적분을 증가 요인, 시간적 감소 요인의 간단한 다이나믹스를 구축하여 정보 획득 행동 서브 시스템의 동기를 구성하고 있다.
(4-2-1-5) 학습용 메모리부(Associative Memory Part)
도 25에는 로봇 장치(1)가 정보 획득에 사용하는 학습용 메모리(Associative Memory)(140)의 구체적인 구성을 도시하고 있다. 학습용 메모리(140)는 도 25에 도시한 바와 같이, 단기용 메모리(181), 장기간용 메모리(182) 및 주의 대상용 메모리(183)를 구비한다. 이 학습용 메모리(140)는, 구체적으로는 도 12에 도시한 바와 같이 구비된다.
학습용 메모리(Associative Memory)(140)는 이러한 구성에 의해, 임의의 색과 임의의 형태로 하나의 이름을 갖는 기억부로서 기능하고, 또한 그 자체가 로봇 장치(1)의 내적 상태로 대하여 어떠한 의미를 갖는지의 기억부로서 기능한다.
단기 기억용 메모리(Short Term Memory; STM)(181)에서, 화상 내의 ID번호가 부여된 물체의 정보가 저장된다. 이 때 물체의 정보는 색의 프로토타입 번호(CP-i)와 형상의 프로토타입 번호(SP-j)의 정보이다. 또한, 단기용 메모리(Short Term Memory)(181)에는 음성 처리로부터 입력되는 1 발화분의 단어 계열이 입력된다.
화상으로부터의 데이터는 색의 프로토타입 번호(CP-i) 및 형상의 프로토타입 번호(SP-j)를 입력으로 하여, 물체의 명칭(HMM-k)과 내부 상태에의 영향(Delta-I)을 얻고, 이들을 하나로 묶어서 도 12에 도시한 바와 같이, 행동 생성부(Behavior Generator)(150)로 보내진다. 혹시, 물체의 명칭(HMM-k)과 내부 상태에의 영향(Delta-I)이 얻어지지 않은 경우에는, 거기를 공백(nil) 정보로서 보내진다. 발화 데이터는 그대로 행동 생성부(Behavior Generator)(150)로 보내진다.
한편, 행동 선택부(Action Selection)(116)에 있어서 행동(Action)과 그 대상물체(Obj-ID)가 선택되지만, 이 정보는 후술하는 행동 스테이트 머신(Behavior State Machine)로부터 학습용 메모리(Associative Memory)(140)로 보내진다. 이 대상 물체(Obj-ID)에 대응하는 정보는 단기용 메모리(Short Term Memory)(181)로부터 주의 대상용 메모리(Attention Object Memory; AOM)(183)에 저장된다. 또, 그 시 단기용 메모리(Short Term Memory)(181)에 들어 있는 발화된 단어 계열은 그대로 주의 대상용 메모리(Attention Object Memory)(183)로 보내진다.
주의 대상용 메모리(Attention Object Memory)(183)로부터 본래의 학습용 메모리(Associative Memory)로서 기능하는 장기용 메모리(Long Term Memory)(182)에 대한 학습의 타이밍은 내부 상태 변화를 트리거로 하여 행해진다. 이에 따라, 임의의 대상물(Object)에 대한 임의의 액션을 하고 있을 때에 내부 상태가 변화함으로써, 그 대상물에 관련시켜 내부 상태 변화가 기억된다.
(4-2-1-6) 행동 생성부(Behavior Generation Part)
여기서는, 로봇 장치(1)의 행동을 규정하는 서브 시스템 중 정보 획득 행동 서브 시스템에 대하여 설명한다. 도 26에 도시한 바와 같이, 정보 획득 행동 서브시스템(151n)은 계층 구조를 갖는 것으로서 구성된다.
행동의 서브 시스템층에 하나의 소프트웨어 오브젝트(software object)가 존재한다.
이 소프트웨어 오브젝트(software object)의 동기 부여 생성부(Motivation Creator)(101)는 상술한 1차적 내부 기억량이 적당한 범위에서 벗어나면 동기 부여 치(motivation value)가 출력되도록 구성되어 있다.
한편, 릴리스 메카니즘(Release Mechanism)(102)은 학습용 메모리(Associative Memory)(140)로부터 보내지는 대상물(Object)을 조사함으로써 이루어진다. 릴리스 메카니즘(Release Mechanism)(102)에서는 현재 미지의 것과 인간에 의한 가리킴에 관한 지각(release) 인자를 고려하고 있다. 여기서, 예를 들면 지각 인자는 대상물(Object)의 이름(Obj:Name), Color의 이름(Color:Name), Shape의 이름(Shape:Name), 그 대상물(Object)의 내부 상태 변화에의 영향(Act:Delta-I)이다.
릴리스 메카니즘(Release Mechanism)(102)는 지각 인자로서 얻어진 것에, 정보의 정의가 이루어지지 않았으면 릴리스 신호(Release signal)를 창출한다. 그리고, 릴리스 메카니즘(Release Mechanism)(102)이 출력하는 릴리스 신호(release signal)의 값은 하나의 대상물에 대한 정의되지 않은 수를 누적한 것으로 하여 그물체에 대응되어 결정되어 있다. 예를 들면, 대상물의 이름(Obj:Name)과 내부 상태 변화에의 영향(Act:Delta-I)만을 대상으로 할 수도 있다.
그리고, 릴리스 메카니즘(Release Mechanism)(102)은 존재하고 있는 대상물에 대하여 릴리스 신호(release signal)를 평가하고, 그 값이 가장 큰 대상물을 선택하여, 그 선택한 대상물(Obj)을 특정하는 ID와 릴리스 신호(release signal)를 출력한다.
예를 들면, 대상물로서 사과가 특정된 경우에는 로봇 장치(1)에는 상술한 바와 같은 형상 분석이나 컬러 세그먼테이션을 사용하여 그 형상이나 색을 분석하여, 지각 인자로서의 Color의 이름(Color:Name), Shape의 이름(Shape:Name)을 평가한다. 사과가 사전에 등록되어 있도록 한 경우에는, 평가치가 높은 것으로 얻어지고, 이에 따라 대상물이 사과인 것이 인식된다. 그리고, 그 선택한 대상물로 되는 사과를 특정하는 ID와 그 때의 릴리스 신호(release signal)가 출력된다. 또한, 사과가 사전에 등록되어 있지 않은 경우에는 미정의의 수를 누적하고, 이것을 미지의 대상물로서의 사과에 대응시킨다.
한편, 릴리스 메카니즘(Release Mechanism)(102)은 인간에 의한 가리킴에 관해서는, 또한 큰 릴리스 신호(release sjgnal)를 생성하도록 설정되어 있다. 그리고, 릴리스 메카니즘(Release Mechanism)(102)은, 가리킴에 의한 물체 검출이 이루어진 경우에는 그 물체가 미지인지 기지인지에 상관없이 릴리스 신호(release signal)를 생성한다. 이것은 가리킴이 분명히 인간으로부터 정보 획득 혹은 정보 확인의 요구이고, 내부 상태로 크게 의존하지 않고서 정보 획득 행동을 유인시키고자 하거나, 혹은 기지인 것에 대하여 확인 행동을 취하게 한다는 생각에 의한 것이다.
그리고, 정보 획득 행동 서브 시스템(151n)에서는, 이 릴리스 신호(release signal)와 동기 부여치(motivation value)를 승산한 것을 행동 평가치(behavior value)로서 얻는다. 또한, 마찬가지로 하여, Eating 등을 규정하는 다른 각 서브 시스템(subsystem)에서도, 정보 획득 행동 서브 시스템(151n)에 입력된 릴리스 신호(release signal)와 동기 부여치(motivation value)를 이용하여, 행동 평가치(behavior value)를 얻는다.
그리고, 행동 선택부(116)에 있어서, 각 서브 시스템(subsystem)으로부터의 행동 평가치(behavior value)를 비교하고, 가장 큰 행동 평가치(behavior value)를 갖는 서브 시스템(subsystem)이 실행하는 서브 시스템으로서 선택된다. 여기서의 설명에서는, 이러한 평가치의 비교에 의해, 정보 획득 행동 서브 시스템(151n)에서의 행동 평가치(behavior value)가 최대로 된 경우가 된다.
또, 선택된 서브 시스템(subsystem)은 잠깐동안 계속 선택할 필요가 있지만, 이것은, 예를 들면, 상호 억제나 피로 요인(fatigue factor) 등에 의해서 실현할 수 있다.
정보 획득 행동 서브 시스템(151n)이 선택되면, 도 26에 도시한 바와 같이, 다음에 모드(Mode) MD라고 하는 계층으로 진행한다. 모드(Mode) MD에서는 마찬가지로, 정보의 선택 처리가 이루어지지만, 구체적으로는 모드(Mode)에서는 상위층의선택의 가리킴에 의한 물체인지, 스스로 선택한 물체, 즉 미지의 물체인지가 구별된다. 이 모드(Mode) MD에서 구별이 이루어지면, 도 26에 도시한 바와 같이, 그 하층이 되는 모듈(Module) MJ라는 층에서, 구체적인 행동에 대한 평가가 이루어진다. 이 평가에 기초하여 행동 선택부(116)에 있어서, 구체적인 행동의 선택이 이루어진다.
이에 따라, 로봇 장치(1)는, 예를 들면 대상물이 기지의 것이면, 그 확인 행동을 취하게 되고, 대상물이 미지의 것이면, 획득 행동을 취하게 된다. 예를 들면, 정보 획득 행동은 대상물의 이름(Obj:Name)과 내부 상태 변화에의 영향(Act:Delta-Int)으로 2 종류의 정보 획득이 이루어진 경우에는, 서브 시스템(subsystem)의 부분에서 최대치 평가를 부여한 대상물을 조사하여 어느 한쪽이 선택되도록 할 수도 있다.
예를 들면, 확인 행동을 실행하는 경우의 처리로는, 그 확인 행동에 대응하는 스테이트 머신에 명령이 보내지고, 그 이름의 확인 행동이 실행된다. 그리고, 로봇 장치(1)는 사람이 손가락으로 가리킨 물체를 시각적인 트랙킹(Visual Tracking)을 하면서 근접하고, 그리고 그 물체를 손가락으로 가리켜, 즉 앞다리로 가리켜, "이것은 XX군요?" 등과 같은 행동을 표출시킨다. 이러한 행동은, 그와 같은 행동을 규정하는 행동 시퀀스가 기술된 스테이트 머신에 의해 제어함으로써 실현된다.
대상물의 이름(Obj:Name)의 획득 행동을 하는 경우의 처리로는, 그 출력이 대응하는 대상물의 이름(Obj:Name)의 획득을 위한 스테이트 머신에 보내진다.
대상물의 이름(Obj:Name)의 획득 행동에 있어서는 그 대상물에 대하여 시각적 트랙킹(Visual Tracking)을 하면서 접근하여, 손가락으로 가리켜서, "이것은 이름이 뭐지?" 등의 행동을 표출시킨다. 또한, 이 때, 대상물과의 거리를 이용하여 적절한 행동 제어가 이루어진다. 이러한 행동은, 그와 같은 행동을 규정하는 행동 시퀀스가 기술된 스테이트 머신에 의해 제어함으로써 실현된다.
그리고, "이것은 이름이 뭐지?"에 계속해서, 입력된 발화 인식부로부터의 출력에 유효한 것이 있으면, 그 음운 계열을 반복하여 확인하도록 한 스테이트 머신을 내장할 수도 있다.
한편, 내부 상태 변화에의 영향(Act:Delta-Int)에 의한 획득 행동, 즉 내부 상태 변화에 기초하는 미지의 대상물에 대한 획득 행동이 선택되면, 그 대상물에 대하여 몇개의 행동을 랜덤하게 선택하여 실행한다. 그리고, 그 때에 생기는 내부 상태 변화에의 영향(Delta-Int)을 연상 기억으로 평가한다. 이에 따라, 이 대상물이 내부 상태로 관련시키기(Grounding) 때문에, 새로운 대상물에 대한 내부 상태 변화에의 영향이 의미 획득으로서 이루어지게 된다.
예를 들면, 사과를 보고, 그 때에 내부 상태가 「유쾌」로 변화된 경우에는, 그 내부 상태의 변화를, 대상물인 사과에 대응시킨다. 이후, 로봇 장치(1)는 사과를 유쾌의 의미로 해석하게 되고, 이에 따라 사과의 의미 획득이 로봇 장치(1)에 있어서 이루어진 것으로 된다.
또, 상술한 바와 같은, 로봇 장치(1)에의 본 발명의 적용은, 예를 들면 소프트웨어에 의해 실현 가능해지는 것이다.
상술한 바와 같은 본 발명을 이용함으로써, 로봇 장치는 본 발명이 적용됨으로써, 자율 행동의 일부로서 정보 획득 행동을 표출시켜, 최적의 거동으로서의 공동주의를 실행하고, 또한 그와 같은 정보 획득 행동에 있어서, 내부 상태의 변화로서 얻어지는 미지의 대상물의 의미를 획득할 수 있다. 이에 따라, 로봇 장치는 보다 살아 있는 듯한(Life-like) 것에 근접한 것이 된다.

Claims (31)

  1. 자율 행동하는 로봇 장치에 있어서,
    자율 행동의 하나의 행동으로서 정보 획득 행동을 하도록 하는 행동 제어 수단을 포함한 것을 특징으로 하는 로봇 장치.
  2. 제1항에 있어서,
    상기 정보 획득 행동이, 정보로서 언어를 획득하는 언어 획득 행동인 것을 특징으로 하는 로봇 장치.
  3. 제1항에 있어서,
    적어도 내부 상태에 기초하여 자율 행동을 하고 있고,
    상기 행동 제어 수단은, 내부 상태의 항상성에 기초하여, 상기 정보 획득 행동을 하도록 하는 것을 특징으로 하는 로봇 장치.
  4. 제3항에 있어서,
    상기 내부 상태의 변화 인자로서의 정보 획득욕을 파라미터로 하는 정보 획득 모델을 구비하고 있고,
    상기 행동 제어 수단은 상기 정보 획득욕의 파라미터가 소정의 임계치가 되었을 때, 상기 정보 획득 행동을 표출시키는 것을 특징으로 하는 로봇 장치.
  5. 제4항에 있어서,
    상기 정보 획득욕의 파라미터가 시간 경과적으로 변화하는 것을 특징으로 하는 로봇 장치.
  6. 제4항에 있어서,
    상기 정보 획득욕의 파라미터가 학습에 대한 기아감을 나타내는 것을 특징으로 하는 로봇 장치.
  7. 제4항에 있어서,
    상기 정보 획득욕의 파라미터가 정보 획득량인 것을 특징으로 하는 로봇 장치.
  8. 제4항에 있어서,
    상기 정보 획득욕의 파라미터가 신규 정보의 학습량인 것을 특징으로 하는 로봇 장치.
  9. 제8항에 있어서,
    상기 학습량이 시간 경과적으로 감소하는 학습량이고,
    상기 행동 제어 수단은 상기 학습량이 소정의 임계치를 하회하였을 때, 상기정보 획득 행동을 표출시키는 것을 특징으로 하는 로봇 장치.
  10. 로봇 장치의 자율적 행동의 하나의 행동으로서 정보 획득 행동을 하도록 하는 것을 특징으로 하는 로봇 장치의 행동 제어 방법.
  11. 대상물의 의미를 획득하는 의미 획득 수단을 포함한 것을 특징으로 하는 로봇 장치.
  12. 제11항에 있어서,
    내부 상태에 기초하여 행동을 하고 있고,
    상기 의미 획득 수단은, 상기 대상물에 대한 행동을 했을 때의, 상기 내부 상태의 변화를 해당 대상물의 의미로서 획득하는 것을 특징으로 하는 로봇 장치.
  13. 제12항에 있어서,
    상기 내부 상태를 검출하는 내부 상태 감시 수단을 포함하고 있고,
    상기 의미 획득 수단은 상기 대상물에 대한 행동을 했을 때의, 상기 내부 상태 감시 수단에 의해 검출된 상기 내부 상태의 변화를 해당 대상물의 의미로서 획득하는 것을 특징으로 하는 로봇 장치.
  14. 제11항에 있어서,
    상기 획득한 대상물의 의미를 해당 대상물에 관련지어 연상 기억해 두는 연상 기억 수단을 포함하는 것을 특징으로 하는 로봇 장치.
  15. 내부 상태에 기초하여 행동을 하고 있는 로봇 장치가 대상물에 대한 행동을 했을 때의, 상기 내부 상태의 변화를 해당 대상물의 의미로서 획득하는 것을 특징으로 하는 로봇 장치의 행동 제어 방법.
  16. 음성 입력 수단과,
    발화했을 때의 단어 계열의 특징량에 기초하여 구분지어진 복수의 단어 계열 특징 모델과,
    상기 음성 입력 수단에서 이루어진 발화 입력을, 상기 단어 계열 특징 모델에 기초하여 평가하는 발화 입력 평가 수단과,
    상기 발화 입력 평가 수단의 평가치에 기초하여, 상기 발화 입력의 단어 계열을 특정하는 단어 계열 특정 수단을 포함한 것 특징으로 하는 로봇 장치.
  17. 제16항에 있어서,
    상기 발화 입력 평가 수단은, 상기 음성 입력 수단에서 이루어진 발화 입력의 단어 계열에 관한 특징량을 검출하는 특징량 검출부와, 상기 특징량 검출부가 검출한 발화 입력의 특징량을 상기 음성 특징 모델에 기초하여 평가하는 평가부를 구비한 것을 특징으로 하는 로봇 장치.
  18. 제17항에 있어서,
    상기 특징량 검출부가 검출한 발화 입력의 특징량의 평가가 낮을 때에는, 해당 발화 입력을 그 단어 계열의 특징량을 갖고 새로운 음성 열 특징 모델로서 등록하는 모델 등록 수단을 포함한 것을 특징으로 하는 로봇 장치.
  19. 제16항에 있어서,
    상기 단어 계열 특징 모델은, 음운 학습에 의해 얻은 단어 계열의 특징량을 갖고 있는 것을 특징으로 하는 로봇 장치.
  20. 음성 입력 공정과,
    상기 음성 입력 공정에서 이루어진 발화 입력을, 발화했을 때의 단어 계열의 특징량에 기초하여 구분지어진 복수의 단어 계열 특징 모델에 기초하여 평가하는 발화 입력 평가 공정과,
    상기 발화 입력 평가 공정에서 얻은 평가치에 기초하여, 상기 발화 입력의 단어 계열을 특정하는 단어 계열 특정 공정을 갖는 것을 특징으로 하는 로봇 장치의 행동 제어 방법.
  21. 자율 행동을 하는 로봇 장치에 있어서,
    자신의 학습 대상물을 가리키는 행동 제어를 하는 제어 수단을 포함한 것을특징으로 하는 로봇 장치.
  22. 제21항에 있어서,
    외부 자극에 기초하여 특정된 물체를 우선하여 학습 대상물로서 행동을 하도록 하는 제어 수단을 포함한 것을 특징으로 하는 로봇 장치.
  23. 제21항에 있어서,
    호기심을 나타내는 행동으로서 자신의 학습 대상물을 가르키는 것을 특징으로 하는 로봇 장치.
  24. 제21항에 있어서,
    적어도 다리부를 구비한 동물을 모방한 외관 형상으로 형성되어 있고,
    상기 제어 수단은 상기 다리부에 의해 상기 학습 대상물을 가리키는 행동 제어를 하는 것을 특징으로 하는 로봇 장치.
  25. 자율 행동하는 로봇 장치가 자신의 학습 대상물을 가리키도록 로봇 장치의 행동을 제어하는 것을 특징으로 하는 로봇 장치의 행동 제어 방법.
  26. 자율 행동하는 로봇 장치에 있어서,
    대상물을 검출하는 센서와,
    상기 센서로부터의 입력 신호를 평가하는 지각용 평가부와,
    상기 지각용 평가부의 평가 결과가 입력되고, 상기 평가 결과에 기초하여 변화하는 의사적 내부 상태를 관리하는 내부 상태 관리부와,
    상기 대상물과 해당 대상물에 기초하는 상기 내부 상태의 변화와의 관계를 기억하는 기억 수단을 포함하고,
    대상물이 검출되었을 때에 검출된 대상물에 기초하는 상기 내부 상태의 변화와 상기 대상물을 관련시켜 상기 기억 수단에 기억하는 것을 특징으로 하는 로봇 장치.
  27. 제26항에 있어서,
    상기 내부 상태의 변화에 기초하여 의사적 정서를 생성하는 정서부를 더 포함하고,
    상기 대상물과 해당 대상물에 기초하는 정서 관련 정보를 상기 기억 수단에 기억하는 것을 특징으로 하는 로봇 장치.
  28. 제26항에 있어서,
    행동 생성부를 더 포함하고,
    상기 내부 상태 관리부는 상기 내부 상태의 항상성을 유지하도록 상기 내부 상태를 관리함과 함께, 상기 항상성이 흐트러졌을 때에는 상기 행동 생성부에 제1 신호를 송신하고,
    상기 행동 생성부는 상기 제1 신호에 기초하여 상기 항상성을 유지하기 위한 행동을 생성하는 것을 특징으로 하는 로봇 장치.
  29. 제28항에 있어서,
    상기 내부 상태의 변화와 상기 항상성을 유지하기 위한 행동을 상기 기억 수단에 연상 기억하는 것을 특징으로 하는 로봇 장치.
  30. 제28항에 있어서,
    상기 내부 상태 관리부는, 정보 획득 욕구 변수를 가지며, 해당 정보 획득욕구 변수의 값에 기초하여 상기 행동 생성부에 제2 신호를 송신하고,
    상기 행동 생성부는 상기 제2 신호에 기초하여 정보 획득 행동을 생성하는 것을 특징으로 하는 로봇 장치.
  31. 자율 행동하는 로봇 장치의 행동 제어 방법에 있어서,
    대상물을 검출하는 센서로부터의 입력 신호를 평가하는 지각 평가 공정과,
    상기 지각 평가 공정에서의 평가 결과에 기초하여 변화하는 의사적 내부 상태를 관리하는 내부 상태 관리 공정과,
    상기 대상물과 해당 대상물에 기초하는 상기 내부 상태의 변화와의 관계를 기억 수단에 기억하는 기억 공정을 구비하고,
    대상물이 검출되었을 때에, 검출된 대상물에 기초하는 상기 내부 상태의 변화와 상기 대상물을 관련시켜 상기 기억 수단에 기억하는 것을 특징으로 하는 로봇 장치의 행동 제어 방법.
KR1020027007499A 2000-10-13 2001-10-11 로봇 장치 및 로봇 장치의 행동 제어 방법 KR100864339B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000314524 2000-10-13
JPJP-P-2000-00314524 2000-10-13

Publications (2)

Publication Number Publication Date
KR20020067699A true KR20020067699A (ko) 2002-08-23
KR100864339B1 KR100864339B1 (ko) 2008-10-17

Family

ID=18793762

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027007499A KR100864339B1 (ko) 2000-10-13 2001-10-11 로봇 장치 및 로봇 장치의 행동 제어 방법

Country Status (6)

Country Link
US (1) US6718232B2 (ko)
EP (1) EP1327504B1 (ko)
KR (1) KR100864339B1 (ko)
CN (4) CN1290034C (ko)
TW (1) TW581959B (ko)
WO (1) WO2002032629A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100752098B1 (ko) * 2006-03-07 2007-08-24 한국과학기술연구원 신경망 기반 로봇 시스템
KR100889898B1 (ko) * 2005-08-10 2009-03-20 가부시끼가이샤 도시바 로봇의 행동을 제어하기 위한 장치, 방법 및 컴퓨터 판독 가능 매체
KR100914309B1 (ko) * 2007-08-03 2009-08-27 한양대학교 산학협력단 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성방법

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222316A (ja) * 2000-02-09 2001-08-17 Sony Corp ロボットの管理システム及びロボットの管理方法
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
US7103447B2 (en) * 2002-09-02 2006-09-05 Sony Corporation Robot apparatus, and behavior controlling method for robot apparatus
GB2409734B (en) * 2002-11-11 2007-01-03 Alfred Schurmann Determination and control of activities of an emotional system
ATE527086T1 (de) * 2002-12-10 2011-10-15 Honda Motor Co Ltd Steuervorrichtung, steuerverfahren und steuerprogramm für einen roboter
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
US20060195598A1 (en) * 2003-03-28 2006-08-31 Masahiro Fujita Information providing device,method, and information providing system
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
US7383100B2 (en) * 2005-09-29 2008-06-03 Honda Motor Co., Ltd. Extensible task engine framework for humanoid robots
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
US20070173974A1 (en) * 2006-01-25 2007-07-26 Chyi-Yeu Lin Device and method for interacting with autonomous robot
US7783382B2 (en) 2006-02-24 2010-08-24 Qisda Corporation Controlling machine actions based on luminance of environmental light and distance from user
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
EP2014425B1 (en) * 2007-07-13 2013-02-20 Honda Research Institute Europe GmbH Method and device for controlling a robot
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
CN101727074B (zh) * 2008-10-24 2011-12-21 鸿富锦精密工业(深圳)有限公司 具有生物时钟的类生物装置及其行为控制方法
US8494857B2 (en) 2009-01-06 2013-07-23 Regents Of The University Of Minnesota Automatic measurement of speech fluency
CN101635995B (zh) * 2009-09-01 2011-07-06 东南大学 适应复杂地形的无线传感器网络设备
CN101947788A (zh) * 2010-06-23 2011-01-19 焦利民 一种智能机器人
CN102024345A (zh) * 2010-12-09 2011-04-20 北京智慧佳科技有限责任公司 一种家用教育移动点读机器人
CN102122205A (zh) * 2011-02-28 2011-07-13 焦利民 一种用于家用教育机器人系统中的手持式识别系统
CN102122448B (zh) * 2011-02-28 2012-11-14 焦利民 一种家用教育机器人系统
US8751042B2 (en) 2011-12-14 2014-06-10 Toyota Motor Engineering & Manufacturing North America, Inc. Methods of robot behavior generation and robots utilizing the same
US9576593B2 (en) 2012-03-15 2017-02-21 Regents Of The University Of Minnesota Automated verbal fluency assessment
CN103389486B (zh) * 2012-05-07 2017-04-19 联想(北京)有限公司 控制方法和电子设备
US9037526B2 (en) * 2012-12-13 2015-05-19 Korea Institute Of Industrial Technology Apparatus and method for selecting motion signifying artificial feeling
CN103029818B (zh) * 2012-12-18 2015-10-07 浙江工业大学 一种仿生海底生物捕捞机器人
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
US10152117B2 (en) * 2014-08-07 2018-12-11 Intel Corporation Context dependent reactions derived from observed human responses
CN105389735B (zh) * 2015-11-18 2021-05-18 重庆理工大学 一种基于spfa算法的多动机情感生成方法
CN108885436B (zh) 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人系统
CN107103269A (zh) * 2016-02-23 2017-08-29 芋头科技(杭州)有限公司 一种表情反馈方法及智能机器人
KR20180018211A (ko) * 2016-08-12 2018-02-21 엘지전자 주식회사 자가 학습 로봇
JP6517762B2 (ja) 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
TWI573560B (zh) * 2016-08-30 2017-03-11 Nuworld Corp Pet response identification system
CN106557164A (zh) * 2016-11-18 2017-04-05 北京光年无限科技有限公司 应用于智能机器人的多模态输出方法和装置
US11307063B2 (en) 2016-12-23 2022-04-19 Gtc Law Group Pc & Affiliates Inspection robot for horizontal tube inspection having vertically positionable sensor carriage
US11673272B2 (en) 2016-12-23 2023-06-13 Gecko Robotics, Inc. Inspection robot with stability assist device
CA3046651A1 (en) 2016-12-23 2018-06-28 Gecko Robotics, Inc. Inspection robot
JP6717768B2 (ja) * 2017-03-09 2020-07-01 ファナック株式会社 生産ラインにおける運用を考慮した学習制御を行うロボット及びその制御方法
US11221497B2 (en) 2017-06-05 2022-01-11 Steelcase Inc. Multiple-polarization cloaking
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
JP6549654B2 (ja) * 2017-08-03 2019-07-24 ファナック株式会社 ロボットシステムのシミュレーション装置およびシミュレーション方法
GB2580273B (en) * 2017-09-11 2022-06-01 Groove X Inc Autonomously acting robot that stares at companion
JP6814118B2 (ja) * 2017-09-15 2021-01-13 株式会社日立製作所 ロボット制御装置、システム、及び方法
JP7156300B2 (ja) 2017-10-30 2022-10-19 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11106124B2 (en) 2018-02-27 2021-08-31 Steelcase Inc. Multiple-polarization cloaking for projected and writing surface view screens
WO2019173321A1 (en) * 2018-03-06 2019-09-12 Anki, Inc. Robot transportation mode classification
JP7326707B2 (ja) * 2018-06-21 2023-08-16 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US11571814B2 (en) 2018-09-13 2023-02-07 The Charles Stark Draper Laboratory, Inc. Determining how to assemble a meal
CN112970034A (zh) * 2018-10-30 2021-06-15 索尼集团公司 信息处理设备、信息处理方法和程序
US11501765B2 (en) * 2018-11-05 2022-11-15 Dish Network L.L.C. Behavior detection
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
CN109725532B (zh) * 2018-12-24 2021-11-16 杭州电子科技大学 一种应用于多智能体间相对距离控制及自适应矫正方法
US11865698B2 (en) 2021-04-20 2024-01-09 Gecko Robotics, Inc. Inspection robot with removeable interface plates and method for configuring payload interfaces
CA3173120A1 (en) 2021-04-22 2022-10-22 Chase David Systems, methods, and apparatus for ultra-sonic inspection of a surface

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
JPH07287695A (ja) * 1994-04-18 1995-10-31 Fujitsu Ltd 自律的に学習、成長するコンピュータシステム、及びロボットシステム
JP3178393B2 (ja) 1997-11-11 2001-06-18 オムロン株式会社 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JPH11175493A (ja) * 1997-12-16 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> 行動選択ネットワークを用いた経験強化型強化学習方法および経験強化型強化学習プログラムを記録した記録媒体
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
KR100509797B1 (ko) * 1998-04-29 2005-08-23 마쯔시다덴기산교 가부시키가이샤 결정 트리에 의한 스펠형 문자의 복합 발음 발생과 스코어를위한 장치 및 방법
AU768353B2 (en) * 1998-09-10 2003-12-11 Sony Corporation Robot apparatus, method of controlling robot apparatus, method of display, and medium
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
WO2001072478A1 (fr) * 2000-03-31 2001-10-04 Sony Corporation Dispositif robotique, procede de commande de l'action du dispositif robotique, dispositif de detection de force exterieure, et procede de detection de force exterieure

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100889898B1 (ko) * 2005-08-10 2009-03-20 가부시끼가이샤 도시바 로봇의 행동을 제어하기 위한 장치, 방법 및 컴퓨터 판독 가능 매체
KR100752098B1 (ko) * 2006-03-07 2007-08-24 한국과학기술연구원 신경망 기반 로봇 시스템
KR100914309B1 (ko) * 2007-08-03 2009-08-27 한양대학교 산학협력단 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성방법

Also Published As

Publication number Publication date
US6718232B2 (en) 2004-04-06
CN100423911C (zh) 2008-10-08
WO2002032629A1 (en) 2002-04-25
EP1327504A1 (en) 2003-07-16
TW581959B (en) 2004-04-01
CN1290034C (zh) 2006-12-13
US20030060930A1 (en) 2003-03-27
KR100864339B1 (ko) 2008-10-17
EP1327504B1 (en) 2018-05-02
CN100445046C (zh) 2008-12-24
CN1853879A (zh) 2006-11-01
CN1853880A (zh) 2006-11-01
CN1502453A (zh) 2004-06-09
CN1396857A (zh) 2003-02-12
CN100411828C (zh) 2008-08-20
EP1327504A4 (en) 2007-06-06

Similar Documents

Publication Publication Date Title
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
US8145492B2 (en) Robot behavior control system and method, and robot apparatus
Cangelosi et al. Developmental robotics: From babies to robots
US6754560B2 (en) Robot device, robot device action control method, external force detecting device and external force detecting method
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
Sloman On designing a visual system (towards a Gibsonian computational model of vision)
Keijzer Representation and behavior
JP4244812B2 (ja) 行動制御システム及びロボット装置の行動制御方法
Breazeal et al. Toward teaching a robot ‘infant’using emotive communication acts
US20040243281A1 (en) Robot behavior control system, behavior control method, and robot device
US20070156625A1 (en) Method for movie animation
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
Velik A bionic model for human-like machine perception
JP2002160185A (ja) ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
JP2006110707A (ja) ロボット装置
JP4296736B2 (ja) ロボット装置
JP3558222B2 (ja) ロボットの行動制御システム及び行動制御方法、並びにロボット装置
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
Fujita How to make an autonomous robot as a partner with humans: design approach versus emergent approach
Farinelli Design and implementation of a multi-modal framework for scenic actions classification in autonomous actor-robot theatre improvisations
Policastro et al. Learning of shared attention in sociable robotics
Isla The virtual hippocampus: Spatial common sense for synthetic creatures
Breazeal Learning by scaffolding
JP2004209599A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動生成方法
MacDorman How to ground symbols adaptively

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121008

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131004

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141006

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151002

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20171011

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee