KR20010092244A - 로봇 장치 및 동작 제어 방법 - Google Patents

로봇 장치 및 동작 제어 방법 Download PDF

Info

Publication number
KR20010092244A
KR20010092244A KR1020007010417A KR20007010417A KR20010092244A KR 20010092244 A KR20010092244 A KR 20010092244A KR 1020007010417 A KR1020007010417 A KR 1020007010417A KR 20007010417 A KR20007010417 A KR 20007010417A KR 20010092244 A KR20010092244 A KR 20010092244A
Authority
KR
South Korea
Prior art keywords
information
posture
model
input information
target
Prior art date
Application number
KR1020007010417A
Other languages
English (en)
Other versions
KR100721694B1 (ko
Inventor
이노우에마코토
요코야마타쿠
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR20010092244A publication Critical patent/KR20010092244A/ko
Application granted granted Critical
Publication of KR100721694B1 publication Critical patent/KR100721694B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Feedback Control In General (AREA)

Abstract

본 발명에 따른 로봇 장치는 자연스러운 동작을 자율적으로 행한다. 동작에 기인하는 감정 본능 모델을 구비하며, 입력 정보(S1 내지 S3)에 근거하여 감정 본능 모델을 변화시켜 동작을 결정하는 제어 수단(32)을 형성함으로써, 로봇 장치(1)자체의 감정 본능 상태에 근거하여 자율적으로 행동할 수 있으며, 이렇게 하여 자연스러운 동작을 자율적으로 행하는 로봇 장치를 실현할 수 있다.

Description

로봇 장치 및 동작 제어 방법{Robot device and motion control method}
종래에는 사용자로부터의 지령이나 주위의 환경에 따라서 동작하는 사족 보행형 로봇 장치, 다관절 로봇 또는 컴퓨터 그래픽으로 움직이는 캐릭터를 사용한 애니메이션 등이 제안 및 개발되어 있다. 이러한 로봇 장치 또는 애니메이션(이하, 로봇 장치 등이라고 정의한다)은 사용자로부터의 지령에 근거하여 일련의 동작을 행한다.
예를 들면, 개와 같이 사족 동물과 보다 닮은 형상으로 이루어진 로봇 장치인 소위 페트 로봇은 사용자로부터 「엎드려 」라는 명령을 받으면, 엎드린의 자세를 취하거나, 자기의 입 앞에 사용자가 손을 내밀면 반드시 「손」을 주기도 한다.
그런데, 동물을 모방한 로봇 장치 등의 동작은 가능한 한 실물의 동물이 하는 동작에 가까운 것이 바람직하다.
그러나, 지금까지의 로봇 장치 등은 사용자로부터의 지령이나 환경에 근거하여 미리 정해진 동작을 행할 뿐이었다. 이와 같이 종래의 로봇 장치 등은 실물의 동물과 마찬가지로 자율적으로 동작을 행하는 것이 아니기 때문에, 가능한 한 실물의 동물에 가깝게, 자율적으로 행동을 결정하도록 하는 로봇 장치 등을 얻고 싶어하는 사용자의 요구를 만족시킬 수는 없었다.
또한, 로봇 장치 등은 목표로 하는 자세나 목표로 하는 동작을 소정의 자세나 동작을 경유하여 실행하고 있지만, 목표로 하는 자세나 동작까지로 천이하는 동안에 실행되는 자세나 동작을 복수 준비해 두는 것은 로봇 장치 등의 동작 표현의 풍부화로 연결된다.
또한, 로봇 장치 등이 목적으로 하는 자세나 동작에 도달될 때까지 경유하는 자세나 동작으로서 여러가지 준비한 경우, 경유하는 자세나 동작이 적합하게 선택되어, 해당 목적으로 하는 자세나 동작으로 천이할 수 있는 것이 바람직하다고 할 수 있다.
본 발명은 로봇 장치 및 동작 제어 방법에 관한 것으로, 예를 들면 사족 동물과 같이 동작하는 로봇 장치에 적용하기에 적합한 것이다.
도 1은 본 발명에 의한 로봇 장치의 일실시예를 도시한 사시도.
도 2는 로봇 장치의 회로 구성을 도시한 블록도.
도 3은 컨트롤러에 있어서의 데이터 처리를 도시한 약선도.
도 4는 감정·본능 모델부에 의한 데이터 처리를 도시한 약선도.
도 5는 감정·본능 모델부에 의한 데이터 처리를 도시한 약선도.
도 6은 감정·본능 모델부에 의한 데이터 처리를 도시한 약선도.
도 7은 행동 결정 기구부에서의 유한 오토마톤의 상태 천이도.
도 8은 행동 지령 정보의 생성에 관해서 설명하기 위해서 사용한 행동 결정 기구부 등의 구성을 도시한 블록도.
도 9는 스테이트가 확률에 의해 결정되는 경우의 설명에 사용한 도면.
도 1O은 천이 확률과 천이되는 스테이트와의 관계 등이 기술되어 있는 테이블을 도시한 도면.
도 11은 자세 천이 기구부에 있어서의 자세 천이의 그래프를 도시한 도면.
도 12는 자세 천이의 그래프의 구체적인 예를 도시한 도면.
도 13은 현재의 자세를 파악할 수 없는 경우에 일단 천이시키는 뉴트럴의 자세를 구비하는 것, 또한 넘어지는 복귀를 가능하게 하는 것을 설명하기 위해서 사용한 상태 천이도.
도 14는 거리를 지표로 한 경로 탐색을 설명하기 위해서 사용한 도면.
도 15는 클러스터링(clusting)에 의해 경로 탐색을 행하는 경우를 설명하기 위해서 사용한 도면.
도 16은 거리를 구체적으로 설정한 경우의 경로 탐색을 설명하기 위해서 사용한 도면.
도 17은 보행 방향을 파라미터로 하는 경우를 설명하기 위해서 사용한 로봇 장치의 상면도.
도 18은 파라미터와 동작의 내용을 나타내는 도면.
도 19는 자세간을 천이하는 동안의 동작에 다른 동작을 동기시키는 경우의 설명을 하기 위해서 사용한 도면.
도 20은 다른 자세에 있어서 동일한 동작을 실행시키는 경우의 설명에 사용한 도면.
도 21은 로봇 장치를 도시한 사시도.
도 22는 기본 자세를 받아드려, 전체와 부위와의 사이에서 자세를 천이시키는 경우를 설명하기 위해서 사용한 도면.
도 23은 현재의 자세가 전체에 있고, 목표의 동작이 부위에 있는 경우에 있어서, 기본 자세로 일단 천이시키고 나서 목표로 하는 동작을 실행하는 경우의 설명에 사용한 도면.
도 24는 현재의 자세가 부위에 있고, 목표의 동작이 전체에 있는 경우에 있어서, 기본 자세로 일단 천이시키고 나서 목표로 하는 동작을 실행하는 경우의 설명에 사용한 도면.
도 25는 지령의 삽입 처리를 설명하기 위해서 사용한 도면.
도 26은 전체 및 각 구성 부분에 대응한 지령을 보존 가능하게 하는 지령 보존부를 도시한 도면.
도 27은 전체 및 각 구성 부분에 대응한 지령을 보존 가능하게 하는 지령 보존부에 의한 일례를 설명하기 위해 사용한 도면.
도 28은 경로를 탐색하는 동작 경로 탐색부를 도시한 블록도.
도 29는 지령에 의해 동작이 실행되기까지의 일련의 처리를 도시한 플로우 챠트.
도 30은 머리의 그래프 상에서, 현재의 자세로부터 목표의 동작까지 복수의유향(有向) 아크가 경유되는 것을 설명하기 위해서 사용한 도면.
도 31은 본 발명이 적용된 다른 예로서, 컴퓨터 그래픽으로 움직이는 캐릭터를 도시한 도면.
도 32는 본 발명에 의한 로봇 장치의 다른 실시예를 도시한 사시도.
본 발명은 상기의 실정을 감안하여 이루어진 것으로, 자연스러운 동작을 자율적으로 행하는 로봇 장치 및 동작 제어 방법의 제안을 목적으로 하고 있다.
또한, 본 발명은 상기의 실정을 감안하여 이루어진 것으로, 표현의 풍부화를 가능하게 함과 동시에, 천이했을 때의 자세나 동작이 최적화된 로봇 장치 및 동작 제어 방법의 제공을 목적으로 하고 있다.
구체적으로는 본 발명에 따른 로봇 장치는 공급되는 입력 정보에 따른 동작을 행하는 로봇 장치로서, 동작에 기인하는 모델을 가지며, 입력 정보에 근거하여 모델을 변화시킴으로써 동작을 결정하는 모델 변화 수단을 구비한다.
이러한 구성을 구비하는 로봇 장치는 동작에 기인하는 모델을 가지며, 입력 정보에 근거하여 모델을 변화시켜 동작을 결정함으로써, 예를 들면 모델을 감정 모델이나 본능 모델로 하면, 로봇 장치 자체의 감정이나 본능 등의 상태에 근거하여 자율적으로 행동하게 된다.
또한, 본 발명에 따른 동작 제어 방법은 공급되는 입력 정보에 따라서 동작시키는 동작 제어 방법으로서, 입력 정보에 근거하여 동작에 기인하는 모델을 변화시킴으로써 동작을 결정한다.
이러한 동작 제어 방법은 입력 정보에 근거하여 모델을 변화시켜 동작을 결정함으로써, 예를 들면 모델을 감정 모델이나 본능 모델로 하면, 로봇 장치를 자체의 감정이나 본능 등의 상태에 근거하여 자율적으로 행동하게 된다.
또한, 본 발명에 따른 로봇 장치는 공급되는 입력 정보에 따른 동작을 행하는 로봇 장치로서, 순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 입력 정보에 근거하여, 현재의 동작에 이어지는 다음의 동작을 결정하는 동작 결정 수단을 구비한다.
이러한 구성을 구비하는 로봇 장치는 순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 입력 정보에 근거하여 현재의 동작에 이어지는 다음의 동작을 결정함으로써, 로봇 장치 자체의 감정이나 본능 등의 상태에 근거하여 자율적으로 행동한다.
또한, 본 발명에 따른 동작 제어 방법은 공급되는 입력 정보에 따라서 동작시키는 동작 제어 방법으로서, 순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 입력 정보에 근거하여, 현재의 동작에 이어지는 다음의 동작을 결정한다.
이러한 동작 제어 방법은 순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 입력 정보에 근거하여 현재의 동작에 이어지는 다음의 동작을 결정함으로써, 예를 들면, 로봇 장치를 자체의 감정이나 본능 등의 상태에 근거하여 자율적으로 행동하게 한다.
또한, 본 발명에 따른 로봇 장치는 자세 및 동작이 등록되어 있는 그래프로서, 자세와 상기 자세를 천이시키는 동작을 연결하여 구성된 것을 유지하는 그래프 기억 수단과, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 행동 지령 정보에 근거하여, 그래프 상에서 탐색하여, 그 탐색 결과에 근거하여 동작시켜, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작으로 천이시키는 제어 수단을 구비한다.
이러한 구성을 구비하는 로봇 장치는 그래프 기억 수단에 기억되어 있는 자세 및 동작이 등록되어 있는 그래프로서, 자세와 상기 자세를 천이시키는 동작을 연결하여 구성된 것에 근거하여, 행동 지령 정보에 의해 지시된 목표로 하는 자세 또는 목표로 하는 자세까지 천이한다. 구체적으로는 로봇 장치는 제어 수단에 의해, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 행동 지령 정보에 근거하여 그래프 상에서 탐색하여, 그 탐색 결과에 근거하여 동작시켜, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작으로 천이시킨다.
또한, 본 발명에 따른 동작 제어 방법은 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 행동 지령 정보에 근거하여, 자세 및 상기 동작이 등록되어 구성되고, 자세와 상기 자세를 천이시키는 동작을 연결하여 구성된 그래프 상에서 탐색하고, 탐색 결과에 근거하여 동작시켜, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작으로 천이시킨다.
즉, 동작 제어 방법은 자세 및 동작이 등록되어 있는 그래프로서, 자세와 상기 자세를 천이시키는 동작을 연결하여 구성된 것에 근거하여, 행동 지령 정보에 의해 지시된 목표로 하는 자세 또는 목표로 하는 자세까지 천이시킨다.
이하, 본 발명의 실시예에 관해서 도면을 참조하여 자세히 설명한다.
(1) 로봇 장치의 구성
도 1에 도시한 바와 같이, 로봇 장치(1)는 전체가 구성되어 있고, 머리에 상당하는 두부(2)와, 동체에 상당하는 본체부(3)와, 발에 상당하는 발부(4A, 4B, 4C, 4D)와, 꼬리에 상당하는 꼬리부(5)를 연결하여 구성되어 있다. 로봇 장치(1)는 본체부(3)에 대하여 두부(2), 발부(4A 내지 4D), 꼬리부(5)를 움직임으로써 실물의 사족 동물과 같이 동작한다.
두부(2)에는 눈에 상당하여, 화상을 촬상하는 예를 들면, CCD(Charge Coupled Device) 카메라로 이루어진 화상 인식부(10)와, 귀에 상당하여, 음성을 집음하는 마이크(11)와, 입에 상당하여, 음성을 발하는 스피커(12)가 각각 소정 위치에 장착되어 있다. 또한, 두부(2)에는 사용자로부터 리모트 컨트롤러(도시하지 않음)를 통해 송신되는 지령을 수신하는 리모트 컨트롤러 수신부(13)와, 사용자의 손 등이 접촉된 것을 검출하기 위한 터치 센서(14)와, 발광 수단으로 이루어진 LED(Light Emitting Diode)(15)가 장착되어 있다.
본체부(3)에는 배에 상당하는 위치에 배터리(21)가 장착되는 동시에, 그 내부에 로봇 장치(1) 전체의 동작을 제어하기 위한 전자 회로(도시하지 않음) 등이 수납되어 있다.
발부(4A 내지 4D)의 관절 부분, 발부(4A 내지 4D)와 본체부(3)의 연결 부분, 본체부(3)와 두부(2)의 연결 부분, 본체부(3)와 꼬리부(5)의 연결 부분 등은 각각의 액추에이터(23A 내지 23N)에 의해 연결되어 있고, 본체부(3) 내부에 수납되는 전자 회로의 제어에 근거하여 구동하도록 이루어져 있다. 이와 같이 로봇 장치(1)는 각 액추에이터(23A 내지 23N)를 구동시킴으로써, 두부(2)를 상하 좌우로 흔들거나, 꼬리부(5)를 흔들리게 하거나, 발부(4A 내지 4D)를 움직여 걷거나 달리게 하기도 하여, 실물의 사족 동물과 같은 동작을 하게 한다.
이와 같이 구성되어 있는 로봇 장치(1)는 이 후에 상술하지만, 개략적으로 예를 들면 다음과 같은 특징이 있다.
로봇 장치가 어떤 자세(제 1 자세)로부터 다른 자세(제 2 자세)로 천이하도록 지시되었을 때, 제 1 자세로부터 제 2 자세로 직접적으로 천이하지 않고, 미리 준비된 무리 없는 자세를 찾아가 천이한다.
또한, 로봇 장치(1)의 자세 천이에서 임의의 자세에 도달하였을 때에 통지를 받아들인다.
로봇 장치(1)는 머리, 발, 꼬리의 부분으로 구성되고, 이들의 각 부분의 자세를 독립적으로 관리할 수 있다. 따라서, 예를 들면, 머리와 발은 각각 독립적으로 자세 제어가 가능하게 된다. 또한, 머리, 발, 꼬리의 모두를 포함하는 전체의자세를 부분과는 별도로 관리할 수 있다.
또한, 로봇 장치(1)의 동작 명령에 동작의 상세를 나타내기 위한 파라미터를 건네 줄 수 있다.
로봇 장치(1)에는 이상과 같은 특징이 있으며, 이하에 이러한 특징을 포함한 많은 특징을 설명한다.
(2) 로봇 장치의 회로 구성
로봇 장치(1)의 회로 구성은 예를 들면 도 2에 도시한 바와 같은 구성으로 되어 있다. 두부(2)는 마이크(11) 및 리모트 컨트롤러 수신부(13)로 이루어진 커맨드 수신부(30)와, 화상 인식부(10) 및 터치 센서(14)로 이루어지는 외부 센서(31)와, 스피커(12)와,LED(15)를 갖고 있다. 또한, 본체부(3)는 배터리(21)를 갖는 동시에, 그 내부에 로봇 장치(1) 전체의 동작을 제어하기 위한 컨트롤러(32)와, 배터리(21)의 잔량을 검출하기 위한 배터리 센서(33) 및 로봇 장치(1) 내부에서 발생하는 열을 검출하는 열 센서(34)로 이루어진 내부 센서(35)를 구비하고 있다. 또한, 로봇 장치(1)의 소정 위치에는 액추에이터(23A 내지 23N)가 각각 형성되어 있다.
커맨드 수신부(30)는 사용자로부터 로봇 장치(1)에 주어지는 지령, 예를 들면 「걸어라」,「엎드려라」, 「볼을 쫓아가라」 등의 지령을 수신하기 위한 것이며, 리모트 컨트롤러 수신부(13) 및 마이크(11)로 구성되어 있다.
리모트 컨트롤러 수신부(13)는 리모트 컨트롤러(도시하지 않음)가 사용자에 의해 조작되어 입력된 소망의 지령을 수신한다. 예를 들면, 리모트 컨트롤러로부터의 지령의 송신은 적외선 광에 의해 행하여진다. 리모트 컨트롤러 수신부(13)는 상기 적외선 광을 수신하여 수신 신호(S1A)를 생성하고, 이것을 컨트롤러(32)에 송출한다.
또한, 리모트 컨트롤러에 관해서는 적외선광에 의해 행하는 경우에 한정되는 것은 아니고, 음계에 의해서 로봇 장치(1)에 명령을 부여하도록 하는 것도 가능하다. 이 경우에는 로봇 장치(1)는 예를 들면, 마이크(11)로부터 입력된 리모트 컨트롤러로부터의 음계에 따른 처리를 행하도록 한다.
마이크(11)는 사용자가 소망의 지령에 따른 음성을 발하면, 해당 사용자의 발한 음성을 집음하여 음성 신호(S1B)를 생성하고, 이것을 컨트롤러(32)에 송출한다.
커맨드 수신부(30)는 이와 같이 사용자로부터 로봇 장치(1)에 주어지는 지령에 따라서 수신 신호(S1A) 및 음성 신호(S1B)로 이루어진 지령 신호(S1)를 생성하고, 이것을 컨트롤러(32)에 공급한다.
외부 센서(31)의 터치 센서(14)는 사용자로부터 로봇 장치(1)로 작용하여, 예를 들면 「쓰다듬는다」,「두드린다」 등의 작용을 검출하기 위한 것이다. 예를 들면, 사용자에 의해 터치 센서(14)가 접촉되어 소망의 작용이 이루어지면, 그 작용에 따른 접촉 검출 신호(S2A)를 생성하고, 이것을 컨트롤러(32)에 송출한다.
외부 센서(31)의 화상 인식부(10)는 로봇 장치(1)의 주위의 환경을 식별한 결과, 예를 들면 「어둡다」,「마음에 드는 떡이 있다」 등의 주위의 환경 정보 또는 예를 들면 「다른 로봇이 달리고 있다」 등의 다른 로봇 장치의 움직임을 검출하기 위한 것이다. 상기 화상 인식부(10)는 주위의 화상을 촬영한 결과 얻어지는 화상 신호(S2B)를, 컨트롤러(32)에 송출한다.
외부 센서(31)는 이와 같이 로봇 장치(1)의 외부에서 주어지는 외부 정보에 따라서 접촉 검출 신호(S2A) 및 화상 신호(S2B)로 이루어진 외부 정보 신호(S2)를 생성하고, 이것을 컨트롤러(32)에 송출한다.
내부 센서(35)는 로봇 장치(1) 자체의 내부 상태, 예를 들면 배터리 용량이 저하한 것을 의미하는 「배가 고프다」, 「열이 있다」 등의 내부 상태를 검출하기 위한 것이고, 배터리 센서(33) 및 열 센서(34)로 구성되어 있다.
배터리 센서(33)는 로봇 장치(1)의 각 회로에 전원을 공급하는 배터리(21)의 잔량을 검출하기 위한 것이다. 상기 배터리 센서(33)는 그 검출한 결과인 배터리 용량 검출 신호(S3A)를 컨트롤러(32)에 송출한다. 열 센서(34)는 로봇 장치(1)내부의 열을 검출하기 위한 것이다. 상기 열 센서(34)는 그 검출한 결과인 열 검출 신호(S3B)를 컨트롤러(32)에 송출한다.
내부 센서(35)는 이와 같이 로봇 장치(1)의 내부의 정보에 따라서 배터리 용량 검출 신호(S3A) 및 열 검출 신호(S3B)로 이루어진 내부 정보 신호(S3)를 생성하고, 이것을 컨트롤러(32)에 송출한다.
컨트롤러(32)는 커맨드 수신부(30)로부터 공급되는 지령 신호(S1)와, 외부 센서(31)로부터 공급되는 외부 정보 신호(S2)와, 내부 센서(35)로부터 공급되는 내부 정보 신호(S3)에 근거하여, 각 액추에이터(23A 내지 23N)를 구동시키기 위한 제어 신호(S5A 내지 S5N)를 생성하고, 이들을 액추에이터(23A 내지 23N)에 각각 송출하여 구동시킴으로써 로봇 장치(1)를 동작시킨다.
그 때 컨트롤러(32)는 외부로 출력하기 위한 음성 신호(S10)나 발광 신호(S11)를 필요에 따라서 생성하고, 이 중 음성 신호(S10)를 스피커(12)를 통해 외부로 출력하거나, 발광 신호(S11)를 LED(15)에 송출하여 소망의 발광 출력(예를 들면, 점멸로 하는, 색을 변화시킨다)을 함으로써, 사용자에게 필요한 정보를 알리 도록 이루어져 있다. 예를 들면, 발광 출력에 의해, 사용자에게 자기의 감정을 알리도록 한다. 또한, LED(15)를 대신하여 화상을 표시하는 화상 표시부를 구비하는 것도 가능하다. 이로써, 소망의 화상 표시에 의해, 사용자에게 필요한 정보, 예를 들면 감정 등을 알릴 수 있다.
(3) 컨트롤러에 있어서의 처리
컨트롤러(32)는 커맨드 수신부(30)로부터 공급되는 지령 신호(S1)와, 외부 센서(31)로부터 공급되는 외부 정보 신호(S2)와, 내부 센서(35)로부터 공급되는 내부 정보 신호(S3)를, 소정의 기억 영역에 미리 격납되어 있는 프로그램에 근거하여 소프트웨어적으로 데이터 처리를 실시하고, 그 결과 얻어지는 제어 신호(S5)를 액추에이터(23)에 공급한다.
이 때의 액추에이터(23)의 동작이 로봇 장치(1)의 행동으로서 표현되어지게되어, 본 발명은 그와 같은 표현의 풍부화의 실현을 목적으로 하는 것이다.
도 3에 도시한 바와 같이, 컨트롤러(32)는 그 데이터 처리의 내용을 기능적으로 분류하면, 감정 본능 모델 변화 수단으로서의 감정·본능 모델부(40)와 동작 결정 수단으로서의 행동 결정 기구부(41)와 자세 천이 수단으로서의 자세 천이 기구부(42)와 제어 기구부(43)로 나누어지고, 외부로부터 공급되는 지령 신호(S1)와 외부 정보 신호(S2)와 내부 정보 신호(S3)를 감정·본능 모델부(40) 및 행동 결정 기구부(41)에 입력한다. 개략적으로는 아래와 같이 기능한다.
감정·본능 모델부(40)에 있어서 지령 신호(S1), 외부 정보 신호(S2) 및 내부 정보 신호(S3)에 근거하여 감정이나 본능의 상태를 결정한다. 그리고, 행동 결정 기구부(41)에 있어서 지령 신호(S1), 외부 정보 신호(S2) 및 내부 정보 신호(S3)에 가하여 감정·본능 모델부(40)에 의해 얻은 감정·본능 상태 정보(S10)에 근거하여 다음의 동작(행동)을 결정하고, 후단의 자세 천이 기구부(42)에 있어서 행동 결정 기구부(41)에 의해 결정된 다음의 동작(행동)으로 천이하기 위한 자세의 천이 계획을 세운다. 또한, 행동 결정 기구부(41)가 결정한 동작(행동)의 정보는 감정·본능 모델부(40)에 피드백되어, 감정·본능 모델부(40)에서는 결정된 동작(행동)을 참조하여 감정이나 본능의 상태를 결정하도록 이루어져 있다. 즉, 감정·본능 모델부(40)에서는 동작(행동) 결과를 참조하여 본능 및 감정을 결정하고 있다.
제어 기구부(43)에서는 자세 천이 기구부(42)로부터 자세 천이 계획에 근거하여 보내오는 자세 천이 정보(S18)에 근거하여 각 동작부를 제어하고, 실제로 자세를 천이시키고 나서, 행동 결정 기구부(41)에서 결정된 다음의 동작(행동)을 실제로 실행한다.
즉, 로봇 장치(1)는 상술한 바와 같은 컨트롤러(32)에 있어서의 기구에 의해, 감정·본능에 근거하여 다음의 동작(행동)을 결정하여, 그와 같은 동작(행동)을 실행할 수 있는 자세까지의 천이 계획을 세워, 그 천이 계획에 근거하여 자세를 천이시키고 나서, 그와 같은 감정·본능에 근거하여 결정한 동작(행동)을 실제로 실행한다. 이하, 상술의 컨트롤러(32)의 각 구성부에 관해서 설명한다.
(3-1) 감정·본능 모델부에서의 처리
감정·본능 모델부(40)는 도 4에 도시한 바와 같이, 크게 구별하여, 감정 모델을 구성하는 정동군(情動群)(50)과, 감정 모델과는 속성이 다른 모델로서 준비된 본능 모델을 구성하는 욕구군(51)을 구비하고 있다.
여기서, 감정 모델은 어떤 값을 갖는 감정 파라미터에 의해서 구성되고, 로봇 장치에 규정된 감정을 감정 파라미터의 값에 따른 동작을 통해 표출시키기 위한 모델이다. 감정 파라미터는 주로, 압력 센서나 시각 센서 등의 센서에 의해서 검출된 「두드려맞았다」,「꾸중 들었다」와 같은 외부 입력 신호(외적 요인)에 근거하여, 값이 상하한다. 물론, 감정 파라미터는 배터리 잔량, 체내 온도 등의 내부 입력 신호(내적 요인)에 근거하여 변화하는 경우도 있다.
또한, 본능 모델은 어떤 값을 갖는 본능 파라미터로 구성되고, 로봇 장치에 규정된 본능(욕구)을 본능 파라미터의 값에 따른 동작을 통해 표출시키기 위한 모델이다. 본능 파라미터는 주로, 행동 이력에 의거한 「운동이 하고 싶다」 또는, 배터리 잔량에 근거한 「충전이 하고 싶다(배가 고프다)」와 같은 내부입력 신호에 근거하여, 값이 상하한다. 물론, 본능 파라미터도, 감정 파라미터와 동일하게 외부 입력 신호(외적 요인)에 근거하여 변화할 수 있다.
이들 감정 모델 및 본능 모델은 각각 동일 속성이 되는 복수 종류의 모델로구성되어 있다. 즉 정동군(50)이 동일 속성으로 이루어지는 독립된 감정 모델로서의 정동 유닛(50A 내지 50F)을 갖고, 욕구군(51)이 동일 속성으로 이루어진 독립된욕구 모델로서의 욕구 유닛(51A 내지 51D)을 갖고 있다.
정동군(50)으로서는 「기쁨」의 감정을 나타내는 정동 유닛(50A), 「슬픔」의 감정을 나타내는 정동 유닛(50B), 「노함」의 감정을 나타내는 정동 유닛(50C), 「놀람」의 감정을 나타내는 정동 유닛(50D), 「두려움 」의 감정을 나타내는 정동 유닛(50E) 및 「혐오」의 감정을 나타내는 정동 유닛(50F) 등을 들 수 있다. 욕구군(51)으로서는 「운동욕(Movement Instinct)」의 욕구를 나타내는 욕구 유닛(51A), 「애정욕(Love Instinct)」의 욕구를 나타내는 욕구 유닛(51B), 「식욕(Recharge Instinct)」의 욕구를 나타내는 욕구 유닛(51C) 및 「호기심(Search Instinct)」의 욕구를 나타내는 욕구 유닛(51D) 등을 들 수 있다.
정동 유닛(50A 내지 50F)은 정동의 정도를 예를 들면 0 내지 100 레벨까지의 강도(감정 파라미터)에 의해서 각각 나타내고, 공급되는 지령 신호(S1), 외부 정보 신호(S2) 및 내부 정보 신호(S3)에 근거하여 정동의 강도를 각각 시시각각 변화시킨다. 이렇게 감정·본능 모델부(40)는 시시각각으로 변화하는 정동 유닛(50A 내지 50D)의 강도를 조합시킴으로써 로봇 장치(1)의 감정의 상태를 표현하고, 감정의 시간변화를 모델화하고 있다.
또한, 소망의 정동 유닛끼리가 서로 영향을 주어 강도가 변화하도록도 이루어져 있다. 예를 들면, 정동 유닛끼리를 상호 억제적 또는 상호 자극적으로 결합하여, 서로 영향을 주어 강도가 변화하도록 하고 있다.
구체적으로는 도 5에 도시한 바와 같이, 「기쁨」의 정동 유닛(50A)과 「슬픔」의 정동 유닛(50B)을 상호 억제적으로 결합함으로써, 사용자에게 칭찬받았을 때에는 「기쁨」의 정동 유닛(50A)의 강도를 크게하는 동시에, 그 때 「슬픔」의 정동 유닛(50B)의 강도를 변화시키도록 입력 정보(S1 내지 S3)가 공급되어 있지 않더라도, 「기쁨」의 정동 유닛(50A)의 강도가 커짐에 따라서 「슬픔」의 정동 유닛(50B)의 강도를 저하시킨다. 마찬가지로 「슬픔」의 정동 유닛(50B)의 강도가 커지면, 해당 「슬픔」의 정동 유닛(50B)의 강도가 커짐에 따라서 「기쁨」의 정동 유닛(50A)의 강도를 저하시킨다.
또한, 「슬픔」의 정동 유닛(50B)과 「노함 」의 정동 유닛(50C)을 상호 자극적으로 결합함으로써, 사용자에게 두드려맞았을 때에는 「노함」의 정동 유닛(50C)의 강도를 크게함과 동시에, 그 때「슬픔」의 정동 유닛(50B)의 강도를 변화시키도록 입력 정보(S1 내지 S3)가 공급되어 있지 않더라도, 「노함」의 정동 유닛(50C)의 강도가 커짐에 따라서 「슬픔」의 정동 유닛(50B)의 강도를 증대시킨다. 마찬가지로, 「슬픔」의 정동 유닛(50B)의 강도가 커지면, 해당 「슬픔」의 정동 유닛(50B)의 강도가 커짐에 따라서 「노함」의 정동 유닛(50C)의 강도를 증대시킨다.
이와 같이 소망의 정동 유닛끼리가 서로 영향을 주어 강도가 변화하도록 함으로써, 해당 결합한 정동 유닛 중 한쪽의 정동 유닛의 강도를 변화시키면, 이것에 따라서 다른쪽의 정동 유닛의 강도가 변화하게 되어, 자연스러운 감정을 갖는 로봇 장치(1)가 실현된다.
한편, 욕구 유닛(51A 내지 51D)은 정동 유닛(50A 내지 50F)과 동일하게, 욕구의 정도를 예를 들면 0 내지 1O0 레벨까지의 강도(본능 파라미터)에 의해서 각각 나타내며, 공급되는 지령 신호(S1)와 외부 정보 신호(S2)와 내부 정보 신호(S3)에 의거하여, 욕구의 강도를 각각 시시각각으로 변화시킨다. 이렇게 감정·본능 모델부(40)는 시시각각으로 변화하는 욕구 유닛(51A 내지 51D)의 강도를 조합시킴으로써 로봇 장치(1)의 본능의 상태를 표현하고, 본능의 시간변화를 모델화하고 있다.
또한, 정동 유닛 끼리를 결합한 경우와 동일하게, 소망의 욕구 유닛 끼리가 서로 영향을 주어 강도가 변화하도록도 이루어져 있다. 예를 들면, 욕구 유닛끼리를 상호 억제적 또는 상호 자극적으로 결합하고, 서로 영향을 주어 강도가 변화하도록 하고 있다. 이로 인해, 결합한 욕구 유닛 중 한쪽의 욕구 유닛의 강도를 변화시키면, 이것에 따라서 다른쪽의 욕구 유닛의 강도가 변화하게 되어, 자연스러운 본능을 갖는 로봇 장치(1)가 실현된다.
또한, 정동군(50)과 욕구군(51)과의 사이에서 각 유닛이 서로 영향을 주어, 그 강도를 변화시키도록 이루어져 있다. 예를 들면, 욕구군(51)의 「애정욕」의 욕구 유닛(51B)이나 「식욕」의 욕구 유닛(51C)의 강도의 변화가, 정동군(50)의 「슬픔」의 정동 유닛(50B)이나 「노함」의 정동 유닛(50C)의 강도의 변화에 영향을 주거나, 「식욕」의 욕구 유닛(51C)의 강도의 변화가 「슬픔」의 정동 유닛(50B)이나 「노함」의 정동 유닛(50C)의 강도의 변화에 영향을 주도록 한다. 이로 인해, 「애정욕」이 채워지면 「노함」의 감정이나 「슬픔」의 감정이 억제되고, 또한, 「식욕」이 채워지지 않으면 「노함」의 감정이나 「슬픔」의 감정이 높아진 상태를 표현할 수 있게 된다. 이와 같이, 감정과 욕구의 상호 작용에 의해, 감정과 본능이 복잡하게 서로 영향한 상태를 표현할 수 있다.
이상 설명한 바와 같이, 감정·본능 모델부(40)는 지령 신호(S1)와 외부 정보 신호(S2)와 내부 정보 신호(S3)로 이루어진 입력 정보(S1 내지 S3), 또는 정동군(50)내 및 욕구군(51) 내에서의 정동 유닛 끼리의 상호 작용이나 정동군(50)과 욕구군(51)과의 사이의 유닛 끼리의 상호 작용 등에 의해 정동 유닛(50A 내지 50F) 및 욕구 유닛(51A 내지 51D)의 강도를 각각 변화시킨다.
그리고, 감정·본능 모델부(40)는 상기 변화한 정동 유닛(50A 내지 50F)의 강도를 조합시킴으로써 감정의 상태를 결정하는 동시에, 변화한 욕구 유닛(51A 내지 51D)의 강도를 조합시킴으로써 본능의 상태를 결정하고, 해당 결정된 감정 및 본능의 상태를 감정·본능 상태 정보(S10)로서 행동 결정 기구부(41)에 송출한다.
또한, 감정·본능 모델부(40)에는 후단의 행동 결정 기구부(41)로부터 로봇 장치(1) 자체의 현재 또는 과거의 행동의 내용을 나타내는 행동 정보(S12)가 공급되어 있다. 예를 들면, 후술하는 행동 결정 기구부(41)에 있어서 보행의 행동이 결정된 경우에는 「장시간 걸었다」로 된 정보로서 행동 정보(S12)가 공급되는 것이다.
이와 같이 행동 정보(S12)를 피드백시킴으로써, 동일의 입력 정보(S1 내지 S3)가 주어지더라도, 해당 행동 정보(S12)가 나타내는 로봇 장치(1)의 행동에 따라서 다른 감정·본능 상태 정보(S10)를 생성할 수 있게 된다. 구체적으로는 다음과 같은 구성에 의해, 피드백된 행동 정보(S12)가 감정이나 행동의 상태의 결정에 참조된다.
도 6에 도시한 바와 같이, 감정·본능 모델부(40)는 각 정동 유닛(50A 내지 50C)의 전단에, 로봇 장치(1)의 행동을 나타내는 행동 정보(S12)와 입력 정보(S1 내지 S3)에 근거하여 각 정동 유닛(50A 내지 50C)의 강도를 증감시키기 위한 강도정보(S14A 내지 S14C)를 생성하는 강도 증감 수단(55A 내지 55C)을 각각 형성하고, 해당 강도 증감 수단(55A 내지 55C)에서 출력된 강도 정보(S14A 내지 S14C)에 따라서 각 정동 유닛(50A 내지 50C)의 강도를 각각 증감시킨다.
예를 들면, 감정·본능 모델부(40)는 사용자에게 인사를 하였을 때에 머리를 어루만지면, 즉 사용자에게 인사를 하였다고 하는 행동 정보(S12)와 머리를 쓰다듬었다고 하는 입력 정보(S1 내지 S3)가 강도 증감 수단(55a)에 주어지면, 「기쁨」의 정동 유닛(50A)의 강도를 증가시킨다. 한편, 감정·본능 모델부(40)는 어떠한 일을 실행 중에 머리를 어루만지더라도, 즉 일을 실행 중이라고 하는 행동 정보(S12)와 머리를 쓰다듬었다고 하는 입력 정보(S1 내지 S3)가 강도 증감 수단(55a)에 주어지더라도, 「기쁨」의 정동 유닛(50A)의 강도를 변화시키지 않는다. 예를 들면, 강도 증감 수단(55a)은 행동 정보(S12)와 입력 정보(S1 내지 S3)에 근거하여 강도 정보(S14A 내지 S14C)를 생성하도록 함수나 테이블로서 구성되어 있다. 예를 들면, 다른 강도 증감 수단(55b, 55C)에 관해서도 동일하다.
이와 같이, 감정·본능 모델부(40)는 강도 증감 수단(55A 내지 55C)을 구비하여, 입력 정보(S1 내지 S3) 뿐만 아니라 현재 또는 과거의 로봇 장치(1)의 행동을 나타내는 행동 정보(S12)도 참조하면서 각 정동 유닛(50A 내지 50C)의 강도를결정함으로써, 예를 들면 어떠한 태스크를 실행 중에 사용자가 장난할 작정으로 머리를 쓰다듬었을 때, 「기쁨」의 정동 유닛(50A)의 강도를 증가시키는 것과 같은 부자연한 감정을 일으키는 것을 피할 수 있다. 즉, 감정·본능 모델부(40)는 욕구 유닛(51A 내지 51C)의 경우도 동일하게 하여, 공급되는 입력 정보(S1 내지 S3) 및 행동 정보(S12)에 근거하여 각 욕구 유닛(51A 내지 51C)의 강도를 각각 증감시키도록 이루어져 있다.
또한, 본 실시예에서는 「기쁨」, 「슬픔」 및 「노함」의 정동 유닛(50A 내지 50C)에 강도 증감 수단(55A 내지 55C)을 구비한 예에 대해서 설명하였다. 그러나, 이것에 한정되는 것이 아니라, 그밖의 「놀람」, 「두려움 」 및 「혐오」의 정동 유닛(50D 내지 50F)에 강도 증감 수단을 구비할 수 있음은 말할 것도 없다.
이상 기술된 바와 같이, 강도 증감 수단(55A 내지 55C)은 입력 정보(S1 내지 S3) 및 행동 정보(S12)가 입력되면, 미리 설정되어 있는 파라미터에 따라서 강도 정보(S14A 내지 S14C)를 생성하여 출력하기 때문에, 해당 파라미터를 로봇 장치(1)마다 다른 값으로 설정함으로써, 예를 들면 화를 잘내는 로봇 장치나 밝은 성격의 로봇 장치와 같이, 해당 로봇 장치에 개성을 갖게 할 수 있다.
(3-2) 행동 결정 기구부에서의 처리
행동 결정 기구부(41)는 각종 정보에 의거하여, 다음의 동작(행동)을 결정하는 부분이다. 행동 결정 기구부(41)는 구체적으로는 도 3에 도시한 바와 같이, 지령 신호(S1)와 외부 정보 신호(S2)와 내부 정보 신호(S3)와 감정·본능 상태 정보(S10)와 행동 정보(S12)로 이루어진 입력 정보(S14)에 근거하여, 다음의 동작(행동)을 결정하고, 해당 결정된 동작(행동)의 내용을 행동 지령 정보(S16)로서 자세 천이 기구부(42)에 송출한다.
구체적으로는 도 7에 도시한 바와 같이, 행동 결정 기구부(41)는 과거에 공급된 입력 정보(S14)의 이력을 동작 상태(이하, 이것을 스테이트)로 나타내며, 현재 공급된 입력 정보(S14)와 그 때의 스테이트에 근거하여 해당 스테이트를 별도의 스테이트로 천이시킴으로써, 다음의 동작을 결정하도록 유한개의 스테이트를 갖는 확률 유한 오토마톤(57)이라고 하는 알고리즘을 사용하고 있다.
이와 같이 행동 결정 기구부(41)는 입력 정보(S14)가 공급될때 마다 스테이트를 천이시키고, 상기 천이한 스테이트에 따라서 행동을 결정함으로써, 현재의 입력 정보(S14) 뿐만 아니라 과거의 입력 정보(S14)도 참조하여 동작을 결정할 수 있게 된다.
이것에 의해, 예를 들면 「볼을 쫓아가고 있다」라는 스테이트(ST1)에 있어서, 「볼이 보이지 않게 되었다」라는 입력 정보(S14)가 공급되면, 「서 있다」라는 스테이트(ST5)로 천이한다. 한편으로, 「자고 있다」라는 스테이트(ST2)에 있어서, 「일어나라」라는 입력 정보(S14)가 공급되면, 「서 있다」라는 스테이트 (ST4)로 천이하게 된다. 따라서, 스테이트(ST4) 및 스테이트(ST5)는 행동이 동일일지라도 과거의 입력 정보(S14)의 이력이 다르기 때문에, 스테이트도 다른 것을 알 수 있다.
실제상, 행동 결정 기구부(41)는 소정의 트리거가 있는 것을 검출하면, 현재의 스테이트를 다음 스테이트로 천이시킨다. 트리거의 구체적인 예로서는 예를 들면 현재의 스테이트의 행동을 실행하고 있는 시간이 일정치에 달한 것, 또는 특정의 입력 정보(S14)가 입력된, 또는 감정·본능 모델부(40)로부터 공급되는 감정·본능 상태 정보(S10)가 나타내는 정동 유닛(50A 내지 50F) 및 욕구 유닛(51A 내지 51D)의 강도 중, 소망의 유닛의 강도가 소정의 임계치를 초과하는 것 등을 들 수 있다.
예를 들면, 행동 결정 기구부(41)는 감정·본능 모델부(40)로부터 공급된 감정·본능 상태 정보(S10)가 나타내는 정동 유닛(50A 내지 50F) 및 욕구 유닛(51A 내지 51D)의 강도 중, 소망의 유닛의 강도가 소정의 임계치를 초과하고 있는지의 여부에 근거하여 천이처의 스테이트를 선택한다. 이로써, 예를 들면 동일의 지령 신호(S1)가 입력되더라도, 정동 유닛(50A 내지 50F) 및 욕구 유닛(51A 내지 51D)의 강도에 따라서 다른 스테이트로 천이하도록 이루어져 있다.
따라서, 행동 결정 기구부(41)는 공급되는 외부 정보 신호(S2)를 기초로 예를 들면 눈앞에 손바닥이 내밀어진 것을 검출하고, 또한 감정·본능 상태 정보(S10)를 기초로 「노함」의 정동 유닛(50C)의 강도가 소정의 임계치 이하인 것을 검출하고, 또한 내부 정보 신호(S3)를 기초로 「배가 고프지 않다」, 즉 전지 전압이 소정의 임계치 이상인 것을 검출하면, 눈앞에 손바닥이 내밀어진 것에 따라서 「손」의 동작을 행하게 하기 위한 행동 지령 정보(S16)를 생성하고, 이것을 자세 천이 기구부(42)에 송출한다.
또한, 행동 결정 기구부(41)는 예를 들면 눈앞에 손바닥이 내밀게 되고, 또한「노함」의 정동 유닛(50C)의 강도가 소정의 임계치 이하이며, 또한 「배가 비어있다」 즉, 전지 전압이 소정의 임계치 미만인 것을 검출하면, 「손바닥을 날름날름 핥는다」와 같은 동작을 행하게 하기 위한 행동 지령 정보(S16)를 생성하고, 이것을 자세 천이 기구부(42)에 송출한다.
또한, 행동 결정 기구부(41)는 예를 들면 눈앞에 손바닥이 내밀어지고, 또한「노함」의 정동 유닛(50C)의 강도가 소정의 임계치 이상인 것을 검출하면, 「배가 비어 있지 않다」 즉, 전지 전압이 소정의 임계치 이상인지의 여부에 관계 없이, 「홱 옆을 향한다」와 같은 동작을 행하게 하기 위한 행동 지령 정보(S16)를 생성하고, 이것을 자세 천이 기구부(42)에 송출한다.
상술과 같이 행동 결정 기구부(41)는 다음 행동을 입력 정보(S14)에 근거하여 결정하고 있지만, 예를 들면 도 8에 도시한 바와 같이, 결정되는 행동의 내용을, 「행동 1」,「행동 2」,「행동 3」,「행동 4」,···「행동 n」과 같은 행동 내용을 나타내는 정보로서 복수 유지하고 있다. 예를 들면, 「행동 1」은 볼을 차는 행동을 행하는 동작 내용으로 이루어지고, 「행동 2」는 감정을 표출시키는 동작 내용으로 이루어지며, 「행동 3」은 자율 탐색을 하는 동작 내용으로 이루어지고, 「행동 4」는 장해물을 피하기 위한 동작 내용으로 이루어지고, 「행동 n」은 배터리 잔량이 적은 것을 알리기 위한 동작 내용으로 이루어지는 것이다.
이와 같이 미리 준비되어 있는 행동 내용을 나타내는 복수의 정보 중에서, 입력 정보(S14)에 근거하여 확률 유한 오토마톤(57)에 의한 선택이 이루어져, 다음 행동이 결정된다.
행동의 선택(결정)에 관해서는 구체적으로는 도 8에 도시한 바와 같이, 선택모듈(44)에 의해서 이루어진다. 그리고, 선택 모듈(44)은 그 선택 결과를, 행동 지령 정보(S16)로서 자세 천이 기구부(42)에 출력하고, 행동 정보(S12)로서 감정·본능 모델부(40)나 행동 결정 기구부(41)에 출력한다. 예를 들면, 선택 모듈(44)은 결정한 행동에 플래그를 세워, 그 정보를 행동 정보(S12)나 행동 지령 정보(S16)로서 행동 결정 기구부(41)나 자세 천이 기구부(42)에 출력하고 있다.
행동 결정 기구부(41)에서는 외부 정보(지령 신호 S1, 외부 정보 신호 S2) (S21)등이나 내부 정보(내부 정보 신호 S3, 감정·본능 상태 정보 S1O)(S22) 등에 가하여 행동 정보(S12)에 근거하여 행동을 결정함으로써, 이전의 행동이 고려된 다음 행동을 결정할 수 있게 된다.
또한, 감정·본능 모델부(40)에서는 상술한 바와 같이, 동일의 입력 정보(S1 내지 S3)에 부가하여 행동 정보(S12)에 근거하여, 감정 및 본능의 상태를 변화시킨다. 이로써, 감정·본능 모델부(40)는 상술한 바와 같이, 동일의 입력 정보(S1 내지 S3)가 주어지더라도 다른 감정·본능 상태 정보(S10)를 생성할 수 있게 된다.
또한, 행동 결정 기구부(41)의 「행동 1」,「행동2」,「행동 3」,「행동 4」,···「행동 n」의 동작 내용을 나타내는 정보에 그룹 ID를 부가하여 놓을 수있다. 그룹 ID는 동일 카테고리의 행동에 있어서 동일의 정보를 나타내는 것으로서, 예를 들면, 「볼을 찬다」의 행동에 관해서 복수 패턴의 행동을 가지고 있는 경우에는 해당 복수의 행동에 동일의 그룹 ID가 부가되는 관계에 있다. 이와 같이 동일 카테고리의 행동에 동일의 그룹 ID를 부가함으로써, 동일 카테고리의 행동을 그룹으로서 처리할 수 있게 된다.
예를 들면, 선택 모듈(44)에 있어서의 행동의 선택에서는 동일 카테고리내에서는 어떤 행동이 선택되더라도, 동일의 그룹 ID가 발행된다. 그리고, 해당 선택된 행동에 부가되어 있던 그룹 ID가 감정·본능 모델부(40)에 보내어짐으로써, 감정·본능 모델부(40)는 그룹 ID에 의거하여, 감정이나 본능의 상태를 결정할 수 있게 된다.
또한, 행동 결정 기구부(41)는 감정·본능 모델부(40)로부터 공급된 감정·본능 상태 정보(S10)가 나타내는 정동 유닛(50A 내지 50F) 및 욕구 유닛(51A 내지 51D)의 강도 중 소망의 유닛의 강도에 근거하여, 천이처의 스테이트에서 행하여지는 행동의 파라미터, 예를 들면 보행의 속도, 손발을 움직일 때의 움직임의 크기나 속도, 소리를 낼 때의 소리의 높이나 크기 등을 결정하고, 해당 행동의 파라미터에 따른 행동 지령 정보(S16)를 생성하여 자세 천이 기구부(42)에 송출하도록 이루어져 있다.
또한, 지령 신호(S1)와 외부 정보 신호(S2)와 내부 정보 신호(S3)로 이루어진 입력 정보(S1 내지 S3)는 감정·본능 모델부(40) 및 행동 결정 기구부(41)에 입력된 타이밍에 따라서 정보의 내용이 다르기 때문에, 감정·본능 모델부(40)와 함께 행동 결정 기구부(41)에도 입력되도록 이루어져 있다.
예를 들면, 컨트롤러(32)는 「머리를 쓰다듬었다」라고 하는 외부 정보 신호(S2)가 공급되면, 감정·본능 모델부(40)에 의해서 「기쁘다」라는 감정·본능 상태 정보(S10)를 생성하고, 해당 감정·본능 상태 정보(S10)를 행동 결정 기구부(41)에 공급하지만, 이 상태에 있어서, 「손이 눈앞에 있다」라는 외부 정보신호(S2)가 공급되면, 행동 결정 기구부(41)에 있어서 상술의 「기쁘다」라는 감정·본능 상태 정보(S10)와 「손이 눈앞에 있다」라는 외부 정보 신호(S2)에 근거하여 「기뻐서 손짓을 한다」라는 행동 지령 정보(S16)를 생성시켜, 이것을 자세 천이 기구부(42)에 송출시키도록 이루어져 있다.
또한, 동작 상태(스테이트(또는 노드))의 천이처는 확률 유한 오토마톤(57)에 있어서, 어떤 확률에 의해 결정되도록 하고 있다. 예를 들면, 외부에서의 입력이 있는 경우에, 그 입력에 의해, 어떤 동작 상태(행동 상태)에 20%의 확률(천이 확률)로 천이하도록 한다. 구체적으로는 도 9에 도시한 바와 같이, 「걷고 있다」의 스테이트(ST10)로부터, 「달리고 있다」의 스테이트(ST11)나 「자고 있다」의 스테이트(ST12)로 천이 가능한 경우에 있어서, 「달리고 있다」의 스테이트(ST11)로의 천이 확률이 P₁로 되고, 「자고 있다」의 스테이트(ST12)로의 천이 확률이 P₂로 되며, 그와 같은 확률에 근거하여 천이처가 결정된다. 또한, 확률에 따라 천이처를 결정하는 기술로서는 특개평9-114514 공개 공보에 개시되어 있는 기술을 들 수 있다.
또한, 로봇 장치(1)는 어떤 스테이트로 천이할 확률의 정보를, 테이블로서 유지하고 있다. 예를 들면, 도 10에 도시한 바와 같은 테이블로서이다. 도 10에 도시한 테이블은 현재의 행동 상태를 나타내는 노드(node)명, 입력된 이벤트명, 입력된 이벤트(이하, 입력 이벤트)의 데이터명, 입력 이벤트의 데이터의 범위, 어떤 스테이트로의 천이 확률 등의 정보로 구성되어 있다.
이러한 테이블에 의해, 입력된 이벤트에 따라서 있는 스테이트로의 천이 확률이 결정되고, 그 천이 확률에 근거한 천이처 스테이트의 결정이 이루어진다.
여기서, 현재의 행동 상태를 나타내는 노드명이란, 이러한 현재의 로봇 장치(1)의 행동 상태(스테이트)를 나타내는 것으로, 현재 어떠한 행동이 실행되고 있는 가를 나타낸다.
또한, 입력 이벤트란, 로봇 장치(1)에 입력된 정보로서, 상기 테이블은 이러한 입력 이벤트에 의해서 정리되어 있다. 예를 들면, 입력 이벤트명의 「BALL」는 입력 이벤트가 볼의 발견한 것을 말하고, 「PAT」는 가볍게 두드려 맞은 것을 나타내는 것을 말하고, 「HIT」는 맞은 것을 말하고, 「MOTION」은 움직이고 있는 것을 발견한 것을 말하고, 「OBSTACLE」는 장해물을 찾아 낸 것을 말한다.
또한, 테이블은 실제로는 많은 입력 이벤트에 의해서 정리되어 있고, 본 실시예에서는 「BALL」,「PAT」,「HIT」,「MOTION」,및「OBSTACLE」의 입력 이벤트에 의해 테이블이 정리되어 있는 경우에 관해서 설명한다.
입력 이벤트의 데이터 범위는 입력 이벤트가 파라미터를 필요로 하는 경우의 데이터의 범위를 말하고, 입력 이벤트의 데이터명은 그와 같은 파라미터명을 말하고 있다. 즉, 입력 이벤트가 「BALL」이면, 데이터명은 그 볼의 크기 「SIZE」를 말하고, 데이터의 범위는 크기의 범위가 0 내지 1000인 것을 말한다. 마찬가지로, 입력 이벤트가 「OBSTACLE」이면, 데이터명은 그 거리 「DISTANCE」를 말하고, 데이터의 범위는 거리의 범위가 0 내지 100인 것을 말한다.
그리고, 어떤 스테이트로의 천이 확률은 입력 이벤트의 성질에 따라서 선택가능하게 되는 복수의 스테이트에 관해서 할당되어 있다. 즉, 하나의 입력 이벤트에 있어서, 선택 가능하게 되는 스테이트에 부가된 천이 확률의 합계가 100%가 되도록 각 아크에 천이 확률이 부가되어 있다. 구체적으로 말하면, 「BALL」의 입력 이벤트에서 본 경우, 해당 입력 이벤트의 성질에 의해 선택 가능하게 되는 「ACTION1」,「ACTION3」,···에 부가되어 있는 천이 확률인 30%, 20%, ···의 합계가, 100%가 되도록 되어 있다.
또한, 여기서 「노드」 및 「아크」는 소위 확률 유한 오토마톤에 있어서 일반적으로 정의되어 있는 것으로, 「노드」는 상태(본 예에서는 행동 상태)로 되고, 「아크」는 「노드」 사이를 어떤 확률을 가지고서 열결하는 유향선(본 예에서는 천이 동작)으로 되어 있다.
이상과 같은 정보로 이루어진 테이블에 의해, 다음과 같이, 입력 이벤트, 입력 이벤트에 있어서 취득된 데이터의 범위 및 천이 확률이 참조되어, 천이처의 스테이트가 선택된다.
예를 들면, 로봇 장치(1)가 볼을 발견한 경우(입력 이벤트가 「BALL」인 경우)에 있어서, 그 볼의 크기가 0 내지 1000일 때에는 현재의 상태인 node(노드)3로부터 30%의 확률로 node 120으로 천이한다. 천이시에 「ACTION1」이 부가된 아크가 선택되고, 「ACTION1」에 대응하는 동작 또는 표현이 실행된다. 또는 현재의 상태인 node3으로부터 20%의 확률로 node 500으로 천이한다. 천이시에 「ACTION3」이 부가된 아크가 선택되고, 「ACTION3」에 대응하는 동작 또는 표현이 실행된다. 「ACTION1」, 「ACTION3」으로서는 예를 들면, 「짖는다」,「볼을 찬다」와 같은 행동을 들 수 있다. 한편, 볼의 크기가 1000이상일 때에는 「node 120」이나「node 500」가 천이처로서 선택될 확률은 없다.
또한, 로봇 장치(1)가 장해물을 찾아 낸 경우(입력 이벤트가「OBSTACLE」인 경우)에 있어서, 그 장해물까지의 거리가 0 내지 100일 때에는 후퇴 행동으로서의「node 1000」의 노드(스테이트)가 100%의 확률로 선택된다. 즉, 100%의 확률로 「MOVE_BACK」이 부가된 아크가 선택되어, 「MOVE_BACK」이 실행되어지게 된다.
이상 기술한 바와 같이, 테이블 등을 사용하여, 확률에 의해, 스테이트(노드) 또는 아크의 선택, 즉 행동 모델의 결정을 할 수 있다. 이와 같이, 확률도 고려하여 천이처의 스테이트를 결정함으로써, 천이처가 항상 같은 것으로서 선택되는 것을 방지할 수 있게 된다. 즉, 로봇 장치(1)의 행동 표현의 풍부화를 가능하게 한다.
또한, 상술과 같은 스테이트의 선택, 즉 행동 모델을 결정할 때는 감정 모델의 상태에 의해 하도록 되어 있다. 예를 들면, 상술의 스테이트간의 천이 확률을 감정 모델의 상태에 근거하여 변화시킴으로써, 행동 모델을 결정하게 되는 것이다. 구체적으로는 다음과 같다.
예를 들면, 상술한 바와 같은 스테이트로의 천이를 확률에 의해 결정하는 것을 이용한다. 즉, 감정 모델의 상태(예를 들면, 레벨)를 참조하여, 그 감정 모델의 상태에 의거하여 천이 확률을 변화시킨다. 이로써, 감정 모델에 근거하여 행동 모델이 결정되어지고, 결과로서 행동 모델이 감정 모델의 상태에 영향을 주게 된다. 구체적으로, 이것을, 도 10에 도시한 테이블을 참조하여 설명한다.
예를 들면, 천이 확률을 결정하는 데이터로서, 「JOY(기쁨)」,「SURPRISE(놀람)」이나 「SADNESS(슬픔)」을 준비한다. 상기 「JOY(기쁨)」,「SURPRISE(놀람)」이나 「SADNESS(슬픔)」은 감정 모델의 정동 유닛(50A, 50D, 50B)에 대응되는 것이다. 그리고, 데이터의 범위는 예를 들면, 0 내지 50으로 한다. 상기 데이터의 범위는 상술한 정동 유닛의 레벨에 대응된다.
이것에 의해, 「J0Y(기쁨)」,「SURPRISE(놀람)」이나 「SADNESS(슬픔)」이 소정의 레벨, 본 실시예에서는 0 내지 50에 있는 경우에는 소정의 스테이트로의 천이 확률이 결정되어지게 된다. 예를 들면, 데이터 범위가 0 내지 50인 「JOY(기쁨)」의 실제 레벨이 30이면, 「ACTION1」, 「ACTION2」, 「MOVE BACK」, 「ACTION4」가 부가된 아크가 10%, 10%, 10%, 70%의 확률로 선택되어, 소정의 스테이트로 천이하게 된다.
또한, 도 10에 도시한 바와 같이, 「JOY(기쁨)」,「SURPRISE(놀람)」이나 「SADNESS(슬픔)」을 입력 이벤트에 관계없이 천이 확률의 결정에 참조함으로써, 즉 소위 빈 이벤트 상태에 있어서, 이들을 참조함으로써, 예를 들면, 외부로부터 입력이 없는 상태에 있어서도, 천이 확률을 결정할 수 있다. 이로 인해, 예를 들면, 일정 시간 입력 이벤트의 검출이 이루어지지 않았을 때, 천이 확률의 결정에 감정 모델이 참조되도록 된다.
또한, 이러한 경우에 있어서, 참조를, 「JOY(기쁨)」, 「SURPRISE(놀람)」,「SADNESS(슬픔)」의 순서로 함으로써, 「JOY(기쁨)」, 「SURPRISE(놀람)」, 「SADNESS(슬픔)」의 순서로, 실제 레벨이 참조되어지게 된다. 이것에 의해 예를 들면, 「SADNESS(슬픔)」의 실제의 레벨이 60인 경우에는 데이터 범위가 0 내지 50으로 되어 있기 때문에, 다음 「JOY(기쁨)」의 실제 레벨이 참조되어지게 된다. 그리고, 예를 들면, 데이터 범위가 0 내지 50인 「JOY(기쁨)」의 실제의 레벨이 20인 것으로 한 경우, 「ACTION2」가 부가된 아크가 30%의 확률이고, 또한, 「MOVE_BACK」의 부가된 아크가 60%의 확률로 선택되어 소정의 스테이트로 천이하게 된다.
이상과 같이, 감정 모델의 상태에 근거하여 행동 모델을 결정할 수 있도록 이루어져 있다. 이와 같이, 행동 모델이 감정 모델의 상태에 영향됨으로써, 로봇 장치(1)의 표현의 풍부화가 가능하게 된다.
이상 기술된 바와 같은 여러가지의 수단에 의해, 행동 결정 기구부(41)에 의한 행동 지령 정보(S16)의 결정이 이루어진다.
(3-3) 자세 천이 기구부에 있어서의 처리
자세 천이 기구부(42)는 목표로 하는 자세나 목표로 하는 동작으로 천이하기 위한 정보를 생성하는 부분이다. 구체적으로는 자세 천이 기구부(42)는 도 3에 도시한 바와 같이, 행동 결정 기구부(41)로부터 공급되는 행동 지령 정보(S16)에 근거하여 현재의 자세 또는 동작으로부터 다음 자세 또는 동작(목적으로 하는 자세 또는 목적으로 하는 동작)으로 천이시키기 위한 자세 천이 정보(S18)를 생성하여, 이것을 제어 기구부(43)에 송출한다. 예를 들면, 현재의 자세로부터 다음으로 천이 가능한 자세는 동체나 손이나 발의 형상, 무게, 각부의 결합 상태와 같은 로봇 장치(1)의 물리적 형상과, 예를 들면 관절이 굽운 방향이나 각도와 같은 액추에이터(23A 내지 23N)의 기구에 의해 결정되고, 자세 천이 정보(S18)는 이러한 것이 고려된, 천이시키기 위한 정보로 된다.
제어 기구부(43)는 이와 같이 자세 천이 기구부(42)로부터 보내오는 자세 천이 정보(S18)에 근거하여, 로봇 장치(1)를 실제로 동작시키고 있다.
자세 천이 기구부(42)는 로봇 장치(1)가 천이 가능한 자세 및 천이했을 때의 동작을 미리 등록하고 있으며, 예를 들면 그래프로서 유지하고 있고, 행동 결정 기구부(41)로부터 공급된 행동 지령 정보(S16)를 자세 천이 정보(S18)로서 제어 기구부(43)에 송출한다. 제어 기구부(43)는 자세 천이 정보(S18)에 따라서 동작하여 목표로 하는 자세 또는 목표로 하는 동작으로 천이한다. 이하, 자세 천이 기구부(42)에서 행하는 처리에 관해서 자세히 설명한다.
예를 들면, 로봇 장치(1)는 지령(행동 지령 정보(S16))의 내용으로 하고 싶어한 자세로, 직접 천이할 수 없는 경우가 있다. 즉, 로봇 장치(1)의 자세는 현재의 자세로부터 직접 천이 가능한 자세와, 직접적으로는 천이 할 수 없고, 어떤 동작이나 자세를 경유하여 가능해지는 자세로 분류되기 때문이다.
예를 들면, 4개 발의 로봇 장치(1)는 손발을 크게 팽개쳐 누워져 있는 상태로부터 엎드린 상태로 직접 천이할 수는 있지만, 선 자세로 직접 천이할 수 없으며, 일단 손발을 동체 가까이 당겨 엎드린 자세로 되고, 그 다음에 일어서는 2단계의 동작이 필요하다. 또한, 안전하게 실행할 수 없는 자세도 존재한다. 예를 들면, 4개 발의 로봇 장치(1)는 서 있는 자세로 양 앞발을 들어 만세를 하려고 하면, 넘어져 버리는 경우이다. 혹은, 현재의 자세가 누운 자세(잠자는 자세)에 있는 경우에 있어서, 지령의 내용으로서 앉은 자세에서 밖에 할 수 없는 「발을 동동 구르게 한다」라는 내용이 보내졌을 때, 그대로 발을 동동 구르게 하는 명령을 내보내면, 잠자는 자세로부터 앉은 자세로의 천이와 발을 동동 구르게 하는 동작이 실행되어지게 되어, 로봇 장치(1)는 균형을 잃어 넘어지게 될 경우가 있다.
따라서, 자세 천이 기구부(42)는 행동 결정 기구부(41)로부터 공급된 행동 지령 정보(S16)가 직접 천이 가능한 자세를 나타내는 경우에는 해당 행동 지령 정보(S16)를 그대로 자세 천이 정보(S18)로서 제어 기구부(43)에 송출하는 한편, 직접 천이 불가능한 자세를 나타내는 경우에는 천이 가능한 다른 자세나 동작을 경유하여 목표로 하는 자세(행동 지령 정보(S16)에 의해 지시된 자세)까지 천이시키도록 자세 천이 정보(S18)를 생성하고, 이것을 제어 기구부(43)에 송출한다. 이로써, 로봇 장치(1)는 천이 불가능한 자세를 무리게 실행하려고 하는 사태나 넘어지는 일을 피할 수 있다. 혹은, 목표로 하는 자세 또는 동작으로 천이했을 때까지 복수의 동작을 준비해 두는 것은 표현의 풍부화에 결부된다.
구체적으로는 자세 천이 기구부(42)는 로봇 장치(1)가 가질 수 있는 자세 및 동작이 등록되어 있는 그래프로서, 자세와 상기 자세를 천이시키는 동작을 연결하여 구성된 그래프를 유지하여, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 지령 정보가 되는 행동 지령 정보(S16)에 근거하여 그래프 상에서, 탐색하여, 그 탐색 결과에 근거하여 동작시켜, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작으로 천이시킨다. 즉, 자세 천이 기구부(42)는 로봇 장치(1)가 가질 수 있는 자세를 미리 등록하는 동시에, 천이 가능한 2개의 자세 사이를 기록하여 놓도록 이루어져 있고, 상기 그래프와 행동 결정 기구부(41)로부터 출력된 행동 지령 정보(S16)에 근거하여 목표로 하는 자세 또는 동작까지 천이시킨다.
구체적으로는 자세 천이 기구부(42)는 상술과 같은 그래프로서, 도 11에 도시한 바와 같은 유향 그래프(60)라고 하는 알고리즘을 사용하고 있다. 유향 그래프(60)에서는 로봇 장치(1)가 가질 수 있는 자세를 나타내는 노드와, 천이 가능한 2개의 자세(노드) 사이를 연결하는 유향 아크(동작 아크)와, 경우에 따라서는 하나의 노드로부터 해당 하나의 노드로 되돌아가는 동작 아크, 즉 하나의 노드내에서 동작을 완결하는 동작을 나타내는 자기 동작 아크가 결합되어 구성되어 있다. 즉, 자세 천이 기구부(42)는 로봇 장치(1)의 자세(정지 자세)를 나타내는 정보로 이루어진 노드와, 로봇 장치(1)의 동작을 나타내는 정보가 되는 유향 아크 및 자기 동작 아크로 구성되는 유향 그래프(60)를 유지하고, 자세를 점의 정보로서, 또한 동작의 정보를 유향선의 정보로서 파악하고 있다.
여기서, 유향 아크나 자기 동작 아크는 복수로 되어도 가능하며, 즉, 천이 가능한 노드(자세) 사이에 유향 아크가 복수 접합되어 있어도 무방하며, 하나의 노드에 있어서 복수의 자기 동작 아크가 결합되어 있어도 된다.
자세 천이 기구부(42)는 행동 결정 기구부(41)로부터 행동 지령 정보(S16)가 공급되면, 현재의 자세에 대응한 노드와, 행동 지령 정보(S16)가 나타내는 다음에 채용해야 되는 자세에 대응하는 노드를 연결하도록, 유향 아크(a)의 방향에 따르면서 현재의 노드로부터 다음의 노드에 이르는 경로를 탐색하고, 해당 탐색한 경로상에 있는 노드를 순차로 기록함으로써, 자세 천이의 계획을 세우도록 이루어져 있다. 이하, 이러한 현재의 자세로부터 목표로 하는 노드(지령에 의해 지시된 노드), 또는 목표로 하는 아크(지령에 의해 지시된 아크)의 탐색을, 경로 탐색이라고 한다. 여기서, 목표로 하는 아크란, 유향 아크도 가능하며, 자기 동작 아크라도 가능하다. 예를 들면, 자기 동작 아크가 목표로 하는 아크로 이루어진 경우란, 자기 동작이 목표가 된 (지시된)경우로서, 예를 들면, 소정의 연기(동작)가 지시된 경우 등을 들 수 있다.
자세 천이 기구부(42)는 경로 탐색에 의해 얻은 목표로 하는 자세(노드) 또는 목표로 하는 동작(유향 아크 또는 자기 동작 아크)까지의 자세 천이 계획에 근거하여, 천이를 위한 제어 명령(자세 천이 정보 S18)을 후단의 제어 기구부(43)에 출력한다.
예를 들면, 도 12에 도시한 바와 같이, 현재의 자세가 「엎드린다」라는 자세를 나타내는 노드(ND2)에 있는 경우에는 「앉아라」라는 행동 지령 정보(S16)가 공급되면, 「엎드린다」의 자세를 나타내는 노드(ND2)로부터 「앉는다」의 자세를 나타내는 노드(ND5)로는 유향 아아크(a9)가 존재하고 있어, 직접 천이가 가능하며, 이로써, 자세 천이 기구부(42)는 「앉아라」라는 내용의 자세 천이 정보(S18)를 제어 기구부(43)에 부여한다.
또한, 자세 천이 기구부(42)는 현재의 자세가 「엎드린다」라는 자세를 나타내는 노드(ND2)에 있는 경우에 있어서 「걸어라」라는 행동 지령 정보(S16)가 공급되면, 「엎드린다」로부터 「걷는다」까지 직접적으로 천이를 할수 없기 때문에,「엎드린다」의 자세를 나타내는 노드(ND2)로부터 「걷는다」의 자세를 나타내는 노드(ND4)에 이르는 경로를 탐색함으로써 자세 천이 계획을 세운다. 즉, 「엎드린다」의 자세를 나타내는 노드(ND2)로부터 유향 아크(a2)를 경유하여, 「일어선다」의 자세를 나타내는 노드(ND3)를 선택하고, 또한,「일어선다」의 자세를 나타내는 노드(ND3)로부터 유향 아크(a3)를 경유하여 「걷는다」의 자세를 나타내는 노드(ND4)에 이르는 자세 천이 계획을 세운다. 이러한 자세 천이 계획의 결과로서, 자세 천이 기구부(42)는 「서라」라는 내용의 자세 천이 정보(S18)를 내고, 그 후에 「걸어라」라는 내용의 자세 천이 정보(S18)를 제어 기구부(43)에 출력한다.
또한, 도 12에 도시한 바와 같은 노드로부터 그래프가 구성되어 있는 경우 에 있어서의 각 노드에의 자기 동작 아크의 부착으로서는 「일어선다」의 자세를 나타내는 자세를 나타내는 노드(ND3)에 「댄스를 한다」의 동작을 나타내는 자기 동작 아크를 부착하거나, 「앉는다」의 자세를 나타내는 노드(ND5)에 「만세를 한다」의 동작을 나타내는 자기 동작 아크를 부착하거나, 혹은 「엎드려 눕는다」의 자세를 나타내는 노드(ND1)에 「코를 곤다」의 동작을 나타내는 자기 동작 아크를 부착하거나 하는 것을 들 수 있다.
또한, 로봇 장치(1)는 통상적으로, 현재의 어떤 자세에 있는 가를 파악하도록 구성되어 있다. 그러나, 현재의 자세를 알 수 없는 경우도 생긴다. 예를 들면, 로봇 장치(1)는 사용자 등에 끌어안기거나, 넘어졌을 때, 또는 전원 기동시에있어서, 현재의 자세를 파악할 수 없다. 예를 들면, 이러한 현재의 자세가 파악 불가능일 때의 자세를 부정 자세라고 한다. 예를 들면, 이와 같이 현재의 자세를 파악할 수 없게 부정 자세로 되면, 소위 출발의 자세를 특정할 수 없기 때문에, 목표로 하는 자세 또는 동작까지의 자세 천이 계획을 세울 수 없게 된다.
이러한 것으로부터, 노드로서 뉴트럴(중립)의 자세를 나타내는 노드를 형성하고, 현재의 자세가 불명일 때에는 뉴트럴의 자세로 천이시켜, 자세 천이 계획을 세우도록 하고 있다. 즉, 예를 들면, 현재의 자세가 불명일 때에는 도 13에 도시한 바와 같이, 뉴트럴의 자세를 노드(NDnt)에 일단 천이시키고 나서, 「서 있다」의 자세를 나타내는 노드(ND3), 「앉아 있다」의 자세를 나타내는 노드(ND5), 혹은 「엎드려 누어 있다」의 자세를 나타내는 노드(ND1)와 같은 기본적인 자세를 나타내는 노드로 천이시키도록 한다. 그리고, 이러한 기본적인 자세로 천이시키고 나서, 원래의 자세 천이 계획을 세운다.
또한, 본 실시예에서는 뉴트럴의 자세로부터 천이하는 기본적인 자세로서, 「서 있다」, 「앉아 있다」, 「엎드려 누어 있다」를 예로 들어 설명하였지만 이것에 한정되는 것이 아니라 다른 자세일지라도 가능함은 말할 필요도 없다.
또한, 부정 자세로부터 뉴트럴의 자세(노드)로의 천이에 관해서는 구체적으로는 저 토크 혹은 저속도로 동작부(예를 들면 액추에이터)를 구동하여 행하게 한다. 이로 인해, 서보의 부담을 감하여, 또한 예를 들면, 통상적인 동작과 마찬가지로 동작부를 동작시키게 되어 동작부가 파손하게 되는 것을 방지할 수 있다. 예를 들면, 꼬리부(5)는 통상 휘두르는 동작을 하고 있는 것이지만, 이러한 꼬리부(5)의 동작을 뉴트럴 자세(노드)로의 천이일 때에 행하면, 로봇 장치(1)가 부정자세로서 자고 있는 상태에 있는 경우에, 꼬리부(5)가 파손하게 되는 일이 있기 때문이다.
또한, 로봇 장치는 넘어지는를 파악하여, 넘어지는 상태로부터 상술한 바와 같은 기본적인 자세를 나타내는 노드로 천이시킬 수 있다. 예를 들면, 로봇 장치(1)에는 가속도 센서가 구비되어, 자신이 넘어지는 것을 검출한다.
구체적으로는 로봇 장치(1)는 가속도 센서에 의해 자신이 넘어지는 것을 검출하면, 넘어지는 복귀를 위한 소정의 동작을 행하고, 그 후, 상술한 바와 같은 기본적인 자세를 나타내는 노드로 천이한다.
또한, 로봇 장치(1)는 넘어지는 방향에 관해서 파악하도록 구성되어 있다. 구체적으로는 가속도 센서에 의해, 전후, 좌우의 4방향에 관해서 넘어지는 방향을 파악 가능하게 되어 있다. 이로 인해, 로봇 장치는 넘어지는 방향에 따른 넘어지는 복귀의 동작이 가능하게 되어, 빠르게 기본적인 자세로의 천이가 가능하게 된다.
또한, 넘어지는 것을 검출했을 때에는 소정의 표현을 출력하게 하여도 된다. 예를 들면, 소정의 표현으로서, 자기 동작 아크(a1i)에 의해 발을 동동 구르게 하는 동작을 행한다. 이로써, 로봇 장치(1)가 넘어져 발버둥치고 있는 모양을 표현할 수 있게 된다.
또한, 「엎드린다」의 노드(ND2)와 「서다」의 노드(ND3)의 사이에 도시하지 않은 복수의 유향 아크가 있는 경우에는 적합한 하나의 유향 아크를 선택하여, 「서다」의 노드(ND3)로 천이하도록 자세 천이 계획을 세우수 있다.
상술한 바와 같이, 노드와 노드와의 사이에는 복수의 유향 아크가 존재하고, 또한, 하나의 노드에 복수의 노드가 유향 아크에 의해 결합되어 있는 경우도 있다. 따라서, 현재의 노드로부터 목표로 하는 노드 또는 아크(유향 아크 또는 자기 동작 아크)를 연결하는 경로에 관해서는 복수 존재한다.
상기와 같은 것으로 인해, 현재의 노드와 목표로 하는 노드의 거리를 짧게 하는 것을 지표로 하여, 즉 최단 거리로서 경로를 탐색하는 소위 최단 거리 탐색에 의해, 자세 천이 계획을 세우도록 한다.
도 14에 도시한 바와 같이, 노드(○표)과 노드(○표)와의 사이를 연결하는 유향 아크(화살표)에 거리라고 하는 개념을 사용하여, 최단 거리 탐색을 행한다. 이러한 경로 탐색 수법으로서는 다이키스트라의 패스 서치의 이론 등이 있다. 거리는 후술하는 바와 같이, 중량부가나, 시간 등과 같은 개념에 대체하는 것도 가능하다. 도 14에는 거리가 「1」인 유향 아크에 의해 천이 가능한 노드를 연결한 결과를 도시하고 있다.
따라서, 이러한 거리를 경로 탐색의 지표로서 사용함으로써, 현재의 자세(노드)부터 목표로 하는 노드로 최단 거리의 경로를 선택할 수 있게 된다.
구체적으로는 현재의 노드로부터 목표로 하는 노드에의 경로가 4가지 있는경우에 있어서, 제 1 경로의 거리가 「12」, 제 2 경로의 거리가 「10」, 제 3 경로의 거리가 「15」, 제 4 경로의 거리가 「18」일 때에는 거리가 「10」인 제 2 경로에 의해 천이해 가고, 목표로 하는 자세까지의 자세 천이 계획을 세운다.
최단 거리의 검색의 수법에 관해서는 이러한 수법에 한정되는 것이 아니다.
상술의 예에서는 목표로 하는 노드에의 최단 거리의 경로를, 복수의 경로를 탐색하여 그 결과 중에서 하나의 경로로서 선택하고 있다. 다시 말하면, 상술의 경로 탐색에서는 현재의 노드로부터 목표로 하는 노드로 천이할 수 있는 경로를 가능한 한 탐색하여 복수의 경로를 얻어, 그 중에서 거리를 지표로서 최단 거리의 경로를 특정하고 있다. 그러나, 최단 거리의 경로 탐색에서는 이러한 수법에 의해 최단 거리의 경로를 탐색하는 것에 한정되는 것이 아니라, 목표로 하는 노드에의 최단 거리의 경로를 검출한 시점에서, 경로 탐색의 처리를 종료할 수 있다.
예를 들면, 현재의 자세로부터 탐색 지표로 하는 거리를 서서히 연장하여 노드를 잇달아 탐색하여 가고, 그 때마다 최단 거리에 있는 노드(목표로 하는 노드가 아닌 노드)를 결정하여, 최종적으로 목표로 하는 노드를 검출한 시점에서 해당 최단 거리의 경로 탐색의 처리를 종료하도록 하는 것이다. 즉, 예를 들면 「등고선」과 같은 개념으로 생각할 수 있는 「등거리」라고 하는 개념을 사용하여, 현재의 노드로부터 거리를 연장하여 그의 「등거리」상의 노드를 차례차례 검출하고, 목표로 하는 노드를 최종적으로 검출할 수 있는 시점에서, 그의 경로 탐색의 처리를 종료한다. 이러한 경로 탐색의 수법으로서, 다이키스트라의 패스 서치를 들 수 있다.
이러한 최단 거리의 경로 탐색의 수법에 의하면, 목표로 하는 노드까지에 존재하는 모든 경로를 탐색하지 않고 최단 거리의 경로를 탐색할 수 있기 때문에, 최단 거리의 경로를 단시간에 검출할 수 있게 되어, 결과적으로 이러한 탐색 처리를 행하기 위한 CPU 등의 부담을 적게 할 수 있다. 따라서, 모든 경로를 탐색하지 않고목표로 하는 노드까지의 최단 거리의 경로를 검출할 수 있기 때문에, 네트워크 전체를 검색하는 것으로 인한 부담을 없앨 수 있게 되며, 예를 들면, 이러한 그래프를 구축하는 네트워크가 대규모로 되는 경우일라도, 부담을 적게 하여 경로를 탐색할 수 있게 된다.
또한, 경로 탐색의 수법으로서는 도 15에 도시한 바와 같이, 노드를 행동 또는 자세에 근거하여 대략적으로 클러스트링해 놓고, 최초의 분류에 의한 대략적인 검색(예비 검색)을 행하고, 그 후, 상세하게 검색하도록 하여도 된다. 예를 들면, 「오른쪽 앞발로 참」이라고 하는 자세를 취하게 했을 때에, 경로 탐색 범위로서 최초에 「볼을 찬다」라는 분류의 에어리어를 선택하고, 다음에, 그의 에어리어 중에서만 패스를 검색한다.
예를 들면, 대략적인 분류와 그것을 구성하는 것과 관련지어, 즉 「볼을 찬다」와 「오른쪽 앞발로 참」과의 관련 지음은 이러한 시스템을 설계했을 때에 ID 정보 등을 부가해 놓으므로써 이루어지고 있다.
또한, 노드 사이에는 해당 노드간의 양방향을 향하는 유향 아크도 존재하기때문에, 일단 천이한 노드로부터 되돌아가려고 하는 유향 아크도 존재한다. 이러한 경우, 경로 탐색에 있어서 아무런 제약이 없으면, 되돌아가는 유향 아크를 선택하게 되어, 원래의 노드로 되돌아갈 경우가 있다. 이것을 방지하도록, 한번 통과한 (노드)가 되지 않도록 유향 아크를 선택하도록 할 수 있다.
또한, 목표로 하는 노드에 다다를 수 없는 경우, 최종적인 자세로 될 수 없는 결과를 상위의 제어 수단이나 하위의 제어 수단 등에 내도록 한다.
또한, 상술의 예에서는 목표를 자세(노드)로 하여 설명하고 있지만, 목표를 동작 즉 유향 아크나 자기 동작 아크로 할 수 있다. 목표로 하는 아크가 자기 동작 아크란, 예를 들면, 발부(4)에 동동 구르게 하는 동작을 시키는 것 등을 들 수 있다.
또한, 경로 탐색에 있어서의 지표로서, 유향 아크에 부가한 중량이나 유향 아크의 동작 시간을 참조하도록 할 수 있다. 유향 아크에 중량 부가한 경우는 예를 들면 다음과 같이 된다.
현재의 노드로부터 목표로 하는 노드 사이에의 후보가 되는 경로 도중에 있는 유향 아크의 무게의 총합을 산출하여, 후보로 되어 있는 경로마다 총합을 비교함으로써, 알맞은 경로(최소 비용의 경로)를 선택한다.
또한, 유향 아크의 동작 시간(실행 시간)에 대한 본 경우는 예를 들면 다음과 같다.
예를 들면, 현재의 노드로부터 목표로 하는 노드로 2개의 유향 아크를 경유하여 가는 경우에 있어서, 동작 시간이 1초와 2초의 2개의 유향 아크를 경유한 경우에는 천이 시간은 3초 걸린다. 따라서, 도 16에 도시한 바와 같은 그래프에서, 현재의 노드(ND1)로부터 목표의 노드(ND3)로 천이하려고 하는 경우에 있어서,노드(ND2)를 경유하여 목표로 하는 노드(ND3)로 천이하는 경우와, 유향 아크(a3)만으로 목표로 하는 노드(ND3)로 천이한 경우에서는 동작 시간을 지표로 함으로써, 노드(ND2)를 경유한 쪽이 동작 시간이 1초의 유향 아크(a1)와 동작 시간이 2초의 유향 아크(a2)를 경유하고 있기 때문에, 현재의 노드(ND1)과 목표의 노드(ND3)를 직접 연결하는 동작 시간이 5초의 유향 아크(a4)를 천이 경로로서 선택하는 것보다도, 천이 시간을 짧게 하여 목표의 노드(ND3)에 도달할 수 있다. 따라서, 동작 시간을 지표로 한 경우에는 2개의 유향 아크를 경유한 쪽이 최단시간으로서 목표의 노드에 도달할 수 있는 자세 천이 계획을 세울 수 있다.
또한, 유향 아크에 중량 부가 또는 거리를 동작의 난이도로 하여도 된다. 예를 들면, 난이도가 낮은 것을, 거리가 짧은 것으로 설정한다. 또한, 유향 아크의 1개를 디폴트로 할 수도 있다. 유향 아크의 1개를 디폴트로 놓음으로써, 통상적으로 해당 디폴트의 유향 아크가 선택되도록 하여, 지시가 있는 경우에, 디폴트가 아닌 것 외의 유향 아크가 선택되도록 할 수 있다.
이상과 같이, 경로 탐색을 위해 지표가 되는 것을 유향 아크에 부가하여 놓음으로써, 즉, 유향 아크에 동작 시간이나, 균형의 유지가 곤란한 난이도를 부가하여 놓으므로써, 큰 동작을 피하여 지나가는 등 알맞은 경로를 선택한 자세 천이 계획을 세울 수 있다. 또한, 유향 아크에 에너지 소비율을 부가하여 놓으므로써, 최적 효율의 경로를 선택한 자세 천이 계획을 세울 수 있다.
또한, 노드와 노드와의 사이에는 복수의 유향 아크가 존재하는 경우도 있으므로, 이러한 경우에는 선택될 확률을 유향 아크마다 흔들 수 있다. 즉, 예를 들면 다른 확률을 각 아크에 할당한다. 이로써, 불균일한 확률로 인해, 동일 노드간의 천이라도 여러가지 동작이 선택되어지게 되어, 일련의 동작을 변화가 풍부한 것으로 할 수 있다. 예를 들면, 앉아 있는 자세에서 일어서는 자세로 천이시켰을 때에, 앉아 있는 발을 뒤로 펴고나서 4발로 일어서거나, 앞 발을 앞으로 펴고나서 일어서는 등의 동작을 확률로 선택함으로써, 어느쪽의 동작으로 일어설 것인가가 재생될 때까지(실제로 실행될 때까지)예측할 수 없는 효과를 가져올 수 있다.
구체적으로는 각 유향 아크의 거리 또는 무게를 m1, m2, m3···로서, 그 총합(m1+ m2+ m3+···)을 M으로 했을 때, 거리 또는 무게가 mi의 유향 아크에 할당하는 확률(Pi)는 식(1)으로 나타낼 수 있다.
(1)
이로써, 무게가 대인 유향 아크는 통과 경로로 선택될 확률이 낮고, 중량이 소인 유향 아크는 통과 경로로 선택될 확률이 높아진다.
또한, 경로 탐색을 하는 영역을 한정할 수 있다. 예를 들면, 소정의 범위내의 경로에만 한정하여 경로 탐색할 수 있다. 이로 인해, 보다 단시간으로, 최적의 경로를 탐색할 수 있게 된다.
또한, 이것에 중량 부가하여 가장 적합한 경로를 선택시킴으로써, 떨어진자세 사이를 보간하는 동작이 단조로움을 피하거나, 위험도가 높은 경로를 통과할 확률을 저감할 수 있게 된다.
또한, 아크(유향 아크 또는 자기 동작 아크)에 관해서는 아래와같이 그래프에 등록할 수 있다.
예를 들면, 「걷는다」라는 동작에 관해서 복수의 실행 양태를 고려할 수 있다. 예를 들면, 도 17에 도시한 바와 같이, 0°방향으로 걷는다, 30°방향으로 걷는다, 60°방향으로 걷는다라는 동작은「걷는다」에 관해서 복수의 실행 양태가 된다. 이러한 동일 동작에 대해서, 복수의 실행 양태를 갖게 하는 것, 즉, 동일 동작에 대한 파라미터를 많게 함으로써, 로봇 장치(1)의 표현의 풍부화로 이어진다. 이러한 동작은 파라미터가 다른 아크를 복수 존재시킴으로써 가능하게 된다.
한편, 이와 같이, 복수의 실행 양태에 따라서 파라미터가 다른 아크를 복수존재시키는 것은 네트워크의 자원 유효 이용면에서는 바람직하지 못하다. 즉, 0°내지 90°까지, 1°마다 다른 방향으로 걷는 동작을 실행시키도록 한 경우, 91개의 아크가 필요하게 되기 때문이다.
그래서, 「걷는다」를 하나의 패스로 하여, 보행 방향에 대한 파라미터로 한다. 예를 들면, 자기 동작 아크에 있어서, 「걷는다」를 명령하여, 그 때에 파라미터로서 보행 방향을 다르게 부여함으로써, 움직임을 재생했을 때에, 주어진 파라미터의 방향으로, 「걷는다」를 실행할 수 있게 된다. 이로써, 복수의 자기 동작 아크를 필요로 하지 않고, 1개의「걷는다」의 자기 동작 아크과, 보행 방향의 파라미터를 갖는 것만으로, 동일 보행의 지시라도 미세하게 방향을 설정하여 실행시키는 것이 가능하게 된다. 이로 인해 시나리오가 다채롭게 될지라도 또한 그래프가 간소하게, 구축되어 있는 네트워크 자원을 유효하게 사용할 수 있게 된다.
구체적으로는 행동 지령 정보(S16)에 부가 정보로서, 동작의 파라미터의 정보를 부가하여, 예를 들면, 보행 방향을 부가하여, 자세 천이 기구부(42)에서는 「걷는다」라는 내용의 자세 천이 정보(S16)에 그와 같은 파라미터를 첨가하여, 제어 기구부(43)에 보낸다.
또한, 상술의 실시예에서는 자기 동작 아크에 파라미터를 부가하는 경우에 관해서 설명하고 있지만, 이것에 한정되지 않고, 유향 아크에 파라미터를 부가할 수 있다. 이로써, 노드간에 「걷는다」라는 동작 그 자체는 동일하지만, 그의 파라미터가 되는 「보행 방향」이 다른 유향 아크를 복수 준비할 필요가 없어진다.
또한, 동일한 동작을 반복하는 경우에는 반복하는 회수를 나타내는 정보를 부여함으로써, 반복의 동작을 실행시킬 수 있다. 예를 들면, 「걷는다」 동작을 실행시켜 놓고, 별도로 반복하는 회수로서 「3회」의 정보를 파라미터로서 부여함으로써, 명령 형태를 간소하게 할 수 있다. 이로써, 예를 들면, 3보 걷게 하도록 한 경우, 「걸어라」라하는 지시를 3번 내거나, 「3보 걸어라」라하는 지시로서가 아니라, 「걸어라」와 「3회 (3보)」와 같은 지시 형태로 실행시킬 수 있게 된다. 이로써, 그와 같은 지시 형태로 이루어진 아크, 또는 노드의 정보량을 적게 하여 유지할 수 있게 된다. 또한, 반복 회수를 지정할 수 있게 함으로써, 지시를 내는 회수와 지시가 전달되기까지의 시간을 단축할 수 있다.
예를 들면, 도 18에 도시한 바와 같이, 1보씩 걷는 동작의 지시로서 「원스텝 워크」의 정보를 제어 기구부(43)에 출력하고, 그 파라미터로서 「3」을 지시함으로써, 3보만 걷는 동작을 시키거나, 또한, 파라미터로서 「7」을 지시함으로써, 7보만 걷는 동작을 시키거나, 또한, 파라미터로서 「-1」을 지시함으로써, 발에 대하여 다른 지시가 있을 때까지 계속해서 걷는 동작을 시키거나 할 수 있다.
또한, 반복 동작을 시켜두고, 이후에, 제어 기구부(43)에 반복 동작의 정지 명령을 부여하여 주므로써, 상술한 바와 같이, 동일한 동작을 반복하여 실행시킬 수 있다.
또한, 소정의 아크에 대하여 어떤 표현을 첨가하여 실행시키는 것도 가능하다. 즉, 소정의 동작(아크)이 실행된 경우, 그 동작에 동기시켜 다른 표현이 되는 동작을 실행시키는 것도 가능하다. 예를 들면, 도 19에 도시한 바와 같이, 앉은 자세의 노드(ND1)로부터 선 자세의 노드(ND2)로 천이했을 때의 유향 아크(a)가 설정되어 있는 경우에, 유향 아크(a)에 소정의 음성이나 동작을 대응 부가할 수도 있다. 이것에 의해, 앉은 자세로부터 선 자세로 천이하는 동작으로, 다른 동작으로서 웃고 있는 눈의 표정이나, "う 내지 ん"라는 음성을 동기하여 재생할 수 있게 된다. 이와 같이 다른 부위의 조합으로, 다양한 표현이 가능하게 되어, 시나리오가 풍부하게 되는 효과도 생긴다.
또한, 각 노드에 결합되어 있는 자기 동작 아크가 중복하고 있는 경우가 있다. 예를 들면, 도 20에 도시한 바와 같이, 잠자는 자세의 노드, 앉은 자세의 노드나 선 자세의 노드 각각에 있어서 화내는 동작을 하도록 하는 경우이다.
이러한 경우, 「화낸다」라는 이름의 동작을, 잠자는 자세로부터 잠자는 자세로의 자기 동작 아크, 앉은 자세로부터 앉은 자세로의 자기 동작 아크, 선 자세로부터 선 자세로의 자기 동작 아크가 되는 분노를 표현하는 동작으로 명명하여 놓으면, 「화낸다」라는 지시를 부여하는 것만으로, 최단 경로 탐색에 의해, 가장 가까운 「화낸다」의 동작(자기 동작 아크)을 검색할 수 있다. 즉, 목표로 하는 동작(자기 동작 아크) 중 최단으로 실행 가능한 하나의 동작까지의 경로를, 자세 천이 계획으로 세운다. 이로써, 예를 들면, 현재의 자세가 잠자는 자세에 가장 가까운 경우에 있어서, 「화낸다」의 행동 지령 정보(S16)가 보내여져 왔을 때, 잠자는 자세의 노드의 자기 동작 아크로서 결합되어 있는 화내는 동작으로서, 예를 들면 자는 상태에서 바삭바삭 지면을 긁는 동작이 실행되어지게 된다.
이와 같이 복수의 노드에 있어서 동일의 동작을 실행하는 자기 동작 아크가 존재하는 경우에 있어서, 이러한 소정의 동작의 지령이 이루어진 경우, 최단 거리 탐색에 의해 최적의 자세(최단 거리에 있는 자세)에 있어서의 동작이 실행 가능하게 되고, 이로 인해, 상위 제어 수단은 각부의 상태 또는 동작에 관해서 항상 파악해 놓을 필요없이, 지시된 동작을 실행시킬 수 있게 된다. 즉, 예를 들면, 상위 제어 수단(자세 천이 기구부(42))는 「화낸다」라는 지령이 있는 경우에, 현재의 노드를 파악하는 것만으로 가능하며, 실제의 「자는 상태에서 화낸다」라는 노드를 탐색하지 않고, 단지 「화낸다」의 자기 동작 아크를 탐색하는 것만으로, 최단 거리의 잠자는 자세에 있어서 화내는 동작까지의 자세 천이 계획을 세울 수 있다.
또한, 상술한 바와 같이, 동일 계통의 동작을 동일 이름으로 지시한 경우, 미리 등록한 그래프상에서 현재의 자세로부터 적합한 동작을 탐색하여 선택하도록하고 있기 때문에, 예를 들면 「화낸다」 등이 추상적이며 또한 풍부한 패턴을 가지는 동작 지시를 간결하게 지시할 수 있게 된다.
또한, 로봇 장치(1)는 각 구성 부분을 별개로 동작시키는 것이 가능하게 되어 있다. 즉, 각 구성 부분 각각에 대해서의 지령을 실행시킬 수 있다. 여기서, 로봇 장치(전체)(1)가 이러한 구성 부분으로서, 도 21에 도시한 바와 같이, 크게 나누어 두부(2), 발부(4), 꼬리부(5)를 들 수 있다.
이와 같이 구성되어 있는 로봇 장치(1)에 있어서, 꼬리부(5)와 두부(2)를 개별적으로 동작시킬 수 있다. 요컨대, 리소스가 경합하지 않기 때문에 개별적으로 동작시킬 수 있다. 한편, 로봇 장치(1)의 전체와 두부(2)를 별개적으로 동작시킬 수는 없다. 요컨대, 리소스가 경합하기 때문에 개별적으로 동작시킬 수 없다. 예를 들면, 지령의 내용 중에 두부(2)의 동작이 포함되는 전체의 동작이 실행되는 동안은 두부(2)에 대한 지령의 내용을 실행할 수 없다. 예를 들면, 두부(2)를 흔들면서 꼬리부(5)를 흔드는 것은 가능하고, 전신(전체)을 사용한 연기를 하고 있는 중에 두부(2)를 흔드는 것은 불가능하다는 것이다.
표 1에는 행동 결정 기구부(41)로부터 보내져오는 행동 지령 정보(S16)에, 리소스가 경합하는 경우와, 리소스가 경합하지 않는 경우의 조합을 나타내고 있다.
부위의 조합 리소스의 경합
머리, 꼬리 하지 않음
머리, 전체 한다
발, 전체 한다
머리, 다리, 꼬리 하지 않음
이와 같이, 리소스가 경합하도록 지령이 보내온 경우, 전체(1)의 동작에 대한 지령 또는 두부(2)의 동작에 대한 지령 중 어느 한쪽을 선행하여 실행하지 않으면 안된다. 이하에, 이러한 지령이 되어 있는 경우에의 처리에 대해서 설명한다.
리소스가 경합하기 때문에, 한쪽의 지령을 선행하여 실행하는 경우, 예를 들면, 전체(1)의 동작을 종료시키고 나서, 두부(2)에 대한 명령을 실행하도록 하는 경우, 전체(1)의 동작에 의해 다다른 최후의 자세로부터 두부(2)의 동작이 개시되어지게 된다. 그러나, 전체(1)의 동작 이후의 마지막 자세가, 두부(2)를 흔들게 하는 동작을 개시하는 데 어울리는 자세로 되어 있는 것으로 한정하지는 않는다. 전체(1)의 동작 이후의 마지막 자세가, 두부(2)의 동작 개시에 어울리는 자세로 되어 있지 않은 상태에서, 즉, 다른 지령에 의해 천이하는 전후의 자세가 불연속이 되도록 하는 경우에 있어서, 두부(2)의 동작을 개시하게 되면, 두부(2)가 급격한 동작을 나타내어, 부자연한 동작이 될 경우가 있다. 이 문제는 현재의 자세(또는 동작)으로부터 목표로 하는 자세(또는 동작)이 로봇 장치(1)의 전체와 각 구성 부분에 걸쳐 있고, 로봇 장치(1)의 전체를 제어하기 위해서 구축되어 있는 노드 및 아크로 이루어지는 네트워크(그래프)와, 로봇 장치(1)의 각 구성 부분을 제어하기 위해서 구축되어 있는 노드 및 아크로 이루어지는 네트워크(그래프)가 아무런 관계를 가지지 않게 별개로 구축되어 있는 경우에 생기는 문제이다.
상술과 같이 천이하기 전후의 자세가 불연속인 것에 기인하여 로봇 장치(1)가 이루는 부자연한 움직임은 그래프 상에서 천이 동작을 원활하게 연결되도록 자세 천이 계획을 세우는 것에 의해, 해소된다. 구체적으로는 전체 및 구성 부분의 그래프상에서 공유하는 기본 자세를 받아드려, 자세 천이 계획을 세우는 것에 의해 이것을 해소하고 있다.
로봇 장치(1)의 자세 천이 계획에 사용하기 위한 네트워크의 정보를, 도 22a에 도시한 바와 같이, 전체 네트워크의 정보(그래프)와, 각 구성 부분의 네트워크의 정보(그래프)로부터, 전체로서 계층적 구조로서 구성하고 있는 경우에 관해서 이하에 설명한다. 예를 들면, 전체의 네트워크의 정보(그래프)와, 각 구성 부분의 네트워크의 정보(그래프)로 이루어지는 자세 천이 계획에 사용하는 정보는 상술의 도 8에 도시한 바와 같이, 자세 천이 기구부(42)내에서 구축되어 있다.
기본 자세는 전체의 동작과 각 구성 부분의 동작 사이에서 상태를 이행하기 위해서 일단 천이된 자세로서, 기본 자세로서는 예를 들면, 도 22b에 도시한 바와 같이, 앉은 자세를 들 수 있다. 기본 자세를 앉은 자세로 한 경우에 관해서, 천이 동작을 원활하게 연결하는 순서를 설명한다.
구체적으로, 도 23에 도시한 바와 같이, 현재의 자세가 전체의 그래프의 자세(NDa0)으로 파악되고, 목표로서 두부의 동작(a2)을 실행시키는 경우에 관해서 설명한다.
전체의 그래프 상에서, 로봇 장치(1)의 전체의 자세를, 현재의 자세 (NDa0)로부터 기본 자세(NDab)로 천이시키는 유향 아크(a0)를 선택한다. 여기서, 전체가 기본 자세가 되는 경우에는 두부, 발부, 및 꼬리부의 그래프상에서도 기본 자세의 상태(노드)로서 파악되어지게 된다.
두부의 그래프에서는 기본 자세(NDhb)의 상태로부터 적합한 유향 아크(a1)가 선택되고, 목표로 하는 두부(2)의 동작(자기 동작 아크)(a2)까지의 경로가 결정된다.
여기서, 전체의 그래프에서의 현재의 자세 NDa0로부터 기본 자세(NDab)까지의 경로나, 두부의 그래프에서의 기본 자세(NDhb)의 상태로부터 목표의 동작(a2)까지의 경로 탐색에 관해서는 상술한 바와 같은 최단 거리 탐색에 의해 행한다.
이러한 순서에 의해, 전체와 각 구성 부분과의 사이의 동작을 원활하게 연결하도록 천이 경로의 선택(자세 천이 계획)이, 전체의 그래프와 두부의 그래프에서 이루어진다. 그리고, 제어 기구부(43)는 자세 천이 정보(S19)를 자세 천이 계획에 근거하여 제어 기구부(43)에 출력한다.
상술한 예는 전체의 동작으로부터 각 구성부의 동작을 원활하게 연결하는 구체적인 예이다. 다음에, 각 구성 부분의 동작으로부터 전체의 동작을 원활하게 연결하는 구체적인 예에 관해서 설명한다. 구체적으로는 도 24에 도시한 바와 같이, 두부의 그래프에서 두부(2)가 자세(NDh0)로 파악되고, 발부의 그래프에서 발부(4)가 자세(NDf0)으로 파악되어, 전체의 동작(a4)을 목표로 하여 실행시키는 경우에 관해서 설명한다.
두부의 그래프 상에서, 두부(2)의 자세를, 현재의 자세(NDh0)로부터 기본 자세(NDab)로 천이시키는 유향 아크(a0)를 선택한다. 또한, 발부의 그래프상에있어서, 발부(4)의 자세를, 현재의 자세(NDf0)로부터 기본 자세(NDfb)로, 자세 NDf1을 경유하여 천이시키는 유향 아크(al, a2)를 선택한다. 또한, 꼬리부(5)에 관해서는 원래 기본 자세에 있는 것으로 한다. 이와 같이 각 구성 부분이 기본 자세가 되는 경우에는 전체의 그래프 상에서도 기본 자세로서 파악되어지게 된다.
그리고, 전체의 그래프상에서는 기본 자세(NDhb)의 상태로부터 적합한 유향 아크(a3)가 선택되고 목표로 하는 전체의 동작(자기 동작 아크)(a4)까지의 경로가 결정된다.
예를 들면, 구성 부분 각각에서의 동작에 관해서는 기본 자세로 천이했을 때의 다른 구성 부분의 동작과 동시에 실행하는 것도 가능하며, 제한을 두어 각 구성 부분의 동작을 실행하도록 할 수 있다. 예를 들면, 어떤 타이밍에 의해 행하도록 하는 것도 가능하다. 구체적으로 두부(2)를 사용하여 연기를 하고 있는 중에 전체(1)의 동작에 대한 지령이 이루어진 경우에는 두부(2)에 대한 연기를 실행하고 있는 중이기 때문에 기본 자세(NDhb)로의 천이는 할 수 없기 때문에, 우선, 발부(4)를 먼저 기본 자세(NDfb)의 상태로 하고나서, 연기를 종료한 두부(2)를 기본 자세(NDhb)의 상태로 천이시키도록 하는 것이다.
또한, 전체(1)의 자세 균형 등을 고려하여, 각 구성 부분을 동작시키도록 할 수 있다. 예를 들면, 두부(2)와 발부(4)를 동시에 이동하게 되면, 또는 두부(2)를최초에 기본 자세(NDhb)의 상태로 하게 되면 균형을 잃어, 넘어지게 되는 경우, 먼저 발부(4)를 기본 자세(NDfb)의 상태로 하고나서, 두부(2)를 기본 자세(NDhb)의 상태로 천이시키도록 한다.
이상과 같이 일단 기본 자세로 천이되도록 자세 천이 계획을 세우는 것에 의해, 동작을 원활하게 연결할 수 있다.
또한, 사용하지 않은 부위의 리소스를 개방함으로써 다른 목적으로 사용할 수 있게 된다. 예를 들면, 걷고 있을 때에 두부(2)의 리소스을 개방함으로써, 두부(2)를 움직이는 볼에 트랙킹(추종)시킬 수 있다.
또한, 기본 자세는 한개로 하는 것에 한정되는 것이 아니다. 예를 들면, 앉은 자세나 잠자는 자세 등의 복수의 자세를 기본 자세로서 설정할 수 있다. 이로 인해, 최단의 동작에 의해, 전체의 동작으로부터 각 구성 부분의 동작으로의 이행, 또는 각 구성 부분의 동작으로부터 전체의 동작으로의 이행을, 최단 거리(최단 시간)로서 행할 수 있다. 또한, 이와 같이 복수의 기본 자세를 설정해 두는 것은 로봇 장치(1)의 표현의 풍부화로 연결된다.
또한, 상술한 바와 같은 자세 천이 기구부(42)에 있어서의 자세나 동작의 천이 경로의 결정 등은 행동 결정 기구부(41)로부터의 행동 지령 정보(S16)에 근거하여 이루어지는 것이다. 그리고, 행동 결정 기구부(41)에서는 행동 결정 지시 정보(S16)를, 통상적으로, 제한 없이 자세 천이 기구부(42)로 보낸다. 즉, 동작이 실행되고 있는 동안에도 다른 동작에 관한 지령은 발생하고, 자세 천이 기구부(42)에는 이와 같이 발생한 행동 지령 정보(S16)가 보내져온다. 이것에 대응하여, 자세 천이 제어부(42)로부터 보내져오는 행동 지령 정보(S16)가 축적된 지령 보존부를 구비하고 있다. 상기 지령 유지부에서는 행동 결정 기구부(41)가 생성하는 행동 지령 정보(S16)를 축적하여, 또한, 소위 리스트 조작이 가능하게 되어 있다. 지령 보존부로서는 예를 들면 버퍼를 들 수 있다.
행동 결정 기구부(41)로부터 보내온 지령이, 현시점에서 실행 불가능인 경우, 예를 들면 연기(소정의 동작)를 하고 있는 중에는 보내온 지령이 버퍼에 축적되어지게 된다. 예를 들면, 버퍼에, 도 25a에 도시한 바와 같이, 새롭게 보내온 지령(D)이 새롭게 리스트로서 가해진다. 그리고, 연기를 종료하고 나서, 통상적으로는 가장 오래된 명령이 버퍼로부터 추출되어지고 경로 탐색이 실행되어 간다. 예를 들면, 도 25a와 같이 지령이 축적되어 있는 경우, 가장 오래된 지령(A)이 우선 실행된다.
이와 같이 버퍼에 지령이 축적되어, 오래된 지령으로부터 순차 실행되어 가지만, 지령을 삽입(insert)하거나, 지령을 취소(cancel)하기도 하는 리스트 조작을 할 수 있다.
지령의 삽입에서는 도 25b에 도시한 바와 같이, 이미 축적되어 있는 지령군에 지령(D)를 삽입한다. 이로써, 실행 대기에 있는 지령(A, B, C)보다 우선시켜 지령(D)에 대한 경로 탐색을 실행시킬 수 있게 된다.
또한, 지령의 취소에서는 버퍼에 축적되어 있는 지령을 취소한다. 이로 인해, 어떠한 이유로 불필요해진 지령을 실행되지 않도록 할 수 있다.
또한, 버퍼는 상술한 바와 같이, 로봇 장치(1)의 전체와 각 구성 부분과 대응하여, 복수의 지령 보존 영역을 갖는 것도 가능하다. 이 경우, 전체, 각 구성 부분마다에 대한 동작의 지령이, 도 26에 도시한 바와 같이, 축적되어 간다. 이와 같이, 전체와 각 구성 부분에 대응한 지령을 각각 보존하는 영역을 구비함으로써 다음과 같은 조작이 가능하게 된다.
다른 구성 부분, 예를 들면 두부와 발부의 동작을 동기하여 재생시키는 동기정보를 첨부하여 놓을 수 있다. 예를 들면, 도 27에 도시한 바와 같이, 두부(2)와 발부(4)의 지령 보존 영역에 각각 보존된 지령에 재생을 개시하는 순서의 정보를 부가하여, 동기 정보로서, 동일 순서의 정보, 예를 들면 5번째로 재생 개시되는 정보를 할당한다.
이로써, 가령 2개 앞에 실행 개시되어 있는 3번째의 두부(2)의 동작이, 하나 전에 실행 개시된 4번째의 발부(4)의 동작보다 앞서서 종료하도록 한 경우라도, 두부(2)에 대한 5번째의 지령만 먼저 실행 개시되지 않도록, 동일한 5번째의 정보에 붙은 발부(4)의 4번째의 동작 재생이 종료를 기다리고 나서, 5번째의 정보가 붙은 두부(2)와 발부(4)의 동작의 재생 요구를 동시에 내는 것이 가능하게 된다. 이로써, 예를 들면 두부(2)를 옆으로 흔드는 동작의 개시와, 발부(4)를 좌우로 기울이는 동작의 개시를 같은 타이밍에 내므로써, 보다 임펙트한 큰 로봇 장치(1)의 표현이 가능하게 된다.
또한, 리스트 조작에 의해, 실행전이나 실행 중인 일련의 동작의 계획을 도중에 중지하거나, 우선도가 높은 지령을 뒤로부터 빠른 순서로 끼어들 수 있기 때문에, 유연성이 풍부한 시나리오를 편성할 수 있다.
이상과 같이 행동 결정 기구부(41)로부터 보내온 행동 지령 정보(S16)에 근거하여 이루어지는 목표로 하는 자세 또는 동작까지의 최적 경로의 검색, 및 자세 천이 계획의 결정은 예를 들면, 자세 천이 기구부(42)가 도 28에 도시한 바와 같은동작 경로 탐색 장치(60)를 구비함으로써 실현된다.
동작 경로 탐색부(60)는 지령 유지부(61), 경로 탐색부(62) 및 그래프 보존부(63)를 구비하고 있다.
행동 결정 기구부(41)로부터 전체 또는 각 구성 부분에 대한 지령이 상기 동작 경로 탐색부(60)에 주어지지만, 예를 들면, 목표의 자세 또는 동작의 부위(예를 들면 두부), 현재의 지령과 과거에 낸 일련의 지령에 대한 리스트 조작의 명령, 또는 지령 그 자체의 특징의 정보 등이 행동 지령 정보(S16)에 첨부되어 온다. 이하, 첨부되는 정보를 첨부 정보라고 한다.
여기서, 현재의 지시와 과거에 낸 일련의 지시에 대하여 리스트 조작의 명령은, 예를 들면 도 25b를 참조하여 설명한 새롭게 발생한 지령을 미실행의 지시군의 제일 선두에 삽입하기 위한 명령이다. 또한, 지령 그 자체의 특징 정보(이하, 지령 특징 정보)는 도 17에 있어서 설명한 보행 방향의 파라미터, 도 18에 있어서 설명한 지령의 파라미터, 예를 들면 동작이 「앞으로 걷는다」이면 「3 보」라는 파라미터, 또는 도 19에 있어서 설명한 별도의 동작을 동기시키기 위한 정보이다.
지령 보존부(61)는 상술한 바와 같이, 행동 결정 기구부(41)로부터 보내오는 행동 지령 정보(S16)를 보존하는 것으로서, 예를 들면, 버퍼이다. 지령보존부(61)는 행동 지령 정보(S16)에 첨부 정보가 있는 경우에는 그 첨부 정보의 내용에 의거해 처리를 한다. 예를 들면, 첨부 정보에 리스트 조작의 정보로서 지령의 삽입 명령이 있는 경우, 그 내용에 따라서, 머무를 뿐인 행동 지령 정보(S16)를, 지령 보존부(61)에서 대기 상태로 되어 있는 지령 열의 선두에 삽입하는 조작도 합쳐서 행한다.
또한, 지령 보존부(61)는 첨부 정보로서 지령 특징 정보가 있는 경우에는 그의 지령과 함께 보존한다.
상기 지령 보존부(61)는 현재 어떤 지령이 실행 중이고 어떤 지령이 몇 번째의 순서 대기 상태로 되어 있는가를 파악하고 있다. 이것을 실현하기 위해서는 예를 들면 지령에 순서를 부가하여 보존하고 있다.
또한, 지령 보존부(61)는 상술한 바와 같이, 예를 들면 전체(1), 두부(2), 발부(4), 꼬리부(5)에 대응하여 4개 보존 영역을 가지고 있다. 그리고, 지령 보존부(61)는 두부(2)를 동작시키는 지령이 실행 중일 때는 전체를 동작시키는 지령을 실행할 수 없거나, 두부(2)를 동작시키고 있는 지령과, 발부(4)를 동작시키는 지령을 관계없이 낼 수 있는가의 판단을 내릴 수 있다. 즉, 전체와 각 구성 부분의 리소스가 경합하도록 지령의 출력을 방지하도록 하는 처리, 소위 리소스의 경합의 해결을 행할 수 있다.
또한, 지령 보존부(61)는 다른 부위 사이에 걸쳐서 지령이 나간 순서도 기억하고 있고, 예를 들면 전체(1), 발부(4), 두부(2), 전체(1)의 순서로 지령이 보내왔을 때는 지령 보존부(61)의 전체(1)에 대한 지령을 1번째와 4번째로 이루어진 지령으로서 보존하고, 발부(4)에 대한 지령을 2번째로 이루어진 지령으로서 보존하고, 두부(2)에 대한 지령을 3번째의 지령으로서 보존하여, 그 순서를 기억하고 있다. 이로써, 지령 보존부(61)는 우선, 1번째로 된 전체(1)의 지령을 경로 탐색부(62)에 보내고, 지령의 내용이 재생 종료하는 대로, 2번째로 이루어진 발부(4)의 지령과 3번째로 된 두부(2)의 지령을 보내고, 각 구성부가 그 지령의 내용을 재생 종료하면, 4번째로 된 전체(1)의 지령을 경로 탐색부(62)에 보낸다.
경로 탐색부(62)는 지령 보존부(61)로부터 보내온 지령에 의해 상술한 바와 같은 소위 경로 탐색을 개시한다. 그래프 보존부(63)에는 지령 보존부(61)에서 구분된 것과 동일한 부위마다 대응하여 그래프가 보존되어 있다. 즉, 도 22a에 도시한 바와 같은 전체(1), 두부(2), 발부(4), 및 꼬리부(5)에 각각 대응되는 그래프가 보존되어 있다. 경로 탐색부(62)는 상기 그래프 보존부(63)에 보존되어 있는 각 그래프에 근거하여, 지령의 내용인 목표로 하는 자세 또는 동작까지의 최적 경로를, 상술한 바와 같은 거리나 무게 등을 지표로 하여 탐색하고, 자세 천이 계획을 세운다.
그리고, 경로 탐색부(62)는 경로 탐색에 의해 취득한 자세 천이 계획에 근거하여, 목표 자세 또는 동작이 실행될 때까지, 제어 기구부(43)에 자세 천이 정보(S18)를 송출하여 간다.
이상과 같이 자세 천이 기구부(42)는 행동 결정 기구부(41)로부터 보내온 행동 지령 정보(S16)에 근거하여, 지령에 의해 목표로 하는 자세 또는 동작까지의 최적 경로를 검색하여 자세 천이 계획을 세워, 그 자세 천이 계획에 따라서, 자세 천이 정보(S18)를 제어 기구부(43)에 출력한다.
(3-5) 제어 기구부에서의 처리
도 3에 되돌아가서, 제어 기구부(43)는 자세 천이 정보(S18)를 기초로 액추에이터(23)를 구동시키기 위한 제어 신호(S5)를 생성하고, 이것을 액추에이터(23)에 송출하여 해당 액추에이터(23)를 구동시킴으로써, 로봇 장치(1)에 소망의 동작을 행하게 하도록 되어 있다.
또한, 제어 기구부(43)는 목표로 하는 자세 또는 동작에 도달할 때까지, 자세 천이 정보(S18)에 근거하여 이루어진 동작의 종료 통지(재생 결과)를 경로 탐색부(62)에 되돌린다. 종료 통지를 받아들인 경로 탐색부(62)는 그래프 보존부(63)에 대하여 동작의 종료를 통지한다. 그래프 보존부(63)는 그래프상의 정보를 갱신한다. 즉 예를 들면, 자세 천이 정보(S18)가, 발부(2)를 앉은 자세의 상태로부터 앉은 자세의 상태로의 천이 동작을 시키는 것인 경우, 종료 통지를 받은 그래프 보존부(63)는 잠자는 자세의 상태에 대응된 발부(2)의 노드 그래프 위치를, 앉은 자세의 그래프 위치로 이동시킨다.
예를 들면, 목표로 하는 동작이, 앉은 자세에 있어서 「발을 동동 구르게 한다」(자기 동작 아크)라는 것인 경우에는 또한, 경로 탐색부(62)는 「발을 동동 구르게한다」를 자세 천이 정보(S18)로서 제어 기구부(43)에 보내고, 제어 기구부(43)에서는 자세 천이 정보(S18)에 근거하여, 발부(4)를 동동 구르게 하기 위한 제어 정보를 생성하고, 이것을 액추에이터(23)에 송출하여 발부(4)를 동동 구르는 동작을 실행시킨다. 제어 기구부(43)는 소망의 동작을 재생하면, 그 종료 통지를 다시 경로 탐색부(62)에 보낸다. 경로 탐색부(62)는 발부(4)를 동동 구르게 하는 동작이 종료한 것을 그래프 보존부(63)에 전달한다. 그러나, 자기 동작 아크의 경우에는 그래프상의 정보를 갱신할 필요가 없기 때문에, 현재의 발부(4)의 자세가 앉은 자세까지 진행하고 있지만, 발부(4)를 동동 구르게 하는 종료 자세가 그 동작 개시전의 자세와 같은 발부의 앉은 자세이기 때문에, 그래프 보존부(63)는 발부(4)의 현재의 자세 위치를 변경하지 않는다.
한편, 경로 탐색부(62)는 목표로 하는 자세 또는 동작의 재생이 종료한 취지의를 지령 보존부(61)에 통지한다. 지령 보존부(61)에서는 목표로 하는 자세 또는 동작이 무사히 완료하였기 때문에, 즉, 지령의 내용이 무사히 수행되었기 때문에, 해당 지령을 소거한다. 예를 들면, 목표로 하는 동작으로서, 상술한 바와 같이 발을 동동 구르게 하는 것을 부여한 경우에는 발부(4)의 지령 보존 영역으로부터 그 지령을 소거한다.
이상과 같이, 행동 결정 기구(41), 동작 경로 탐색부(60) 및 제어 기구부(43)가 정보를 수수함으로써 그들 행동 결정 기구(41), 동작 경로 탐색부(60), 및 제어 기구부(43)의 기본적인 기능이 실현되어 있다.
또한, 도 29에는 행동 결정 기구부(41)에서 생성된 지령(행동 지령 정보(S16))에 근거하여 행하는 동작 경로 탐색부(60)의 경로 탐색, 및 경로 탐색 결과에 근거하여 행하여지는 동작의 일련의 처리 순서를 도시하고 있다.
우선, 단계(SP₁)에 있어서, 행동 결정 기구부(41)로부터 동작 경로 탐색부(60)에 지령이 주어지고, 계속해서 단계(SP2)에 있어서, 동작 경로탐색부(60)의 지령 보존부(61)에서는 그 지령의 지령군에 가해진다.
예를 들면, 도 26에 도시한 바와 같이, 꼬리부의 지령이 가해진다. 또한, 지령에 리스트 조작으로서 인서트하는 명령 정보가 부가되어 있는 경우에는 그것에 따라서 지령이 지령열 내에 삽입된다.
계속해서 단계(SP3)에 있어서, 지령 보존부(61)는 개시할 수 있는 지령이 있는지의 여부를 판별한다.
예를 들면, 지령 보존부(61)가, 도 26에 도시한 바와 같이, 전체에 대한 지령을 1번째의 지령(현재 재생 중인 지령)으로서, 두부에 대한 축적된 지령을 2번째와 3번째의 지령으로 하여, 발부에 대한 지령을 4번째의 지령으로서, 그리고 꼬리부(5)에 대해서 축적된 지령을 5번면과 6번면의 지령으로서, 각각 파악하고 있는 경우에는 전체에 대한 1번째의 지령이 실행 중인 경우에는 개시할 수 있는 지령이 없다고 판별된다.
개시할 수 있는 지령이 없는 경우에는 단계(SP4)로 진행하고, 개시할 수 있는 지령이 있는 경우에는 단계(SP5)로 진행한다. 단계(SP3)로 진행한 시점에서, 로봇 장치(1)의 전체가 동작을 하고 있는 중에는 각 구성 부분에 대한 지령을 실행할 수 없기 때문에, 단계(SP4)로 진행하게 되며, 한편, 단계(SP3)로 진행한 시점에서, 동작이 종료하고 있는 경우에는 단계(SP5)로 진행하게 된다.
단계(SP4)에서는 소정 시간의 경과를 기다린다. 예를 들면, 0.1초 경과하는 것을 기다려, 다시, 단계(SP3)에 있어서, 개시할 수 있는 지령이 있는지의 여부를 판별한다.
예를 들면, 단계(SP4)에 있어서 0.1초 경과하는 것을 기다리므로써, 도 26에 도시한 전체에 대해서 실행 중인 지령(1번째의 지령)이 종료한 경우에는 단계(SP3)에 있어서, 두부에 대한 2번번째의 지령, 발부에 대한 4번째로 이루어진 지령, 그리고, 꼬리부에 대한 5번째의 명령을 개시할 수 있는 지령으로서 동시에 파악되어지게 된다.
또한, 두부에 대한 3번째의 지령에 관해서는 두부에 대한 2번째의 지령의 실행이 종료하는대로, 개시할 수 있는 지령으로서 파악되고, 또한, 꼬리부에 대한 6번째로 지령에 관해서는 두부에 대한 5번째의 지령의 실행이 종료하는대로, 개시할 수 있는 지령으로서 파악되어지게 된다.
이와 같이, 단계(SP3)에 있어서 곧 개시할 수 있는 지령이 없는 경우에, 단계(SP4)로 진행하고, 소정 시간 경과하는 것을 기다리므로써, 전체 또는 각 구성 부분에 있어서 소정의 동작이 종료할 때까지 대기하고, 적절한 타이밍에 의해 다음 지령을 실행할 수 있게 된다.
단계(SP5)에서는 경로 탐색부(62)가 지령 보존부(61)로부터 보내온 다음 지령의 내용에 근거하여, 그래프 보존부(63)에 보존되어 있는 지령에 대응하는 그래프상의 현재의 자세로부터 목표의 자세까지의 동작 경로가 발견되었는가의 여부를 판별한다.
예를 들면, 두부(2)의 동작에 대한 지령인 경우에는 도 30에 도시한 바와 같이, 두부의 그래프 상에서, 현재의 자세(상태)로부터 목표로 하는 상태 또는 동작까지 도달할 수 있는 경로가 있는지의 여부를 판별한다. 경로가 발견된 경우란,지령이 목표로 하는 상태 또는 동작까지 패스(아크)가 존재하는 경우이고, 도 30에 도시한 바와 같이, 현재의 자세로부터 목표의 자세에 도달할 수 있는 복수의 유향 아크(a0, a1)가 존재하는 경우이고, 경로가 발견되지 않은 경우란, 지시된 상태 또는 동작까지의 패스가 존재하지 않는 경우이다.
여기서, 현재의 자세로부터 목표 자세까지의 천이 경로가 발견되지 않은 경우에는 단계(SP6)로 진행하고, 발견된 경우에는 단계(SP7)로 진행한다. 또한, 목표의 자세(또는 동작)까지 천이 경로가 발견된 경우, 그 경로(아크)ak(k는 0을 포함한 n까지의 정수)를 기억하고, 이것이 자세 천이 계획의 정보가 된다.
단계(SP6)에서는 동작 경로가 발견되지 않은 것으로 하여, 지령 보존부(61)가 그의 지령을 리스트로부터 소거한다. 이와 같이 동작 경로가 발견되지 않은 경우에 해당 지령을 소거함으로써, 이후에 계속되는 지령을 추출할 수 있게 된다. 이러한 지령의 소거를 한 후, 다시, 단계(SP3)에 있어서, 지령 보존부(61)는 개시할 수 있는 지령이 있는지의 여부를 판별한다.
단계(SP7)에서는 i=0을 설정한다. 그 후의 단계(SP8)에 있어서, i가 n 이하인지의 여부에 대해서 판별이 이루어진다. 여기서, i가 n인 경우는, 목표로 하는 자세 또는 동작이 완료한 것을 말한다. 즉, n 번째의 아크가, 목표로 하는 노드에 직접 천이하는 유향 아크(an) 또는 목표로 하는 자기 동작 아크(an)가 된다. 또한, i=0인 경우에는 적어도 이 단계(SP8)에서, i가 n 이하인 것으로 확인되어지게 된다.
i가 n 이하인 경우에는 단계(SP1O)로 진행하고, i가 n보다도 큰 경우에는 단계(SP9)로 진행한다.
단계(SP10)에서는 제어 기구부(43)는 경로 탐색부(62)로부터 보내져오는 자세 천이 정보(S18)에 근거하여, 아크(ai)의 재생을 행한다. 예를 들면, 도 30에 도시한 바와 같이, 현재의 자세(최초의 자세)에 있는 경우에는 첫번째의 유향 아크(a0)의 동작을 한다.
단계(SP11)에서는 경로 탐색부(62)가 동작의 종료 통지를 받아서, 단계 (SP12)에서는 그래프 보존부(63)가 그래프상의 자세의 위치를 갱신시킨다.
계속해서, 단계(SP13)에 있어서, 다음의 아크를 실행하기 위해서, i를 i=i+1로 하고, 인클리먼트한다. 계속해서, 단계(SP8)로 되돌아가서, 재차 i가 n 이하인지의 여부에 관한 판별이 이루어진다.
i가 n보다 큰 경우, 즉, 목표로 하는 자세까지의 동작이 실행된 경우, 또는 목표로 하는 동작으로서의 아크(유향 아크 또는 자기 동작 아크)가 실행된 경우에 실행되는 단계(SP9)에 있어서, 지령 보존부(61)는 보존되어 있는 지령으로부터 종료하자마자 지령을 소거한다. 그리고, 단계(SP3)에 되돌아가고, 지령 보존부(61)는 다시, 개시할 수 있는 지령이 있는지의 여부를 판별한다.
또한, 목표로 하는 자세 또는 동작이, 전체와 각 구성 부분에 걸쳐 있는 경우, 단계(SP5) 및 단계(SP6)에서는 도 23 및 도 24를 참조하여 설명한 바와 같이, 각각 대응되는 그래프 상에서 적합한 경로를 검색을 하여, 단계(SP7) 이후의 처리에 있어서는 그것에 따른 처리를 행한다. 즉, 기본 자세로 천이 시켜, 목표로 하는 자세 또는 동작까지의 유향 아크의 내용을 실행한다.
또한, 지령은 상술과 같이 지령 보존부(61)에 축적되어 가고, 로봇 장치(1)의 각 구성 부분은 리소스가 경합하지 않기 때문에, 그와 같은 지령에 근거하여 동시 진행적인 동작이 가능해진다. 이와 같기 때문에, 상술한 바와 같은 처리 순서(flow)에 관해서는 각 구성 부분에 대한 플로도 병존하게 되어, 동시 진행적으로 복수의 플로가 실행되어 가기도 한다. 따라서, 예를 들면, 전체의 지령에 대한 플로가 처리되어 있는 경우에 있어서는 각 구성 부분의 지령에 대한 플로의 처리를 행하지 않고, 대기 상태가 된다.
(4) 동작 및 효과
이상의 구성에 있어서, 컨트롤러(32)의 감정·본능 모델부(40)는 공급되는 입력 정보(S1 내지 S3)에 근거하여, 로봇 장치(1)의 감정 및 본능의 상태를 변화시키고, 상기 감정 및 본능의 상태의 변화를 로봇 장치(1)의 행동에 반영시킴으로써, 자기의 감정이나 본능의 상태에 근거하여 자율적으로 행동하게 한다.
그리고, 노드 및 아크를 등록한 그래프에 근거하여 다종의 자세 및 동작을 천이시켜 가므로써, 로봇 장치(1)에 의한 다채로운 표현이 가능하게 된다.
즉, 미리 등록한 그래프를 사용함으로써, 동작의 조합에 의한 표현의 패턴을 많이 가지게 된다. 또한, 현재의 자세로부터 목표로 하는 자세 또는 동작까지 무리가 없는 원활한 자세의 천이가 가능하게 되어, 움직임이 도중에 균형을 준비없이 무너뜨지 않는다.
(5) 다른 실시예
또한, 상술의 실시예에서는 리모트 컨트롤러로부터 적외선 광에 의해 보내온 사용자의 지령을 수신하도록 한 경우에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 예를 들면 전파나 음파에 의해 보내온 사용자의 지령을 수신하도록 할 수 있다.
또한, 상술의 실시예에서는 사용자로부터의 지령을 리모트 컨트롤러 수신부(13) 및 마이크(11)로 이루어진 커맨드 수신부(30)를 통해 입력하도록 한 경우에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 예를 들면 로봇 장치(1)에 컴퓨터를 접속하고, 해당 접속된 컴퓨터를 통해 사용자의 지령을 입력하도록 할 수 있다.
또한, 상술의 실시예에서는 도 4에 도시한 바와 같이, 「기쁨」, 「슬픔」, 「화냄」 등과 같은 정동을 나타내는 정동 유닛(50A 내지 50F)과, 「운동 욕구」,「애정 욕구」등과 같은 욕구를 나타내는 욕구 유닛(51A 내지 51D)을 사용하여 감정 및 본능의 상태를 결정하도록 한 경우에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 예를 들면 정동 유닛에 「쓸쓸함」과 같은 정동을 나타내는 정동 유닛을 추가하거나, 욕구 유닛(51)에 「수면욕」과 같은 욕구를 나타내는 욕구 유닛을 추가할 수 있으며, 이밖에 여러가지의 종류나 개수의 조합으로 이루어진 정동 유닛이나 욕구 유닛을 사용하여 감정이나 본능의 상태를 결정하도록 할 수 있다.
또한, 상술의 실시예에서는 로봇 장치(1)가 감정 모델과 본능 모델을 갖고 있는 구성에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 감정 모델만,또는 본능 모델만 갖은 구성으로 할 수 있으며, 또한, 동물의 행동을 결정짓도록 하는 다른 모델을 가질 수 있다.
또한, 상술의 실시예에서는 지령 신호(S1)와 외부 정보 신호(S2)와 내부 정보 신호(S3)와 감정·본능 상태 정보(S10)와 행동 정보(S12)에 근거하여 다음 행동을 행동 결정 기구부(41)에 의해서 결정한 경우에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 지령 신호(S1)와 외부 정보 신호(S2)와 내부 정보 신호(S3)와 감정·본능 상태 정보(S10)와 행동 정보(S12) 중 일부의 정보에 근거하여 다음 행동을 결정하도록 할 수 있다.
또한, 상술의 실시예에서는 유한 오토마톤(57)이라고 하는 알고리즘을 사용하여 다음 행동을 결정한 경우에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 스테이트의 수가 유한이 아닌 스테이트 머신이라고 하는 알고리즘을 사용하여 행동을 결정하도록 할 수 있으며, 이 경우, 입력 정보(S14)가 공급될때 마다 새롭게 스테이트를 생성하고, 해당 생성한 스테이트에 따라서 행동을 결정하면 된다.
또한, 상술의 실시예에서는 유한 오토마톤(57)이라고 하는 알고리즘을 사용하여 다음 행동을 결정한 경우에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 현재 공급된 입력 정보(S14)와 그 때의 스테이트에 근거하여 복수의 스테이트를 천이처의 후보로서 선정하고, 해당 선정된 복수의 스테이트 중 천이처의 스테이트를 란수에 의해서 랜덤으로 결정하도록 하는 확률 유한 오토마톤이라고 하는 알고리즘을 사용하여 행동을 결정하도록 할 수 있다.
또한, 상술의 실시예에서는 행동 지령 정보(S16)가 직접 천이 가능한 자세를나타내는 경우에는 해당 행동 지령 정보(S16)를 그대로 자세 천이 정보(S18)로서 제어 기구부(43)에 송출하는 한편, 직접 천이 불가능한 자세를 나타내는 경우에는 천이 가능한 다른 자세로 일단 천이한 후에 목적의 자세까지 천이시키도록 자세 천이 정보(S18)를 생성하여 제어 기구부(43)에 송출한 경우에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 행동 지령 정보(S16)가 직접 천이 가능한 자세를 나타내는 경우에만 해당 행동 지령 정보(S16)를 접수하고 제어 기구부(43)에 송출하는 한편, 직접 천이 불가능한 자세를 나타내는 경우에는 해당 행동 지령 정보(S16)를 거부하도록 할 수 있다.
또한, 상술의 실시예에서는 본 발명을 로봇 장치(1)에 적용한 경우에 관해서 기술하였지만, 본 발명은 이것에 한정하지 않고, 예를 들면, 게임이나 전시 등의 엔터테인먼트 분야에서 사용되는 로봇 장치와 같이, 다른 여러가지 로봇 장치에 본 발명을 적용할 수 있다. 도 31에 도시된 바와 같이, 컴퓨터 그래픽으로 움직이는 캐릭터, 예를 들면 다관절로 구성되는 캐릭터를 사용한 애니메이션 등에 적용할 수 있다.
또한, 본 발명이 적용된 로봇 장치(1)의 외관은 도 1에 도시한 바와 같은 구성을 취하는 것에 한정되지 않고, 도 32에 도시한 바와 같이, 보다 현실의 개와 유사한 구성으로 하는 것도, 인간형 퓨마노이드 로봇으로 할 수 있다.
본 발명에 따른 로봇 장치는 공급되는 입력 정보에 따른 동작을 행하는 로봇장치로서, 동작에 기인하는 모델을 구비하며, 입력 정보에 근거하여 모델을 변화시킴으로써 동작을 결정하는 모델 변화 수단을 구비함으로써, 입력 정보에 근거하여 모델을 변화시켜 동작을 결정하는 것으로, 로봇 장치 자체의 감정이나 본능 등의 상태에 근거하여 자율적으로 행동할 수 있다.
또한, 본 발명에 따른 동작 제어 방법은 공급되는 입력 정보에 따라서 동작시키는 동작 제어 방법으로서, 입력 정보에 근거하여 동작에 기인하는 모델을 변화시킴으로써 동작을 결정함으로써, 예를 들면 로봇 장치를 자체의 감정이나 본능 등의 상태에 근거하여 자율적으로 행동시킬 수 있다.
또한, 본 발명에 따른 로봇 장치는 공급되는 입력 정보에 따른 동작을 행하는 로봇 장치로서, 순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 입력 정보에 근거하여, 현재의 동작에 이어지는 다음의 동작을 결정하는 동작 결정 수단을 구비함으로써, 순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 입력 정보에 근거하여 현재의 동작에 계속되는 다음의 동작을 결정하는 것으로, 로봇 장치 자체의 감정이나 본능 등의 상태에 근거하여 자율적으로 행동할 수 있다.
또한, 본 발명에 따른 동작 제어 방법은 공급되는 입력 정보에 따라서 동작시키는 동작 제어 방법으로서, 순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 입력 정보에 근거하여, 현재의 동작에 이어지는 다음의 동작을 결정함으로써, 예를 들면 로봇 장치를 자체의 감정이나 본능 등의 상태에 근거하여 자율적으로 행동시킬 수 있다.
또한, 본 발명에 따른 로봇 장치는 자세 및 동작이 등록되어 있는 그래프로서, 자세와 상기 자세를 천이시키는 동작을 연결하여 구성된 것을 기억하는 그래프 기억 수단과, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 행동 지령 정보에 근거하여, 그래프 상에서 탐색하고, 그 탐색 결과에 근거하여 동작시켜, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작으로 천이시키는 제어 수단을 구비함으로써, 제어 수단에 의해, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 행동 지령 정보에 근거하여 그래프 상에서 탐색하고, 그 탐색 결과에 근거하여 동작시켜, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작으로 천이시킬 수 있다. 이것에 의해 로봇 장치는 표현의 풍부화가 가능하게 된다.
또한, 본 발명에 따른 동작 제어 방법은 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 행동 지령 정보에 근거하여, 자세 및 동작이 등록되어 구성되고, 자세와 상기 자세를 천이시키는 동작을 연결하여 구성된 그래프 상에서 탐색하고, 탐색 결과에 근거하여 동작시켜, 현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작으로 천이시킴으로써, 로봇 장치나 컴퓨터 그래픽으로 움직이는 캐릭터의 표현의 풍부화가 가능하게 된다.

Claims (53)

  1. 공급되는 입력 정보에 따른 동작을 행하는 로봇 장치에 있어서,
    상기 동작에 기인하는 모델을 구비하며, 상기 입력 정보에 근거하여 상기 모델을 변화시킴으로써 상기 동작을 결정하는 모델 변화 수단을 구비한 것을 특징으로 하는 로봇 장치.
  2. 제 1 항에 있어서,
    상기 모델 변화 수단은 상기 모델로서, 동작에 감정을 표출시키는 감정 모델 또는 상기 감정 모델과 속성이 다른 모델로서 동작에 본능을 표출시키는 본능 모델을 구비하며,
    상기 모델 변화 수단은 상기 입력 정보에 근거하여 상기 감정 모델을 변화시킴으로써 상기 동작에 기인하는 감정 상태를 변화시키고, 또는 상기 입력 정보에 근거하여 상기 본능 모델을 변화시킴으로써 상기 동작에 기인하는 본능 상태를 변화시키는 것을 특징으로 하는 로봇 장치.
  3. 제 1 항에 있어서,
    상기 모델 변화 수단은 상기 모델로서, 속성이 다른 복수의 모델을 병유하고 있는 것을 특징으로 하는 로봇 장치.
  4. 제 3 항에 있어서,
    상기 모델 변화 수단은 제 1 속성의 모델로서 동작에 감정을 표출시키는 감정 모델과 제 2 속성의 모델로서 동작에 본능을 표출시키는 본능 모델을 병유하며,
    상기 모델 변화 수단은 상기 입력 정보에 근거하여 상기 감정 모델을 변화시킴으로써 상기 동작에 기인하는 감정 상태를 변화시키며, 또한 상기 입력 정보에 근거하여 상기 본능 모델을 변화시킴으로써 상기 동작에 기인하는 본능 상태를 변화시키는 것을 특징으로 하는 로봇 장치.
  5. 제 1 항에 있어서,
    상기 모델 변화 수단은 상기 모델로서, 동일 속성에 대해서 복수 종류의 모델을 가지고 있는 것을 특징으로 하는 로봇 장치.
  6. 제 5 항에 있어서,
    상기 모델 변화 수단은 상기 입력 정보에 근거하여 상기 복수 종류의 모델의 각 레벨을 개별적으로 변화시킴으로써 상기 동작에 기인하는 상태를 변화시키는 것을 특징으로 하는 로봇 장치.
  7. 제 3 항에 있어서,
    상기 모델 변화 수단은 상기 속성이 다른 모델 각각에 대해서 복수 종류의 모델을 갖고 있는 것을 특징으로 하는 로봇 장치.
  8. 제 7 항에 있어서,
    상기 모델 변화 수단은 상기 입력 정보에 근거하여 상기 속성이 다른 복수의 모델의 상기 복수 종류의 모델의 각 레벨을 개별적으로 변화시킴으로써 상기 동작에 기인하는 상태를 변화시키는 것을 특징으로 하는 로봇 장치.
  9. 제 3 항에 있어서,
    상기 모델 변화 수단은 상기 속성이 다른 모델끼리가 서로 영향하면서 해당 모델 각각을 변화시키는 것을 특징으로 하는 로봇 장치.
  10. 제 7 항에 있어서,
    상기 모델 변화 수단은 다른 속성의 모델 사이에서 소망의 모델끼리가 영향하면서 해당 모델을 변화시키는 것을 특징으로 하는 로봇 장치.
  11. 제 1 항에 있어서,
    상기 모델 변화 수단은 해당 장치의 행동에 따라서 상기 모델을 변화시키는 것을 특징으로 하는 로봇 장치.
  12. 제 1 항에 있어서,
    상기 모델 변화 수단은 해당 장치 고유에 상기 모델을 변화시키는 것을 특징으로 하는 로봇 장치.
  13. 제 1 항에 있어서,
    상기 입력 정보는 해당 장치에 사용자로부터 주어지는 사용자 지령 정보로 이루어진 것을 특징으로 하는 로봇 장치.
  14. 제 1 항에 있어서,
    상기 입력 정보는 해당 장치에 의 사용자로부터의 작용의 정보로 이루어지는 것을 특징으로 하는 로봇 장치.
  15. 제 1 항에 있어서,
    상기 입력 정보는 해당 장치의 주위의 환경 정보로 이루어지는 것을 특징으로 하는 로봇 장치.
  16. 제 15 항에 있어서,
    상기 입력 정보는 해당 장치의 주위에 존재하는 다른 로봇 장치의 움직임의 정보로 이루어지는 것을 특징으로 하는 로봇 장치.
  17. 제 1 항에 있어서,
    상기 입력 정보는 해당 장치 내부의 상태 정보로 이루어지는 것을 특징으로하는 로봇 장치.
  18. 제 1 항에 있어서,
    상기 입력 정보는 해당 장치의 현재 또는 과거의 행동의 정보로 이루어지는 것을 특징으로 하는 로봇 장치.
  19. 공급되는 입력 정보에 따라서 동작시키는 동작 제어 방법에 있어서,
    상기 입력 정보에 근거하여 상기 동작에 기인하는 모델을 변화시킴으로써 상기 동작을 결정하는 것을 특징으로 하는 동작 제어 방법.
  20. 제 19 항에 있어서,
    상기 모델이, 동작에 감정을 표출시키는 감정 모델 또는 상기 감정 모델과 속성이 다른 모델로서 동작에 본능을 표출시키는 본능 모델로서,
    상기 입력 정보에 근거하여 상기 감정 모델을 변화시킴으로써 상기 동작에 기인하는 감정 상태를 변화시키며, 또는 상기 입력 정보에 근거하여 상기 본능 모델을 변화시킴으로써 상기 동작에 기인하는 본능 상태를 변화시키는 것을 특징으로 하는 동작 제어 방법.
  21. 제 19 항에 있어서,
    상기 모델이, 동작에 감정을 표출시키는 감정 모델과 제 2 속성의 모델로서동작에 본능을 표출시키는 본능 모델로서,
    상기 입력 정보에 근거하여 상기 감정 모델을 변화시킴으로써 상기 동작에 기인하는 감정 상태를 변화시키며, 또한 상기 입력 정보에 근거하여 상기 본능 모델을 변화시킴으로써 상기 동작에 기인하는 본능 상태를 변화시키는 것을 특징으로 하는 동작 제어 방법.
  22. 공급되는 입력 정보에 따른 동작을 행하는 로봇 장치에 있어서,
    순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 상기 입력 정보에 근거하여, 상기 현재의 동작에 이어지는 다음의 동작을 결정하는 동작 결정 수단을 구비한 것을 특징으로 하는 로봇 장치.
  23. 제 22 항에 있어서,
    상기 입력 정보는 사용자로부터 주어지는 사용자 지령 정보, 사용자로부터의 작용의 정보, 주위의 환경 정보, 장치 내부의 상태 정보, 현재 또는 과거의 행동의 정보, 감정 및 /또는 본능의 상태 정보, 중의 모두 또는 일부를 조합하여 이루어지는 것을 특징으로 하는 로봇 장치.
  24. 제 22 항에 있어서,
    상기 동작 결정 수단은 상기 동작의 수가 유한개로 이루어지는 유한 오토마톤을 사용하여 상기 다음의 동작을 결정하는 것을 특징으로 하는 로봇 장치.
  25. 제 22 항에 있어서,
    상기 동작 결정 수단은 상기 현재의 동작 및 상기 입력 정보에 근거하여 복수의 동작을 천이처의 후보로서 선정하고, 해당 선정된 복수의 동작 중 소망의 동작을 란수에 의해서 랜덤으로 결정하는 확률 유한 오토마톤을 사용하는 것을 특징으로 하는 로봇 장치.
  26. 제 22 항에 있어서,
    상기 동작 결정 수단은 현재의 동작을 실행하고 있는 시간이 일정치에 달한 것, 또는 특정한 입력 정보가 입력된 또는 해당 장치의 감정 및 본능의 상태를 결정하는 복수 종류의 감정 모델 및 복수 종류의 욕구 모델 중 소망의 감정 모델 또는 욕구 모델의 레벨이 소정의 임계치를 초과하는 것을, 상기 현재의 동작을 상기 다음의 동작으로 천이시켰을 때의 조건으로 하는 것을 특징으로 하는 로봇 장치.
  27. 제 22 항에 있어서,
    상기 동작 결정 수단은 감정및 본능의 상태를 결정하는 복수 종류의 감정 모델 및 복수 종류의 욕구 모델 중 소망의 감정 모델 또는 욕구 모델의 레벨이 소정의 임계치를 초과하고 있는지의 여부에 근거하여 천이처의 동작을 결정하는 것을 특징으로 하는 로봇 장치.
  28. 제 22 항에 있어서,
    상기 동작 결정 수단은 해당 장치의 감정 및 본능의 상태를 결정하는 복수 종류의 감정 모델 및 복수 종류의 욕구 모델 중 소망의 감정 모델 또는 욕구 모델의 레벨에 따라서, 천이처의 동작으로 행하여지는 행동을 특징짓는 파라미터를 변화시키는 것을 특징으로 하는 로봇 장치.
  29. 공급되는 입력 정보에 따라서 동작시키는 동작 제어 방법에 있어서,
    순차 공급되는 입력 정보의 이력에 따른 현재의 동작 및 다음에 공급되는 상기 입력 정보에 근거하여, 상기 현재의 동작에 이어지는 다음의 동작을 결정하는 것을 특징으로 하는 동작 제어 방법.
  30. 행동 지령 정보에 근거하여 동작시켜, 복수의 자세 사이를 천이하는 로봇 장치에 있어서,
    상기 자세 및 상기 동작이 등록되어 있는 그래프로서, 상기 자세와 상기 자세를 천이시키는 상기 동작을 연결하여 구성된 것을 기억하는 그래프 기억 수단과,
    현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 상기 행동 지령 정보에 근거하여 상기 그래프 상에서 탐색하고, 그 탐색 결과에 근거하여 동작시켜, 상기 현재의 자세로부터 상기 목표로 하는 자세 또는 목표로 하는 동작으로 천이시키는 제어 수단을 구비한 것을 특징으로 하는 로봇 장치.
  31. 제 30 항에 있어서,
    상기 행동 지령 정보를 일시적으로 기억하는 행동 지령 정보 기억 수단을 구비하며,
    상기 제어 수단은 상기 행동 지령 정보 기억 수단으로부터 순차 보내오는 상기 행동 지령 정보에 근거하여, 상기 현재의 자세로부터 상기 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 상기 그래프 상에서 탐색하는 것을 특징으로 하는 로봇 장치.
  32. 제 31 항에 있어서,
    상기 행동 지령 정보에는 해당 행동 지령 정보에 대한 부가 정보가 부가되어 있는 것을 특징으로 하는 로봇 장치.
  33. 제 32 항에 있어서,
    상기 부가 정보가, 상기 지령 조작 정보로서,
    상기 행동 지령 정보 기억 수단은 상기 지령 조작 정보에 근거하여, 새롭게 보내 온 행동 지령 정보와 이미 기억되어 있는 행동 지령 정보에 대한 조작을 하는 것을 특징으로 하는 로봇 장치.
  34. 제 32 항에 있어서,
    상기 부가 정보가, 동작의 내용을 상세하게 지령하는 세부 입력 정보로서,
    상기 제어 수단은 상기 세부 입력 정보에 근거하여, 상기 목표로 하는 동작을 상세하게 제어하는 것을 특징으로 하는 로봇 장치.
  35. 제 34 항에 있어서,
    상기 세부 입력 정보가, 동작의 파라미터의 정보로서,
    상기 제어 수단은 상기 목표로 하는 동작을 상기 파라미터에 따라서 실행시키는 것을 특징으로 하는 로봇 장치.
  36. 제 34 항에 있어서,
    상기 세부 입력 정보가, 동작의 반복 회수의 정보로서,
    상기 제어 수단은 상기 목표로 하는 동작을, 상기 반복 회수의 정보에 근거하여 반복하여 실행시키는 것을 특징으로 하는 로봇 장치.
  37. 제 34 항에 있어서,
    상기 세부 입력 정보가, 반복 동작인 것의 정보로서,
    상기 제어 수단은 반복의 종료 정보가 입력될 때까지, 상기 목표로 하는 동작을 실행시키는 것을 특징으로 하는 로봇 장치.
  38. 제 30 항에 있어서,
    상기 그래프 상에서의 동작에 무게가 부가되어 있고,
    상기 제어 수단은 상기 무게를 참조하여 경로를 탐색하는 것을 특징으로 하는 로봇 장치.
  39. 제 38 항에 있어서,
    상기 제어 수단은 상기 무게의 총합이 최소치가 되는 경로를 탐색하는 것을 특징으로 하는 로봇 장치.
  40. 제 30 항에 있어서,
    상기 제어 수단은 물리적 형상 및 기구에 따라서 경로를 탐색하는 것을 특징으로 하는 로봇 장치.
  41. 제 30 항에 있어서,
    전체가 복수의 구성 부분으로 이루어지고,
    상기 그래프 기억 수단은 상기 전체 및 상기 구성 부분에 각각 대응시켜 복수의 그래프를 기억하고,
    상기 제어 수단은 각각의 그래프 상에서 상기 전체 및 구성 부분에 대한 상기 경로를 탐색하여, 각각의 탐색 결과에 근거하여, 상기 전체 및 구성 부분을 동작시키는 것을 특징으로 하는 로봇 장치.
  42. 제 41 항에 있어서,
    상기 복수의 그래프에는 상기 전체 및 구성 부분이 공유하는 기본 자세가 등록되어 있고,
    상기 제어 수단은 상기 현재의 자세와 상기 목표로 하는 자세 또는 상기 목표로 하는 동작이 상기 전체와 상기 각 구성 부분에서 걸쳐 있을 때에는 상기 현재의 자세로부터 상기 목표로 하는 자세 또는 상기 목표로 하는 동작까지의 경로를, 상기 기본 자세를 통해 상기 그래프 사이에서 탐색하는 것을 특징으로 하는 로봇 장치.
  43. 제 41 항에 있어서,
    상기 행동 지령 정보에는 다른 구성 부분과 동작을 동기시키기 위한 동기 정보가 부가되어 있고,
    상기 제어 수단은 상기 동기 정보에 근거하여, 다른 구성 부분을 동기시켜 실행시키는 것을 특징으로 하는 로봇 장치.
  44. 제 30 항에 있어서,
    상기 제어 수단은 상기 현재의 자세로부터 상기 목표로 하는 자세 또는 목표로 하는 동작으로 천이시키는 동작을, 표현을 부가하여 실행시키는 것을 특징으로 하는 로봇 장치.
  45. 제 30 항에 있어서,
    상기 그래프상에는 동일의 동작이 복수 등록되어 있고,
    상기 제어 수단은 상기 행동 지령 정보에 의해 상기 복수의 어떤 동작이 지령되었을 때에는 적어도 현재의 자세를 참조하여, 목표로 하는 상기 복수의 어떤 동작중의 하나의 동작까지의 경로를 탐색하는 것을 특징으로 하는 로봇 장치.
  46. 제 45 항에 있어서,
    상기 제어 수단은 목표로 하는 상기 복수의 어떤 동작 중 최단으로 실행 가능한 하나의 동작까지의 경로를 탐색하는 것을 특징으로 하는 로봇 장치.
  47. 제 30 항에 있어서,
    상기 그래프에는 중립의 자세가 등록되어 있고,
    상기 제어 수단은 현실의 자세가 불명일 때에는 일단, 상기 중립의 자세로 하고나서 상기 목표로 하는 자세 또는 목표로 하는 동작으로 천이시키는 것을 특징으로 하는 로봇 장치.
  48. 제 47 항에 있어서,
    상기 제어 수단은 통상의 천이를 위한 통상의 동작 속도보다도 느린 동작에 의해 상기 중립의 자세로 하는 것을 특징으로 하는 로봇 장치.
  49. 행동 지령 정보에 근거하여 동작시켜, 복수의 자세 사이를 제어하는 동작 제어 방법에 있어서,
    현재의 자세로부터 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 상기 행동 지령 정보에 의거하여, 상기 자세 및 상기 동작이 등록되어 구성되고, 상기 자세와 상기 자세를 천이시키는 동작을 연결하여 구성된 그래프 상에서 탐색하고,
    탐색 결과에 근거하여 동작시켜, 상기 현재의 자세로부터 상기 목표로 하는 자세 또는 목표로 하는 동작으로 천이시키는 것을 특징으로 하는 동작 제어 방법.
  50. 제 49 항에 있어서,
    상기 행동 지령 정보가 행동 지령 정보 기억 수단에 일시적으로 기억되는 것으로서,
    상기 행동 지령 정보 기억 수단으로부터 순차 보내오는 상기 행동 지령 정보에 근거하여, 상기 현재의 자세로부터 상기 목표로 하는 자세 또는 목표로 하는 동작까지의 경로를, 상기 그래프 상에서 탐색하는 것을 특징으로 하는 동작 제어 방법.
  51. 제 49 항에 있어서,
    상기 그래프 상에서의 동작에 무게가 부가되어 있고,
    상기 무게를 참조하여 경로를 탐색하는 것을 특징으로 하는 동작 제어 방법.
  52. 제 49 항에 있어서,
    복수의 자세로 천이 가능한 로봇 장치의 동작을 제어하는 것을 특징으로 하는 동작 제어 방법.
  53. 제 52 항에 있어서,
    상기 로봇 장치가, 전체가 복수의 구성 부분으로 이루어지는 로봇 장치로서,
    상기 전체 및 상기 구성 부분에 각각 대응되는 복수의 그래프 상에서, 상기 전체 및 구성 부분에 대한 상기 경로를 탐색하여, 각각의 탐색 결과에 근거하여, 상기 전체 및 구성 부분을 동작시키는 것을 특징으로 하는 동작 제어 방법.
KR1020007010417A 1999-01-20 2000-01-20 로봇 장치 및 동작 제어 방법 KR100721694B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP99-12292 1999-01-20
JP1229299 1999-01-20
JP99-341374 1999-11-30
JP34137499 1999-11-30
PCT/JP2000/000263 WO2000043167A1 (fr) 1999-01-20 2000-01-20 Robot et procede de commande de deplacement

Publications (2)

Publication Number Publication Date
KR20010092244A true KR20010092244A (ko) 2001-10-24
KR100721694B1 KR100721694B1 (ko) 2007-05-28

Family

ID=26347871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007010417A KR100721694B1 (ko) 1999-01-20 2000-01-20 로봇 장치 및 동작 제어 방법

Country Status (6)

Country Link
US (4) US6337552B1 (ko)
EP (1) EP1088629A4 (ko)
JP (3) JP4696361B2 (ko)
KR (1) KR100721694B1 (ko)
CN (1) CN1246126C (ko)
WO (1) WO2000043167A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100595821B1 (ko) * 2004-09-20 2006-07-03 한국과학기술원 로봇의 감성합성장치 및 방법
KR100745720B1 (ko) * 2005-11-30 2007-08-03 한국전자통신연구원 다중 감정 모델을 이용한 감정 처리 장치 및 그 방법
KR100746300B1 (ko) * 2005-12-28 2007-08-03 엘지전자 주식회사 로봇의 이동방향 결정 방법

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US6560511B1 (en) * 1999-04-30 2003-05-06 Sony Corporation Electronic pet system, network system, robot, and storage medium
DE60036599T2 (de) 1999-05-10 2008-02-07 Sony Corp. Robotervorrichtung, steuerverfahren und aufzeichnungsmedium
GB2350696A (en) * 1999-05-28 2000-12-06 Notetry Ltd Visual status indicator for a robotic machine, eg a vacuum cleaner
US6663393B1 (en) * 1999-07-10 2003-12-16 Nabil N. Ghaly Interactive play device and method
US7442107B1 (en) * 1999-11-02 2008-10-28 Sega Toys Ltd. Electronic toy, control method thereof, and storage medium
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
JP4524524B2 (ja) * 2000-10-11 2010-08-18 ソニー株式会社 ロボット装置及びその制御方法
KR20020067694A (ko) * 2000-10-11 2002-08-23 소니 가부시끼 가이샤 로봇 장치 및 로봇 장치의 동작 제어 방법
JP3645848B2 (ja) * 2000-11-17 2005-05-11 株式会社ソニー・コンピュータエンタテインメント 情報処理プログラム、情報処理プログラムが記録された記録媒体、情報処理装置及び方法
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
EP1215551B1 (en) * 2000-12-12 2006-08-09 Sony France S.A. An autonomous system with heterogeneous bodies
WO2002054184A2 (en) 2001-01-04 2002-07-11 Roy-G-Biv Corporation Systems and methods for transmitting motion control data
JP2002304188A (ja) * 2001-04-05 2002-10-18 Sony Corp 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
US6697707B2 (en) * 2001-04-06 2004-02-24 Vanderbilt University Architecture for robot intelligence
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
US20030045947A1 (en) * 2001-08-30 2003-03-06 The Boeing Company System, method and computer program product for controlling the operation of motion devices by directly implementing electronic simulation information
JP3837479B2 (ja) * 2001-09-17 2006-10-25 独立行政法人産業技術総合研究所 動作体の動作信号生成方法、その装置及び動作信号生成プログラム
GB2380847A (en) * 2001-10-10 2003-04-16 Ncr Int Inc Self-service terminal having a personality controller
JP2003133200A (ja) * 2001-10-19 2003-05-09 Canon Inc シミュレーション装置及びシミュレーション方法
US7257630B2 (en) * 2002-01-15 2007-08-14 Mcafee, Inc. System and method for network vulnerability detection and reporting
US7543056B2 (en) * 2002-01-15 2009-06-02 Mcafee, Inc. System and method for network vulnerability detection and reporting
WO2003078113A1 (fr) * 2002-03-15 2003-09-25 Sony Corporation Systeme de commande de robot, procede correspondant, et robot
FR2839176A1 (fr) * 2002-04-30 2003-10-31 Koninkl Philips Electronics Nv Systeme d'animation pour robot comprenant un ensemble de pieces mobiles
US7118443B2 (en) 2002-09-27 2006-10-10 Mattel, Inc. Animated multi-persona toy
GB2393803A (en) * 2002-10-01 2004-04-07 Hewlett Packard Co Two mode creature simulaton
US7401057B2 (en) 2002-12-10 2008-07-15 Asset Trust, Inc. Entity centric computer system
US7238079B2 (en) * 2003-01-14 2007-07-03 Disney Enterprise, Inc. Animatronic supported walking system
US7248170B2 (en) * 2003-01-22 2007-07-24 Deome Dennis E Interactive personal security system
DE10302800A1 (de) * 2003-01-24 2004-08-12 Epcos Ag Verfahren zur Herstellung eines Bauelements
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
JP2006518080A (ja) * 2003-02-14 2006-08-03 プリベンシス,インコーポレイティド ネットワーク監査及びポリシー保証システム
US8027349B2 (en) * 2003-09-25 2011-09-27 Roy-G-Biv Corporation Database event driven motion systems
EP1530138A1 (en) * 2003-11-10 2005-05-11 Robert Bosch Gmbh Generic measurement and calibration interface for development of control software
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension
WO2005069890A2 (en) * 2004-01-15 2005-08-04 Mega Robot, Inc. System and method for reconfiguring an autonomous robot
DE602005002637D1 (de) * 2004-03-12 2007-11-08 Koninkl Philips Electronics Nv Elektronische vorrichtung und verfahren zur belebung eines gegenstands
JP4456537B2 (ja) * 2004-09-14 2010-04-28 本田技研工業株式会社 情報伝達装置
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
US8713025B2 (en) 2005-03-31 2014-04-29 Square Halt Solutions, Limited Liability Company Complete context search system
US20070016029A1 (en) * 2005-07-15 2007-01-18 General Electric Company Physiology workstation with real-time fluoroscopy and ultrasound imaging
JP4237737B2 (ja) * 2005-08-04 2009-03-11 株式会社日本自動車部品総合研究所 車両搭載機器の自動制御装置、およびその装置を搭載した車両
WO2007041295A2 (en) 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
WO2007050407A1 (en) 2005-10-21 2007-05-03 Deere & Company Systems and methods for switching between autonomous and manual operation of a vehicle
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
JP4316630B2 (ja) 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
US20080274812A1 (en) * 2007-05-02 2008-11-06 Inventec Corporation System of electronic pet capable of reflecting habits of user and method therefor and recording medium
EP2014425B1 (en) * 2007-07-13 2013-02-20 Honda Research Institute Europe GmbH Method and device for controlling a robot
CN101127152B (zh) * 2007-09-30 2012-02-01 山东科技大学 用于机器人动物控制的编码信号发生器与无线遥控装置
CN101406756A (zh) * 2007-10-12 2009-04-15 鹏智科技(深圳)有限公司 表达情感的电子玩具及其情感表达方法、发光单元控制装置
KR100893758B1 (ko) * 2007-10-16 2009-04-20 한국전자통신연구원 로봇의 감성 표현 제어 시스템 및 방법
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
EP2266077A1 (en) * 2008-04-02 2010-12-29 iRobot Corporation Robotics systems
KR101631496B1 (ko) * 2008-06-03 2016-06-17 삼성전자주식회사 로봇 장치 및 그 단축 명령 등록 방법
CN101596368A (zh) * 2008-06-04 2009-12-09 鸿富锦精密工业(深圳)有限公司 互动式玩具系统及其方法
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
CN101653662A (zh) * 2008-08-21 2010-02-24 鸿富锦精密工业(深圳)有限公司 机器人
CN101653660A (zh) * 2008-08-22 2010-02-24 鸿富锦精密工业(深圳)有限公司 讲故事自动做动作的类生物装置及其方法
CN101727074B (zh) * 2008-10-24 2011-12-21 鸿富锦精密工业(深圳)有限公司 具有生物时钟的类生物装置及其行为控制方法
US20100181943A1 (en) * 2009-01-22 2010-07-22 Phan Charlie D Sensor-model synchronized action system
US8539359B2 (en) 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
JP4947073B2 (ja) * 2009-03-11 2012-06-06 トヨタ自動車株式会社 ロボット装置及びその制御方法
BRPI1006383A2 (pt) * 2009-04-17 2019-09-24 Koninl Philips Electronics Nv sistema de telecomunicação ambiente e método para operar um sistema de telecomunicação ambiente
US8939840B2 (en) 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
JP5447811B2 (ja) * 2009-09-10 2014-03-19 国立大学法人 奈良先端科学技術大学院大学 経路計画生成装置および該方法ならびにロボット制御装置およびロボットシステム
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
US8483873B2 (en) 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US20120042263A1 (en) 2010-08-10 2012-02-16 Seymour Rapaport Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources
FR2969026B1 (fr) * 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation
WO2012097834A2 (en) * 2011-01-21 2012-07-26 Abb Ag System for commanding a robot
US9431027B2 (en) * 2011-01-26 2016-08-30 Honda Motor Co., Ltd. Synchronized gesture and speech production for humanoid robots using random numbers
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
US9434072B2 (en) * 2012-06-21 2016-09-06 Rethink Robotics, Inc. Vision-guided robots and methods of training them
JP6162736B2 (ja) * 2015-03-19 2017-07-12 ファナック株式会社 機械と可搬式無線操作盤との間の距離に応じて通信品質基準を変化させる機能を備えたロボット制御システム
JP6467710B2 (ja) * 2015-04-06 2019-02-13 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
WO2017020734A1 (zh) * 2015-08-04 2017-02-09 北京进化者机器人科技有限公司 一种多功能家庭服务机器人
KR20170052976A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 모션을 수행하는 전자 장치 및 그 제어 방법
CN105573490A (zh) * 2015-11-12 2016-05-11 于明 一种人机交互系统、穿佩设备和方法
AU2016384096B2 (en) * 2016-01-04 2019-10-24 Zhejiang Libiao Robots Co., Ltd. Method and device for returning robots from site
CN108885436B (zh) 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人系统
CN107346107A (zh) * 2016-05-04 2017-11-14 深圳光启合众科技有限公司 多样化运动控制方法和系统及具有该系统的机器人
WO2017199566A1 (ja) * 2016-05-20 2017-11-23 シャープ株式会社 情報処理装置、ロボット、および制御プログラム
CN109414824B (zh) * 2016-07-08 2022-07-26 Groove X 株式会社 穿衣服的行为自主型机器人
JP6571618B2 (ja) * 2016-09-08 2019-09-04 ファナック株式会社 人間協調型ロボット
CN107813306B (zh) * 2016-09-12 2021-10-26 徐州网递智能科技有限公司 机器人及其动作控制方法和装置
CN108229640B (zh) * 2016-12-22 2021-08-20 山西翼天下智能科技有限公司 情绪表达的方法、装置和机器人
JP6729424B2 (ja) 2017-01-30 2020-07-22 富士通株式会社 機器、出力装置、出力方法および出力プログラム
JP6886334B2 (ja) * 2017-04-19 2021-06-16 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
US10250532B2 (en) * 2017-04-28 2019-04-02 Microsoft Technology Licensing, Llc Systems and methods for a personality consistent chat bot
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
US20190111565A1 (en) * 2017-10-17 2019-04-18 True Systems, LLC Robot trainer
JP7238796B2 (ja) * 2018-01-10 2023-03-14 ソニーグループ株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
CN110297697B (zh) * 2018-03-21 2022-02-18 北京猎户星空科技有限公司 机器人动作序列生成方法和装置
JP7139643B2 (ja) * 2018-03-23 2022-09-21 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN108382488A (zh) * 2018-04-27 2018-08-10 梧州学院 一种机器猫
JP7298860B2 (ja) * 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
US11226408B2 (en) * 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
CN113727767B (zh) 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 机器动物拼插模型
JP7247560B2 (ja) * 2018-12-04 2023-03-29 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
KR20200077936A (ko) * 2018-12-21 2020-07-01 삼성전자주식회사 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법
JP7437910B2 (ja) * 2019-10-29 2024-02-26 株式会社東芝 制御システム、制御方法、ロボットシステム、プログラム、及び記憶媒体
CN111846004A (zh) * 2020-07-21 2020-10-30 李荣仲 一种设有重心调节机制的四足机器犬
US11670156B2 (en) 2020-10-30 2023-06-06 Honda Research Institute Europe Gmbh Interactive reminder companion

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US3888023A (en) * 1974-08-21 1975-06-10 Jardine Ind Inc Physical training robot
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト
US5182557A (en) * 1989-09-20 1993-01-26 Semborg Recrob, Corp. Motorized joystick
JPH0573143A (ja) * 1991-05-27 1993-03-26 Shinko Electric Co Ltd 移動ロボツトシステム
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JP3018865B2 (ja) 1993-10-07 2000-03-13 富士ゼロックス株式会社 感情表出装置
JPH0876810A (ja) 1994-09-06 1996-03-22 Nikon Corp 強化学習方法及び装置
JPH0934698A (ja) 1995-07-20 1997-02-07 Hitachi Ltd ソフトウェア生成方法及び開発支援方法
AU7662396A (en) * 1995-10-13 1997-04-30 Na Software, Inc. Creature animation and simulation technique
JP3413694B2 (ja) 1995-10-17 2003-06-03 ソニー株式会社 ロボット制御方法およびロボット
JP4153989B2 (ja) 1996-07-11 2008-09-24 株式会社日立製作所 文書検索配送方法および装置
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
US5929585A (en) * 1996-11-19 1999-07-27 Sony Corporation Robot system and its control method
US6243623B1 (en) * 1997-01-31 2001-06-05 Honda Giken Kogyo Kabushiki Kaisha Leg type mobile robot control apparatus
JPH10235019A (ja) * 1997-02-27 1998-09-08 Sony Corp 携帯型ライフゲーム装置及びそのデータ管理装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP3273550B2 (ja) 1997-05-29 2002-04-08 オムロン株式会社 自動応答玩具
JP3655054B2 (ja) * 1997-06-13 2005-06-02 ヤンマー農機株式会社 田植機の苗載台構成
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
EP1034899B1 (en) * 1998-06-09 2011-03-30 Sony Corporation Robot and method of its attitude control
IT1304014B1 (it) 1998-06-29 2001-03-02 Reale S R L Stampi per la fabbricazione di bicchieri di ghiaccio e supporti persostenere tali bicchieri durante l'impiego.
US6151571A (en) * 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100595821B1 (ko) * 2004-09-20 2006-07-03 한국과학기술원 로봇의 감성합성장치 및 방법
KR100745720B1 (ko) * 2005-11-30 2007-08-03 한국전자통신연구원 다중 감정 모델을 이용한 감정 처리 장치 및 그 방법
KR100746300B1 (ko) * 2005-12-28 2007-08-03 엘지전자 주식회사 로봇의 이동방향 결정 방법

Also Published As

Publication number Publication date
CN1246126C (zh) 2006-03-22
US6337552B1 (en) 2002-01-08
WO2000043167A1 (fr) 2000-07-27
CN1297393A (zh) 2001-05-30
US20020050802A1 (en) 2002-05-02
JP2010149276A (ja) 2010-07-08
JP2010149277A (ja) 2010-07-08
EP1088629A1 (en) 2001-04-04
US20030023348A1 (en) 2003-01-30
JP4985805B2 (ja) 2012-07-25
KR100721694B1 (ko) 2007-05-28
EP1088629A4 (en) 2009-03-18
US6442450B1 (en) 2002-08-27
US6667593B2 (en) 2003-12-23
JP4696361B2 (ja) 2011-06-08

Similar Documents

Publication Publication Date Title
KR20010092244A (ko) 로봇 장치 및 동작 제어 방법
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
KR20010053481A (ko) 로봇 장치 및 그 제어 방법
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US7063591B2 (en) Edit device, edit method, and recorded medium
US6711467B2 (en) Robot apparatus and its control method
US6362589B1 (en) Robot apparatus
JP2001212782A (ja) ロボット装置及びロボット装置の制御方法
JP2004298975A (ja) ロボット装置、障害物探索方法
KR20020067694A (ko) 로봇 장치 및 로봇 장치의 동작 제어 방법
JP4556425B2 (ja) コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
JP2001157979A (ja) ロボット装置及びその制御方法
JP2001157982A (ja) ロボット装置及びその制御方法
JP2003208161A (ja) ロボット装置及びその制御方法
JP2001157981A (ja) ロボット装置及びその制御方法
JP2001191279A (ja) 行動管理システム、行動管理方法及びロボット装置
JP2001157983A (ja) ロボット装置及びロボット装置の性格判別方法
JP4411503B2 (ja) ロボット装置及びその制御方法
JP2002120179A (ja) ロボット装置及びその制御方法
Doyle et al. An intelligent guide for virtual environments
JP2003266352A (ja) ロボット装置及びロボット装置の制御方法
JP2001157984A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003340761A (ja) ロボット装置及びロボット装置の制御方法
JP2005078377A (ja) 動体検出装置、動体検出方法、及びロボット装置
JP2001191282A (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20120514

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee