KR102150928B1 - 로봇 제어 시스템 - Google Patents

로봇 제어 시스템 Download PDF

Info

Publication number
KR102150928B1
KR102150928B1 KR1020160115427A KR20160115427A KR102150928B1 KR 102150928 B1 KR102150928 B1 KR 102150928B1 KR 1020160115427 A KR1020160115427 A KR 1020160115427A KR 20160115427 A KR20160115427 A KR 20160115427A KR 102150928 B1 KR102150928 B1 KR 102150928B1
Authority
KR
South Korea
Prior art keywords
robot
humanoid
user
service
conversation
Prior art date
Application number
KR1020160115427A
Other languages
English (en)
Other versions
KR20170107875A (ko
Inventor
로샨 타프리야
베린다 던스턴
Original Assignee
후지제롯쿠스 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지제롯쿠스 가부시끼가이샤 filed Critical 후지제롯쿠스 가부시끼가이샤
Publication of KR20170107875A publication Critical patent/KR20170107875A/ko
Application granted granted Critical
Publication of KR102150928B1 publication Critical patent/KR102150928B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)

Abstract

본 발명은, 이용자의 감정 반응을 보다 많이 끌어내어, 이용자의 요구에 대해서 보다 정확히 대응한 서비스를 제공할 수 있는 로봇 제어 시스템을 제공하는 것을 과제로 한다.
이러한 과제를 해결하기 위한 수단으로서, 로봇 제어 시스템(10)은, 이용자(50)와 대화하는 인간형 대화 로봇(210, 230)과, 이용자(50)에 대해서 서비스를 제공하는 서비스 실행 로봇(240, 260)과, 이용자(50)와 인간형 대화 로봇(210, 230) 간의 대화를 통해서 이용자의 요구와 감정을 인식하는 인식 수단(222)과, 이용자(50)의 요구와 감정에 따라서, 이용자(50)에게 제공할 서비스와 그 서비스를 실행할 서비스 실행 로봇을 결정하는 결정 수단(407, 408)을 구비하고, 이 결정 수단에 의해 결정된 서비스 실행 로봇이, 결정된 서비스를 실행한다.

Description

로봇 제어 시스템{ROBOT CONTROL SYSTEM}
본 발명은 로봇 제어 시스템에 관한 것이다.
특허문헌 1에는, 인간 등의 열원의 탐색, 유독 가스나 유독 방사선의 탐색을 행할 경우에, 복수의 센싱 로봇과 그들을 제어하는 베이스 스테이션과 센싱 로봇의 이동을 제어하는 페로몬 로봇을 포함하는 그룹 로봇 시스템을 사용해, 1개의 센싱 로봇으로부터의 신호를, 복수의 경로에 위치하는 복수의 센싱 로봇에 있어서 통신을 중계해서 베이스 스테이션에 통신할 때에, 통신을 중계할 때마다 신호를 보정하는 것에 의해서 센서 정보의 신뢰성을 높이는 것이 개시되어 있다.
일본국 특개2005-125466호 공보
종래의 로봇에서는, 대화 기능과 서비스 실행 기능의 양쪽을 하나의 로봇에 집약하고 있었기 때문에, 이용자의 요구를 접수해서 서비스를 제공할 때에, 이용자의 요구와 감정에 정확히 대응한 서비스를 제공하는 것이 어려웠다. 예를 들면, 대화 기능을 향상시켜서 이용자의 감정을 끌어내기 위해서는, 로봇을 인간형의 형상에 가까게 할 필요가 있으며, 이것에 의해 로봇의 형상이 제약받기 때문에, 각종 서비스를 제공하는 능력이 저하한다. 또한, 서비스 실행 기능을 향상시키기 위하여 각종 기능을 로봇에 포함시키면, 인간형 형상으로부터 멀어져 버리기 때문에, 이용자는 감정을 표현하지 않게 되어, 로봇이 이용자의 요구와 감정을 정확히 살펴 알기 어려워진다.
본 발명의 목적은, 대화 기능과 서비스 실행 기능의 양쪽을 하나의 로봇에 집약한 로봇을 사용해서 이용자의 요구를 접수하는 경우에 비하여, 이용자의 감정 반응을 보다 많이 끌어내어, 이용자의 요구에 대해서 보다 정확히 대응한 서비스를 제공할 수 있는 로봇 제어 시스템을 제공하는 것이다.
[1] 본 발명의 일 실시형태에 따른 로봇 제어 시스템은, 이용자와 대화하는 인간형 대화 로봇과, 상기 이용자에 대해서 역무(役務)를 제공하는 역무 실행 로봇과, 이용자와 상기 인간형 대화 로봇 간의 대화를 통해서 상기 이용자의 요구와 감정을 인식하는 인식 수단과, 상기 이용자의 요구와 감정에 따라서, 상기 이용자에게 제공할 역무와 당해 역무를 실행할 역무 실행 로봇을 결정하는 결정 수단을 구비하고, 상기 결정 수단에 의해 결정된 역무 실행 로봇이, 상기 결정 수단에 의해 결정된 역무를 실행한다.
[2] [1]의 로봇 제어 시스템에 있어서, 상기 인간형 대화 로봇은, 상기 인식 수단에 의해 인식된 상기 이용자의 감정에 따라서, 상기 인간형 대화 로봇을 구성하는 신체의 형상을 변화시켜도 된다.
[3] [2]의 로봇 제어 시스템에 있어서, 상기 인간형 대화 로봇이, 체간(體幹)에 대한 흉부 및 두부(頭部) 중 어느 하나 혹은 양쪽의 방향을 변화시키는 것에 의해, 상기 인간형 대화 로봇을 구성하는 신체의 형상을 변화시켜도 된다.
[4] [1]의 로봇 제어 시스템에 있어서, 상기 인간형 대화 로봇이 두부에 1개의 돌기부를 가지며, 상기 이용자와의 대화 시에, 상기 돌기부를 상기 이용자의 방향으로 향해도 된다.
[5] [4]의 로봇 제어 시스템에 있어서, 상기 인간형 대화 로봇에는, 상기 두부에, 상기 돌기부를 향해서 수렴(converging)하도록 점등 장치가 배치되며, 상기 인식 수단에 의해 인식한 상기 이용자의 감정에 따라서, 상기 점등 장치의 점등 방법이 변화해도 된다.
[6] [4]의 로봇 제어 시스템에 있어서, 상기 인간형 대화 로봇의 두부에는, 인간의 눈 및 입에 상당하는 부분이 설치되어 있지 않으며, 상기 돌기부가 설치되어 있지 않은 영역에, 이용자의 접촉을 검출하기 위한 감압 센서가 설치되어 있어도 된다.
[7] [1]의 로봇 제어 시스템에 있어서, 상기 역무 실행 로봇은, 운반 로봇(transport robot), 테이블 로봇(table robot), 라이팅툴 제공 로봇(writing tool providing robot), 인터랙티브 스크린 로봇(interactive screen robot) 중 어느 하나 또는 이들의 복수의 조합이어도 된다.
[8] [1]의 로봇 제어 시스템에 있어서, 상기 역무 실행 로봇과 상기 인간형 대화 로봇이, 통일감이 있는 외관 형상의 시트부(seated portion)를 가져도 된다.
[9] [1]의 로봇 제어 시스템에 있어서, 상기 인식 수단이, 상기 인간형 대화 로봇에 내장, 또는 상기 인간형 대화 로봇과는 별체(別體)로 배치, 혹은 그 양쪽에 설치되어도 된다.
[10] [1]∼[9] 중 어느 하나의 로봇 제어 시스템에 있어서, 제 1 인간형 대화 로봇 및 제 2 인간형 대화 로봇을 구비하고, 제 1 인간형 대화 로봇이 상기 이용자의 제 1 요구 및 감정을 인식하고, 그 후 제 2 인간형 대화 로봇이 상기 이용자의 제 2 요구 및 감정을 인식했을 경우, 제 2 인간형 대화 로봇은 상기 결정 수단에 제 2 요구 및 감정을 송신하고, 상기 결정 수단은, 실행할 역무와 역무 실행 로봇을, 상기 제 1 요구 및 감정과, 상기 제 2 요구 및 감정에 따라서 결정하는 것을 특징으로 한다.
[1]의 로봇 제어 시스템의 발명에 따르면, 대화 기능과 서비스 실행 기능의 양쪽을 하나의 로봇에 집약한 로봇을 사용해서 이용자의 요구를 접수하는 경우에 비하여, 이용자의 감정 반응을 보다 많이 끌어내어, 이용자의 요구에 대해서 보다 정확히 대응한 서비스를 제공할 수 있다.
[2]의 로봇 제어 시스템의 발명에 따르면, 신체의 형상을 변화시키지 않는 대화 로봇을 사용한 경우에 비해서 이용자의 감정 표현을 한층 더 끌어낼 수 있다.
[3]의 로봇 제어 시스템의 발명에 따르면, 인간형 대화 로봇에, 얼굴의 표정을 사용하지 않고, 이용자의 감정에 맞춘 감정을 표현하는 동작을 할 수 있어, 흉부나 두부의 방향이 변화하지 않는 대화 로봇을 사용한 경우에 비하여, 이용자의 감정 표현을 한층 더 끌어낼 수 있다.
[4]의 로봇 제어 시스템의 발명에 따르면, 이용자와의 대화 시에, 인간형 대화 로봇이 어느 쪽을 향해서 대화하고 있는지를 이용자에 대해서 전달할 수 있어, 돌기부를 이용자의 방향으로 향하지 않는 대화 로봇을 사용한 경우에 비하여, 이용자와의 대화가 촉진된다.
[5]의 로봇 제어 시스템의 발명에 따르면, 이용자와의 대화 시에, 이용자의 감정에 맞춘 특정의 감정을 나타내는 점등 방법에 의해서, 점등 장치를 사용하지 않는 대화 로봇을 사용한 경우에 비하여, 이용자의 감정 표현을 한층 더 끌어낼 수 있다.
[6]의 로봇 제어 시스템의 발명에 따르면, 이용자의 인간형 대화 로봇에 대한 접촉의 강도를 검출하는 것에 의해서 이용자의 감정을 인식할 수 있다.
[7]의 로봇 제어 시스템의 발명에 따르면, 각종 역무(서비스)에 특화된 서비스 실행 로봇을 사용하는 것에 의해서, 대화 기능과 서비스 실행 기능의 양쪽을 갖는 로봇을 사용한 경우에 비하여, 이용자의 필요에 보다 정확하게 맞는 서비스를 제공할 수 있다.
[8]의 로봇 제어 시스템의 발명에 따르면, 복수의 로봇이 동일한 거점에 있어서 동작하고 있을 경우에, 통일감이 없는 시트부를 갖는 로봇을 사용한 경우에 비하여, 팀으로서 동작하고 있는 로봇을 용이하게 식별하는 것이 가능해진다.
[9]의 로봇 제어 시스템의 발명에 따르면, 이용자의 요구와 감정을, 인간형 대화 로봇 단체(單體)에서, 또는 서버에 있어서, 혹은 인간형 대화 로봇과 서버의 양쪽에서 인식할 수 있다.
[10]의 로봇 제어 시스템의 발명에 따르면, 이용자가 인간형 대화 로봇에 대하여 제 1 요구를 한 후에 다른 인간형 대화 로봇에 대해서 다른 제 2 요구를 한 경우여도, 이용자의 요구와 감정에 대응한 서비스를 제공할 수 있다.
도 1은 본 발명의 실시형태에 따른 로봇 제어 시스템(10)의 일례를 나타내는 전체 개략도.
도 2는 인간형 대화 로봇(210)의 하드웨어 구성도.
도 3은 인간형 대화 로봇(210)의 기능 블록도.
도 4는 서비스 실행 로봇(240)의 하드웨어 구성도.
도 5는 서비스 실행 로봇(240)의 기능 블록도.
도 6은 서버(40)의 하드웨어 구성도.
도 7은 서버(40)의 기능 블록도.
도 8은 로봇 제어 시스템(10)의 동작의 흐름을 나타내는 플로차트.
도 9는 이용자의 감정에 따라서 인간형 대화 로봇(210)이 신체의 형상을 변화시키는 방법의 일례를 나타낸 도면.
도 10의 (A)는 인간형 대화 로봇(210)의 두부의 외관 사시도이고, 도 10의 (B)는 도 10의 (A)의 두부에 이용자가 손을 댄 상태를 나타내는 도면.
도 11은 인간형 대화 로봇(210)의 전원 온 시, 및 전원 오프 시의 점등 장치의 점등 방법을 나타내는 도면.
도 12는 인간형 대화 로봇(210)이, 「흥미로움·행복·호기심」의 감정으로 받아들여지는 신체 형상의 변화, 및 점등 장치의 점등 방법을 변화시킬 경우의 일례를 나타내는 도면.
도 13은 인간형 대화 로봇(210)이, 「슬픔·부끄러움·낙담」의 감정으로 받아들여지는 신체 형상의 변화, 및 점등 장치의 점등 방법을 변화시킬 경우의 일례를 나타내는 도면.
도 14는 인간형 대화 로봇(210, 230)과 서비스 실행 로봇(240, 260)이, 통일감이 있는 외관 형상의 시트부를 갖는 것을 설명하는 도면.
본 발명의 일 실시형태의 로봇 제어 시스템을 도 1을 참조해서 설명한다. 로봇 제어 시스템(10)은 오피스(20) 등의 거점에 배치되며, 이용자(50)와 대화하는 인간형 대화 로봇(210, 230), 이용자(50)에 대해서 역무를 제공하는 역무 실행 로봇(이하, 이용자(50)에 대해서 서비스를 제공하므로, 서비스 실행 로봇이라 함)(240, 260), 오피스(20)의 천정 등에 배치되는 센서(280), 및 서버(40)를 구비해서 구성된다. 그리고, 서버(40)는 각 로봇(210∼260), 센서(280)에 네트워크(30)에 의해서 접속된다. 서버(40)와 각 로봇(210∼260), 및 각각의 로봇(210∼260)끼리는 오피스(20)에 설치된 액세스 포인트(270)를 통해서 무선에 의해 접속된다.
인간형 대화 로봇(210, 230)은 이용자(50)와 대화를 해 이용자의 요구와 감정을 인식하여 서버(40)에 송신한다. 본 실시형태에 있어서, 인간형 대화 로봇(210, 230)은 오피스(20)에 한대씩, 합계 2대 배치되어 있다. 또, 본 발명에 있어서는, 인간형 대화 로봇(210)은 오피스에 한대만 배치되어도 되고 3대 이상 배치되어도 된다. 또한, 복수의 인간형 대화 로봇이 배치될 경우에, 본 실시형태와 같이 각각의 인간형 대화 로봇이 동일한 외형 및 기능을 갖는 것을 사용해도 되고, 다른 외형 및 기능을 갖는 것을 사용해도 된다.
또한, 서비스 실행 로봇(240, 260)은 예를 들면, 운반 로봇, 테이블 로봇, 라이팅툴 제공 로봇, 인터랙티브 스크린 로봇 중 어느 하나 또는 이들의 복수의 조합이다. 또, 본 실시형태에 있어서는, 한대의 서비스 실행 로봇(240)은 인터랙티브 스크린 로봇이고, 다른 한대의 서비스 실행 로봇(260)은 라이팅툴 제공 로봇이다.
센서(280)는 3차원 모션 센서 등이며 오피스(20)의 천정이나 벽 등에 설치된다. 센서(280)는, 오피스 내에 있어서의 이용자(50)의 표정, 거동, 신체 상태의 변화, 심박수, 체온 등을 검출하고, 네트워크(30)를 통해서 서버(40)에 이용자 정보로서 출력한다.
여기에서, 도 2, 3을 참조하여 본 실시형태의 인간형 대화 로봇(210)에 대해 설명한다. 도 2는 인간형 대화 로봇(210)의 하드웨어 구성도이다. 도 2에 나타내는 바와 같이, 인간형 대화 로봇(210)은, 제어용 마이크로프로세서(211), 메모리(212), 하드디스크 드라이브(HDD)나 솔리드 스테이트 드라이브(SSD) 등의 기억 장치(213), 통신 인터페이스(214), 카메라(215), 마이크로폰(216), 스피커(217), 모터(218), 및 점등 장치(219), 감압 센서(220)를 구비해서 구성되며, 각각 제어 버스(221)에 접속되어 있다.
제어용 마이크로프로세서(211)는 기억 장치(213)에 기억된 제어 프로그램에 의거해서 인간형 대화 로봇(210)의 각 부의 동작을 제어 통괄한다. 메모리(212)에는, 인간형 대화 로봇(210)이 이용자(50)와 행한 대화 시의 대화의 음성, 대화 내용, 카메라(215)에 의해 촬영된 이용자(50)의 표정, 거동, 신체 상태의 화상 등이 일시적으로 기억된다. 기억 장치(213)에는 인간형 대화 로봇(210)의 각 부를 제어하기 위한 제어 프로그램이 기억된다. 통신 인터페이스(214)는, 인간형 대화 로봇(210)이 액세스 포인트(270), 및 네트워크(30)를 통해서 서버(40), 다른 인간형 대화 로봇(230), 및 서비스 실행 로봇(240, 260)과 통신을 행하기 위한 통신 제어를 행한다.
카메라(215)는 이용자(50)의 표정, 거동, 신체 상태의 변화 등을 촬영해 메모리(212)에 기억한다. 마이크로폰(216)은 이용자(50)와 대화를 행했을 때에 이용자(50)의 음성을 검출해 메모리(212)에 기억, 즉 녹음한다. 메모리(212)에는 음성을 직접 녹음하는 것이 아닌 음성 내용을 해석한 후의 대화 내용을 기억시켜도 된다. 스피커(217)는 인간형 대화 로봇(210)의 후술하는 대화 제어부가 생성한 음성을 출력한다. 모터(218)는 동작 제어부에 있어서 생성된 제어 정보에 의거해서 인간형 대화 로봇(210)의 신체를 구성하는 흉부나 두부를 움직여 특정의 거동을 취한다. 점등 장치(219)는 후술하지만 인간형 대화 로봇(210)의 두부에 배치된 복수의 LED 라이트로 구성되며, 동작 제어부에 있어서 생성된 제어 정보에 의거해서 특정의 색, 특정의 점등 패턴으로 점등한다.
감압 센서(220)는 인간형 대화 로봇(210)의 두부에 배치되며, 이용자(50)가 인간형 대화 로봇(210)에 접촉했는지의 여부, 또한 어느 정도의 강도로 접촉했는지를 검출한다. 감압 센서(220)는 인간형 대화 로봇(210)의 두부 이외의 다른 부위에 배치되어도 된다. 또한, 감압 센서 대신에 접촉 센서를 사용하여 이용자(50)의 심박수나 체온, 도전율의 변화 등을 검출해도 된다. 접촉 센서는 이용자의 신체에 장착하는 웨어러블 센서여도 되지만, 그 경우에는 접촉 센서는 인간형 대화 로봇(210)과는 별체로 된다.
도 3은 인간형 대화 로봇(210)의 기능 블록도를 나타낸다. 인간형 대화 로봇(210)은, 기억 장치(213)에 기억되어 있는 제어 프로그램을 제어용 마이크로프로세서(211)에 있어서 실행하는 것에 의해, 도 3에 나타나는 바와 같이 인식부(222), 대화 제어부(223), 동작 제어부(224)로서 기능한다.
인식부(222)는 이용자(50)와 인간형 대화 로봇(210) 간의 대화를 통해서 이용자(50)의 요구와 감정을 인식하여 해석한다. 구체적으로는, 인식부(222)는 메모리(212)에 기억된 이용자(50)와의 대화 시에 있어서의 이용자(50)의 음성 데이터, 혹은 대화 내용에 의거해서 이용자(50)의 요구를 특정한다. 또한, 인식부(222)는 메모리(212)에 기억된 이용자(50)의 거동, 표정, 안색, 신체의 상태, 또한, 목소리의 상태, 목소리의 빠르기, 심박수 중 적어도 어느 하나, 혹은 복수의 조합으로 구성되는 정보에 의거해서 이용자(50)의 감정을 해석한다. 예를 들면, 안색의 변화는 카메라(215)로 촬영한 이용자의 얼굴의 화상의 RGB의 비율의 변화로부터 검출 가능하지만, 인식부(222)는, 이용자의 안색의 변화에 의거해서 이용자의 심박수나 체온의 변화를 산출하고, 그 산출 결과에 의거해서 이용자(50)의 감정을 해석한다.
인식부(222)는 마이크로폰(216)에 의해서 검출되며 메모리(212)에 기억된 이용자(50)의 음성의 데이터를 더 해석하고, 목소리의 상태(톤)나 목소리의 빠르기(말의 빠르기) 등에 의거해서 이용자(50)의 감정을 해석한다. 감정의 해석에 대해서는 예를 들면, 안색의 변화와 입의 열림 정도로부터 『즐거워하고 있음』, 심박수와 피부의 전도율의 변화로부터 『긴장하고 있음』, 목소리의 상태와 말의 빠르기로부터 『초조해하고 있음』과 같은 해석을 행한다. 인식부(222)는 해석한 요구와 감정에 관한 정보를 통신 인터페이스(214)를 통해서 서버(40)에 송신한다.
대화 제어부(223)는, 인간형 대화 로봇(210)이 이용자(50)와 행하는 대화를 제어함과 함께, 이용자(50)에 대한 응답 내용을 생성한다. 예를 들면, 메모리(212)에 기억된 대화 내용에 따라서 응답 메시지를 생성해 스피커(217)에 출력한다. 그때, 대화 제어부(223)는 인식부(222)에 있어서 인식된 이용자(50)의 감정에 따라서 메시지의 출력 음성의 크기나 발화(發話) 속도를 조정한다. 동작 제어부(224)는 인간형 대화 로봇(210)의 거동을 제어하는 제어 정보를 생성하며, 인간형 대화 로봇(210)의 신체를 구성하는 각 부의 동작을 제어한다. 구체적으로는, 제어 정보를 생성해서 모터(218)의 동작을 제어하여 인간형 대화 로봇(210)의 신체를 구성하는 흉부나 두부를 움직여 특정의 거동을 취하거나, 점등 장치(219)를 특정의 색, 특정의 점등 패턴으로 점등시키거나 한다.
오피스에 배치되는 다른 한대의 인간형 대화 로봇(230)은, 전술한 인간형 대화 로봇(210)의 구성과 동일한 구성이므로 구성과 동작에 관한 설명을 생략한다. 인간형 대화 로봇(230)은, 전술한 인간형 대화 로봇(210)의 구성에 대해서 액정 디스플레이 등의 표시 장치의 구성을 추가한 것이어도 되고, 점등 장치(219) 및 감압 센서(220)를 없앤 것이어도 된다.
다음으로, 도 4, 5를 참조해서 본 실시형태의 서비스 실행 로봇(240)에 대하여 설명한다. 도 4는 본 실시형태의 서비스 실행 로봇(240)의 하드웨어 구성도이다. 서비스 실행 로봇(240)은, 제어용 마이크로프로세서(241), 메모리(242), 기억 장치(243), 통신 인터페이스(244), 카메라(245), 마이크로폰(246), 이동 장치(247), 표시 장치(248), 입력 장치(249)를 구비해서 구성되며, 각각 제어 버스(250)에 접속되어 있다.
제어용 마이크로프로세서(241)는, 기억 장치(243)에 기억된 제어 프로그램을 실행하는 것에 의해 서비스 실행 로봇(240)의 각 부의 동작을 제어 통괄한다. 메모리(242)는 통신 인터페이스(244)를 통해서 인간형 대화 로봇(210, 230)이나 서버(40)로부터 수신한 서비스 지시 정보를 일시적으로 기억한다. 또한, 메모리(242)에는 카메라(245)가 인식한 화상이나 마이크로폰(246)이 검출한 음성 등도 일시적으로 기억된다. 기억 장치(243)는 하드디스크 드라이브(HDD)나 솔리드 스테이트 드라이브(SSD) 등이며, 서비스 실행 로봇(240)을 제어하기 위한 제어 프로그램이 기억되어 있다. 통신 인터페이스(244)는 서비스 실행 로봇(240)이 액세스 포인트(270) 및 네트워크(30)를 통해서 서버(40), 다른 인간형 대화 로봇(210, 230)과 통신을 행하기 위한 통신 제어를 행한다.
카메라(245)는, 서비스 실행 로봇(240)이 이동할 때에 주위의 상황을 촬영하거나, 이용자(50)가 서비스 실행 로봇(240)의 표시 장치(248)의 앞에 서서 텔레비전 전화를 거는 것과 같은 경우에 이용자(50)의 얼굴을 촬영하거나 한다. 카메라(245)에 의해서 촬영된 화상은 메모리(242)에 일시적으로 기억된다. 마이크로폰(246)은 이용자(50)의 음성 등을 검출해 메모리(242)에 일시적으로 기억한다. 이동 장치(247)는 서비스 실행 로봇(240)을 임의의 장소로 이동시키는데 필요한 차륜이나 모터 등의 구동 장치, GPS 수신 장치 등으로 구성된다. 표시 장치(248)는, 액정 디스플레이, 액정 디스플레이의 각도나 높이를 바꾸기 위한 조절 장치 등으로 구성되며, 기억 장치(243)에 기억된 정보나, 통신 인터페이스(244), 액세스 포인트(270), 및 네트워크(30)를 통해서 서버(40)나 인터넷 등으로부터 취득한 정보를 액정 디스플레이 상에 표시한다. 입력 장치(249)는 표시 장치(248)를 구성하는 액정 디스플레이의 표면에 배치되는 터치 패널이며, 이용자가 표시 장치(248)에 표시된 정보를 눈으로 확인하면서 터치 패널의 소정 개소에 접촉하는 것에 의해 필요한 정보를 입력할 수 있다.
도 5는 서비스 실행 로봇(240)의 기능 블록도를 나타낸다. 서비스 실행 로봇(240)은, 기억 장치(243)에 기억되어 있는 제어 프로그램을 제어용 마이크로프로세서(241)에 있어서 실행하는 것에 의해, 도 5에 나타나는 바와 같이, 서비스 지시 수신부(251), 서비스 해석부(252), 서비스 실행부(253)로서 기능한다.
서비스 지시 수신부(251)는 서버(40)로부터 실행해야 할 서비스 지시 정보를 수신해서 메모리(242)에 기억한다. 이 서비스 지시 정보에는, 실행해야 하는 것은 어떤 서비스인가(서비스 내용), 그 서비스를 어디에서 제공하는 것인가(서비스 제공 장소), 누구에 대해서 제공하는 것인가(서비스 제공 상대), 언제, 혹은 언제까지 제공하는 것인가(서비스 제공 시기) 같은 정보가 포함된다.
서비스 해석부(252)는 수신한 서비스 지시 정보를 해석하여 서비스 실행 로봇(240)의 각 부를 동작시키는 구체적인 제어 정보를 생성한다. 제어 정보에는, 서비스 실행 로봇(240)의 이동 장치(247)를 언제, 어떻게 동작시키고, 서비스 실행 로봇(240)을 어디에서 어디로 이동시킬지, 어떻게 표시 장치(248)를 동작시킬지, 어떤 정보를 표시할지, 어떤 것을 어떻게 수집, 배포할지와 같은 구체적 동작에 관한 정보가 포함되어 있으며, 메모리(242)에 일시적으로 기억된다.
서비스 실행부(253)는 메모리(242)에 기억되어 있는 제어 정보에 따라서, 이동 장치(247), 표시 장치(248)를 동작시켜 서버(40)로부터 수신한 서비스를 실행한다.
서비스 실행 로봇(260)은 전술한 서비스 실행 로봇(240)과 실질적으로 같은 구성이므로 설명을 생략한다. 또한, 서비스 실행 로봇은 운반 로봇이어도 되지만, 그 경우에는 전술한 서비스 실행 로봇(240)으로부터 표시 장치나 입력 장치를 생략한 구성으로 이루어진다.
다음으로, 도 6, 7을 참조해서 본 실시형태의 서버(40)에 대하여 설명한다. 도 6은 서버(40)의 하드웨어 구성도이다. 도 6에 나타내는 바와 같이, 서버(40)는, CPU(401), 메모리(402), 기억 장치(403), 통신 인터페이스(404), 유저 인터페이스(405)를 구비해서 구성되며, 각각 제어 버스(406)에 접속되어 있다. CPU(401)는 기억 장치(403)에 기억된 제어 프로그램에 의거해서 서버(40) 각 부의 동작을 제어 통괄한다. 메모리(402)에는 인간형 대화 로봇(210, 230)으로부터 송신되어 온 이용자(50)의 요구와 감정에 관한 정보, 센서(280)로부터 송신되어 온 이용자 정보, 및 서비스 실행 로봇(240, 260)에 송신되는 서비스 지시 정보가 일시적으로 기억된다.
기억 장치(403)는 하드디스크 드라이브(HDD)나 솔리드 스테이트 드라이브(SSD) 등이며, 서버(40)를 제어하기 위한 제어 프로그램이 기억되어 있다. 통신 인터페이스(404)는, 서버(40)가 액세스 포인트(270)를 통해서 인간형 대화 로봇(210, 230), 서비스 실행 로봇(240, 260), 및 센서(280)와 각종 데이터의 송수신을 행하기 위한 통신 제어를 행한다. 유저 인터페이스(405)는 액정 디스플레이 등의 표시 장치, 키보드나 마우스 등의 입력 장치에 의해서 구성되어 있으며, 기억 장치(403)에 기억되어 있는 제어 프로그램을 관리자가 조정하거나 하기 위한 것이다.
도 7은 서버(40)의 기능 블록도를 나타낸다. 서버(40)는, 기억 장치(403)에 기억되어 있는 제어 프로그램을 CPU(401)에서 실행하는 것에 의해, 도 7에 나타나는 바와 같이, 서비스 실행 로봇 결정부(407), 서비스 내용 결정부(408), 서비스 지시 정보 생성부(409), 서비스 지시 정보 송신부(410)로서 기능한다.
서비스 실행 로봇 결정부(407)와 서비스 내용 결정부(408)는, 이용자(50)의 요구와 감정에 따라서, 이용자(50)에게 제공할 서비스와 그 서비스를 실제로 실행할 서비스 실행 로봇을 결정하는 결정 수단으로서 기능한다. 구체적으로, 서비스 실행 로봇 결정부(407)는, 메모리(402)에 기억된 이용자(50)의 요구와 감정에 관한 정보, 및 센서(280)로부터 수신한 이용자 정보에 의거해서, 어느 서비스 실행 로봇이 서비스를 실행하는 것이 최적인지를 판단해, 서비스를 실제로 실행할 서비스 실행 로봇을 결정한다. 이 판단은, 이용자(50)의 요구의 내용과, 서비스 실행 로봇의 종류, 또한 이용자(50)나 서비스 실행 로봇의 위치에 따라서 행해진다. 서비스 내용 결정부(408)는, 메모리(402)에 기억된 이용자(50)의 요구와 감정에 관한 정보, 및 이용자 정보에 의거해서, 서비스 실행 로봇 결정부(407)에 의해서 결정된 서비스 실행 로봇에게 어떤 서비스를 어떻게 실행시킬지를 결정한다. 서비스 지시 정보 생성부(409)는, 서비스 실행 로봇 결정부(407), 서비스 내용 결정부(408)에 의해 결정된 정보에 의거해서, 서비스 내용, 서비스 제공 장소, 서비스 제공 상대, 서비스 제공 시기 같은 정보로 구성되는 서비스 지시 정보를 생성한다. 서비스 지시 정보 송신부(410)는, 서비스 실행 로봇 결정부(407)에 의해서 결정된 서비스 실행 로봇에 대해서, 서비스 지시 정보 생성부(409)에 의해서 생성된 서비스 지시 정보를 액세스 포인트(270)를 통해서 송신한다.
다음으로, 도 8을 참조해서 본 실시형태의 로봇 제어 시스템(10)의 동작에 대하여 설명한다. 도 8은 로봇 제어 시스템(10)의 동작 흐름을 나타내는 플로차트이다. 스텝 S801에 있어서, 인간형 대화 로봇(210)은 이용자(50)와 대화한다. 스텝 S802에 있어서, 인간형 대화 로봇(210)은 동작 제어부(224)의 제어 하에, 이용자(50)의 감정에 따라서 인간형 대화 로봇(210)을 구성하는 신체의 형상을 변화시키거나, 점등 장치(219)의 점등 방법을 변화시키거나 해서 이용자(50)의 감정 반응을 더 끌어낸다. 구체적으로는, 후술하지만, 인간형 대화 로봇(210)은, 체간에 대한 흉부 및 두부 중 어느 하나 혹은 양쪽의 방향을 변화시키는 것에 의해, 이용자(50)에 대해 인간형 대화 로봇(210)이 특정의 감정을 표현하고 있다고 느끼게 한다.
다음으로, 스텝 S803에 있어서, 인간형 대화 로봇(210)의 인식부(222)는, 이용자(50)와 인간형 대화 로봇(210) 사이의 대화를 통해서 이용자(50)의 요구와 감정을 인식한다. 예를 들면, 이용자(50)가 「어느 특정 자료를 참조하고 싶음」이라는 요구, 그리고 「이용자(50)가 초조해하고 있음」이라는 감정을 인식한다. 스텝 S804에 있어서, 인식부(222)는 이용자(50)의 요구와 감정에 관한 정보를 서버(40)에 송신한다. 전술한 예에서는, 「어느 특정 자료의 참조」, 「이용자가 초조해하고 있음」이라는 정보이다. 또한, 이때, 오피스(20)에 설치된 센서(280)에 의해, 오피스 내에 있어서의 이용자(50)의 표정, 거동, 신체 상태의 변화, 심박수, 체온 등을 검출하고, 네트워크(30)를 통해서 서버(40)에 이용자 정보로서 출력한다.
다음으로, 스텝 S805에 있어서, 서버(40)는 센서(280)로부터 송신되어 오는 이용자 정보를 수신한다. 또한 스텝 S806에 있어서, 인간형 대화 로봇(210)으로부터 송신되어 온 이용자(50)의 요구와 감정에 관한 정보를 수신한다. 스텝 S807에 있어서, 서버(40)의 서비스 실행 로봇 결정부(407)는, 센서(280)로부터 수신한 이용자 정보, 및 이용자(50)의 요구와 감정에 관한 정보에 따라서, 어느 서비스 실행 로봇에게 서비스를 실행시킬지를 결정한다. 여기에서, 이용자의 요구는 「어느 특정 자료의 참조」이므로, 인터랙티브 스크린 로봇인 서비스 제공 로봇(240)에게 서비스를 실행시키는 것으로 결정한다.
또한, 스텝 S808에 있어서, 서버(40)의 서비스 내용 결정부(408)는, 센서(280)로부터 수신한 이용자 정보, 및 이용자(50)의 요구와 감정에 관한 정보에 대응해서, 서비스 실행 로봇이 실행할 서비스의 내용과 서비스를 실행하는 방법을 결정한다. 전술한 예에서는, 인터랙티브 스크린 로봇(240)을 이용자(50)의 근처로 이동시키고, 이용자(50)가 희망하고 있는 자료를 표시 장치(248)에 표시한다는 서비스 내용으로 결정한다. 또한, 이용자(50)가 초조해하고 있으므로 통상보다도 신속하게 이동해서(이용자(50)가 있는 곳으로 급행해서) 정보를 표시시키는 것으로 결정한다. 혹은, 실행해야 할 다른 서비스가 있을 경우에, 금번의 서비스 실행의 우선 순위를 높게 하여 우선해서 서비스를 실행시켜도 된다.
다음으로, 스텝 S809의 처리로 진행해, 서버(40)의 서비스 지시 정보 생성부(409)는, 서비스 실행 로봇 결정부(407), 서비스 내용 결정부(408)에 의해 결정된 정보에 의거해서, 서비스를 실행시킬 서비스 실행 로봇, 서비스 내용, 서비스 제공 장소, 서비스 제공 상대, 서비스 제공 시기 같은 정보로 구성되는 서비스 지시 정보를 생성한다. 스텝 S810에 있어서, 서버(40)의 서비스 지시 정보 송신부(410)는, 서비스 실행 로봇 결정부(407)에 있어서 결정된 서비스 실행 로봇(예를 들면, 서비스 실행 로봇(240))에 대해서, 서비스 지시 정보 생성부(409)에서 생성된 서비스 지시 정보를 송신한다.
스텝 S811에 있어서, 서비스 실행 로봇(240)의 서비스 지시 수신부(251)는 서버(40)로부터 서비스 지시 정보를 수신한다. 다음으로, 스텝 S812에 있어서, 서비스 실행 로봇(240)의 서비스 해석부(252)는, 수신한 서비스 지시 정보를 해석하여, 서비스 실행 로봇(240)의 각 부를 동작시키는 구체적인 제어 정보를 생성한다. 스텝 S813에 있어서, 서비스 실행 로봇 결정부(407)에 의해 결정된 서비스 실행 로봇(240)이 서비스 내용 결정부(408)에 의해 결정된 서비스를 실행한다. 구체적으로는, 서비스 실행 로봇(240)의 서비스 실행부(253)는, 생성된 제어 정보에 따라서 서비스 실행 로봇(240)의 이동 장치(247), 표시 장치(248) 등을 제어해 이용자(50)에 대하여 서비스를 실행한다. 전술한 예에서는, 서비스 실행 로봇(240)은, 이용자(50)의 근처로 이동하여, 인터랙티브 스크린인 표시 장치(248)를 이용자(50)의 방향으로 향하고, 이용자(50)가 필요로 하고 있는 자료를 기억 장치(243), 혹은 통신 인터페이스(244)를 통해서 네트워크상으로부터 입수해 표시 장치(248)에 표시한다.
또, 상기한 예에 있어서는, 이용자(50)가 「초조해하고 있을」 경우에, 서비스 실행 로봇(240)이 이용자(50)의 장소로 급행한 경우를 설명했지만, 반대로, 이용자(50)가 긴박한 상태가 아니면, 서비스 실행 로봇(240)의 이동 속도를 통상보다도 느리게 하거나, 혹은 다른 서비스의 실행이 있을 경우에, 서비스 실행의 우선 순위를 낮춰 서비스 실행을 늦추거나 해도 된다.
또, 상기 서비스 실행 로봇(240)의 동작은 일례이며, 이용자(50)의 다른 요구나 감정에 따라서 그 밖의 다른 서비스를 실행한다. 예를 들면, 이용자(50)가 메모를 하고자 할 경우에는, 라이팅툴 제공 로봇인 서비스 실행 로봇(260)이 이용자(50)의 근처로 이동하고, 표시 장치(248)이기도 하고 입력 장치(249)이기도 한 라이팅 테이블을 수평인 방향으로 전개해, 이용자(50)가 라이팅 테이블에 기입할 수 있도록 한다. 또한, 이용자(50)가 건전지를 3개 소요(所要)로 할 경우에는, 운반 로봇(도시하지 않음)이 소정 부서로부터 건전지를 3개 수집해서 이용자(50)가 있는 것으로 운반해 온다.
다음으로, 도 9를 참조해서, 인간형 대화 로봇(210)이 이용자(50)와 대화하고 있을 때에 이용자의 감정에 따라서 인간형 대화 로봇(210)을 구성하는 신체의 형상을 변화시키는 방법에 대하여 설명한다. 인간형 대화 로봇(210)은, 체간(2120), 체간(2120)의 좌우에 배치되는 흉부(2110), 체간(2120)의 상부에 접속됨과 함께 흉부(2110)의 위쪽에 배치되는 두부(2130), 체간(2120)의 하부에 접속됨과 함께 흉부(2110)의 아래쪽에 배치되는 시트부(2140)에 의해 구성된다. 흉부(2110)와 두부(2130)는 체간(2120)에 대해서 가동식으로 접속되며 모터(218)에 의해서 구동된다. 또한, 인간형 대화 로봇(210)은 높이 약 110㎝∼140㎝ 정도이다. 이 높이이면, 성인의 신장과 같은 높이의 인간형 대화 로봇(210)을 사용한 경우에 비해, 이용자(50)는 압박감을 적게 느껴 한층 감정을 표현하기 쉬워지는 경향이 있다.
이용자(50)와 인간형 대화 로봇(210)이 대화하고 있을 때에 이용자(50)가 특별한 감정을 표현하고 있지 않으면, 인간형 대화 로봇(210)은 도 9의 (A)에 나타내는 바와 같은 통상 상태를 취한다. 통상 상태에 있어서, 좌우의 흉부(2110)는 체간(2120)을 사이에 두고 거의 평행하게 제 1 거리, 즉 통상의 폭으로 상대한다. 또한, 두부(2130)는 정면을 향하며 두부(2130)의 중심이 체간(2120)의 정확히 위쪽에 위치한다.
이용자(50)가 인간형 대화 로봇(210)에 대하여 열의를 담아서 진지하게 말을 걸면, 인간형 대화 로봇(210)의 인식부(222)는 이용자(50)가 열의를 담아서 말하고 있는 것으로 판단해, 동작 제어부(224)가 그에 대응한 표현을 인간형 대화 로봇(210)에게 실행시키기 위한 제어 정보를 생성해서 각 부의 동작을 제어해, 도 9의 (B)에 나타내는 바와 같은 「놀람·관심·호기심」의 상태를 취한다. 「놀람·관심·호기심」의 상태에서는, 좌우의 흉부(2110)는 앞쪽 부분이 좌우로 열려서 통상의 폭보다도 넓어진다. 또한, 흉부(2110)의 아래쪽보다도 위쪽이 좌우로 크게 열려도 된다. 또한, 두부(2130)가 비스듬히 위쪽을 향하고 두부(2130)의 중심이 체간(2120)의 위쪽보다도 뒤쪽으로 이동한다. 이것에 의해, 이용자(50)는, 인간형 대화 로봇(210)이 놀라있음, 혹은 관심을 나타내고 있음, 호기심을 품고 있음으로 판단해, 더 맹렬히 대화를 행한다.
이용자(50)가 인간형 대화 로봇(210)과의 대화 중에 분노를 표시했을 경우, 인간형 대화 로봇(210)의 인식부(222)는 이용자(50)가 화나있는 것으로 판단해, 동작 제어부(224)에 의해 도 9의 (C)에 나타내는 바와 같은 「슬픔·낙담」의 상태를 취한다. 「슬픔·낙담」 상태에서는, 좌우의 흉부(2110)는 앞쪽 부분이 닫혀서 통상의 폭보다도 좁아진다. 또한, 흉부(2110)의 상부 혹은 하부가, 하부 혹은 상부보다도 좁아져, 마치 「어깨를 움츠리고 있는」 바와 같은 모습을 취한다. 또한, 두부(2130)가 비스듬히 아래쪽을 향하고 두부(2130)의 중심이 체간(2120)의 위쪽보다도 앞쪽으로 이동한다. 이것에 의해, 이용자(50)는, 인간형 대화 로봇(210)이 낙담해 있거나, 풀이 죽어 있다고 느껴, 인간형 대화 로봇(210)의 반응에 따라서 감정을 더 표현하도록 촉진된다.
또, 상기한, 이용자의 감정에 따라서 인간형 대화 로봇(210)을 구성하는 신체의 형상을 변화시키는 방법은 일례에 지나지 않는다. 그 밖에도, 이용자가 모순된 지시나 잘못된 지시를 반복하는 바와 같은 경우에는, 흉부를 뒤로 젖히는 바와 같은 동작을 취하는 것에 의해서 고압적, 혹은 노함을 나타내고 있는 바와 같은 신체 형상을 취함과 함께, 스피커(217)로부터 통상보다 큰 음성으로 「지시 내용을 정리해 주십시오」 같은 응답을 하도록 해도 된다.
다음으로 도 10을 참조해서 인간형 대화 로봇(210)의 두부(2130)의 구조에 대하여 설명한다. 도 10의 (A)는 인간형 대화 로봇(210)의 두부의 외관 사시도이다. 도 10의 (B)는 도 10의 (A)의 두부에 이용자가 손을 댄 상태를 나타내는 도면이다. 도 10의 (A)에 나타내는 바와 같이, 인간형 대화 로봇(210)의 두부(2130)에는, 외관상 인간의 눈 및 입에 상당하는 부분이 설치되어 있지 않고, 대신에 1개의 돌기부(2133)를 갖고 있으며, 이 돌기부(2133)는 두부(2130)의 상부로부터 전방부(2131)에 걸쳐서 다른 부위보다도 바깥쪽으로 향해서 돌출하도록 형성되어 있다. 즉, 인간형 대화 로봇(210)은 인간에 극히 유사해 있지 않지만, 코와 뺨만을 갖는 반인간적인 외관 형상으로 되어 있다. 또한, 복수 개의 선 형상 부재(2134)가, 두부(2130)의, 돌기부(2133)가 형성되어 있는 측과는 반대측의 후방부(2132)에서 돌기부(2133)를 향해 아치 형상, 혹은 유선 형상으로 수렴하도록 형성된다.
인간형 대화 로봇(210)은 이용자(50)와의 대화 시에 돌기부(2133)를 이용자(50)의 방향으로 향한다. 도 10의 (A)에서는 돌기부(2133)가 X로 표시되는 지점을 향해 있는 상태가 나타나 있다. 이것에 의해, 이용자(50)는, 인간형 대화 로봇(210)이 어디를 향해 있는 것인지, 누구와 대화하고 있는 것인지 같은 것을 용이하게 식별할 수 있게 된다.
또한, 복수 개의 선 형상 부재(2134)를 따라, 선 형상 부재(2134)의 상측에 돌기부(2133)를 향해서 수렴하도록 점등 장치(2135)가 배치된다. 이 점등 장치(2135)는, 예를 들면 하나 또는 복수의 LED 라이트로 구성된다. 이 점등 장치(2135)는, 인식부(222)에 의해 인식한 이용자(50)의 감정에 따라서 점등 방법을 변화시킨다. 이 점등 방법의 변화에 대해서는 후술한다.
또한, 도 10의 (B)에 나타내는 바와 같이, 돌기부(2133)가 설치되어 있지 않은 영역에, 즉 두부(2130)의 선 형상 부재(2134)의 하측에 이용자(50)의 접촉을 검출하기 위한 감압 센서(2136)가 설치되어 있다. 이 감압 센서(2136)는 표면으로부터는 보이지 않도록 두부(2130)의 내부에 매설되어 있어도 된다. 도 10의 (B)에 나타내는 바와 같이, 이용자(50)가 손(50A)으로 감압 센서(2136)에 접촉하면, 이용자(50)의 접촉의 유무, 및 접촉의 강도가 검출된다. 이 접촉의 유무, 또한 접촉의 강도는 인간형 대화 로봇(210)의 인식부(222)에 전달되어 이용자(50)의 감정을 인식하는 것에 사용된다.
다음으로, 도 11∼13을 참조해서 점등 장치(2135)의 점등 방법의 변화에 대하여 설명한다. 도 11은 인간형 대화 로봇(210)의 전원 온 시, 및 전원 오프 시의 점등 장치(2135)의 점등 방법을 나타내는 도면이다. 도 12는 인간형 대화 로봇(210)이, 「흥미로움·행복·호기심」의 감정으로 받아들여지는 신체 형상의 변화, 및 점등 장치(2135)의 점등 방법을 변화시킬 경우의 일례를 나타내는 도면이다. 도 13은 인간형 대화 로봇(210)이, 「슬픔·부끄러움·낙담」의 감정으로 받아들여지는 신체 형상의 변화, 및 점등 장치(2135)의 점등 방법을 변화시킬 경우의 일례를 나타내는 도면이다.
인간형 대화 로봇(210)은 전원 온의 상태로 되면, 점등 장치(2135)가, 도 11의 (A), (B), (C)의 차례로 나타나는 바와 같이, 선 형상 부재(2134)측으로부터 상측을 향해서 점등 범위가 넓어져 가도록 점등한다. 반대로, 전원 오프로 될 경우에는, 전원 오프로 되기 직전에, 도 11의 (C), (B), (A)의 차례로 나타나는 바와 같이, 상측으로부터 선 형상 부재(2134)측을 향해서 점등 범위가 좁아지도록 점등하고 마지막으로 모두 소등한다.
인간형 대화 로봇(210)이, 「흥미로움·행복·호기심」의 감정으로 받아들여지도록 점등 장치(2135)를 점등시킬 경우, 점등 장치(2135)는, 도 12의 (A), (B), (C)의 차례로 나타나는 바와 같이, 돌기부(2133)측으로부터 후방부(2132)를 향해서 뒤쪽으로 점등 범위가 넓어져 가도록 점등한다. 혹은, 돌기부(2133)측으로부터 후방부(2132)를 향해서 뒤쪽으로 부분적인 점등 범위가 이동해 가도록 점등해도 된다. 또한, 도 12의 점등 방법을 한 번만 실시해도 되고 반복해 실시해도 된다. 혹은, 이용자(50)의 감정의 강도에 따라서 점등을 반복하는 횟수를 결정해도 된다. 또한, 도 12에서는, 점등 장치(2135)를 점등시킴과 동시에, 두부(2130)가 비스듬히 위쪽을 향하고, 두부(2130)의 중심이 체간(2120)의 위쪽보다도 뒤쪽으로 이동해 가는 모습도 나타나 있다.
한편, 인간형 대화 로봇(210)이, 「슬픔·부끄러움·낙담」의 감정으로 받아들여지도록 점등 장치(2135)를 점등시킬 경우, 점등 장치(2135)는, 도 13의 (A), (B), (C)의 차례로 나타나는 바와 같이, 후방부(2132)측으로부터 돌기부(2133)를 향해서 앞쪽으로 부분적인 점등 범위가 이동해 가도록 점등한다. 혹은, 후방부(2132)측으로부터 돌기부(2133)를 향해서 앞쪽으로 점등 범위가 넓어져 가도록 점등시켜도 된다. 도 13의 점등 방법을 한번만 실시해도 되고 반복해 실시해도 된다. 혹은, 이용자(50)의 감정의 강도에 따라서 점등을 반복하는 횟수를 결정해도 된다. 또한, 도 13에서는, 점등 장치(2135)를 점등시킴과 동시에, 두부(2130)가 비스듬히 아래쪽을 향하고, 두부(2130)의 중심이 체간의 위쪽보다도 앞쪽으로 이동해 가는 모습도 나타나 있다.
또, 인간형 대화 로봇(210)의 점등 장치(2135)의 점등 방법을 변화시킬 뿐만 아니라, 점등 장치(2135)가 점등할 색을 변화시켜도 된다. 예를 들면, 「흥미로움·행복·호기심」의 감정의 경우, 점등 장치(2135)를 황록색으로 점등시키고, 「슬픔·부끄러움·낙담」의 감정의 경우, 점등 장치(2135)를 보라색으로 점등시킨다.
또한, 본 실시형태의 인간형 대화 로봇(210, 230)과 서비스 실행 로봇(240, 260)은 통일감이 있는 외관 형상의 시트부를 갖고 있다. 그 일례를 도 14에 나타낸다. 도 14에 있어서는, 인간형 대화 로봇(210)의 시트부(2140), 다른 한대의 인간형 대화 로봇(230)의 시트부(2340), 및 서비스 실행 로봇(240, 260)의 시트부(2440, 2640)가 각각 추대(錐臺) 형상의 시트부를 갖고 있다. 이 시트부(2140, 2340, 2440, 2640)들은, 원추대 형상, 삼각추대 형상, 사각추대 형상 등이며, 서로 동일, 혹은 상사(相似), 또는 유사한 외형으로 형성되는 것에 의해서 통일감이 있는 외관 형상으로 되도록 한다. 또한, 오피스(20)의 다른 부서에 배치되는 로봇에는 다른 외관 형상을 갖는 시트부로 통일한다. 이것에 의해, 복수의 로봇으로 구성되는 팀을 다른 부서에 배치된 로봇으로 구성되는 팀과 구별하는 것이 가능해진다. 또한, 시트부(2140, 2340, 2440, 2460)를 사용하는 것에 의해서, 인간형 대화 로봇(210, 230), 서비스 실행 로봇(240, 260)을 안정시켜 넘어지기 어렵게 할 수도 있다.
이상, 본 실시형태의 로봇 제어 시스템(10)에 대하여 설명했다. 또, 상기 로봇 제어 시스템(10)에 있어서는, 이용자(50)의 요구와 감정을 인식하는 인식부(222)가 인간형 대화 로봇(210)에 내장되어 있는 경우를 설명했지만, 본 발명은, 상기 실시형태로 한정되지 않으며 인식부(222)가 인간형 대화 로봇(210)과 별체로 배치되어 있어도 된다. 예를 들면, 인식부를 서버(40)의 하나의 기능으로서 동작시키도록 해도 된다. 그 경우, 이용자(50)의 대화 내용, 거동, 표정, 안색, 신체의 상태, 목소리의 상태, 목소리의 빠르기, 심박수 중 적어도 어느 하나, 혹은 복수의 조합으로 구성되는 정보를 인간형 대화 로봇(210, 230), 및 센서(280)로부터 수신하고, 그 정보에 의거해서 이용자(50)의 요구와 감정을 인식한다. 또한, 인식부(222)를 인간형 대화 로봇(210)과 서버(40)의 양쪽에 설치해도 된다.
또한, 인간형 대화 로봇(210)을 제 1 인간형 대화 로봇으로 하고, 인간형 대화 로봇(230)을 제 2 인간형 대화 로봇으로 하며, 제 1 인간형 대화 로봇(210)이 이용자(50)의 제 1 요구와 감정을 인식하고, 그 후 제 2 인간형 대화 로봇(230)이 이용자(50)의 제 2 요구와 감정을 인식했을 경우, 제 2 인간형 대화 로봇(230)은 서버(40)에 대해서 이용자의 다음의 요구와 감정을 송신하고, 서버(40)의 서비스 실행 로봇 결정부(407) 및 서비스 내용 결정부(408)는, 서비스를 실제로 실행할 서비스 실행 로봇과, 실행할 서비스의 내용을 이용자(50)의 제 1 요구 및 감정과 제 2 요구 및 감정에 따라서 결정한다.
또한, 상기 실시형태에 있어서는, 서비스 실행 로봇(240, 260)이 서비스 실행을 최후까지 완료할 경우에 대하여 설명했다. 그러나, 실제로는, 서비스 실행 로봇(240, 260)이 도중에 넘어지거나, 배터리가 소진되거나, 수집물을 찾지 못하는 것 같은 이유 때문에 서비스의 실행을 완료할 수 없는 경우도 있다. 그와 같은 경우, 서비스 실행 로봇(240)은 서버(40), 혹은 인간형 대화 로봇(210, 230)에 대해서 서비스 실행이 불가능한 것을 전한다. 서버(40)의 서비스 실행 로봇 결정부(407), 서비스 내용 결정부(408), 및 인간형 대화 로봇(210, 230)의 그들에 대응하는 기능은, 그 상황 하에서 다른 서비스 실행 로봇에 대하여 마찬가지의 서비스의 실행을 지시하거나, 완전히 서비스를 중지하거나, 혹은 이용자(50)에게 상황을 전하고 지시를 요청할지를 판단하고, 필요한 동작 지시를 인간형 대화 로봇(210, 230), 서비스 실행 로봇(240, 260)에 송신한다.
또, 상기 실시형태에 있어서는, 인간형 대화 로봇(210, 230), 서비스 실행 로봇(240, 260)의 각각은, 액세스 포인트(270), 및 서버(40)를 통해서 다른 로봇과 통신을 행하는 경우를 설명했지만, 본 발명은 상기 실시형태로 한정되지 않으며, 인간형 대화 로봇(210과 230) 상호, 인간형 대화 로봇(210)과 서비스 실행 로봇(240, 260) 상호가 액세스 포인트(270)를 통하지 않고 직접적으로 무선으로 접속되어 직접 통신을 행하도록 해도 된다. 마찬가지로, 인간형 대화 로봇(230)과 서비스 실행 로봇(240, 260)이 직접적으로 무선으로 접속되어 직접 통신을 행하도록 해도 된다.
또한, 상기 실시형태에 있어서는, 서버(40)에 있어서, 서비스를 실행할 서비스 실행 로봇, 실행할 서비스의 내용을 결정하고, 결정 내용에 의거해서 서비스 지시 정보를 생성하고 있었지만, 이 동작들을 서버(40)가 아닌, 인간형 대화 로봇(210, 230)이 행하도록 해도 된다. 그 경우, 서비스 실행 로봇 결정부(407), 서비스 내용 결정부(408), 서비스 지시 정보 생성부(409)에 대응하는 기능은 인간형 대화 로봇(210, 230)이 실행하게 된다.
또한, 상기 실시형태에 있어서는, 테이블 로봇, 라이팅툴 제공 로봇, 인터랙티브 스크린 로봇은 각각 별개의 서비스 제공 로봇으로서 설명했지만, 본 발명은 상기 실시형태로 한정되지 않으며, 이 서비스 제공 로봇들이 일체여도 된다. 예를 들면, 표시 장치이기도하며 입력 장치이기도 한 터치 패널 구비 디스플레이 부분의 방향을 변화시키는 것에 의해서, 예를 들면, 표시 장치로서 기능시키거나, 라이팅 테이블로서 기능시키거나, 혹은 프로젝터로서 기능시키거나 해도 된다.
10 : 로봇 제어 시스템 20 : 오피스
30 : 네트워크 40 : 서버
50 : 이용자 210 : 인간형 대화 로봇
211 : 제어용 마이크로프로세서 212 : 메모리
213 : 기억 장치 214 : 통신 인터페이스
215 : 카메라 216 : 마이크로폰
217 : 스피커 218 : 모터
219 : 점등 장치 220 : 감압 센서
221 : 제어 버스 222 : 인식부
223 : 대화 제어부 224 : 동작 제어부
230 : 인간형 대화 로봇 240 : 서비스 실행 로봇
241 : 제어용 마이크로프로세서 242 : 메모리
243 : 기억 장치 244 : 통신 인터페이스
245 : 카메라 246 : 마이크로폰
247 : 이동 장치 248 : 표시 장치
249 : 입력 장치 250 : 제어 버스
251 : 서비스 지시 수신부 252 : 서비스 해석부
253 : 서비스 실행부 260 : 서비스 실행 로봇
270 : 액세스 포인트 280 : 센서
402 : 메모리 403 : 기억 장치
404 : 통신 인터페이스 405 : 유저 인터페이스
406 : 제어 버스 407 : 서비스 실행 로봇 결정부
408 : 서비스 내용 결정부 409 : 서비스 지시 정보 생성부
410 : 서비스 지시 정보 송신부 2110 : 흉부
2120 : 체간 2130 : 두부
2131 : 전방부 2132 : 후방부
2133 : 돌기부 2134 : 선 형상 부재
2135 : 점등 장치 2136 : 감압 센서
2140, 2340, 2440, 2640 : 시트부

Claims (10)

  1. 이용자와 대화하는 인간형 대화 로봇과,
    상기 이용자에 대해서 역무(役務)를 제공하는 복수의 역무 실행 로봇과,
    이용자와 상기 인간형 대화 로봇 간의 대화를 통해서 상기 이용자의 요구와 감정을 인식하는 인식 수단과,
    상기 이용자의 요구와 감정에 따라서, 상기 이용자에게 제공할 역무와, 상기 복수의 역무 실행 로봇 중에서 당해 역무를 실행할 역무 실행 로봇과, 당해 역무의 우선 순위 또는 당해 역무를 실행하는 역무 실행 로봇의 이동 속도를 결정하는 결정 수단을 구비하고,
    상기 결정 수단에 의해 결정된 역무 실행 로봇이, 결정된 역무를 결정된 우선 순위 또는 결정된 이동 속도로 실행하는 로봇 제어 시스템.
  2. 제 1 항에 있어서,
    상기 인간형 대화 로봇이, 상기 인식 수단에 의해 인식된 상기 이용자의 감정에 따라서, 상기 인간형 대화 로봇을 구성하는 신체의 형상을 변화시키는 로봇 제어 시스템.
  3. 제 2 항에 있어서,
    상기 인간형 대화 로봇이, 체간(體幹)에 대한 흉부 및 두부(頭部) 중 어느 하나 혹은 양쪽의 방향을 변화시키는 것에 의해, 상기 인간형 대화 로봇을 구성하는 신체의 형상을 변화시키는 로봇 제어 시스템.
  4. 제 1 항에 있어서,
    상기 인간형 대화 로봇이 두부에 1개의 돌기부를 가지며, 상기 이용자와의 대화 시에, 상기 돌기부를 상기 이용자의 방향으로 향하는 로봇 제어 시스템.
  5. 제 4 항에 있어서,
    상기 인간형 대화 로봇에는, 상기 두부에, 상기 돌기부를 향해서 수렴(converging)하도록 점등 장치가 배치되며, 상기 인식 수단에 의해 인식한 상기 이용자의 감정에 따라서, 상기 점등 장치의 점등 방법이 변화하는 로봇 제어 시스템.
  6. 제 4 항에 있어서,
    상기 인간형 대화 로봇의 두부에는, 인간의 눈 및 입에 상당하는 부분이 설치되어 있지 않으며, 상기 돌기부가 설치되어 있지 않은 영역에, 이용자의 접촉을 검출하기 위한 감압 센서가 설치되어 있는 로봇 제어 시스템.
  7. 제 1 항에 있어서,
    상기 역무 실행 로봇은, 운반 로봇(transport robot), 테이블 로봇(table robot), 라이팅툴 제공 로봇(writing tool providing robot), 인터랙티브 스크린 로봇(interactive screen robot) 중 어느 하나 또는 이들의 복수의 조합인 로봇 제어 시스템.
  8. 제 1 항에 있어서,
    상기 역무 실행 로봇과 상기 인간형 대화 로봇이, 통일감이 있는 외관 형상의 시트부(seated portion)를 갖는 로봇 제어 시스템.
  9. 제 1 항에 있어서,
    상기 인식 수단이, 상기 인간형 대화 로봇에 내장, 또는 상기 인간형 대화 로봇과는 별체(別體)로 배치, 혹은 그 양쪽에 설치되는 로봇 제어 시스템.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    제 1 인간형 대화 로봇 및 제 2 인간형 대화 로봇을 구비하고, 제 1 인간형 대화 로봇이 상기 이용자의 제 1 요구 및 감정을 인식하고, 그 후 제 2 인간형 대화 로봇이 상기 이용자의 제 2 요구 및 감정을 인식했을 경우, 제 2 인간형 대화 로봇은 상기 결정 수단에 제 2 요구 및 감정을 송신하고, 상기 결정 수단은, 실행할 역무와 역무 실행 로봇을, 상기 제 1 요구 및 감정과, 상기 제 2 요구 및 감정에 따라서 결정하는 로봇 제어 시스템.
KR1020160115427A 2016-03-16 2016-09-08 로봇 제어 시스템 KR102150928B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016052253A JP6726388B2 (ja) 2016-03-16 2016-03-16 ロボット制御システム
JPJP-P-2016-052253 2016-03-16

Publications (2)

Publication Number Publication Date
KR20170107875A KR20170107875A (ko) 2017-09-26
KR102150928B1 true KR102150928B1 (ko) 2020-09-02

Family

ID=56876934

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160115427A KR102150928B1 (ko) 2016-03-16 2016-09-08 로봇 제어 시스템

Country Status (5)

Country Link
US (1) US10513038B2 (ko)
EP (1) EP3219447B1 (ko)
JP (1) JP6726388B2 (ko)
KR (1) KR102150928B1 (ko)
CN (1) CN107199571B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210137438A1 (en) * 2017-10-31 2021-05-13 Hewlett-Packard Development Company, L.P. Control system for mobile robots

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10880470B2 (en) * 2015-08-27 2020-12-29 Accel Robotics Corporation Robotic camera system
DE112017002589T5 (de) * 2016-05-20 2019-04-25 Groove X, Inc. Autonom handelnder Roboter und Computerprogramm
JP6761598B2 (ja) * 2016-10-24 2020-09-30 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
CN107122491B (zh) * 2017-05-19 2020-12-15 深圳市优必选科技有限公司 用于数据交互的方法
CN109093627A (zh) * 2017-06-21 2018-12-28 富泰华工业(深圳)有限公司 智能机器人
WO2019087478A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR102463806B1 (ko) * 2017-11-09 2022-11-07 삼성전자주식회사 이동이 가능한 전자 장치 및 그 동작 방법
CN108055175A (zh) * 2017-11-24 2018-05-18 海尔优家智能科技(北京)有限公司 一种信息展示方法及装置
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
JP7192222B2 (ja) * 2018-03-08 2022-12-20 トヨタ自動車株式会社 発話システム
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques
KR20190141303A (ko) * 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
US11883963B2 (en) * 2019-06-03 2024-01-30 Cushybots Corporation Robotic platform for interactive play using a telepresence robot surrogate
US20220281117A1 (en) * 2019-07-16 2022-09-08 Serve Robotics Inc. Remote physiological data sensing robot
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
KR20190104488A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 인공 지능을 이용하여, 오브젝트의 이동을 관리하는 인공 지능 로봇 및 그의 동작 방법
KR20190116190A (ko) * 2019-09-23 2019-10-14 엘지전자 주식회사 로봇
US20220225486A1 (en) * 2021-01-08 2022-07-14 Samsung Electronics Co., Ltd. Communicative light assembly system for digital humans

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011880A (ja) * 2005-07-01 2007-01-18 Nippon Signal Co Ltd:The 自動販売機の制御システム
JP2013539569A (ja) * 2010-07-23 2013-10-24 アルデバラン ロボティクス 自然な対話インターフェースを備えたヒューマノイドロボット、同ロボットを制御する方法、および対応プログラム
WO2015093382A1 (ja) * 2013-12-20 2015-06-25 Re & Do 株式会社 サービス提供管理システム

Family Cites Families (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
US6586859B2 (en) * 2000-04-05 2003-07-01 Sri International Electroactive polymer animated devices
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP4328997B2 (ja) * 1998-06-23 2009-09-09 ソニー株式会社 ロボット装置
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
WO2000068880A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Dispositif robot
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
US6374155B1 (en) * 1999-11-24 2002-04-16 Personal Robotics, Inc. Autonomous multi-platform robot system
JP2001150374A (ja) * 1999-11-25 2001-06-05 Sony Corp ロボットの故障診断システム
CN1151016C (zh) * 1999-11-30 2004-05-26 索尼公司 机器人设备及其控制方法,和机器人性格判别方法
KR20020008848A (ko) * 2000-03-31 2002-01-31 이데이 노부유끼 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot
BE1013637A6 (nl) * 2000-08-07 2002-05-07 Smet Francis De Werkwijze voor het opzoeken van informatie op het internet.
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
WO2002037471A2 (en) * 2000-11-03 2002-05-10 Zoesis, Inc. Interactive character system
US6961640B2 (en) * 2000-11-17 2005-11-01 Sony Corporation Motion control for a legged robot
WO2002069609A2 (en) * 2001-02-27 2002-09-06 Anthrotronix, Inc. Robotic apparatus and wireless communication system
US7206753B2 (en) * 2001-05-04 2007-04-17 Axxon Robotics, Llc Methods for facilitating a retail environment
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
EP1256937B1 (en) * 2001-05-11 2006-11-02 Sony France S.A. Emotion recognition method and device
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
US20060179022A1 (en) * 2001-11-26 2006-08-10 Holland Wilson L Counterpart artificial intelligence software program
EP1345207B1 (en) * 2002-03-15 2006-10-11 Sony Corporation Method and apparatus for speech synthesis program, recording medium, method and apparatus for generating constraint information and robot apparatus
JP2003345435A (ja) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd ロボットおよびロボットシステム
US6671582B1 (en) * 2002-08-26 2003-12-30 Brian P. Hanley Flexible agricultural automation
US6907688B2 (en) * 2002-12-09 2005-06-21 George W. Brint Flying and simulated wounded mechanical bird decoys and method
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
CN100351789C (zh) * 2003-03-28 2007-11-28 索尼株式会社 信息提供设备、方法和信息提供系统
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
CN100436082C (zh) * 2003-08-12 2008-11-26 株式会社国际电气通信基础技术研究所 用于通信机器人的控制系统
JP2005125466A (ja) 2003-10-27 2005-05-19 Sharp Corp 群ロボットシステム、群ロボットシステムに含まれるセンシングロボット、群ロボットシステムに含まれるベースステーション、および群ロボットシステムに含まれるフェロモンロボット
JP2005193331A (ja) * 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法
JP4303602B2 (ja) * 2004-01-09 2009-07-29 本田技研工業株式会社 顔面像取得システム
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
WO2005086051A1 (ja) * 2004-03-08 2005-09-15 National Institute Of Information And Communications Technology 対話システム、対話ロボット、プログラム及び記録媒体
JP4477924B2 (ja) * 2004-03-31 2010-06-09 本田技研工業株式会社 移動ロボットの外部検出装置
JP4794846B2 (ja) * 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
WO2006071062A1 (en) * 2004-12-30 2006-07-06 Samsung Electronics Co., Ltd. A terminal data format and a communication control system and method using the terminal data format
US20070021206A1 (en) * 2005-07-08 2007-01-25 Sunnen Gerard V Poker training devices and games using the devices
US7991764B2 (en) * 2005-07-22 2011-08-02 Yogesh Chunilal Rathod Method and system for communication, publishing, searching, sharing and dynamically providing a journal feed
JP4901736B2 (ja) * 2005-07-26 2012-03-21 本田技研工業株式会社 ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
KR100825719B1 (ko) * 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
JP4718987B2 (ja) * 2005-12-12 2011-07-06 本田技研工業株式会社 インターフェース装置およびそれを備えた移動ロボット
US8509972B2 (en) * 2006-08-29 2013-08-13 Industrial Technology Research Institute Electronic pet and pet interaction system thereof
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
US8677281B2 (en) * 2007-02-09 2014-03-18 Intel-Ge Care Innovations Llc System, apparatus and method for emotional experience time sampling via a mobile graphical user interface
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
US8577126B2 (en) * 2007-04-11 2013-11-05 Irobot Corporation System and method for cooperative remote vehicle behavior
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
US20090002178A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Dynamic mood sensing
JP4506795B2 (ja) * 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP4857242B2 (ja) * 2007-11-05 2012-01-18 株式会社日立製作所 ロボット
JP4516592B2 (ja) * 2007-12-06 2010-08-04 本田技研工業株式会社 移動型ロボット
US20090319459A1 (en) * 2008-02-20 2009-12-24 Massachusetts Institute Of Technology Physically-animated Visual Display
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
GB0809563D0 (en) * 2008-05-28 2008-07-02 Health Smart Ltd A behaviour modification system
KR20100001928A (ko) 2008-06-27 2010-01-06 중앙대학교 산학협력단 감정인식에 기반한 서비스 장치 및 방법
KR101553521B1 (ko) * 2008-12-11 2015-09-16 삼성전자 주식회사 지능형 로봇 및 그 제어방법
US9155961B2 (en) * 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
KR20110002757A (ko) * 2009-07-02 2011-01-10 삼성전자주식회사 감성 모델 장치, 감성 모델의 성향 학습 장치 및 방법
JP5476833B2 (ja) * 2009-07-23 2014-04-23 カシオ計算機株式会社 動物の感情表示システム及び動物の感情表示方法
US9016619B2 (en) * 2009-07-28 2015-04-28 Kyushu Institute Of Technology Flapping flying robot
KR101239866B1 (ko) * 2009-09-01 2013-03-06 한국전자통신연구원 이동 로봇을 이용한 조류 통제 방법 및 그 장치
JP5526942B2 (ja) * 2010-03-31 2014-06-18 ソニー株式会社 ロボット装置、ロボット装置の制御方法およびプログラム
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
FR2969026B1 (fr) * 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
WO2012150602A1 (en) * 2011-05-03 2012-11-08 Yogesh Chunilal Rathod A system and method for dynamically monitoring, recording, processing, attaching dynamic, contextual & accessible active links & presenting of physical or digital activities, actions, locations, logs, life stream, behavior & status
US8380349B1 (en) * 2011-05-06 2013-02-19 Google Inc. Methods and systems for providing instructions to a robotic device
US8996429B1 (en) * 2011-05-06 2015-03-31 Google Inc. Methods and systems for robot personality development
CN202123513U (zh) * 2011-05-10 2012-01-25 富通彗(北京)科技有限公司 多点感应触摸机器人
US8737677B2 (en) * 2011-07-19 2014-05-27 Toytalk, Inc. Customized audio content relating to an object of interest
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
US10176725B2 (en) * 2011-08-29 2019-01-08 Worcester Polytechnic Institute System and method of pervasive developmental disorder interventions
US9079315B2 (en) * 2011-08-29 2015-07-14 Neil Davey Banking automation using autonomous robot
BR112014010841A8 (pt) * 2011-11-09 2017-06-20 Koninklijke Philips Nv método de provisão de um serviço em uma rede de dados, dispositivo móvel de comunicação eletrônica, e, software de controle para permitir a realização de um método
US9747480B2 (en) * 2011-12-05 2017-08-29 Adasa Inc. RFID and robots for multichannel shopping
US8751042B2 (en) * 2011-12-14 2014-06-10 Toyota Motor Engineering & Manufacturing North America, Inc. Methods of robot behavior generation and robots utilizing the same
US9207755B2 (en) * 2011-12-20 2015-12-08 Iconicast, LLC Method and system for emotion tracking, tagging, and rating and communication
FR2989209B1 (fr) * 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
EP2852475A4 (en) * 2012-05-22 2016-01-20 Intouch Technologies Inc SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT
US20140032466A1 (en) * 2012-07-30 2014-01-30 Boris Kaplan Computer system of artificial intelligence of a cyborg or an android, wherein a received signal-reaction of the computer system of artificial intelligence of the cyborg or the android, an association of the computer system of artificial intelligence of the cyborg or the android, a thought of the computer system of artificial intelligence of the cyborg or the android are substantiated, and a working method of this computer system of artificial intelligence of a cyborg or an android
US9569976B2 (en) * 2012-10-02 2017-02-14 Gavriel Yaacov Krauss Methods circuits, devices and systems for personality interpretation and expression
US9044863B2 (en) * 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
WO2014138472A2 (en) * 2013-03-06 2014-09-12 Robotex Inc. System and method for collecting and processing data and for utilizing robotic and/or human resources
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US9785911B2 (en) * 2013-07-25 2017-10-10 I AM Robotics, LLC System and method for piece-picking or put-away with a mobile manipulation robot
US9846843B2 (en) * 2013-10-30 2017-12-19 Georgia Tech Research Corporation Methods and systems for facilitating interactions between a robot and user
US20150234398A1 (en) * 2014-02-14 2015-08-20 Visa International Service Association Evolving Interactive Virtual-Physical Hybrid Platforms, Systems, and Methods
KR20160124770A (ko) * 2014-02-20 2016-10-28 엠비엘 리미티드 로봇식 요리용 키친에서의 음식 준비를 위한 방법 및 시스템
US9533413B2 (en) * 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US10198758B2 (en) * 2014-03-28 2019-02-05 Ecovacs Robotics, Inc. Guide robot for shopping guiding system and method
US9302393B1 (en) * 2014-04-15 2016-04-05 Alan Rosen Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
EP2933065A1 (en) 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
JP6058053B2 (ja) * 2014-06-05 2017-01-11 Cocoro Sb株式会社 記録制御システム、システム及びプログラム
EP2952299A1 (en) * 2014-06-05 2015-12-09 Aldebaran Robotics Standby mode of a humanoid robot
US9050723B1 (en) * 2014-07-11 2015-06-09 inVia Robotics, LLC Human and robotic distributed operating system (HaRD-OS)
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
CN104493827A (zh) * 2014-11-17 2015-04-08 福建省泉州市第七中学 智能认知机器人及其认知系统
DE102014016968A1 (de) * 2014-11-18 2015-01-22 Boris Kaplan Ein Computersystem von einer Künstlichen Intelligenz von einem Cyborg oder einem Android, wobei eine aufgenommene Signal-Reaktion des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, eine entsprechende Assoziation des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, und ein entsprechender Gedanke des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android in dem Computersystem physisch gebaut werden, und ein Arbeitsverfahren von dem Computersystem von der Künstlichen Intelligenz von dem Cyborg oder dem Android
US9530058B2 (en) * 2014-12-11 2016-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Visual-assist robots
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
US9821455B1 (en) * 2015-08-08 2017-11-21 X Development Llc Replacing a first robot with a second robot during performance of a task by the first robot
US10430744B2 (en) * 2015-08-21 2019-10-01 Autodesk, Inc. Robot service platform
US10063702B2 (en) * 2015-12-30 2018-08-28 Shanghai Xiaoi Robot Technology Co., Ltd. Intelligent customer service systems, customer service robots, and methods for providing customer service
US9921574B1 (en) * 2016-03-03 2018-03-20 Sprint Communications Company L.P. Dynamic interactive robot dialogue creation incorporating disparate information sources and collective feedback analysis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011880A (ja) * 2005-07-01 2007-01-18 Nippon Signal Co Ltd:The 自動販売機の制御システム
JP2013539569A (ja) * 2010-07-23 2013-10-24 アルデバラン ロボティクス 自然な対話インターフェースを備えたヒューマノイドロボット、同ロボットを制御する方法、および対応プログラム
WO2015093382A1 (ja) * 2013-12-20 2015-06-25 Re & Do 株式会社 サービス提供管理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210137438A1 (en) * 2017-10-31 2021-05-13 Hewlett-Packard Development Company, L.P. Control system for mobile robots

Also Published As

Publication number Publication date
EP3219447B1 (en) 2024-05-01
CN107199571B (zh) 2021-11-05
JP2017167797A (ja) 2017-09-21
US10513038B2 (en) 2019-12-24
EP3219447A1 (en) 2017-09-20
US20170266812A1 (en) 2017-09-21
JP6726388B2 (ja) 2020-07-22
KR20170107875A (ko) 2017-09-26
CN107199571A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
KR102150928B1 (ko) 로봇 제어 시스템
US11468888B2 (en) Control apparatus, control method agent apparatus, and computer readable storage medium
US10809802B2 (en) Line-of-sight detection apparatus, computer readable storage medium, and line-of-sight detection method
KR102448382B1 (ko) 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법
KR20180102871A (ko) 이동단말기 및 이동단말기의 차량 제어 방법
US20200133630A1 (en) Control apparatus, agent apparatus, and computer readable storage medium
WO2013055025A1 (ko) 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법
CN109070356B (zh) 机器人
KR102639904B1 (ko) 공항용 로봇 및 그의 동작 방법
JP2017151517A (ja) ロボット制御システム
WO2012119371A1 (zh) 一种用户交互系统和方法
KR102222911B1 (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
US10956761B2 (en) Control apparatus, control method agent apparatus, and computer readable storage medium
US20200143810A1 (en) Control apparatus, control method, agent apparatus, and computer readable storage medium
KR101652705B1 (ko) 멀티 모달 정보를 이용하는 사용자 의도 추론 장치 및 방법
US10596708B2 (en) Interaction device and interaction method thereof
KR102519599B1 (ko) 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
US10997442B2 (en) Control apparatus, control method, agent apparatus, and computer readable storage medium
KR102301763B1 (ko) 이동로봇을 제어하기 위한 시스템 및 방법
US11960685B2 (en) XR virtual trackpad
JP2022114892A (ja) 手話通訳装置、手話通訳方法、プログラム
Kim Consideration on Standard of Distance for Human Robot Interaction
Xu et al. A two-layered approach to communicative artifacts

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant