KR20020067669A - 로봇 시스템 및 로봇 - Google Patents

로봇 시스템 및 로봇 Download PDF

Info

Publication number
KR20020067669A
KR20020067669A KR1020020008122A KR20020008122A KR20020067669A KR 20020067669 A KR20020067669 A KR 20020067669A KR 1020020008122 A KR1020020008122 A KR 1020020008122A KR 20020008122 A KR20020008122 A KR 20020008122A KR 20020067669 A KR20020067669 A KR 20020067669A
Authority
KR
South Korea
Prior art keywords
unit
voice
robot
image
operation instruction
Prior art date
Application number
KR1020020008122A
Other languages
English (en)
Inventor
가꾸따니가즈시게
미야지신
도조나오또
가따오까신야
무라까미세이지
도꾸마루도모요시
아오끼히데아끼
Original Assignee
산요 덴키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2001040880A external-priority patent/JP2002239971A/ja
Priority claimed from JP2001055923A external-priority patent/JP2002254376A/ja
Priority claimed from JP2001113497A external-priority patent/JP2002312275A/ja
Application filed by 산요 덴키 가부시키가이샤 filed Critical 산요 덴키 가부시키가이샤
Publication of KR20020067669A publication Critical patent/KR20020067669A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

사용자는 휴대 전화기를 로봇의 전화 삽입구에 장착한 상태에서, 통화 상대와 통화를 행한다. 로봇은, 휴대 전화기로부터 출력되는 음성 신호에 따라 동작을 행하여, 마치 사용자에게 이야기를 하고 있는 것처럼 행동한다. 로봇은, 마이크로폰으로 수신한 사용자의 음성에 따라 음성을 출력하여, 마치 사용자의 이야기를 듣고 있는 것처럼 행동한다. 상기 로봇 및 이것을 이용한 로봇 시스템에 의해, 휴대 전화기에 의한 통화에 있어서의 사용자의 위화감을 경감시킬 수 있다.

Description

로봇 시스템 및 로봇{ROBOT SYSTEM AND ROBOT}
본 발명은, 사용자의 생활을 지원하는 로봇 및 그 로봇을 이용한 로봇 시스템에 관한 것이다.
애완동물 또는 상상의 동물 등을 모방한 형상 및 동작을 갖고, 사용자에게친밀감을 느끼게 하는 로봇이 제안되고 있다. 사전에 전용 동작 프로그램이 탑재된 이러한 로봇은, 마이크로폰에 의해 수신한 음성, 또는 CCD 카메라에 의해 촬상하여 얻은 화상 등의 정보에 따라, 가동부를 동작시키거나 음성을 출력할 수 있다.
원격지에 있는 상대와 이야기를 하는 경우에, 전화기 등의 통신 장치가 이용되고 있다. 이러한 통신 장치는 통신 상대의 음성을 출력하도록 구성되어 있다. 통신 장치를 사용한 통신 상대와의 대화는 일반적으로 사용자가 통신 상대의 모습을 눈으로 확인하지 않고 행해진다. 최근, 말하는 사람의 음성을 해석하여, 마치 듣고 있는 것처럼 동작을 행하는 로봇이 제안되고 있다. 이러한 로봇은, 말하는 사람(사용자)의 음성에 따라 동작함으로써, 사용자에게 로봇과 대화하고 있는 것처럼 느끼게 할 수 있다.
그런데, 전술한 바와 같은 종래의 로봇은, 전화기와 같은 통신 장치를 이용하여 사람끼리 이야기를 하는 경우에, 통신 상대(말하는 사람)의 음성에 따라 동작할 수 없다. 또한 사용자(듣는 사람)는 통신 상대의 모습을 눈으로 확인할 수 없다. 따라서, 상기 로봇은 사용자에게 위화감을 느끼게 한다.
또한, 종래의 로봇은 원격지에 있는 사용자에 대하여, 부재 중인 가옥 내의 상황을 통지할 수 없다. 따라서, 사용자가 가옥 내의 감시를 행하기 위해서는, 고가의 감시 시스템을 도입할 필요가 있다.
또한, 종래의 로봇에 있어서, 탑재되어 있는 동작 프로그램은 학습 효과에 따라 다소의 변경은 가능하지만, 완전히 새로운 동작 프로그램에 기초하는 작동은행할 수 없다.
또한, 종래의 로봇에 있어서, 실현하고 싶은 동작 프로그램이 크게 변하면, 그 동작을 제어하는 컨트롤러는 대응 불능 상태가 되기 때문에, 거의 모든 구성 요소를 변경해야만 목적으로 하는 동작을 실현할 수 있다.
또한, 종래의 로봇은 사용자의 기쁨, 슬픔, 또는 긴장 등의 정신 상태에 맞추어 음성을 출력하거나, 동작을 행할 수 없다.
가옥 내에 설치되어 있는 공기 조화기, 텔레비전 수상기, 및 세탁기 등의 장치에는, 고장 등의 발생을 통지하기 위한 표시등이 설치되어 있다. 그러나, 고장 등의 발생을 사람에게 통지할 때에는, 사람이 이들 장치에 가까이 접근할 필요가 있다.
또한, 가옥 내에서는, 가옥 내에 설치되어 있는 장치에 대하여, 사람의 생활습관에 따라, 예를 들면 매일 오후 9시쯤에 공기 조화기를 동작시키는 등, 대략 일정한 시각에 대략 일정한 조작이 행해지는 경우가 많다. 장치를 동작시키기 위해서는 그 때마다 사람이 조작을 행할 필요가 있다.
본 발명은 이러한 사정에 감안하여 이루어진 것으로, 본 발명의 목적은 사용자(듣는 사람)와 마주 향한 상태에서, 마치 말하는 사람인 것처럼 행동하고, 사용자에게 통신 시의 위화감을 느끼게 하지 않는 로봇, 및 그 로봇을 이용한 로봇 시스템을 제공하는 것에 있다.
본 발명의 다른 목적은 통신 장치로부터 음성 또는 음성 신호가 출력되고 있는 경우에는, 통신 상대의 음성에 맞추어 동작함으로써, 마치 말하는 사람과같이행동하고, 음성 입력부에서 사용자의 음성이 입력된 경우에는 사용자가 이야기를 하는 것에 대하여 적절한 응답을 행하여, 마치 듣는 사람처럼 행동하는 로봇, 및 그 로봇을 이용한 로봇 시스템을 제공하는 것에 있다.
본 발명의 또 다른 목적은, 외부의 통신 장치로부터의 동작 지시에 따라 동작할 수 있으며, 또한 원격지에 있는 사용자에게 가옥 내의 상황을 통지할 수 있는 로봇, 및 그 로봇을 이용한 로봇 시스템을 제공하는 것에 있다.
본 발명의 또 다른 목적은, 통신 네트워크, 예를 들면 인터넷 회선을 통하여 외부 서버 장치에 등록되는 CM용 동작 프로그램을 다운로드할 수 있는 로봇을 제공하는 것에 있다.
본 발명의 또 다른 목적은, 범용적인 하드웨어 구성을 이용하여, 어플리케이션에 요구되는 모터의 제어 모드, 즉 토크 제어나 속도 제어 등에 따라 FPGA의 프로그램을 변경함으로써 목적으로 하는 어플리케이션에 특화한 하드웨어 구성을 용이하게 실현할 수 있는 로봇을 제공하는 것에 있다.
본 발명의 또 다른 목적은, 사용자의 생활에 나타나는 정신 상태에 따른 음성을 출력하고, 사용자에게 친밀감을 더 느끼게 할 수 있는 로봇 및 그 로봇을 이용한 로봇 시스템을 제공하는 것에 있다.
본 발명의 또 다른 목적은, 사용자가 매일 대략 일정 시각에 대략 일정한 조작을 외부 장치에 행하지 않아도, 사용자의 생활 습관에 따라 외부의 장치를 조작하여, 사용자의 수고를 경감시킬 수 있는 로봇을 제공하는 것에 있다.
도 1은 본 발명에 따른 로봇의 실시예1의 주요부의 구성을 나타내는 사시도.
도 2는 본 발명에 따른 로봇의 실시예1의 주요부의 구성을 나타내는 블록도.
도 3은 동작 프로그램을 변경 가능한 로봇 제어 장치의 하드웨어 구성을 나타내는 블록도.
도 4는 CPU의 기능을 나타내는 설명도.
도 5 및 도 6은 실시예1에 따른 로봇의 동작 모드를 설정할 때의 CPU의 처리 수순을 나타내는 흐름도.
도 7은 실시예1에 따른 로봇의 동작 제어를 행할 때의 CPU의 처리 수순을 나타내는 흐름도.
도 8은 수긍 타이밍 검출부(121)의 처리 수순을 나타내는 플로우차트.
도 9는 감정 모델 생성부(140)의 처리 수순을 나타내는 흐름도.
도 10은 응답 동작 제어부(160)의 동작을 설명하는 응답 동작 테이블.
도 11은 본 발명에 따른 로봇용 동작 프로그램의 자동 배신 및 수신 시스템의 주요부의 구성을 나타내는 모식도.
도 12는 통신 단말측과 로봇측에서의 동작 프로그램의 자동 다운로드의 흐름을 나타내는 플로우차트.
도 13은 외부 서버측에서의 동작의 흐름을 나타내는 플로우차트.
도 14는 동작 프로그램을 변경 가능한 로봇 제어 장치의 하드웨어의 컨피그레이션을 나타내는 동작 흐름도.
도 15는 본 발명에 따른 로봇 시스템의 실시예2의 주요부의 구성을 나타내는 모식도.
도 16은 실시예2에 따른 로봇의 구성을 나타내는 블록도.
도 17은 로봇의 커맨드 데이터의 일례를 나타내는 도표.
도 18은 컴퓨터의 구성을 나타내는 블록도.
도 19, 도 20, 도 21 및 도 22는 실시예2에 따른 로봇 시스템의 동작의 흐름을 나타내는 플로우차트.
도 23은 본 발명에 따른 로봇의 실시예3의 주요부의 구성을 나타내는 사시도.
도 24는 본 발명에 따른 로봇의 실시예3의 주요부의 구성을 나타내는 블록도.
도 25는 본 발명에 따른 로봇의 실시예3의 CPU의 처리 수순을 나타내는 흐름도.
도 26은 CPU의 제1 제어 처리의 처리 수순을 나타내는 플로우차트.
도 27은 CPU의 제2 제어 처리의 처리 수순을 나타내는 흐름도.
도 28은 CPU의 제3 제어 처리의 처리 수순을 나타내는 흐름도.
도 29는 본 발명에 따른 로봇의 실시예4의 주요부의 구성을 나타내는 블록도.
도 30은 로봇이 텔레비전 수상기를 원격 조작할 때의 CPU의 처리 수순의 일례를 나타내는 흐름도.
<도면의 주요 부분에 대한 부호의 설명>
1 : 로봇
2 : 휴대 전화기(통신 장치)
11 : 두부
12 : 동체부
20 : 통신 인터페이스
25 : 메인 콘트롤 보드
28 : 전용 제어 신호 버스
29 : 프로그래머블 디바이스
30 : 접속 버스
32 : 외부 접속 보드
본 발명에 따른 로봇 시스템은, 로봇과, 음성 신호를 수신하고 수신한 음성 신호에 따른 음성 또는 음성 신호를 출력하는 통신 장치를 구비한다. 상기 로봇은 적어도 하나의 가동부와, 촬상부와, 음성 신호를 수신하고, 수신한 음성 신호에 따른 음성 또는 음성 신호를 출력하는 통신 장치에서, 상기 음성 또는 음성 신호를 입력하는 입력부를 구비한다. 상기 로봇은, 상기 통신 장치로부터 출력되어 상기 입력부에 의해 입력된 음성 또는 음성 신호, 및 상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여 상기 가동부의 구동 제어를 행하는 제어부를 구비한다.
상기 로봇 및 로봇 시스템에서는, 제어부에 의해 휴대 전화기 등의 통신 장치로부터 출력되는 음성 또는 음성 신호, 및 촬상부에 의해 촬상하여 얻은 화상에 기초하여 로봇의 가동부를 구동 제어한다. 따라서 로봇은, 사용자(듣는 사람)와 마주 향한 상태에서 마치 말하는 사람처럼 행동할 수 있어, 통신 시에 사용자의 위화감을 경감시킬 수 있다.
본 발명에 따른 로봇은 적어도 하나의 가동부와, 음성 입력부와, 음성 출력부와, 음성 신호를 수신하고, 수신한 음성 신호에 따른 음성 또는 음성 신호를 출력하는 통신 장치에서, 상기 음성 또는 음성 신호를 입력하는 입력부를 구비한다. 상기 로봇은, 상기 통신 장치로부터 출력되는 음성 또는 음성 신호에 기초하여, 상기 가동부를 구동 제어하는 제어부와, 상기 음성 입력부에 의해 입력된 음성에 기초하여 출력해야 할 음성을 결정하는 음성 결정부를 구비한다. 상기 음성 출력부는, 상기 음성 결정부에 의해 결정된 음성을 출력한다.
상기 로봇 및 로봇 시스템에서는, 제어부에 의해, 통신 장치로부터 출력되는음성 또는 음성 신호에 기초하여, 로봇의 가동부를 구동 제어한다. 따라서 로봇은, 마치 말하는 사람처럼 행동할 수 있다. 또한 상기 로봇 및 로봇 시스템에서는 음성 결정부에 의해, 음성 입력부로부터 입력된 음성에 따른 음성을 결정하고, 그 음성을 음성 출력부로부터 출력한다. 따라서 로봇은 사용자가 이야기를 하는 것에 대하여 적절한 응답을 행하여, 마치 듣는 사람처럼 행동할 수 있다. 그 결과, 사용자가 로봇에 이야기를 하고 있을 때뿐만 아니라, 사용자가 다른 사람과 통신을 행하고 있을 때에도, 사용자에게 로봇과 대화를 하고 있는 것처럼 느끼게 하여, 사용자의 위화감을 경감시킬 수 있다.
본 발명에 따른 로봇 시스템은 로봇과, 음성 신호를 수신하고, 수신한 음성 신호에 따른 음성 또는 음성 신호를 출력하는 통신 장치를 구비한다. 상기 로봇은 촬상부를 더 구비하며, 상기 제어부는 그 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 가동부의 구동 제어를 행한다.
상기 로봇 및 이것을 이용한 로봇 시스템에서는, 촬상부에 의해 로봇의 주위를 촬상하고, 이에 따라 얻어진 화상에 기초하여, 화상의 중심에 사용자의 모습이 들어가도록 가동부의 구동 제어를 행한다. 따라서, 로봇을 사용자와 마주 향한 상태로 할 수 있으며, 사용자가 로봇에 이야기를 하고 있을 때 및 사용자가 다른 사람과 통신을 행하고 있을 때에, 한층 더 사용자의 위화감을 경감시킬 수 있다.
본 발명에 따른 로봇 시스템은 로봇과, 통신 장치를 구비하고 있으며, 상기 통신 장치는 외부로부터 상기 가동부의 동작 지시를 나타내는 제1 동작 지시 정보를 수신하는 제1 수신부와, 그 제1 수신부에 의해 수신한 제1 동작 지시 정보에 따른 제2 동작 지시 정보를 상기 로봇으로 송신하는 제1 송신부와, 상기 로봇으로부터 송신된 화상을 나타내는 제1 화상 정보를 수신하는 제2 수신부와, 그 제2 수신부에 의해 수신한 제1 화상 정보에 따른 제2 화상 정보를 외부로 송신하는 제2 송신부를 구비하고 있다. 상기 로봇은, 적어도 하나의 가동부와, 촬영부와, 상기 통신 장치로부터 송신된 제2 동작 지시 정보를 수신하는 제3 수신부와, 그 제3 수신부에 의해 수신한 제2 동작 지시 정보에 기초하여, 상기 가동부의 구동 제어를 행하는 제어부와, 상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 제1 화상 정보를 상기 통신 장치로 송신하는 제3 송신부를 구비한다.
상기 로봇 및 로봇 시스템에서는, 외부로부터 로봇의 동작을 지시하는 제1 동작 지시 정보를 송신하고, 이 제1 동작 지시 정보를 가옥 내에 설치된 통신 장치에 의해 수신하여, 제2 동작 지시 정보(동작 지시 정보)로서 로봇으로 송신하고, 제2 동작 지시 정보(동작 지시 정보)에 따라 로봇의 각 가동부를 구동 제어한다. 따라서, 원격지에 있는 사용자는 외부로부터 로봇을 원격 조작할 수 있다. 또한, 상기 로봇 및 로봇 시스템에서는 로봇의 촬상부에 의해 촬상하여 얻은 화상을, 로봇으로부터 통신 장치로 제1 화상 정보(화상 정보)로서 송신하고, 통신 장치에서 외부로 상기 제1 화상 정보(화상 정보)에 따른 제2 화상 정보를 송신한다. 따라서, 원격지에 있는 사용자는 가옥 내의 상황에 관하여 통지를 받을 수 있다. 그 결과 사용자는, 고가의 감시 시스템을 도입하지 않고, 가옥 내의 감시를 행할 수 있다.
본 발명에 따른 로봇은, 동작 프로그램을 통신 네트워크를 통해 외부 서버장치로부터 메모리에 획득한다.
상기 로봇에서는, 예를 들면 기업 홈페이지 상에서 희망하는 로봇 CM 동작 프로그램을 간단히 수신할 수 있다. 또한, 상기 로봇에서는 이 CM 동작 프로그램에 기초하는 정보를 그 동작으로서 표현할 수 있다.
본 발명에 따른 로봇은, 상기 구동 회로에 제어 신호를 제공하기 위한 하드웨어 구성을 프로그램에 의해 변경 가능한 프로그래머블 컨트롤러를 구비한다.
상기 로봇의 동작 부분을 작동하는 모터의 구동 회로는 상기 프로그래머블 컨트롤러의 프로그램을 변경함으로써, 전압 제어나 전류 제어를 간단히 설정할 수 있다. 따라서, 목적에 따라 모터의 토크 제어나 속도 제어 등의 변경을 용이하게 행할 수 있다.
본 발명에 따른 로봇은 외부로부터 정보를 수신하는 수신부와, 그 수신부에 의해 수신한 정보에 기초하여, 음성을 결정하는 음성 결정부와, 상기 음성 결정부에 의해 결정된 음성을 출력하는 음성 출력부를 구비한다. 상기 정보는, 대상자의 생활에 관한 정보를 포함하고 있다.
상기 로봇에서는 사용자가 휴대하는 휴대 장치에 의해 수집된, 사용자의 상태(정신 상태)에 따른 정보를, 수신부에 의해 수신하고, 음성 결정부에 의해 상기 정보에 기초하여 음성을 결정함으로써, 사용자의 정신 상태에 따른 음성을 출력할 수 있다. 따라서, 예를 들면, 대상자(사용자)의 심박수가 많을 때에는, 사용자가 긴장하고 있다고 판단할 수 있으며, 사용자의 휴대 전화기의 착신 수가 많을 때에는, 사용자가 바쁘다고 판단할 수 있다. 또한, 상기 로봇에서는 대상자(사용자)의생활에 관한 정보에 기초하여 음성을 결정한다. 따라서, 예를 들면 사용자의 하루의 걸음수가 많을 때에는, 사용자를 칭찬하는 음성을 출력하여 사용자를 기쁘게 하여, 사용자에게 친밀감을 더 느끼게 할 수 있다.
본 발명에 따른 로봇은, 대상자의 외부의 장치에 대한 조작 이력에 관한 조작 이력 정보를 기억하는 기억부와, 그 기억부에 의해 기억된 조작 이력 정보에 기초하여, 상기 외부의 장치를 조작하는 조작부를 구비한다.
상기 로봇에서는, 대상자(사용자)의 생활 습관에 따라 외부의 장치를 조작할 수 있다. 사용자는 매일 대략 일정 시각에 대략 일정한 조작을 외부의 장치에 행할 필요가 없으므로, 상기 로봇은 사용자의 수고를 경감시킬 수 있다.
본 발명에 따른 로봇은, 상기 외부 장치로부터 송신된 상기 정보를 수신하는 수신부와, 그 수신부에 의해 수신한 상기 정보에 기초하여, 음성을 출력하는 음성 출력부를 더 구비한다. 상기 조작부는, 상기 조작 이력 정보가, 상기 외부 장치에 의해 복수일에 걸쳐 대략 동일한 시각에 특정한 송신원으로부터 정보를 수신한 것을 나타내는 정보인 경우에, 상기 외부 장치를 조작하여, 상기 복수일 후의 일의 상기 시각에 대응하는 시각에 상기 특정한 송신원으로부터 정보를 수신시켜, 수신한 상기 정보를 송신시킨다.
상기 로봇에서는, 사용자가 상기 외부 장치를 조작하지 않아도, 사용자의 생활 습관에 따라, 매일 상기 시각에 상기 특정한 송신원으로부터 정보를 수집하고, 이것을 음성에 의해 사용자에게 통지한다. 따라서, 사용자가 매일 상기 시각에 상기 특정한 송신원으로부터 정보를 수신하기 위해 외부의 장치를 조작할 필요가 없어, 사용자의 수고를 경감시킬 수 있다.
이하, 본 발명을, 실시 형태를 나타내는 도면에 기초하여 상세히 설명한다.
<실시예 1>
도 1 및 도 2는, 본 발명에 따른 로봇의 실시예1의 주요부의 구성을 나타내는 사시도 및 블록도이다. 도면에서, 참조 번호 1은 로봇이고, 참조 번호 2는 휴대 전화기(통신 장치)이다. 로봇(1)은, 플라스틱 또는 직물등으로 외각(外殼)이 형성되어 있고, 사용자에게 친밀감을 느끼게 하도록, 애완동물 또는 상상의 동물 등을 모방한 형상을 하고 있다. 로봇(1)은, 두(頭)부(11) 및 동체부(12)로 구성되어 있고, 두부(11)를 상하 방향으로 요동하는 수긍 동작, 두부(11)를 좌우 방향으로 요동하는 요동 동작, 두부(11)에 설치된 입(11a)의 개폐 동작, 두부(11)에 설치된 안구(11b, 11b)를 상하 좌우로 회전 이동시키는 안구(11b, 11b)의 이동 동작, 눈꺼플(11c, 11c)을 상하 방향으로 요동하는 껌뻑거림 동작, 및 동체부(12)에 설치된 도시하지 않은 차륜을 회전함으로써 로봇(1)의 이동 동작을 각각 행하게 하는 복수의 모터 M, M, …을 포함하는 동작 기구(도시하지 않음)가 내장되어 있다.
또한, 동작 프로그램을 변경 가능한 로봇 제어 장치의 하드웨어 구성을, 도 3을 참조하여 설명한다. 도 3에서, 이 제어 장치는 상위의 연산 능력을 구비한 메인 컨트롤 보드(25)와 복수의 외부 접속 보드(32, 32)를 포함한다.
메인 컨트롤 보드(25)에는, CPU(16), 퍼스널 컴퓨터 등의 외부 기기나 네트워크 혹은 휴대 전화 등의 퍼스널 통신 단말(27)과의 접속을 가능하게 하는 통신 인터페이스(20), 복수의 외부 접속 보드(32)와 버스 접속되어 있고 또한 CPU(16)로부터 컨피그레이션에 의해 내부 논리 연산 회로를 재기입 가능한 프로그래머블 디바이스(29) 및 CPU(16)와 접속되는 메모리(31)가 탑재되어 있다.
프로그래머블 디바이스(29)는, 예를 들면 내부의 아키텍쳐가 SRAM 구조를 취하는 FPGA(Field Programmable Gate Array)등으로, 제품으로는 ALTERA사나 XILINX 사등으로부터 입수 가능하다.
또한, 메모리(31)는 CPU(16)의 프로그램이나 FPGA(29)의 컨피그레이션에 필요한 데이터를 저장해 두기 위한 플래시 메모리 등의 불휘발성 메모리부와 CPU(16)가 프로그램의 실행 시에 이용하는 데이터를 저장하기 위한 RAM 부로 구성된다.
메인 컨트롤 보드(25)와 버스 접속된 각 외부 접속 보드(32)에는 프로그래머블 디바이스로서의 FPGA(26)가 탑재되어 있고, 이 FPGA(26)의 내부 논리 연산 회로는 전용 제어 신호 버스(28)로부터 전송되는 컨피그레이션 데이터에 따라 구성된다.
또한, 메인 컨트롤 보드(25) 및 각 외부 접속 보드(32)에 탑재되는 FPGA(29 및 26)를 서로 접속하는 접속 버스(30)에는 데이터, 제어 신호 및 전원 라인이 포함된다.
외부 접속 보드(32)에는, 예를 들면 로봇의 각 동작 부분을 작동하는 모터 M, M, …에 접속된 인코더(33)나 감속기 등을 통한 최종단에서의 변위를 계측하기 위한 전위차계, 기타 힘 센서 등 디지털 펄스나 아날로그 전압 신호를 수신 가능한 범용의 센서 인터페이스(36)가 탑재되어 있다. 이 센서 인터페이스(36)로부터 FPGA(26)에 제어 신호가 수신된다.
각 모터 M과 FPGA(26) 사이에는 이 FPGA(26)로부터의 지령값에 따라 각 모터 M에 인가하는 전압을 제어하는 구동 회로(17)가 각각 접속되어 있다. 이 구동 회로(17)는, 예를 들면 FPGA(26)로부터 소정의 주파수(16㎑ 정도)에서 스위칭을 반복하고, 일주기 내의 듀티(전압이 걸리는 ON 상태와 전압이 걸리지 않는 OFF 상태의 비율)를 컨트롤하는 PWM 제어 등을 이용한다.
외부 접속 보드(32)는 도 3에 점선 및 실선으로 나타내는 버스 구성을 취함으로써, 어플리케이션으로 사용하는 모터 M의 개수에 맞추어, 동일한 구성의 보드를 복수개 접속하는 것이 가능하다. 이 경우, 보드를 식별하는 ID는, 기판 위에 점퍼 핀을 설치하거나, FPGA(26)의 컨피그레이션 데이터에 직접 기입함으로써 그 설정이 가능하다.
또한, 외부 접속 보드(32)는 모터 구동용가 동일한 구성의 보드뿐만 아니라, 어플리케이션의 필요에 따라, 화상 입출력 보드, 음성 입출력 보드 등도 접속 가능하다.
동체부(12)의 측부에는, 휴대 전화기(2)를 삽입하기 위한 전화 삽입구(12a)가 설치되어 있다. 그 전화 삽입구(12a)의 근방에는, 휴대 전화기(2)의 측부에 설치된 접속 단자(21)에 접속되는 접속 단자(13)가 구비되어 있다. 그 접속 단자(13)는 증폭기(14a) 및 A/D 변환기(15a)를 통해 CPU(16)에 접속되어 있다. 증폭기(14a)는 다른 증폭기(14c)에도 접속되어 있고, 그 증폭기(14c)는 동체부(12)의 측부에 설치된 스피커(12c)에 접속되어 있다.
이에 따라, 휴대 전화기(2)의 접속 단자(21)로부터 출력된 통화 상대의 음성의 음성 신호는, 접속 단자(13)에 의해 로봇(1)에 입력되어, 증폭기(14a)에 의해 증폭된다. 증폭기(14a)로부터 출력된 음성 신호는, A/D 변환기(15a)에 의해 디지털 신호로 변환되어, CPU(16)에 제공됨과 함께 증폭기(14c)에 의해 추가로 증폭된 후, 스피커(12c)에서 가청음으로 출력된다.
로봇(1)의 동체부(12)의 정면에는, 마이크로폰(12b)이 설치되어 있다. 그 마이크로폰(12b)은, 증폭기(14b) 및 A/D 변환기(15b)를 통해 CPU(16)에 접속되어 있다. 증폭기(14b)는 접속 단자(13)에 접속되어 있고, 증폭기(14b)로부터 출력된 신호가 접속 단자(13)로부터 휴대 전화기(2)에 출력되도록 되어 있다.
로봇(1) 부근에 있는 사용자로부터의 음성은 마이크로폰(12b)에 의해 아날로그 신호의 음성 신호로 변환된다. 음성 신호는 증폭기(14b)에 의해 증폭된다. 증폭기(14b)로부터 출력된 음성 신호는 A/D 변환기(15b)에 의해 디지털 신호로 변환되고, CPU(16)에 제공됨과 함께, 접속 단자(13)로부터 휴대 전화기(2)로 출력된다.
A/D 변환기(15a, 15b)는,각각 8㎳마다 샘플링을 행하고, 아날로그 신호를 디지털 신호로 변환하도록 되어 있다.
CPU(16)는 복수의 구동 회로(17, 17, …, 17)에 접속되어 있다.
그 구동 회로(17, 17, …, 17)는 각각 모터 M, M, …, M에 접속되어 있다. 모터 M, M, …, M은 구동 회로(17, 17, …, 17)에 의해 구동된다.
CPU(16)는 또, 음성 재생 회로(19)에 접속되어 있다. 그 음성 재생 회로(19)는 복수의 음성 데이터를 기록하고 있는 ROM을 내장하고 있다. CPU(16)로부터 출력된 제어 신호에 의해, 그 음성 재생 회로(19)는 상기 ROM에서 음성 데이터를 판독하여, 디지털 신호의 음성 신호를 출력한다. 음성 재생 회로(19)는 D/A 변환기(19a)에 접속되어 있다. 그 D/A 변환기(19a)는 증폭기(14d)를 통해 스피커(12c)에 접속되어 있다. 음성 재생 회로(19)로부터 출력된 음성 신호는 D/A 변환기(19a)에 의해 아날로그 신호로 변환된다. 변환된 음성 신호는 증폭기(14d)에 의해 소정량 증폭된 후, 스피커(12c)에 주어져 가청음으로 출력된다.
로봇(1)의 코에는, 후술하는 말하는 사람 모드와 듣는 사람 모드와의 전환을 수동으로 행하기 위한 전환 스위치(11d)가 설치되어 있다. 동체부(12)의 마이크로폰(12b) 상측에는 CCD 카메라(12f)가 설치되어 있다. 그 CCD 카메라(12f)는 로봇(1)의 정면을 촬상한다. CCD 카메라(12f)는 A/D 변환기(15c)에 접속되어 있다. 그 A/D 변환기(15c)는 화상 메모리(18)에 접속되어 있다. 그 화상 메모리(18)는 CPU(16)에 접속되어 있다.
CCD 카메라(12f)에 의해 주위의 화상이 촬상되면, 이 화상의 아날로그 신호가 CCD 카메라(12f)로부터 출력된다. 출력된 아날로그 신호는, A/D 변환기(15c)에 의해 디지털 신호로 변환되고, 화상 메모리(18)에 화상 디지털 데이터(화상 데이터)로서 저장된다. 저장된 화상 데이터는 CPU에 제공되어, 후술하는 처리에 이용된다.
CCD 카메라(12f)의 상측에는, 말하는 사람 모드의 상태나, 듣는 사람 모드의 상태를 사용자에게 통지하기 위한 표시등(12e)이 설치되어 있다. 그 표시등(12e)은 CPU(16)에 접속되어 있고, CPU(16)로부터의 제어 신호에 의해 표시등(16)의 점등 또는 소등이 행해진다.
CPU(16)는, 후술하는 처리를 행하기 위한 프로그램이 저장되어 있는 ROM(16a), 및 CPU(16)의 상기 프로그램의 실행 시에 일시적으로 발생하는 데이터를 저장하는 RAM(16b)에 접속되어 있다.
도 4는 CPU(16)의 기능을 나타내는 설명도이다.
CPU(16)는 음성 처리부(120), 화상 처리부(130), 감정 모델 생성부(140), 상태 관리부(150) 및 응답 동작 제어부(160)를 구비하고 있다. 음성 처리부(120)는, 수긍 타이밍 검출부(121), 입력 음성의 크기 판정부(122) 및 입력 음성의 유무 판정부(123)를 구비하고 있다. 화상 처리부(130)는 얼굴 검출부(131), 얼굴의 움직임의 크기 검출부(132) 및 암(暗) 검출부(133)를 구비하고 있다.
감정 모델 생성부(140)는 로봇이 행복한지, 슬픈지, 또는 화나 있는지를 결정한다. 상태 관리부(150)는 로봇의 대화(interaction) 상태를 결정한다. 응답 동작 제어부(160)는 감정 모델 생성부(140)에 의해 결정된 로봇의 현재의 감정과, 상태 관리부(150)에 의해 결정된 현재의 대화 상태와의 조합에 따른 동작을 결정한다. 응답 동작 제어부(160)에 의해 결정된 동작은 각 구동 회로(17)에 신호를 제공함으로써 실현된다.
이러한 로봇(1)은 동작 모드가 설정되도록 되어 있다. 동작 모드가 말하는 사람 모드로 설정되어 있을 때, 로봇(1)은 휴대 전화기(2)로부터 출력되는 음성 신호에 따라, 통화 상대의 음성에 맞추어 마치 사용자에게 이야기를 하고 있는 것처럼 동작을 행하도록 제어된다. 동작 모드가 듣는 사람 모드로 설정되어 있을 때, 로봇(1)은 마이크로폰(12b)으로부터 출력되는 음성 신호에 따라, 사용자의 음성에맞추어 마치 사용자의 이야기를 듣고 있는 것처럼 동작을 행하도록 제어된다.
도 5 및 도 6은, 본 실시예1에 따른 로봇(1)의 동작 모드를 설정할 때의 CPU(16)의 처리 수순을 나타내는 흐름도이다. CPU(16)는 A/D 변환기(15a)로부터 출력된 디지털 신호, 즉 음성 데이터를 수신하고(단계 101), A/D 변환기(15b)로부터 출력된 음성 데이터를 수신한다(단계 102). 40㎳분의 디지털 신호, 즉 5개분의 음성 데이터를 각각 수신했는지의 여부를 판별하고(단계 103), 수신하지 않은 경우에는 단계 101로 복귀한다.
5개분의 음성 데이터를 각각 수신한 경우에는, 단계 101에서 수신한 통화 상대의 5개분의 음성 데이터의 평균을 산출하고(단계 104), 산출한 평균값으로부터 2값 데이터를 생성한다(단계 105). 구체적으로는, 소정의 임계치와 상기 평균값을 비교한다. 평균값이 상기 임계치를 넘는 경우에는 2값 데이터의 값을 1로 한다. 평균값이 상기 임계치를 넘지 않는 경우에는 2값 데이터의 값을 0으로 한다. 그 2값 데이터를, 1.6초분의 2값 데이터를 저장할 수 있는 FIFO형의 버퍼 B1에 저장한다(단계 106). 이 버퍼 B1은 RAM(16b) 내의 소정의 영역에 구성되어 있다.
마찬가지로, 단계 102에서 수신한 사용자의 5개분의 음성 데이터의 평균을 산출하고(단계 107), 산출한 평균값과 상기 임계치와는 다른 임계치를 이용하여 2값 데이터를 생성하고(단계 108), 그 2값 데이터를, 상기 버퍼 B1과 동일한 버퍼 B2에 저장한다(단계 109).
버퍼 B1 내의 2값 데이터로부터 통화 상대의 MA 평가치를 산출한다(단계 110). MA 평가치는 MA 모델에 기초하여, 상기 2값 데이터와 소정의 MA 계수군과의곱의 합 연산을 행함으로써 산출된다.
마찬가지로, 버퍼 B2 내의 2값 데이터로부터 사용자의 MA 평가치를 산출한다(단계 111). 단계 110에서 이용되는 MA 계수군과, 단계 111에서 이용되는 MA 계수군과는 다른 수치이다.
CPU(16)는 이어서, 전환 스위치(11d)의 상태를 검출하고, 수동으로 동작 모드의 설정이 행해지는지의 여부를 판별한다(단계 112). 수동으로 동작 모드의 설정이 행해지지 않는 경우에는, 휴대 전화기(2)의 접속 단자(21)로부터 신호가 출력되고 있는지의 여부, 즉 A/D 변환기(15a)로부터 신호가 출력되고 있는지의 여부를 조사함으로서, 휴대 전화기(2)가 통화 상태인지의 여부를 판별한다(단계 113). 통화 상태가 아닌 경우에는 동작 모드를 듣는 사람 모드로 설정한다(단계 114).
휴대 전화기(2)가 통화 상태인 경우에는, 통화 상대의 MA 평가치와, 사용자의 MA 평가치를 비교하여, 동작 모드를 설정한다(단계 115). 구체적으로는, 예를 들면 통화 상대의 MA 평가치의 크기와, 사용자의 MA 평가치의 크기를 비교한다. 통화 상대의 MA 평가치가 사용자의 MA 평가치 이상인 경우에는, 말하는 사람 모드로 설정한다. 통화 상대의 MA 평가치가 사용자의 MA 평가치 미만인 경우에는 듣는 사람 모드로 설정한다. 과정은, 단계 101로 복귀된다.
도 7은, 본 실시예1에 따른 로봇(1)의 동작 제어를 행할 때의 CPU(16)의 처리 수순을 나타내는 흐름도이다. CPU(16)는 현재의 동작 모드가 무엇으로 설정되어 있는가를 판별한다(단계 121). 동작 모드가 말하는 사람 모드로 설정되어 있는 경우, 도 5 및 도 6의 흐름도에 나타낸 처리에 따라 산출한 통신 상대의 MA 평가치에 기초하여, 로봇(1)의 복수의 동작 패턴으로부터 하나의 동작 패턴을 선택하고(단계 122), 단계 124로 이행한다. 이 단계 122의 처리에서는, 통신 상대의 MA 평가치를 복수의 임계치와 비교하여, 각각의 임계치에 대응된 동작 패턴을 선택한다. 예를 들면, 통신 상대의 MA 평가치가, 깜박임 동작을 행하게 하기 위한 임계치를 넘는 경우에는, 눈꺼플(11c)을 상하 방향으로 요동하는 동작 패턴이 선택된다. 또한 예를 들면, 통신 상대의 MA 평가치가, 깜박임 동작을 행하게 하기 위한 임계치보다 큰 입(11a)의 개폐 동작을 행하게 하기 위한 임계치를 넘는 경우에는, 입(11a)을 개폐하는 동작 패턴이 선택된다.
단계 121에서, 현재의 동작 모드가 듣는 사람 모드로 설정되어 있는 경우에는, 사용자의 MA 평가치에 기초하여, 로봇(1)의 복수의 동작 패턴으로부터 하나의 동작 패턴을 선택하고(단계 123), 단계 124로 이행한다. 단계 123의 처리에서는 사용자의 MA 평가치를 복수의 임계치와 비교하여, 각각의 임계치에 대응된 동작 패턴을 선택한다. 예를 들면, 사용자의 MA 평가치가, "수긍 동작"을 행하게 하기 위한 임계치를 넘는 경우에는, 두부(11)를 상하 방향으로 요동하는 동작 패턴이 선택된다. 또한 예를 들면, 사용자의 MA 평가치가, 수긍 동작을 행하게 하기 위한 임계치보다 큰 "맞장구 동작"을 행하게 하기 위한 임계치를 넘는 경우에는, 입(11a)의 개폐 및 「응, 응」이라는 음성을 출력하는 동작 패턴이 선택된다.
이어서, 선택된 동작 패턴의 동작을 지시하는 제어 신호를 구동 회로(17, 17, …) 또는 음성 재생 회로(19)로 출력한다(단계 124). 이 처리에서는, 예를 들면 입(11a)을 개폐하는 동작 패턴이 선택되는 경우에는, 입(11a)의 개폐를 지시하는 제어 신호를 입(11a)의 동작 기구에 연결된 모터 M을 구동하는 구동 회로(17)에 제공한다. 또한 예를 들면, 맞장구 동작의 동작 패턴이 선택되어 있는 경우에는, 상기 구동 회로(17)에 입(11a)의 개폐를 지시하는 제어 신호를 제공함과 함께, 음성 재생 회로(19)에 「응, 응」이라는 음성의 출력을 지시하는 제어 신호를 제공한다.
CPU(16)는 CCD 카메라(12f)에 의해 촬상된 화상 데이터를 화상 메모리(18)로부터 판독한다(단계 125). 화상 데이터에 화상 처리를 실시함에 따라, 화상 내의 사용자의 위치를 검출한다(스텝 126). 검출한 사용자의 위치에서, 로봇(1)을 사용자에게 마주 향하게 이동시키도록, 로봇(1)의 하부에 설치된 차륜의 동작 기구에 연결된 모터 M, M을 구동하는 구동 회로(17, 17)에 제어 신호를 출력하고(단계 127), 단계 121로 복귀한다.
이상 설명한 바와 같은 FIGS.5 및 6의 흐름도에 나타낸 처리, 및 도 7의 흐름도에 나타낸 처리는, CPU(16)의 멀티태스크 처리에 따라 일정 시간 걸려 실행된다.
로봇의 동작을 결정하는 CPU(16)에 구비된 각부의 동작을 이하에 상술한다.
도 8은 수긍 타이밍 검출부(121)의 처리 수순을 나타내는 흐름도이다.
우선, 마이크로폰(12b)으로부터 입력된 아날로그 음성 신호를 8㎳ec 주기로 A/D 변환한다(단계 131). 변환 횟수가 5회에 달할 때마다, 즉 40㎳주기마다(단계 132), 5회분의 AD 변환치의 평균값을 산출한다(단계 133). 얻어진 평균값을 ON/OFF 임계치를 이용하여 임계치 처리함으로써, 과거 1.6초의 시계열 ON/OFF 패턴을 생성한다(단계 134).
시계열 ON/OFF 패턴의 선형 예측 모델로 수긍 타이밍인지의 여부를 판정한다. 수긍 타이밍인 경우에는, 그것을 나타내는 메시지를 감정 모델 생성부(140)로 송신한다(단계 135). 수긍 타이밍이란, 상대가 말을 한 경우에, 그 말에 대하여 반응하는데 적합한 타이밍을 말한다.
이상의 처리 수순에 의해, 수긍 타이밍 검출부(121)는, 40㎳마다 수긍 타이밍인지의 여부를 판정하여, 수긍 타이밍이라고 판정한 경우에는 수긍 타이밍인 것을 나타내는 메시지를 감정 모델 생성부(140)로 송신한다.
입력 음성의 크기 판정부(122)는 40㎳마다 상기 단계 133에서 얻어지는 AD 변환치의 평균값을, 3개의 임계치를 이용하여 임계치 처리한다. 그 결과, 입력 음성의 크기는 대, 중, 소, 없음의 4 종류로 판별된다. 입력 음성의 크기 대, 중, 소에 대응한 판별 신호가 입력 음성의 크기 판정부(122)로부터 출력되고, 감정 모델 생성부 (140)로 전송된다.
입력 음성의 유무 판정부(123)는 1.6초마다 상기 단계 134에서 얻어지는 ON/OFF 패턴으로부터, ON 패턴의 비율을 산출한다. ON 패턴의 비율이 소정치(예를 들면 0.5)보다 크면 음성 입력 있음의 판별 신호가 출력된다. ON 패턴의 비율이 소정치 이하이면 음성 입력 없음의 판별 신호가 출력된다. 이 판별 신호는 상태 관리부(150)로 전송된다.
얼굴 검출부(131)는 CCD 카메라(12f)로부터의 입력 화상 데이터에 기초하여, 우선 피부색(살색) 영역을 추출한다. 이어서, 추출된 피부색 영역의 크기 및 형상에 기초하여, 입력 화상 중에 얼굴 영역이 존재하는지의 여부를 판정한다. 그 판정 결과를 나타내는 메시지는 감정 모델 생성부(140) 및 상태 관리부(150)로 송신된다. 얼굴 검출부(131)에 의한 얼굴 검출 처리는 소정 시간 간격마다 행해진다.
얼굴의 움직임 크기 검출부(132)는 얼굴 검출부(131)에 의해 얼굴 영역이 검출되는 경우에, 그 얼굴 영역의 움직임의 크기를 검출함으로써, 얼굴의 움직임의 대소를 판정한다. 그 판정 결과를 나타내는 메시지는 감정 모델 생성부(140)로 송신된다. 얼굴의 움직임 크기 검출부(132)에 의한 얼굴 움직임의 크기의 검출 처리는 소정 시간 간격마다 행해진다.
암 검출부(133)는 CCD 카메라(12f)로부터의 입력 화상 데이터에 기초하여 주위의 암 검출을 행한다. 주위가 어두워진 것을 검출하면, 암 검출부(133)는 그것을 나타내는 메시지를 상태 관리부(150)에 전한다. 암 검출부(133)에 의한 암 검출 처리는 소정 시간 간격마다 행해진다.
로봇은 행복, 슬픔, 분노의 3개의 감정을 갖는 것으로 가정하여 감정 모델 생성부(140)의 동작을 설명한다. 그 감정 모델 생성부(140)는 행복, 슬픔, 분노마다, 그 정도를 나타내는 파라미터(이하, 감정 파라미터라고 함)LevelHap, LevelSac, LevelAng를 갖는다.
각 감정 파라미터는 감정을 변화시키는 몇개의 요소(외부로부터 제공되는 자극)에 따라 변화를 반복한다. 3개의 감정 파라미터 중에서 가장 큰 것이, 그 때의 감정이 된다. 3개의 감정 파라미터가 모두 동일한 경우에는 행복하다고 판정한다.
감정을 변화시키는 요소에는 수긍 타이밍 검출부(121)에 의해 검출되는 수긍 타이밍, 입력 음성의 크기 판정부(122)에 의해 판정되는 입력 음성의 크기, 얼굴 검출부(131)에 의해 검출되는 얼굴, 및 얼굴의 움직임의 크기 검출부(132)에 따라 검출되는 얼굴의 움직임의 크기가 있다. 수긍 타이밍은, 말이 활기를 띠고 있는지의 여부가 지표가 된다. 수긍 타이밍의 검출 횟수가 많아질수록, 말이 활기를 띠고 있다고 해석된다.
예를 들면, 입력 음성의 소리가 중간 정도이고, 대화자의 얼굴이 검출되는 경우에는, 로봇의 입장에서 보면 즐겁게 이야기를 하고 있으며 또한 대화자의 얼굴이 보이기 때문에, 행복의 정도를 나타내는 감정 파라미터 LevelHap가 상승한다. 이 경우 로봇은 행복하게 된다.
한편, 입력 음성의 소리가 작고, 대화자의 얼굴이 검출되지 않는 경우에는, 로봇의 입장에서 보면 쓸쓸히 이야기되고 있고 또한 대화자의 얼굴이 보이지 않기때문에, 슬픔의 정도를 나타내는 감정 파라미터 LevelSac가 상승한다. 이 경우 로봇은 슬퍼한다. 또한, 입력 음성의 소리가 큰 경우에는, 로봇 입장에서 보면 화가 나서 소리쳐지고 있기 때문에, 분노의 정도를 나타내는 감정 파라미터 LeVelAng가 상승한다. 이 경우 로봇은 분노 상태가 된다.
도 9는, 감정 모델 생성부(140)의 처리 수순을 나타내는 흐름도이다.
감정 모델 생성부(140)는 감정을 변화시키는 요소에 기초하여, 행복의 정도를 나타내는 감정 파라미터 LevelHap, 슬픔의 정도를 나타내는 감정 파라미터LevelSac및 분노의 정도를 나타내는 감정 파라미터 LevelAng를 제어한다.
우선, 각 감정 파라미터 LevelHap, LevelSac, LevelAng를 초기 설정한다(단계 141). 각 감정 파라미터 LevelHap, LevelSac, LevelAng는 0∼1000 사이의 값을 취한다. 단계 141의 초기 설정에서, 각 감정 파라미터 LevelHap, LevelSac, LevelAng은 500(중립의 값)으로 설정된다.
이어서, 수긍 타이밍 검출부(121), 입력 음성의 크기 판정부(122), 얼굴 검출부(31) 또는 얼굴의 움직임의 크기 검출부(132)로부터의 메시지 수신을 대기한다(단계 142).
이들 각부 중 어느 하나로부터 송신된 메시지를 수신하면, 수신한 신호를 해석하여(스텝 143), 각 감정 파라미터를 산출한다(스텝 144).
산출한 각 감정 파라미터 중 가장 큰 감정 파라미터에 대응하는 감정을, 로봇의 현재 감정으로서 응답 동작 제어부(160)로 송신한다(단계 145). 각 감정 파라미터가 모두 동일한 경우에는, 행복을 로봇의 현재의 감정으로서 응답 동작 제어부(160)에 송신한다. 이 후, 단계 142로 복귀된다. 각 감정 파라미터는 다음 수학식 1에 기초하여 산출된다.
여기서, GainAll은 전체 게인으로, 예를 들면 1이다. PointLocal은, 감정을 변화시키는 요소마다 사전에 정해진 포인트이다. GainHap, GainSad, GainAng은, 감정을 변화시키는 요소마다 사전에 정해진 게인이다.
PointLocal및 GainHap, GainSad, GainAng에는 표 1에 나타낸 바와 같이 설정되어 있다. PointLocal은 감정을 변화시키는 요소의 출현 빈도, 감정 변화에 있어서의 요소의 중요도 등에 의해 경험적으로 결정된다. GainHap, GainSad, GainAng은 대응하는 감정 파라미터를 상승시키는 요소에 관해서는 플러스의 값으로 하고, 그 외에는 마이너스의 값으로 한다.
PointLocal GainHap GainSad GainAng
수긍 타이밍 10 +1 -1 -1
소리의 크기 1 -1 -1 +1
+1 -1 -1
-1 +1 -1
얼굴 검출 결과 있음 5 +1 -1 -1
없음 -1 +1 -1
얼굴의움직임 2 +1 -1 -1
-1 +1 -1
예를 들면, 각 감정 파라미터 LevelHap, LevelSac, LevelAng가 500인 경우에, 얼굴 검출부(131)로부터 얼굴이 검출된 것을 나타내는 메시지를 수신한 경우에는, PointLocal=5, GainHap=+1, GainSad=-1, GainAng=-1이다. 따라서, PointCtl=5, LevelHap= 505, LevelSad=495, LeVelAng=495가 된다. 그 결과, 행복의 정도를 나타내는 감정 파라미터 LevelHap가 상승하는 한편, 한쪽 슬픔 및 분노의 정도를 나타내는 감정 파라미터 GainSad, GainAng는 하강한다.
메시지를 수신하지 않은 상태가 계속되는 경우에는 각각의 감정은 안정되어야한다고 생각하므로, 각 감정 파라미터는 중립의 값(500)에 근접하도록 제어하는 것이 바람직하다.
상술한 실시예에서는, 감정을 변화시키는 요소로서, 수긍 타이밍 검출부(121)에 의해 검출되는 수긍 타이밍, 입력 음성의 크기 판정부(122)에 의해 판정되는 입력 음성의 크기, 얼굴 검출부(131)에 의해 검출되는 얼굴, 및 얼굴의 움직임의 크기 검출부(132)에 의해 검출되는 얼굴의 움직임의 크기가 있지만, 이들의 임의의 조합을 감정을 변화시키는 요소로서 이용해도 상관없다.
또한, 상태 관리부(150)의 동작을 설명한다. 상태 관리부(150)는 입력 음성의 유무 판정부(123)로부터의 메시지, 얼굴 검출부(131)로부터의 메시지, 암 검출부(133)로부터의 메시지를 이벤트로서, 표 2의 상태 천이표에 따라 대화 상태를 천이시킴으로써, 로봇의 대화 상태를 결정한다. 결정한 로봇의 현재의 대화 상태는 응답 동작 제어부(160)로 송신된다.
이 예에서, 로봇은 「대화하는 상태」, 「대화 중단 상태」, 「자율 행동 상태」, 「수면 상태」의 4 종류의 대화 상태를 취하여 얻는 이벤트에는 입력 음성의 유무 판정부(123)에 의해 검출되는 입력 음성 있음을 나타내는 이벤트, 입력 음성의 유무 판정부(123)에 의해 검출되는 입력 음성 없음을 나타내는 이벤트, 얼굴 검출부(131)에 의해 검출되는 화자 부재(얼굴이 검출되지 않는 것)인 것을 나타내는 이벤트, 및 암 검출부(133)에 의해 검출되는 어두운 것을 나타내는 이벤트가 있다.
예를 들면, 대화 상태가 「대화중 상태」에 있을 때에 입력 음성 없음을 나타내는 이벤트가 발생하면, 「대화 중단 상태」로 천이한다. 이 상태에서, 화자 부재인 것을 나타내는 이벤트가 발생하면, 「자율 행동 상태」로 천이한다.
대화 상태가 「대화 중단 상태」 또는 「자율 행동 상태」인 경우에 어두운 것을 나타내는 이벤트가 발생하면, 「수면 상태」로 천이한다. 이 상태에서 입력 음성 있음을 나타내는 이벤트가 발생하면, 「대화중 상태」로 천이한다.
이벤트로는, 적어도, 입력 음성의 유무 판정부(123)에 의해 검출되는 입력 음성 있음을 나타내는 이벤트, 입력 음성의 유무 판정부(123)에 의해 검출되는 입력 음성 없음을 나타내는 이벤트, 얼굴 검출부(131)에 의해 검출되는 화자 부재인것을 나타내는 이벤트가 있으면 된다.
응답 동작 제어부(160)의 동작을 설명한다. 응답 동작 제어부(160)는, 감정 모델 생성부(140)에 의해 결정된 로봇의 현재의 감정과, 상태 관리부(150)에 의해 결정된 현재의 대화 상태와의 조합에 따른 동작을, 도 10의 응답 동작 테이블에 기초하여 결정한다. 결정한 동작에 기초하여 로봇이 동작한다. 도 10에는 기재되어 있지 않지만, 실제로는 감정에 따른 이야기하는 소리, 즉 행복하면 즐거운 듯한 이야기 소리, 슬픈 경우에는 슬픈듯한 이야기 소리, 화나 있는 경우에는 화난 듯한 이야기 소리가 스피커(12c)로부터 출력된다.
상술한 실시예에서, 응답 동작 제어부(160)는 감정 모델 생성부(140)에 의해서 결정된 로봇의 현재의 감정과, 상태 관리부(150)에 의해 결정된 현재의 대화 상태와의 조합에 따라 로봇의 동작을 결정하고 있지만, 본 발명은 이것에 한하는 것이 아니다. 로봇의 성격도 고려하여 로봇의 동작을 결정해도 된다.
로봇의 성격을 고려하는 경우, 로봇의 성격을 설정하기 위한 성격 설정부를 설치해 둔다. 대화자는 로봇의 성격을 기호에 맞추어 설정한다. 성격의 종류로서는, 예를 들면 「두려움」, 「성급」, 「상냥」, 「활발」,「온순」 등이 준비된다. 각 성격마다, 도 10에 도시한 바와 같은 응답 동작 테이블이 작성된다. 로봇의 동작은, 설정되어 있는 성격에 대응하는 응답 동작 테이블을 이용하여 결정된다.
예를 들면 성격이 「성급」으로 설정되어 있고, 화자 부재로「자율 행동 상태」로 천이한 경우에, 「분노」의 감정이 벅차오르면, 로봇은 「심하게 난폭함」등과 같이 거친 동작을 행한다.
성격이 「온순」으로 설정되어 있고, 화자 부재로 「자율 행동 상태」로 천이한 경우에, 「분노」의 감정이 벅차오르면, 로봇은 「신음 소리를 냄」 등과 같이 속에 품은 분노의 감정 표현을 행한다.
상술한 각 부의 동작 설명에서는, 마이크로폰(12b)으로부터 입력된 음성 신호에 기초를 둔 동작을 설명했지만, 본원은 통신 신호로부터의 입력 신호를 이용하여 제어할 수도 있다.
이어서, 기업 홈페이지 등의 외부 서버 장치에 등록되어 있는 동작 프로그램을 로봇에 자동으로 다운로드하는, 자동 배신·수신 시스템을 설명한다. 도 11은 본 발명에 따른 로봇용 동작 프로그램의 자동 배신·수신 시스템의 주요부의 구성을 나타내는 모식도이다.
도 11에서, 이 자동 배신·수신 시스템은, 로봇(1), 상술된 바와 같이 로봇(1)과 접속된 휴대 전화기(2), 이 휴대 전화기(2)와 기지국을 통해 접속되는 고정망(22)을 포함하는 통신 네트워크(인터넷 회선 : 24), 및 이 통신 네트워크(24)에 링크 가능하며, 예를 들면 기업 홈페이지 등의 각종 서비스 정보를 등록한 데이터 베이스를 갖는 외부 서버 장치(23)를 포함한다.
휴대 전화기(2)에는 통상 인터넷 자원을 순회하기 위한 브라우저라는 클라이언트 소프트웨어가 삽입되어 있다. 휴대 전화기(2)를 이용하는 사용자는 상기 브라우저를 이용하여 외부 서버 장치(23)의 데이터 베이스에 액세스한다.
링크처인 기업 홈페이지 등의 외부 서버 장치(23)에는, 사전에 동작 프로그램을 다운로드하기 위한 Java 언어에 의한 프로그램(Aplet)이 준비되어 있다. 휴대 전화기(2)로부터 통신 네트워크인 고정망(22)을 통해 이 기업 홈페이지 등을 액세스하면, 자동으로 상기 프로그램(Aplet)이 실행되어, 로봇용의 동작 프로그램이 휴대 전화기(2)를 경유하여 로봇(1)에 다운로드된다.
로봇(1)은 다운로드된 동작 프로그램을 해석하여, 모터 M, M, …을 구동 제어한다.
이상의 구성에 의한 동작 프로그램의 자동 다운로드의 흐름을 도 12에 나타내는 흐름도에 기초하여 설명한다.
우선, 통신 단말측에서는 휴대 전화기(2)로부터 인터넷 회선(24)을 통해 기업 홈페이지 등의 외부 서버 장치(23)에 액세스가 있는지의 여부를 체크한다(단계 201). 액세스가 없는 경우, 스타트로 복귀한다. 액세스가 있는 경우, 로봇(1)의 CM 동작 프로그램을 자동 다운로드하도록 Java 언어에 의해 프로그램된 Aplet이 기업 홈페이지(23)에 존재하는지의 여부를 검색한다(단계 202). Aplet이 존재하지 않은 경우, 과정은 스타트로 복귀된다. Aplet이 존재하는 경우, Aplet(Java/program)를 자동 다운로드한다(단계 203).
계속해서, Aplet를 자동 실행시켜, 과정은 스타트로 복귀된다(단계 204). 휴대 전화기(2)에 다운로드된 로봇(1)의 CM 동작 프로그램은 적외선 데이터 통신(IrDA)에 의해 로봇(1)으로 자동 다운로드된다(단계 205).
로봇측에서는, 통상 자율 모드로 사전에 가지고 있는 동작 프로그램에 의해 자유롭게 행동을 일으키는 자율 동작 상태에 있다(단계 206). 전술한 Aplet에 의한 자동 다운로드에 의해, 로봇(1)이 새로운 동작 프로그램을 로봇측에서 수신했는지의 여부를 체크한다(단계 207). 새로운 동작 프로그램이 수신되지 않은 경우, 과정은 스타트로 복귀된다.
새로운 동작 프로그램이 수신되어 있는 경우, 휴대 전화기(2)로부터 수신한 새로운 CM 동작 프로그램을 메모리(플래시 메모리 등의 ROM) 상에 세트(저장)한다(단계 208). 또한, 세트된 CM 동작 프로그램은 시간 등의 동작 조건을 클리어(만족)하면(단계 209), CM 동작 프로그램의 내용이 해석되어, 실제의 동작을 일으키기 위해 필요한 정보로 변환하여 구동 회로에 출력된다(단계 210).
CM 동작 프로그램의 실행이 이루어져 로봇(1)은 실제의 동작을 일으키고(단계 211), 과정은 스타트로 복귀된다. 단계 209에서 동작 조건을 클리어(만족)하지 않은 경우, 과정은 스타트로 복귀된다.
또한, 외부 서버측의 처리에서는 도 13에 그 흐름도가 나타내어져 있다.
외부 서버에서는 휴대 전화기(2)로부터 외부 서버 장치(23)인 기업 등의 홈페이지에의 액세스의 유무를 체크한다(단계 212). 액세스가 없는 경우, 과정은 스타트로 복귀된다. 액세스가 있는 경우, Aplet를 포함하는 홈페이지 데이터를 다운로드하고(단계 213), 과정은 스타트로 복귀된다.
이상의 동작 흐름에 따라, 기업 홈페이지 등의 외부 서버 장치(23) 상에 있는 로봇용의 CM 동작 프로그램은 자동으로 로봇(1)까지 다운로드된다. 다운로드된 동작 프로그램은 로봇(1)의 내부에 설치한 기억부(메모리)에 일단 저장되어, 조건에 따라 실행되거나 혹은 다운로드와 동시에 실시간으로 실행하거나 하는 것이 가능하다.
또한, 도 3에 나타내는 상기 하드웨어의 컨피그레이션을, 도 14에 나타내는 동작 흐름도에 따라 이하에 설명한다.
우선, 메인 컨트롤 보드(25)에 탑재한 메모리(31) 상에 있는 하드웨어의 컨피그레이션의 변경이 필요한지의 여부를 CPU(16)에 의해 판단한다(단계 221). 변경이 필요한 경우, 각종 통신 인터페이스(20)를 통해 통신 단말(27)로부터 CPU(16)를 경유하여 최신 데이터를 메모리(31) 상에 다운로드한다(단계 222). 이 데이터는, 전술한 플래시 메모리 등의 불휘발성 메모리부에 다운로드함으로써, 다음 전원 투입 시에 하드웨어의 변경이 필요없으면, 다운로드없이 그 데이터로 FPGA(29)의 컨피그레이션이 가능하게 된다(단계 221에서 변경이 필요없는 경우에 상당).
단계 222에서 다운로드 종료 혹은 사전에 불휘발성 메모리부에 저장되어 있던 데이터에 의해 FPGA(29)의 컨피그레이션 준비가 완료되면, 메인 컨트롤 보드(25) 상의 FPGA(29)로부터 순서대로 전용 제어 신호 버스(28)를 이용하여 컨피그레이션을 행한다(단계 223).
단계 223에서 컨피그레이션이 완료되어 하드웨어 구성이 결정되면, 통상의 마이크로 컴퓨터 기기와 마찬가지로 하드웨어에 의존하는 소프트웨어부의 초기화가 행해진다(단계 224). 그 후 하드웨어에 따른 어플리케이션 소프트의 프로그램이 실행된다(단계 225).
FPGA용의 컨피그레이션 데이터는 반드시 하나일 필요는 없다. 불휘발성 메모리부 상에 복수의 컨피그레이션 데이터를 두는 것도 가능하다. 또한, 컨피그레이션에 이용하는 데이터를 선택적으로 이용할 수도 있다.
어플리케이션 소프트 프로그램의 실행 시에도 하드웨어의 변경은 가능하다. 이 때문에, 예를 들면 어플리케이션 상에서 변경의 요구가 있으면(단계 226), 단계 222로 복귀하여 다른 데이터를 다운로드하거나, 또는 메모리(31) 상에서 다른 데이터로 컨피그레이션을 행한다.
외부 접속 보드(32)에 탑재되어 있는 FPGA(26)에서의 하드웨어의 컨피그레이션을 행하는 동작 흐름도는 도 14와 마찬가지로 하여 그 설명을 생략한다.
이상과 같은 구성에 의해, 휴대 전화기(2)가 통화 상태인 경우, 로봇(1)은 사용자와 마주 향하도록 이동하면서, 통화 상대의 음성에 맞추어 입(11a)을 개폐하거나, 수긍하는 동작을 행하기도 하고, 마치 사용자와 대화하는 것처럼 행동한다. 휴대 전화기(2)가 비통화 상태인 경우, 로봇(1)은 사용자와 마주 향하도록 이동하면서, 사용자의 음성에 맞추어 수긍하거나, 맞장구치거나, 마치 사용자의 이야기를 듣고 있는 것처럼 행동한다. 또한 기업 홈페이지 등의 외부 서버 장치(23) 상에 있는 로봇용의 동작 프로그램을 다운로드함으로써, 로봇(1)은 완전히 새로운 동작을 행할 수 있다.
<실시예 2>
도 15는, 본 발명에 따른 로봇 시스템의 실시예2의 주요부의 구성을 나타내는 모식도이다. 본 실시예2의 로봇 시스템은, 로봇(1)과, 통신 장치로서 기능하는 컴퓨터(3)와, 휴대 전화기(4)를 구비하고 있다. 로봇(1)은, PHS 데이터 통신 또는 블루투스(bluetooth) 등의 통신 기능을 갖는 무선 통신부(110)를 구비하고 있다.
도 16은, 본 실시예2에 따른 로봇(1)의 구성을 나타내는 블록도이다. 로봇(1)은 무선 통신부(110)에 의해 수신한 커맨드 데이터에 따라, CPU(16)로부터 구동 회로(17, 17, …, 17)에 제어 신호를 출력한다. 이에 따라 로봇(1)의 원격 조작이 가능해진다. 도 17은, 로봇(1)의 커맨드 데이터의 일례를 나타낸다. 커맨드 데이터는 ASCII 코드에 의한 텍스트 커맨드와, 이동량, 이동 속도, 회전 각도, 및 회전 각속도 등을 나타내는 파라미터와의 조합으로 구성된다. 예를 들면, "MWSB 20 10"이라는 커맨드 데이터에서는 "MWSB"는 로봇(1)의 차륜을 구동하여 후퇴라는 동작을 나타내는 텍스트 커맨드이고, "20"은 이동량을, "10"은 이동 속도를 나타내는 파라미터이다. 따라서 이 커맨드 데이터는 10의 속도로 20의 거리의 후퇴를 지시한다.
도 17에서 보행이란, 로봇(1)의 다리부에 설치한 차륜을, 회전 및 정지를 소정 시간마다 반복하도록 동작시켜, 로봇(1)이 보행하는 것처럼 동작하는 것을 나타낸 것이다.
복수의 커맨드 데이터를 ":"로 연결하고, 최후의 커맨드 데이터 뒤에 ";"를 추가함으로써, 복수의 동작을 행하는 동작 프로그램을 작성할 수 있다. 예를 들면, "WSB 20 10 : WW : D 100 : MNR 10 10;"이라는 동작 프로그램에 대하여 설명한다.
이 동작 프로그램은, 10의 속도로 20의 거리만큼 후퇴한 후, 100의 시간만큼 정지하고, 계속해서 10의 속도로 10의 이동량만큼 목을 하측으로 기울이는 것같은 동작을 나타낸다.
본 실시예2에 따른 로봇(1)의 그 밖의 구성은, 실시예1에 따른 로봇(1)의 구성과 마찬가지이므로, 동일한 부호를 붙여 그 설명을 생략한다.
도 18은, 컴퓨터(3)의 구성을 나타내는 블록도이다. 컴퓨터(3)는 CPU(31)와, 그 CPU(31)에 실행시키는 프로그램 및 그 프로그램에서 사용하는 데이터 등이 저장되어 있는 ROM(32)과, CPU(31)가 프로그램의 실행 시에 일시적으로 발생하는 데이터를 저장하는 RAM(33)과, CPU(31)에 실행시키는 프로그램 및 그 프로그램에서 사용하는 데이터 등이 저장되어 있는 하드디스크 장치(34)와, 입출력 인터페이스(35)를 구비하고 있다. 입출력 인터페이스(35)에는 로봇(1)의 무선 통신부(110)와 통신하는 것이 가능한 무선 통신기(35a), 전화 회선에 접속된 모뎀(35b), CRT 또는 LCD 등의 표시 장치(35c), 및 키보드 및 마우스 등의 입력 장치(35d)가 접속되어 있다.
컴퓨터(3)는 모뎀(35b)을 통해 인터넷 접속 업자 등이 구비하는 컴퓨터(5)와 다이얼 업 접속하는 것이 가능하다. 따라서 컴퓨터(3)는 인터넷(6)에 접속할 수 있다. 컴퓨터(3)는 하드디스크 장치(34)에 WWW 서버 프로그램을 저장하고 있다. 그 WWW 서버 프로그램을 RAM(33)에 로드함으로써, 컴퓨터(3)는 인터넷(6)을 통해 접속된 WWW 클라이언트 프로그램이 실행되어 있는 다른 컴퓨터 및 휴대 전화기 등으로부터의 요구에 따라, 하드디스크 장치(34)에 저장되어 있는 HTML 데이터 및 화상 데이터 등을 상기 컴퓨터 및 휴대 전화기 등에 송신할 수 있다.
휴대 전화기(4)는 CPU, ROM, 및 RAM 등을 내장하고 있다(도시하지 않음). 휴대 전화기(4)는 전기 통신 사업자가 구비하는 컴퓨터(7)를 통해 인터넷(6)에 접속할 수 있다. ROM 내에는 WWW 클라이언트 프로그램이 저장되어 있다. 그 WWW 클라이언트 프로그램을 CPU에서 실행함으로써, 휴대 전화기(4)는 인터넷(6)에 접속된 컴퓨터에 대하여 HTML 데이터 및 화상 데이터 등을 요구하고, 요구한 HTML 데이터 및 화상 데이터를 수신할 수 있어, 수신한 데이터에 따른 화면을 LCD에 표시할 수 있다.
도 19, 도 20, 도 21 및 도 22는 본 실시예2에 따른 로봇 시스템의 동작 흐름을 나타내는 플로우차트이다. 사용자는, 가옥 내의 상황을 감시하고 싶을 때, 휴대 전화기(4)를 조작하여, 컴퓨터(3)를 호출한다. 휴대 전화기(4)는 사용자로부터의 조작을 접수하고, 컴퓨터(3)에 대하여 호출 신호를 송신한다(단계 301). 컴퓨터(3)는 모뎀(35b)을 통해 휴대 전화기(4)로부터의 호출 신호를 수신하고(단계 302), 통화를 개시한다(단계 303). 계속해서, 「인터넷에 접속합니다. 전자 메일의 회신을 대기해 주십시오.」라는 음성의 음성 신호를, 휴대 전화기(4)에 송신한다(단계 304). 휴대 전화기(4)가 그 음성 신호를 수신하고(단계 305), 내장하는 스피커로부터 음성을 출력한다. 컴퓨터(3)는 통화를 종료시킨다(단계 306).
이어서, 컴퓨터(3)는, 컴퓨터(5)에 대하여 접속 요구 신호를 송신하고, 인터넷(6)으로의 접속을 행한다(단계 307). 컴퓨터(3)는 인터넷(6)에 접속된 상태에서 컴퓨터(3)의 HTML 데이터의 기억 위치를 나타내는 URL을 포함하는 텍스트 데이터로 이루어지는 전자 메일을, 휴대 전화기(4)에 대응된 메일 어드레스처로 송신한다(단계 308).
본 실시예2에서는 휴대 전화기(4)로부터의 호출이 컴퓨터(3)에 대하여 행해진 경우에, 상기 전자 메일을 송신하는 구성으로 했지만, 이것에 한하는 것이 아니다. 예를 들면, 로봇(1)이 CCD 카메라(12f)의 촬상 화상에 화상 처리를 실시함으로써, 가옥 내에 침입자가 있는 등의 이상을 검출하고, 이상을 검출한 경우에 로봇(1)으로부터 컴퓨터(3)로 상기 전자 메일의 송신을 요구하고, 이것을 받은 컴퓨터(3)가 상기 전자 메일을 송신하는 구성으로 해도 상관없다.
로봇(1)은, 통상 자율적으로 동작을 행하도록 동작 제어가 행해지고 있다. 상세하게 설명하면, 로봇(1)은 CCD 카메라(12f)에 의한 촬상 화상에 화상 처리를 행하고, 촬상된 인간 등의 검출을 행하고 있다. 소정 시간 내에 인간 등이 검출되지 않은 경우에, 로봇(1)은 대기 상태로 이행하여, 컴퓨터(3)로부터의 신호의 수신을 대기하고 있다.
컴퓨터(3)는 화상 데이터의 송신 요구를 나타내는 화상 데이터 요구 신호를 로봇(1)으로 송신한다(단계 309). 그 화상 데이터 요구 신호를 로봇(1)이 수신하고(단계 310), CCD 카메라(12f)에 의해 화상 데이터를 취득한다(단계 311). 로봇(1)은 취득한 화상 데이터를 컴퓨터(3)로 송신한다(단계 312).
컴퓨터(3)는 화상 데이터를 수신하고(단계 313), 이 화상 데이터를 휴대 전화기(4)의 WWW 클라이언트 프로그램으로 표시 가능한 형식의 화상 데이터(JPEG 형식, GIFF 형식 등)로 변환하여, 하드디스크 장치(34)에 기억시킨다(단계 314).
휴대 전화기(4)는 전자 메일을 수신한다(단계 315). 사용자가 휴대 전화기(4)를 조작하고, 이 전자 메일에 포함되어 있는 URL을 선택했을 때, 휴대 전화기(4)는 컴퓨터(3)로 HTML 데이터의 송신 요구를 나타내는 HTML 데이터 요구 신호를 송신한다(단계 316). 컴퓨터(3)는, HTML 데이터 요구 신호를 수신한다(단계 317). 소정 시간 내에 HTML 요구 신호를 수신하지 않은 경우에는 컴퓨터(5)와의 접속을 종료하고(단계 318), 과정은 종료한다.
소정 시간 내에 HTML 요구 신호를 수신한 경우, 컴퓨터(3)는 하드디스크 장치(34)에 기억되어 있는 HTML 데이터, 및 그 HTML 데이터에 의해 나타내는 하드디스크 장치(34) 내의 위치에 기억되어 있는 화상 데이터를 휴대 전화기(4)에 송신한다(단계 319).
휴대 전화기(4)는 HTML 데이터 및 화상 데이터를 수신하고(단계 320), 수신한 데이터에 따른 화면을 LCD에 표시한다(단계 321). 화면에는, 로봇(1)의 동작을 지시하는 복수의 버튼이 표시된다. 예를 들면, 사용자가 휴대 전화기(4)를 조작함으로써 하나의 버튼을 선택하고, 이 버튼을 누르도록 지시했을 때, 로봇(1)에 대하여 우측 방향으로의 회전을 지시하는 동작 지시 데이터가 컴퓨터(3)에 송신된다. 사용자가 이러한 로봇(1)의 동작 지시를 행했을 때, 휴대 전화기(4)는 이 동작 지시를 나타내는 동작 지시 데이터를 컴퓨터(3)로 송신한다(단계 322).
컴퓨터(3)는 휴대 전화기(4)로부터 동작 지시 데이터를 수신하고(단계 323), 그 동작 지시 데이터를 상술한 바와 같은 커맨드 데이터 또는 동작 프로그램으로 변환하고(단계 324), 이 데이터를 로봇(1)으로 송신한다(단계 325). 로봇(1)은 그 데이터를 수신하고(단계 326), 수신한 데이터에 따른 동작을 행한다(단계 327). 동작 종료 후, 로봇(1)은 동작 종료를 나타내는 동작 종료 신호를 컴퓨터(3)로 송신한다(단계 328). 그 동작 종료 신호를 컴퓨터(3)가 수신한다(단계 329). 컴퓨터(3)는 로봇(1)의 동작 종료를 나타내는 동작 종료 데이터를 휴대 전화기(4)로 송신한다(단계 330). 휴대 전화기(4)는 그 동작 종료 데이터를 수신하고(단계 331), 단계 321로 복귀하여, 화면 표시를 행한다.
단계 323에서, 컴퓨터(3)가 소정 시간 동작 지시 데이터를 수신하지 않은 경우, 컴퓨터(3)는 로봇(1)으로 화상 데이터 요구 신호를 송신한다(단계 332). 로봇(1)은 화상 데이터 요구 신호를 수신하고(단계 333), CCD 카메라(12f)에 의해 화상 데이터를 취득하고(단계 334), 취득한 화상 데이터를 컴퓨터(3)로 송신한다(단계 335).
컴퓨터(3)는 화상 데이터를 수신하고(단계 336), 그 화상 데이터를 상술한 형식의 화상 데이터로 변환하여, 하드디스크 장치(34)에 기억하고(단계 337), 그 화상 데이터를 휴대 전화기(4)로 송신한다(단계 338). 휴대 전화기(4)는 이 화상 데이터를 수신하여(단계 339), 그 화상 데이터에 따른 화면에 LCD의 표시를 갱신한다(단계 340).
사용자는 컴퓨터(3)와의 접속을 종료하는 경우, 휴대 전화기(4)를 조작하고, 휴대 전화기(4)에 접속 종료를 나타내는 접속 종료 신호를 송신시킨다(단계 341). 컴퓨터(3)는 이 접속 종료 신호를 수신한 경우(단계 342), 접속을 종료하고(단계 343), 과정을 종료한다. 컴퓨터(3)가 접속 종료 신호를 수신하지 않은 경우, 단계 323로 복귀된다.
본 실시예2에서는, 컴퓨터(3)를 인터넷(6)에 접속하고, 컴퓨터(3)를 통해 휴대 전화기(4)로부터 로봇(1)의 원격 조작을 행하고, 로봇(1)으로부터 휴대전화기(4)에 화상 데이터 등을 송신하는 구성으로 했지만, 이것에 한하는 것이 아니다. 로봇(1)에 모뎀을 내장하고, 또한 로봇(1)의 ROM(16a)에 WWW 서버 프로그램을 기억해 두고, 로봇(1)을 인터넷(6)에 상기 모뎀에 의해 접속하고, 휴대 전화기(4)로부터 로봇(1)의 원격 조작을 행하고, 또한 로봇(1) 내의 RAM(16b)에 CCD 카메라(12f)에 의한 화상 데이터를 저장하여, 그 화상 데이터를 휴대 전화기(4)로 다운로드하는 구성으로 해도 된다.
이상과 같은 구성에 의해, 예를 들면 어린이 또는 간호가 필요한 노인 등을 집에 남겨두고 사용자가 외출했을 때에, 외출한 곳으로부터 사용자가 휴대 전화기(4)를 이용하여 로봇(1)을 원격 조작하여, 로봇(1)의 CCD 카메라(12f)에 의한 촬상 화상을 휴대 전화기(4)로 확인함으로써, 사용자가 가옥 내의 상태를 알 수 있다.
자율 동작이 가능한 로봇(1)을 이용하여 가옥 내를 감시함으로써, 집에 남겨진 어린이 또는 노인 등이 로봇(1)은 친밀감을 느껴 감시 카메라를 이용하여 가옥 내를 감시하는 경우에 비해 안심할 수 있다.
<실시예 3>
도 23 및 도 24는 본 발명에 따른 로봇의 실시예3의 주요부의 구성을 나타내는 사시도 및 블록도이다. 본 실시예3에 따른 로봇(1)에서, 실시예1에 따른 로봇(1)의 구성과 동일한 부분에 대해서는 동일한 부호를 붙여, 그 설명을 생략한다.
CCD 카메라(12f) 옆에는, 소정 거리 떨어져 적외선 센서(12d)가 설치되어 있다. 적외선 센서(12d)는 A/D 변환기(15d)에 접속되어 있고, 그 A/D 변환기(15d)는 CPU(16)에 접속되어 있다. 적외선 센서(12d)는 주위의 적외선의 량에 따른 아날로그 신호를 출력하고, 그 아날로그 신호가 A/D 변환기(15d)에 의해 디지털 신호로 변환되어, CPU(16)로 제공된다.
도 24에서, 참조 번호 110은, PHS 데이터 통신 또는 블루투스 등의 통신 기능을 갖는 무선 통신부이다. 휴대 전화기(2)는 하루의 사용자의 통화 중 음성 레벨, 착신 이력, 및 발신 이력의 정보(생활 정보)를, 내장하는 RAM(도시하지 않음)에 기억할 수 있다. 또한, 휴대 전화기(2)는 CCD 카메라(도시하지 않음)를 내장하고 있다. 사용자는 휴대 전화기(2)를 조작함으로써, 그 CCD 카메라로 사용자의 얼굴을 촬상한다. 촬상하여 얻은 화상을 휴대 전화기(2)가 구비하는 CPU(도시하지 않음)에 의해 화상 처리를 행하고, 사용자의 안색을 좋음, 보통, 나쁨 3 단계로 평가하여, 평가 결과의 정보(생리 정보)를 상기 RAM에 기억할 수 있다.
휴대 전화기(2)는, 상기 무선 통신부(110)와 통신 가능한 무선 통신부(도시하지 않음)를 구비하고 있으며, 기억한 음성 레벨, 착신 이력, 및 발신 이력, 및 사용자의 안색의 정보를 로봇(1)으로 송신할 수 있다.
도면 중 참조 번호 8은, 사용자의 걸음 수를 계수하는 만보계이다. 만보계(8)는 계수한 하루의 걸음 수의 정보(생활 정보)를 기억한다. 만보계(8)는 또한, 상기 무선 통신부(110)와 통신하는 것이 가능한 무선 통신부(도시하지 않음)를 구비하고 있으며, 기억한 걸음 수의 정보를 로봇(1)으로 송신할 수 있다.
도면 중 참조 번호 4는, 사용자의 신체에 장착하는 것이 가능한웨어러블(wearable) 센서이다. 웨어러블 센서(9)는 사용자의 심박수(생리량)를 계측할 수 있다. 심박수의 계측이 행해졌을 때, 웨어러블 센서(9)에 내장되어 있는 CPU(도시하지 않음)에 의해 심박수가 정상인지의 여부를 판단한다. 구체적으로는, 정상 심박수의 범위가 사전에 정해져 있다. 계측한 심박수가 그 범위 내인 경우에는, 심박수가 정상이라고 판단한다. 계측한 심박수가 그 범위 외인 경우에는, 심박수가 이상이라고 판단한다. 웨어러블 센서(9)도, 상기 무선 통신부(110)와 통신하는 것이 가능한 무선 통신부(도시하지 않음)를 구비하고 있고, 심박수가 이상이라고 판단되었을 때, 로봇(1)에게 심박수의 이상을 나타내는 데이터(생리 정보)를 송신한다.
로봇(1)의 CPU(16)는, 휴대 전화기(2) 또는 만보계(8)가 무선 통신기(110)의 통신 가능 범위에 들어온 것을 검출할 수 있게 되어 있다.
로봇(1)의 RAM(16b)에는 로봇(1)이 사용되는 건물 내의 지도 데이터가 사전에 기억되어 있다. 동체부(12)의 하부에는, 로봇(1)의 이동에 이용되는 차륜의 회전을 검출하는 로터리 인코더(도시하지 않음)가 설치되어 있다. CPU(16)는 로터리 인코더의 출력으로부터 이동 거리 및 이동 방향을 검출할 수 있기 때문에, 이 이동 거리 및 이동 방향과, 상기 지도 데이터에 기초하여, 로봇(1)의 현재 위치를 검출할 수 있다.
도 25는, 본 발명에 따른 로봇의 실시예3의 CPU(16)의 처리 수순을 나타내는 흐름도이다. 우선, CPU(16)는 휴대 전화기(2) 또는 만보계(8)가 무선 통신기(110)의 통신 가능 범위에 포함되는지의 여부를 판별한다(단계 401). 휴대 전화기(2)가상기 통신 가능 범위에 포함된 경우에는, 후술하는 제1 제어 처리를 행한다(단계 402). 만보계(8)가 상기 통신 가능 범위에 포함되는 경우에는, 후술하는 제2 제어 처리를 행한다(단계 403). 휴대 전화기(2) 및 만보계(8)의 어느 하나도 상기 통신 가능 범위에 포함되지 않은 경우에는, 무선 통신부(110)가 웨어러블 센서(9)로부터 심박수의 이상을 나타내는 데이터를 수신했는지의 여부를 판별한다(단계 404). 상기 데이터가 수신되지 않을 때, 단계 401로 복귀된다. 상기 데이터가 수신되었을 때, 후술하는 제3 제어 처리가 행해지며(단계 405), 과정은 종료한다.
도 26은, CPU(16)의 제1 제어 처리의 처리 수순을 나타내는 흐름도이다. CPU(16)는 휴대 전화기(2)로 정보의 송신을 요구하는 신호를 무선 통신부(110)에 송신시킨다(단계 411). 휴대 전화기(2)는 상기 신호를 수신했을 때, 음성 레벨, 착신 이력, 및 발신 이력, 및 사용자의 안색의 정보를 로봇(1)으로 송신한다. 상기 정보를 무선 통신부(110)가 수신한 후, 그 정보를 CPU(16)가 접수한다(단계 412).
이어서, 사용자의 하루 활동의 정도를 나타내는 카운터 C를 0으로 세트한다(단계 413). 수신한 정보에 포함되는 음성 레벨로부터, 사용자의 통화 시의 소리의 크기를 판단한다. 이 판단에 따라 상기 카운터 C를 갱신한다(단계 414). 구체적으로는, 소리의 크기가 보통일 때의 음성 레벨의 범위를 사전에 정해둔다. 수신한 정보에 포함되는 음성 레벨이 상기 범위 내에 포함되는 경우에는, 보통의 소리의 크기라고 판단하여 카운터 C를 변경하지 않는다. 상기 음성 레벨이 상기 범위를 상회하는 경우에는, 소리가 크다고 판단하여 카운터 C에 1을 더한다. 상기 음성레벨이 상기 범위를 하회하는 경우에는, 소리가 작다고 판단하여 카운터 C에서 1을 감소시킨다.
또한, 수신한 정보에 포함되는 착신 이력으로부터, 하루의 휴대 전화기(2)의 착신 수가 많음을 판단한다. 이 판단에 따라 상기 카운터 C를 갱신한다(단계 415). 구체적으로는, 보통일 때의 착신 수의 범위를 사전에 정해 둔다. 수신한 정보에 포함되는 착신 이력으로부터 착신 수를 얻는다. 착신 수가 상기 범위 내에 포함되는 경우에는, 보통의 착신 수라고 판단하여 카운터 C를 변경하지 않는다. 착신 수가 상기 범위를 상회하는 경우에는, 착신 수가 많다고 판단하여 카운터 C에 1을 더한다. 착신 수가 상기 범위를 하회하는 경우에는 착신 수가 적다고 판단하여 카운터 C에서 1을 감소시킨다.
마찬가지로, 수신한 정보에 포함되는 발신 이력으로부터, 하루의 휴대 전화기(2)의 발신 수가 많음을 판단한다. 이 판단에 따라서 상기 카운터 C를 갱신한다(단계 416). 구체적으로는, 보통일 때의 발신 수의 범위를 사전에 정해 둔다.
수신한 정보에 포함되는 발신 이력으로부터 발신 수를 얻는다. 발신 수가 상기 범위 내에 포함되는 경우에는, 보통의 발신 수라고 판단하여 카운터 C를 변경하지 않는다. 발신 수가 상기 범위를 상회하는 경우에는, 발신 수가 많다고 판단하여 카운터 C에 1을 더한다. 발신 수가 상기 범위를 하회하는 경우에는, 발신 수가 적다고 판단하여 카운터 C에서 1을 감소시킨다.
또한, 수신한 정보에 포함되는 안색의 정보에 따라 상기 카운터 C를 갱신한다(단계 417). 구체적으로는, 수신한 정보에 포함되는 안색의 정보가, 안색이 보통이라고 평가된 결과를 나타내는 경우에는, 카운터 C를 변경하지 않는다. 상기 안색의 정보가, 안색이 좋다고 평가된 결과를 나타내는 경우에는, 카운터 C에 1을 더한다. 상기 안색의 정보가, 안색이 나쁘다고 평가된 결과를 나타낸 경우에는, 카운터 C에서 1을 감소시킨다.
카운터 C의 크기를 판별한다(단계 418). C>0인 경우에는, 사용자가 활동적으로 하루를 지낸다고 판단한다. 이 경우, 「즐거운 하루였습니다」라는 음성을 출력시켜, 마치 춤추고 있는 것처럼 행동하도록 음성 재생 회로(19) 및 구동 회로(17, 17, …)로 제어 신호를 출력하고(단계 419), 리턴한다.
단계 418에서 C=0인 경우에는, 사용자가 보통으로 하루를 지냈다고 판단한다. 이 경우, 「평소와 다름없는 하루였어요. 내일은 즐거운 하루일거예요」라는 음성을 출력시키도록, 음성 재생 회로(19)로 제어 신호를 출력하고(단계 420), 리턴한다.
단계 418에서, C<0인 경우에는, 사용자가 활동적으로 하루를 지낼 수 없다고 판단한다. 이 경우, 「내일은 즐거운 하루일 겁니다」라는 음성을 출력시키고, 상술한 수긍 동작을 행하도록 음성 재생 회로(19) 및 구동 회로(17, 17, …)에 제어 신호를 출력하고(단계 421), 리턴한다.
도 27은, CPU(16)의 제2 제어 처리의 처리 수순을 나타내는 흐름도이다. 우선, 만보계(8)로 정보의 송신을 요구하는 신호를 무선 통신부(110)에 송신시킨다(단계 431). 만보계(8)는 상기 신호를 수신했을 때, 하루의 걸음 수의 정보를로봇(1)으로 송신한다. 상기 정보를 무선 통신부(110)가 수신한 후, 그 정보를 CPU(16)가 접수한다(단계 432).
수신한 정보로부터, 사용자의 하루의 걸음 수의 많음을 판단한다(단계 433). 구체적으로는, 보통일 때의 하루의 걸음 수가 많은 범위를 사전에 정해 둔다. 수신한 정보에 포함되는 걸음 수가 상기 범위 내에 포함되는 경우에는 보통의 걸음 수라고 판단한다. 걸음 수가 상기 범위를 상회하는 경우에는, 걸음 수가 많다고 판단한다. 걸음 수가 상기 범위를 하회하는 경우에는, 걸음 수가 적다고 판단한다.
단계 433에서, 걸음 수가 많다고 판단한 경우에는, 「많이 걸었군요」라는 음성을 출력시키고, 마치 춤추는 것처럼 행동하도록 음성 재생 회로(19) 및 구동 회로(17, 17, …)로 제어 신호를 출력하여(단계 434), 리턴한다.
단계 433에서, 보통의 걸음 수라고 판단한 경우에는, 「보통의 걸음 수였습니다. 내일은 더 걸읍시다」라는 음성을 출력시키도록, 음성 재생 회로(19)에 제어 신호를 출력하고(단계 435), 리턴한다.
단계 433에서, 걸음 수가 적다고 판단한 경우에는, 「운동량이 부족합니다. 내일은 더 걸읍시다」라는 음성을 출력시키고, 상술한 수긍 동작을 행하게 하도록 음성 재생 회로(19) 및 구동 회로(17, 17, …)로 제어 신호를 출력하고(단계 436), 리턴한다.
도 28은, CPU(16)의 제3 제어 처리의 처리 수순을 나타내는 흐름도이다. 제3 제어 처리가 CPU(16)에 의해 실행되는 것은, 무선 통신부(110)가 웨어러블 센서(9)로부터 심박수의 이상을 나타내는 데이터를 수신한 경우이다. 따라서, 이 경우, 사용자는 흥분 상태라고 추정할 수 있다. 사용자의 정신 상태가 흥분 상태가 되는 원인으로서는, 예를 들면 화재의 발생을 생각할 수 있다. 그래서, 제3 제어 처리에서는, 이하에 설명한 바와 같이 화재의 발생을 검출하여, 이것에 따른 동작을 로봇(1)에게 행하게 한다. 우선, 적외선 센서(12d)의 적외선의 검출량에 기초하여, 화재가 발생했는지의 여부를 판별한다(단계 441). 구체적으로 설명하면, 상기 적외선 검출량과 소정의 임계치를 비교한다. 상기 적외선 검출량이 상기 임계치를 넘는 경우에는 화재가 발생했다고 판별한다. 상기 적외선의 검출량이 상기 임계치를 넘지 않은 경우에는 화재가 발생하지 않았다고 판별한다. 화재가 발생하지 않았다고 판별한 경우에는, 「침착해 주세요」 라는 음성을 출력시키도록, 음성 재생 회로(19)로 제어 신호를 출력하고(단계 442), 리턴한다.
단계 441에서, 화재가 발생한다고 판별한 경우에는 CPU(16)가 검출한 현재 위치와, RAM(16b)에 기억되어 있는 지도 데이터를 이용하여, 현재 위치에서 건물의 비상구까지의 최단 경로(피난 경로)를 산출한다(단계 443). 계속해서, 「비상구로 유도하겠습니다」라는 음성을 반복하여 출력시켜, 상기 피난 경로에 따라 이동시키도록, 음성 재생 회로(19) 및 구동 회로(17, 17, …)로 제어 신호를 출력하고(단계 444), 리턴한다.
본 실시예3에서는, 사용자의 휴대 전화기(2)로의 통화 시의 음성 레벨, 휴대 전화기(2)의 착신 이력 및 발신 이력의 정보(생활 정보)를, 휴대 전화기(2)로 수집하여, 사용자의 하루중의 걸음 수의 정보(생활 정보)를 만보계(8)로 수집하고, 이들 정보에 기초하여, 로봇(1)의 제어를 행하는 구성에 대하여 설명했지만, 이것에 한정되는 것은 아니다. 예를 들면, 휴대 전화기(2)의 전자 메일의 송신 이력 및 수신 이력과 같은, 상기 음성 레벨, 착신 이력 및 발신 이력, 및 걸음 수와는 다른 사용자의 생활 정보를, 휴대 전화기(2)로 수집하고, 이 생활 정보에 기초하여, 로봇(1)의 제어를 행하는 구성이라도 좋다.
본 실시예3에서는, 사용자의 심박수의 정보(생리 정보)를 웨어러블 센서(9)로 수집하고, 이 생리 정보에 기초하여 로봇(1)의 제어를 행하는 구성에 대하여 설명했지만, 이것에 한정되는 것은 아니다. 예를 들면, 사용자의 혈압과 같은, 심박수와는 다른 사용자의 생리 정보를 웨어러블 센서(9)로 수집하고, 이 생리 정보에 기초하여 로봇(1)의 제어를 행하는 구성이라도 좋다.
본 실시예3에서는, 제3 제어 처리로써 화재의 발생을 검출하고, 화재가 발생한다고 판별한 경우에, 사용자를 비상구까지 유도하는 구성에 대하여 진술했지만, 이것에 한정되는 것은 아니다. 예를 들면, 사용자의 심박수가 이상하면, 사용자의 용태가 급변했다고 판단하여, 주위의 사람에게 이것을 통지하는 구성으로 해도 된다.
<실시예4>
도 29는, 본 발명에 따른 로봇의 실시예4의 주요부의 구성을 나타내는 블록도이다. 도면에서, 참조 번호 10은 공기 조화기, 참조 번호 11은 텔레비전 수상기이다. 공기 조화기(10) 및 텔레비전 수상기(11)에는 각각 PHS 데이터 통신 또는 블루투스 등의 통신 기능을 갖는 무선 통신부(도시하지 않음)를 내장하고 있다.따라서 공기 조화기(10) 및 텔레비전 수상기(11)는 그 무선 통신부에 의해 로봇(1)이 구비하는 무선 통신부(110)와 통신할 수 있다.
공기 조화기(10) 및 텔레비전 수상기(11)는 사용자에 의해 조작되었을 때에, 이 조작의 내용, 예를 들면 냉방의 운전 개시, 또는 방송 채널의 지정 등에 따른 데이터를 상기 무선 통신부에서 송신하도록 되어 있다. 또한 텔레비전 수상기(11)는, 예를 들면 방송 위성에 의한 데이터 방송에 의해 일기 예보에 관한 데이터를 수신했을 때, 사용자의 조작에 따라 그 데이터를 무선 통신부로부터 송신할 수 있게 되어 있다.
공기 조화기(10) 및 텔레비전 수상기(11)에는 필터의 눈 막힘 또는 고장 등이 발생했을 때, 점등하여 이것을 사용자에게 통지하는 표시부가 설치되어 있다. 필터의 눈 막힘 또는 고장 등의 발생시에는, 그 표시부를 점등함과 함께, 무선 통신부로부터 이들을 통지하는 신호가 송신된다.
로봇(1)에는, ROM(16a) 내에 공기 조화기(10) 및 텔레비전 수상기(11)를 조작하기 위한 조작 데이터가 저장되어 있다. 로봇(1)에, 그 조작 데이터를 무선 통신부(110)로부터 송신함으로써, 공기 조화기(10) 및 텔레비전 수상기(11)를 원격 조작할 수 있다.
본 실시예4에 따른 로봇(1)의 그 밖의 구성은, 실시예3에 따른 로봇(1)의 구성과 마찬가지이므로, 동일한 부호를 붙여, 그 설명을 생략한다.
이어서, 공기 조화기(10) 또는 텔레비전 수상기(11)에 필터의 눈 막힘 또는 고장 등이 발생한 경우의 로봇(1)의 동작을 설명한다. 공기 조화기(10)의 필터에눈 막힘이 발생했을 때, 또는 공기 조화기(10) 혹은 텔레비전 수상기(11)에 고장이 발생했을 때, 공기 조화기(10) 또는 텔레비전 수상기(11)로부터, 장치의 상태를 통지하는 신호가 송신된다. 송신된 신호는 무선 통신부(110)에 의해 수신되어, CPU(16)에 제공된다. CPU(16)는 이들의 신호에 따른 음성을 스피커(12c)로부터 출력시키도록, 상기 신호에 따른 제어 신호를, 음성 재생 회로(19)로 출력한다. 제어 신호에 따른 음성 신호가 음성 재생 회로(19)로부터 출력된 후, 스피커(12c)로부터 음성이 출력된다.
사용자가 떨어진 장소에 있는 경우, 로봇(1)은 사용자의 근방까지 이동하여, 사용자에게 공기 조화기(10)의 필터의 눈 막힘, 또는 공기 조화기(10) 혹은 텔레비전 수상기(11)의 고장의 발생을 사용자에게 통지한다.
이어서, 공기 조화기(10) 또는 텔레비전 수상기(11)의 원격 조작을 행하는 경우의 로봇(1)의 동작을 설명한다. 공기 조화기(10) 또는 텔레비전 수상기(11)에 대하여, 사용자가 조작을 행했을 때, 공기 조화기(10) 또는 텔레비전 수상기(11)는 이 조작의 내용을 나타내는 데이터를 무선 통신부로부터 송신한다. 송신된 데이터는 로봇(1)의 무선 통신부(110)에 의해 수신되어, CPU(16)로 제공된다.
CPU(16)는 이러한 데이터를 RAM(16b)에 저장하고, 이하에 설명하는 처리를 행하여, 공기 조화기(10) 및 텔레비전 수상기(11)의 원격 조작을 행한다. CPU(16)는, 상기 데이터에 기초하여 5일 계속하여 소정 시각의 전후 30분간 동일한 조작이 행해졌는지, 예를 들면 5일 계속하여 6시 45분부터 7시 15분 사이에, 공기 조화기(10)에 대하여 냉방의 운전이 개시되었는지를 판단한다.
예를 들면, 5일 계속하여 6시 45분으로부터 7시 15분 사이에, 공기 조화기(10)에 대하여 냉방의 운전이 개시된 경우, 5일 계속하여 7시에 공기 조화기(10)에 대하여 냉방의 운전이 개시된 것으로 간주하여, 7시까지 대기한다. CPU(16)는 7시에 무선 통신부(10)로부터 공기 조화기(10)에 냉방의 운전 개시를 지시하는 조작 데이터를 송신하여, 공기 조화기(10)를 원격 조작한다.
도 30은, 로봇(1)이 텔레비전 수상기(11)를 원격 조작할 때의 CPU(16)의 처리 수순의 일례를 나타내는 흐름도이다. 전술한 처리에 의해, 5일 계속하여, 동일한 시각에 동일한 데이터 방송의 데이터가 수신됐다고 간주된 경우, 상기 시각에 도달했는지의 여부를 판별한다(단계 501). 상기 시각에 도달하지 않은 경우, 단계 501을 반복한다. 상기 시각에 도달한 경우, 무선 통신부(110)로부터 텔레비전 수상기(11)로 상기 데이터 방송의 데이터의 수신을 지시하는 조작 데이터를 송신시킴과 함께(단계 502), 무선 통신부(110)로부터 텔레비전 수상기(11)로, 텔레비전 수상기(11)가 수신한 데이터의 송신을 지시하는 조작 데이터를 송신시킨다(단계 503).
텔레비전 수상기(11)는, 무선 통신부에 의해 이들 조작 데이터를 수신하고, 그 조작 데이터에 따라 동작한다. 텔레비전 수상기(11)의 무선 통신부에서는 상기 데이터 방송의 데이터가 송신된다. 이 데이터는, 무선 통신부(110)에 의해 수신되어, CPU(16)에 제공된다. CPU(16)는 이 데이터를 접수하고(단계 504), 그 데이터에 의해 나타내는 내용의 음성을 스피커(12c)로부터 출력시키도록, 상기 데이터에 따른 제어 신호를 음성 재생 회로(19)로 출력한다(단계 505). 과정은 종료한다.
이 구성에 의해, 예를 들면 매일 7시에 일기 예보의 데이터를 텔레비전 수상기(11)로 수신하고 있는 경우, 로봇(1)은 7시에 일기 예보의 내용을 통지하는 음성을 출력한다.
본 실시예4에서는, 로봇(1)이 공기 조화기(10) 및 텔레비전 수상기(11)의 필터의 눈 막힘 또는 고장의 발생을 사용자에게 통지하고, 로봇(1)이 공기 조화기(10) 및 텔레비전 수상기(11)의 원격 조작을 행하는 구성에 대하여 설명했지만, 이것에 한정되는 것이 아니다. 로봇(1)은, 예를 들면 냉장고와 같은, 공기 조화기(10) 및 텔레비전 수상기(11)와는 다른 장치의 고장의 발생을 사용자에게 통지하는 구성으로 해도 된다. 또한, 로봇(1)은 예를 들면 공기 청정기와 같은, 공기 조화기(10) 및 텔레비전 수상기(11)와는 다른 장치의 원격 조작을 행하는 구성으로 해도 된다.
본 실시예4에서는, 복수일에 걸쳐, 텔레비전 수상기(11)로써 대략 동일한 시각에 특정한 송신원으로부터 데이터를 수신한 경우에, 상기 복수일 후의 상기 시각에 대응하는 시각에, 텔레비전 수상기(11)에 상기 송신원으로부터 데이터를 수신시켜, 이 데이터에 따른 음성을 로봇(1)이 출력하는 구성에 대하여 설명했지만, 이것에 한정되는 것은 아니다. 복수일에 걸쳐, 예를 들면 라디오 장치와 같은 텔레비전 수상기(11)와는 다른 장치에서 대략 동일한 시각에 특정한 송신원으로부터 데이터를 수신한 경우에, 상기 복수일 후의 상기 시각에 대응하는 시각에, 상기 장치에 상기 송신원으로부터 데이터를 수신시켜, 이 데이터에 따른 음성을 로봇(1)이 출력하는 구성으로 해도 된다.
이상 상세히 설명한 바와 같이, 본 발명의 로봇 및 로봇 시스템은, 사용자(듣는 사람)와 마주 향한 상태에서 마치 말하는 사람처럼 행동할 수 있고, 통신 시에 사용자의 위화감을 경감시킬 수 있다.
본 발명은 그 특징이 본 발명의 정신에 벗어남이 없이 여러가지 형태로 구체화되며, 실시예 역시 실질적이며 한정적이지 않으므로, 본 발명의 범위를 상세한 설명에 의해서가 아닌, 첨부한 청구항에 의해 정의되며, 또한 모든 변형은 청구항의 범위 내에 있으며, 그러한 범위의 등가성 역시 청구항에 포함되도록 의도된다.

Claims (32)

  1. 로봇 시스템에 있어서,
    음성 신호를 수신하고, 수신한 음성 신호에 따른 음성 또는 음성 신호를 출력하는 통신 장치, 및
    로봇을 포함하며,
    상기 로봇은,
    가동부,
    촬상부, 및
    상기 통신 장치로부터 출력되는 음성 또는 음성 신호, 및 상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 가동부의 구동 제어를 행하는 제어부를 포함하는 로봇 시스템.
  2. 로봇 시스템에 있어서,
    음성 신호를 수신하고, 수신한 음성 신호에 따른 음성 또는 음성 신호를 출력하는 통신 장치, 및
    로봇을 포함하며,
    상기 로봇은,
    가동부,
    음성 입력부,
    음성 출력부,
    상기 통신 장치로부터 출력되는 음성 또는 음성 신호에 기초하여, 상기 가동부를 구동 제어하는 제어부, 및
    상기 음성 입력부에 의해 입력된 음성에 기초하여 출력해야 할 음성을 결정하는 음성 결정부를 포함하며,
    상기 음성 출력부는, 상기 음성 결정부에 의해 결정된 음성을 출력하는 로봇 시스템.
  3. 제2항에 있어서,
    상기 로봇은 촬상부를 더 구비하며, 상기 제어부는 상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 가동부의 구동 제어를 행하는 로봇 시스템.
  4. 로봇 시스템에 있어서,
    통신 장치, 및
    로봇을 포함하며,
    상기 통신 장치는,
    외부로부터 상기 가동부의 동작 지시를 나타내는 제1 동작 지시 정보를 수신하는 제1 수신부,
    상기 제1 수신부에 의해 수신한 제1 동작 지시 정보에 따른 제2 동작 지시 정보를 상기 로봇으로 송신하는 제1 송신부,
    상기 로봇으로부터 송신된 화상을 나타내는 제1 화상 정보를 수신하는 제2 수신부, 및
    상기 제2 수신부에 의해 수신한 제1 화상 정보에 따른 제2 화상 정보를 외부로 송신하는 제2 송신부를 포함하고,
    상기 로봇은,
    가동부,
    촬상부,
    상기 통신 장치로부터 송신된 제2 동작 지시 정보를 수신하는 제3 수신부,
    상기 제3 수신부에 의해 수신한 제2 동작 지시 정보에 기초하여, 상기 가동부의 구동 제어를 행하는 제어부, 및
    상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 제1 화상 정보를 상기 통신 장치로 송신하는 제3 송신부를 포함하는 로봇 시스템.
  5. 제1항에 있어서,
    상기 통신 장치는, 외부로부터 상기 가동부의 동작 지시를 나타내는 제1 동작 지시 정보를 수신하는 제1 수신부,
    상기 제1 수신부에 의해 수신한 제1 동작 지시 정보에 따른 제2 동작 지시 정보를 상기 로봇으로 송신하는 제1 송신부,
    상기 로봇으로부터 송신된 화상을 나타내는 제1 화상 정보를 수신하는 제2 수신부, 및
    상기 제2 수신부에 의해 수신한 제1 화상 정보에 따른 제2 화상 정보를 외부로 송신하는 제2 송신부를 더 포함하며,
    상기 로봇은, 상기 통신 장치로부터 송신된 제2 동작 지시 정보를 수신하는 제3 수신부,
    상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 제1 화상 정보를 상기 통신 장치로 송신하는 제3 송신부를 더 포함하고,
    상기 제어부는 상기 제3 수신부에 의해 수신한 제2 동작 지시 정보에 기초하여, 상기 가동부의 구동 제어를 행하는 로봇 시스템.
  6. 제3항에 있어서,
    상기 통신 장치는, 외부로부터 상기 가동부의 동작 지시를 나타내는 제1 동작 지시 정보를 수신하는 제1 수신부,
    상기 제1 수신부에 의해 수신한 제1 동작 지시 정보에 따른 제2 동작 지시 정보를 상기 로봇으로 송신하는 제1 송신부,
    상기 로봇으로부터 송신된 화상을 나타내는 제1 화상 정보를 수신하는 제2 수신부, 및
    상기 제2 수신부에 의해 수신한 제1 화상 정보에 따른 제2 화상 정보를 외부로 송신하는 제2 송신부를 더 포함하고,
    상기 로봇은, 상기 통신 장치로부터 송신된 제2 동작 지시 정보를 수신하는 제3 수신부,
    상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 제1 화상 정보를 상기 통신 장치로 송신하는 제3 송신부를 더 포함하며,
    상기 제어부는, 상기 제3 수신부에 의해 수신한 제2 동작 지시 정보에 기초하여, 상기 가동부의 구동 제어를 행하는 로봇 시스템.
  7. 제3항에 있어서,
    음성 입력부로부터 입력된 음성 신호에 기초하여, 소정 주기에서 입력 음성의 유무를 판별하는 음성 유무 판별부,
    촬상부로부터 입력된 화상 신호에 기초하여, 소정 주기에서 화자가 존재하는지의 여부를 판별하는 화자 존재 유무 판별부, 및
    음성 유무 판별부의 판별 결과 및 화자 존재 유무 판별부의 판별 결과에 기초하여, 로봇의 현재의 대화 상태를 결정하는 결정부를 더 포함하는 로봇 시스템.
  8. 제7항에 있어서,
    촬상부로부터 입력된 화상 신호에 기초하여, 소정 주기에서 주위가 어두워졌는지의 여부를 판별하는 암상태 판별부, 및
    음성 유무 판별부의 판별 결과, 화자 존재 유무 판별부의 판별 결과 및 암상태 판별부의 판별 결과에 기초하여, 로봇의 현재의 대화 상태를 결정하는 결정부를 더 포함하는 로봇 시스템.
  9. 제3항에 있어서,
    음성 입력부로부터 입력된 음성 신호에 기초하여, 감정을 변화시키는 요소를 검출하는 제1 검출부,
    촬상부로부터 입력된 화상 신호에 기초하여, 감정을 변화시키는 요소를 검출하는 제2 검출부, 및
    제1 및 제2 검출부에 의한 판별 결과에 기초하여, 로봇의 감정을 결정하는 결정부를 더 포함하는 로봇 시스템.
  10. 제9항에 있어서,
    제1 검출부는 음성 입력부로부터 입력된 음성 신호에 기초하여, 소정 주기에서 입력 음성의 크기를 판별하는 판별부를 포함하며,
    제2 검출부는 촬상부로부터 입력된 화상 신호에 기초하여, 소정 주기에서 얼굴이 검출됐는지의 여부를 판별하는 판별부를 포함하는 로봇 시스템.
  11. 제3항에 있어서,
    외부로부터의 자극에 기초하여 로봇의 감정을 결정하는 감정 결정부,
    외부로부터의 자극에 기초하여 로봇의 현재의 대화 상태를 결정하는 상태 결정부, 및
    감정 결정부에 의해 판별된 현재의 감정과, 상태 결정부에 의해 결정된 현재의 대화 동작을 로봇에게 행하게 하는 응답 동작 제어부를 더 포함하는 로봇 시스템.
  12. 제11항에 있어서,
    상기 감정 결정부는, 음성 입력부로부터 입력된 음성 신호에 기초하여, 감정을 변화시키는 요소를 검출하는 제1 검출부,
    촬상부로부터 입력된 화상 신호에 기초하여, 감정을 변화시키는 요소를 검출하는 제2 검출부, 및
    제1 및 제2 검출부에 의한 검출 결과에 기초하여, 로봇의 감정을 결정하는 결정부를 포함하는 로봇 시스템.
  13. 제11항에 있어서,
    음성 입력부로부터 입력된 음성 신호에 기초하여, 소정 주기에서 입력 음성의 유무를 판별하는 음성 유무 판별부,
    촬상부로부터 입력된 화상 신호에 기초하여, 소정 주기에서 화자가 존재하는 지의 여부를 판별하는 화자 존재 유무 판별부, 및
    음성 유무 판별부의 판별 결과 및 화자 존재 유무 판별부의 판별 결과에 기초하여, 로봇의 현재의 대화 상태를 결정하는 결정부를 더 포함하는 로봇 시스템.
  14. 로봇에 있어서,
    가동부,
    상기 가동부에 설치되는 모터,
    상기 모터를 구동하는 구동 회로,
    촬상부,
    음성 신호를 수신하고, 수신한 음성 신호에 따른 음성 또는 음성 신호를 출력하는 통신 장치로부터, 상기 음성 또는 음성 신호를 입력하는 입력부, 및
    상기 입력부에 의해 입력한 음성 또는 음성 신호, 및 상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 가동부의 구동 제어를 행하는 제어부를 포함하는 로봇.
  15. 로봇에 있어서,
    가동부,
    상기 가동부에 설치되는 모터,
    상기 모터를 구동하는 구동 회로,
    음성 입력부,
    음성 출력부,
    음성 신호를 수신하고, 수신한 음성 신호에 따른 음성 또는 음성 신호를 출력하는 통신 장치로부터, 상기 음성 또는 음성 신호를 입력하는 입력부,
    상기 입력부에 의해 입력한 음성 또는 음성 신호에 기초하여, 상기 가동부를 구동 제어하는 제어부, 및
    상기 음성 입력부에 의해 입력된 음성에 기초하여 출력하여야 할 음성을 결정하는 음성 결정부를 포함하며,
    상기 음성 출력부는, 상기 음성 결정부에 의해 결정된 음성을 출력하는 로봇.
  16. 제15항에 있어서,
    촬상부를 더 포함하며,
    상기 제어부는, 상기 촬상부에 의해 촬상하여 얻은 화상에 기초하여, 상기 가동부의 구동 제어를 행하는 로봇.
  17. 로봇에 있어서,
    가동부,
    상기 가동부에 설치되는 모터,
    상기 모터를 구동하는 구동 회로,
    촬상부,
    상기 가동부의 동작 지시를 나타내는 동작 지시 정보를 수신하는 수신부,
    상기 수신부에 의해 수신한 동작 지시 정보에 기초하여, 상기 가동부의 구동 제어를 행하는 제어부, 및
    상기 촬상부에 의해 촬상하여 얻은 화상을 포함하는 화상 정보를 송신하는 송신부를 포함하는 로봇.
  18. 제14항에 있어서,
    상기 가동부의 동작 지시를 나타내는 동작 지시 정보를 수신하는 수신부, 및 상기 촬상부에 의해 촬상하여 얻은 화상을 포함하는 화상 정보를 송신하는 송신부를 더 포함하며,
    상기 제어부는, 상기 수신부에 의해 수신한 동작 지시 정보에 기초하여, 상기 가동부의 구동 제어를 행하는 로봇.
  19. 제16항에 있어서,
    상기 가동부의 동작 지시를 나타내는 동작 지시 정보를 수신하는 수신부, 및 상기 촬상부에 의해 촬상하여 얻은 화상을 포함하는 화상 정보를 송신하는 송신부를 더 포함하며,
    상기 제어부는, 상기 수신부에 의해 수신한 동작 지시 정보에 기초하여, 상기 가동부의 구동 제어를 행하는 로봇.
  20. 로봇에 있어서,
    가동부,
    상기 가동부에 설치되는 모터,
    상기 모터를 구동하는 구동 회로,
    외부로부터 대상자의 생활에 관한 정보를 수신하는 수신부, 및
    상기 수신부에 의해 수신한 정보에 기초하여, 음성을 결정하는 음성 결정부를 포함하며,
    음성 출력부는, 상기 음성 결정부에 의해 결정된 음성을 출력하는 로봇.
  21. 로봇에 있어서,
    가동부,
    상기 가동부에 설치되는 모터,
    상기 모터를 구동하는 구동 회로,
    대상자의 외부의 장치에 대한 조작 이력에 관한 조작 이력 정보를 기억하는 기억부, 및
    상기 기억부에 의해 기억된 조작 이력 정보에 기초하여, 상기 외부의 장치를 조작하는 조작부를 포함하는 로봇.
  22. 제21항에 있어서,
    상기 조작부는, 상기 조작 이력 정보가, 상기 외부의 장치에 의해 복수일에 걸쳐 대략 동일한 시각에 특정한 송신원으로부터 정보를 수신한 것을 나타내는 정보인 경우에, 상기 외부의 장치를 조작하는 동작과,
    상기 복수일 후의 일의 상기 시각에 대응하는 시각에 상기 특정한 송신원으로부터 정보를 수신시키는 동작과,
    수신한 상기 정보를 송신시키는 동작을 행하며,
    상기 로봇은, 상기 외부의 장치로부터 송신된 상기 정보를 수신하는 수신부,및 상기 수신부에 의해 수신한 상기 정보에 기초하여, 음성을 출력하는 음성 출력부를 더 포함하는 로봇.
  23. 제14항에 있어서,
    동작 프로그램을 통신 네트워크를 통해 외부 서버 장치로부터 메모리에 획득하는 로봇.
  24. 제15항에 있어서,
    동작 프로그램을 통신 네트워크를 통해 외부 서버 장치로부터 메모리에 획득하는 로봇.
  25. 제17항에 있어서,
    동작 프로그램을 통신 네트워크를 통해 외부 서버 장치로부터 메모리에 획득하는 로봇.
  26. 제20항에 있어서,
    동작 프로그램을 통신 네트워크를 통해 외부 서버 장치로부터 메모리에 획득하는 로봇.
  27. 제21항에 있어서,
    동작 프로그램을 통신 네트워크를 통해 외부 서버 장치로부터 메모리에 획득하는 로봇.
  28. 제14항에 있어서,
    상기 구동 회로에 제어 신호를 제공하기 위한 하드웨어 구성을 프로그램에 의해 변경 가능한 프로그래머블 컨트롤러를 더 포함하는 로봇.
  29. 제15항에 있어서,
    상기 구동 회로에 제어 신호를 제공하기 위한 하드웨어 구성을 프로그램에 의해 변경 가능한 프로그래머블 컨트롤러를 더 포함하는 로봇.
  30. 제17항에 있어서,
    상기 구동 회로에 제어 신호를 제공하기 위한 하드웨어 구성을 프로그램에 의해 변경 가능한 프로그래머블 컨트롤러를 더 포함하는 로봇.
  31. 제20항에 있어서,
    상기 구동 회로에 제어 신호를 제공하기 위한 하드웨어 구성을 프로그램에 의해 변경 가능한 프로그래머블 컨트롤러를 더 포함하는 로봇.
  32. 제21항에 있어서,
    상기 구동 회로에 제어 신호를 제공하기 위한 하드웨어 구성을 프로그램에 의해 변경 가능한 프로그래머블 콘트롤러를 더 포함하는 로봇.
KR1020020008122A 2001-02-16 2002-02-15 로봇 시스템 및 로봇 KR20020067669A (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JPJP-P-2001-00040880 2001-02-16
JP2001040880A JP2002239971A (ja) 2001-02-16 2001-02-16 ロボットシステム及びロボット
JP2001055923A JP2002254376A (ja) 2001-02-28 2001-02-28 ロボット及びロボットシステム
JPJP-P-2001-00055923 2001-02-28
JPJP-P-2001-00113497 2001-04-12
JP2001113497A JP2002312275A (ja) 2001-04-12 2001-04-12 ロボット用動作プログラムの自動配信システム、ロボット用動作プログラムの自動受信システム及びロボット装置

Publications (1)

Publication Number Publication Date
KR20020067669A true KR20020067669A (ko) 2002-08-23

Family

ID=27346011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020008122A KR20020067669A (ko) 2001-02-16 2002-02-15 로봇 시스템 및 로봇

Country Status (2)

Country Link
US (1) US7047105B2 (ko)
KR (1) KR20020067669A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100772514B1 (ko) * 2005-12-08 2007-11-01 한국전자통신연구원 네트워크 기반 로봇 제어 장치 및 그 방법
KR101240418B1 (ko) * 2012-03-12 2013-03-11 (주)유인프라웨이 실시간 비접촉식 동작 모방시스템을 이용한 로봇 교시 장치 및 방법
CN109927072A (zh) * 2019-03-05 2019-06-25 哈尔滨理工大学 用于厂矿医院科室查询的语音机器人头颈部装置及控制
WO2020256161A1 (ko) * 2019-06-17 2020-12-24 엘지전자 주식회사 인공지능 홈 로봇 및 그의 제어 방법

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002344061A1 (en) * 2002-10-01 2004-04-23 Fujitsu Limited Robot
US7072739B2 (en) * 2003-05-29 2006-07-04 Hewlett-Packard Development Company, L.P. Data center robotic device
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
KR100558369B1 (ko) * 2003-10-13 2006-03-10 학교법인 순천향대학 로보틱 휴대용 통신 단말기
US7248942B2 (en) * 2004-02-19 2007-07-24 Hewlett-Packard Development Company, L.P. Airflow detection system having an airflow indicating device
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
ATE524783T1 (de) * 2004-03-27 2011-09-15 Harvey Koselka Autonomer persönlicher dienstroboter
KR101214723B1 (ko) * 2004-06-24 2012-12-24 아이로보트 코퍼레이션 자동 로봇 장치용의 원격 제어 스케줄러 및 방법
US7627538B2 (en) * 2004-12-07 2009-12-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Swarm autonomic agents with self-destruct capability
KR100594165B1 (ko) * 2005-05-24 2006-06-28 삼성전자주식회사 네트워크 기반 로봇 제어 시스템 및 네트워크 기반 로봇제어 시스템에서 로봇 속도 제어 방법
US20070150104A1 (en) * 2005-12-08 2007-06-28 Jang Choul S Apparatus and method for controlling network-based robot
JP4594857B2 (ja) * 2005-12-12 2010-12-08 本田技研工業株式会社 受付システム
US8090081B2 (en) 2006-08-30 2012-01-03 At&T Intellectual Property I, L.P. Maintaining a call log
US20080056473A1 (en) * 2006-08-30 2008-03-06 Bellsouth Intellectual Property Corporation Establishing telephone communications
US20080075241A1 (en) * 2006-08-30 2008-03-27 Bellsouth Intellectual Property Corporation Call notification
US8649368B2 (en) * 2006-08-30 2014-02-11 At&T Intellectual Property I, L. P. Notification of image capture
US8437460B2 (en) 2006-08-30 2013-05-07 At&T Intellectual Property I, L.P. User supervision and notification
JP4371153B2 (ja) 2007-06-15 2009-11-25 トヨタ自動車株式会社 自律移動装置
KR20090065212A (ko) * 2007-12-17 2009-06-22 한국전자통신연구원 로봇 채팅 시스템 및 방법
CN102396211B (zh) * 2009-04-17 2015-03-11 皇家飞利浦电子股份有限公司 气氛电话通信系统、运动部件及其方法
US8515092B2 (en) * 2009-12-18 2013-08-20 Mattel, Inc. Interactive toy for audio output
US20130122777A1 (en) * 2011-08-04 2013-05-16 Chris Scheppegrell Communications and monitoring using a toy
WO2013063381A1 (en) * 2011-10-28 2013-05-02 Tovbot Smartphone and internet service enabled robot systems and methods
CN103158152A (zh) * 2012-12-24 2013-06-19 李博 手机驱动机器人
WO2016142351A1 (en) * 2015-03-09 2016-09-15 Koninklijke Philips N.V. Robotic companion sensitive to physiological data gathered by wearable devices
CN106584453A (zh) * 2016-06-15 2017-04-26 北京卫星环境工程研究所 融入智能终端的航天器机械臂人机交互系统
CN106625693A (zh) * 2016-10-19 2017-05-10 苏州大成电子科技有限公司 语音控制服务机器人
JP6761598B2 (ja) * 2016-10-24 2020-09-30 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
CN106378786B (zh) * 2016-11-30 2018-12-21 北京百度网讯科技有限公司 基于人工智能的机器人
JP6812269B2 (ja) * 2017-02-23 2021-01-13 株式会社国際電気通信基礎技術研究所 ヒューマノイド型エージェントの頷き動作生成装置
CN107252565B (zh) * 2017-07-25 2019-07-26 绍兴千玺绣品有限公司 用于排球训练的智能机器人
JP2019104087A (ja) * 2017-12-13 2019-06-27 カシオ計算機株式会社 デバイス制御装置、デバイス制御方法及びプログラム
CN108748143A (zh) * 2018-05-04 2018-11-06 安徽三弟电子科技有限责任公司 一种基于物联网的生活提示机器人控制系统
CN109108984B (zh) * 2018-10-22 2021-03-26 杭州任你说智能科技有限公司 一种实体机器人接入云端语音平台的方法及实体机器人
US11602853B2 (en) * 2019-06-28 2023-03-14 University Of Denver Therapeutic social robot
CN112612216A (zh) * 2020-07-22 2021-04-06 周蓉 结合大数据和物联网的智能设备控制方法及云控制中心

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57135932A (en) 1981-02-16 1982-08-21 Mamiya Koki Kk Aperture blade driving device
US4827395A (en) * 1983-04-21 1989-05-02 Intelli-Tech Corporation Manufacturing monitoring and control systems
JPH09294724A (ja) 1996-05-08 1997-11-18 Sanyo Electric Co Ltd 精神安定化訓練装置
JPH10234681A (ja) 1997-02-24 1998-09-08 Toshio Fukuda 介護用ロボットおよび介護システム
JP4328997B2 (ja) 1998-06-23 2009-09-09 ソニー株式会社 ロボット装置
ATE306096T1 (de) * 1999-08-31 2005-10-15 Swisscom Ag Mobiler roboter und steuerverfahren für einen mobilen roboter
JP2001191283A (ja) * 1999-12-31 2001-07-17 Sony Corp ロボット装置及びその制御方法
JP2001246580A (ja) 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2002000574A (ja) 2000-06-22 2002-01-08 Matsushita Electric Ind Co Ltd 介護支援用ロボットおよび介護支援システム
JP2002051990A (ja) 2000-08-08 2002-02-19 Yozan Inc 身体情報管理システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100772514B1 (ko) * 2005-12-08 2007-11-01 한국전자통신연구원 네트워크 기반 로봇 제어 장치 및 그 방법
KR101240418B1 (ko) * 2012-03-12 2013-03-11 (주)유인프라웨이 실시간 비접촉식 동작 모방시스템을 이용한 로봇 교시 장치 및 방법
CN109927072A (zh) * 2019-03-05 2019-06-25 哈尔滨理工大学 用于厂矿医院科室查询的语音机器人头颈部装置及控制
WO2020256161A1 (ko) * 2019-06-17 2020-12-24 엘지전자 주식회사 인공지능 홈 로봇 및 그의 제어 방법
US11511410B2 (en) 2019-06-17 2022-11-29 Lg Electronics Inc. Artificial intelligence (AI) robot and control method thereof

Also Published As

Publication number Publication date
US20020161480A1 (en) 2002-10-31
US7047105B2 (en) 2006-05-16

Similar Documents

Publication Publication Date Title
KR20020067669A (ko) 로봇 시스템 및 로봇
CN109391792B (zh) 视频通信的方法、装置、终端及计算机可读存储介质
CN110609620B (zh) 基于虚拟形象的人机交互方法、装置及电子设备
KR101007483B1 (ko) 로봇
KR100617525B1 (ko) 로봇장치 및 정보처리시스템
US8121653B2 (en) Methods and apparatus for autonomously managing communications using an intelligent intermediary
CN109120790B (zh) 通话控制方法、装置、存储介质及穿戴式设备
CN108701458A (zh) 话音识别
WO2017068816A1 (ja) 情報処理システム、および情報処理方法
JP2007502136A (ja) モバイル通信装置とその制御方法
US8103382B2 (en) Method and system for sharing information through a mobile multimedia platform
JP2005304044A (ja) 移動通信端末機用育成シミュレーション方法及び装置
JP4334551B2 (ja) 生体検査システム
CN107883527A (zh) 控制空调设备的方法、移动设备及计算机可读存储介质
US11065769B2 (en) Robot, method for operating the same, and server connected thereto
CN103797822A (zh) 用于向个人听力系统用户提供远距离支持的方法和用于实施这样的方法的系统
JP2004214895A (ja) 通信補助装置
CN108769369A (zh) 一种预警方法及移动终端
JP2007152445A (ja) 自走式ロボット
JP2004034274A (ja) 会話ロボット及びその動作方法
KR20010113718A (ko) 진단 시스템, 진단 장치, 및 진단 방법
JP2022074094A (ja) 生物の挙動状態を継続的に共有するためのシステムおよび方法
JP2002254376A (ja) ロボット及びロボットシステム
JP2002239971A (ja) ロボットシステム及びロボット
JP2004045591A (ja) 音声認識方法及び特定話者音響辞書の提供方法

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid