JP2002239971A - Robot system and robot - Google Patents

Robot system and robot

Info

Publication number
JP2002239971A
JP2002239971A JP2001040880A JP2001040880A JP2002239971A JP 2002239971 A JP2002239971 A JP 2002239971A JP 2001040880 A JP2001040880 A JP 2001040880A JP 2001040880 A JP2001040880 A JP 2001040880A JP 2002239971 A JP2002239971 A JP 2002239971A
Authority
JP
Japan
Prior art keywords
unit
robot
voice
operation instruction
movable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001040880A
Other languages
Japanese (ja)
Inventor
Kazue Sumiya
和重 角谷
Shin Miyaji
伸 宮治
Naoto Tojo
直人 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2001040880A priority Critical patent/JP2002239971A/en
Priority to KR1020020008122A priority patent/KR20020067669A/en
Priority to US10/076,782 priority patent/US7047105B2/en
Publication of JP2002239971A publication Critical patent/JP2002239971A/en
Pending legal-status Critical Current

Links

Landscapes

  • Selective Calling Equipment (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot system letting a user feel no discomfort even when the user talks through a portable telephone and to provide a robot to be used in the execution. SOLUTION: The user talks with a communication counter party through the portable telephone 2 installed in a telephone insertion port 12a of the robot 1. In responding to the sound signals outputted from the portable telephone 2, the robot 1 is made to perform opening/closing actions of a mouth 11a, a nodding action, and the like so as to behave as if talking with the user. The voice of the user is imported through a microphone 12b and a voice responding to the voice is issued so that the robot 1 is made to behave as if listening to the talk of the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、電話機等の通信装
置を用いたロボットシステム、並びに該ロボットシステ
ムに用いられるロボットに関する。
The present invention relates to a robot system using a communication device such as a telephone, and a robot used in the robot system.

【0002】[0002]

【従来の技術】遠隔地にいる相手と話をする場合に、電
話機等の通信装置が利用されている。このような通信装
置は通信相手の音声を出力するようになっており、一般
的にユーザは通信相手の姿を視認することなく、通信相
手と話をするようになっている。
2. Description of the Related Art A communication device such as a telephone is used for talking with a remote party. Such a communication device outputs the voice of the communication partner, and the user generally talks with the communication partner without visually recognizing the figure of the communication partner.

【0003】また、話し手の音声を解析し、あたかも聞
き手になっているかのような動作を行うロボットが提案
されている。このようなロボットは、話し手(ユーザ)
の音声に応じて動作することにより、ユーザにロボット
と対話しているように感じさせることができる。
Further, there has been proposed a robot which analyzes a speaker's voice and performs an operation as if he / she is a listener. Such a robot is a speaker (user)
By operating in response to the voice of the user, it is possible to make the user feel as if he or she is interacting with the robot.

【0004】[0004]

【発明が解決しようとする課題】ところが、上述の如き
従来のロボットにおいては、電話機のような通信装置を
用いて人間同士が話をする場合に、通信相手(話し手)
の音声に応じて動作することができず、またユーザ(聞
き手)が通信相手の姿を視認できないため、ユーザに違
和感を感じさせる虞があるという問題があった。
However, in the conventional robot as described above, when humans talk with each other using a communication device such as a telephone, a communication partner (speaker).
Cannot operate in response to the voice of the user, and the user (listener) cannot visually recognize the communication partner, which may cause the user to feel uncomfortable.

【0005】また、従来のロボットにおいては、遠隔地
にいるユーザに対して、留守中の家屋内の状況を通知す
ることができず、ユーザが家屋内の監視を行うために
は、高価な監視システムを導入する必要があるという問
題があった。
[0005] Further, in the conventional robot, it is not possible to notify a user at a remote place of the state of the house being away from home. There was a problem that a system had to be introduced.

【0006】本発明は斯かる事情に鑑みてなされたもの
であり、ロボットが、通信装置から出力される音声又は
音声信号、及び撮像部によって撮像して得た画像に基づ
いて、ロボットの各可動部を駆動制御する制御部を有す
ることによって、ロボットにユーザ(聞き手)と向き合
った状態で、あたかも話し手になっているかのように振
る舞わせ、ユーザに通信時の違和感を感じさせないロボ
ットシステム、及び該ロボットシステムに用いられるロ
ボットを提供することを目的とする。
[0006] The present invention has been made in view of the above-described circumstances, and each movable part of the robot is based on a voice or a voice signal output from the communication device and an image captured by an imaging unit. A robot system that has a control unit that controls the driving of the unit so that the robot behaves as if it were a speaker in a state facing the user (listener), and does not cause the user to feel uncomfortable at the time of communication; and An object is to provide a robot used in a robot system.

【0007】本発明の他の目的は、ロボットが、通信装
置から出力される音声又は音声信号に基づいて、各可動
部を駆動制御する制御部と、音声入力部によって入力さ
れた音声に基づいて出力すべき音声を決定する音声決定
部とを備えることにより、通信装置から音声又は音声信
号が出力されている場合には、通信相手の音声に合わせ
て動作することで、ロボットにあたかも話し手のように
振る舞わせ、音声入力部でユーザの音声が入力された場
合には、ユーザの話しかけに対して適切な応答を行わせ
て、ロボットにあたかも聞き手のように振る舞わせて、
ユーザがロボットに話しかけているときだけでなく、ユ
ーザが他者と通信を行っているときにも、ユーザにロボ
ットと会話をしているように感じさせ、ユーザがロボッ
トに話しかけているとき及びユーザが他者と通信を行っ
ているときに、ユーザに違和感を感じさせないロボット
システム、及び該ロボットシステムに用いられるロボッ
トを提供することにある。
[0007] Another object of the present invention is to provide a robot in which a control unit for driving and controlling each movable unit based on a voice or a voice signal output from a communication device, and a voice input by a voice input unit. By providing a voice determining unit that determines a voice to be output, when a voice or a voice signal is output from the communication device, the robot operates in accordance with the voice of the communication partner, so that the robot is like a speaker. When the voice of the user is input by the voice input unit, the robot makes an appropriate response to the user's speech, and makes the robot behave as if it were a listener.
Not only when the user is talking to the robot, but also when the user is communicating with others, make the user feel like talking to the robot, and when the user is talking to the robot and It is an object of the present invention to provide a robot system which does not make a user feel uncomfortable when communicating with another person, and a robot used for the robot system.

【0008】本発明の更に他の目的は、撮像部によって
撮像して得た画像に基づいて、ロボットをユーザと向き
合った状態とするように、可動部の駆動制御を行うよう
にすることにより、ユーザがロボットに話しかけている
とき及びユーザが他者と通信を行っているときに、より
一層ユーザに違和感を感じさせないロボットシステム、
及び該ロボットシステムに用いられるロボットを提供す
ることにある。
[0008] Still another object of the present invention is to perform drive control of a movable section so that the robot faces the user based on an image obtained by the imaging section. A robot system that does not make the user feel more uncomfortable when the user is talking to the robot and when the user is communicating with others,
And a robot used in the robot system.

【0009】本発明の更に他の目的は、通信装置によっ
て、外部から、ロボットの動作指示を表す情報を受信
し、受信した情報に応じた情報をロボットへ送信し、該
情報に応じてロボットの各可動部を駆動制御するように
構成して、外部の通信装置からロボットの動作指示を行
えるようにし、またロボットの撮像部にて撮像して得た
画像を表す情報を、ロボットから通信装置へ送信し、通
信装置によって、前記情報に応じた情報を外部へ送信す
るように構成することによって、遠隔地にいるユーザに
家屋内の状況を通知し、高価な監視システムを導入する
ことなく、ユーザが家屋内の監視を行うことができるロ
ボットシステム、及び該ロボットシステムに用いられる
ロボットを提供することにある。
Still another object of the present invention is to provide a communication device which receives information indicating an operation instruction of a robot from the outside, transmits information corresponding to the received information to the robot, and responds to the information of the robot according to the information. Each movable part is configured to be driven and controlled, so that the operation of the robot can be instructed from an external communication device.In addition, information representing an image captured by the imaging unit of the robot is transmitted from the robot to the communication device. Transmitting, by a communication device, by transmitting information corresponding to the information to the outside, to notify a user in a remote place of the situation in the house, without introducing an expensive monitoring system, the user Is to provide a robot system capable of monitoring the interior of a house, and a robot used for the robot system.

【0010】[0010]

【課題を解決するための手段】第1発明に係るロボット
システムは、1又は複数の可動部、及び撮像部を有する
ロボットと、音声信号を受信し、受信した音声信号に応
じた音声又は音声信号を出力する通信装置とを備えるロ
ボットシステムであって、前記ロボットは、前記通信装
置から出力される音声又は音声信号、及び前記撮像部に
よって撮像して得た画像に基づいて、前記可動部の駆動
制御を行う制御部を備えることを特徴とする。
According to a first aspect of the present invention, there is provided a robot system having one or a plurality of movable units and an imaging unit, receiving a voice signal, and outputting a voice or a voice signal corresponding to the received voice signal. And a communication device that outputs the moving unit, wherein the robot drives the movable unit based on a sound or a voice signal output from the communication device and an image captured by the imaging unit. It is characterized by including a control unit for performing control.

【0011】第2発明に係るロボットシステムは、1又
は複数の可動部、音声入力部、及び音声出力部を有する
ロボットと、音声信号を受信し、受信した音声信号に応
じた音声又は音声信号を出力する通信装置とを備えるロ
ボットシステムであって、前記ロボットは、前記通信装
置から出力される音声又は音声信号に基づいて、前記可
動部を駆動制御する制御部と、前記音声入力部によって
入力された音声に基づいて出力すべき音声を決定する音
声決定部とを備え、前記音声出力部は、前記音声決定部
によって決定された音声を出力すべくなしてあることを
特徴とする。
A robot system according to a second aspect of the present invention includes a robot having one or a plurality of movable parts, a voice input unit, and a voice output unit, receiving a voice signal, and outputting a voice or a voice signal corresponding to the received voice signal. A robot system including a communication device that outputs, the robot is based on a voice or a voice signal output from the communication device, a control unit that drives and controls the movable unit, and is input by the voice input unit. And a voice determining unit for determining a voice to be output based on the voice that has been output, wherein the voice output unit is configured to output the voice determined by the voice determining unit.

【0012】第3発明に係るロボットシステムは、第2
発明に係るロボットシステムにおいて、前記ロボット
は、撮像部を更に備え、前記制御部は、該撮像部によっ
て撮像して得た画像に基づいて、前記可動部の駆動制御
を行うべくなしてあることを特徴とする。
A robot system according to a third aspect of the present invention has a
In the robot system according to the present invention, the robot may further include an imaging unit, and the control unit may perform drive control of the movable unit based on an image captured by the imaging unit. Features.

【0013】第4発明に係るロボットシステムは、1又
は複数の可動部、及び撮像部を有するロボットと、通信
装置とを備えるロボットシステムであって、前記通信装
置は、外部から前記可動部の動作指示を表す第1動作指
示情報を受信する第1受信部と、該第1受信部によって
受信した第1動作指示情報に応じた第2動作指示情報を
前記ロボットへ送信する第1送信部と、前記ロボットか
ら送信された画像を表す第1画像情報を受信する第2受
信部と、該第2受信部によって受信した第1画像情報に
応じた第2画像情報を外部へ送信する第2送信部とを備
え、前記ロボットは、前記通信装置から送信された第2
動作指示情報を受信する第3受信部と、該第3受信部に
よって受信した第2動作指示情報に基づいて、前記可動
部の駆動制御を行う制御部と、前記撮像部によって撮像
して得た画像に基づいて、前記第1画像情報を前記通信
装置へ送信する第3送信部とを有することを特徴とす
る。
[0013] A robot system according to a fourth aspect of the present invention is a robot system including a robot having one or a plurality of movable units and an imaging unit, and a communication device, wherein the communication device operates the movable unit from outside. A first receiving unit that receives first operation instruction information representing an instruction, a first transmission unit that transmits second operation instruction information corresponding to the first operation instruction information received by the first reception unit to the robot, A second receiving unit that receives first image information representing an image transmitted from the robot, and a second transmitting unit that transmits second image information corresponding to the first image information received by the second receiving unit to the outside Wherein the robot is provided with the second device transmitted from the communication device.
A third receiving unit that receives the operation instruction information, a control unit that controls the driving of the movable unit based on the second operation instruction information received by the third receiving unit, and an image captured by the imaging unit. A third transmitting unit that transmits the first image information to the communication device based on an image.

【0014】第5発明に係るロボットシステムは、第1
又は第3発明に係るロボットシステムにおいて、前記通
信装置は、外部から前記可動部の動作指示を表す第1動
作指示情報を受信する第1受信部と、該第1受信部によ
って受信した第1動作指示情報に応じた第2動作指示情
報を前記ロボットへ送信する第1送信部と、前記ロボッ
トから送信された画像を表す第1画像情報を受信する第
2受信部と、該第2受信部によって受信した第1画像情
報に応じた第2画像情報を外部へ送信する第2送信部と
を更に備え、前記ロボットは、前記通信装置から送信さ
れた第2動作指示情報を受信する第3受信部と、前記撮
像部によって撮像して得た画像に基づいて、前記第1画
像情報を前記通信装置へ送信する第3送信部とを更に備
え、前記制御部は、前記第3受信部によって受信した第
2動作指示情報に基づいて、前記可動部の駆動制御を行
うべくなしてあることを特徴とする。
[0014] The robot system according to the fifth aspect of the present invention comprises:
Alternatively, in the robot system according to the third aspect, the communication device includes a first receiving unit that receives first operation instruction information indicating an operation instruction of the movable unit from outside, and a first operation received by the first receiving unit. A first transmission unit that transmits second operation instruction information corresponding to the instruction information to the robot, a second reception unit that receives first image information representing an image transmitted from the robot, and a second reception unit. A second transmitting unit that transmits second image information corresponding to the received first image information to the outside, wherein the robot receives the second operation instruction information transmitted from the communication device, And a third transmission unit configured to transmit the first image information to the communication device based on an image obtained by imaging by the imaging unit, wherein the control unit receives the first image information by the third reception unit. In the second operation instruction information Zui it, characterized in that are no to perform the drive control of the movable portion.

【0015】第6発明に係るロボットは、1又は複数の
可動部と、撮像部と、音声信号を受信し、受信した音声
信号に応じた音声又は音声信号を出力する通信装置か
ら、前記音声又は音声信号を入力する入力部とを備える
ロボットであって、前記入力部によって入力した音声又
は音声信号、及び前記撮像部によって撮像して得た画像
に基づいて、前記可動部の駆動制御を行う制御部を備え
ることを特徴とする。
According to a sixth aspect of the present invention, there is provided a robot according to the first aspect, comprising one or more movable units, an imaging unit, and a communication device that receives a voice signal and outputs a voice or a voice signal in accordance with the received voice signal. A control unit for controlling the driving of the movable unit based on a voice or a voice signal input by the input unit and an image captured by the imaging unit. It is characterized by having a part.

【0016】第7発明に係るロボットは、1又は複数の
可動部と、音声入力部と、音声出力部と、音声信号を受
信し、受信した音声信号に応じた音声又は音声信号を出
力する通信装置から、前記音声又は音声信号を入力する
入力部とを備えるロボットであって、前記入力部によっ
て入力した音声又は音声信号に基づいて、前記可動部を
駆動制御する制御部と、前記音声入力部によって入力さ
れた音声に基づいて出力すべき音声を決定する音声決定
部とを備え、前記音声出力部は、前記音声決定部によっ
て決定された音声を出力すべくなしてあることを特徴と
する。
[0016] A robot according to a seventh aspect of the present invention is a robot for receiving one or more movable parts, a voice input part, a voice output part, receiving a voice signal, and outputting a voice or a voice signal according to the received voice signal. A robot comprising: an input unit configured to input the voice or the voice signal from the device; a control unit configured to drive and control the movable unit based on the voice or the voice signal input by the input unit; and the voice input unit. And a voice determining unit that determines a voice to be output based on the voice input by the control unit, wherein the voice output unit is configured to output the voice determined by the voice determining unit.

【0017】第8発明に係るロボットは、第7発明に係
るロボットにおいて、撮像部を更に備え、前記制御部
は、該撮像部によって撮像して得た画像に基づいて、前
記可動部の駆動制御を行うべくなしてあることを特徴と
する。
The robot according to an eighth aspect of the present invention is the robot according to the seventh aspect, further comprising an imaging unit, wherein the control unit controls driving of the movable unit based on an image captured by the imaging unit. It is characterized in that it is done to perform.

【0018】第9発明に係るロボットは、1又は複数の
可動部と、撮像部とを備えるロボットにおいて、前記可
動部の動作指示を表す動作指示情報を受信する受信部
と、該受信部によって受信した動作指示情報に基づい
て、前記可動部の駆動制御を行う制御部と、前記撮像部
によって撮像して得た画像を含む画像情報を送信する送
信部とを備えることを特徴とする。
According to a ninth aspect of the present invention, there is provided a robot including one or a plurality of movable parts and an imaging part, a receiving part for receiving operation instruction information indicating an operation instruction of the movable part, and a receiving part for receiving the operation instruction information. A control unit that controls the driving of the movable unit based on the operation instruction information, and a transmission unit that transmits image information including an image captured by the imaging unit.

【0019】第10発明に係るロボットは、第6又は第
8発明に係るロボットにおいて、前記可動部の動作指示
を表す動作指示情報を受信する受信部と、前記撮像部に
よって撮像して得た画像を含む画像情報を送信する送信
部とを更に備え、前記制御部は、前記受信部によって受
信した動作指示情報に基づいて、前記可動部の駆動制御
を行うべくなしてあることを特徴とする。
A robot according to a tenth aspect of the present invention is the robot according to the sixth or eighth aspect, wherein a receiving section for receiving operation instruction information indicating an operation instruction for the movable section, and an image obtained by the imaging section. And a transmission unit that transmits image information including: the control unit controls the driving of the movable unit based on the operation instruction information received by the reception unit.

【0020】第1及び第6発明による場合は、制御部に
よって、携帯電話機等の通信装置から出力される音声又
は音声信号、及び撮像部によって撮像して得た画像に基
づいて、ロボットの可動部を駆動制御し、ロボットにユ
ーザ(聞き手)と向き合った状態で、あたかも話し手に
なっているかのように振る舞わせることにより、ユーザ
に通信時の違和感を感じさせないようにすることができ
る。
According to the first and sixth aspects of the present invention, the control section controls the movable section of the robot on the basis of a sound or a voice signal output from a communication device such as a mobile phone and an image captured by the imaging section. Is controlled in such a manner that the robot behaves as if it were a talker while facing the user (listener), so that the user does not feel uncomfortable at the time of communication.

【0021】第2及び第7発明による場合は、制御部に
より、通信装置から出力される音声又は音声信号に基づ
いて、ロボットの可動部を駆動制御することによって、
ロボットにあたかも話し手のように振る舞わせ、音声決
定部により、音声入力部で入力された音声に応じた音声
を決定し、この音声を音声出力部から出力することによ
って、ユーザの話しかけに対して適切な応答を行わせ
て、ロボットにあたかも聞き手のように振る舞わせる。
このようにすることによって、ユーザがロボットに話し
かけているときだけでなく、ユーザが他者と通信を行っ
ているときにも、ユーザにロボットと会話をしているよ
うに感じさせ、ユーザがロボットに話しかけているとき
及びユーザが他者と通信を行っているときに、ユーザに
違和感を感じさせないようにすることができる。
According to the second and seventh aspects of the present invention, the control section drives and controls the movable section of the robot based on a voice or a voice signal output from the communication device.
The robot behaves as if it were a speaker, and the voice determination unit determines a voice corresponding to the voice input at the voice input unit, and outputs this voice from the voice output unit, which is appropriate for the user's speech. And make the robot behave like a listener.
This allows the user to feel as if they are talking to the robot, not only when the user is talking to the robot, but also when the user is communicating with others. , And when the user is communicating with another user, it is possible to prevent the user from feeling uncomfortable.

【0022】第3及び第8発明による場合は、撮像部に
よってロボットの周囲を撮像し、これによって得られた
画像に基づいて、画像の中心にユーザの姿が入るように
可動部の駆動制御を行うようにすることにより、ロボッ
トをユーザと向き合った状態とすることができ、ユーザ
がロボットに話しかけているとき及びユーザが他者と通
信を行っているときに、より一層ユーザに違和感を感じ
させないようにすることができる。
According to the third and eighth aspects of the present invention, the periphery of the robot is imaged by the imaging unit, and the driving control of the movable unit is performed based on the image obtained so that the user's figure enters the center of the image. By doing so, the robot can be placed in a state facing the user, and when the user is talking to the robot and when the user is communicating with another person, the user does not feel more uncomfortable You can do so.

【0023】第4、第5、第9、及び第10発明による
場合は、外部からロボットの動作を指示する第1動作指
示情報を送信し、この第1動作指示情報を家屋内に設置
された通信装置によって受信し、第2動作指示情報(動
作指示情報)としてロボットへ送信し、第2動作指示情
報(動作指示情報)に応じてロボットの各可動部を駆動
制御することにより、遠隔地にいるユーザに外部からロ
ボットを遠隔操作させる。また、ロボットの撮像部によ
って撮像して得た画像を、ロボットから通信装置へ第1
画像情報(画像情報)として送信し、通信装置から外部
へ前記第1画像情報(画像情報)に応じた第2画像情報
を送信することにより、遠隔地にいるユーザに家屋内の
状況を通知する。このようにすることにより、高価な監
視システムを導入することなく、ユーザが家屋内の監視
を行うことができる。
In the fourth, fifth, ninth, and tenth aspects of the present invention, first operation instruction information for instructing the operation of the robot is transmitted from the outside, and the first operation instruction information is installed in the house. Received by the communication device, transmitted to the robot as second operation instruction information (operation instruction information), and by driving and controlling each movable part of the robot in accordance with the second operation instruction information (operation instruction information), Let the user remotely control the robot from outside. In addition, the image obtained by the imaging unit of the robot is transferred from the robot to the communication device by the first device.
By transmitting the image information (image information) and transmitting the second image information corresponding to the first image information (image information) from the communication device to the outside, a user at a remote place is notified of the situation in the house. . In this way, the user can monitor the inside of the house without introducing an expensive monitoring system.

【0024】[0024]

【発明の実施の形態】以下本発明をその実施の形態を示
す図面に基づいて詳述する。 (実施の形態1)図1は、本発明に係るロボットの要部
の構成を示す斜視図であり、図2は、本発明に係るロボ
ットシステムの実施の形態1の要部の構成を示すブロッ
ク図である。図において、1はロボットであり、2は携
帯電話機(通信装置)である。ロボット1は、プラスチ
ック又は布地等で外殻が形成されており、ユーザに親し
みを感じさせるように、愛玩動物又は想像上の動物等を
模した形状をなしている。ロボット1は、頭部11及び
胴部12から構成されており、頭部11を上下方向に揺
動するうなずき動作、頭部11を左右方向に揺動する首
振り動作、頭部11に設けられた口11aの開閉動作、
頭部11に設けられた眼球11b,11bを上下左右に
回動させる眼球11b,11bの移動動作、瞼11c,
11cを上下方向に揺動するまばたき動作、及び胴部1
2に設けられた図示しない車輪を回転することによるロ
ボット1の移動動作を夫々行わせる複数のモータM,
M,…を含む動作機構(図示せず)が内蔵されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the drawings showing the embodiments. (Embodiment 1) FIG. 1 is a perspective view showing a configuration of a main part of a robot according to the present invention, and FIG. 2 is a block diagram showing a configuration of a main part of a robot system according to a first embodiment of the present invention. FIG. In the figure, 1 is a robot and 2 is a mobile phone (communication device). The outer shell of the robot 1 is formed of plastic, cloth, or the like, and has a shape imitating a pet animal or an imaginary animal so that the user feels familiar. The robot 1 is composed of a head 11 and a torso 12, and is provided with a nodding operation for swinging the head 11 in the vertical direction, a swing operation for swinging the head 11 in the left and right direction, and the head 11. Opening and closing operation of the mouth 11a,
The movement of the eyeballs 11b, 11b for rotating the eyeballs 11b, 11b provided on the head 11 up, down, left and right, eyelids 11c,
11c swinging up and down, and the torso 1
2, a plurality of motors M, each of which performs a moving operation of the robot 1 by rotating wheels (not shown) provided in
An operation mechanism (not shown) including M,.

【0025】また、胴体12の側部には、携帯電話機2
を差し込むための電話差込口12aが設けられており、
該電話差込口12aの近傍には、携帯電話機2の側部に
設けられた接続端子21に接続される接続端子13が備
えられている。該接続端子13は、増幅器14a及びA
/D変換器15aを介してCPU16に接続されてい
る。また、増幅器14aは、別の増幅器14cにも接続
されており、該増幅器14cは胴部12の側部に設けら
れたスピーカ12cに接続されている。
Further, the portable telephone 2 is provided on the side of the body 12.
Is provided with a telephone outlet 12a for inserting
A connection terminal 13 connected to a connection terminal 21 provided on the side of the mobile phone 2 is provided near the telephone insertion port 12a. The connection terminal 13 is connected to the amplifiers 14a and A
It is connected to the CPU 16 via the / D converter 15a. The amplifier 14a is also connected to another amplifier 14c, and the amplifier 14c is connected to a speaker 12c provided on the side of the body 12.

【0026】これによって、携帯電話機2の接続端子2
1から出力された通話相手の音声の音声信号は、接続端
子13によってロボット1に取り込まれ、増幅器14a
によって増幅される。この増幅器14aから出力された
音声信号は、A/D変換器15aによってデジタル信号
に変換され、CPU16に与えられると共に、増幅器1
4cによって更に増幅された後、スピーカ12cから可
聴音として出力される。
Thus, the connection terminal 2 of the mobile phone 2
The voice signal of the voice of the other party output from the communication terminal 1 is taken into the robot 1 through the connection terminal 13 and the amplifier 14a
Is amplified by The audio signal output from the amplifier 14a is converted into a digital signal by the A / D converter 15a, and is provided to the CPU 16 and the amplifier 1
After being further amplified by 4c, it is output as an audible sound from the speaker 12c.

【0027】ロボット1の胴部12の正面には、マイク
ロフォン12bが設けられており、該マイクロフォン1
2bは、増幅器14b及びA/D変換器15bを介して
CPU16に接続されている。また、増幅器14bは接
続端子13に接続されており、増幅器14bから出力さ
れた信号が、接続端子13から携帯電話機2に出力され
るようになっている。
A microphone 12b is provided on the front of the body 12 of the robot 1.
2b is connected to the CPU 16 via the amplifier 14b and the A / D converter 15b. The amplifier 14b is connected to the connection terminal 13, so that a signal output from the amplifier 14b is output from the connection terminal 13 to the mobile phone 2.

【0028】ロボット1の付近にいるユーザからの音声
は、マイクロフォン12bによってアナログ信号の音声
信号に変換され、この音声信号が増幅器14bによって
増幅される。この増幅器14bから出力された音声信号
は、A/D変換器15bによってデジタル信号に変換さ
れ、CPU16に与えられると共に、接続端子13から
携帯電話機2へ出力される。
A voice from a user near the robot 1 is converted into an analog voice signal by the microphone 12b, and the voice signal is amplified by the amplifier 14b. The audio signal output from the amplifier 14b is converted into a digital signal by the A / D converter 15b, supplied to the CPU 16, and output from the connection terminal 13 to the mobile phone 2.

【0029】なお、A/D変換器15a,15bは、夫
々8ms毎にサンプリングを行い、アナログ信号をデジ
タル信号に変換するようになっている。
The A / D converters 15a and 15b perform sampling every 8 ms, and convert an analog signal into a digital signal.

【0030】CPU16は、複数の駆動回路17,1
7,…,17に接続されており、該駆動回路17,1
7,…,17が夫々モータM,M,…,Mに接続されて
いて、駆動回路17,17,…,17によってモータ
M,M,…,Mが駆動されるようになっている。
The CPU 16 includes a plurality of drive circuits 17, 1
7,..., 17 and the driving circuits 17, 1
, M are connected to motors M, M,..., M, respectively, and the motors M, M,.

【0031】また、CPU16は、音声再生回路19に
接続されている。該音声再生回路19は、複数の音声デ
ータを記録してあるROMを内蔵しており、CPU16
から出力された制御信号によって、前記ROMから音声
データを読み出し、デジタル信号の音声信号を出力する
ようになっている。音声再生回路19は、D/A変換器
19aに接続されており、該D/A変換器19aは、増
幅器14dを介してスピーカ12cに接続されていて、
音声再生回路19から出力された音声信号が、D/A変
換器19aによってアナログ信号に変換され、これが増
幅器14dによって所定量増幅された後、スピーカ12
cに与えられ、可聴音として出力される。
The CPU 16 is connected to an audio reproduction circuit 19. The audio reproduction circuit 19 has a built-in ROM in which a plurality of audio data are recorded.
The audio data is read from the ROM and a digital audio signal is output by the control signal output from the ROM. The audio reproduction circuit 19 is connected to a D / A converter 19a, and the D / A converter 19a is connected to a speaker 12c via an amplifier 14d.
The audio signal output from the audio reproduction circuit 19 is converted into an analog signal by a D / A converter 19a, and this is amplified by a predetermined amount by an amplifier 14d.
c and output as an audible sound.

【0032】また、ロボット1の鼻部には、後述する話
し手モードと聞き手モードとの切り換えを手動で行うた
めの切換スイッチ11dが設けられている。胴部12の
マイクロフォン12bの上側には、CCDカメラ12f
が設けられており、ロボット1の正面を撮像するように
なっている。CCDカメラ12fは、A/D変換器15
cに接続されており、該A/D変換器15cは、画像メ
モリ18に接続されている。該画像メモリ18はCPU
16に接続されている。
The nose of the robot 1 is provided with a changeover switch 11d for manually switching between a talker mode and a listener mode, which will be described later. Above the microphone 12b of the body 12, a CCD camera 12f
Is provided, and an image of the front of the robot 1 is taken. The CCD camera 12f includes an A / D converter 15
c, and the A / D converter 15 c is connected to the image memory 18. The image memory 18 is a CPU
16 are connected.

【0033】CCDカメラ12fによって周囲の画像が
撮像され、この画像のアナログ信号がCCDカメラ12
fから出力されて、A/D変換器15cによってデジタ
ル信号へ変換され、画像メモリ18に画像のデジタルデ
ータ(画像データ)として格納される。格納された画像
データは、CPUに与えられて、後述する処理に用いら
れる。
A surrounding image is captured by the CCD camera 12f, and an analog signal of this image is transmitted to the CCD camera 12f.
f, is converted to a digital signal by the A / D converter 15c, and is stored in the image memory 18 as digital data of an image (image data). The stored image data is provided to the CPU and used for processing described later.

【0034】また、CCDカメラ12fの上側には、話
し手モードの状態か、聞き手モードの状態かをユーザに
通知するための表示灯12eが設けられている。該表示
灯12eは、CPU16に接続されており、CPU16
からの制御信号により、表示灯16の点灯又は消灯が行
われる。
An indicator light 12e is provided above the CCD camera 12f to notify the user of the state of the talker mode or the state of the listener mode. The indicator light 12e is connected to the CPU 16,
The indicator signal 16 is turned on or off by the control signal from.

【0035】そして、CPU16は、後述する処理を行
うためのプログラムが格納されているROM16a、及
びCPU16の前記プログラムの実行時に一時的に発生
するデータを格納するRAM16bに接続されている。
The CPU 16 is connected to a ROM 16a in which a program for performing processing to be described later is stored and a RAM 16b in which data generated temporarily when the CPU 16 executes the program is stored.

【0036】このようなロボット1は、動作モードが設
定されるようになっており、この動作モードが話し手モ
ードに設定されているときは、携帯電話機2が出力する
音声信号に応じて、通話相手の音声に合わせてあたかも
ユーザに話しかけているかのように動作を行うべく制御
され、前記動作モードが聞き手モードに設定されている
ときには、マイクロフォン12bから出力される音声信
号に応じて、ユーザの音声に合わせてあたかもユーザの
話を聞いているかのように動作を行うべく制御されるよ
うになっている。
In such a robot 1, an operation mode is set, and when the operation mode is set to the talker mode, a communication partner is set in accordance with an audio signal output from the mobile phone 2. Is controlled to perform an operation as if talking to the user in accordance with the voice of the user. When the operation mode is set to the listener mode, the voice of the user is changed according to the voice signal output from the microphone 12b. At the same time, it is controlled so as to perform an operation as if listening to the user.

【0037】図3及び図4は、本実施の形態1に係るロ
ボット1の動作モードを設定するときのCPU16の処
理手順を示すフローチャートである。CPU16は、A
/D変換器15aから出力されたデジタル信号、即ち音
声データを取り込み(ステップ101)、同様に、A/
D変換器15bから出力された音声データを取り込む
(ステップ102)。そして、40ms分のデジタル信
号、即ち5個分の音声データを夫々取り込んだか否かを
判別し(ステップ103)、取り込んでいない場合には
ステップ101に戻る。
FIGS. 3 and 4 are flowcharts showing the processing procedure of the CPU 16 when setting the operation mode of the robot 1 according to the first embodiment. The CPU 16
The digital signal output from the / D converter 15a, that is, audio data, is fetched (step 101).
The audio data output from the D converter 15b is captured (step 102). Then, it is determined whether or not digital signals of 40 ms, that is, five pieces of audio data have been captured, respectively (step 103). If not, the process returns to step 101.

【0038】5個分の音声データを夫々取り込んだ場合
には、ステップ101にて取り込んだ通話相手の5個分
の音声データの平均を算出し(ステップ104)、算出
した平均値から2値データを生成する(ステップ10
5)。具体的には、所定の閾値と前記平均値とを比較
し、平均値が前記閾値を越える場合には2値データの値
を1とし、平均値が前記閾値を越えない場合には2値デ
ータの値を0とする。該2値データを、1.6秒分の2
値データを格納することができるFIFO型のバッファ
B1に格納する(ステップ106)。このバッファB1
は、RAM16b内の所定の領域に構成されている。
When five voice data have been fetched, an average of the five voice data of the other party fetched in step 101 is calculated (step 104), and the binary data is calculated from the calculated average value. (Step 10
5). Specifically, a predetermined threshold value is compared with the average value, and when the average value exceeds the threshold value, the value of the binary data is set to 1, and when the average value does not exceed the threshold value, the binary data is set. Is set to 0. The binary data is divided by two for 1.6 seconds.
The value data is stored in a FIFO type buffer B1 that can store the value data (step 106). This buffer B1
Are configured in a predetermined area in the RAM 16b.

【0039】同様に、ステップ102にて取り込んだユ
ーザの5個分の音声データの平均を算出し(ステップ1
07)、算出した平均値と前記閾値とは異なる閾値とを
用いて2値データを生成して(ステップ108)、該2
値データを、前記バッファB1と同様のバッファB2に
格納する(ステップ109)。そして、バッファB1内
の2値データから通話相手のMA評価値を算出する(ス
テップ110)。このMA評価値は、MAモデルに基づ
き、前記2値データと所定のMA係数群との積和演算を
行うことによって算出される。
Similarly, the average of five voice data of the user taken in step 102 is calculated (step 1).
07), using the calculated average value and a threshold value different from the threshold value to generate binary data (step 108),
The value data is stored in a buffer B2 similar to the buffer B1 (step 109). Then, the MA evaluation value of the communication partner is calculated from the binary data in the buffer B1 (step 110). This MA evaluation value is calculated by performing a product-sum operation of the binary data and a predetermined MA coefficient group based on the MA model.

【0040】同様に、バッファB2内の2値データから
ユーザのMA評価値を算出する(ステップ111)。な
お、ステップ110で用いられるMA係数群と、ステッ
プ111で用いられるMA係数群とは異なる数値として
夫々与えられている。
Similarly, the user's MA evaluation value is calculated from the binary data in the buffer B2 (step 111). The MA coefficient group used in step 110 and the MA coefficient group used in step 111 are given different numerical values.

【0041】次に、切換スイッチ11dの状態を検出
し、手動で動作モードの設定が行われているか否かを判
別する(ステップ112)。手動で動作モードの設定が
行われていない場合には、携帯電話機2の接続端子21
から信号が出力されているか否か、即ちA/D変換器1
5aから信号が出力されているか否かを調べることによ
り、携帯電話機2が通話状態であるか否かを判別し(ス
テップ113)、通話状態でない場合には、動作モード
を聞き手モードに設定する(ステップ114)。
Next, the state of the changeover switch 11d is detected, and it is determined whether or not the operation mode has been manually set (step 112). If the operation mode has not been manually set, the connection terminal 21
Whether a signal is output from the A / D converter 1
By checking whether or not a signal is output from 5a, it is determined whether or not the mobile phone 2 is in a call state (step 113). If not, the operation mode is set to the listener mode (step 113). Step 114).

【0042】携帯電話機2が通話状態である場合には、
通話相手のMA評価値と、ユーザのMA評価値とを比較
し、動作モードを設定する(ステップ115)。これ
は、例えば通話相手のMA評価値の大きさと、ユーザの
MA評価値の大きさとを比較し、通話相手のMA評価値
がユーザのMA評価値以上の場合には、話し手モードに
設定し、通話相手のMA評価値がユーザのMA評価値未
満の場合には、聞き手モードに設定することによって実
現される。そして、ステップ101に戻る。
When the mobile phone 2 is in a talking state,
The MA evaluation value of the other party is compared with the MA evaluation value of the user, and an operation mode is set (step 115). This is, for example, comparing the magnitude of the MA evaluation value of the call partner with the magnitude of the MA evaluation value of the user, and if the MA evaluation value of the call partner is equal to or greater than the MA evaluation value of the user, sets the speaker mode. When the MA evaluation value of the other party is less than the MA evaluation value of the user, this is realized by setting the listener mode. Then, the process returns to step 101.

【0043】図5は、本実施の形態1に係るロボット1
の動作制御を行うときのCPU16の処理手順を示すフ
ローチャートである。CPU16は、現在の動作モード
が何れに設定されているかを判別し(ステップ20
1)、動作モードが話し手モードに設定されている場
合、図3及び図4のフローチャートに示した処理によっ
て算出した通信相手のMA評価値に基づいて、ロボット
1の複数の動作パターンから1つの動作パターンを選択
して(ステップ202)、ステップ204に移る。この
ステップ202の処理では、通信相手のMA評価値を複
数の閾値と比較し、夫々の閾値に対応付けられた動作パ
ターンを選択するようになっている。例えば、通信相手
のMA評価値が、まばたき動作を行わせるための閾値を
越えている場合には、瞼11cを上下方向に揺動する動
作パターンが選択され、通信相手のMA評価値が、まば
たき動作を行わせるための閾値より大きい口11aの開
閉動作を行わせるための閾値を越えている場合には、口
11aを開閉する動作パターンが選択される。
FIG. 5 shows a robot 1 according to the first embodiment.
9 is a flowchart showing a processing procedure of the CPU 16 when performing the operation control of FIG. The CPU 16 determines which operation mode is currently set (step 20).
1) When the operation mode is set to the talker mode, one operation from a plurality of operation patterns of the robot 1 is performed based on the MA evaluation value of the communication partner calculated by the processing shown in the flowcharts of FIGS. A pattern is selected (Step 202), and the routine proceeds to Step 204. In the process of step 202, the MA evaluation value of the communication partner is compared with a plurality of thresholds, and an operation pattern associated with each threshold is selected. For example, when the MA evaluation value of the communication partner exceeds the threshold value for performing the blinking operation, an operation pattern of swinging the eyelid 11c in the vertical direction is selected, and the MA evaluation value of the communication partner is blinking. If the threshold for opening and closing the mouth 11a is larger than the threshold for performing the operation, the operation pattern for opening and closing the mouth 11a is selected.

【0044】また、ステップ201において、現在の動
作モードが聞き手モードに設定されている場合には、ユ
ーザのMA評価値に基づいて、ロボット1の複数の動作
パターンから1つの動作パターンを選択し(ステップ2
03)、ステップ204に移る。ステップ203の処理
では、ユーザのMA評価値を複数の閾値と比較し、夫々
の閾値に対応付けられた動作パターンを選択するように
なっている。例えば、ユーザのMA評価値が、うなずき
動作を行わせるための閾値を越えている場合には、頭部
11を上下方向に揺動する動作パターンが選択され、ユ
ーザのMA評価値が、うなずき動作を行わせるための閾
値より大きい相づち動作を行わせるための閾値を越えて
いる場合には、口11aの開閉及び「うん、うん」とい
う音声を出力する動作パターンが選択される。
In step 201, if the current operation mode is set to the listener mode, one operation pattern is selected from a plurality of operation patterns of the robot 1 based on the user's MA evaluation value ( Step 2
03), proceed to step 204. In the process of step 203, the user's MA evaluation value is compared with a plurality of thresholds, and an operation pattern associated with each of the thresholds is selected. For example, when the user's MA evaluation value exceeds a threshold value for causing the user to perform a nodding operation, an operation pattern of swinging the head 11 up and down is selected, and the user's MA evaluation value becomes a nodding operation. If the threshold value for performing the joint operation is larger than the threshold value for performing the repetition, the opening / closing of the mouth 11a and the operation pattern for outputting the voice of “Yeah, yeah” are selected.

【0045】次に、選択された動作パターンの動作を指
示する制御信号を駆動回路17,17,…又は音声再生
回路19へ出力する(ステップ204)。この処理で
は、例えば、口11aを開閉する動作パターンが選択さ
れている場合には、口11aの開閉を指示する制御信号
を口11aの動作機構に連結されたモータMを駆動する
駆動回路17に与え、相づち動作の動作パターンが選択
されている場合には、前記駆動回路17に口11aの開
閉を指示する制御信号を与えると共に、音声再生回路1
9に、「うん、うん」という音声の出力を指示する制御
信号を与えるようになっている。
Next, a control signal for instructing the operation of the selected operation pattern is output to the drive circuits 17, 17,... Or the audio reproduction circuit 19 (step 204). In this process, for example, when an operation pattern for opening and closing the mouth 11a is selected, a control signal for instructing opening and closing of the mouth 11a is transmitted to the drive circuit 17 for driving the motor M connected to the operation mechanism of the mouth 11a. When the operation pattern of the joint operation is selected, a control signal for instructing the opening and closing of the port 11a is given to the drive circuit 17 and the audio reproduction circuit 1
9 is provided with a control signal for instructing the output of the voice "Yeah, yeah".

【0046】そして、CCDカメラ12fによって撮像
された画像データを画像メモリ18から読み出し(ステ
ップ205)、画像データに画像処理を施すことによっ
て、画像内のユーザの位置を検出する(ステップ20
6)。そして、検出したユーザの位置から、ロボット1
をユーザに向き合わせるように移動させるべく、ロボッ
ト1の下部に設けられた車輪の動作機構に連結されたモ
ータM,Mを駆動する駆動回路17,17へ制御信号を
出力し(ステップ207)、ステップ201へ戻る。
Then, the image data picked up by the CCD camera 12f is read out from the image memory 18 (step 205), and the image data is subjected to image processing to detect the position of the user in the image (step 20).
6). Then, from the detected position of the user, the robot 1
Is output to the drive circuits 17, 17 for driving motors M, M connected to the operating mechanism of the wheels provided in the lower part of the robot 1 so as to move the robot toward the user (step 207). Return to step 201.

【0047】以上説明したような図3及び図4のフロー
チャートに示した処理、並びに図5のフローチャートに
示した処理は、CPU16のマルチタスク処理よって一
定時間おきに実行される。
The processing shown in the flowcharts of FIGS. 3 and 4 and the processing shown in the flowchart of FIG. 5 described above are executed at regular intervals by the multitask processing of the CPU 16.

【0048】以上の如き構成により、携帯電話機2が通
話状態の場合、ロボット1はユーザと向き合うように移
動しつつ、通話相手の音声に合わせて口11aを開閉し
たり、うなずく動作を行ったりして、あたかもユーザと
対話しているかのように振る舞い、携帯電話機2が非通
話状態の場合、ロボット1はユーザと向き合うように移
動しつつ、ユーザの音声に合わせてうなずいたり、相づ
ちを打ったりして、あたかもユーザの話を聞いているか
のように振る舞う。
With the above configuration, when the mobile phone 2 is in a talking state, the robot 1 moves to face the user, and opens and closes the mouth 11a in accordance with the voice of the called party, or performs a nodding operation. When the mobile phone 2 is in a non-talking state, the robot 1 moves so as to face the user and nods or hits the user in accordance with the user's voice. And behave as if listening to the user.

【0049】(実施の形態2)図6は、本発明に係るロ
ボットシステムの実施の形態2の要部の構成を示す模式
図である。本実施の形態2のロボットシステムは、ロボ
ット1と、通信装置として機能するコンピュータ3と、
携帯電話機4とを備えている。ロボット1は、PHSデ
ータ通信又はBluetooth 等の通信機能を有する無線通信
部110を備えている。
(Embodiment 2) FIG. 6 is a schematic diagram showing a configuration of a main part of Embodiment 2 of a robot system according to the present invention. The robot system according to the second embodiment includes a robot 1, a computer 3 functioning as a communication device,
And a mobile phone 4. The robot 1 includes a wireless communication unit 110 having a communication function such as PHS data communication or Bluetooth.

【0050】図7は、本実施の形態2に係るロボット1
の構成を示すブロック図である。ロボット1は、無線通
信部110によって受信したコマンドデータに応じて、
CPU16から駆動回路17,17,…,17へ制御信
号を出力するようになっており、これによってロボット
1の遠隔操作が可能となっている。図8に、ロボット1
のコマンドデータの一例を示す。このコマンドデータ
は、ASCII コードによるテキストコマンドと、移動量、
移動速度、回転角度、及び回転角速度等を表すパラメー
タとの組み合わせで構成される。例えば、“MWSB 20 1
0”というコマンドデータは、“MWSB”がロボット1の
車輪を駆動して後退という動作を表すテキストコマンド
であり、“20”が移動量を、“10”が移動速度を表すパ
ラメータであり、10の速度で20の距離の後退を指示す
る。
FIG. 7 shows a robot 1 according to the second embodiment.
FIG. 3 is a block diagram showing the configuration of FIG. The robot 1 responds to command data received by the wireless communication unit 110,
A control signal is output from the CPU 16 to the drive circuits 17, 17,..., 17, so that the robot 1 can be remotely controlled. FIG. 8 shows the robot 1
3 shows an example of the command data. This command data consists of a text command in ASCII code,
It is configured by a combination with parameters representing a moving speed, a rotation angle, a rotation angular speed, and the like. For example, “MWSB 201
The command data “0” is a text command indicating that the “MWSB” drives the wheels of the robot 1 and moves backward, “20” is a parameter indicating the moving amount, “10” is a parameter indicating the moving speed, and “10” is a parameter. Instruct a retreat at a speed of 20 distances.

【0051】なお、図8において歩行とは、ロボット1
の脚部に設けた車輪を、回転及び停止を所定時間おきに
繰り返すように動作させ、ロボット1に歩行しているか
のように動作させることを表している。
In FIG. 8, walking means the robot 1
This means that the wheels provided on the legs are operated so as to repeat the rotation and the stop at predetermined time intervals, and operate as if the robot 1 is walking.

【0052】複数のコマンドデータを“: ”で連結し、
最後のコマンドデータの後に“; ”を追加することによ
り、複数の動作を行う動作プログラムを作成することが
できる。例えば、以下に示すような動作プログラムにつ
いて説明する。MWSB 20 10:WW:D 100:MNR 10 10;
A plurality of command data are linked by “:”,
By adding “;” after the last command data, an operation program for performing a plurality of operations can be created. For example, an operation program as described below will be described. MWSB 20 10: WW: D 100: MNR 10 10;

【0053】この動作プログラムでは、10の速度で20の
距離だけ後退した後、100 の時間分停止し、続いて10の
速度で10の移動量だけ首を下側に傾けるような動作を表
している。
In this operation program, after moving backward at a speed of 10 for 20 distances, stopping for 100 hours, and then tilting the head downward by 10 movements at a speed of 10 I have.

【0054】本実施の形態2に係るロボット1のその他
の構成は、実施の形態1に係るロボット1の構成と同様
であるので、同符号を付し、その説明を省略する。
The other configuration of the robot 1 according to the second embodiment is the same as the configuration of the robot 1 according to the first embodiment, and thus the same reference numerals are given and the description is omitted.

【0055】図9は、コンピュータ3の構成を示すブロ
ック図である。コンピュータ3は、CPU31と、該C
PU31に実行させるプログラム及び該プログラムで使
用するデータ等が格納されているROM32と、CPU
31のプログラムの実行時に一時的に発生するデータを
格納するRAM33と、CPU31に実行させるプログ
ラム及び該プログラムで使用するデータ等が格納されて
いるハードディスク装置34と、入出力インタフェース
35とを備えている。入出力インタフェース35には、
ロボット1の無線通信部110と通信することが可能な
無線通信機35a、電話回線に接続されたモデム35
b、CRT又はLCD等の表示装置35c、並びにキー
ボード及びマウス等の入力装置35dが接続されてい
る。
FIG. 9 is a block diagram showing the configuration of the computer 3. The computer 3 includes a CPU 31 and the C
A ROM 32 storing a program to be executed by the PU 31 and data used by the program;
A RAM 33 for storing data temporarily generated when the program 31 is executed, a hard disk device 34 for storing a program to be executed by the CPU 31 and data used by the program, and an input / output interface 35 are provided. . The input / output interface 35 includes:
A wireless communication device 35a capable of communicating with the wireless communication unit 110 of the robot 1, a modem 35 connected to a telephone line
b, a display device 35c such as a CRT or an LCD, and an input device 35d such as a keyboard and a mouse are connected.

【0056】また、コンピュータ3は、モデム35bを
介してインターネット接続業者等が備えるコンピュータ
5とダイアルアップ接続することが可能であり、これに
よってインターネット6に接続することができる。更
に、コンピュータ3は、ハードディスク装置34にWW
Wサーバプログラムが格納されており、該WWWサーバ
プログラムをRAM33にロードすることにより、イン
ターネット6を介して接続されたWWWクライアントプ
ログラムが実行されている他のコンピュータ及び携帯電
話機等からの要求に応じて、ハードディスク装置34に
格納されているHTMLデータ及び画像データ等を、前
記コンピュータ及び携帯電話機等に送信することができ
るようになっている。
Further, the computer 3 can be dial-up connected to the computer 5 provided by an Internet connection company or the like via the modem 35b, thereby connecting to the Internet 6. Further, the computer 3 stores the WW in the hard disk device 34.
A W server program is stored, and the WWW server program is loaded into the RAM 33 so as to respond to a request from another computer, a mobile phone, or the like on which the WWW client program connected via the Internet 6 is executed. In addition, HTML data and image data stored in the hard disk device 34 can be transmitted to the computer, the mobile phone, or the like.

【0057】携帯電話機4は、CPU、ROM、及びR
AM等を内蔵しており(図示せず)、電気通信事業者が
備えるコンピュータ7を介して、インターネット6に接
続することが可能であり、WWWクライアントプログラ
ムをROM内に格納してあり、該WWWクライアントプ
ログラムをCPUにて実行することにより、インターネ
ット6に接続されたコンピュータに対してHTMLデー
タ及び画像データ等を要求し、要求したHTMLデータ
及び画像データを受信することができ、受信したデータ
に応じた画面を、LCDに表示することができるように
なっている。
The mobile phone 4 has a CPU, ROM, and R
It has a built-in AM (not shown) and can be connected to the Internet 6 via a computer 7 provided by a telecommunications carrier. A WWW client program is stored in a ROM. When the client program is executed by the CPU, it is possible to request HTML data and image data from a computer connected to the Internet 6 and receive the requested HTML data and image data. The displayed screen can be displayed on the LCD.

【0058】図10〜図13は、本実施の形態2に係る
ロボットシステムの動作の流れを示すフローチャートで
ある。ユーザは、家屋内の状況を監視したいときに、携
帯電話機4を操作し、コンピュータ3を呼び出す。携帯
電話機4は、ユーザからの操作を受け付け、コンピュー
タ3に対して呼び出し信号を送信する(ステップ30
1)。コンピュータ3は、モデム35bを介して、携帯
電話機4からの呼び出し信号を受信し(ステップ30
2)、通話を開始する(ステップ303)。そして、
「インターネットに接続します。電子メールの返信をお
待ちください。」という音声の音声信号を、携帯電話機
4へ送信し(ステップ304)、携帯電話機4がこれを
受信して(ステップ305)、この音声を内蔵するスピ
ーカから出力する。そして、コンピュータ3は、通話を
終了する(ステップ306)。
FIGS. 10 to 13 are flowcharts showing the flow of the operation of the robot system according to the second embodiment. The user operates the mobile phone 4 and calls the computer 3 when monitoring the situation in the house. The mobile phone 4 receives an operation from the user and transmits a call signal to the computer 3 (step 30).
1). The computer 3 receives the calling signal from the mobile phone 4 via the modem 35b (step 30).
2) A call is started (step 303). And
A voice signal of voice "Connect to the Internet. Please wait for e-mail reply." Is transmitted to mobile phone 4 (step 304), and mobile phone 4 receives the voice signal (step 305). Is output from the built-in speaker. Then, the computer 3 ends the call (step 306).

【0059】次に、コンピュータ3は、コンピュータ5
に対して接続要求信号を送信し、インターネット6への
接続を行う(ステップ307)。コンピュータ3は、イ
ンターネット6に接続された状態で、コンピュータ3の
HTMLデータの記憶位置を示すURLを含むテキスト
データからなる電子メールを、携帯電話機4に対応付け
られたメールアドレス宛に送信する(ステップ30
8)。
Next, the computer 3
, A connection request signal is transmitted to connect to the Internet 6 (step 307). While connected to the Internet 6, the computer 3 transmits an e-mail composed of text data including a URL indicating the storage location of the HTML data of the computer 3 to a mail address associated with the mobile phone 4 (step). 30
8).

【0060】なお、本実施の形態2においては、携帯電
話機4からの呼び出しがコンピュータ3に対して行われ
た場合に、前記電子メールを送信する構成としたが、こ
れに限るものではなく、例えば、ロボット1がCCDカ
メラ12fの撮像画像に画像処理を施すことにより、家
屋内に侵入者がある等の異常を検出し、異常を検出した
場合に、ロボット1からコンピュータ3へ前記電子メー
ルの送信を要求し、これを受けたコンピュータ3が前記
電子メールを送信する構成としてもよい。
In the second embodiment, when the call from the mobile phone 4 is made to the computer 3, the electronic mail is transmitted. However, the present invention is not limited to this. The robot 1 performs image processing on the image picked up by the CCD camera 12f to detect an abnormality such as an intruder in the house. When the abnormality is detected, the robot 1 sends the electronic mail to the computer 3. And the computer 3 receiving the request may transmit the e-mail.

【0061】ロボット1は、通常自律的に動作を行うべ
く動作制御が行われているが、CCDカメラ12fによ
る撮像画像に画像処理を行い、撮像された人間等の検出
を行っている。所定時間内に人間等が検出されなかった
場合に、ロボット1は待機状態へ移行し、コンピュータ
3からの信号の受信を待機している。
The operation of the robot 1 is usually controlled so as to operate autonomously. However, the robot 1 performs image processing on an image captured by the CCD camera 12f to detect a captured person or the like. When a human or the like is not detected within a predetermined time, the robot 1 shifts to a standby state and waits for reception of a signal from the computer 3.

【0062】コンピュータ3は、ロボット1へ画像デー
タの送信要求を表す画像データ要求信号をロボット1へ
送信し(ステップ309)、これをロボット1が受信し
(ステップ310)、CCDカメラ12fによって画像
データを取得する(ステップ311)。そして、ロボッ
ト1は、取得した画像データをコンピュータ3へ送信す
る(ステップ312)。
The computer 3 transmits an image data request signal indicating a request to transmit image data to the robot 1 to the robot 1 (step 309). The robot 1 receives the image data request signal (step 310). Is acquired (step 311). Then, the robot 1 transmits the acquired image data to the computer 3 (Step 312).

【0063】コンピュータ3は、画像データを受信し
(ステップ313)、この画像データを携帯電話機4の
WWWクライアントプログラムで表示することが可能な
形式の画像データ(JPEG形式、GIFF形式等)に
変換して、ハードディスク装置34に記憶する(ステッ
プ314)。
The computer 3 receives the image data (step 313) and converts the image data into image data (JPEG format, GIF format, etc.) that can be displayed by the WWW client program of the mobile phone 4. Then, it is stored in the hard disk drive 34 (step 314).

【0064】一方、携帯電話機4は、電子メールを受信
し(ステップ315)、ユーザが携帯電話機4を操作し
て、この電子メールに含まれているURLを選択するこ
とにより、コンピュータ3へHTMLデータの送信要求
を表すHTMLデータ要求信号を送信する(ステップ3
16)。そして、コンピュータ3は、HTMLデータ要
求信号を受信する(ステップ317)。所定時間内にH
TML要求信号を受信しない場合には、コンピュータ5
との接続を終了し(ステップ318)、処理を終了す
る。
On the other hand, the portable telephone 4 receives the e-mail (step 315), and the user operates the portable telephone 4 to select the URL contained in the e-mail, thereby transmitting the HTML data to the computer 3. Is transmitted (step 3).
16). Then, the computer 3 receives the HTML data request signal (Step 317). H within a predetermined time
When not receiving the TML request signal, the computer 5
The connection with is terminated (step 318), and the process is terminated.

【0065】またコンピュータ3は、所定時間内にHT
ML要求信号を受信した場合に、ハードディスク装置3
4に記憶されているHTMLデータ、及び該HTMLデ
ータによって示されるハードディスク装置34内の位置
に記憶されている画像データを携帯電話機4へ送信する
(ステップ319)。
The computer 3 sets the HT within a predetermined time.
When receiving the ML request signal, the hard disk drive 3
The HTML data stored in the hard disk drive 34 and the image data stored in the position indicated by the HTML data in the hard disk device 34 are transmitted to the mobile phone 4 (step 319).

【0066】携帯電話機4は、HTMLデータ及び画像
データを受信し(ステップ320)、LCDにこれらの
データに応じた画面を表示する(ステップ321)。こ
の画面には、ロボット1の動作を指示する複数のボタン
が表示されており、例えば、ユーザが携帯電話機4を操
作することによって一つのボタンを選択し、このボタン
を押下するように指示したときに、ロボット1に対して
右方向への回転を指示する動作指示データをコンピュー
タ3へ送信することができるようになっている。携帯電
話機4は、ユーザからこのようなロボット1の動作指示
が行われたときに、この動作指示を表す動作指示データ
を、コンピュータ3へ送信する(ステップ322)。
The cellular phone 4 receives the HTML data and the image data (step 320), and displays a screen corresponding to the data on the LCD (step 321). On this screen, a plurality of buttons for instructing the operation of the robot 1 are displayed. For example, when the user selects one button by operating the mobile phone 4 and instructs to press this button In addition, operation instruction data for instructing the robot 1 to rotate rightward can be transmitted to the computer 3. When such an operation instruction of the robot 1 is issued by the user, the mobile phone 4 transmits operation instruction data representing the operation instruction to the computer 3 (step 322).

【0067】コンピュータ3は、携帯電話機4から動作
指示データを受信し(ステップ323)、該動作指示デ
ータを、前述したようなコマンドデータ又は動作プログ
ラムへ変換して(ステップ324)、このデータをロボ
ット1へ送信する(ステップ325)。ロボット1は、
該データを受信し(ステップ326)、このデータに応
じた動作を行う(ステップ327)。動作終了後、ロボ
ット1は動作終了を表す動作終了信号をコンピュータ3
へ送信し(ステップ328)、これをコンピュータ3が
受信する(ステップ329)。そして、コンピュータ3
はロボット1の動作終了を表す動作終了データを携帯電
話機4へ送信し(ステップ330)、携帯電話機4がこ
れを受信して(ステップ331)、ステップ321に戻
り、画面表示を行う。
The computer 3 receives the operation instruction data from the mobile phone 4 (step 323), converts the operation instruction data into the above-described command data or operation program (step 324), and converts the data into a robot. 1 (step 325). Robot 1
The data is received (step 326), and an operation corresponding to the data is performed (step 327). After the end of the operation, the robot 1 sends an operation end signal indicating the end of the operation to the computer 3.
(Step 328), which is received by the computer 3 (step 329). And computer 3
Transmits the operation end data representing the operation end of the robot 1 to the mobile phone 4 (step 330), and the mobile phone 4 receives this (step 331), returns to step 321 and displays the screen.

【0068】ステップ323において、コンピュータ3
が所定時間動作指示データを受信しない場合、コンピュ
ータ3は、ロボット1へ画像データ要求信号を送信する
(ステップ332)。ロボット1は画像データ要求信号
を受信し(ステップ333)、CCDカメラ12fによ
って画像データを取得して(ステップ334)、取得し
た画像データをコンピュータ3へ送信する(ステップ3
35)。
At step 323, the computer 3
Does not receive the operation instruction data for a predetermined time, the computer 3 transmits an image data request signal to the robot 1 (step 332). The robot 1 receives the image data request signal (step 333), acquires image data with the CCD camera 12f (step 334), and transmits the acquired image data to the computer 3 (step 3).
35).

【0069】コンピュータ3は、画像データを受信し
(ステップ336)、この画像データを前述した形式の
画像データに変換して、ハードディスク装置34に記憶
し(ステップ337)、該画像データを携帯電話機4へ
送信する(ステップ338)。携帯電話機4はこの画像
データを受信し(ステップ339)、該画像データに応
じた画面にLCDの表示を更新する(ステップ34
0)。
The computer 3 receives the image data (step 336), converts the image data into image data in the format described above, stores the image data in the hard disk device 34 (step 337), and stores the image data in the mobile phone 4 (Step 338). The mobile phone 4 receives the image data (step 339) and updates the display on the LCD to a screen corresponding to the image data (step 34).
0).

【0070】ユーザは、コンピュータ3との接続を終了
する場合に、携帯電話機4を操作して、携帯電話機4に
接続終了を表す接続終了信号を送信させる(ステップ3
41)。コンピュータ3は、この接続終了信号を受信し
た場合(ステップ342)、接続を終了し(ステップ3
43)、処理を終了する。コンピュータ3が接続終了信
号を受信しない場合、ステップ323へ戻る。
When ending the connection with the computer 3, the user operates the mobile phone 4 to cause the mobile phone 4 to transmit a connection end signal indicating the end of the connection (step 3).
41). When receiving the connection end signal (step 342), the computer 3 ends the connection (step 3).
43), end the process. If the computer 3 does not receive the connection end signal, the process returns to step 323.

【0071】なお、本実施の形態2においては、コンピ
ュータ3をインターネット6に接続し、コンピュータ3
を介して、携帯電話機4からロボット1の遠隔操作を行
い、ロボット1から携帯電話機4へ画像データ等を送信
する構成としたが、これに限るものではなく、ロボット
1にモデムを内蔵し、またロボット1のROM16aに
WWWサーバプログラムを記憶しておき、ロボット1を
インターネット6に前記モデムによって接続して、携帯
電話機4からロボット1の遠隔操作を行い、またロボッ
ト1内のRAM16bにCCDカメラ12fによる画像
データを格納して、該画像データを携帯電話機4へダウ
ンロードする構成としてもよい。
In the second embodiment, the computer 3 is connected to the Internet 6 and
, The robot 1 is remotely controlled from the mobile phone 4 and image data and the like are transmitted from the robot 1 to the mobile phone 4. However, the present invention is not limited to this. The WWW server program is stored in the ROM 16a of the robot 1, the robot 1 is connected to the Internet 6 by the modem, the robot 1 is remotely controlled from the mobile phone 4, and the RAM 16b in the robot 1 is stored in the RAM 16b by the CCD camera 12f. The image data may be stored and the image data may be downloaded to the mobile phone 4.

【0072】以上の如き構成により、例えば子供又は介
護が必要な老人等を家に残してユーザが外出したとき
に、外出先からユーザが携帯電話機4を用いてロボット
1を遠隔操作し、ロボット1のCCDカメラ12fによ
る撮像画像を携帯電話機4で確認することによって、ユ
ーザが家屋内の状態を知ることができる。
With the above configuration, for example, when the user goes out of the house leaving a child or an elderly person in need of nursing care, the user remotely operates the robot 1 using the cellular phone 4 from the outside, and By checking the image captured by the CCD camera 12f with the mobile phone 4, the user can know the state of the house.

【0073】また、自律動作が可能なロボット1を用い
て家屋内を監視することにより、家に残された子供又は
老人等がロボット1に親しみを感じ、監視カメラを用い
て家屋内を監視する場合に比して、子供又は老人等に安
心感を与えることができる。
By monitoring the interior of the house using the robot 1 capable of autonomous operation, a child or an elderly person left in the house feels familiar with the robot 1 and monitors the interior of the house using a monitoring camera. As compared with the case, the child or the elderly can be given a sense of security.

【0074】[0074]

【発明の効果】以上詳述した如く、第1及び第6発明に
よる場合は、制御部によって、通信装置から出力される
音声又は音声信号、及び撮像部によって撮像して得た画
像に基づいて、ロボットの可動部を駆動制御し、ロボッ
トにユーザ(聞き手)と向き合った状態で、あたかも話
し手になっているかのように振る舞わせることにより、
ユーザに通信時の違和感を感じさせないようにすること
ができる。
As described above in detail, in the case of the first and sixth aspects of the present invention, the control unit controls the sound or the sound signal output from the communication device and the image obtained by the image pickup unit. By driving and controlling the moving parts of the robot, and making the robot face the user (listener) and behave as if it were a speaker,
It is possible to prevent the user from feeling uncomfortable at the time of communication.

【0075】第2及び第7発明による場合は、制御部に
より、通信装置から出力される音声又は音声信号に基づ
いて、ロボットの可動部を駆動制御することによって、
ロボットにあたかも話し手のように振る舞わせ、音声決
定部により、音声入力部で入力された音声に応じた音声
を決定し、この音声を音声出力部から出力することによ
って、ユーザの話しかけに対して適切な応答を行わせ
て、ロボットにあたかも聞き手のように振る舞わせる。
このようにすることによって、ユーザがロボットに話し
かけているときだけでなく、ユーザが他者と通信を行っ
ているときにも、ユーザにロボットと会話をしているよ
うに感じさせ、ユーザがロボットに話しかけているとき
及びユーザが他者と通信を行っているときに、ユーザに
違和感を感じさせないようにすることができる。
According to the second and seventh aspects of the present invention, the control section drives and controls the movable section of the robot based on a voice or a voice signal output from the communication device.
The robot behaves as if it were a speaker, and the voice determination unit determines a voice corresponding to the voice input at the voice input unit, and outputs this voice from the voice output unit, which is appropriate for the user's speech. And make the robot behave like a listener.
This allows the user to feel as if they are talking to the robot, not only when the user is talking to the robot, but also when the user is communicating with others. , And when the user is communicating with another user, it is possible to prevent the user from feeling uncomfortable.

【0076】第3及び第8発明による場合は、撮像部に
よってロボットの周囲を撮像し、これによって得られた
画像に基づいて、可動部の駆動制御を行うようにするこ
とにより、ロボットをユーザと向き合った状態とするこ
とができ、ユーザがロボットに話しかけているとき及び
ユーザが他者と通信を行っているときに、より一層ユー
ザに違和感を感じさせないようにすることができる。
According to the third and eighth aspects, the periphery of the robot is imaged by the imaging unit, and drive control of the movable unit is performed based on the image obtained thereby, thereby allowing the robot to communicate with the user. The user can face each other, and when the user is talking to the robot and when the user is communicating with another person, it is possible to further prevent the user from feeling uncomfortable.

【0077】第4、第5、第9、及び第10発明による
場合は、外部からロボットの動作を指示する第1動作指
示情報を送信し、この第1動作指示情報を家屋内に設置
された通信装置によって受信し、第2動作指示情報(動
作指示情報)としてロボットへ送信し、第2動作指示情
報(動作指示情報)に応じてロボットの各可動部を駆動
制御することにより、遠隔地にいるユーザに外部からロ
ボットを遠隔操作させる。また、ロボットの撮像部によ
って撮像して得た画像を、ロボットから通信装置へ第1
画像情報(画像情報)として送信し、通信装置から外部
へ前記第1画像情報(画像情報)に応じた第2画像情報
を送信することにより、遠隔地にいるユーザに家屋内の
状況を通知する。このようにすることにより、高価な監
視システムを導入することなく、ユーザが家屋内の監視
を行うことができる等、本発明は優れた効果を奏する。
In the fourth, fifth, ninth, and tenth aspects of the present invention, the first operation instruction information for instructing the operation of the robot is transmitted from outside, and the first operation instruction information is installed in the house. Received by the communication device, transmitted to the robot as second operation instruction information (operation instruction information), and by driving and controlling each movable part of the robot in accordance with the second operation instruction information (operation instruction information), Let the user remotely control the robot from outside. In addition, the image obtained by the imaging unit of the robot is transferred from the robot to the communication device by the first device.
By transmitting the image information (image information) and transmitting the second image information corresponding to the first image information (image information) from the communication device to the outside, a user at a remote place is notified of the situation in the house. . By doing so, the present invention has an excellent effect, for example, the user can monitor the house indoors without introducing an expensive monitoring system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るロボットの要部の構成を示す斜視
図である。
FIG. 1 is a perspective view showing a configuration of a main part of a robot according to the present invention.

【図2】本発明に係るロボットシステムの実施の形態1
の要部の構成を示すブロック図である。
FIG. 2 is a first embodiment of a robot system according to the present invention;
FIG. 2 is a block diagram showing a configuration of a main part of FIG.

【図3】実施の形態1に係るロボットの動作モードを設
定するときのCPUの処理手順を示すフローチャートで
ある。
FIG. 3 is a flowchart showing a processing procedure of a CPU when setting an operation mode of the robot according to the first embodiment.

【図4】実施の形態1に係るロボットの動作モードを設
定するときのCPUの処理手順を示すフローチャートで
ある。
FIG. 4 is a flowchart showing a processing procedure of a CPU when setting an operation mode of the robot according to the first embodiment.

【図5】実施の形態1に係るロボットの動作制御を行う
ときのCPUの処理手順を示すフローチャートである。
FIG. 5 is a flowchart illustrating a processing procedure of a CPU when controlling the operation of the robot according to the first embodiment;

【図6】本発明に係るロボットシステムの実施の形態2
の要部の構成を示す模式図である。
FIG. 6 is a second embodiment of the robot system according to the present invention.
FIG. 2 is a schematic diagram showing a configuration of a main part of FIG.

【図7】実施の形態2に係るロボットの構成を示すブロ
ック図である。
FIG. 7 is a block diagram illustrating a configuration of a robot according to a second embodiment.

【図8】ロボットのコマンドデータの一例を示す図表で
ある。
FIG. 8 is a chart showing an example of command data of a robot.

【図9】コンピュータの構成を示すブロック図である。FIG. 9 is a block diagram illustrating a configuration of a computer.

【図10】実施の形態2に係るロボットシステムの動作
の流れを示すフローチャートである。
FIG. 10 is a flowchart showing a flow of an operation of the robot system according to the second embodiment.

【図11】実施の形態2に係るロボットシステムの動作
の流れを示すフローチャートである。
FIG. 11 is a flowchart showing a flow of an operation of the robot system according to the second embodiment.

【図12】実施の形態2に係るロボットシステムの動作
の流れを示すフローチャートである。
FIG. 12 is a flowchart showing a flow of an operation of the robot system according to the second embodiment.

【図13】実施の形態2に係るロボットシステムの動作
の流れを示すフローチャートである。
FIG. 13 is a flowchart showing a flow of an operation of the robot system according to the second embodiment.

【符号の説明】[Explanation of symbols]

1 ロボット 11 頭部 11a 口 11b 眼球 11c 瞼 12 胴部 12a 電話差込口 12b マイクロフォン 12c スピーカ 12f CCDカメラ 16 CPU 16a ROM 16b RAM 17 駆動回路 19 音声再生回路 110 無線通信部 2 携帯電話機 3 コンピュータ 31 CPU 32 ROM 33 RAM 34 ハードディスク装置 35a 無線通信装置 35b モデム 4 携帯電話機 Reference Signs List 1 robot 11 head 11a mouth 11b eyeball 11c eyelid 12 torso 12a telephone slot 12b microphone 12c speaker 12f CCD camera 16 CPU 16a ROM 16b RAM 17 drive circuit 19 sound reproduction circuit 110 wireless communication unit 2 mobile phone 3 computer 31 computer 31 CPU 32 ROM 33 RAM 34 Hard Disk Device 35a Wireless Communication Device 35b Modem 4 Mobile Phone

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/24 G10L 3/00 R 5K048 H04N 7/18 Q H04Q 9/00 331 551H 571Q (72)発明者 東條 直人 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 Fターム(参考) 2C150 AA14 BA06 BA11 CA01 CA02 CA04 DA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 DK02 ED42 ED52 EF07 EF13 EF16 EF23 EF28 EF29 EF34 EF36 3C007 AS36 CS08 JS03 JS07 KT01 WA04 WA16 WB19 WB26 WC07 WC15 WC16 WC25 5C054 AA01 CC02 CF05 CG06 CH01 HA04 5D015 KK01 KK02 5D045 AB11 5K048 BA13 CA08 DC01 DC07 EA11 EB02 EB15 FC01 HA01 HA02 HA13 HA21 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/24 G10L 3/00 R 5K048 H04N 7/18 Q H04Q 9/00 331 551H 571Q (72) Inventor Naoto Tojo 2-5-5 Keihanhondori, Moriguchi-shi, Osaka F-term in Sanyo Electric Co., Ltd. (reference) 2C150 AA14 BA06 BA11 CA01 CA02 CA04 DA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 DK02 ED42 ED52 EF07 EF13 EF16 EF16 EF23 EF28 EF29 EF34 EF36 3C007 AS36 CS08 JS03 JS07 KT01 WA04 WA16 WB19 WB26 WC07 WC15 WC16 WC25 5C054 AA01 CC02 CF05 CG06 CH01 HA04 5D015 KK01 KK02 5D045 AB11 5K048 BA13 CA08 DC01 DC02

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 1又は複数の可動部、及び撮像部を有す
るロボットと、音声信号を受信し、受信した音声信号に
応じた音声又は音声信号を出力する通信装置とを備える
ロボットシステムであって、 前記ロボットは、前記通信装置から出力される音声又は
音声信号、及び前記撮像部によって撮像して得た画像に
基づいて、前記可動部の駆動制御を行う制御部を備える
ことを特徴とするロボットシステム。
1. A robot system comprising: a robot having one or a plurality of movable units and an imaging unit; and a communication device that receives an audio signal and outputs an audio signal or an audio signal corresponding to the received audio signal. A robot that includes a control unit that controls driving of the movable unit based on a voice or a voice signal output from the communication device and an image captured by the imaging unit. system.
【請求項2】 1又は複数の可動部、音声入力部、及び
音声出力部を有するロボットと、音声信号を受信し、受
信した音声信号に応じた音声又は音声信号を出力する通
信装置とを備えるロボットシステムであって、 前記ロボットは、前記通信装置から出力される音声又は
音声信号に基づいて、前記可動部を駆動制御する制御部
と、前記音声入力部によって入力された音声に基づいて
出力すべき音声を決定する音声決定部とを備え、前記音
声出力部は、前記音声決定部によって決定された音声を
出力すべくなしてあることを特徴とするロボットシステ
ム。
2. A robot having one or a plurality of movable units, a voice input unit, and a voice output unit, and a communication device that receives a voice signal and outputs a voice or a voice signal according to the received voice signal. A robot system, wherein the robot outputs a control based on a voice or a voice signal output from the communication device, based on a voice input by the voice input unit and a control unit that drives and controls the movable unit. A robot system comprising: a voice determining unit that determines a power voice; wherein the voice output unit is configured to output the voice determined by the voice determining unit.
【請求項3】 前記ロボットは、撮像部を更に備え、前
記制御部は、該撮像部によって撮像して得た画像に基づ
いて、前記可動部の駆動制御を行うべくなしてあること
を特徴とする請求項2に記載のロボットシステム。
3. The robot according to claim 1, further comprising an imaging unit, wherein the control unit controls the driving of the movable unit based on an image captured by the imaging unit. The robot system according to claim 2, wherein
【請求項4】 1又は複数の可動部、及び撮像部を有す
るロボットと、通信装置とを備えるロボットシステムで
あって、 前記通信装置は、外部から前記可動部の動作指示を表す
第1動作指示情報を受信する第1受信部と、該第1受信
部によって受信した第1動作指示情報に応じた第2動作
指示情報を前記ロボットへ送信する第1送信部と、前記
ロボットから送信された画像を表す第1画像情報を受信
する第2受信部と、該第2受信部によって受信した第1
画像情報に応じた第2画像情報を外部へ送信する第2送
信部とを備え、前記ロボットは、前記通信装置から送信
された第2動作指示情報を受信する第3受信部と、該第
3受信部によって受信した第2動作指示情報に基づい
て、前記可動部の駆動制御を行う制御部と、前記撮像部
によって撮像して得た画像に基づいて、前記第1画像情
報を前記通信装置へ送信する第3送信部とを有すること
を特徴とするロボットシステム。
4. A robot system comprising: a robot having one or a plurality of movable units and an imaging unit; and a communication device, wherein the communication device is configured to externally output a first operation instruction representing an operation instruction of the movable unit. A first reception unit for receiving information, a first transmission unit for transmitting second operation instruction information corresponding to the first operation instruction information received by the first reception unit to the robot, and an image transmitted from the robot A second receiving unit that receives the first image information representing the first image information, and a first receiving unit that receives the first image information.
A second transmitting unit that transmits second image information corresponding to the image information to the outside, wherein the robot has a third receiving unit that receives the second operation instruction information transmitted from the communication device; A control unit configured to control the driving of the movable unit based on the second operation instruction information received by the receiving unit; and transmitting the first image information to the communication device based on an image captured by the imaging unit. A robot system, comprising: a third transmission unit that transmits.
【請求項5】 前記通信装置は、外部から前記可動部の
動作指示を表す第1動作指示情報を受信する第1受信部
と、該第1受信部によって受信した第1動作指示情報に
応じた第2動作指示情報を前記ロボットへ送信する第1
送信部と、前記ロボットから送信された画像を表す第1
画像情報を受信する第2受信部と、該第2受信部によっ
て受信した第1画像情報に応じた第2画像情報を外部へ
送信する第2送信部とを更に備え、前記ロボットは、前
記通信装置から送信された第2動作指示情報を受信する
第3受信部と、前記撮像部によって撮像して得た画像に
基づいて、前記第1画像情報を前記通信装置へ送信する
第3送信部とを更に備え、前記制御部は、前記第3受信
部によって受信した第2動作指示情報に基づいて、前記
可動部の駆動制御を行うべくなしてあることを特徴とす
る請求項1又は3に記載のロボットシステム。
5. The communication device according to claim 1, further comprising: a first receiving unit configured to receive first operation instruction information indicating an operation instruction of the movable unit from outside; and a first operation instruction information received by the first receiving unit. A first transmitting the second operation instruction information to the robot;
A transmitting unit, and a first representing an image transmitted from the robot.
The robot further includes: a second receiving unit that receives the image information; and a second transmitting unit that transmits second image information corresponding to the first image information received by the second receiving unit to the outside. A third receiving unit that receives the second operation instruction information transmitted from the device, and a third transmitting unit that transmits the first image information to the communication device based on an image captured by the imaging unit. 4. The control unit according to claim 1, wherein the control unit is configured to perform drive control of the movable unit based on the second operation instruction information received by the third receiving unit. 5. Robot system.
【請求項6】 1又は複数の可動部と、撮像部と、音声
信号を受信し、受信した音声信号に応じた音声又は音声
信号を出力する通信装置から、前記音声又は音声信号を
入力する入力部とを備えるロボットであって、 前記入力部によって入力した音声又は音声信号、及び前
記撮像部によって撮像して得た画像に基づいて、前記可
動部の駆動制御を行う制御部を備えることを特徴とする
ロボット。
6. An input for inputting the voice or voice signal from one or more movable parts, an imaging unit, and a communication device that receives the voice signal and outputs a voice or voice signal corresponding to the received voice signal. And a control unit that controls the driving of the movable unit based on a voice or a voice signal input by the input unit and an image captured by the imaging unit. And a robot.
【請求項7】 1又は複数の可動部と、音声入力部と、
音声出力部と、音声信号を受信し、受信した音声信号に
応じた音声又は音声信号を出力する通信装置から、前記
音声又は音声信号を入力する入力部とを備えるロボット
であって、 前記入力部によって入力した音声又は音声信号に基づい
て、前記可動部を駆動制御する制御部と、前記音声入力
部によって入力された音声に基づいて出力すべき音声を
決定する音声決定部とを備え、前記音声出力部は、前記
音声決定部によって決定された音声を出力すべくなして
あることを特徴とするロボット。
7. One or more movable parts, a voice input part,
A robot comprising an audio output unit and an input unit that receives an audio signal and outputs the audio or the audio signal from a communication device that outputs an audio or an audio signal according to the received audio signal. A control unit that controls the driving of the movable unit based on a voice or a voice signal input by the control unit; and a voice determination unit that determines a voice to be output based on the voice input by the voice input unit. The output unit is configured to output the voice determined by the voice determining unit.
【請求項8】 撮像部を更に備え、前記制御部は、該撮
像部によって撮像して得た画像に基づいて、前記可動部
の駆動制御を行うべくなしてあることを特徴とする請求
項7に記載のロボット。
8. The image processing apparatus according to claim 7, further comprising an imaging unit, wherein the control unit controls the driving of the movable unit based on an image captured by the imaging unit. The robot according to 1.
【請求項9】 1又は複数の可動部と、撮像部とを備え
るロボットにおいて、 前記可動部の動作指示を表す動作指示情報を受信する受
信部と、該受信部によって受信した動作指示情報に基づ
いて、前記可動部の駆動制御を行う制御部と、前記撮像
部によって撮像して得た画像を含む画像情報を送信する
送信部とを備えることを特徴とするロボット。
9. A robot comprising one or a plurality of movable parts and an imaging part, wherein: a receiving part for receiving operation instruction information representing an operation instruction of the movable part; A control unit that controls the driving of the movable unit; and a transmission unit that transmits image information including an image captured by the imaging unit.
【請求項10】 前記可動部の動作指示を表す動作指示
情報を受信する受信部と、前記撮像部によって撮像して
得た画像を含む画像情報を送信する送信部とを更に備
え、前記制御部は、前記受信部によって受信した動作指
示情報に基づいて、前記可動部の駆動制御を行うべくな
してあることを特徴とする請求項6又は8に記載のロボ
ット。
10. The control unit, further comprising: a receiving unit that receives operation instruction information indicating an operation instruction of the movable unit; and a transmission unit that transmits image information including an image obtained by the imaging unit. The robot according to claim 6, wherein the robot is configured to perform drive control of the movable unit based on operation instruction information received by the receiving unit.
JP2001040880A 2001-02-16 2001-02-16 Robot system and robot Pending JP2002239971A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001040880A JP2002239971A (en) 2001-02-16 2001-02-16 Robot system and robot
KR1020020008122A KR20020067669A (en) 2001-02-16 2002-02-15 Robot system and robot
US10/076,782 US7047105B2 (en) 2001-02-16 2002-02-15 Robot controlled by wireless signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001040880A JP2002239971A (en) 2001-02-16 2001-02-16 Robot system and robot

Publications (1)

Publication Number Publication Date
JP2002239971A true JP2002239971A (en) 2002-08-28

Family

ID=18903395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001040880A Pending JP2002239971A (en) 2001-02-16 2001-02-16 Robot system and robot

Country Status (1)

Country Link
JP (1) JP2002239971A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182193A (en) * 2009-02-06 2010-08-19 Takao Hayashi Mobile phone robot
JP2011167820A (en) * 2010-02-22 2011-09-01 Advanced Telecommunication Research Institute International Head part action control information generating device
JP2022078761A (en) * 2020-11-13 2022-05-25 本田技研工業株式会社 Remote display system, robot, and display terminal
JP7402145B2 (en) 2020-11-13 2023-12-20 本田技研工業株式会社 Remote control systems, mobile robots, and operating terminals

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182193A (en) * 2009-02-06 2010-08-19 Takao Hayashi Mobile phone robot
JP2011167820A (en) * 2010-02-22 2011-09-01 Advanced Telecommunication Research Institute International Head part action control information generating device
JP2022078761A (en) * 2020-11-13 2022-05-25 本田技研工業株式会社 Remote display system, robot, and display terminal
JP7402145B2 (en) 2020-11-13 2023-12-20 本田技研工業株式会社 Remote control systems, mobile robots, and operating terminals
JP7402784B2 (en) 2020-11-13 2023-12-21 本田技研工業株式会社 Remote display systems, robots, and display terminals

Similar Documents

Publication Publication Date Title
US7047105B2 (en) Robot controlled by wireless signals
KR100617525B1 (en) Robot and information processing system
CN110609620B (en) Human-computer interaction method and device based on virtual image and electronic equipment
JP5033994B2 (en) Communication robot
EP2556869A1 (en) Operable toy
CN109262606B (en) Apparatus, method, recording medium, and robot
JP2009520296A (en) Message sending method, message sending device and message rendering device
JP2004214895A (en) Auxiliary communication apparatus
JP7102169B2 (en) Equipment, robots, methods, and programs
WO2022228068A1 (en) Image acquisition method, apparatus, and system for electronic device, and electronic device
JP2007160427A (en) Robot control system
JP2002239971A (en) Robot system and robot
JP2012029066A (en) Portable telephone
JP3526785B2 (en) Communication device
JP2001345906A (en) Robot for adaptive to telephone
JP2001156930A (en) Gesture transmitter
JP2003062776A (en) Small-sized robot communication system
JP2006166437A (en) Animatronic portable device
JP2012249259A (en) Room monitoring system, and telephone device
US10537812B2 (en) Systems and methods for interactive communication between an object and a smart device
US20210187402A1 (en) Systems and Methods for Interactive Communication Between an Object and a Smart Device
CN206835271U (en) Remote control and door phones of building device
KR100917796B1 (en) Robot Mount Type Emergency Rescue Communication Apparatus and Emergency Rescue Communication System Using the Same
JP2002254376A (en) Robot and robot system
WO2024070550A1 (en) System, electronic device, system control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050111