JP2005279896A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2005279896A
JP2005279896A JP2004101477A JP2004101477A JP2005279896A JP 2005279896 A JP2005279896 A JP 2005279896A JP 2004101477 A JP2004101477 A JP 2004101477A JP 2004101477 A JP2004101477 A JP 2004101477A JP 2005279896 A JP2005279896 A JP 2005279896A
Authority
JP
Japan
Prior art keywords
robot
person
word
utterance
internal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004101477A
Other languages
English (en)
Other versions
JP4247149B2 (ja
Inventor
Ayuko Fujisaki
亜由子 藤崎
Tomoko Tonami
朋子 礪波
Takeshi Aso
武 麻生
Michio Okada
美智男 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004101477A priority Critical patent/JP4247149B2/ja
Publication of JP2005279896A publication Critical patent/JP2005279896A/ja
Application granted granted Critical
Publication of JP4247149B2 publication Critical patent/JP4247149B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】 使用者の志向的な構えを引き出すとともに使用者との間での円滑なコミュニケーションを可能とするロボットを提供することである。
【解決手段】 ロボット10の外被12内にはスピーカ23が設けられる。ロボット10はスピーカ23から音声を出力することにより使用者に対して発話することができる。ロボット10のコンピュータが内蔵するメモリにつぶやき言葉および通常の言葉を予め記憶しておき、内部状態または外部状態に基づいてつぶやき言葉または通常の言葉を選択して音声で出力する。
【選択図】 図1

Description

本発明は、発話を行うロボットに関する。
近年、例えば電子ペットとして使用されるロボットが種々提案および開発されており(例えば特許文献1参照)、また、発話を行うロボットも多数開発されている。
特開2002−136772号公報
一般に、人間同士の対話では、情報の伝達だけでなく発言の態様により意図を読み合うような「こころ」の交流が行われる。それにより、互いの親密感が高まり、互いの円滑なコミュニケーションが行われる。
しかしながら、従来のロボットの発話は、他者に向けられたものばかりであるため、人間はロボットを内的状態を有する存在として意識しない。したがって、ロボットと人間との対話では、「こころ」の交流が行われない。また、人間はロボットの言葉に重みを感じない。
これらの結果、ロボットに対する使用者の志向的な構えが引き出されず、使用者とロボットとの間での円滑なコミュニケーションを図ることができない。
本発明の目的は、使用者の志向的な構えを引き出すとともに使用者との間での円滑なコミュニケーションを可能とするロボットを提供することである。
本発明に係るロボットは、本体部と、本体部に設けられ、自身に向けられた言葉として内言を発するとともに外部に向けられた言葉として外言を発する発話手段と、発話手段を制御する制御手段とを備え、制御手段は、内部状態または外部状態に基づいて内言または外言を選択的に発するように発話手段を制御するものである。
本発明に係るロボットにおいては、内部状態または外部状態に基づいて発話手段により自身に向けられた言葉として内言が発せられ、または外部に向けられた言葉として外言が発せられる。それにより、ロボットが内言を持つことを使用者に印象付けることができる。また、内言を発することにより外言が言葉の重みを持ってくる。その結果、ロボットへの使用者の志向的な構えが引き出されるとともに使用者とロボットとの間での円滑なコミュニケーションが可能となる。
発話手段は、内言および外言を音声の大きさおよび/または韻律で表現してもよい。それにより、使用者は、ロボットが発する音声の大きさおよび/または韻律によりロボットが内言を発しているか外言を発しているかを認識することができる。
発話手段は、内的状態を表す内的状態語を内言として発してもよい。それにより、使用者は、ロボットの内的状態を認識することができる。
ロボットは、対面者の音声を認識する認識手段をさらに備え、制御手段は、外部状態として認識手段により認識された音声に基づいて内言または外言を選択的に発するように発話手段を制御してもよい。
この場合、ロボットは、対面者の発話に応じて内言または外言を選択的に発する。それにより、対面者とロボットとの間でのより円滑なコミュニケーションが可能となる。
ロボットは、対面者の視線の方向を検出する検出手段をさらに備え、制御手段は、外部状態として検出手段の検出結果に基づいて内言または外言を選択的に発するように発話手段を制御してもよい。
この場合、ロボットは、対面者の視線の方向に応じて内言または外言を選択的に発する。それにより、対面者とロボットとの間でのより円滑なコミュニケーションが可能となる。
ロボットは、本体部の状態を判定する判定手段をさらに備え、制御手段は、内部状態として判定出手段の判定結果に基づいて内言または外言を選択的に発するように発話手段を制御してもよい。
この場合、ロボットは、自身の状態に応じて内言または外言を自律的に発する。それにより、ロボットが内言を持つことを使用者に強く印象付けることができる。
ロボットは、本体部に設けられ、視線を表現する少なくとも1つの眼部と、眼部により表現される視線を移動させる視線移動手段とをさらに備え、制御手段は、内部状態または外部状態に基づいて眼部により表現される視線を対面者に向ける動作および眼部により表現される視線を対面者から外す動作を選択的に実行するように視線移動手段を制御してもよい。
この場合、使用者にロボットを他者として意識させることが可能になるとともに、ロボットが内言を持つことを使用者に強く印象付けることができる。また、自身に向けられた言葉と外部に向けられた言葉とをそれぞれ際立たせることができる。その結果、ロボットへの使用者の志向的な構えが十分に引き出されるとともに使用者とロボットとの間でのより円滑なコミュニケーションが可能となる。
ロボットは、本体部の位置および姿勢の少なくとも一方を変化させる駆動手段をさらに備え、制御手段は、内部状態または外部状態に基づいて本体部の位置および姿勢の少なくとも一方を変化させるように駆動手段を制御してもよい。
この場合、使用者にロボットを他者として意識させることが可能になるとともに、ロボットが内言を持つことを使用者に強く印象付けることができる。また、自身に向けられた言葉と外部に向けられた言葉とをそれぞれ際立たせることができる。その結果、ロボットへの使用者の志向的な構えが十分に引き出されるとともに使用者とロボットとの間でのより円滑なコミュニケーションが可能となる。
本発明によれば、ロボットへの使用者の志向的な構えが引き出されるとともに使用者とロボットとの間での円滑なコミュニケーションが可能となる。
図1は本発明の一実施の形態に係るロボットの正面図である。図2は図1のロボットの側面図である。図3は図1のロボットの内部構造図である。
図1および図2において、ロボット10は仮想的な生命体であり、全体としてティアドロップ形状である外被12を有する。外被12は、柔軟で触感の良好な発泡ウレタン等の材料により形成される。外被12は、後述する球形の内殻に被せられる球形部14と、その球形部14の頂部から延びかつ先細りで先端が丸みを有する頭尾16とを有する。
頭尾16には、金属、プラスチック、合成ゴム等の弾性体からなる棒状の芯材17が内蔵されている。芯材17の基端は、図3の内部構造物24により支持される。これにより、頭尾16は、前後左右に連続的に揺動する。この頭尾16は、後述の透明球殻18とともにロボット10の姿勢および方向を強調する機能を果たす。したがって、使用者の様々な関与の結果としてのロボット10の反応を頭尾16の動きに増幅して表示することができる。
外被12の球形部14のほぼ中心に、透明プラスチック等からなる透明球殻18が露出するように設けられる。外被12の内部において、透明球殻18の後方にカメラ20およびディスプレイ60が設けられている。カメラ20は、例えばCCD(電荷結合素子)カメラである。ディスプレイ60は、例えば液晶ディスプレイである。
カメラ20は、透明球殻18を通して外部の人物、物体または風景を撮像することができる。カメラ20により得られた映像がディスプレイ60の表示画面に表示される。使用者は、外部から透明球殻18を通してディスプレイ60の表示画面に表示された映像を見ることができる。透明球殻18、カメラ20およびディスプレイ60により眼が構成される。ディスプレイ60が瞳に相当し、透明球殻18の向きにより視線を表現することができる。この場合、ロボット10が見つめる対象がディスプレイ60の表示画面に表示される。
また、カメラ20により得られた映像に基づいて画像認識により対面者の顔を認識することができるとともに対面者の視線の方向を認識することができる。
本実施の形態では、ロボット10が透明球殻18からなる1つの眼を有するが、ロボット10が複数の眼を有してもよい。
外被12の下端から移動用の車輪22が露出するように設けられる。ロボット10は、車輪22により床面上を自在に移動することができる。
図1に点線で示すように、外被12内には、スピーカ23が設けられる。ロボット10は、スピーカ23から音声を出力することにより使用者に対して発話することができる。特に、本実施の形態のロボット10は、スピーカ23から内言および外言を発することができる。
ここで、内言とは、自身に向けられた言葉をいい、内的思考(内的状態)を表す言葉を意味する。外言とは、外部に向けられた言葉をいい、通常、他人に向けて発せられる。人間は、内言を外部に表示するために「つぶやき」を行う。
本実施の形態のロボット10においては、後述する図4のコンピュータ46が内蔵するメモリにつぶやき言葉および通常の言葉を予め記憶しておき、内部状態または外部状態に基づいてつぶやき言葉または通常の言葉を選択して音声で出力する。
つぶやき言葉および通常の言葉は、声の大きさ、または発話の語尾の形態等の韻律(プロソディ)で区別することができ、または内的状態語であるか否かにより区別することができる。
つぶやき言葉の詳細については後述する。なお、コンピュータ46が内部状態または外部状態に基づいて音声の大きさ、発話の語尾の状態等を調整することによりつぶやき言葉を合成してもよい。
また、外被12内の透明球殻18の近傍には、2つのマイク211,212が設けられる。これらのマイク211,212により使用者の音声を入力することができる。また、マイク211,212は、ステレオマイクとして機能する。マイク211,212に入力される音声の位相差で音源方向を認識することができる。後述するように、ロボット10は、音源を追尾するように位置および姿勢を変化させることができる。
このようにスピーカ23を設けかつ上述のマイク211,212を設けることにより、このロボット10を音声インタフェース手段として利用することができる。
外被12内の下部には、複数の測距センサ(距離測定センサ)25およびヒトセンサ29が設けられる。測距センサ25は、例えば、レーザ測距センサ、超音波測距センサ、マイクロ波測距センサ等からなり、人物、物体等の対象までの距離を測定する。ヒトセンサ29は、赤外線近接センサ等からなり、人物の存在を検出する。また、測距センサ25およびヒトセンサ29が設けられる外被12の位置には、レーザ光、超音波、マイクロ波、赤外線等を通過させるための開口または孔が形成される。
図3には、外被12に覆われる内部構造物24が示される。内部構造物24は、プラスチック、金属板等からなるベースフレーム26を含む。ベースフレーム26は、上面板とその両端から垂下する2つの側面板とにより構成され、断面コ字形に形成されている。このベースフレーム26の側面板を貫通して車軸27が軸受けにより回転可能に支持される。側面板の外側でその車軸27の両端に、図1を参照して説明した移動用の車輪22が取り付けられる。
ベースフレーム26の上面板上には、弾性体としてコイルばね28を介してプラスチック、軽量金属等からなる支持台30が取り付けられる。支持台30上には、収納部32が設けられる。収納部32には、後述のコンピュータ46および移動モータ50(図4)が収納される。それにより、ロボット10が全体として、コイルばね28により支持される。
支持台30上には、ロボット10をパン動作(横首振り)およびチルト動作(縦首振り)させるアクチュエータが構成される。このアクチュエータは、コンピュータ46(図4)により制御される。
収納部32上には、支持筒34を介して上述のディスプレイ60が装着される。ディスプレイ60上には、取り付け板36が固着され、その取り付け板36によりディスプレイ60と一体的に支持板38が取り付けられる。支持板38は、プラスチック、軽量金属等からなる平面円形の板である。
支持筒34内には、パン動作を行うためのパンモータ54(図4)、チルト動作を行うためのチルトモータ58(図4)、およびそれらのモータの駆動力を支持板38に伝達する動力伝達機構(図示せず)が収納される。
支持板38の下面には、プラスチック等からなる截頭半球状の第1内殻40が固着部40aと支持板38の周縁とを接着または溶着することにより固着される。支持板38の上面には、プラスチック等からなりかつ球の頭部を切り取った形状を有する球頭形状の第2内殻42が、固着部42aと支持板38の周縁とを接着または溶着することにより固着される。
第1内殻40および第2内殻42により球形の内殻が形成される。支持台30の外面が第1内殻40の下方に連続する球形部を形成するように截頭半球状に形成されている。このような球形内殻上に、図1に示す外被12の球形部14が被せられる。
球形内殻すなわち第1内殻40および第2内殻42の表面には、リミットスイッチ等からなる複数の接触センサ44が規則的に分布して、または意図的に偏在して取り付けられる。つまり、複数の接触センサ44は、球形内殻の表面上に一定の規則的な配列で配置されるかまたは人が触るであろう部位または領域に集中的に配置される。
図4は図1のロボット10の制御系を示すブロック図である。
マイク211,212により得られる音声信号、カメラ20により得られる映像信号、測距センサ25の出力信号、ヒトセンサ29の出力信号および接触センサ44の出力信号が所定のインタフェース(図示せず)を介してコンピュータ46に取り込まれる。
コンピュータ46は、カメラ20により取り込まれた映像信号に基づいてディスプレイ60の表示画面に映像を表示させる。また、コンピュータ46は、移動モータ駆動回路48、パンモータ駆動回路52およびチルトモータ駆動回路56を制御する。それにより、移動モータ駆動回路48、パンモータ駆動回路52およびチルトモータ駆動回路56は、移動モータ50、パンモータ54およびチルトモータ58を所定のタイミングで駆動する。
移動モータ50が駆動されると、図1および図2の車輪22が回転し、ロボット10が前進または後退する。それにより、ロボット10の位置を変化させることができる。
パンモータ54およびチルトモータ58の駆動力が所定の動力伝達機構を介して図3の支持板38に伝達される。上記のように、第1内殻40および第2内殻42が支持板38と一体的に動くように取り付けられているので、支持板38の横向きの変位により第1内殻40および第2内殻42も横向きに変位し、支持板38の縦向きの変位により第1内殻40および第2内殻42も縦向きに変位する。それにより、図1および図2の外被12がパン動作およびチルト動作することができる。このようなパン動作およびチルト動作によりロボット10の姿勢を変化させることができる。
したがって、パン動作およびチルト動作によりロボット10の透明球殻18の向きを変化させ、ロボット10の視線の方向を変化させることができる。具体的には、ロボット10は、視線を使用者に向けるかまたは使用者から外すことができる。
また、チルト動作によりうなずく等の肯定的な意思表示を表現することができる。また、パン動作により否定的な意思表示を表現することができる。チルト動作またはパンの動作の大きさを変化させることにより、強い肯定もしくは否定または弱い肯定もしくは否定を表現することができる。
なお、ロボット10自身の動きを測定するために加速度センサを設けてもよい。
ここで、つぶやきの実現方法について説明する。まず、ロボット10は、発話の韻律的(プロソディック)な特徴を変化させることにより自己の内的状態をつぶやきとして表現する。
また、ロボット10自身の発話の言語内容と視線の方向とを連動させ、発話の意図を表現する。例えば、ロボット10が快適な内的状態を発話する場合には、視線を対面者に向け、ロボット10が不快な内的状態を発話する場合には、視線を対面者から外す。それにより、発話の意図を強調することができる。
この場合、対面者とロボット10との距離、対面者の発話の韻律等の情報に基づいて会話におけるロボット10自身の快適または不快の程度を検出する。また、対面者の発話内容を理解するとともに対面者の発話が引き起こすロボット10自身の内的状態を参照することによりつぶやくか否かを選択する。
さらに、対面者の視線を検出し、その視線の方向および注視時間に基づいてロボット10自身の視線および声の形態を選択する。
また、ロボット10の快適に関連する内的状態語またはロボット10の不快に関連する内的状態語を選択して発話する。
また、ロボット10のバッテリの充電状態またはロボット10の稼動時間に基づいて自己の内部状態を認識し、自律的に内的状態語を選択して発話する。
次に、つぶやき言葉の例について説明する。内的状態語は、内的状態を表す言葉であり、例えば「うれしいなあ」、「楽しいなあ」、「退屈やなあ」、「もういやや」、「眠いわ」、「これなんやろう」、「不思議やなあ」、「どうしよう」等が挙げられる。内的状態語をつぶやく場合には、対面者から視線を外す。
対面者の視線および対面者との距離に基づいてつぶやき言葉を選択する。例えば、近くに人がいないときには、「暇やわあ」、「静かやなあ」、「何しよう」などとつぶやく。相手が沈黙し続けたときには、視線を外して「つまらんわあ」、「どうしよう」、「静かすぎるわ」などとつぶやく。相手が近寄りすぎたときには、視線を外して「恥ずかしいわあ」などとつぶやく。相手がじっと見つめ続けたときには、視線を外して「近すぎやわ」、「恥ずかしいわあ」などとつぶやく。
また、対面者の発話内容に基づいてつぶやき言葉を選択する。例えば、恥ずかしいとき、不快なとき、眠いときなどには、視線を外して「恥ずかしいわあ」、「眠いわあ」、「もういややわあ」などとつぶやく。また、対面者の発話の大きさを感知することによりつぶやき言葉を選択する。例えば、「声大きいわ」、「うるさいわ」などとつぶやく。
さらに、ロボット10自身の内部状態に基づいてつぶやき言葉を選択する。例えば、バッテリの残量が少ないときには、「ああねむ」、「疲れたなあー」などとつぶやく。稼働時間が長いときには、「もっと遊びたいわ」、「疲れたわあ」などとつぶやく。対面者または物体に新奇性を発見したときには、「これなんやろう」、「不思議やわあ」などとつぶやく。
図5および図6は図1のロボット10の動作の一例を示すフローチャートである。ロボット10は、コンピュータ46のメモリに記憶された制御プログラムに従って動作する。
まず、ロボット10のコンピュータ46は、ヒトセンサ29により対面者が近くにいるか否かを判定する(ステップS1)。対面者が近くにいる場合には、カメラ20により対面者の顔を撮像することにより対面者の視線を認識する(ステップS2)。
次に、コンピュータ46は、対面者の視線が自分に向けられているか否かを判定する(ステップS3)。対面者の視線が自分に向けられている場合には、カメラ20により得られた映像に基づいて対面者の目の位置を測定する(ステップS4)。そして、対面者の目の位置が所定距離よりも近いか否かを判定する(ステップS5)。
対面者の目の位置が所定距離よりも近い場合には、ロボット10は対面者から視線をそらす(ステップS6)。その後、ロボット10は移動モータ50により後退し(ステップS7)、スピーカ23から「恥ずかしいなあ」などとつぶやく(ステップS8)。その後、ステップS3に戻る。
ステップS3において対面者の視線が自分に向けられていない場合には、コンピュータ46は視線が向けられていない時間を測定する(ステップS12)。そして、視線が向けられていない時間が所定時間(例えば20秒)よりも長いか否かを判定する(ステップS13)。
視線が向けられていない時間が所定時間以下の場合には、ステップS3に戻る。視線が向けられていない時間が所定時間よりも長い場合には、スピーカ23から「退屈やわあ」、「つまんないなあ」などとつぶやく(ステップS14)。その後、ステップS3に戻る。
ステップS5において対面者の目の位置が所定距離以上に離れている場合には、コンピュータ46は視線が向けられている時間を測定する(ステップS9)。そして、視線が向けられている時間が所定時間(例えば20秒)よりも長いか否かを判定する(ステップS10)。
視線が向けられている時間が所定時間よりも長い場合には、ステップS6に戻る。視線が向けられている時間が所定時間以下の場合には、ロボット10はパンモータ54およびチルトモータ58により対面者の方向を向いて挨拶、問いかけ等の外言を発話する(ステップS11)。その後、ステップS1に戻る。
ステップS1において対面者が近くにいない場合も、ステップS11に進み、ロボット10はパンモータ54およびチルトモータ58により対面者の方向を向いて挨拶、問いかけ等の外言を発話する。
図7は図1のロボット10の動作の他の例を示すフローチャートである。ロボット10は、コンピュータ46のメモリに記憶された制御プログラムに従って動作する。
まず、ロボット10のコンピュータ46は、マイク211,212により対面者の発話があるか否かを判定する(ステップS21)。
対面者の発話がある場合には、対面者からの発話を音声認識により認識する(ステップS22)。そして、コンピュータ46は、自分へ向けられた発話があるか否かを判定する(ステップS23)。この場合、カメラ20により得られた映像に基づいて対面者の視線を認識し、かつマイク211,212により入力された音声に基づいて音声の大きさおよび方向を認識することにより、対面者からの発話が自分に向けられたものであるか否かを判定する。
自分へ向けられた発話がある場合には、発話内容、および声の大きさ等の発話状態を認識する(ステップS24)。コンピュータ46は、発話内容および発話状態に基づいて快適であるか否かを判定する(ステップS25)。
快適な場合には、ロボット10は、パンモータ54およびチルトモータ58により対面者の方向を向いて外言を発話する(ステップS26)。その後、ステップS21に戻る。
ステップS25において不快な場合には、ロボット10は、パンモータ54およびチルトモータ58により視線をそらし、「はああ」などとつぶやく(ステップS27)。その後、ステップS21に戻る。
ステップS21において対面者が発話しない場合には、ロボット10は、パンモータ54およびチルトモータ58により対面者の方向を向いて挨拶、問いかけ等の外言を発話する(ステップS28)。
さらに、コンピュータ46は、マイク211,212により対面者の発話があるか否かを判定する(ステップS29)。対面者の発話がない場合には、スピーカ23から「退屈やわあ」、「つまんないなあ」などとつぶやく(ステップS30)。その後、ステップS21に戻る。ステップS29において対面者の発話がある場合には、ステップS22に戻る。
ステップS23において自分へ向けられた発話がない場合には、ステップS30に進み、スピーカ23から「退屈やわあ」、「つまんないなあ」などとつぶやく。
図8は図1のロボット10の動作のさらに他の例を示すフローチャートである。ロボット10は、コンピュータ46のメモリに記憶された制御プログラムに従って動作する。
まず、ロボット10のコンピュータ46は、カメラ20により得られた映像に基づいて対面者の顔認識を行う(ステップS41)。そして、認識された顔が新奇性を有するか否かを判定する(ステップS42)。
認識された顔が新奇性を有さない場合には、カメラ20により得られた映像に基づいて物体を認識する(ステップS43)。そして、認識された物体が新奇性を有するか否かを判定する(ステップS44)。
ステップS42において認識された顔が新奇性を有する場合には、スピーカ23から「誰だろう?」などとつぶやく(ステップS45)。その後、ステップS41に戻る。
ステップS44において認識された物体が新奇性を有する場合には、スピーカ23から「何だろう?」などとつぶやく(ステップS45)。その後、ステップS41に戻る。
ステップS44において認識された物体が新奇性を有さない場合には、コンピュータ46は時間経過を認識する(ステップS46)。そして、認識された時間経過が所定時間(例えば20秒)よりも長いか否かを判定する(ステップS47)。
認識された時間経過が所定時間以下の場合には、コンピュータ46はバッテリの残量を認識する(ステップS48)。そして、認識されたバッテリの残量が所定量よりも少ないか否かを判定する(ステップS49)。認識されたバッテリの残量が所定量以上の場合には、ステップS41に戻る。
ステップS47において認識された時間経過が所定時間よりも長い場合およびステップS49において認識されたバッテリの残量が所定量よりも少ない場合には、スピーカ23から「疲れたなあ」などとつぶやく(ステップS50)。その後、ステップS41に戻る。
本実施の形態に係るロボット10においては、内部状態または外部状態に基づいてスピーカ23により自身に向けられた言葉として内言が発せられ、または外部に向けられた言葉として外言が発せられる。
この場合、内言および外言は声の大きさまたは韻律で表現される。それにより、使用者は、ロボット10が発する音声の大きさまたは韻律によりロボット10が内言を発しているか外言を発しているかを認識することができる。また、内的状態を表す内的状態語が内言として発話される。それにより、使用者は、ロボット10の内的状態を認識することができる。
また、ロボット10は、対面者の音声を認識することにより対面者の発話に応じて内言または外言を選択的に発話することができる。さらに、ロボット10は、対面者の視線の方向に応じて内言または外言を選択的に発話することができる。また、ロボット10は、自身の内部状態に応じて内言または外言を自律的に発話することができる。
しかも、ロボット10は、内部状態または外部状態に基づいて視線を対面者に向ける動作および視線を対面者から外す動作を選択的に実行することができる。また、ロボット10は、内部状態または外部状態に基づいて位置および姿勢の少なくとも一方を変化させることができる。それにより、内言および外言をそれぞれ際立たせることができる。
このようにして、使用者にロボット10を他者として意識させることが可能になるとともに、ロボット10が内言を持つことを使用者に強く印象付けることができる。また、内言を発話することにより外言が言葉の重みを持ってくる。その結果、ロボット10への使用者の志向的な構えが十分に引き出されるとともに使用者とロボット10との間でのより円滑なコミュニケーションが可能となる。
本実施の形態において、球形部14が本体部に相当し、スピーカ23が発話手段に相当し、コンピュータ46が制御手段および判定手段に相当し、マイク211,212が認識手段に相当し、カメラ20が検出手段に相当し、透明球殻18が眼部に相当し、パンモータ54およびチルトモータ58が視線移動手段に相当し、移動モータ50、パンモータ54およびチルトモータ58が駆動手段に相当する。
本発明は、使用者と個別的な関係を築くペットロボット、ロボットセラピー等に利用することができる。
本発明の一実施の形態に係るロボットの正面図である。 図1のロボットの側面図である。 図1のロボットの内部構造図である。 図1のロボットの制御系を示すブロック図である。 図1のロボットの動作の一例を示すフローチャートである。 図1のロボットの動作の一例を示すフローチャートである。 図1のロボットの動作の他の例を示すフローチャートである。 図1のロボットの動作のさらに他の例を示すフローチャートである。
符号の説明
14 球形部
18 透明球殻
20 カメラ
23 スピーカ
46 コンピュータ
50 移動モータ
54 パンモータ
58 チルトモータ
60 ディスプレイ
211,212 マイク

Claims (8)

  1. 本体部と、
    前記本体部に設けられ、自身に向けられた言葉として内言を発するとともに外部に向けられた言葉として外言を発する発話手段と、
    前記発話手段を制御する制御手段とを備え、
    前記制御手段は、内部状態または外部状態に基づいて内言または外言を選択的に発するように前記発話手段を制御することを特徴とするロボット。
  2. 前記発話手段は、内言および外言を音声の大きさおよび/または韻律で表現することを特徴とする請求項1記載のロボット。
  3. 前記発話手段は、内的状態を表す内的状態語を内言として発することを特徴とする請求項2記載のロボット。
  4. 対面者の音声を認識する認識手段をさらに備え、
    前記制御手段は、前記外部状態として前記認識手段により認識された音声に基づいて内言または外言を選択的に発するように前記発話手段を制御することを特徴とする請求項1〜3のいずれかに記載のロボット。
  5. 対面者の視線の方向を検出する検出手段をさらに備え、
    前記制御手段は、前記外部状態として前記検出手段の検出結果に基づいて内言または外言を選択的に発するように前記発話手段を制御することを特徴とする請求項1〜4のいずれかに記載のロボット。
  6. 前記本体部の状態を判定する判定手段をさらに備え、
    前記制御手段は、前記内部状態として前記判定出手段の判定結果に基づいて内言または外言を選択的に発するように前記発話手段を制御することを特徴とする請求項1〜5のいずれかに記載のロボット。
  7. 前記本体部に設けられ、視線を表現する少なくとも1つの眼部と、
    前記眼部により表現される視線を移動させる視線移動手段とをさらに備え、
    前記制御手段は、内部状態または外部状態に基づいて前記眼部により表現される視線を対面者に向ける動作および前記眼部により表現される視線を対面者から外す動作を選択的に実行するように前記視線移動手段を制御することを特徴とする請求項1〜6のいずれかに記載のロボット。
  8. 前記本体部の位置および姿勢の少なくとも一方を変化させる駆動手段をさらに備え、
    前記制御手段は、内部状態または外部状態に基づいて前記本体部の位置および姿勢の少なくとも一方を変化させるように前記駆動手段を制御することを特徴とする請求項1〜7のいずれかに記載のロボット。
JP2004101477A 2004-03-30 2004-03-30 ロボット Expired - Fee Related JP4247149B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004101477A JP4247149B2 (ja) 2004-03-30 2004-03-30 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004101477A JP4247149B2 (ja) 2004-03-30 2004-03-30 ロボット

Publications (2)

Publication Number Publication Date
JP2005279896A true JP2005279896A (ja) 2005-10-13
JP4247149B2 JP4247149B2 (ja) 2009-04-02

Family

ID=35178817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004101477A Expired - Fee Related JP4247149B2 (ja) 2004-03-30 2004-03-30 ロボット

Country Status (1)

Country Link
JP (1) JP4247149B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007181888A (ja) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International コミュニケーションロボットシステム
JP2009106325A (ja) * 2007-10-26 2009-05-21 Advanced Telecommunication Research Institute International コミュニケーション誘発システム
JP2011000681A (ja) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法
JP2013193149A (ja) * 2012-03-16 2013-09-30 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム
JP2014516181A (ja) * 2011-05-25 2014-07-07 株式会社ソニー・コンピュータエンタテインメント 視線によるデバイスの挙動の変更
CN107127767A (zh) * 2017-05-27 2017-09-05 芜湖星途机器人科技有限公司 高稳定性的机器人躯干
JP2017173548A (ja) * 2016-03-23 2017-09-28 カシオ計算機株式会社 学習支援装置、学習支援システム、学習支援方法、ロボット及びプログラム
KR20180007991A (ko) * 2016-07-15 2018-01-24 주식회사 토이트론 카드를 인식하여 명령을 수행하는 스마트 토이를 운용하는 장치 및 그 방법
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
JP2019008510A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
WO2019050034A1 (ja) * 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット
JP2019130610A (ja) * 2018-01-31 2019-08-08 トヨタ自動車株式会社 コミュニケーションロボットおよびその制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08318053A (ja) * 1995-05-24 1996-12-03 Ricoh Elemex Corp 観客情報から多様な対応をするロボットシステム
JP2001179666A (ja) * 1999-12-28 2001-07-03 Namco Ltd ペット型ロボット及びプログラムが記録されたコンピュータ読み取り可能な記録媒体
JP2002136772A (ja) * 2000-10-30 2002-05-14 Atr Media Integration & Communications Res Lab 電子ペット
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2004042151A (ja) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08318053A (ja) * 1995-05-24 1996-12-03 Ricoh Elemex Corp 観客情報から多様な対応をするロボットシステム
JP2001179666A (ja) * 1999-12-28 2001-07-03 Namco Ltd ペット型ロボット及びプログラムが記録されたコンピュータ読み取り可能な記録媒体
JP2002136772A (ja) * 2000-10-30 2002-05-14 Atr Media Integration & Communications Res Lab 電子ペット
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2004042151A (ja) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007181888A (ja) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International コミュニケーションロボットシステム
JP2009106325A (ja) * 2007-10-26 2009-05-21 Advanced Telecommunication Research Institute International コミュニケーション誘発システム
JP2011000681A (ja) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2014516181A (ja) * 2011-05-25 2014-07-07 株式会社ソニー・コンピュータエンタテインメント 視線によるデバイスの挙動の変更
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法
JP2013193149A (ja) * 2012-03-16 2013-09-30 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム
JP2017173548A (ja) * 2016-03-23 2017-09-28 カシオ計算機株式会社 学習支援装置、学習支援システム、学習支援方法、ロボット及びプログラム
KR20180007991A (ko) * 2016-07-15 2018-01-24 주식회사 토이트론 카드를 인식하여 명령을 수행하는 스마트 토이를 운용하는 장치 및 그 방법
KR101983728B1 (ko) * 2016-07-15 2019-06-04 주식회사 토이트론 카드를 인식하여 명령을 수행하는 스마트 토이를 운용하는 장치 및 그 방법
CN107127767A (zh) * 2017-05-27 2017-09-05 芜湖星途机器人科技有限公司 高稳定性的机器人躯干
JP2019008510A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN109108960B (zh) * 2017-06-23 2022-03-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
US11000952B2 (en) 2017-06-23 2021-05-11 Casio Computer Co., Ltd. More endearing robot, method of controlling the same, and non-transitory recording medium
US10836041B2 (en) 2017-06-23 2020-11-17 Casio Computer Co., Ltd. More endearing robot, robot control method, and non-transitory recording medium
JPWO2019050034A1 (ja) * 2017-09-11 2020-11-05 Groove X株式会社 相手を見つめる自律行動型ロボット
GB2580273A (en) * 2017-09-11 2020-07-15 Groove X Inc Autonomously acting robot staring at partner
CN111093913A (zh) * 2017-09-11 2020-05-01 Groove X 株式会社 注视对方的行为自主型机器人
WO2019050034A1 (ja) * 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット
GB2580273B (en) * 2017-09-11 2022-06-01 Groove X Inc Autonomously acting robot that stares at companion
US11498222B2 (en) 2017-09-11 2022-11-15 Groove X, Inc. Autonomously acting robot that stares at companion
JP7177497B2 (ja) 2017-09-11 2022-11-24 Groove X株式会社 相手を見つめる自律行動型ロボット
JP2019130610A (ja) * 2018-01-31 2019-08-08 トヨタ自動車株式会社 コミュニケーションロボットおよびその制御プログラム

Also Published As

Publication number Publication date
JP4247149B2 (ja) 2009-04-02

Similar Documents

Publication Publication Date Title
JP6841167B2 (ja) コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
JP4247149B2 (ja) ロボット
JP5688574B2 (ja) 触覚提示付ロボット
JP4512830B2 (ja) コミュニケーションロボット
JP6751536B2 (ja) 装置、ロボット、方法、及びプログラム
JP5991557B2 (ja) 遠隔操作ロボット
US7502152B2 (en) Device for projecting an object in a space inside a vehicle
JP7420385B2 (ja) ロボット及び音声生成プログラム
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
JP2013154458A (ja) 対話装置、対話プログラムおよび対話方法
JP7180139B2 (ja) ロボット、ロボットの制御方法及びプログラム
RU2004136294A (ru) Диалоговое управление для электрического устройства
JP2006212717A (ja) ロボット装置
JP2019136797A (ja) コミュニケーション装置およびその制御プログラム
JP6565853B2 (ja) コミュニケーション装置
JP7102169B2 (ja) 装置、ロボット、方法、及びプログラム
EP3520970A2 (en) Communication robot and control program therefor
JP2004034273A (ja) ロボット発話中の動作プログラム生成装置及びロボット
JP7428141B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2005279895A (ja) ロボット
CN113287117A (zh) 交互系统和方法
KR102519599B1 (ko) 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
JP4431757B2 (ja) ロボットシステム
JP3494408B2 (ja) 電子ペット
JP2005084789A (ja) パーソナルコンピュータ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090109

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees