JP4431757B2 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP4431757B2
JP4431757B2 JP2004101478A JP2004101478A JP4431757B2 JP 4431757 B2 JP4431757 B2 JP 4431757B2 JP 2004101478 A JP2004101478 A JP 2004101478A JP 2004101478 A JP2004101478 A JP 2004101478A JP 4431757 B2 JP4431757 B2 JP 4431757B2
Authority
JP
Japan
Prior art keywords
function
robots
sight
line
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004101478A
Other languages
English (en)
Other versions
JP2005279897A (ja
Inventor
美智男 岡田
毅 山口
洋之 藤井
隆之 塩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004101478A priority Critical patent/JP4431757B2/ja
Publication of JP2005279897A publication Critical patent/JP2005279897A/ja
Application granted granted Critical
Publication of JP4431757B2 publication Critical patent/JP4431757B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、複数のロボットを用いたロボットシステムに関する。
近年、例えば電子ペットとして使用されるロボットが種々提案および開発されている(例えば特許文献1参照)。
特開2002−136772号公報
従来のロボットの眼はカメラにより構成されている。この場合、ロボットの眼は視覚を司る入力センサとしての機能に注目が集まり、意思表示としての機能は軽視されている。そのため、複数のロボットを用いて会議用のロボットシステムを構成した場合、参加者がロボットに実際に見られているという印象が弱い。すなわち、従来のロボットは、視線を発するという印象は弱い。
また、2つ以上の眼を備えたロボットにおいても、生物らしさの印象を損うことを懸念し、複数台のカメラを連動させることが多い。その結果、視線は全体として1つしか存在しないこととなり、視線の弱さを補うことができない。
さらに、従来のロボットでは、定常状態で視線を静止させ、非定常状態で視線を移動させている。また、従来のロボットでは、視線が眼の方向によってのみ議論されている。これらの結果、ロボットの視線に対して参加者に強い印象を与えることができない。
一方、会議中に発話、挙手等の動作を行った参加者をカメラが追従してズームする会議支援システムが提案されている。しかし、この会議支援システムは、会議を受動的に記録するためのものであり、能動的に参加者の注意を制御することはできない。
本発明の目的は、人物に視線を意識させることにより人物の注意を制御することができるロボットシステムを提供することである。
本発明に係るロボットシステムは、視線を表現する少なくとも1つの眼部を有する本体部、およびその本体部を動かす駆動手段を有する複数のロボットと、複数のロボットを制御する制御手段とを備え、複数のロボットは、眼部により表現される視線をそれぞれ独立に移動および静止させる第1の機能、駆動手段により本体部をそれぞれ移動させる第2の機能、および眼部により表現される視線を互いに連動して集中させる第3の機能を有し、第3の機能は、人物の注意を特定の対象に集中させる場合に眼部により表現される視線を互いに連動して特定の対象に集中させる動作を含み、制御手段は、人物の挙動に応答して複数のロボットに第1の機能、第2の機能および第3の機能を選択的に実行させるものである。
本発明に係るロボットシステムにおいては、複数のロボットが、眼部により表現される視線をそれぞれ独立に移動および静止させる第1の機能、駆動手段により本体部をそれぞれ移動させる第2の機能および眼部により表現される視線を互いに連動して集中させる第3の機能を有する。人物の挙動に応答して複数のロボットにより第1の機能、第2の機能および第3の機能が選択的に実行される。
第1の機能において複数のロボットの視線を移動させた後に静止させることにより視線定位の効果が高まる。また、第2の機能において複数のロボットの本体部をそれぞれ移動させることにより複数のロボットの視線を強調することができる。さらに、第3の機能において複数のロボットの眼部により表現される視線を互いに連動して集中させることにより人物の意識の集中を促すことができる。また、第3の機能において人物の注意を特定の対象に集中させる場合に眼部により表現される視線を互いに連動して特定の対象に集中させることにより、複数のロボットの視線の拡散および集中により特定の対象への意識の集中を促すことができる。
このように、人物に複数のロボットの視線を意識させることにより人物の注意を制御することができる。
第1の機能は、定常状態で眼部により表現される視線を移動させ、人物の注意を促す場合に眼部により表現される視線を固定させる動作を含んでもよい。それにより、特定の対象に人物の注意を強く促すことができる。
第2の機能は、本体部の位置および姿勢の少なくとも一方を変化させる動作を含んでもよい。それにより、複数のロボットの視線をより強調することができる。
複数のロボットの各々は、人物の挙動として人物が所定位置にいることを検知する検知手段を有し、制御手段は、検知手段の検知結果に基づいて複数のロボットに第1の機能、第2の機能および第3の機能を選択的に実行させてもよい。この場合、所定位置における人物の有無に基づいて人物の注意を制御することができる。
複数のロボットの各々は、人物の挙動として音声を認識する認識手段を有し、制御手段は、認識手段の認識結果に基づいて複数のロボットに第1の機能、第2の機能および第3の機能を選択的に実行させてもよい。この場合、人物の音声に基づいて人物の注意を制御することができる。
複数のロボットの各々は、人物の挙動として人物の視線の方向を検出する検出手段を有し、制御手段は、検出手段の検出結果に基づいて複数のロボットに第1の機能、第2の機能および第3の機能を選択的に実行させてもよい。この場合、人物の視線の方向に基づいて人物の注意を制御することができる。
ロボットシステムは、入力手段を有するコンピュータをさらに備え、制御手段は、コンピュータの入力手段を用いた入力操作に基づいて複数のロボットに第1の機能、第2の機能および第3の機能を選択的に実行させてもよい。この場合、コンピュータの入力手段の操作に基づいて人物の注意を制御することができる。
本発明によれば、人物に複数のロボットの視線を意識させることにより人物の注意を制御することができる。
図1は本発明の一実施の形態に係るロボットシステムの構成を示す模式図である。
図1に示すように、本実施の形態に係るロボットシステムは、2つのロボット10、タブレットパーソナルコンピュータ(以下、タブレットと呼ぶ)100および電子ペン150により構成される。なお、タブレット100に3つ以上のロボット10が接続されてもよい。
2つのロボット10は、それぞれUSB(ユニバーサルシリアルバス)ケーブル120によりタブレット100に接続される。なお、ロボット10は、USBケーブル120に限らず、他の規格に従うケーブルによりタブレット100に接続されてもよく、あるいは無線通信によりタブレット100に接続されてもよい。タブレット100はタッチパネル105を備えたディスプレイ110を有する。使用者は、電子ペン150を用いてタッチパネル105から文字、図形等の種々の入力操作を行うことができる。
なお、コンピュータとして、タブレット100の代わりにディスプレイ等の表示手段およびキーボード、マウス等の入力手段を有するパーソナルコンピュータを用いてもよく、携帯情報端末を用いてもよい。
図2は図1のロボット10の正面図である。図3は図1のロボット10の側面図である。図4は図1のロボット10の内部構造図である。
図2および図3において、ロボット10は仮想的な生命体であり、全体としてティアドロップ形状である外被12を有する。外被12は、柔軟で触感の良好な発泡ウレタン等の材料により形成される。外被12は、後述する球形の内殻に被せられる球形部14と、その球形部14の頂部から延びかつ先細りで先端が丸みを有する頭尾16とを有する。
頭尾16には、金属、プラスチック、合成ゴム等の弾性体からなる棒状の芯材17が内蔵されている。芯材17の基端は、図3の内部構造物24により支持される。これにより、頭尾16は、前後左右に連続的に揺動する。この頭尾16は、後述の透明球殻18とともにロボット10の姿勢および方向を強調する機能を果たす。したがって、使用者の様々な関与の結果としてのロボット10の反応を頭尾16の動きに増幅して表示することができる。
外被12の球形部14のほぼ中心に、透明プラスチック等からなる透明球殻18が露出するように設けられる。外被12の内部において、透明球殻18の後方にカメラ20およびディスプレイ60が設けられている。カメラ20は、例えばCCD(電荷結合素子)カメラである。ディスプレイ60は、例えば液晶ディスプレイである。
カメラ20は、透明球殻18を通して外部の人物、物体または風景を撮像することができる。カメラ20により得られた映像がディスプレイ60の表示画面に表示される。使用者は、外部から透明球殻18を通してディスプレイ60の表示画面に表示された映像を見ることができる。透明球殻18、カメラ20およびディスプレイ60により眼が構成される。ディスプレイ60が瞳に相当し、透明球殻18の向きにより視線を表現することができる。この場合、ロボット10が見つめる対象がディスプレイ60の表示画面に表示される。
また、カメラ20により得られた映像に基づいて画像認識により対面者の顔を認識することができるとともに対面者の視線の方向を認識することができる。
本実施の形態では、ロボット10が透明球殻18からなる1つの眼を有するが、ロボット10が複数の眼を有してもよい。
外被12の下端から移動用の車輪22が露出するように設けられる。ロボット10は、車輪22により床面上を自在に移動することができる。
図2に点線で示すように、外被12内の透明球殻18の近傍には、2つのマイク211,212が設けられる。これらのマイク211,212により使用者の音声を入力することができる。また、マイク211,212は、ステレオマイクとして機能する。マイク211,212に入力される音声の位相差で音源方向を認識することができる。後述するように、ロボット10は、音源を追尾するように位置および姿勢を変化させることができる。
また、外被12内には、スピーカ23が設けられる。ロボット10は、スピーカ23から音声を出力することにより使用者に対して発話することができる。このようにスピーカ23を設けかつ上述のマイク211,212を設けることにより、このロボット10を音声インタフェース手段として利用することができる。
外被12内の下部には、複数の測距センサ(距離測定センサ)25およびヒトセンサ29が設けられる。測距センサ25は、例えば、レーザ測距センサ、超音波測距センサ、マイクロ波測距センサ等からなり、人物、物体等の対象までの距離を測定する。ヒトセンサ29は、赤外線近接センサ等からなり、人物の存在を検出する。また、測距センサ25およびヒトセンサ29が設けられる外被12の位置には、レーザ光、超音波、マイクロ波、赤外線等を通過させるための開口または孔が形成される。
図4には、外被12に覆われる内部構造物24が示される。内部構造物24は、プラスチック、金属板等からなるベースフレーム26を含む。ベースフレーム26は、上面板とその両端から垂下する2つの側面板とにより構成され、断面コ字形に形成されている。このベースフレーム26の側面板を貫通して車軸27が軸受けにより回転可能に支持される。側面板の外側でその車軸27の両端に、図2を参照して説明した移動用の車輪22が取り付けられる。
ベースフレーム26の上面板上には、弾性体としてコイルばね28を介してプラスチック、軽量金属等からなる支持台30が取り付けられる。支持台30上には、収納部32が設けられる。収納部32には、後述のコンピュータ46および移動モータ50(図5)が収納される。それにより、ロボット10が全体として、コイルばね28により支持される。
支持台30上には、ロボット10をパン動作(横首振り)およびチルト動作(縦首振り)させるアクチュエータが構成される。このアクチュエータは、コンピュータ46(図5)により制御される。
収納部32上には、支持筒34を介して上述のディスプレイ60が装着される。ディスプレイ60上には、取り付け板36が固着され、その取り付け板36によりディスプレイ60と一体的に支持板38が取り付けられる。支持板38は、プラスチック、軽量金属等からなる平面円形の板である。
支持筒34内には、パン動作を行うためのパンモータ54(図5)、チルト動作を行うためのチルトモータ58(図5)、およびそれらのモータの駆動力を支持板38に伝達する動力伝達機構(図示せず)が収納される。
支持板38の下面には、プラスチック等からなる截頭半球状の第1内殻40が固着部40aと支持板38の周縁とを接着または溶着することにより固着される。支持板38の上面には、プラスチック等からなりかつ球の頭部を切り取った形状を有する球頭形状の第2内殻42が、固着部42aと支持板38の周縁とを接着または溶着することにより固着される。
第1内殻40および第2内殻42により球形の内殻が形成される。支持台30の外面が第1内殻40の下方に連続する球形部を形成するように截頭半球状に形成されている。このような球形内殻上に、図2に示す外被12の球形部14が被せられる。
球形内殻すなわち第1内殻40および第2内殻42の表面には、リミットスイッチ等からなる複数の接触センサ44が規則的に分布して、または意図的に偏在して取り付けられる。つまり、複数の接触センサ44は、球形内殻の表面上に一定の規則的な配列で配置されるかまたは人が触るであろう部位または領域に集中的に配置される。
図5は図1のロボット10の制御系を示すブロック図である。
マイク211,212により得られる音声信号、カメラ20により得られる映像信号、測距センサ25の出力信号、ヒトセンサ29の出力信号および接触センサ44の出力信号が所定のインタフェース(図示せず)を介してコンピュータ46に取り込まれる。
また、コンピュータ46には、図1のUSBケーブル150に接続されるUSBコネクタ70が設けられている。
コンピュータ46は、カメラ20により取り込まれた映像信号に基づいてディスプレイ60の表示画面に映像を表示させる。また、コンピュータ46は、移動モータ駆動回路48、パンモータ駆動回路52およびチルトモータ駆動回路56を制御する。それにより、移動モータ駆動回路48、パンモータ駆動回路52およびチルトモータ駆動回路56は、移動モータ50、パンモータ54およびチルトモータ58を所定のタイミングで駆動する。
移動モータ50が駆動されると、図2および図3の車輪22が回転し、ロボット10が前進または後退する。それにより、ロボット10の位置を変化させることができる。
パンモータ54およびチルトモータ58の駆動力が所定の動力伝達機構を介して図4の支持板38に伝達される。上記のように、第1内殻40および第2内殻42が支持板38と一体的に動くように取り付けられているので、支持板38の横向きの変位により第1内殻40および第2内殻42も横向きに変位し、支持板38の縦向きの変位により第1内殻40および第2内殻42も縦向きに変位する。それにより、図2および図3の外被12がパン動作およびチルト動作することができる。このようなパン動作およびチルト動作によりロボット10の姿勢を変化させることができる。
したがって、パン動作およびチルト動作によりロボット10の透明球殻18の向きを変化させ、ロボット10の視線の方向を変化させることができる。具体的には、ロボット10は、視線を使用者に向けるかまたは使用者から外すことができる。
また、チルト動作によりうなずく等の肯定的な意思表示を表現することができる。また、パン動作により否定的な意思表示を表現することができる。チルト動作またはパンの動作の大きさを変化させることにより、強い肯定もしくは否定または弱い肯定もしくは否定を表現することができる。
なお、ロボット10自身の動きを測定するために加速度センサを設けてもよい。
コンピュータ46のメモリには制御プログラムが記憶される。制御プログラムは、視線定位モジュール、身体配置モジュールおよび共同注視モジュールを含む。
視線定位モジュールは、定常状態では、ロボット10の視線を移動させ、特定の対象に注意を促す場合には、ロボット10の視線を固定する。それにより、視線定位の効果が高まる。
視線定位モジュールは、2つのロボット10の位置および姿勢を変化させる。それにより、2つのロボット10の視線をより強調することができる。
共同注視モジュールは、2つのロボット10の視線を互いに連動して集中させる。それにより、2つのロボット10の視線の拡散および集中により特定の対象への意識の集中を促すことができる。
図6は図1のタブレット100の構成を示すブロック図である。
図6に示すように、タブレット100は、CPU(中央演算処理装置)101、ROM(リードオンリメモリ)102、RAM(ランダムアクセスメモリ)103、タッチパネル105、外部記憶装置106、記録媒体駆動装置107、入出力インタフェース108、ディスプレイ110およびスピーカ111を含む。記録媒体109は、CD−ROM(コンパクトディスク−リードオンリメモリ)、フロッピィディスク、メモリカード等からなる。
ROM102には、システムプログラムが記憶される。記録媒体109には、アプリケーションプログラムが記録されている。記録媒体駆動装置107は、CD−ROMドライブ、フロッピィディスクドライブ、メモリカードドライブ等からなり、記録媒体109からアプリケーションプログラムを読み込んで外部記憶装置106に記憶させる。なお、アプリケーションプログラムを通信回線および入出力インタフェース108を介してダウンロードし、外部記憶装置106に記憶させてもよい。
CPU101は、外部記憶装置106に記憶されたアプリケーションプログラムをRAM103上で実行する。タッチパネル105は図1のディスプレイ110に重ねられて設けられている。図1の電子ペン150を用いてタッチパネル105から文字、図形等を入力することができる。ディスプレイ110には、文字、図形、画像等が表示される。スピーカ111は音声を出力する。入出力インタフェース108には、USBケーブル120を介して2つのロボット10が接続される。
なお、本実施の形態では、2つのロボット10のコンピュータ46自身が制御プログラムを実行しているが、タブレット100のCPU101が2つのロボット10を制御する制御プログラムを実行してもよい。
図7および図8は図1のロボット10の動作を示すフローチャートである。ロボット10は、コンピュータ46のメモリに記憶された制御プログラムに従って動作する。この場合、2つのロボット10のコンピュータ46が互いに連携して制御動作を行う。
以下の例では、使用者がタブレット100のアプリケーションプログラムを使用する場合を想定している。
まず、ロボット10のコンピュータ46は、測距センサ25によりタブレット100、使用者およびロボット10自身の位置関係を認識する(ステップS1)。
そして、タブレット100の前に使用者がいないか否かを判定する(ステップS2)。タブレット100の前に使用者がいない場合には、2つのロボット10は移動モータ50により独立にランダムな動きをする(ステップS3)。その後、ステップS1に戻る。
ステップS2においてタブレット100の前に使用者がいる場合には、コンピュータ46は、タブレット100から与えられる信号に基づいてタブレット100が使用者の入力待ちの状態か否かを判定する(ステップS4)。ここで、タブレット100は、アプリケーションプログラムの実行中に使用者の入力待ち状態であることを示す信号をUSBケーブル120を通してロボット10に送信するものとする。
タブレット100が使用者の入力待ちの状態である場合には、ロボット10は、カメラ20により得られる映像に基づいてパンモータ54およびチルトモータ58により使用者の顔を追いかける(ステップS5)。その後、ステップS1に戻る。
ステップS4においてタブレット100が使用者の入力待ちの状態でない場合には、コンピュータ46は、タブレット100からの信号に基づいてタブレット100が使用者に提示したい箇所あるか否かを判定する(ステップS6)。例えば、タブレット100でのアプリケーションプログラムの実行中にディスプレイ110に表示される特定の文書、図形等の箇所を使用者に提示したい場合に、その旨を示す信号がUSBケーブル120を通してロボット10に送信される。
タブレット100が使用者に提示したい箇所がある場合には、ロボット10は、カメラ20により得られる映像に基づいてパンモータ54およびチルトモータ58により使用者の顔とその箇所とに交互に視線を向ける(ステップS7)。その後、ステップS1に戻る。
ステップS6においてタブレット100が使用者に提示したい箇所がない場合には、コンピュータ46は、ロボット10が特定の使用者に耳を傾けたいか否かを判定する(ステップS8)。特定の使用者に耳を傾けたい場合には、ロボット10は、カメラ20により得られる映像に基づいてパンモータ54およびチルトモータ58により使用者の顔視線を向ける(ステップS9)。その後、ステップS1に戻る。
ステップS8において特定の使用者に耳を傾けたくない場合には、コンピュータ46は、マイク211,212により使用者からの発話があるか否かを判定する(ステップS10)。使用者からの発話がある場合には、パンモータ54およびチルトモータ58によりその使用者に視線を向ける(ステップS11)。その後、ステップS1に戻る。
ステップS10において使用者からの発話がない場合には、コンピュータ46は、測距センサ25により使用者がタブレット100から離れたか否かを判定する(ステップS12)。使用者がタブレット100から離れた場合には、ロボット10はランダムな動きに戻る(ステップS13)。その後、ステップS1に戻る。
ステップS12において使用者がロボット10から離れていない場合には、コンピュータ46は、タブレット100からの信号に基づいて電子ペン150による使用者の入力があったか否かを判定する(ステップS14)。使用者の入力があった場合には、ロボット10は、パンモータ54およびチルトモータ58により使用者の入力箇所に視線を向ける(ステップS15)。その後、ステップS1に戻る。
ステップS14において使用者の入力がない場合には、コンピュータ46は、マイク211,212により物音がしたか否かを判定する(ステップS16)。物音がした場合には、ロボット10は、パンモータ54およびチルトモータ58によりその物音の方向に視線を向ける(ステップS17)。その後、ステップS1に戻る。ステップS16において物音がしない場合には、ステップS1に戻る。
なお、図7および図8の例では、ステップS7,S9,S11,S15,S17においてロボット10が視線を対象に向けるように動作するが、ロボット10が視線を対象に向けることに代えてまたはロボット10が視線を対象に向けることに加えてロボット10が対象に近づくように動作してもよい。
本実施の形態に係るロボットシステムにおいては、複数のロボット10が視線をそれぞれ独立に移動および静止させる視線定位モジュール、複数のロボット10をそれぞれ移動させる身体配置モジュールおよび視線を互いに連動して集中させる共同注視モジュールを有し、使用者の挙動に応答して複数のロボット10により視線定位モジュール、身体配置モジュールおよび共同注視モジュールが選択的に実行される。
視線定位モジュールにより複数のロボット10の視線を移動させた後に固定させることにより視線定位の効果が高まる。また、身体配置モジュールにより複数のロボット10の位置および姿勢を変化させることにより複数のロボット10の視線を強調することができる。さらに、共同注視モジュールにより複数のロボット10の視線を互いに連動して集中させることにより使用者の意識の集中を促すことができる。
この場合、所定位置における使用者の有無に基づいて視線定位モジュール、身体配置モジュールおよび共同注視モジュールを選択的に実行することができる。また、使用者の発話に基づいて視線定位モジュール、身体配置モジュールおよび共同注視モジュールを選択的に実行することができる。さらに、使用者の視線の方向に基づいて視線定位モジュール、身体配置モジュールおよび共同注視モジュールを選択的に実行することができる。また、タブレット100の入力操作に基づいて視線定位モジュール、身体配置モジュールおよび共同注視モジュールを選択的に実行することができる。
このように、使用者に複数のロボット10の視線を意識させることにより使用者の注意を制御することができる。
本実施の形態に係るロボットシステムは、会議支援装置として用いることができる。この場合、複数のロボット10を参加者により囲まれる会話の場の中心に設置する。通常は、複数のロボット10を会話の参加者が囲むテーブル上に設置すればよいが、会話中に参加者が自然に向ける視野内に複数のロボット10が含まれていればよい。
本実施の形態のロボットシステムによれば、会話の流れの中で適切なタイミングで共同注視モジュールにより複数のロボット10が視線を集中させて特定の参加者または対象を共同注視することができる。その結果、視線がある特定の参加者または対象に集中され、参加者に強い視線を意識させることができる。逆に、共同注視を中断することにより、参加者に再び非連動で各ロボット10が動作している印象を与える。その結果、視線の拡散が可能となる。
このように、共同注視モジュールによる視線の集中および拡散により会話の流れの中でロボットシステムが注意を向けようとする参加者または対象を周囲の参加者にも意識させることができる。それにより、会話の流れ全体を制御することができる。
例えば、会話をより長く継続させるために会話の参加者全員に均等に発話権が移譲するように支援することが可能となる。また、会議が円滑に進行しない場合または制限時間内に決着が必要な場合に、いずれかの話者の意見を強調することにより会話の収束を図ることが可能になる。
また、本実施の形態に係るロボットシステムは、複数人による雑談の場にも、同様に利用することができる。
さらに、本実施の形態に係るロボットシステムは、子供の知育環境、学習環境および遊環境で利用することができる。子供の発達の場で重要なことは周囲の他者に自らの行動を見られることである。
本実施の形態のロボットシステムによれば、知育環境、学習環境または遊環境で実際に子供たちが取り組んでいる活動、勉強または遊びの流れの中で適宜特定の対象に注意を促すことができる。その結果、知育効果および学習効果を向上させることが可能となる。
本実施の形態において、球形部14が本体部に相当し、透明球殻18が眼部に相当し、移動モータ50、パンモータ54およびチルトモータ58が駆動手段に相当し、カメラ20が検知手段および検出手段に相当し、コンピュータ46が制御手段に相当し、マイク211,212が認識手段に相当し、電子ペン150が入力手段に相当する。また、第1の機能が視線定位モジュールに相当し、第2の機能が身体配置モジュールに相当し、第3の機能が共同注視モジュールに相当する。
本発明は、会議、雑談等の会話の場、知育環境、学習環境、遊環境等に利用することができる。
本発明の一実施の形態に係るロボットシステムの構成を示す模式図である。 図1のロボットの正面図である。 図1のロボットの側面図である。 図1のロボットの内部構造図である。 図1のロボットの制御系を示すブロック図である。 図1のタブレットの構成を示すブロック図である。 図1のロボットの動作を示すフローチャートである。 図1のロボットの動作を示すフローチャートである。
符号の説明
14 球形部
18 透明球殻
20 カメラ
46 コンピュータ
50 移動モータ
54 パンモータ
58 チルトモータ
150 電子ペン
211,212 マイク

Claims (7)

  1. 視線を表現する少なくとも1つの眼部を有する本体部、およびその本体部を動かす駆動手段を有する複数のロボットと、
    前記複数のロボットを制御する制御手段とを備え、
    前記複数のロボットは、前記眼部により表現される視線をそれぞれ独立に移動および静止させる第1の機能、前記駆動手段により前記本体部をそれぞれ移動させる第2の機能、および前記眼部により表現される視線を互いに連動して集中させる第3の機能を有し、
    前記第3の機能は、人物の注意を特定の対象に集中させる場合に前記眼部により表現される視線を互いに連動して前記特定の対象に集中させる動作を含み、
    前記制御手段は、人物の挙動に応答して前記複数のロボットに前記第1の機能、前記第2の機能および第3の機能を選択的に実行させることを特徴とするロボットシステム。
  2. 前記第1の機能は、定常状態で前記眼部により表現される視線を移動させ、人物の注意を促す場合に前記眼部により表現される視線を固定させる動作を含むことを特徴とする請求項1記載のロボットシステム。
  3. 前記第2の機能は、前記本体部の位置および姿勢の少なくとも一方を変化させる動作を含むことを特徴とする請求項1または2記載のロボットシステム。
  4. 前記複数のロボットの各々は、前記人物の挙動として人物が所定位置にいることを検知する検知手段を有し、
    前記制御手段は、前記検知手段の検知結果に基づいて前記複数のロボットに前記第1の機能、前記第2の機能および第3の機能を選択的に実行させることを特徴とする請求項1〜のいずれかに記載のロボットシステム。
  5. 前記複数のロボットの各々は、前記人物の挙動として音声を認識する認識手段を有し、
    前記制御手段は、前記認識手段の認識結果に基づいて前記複数のロボットに前記第1の機能、前記第2の機能および第3の機能を選択的に実行させることを特徴とする請求項1〜のいずれかに記載のロボットシステム。
  6. 前記複数のロボットの各々は、前記人物の挙動として人物の視線の方向を検出する検出手段を有し、
    前記制御手段は、前記検出手段の検出結果に基づいて前記複数のロボットに前記第1の機能、前記第2の機能および第3の機能を選択的に実行させることを特徴とする請求項1〜のいずれかに記載のロボットシステム。
  7. 入力手段を有するコンピュータをさらに備え、
    前記制御手段は、前記コンピュータの入力手段を用いた入力操作に基づいて前記複数のロボットに前記第1の機能、前記第2の機能および第3の機能を選択的に実行させることを特徴とする請求項1〜のいずれかに記載のロボットシステム。
JP2004101478A 2004-03-30 2004-03-30 ロボットシステム Expired - Lifetime JP4431757B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004101478A JP4431757B2 (ja) 2004-03-30 2004-03-30 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004101478A JP4431757B2 (ja) 2004-03-30 2004-03-30 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2005279897A JP2005279897A (ja) 2005-10-13
JP4431757B2 true JP4431757B2 (ja) 2010-03-17

Family

ID=35178818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004101478A Expired - Lifetime JP4431757B2 (ja) 2004-03-30 2004-03-30 ロボットシステム

Country Status (1)

Country Link
JP (1) JP4431757B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4822319B2 (ja) * 2005-10-27 2011-11-24 株式会社国際電気通信基礎技術研究所 コミュニケーションロボットおよびそれを用いた注意制御システム
JP2012213828A (ja) * 2011-03-31 2012-11-08 Fujitsu Ltd ロボット制御装置及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3190909B2 (ja) * 1999-10-29 2001-07-23 株式会社エイ・ティ・アール知能映像通信研究所 知能ロボット
JP3494408B2 (ja) * 2000-10-30 2004-02-09 株式会社国際電気通信基礎技術研究所 電子ペット
JP3989698B2 (ja) * 2001-06-01 2007-10-10 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP3986848B2 (ja) * 2001-09-13 2007-10-03 シャープ株式会社 群ロボットシステムおよびそれに用いられるフェロモンロボット
JP4087104B2 (ja) * 2001-11-20 2008-05-21 シャープ株式会社 群ロボットシステム
JP2004042151A (ja) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット

Also Published As

Publication number Publication date
JP2005279897A (ja) 2005-10-13

Similar Documents

Publication Publication Date Title
JP4512830B2 (ja) コミュニケーションロボット
US10373452B2 (en) Targeted haptic projection
JP5688574B2 (ja) 触覚提示付ロボット
CN107199571B (zh) 机器人控制系统
JP4569196B2 (ja) コミュニケーションシステム
US20190240842A1 (en) Robot assisted interaction system and method thereof
KR20140033009A (ko) 시각 장애인을 위한 광학 디바이스
CN108724205B (zh) 互动装置、互动方法、互动程序以及机器人
JP2006163579A (ja) 情報処理システム、情報処理装置及び情報処理方法
CN102270043A (zh) 协调设备交互来增强用户体验
JP6565853B2 (ja) コミュニケーション装置
JP4247149B2 (ja) ロボット
JP5007404B2 (ja) 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
JP2007068060A (ja) 音響再生システム
JPWO2019155735A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019147234A (ja) 装置、ロボット、方法、及びプログラム
JP4431757B2 (ja) ロボットシステム
JP2005279895A (ja) ロボット
TWI725668B (zh) 注意力集中輔助系統
CN108724204B (zh) 互动装置、互动方法、互动程序以及机器人
CN108724206B (zh) 互动装置、互动方法、互动程序以及机器人
JP6686583B2 (ja) ロボット及びプログラム
JP2011033837A (ja) 対話支援装置、対話支援方法およびプログラム
CN111195902B (zh) 一种基于模块化机器人的主控单元及模块化机器人
Kuzuoka et al. GestureMan PS: Effect of a head and a pointing stick on robot mediated communication

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091130

R150 Certificate of patent or registration of utility model

Ref document number: 4431757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140108

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250