JP4524435B2 - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP4524435B2
JP4524435B2 JP2005138591A JP2005138591A JP4524435B2 JP 4524435 B2 JP4524435 B2 JP 4524435B2 JP 2005138591 A JP2005138591 A JP 2005138591A JP 2005138591 A JP2005138591 A JP 2005138591A JP 4524435 B2 JP4524435 B2 JP 4524435B2
Authority
JP
Japan
Prior art keywords
head
shoulder
arm
sensor sheet
piezo sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2005138591A
Other languages
English (en)
Other versions
JP2005254454A (ja
Inventor
敬宏 宮下
浩 石黒
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005138591A priority Critical patent/JP4524435B2/ja
Publication of JP2005254454A publication Critical patent/JP2005254454A/ja
Application granted granted Critical
Publication of JP4524435B2 publication Critical patent/JP4524435B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)

Description

この発明はコミュニケーションロボットに関し、特にたとえば、音声や動作あるいは仕草によって人間とコミュニケーションを行う、コミュニケーションロボットに関する。
人間とのコミュニケーションにおいて、皮膚は最初に触れることのできるインターフェースであり、皮膚の柔らかさ(感触)と鋭敏な感覚は触れる側にとっても触れられる側にとっても非常に重要である。コミュニケーションにおける触行動は自分の意思や気持ちを相手に伝えるための行動であり、強く握ったり、やさしくなでたりするという触行動は、根本的なコミュニケーション行動の1つということができる。この行動の必要性はコミュニケーションを対象として初めてでてくるものであり、工業用ロボットとしてはあまり重要視されてこなかった問題である。
本件出願人は、先に、たとえば特許文献1,2および3などによって、コミュニケーションロボットと称し、工業用ロボットとは違って、音声や所作によって人間とのコミュニケーションをうまく図ることを企図したロボット(商品名:ロボビー)を提案した。
このような従来のロボットは、非常に敏感な接触センサを持っているが、情報がオン/オフの2値であることと、接触センサが特定の場所にしか設けられていないことから、上述した触行動コミュニケーションのための情報を取得することはできなかった。
他方、従来、部分的な圧覚を持ったロボットは数多く存在する。たとえば、非特許文献1では、ロボット用の導電性ファブリークを用いた全身の触覚スーツが提案される。
特開2002−355783号公報[B25J13/00] 特開2002−361584号公報[B25J13/08] 特開2002−361585号公報[B25J13/08] 稲葉雅幸,星野由紀子,井上博允"導電性ファブリックを用いた全身被服型触覚センサスーツ"日本ロボット学会誌,Vol.16, No.1,pp.80−86,1998
非特許文献1で提案されるロボット用センサスーツにおいても、情報はオン/オフ信号であり圧覚ではない。しかも、このセンサスーツは、服であり、柔らかさを持った皮膚を形成するものではない。
それゆえに、この発明の主たる目的は、柔らかい皮膚を持ち、しかも圧覚情報を得ることができる、コミュニケーションロボットを提供することである。
この発明は、少なくとも頭とその下方の胴体とを含む人型のコミュニケーションロボットであって、頭に被せられる柔軟素材からなる頭部皮膚、頭部皮膚中に配置され、ピエゾフィルムとその両面に形成された導体とを有する頭部ピエゾセンサシート、胴体の肩に被せられる柔軟素材からなる肩部皮膚、頭部ピエゾセンサシートとは独立して肩部皮膚中に配置され、ピエゾフィルムとその両面に形成された導体とを有する肩部ピエゾセンサシート、頭部ピエゾセンサシートおよび肩部ピエゾセンサシートの各導体間に生じる電圧をそれぞれA/D変換するための複数のA/D変換器を含み、複数のA/D変換器の出力を圧力データとして入力する入力手段、頭部ピエゾセンサシートからの圧力データに基づいて、圧力変化が強いとき頭を叩かれたと判断し、圧力変化が弱いとき圧力変化の周波数を計測して頭がなでられたかどうか判断する頭部判断手段、肩部ピエゾセンサシートからの圧力データに基づいて、圧力変化の持続時間を計測して肩を叩かれたかどうか判断し、圧力変化の強弱を計測して叩かれ方が強いかどうか判断し、肩を叩かれたと判断しないとき、さらに圧力変化の周波数を計測して肩が揺さぶられているかどうか判断する肩部判断手段、および頭部判断手段および肩部判断手段による判断に反応して所定の動作を実行させるロボット制御用コンピュータを備える、コミュニケーションロボットである。
請求項2の発明は腕または手が設けられ、さらに腕または手に被せられる柔軟素材からなる腕または手部皮膚、頭部ピエゾセンサシートおよび肩部ピエゾセンサシートとは独立して腕または手部皮膚中に配置され、ピエゾフィルムとその両面に形成された導体とを有する腕または手部ピエゾセンサシート、腕または手部ピエゾセンサシートからの圧力データに基づいて、圧力変化の強弱を計測して腕または手が強く握られたかどうか判断し、腕または手が強く握られたと判断しないときさらに圧力変化の持続時間を計測して腕または手が優しく握り続けられているかどうか判断する腕または手部判断手段、および腕または手部判断手段による判断に反応して所定の動作を実行させるロボット制御用コンピュータを備える、請求項1記載のコミュニケーションロボットである。
請求項1または2に従属する請求項3の発明では、所定の動作は怒りを表す動作を含む。
請求項1ないしのいずれかに従属する請求項4の発明では、所定の動作は喜びを表す動作を含む。
請求項の発明は、請求項1ないしのいずれかに従属し、入力手段が、複数のA/D変換器からの圧力データをロボット制御用コンピュータにビットシリアルデータとして出力する複数の出力手段を含む、コミュニケーションロボットである。
この発明のコミュニケーションロボットにおいては、たとえば発泡ウレタンとシリコーンゴム層とを積層したような、柔軟素材で皮膚を形成する。この皮膚はたとえば筐体のような本体に被せられるとともに、その中に圧力センサシート、たとえばピエゾセンサシートを埋め込んでいる。実施例のように複数のピエゾセンサシートを、たとえば頭部、肩、あるいは腕または手に分散配置する場合、各ピエゾセンサシートから出力される圧力検知電圧がA/D変換器で圧力値データに変換される。この圧力値データは、実施例では、PICマイコンによって、いわゆるデイジーチェーンの形式で、ビットシリアル信号として、たとえばRS232Cを通して、ロボット制御用コンピュータの1つの入力ポートに入力される。
ロボット制御用コンピュータは、圧力変化の周波数を計測し、その計測した周波数に応じた動作をロボットに実行させる。そのような動作としては、たとえば、喜びを表す動作がある。
発泡ウレタン層とシリコーンゴム層と積層して皮膚を形成すると、皮膚が、軽くて柔らかくなり、しかも裂傷などに強くなる。
また、内層の比較的肉厚の第1シリコーンゴム層と外層の比較的肉薄の第2シリコーンゴム層との間に圧力センサシートを埋め込めば、高周波ノイズを生じることがなく、また、圧力センサシートが変形し易いので、圧力を計測し易い。
この発明によれば、コミュニケーションロボットの全身を柔らかい皮膚で覆ったので、コミュニケーションの相手の人間により一層安心感を与えるとともに、物理的に怪我をさせたりすることがないので、安全である。それとともに、圧力センサシートから圧覚情報を得ることができるので、触行動を生成することができる。そのため、従来に比べて一層安全性、親和性の向上した、コミュニケーションロボットが得られる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1に示すこの実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の側面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサが取り付けられ、この衝突センサは、台車12への人間や他の障害物の接触を検知する。
台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波センサ18が取り付けられる。この超音波センサ18は、取付パネル16すなわちロボット10の周囲の主として人間との間の距離を計測するものである。
台車12の上には、人体状部20が直立するように取り付けられる。この人体状部20の全身は、後に詳しく説明するように、柔軟素材からなる皮膚22によって覆われる。人体状部20は、図示しないが、たとえば鉄板のような筐体を含み、その筐体にコンピュータやその他必要なコンポーネントを収容している。そして、皮膚22は、その筐体(図示せず)上に被せられる。皮膚22の下の筐体の上部ほぼ中央にはマイク24が設けられる。このマイク24は、周囲の音声、特に人間の声を収集するためものである。
人体状部20は、右腕26Rおよび左腕26Lを含み、右腕26Rおよび左腕26Lすなわち上腕30Rおよび30Lは、それぞれ、肩関節28Rおよび28Lによって、胴体部分に変位自在に取り付けられる。この肩関節28Rおよび28Lは、3軸の自由度を有する。上腕30Rおよび30Lには、1軸の肘関節32Rおよび32Lによって、前腕34Rおよび34Lが取り付けられ、この前腕34Rおよび34Lには、手36Rおよび36Lが取り付けられる。これら右腕26Rおよび左腕26Lの各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕26Rおよび左腕26Lのそれぞれ4個のモータが、図4において、それぞれ右腕モータ64および左腕モータ66として表される。
人体状部20の上部には首関節38を介して頭部40が、人間の頭と同様に俯仰・回転可能に取付けられる。この2軸の首関節は、図4に示す頭部モータ68によって制御される。頭部40の前面の「目」に相当する位置には2つの眼カメラ42が設けられ、この眼カメラ42は、ロボット10に接近した人間の顔や他の部分を撮影してその映像信号を取り込む。頭部前面の目カメラ42の下方にはスピーカ44が設けられる。このスピーカ44は、ロボット10が、それの周囲の人間に対して音声によってコミュニケーションを図るために用いられる。
上で説明した人体状部20の胴体や頭部および腕はすべて柔軟な素材からなる皮膚22に覆われるが、この皮膚22は、図2に示すように、下層のウレタンフォーム46と、その上に積層される比較的肉厚のシリコーンゴム層48aおよび比較的肉薄のシリコーンゴム層48bとを含む。そして、2つのシリコーンゴム層48aおよび48bの間に、ピエゾセンサシート50を埋め込んだ。このピエゾセンサシート50は、たとえば米国MSI社製、株式会社東京センサ販売のピエゾフィルムを用いる(http://www.t-sensor.co.jp/PIEZO/TOP/index.html)。このピエゾフィルムは、圧電フィルムの両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有し、圧力等で変形すると両面金属薄膜間にピエゾ電気を発生する。実施例のロボットに使用したのはA4サイズ(型番:200×140×28)のピエゾフィルムを1/2、1/3、1/4、1/6の大きさにはさみでカットしたピエゾセンサシートであるである。
実施例では、上述のように、発泡ウレタンとシリコーンゴムとを使って皮膚22の柔らかさを得た。シリコーンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎるだけでなく、裂傷に弱くなる。そこで、発明者等は、実験を重ねた結果、大まかな形と厚みはウレタンフォームで作り、その表面を約20mmのシリコーンゴムで覆う形を採用することとした。そして、シリコーンゴム層を2つにし、それらのシリコーンゴム層48aおよび48bの間に、上述のピエゾセンサシート50を埋め込んだ。このとき、内側のシリコーンゴム層48aを厚く(約15mm)し、表面側のシリコーンゴム層48を薄く(約5mm)した。このようにすると、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、かおかつフィルムが変形し易くなるので、圧力の計測が容易になる。
この実施例のロボット10の特徴は、上述のピエゾセンサシート50を人体状部20の全身に埋め込み、それによって人間によって皮膚22に加えられた圧力を圧覚情報として検知しようとすることである。そのために、実施例では、図3に示すように、48枚のピエゾセンサシート501−548を埋め込んだ。人間に触られやすい部位、たとえば頭頂や肩それに腕(手を含む)には、圧力を正確かつ確実に検知できるように、隙間なくピエゾセンサシートを埋め込み、あまり触られることを想定していない部位たとえば背中や足あるいは脇腹には許容できる隙間を持ってピエゾセンサシートを埋め込んだ。それによって、検出精度と製造コストとのトレードオフを解決した。なお、これら48枚のピエゾセンサシート501−548は、場合によっては、参照番号50で区別なしに示されることがあることに留意されたい。
図1に示すロボット10の電気的構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU52を含み、このCPU52には、バス54を通して、メモリ56,モータ制御ボード58,センサ入力/出力ボード60およびサウンド入力/出力ボード62が接続される。
メモリ56は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
モータ制御ボード58は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部の各軸モータを制御する。すなわち、モータ制御ボード58は、CPU52からの制御データを受け、右肩関節28Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節32Rの1軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)64の回転角度を調節する。また、モータ制御ボード58は、左肩関節28Lの3軸と左肘関節32Lの1軸、計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)66の回転角度を調節する。モータ制御ボード58は、また、頭部40の3軸のモータ(図4ではまとめて、「頭部モータ」として示す。)68の回転角度を調節する。そして、モータ制御ボード58は、車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)70を制御する。
なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。
センサ入力/出力ボード60も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU52に与える。すなわち、超音波センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード60を通して、CPU52に入力される。また、眼カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード60で所定の処理が施された後、CPU52に入力される。
このセンサ入力/出力ボード60は、さらに、図5に示すように、複数(実施例では12枚)の基板72,72…を含み、各基板72には、それぞれ1つのPICマイコン74が設けられる。PICマイコン74はたとえばASICで構成され、同じく基板72に設けられたA/D変換器76からの電圧データ(たとえば10ビット)をビット直列信号として出力する。
ピエゾセンサシート50は図5に示すようにピエゾフィルム78を電極ないし導体80aおよび80bで挟んだものであり、圧力が加えられるとそのピエゾフィルム78が電圧を発生し、その電圧が2つの導体80aおよび80b間に現れる。ただし、このとき発生される電圧(電位)は高いが電流が微弱なため、この発生電圧をそのまま長いケーブルでコンピュータ52(図4)に取り込むことは、ノイズが多く乗ってしまうので難しい。そこで、この実施例では、図5に示す基板72をピエゾセンサシートに近い位置に配置し、その中に高インピーダンスの読み取り装置、すなわちA/D変換器76を配置し、このA/D変換器76で変換した電圧値をPICマイコン74で読み取ってシリアル信号として出力し、それをコンピュータ52へ送るようにした。
A/D変換器76は、実施例では4チャネル10ビットのものを用いた。したがって、1つの基板72が4つのピエゾセンサシート50を受け持つことができる。基板72には、4つのピエゾセンサシートのために4対の端子82aおよび82bが設けられ、それぞれに電極80aおよび80bが接続される。端子82aおよび82b間にはノイズ除去用コンデンサ84が接続されている。したがって、端子82aおよび82b間に与えられたピエゾセンサシート50からの電圧は、ノイズ除去された後、オペアンプ86によって電流増幅され、上述のA/D変換器76の1つのチャネルに入力される。図5では1つのピエゾセンサシートが示されるだけであるが、他のピエゾセンサシートおよびそれに関連する回路も同様に構成されるものである。
上述のように人体状部20の皮膚22中には48個のピエゾセンサシート50が埋め込まれているが、それらをすべてロボット制御用のCPUないしコンピュータ52で読み取ろうとすると、ノイズを拾い易いだけでなく、コンピュータのA/Dポートを非常に多く必要としてしまい、現実的ではない。そこで、上述のように読み取り装置(基板72、A/D変換器76)をピエゾセンサシートの近傍に分散配置し、それぞれの出力を1本のシリアルケーブル、たとえばRS232C(商品名)でつないだ、いわゆるデイジーチェーンを形成した。したがって、図5に示す1つの基板72のPICマイコン74から出力されたビットシリアル信号は、次段の基板72のPICマイコン74のシリアル入力ポートに与えられる。当該次段のPICマイコン74は、前段のPICマイコンから送られてきたデータに自分が担当するA/D変換器から読み込んだデータを加えて、ビット直列信号として出力する。したがって、コンピュータ52は、1つのシリアルポートで全身の圧力センサからの圧力値を取り込めるようになっている。
なお、各PICマイコン74から出力される圧力値データは、図3に示す48個のピエゾセンサシート501−548のどれであるかを示す識別子と、圧力値とを含むので、コンピュータ52は、どの(部位の)ピエゾセンサシートがどの程度の圧力を受けているかを容易に特定できる。
具体的には、コンピュータ52は、たとえば50msecの周期で、ビットシリアルデータを出力する最終段のPICマイコンにポーリングをかけ、50msec周期ですべてのピエゾセンサシート501−548の圧力データを読み取ることができる。
コンピュータないしCPU52では、読み取ったデータに基づいて次の3種類の計測を行う。
皮膚22が押される、押された状態から元の状態へ戻る、といった圧力変化はA/D変換器76(図5)からは正負32段階、合計64段階で出力する。つまり、10ビットのうち下位4ビットはノイズ成分として捨て、上位6ビットのデータだけが各PICマイコン74(図5)から出力される。そして、コンピュータ52は、1度にどれくらい強く押されたかという情報としてこの64段階の圧力データを使い、「ひどく叩かれたか」、「軽く叩かれたか」、「やさしく手を置かれたか」、「軽く触られたか」などの触られ方の強弱を計測ないし判断する。
また、押された状態がどれくらい長く続くか、その持続時間を計測することによって、「叩かれたか」、「押されたか」などの継続状態を計測または判断する。
そして、圧力センサの電圧変化の波形の周波数(圧力変化の周波数)を計測することによって、「叩かれているのか」、「なでられているのか」、「くすぐられているのか」、という触られ方の種類を計測ないし判断する。
図4に戻って、スピーカ44にはサウンド入力/出力ボード62を介して、CPU52から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク24からの音声入力が、サウンド入力/出力ボード62を介して、CPU52に取り込まれる。
この実施例のロボット10は、圧力センサ(ピエゾセンサシート)によって検知した圧力にもとづいて計測した上述のパラメータに応じて、次のような動作や行動を行う。
たとえば、頭部をなでられると喜ぶが、叩かれるといやがる。握手したときに、相手が手を強く握りすぎると嫌がり、やさしく握ると仲良くしようとする。この際、握る場所は、手先だけでなく腕でもよい。人間に呼ばれるとき、肩の叩かれ方で態度が変わる。軽く叩くと普通に振り向き、強く叩くと痛がりつつ急いで振り向く。さらに、肩を揺さぶられると嫌がる。あるいは、脇腹や脇の下などを触られると嫌がり、くすぐられると悶える。また、だっこ動作の際、相手の抱きしめ方が強すぎたり弱すぎたりすると文句をいい、適度な力でだっこされると喜ぶ。
幾つかの具体的な動作を、以下、対応するフロー図を参照して説明する。ただし、いずれの動作も単なる一例であることを予め指摘しておく。
図6および図7に示すフロー図は、ロボット10が人間に対して、抱っこして欲しいとねだることによって、人間をしてロボット10を抱くようにさせる場合の動作を示す。
図6の最初のステップS1では、CPU52は、メモリ56から、サウンド入力/出力ボード62へ、音声データを送る。したがって、スピーカ44から、合成音声「だっこしてね」が出力される。続くステップS3において、CPU52は、超音波センサ18(図1)からの距離値をセンサ入力/出力ボード60を介して取り込む。すなわち、このステップS3では、超音波センサ18からの信号がセンサ入力/出力ボード60に入力される。応じて、このボード60では、超音波センサ18から超音波が発射され、その超音波が人間から反射されて超音波センサ18に入射されたタイミングを計測し、ロボット10と人間との間の距離値を示すデータをCPU52に与える。
CPU52は、次のステップS5において、センサ入力/出力ボード60から入力された距離データが所定値以下かどうか判断する。この「距離」が所定値以下であるということは、人間がロボット10に近づいたことを意味し、このステップS5で“NO”を判断したときには、次のステップS7でCPU52は衝突センサ(図示せず)の値を取り込み、ステップS9で衝突センサがオンかどうか判断する。衝突センサがオフであれば、そのまま終了する。
ステップS5で“YES”を判断すると、人間がロボット10に近づいたことを意味し、CPU52は、続くステップS11で、CPU52は眼カメラ42の映像信号によって人間を検知したかどうかを判断する。ステップS11で“YES”が判断されると、すなわち眼カメラ42で人間を検知すると、ステップS13で、CPU52は音声入力/出力ボードに音声データを送り、スピーカ44から「だいすき」を発声させる。それとともに、ステップS15で、CPU52は各軸モータを制御し、腕などを「抱っこ」の形にする。
続いて、ステップS17で、CPU52はピエゾセンサシート50すなわちセンサ入力/出力ボード60から圧力検知入力があるかどうか判断する。ここで“YES”が判断されるということは、ロボット10の「だっこしてね」の呼びかけに人間が応答したことを意味する。
ステップS17で“YES”が判断されると、CPU52は、次のステップS19で、先に述べた3種類のパラメータの1つ (強弱)を計測し、肩、脇、背中のどれかが強く押されているかどうか判断する。“YES”なら、CPU52はステップS21で「いたい」を発声させる。それとともに、痛いから放して欲しいというように、たとえば車輪モータ70を制御して後ずさりさせる。
ステップS19で“NO”が判断されると、続くステップS23で、CPU52は、先に述べた3種類のパラメータの1つ(強弱)を計測し、肩、脇、背中のすべての押され方が弱いかどうか判断する。“YES”なら、CPU52はステップS25で「もっと強く」を発声させる。ステップS23で“NO”なら、適度な強さで「だっこ」が行われたことを意味し、この場合には、CPU52は、スピーカ44から「だいすき」と発声させる。
図8および図9に示すフロー図は、ロボット10が人間に対して、握手して欲しいとねだることによって、人間をしてロボット10と握手するようにさせる場合の動作を示す。
図8の最初のステップS31では、CPU52は、メモリ56から、サウンド入力/出力ボード62へ、音声データを送る。したがって、スピーカ44から、合成音声「握手してね」が出力される。続くステップS33−S43は、先のステップS3−S13と同様であり、ここでは重複する説明は省略する。
ステップS45では、先の実施例では「だっこ」の形にしたが、この実施例では、たとえば右腕を前に差し出すなどして、CPU52はロボット10に握手の形態をとらせる。
続いて、ステップS47で、CPU52はピエゾセンサシート50すなわちセンサ入力/出力ボード60から圧力検知入力があるかどうか判断する。ここで“YES”が判断されるということは、ロボット10の「握手してね」の呼びかけに人間が応答したことを意味する。
ステップS47で“YES”が判断されると、CPU52は、次のステップS49で、先に述べた3種類のパラメータの1つ(強弱)を計測し、手や腕が強く握られたかどうか判断する。“YES”なら、CPU52はステップS51で「いたい」を発声させる。それとともに、痛いから放して欲しいというように、たとえば右腕モータ64(図4)を制御して腕を引っ込ませる。
ステップS49で“NO”が判断されると、続くステップS53で、CPU52は、先に述べた3種類のパラメータの1つ(時間)を計測し、手や腕が優しく握られ続けているかどうか判断する。“YES”なら、CPU52はステップS45で「よろしく」を発声させるとともに、右腕モータ64や頭部モータ68を制御して、握手の動作を行わせる。ただし、このステップS53で“NO”なら、そのまま終了する。
頭に配置したピエゾセンサシート、たとえば図3で示すセンサシート501−504のどれかから圧力信号が出力された場合、図10の動作が実行される。すなわち、CPU52は、これらのセンサシート501−504から入力があると、先に挙げた3種類のパラメータの1つ(強弱)を計測して、頭を叩かれたかどうか、ステップS61で判断する。ステップS61で“YES”を判断すると、CPU52は、ステップS63において、怒ったことを示す行動をさせる。ステップS61で“NO”なら、次のステップS65において、CPU52は、3種類のパラメータの1つ(周波数)を計測して、頭をなでられたのかどうか判断する。“YES”なら喜んでいることを示す行動をさせる。“NO”なら、CPU52は、嫌がるときにみせる行動を行わせる。
肩に配置したピエゾセンサシート、たとえば図3で示すセンサシート509−513のどれかから圧力信号が出力された場合、図11の動作が実行される。すなわち、CPU52は、これらのセンサシート509−512から入力があると、先に挙げた3種類のパラメータの1つ(時間)を計測して、肩を叩かれたかどうか、ステップS71で判断する。ステップS71で“NO”を判断すると、CPU52は、次のステップS73で、パラメータ(周波数)を計測し、肩が揺さぶられているのかどうか判断スする。“YES”なら、CPU52は、次のステップS75で嫌がる動作を行わせる。“NO”なら、ステップS77で、CPU52は、手をどけて欲しいとお願いするような所作を実行させる。
テップS71で“YES”を判断すると、CPU52は、ステップS79において、パラメータ(強弱)を計測して、叩かれ方が強いかどうか判断する。 “YES”なら、次のステップS81で、CPU52は、「いたい」と発声させ、急に振り向く動作を実行させる。“NO”なら、CPU52は、次のステップS83で、「こんにちは」と発声させるとともに、普通に振り向くような動作を行わせる。
脇の下に配置したピエゾセンサシート、たとえば図3で示すセンサシート5222−525のどれかから圧力信号が出力された場合、図12の動作が実行される。すなわち、CPU52は、これらのセンサシート522−525から入力があると、先に挙げた3種類のパラメータの1つ(周波数)を計測して、くすぐられているのかどうか、ステップS91で判断する。ステップS91で“YES”を判断すると、CPU52は、ステップS93において、「くすぐったい」と発声させるとともに、悶える動作を実行せさる。ステップS91で“NO”なら、次のステップS95において、CPU52は、各軸モータを制御して、触られたところを見るかのような所作をさせる。そして、ステップS97において、3種類のパラメータの1つ(周波数)を計測して、なでられているのかどうか判断する。“YES”ならそのまま終了し、“NO”なら、CPU52は、嫌がる行動を行わせる。
なお、上述の実施例において部分的にピエゾセンサの感度を上げておけば、人が近づいてくることによって反応する非接触の気配センサとしての利用も可能である。センサの感度は,読み取り装置(A/D変換器)に取り付ける抵抗によって変化させることができる。発明者等は、具体的には抵抗値を330kΩにすると人が近づいたときに生じる空気の流れでセンサが反応するようになることを確認済みであり、この感度の高い圧力センサを織り交ぜることで気配を感じて振り向くなどの動作を実現することも原理的に可能である。
また、上述の実施例では、人体状部20の頭部、肩、腕や手などの全身に圧力センサシートを分散配置した。しかしながら、どこか1つの部位に1つだけ圧力センサシートを配置するようにしてもよい。
図1はこの発明の一実施例のコミュニケーションロボットを示す図解図である。 図2は図1実施例に用いる皮膚とその中に埋め込まれるピエゾセンサシートとを示す図解図である。 図3はピエゾセンサシートの配置位置を示す図解図である。 図4は図1実施例の電気的構成を示すブロック図である。 図5は図1実施例におけるピエゾセンサシートから圧力信号を入力するセンサ入力/出力ボードを部分的に示す図解図である。 図6は図1実施例において「だっこ」をねだるときの動作を示すフロー図である。 図7は図6に後続する動作を示すフロー図である。 図8は図1実施例において「握手」をねだるときの動作を示すフロー図である。 図9は図8に後続する動作を示すフロー図である。 図10は図1実施例において頭部に配置したピエゾセンサシートが圧力を検知したときの動作を示すフロー図である。 図11は図1実施例において肩に配置したピエゾセンサシートが圧力を検知したときの動作を示すフロー図である。 図12は図1実施例において脇の下に配置したピエゾセンサシートが圧力を検知したときの動作を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
20 …ロボット部分
22 …皮膚
50,501−548 …ピエゾセンサシート
52 …CPU
58 …モータ制御ボード
60 …センサ入力/出力ボード
62 …サウンド入力/出力ボード
72 …基板
74 …PICマイコン
76 …A/D変換器
78 …ピエゾフィルム
80a,80b …導体

Claims (5)

  1. 少なくとも頭とその下方の胴体とを含む人型のコミュニケーションロボットであって、
    前記頭に被せられる柔軟素材からなる頭部皮膚、
    前記頭部皮膚中に配置され、ピエゾフィルムとその両面に形成された導体とを有する頭部ピエゾセンサシート、
    前記胴体の肩に被せられる柔軟素材からなる肩部皮膚、
    前記頭部ピエゾセンサシートとは独立して前記肩部皮膚中に配置され、ピエゾフィルムとその両面に形成された導体とを有する肩部ピエゾセンサシート、
    前記頭部ピエゾセンサシートおよび前記肩部ピエゾセンサシートの各導体間に生じる電圧をそれぞれA/D変換するための複数のA/D変換器を含み、複数のA/D変換器の出力を圧力データとして入力する入力手段、
    前記頭部ピエゾセンサシートからの圧力データに基づいて、圧力変化が強いとき頭を叩かれたと判断し、圧力変化が弱いとき圧力変化の周波数を計測して頭がなでられたかどうか判断する頭部判断手段、
    前記肩部ピエゾセンサシートからの圧力データに基づいて、圧力変化の持続時間を計測して肩を叩かれたかどうか判断し、圧力変化の強弱を計測して叩かれ方が強いかどうか判断し、肩を叩かれたと判断しないとき、さらに圧力変化の周波数を計測して肩が揺さぶられているかどうか判断する肩部判断手段、および
    前記頭部判断手段および前記肩部判断手段による判断に反応して所定の動作を実行させるロボット制御用コンピュータを備える、コミュニケーションロボット。
  2. 腕または手が設けられ、さらに
    前記腕または手に被せられる柔軟素材からなる腕または手部皮膚、
    前記頭部ピエゾセンサシートおよび前記肩部ピエゾセンサシートとは独立して前記腕または手部皮膚中に配置され、ピエゾフィルムとその両面に形成された導体とを有する腕または手部ピエゾセンサシート、
    前記腕または手部ピエゾセンサシートからの圧力データに基づいて、圧力変化の強弱を計測して前記腕または手が強く握られたかどうか判断し、前記腕または手が強く握られたと判断しないときさらに圧力変化の持続時間を計測して前記腕または手が優しく握り続けられているかどうか判断する腕または手部判断手段、および
    前記腕または手部判断手段による判断に反応して所定の動作を実行させるロボット制御用コンピュータを備える、請求項1記載のコミュニケーションロボット。
  3. 前記所定の動作は怒りを表す動作を含む、請求項1または2記載のコミュニケーションロボット。
  4. 前記所定の動作は喜びを表す動作を含む、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
  5. 前記入力手段は、前記複数のA/D変換器からの圧力データを前記ロボット制御用コンピュータにビットシリアルデータとして出力する複数の出力手段を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
JP2005138591A 2005-05-11 2005-05-11 コミュニケーションロボット Expired - Lifetime JP4524435B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005138591A JP4524435B2 (ja) 2005-05-11 2005-05-11 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005138591A JP4524435B2 (ja) 2005-05-11 2005-05-11 コミュニケーションロボット

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003080106A Division JP3706113B2 (ja) 2003-03-24 2003-03-24 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2005254454A JP2005254454A (ja) 2005-09-22
JP4524435B2 true JP4524435B2 (ja) 2010-08-18

Family

ID=35080670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005138591A Expired - Lifetime JP4524435B2 (ja) 2005-05-11 2005-05-11 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP4524435B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013094923A (ja) * 2011-11-04 2013-05-20 Sugiura Kikai Sekkei Jimusho:Kk サービスロボット
FR3021573B1 (fr) * 2014-06-03 2019-04-19 Aldebaran Robotics Systeme anti coincement dans un robot a caractere humanoide
CN108356831A (zh) * 2018-01-09 2018-08-03 中山市陪伴教育科技有限公司 一种儿童娱乐智能机器人
KR102013911B1 (ko) * 2018-02-09 2019-08-23 주식회사 미래금속 로봇 커버
JP6575637B2 (ja) * 2018-05-25 2019-09-18 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
KR102671211B1 (ko) * 2019-05-23 2024-06-03 삼성전자 주식회사 하우징의 입력에 대응하는 피드백을 제공하는 전자 장치
CN111805554B (zh) * 2020-07-08 2023-08-18 达闼机器人股份有限公司 机器人及其外壳

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6133894A (ja) * 1984-07-25 1986-02-17 神鋼電機株式会社 産業用ロボツトの安全ア−ム及び安全ハンド
JP3077514B2 (ja) * 1994-06-28 2000-08-14 トヨタ自動車株式会社 ロボット
JP3178393B2 (ja) * 1997-11-11 2001-06-18 オムロン株式会社 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2001347479A (ja) * 2000-06-09 2001-12-18 Microjenics Inc ロボット
JP2002035440A (ja) * 2000-07-28 2002-02-05 Roman Kobo:Kk 人形型ロボット、及びその製作方法
JP2002052489A (ja) * 2000-08-11 2002-02-19 Yamaha Motor Co Ltd 接触物判別装置及び接触状態判別装置

Also Published As

Publication number Publication date
JP2005254454A (ja) 2005-09-22

Similar Documents

Publication Publication Date Title
JP3706113B2 (ja) コミュニケーションロボット
JP4524435B2 (ja) コミュニケーションロボット
JP3942586B2 (ja) コミュニケーションロボット
TW200827114A (en) Tactile sensing device and an robotic apparatus using thereof
JPS59209797A (ja) 遠隔操作装置の触覚フイ−ドバツク方法とその装置
JP2008149442A (ja) 表面に情報表示および相互作用機能を備える可動装置
JP2003337963A (ja) 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
JP5007404B2 (ja) 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
JP6565853B2 (ja) コミュニケーション装置
JP4677585B2 (ja) コミュニケーションロボット
JP2002049385A (ja) 音声合成装置、疑似感情表現装置及び音声合成方法
JP3942599B2 (ja) コミュニケーションロボット
CN113508355A (zh) 虚拟现实控制器
JP4271070B2 (ja) コミュニケーションロボット
JP4873607B2 (ja) 皮膚センサを有する電子機器
JP2006281348A (ja) コミュニケーションロボット
JP2002031574A (ja) 触覚センサ
JP2022165335A (ja) コミュニケーションシステム及びコーチングシステム
JP4753410B2 (ja) コミュニケーションロボット
JP3745649B2 (ja) コミュニケーションロボット
JP3989698B2 (ja) コミュニケーションロボット
JP4223426B2 (ja) コミュニケーションロボット
JP5103589B2 (ja) コミュニケーションロボット
JP5229701B2 (ja) 触覚センサを有するロボット
EP1503272A1 (en) A portable device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090520

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090529

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100402

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4524435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140611

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term