JP4753410B2 - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP4753410B2
JP4753410B2 JP2004317986A JP2004317986A JP4753410B2 JP 4753410 B2 JP4753410 B2 JP 4753410B2 JP 2004317986 A JP2004317986 A JP 2004317986A JP 2004317986 A JP2004317986 A JP 2004317986A JP 4753410 B2 JP4753410 B2 JP 4753410B2
Authority
JP
Japan
Prior art keywords
cluster
tactile
data
sensor
transition data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004317986A
Other languages
English (en)
Other versions
JP2006123140A5 (ja
JP2006123140A (ja
Inventor
敬宏 宮下
太一 田近
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004317986A priority Critical patent/JP4753410B2/ja
Publication of JP2006123140A publication Critical patent/JP2006123140A/ja
Publication of JP2006123140A5 publication Critical patent/JP2006123140A5/ja
Application granted granted Critical
Publication of JP4753410B2 publication Critical patent/JP4753410B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明はコミュニケーションロボットに関し、特にたとえば、全身に分布する触覚センサまたは皮膚センサを用いてコミュニケーションの相手の触行動を認識するコミュニケーションロボットに関する。
日常環境の中で活動するロボットにとって表面の柔らかさと敏感さは、コミュニケーションの相手となる人間への安全性という面において重要である。さらに、スキンシップという言葉の通り、体の表面は最初に触れるインタフェースであることから、コミュニケーションの相手がどのようにどの場所に触れているかを知ることは、相手の状態を知ることに繋がる。たとえば強く握ったり、やさしくなでたりするという触行動は自分の意思や気持ちを相手に伝えるための行動であり、根本的なコミュニケーション行動の1つである。したがって、ロボットの全身の柔らかさと触覚は、日常環境の中で活動するコミュニケーションロボットにとって非常に重要である。
従来、部分的な触覚を持ったロボットは数多く存在するが、全身の触覚イメージを獲得できるロボットは少ない。たとえば、非特許文献1では、導電性ファブリークを用いたロボット用の全身触覚スーツが提案される。しかし、この非特許文献1のロボット用センサスーツは、柔らかさを持った皮膚ではなく服であること、センサ出力は触られたか触られていないかの2値であることなどから、相手がどのように触れているのかを知ることは難しい。
また、非特許文献2では、3.75mmピッチの分布型触覚センサを巻き付けて全身の圧覚を取得するぬいぐるみが提案される。この非特許文献2のぬいぐるみでは、代表的な触行動が全身の圧覚によって分類できることが明らかにされている。しかし、触行動の対象があくまで静止したぬいぐるみに過ぎず、能動的なロボットへの触行動の解析はなされていない。また、ロボットが動くと、ロボット自体の体表の圧力が変化するという新たな問題も生じる。
そこで、本件出願人は、特許文献1において、柔らかい皮膚を持ち、触覚情報を出力するピエゾセンサ(触覚センサまたは皮膚センサ)を全身に配置したコミュニケーションロボットを提案している。
稲葉雅幸,星野由紀子,井上博允、"導電性ファブリックを用いた全身被服型触覚センサスーツ"、日本ロボット学会誌,Vol.16, No.1,pp.80−86,1998 納谷太,篠沢一彦,大和淳司,小暮潔、"圧力分布センサによる人の触行動の実時間識別とその個人適応手法"、電子情報通信学会論文誌D−II,Vol.J85−D−II,No.4,pp.613−621,2002 特開2004−283975号[B25J 13/08 19/02]
特許文献1のコミュニケーションロボットでは、触覚センサの出力情報から圧力の強弱、持続時間、または変化の周波数などに着目することで、コミュニケーション相手である人間の触り方を区別することが分かっている。
それゆえに、この発明の主たる目的は、触覚センサの出力情報から人間の触り方を抽出できる、コミュニケーションロボットを提供することである。
請求項1の発明は、複数の触覚センサ、相手の触行動に伴う各時刻の触覚センサの出力ベクトルをクラスタリングしてクラスタ核を抽出するクラスタ核抽出手段、クラスタ核をそれぞれの触り方に対応付けて、クラスタ核の遷移データを作成する遷移データ作成手段、およびクラスタ核の遷移データどうしの距離に応じた階層的クラスタリングを行なう階層的クラスタリング手段を備える、コミュニケーションロボットである。
請求項1の発明では、コミュニケーションロボット(10。実施例で相当する部分または要素の参照符号。以下同じ。)には全身に分布して複数の皮膚センサまたは触覚センサ(58)が設けられる。各触覚センサからの圧力データがたとえばPIC(74)で取り出され、センサ入力/出力ボード(68)からバス(62)を通してCPU(60)に収集される。CPUが収集した触覚センサ出力データは、たとえばメモリ(64)に蓄積される。たとえば1フレームにおけるすべての触覚センサの出力データが出力ベクトルとして表される。クラスタ核抽出手段(60,S3)は、この出力ベクトルをたとえばISODATA法に従ってクラスタリングし、そのクラスタのクラスタ核を抽出する。
コミュニケーション相手である人間がコミュニケーションロボットに触る触り方(触る、撫でる、叩く、押すなど)は、たとえば250〜1500種類程度の典型的または代表的な触り方のどれかに分類できる。そこで、遷移データ作成手段(60,S7)は、各フレームの出力ベクトルを、上記の典型的な触覚センサ出力ベクトルを表すクラスタ核のどれに最も類似するか判断し、対応づける。つまり、クラスタ核抽出手段において抽出した各クラスタ核に予め番号またはラベルを付し、番号またはラベルが時間経過とともに変化する1次元データを遷移データとして作成する。
階層的クラスタリング手段(60,S9,S11)では、まず、各クラスタ核の遷移データどうしの距離を、たとえばDPマッチング法によって求める。ついで、得られた距離情報に従って階層的クラスタリングを行なって、たとえば樹状図を作成する。したがって、この樹状図を参照することによって、コミュニケーション相手である人間の触り方を抽出または認識することができる。
請求項2の発明は、出力ベクトルの時系列データに基づいて継続的に反応している部分の出力ベクトルを抽出する出力ベクトル抽出手段をさらに備え、遷移データ作成手段は出力ベクトル抽出手段で抽出した出力ベクトルのクラスタ核について遷移データを作成する、請求項1記載のコミュニケーションロボットである。
請求項2の発明では、出力ベクトル抽出手段(60,S5)は、たとえば各触覚センサからの出力データを参照して、たとえば閾値以上の出力が一定時間以上出力されなくなると、継続的な反応がなくなったと判断する。つまり、この出力ベクトル抽出手段は、一連のまとまりのある触り方を構成する出力ベクトルだけを抽出する。したがって、遷移データ作成手段は、出力ベクトル抽出手段で抽出された出力ベクトルのクラスタ核だけで遷移データを作成する。このように、継続的な反応を呈している部分についての出力ベクトルを抽出することによって、反応すなわち触り方を誤って分類するのを可及的抑制できる。
請求項3の発明は、階層的クラスタリング手段は、直交する2軸の一方が距離を表しかつ他方がクラスタ番号を表す樹状図を作成する樹状図作成手段を含む、請求項1または2記載のコミュニケーションロボットである。
請求項3の発明では、一例として、樹状図の上位のクラスタが、主に触る部位によって形成され、下位のクラスタはその部位における触り方によって形成される。したがって、この樹状図を参照すれば、どこをどのように触られているかを判別することができる。
請求項4の発明は、ロボット本体上に被せられる柔軟素材からなる皮膚をさらに備え、複数の触覚センサは皮膚中に分散配置される複数のピエゾセンサシートを含む、請求項1ないし3のいずれかに記載のコミュニケーションロボットである。
請求項4の発明では、たとえば全身分布型皮膚センサを有するコミュニケーションロボットを実現することができ、また、柔らかい皮膚を介して触行動が行われるので、人間に対して安心感を与えて親和性と安全性を向上できる。
請求項5の発明は、複数の触覚センサを有するコミュニケーションロボットに対する人間の触り方を判別するための方法であって、(a) 相手の触行動に伴う触覚センサの出力ベクトルをクラスタリングしてクラスタ核を抽出するクラスタ核抽出ステップ、(b) クラスタ核をそれぞれの触り方に対応付けて、クラスタ核の遷移データを作成する遷移データ作成ステップ、および(c) クラスタ核の遷移データどうしの距離に応じた階層的クラスタリングを行なって樹状図を作成する階層的クラスタリングステップを含む、コミュニケーションロボットの触り方判別方法である。
この発明によれば、階層的クラスタリングの結果に従って、人間のコミュニケーションロボットの触り方、つまりどこをどのように触られているかを判別することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は台車12を含み、この台車12の側面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「16」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサが取り付けられ、この衝突センサは、台車12への人間や他の障害物の接触を検知する。
台車12の上には、多角形柱状のセンサ取付パネル18が設けられ、このセンサ取付パネル18の各面には、超音波距離センサ20が取り付けられる。この実施例ではたとえば24個の超音波距離センサ20が周囲360度にわたるように設けられる。この超音波距離センサ20は、センサ取付パネル18すなわちロボット10の周囲の主として人間との距離を計測するものである。具体的には、超音波距離センサ20は超音波を発射し、その超音波が人から反射されて超音波距離センサ20に入射されたタイミングを測定して、人との間の距離情報を出力する。
台車12の上には、人体状部22が直立するように取り付けられる。このロボット本体としての人体状部22の全身は、後に詳しく説明するように、柔軟素材からなる皮膚24によって覆われる。人体状部22は、たとえば鉄板のような筐体(図示せず)を含み、その筐体にコンピュータやその他必要なコンポーネントを収容している。そして、皮膚24は、その筐体上に被せられる。皮膚24の下の筐体の上部ほぼ中央にはマイク26が設けられる。このマイク26は、周囲の音声、特に人間の声を収集するためものである。
人体状部22は、右腕28Rおよび左腕28Lを含み、右腕28Rおよび左腕28Lすなわち上腕30Rおよび30Lは、それぞれ、肩関節32Rおよび32Lによって、胴体部分に変位自在に取り付けられる。この肩関節32Rおよび32Lは、3軸の自由度を有する。上腕30Rおよび30Lには、1軸の肘関節34Rおよび34Lによって、前腕36Rおよび36Lが取り付けられ、この前腕36Rおよび36Lには、手38Rおよび38Lが取り付けられる。これら右腕28Rおよび左腕28Lの各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕28Rおよび左腕28Lのそれぞれ4個のモータが、図4において、それぞれ右腕モータ40および左腕モータ42として表される。
人体状部18の上部には首関節44を介して頭部46が、人間の頭と同様に俯仰・回転可能に取付けられる。この3軸の首関節44は、図4に示す頭部モータ48によって制御される。頭部46の前面の「目」に相当する位置には2つの眼カメラ50が設けられ、この眼カメラ50は、ロボット10に接近した人間の顔や他の部分を撮影してその映像信号を取り込む。頭部46の前面の目カメラ50の下方にはスピーカ52が設けられる。このスピーカ52は、ロボット10がそれの周囲の人間に対して音声によってコミュニケーションを図るために用いられる。
上で説明した人体状部22の胴体や頭部46および腕は上記したようにすべて柔軟な素材からなる皮膚24に覆われる。この皮膚24は、図2に示すように、下層のウレタンフォーム54と、その上に積層される比較的肉厚のシリコンゴム層56aおよび比較的肉薄のシリコンゴム層56bとを含む。そして、2つのシリコンゴム層56aおよび56bの間に、ピエゾセンサシート(触覚センサ)58が埋め込まれる。このピエゾセンサシート58は、たとえば米国MSI社製、株式会社東京センサ販売のピエゾフィルムを用いる(http://www.t-sensor.co.jp/PIEZO/TOP/index.html)。実施例のロボットに使用したのはA4サイズ(型番:200×140×28)のピエゾフィルムを1/2、1/3、1/4、1/6の大きさにはさみでカットしたピエゾセンサシートである。このピエゾフィルムは、圧電フィルム(たとえばPVDF(ポリビニリデンフルオロイド))の両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有する。圧力等で変形すると両面金属薄膜間にピエゾ電気を発生し、すなわち、電荷があらわれて電位差が生じる。
実施例では、上述のように、発泡ウレタンとシリコンゴムとを使って皮膚24の柔らかさを得た。シリコンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎてエネルギ消費量が大きくなるだけでなく、裂傷に弱くなる。そこで、発明者等は、実験を重ねた結果、大まかな形と厚みはウレタンフォームで作り、その表面を約20mmのシリコンゴムで覆う形を採用することとした。そして、シリコンゴム層を2つにし、それらのシリコンゴム層56aおよび56bの間に、上述のピエゾセンサシート58を埋め込んだ。このとき、内側のシリコンゴム層56aを厚く(約15mm)し、表面側のシリコンゴム層56bを薄く(約5mm)した。このようにすると、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、なおかつフィルムが変形し易くなるので、圧力の計測が容易になる。つまり、シリコンゴム層の厚みはロボット10の構造やパワーによるが、なるべく薄く、しかし変形が伝わり易く、雑音となる振動が伝わり難いものが必要となる。また、この柔らかい皮膚を介して、人との間で触行動によるコミュニケーションを行うことができるので、人に対して安心感を与えて親和性を高めることができるし、触れたりぶつかったりした場合の人の怪我を防止して安全性も高めることができる。
なお、皮膚24の素材は軟性素材であればよく、上述のものに限定されずたとえば他のゴム素材等でもよい。ただし、ピエゾフィルムシートの表面金属薄膜が腐食しない材質である必要がある。また、皮膚24の厚み(各層の厚み)は、素材によって適宜変更され得る。
上述のピエゾセンサシートすなわち触覚センサ(触覚センサ)58は人体状部22の全身にわたって埋め込まれ、それによって、人間等が接触することによって皮膚24に加えられた圧力を圧覚(触覚)情報として検知する。この実施例では、図3に示すように、ロボット10の全身にわたって48枚のピエゾセンサシート501−548を埋め込んだ。つまり、ロボット10は全身分布型触覚センサを有するといえる。埋め込み状況(場所)に関しては、人間に触られやすい部位、たとえば頭頂や肩それに腕(手を含む)には、圧力を正確かつ確実に検知できるように、隙間なくピエゾセンサシートを埋め込み、あまり触られることを想定していない部位たとえば足あるいは脇腹には許容できる隙間を持ってピエゾセンサシートを埋め込んだ。それによって、検出精度と製造コストとのトレードオフを解決した。なお、これら48枚のピエゾセンサシート501−548は、場合によっては、触覚センサ58として区別なしに示されることがあることに留意されたい。
図1に示すロボット10の電気的構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU60を含み、このCPU60には、バス62を通して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68およびサウンド入力/出力ボード70が接続される。
メモリ64は、図示しないが、ROMやHDD、RAMを含む。ROMやHDDにはこのロボット10の制御プログラムが予め書き込まれている。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部のコンピュータと通信するためのプログラム等を含む。メモリ64にはまた、コミュニケーション行動を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ52から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための各関節軸の角度制御データ等を含む。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用される。
モータ制御ボード66は、たとえばDSP(Digital Signal Processor) で構成され、
各腕や頭部などの各軸モータを制御する。すなわち、モータ制御ボード66は、CPU60からの制御データを受け、右肩関節32Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの1軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)40の回転角度を調節する。また、モータ制御ボード66は、左肩関節32Lの3軸と左肘関節34Lの1軸、計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)42の回転角度を調節する。モータ制御ボード66は、また、頭部46の3軸のモータ(図4ではまとめて、「頭部モータ」として示す。)48の回転角度を調節する。そして、モータ制御ボード66は、車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)16を制御する。
なお、この実施例の上述のモータは、車輪モータ16を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ16と同様に、直流モータであってよい。
センサ入力/出力ボード68も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU60に与える。すなわち、図示しない衝突センサの各々からの接触に関するデータがこのセンサ入力/出力ボード68を通して、CPU60に入力される。また、眼カメラ50からの映像信号が、必要に応じてこのセンサ入力/出力ボード68で所定の処理が施された後、CPU60に入力される。
このセンサ入力/出力ボード68は、さらに、図5に示すように、複数(実施例では12枚)の基板72,72…を含み、各基板72には、それぞれ1つのPICマイコン74が設けられる。PICマイコン74はたとえばASICで構成され、同じく基板72に設けられたA/D変換器76からの電圧データ(たとえば10ビット)をビット直列信号として出力する。
触覚センサ58は、図5に示すようにピエゾフィルム78を電極ないし導体80aおよび80bで挟んだものであり、圧力が加えられるとそのピエゾフィルム78が電圧を発生し、その電圧が2つの導体80aおよび80b間に現れる。ただし、このとき発生される電圧は電位は高いが電流が微弱なため、この発生電圧をそのまま長いケーブルでコンピュータ60(図4)に取り込むことは、ノイズが多く乗ってしまうので難しい。そこで、この実施例では、図5に示す基板72を触覚センサ58に近い位置に配置し、その中に高インピーダンスの読み取り装置、すなわちA/D変換器76を配置し、このA/D変換器76で変換した電圧値をPICマイコン74で読み取ってシリアル信号として出力し、それをCPU60へ送るようにした。なお、ピエゾフィルムシートの電極の配置の一例として、導体80aは皮膚24の表面側に配置され、導体80bは筐体側に配置される。
A/D変換器76は、実施例では4チャネル10ビットのものを用いた。したがって、1つの基板72が4つの触覚センサ58を受け持つことができる。基板72には、4つのピエゾセンサシートのために4対の端子82aおよび82bが設けられ、それぞれに電極80aおよび80bが接続される。端子82aおよび82b間にはノイズ除去用コンデンサ84が接続されている。したがって、端子82aおよび82b間に与えられた触覚センサ58からの電圧は、ノイズ除去された後、オペアンプ86によって電流増幅され、上述のA/D変換器76の1つのチャネルに入力される。図5では1つの触覚センサ58が示されるだけであるが、他の触覚センサ58およびそれに関連する回路も同様に構成されるものである。
上述のように人体状部22の皮膚24中には48個のピエゾセンサシート501−548が全身にわたって埋め込まれているが、それらをすべてロボット制御用のCPUないしコンピュータ60で読み取ろうとすると、ノイズを拾い易いだけでなく、コンピュータのA/Dポートを非常に多く必要としてしまい、現実的ではない。そこで、上述のように読み取り装置(基板72、A/D変換器76)を触覚センサ58の近傍に分散配置し、それぞれの出力を1本のシリアルケーブル、たとえばRS232C(商品名)で繋いだ、いわゆるデイジーチェーンを形成した。したがって、図5に示す1つの基板72のPICマイコン74から出力されたビットシリアル信号は、次段の基板72のPICマイコン74のシリアル入力ポートに与えられる。当該次段のPICマイコン74は、前段のPICマイコン74から送られてきたデータに自分が担当するA/D変換器76から読み込んだデータを加えて、ビット直列信号として出力する。したがって、コンピュータ60は、1つのシリアルポートで全身の触覚センサ58からの検知情報を取り込めるようになっている。
なお、各PICマイコン74から出力される検知データは、図3に示す48個のピエゾセンサシート501−548のいずれであるかを示す識別子と、圧力値に関する情報とを含むので、コンピュータ60は、どの(部位の)ピエゾセンサシートがどの程度の圧力を受けているかを容易に特定できる。
ただし、この実施例では、左右の手先に設けられるそれぞれ5つのピエゾセンサシート535−539と544−548については、A/D変換器76の入力が4つであることから、便宜上、先端の1個(右手:539、左手:548)と外側の1個(右手:536、左手:545)の出力を並列にしている。したがって、この実施例では、左右の手先の触覚センサ58は実質的にそれぞれ4個となるので、触覚センサ58の出力データは46次元データとなる。
出力を読み取る場合、具体的には、コンピュータ60は、たとえば50msecの周期で、ビットシリアルデータを出力する最終段のPICマイコン74にポーリングをかけ、50msec周期ですべてのピエゾセンサシート501−548の検知データを読み取ることができる。検知データは、A/D変換器76(図5)からはたとえば正負32段階、合計64段階で出力される。つまり、10ビットのうち下位4ビットはノイズ成分として捨て、上位6ビットのデータだけが各PICマイコン74(図5)から出力される。
そして、コンピュータ60は、触覚センサ58で検知した64段階のデータを用いて、たとえば触られ方の強弱、押された状態の持続時間または電圧変化の波形の周波数(圧力変化の周波数)などの接触状態を計測することができる。触られ方の強弱によってたとえば「ひどく叩かれたか」、「軽く叩かれたか」、「やさしく手を置かれたか」、「軽く触られたか」などを判断することができ、持続時間によってたとえば「叩かれたか」、「押されたか」などの継続状態を判断することができ、圧力変化の周波数によってたとえば「叩かれているのか」、「なでられているのか」、「くすぐられているのか」という触られ方の種類を判断することができる。そして、ロボット10は、触り方(接触状態)に応じて動作を制御することができる。このような動作制御は、特許文献1(特開2004−283975号)にも詳細に開示されるので参照されたい。
図4に戻って、スピーカ52にはサウンド入力/出力ボード70を介して、CPU60から、合成音声データが与えられ、それに応じて、スピーカ52からはそのデータに従った音声または声が出力される。また、マイク26からの音声入力が、サウンド入力/出力ボード70を介して、CPU60に取り込まれる。
また、CPU60には、バス62を介して通信LANボード88および無線通信装置90が接続される。通信LANボード88は、DSPで構成され、CPU60から送られる送信データを無線通信装置90に与え、無線通信装置90から送信データを、図示は省略するが、たとえば無線LANまたはインタネットのようなネットワークを介して外部のコンピュータに送信させる。また、通信LANボード88は、無線通信装置90を介してデータを受信し、受信したデータをCPU60に与える。つまり、この通信LANボード88および無線通信装置90によって、ロボット10は外部のコンピュータ等と無線通信を行うことができる。
図6を参照して、この図6には、図1および図4に示すこの実施例の動作のフロー図が示される。まず、最初のステップS1では、コンピュータまたはCPU60は、実験によりコミュニケーション時のデータを、上述のPIC74(図5)から取得して蓄積する。取得されるデータは、人間の触行動によって反応した触覚センサ58の出力データであり、たとえば20Hz(1秒間に20フレーム)で計測する。このように取得した、触覚センサ58の出力データはメモリ64内に格納される。
触覚センサデータは、上述のように48個の触覚センサ501−548からの出力を含む46次元データであり、各要素が0〜32(−31〜32の絶対値)の値を有する。
次のステップS3では、ステップS1で取得した触覚センサからの1フレームのデータ(46次元出力ベクトル)を、図7に示すように、ISODATA法によってクラスタリングする。つまり、46次元の触覚センサデータ空間において、パターンの分布が密になっている部分(クラスタ)を見つける。そして、そのクラスタのクラスタ核、実施例ではクラスタの重心を抽出する。したがって、CPU60およびそれによって実行されるこのステップS3がクラスタ核抽出手段として機能する。
なお、ISODATA法はクラスタリングの一手法であり、前段において生成したクラスタを一定基準に従って分割したり併合したりして最終的なクラスタを導く(参考文献:鳥脇純一郎、テレビジョン学会教科書シリーズ9「認識工学―パターン認識とその応用-」、コロナ社、1993)。
続いて、ステップS5で、触覚センサ出力が閾値以上のフレームを選別する。閾値は48個の触覚センサ501−548ごとに実験的に求められて予め設定されている。48個の触覚センサ501−548のうちどれか1つでもその閾値を超えているものがあるかどうかを判断し、閾値を超えているものがある場合には、反応が継続していると判断する。そして、一定時間たとえば10秒以上の時間、閾値以上の出力の触覚センサが検出されなければ、そこで継続的な反応が終了したと判断する。したがって、このステップS5では、継続的に反応している部分の1まとまりの出力ベクトルを触り方のデータとして選択または抽出する。したがって、以後のステップでは、1まとまりの反応毎に、触り方を抽出することになる。このように、CPU60およびこのステップS5が出力ベクトル抽出手段として機能する。
続くステップS7では、それぞれの触り方における時系列データを1フレームずつクラスタ核に対応付けることによって、クラスタ核の遷移データを作成する。
ステップS1で蓄積した触覚センサの1フレーム毎の出力データ、すなわちステップS3で得たクラスタは、人間とのコミュニケーション時の代表的な触られ方を表している。つまり、コミュニケーション時にコミュニケーションロボット10に人間が触る触り方(触る、撫でる、叩く、押すなど)は、発明者等の実験によれば、たとえば250〜1500種類程度の典型的な触り方のどれかに分類できる。そこで、このステップS7では、たとえば、最近傍法または最近近傍法(nearest neighbor method)を用いて、各フレームの出力ベクトルがその典型的な触り方のどれに該当するか判別し、その判別した触り方を、その出力ベクトルのクラスタ核に対応付ける。つまり、各クラスタ核に、それに対応する触り方の種類または番号(図7)を付し、図8に示すように、その種類または番号が時間経過とともに変化する1次元データであるクラスタ核遷移データを作成する。
CPU60とこのCPU60で実行するステップS7とが、クラスタ核遷移データ作成手段として機能する。
次のステップS9では、ステップS7で求めたクラスタ核の遷移データどうしの距離をたとえばDP(Dynamic Programming)マッチング法(動的計画法)によって、たとえば図9に示すように、計算する。
なお、DPマッチングでは、ISODATAのクラスタ核p,q間の距離dist(p,q)は数1のように定義する。
Figure 0004753410
ここで、e(r)はr番目のISODATAのクラスタ核である。
そして、ステップS11で、CPU60は、ステップS9で求めたクラスタ核の遷移データ間の距離情報に基づいて、階層的クラスタリングを行い、たとえば図10に示す樹状図(dendrogram)を作成する。
上述のように、CPU60とこれによって実行されるステップS9およびS11が階層的クラスタリング手段を構成する。
発明者等は、一般被験者に対して、人間の触行動時のロボットの全身触覚センサの時系列データを収集する実験を行った。図1のように全身に皮膚センサまたは触覚センサを分布して設けたコミュニケーションロボット10を静態展示し、ロボットの各関節が自由に動かせる状態で被験者に自由に触るように指示することで触覚センサデータ収集を行なった。元データは311830、クラスタ核は501である。
実験結果として、284人の被験者から得られた有効な触覚センサデータは311830フレーム、ISODATAクラスタリングによって得られたクラスタ核は501個となった。さらに、被験者から得られた1245個の触り方データにそれぞれのクラスタ核を対応付けて遷移データを求め、その遷移データについて階層的クラスタリングを行った結果、図10のような樹状図が得られた。この図10の樹状図は、直交する2軸を有し、それの一方(縦軸)が距離を表しかつ他方(横軸)がクラスタ番号を表している。ただし、図10では、階層的クラスタの上位階層のみを樹状図として示している。
図10では、各枝の先端が1つのクラスタに対応しており、高さがクラスタ間の距離を表している。樹状図の枝の先端が150個に分かれた階層における触り方を表すクラスタの例を表1に示す。
Figure 0004753410
表1における触り方の評価は、実験者が被験者の触行動を録画した映像を観察することにより行った。表1におけるクラスタAは、他クラスタと比較して、映像としては多くの触り方を含んだものになっている。これはこのクラスタに属する触り方のセンサの反応が小さく、各触り方データ問の距離が小さくなるためである。一方、その他のクラスタは映像から判別される触り方の特徴を反映した分類がなされている。
なお、図10の樹状図による階層的クラスタリングにおいては、主に触る部位によって上位のクラスタが形成され、下位のクラスタはその部位における触り方によって形成されることがわかった。したがって、この樹状図を参照すれば、コミュニケーションロボット10は、どこをどのように触られているかを判別することができる。
このように、この実施例では、コミュニケーションロボット10に対する人間の代表的な触り方の抽出が可能になった。つまり、上述のように、20フレームで46次元ベクトルデータを取り扱おうとすると、1秒間に(20×46)個、一連の継続的な反応(つまり、1つの触り方)が15秒だとすると、(20×46×15)のデータを処理する必要があるが、実施例のように、触覚センサの時系列データを各時刻における触覚センサ出力の代表値の一次元配列に変換することにより圧縮を行い、それぞれの触り方データの距離をDPマッチングで求め、階層的クラスタリングを行うことにより、より少ないデータ処理量で、触り方の判別が可能となった。
なお、上述の実施例では、図6の処理をロボット10のCPUが全て実行するものとして説明した。しかしながら、このような「触り方」の抽出は、別に設けたコンピュータによって処理するようにしてもよい。この場合、当該別のコンピュータ(図示せず)は、ロボット10の無線通信装置90から触覚センサの出力データを受け取ればよい。
この発明の一実施例のコミュニケーションロボットを示す図解図である。 図1実施例のコミュニケーションロボットに用いる皮膚とその中に埋め込まれるピエゾセンサシートとを示す図解図である。 ピエゾセンサシートの配置位置を示す図解図である。 図1実施例のコミュニケーションロボットの電気的構成を示すブロック図である。 図1実施例のコミュニケーションロボットにおけるピエゾセンサシート(触覚センサ)から検知信号を入力するセンサ入力/出力ボードを部分的に示す図解図である。 図1実施例の動作を示すフロー図である。 図1実施例において触覚センサ出力ベクトルを空間圧縮することを示す図解図である。 図7のクラスタ核を典型的な触り方に対応付けて時間経過とともに示したクラスタ核遷移データを示す図解図である。 DPマッチングの方法を示す図解図である。 図1実施例で得られた樹状図の一例を示す図解図である。
符号の説明
10 …コミュニケーションロボット
22 …人体状部
24 …皮膚
58,501−548 …触覚センサ(ピエゾセンサシート)
60 …CPU
64 …メモリ
68 …センサ入力/出力ボード

Claims (5)

  1. 複数の触覚センサ、
    相手の触行動に伴う各時刻の前記触覚センサの出力ベクトルをクラスタリングしてクラスタ核を抽出するクラスタ核抽出手段、
    前記クラスタ核をそれぞれの触り方に対応付けて、クラスタ核の遷移データを作成する遷移データ作成手段、および
    前記クラスタ核の遷移データどうしの距離に応じた階層的クラスタリングを行なう階層的クラスタリング手段を備える、コミュニケーションロボット。
  2. 前記出力ベクトルの時系列データに基づいて継続的に反応している部分の出力ベクトルを抽出する出力ベクトル抽出手段をさらに備え、
    前記遷移データ作成手段は前記出力ベクトル抽出手段で抽出した出力ベクトルのクラスタ核について前記遷移データを作成する、請求項1記載のコミュニケーションロボット。
  3. 前記階層的クラスタリング手段は、直交する2軸の一方が距離を表しかつ他方がクラスタ番号を表す樹状図を作成する樹状図作成手段を含む、請求項1または2記載のコミュニケーションロボット。
  4. ロボット本体上に被せられる柔軟素材からなる皮膚をさらに備え、
    前記複数の触覚センサは前記皮膚中に分散配置される複数のピエゾセンサシートを含む、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
  5. 複数の触覚センサを有するコミュニケーションロボットに対する人間の触り方を判別するための方法であって、
    (a) 相手の触行動に伴う前記触覚センサの出力ベクトルをクラスタリングしてクラスタ核を抽出するクラスタ核抽出ステップ、
    (b) 前記クラスタ核をそれぞれの触り方に対応付けて、クラスタ核の遷移データを作成する遷移データ作成ステップ、および
    (c) 前記クラスタ核の遷移データどうしの距離に応じた階層的クラスタリングを行なって樹状図を作成する階層的クラスタリングステップを含む、コミュニケーションロボットの触り方判別方法。
JP2004317986A 2004-11-01 2004-11-01 コミュニケーションロボット Active JP4753410B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004317986A JP4753410B2 (ja) 2004-11-01 2004-11-01 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004317986A JP4753410B2 (ja) 2004-11-01 2004-11-01 コミュニケーションロボット

Publications (3)

Publication Number Publication Date
JP2006123140A JP2006123140A (ja) 2006-05-18
JP2006123140A5 JP2006123140A5 (ja) 2007-11-15
JP4753410B2 true JP4753410B2 (ja) 2011-08-24

Family

ID=36718349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004317986A Active JP4753410B2 (ja) 2004-11-01 2004-11-01 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP4753410B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100858925B1 (ko) 2007-02-01 2008-09-17 고려대학교 산학협력단 클러스터 식별자를 이용한 인간 신체의 센싱 데이터 전송시스템 및 그 방법
CN101945492B (zh) * 2010-08-09 2013-02-06 哈尔滨工程大学 基于分簇的多机器人任务分配方法
JP6886651B2 (ja) * 2016-12-08 2021-06-16 株式会社国際電気通信基礎技術研究所 行動コマンド生成システム、応答システムおよび行動コマンド生成方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149904A (ja) * 1992-11-09 1994-05-31 Matsushita Electric Ind Co Ltd 画像検索装置
JPH07200300A (ja) * 1993-11-29 1995-08-04 Toshiba Corp パターン認識型推論方法及び装置
US6304260B1 (en) * 1998-06-24 2001-10-16 Lucent Technologies, Inc. Method and apparatus for generating and displaying views of hierarchically clustered data
JP3706113B2 (ja) * 2003-03-24 2005-10-12 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット

Also Published As

Publication number Publication date
JP2006123140A (ja) 2006-05-18

Similar Documents

Publication Publication Date Title
JP3706113B2 (ja) コミュニケーションロボット
Luo et al. Robotic tactile perception of object properties: A review
CN109141620B (zh) 声源分离信息检测装置、机器人、声源分离信息检测方法和存储介质
Strese et al. Multimodal feature-based surface material classification
Dakopoulos et al. Wearable obstacle avoidance electronic travel aids for blind: a survey
Goger et al. Tactile sensing for an anthropomorphic robotic hand: Hardware and signal processing
CN107534809A (zh) 可调音频波束成形
JP4677585B2 (ja) コミュニケーションロボット
JP4524435B2 (ja) コミュニケーションロボット
JP5007404B2 (ja) 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
Mayol-Cuevas et al. A first approach to tactile texture recognition
JP3942586B2 (ja) コミュニケーションロボット
JP4753410B2 (ja) コミュニケーションロボット
CN108453735A (zh) 一种基于摩擦纳米发电机仿生机械手的抓取方法、装置
Komeno et al. Tactile perception based on injected vibration in soft sensor
Pätzold et al. Audio-based roughness sensing and tactile feedback for haptic perception in telepresence
Liu et al. Texture classification by audio-tactile crossmodal congruence
Wang et al. SmartHand: Towards embedded smart hands for prosthetic and robotic applications
JP2006281348A (ja) コミュニケーションロボット
JP4873607B2 (ja) 皮膚センサを有する電子機器
JP4271070B2 (ja) コミュニケーションロボット
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2010017768A (ja) 触覚センサを有するロボット
JP4223426B2 (ja) コミュニケーションロボット
JP5229701B2 (ja) 触覚センサを有するロボット

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4753410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250