JP5229701B2 - 触覚センサを有するロボット - Google Patents

触覚センサを有するロボット Download PDF

Info

Publication number
JP5229701B2
JP5229701B2 JP2008074840A JP2008074840A JP5229701B2 JP 5229701 B2 JP5229701 B2 JP 5229701B2 JP 2008074840 A JP2008074840 A JP 2008074840A JP 2008074840 A JP2008074840 A JP 2008074840A JP 5229701 B2 JP5229701 B2 JP 5229701B2
Authority
JP
Japan
Prior art keywords
tactile
robot
data
independent
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008074840A
Other languages
English (en)
Other versions
JP2009229244A (ja
Inventor
敬宏 宮下
太一 田近
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2008074840A priority Critical patent/JP5229701B2/ja
Publication of JP2009229244A publication Critical patent/JP2009229244A/ja
Application granted granted Critical
Publication of JP5229701B2 publication Critical patent/JP5229701B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Manipulator (AREA)

Description

この発明は触覚センサを有するロボットに関し、特にたとえば、人間と触覚コミュニケーションを行うコミュニケーションロボットのような全身に分布された複数の触覚センサを有するロボットに関する。
たとえば特許文献1に示されるように、本件出願人は全身分布型触覚センサを備えるコミュニケーションロボットを提案してきた。このコミュニケーションロボットの全身は柔軟な皮膚で覆われており、当該皮膚中に複数の触覚センサが埋め込まれている。人とのコミュニケーションを目指すロボットにとって、全身を柔らかい素材で構成された皮膚と敏感な触覚で覆うことが、接触によって危害を加える危険性を減少させるという点で重要な要素の1つとなるだけでなく、ロボットと人間とが円滑にコミュニケーションを行うためには、全身分布型の高感度超柔軟性触覚センサに基づく触行動認識が必要不可欠になる。
特開2004−283975号公報[B25J 13/08, B25J 19/02]
従来のロボットでは、触覚情報の検出精度を向上させるために触覚センサを鋭敏化すると、触覚センサはロボット自身の動作に反応してしまい、当該動作に起因するノイズが多くなってしまうという問題がある。検出される触覚情報の源を分離できないと、敏感なロボットの実現が困難になる。これを解決するために、ロボットが動いているときに触覚センサをオフにし、動きが止まったときに触覚センサをオンにする手法が容易に考えられるが、この手法では、ロボットが動作しているときの触覚情報を取得できなくなり、ロボットが動いているときの接触や危険などを検知して対応するということができない。
それゆえに、この発明の主たる目的は、新規な、触覚センサを有するロボットを提供することである。
この発明の他の目的は、触覚を敏感にしても自己の動作に起因する反応を分離できる、触覚センサを有するロボット、ならびに、動作起因成分の判別方法および分離方法を提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
第1の発明は、複数の触覚センサを有するロボットであって、複数の触覚センサで検出された複数の触覚データの独立成分分析によって算出された復元行列と、独立成分分析によって抽出された複数の独立成分のうち自分の動作に起因する成分を示す情報とを記憶する記憶手段、複数の触覚センサで検出された複数の触覚データを取得する触覚データ取得手段、触覚データ取得手段によって取得された複数の触覚データと記憶手段に記憶された復元行列とに基づいて、複数の独立成分を算出する算出手段、および記憶手段に記憶された自分の動作に起因する成分を示す情報に基づいて、算出手段によって算出された複数の独立成分から自分の動作に起因する成分を除去する分離手段を備える、ロボットである。
第1の発明では、ロボット(10)は、複数の触覚センサ(58)を有する。記憶手段(64)には、複数の触覚データの独立成分分析によって算出された復元行列と、自分の動作に起因する成分を示す情報とが記憶されている。この記憶手段の情報を得るために、予めロボットと人とのインタラクションが実施され、複数の触覚センサで検出された複数の触覚データが取得される。復元行列は、複数の触覚データの独立成分分析によって抽出された複数の独立成分の復元行列である。また、自分の動作に起因する成分は、独立成分分析によって抽出された複数の独立成分と触覚データが検出されたときの自己の動作情報との相関をとることによって判別される。このロボットがたとえば人とインタラクションを行う際には、触覚データ取得手段(60、S3、S23)が、複数の触覚センサで検出された複数の触覚データを取得する。算出手段(60、S25)は、取得された複数の触覚データと復元行列に基づいて、複数の独立成分を算出する。分離手段(60、S27)は、自分の動作に起因する成分を示す情報に基づいて、複数の独立成分から自分の動作に起因する成分を除去する。
第1の発明によれば、記憶手段に復元行列と自分の動作に起因する成分を示す情報を記憶するようにしたので、復元行列と複数の触覚データから複数の独立成分を算出し、当該複数の独立成分から自分の動作に起因する成分を除去することができる。したがって、触覚情報源を分離することができ、敏感な触覚センサであっても、動作に起因する反応を触覚情報から分離することができる。
第2の発明は、第1の発明に従属するロボットであり、触覚データ取得手段によって取得された複数の触覚データが検出されたときの自分の動作情報を取得する動作情報取得手段、触覚データ取得手段によって取得された複数の触覚データに対して独立成分分析を実行する分析手段、および分析手段による独立成分分析で抽出された複数の独立成分と動作情報取得手段によって取得された自分の動作情報との相関をとることによって、複数の独立成分のうち自分の動作に起因する成分を判別する判別手段をさらに備え、記憶手段は、分析手段による独立成分分析によって算出された復元行列と、判別手段によって判別された自分の動作に起因する成分を示す情報とを記憶する。
第2の発明では、動作情報取得手段(60、S5)は、独立成分分析が施される複数の触覚データが検出されたときの自分の動作情報を取得する。分析手段(60、S9)は、複数の触覚データに対して独立成分分析を実行する。この独立成分分析によって、複数の独立成分と復元行列とが算出される。判別手段(60、S11)は、複数の独立成分と自分の動作情報との相関をとることによって、複数の独立成分のうち自分の動作に起因する成分を判別する。記憶手段には、分析手段による独立成分分析で算出された復元行列と、判別手段によって判別された自分の動作に起因する成分を示す情報とが記憶される。
第2の発明によれば、独立成分分析を実行することができ、復元行列を算出して記憶しておくことができる。また、自分の動作情報を取得して、自分の動作に起因する成分を判別することができ、当該自分の動作に起因する成分を示す情報を記憶しておくことができる。
第3の発明は、第2の発明に従属するロボットであり、動作情報取得手段は、自分の動作情報として、各関節軸の角度センサで検出された角度データを取得する。
第3の発明では、各関節軸の角度センサ(78)で検出された角度データが自分の動作情報として取得される。したがって、各独立成分と角度データとの相関をとることによって、動作に起因する成分を判別することができる。
第4の発明は、第2の発明に従属するロボットであり、動作情報取得手段は、自分の動作情報として、各関節軸の角度制御のためのコマンドデータを取得する。
第4の発明では、各関節軸の角度制御のためのコマンドデータが自分の動作情報として取得される。したがって、各独立成分とコマンドデータとの相関をとることによって、動作に起因する成分を判別することができる。
第5の発明は、複数の触覚センサを有するロボットの触覚情報のうち動作に起因する成分を判別するための方法であって、複数の触覚センサで検出された複数の触覚データを取得し、複数の触覚データが検出されたときのロボットの動作情報を取得し、複数の触覚データの独立成分分析を実行し、そして、独立成分分析で抽出された複数の独立成分とロボットの動作情報との相関をとることにより、複数の独立成分のうちロボットの動作に起因する成分を判別する、判別方法である。
第5の発明によれば、外界からの接触による触覚情報と自己動作による触覚情報とを区別することができるので、触覚を敏感にしても自分の動作に起因する反応を分離できるロボットを実現することができる。
第6の発明は、複数の触覚センサを有するロボットにおいて触覚情報のうち動作に起因する成分を分離するための方法であって、複数の触覚センサで検出された複数の触覚データの独立成分分析によって算出された復元行列と、独立成分分析によって抽出された複数の独立成分のうち自分の動作に起因する成分を示す情報とを記憶しておき、複数の触覚センサで検出された複数の触覚データを取得し、取得された複数の触覚データと復元行列とに基づいて、複数の独立成分を算出し、そして、自分の動作に起因する成分を示す情報に基づいて、算出された複数の独立成分から自分の動作に起因する成分を除去する、分離方法である。
第6の発明によれば、触覚情報から自分の動作に起因する成分を除去することができるので、触覚を敏感にしても自分の動作に起因する反応を分離できるロボットを実現することができる。
この発明によれば、複数の触覚データの独立成分分析によって算出された復元行列と自分の動作に起因する成分を示す情報とを記憶しておくようにしたので、取得された複数の触覚データと復元行列に基づいて複数の独立成分を算出し、自分の動作に起因する成分を示す情報に基づいて当該複数の独立成分から自分の動作に起因する成分を除去することができる。したがって、触覚センサを鋭敏化しても、外界の接触による触覚情報と自己の動作による触覚情報とを分離することができる。
また、複数の触覚データと自分の動作情報を取得し、複数の触覚データの独立成分分析によって抽出した複数の独立成分と自分の動作情報との相関をとるようにしたので、自己の動作による触覚情報を判別することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1は、この発明の実施例のコミュニケーションロボット(以下、単に「ロボット」ともいう。)10を示す。ロボット10は台車12を含み、この台車12の側面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図3において参照番号「16」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサが取り付けられ、この衝突センサは、台車12への人間や他の障害物の接触を検知する。
台車12の上には、多角形柱状のセンサ取付パネル18が設けられ、このセンサ取付パネル18の各面には、超音波距離センサ20が取り付けられる。この実施例ではたとえば24個の超音波距離センサ20が周囲360度にわたるように設けられる。この超音波距離センサ20は、センサ取付パネル18すなわちロボット10の周囲の主として人間との距離を計測するものである。具体的には、超音波距離センサ20は超音波を発射し、その超音波が人から反射されて超音波距離センサ20に入射されたタイミングを測定して、人との間の距離情報を出力する。
台車12の上には、人体状部22が直立するように取り付けられる。このロボット本体としての人体状部22の全身は、後に詳しく説明するように、柔軟素材からなる皮膚24によって覆われる。人体状部22は、たとえば鉄板のような筐体(図示せず)を含み、その筐体にコンピュータやその他必要なコンポーネントを収容している。そして、皮膚24は、その筐体上に被せられる。皮膚24の下の筐体の上部ほぼ中央にはマイク26が設けられる。このマイク26は、周囲の音声、特に人間の声を収集するためものである。
人体状部22は、身体動作を実行可能な身体部位を備えている。具体的には、人体状部22は、可動部として右腕28Rおよび左腕28Lを含む。右腕28Rおよび左腕28Lすなわち上腕30Rおよび30Lは、それぞれ、肩関節32Rおよび32Lによって、胴体部分に変位自在に取り付けられる。この肩関節32Rおよび32Lは、3軸の自由度を有する。上腕30Rおよび30Lには、1軸の肘関節34Rおよび34Lによって、前腕36Rおよび36Lが取り付けられ、この前腕36Rおよび36Lには、手38Rおよび38Lが取り付けられる。これら右腕28Rおよび左腕28Lの各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕28Rおよび左腕28Lのそれぞれ4個のモータが、図3において、それぞれ右腕モータ40および左腕モータ42として表される。
さらに、人体状部22の上部には可動部として頭部46が設けられる。頭部46は、首関節44を介して人間の頭と同様に俯仰・回転可能に取付けられる。この3軸(パン、チルトおよびロール軸)の首関節44は、図3に示す頭部モータ48によって制御される。頭部46の前面の「目」に相当する位置には2つの眼カメラ50が設けられ、この眼カメラ50は、ロボット10に接近した人間の顔や他の部分を撮影してその映像信号を取り込む。頭部46の前面の目カメラ50の下方にはスピーカ52が設けられる。このスピーカ52は、ロボット10がそれの周囲の人間に対して音声によってコミュニケーションを図るために用いられる。
上で説明した人体状部22の胴体や頭部46および腕は上記したようにすべて柔軟な素材からなる皮膚24に覆われる。この皮膚24は、図2に示すように、下層のウレタンフォーム54と、その上に積層される比較的肉厚のシリコーンゴム層56aおよび比較的肉薄のシリコーンゴム層56bとを含む。そして、2つのシリコーンゴム層56aおよび56bの間に、ピエゾセンサシート58が埋め込まれる。このピエゾセンサシート58は、圧電フィルム(たとえばPVDF(ポリビニリデンフルオロイド))の両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有する圧電センサである。ピエゾフィルムは、圧力等で変形されると、両面金属薄膜間にピエゾ電気を発生し、すなわち、そのひずみ速度に応じた電圧を発生する。ピエゾフィルムは、たとえば、30×30mm程度の大きさにカットされ、約5mmの間隔で皮膚24中に配置される。
皮膚24では、上述のように、発泡ウレタンとシリコーンゴムとを使って柔らかさを得るようにしている。シリコーンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎてエネルギ消費量が大きくなるだけでなく、裂傷に弱くなるので、大まかな形と厚みをウレタンフォームで作り、その表面を約20mmのシリコーンゴムで覆う形が採用されている。そして、シリコーンゴム層を2つにし、それらのシリコーンゴム層56aおよび56bの間に、上述のピエゾセンサシート58が埋め込まれる。さらに、内側のシリコーンゴム層56aが厚く(約15mm)され、表面側のシリコーンゴム層56bが薄く(約5mm)される。これによって、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、なおかつフィルムが変形し易くなるので、圧力の計測が容易になる。つまり、シリコーンゴム層の厚みはロボット10の構造やパワーによるが、なるべく薄く、しかし変形が伝わり易く、雑音となる振動が伝わり難いものが必要となる。また、この柔らかい皮膚を介して、人との間で触行動によるコミュニケーションを行うことができるので、人に対して安心感を与えて親和性を高めることができるし、触れたりぶつかったりした場合の人の怪我を防止して安全性も高めることができる。
なお、皮膚24の素材は軟性素材であればよく、上述のものに限定されずたとえば他のゴム素材等でもよい。ただし、ピエゾセンサシートの表面金属薄膜が腐食しない材質である必要がある。また、上述の皮膚24の厚み(各層の厚み)は一例であり、素材等によって適宜変更され得る。また、皮膚24の積層構造も適宜変更可能である。
このように、人体状部22の全身にわたって多数のピエゾセンサシート(触覚センサエレメント)58が埋め込まれており、全身分布型の高密度で超柔軟の触覚センサ(図3において参照符号「76」で示す。)が構築されている。後述するように、触覚センサ76は、複数のノード80(図4参照)を含むセンサネットワークで構成されており、各ノード80は、複数の触覚センサエレメント58、センサ値読取装置および演算装置等を備えている。この触覚センサ76によって、ロボット10の全身において人間や物の接触によって皮膚24に加えられた圧力を圧覚(触覚)情報として検知することができる。
図1に示すロボット10の電気的構成の一例が図3のブロック図に示される。図3に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU60を含み、このCPU60には、バス62を通して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68およびサウンド入力/出力ボード70が接続される。
メモリ64は、図示しないが、ROMやHDD、RAM等を含む。ROMやHDD等にはこのロボット10の制御プログラムが予め書き込まれている。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部のコンピュータと通信するためのプログラム等を含む。メモリ64にはまた、コミュニケーション行動を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ52から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための各関節軸の角度制御データ(コマンドデータ)等を含む。RAMは、一時記憶メモリおよびワーキングメモリとして利用される。
モータ制御ボード66は、たとえばDSP(Digital Signal Processor)で構成され、上述の各腕や頭部などの各モータ16、40、42、48を制御する。各モータ16、40、42、48はそれぞれポテンショメータまたはロータリエンコーダ等の角度センサ78を備えている。各角度センサ78は各関節軸の回転角度(関節角度)を検出し、当該回転角度を示す信号をモータ制御ボード66に与える。モータ制御ボード66は、角度センサ78からの信号を用いて各モータ16、40、42、48をフィードバック制御する。
具体的には、モータ制御ボード66は、CPU60からのコマンドデータを受けて、右肩関節32Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの1軸の角度を制御する1つのモータとの計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)40の回転角度を、各軸の角度センサ78の回転角度データ(関節角度データ)を用いて調節する。また、モータ制御ボード66は、左肩関節32Lの3軸と左肘関節34Lの1軸、計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)42の回転角度を、各軸の角度センサ78の回転角度データを用いて調節する。モータ制御ボード66は、また、頭部46を変位させる首関節44の3軸のモータ(図3ではまとめて、「頭部モータ」として示す。)48の回転角度を、各軸の角度センサ78の回転角度データを用いて調節する。さらに、モータ制御ボード66は、車輪14を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)16を、各軸の角度センサ78からの回転角度データを用いて制御する。
なお、この実施例の各モータ16、40、42、48は、直流モータ(サーボモータ)であるが、他の実施例では、車輪モータ16を除いて、それぞれステッピングモータまたはパルスモータであってよい。
センサ入力/出力ボード68も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU60に与える。すなわち、図示しない衝突センサの各々からの接触に関するデータがこのセンサ入力/出力ボード68を通してCPU60に入力される。また、眼カメラ50からの映像信号が、必要に応じてこのセンサ入力/出力ボード68で所定の処理が施された後、CPU60に入力される。
また、触覚センサ76が、このセンサ入力/出力ボード68に接続されており、CPU60と触覚センサ76はセンサ入力/出力ボード68を介してデータを送受信する。
サウンド入力/出力ボード70には、スピーカ52およびマイク26が接続される。スピーカ52にはサウンド入力/出力ボード70を介して、CPU60から、合成音声データが与えられ、それに応じて、スピーカ52からはそのデータに従った音声または声が出力される。また、マイク26からの音声入力が、サウンド入力/出力ボード70を介して、CPU60に取り込まれる。
また、CPU60には、バス62を介して通信LANボード72および無線通信装置74が接続される。この通信LANボード72および無線通信装置74によって、ロボット10は外部のコンピュータ等と無線通信を行うことができる。具体的には、通信LANボード72は、DSPで構成され、CPU60からの送信データを無線通信装置74に与え、無線通信装置74から送信データを、図示は省略するが、たとえば無線LANまたはインタネットのようなネットワークを介して、外部のコンピュータに送信させる。また、通信LANボード72は、無線通信装置74を介して外部のコンピュータからのデータを受信し、受信したデータをCPU60に与える。
触覚センサ76の電気的構成の一例が図4のブロック図に示される。触覚センサ76は複数のノード80を含み、各ノード80は複数の触覚センサエレメント58を備えている。複数のノード80はバス82を介して相互に接続される。バス82はたとえばRS422シリアルバスであり、センサ入力/出力ボード68に設けられるシリアル通信ポートに接続されている。このように、複数のノード80およびCPU60がセンサネットワークを構成しており、接続された経路を介して通信を行う。
なお、触覚センサ76のネットワーク構造は適宜変更可能であり、たとえば、本件出願人による特開2006−287520号公報に開示されるような相互接続型のセンサネットワークが構築されてもよい。
各ノード80は基板84を含み、この基板84に当該ノード80に所属する複数の触覚センサエレメント58が接続される。また、基板84には、センサ値読取装置としてのA/D変換器88および増幅器90、ならびに演算装置としてのプロセッサユニット86が設けられている。各触覚センサエレメント58からの配線は増幅器90に接続されている。
なお、基板84と所属する各触覚センサエレメント58との配線長を短くするために、各ノード80の基板84は、所属する各触覚センサエレメント58のなるべく近傍になるように筐体内において配置される。たとえば、200−300枚程度の触覚センサエレメント58がロボット10の全身の皮膚24中に分布されており、また、十数枚程度の基板84が設けられる。各基板84には数十枚程度の触覚センサエレメント58が割り当てられる。
各触覚センサエレメント58の出力信号は、増幅器90で電流増幅された後、A/D変換器88によってディジタルデータに変換される。このA/D変換器88は、たとえば16bit、100Hzの時空間分解能でサンプリングを行う。A/D変換器88でサンプリングされたデータはプロセッサユニット86に与えられる。
プロセッサユニット86は、ノードプロセッサであり、つまり、当該ノード80の制御および通信制御を行うマイクロコンピュータである。プロセッサユニット86は、ROMおよびRAMなどのメモリを内蔵している。内蔵メモリのROMにはノード80の動作を制御するためのプログラムおよびデータが予め記憶される。A/D変換器88で読み取られた各触覚センサエレメント58のセンサ出力データ(時系列データ)は、内蔵メモリのRAMに記憶される。このプロセッサユニット86により、センサ出力の時系列データの処理を各ノード80において行うことができる。また、このプロセッサユニット86が上述のバス82に接続されており、バス82を介して他のノード80のプロセッサユニット86およびCPU60との間で通信を行うことができるので、CPU60は各ノード80で検出された触覚データを取得することができる。
このロボット10では、触覚センサ76は、人と接触したとき以外にも、つまり、自分が動作したときや環境と接触したときにも反応する。これらの源の異なる触覚情報は、ロボット10の全身に配置した各触覚センサエレメント58の反応の分布が異なる。例えば、人が手でロボット10を軽く触れたときは、触れた部分のみが反応し、一方、ロボット10が腕を動かしたときには、腕全体の触覚センサエレメント58が反応する。このような特徴を利用することにより触覚データに含まれる情報源分離を行う。具体的には、全身に複数配置された触覚センサエレメント58で検出されたデータを独立成分分析(Independent Component Analysis)にかけ、当該触覚データに含まれる独立成分を抽出することで情報源分離を行う。
図5は、ロボット10のCPU60によって実行される触覚データの独立成分を抽出するための処理の一例を示す。独立成分分析のためのデータを取得して独立成分分析を行う。
具体的には、ステップS1で、人とロボット10とのインタラクションを実施する。この人とロボット10の対話において、ロボット10は、所定の身振りおよび音声発話の少なくとも一方を用いて所定の行動を提示する。そして、各種センサを用いて人の行動や反応を認識し、当該認識結果に応じて所定の行動を実行する。このステップS1のデータ取得のためのインタラクションが繰り返し実行されて、ロボット10の実行可能な様々な身体動作を伴った様々な行動が実行されるのが望ましく、さらに人の触行動を伴うような触覚コミュニケーションが行われるのが望ましい。
なお、ロボット10の実行する個々の行動は、メモリ64に予め記憶されたプログラムおよびデータに従って実行される。また、行動の選択もプログラムに従って行われる。あるいは、行動の選択は、全部または部分的にロボット10の遠隔制御システムのオペレータによって実行されてもよく、その場合、ロボット本体10のCPU60は、通信LANボード72および無線通信装置74等を介して遠隔制御用コンピュータ(図示しない)と通信し、たとえば、各種センサのデータを送信したり、遠隔制御コマンドを受信したりする。
このインタラクションの間の触覚データを計測するとともにロボット10の動作情報を取得する。すなわち、ステップS3で、触覚センサ76で検出された触覚データを取得する。具体的には、CPU60は、触覚センサ76の各ノード80に定期的に触覚データを要求し、各ノード80から触覚データを受信する。上述のように、各ノード80では、所定の周期で各触覚センサエレメント58の出力データが検出されており、各ノード80は、CPU60の要求に応じて、各触覚センサエレメント58の出力の時系列データをCPU60に送信する。これによって、この実施例では、インタラクションを実行しているときに検出されたすべての触覚センサエレメント58の出力の時系列データ(触覚データ)がメモリ64の所定領域に取得される。触覚データは、時刻、触覚センサエレメント58の識別情報および触覚情報を含む。人がロボット10に対して触行動をしている場合には、人の触行動に起因する触覚成分を含む触覚データが取得され、また、ロボット10が頭部46や左右の腕など身体部位を動かしている場合には、ロボット10自身の動作に起因する触覚成分を含む触覚データが取得される。
続くステップS5で、触覚データを検出したときのロボット10自身の動作情報として、角度センサ78で検出された関節角度データを取得する。具体的には、CPU60は、モータ制御ボード66に定期的に関節角度データを要求し、モータ制御ボード66から各角度センサ78で検出された各関節軸の角度データ(関節角度データ)を受信する。モータ制御ボード66は、各角度センサ78の出力データを所定周期で検出しており、CPU60の要求に応じて、各角度センサ78の出力の時系列データをCPU60に送信する。これによって、インタラクションを実行しているときに角度センサ78で検出された各関節軸の角度データがメモリ64の所定領域に取得される。関節角度データは、時刻、関節軸の識別情報および関節角度を含む。
そして、ステップS7で、インタラクションが終了したか否かを判断する。たとえば、メモリ64に記憶されたプログラムに従ってロボット10と人とのインタラクションが終了したか否かが判断され、あるいは、オペレータの遠隔制御によって終了が選択されたか否かが判断される。ステップS7で“NO”の場合、処理はステップS1に戻る。したがって、インタラクションが終了するまで、触覚データと関節角度データの取得とメモリ64への記録が続けられる。
一方、ステップS7で“YES”の場合、つまり、データ取得を終了した場合には、続くステップS9で、取得した触覚データの独立成分分析によって独立成分を抽出する。この独立成分分析によって、復元行列が算出される。
ここで、復元行列は、各独立成分を表す係数行列である。独立成分は、各触覚センサ出力の線形結合で表され、そのときの係数をまとめたものを復元行列と呼ぶ。たとえば、独立成分をa、各触覚センサ出力をs、係数をkmiとすると、独立成分aは次の数1で表される。
Figure 0005229701
ここで、nは触覚センサエレメント58の数である。mは独立成分の番号を示す。各独立成分の番号は、寄与率に従って決められる。
このとき、独立成分aに対応する復元行列Aは、次の数2で表される。
Figure 0005229701
算出された復元行列は、特異なものであり、ロボット10の個性を表す。復元行列はメモリ64に記憶される。後述するように、人とのインタラクションの際には、この復元行列を用いて、検出された触覚データから各独立成分を算出することができる。
さらに、ステップS11で、抽出された複数の独立成分のうち動作に起因する成分を判別する。具体的には、各独立成分と自己の動作情報(この実施例では関節角度データ)との相関をとることによって、複数の独立成分のうちの動作に起因する成分を判別する。つまり、独立成分の波形(時間変化)と関節角度の波形(時間変化)との相関がとられ、相関度の高いすなわち所定値以上の成分が、動作に起因する成分であると判断される。そして、当該動作に起因する成分を示す情報がメモリ64に記憶される。たとえば、各独立成分に割り当てられている番号mのうち動作に起因する成分の番号が特定されて記憶される。後述するように、人とのインタラクションの際には、この動作起因成分を示す情報に基づいて、復元行列を用いて算出された各独立成分のうち動作に起因する成分を特定することができる。ステップS11を終了すると、この図5の処理を終了する。
なお、この実施例では、図5の処理は、ロボット10のCPU60によって実行されたが、他の実施例では、ステップS9およびS11の独立成分分析の処理は、ロボット10の外部に設けた処理用コンピュータで実行するようにしてもよい。その場合、ロボット本体10のCPU60は、メモリ64に記録した触覚データと関節角度データとを、通信LANボード72および無線通信装置74等を介して処理用コンピュータ(図示しない)に所定のタイミングで送信する。処理用コンピュータは、触覚データと関節角度データとを受信してHDD等に記憶し、分析を行う。分析の結果として得られた復元行列と動作に起因する成分を示す情報とは、処理用コンピュータからロボット本体10に送信されてメモリ64に記憶される。
検出された触覚データおよび抽出された独立成分の一例が図6および図7にそれぞれ示される。図6は、ロボット10の前腕28Lに配置された触覚センサエレメント58の出力を示す。この例では、ロボット10の前腕28Lには12個の触覚センサエレメント58が配置されており、したがって、図6では、触覚センサエレメント58の番号iが1から12までの触覚データの波形が示されている。このデータ取得の際には、ロボット10が前腕28Lの関節すなわち肘関節34Lを繰り返し曲げ伸ばしさせており、そのときに人が軽く当該腕に触れるという状況であった。たとえば、図6に示す触覚データにおいて、Time=6000[1/100sec]付近やTime=10000[1/100sec]付近に見られる繰り返し波形は、自己動作に起因するものである。また、センサ番号i=1,5〜8の触覚データにおいて、Time=3000[1/100sec]付近やTime=11000[1/100sec]付近に見られる波形は、外界からの接触に起因するもの、つまり、この場合、人が触ったことに起因するものである。
また、図7は、図6に示す波形の独立成分分析によって求めた独立成分を示す。12個の独立成分が抽出されているので、独立成分の番号mが1から12までの独立成分が示されている。寄与率の小さい成分ほど、変数mに小さい番号が割り当てられている。図6および図7の時間軸は対応している。
図7に示す独立成分と自己の動作情報(図示しない)との相関をとることにより、動作に起因する成分が判別される。ここでは、下から1つ目および2つ目の成分、つまり、番号m=11および12の成分が動作に起因する成分であった。これらm=11および12の成分では、Time=6000[1/100sec]付近やTime=10000[1/100sec]付近に繰り返し波形が明確に現れており、ロボット10が肘関節34Lを繰り返し曲げ伸ばしさせたことに起因する反応であることがよく分かる。
このように、各独立成分と自己動作情報との相関をとることにより、動作起因成分を特定することができる。したがって、ロボット10に復元行列と動作起因成分を示す情報とを記憶しておけば、検出された触覚データから独立成分を算出し、当該独立成分から動作起因成分を取り除くことが可能になる。これにより、外界からの接触に起因する成分だけを含む触覚情報を得て、コミュニケーション行動を制御することが可能になる。
ロボット10のCPU60によって実行される行動制御処理の一例を図8に示す。ステップS21で、人とロボット10のインタラクションを実施する。この処理は、図5のステップS1の処理と同様であり、これによって、ロボット10は身体動作および音声発話の少なくとも一方を用いて所定の行動を実行する。
ステップS23では、触覚データを取得する。上述のように、触覚センサ76の各ノード80では、各触覚センサエレメント58の触覚データが所定周期で検出されている。CPU60は、触覚センサ76の各ノード80に定期的に触覚データを要求して各ノード80から触覚データを受信し、メモリ64に記憶する。これにより、ステップS21でインタラクションを開始してからの触覚データを計測し記録する。なお、触覚データの計測時間は、ステップS21で実行される行動に従って決められる。
触覚データの取得を終了すると、ステップS25で、復元行列を用いて各独立成分を算出する。上述の数1に示すように、独立成分は、各触覚センサ出力の線形結合で表され、そのときの係数が復元行列である。したがって、数1に従って、メモリ64に記憶されている復元行列と取得された触覚データとに基づいて各独立成分を算出する。
ステップS27では、動作に起因する成分を除去する。具体的には、メモリ64に記憶されている動作に起因する成分を示す情報に基づいて、算出された複数の独立成分のうち、動作に起因する成分の番号mに対応する成分を取り除く。
続くステップS29で、触覚コミュニケーション動作を実施する。たとえば、ロボット10が触られたかどうかの情報のみを必要とする場合には、動作に起因する成分を除去した独立成分に基づいて、人の触行動を判別し、当該人の触行動に応じた行動を実行する。また、ロボット10がどこをどのように触られたかといった情報が必要な場合には、動作に起因する成分を除去した独立成分を、逆変換(復元行列の逆行列によって変換)することにより、動作に起因する成分を除いたクリアな触覚情報を算出することができ、当該クリアな触覚情報に基づいて人の触行動を判別し、当該人の触行動に応じた行動を実行することができる。
そして、ステップS31でインタラクションが終了であるか否かを判断する。たとえば、人間とのインタラクションを終了するか否かを、メモリ64に記憶されたプログラムまたはオペレータの遠隔制御コマンドに従って判断する。ステップS31で“NO”の場合、処理はステップS21に戻り、人とのインタラクションを継続する。一方、ステップS31で“YES”の場合、この図8の処理を終了する。
このように、触覚データの独立成分分析によって算出された復元行列、および複数の独立成分と関節角度データとの相関をとることによって判別された動作に起因する成分を示す情報を記憶しておけば、触覚情報源を分離して動作起因成分を除去することができる。したがって、当該自己動作起因成分を除去したクリアな触覚情報を得ることができるとともに、当該クリアな触覚情報に基づいて行動を制御することができる。
なお、上述の実施例では、動作に起因する成分を判別するために、自分の動作情報として角度センサ78で検出される関節角度データを取得するようにしていた。しかし、他の実施例では、ロボット10に所定の身体動作を実行させるためのコマンドデータを取得するようにしてもよい。
この実施例のコマンドデータは、各関節軸の角度制御のためのデータであり、ロボット10の実行する身体動作ごとのコマンドデータが予めメモリ64に記憶されている。コマンドデータは、各関節軸の開始角度、終了角度および動作時間に関する情報を含んでいる。身体動作を実行する際には、CPU60は当該身体動作に応じたコマンドデータをモータ制御ボード66に与え、モータ制御ボード66は、動作時間が経過する間に各関節軸が開始角度から終了角度になるように各モータを制御する。より詳しくは、所定の身体動作の実行にかかる全体の時間が複数の区間に分割され、当該分割された区間のそれぞれが動作時間として設定されている。つまり、コマンドデータでは、所定の身体動作の全体を実行するために、複数の動作時間のそれぞれにおける各関節軸の開始角度および終了角度が指示される。
したがって、この実施例では、図5のステップS5で、実行する身体動作のコマンドデータを読み出して、当該コマンドデータから各関節軸の角度の時系列データを生成して、これを自己の動作情報として取得する。なお、時系列データを生成する際には、さらに各動作時間内の角度を補間するようにしてよい。図5のステップS11では、生成した各関節軸の角度制御の時系列データと各独立成分との相関をとることによって、自己の動作に起因する成分を判別することができる。ただし、角度センサ78で検出される関節角度データは、ロボット10の実際の動作を示しているので、上述の図5の実施例のように当該検出された関節角度データを用いた方がより正確な自己動作情報を得ることができ、より適切な相関を計算することが可能である。
また、上述の各実施例では、触覚センサ76の備えるすべての触覚センサエレメント58で検出された触覚データに対して、独立成分分析を行うようにしていた。しかしながら、他の実施例では、動作した部位ごとに独立成分分析を行うようにしてもよい。
具体的には、図5の独立成分のための処理におけるステップS9では、動作した部位ごとに、当該部位に配置された触覚センサエレメント58の触覚データの独立成分分析を行って、部位ごとに復元行列を算出し、ステップS11では、部位ごとの独立成分のうち動作起因成分を判別する。また、図8の行動制御処理におけるステップS25では、部位ごとの復元行列と動作した部位の触覚データとに基づいて、部位ごとの独立成分を算出し、ステップS27では、部位ごとに、独立成分から動作起因成分を除去する。この実施例のロボット10では、首関節44の3軸のいずれかが動作している場合、頭部46の触覚データに対して各処理を実行し、肘関節34Lまたは34Rが動作している場合、前腕28Lまたは28Rと手38Lまたは38Rの触覚データに対して各処理を実行し、肩関節32Lまたは32Rが動作している場合、上腕30Lまたは30Rと前腕28Lまたは28Rと手38Lまたは38Rの触覚データに対して各処理を実行する。
このようにすれば、触覚センサデータの次元を減らし、計算量を抑えることができる。なお、各関節軸が動作しているかどうかは、角度センサ78で検出された関節角度データまたは当該身体動作を実行するためのコマンドデータによって判別することができる。また、ロボット10の各関節も触覚センサ76を有する皮膚24で覆われ、かつ、当該皮膚24が隣接する部位の皮膚24と繋がって形成される場合には、動作した部位には、隣接する部位を含めるようにする。
また、他の実施例では、図8の行動制御処理で実行されたインタラクションにおいて取得された触覚データとロボット10の動作情報とを、ロボット10の内部または外部に設けた記憶装置に蓄積するようにしてもよく、その場合には、学習が可能であり、図5の処理によって復元行列と動作に起因する成分を示す情報とを更新することができる。
この発明の一実施例のコミュニケーションロボットを示す図解図である。 図1実施例のコミュニケーションロボットに用いる皮膚とその中に埋め込まれる触覚センサエレメントを示す図解図である。 図1実施例のコミュニケーションロボットの電気的構成の一例を示すブロック図である。 触覚センサの電気的構成の一例を示すブロック図である。 触覚データを取得して独立成分を抽出するための処理の動作の一例を示すフロー図である。 触覚データの一例を示す図解図である。 図6の触覚データの独立成分分析により抽出された独立成分を示す図解図である。 復元行列を利用した行動制御処理の動作の一例を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
58 …触覚センサエレメント
60 …CPU
64 …メモリ
68 …センサ入力/出力ボード
76 …触覚センサ
78 …角度センサ
80 …ノード
86 …プロセッサユニット

Claims (6)

  1. 複数の触覚センサを有するロボットであって、
    前記複数の触覚センサで検出された複数の触覚データの独立成分分析によって算出された復元行列と、前記独立成分分析によって抽出された複数の独立成分のうち自分の動作に起因する成分を示す情報とを記憶する記憶手段、
    前記複数の触覚センサで検出された複数の触覚データを取得する触覚データ取得手段、
    前記触覚データ取得手段によって取得された前記複数の触覚データと前記記憶手段に記憶された前記復元行列とに基づいて、複数の独立成分を算出する算出手段、および
    前記記憶手段に記憶された前記自分の動作に起因する成分を示す情報に基づいて、前記算出手段によって算出された前記複数の独立成分から自分の動作に起因する成分を除去する分離手段を備える、ロボット。
  2. 前記触覚データ取得手段によって取得された前記複数の触覚データが検出されたときの自分の動作情報を取得する動作情報取得手段、
    前記触覚データ取得手段によって取得された前記複数の触覚データに対して独立成分分析を実行する分析手段、および
    前記分析手段による前記独立成分分析で抽出された複数の独立成分と前記動作情報取得手段によって取得された前記自分の動作情報との相関をとることによって、前記複数の独立成分のうち自分の動作に起因する成分を判別する判別手段をさらに備え、
    前記記憶手段は、前記分析手段による前記独立成分分析によって算出された前記復元行列と、前記判別手段によって判別された前記自分の動作に起因する成分を示す情報とを記憶する、請求項1記載のロボット。
  3. 前記動作情報取得手段は、前記自分の動作情報として、各関節軸の角度センサで検出された角度データを取得する、請求項2記載のロボット。
  4. 前記動作情報取得手段は、前記自分の動作情報として、各関節軸の角度制御のためのコマンドデータを取得する、請求項2記載のロボット。
  5. 複数の触覚センサを有するロボットの触覚情報のうち動作に起因する成分を判別するための方法であって、
    前記複数の触覚センサで検出された複数の触覚データを取得し、
    前記複数の触覚データが検出されたときの前記ロボットの動作情報を取得し、
    前記複数の触覚データの独立成分分析を実行し、そして、
    前記独立成分分析で抽出された複数の独立成分と前記ロボットの動作情報との相関をとることにより、前記複数の独立成分のうち前記ロボットの動作に起因する成分を判別する、判別方法。
  6. 複数の触覚センサを有するロボットにおいて触覚情報のうち動作に起因する成分を分離するための方法であって、
    前記複数の触覚センサで検出された複数の触覚データの独立成分分析によって算出された復元行列と、前記独立成分分析によって抽出された複数の独立成分のうち自分の動作に起因する成分を示す情報とを記憶しておき、
    前記複数の触覚センサで検出された複数の触覚データを取得し、
    取得された前記複数の触覚データと前記復元行列とに基づいて、複数の独立成分を算出し、そして、
    前記自分の動作に起因する成分を示す情報に基づいて、算出された前記複数の独立成分から自分の動作に起因する成分を除去する、分離方法。
JP2008074840A 2008-03-24 2008-03-24 触覚センサを有するロボット Active JP5229701B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008074840A JP5229701B2 (ja) 2008-03-24 2008-03-24 触覚センサを有するロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008074840A JP5229701B2 (ja) 2008-03-24 2008-03-24 触覚センサを有するロボット

Publications (2)

Publication Number Publication Date
JP2009229244A JP2009229244A (ja) 2009-10-08
JP5229701B2 true JP5229701B2 (ja) 2013-07-03

Family

ID=41244818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008074840A Active JP5229701B2 (ja) 2008-03-24 2008-03-24 触覚センサを有するロボット

Country Status (1)

Country Link
JP (1) JP5229701B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5076107B2 (ja) * 2008-07-08 2012-11-21 株式会社国際電気通信基礎技術研究所 触覚センサを有するロボット
JP5850560B2 (ja) * 2010-07-23 2016-02-03 株式会社国際電気通信基礎技術研究所 遠隔操作ロボット

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH106180A (ja) * 1996-06-26 1998-01-13 Toshiba Corp ワーク加工装置
JP2003344196A (ja) * 2002-05-24 2003-12-03 Denso Corp 乗員状態検知方法及び装置
JP4131392B2 (ja) * 2003-01-28 2008-08-13 ソニー株式会社 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP3706113B2 (ja) * 2003-03-24 2005-10-12 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP3727937B2 (ja) * 2003-09-30 2005-12-21 株式会社東芝 力覚検出装置及びマニピュレータ

Also Published As

Publication number Publication date
JP2009229244A (ja) 2009-10-08

Similar Documents

Publication Publication Date Title
JP6686977B2 (ja) 音源分離情報検出装置、ロボット、音源分離情報検出方法及びプログラム
US11498216B2 (en) Remote control manipulator system and control device
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
Aymaz et al. Ultrasonic Assistive Headset for visually impaired people
KR20190136962A (ko) 역각 시각화 장치, 로봇 및 역각 시각화 프로그램
JP5229701B2 (ja) 触覚センサを有するロボット
JP5076107B2 (ja) 触覚センサを有するロボット
JP4677585B2 (ja) コミュニケーションロボット
JP2005254454A (ja) コミュニケーションロボット
US20240149458A1 (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
Al-Okby et al. Development and testing of intelligent wheelchair controller for quadriplegic patients
JP2006281348A (ja) コミュニケーションロボット
JP4873607B2 (ja) 皮膚センサを有する電子機器
JP5103589B2 (ja) コミュニケーションロボット
JP4753410B2 (ja) コミュニケーションロボット
JP2022164028A (ja) 遠隔操作制御システム、遠隔操作制御方法、およびプログラム
JP7535968B2 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
JP4206305B2 (ja) 多指ロボットハンドの制御方法及び装置
JP7565849B2 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
JP4223426B2 (ja) コミュニケーションロボット
JP7565848B2 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
Vaidyanathan et al. A dual mode human-robot teleoperation interface based on airflow in the aural cavity
JP2003005623A (ja) 職人技再現システム
Yan et al. Controlling a powered exoskeleton system via electromyographic signals
JP2024135097A (ja) 遠隔操作制御システム、遠隔制御装置、遠隔制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5229701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250