JP5007404B2 - 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器 - Google Patents

性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器 Download PDF

Info

Publication number
JP5007404B2
JP5007404B2 JP2007124074A JP2007124074A JP5007404B2 JP 5007404 B2 JP5007404 B2 JP 5007404B2 JP 2007124074 A JP2007124074 A JP 2007124074A JP 2007124074 A JP2007124074 A JP 2007124074A JP 5007404 B2 JP5007404 B2 JP 5007404B2
Authority
JP
Japan
Prior art keywords
personality
robot
touching
human
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007124074A
Other languages
English (en)
Other versions
JP2008278981A (ja
Inventor
法明 光永
太一 田近
浩 石黒
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007124074A priority Critical patent/JP5007404B2/ja
Publication of JP2008278981A publication Critical patent/JP2008278981A/ja
Application granted granted Critical
Publication of JP5007404B2 publication Critical patent/JP5007404B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

この発明は性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器に関し、特にたとえば、触覚センサを備えるロボットや電子機器に適用される、性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器に関する。
背景技術の一例が特許文献1に開示される。この特許文献1によれば、ユーザがコンピュータを用いて入力するメールの文章に含まれる言葉の癖に基づいて、当該ユーザの性格を診断(判別)する。
また、背景技術の他の例が特許文献2に開示される。この特許文献2によれば、ゲームの進行状況に応じた質問文がモニタに表示される。このとき、性格診断モジュールは、皮膚インピーダンスセンサの測定データの微分成分(SIR信号)を求め、質問文の内容とSIR信号とを用いて予め設定された推論ルールに基づいて遊戯者の心理状態を診断する。
さらに、背景技術のその他の例が特許文献3に開示される。この特許文献3によれば、サーバーは、ネットワークを介してコミュニケーションへの参加を希望するユーザーに性格診断テストの情報を提供する。ユーザー端末は、そのテストの答えをサーバーに送信する。サーバーは、テストの答えを受信して、ユーザーの性格を診断する。サーバーは、個々のユーザーに対して、それぞれの性格に合ったエリアをコミュニケーションの場として推奨する。
特開2006−293855号 特開平11−197352号 特開2002−312463号
しかし、特許文献1の技術では、メールの文章に含まれる言葉の癖に基づいてユーザの性格を診断するため、メール機能を備えていない電子機器やロボットには適用することができない。また、メールの文章に含まれる言葉の癖を検索する必要があるため、その解析処理に時間がかかってしまうという問題もある。
また、特許文献2の技術では、皮膚インピーダンスセンサを人間(遊戯者)が触れたり、装着したりする必要があるため、煩わしいという問題がある。また、単に心理状態を診断するだけなので、性格を判別することはできない。
さらに、特許文献3の技術では、ユーザーは性格診断テストに回答しなければならないため、面倒である。
それゆえに、この発明の主たる目的は、新規な、性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器を提供することである。
この発明の他の目的は、人間の手を煩わすことなく、簡単に性格を判別することができる、性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器を提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
請求項1の発明は、触覚センサを備える性格判別装置であって、触覚センサからの検出信号に基づいて、人間が触っている場所および人間が触っている強度を検出する検出手段、および検出手段の検出結果に基づいて、人間の性格を、少なくとも、積極的、消極的、荒っぽいおよび自由奔放のいずれかに判別する性格判別手段を備える、性格判別装置である。
請求項1の発明では、性格判別装置は、ロボット(10)や電子機器などに適用され、触覚センサ(58)を備える。検出手段(60,S21,S41)は、触覚センサからの検出信号に基づいて、人間が触っている場所および人間が触っている強度を検出する。たとえば、人間がロボットや電子機器に触れるときに、当該人間が触れる場所(部位)および触っている強さが検出される。つまり、人間のロボットや電子機器への接し方が検出される。性格判別手段(60,S43,S45,S47,S49,S51,S53,S55,S57,S59)、検出手段の検出結果に基づいて、人間の性格を、少なくとも、積極的、消極的、荒っぽいおよび自由奔放のいずれかに判別する。
請求項1の発明によれば、人間がロボットや電子機器に接しているときに、その接し方に基づいて当該人間の性格を判別するので、人間の手を煩わすことなく、当該人間の性格を簡単に判別することができる。
請求項2の発明は請求項1に従属し、検出手段は、人間が触っている継続時間をさらに検出し、検出手段によって検出された場所、強度および継続時間に基づいて、人間の感情を、少なくとも、興味深い、退屈、親しみやすいおよび恐いのいずれかに判別する感情判別手段をさらに備える。
請求項2の発明では、検出手段は、人間が触っている継続時間をさらに検出する。また、性格判別装置は、感情判別手段(60,S71,S73,S75,S77,S79,S81,S83,S85,S87)をさらに備える。感情判別手段は、検出手段によって検出された場所、強度および継続時間に基づいて、人間の感情を、少なくとも、興味深い、退屈、親しみやすいおよび恐いのいずれかに判別する。
請求項2の発明によれば、人間の性格のみならず、人間の感情を判別することができる。したがって、たとえば、ロボットや電子機器が状況に応じたサービスを人間に対して提供することが可能である。
請求項3の発明は請求項1または2に従属し、検出手段によって検出された継続時間に基づいて人間の性別を判別する性別判別手段をさらに備える。
請求項3の発明では、性格判別手段は、性別判別手段(60,S21,S23,S25,S27,S29,S31)をさらに備える。この性別判別手段は、検出手段によって検出された継続時間に基づいて、人間の性別を、男性、女性および不明のいずれかに判別する。
請求項3によれば、人間の性別をさらに判別できるので、性別に応じたサービスの提供が可能である。
請求項4の発明は、触覚センサを備える性格判別装置の性格判別方法であって、(a)触覚センサからの検出信号に基づいて、人間が触っている場所および人間が触っている強度を検出し、そして(b)ステップ(a)の検出結果に基づいて、人間の性格を、少なくとも、積極的、消極的、荒っぽいおよび自由奔放のいずれかに判別する、性格判別方法である。
請求項4の発明によれば、請求項1と同様に、人間の手を煩わせることなく、当該人間の性格を簡単に判別することができる。
請求項5の発明は、触覚センサを備え、人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、音声および身体動作の少なくとも一方を含むコミュニケーション行動の制御情報を記憶する記憶手段、触覚センサからの検出信号に基づいて、人間が触っている場所および人間が触っている強度を検出する検出手段、検出手段の検出結果に基づいて、人間の性格を、積極的、消極的、荒っぽい、自由奔放および不明のいずれかに判別する性格判別手段、性格判別手段の判別結果に応じて記憶手段から1の制御情報を選択する選択手段、および選択手段によって選択された1の制御情報に従うコミュニケーション行動を実行する実行手段を備える、コミュニケーションロボット。
請求項5の発明では、コミュニケーションロボット(10)は、触覚センサ(58)を備える。記憶手段(64)は、音声および身体動作の少なくとも一方を含むコミュニケーション行動の制御情報を記憶する。検出手段(60,S21,S41)は、触覚センサからの検出信号に基づいて、人間が触っている場所および人間が触っている強度を検出する。判別手段(60,S43,S45,S47,S49,S51,S53,S55,S57,S59)、検出手段の検出結果に基づいて、人間の性格を、積極的、消極的、荒っぽい、自由奔放および不明のいずれかに判別する。選択手段(60,S7)は、性格判別手段の判別結果に応じて記憶手段から1の制御情報を選択する。そして、実行手段(60,S11)は、選択手段によって選択された1の制御情報に従うコミュニケーション行動を実行する。
請求項5の発明によれば、コミュニケーションロボットはコミュニケーションする人間の性格を判別して、判別した性格に応じたコミュニケーション行動を実行するので、個々の人間に応じたコミュニケーションを取ることができる。
請求項6の発明は、触覚センサを備え、人間が所持ないし使用する電子機器であって、音声およびテキストの少なくとも一方を含む案内情報を記憶する記憶手段、触覚センサからの検出信号に基づいて、人間が触っている場所および人間が触っている強度を検出する検出手段、検出手段の検出結果に基づいて、人間の性格を、積極的、消極的、荒っぽい、自由奔放および不明のいずれかに判別する性格判別手段、性格判別手段の判別結果に応じて記憶手段から1の案内情報を選択する選択手段、および選択手段によって選択された1の案内情報を人間に提供する提供手段を備える、電子機器である。
請求項6の発明によれば、コミュニケーションロボットの発明とは異なり、人間が所持ないし使用する携帯電話機、携帯ゲーム機、PDAのような電子機器の扱い方に応じて、音(音声)およびテキストの少なくとも一方を含む案内情報のようなサービスを提供することができる。
この発明によれば、ロボットや電子機器などに対する人間の接し方に応じて当該人間の性格を判断するので、人間の手を煩わすことなく、当該人間の性格を簡単に判別することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は台車12を含み、この台車12の側面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「16」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサが取り付けられ、この衝突センサは、台車12への人間や他の障害物の接触を検知する。
台車12の上には、多角形柱状のセンサ取付パネル18が設けられ、このセンサ取付パネル18の各面には、超音波距離センサ20が取り付けられる。この実施例ではたとえば24個の超音波距離センサ20が周囲360度にわたるように設けられる。この超音波距離センサ20は、センサ取付パネル18すなわちロボット10の周囲の主として人間との距離を計測するものである。具体的には、超音波距離センサ20は超音波を発射し、その超音波が人から反射されて超音波距離センサ20に入射されたタイミングを測定して、人との間の距離情報を出力する。
台車12の上には、人体状部22が直立するように取り付けられる。このロボット本体としての人体状部22の全身は、後に詳しく説明するように、柔軟素材からなる皮膚24によって覆われる。人体状部22は、たとえば鉄板のような筐体(図示せず)を含み、その筐体にコンピュータやその他必要なコンポーネントを収容している。そして、皮膚24は、その筐体上に被せられる。皮膚24の下の筐体の上部ほぼ中央にはマイク26が設けられる。このマイク26は、周囲の音声、特に人間の声を収集するためのものである。
人体状部22は、右腕28Rおよび左腕28Lを含み、右腕28Rおよび左腕28Lすなわち上腕30Rおよび30Lは、それぞれ、肩関節32Rおよび32Lによって、胴体部分に変位自在に取り付けられる。この肩関節32Rおよび32Lは、3軸の自由度を有する。上腕30Rおよび30Lには、1軸の肘関節34Rおよび34Lによって、前腕36Rおよび36Lが取り付けられ、この前腕36Rおよび36Lには、手38Rおよび38Lが取り付けられる。これら右腕28Rおよび左腕28Lの各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕28Rおよび左腕28Lのそれぞれ4個のモータが、図4において、それぞれ右腕モータ40および左腕モータ42として表される。
人体状部18の上部には首関節44を介して頭部46が、人間の頭と同様に俯仰・回転可能に取付けられる。この3軸の首関節44は、図4に示す頭部モータ48によって制御される。頭部46の前面の「目」に相当する位置には2つの眼カメラ50が設けられ、この眼カメラ50は、ロボット10に接近した人間の顔や他の部分を撮影してその映像信号を取り込む。頭部46の前面の目カメラ50の下方にはスピーカ52が設けられる。このスピーカ52は、ロボット10がそれの周囲の人間に対して音声によってコミュニケーションを図るために用いられる。
上で説明した人体状部22の胴体や頭部46および腕は上記したようにすべて柔軟な素材からなる皮膚24に覆われる。この皮膚24は、図2に示すように、下層のウレタンフォーム54と、その上に積層される比較的肉厚のシリコンゴム層56aおよび比較的肉薄のシリコンゴム層56bとを含む。そして、2つのシリコンゴム層56aおよび56bの間に、ピエゾセンサシート(皮膚センサ)58が埋め込まれる。このピエゾセンサシート58は、たとえば米国MSI社製、株式会社東京センサ販売のピエゾフィルムを用いる(http://www.t-sensor.co.jp/PIEZO/TOP/index.html)。実施例のロボット10に使用したのは、A4サイズ(型番:200×140×28)のピエゾフィルムを、1/2、1/3、1/4、1/6の大きさに、はさみでカットしたピエゾセンサシートである。このピエゾフィルムは、圧電フィルム(たとえばPVDF(ポリビニリデンフルオロイド))の両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有する。圧力等で変形すると両面金属薄膜間にピエゾ電気を発生し、すなわち、電荷があらわれて電位差が生じる。
この実施例では、上述のように、発泡ウレタンとシリコンゴムとを使って皮膚24の柔らかさを得た。シリコンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎてエネルギ消費量が大きくなるだけでなく、裂傷に弱くなる。そこで、発明者等は、実験を重ねた結果、大まかな形と厚みはウレタンフォームで作り、その表面を約20mmのシリコンゴムで覆う形を採用することとした。そして、シリコンゴム層を2つにし、それらのシリコンゴム層56aおよび56bの間に、上述のピエゾセンサシート58を埋め込んだ。このとき、内側のシリコンゴム層56aを厚く(約15mm)し、表面側のシリコンゴム層56bを薄く(約5mm)した。このようにすると、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、なおかつフィルムが変形し易くなるので、圧力の計測が容易になる。つまり、シリコンゴム層の厚みはロボット10の構造やパワーによるが、なるべく薄く、しかし変形が伝わり易く、雑音となる振動が伝わり難いものが必要となる。また、この柔らかい皮膚を介して、人との間で触行動によるコミュニケーションを行うことができるので、人に対して安心感を与えて親和性を高めることができるし、触れたりぶつかったりした場合の人のけがを防止して安全性も高めることができる。
なお、皮膚24の素材は軟性素材であればよく、上述のものに限定されずたとえば他のゴム素材等でもよい。ただし、ピエゾフィルムシートの表面金属薄膜が腐食しない材質である必要がある。また、皮膚24の厚み(各層の厚み)は、素材によって適宜変更され得る。
上述のピエゾセンサシートすなわち皮膚センサ58は人体状部22の全身にわたって埋め込まれ、それによって、人間等が接触することによって皮膚24に加えられた圧力を圧覚(触覚)情報として検知する。この実施例では、図3に示すように、ロボット10の全身にわたって48枚のピエゾセンサシート501−548を埋め込んだ。つまり、ロボット10は全身分布型皮膚センサを有するといえる。埋め込み状況(場所)に関しては、人間に触られやすい部位、たとえば頭頂や肩それに腕(手を含む)には、圧力を正確かつ確実に検知できるように、隙間なくピエゾセンサシートを埋め込み、あまり触られることを想定していない部位たとえば足あるいは脇腹には許容できる隙間を持ってピエゾセンサシートを埋め込んだ。それによって、検出精度と製造コストとのトレードオフを解決した。なお、これら48枚のピエゾセンサシート501−548は、場合によっては、皮膚センサ58として区別なしに示されることがあることに留意されたい。
図1に示すロボット10の電気的構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU60を含み、このCPU60には、バス62を通して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68およびサウンド入力/出力ボード70が接続される。
メモリ64は、図示しないが、ROMやHDD、RAMを含む。ROMやHDDにはこのロボット10の制御プログラムが予め書き込まれている。制御プログラムはたとえばコミュニケーション行動(図8参照)を実行するためのプログラム、外部のコンピュータと通信するためのプログラム等を含む。メモリ64にはまた、コミュニケーション行動を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ52から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための各関節軸の角度制御データ等を含む。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用される。
モータ制御ボード66は、たとえばDSP(Digital Signal Processor) で構成され、各腕や頭部などの各軸モータを制御する。すなわち、モータ制御ボード66は、CPU60からの制御データを受け、右肩関節32Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの1軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)40の回転角度を調節する。また、モータ制御ボード66は、左肩関節32Lの3軸と左肘関節34Lの1軸、計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)42の回転角度を調節する。モータ制御ボード66は、また、頭部46の3軸のモータ(図4ではまとめて、「頭部モータ」として示す。)48の回転角度を調節する。そして、モータ制御ボード66は、車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)16を制御する。
なお、この実施例の上述のモータは、車輪モータ16を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ16と同様に、直流モータであってよい。
センサ入力/出力ボード68も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU60に与える。すなわち、図示しない衝突センサの各々からの接触に関するデータがこのセンサ入力/出力ボード68を通して、CPU60に入力される。また、眼カメラ50からの映像信号が、必要に応じてこのセンサ入力/出力ボード68で所定の処理が施された後、CPU60に入力される。
このセンサ入力/出力ボード68は、さらに、図5に示すように、基板72を含み、基板72には、SH2マイコン74が設けられる。SH2マイコン74はたとえばASICで構成され、同じく基板72に設けられたA/D変換器76からの電圧データ(たとえば16ビット)をビット直列信号として出力する。なお、図5では1つの基板72だけが図示されるが、実際には、上述のように多数設けられた皮膚センサ58を分担するように、複数の図5に示す基板72が設けられる。
皮膚センサ58は、図5に示すようにピエゾフィルム78を電極ないし導体80aおよび80bで挟んだものであり、圧力が加えられるとそのピエゾフィルム78が電圧を発生し、その電圧が2つの導体80aおよび80b間に現れる。ただし、このとき発生される電圧は、電位は高いが電流が微弱なため、この発生電圧をそのまま長いケーブルでコンピュータ60(図4)に取り込むと、ノイズが多く乗ってしまうので難しい。そこで、この実施例では、図5に示す基板72を皮膚センサ58に近い位置に配置し、その中に高インピーダンスの読み取り装置、すなわちA/D変換器76を配置し、このA/D変換器76で変換した電圧値をSH2マイコン74で読み取ってシリアル信号として出力し、それをCPU60へ送るようにしてある。
なお、ピエゾフィルムシートの電極の配置の一例としては、導体80aが皮膚24の表面側に配置され、導体80bが筐体側に配置される。
実施例では、それぞれが8チャネル16ビットの2つのA/D変換器76を用いた。したがって、1つの基板72が16の皮膚センサ58を受け持つことができる。基板72には、16個のピエゾセンサシートのために16対の端子82aおよび82bが設けられ、それぞれに電極80aおよび80bが接続される。端子82aおよび82b間に与えられた皮膚センサ58からの電圧は、オペアンプ86によって電流増幅され、上述のA/D変換器76の1つのチャネルに入力される。図5では1つの皮膚センサ58が示されるだけであるが、他の皮膚センサ58およびそれに関連する回路も同様に構成されるものである。
上述のように人体状部22の皮膚24中には48個のピエゾセンサシート501−548が全身にわたって埋め込まれているが、それらをすべてロボット制御用のCPUないしコンピュータ60で読み取ろうとすると、ノイズを拾い易いだけでなく、コンピュータ60のA/Dポートを非常に多く必要としてしまい、現実的ではない。そこで、上述のように読み取り装置(基板72、A/D変換器76)を皮膚センサ58の近傍に分散配置し、それぞれの出力を1本のシリアルケーブル、たとえばRS422(規格名)で繋いだ、いわゆるシリアルバスを形成した。
A/D変換器76(図5)からはたとえば16ビットの値が出力されるが、この16ビットのデータが源信号となる。そして、SH2マイコン74は、後述のように、センサ信号すなわちA/D変換器76からの源信号を信号処理することによって、人間によるそのコミュニケーションロボット10への接触状態を識別し、その情報をCPUまたはコンピュータ60に伝達する。したがって、コンピュータ60は、1つのシリアルポートで全身の皮膚センサ58への接触状態の識別情報を取り込めるようになっている。
つまり、SH2マイコン74は、たとえば、叩かれているかどうかを「1」または「0」で、撫でられているかどうかを「1」または「0」で、さらには、触られているかどうかを「1」または「0」で出力する。そして、各SH2マイコン74からは、各皮膚センサ58あたり8ビットのデータとして、このような識別結果とともに源信号の大きさ(たとえば5ビット)すなわち叩く、触る、撫でる強さを、コンピュータ60に伝送する。
図4に戻って、スピーカ52にはサウンド入力/出力ボード70を介して、CPU60から、合成音声データが与えられ、それに応じて、スピーカ52からはそのデータに従った音声または声が出力される。また、マイク26からの音声入力が、サウンド入力/出力ボード70を介して、CPU60に取り込まれる。
また、CPU60には、バス62を介して通信LANボード88および無線通信装置90が接続される。通信LANボード88は、DSPで構成され、CPU60から送られる送信データを無線通信装置90に与え、無線通信装置90から送信データを、図示は省略するが、たとえば無線LANまたはインターネットのようなネットワークを介して外部のコンピュータに送信させる。また、通信LANボード88は、無線通信装置90を介してデータを受信し、受信したデータをCPU60に与える。つまり、この通信LANボード88および無線通信装置90によって、ロボット10は外部のコンピュータ等と無線通信を行うことができる。
なお、詳細な説明は省略するが、この実施例では、皮膚センサ58、CPU60、バス62、メモリ64およびセンサ入力/出力ボード68が性格判別装置として機能する。ただし、後述するように、これらのコンポーネントは、性別判別装置や印象判別装置としても機能する。
このような構成のロボット10を用いて、当該ロボット10とコミュニケーションを行う人間の性格を判別し、さらには、当該人間の性格に応じたコミュニケーション行動を当該ロボット10にさせる。以下、実験および実験結果について説明した後に、ロボット10の動作ないしCPU60の処理について具体的に説明することにする。
この実施例では、まずロボット10と人間とのコミュニケーション時におけるロボット10の触覚データと、人間の状態に関する情報とを取得する。ここで扱う人間の状態に関する情報は、性別、性格、感情(この実施例では、ロボット10に対する印象)の3つの情報である。
人間の性別および性格に関する情報は、実験直前のアンケートおよび東大式エゴグラムによって取得される。東大式エゴグラムは、質問紙上に書かれた50個の質問に対して、人間(被験者)が“はい”、“いいえ”、“どちらでもない”のいずれかで回答することにより、当該被験者の性格を診断するものである。ただし、この東大式エゴグラムでは、被験者の性格は、CP(Critical Parent),NP(Nurturing Parent),A(Adult),FC(Free Child),AC(Adapted Child)の5つの項目毎に付けられる0〜20の得点によって評価される。
また、被験者のロボット10に対する印象は、コミュニケーション実験の後に、アンケート調査によって取得される。アンケートは、「親しみやすい/親しみにくい」、「興味深い/退屈な」などの18個の形容詞対について7段階で回答させるものであり、ロボット10が実行する「握手」や「抱っこ」などといったインタラクション毎に、上記のアンケートを用いて被験者のロボット10に対する印象が調査される。
また、被験者とロボット10とが触覚を介してコミュニケーションを行う際には、被験者の状態(性別、性格、ロボット10に対する印象)によって、ロボット10に対する触り方が変化することが予想される。そのため、ロボット10の触覚情報と、被験者の各種状態に関する情報を対応付けることにより、ロボット10の触覚に基づく被験者の状態推定が可能になると考えられる。この実施例では、触覚情報として被験者の触る時間的長さに着目して、それと被験者の状態との相関関係が導かれる。
ただし、図示等は省略するが、上述したように、CPU60は、複数の皮膚センサ58からの接触状態についてのシリアルデータを取得するため、そのシリアルデータのうち、入力のあるビットに対応する皮膚センサ58の装着されたロボット10の部位を知ることができ、また入力のあるビットを参照して、叩く、撫でる、触る強さを知ることもできる。
実験においては、まず、或るコンテキストに基づいて被験者とロボット10とがコミュニケーションを行う。次に、それぞれのインタラクションにおいて、ロボット10に触れる時間の長さに基づいて被験者を分類し、それぞれのグループにおける被験者の性別、性格およびロボット10に対する印象の分布が求められる。それぞれのグループに対する被験者の状態分布に偏りが生じている場合には、触覚に基づく被験者の状態推定が可能である。
実験では、ロボット10は、「こんにちは」、「握手してね」、「よろしくね」、「僕はロボビー(ロボット10の名称)、あなたの名前は?」、「どこから来たの?」、「遊ぼうよ」、「ロボビーかわいいでしょ」、「よしよしして」、「わいわい」、「もっと遊びたい」、「こちょこちょして」、「くすぐったいよ」、「遊んでくれてありがとう」、「抱っこしてね」、「じゃあ、ばいばい」の順で、被験者との間でインタラクションを行う。一方、被験者(男性20名、女性19名)には、ロボット10に対して自由にコミュニケーションを行うように指示した。実験は、各被験者に対して2回ずつ行った。また、被験者の性別および性格に関する情報は、実験の直前にアンケートおよび東大式エゴグラムによって取得した。
図6は、上記の実験の結果に基づいて作成した、触覚情報(この実施例では、触る時間の長さ(触る長さ))と、被験者の性別、性格およびロボット10に対する印象との関係の一例を示す。この図6は、ロボット10が被験者に対して握手を実行した場合に、被験者がロボット10の手を握る時間の長さに基づいて被験者(39(名)×2(実験回数))を分類し、各グループにおいて被験者の性格(東大式エゴグラムにおけるFree ChildとAdapted Childの項)、ロボット10に対する印象(退屈な/興味深い)および性別の分布を調査したものである。
ただし、図6(A),(B),(C),(D)では、横軸には、被験者の延べ人数を被験者の番号(被験者番号)で示してある。
図6(A)は、各被験者がロボット10に触る時間の長さ(継続時間)を表わしている。図6(B)は、被験者を2つのグループ(G1,G2)に分割したときの、それぞれのグループG1,G2におけるFree Childの得点の分布を表わしたものである。図6(C)は、被験者を3つのグループ(G1,G2,G3)に分割したときの、それぞれのグループG1,G2,G3におけるAdapted Childの得点の分布を表わしている。図6(D)は、被験者を3つのグループ(G1,G2,G3)に分割したときの、それぞれのグループG1,G2,G3におけるロボット10に対する印象(退屈な/興味深い)を表わしている。ただし、図6(D)においては、縦軸の値が大きい程、被験者がロボット10に対して興味深い印象を持っていることを示し、逆に、縦軸の値が小さい程、退屈な印象を持っていることを示す。図6(E)は、被験者を3つのグループ(G1,G2,G3)に分割したときの、それぞれのグループG1,G2,G3に含まれる男女の割合を表わしている。
また、図6(B)に示すFree Childにおける2グループG1,G2についてt検定を行った結果は、t(75)=2.23,p<0.05であり、グループG1が有意に高いことが示された。また、図6(C)に示すAdapted Childにおける3つのグループG1,G2,G3および図6(D)に示す印象における3つのグループG1,G2,G3についてそれぞれ分散分析を行った結果は、F(2,76)=7.47,p<0.01,F(2,76)=8.76,p<0.01であり、グループG1,G2,G3間に有意差があることが示された。
さらに、scheffe法による多重検定を行った結果は、図6(C)に示すAdapted Childでは、グループG2がグループG1およびG3より有意に高いことが示された(p<0.01,p<0.05)。また、図6(D)に示す印象についても同様に多重検定を行った結果は、グループG2がグループG1およびG3よりも有意に高いことが示された(p<0.01,p<0.05)。
これらの結果から、ロボット10に触る時間が短い被験者の傾向として、Free Childの得点が高く、Adapted Childの得点が低いことが分かる。逆に、ロボット10に触る時間の長い被験者に関しては、Free Childの得点が低く、Adapted Childの得点が高いことが分かる。さらに、図6(D)に示すように、ロボット10に触る時間が短い被験者、またはロボット10に触る時間が長い被験者ほど、ロボット10に対して退屈な印象を持っていることが明らかになった。また、図6(E)に示すように、触る時間の短い被験者ほど男性である確率が高く、触る時間の長い被験者ほど女性である確率が高いことが明らかになった。
このような結果を踏まえて、図7および図8に示すようなテーブル100,102,104を作成した。図7(A)に示すように、男性用のコミュニケーション行動選択テーブル100は、被験者の性別が男性である場合に、当該被験者の性格およびロボット10に対する印象に応じて、コミュニケーション行動を選択するためのテーブルである。また、図7(B)に示すように、女性用のコミュニケーション行動選択テーブル102は、被験者の性別が女性である場合に、当該被験者の性格およびロボット10に対する印象に応じて、コミュニケーション行動を選択するためのテーブルである。この実施例では、性格は、「積極的」、「不明」、「消極低」、「荒っぽい」、「自由奔放」の5種類に分類される。以下、同じ。また、ロボット10に対する印象は、「不明」、「興味深い」、「退屈な」、「親しみやすい」、「恐い」の5種理に分類される。以下、同じ。
なお、性別、性格および被験者(人間)のロボット10に対する印象の判別方法については、後で説明することにする。
このようなテーブル100,102に従って選択されるコミュニケーション行動の具体的な内容が、図8に示すコミュニケーション行動のテーブル104に記載される。この実施例では、1つの番号に対応して、2つのコミュニケーション行動が記述される。これは、ロボット10が実行するコミュニケーション行動が単調にならないようにするためである。したがって、この実施例では、図7(A)または図7(B)のテーブル100,102に従って、1つの番号が決定されると、当該番号に対応して記述された2つのコミュニケーション行動から1つのコミュニケーション行動をランダムに選択するようにしてある。図8に示すテーブル104では、コミュニケーション行動として、ロボット10が発話する言葉のみを示してある欄があるが、この実施例では、言葉のみならず、身振り手振りのような身体動作も実行させるようにしてある。したがって、テーブル104では、コミュニケーション行動の内容に代えて、コミュニケーション行動についてのコマンド名ないしその識別情報を記述するようにしてもよい。
なお、図示は省略するが、上述したように、コミュニケーション行動は、身体動作および音声の少なくとも一方をいうため、いずれか一方のみがテーブル104に記述される場合もあり得る。たとえば、「相槌」のような身体動作のみや「“はい”と言う」のような音声のみのコミュニケーション行動が記述されてもよい。
たとえば、被験者の性別が男性であると判別され、この男性の性格が「荒っぽい」と判別され、さらに、この男性のロボット10に対する印象が「興味深い」と判別された場合には、図7(A)のテーブル100を参照して、「4」番のコミュニケーション行動が選択される。図8に示すように、「4」番のコミュニケーション行動としては、「“やさしくしてね”と言う」および「“落ち着いて”と言う」が記述されており、いずれか一方がランダムに選択される。「“やさしくしてね”と言う」が選択されたとすると、ロボット10は、“やさしくしてね”と発話しながら、お辞儀する。具体的には、CPU60は、“やさしくしてね”に対応する音声合成データをメモリ64から読み出して、サウンド入力/出力ボード70を介してスピーカ52から出力するとともに、お辞儀をする場合の首関節についての関節軸の角度制御データをメモリ64から読み出して、モータ制御ボード66を介して頭部モータ48を駆動する。
なお、詳細な説明は省略するが、他のコミュニケーション行動についても同様である。
また、図7(A),図7(B)および図8に示すテーブル100,102,104は例示であり、これらに限定される必要はない。たとえば、テーブル104に、さらに多数のコミュニケーション行動を登録しておけば、テーブル100,102で選択されるコミュニケーション行動をさらに増やすことができる。また、テーブル104において、1つの番号に対応して3つ以上のコミュニケーション行動を記述するようにしておくこともできる。
具体的には、図4に示したCPU60が図9に示すフロー図に従って全体処理を実行する。ただし、全体処理に含まれる性別の判別処理(S1),性格の判別処理(S3)および印象の判別処理(S5)は、上述した実験結果に基づいて決定される。図9に示すように、CPU60は全体処理を開始すると、ステップS1で、後述する性別の判別処理(図10参照)を実行し、ステップS3で、後述する性格の判別処理(図11参照)を実行し、そして、ステップS5で、後述する印象の判別処理(図12参照)を実行する。続いて、ステップS7で、性別に応じたテーブル100,102から、性格および印象が示すコミュニケーション行動を選択する。つまり、CPU60は、テーブル104を参照して、テーブル100,102で決定された番号に対応して記述される複数の(この実施例では、2つの)コミュニケーション行動のうちからランダムに1つのコミュニケーション行動を選択する。ただし、後述するように、性別が不明である場合には、テーブル100または102がランダムに選択される。その後、ステップS9で、ステップS7で選択されたコミュニケーション行動に対応する音声合成データおよび各関節軸の角度制御データを読み出し、ステップS11で、ステップS9で読み出した音声合成データおよび角度制御データに従って当該コミュニケーション行動を実行し、全体処理を終了する。
図10は、図9のステップS1に示した性格判別処理のフロー図である。図10に示すように、CPU60は、性格判別処理を開始すると、ステップS21で、人間がロボット10を触る長さを検出する。具体的には、CPU60は、皮膚センサ58からの入力を継続的に検出している時間(継続時間)を触る長さとして検出する。続く、ステップS23では、触る長さが時間L1を超えるかどうかを判断する。ここで、時間L1は、実験等により経験的に得られる値であり、この実施例では、図6(A)および(E)を参照して分かるように、6.5〜7secに設定される。ステップS23で“YES”であれば、つまり触る長さが時間L1を超えていれば、ステップS25で、性別を女性として判別し、図9に示した全体処理にリターンする。
また、ステップS23で“NO”であれば、つまり触る長さが時間L1以下であれば、ステップS27で、触る長さが時間L2を超えているかどうかを判断する。ここで、時間L2は、実験等により経験的に得られる値であり、この実施例では、図6(A)および(E)を参照して分かるように、3.5〜4secに設定される。つまり、CPU60は、触る時間が時間L2を超え、かつ時間L1以下であるかどうかを判断するのである。ステップS27で“YES”であれば、つまり触る長さが時間L2を超えていれば、ステップS29で、性別を不明と判別し、全体処理にリターンする。一方、ステップS27で“NO”であれば、つまり触る時間が時間L2以下であれば、ステップS31で、性別を男性として判別し、全体処理にリターンする。
なお、詳細な説明は省略するが、たとえば性別を示すデータ(性別データ)は、メモリ64のデータ記憶領域(図示せず)に記憶される。たとえば、性別データは、2ビットのデータであり、データ値“00”の場合に性別が不明であることを示し、データ値“01”の場合に性別が女性であることを示し、そして、データ値“10”の場合に性別が男性であることを示す。したがって、ステップS25,S29,S31では、判別された性別に応じたデータ値の性別データがメモリ64に記憶(または更新)されるのである。
図11は、図9に示したステップS3の性格の判別処理のフロー図である。図11に示すように、CPU60は、性格の判別処理を開始すると、ステップS41で、触る場所および触る強度を検出する。具体的には、CPU60は、入力される16ビットのシリアルデータの参照して、入力のあるビットに対応する部位を、触る場所として検出するとともに、その大きさが記憶されたビットから触る強度を検出する。
続くステップS43では、触る場所が手であるかどうかを判断する。この実施例では、ロボット10が握手の動作を実行した場合についての例を示すため、ここでは触る場所が手であるかどうかを判断している。つまり、触る場所は手に限定される必要はなく、ロボット10が実行する行動によって適宜変更される。ステップS43で“YES”であれば、つまり触る場所が手であれば、ステップS45で、触る強さが強度m1を超えているかどうかを判断する。ただし、強度m1は実験等によって得られる経験値である。
ステップS45で“YES”であれば、つまり触る強さが強度m1を超えていれば、ステップS47で、コミュニケーション対象の(現在インタラクションしている)人間ないしユーザの性格を積極的と判別して、図9に示した全体処理にリターンする。ステップS45で“NO”であれば、つまり触る強さが強度m1以下であれば、ステップS49で、触る長さが時間L3を超えているかどうかを判断する。ただし、触る長さは、性別の判別処理のステップS21において検出された継続時間である。時間L3は実験等によって得られる経験値であるが、たとえば、上記性別を判別したときの時間L1やL2と同じ値にしてもよいと考えられる。
ステップS49で“YES”であれば、つまり触る長さが時間L3を超えていれば、ステップS51で、当該ユーザの性格を不明と判別して、全体処理にリターンする。一方、ステップS49で“NO”であれば、つまり触る長さが時間L3以下であれば、ステップS53で、当該ユーザの性格を消極的と判別して、全体処理にリターンする。
また、ステップS43で“NO”であれば、つまり触る場所が手以外の部位であれば、ステップS55で、触る強さが強度m2を超えているかどうかを判断する。触る強さの検出方法は上述したとおりである。また、強度m2は実験等により経験的に得られる値である。ステップS55で“YES”であれば、つまり触る強さが強度m2を超えていれば、ステップS57で、当該ユーザの性格を荒っぽいと判別して、全体処理にリターンする。一方、ステップS55で“NO”であれば、つまり触る強さが強度m2以下であれば、ステップS59で、当該ユーザの性格を自由奔放と判別して、全体処理にリターンする。
なお、詳細な説明は省略するが、たとえば性格を示すデータ(性格データ)は、メモリ64のデータ記憶領域(図示せず)に記憶される。たとえば、性別データは、3ビットのデータであり、データ値“001”の場合に性格が積極的であることを示し、データ値“010”の場合に性格が不明であることを示し、データ値“011”の場合に性格が消極的であることを示し、データ値“100”の場合に性格が荒っぽいことを示し、そして、データ値“101”の場合に性格が自由奔放であることを示す。したがって、ステップS47,S51,S53,S57,S59では、判別された性格に応じたデータ値の性格データがメモリ64に記憶(または更新)されるのである。
このように、ロボット10に対するユーザの触り方(接し方)に応じて、ユーザの性格が判別される。
図12は、図9に示したステップS5の印象の判別処理のフロー図である。図12を参照して、CPU60は、印象の判別処理を開始すると、ステップS71で、触る場所が手かどうかを判断する。ステップS71で“YES”であれば、つまり触る場所が手であれば、ステップS73で触る長さが時間L4であるかどうかを判断する。ここで、時間L4は、実験等によって経験的に得られる値であり、この実施例では、図6(A)および(D)を参照して分かるように、2〜2.5secに設定される。また、触る長さは、上述したように、ステップS21で検出される継続時間である。
ステップS73で“NO”であれば、つまり触る長さが時間L4以下であれば、ステップS75で、当該ユーザのロボット10に対する印象を退屈と判別して、図9に示した全体処理にリターンする。一方、ステップS73で“YES”であれば、つまり触れる長さが時間L4を超えれば、ステップS77で、触れる長さが時間L5を超えるかどうかを判断する。ここで、時間L5は、実験等によって経験的に得られる値であり、この実施例では、図6(A)および(D)を参照して分かるように、6sec前後に設定される。
ステップS77で“YES”であれば、つまり触れる長さが時間L5を超えれば、ステップS79で、当該ユーザのロボット10に対する印象を不明と判別して、全体処理にリターンする。一方、ステップS77で“NO”であれば、つまり触れる長さが時間L5以下であれば、ステップS81で、当該ユーザのロボット10に対する印象を興味深いと判別して、全体処理にリターンする。
また、ステップS71で“NO”であれば、つまり触る場所が手以外の部位であれば、ステップS83で、触る強さが強度m3を超えているかどうかを判断する。ここで、強度m3は、実験等により経験的に得られる値である。ステップS83で“YES”であれば、つまり触る強さが強度m3を超えていれば、ステップS85で、当該ユーザのロボット10に対する印象を親しみやすいと判別して、全体処理にリターンする。一方、ステップS83で“NO”であれば、つまり触る強さが強度m3以下であれば、ステップS87で、当該ユーザのロボット10に対する印象を恐いと判別して、全体処理にリターンする。
なお、詳細な説明は省略するが、たとえば印象を示すデータ(印象データ)は、メモリ64のデータ記憶領域(図示せず)に記憶される。たとえば、印象データは、3ビットのデータであり、データ値“001”の場合に印象が不明であることを示し、データ値“010”の場合に印象が興味深いであることを示し、データ値“011”の場合に印象が退屈であることを示し、データ値“100”の場合に印象が親しみやすいであることを示し、そして、データ値“101”の場合に印象が恐いであることを示す。したがって、ステップS75,S79,S81,S85,S87では、判別された印象に応じたデータ値の印象データがメモリ64に記憶(または更新)されるのである。
この実施例によれば、ロボットに対するユーザの接し方に応じて、ユーザの性別、性格およびロボットに対する印象をそれぞれ判別するので、ユーザの手を煩わすことなく、簡単にユーザの性格を判別することができる。
また、この実施例によれば、判別したユーザの性格に応じて選択されたコミュニケーション行動をロボットに実行させるので、ユーザ毎に適切なコミュニケーション行動を実行することができる。
なお、この実施例では、39人の被験者に2回の実験を行った結果を用いて、時間L1,L2,L4およびL5を決定するようにしたが、さらに多数の被験者に対して多数回の実験を行った結果を用いてそれらを決定するようにすれば、ユーザの性別、性格およびロボットに対する印象を、より正確に判別できると考えられる。また、かかる場合には、性格やロボットに対する印象について、さらに詳細に分類できる可能性もある。
また、この実施例では、被験者がロボットに触れる継続時間および強度に応じて当該被験者の性格を判別するようにしたが、皮膚センサの出力についての時間変化を示す波形やそのヒストグラムなどを用いて性格を判別するようにしてもよい。
さらに、この実施例では、ロボットに性別判別機能、性格判別機能および印象判別機能を備えるようにしたが、これに限定される必要はない。たとえば、携帯ゲーム機、携帯電話機やPDAのように、ユーザが所持ないし使用する携帯端末(電子機器)に備えるようにしてもよい。かかる場合には、たとえば、携帯ゲーム機に加速度センサを備えておき、当該加速度センサの出力に基づいてユーザの携帯ゲーム機に対する接し方(扱い方)を検出し、その検出結果からユーザの性格および印象を判別し、それらに応じた適切な誘導ないしアドバイス(ヒント)をゲーム上で行うサービスの提供が可能である。また、加速度センサの出力に基づいてユーザの携帯ゲーム機に対する接し方(扱い方)を検出するため、加速度センサを触覚センサとして考えることができる。
また、かかる場合には、携帯ゲーム機に対するユーザの印象に代えて、たとえば、携帯ゲーム機を操作するユーザの心境(焦っている/落ち着いているなど)をユーザの感情ないし状況として判別するようにすればよい。たとえば、加速度センサの出力から、携帯ゲーム機の移動方向およびその速さ(強さ)を知ることができる。したがって、たとえば、携帯ゲーム機が小刻みに動いていることを検出すると、ユーザが焦っていると判別して、落ち着いてゲームをプレイすべきことのメッセージを音声で出力したり、そのようなメッセージをゲーム画面に表示したりすることができる。また、かかる場合には、ゲームを有利に進める方法のメッセージを音声やテキストで出力することも可能である。
ただし、ユーザに提示するメッセージのような情報(案内情報)は、予めメモリ64に記憶しておき、図7および図8に示したようなテーブルに従って選択可能にしておく必要がある。
このように、加速度センサの出力に基づいて、携帯端末を扱うユーザの性格を判別し、ユーザの性格や印象(状況)に応じたサービスを提供することも可能である。ただし、接触センサや加速度センサのような触覚センサに限定される必要はなく、振動センサのような他のセンサの出力に基づいて、ロボットや携帯端末のような電子機器を扱うユーザの性別、性格、印象(状況)を判別するようようにしてもよい。したがって、ロボットや電子機器に限定される必要はなく、たとえば、遊戯具、コンピュータマウスや机などの物に触覚センサを設けておき、物に対する接し方(扱い方)からユーザの性別、性格、印象(状況)を判別することもできる。
さらに、他の実施例では、イメージセンサの出力に基づいて、ユーザの性別、性格、印象(状況)を判別することもできる。たとえば、水晶玉のような透明な物では、その内部或いはその下部にイメージセンサとしてのカメラを設置しておき、そのカメラで撮影された映像ないし画像のオプティカルフローを解析し、解析結果(触っている継続時間、触っている手の動き(速さ))に基づいてユーザの性別、性格、印象を判別する。つまり、水晶玉の触り方(撫で方)で、ユーザの性格等を判別するのである。そして、たとえば、そのユーザに占い結果を出力(提示)するようなサービスを提示するのである。これは、水晶玉に限らず、他の物、ロボット、電子機器にも適用可能である。
また、この実施例では、コミュニケーション行動選択テーブルを用いて、性格および印象に応じたコミュニケーション行動を選択するようにしたが、性格または印象のいずれか一方に応じてコミュニケーション行動を選択するようにしてもよい。かかる場合には、性格または印象に応じて選択可能なコミュニケーション行動選択テーブルを用意すればよい。
図1はこの発明のコミュニケーションロボットの一例を示す外観図である。 図2は図1実施例に示すコミュニケーションロボットに用いる皮膚とその中に含まれるピエゾセンサシートとを示す図解図である。 図3はピエゾセンサシートの配置位置を示す図解図である。 図4は図1実施例のコミュニケーションロボットの電気的な構成を示すブロック図である。 図5は図1実施例のコミュニケーションロボットにおけるピエゾセンサシート(皮膚センサ)から検知信号を入力するセンサ入力/出力ボードを部分的に示す図解図である。 図6は図1実施例のコミュニケーションロボットを用いた実験結果を示すグラフである。 図7は図1実施例のコミュニケーションロボットが人間に対してコミュニケーション行動を実行する場合に、当該コミュニケーション行動を選択するためのテーブルである。 図8は図1実施例のコミュニケーションロボットが実行可能なコミュニケーション行動のテーブルである。 図9は図4に示すCPUの全体処理を示すフロー図である。 図10は図4に示すCPUの性別の判別処理を示すフロー図である。 図11は図4に示すCPUの性格の判別処理を示すフロー図である。 図12は図4に示すCPUの印象の判別処理を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
22 …人体状部
24 …皮膚
26 …マイク
52 …スピーカ
58,501−548 …皮膚センサ(ピエゾセンサシート)
60 …CPU
64 …メモリ
66 …モータ制御ボード
68 …センサ入力/出力ボード
70 …サウンド入力/出力ボード
74 …SH2マイコン
76 …A/D変換器
92 …ハイパスフィルタ
94 …バンドパスフィルタ

Claims (6)

  1. 触覚センサを備える性格判別装置であって、
    前記触覚センサからの検出信号に基づいて、人間が触っている場所および前記人間が触っている強度を検出する検出手段、および
    前記検出手段の検出結果に基づいて、前記人間の性格を、少なくとも、積極的、消極的、荒っぽいおよび自由奔放のいずれかに判別する性格判別手段を備える、性格判別装置。
  2. 前記検出手段は、前記人間が触っている継続時間をさらに検出し、
    前記検出手段によって検出された場所、強度および継続時間に基づいて、前記人間の感情を、少なくとも、興味深い、退屈、親しみやすいおよび恐いのいずれかに判別する感情判別手段をさらに備える、請求項1記載の性格判別装置。
  3. 前記検出手段によって検出された継続時間に基づいて、前記人間の性別を、男性、女性および不明のいずれかに判別する性別判別手段をさらに備える、請求項1または2記載の性格判別装置。
  4. 触覚センサを備える性格判別装置の性格判別方法であって、
    (a)前記触覚センサからの検出信号に基づいて、人間が触っている場所および前記人間が触っている強度を検出し、そして
    (b)前記ステップ(a)の検出結果に基づいて、前記人間の性格を、少なくとも、積極的、消極的、荒っぽいおよび自由奔放のいずれかに判別する、性格判別方法。
  5. 触覚センサを備え、人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、
    音声および身体動作の少なくとも一方を含むコミュニケーション行動の制御情報を記憶する記憶手段、
    前記触覚センサからの検出信号に基づいて、前記人間が触っている場所および前記人間が触っている強度を検出する検出手段、
    前記検出手段の検出結果に基づいて、前記人間の性格を、積極的、消極的、荒っぽい、自由奔放および不明のいずれかに判別する性格判別手段、
    前記性格判別手段の判別結果に応じて前記記憶手段から1の前記制御情報を選択する選択手段、および
    前記選択手段によって選択された前記1の制御情報に従うコミュニケーション行動を実行する実行手段を備える、コミュニケーションロボット。
  6. 触覚センサを備え、人間が所持ないし使用する電子機器であって、
    音声およびテキストの少なくとも一方を含む案内情報を記憶する記憶手段、
    前記触覚センサからの検出信号に基づいて、前記人間が触っている場所および前記人間が触っている強度を検出する検出手段、
    前記検出手段の検出結果に基づいて、前記人間の性格を、積極的、消極的、荒っぽい、自由奔放および不明のいずれかに判別する性格判別手段、
    前記性格判別手段の判別結果に応じて前記記憶手段から1の前記案内情報を選択する選択手段、および
    前記選択手段によって選択された前記1の案内情報を前記人間に提供する提供手段を備える、電子機器。
JP2007124074A 2007-05-09 2007-05-09 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器 Active JP5007404B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007124074A JP5007404B2 (ja) 2007-05-09 2007-05-09 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007124074A JP5007404B2 (ja) 2007-05-09 2007-05-09 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器

Publications (2)

Publication Number Publication Date
JP2008278981A JP2008278981A (ja) 2008-11-20
JP5007404B2 true JP5007404B2 (ja) 2012-08-22

Family

ID=40140318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007124074A Active JP5007404B2 (ja) 2007-05-09 2007-05-09 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器

Country Status (1)

Country Link
JP (1) JP5007404B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2009327083A1 (en) * 2008-12-18 2011-06-23 Safe Contact Aps Hand hygiene system
WO2016072116A1 (ja) 2014-11-07 2016-05-12 ソニー株式会社 制御システム、制御方法、および記憶媒体
JP7003400B2 (ja) * 2016-10-27 2022-01-20 富士フイルムビジネスイノベーション株式会社 対話制御システム
JP2018077599A (ja) * 2016-11-08 2018-05-17 富士ゼロックス株式会社 情報処理装置
JP2018083269A (ja) * 2016-11-25 2018-05-31 株式会社Soken インタラクション装置及びインタラクションの表出方法
JP6309673B1 (ja) * 2017-06-09 2018-04-11 六月 林 デバイスと操作者との間に恋愛感情を形成する恋愛感情形成装置、恋愛感情形成方法、及びプログラム
JP7131077B2 (ja) * 2018-05-24 2022-09-06 カシオ計算機株式会社 会話装置、ロボット、会話装置制御方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3590978B2 (ja) * 1993-12-30 2004-11-17 カシオ計算機株式会社 性格診断装置
JP3697530B2 (ja) * 1998-01-14 2005-09-21 オムロンエンタテインメント株式会社 人物画像出力装置、人物画像出力方法及び人物画像出力プログラムを記録したコンピュータ読取可能な記録媒体
JP2001157983A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット装置及びロボット装置の性格判別方法
JP2002312463A (ja) * 2001-04-12 2002-10-25 Namco Ltd ネットワークサーバー、オンラインコミュニケーション端末、ネットワークサーバー用プログラム、オンラインコミュニケーション端末用プログラム、およびそれらのプログラムを記録した記録媒体
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
JP2006212283A (ja) * 2005-02-04 2006-08-17 Nippon Shinri Test Kenkyusho Kk 性格検査用紙及び性格検査方法
JP2006293855A (ja) * 2005-04-13 2006-10-26 Billboard:Kk 性格診断装置、サーバコンピュータ、性格診断方法及び性格診断プログラム

Also Published As

Publication number Publication date
JP2008278981A (ja) 2008-11-20

Similar Documents

Publication Publication Date Title
JP5007404B2 (ja) 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
US11389686B2 (en) Robotically assisted ankle rehabilitation systems, apparatuses, and methods thereof
WO2016068262A1 (ja) コミュニケーションロボット
CN108573695B (zh) 语音处理装置及其方法、机器人及计算机可读取记录介质
TWI280481B (en) A device for dialog control and a method of communication between a user and an electric apparatus
JP3706113B2 (ja) コミュニケーションロボット
WO2008134745A1 (en) Mobile video-based therapy
CN105607823A (zh) 触觉触发器修改系统
JP7363764B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200269421A1 (en) Information processing device, information processing method, and program
JP3942586B2 (ja) コミュニケーションロボット
CN111736585B (zh) 机器人以及机器人的控制方法
KR102426792B1 (ko) 무음 발화 인식 방법 및 장치
CN109190607A (zh) 一种动作图像处理方法、装置和终端
JP4524435B2 (ja) コミュニケーションロボット
JP5352813B2 (ja) 非接地型力覚提示装置
JP4677585B2 (ja) コミュニケーションロボット
JP2018186326A (ja) ロボット装置及びプログラム
JP4873607B2 (ja) 皮膚センサを有する電子機器
JP7435641B2 (ja) 制御装置、ロボット、制御方法およびプログラム
JP4271070B2 (ja) コミュニケーションロボット
JP2006281348A (ja) コミュニケーションロボット
Bartlett et al. Robots for pre-orientation and interaction of toddlers and preschoolers who are blind
JP4753410B2 (ja) コミュニケーションロボット
JP4223426B2 (ja) コミュニケーションロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120417

R150 Certificate of patent or registration of utility model

Ref document number: 5007404

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250