JP6359478B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP6359478B2
JP6359478B2 JP2015074169A JP2015074169A JP6359478B2 JP 6359478 B2 JP6359478 B2 JP 6359478B2 JP 2015074169 A JP2015074169 A JP 2015074169A JP 2015074169 A JP2015074169 A JP 2015074169A JP 6359478 B2 JP6359478 B2 JP 6359478B2
Authority
JP
Japan
Prior art keywords
robot
facial expression
user
unit
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015074169A
Other languages
English (en)
Other versions
JP2016193466A (ja
Inventor
高明 勝浦
高明 勝浦
圭司 坂
圭司 坂
実雄 阪本
実雄 阪本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015074169A priority Critical patent/JP6359478B2/ja
Priority to PCT/JP2016/051324 priority patent/WO2016157944A1/ja
Publication of JP2016193466A publication Critical patent/JP2016193466A/ja
Application granted granted Critical
Publication of JP6359478B2 publication Critical patent/JP6359478B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites

Description

本発明は、顔画像を表示し音声対話を行うロボットに関する。
近年、音声認識や言語処理を行うことでユーザと音声対話によるコミュニケーションが可能なコミュニケーションロボットの開発が盛んに行なわれている。このようなコミュニケーションロボットの中には、自然なコミュニケーション、または深いコミュニケーションを行うために、例えば、特許文献1のように、ユーザの顔画像データや発話音声データから、ユーザの感情を認識し、感情認識結果に応じた行動を実行するロボットも存在する。また、例えば、特許文献2のように、ユーザに視認させる表情の表出を行うロボットも存在する。
特開2006−123136(2006年5月18日公開) 特開2012−178092(2012年9月13日公開)
しかしながら、従来のコミュニケーションロボットは、ユーザの感情を認識できても、ロボット自体は表情の表出ができなかったり、表情の表出ができたとしても、そのバリエーションが少なかったりすると言った制約がある。そのため、従来のコミュニケーションロボットでは、音声対話によるコミュニケーションが主となり、無機質な冷たい印象をユーザに与えてしまいがちである。結果として、自然なコミュニケーションが成立し難く、ユーザは、ロボットへの愛着や親密度が低下したり、場合によっては不快感を覚えたりするといった問題が生じる。
また一方で、ロボットにおいて機能的な不具合が生じた場合、エラー番号を表示したり、警告音または報知音を出したりすることで通知できるが、このような通知方法は、コミュニケーションとは言い難く、いかにも機械的でありユーザは親しみを持ち難い。また、エラー番号や警告音または報知音が、何のエラーに対応しているのかどう対処すべきなのか等を調べる必要があり、ユーザに負担をかける。
そこで、本発明は、上記課題に鑑みなされ、その目的は、ユーザが親しみをもって接することができ、ユーザとのより自然なコミュニケーションを行うことが可能なロボットを提供することにある。
上記の課題を解決するために、本発明の一態様に係るロボットは、顔画像を表示し、音声対話を行うロボットであって、自機へ入力されたユーザ音声または自機から出力する発話音声に対応付けられた感情パラメータ、自機が有するセンサ部の検知結果に対応付けられた感覚パラメータ、及び自機の動作状態に対応付けられた状態パラメータ、を用いて表情を決定する表情決定部と、前記表情決定部が決定した表情に応じた顔画像を表示部に表示させる表示制御部と、を備えたことを特徴としている。
また、上記の課題を解決するために、本発明の別の一態様に係るロボットは、顔画像を表示し、音声対話を行うロボットであって、自機に入力されたユーザ音声または自機が有するセンサ部が検知したユーザアクションの少なくとも一方に基づき、自機における不具合を推測する不具合推測部と、前記推測された不具合の内容を示す情報または当該不具合の解消に必要な情報の少なくとも一方である不具合情報を外部に通知する不具合通知部と、を備えたことを特徴としている。
上記構成によると、ユーザが親しみをもって接することができ、ユーザとのより自然なコミュニケーションを行うことが可能なロボットを提供することが可能となる。
実施の形態1及び2に係るロボットの概略構成を示す図である。 実施の形態に1に係るロボットの使用状況を示す図である。 実施の形態1に係るロボットが有する対話シナリオの一例を示す図である。 実施の形態1に係るロボットでの対話処理の流れを示す図である。 実施の形態1に係るロボットの各処理における表情について説明する図である。 実施の形態2に係るロボットの表情の変化を示す図である。 実施の形態3に係るロボットの概略構成を示す図である。
〔実施の形態1〕
以下、本発明の一実施形態について図1〜5に基づいて説明すれば以下の通りである。
(ロボットの構成)
本実施の形態に係るロボット1は、顔画像を表示し、音声対話を行うロボットであり、その外観は、図2に示すように頭部2と胴体部3とを有する雪だるま型である。胴体部3には腕部3aが付随している。頭部2は、後述のモータ部50により駆動するように構成されている。なお、ロボット1の外観は、図示したものに限定されず、例えば、図2の外観にさらに脚部を有していてもよい。あるいは、ヒューマノイド型であっても、ペット型であってもよい。
ロボット1は、顔の表情を表出可能に構成されている。ロボット1は、その頭部2の顔領域に顔画像を表示し、表情の表出は、決定した表情の顔画像を表示することで行う。表情の決定及び決定した表情の顔画像の表示の詳細については後述する。顔画像が変化することで表情も変化する。ロボット1は、本来の喜怒哀楽に加え、例えば、照れて恥ずかしそうであったり、眠そうであったり、気分が悪そうで冷汗をかいたり震えていたりする顔画像を表示することで、人間により近い表情を映すことが可能である。このように、ロボット1は顔画像の表示により顔の表情を多種多様に変化できるため、ロボット1が感情を持っているように見せかけることができる。そのため、ユーザは、より親しみや愛着をもってロボット1に接することができる。
さらに、ロボット1は、音声認識機能及び発話(音声出力)機能を有しており、ユーザ音声(音声信号)が入力されると音声認識を行い、その認識結果に応じた発話を行う。よって、ユーザは自然言語を用いた音声によってロボット1と対話することが可能である。
次に、ロボット1の機能的構成の詳細について説明する。図1は、本実施の形態に係るロボット1の機能的構成を示すブロック図である。ロボット1は、制御部10、表示部20、音声出力部30、音声入力部40、モータ部50、センサ部60、通信部70及びデータ格納部80を備えている。
制御部10は、ロボット1の各部を統括制御するブロックである。制御部10は、例えば、CPU(Central Processing Unit)や専用プロセッサなどの演算処理部などにより構成されるコンピュータ装置から成る。制御部10は、データ格納部80に記憶されているロボット1における各種制御を実施するためのプログラムを読み出して実行することで、ロボット1の各部の動作を統括的に制御する。制御部10は、また、表示制御部11、対話制御部12、環境認識部13、及び状態制御部14としての機能を有する。これらの詳細については、後述する。
表示部20は、ロボット1での表示を行うブロックである。表示部20は、頭部2の顔領域に顔画像を表示することで、ロボット1にて喜怒哀楽等の表情を表出する。本実施の形態では、表示部20は、リアプロジェクション方式でプロジェクタによりロボット1内部から、ロボット1頭部2の顔領域に顔画像を映し出すものとする。しかし、これには限定されず、例えば、液晶表示装置にて顔画像が表示される構成であってもよい。
音声出力部30は、ロボット1による音声(発話音声)の出力装置であり、ここではスピーカである。音声入力部40は、ユーザによる音声(ユーザ音声)の入力装置でありここではマイクである。
モータ部50は、ロボット1の各種運動動作を実行するブロックである。モータ部50が実行するロボット1における運動動作としては、例えば、頭部2を水平方向に回転させたり、手を上下に動かしたりといった運動動作が挙げられるが、これらに限定されない。ロボット1の運動動作とは、ロボット1の少なくとも一部が物理的に(機械仕掛けにて)動くことを指す。
センサ部60は、ロボット1内部あるいはロボット1周囲の環境を検知するための装置である。本実施の形態では、センサ部60は、各種センサ60a及びカメラ60bを備えている。各種センサ60aは、ここでは、ロボットのハードウエアの故障(エラー)を検知するセンサ、温度センサ、湿度センサ、照度センサ、加速度センサ、タッチセンサ、加速度センサ、人感センサ、及び時計を含むものとする。各種センサ60aは、これらのうちのいくつかを含まなくてもよいし、これら以外のセンサを含んでいてもよい。カメラ60bは、静止画像及び/または動画像を撮影する撮像装置である。センサ部60は、カメラ60bを備えていなくてもよい。
通信部70は、通信ネットワークにより外部との通信を行うブロックである。通信ネットワークとしては、例えば、インターネットが利用できる。また、電話回線網、移動体通信網、CATV(Cable Television)通信網、衛星通信網などを利用することもできる。
ロボット1は、図2に示すように、通信ネットワークにて情報提供サーバ100と接続している。情報提供サーバ100はロボット1に対話に必要な情報を提供する装置である。情報提供サーバ100は、1台であってもよいし、複数台が通信ネットワークを介して接続した構成であってもよい。なお、ロボット1は情報提供サーバ100と接続しておらず、スタンドアローン型のロボットであってもよい。情報提供サーバ100は、ロボット1を管理する管理サーバであってもよい。管理サーバに複数のロボット1が接続されている場合には、管理サーバは複数のロボットを個別に管理する。例えば、通信部70により管理サーバから顔画像データ及び発話データの更新データを取得できるように構成されていると、表情データのバリエーション及び発話のバリエーションをさらに増やすことができる。また、ロボット1の制御部10の一部の機能を管理サーバにて行わせてもよい。このような構成であると、ロボット1の処理能力の向上やデータ格納部80の容量の拡大を図ることなく、複雑な表情の顔画像を表示することが可能になる。
データ格納部80は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などを含み、ロボット1にて用いられる各種情報(データ)を記憶するブロックである。また、データ格納部80は、ロボット1の頭部2の顔領域に表示する顔画像のデータベースである顔画像DB81を格納している。顔画像DB81bには表情毎に顔画像データが登録されている。また、データ格納部80は、ロボット1が発話する発話データのデータベースである対話シナリオ82を格納している。対話シナリオ82についてその詳細を後述する。
対話制御部12は、ユーザとの音声対話に必要な処理を行うブロックである。対話制御部12は、音声入力部40から入力されたユーザ音声を音声認識し、当該音声認識結果に対応付けられた発話データを対話シナリオ82から読み出し音声合成を行い、音声出力部30から出力する。あるいは、自律トリガが発生すると、当該自律トリガに対応付けられた発話データを対話シナリオ82から読み出し音声合成を行い、音声出力部から出力する。なお、発話データが音声データとして生成されている場合には音声合成は行わない。音声認識の処理及び音声合成の処理については、公知技術を用いることができる。
環境認識部13は、センサ部60による出力値から、ロボット1内部またはロボット1周囲の情報を取得するブロックである。
状態制御部14は、ロボット1における動作状態(モード)を決定し、決定した動作状態となるようにロボット1の各部を制御するブロックである。動作状態の例としては、ユーザ音声の入力またはユーザアクションを待つ受付状態、音声認識を行う音声認識状態、発話を行う発話状態、情報提供サーバ100にと通信を対話に必要な情報を検索する検索状態、自機のセンサ部60による検知結果を出力する状態出力状態、スリープ状態、スリープ状態から受付状態までの間の復帰状態などが挙げられるが、これらに限定されない。
表示制御部11は、表示部20を制御し、ロボット1の頭部2の顔領域に顔画像を表示させるブロックである。さらに、表示制御部11は、表情決定部15を有する。
表情決定部15は、ロボット1へ入力されたユーザ音声またはロボット1から出力する発話音声に対応付けられた感情パラメータ、センサ部60の検知結果に対応付けられた感覚パラメータ、及びロボット1の動作状態に対応付けられた状態パラメータ、を用いて表情を決定するそして、表示制御部11は、表情決定部15が決定した表情に応じた顔画像を表示部に表示させる。表情の決定及び顔画像の表示の具体例については後述する。
各パラメータは、表情を指定する情報である。
感情パラメータは、後段で説明する対話シナリオ82にて、音声トリガ(ユーザ音声)または発話データ(発話音声)に対応付けられて登録された表情を指定する情報である。後述のように、例えば、「喜びが大」、「喜びが中」、「喜びが小」と言ったように、同じ感情(ここでは喜び)であっても、ユーザ音声または発話音声に応じて表情のユーザに与える印象(強さ、度合い)(ここでは、大、中、小)が異なる。さらに、感情パラメータは、ロボット1では処理できない程に長いユーザ音声が入力されたり、音声認識できない単語やフレーズが音声入力されたりする場合に、理解できなという表情を指定するよう設定されている。また、発話音声の種類(応答パターン)が豊富にあるコンテンツに対応付けられたユーザ音声には、興味を持って聞くような表情を指定するよう設定されている。例えば、料理コンテンツが豊富に登録されていれば、メニューの名前などを音声認識できた場合は興味を持つ表情を指定する。このように、感情パラメータを用いることで、音声対話中の状況に応じて表情を変えることができ、直感的に状態を理解させてスムーズな対話を実現することができる。
感覚パラメータは、センサ部60が検知した、ロボット1のエラーや周囲温度が高温である(例えば、35℃以上)等の検知結果に応じた表情を指定する情報である。感覚パラメータは、例えば、エラー検知時には、エラーが発生していることを表情によりユーザが直感的にわかるよう、エラー専用の表情を指定するよう設定されている。なお、感覚パラメータはセンサ部60の検知結果に対応させてデータ格納部80に格納されている。
状態パラメータは、動作状態に対応づけられた表情を指定する情報である。感覚パラメータは、例えば、ユーザがロボット1のスリープ状態(応答不可)をその表情から直感的にわかるよう、スリープ状態では、寝ている表情を指定するよう設定されている。また、音声認識状態では、聴いている表情を指定する。また、応答処理状態は、考えている表情を指定し、発話状態では、感情パラメータと同様に対話シナリオ82でのユーザ音声または発話音声に応じて表情を指定するよう設定されている。状態パラメータは、同じ動作状態においては変化しないように設定されていてもよいが、変化するように設定されていてもよい。例えば、センサ部60による検知結果に応じて、待機状態において指定する表情が変わるように設定されていてもよい。
なお、状態パラメータは動作状態に対応させて、データ格納部80に格納されている。
各パラメータは、表情を指定する情報ではなく、数値であってもよい。つまり。各ユーザ音声または各発話音声に感覚パラメータとしての数値が対応づけられており、センサ部60の各検知結果に感情パラメータとしての数値が対応付けられており、及びロボット1の各動作状態に状態パラメータとしての数値が対応付けられており、表情決定部15はこれらを用いて表情を決定してもよい。
また、表示制御部11は、ユーザ音声または発話音声から決定される表情の顔画像、センサ部60の検知から決定される表情の顔画像、及びロボット1の動作状態から決定される表情の顔画像を、複合した顔画像を表示する、と言い換えることもできる。この場合、各パラメータは、顔画像そのものである。
以上から分かるように、ロボット1の表情は、ユーザ音声又発話音声、センサ部60の検知結果、及びロボット1の動作状態に依存して様々に変わる。そのため、表情のバリエーションを増やすことができ、あたかも人間のような多彩で複雑な表情の表出を実現させることが可能となる。
ここで、表情決定部15は、感情パラメータ、感覚パラメータ、及び状態パラメータを均等に用いて表情を決定してもよい。あるいは、感情パラメータ、感覚パラメータ、及び状態パラメータには、表情に及ぼす影響の強さを示す優先度がロボット1の動作状態に応じて設定されており、表情決定部15は、優先度を加味して各パラメータを用いて表情を決定してもよい。優先度は、3つ全てのパラメータを用いるように設定されていても、あるいは上記3つのうち1つまたは2つのパラメータを用いるように設定されていてもよい。
(対話シナリオ)
図3は、対話シナリオ82の一例を示す図である。図3に示す対話シナリオ82では、ロボット1への入力内容に対応付けてロボット1からの出力内容が登録されている。対話シナリオ82では、入力内容としてロボット1に入力されたトリガ(ロボット1にて発生したトリガ)、及びフィルタに対応させて、ロボット1からの出力内容が登録されている。
対話シナリオ82では、ロボット1にて発生するトリガを、ユーザ音声が要因の音声トリガと、センサ部60が検知する情報が要因の自律トリガに大別している。よって、対話シナリオ82の音声トリガには、ユーザ音声の音声認識結果を抽象化した、例えば、単語やフレーズが登録される。抽象化については後述する。また、自律トリガには、ユーザ音声の入力以外のユーザアクション(例えば、触れる、抱き上げる)、あるいは、ロボット1が自発的に行う動作(例えば、温度センサが35℃を超えたことを検知、人感センサがスリープ状態において人を検知、等)が登録される。ここで、ユーザアクションとは、ロボット1に対するユーザの動作、つまりロボット1のセンサ部60が検知できるユーザの動作である。つまり、自律トリガにはロボット1のセンサ部60が検知する情報が登録される。
フィルタは、ロボットからの出力を決定する際の、条件分岐を行うのに用いられる。図3に示す対話シナリオ82ではフィルタは、トリガが発生した際の温度、時間、あるいは、ログである。ログとは、ユーザとの対話の履歴である。例えば、ユーザの嗜好(趣味や好きな食べ物など)や、ユーザとの以前の対話にて特定された行動や単語(「仕事に行くよ」、「昨日いちごを食べた」など)をログとして登録しておく。ログの使用の具体例を示す。「仕事に行くよ」をログとして登録している場合に、「ただいま」というユーザ音声の入力があると「おかえり、おつかれさま」という発話を行う。フィルタが設定されていないトリガが登録されていてもよい。また、フィルタとトリガの「自律」が同じものになる場合もある。
このように、ロボット1では、入力されたトリガを、音声トリガか自律トリガかに大別し、フィルタにより詳細の条件分岐を行い、音声や表情といった出力を決定する(図4の(a)参照)。また、ロボット1では、ユーザ音声入力があると、音声認識を行い、トリガへの抽象化を行う(図4の(b)参照)。このトリガへの抽象化とは、音声認識結果をシナリオが選択できるレベル(トリガ)まで分解することである。さらに、トリガへの抽象化において、ユーザの意図を推定し、この推定をトリガとして対話シナリオに登録してもよい。
また、対話シナリオ82では、ロボット1からの出力内容として、音声、表情、動作、その他が登録される。出力内容の「音声」としては、ロボット1が発話する発話データが登録される。出力内容の「表情」としては、表情を指定する情報、すなわち上記した感情パラメータが登録される。表情を指定する情報としては、例えば「喜びが大」、「喜びが中」、「喜びが小」、「怒りが大」、「怒りが中」、「怒りが小」、「フラット(表情が無い)」等である。これらは例示であり、より複雑な表情を指定するものであってもよいし、大中小ではなく数値にて区別されていてもよい。これらに対応する表情の顔画像データが顔画像DB81に登録されている。よって、表示制御部11は、トリガが発生した場合に、当該トリガに対応付けられた表情を指定する情報を基に、顔画像DB81から該当する表情の顔画像データ読み出し、表示部20に顔画像として表示させる。また、出力内容の「動作」としては、ロボット1での動作を指定する情報が登録される。よって、状態制御部14は、トリガが発生した場合に、当該トリガに対応付けられた動作を指定する情報を基に、ロボットにおける動作状態を決定し、決定した動作状態となるようにロボット1の各部を制御する。また、出力内容の「その他」としては、ロボット1にて出力できるものであれば、どのような情報が登録されてもよい。
対話シナリオ82では、音声トリガとして、単語1つに対応したものだけでなく、複数の単語の組み合わせに対応したものが登録されていてもよい。また、ある単語やあるフレーズに対応させて複数の発話データが登録されていてもよく、この場合、実際に音声出力されるものを選択すればよい。なお、発話データは、テキストデータとして格納しておけばよい。このような対話シナリオ82の構築については、公知技術が利用できる。
(表情の決定及び顔画像の表示の具体例)
以下にロボット1の各処理における表情の決定及び顔画像の表示について図5を参照に具体例(a)〜(f)を用いて説明する。
(a)挨拶処理
ロボット1は、図5の(a)に示すように、動作状態が待受状態(待受中)である場合には、状態パラメータ(ここでは、待受状態の表情を指定する情報)に応じて、フラットな表情(表情のない)に決定し、その顔画像を表示する。この場合、各パラメータの優先度は、感情パラメータ:感覚パラメータ:状態パラメータ=0:0:1となっている。
その後、「おはよう」のユーザ音声が入力されると、これをトリガとして、音声認識中を示す状態パラメータ、あるいは「おはよう」というユーザ音声の感情パラメータに応じて、「喜びが小」の表情に決定し、その顔画像を表示する。その後、動作状態が発話状態であるため、これに対応する状態パラメータ(ここでは、発話状態の表情を指定する情報)に応じて、「喜びが大」の表情に決定し、その顔画像を表示する。ここでは、「おはよう」などの単純な対話であるため、対話処理の表情の顔画像の表示を挟まず応答する。
(b)対話(情報検索)処理
図5の(b)に示すように、対話(情報検索)処理においても上記と同様に表情が決定され、決定した表情に応じた顔画像が表示される。なお、天気予報などの情報提供サーバ100からの情報の受信が必要な場合は、対話処理中の表情を挟むことで、応答のタイムラグをユーザに感じさせないようにすることができる。なお、音声認識を管理サーバにて行う場合にも応答に時間がかかるため、同様に対話処理の表情を挟むのが好ましい。
(c)センサ検知処理
図5の(c)に示すように、センサ検知処理においても上記と同様に表情が決定され、決定した表情に応じた顔画像が表示される。ここでは、所定値(例えば35℃)を超えたことと、表情により通知できる。所定温度をユーザにとって快適な値に設定しておくことで、ロボット1はその表情により、ユーザの周囲を安全で快適な通知することができる。ここでは、温度センサを例に用いて説明したが、他のセンサであっても同様である。
さらに、ロボット1は、センサ出力処理において、センサ部60にて検知した検知対象が所定値を超えている場合には、周囲の家電を操作可能に設けられていてもよい。例えば、各種センサ60aに温度センサが含まれており、この温度センサが周囲の温度として35℃以上を検知した場合、ロボット1は、図2に示すように、自機が設置されたユーザ宅4の、空気調和機(エアコン)5−1を予め設定された温度(例えば27℃)にて冷房運転するよう構成されていてもよい。あるいは、各種センサ60aに照度センサが含まれており、この照度センサがとして所定値以下を検知した場合、ロボット1は、図2に示すように、自機が設置されたユーザ宅4の、照明装置5−2をONにするよう構成されていてもよい。これらは、例示であり、ロボット1によって操作可能な家電は、これらに限定されるものではない。
このように、ロボット1が周囲の家電を操作可能であると、高齢や病気などでユーザの身体が不自由であったり、例えば、別の作業で手がふさがっていたり等で、ユーザが家電を操作できない場合でも、ロボット1にて家電を操作することができる。例えば、ロボット1がエアコン5−1を操作することで、ユーザを熱射病や脱水症状または低温症等から予防できる。例えば、ロボットが照明装置5−2を操作することで、ユーザに快適な照明環境を提供することができる。
家電の操作は、ロボット1から操作信号を赤外線通信や無線LAN通信などで送信することで行う。あるいは、管理サーバが、ロボット1が設置されたユーザ宅4に設置された家電と通信可能に構成されており、ロボット1から管理サーバへの通知により、管理サーバが家電を操作するように構成されていてもよい。
なお、ユーザ宅4にユーザを検知した場合にのみロボット1から家電を操作可能に構成されているのが好ましい。ユーザの検知は、カメラ60bにて、あるいは各種センサ60aに人感センサが含まれている場合にはこの人感センサにて、実施すればよい。
また、ロボット1からの家電の操作前には、操作の実行を確認する音声、例えば、「エアコン(または照明)つけていい?」といった音声データをロボット1から出力させて、ユーザから実行を許可する音声、例えば、「つけて」、「ONにして」、「OK」等といった肯定の音声が入力された場合に操作を実行する。このように、家電の操作を実行する前にはユーザの確認を取るのが安全性を確保する上で好ましい。
(d)不具合検知処理
図5の(d)に示すように、不具合検知処理においても上記と同様に表情が決定され、決定した表情に応じた顔画像が表示される。なお、状態出力中に音声認識を行うが、エラー時のため、ここでは「音声認識中」の表情にしない。
(e)モード切り替え(ミュート)処理
図5の(e)に示すように、モード切り替え処理においても上記と同様に表情が決定され、決定した表情に応じた顔画像が表示される。
(f)スリープ復帰処理
図5の(f)に示すように、スリープ復帰処理においても上記と同様に表情が決定され、決定した表情に応じた顔画像が表示される。この場合のセンサ入力は、人感センサやカメラ等により人を検知する等の復帰状態へのトリガとして用いられる。
(ロボット1のまとめ)
以上のように、ロボット1では、表示する顔画像の(ロボットが表出する)表情を、ユーザ音声又発話音声に対応付けられた「感情パラメータ」、センサ部の検知結果に対応付けられた「感覚パラメータ」、及びロボットの動作状態に対応付けられた「状態パラメータ」を用いて決定する。よって、ロボット1の表情は、ユーザ音声又発話音声、センサ部の検知結果、及びロボットの動作状態に依存して様々に変わることになる。なお、表情は画像にて表現するため、表情の種類を豊富に用意することがたやすく行え、ロボットにおいて複雑な処理をすることなく、表情を様々に変化させることが可能である。
よって、ロボット1において、表情のバリエーションを増やすことができ、あたかも人間のような多彩で複雑な表情の表出を実現させることが可能となる。そして、上記のように決定された表情の顔画像を表示することで、話し手であるユーザの感情に共感したり、ロボット1に感情があるような振る舞いをさせたり、直感的にロボットの状態をユーザに理解させたりすることができる。そのため、ロボット1は、ユーザが親しみをもって接することができ、ユーザとのより自然なコミュニケーションを行うことが可能となる。
さらに、感情パラメータ、感覚パラメータ、及び状態パラメータには、表情に及ぼす影響の強さを示す優先度が自機の動作状態に応じて設定されている場合には次のように表情を決定することができる。例えば、発話状態では、感情パラメータの優先度を最も高くし設定し、いずれの動作状態でも、致命的なエラーを検知した場合には感覚パラメータの優先度を最も高くすると言ったように、優先度に応じて適切に表情を決定することができる。
また、表示部20は、カラー表示可能に構成されていてもよい。この場合、表情決定部15は、表情と共に顔色も決定し、表示制御部11は、表情決定部15が決定した表情及び顔色に応じた顔画像を表示部20に表示させる。このような表示部20として、例えば、ロボット1内部にプロジェクタとRGBのLED発光素子とを設置し、各種表情の顔画像をプロジェクタにより投影し、RGBのLED発光素子を用いて混色することにより、表情及び顔色を有する顔画像の表示を実現することができる。あるいは、表示部20を液晶表示装置で構成してもよい。または別の構成にて、表情及び顔色を有する顔画像を表示可能にしてもよい。
表情に加え顔色のある顔画像を表示することで、同じ表情の顔画像であっても、顔色を異ならせることで別の顔画像として表示できる。よって、表示できる顔画像のバリエーションを増やすことができる。例えば、ロボット1が基本的な表情のみの少ない種類の顔画像のみを有する場合であっても、顔色によって、多彩なバリエーションの表現を実現することができる。
さらに、ロボット1の使用時間の経過(例えば、対話や接触の回数等)の増大に応じて、より多くの表情の顔画像を表示可能に構成されていてもよい。このように構成されていることで、ユーザはロボット1により愛着を持つことができる。
また、ロボット1は、カメラ60bから入力された画像からユーザの表情や位置を解析してそれに基づきユーザと対話をするように構成されていていてもよい。例えば、ロボット1の正面から見てユーザの位置が右方向であると認識した場合、ロボットの頭部を実際に右に向ける、あるいは、頭部に顔が右に向いて移動する状態を表示することで、ユーザの方を向いている、つまり応答可能であるという状態を示す構成であってもよい。
〔実施の形態2〕
以下では、本発明の別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施の形態に係るロボット1bは、顔画像を表示し、音声対話を行うロボットであり、その外観は、ロボット1と同様に、図2に示すように頭部2と胴体部3とを有する雪だるま型である。
本実施の形態のロボット1aの機能的構成は、図1に示すように、ロボット1と同様である。よって、ロボット1aは、ロボット1と同じ機能を備えている。ただし、ロボット1aの制御部10aにおける表示制御部11aは、ロボット1の制御部10における表示制御部11における機能に加え、以下の機能を有する。表示制御部11aは、表情決定部15が新たに決定した表情の新顔画像を表示し、その後、表情のユーザに与える印象(表情の強さ)が新顔画像と前に表示していた旧顔画像と新顔画像との中間に設定された顔画像を所定期間表示してから、旧顔画像の表示に戻すよう表示部20を制御する。
この表示制御部11aの制御について、図6を参照に具体例を用いて説明する。表示制御部11aは、図6の(a)に示すように、新たに決定された表情の新顔画像として「喜びが大」の表情の顔画像bGを表示させる際、次のように表示部20を制御する。旧顔画像であるフラットな表情の顔画像aGの表示の後、新顔画像である「喜びが大」の表情の顔画像bGを「喜びが大」の表情に応じて設定された期間表示し、その後、表情の強さが顔画像aGと顔画像bGとの中間に設定された「喜びが小」の顔画像cGを所定期間表示してから、顔画像aGの表示に戻すよう表示部20を制御する。さらに、表示制御部11aは、図6の(b)に示すように、新たに決定された表情の新顔画像として「怒りが中」の表情の顔画像dGを表示する際、次のように表示部20を制御する。旧顔画像であるフラットな表情の顔画像aGの表示の後、新顔画像である「怒りが中」の表情の顔画像dGを、「怒りが中」の表情に応じて設定された期間表示し、その後、表情の強さが顔画像aGと顔画像dGとの中間に設定された「怒りが小」の顔画像eGを所定期間表示してから、顔画像aGの表示に戻すよう表示部20を制御する。
図6に示す具体例からは、「喜びが大」の表情の顔画像bGの表示期間が、「怒りが中」の表情の顔画像dGの表示期間よりも長くなっていることがわかる。このように、表示制御部11aが、喜びの表情の顔画像bGは長い期間表示するが、怒りの表情の顔画像dGは短く表示するといった制御を行うことで、ユーザに安心感を与えることができる。なお、この制御は単なる例示である。よって、新顔画像を表示し、その後、表情のユーザに与える印象が中間に設定された顔画像を所定期間表示してから、旧顔画像の表示に戻す際の制御は、ここに開示された内容に限定されない。各顔画像の表情についても、各顔画像の表示期間(表情の保持時間)の設定についても、限定はされない。また、表情の強さが中間に設定された顔画像は、旧顔画像と新顔画像との間であれば、どちらかに寄っていても(似ていても)構わなく、「中間」はどのように設定されてもよい。
上記のように、ロボット1aでは、表情の強さが中間に設定された顔画像cGまたはeGが所定期間表示されてから、旧顔画像の表示に戻るため、ユーザがロボット1aの表情の変化についていきやすい。そのため、ユーザがより親しみをもってロボット1aに接することが可能となる。上記具体例では、表情の強さが中間に設定された顔画像は1つであるが、複数あってもよい。この場合、表情の強さの段階が徐々に小さくなるように各顔画像を表示し、旧顔画像に戻るように制御するとよい。このとき、表示部20がカラー画像を表示可能に設けられていれば、例えば、怒りの顔画像の顔色を赤色にし、この赤色が徐々に薄くなって、旧顔画像に戻るように、制御してもよい。
さらに、新顔画像bGまたはdGや、中間の顔画像cGまたはeGの表示期間を、ロボット1a毎に変化させることでロボット1aの個性を決めることもできる。表情の保持期間は、出荷時に設定してもよいし、ユーザが変更可能なっていてもよい。ロボット1aに個性を与えることで、ユーザはより親しみをもってロボット1aに接することができる。
〔実施の形態3〕
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1または2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施の形態に係るロボット1bは、顔画像を表示し、音声対話を行うロボットであり、その外観は、ロボット1と同様に、図2に示すように頭部2と胴体部3とを有する雪だるま型である。
図7は、本実施の形態に係るロボット1bの機能的構成を示すブロック図である。ロボット1bは、図7に示すように、表示制御部11b及びデータ格納部80の構成が図1に示す実施の形態1のロボット1とは異なるが、これら以外はロボット1と同様である。
ロボット1bは、モータ部50、センサ部60、ファン(図示せず)、表示部20(プロジェクタ)といった動的部分の不具合である機能的不具合に加え、動的部分の取り付けと言った性能的不具合について、以下で説明するように外部に通知することが可能である。
制御部10bは、ロボット1bの各部を統括制御するブロックであり、表示制御部11b、対話制御部12、不具合推測部16として機能する。
表示制御部11bは、表示部20を制御するブロックである。表示制御部11bは、表示部20を制御し、ロボット1の頭部2の顔領域に顔画像を表示させる。
対話制御部12bは、ユーザとの音声対話に必要な処理を行うブロックである。対話制御部12bは、音声入力部40から入力されたユーザ音声を音声認識し、当該音声認識結果に対応付けられた発話データを対話シナリオ82bから読み出し音声合成を行い、音声出力部30から出力する。あるいは、自律トリガが発生すると、当該自律トリガに対応付けられた発話データを対話シナリオ82bから読み出し音声合成を行い、音声出力部から出力する。なお、発話データが音声データである場合には音声合成は行わない。
不具合推測部16は、音声入力部(検知部)40から入力されたユーザ音声(ユーザアクション)、または、センサ部(検知部)60が検知したユーザアクションの少なくとも一方に基づき、ロボット1bにおける不具合を推測するブロックである。ここで、センサ部60にて検知されるユーザアクションとは、センサ部60の各種センサ60aに含まれるユーザの動作を検知できるセンサ、(例えば、タッチセンサ、加速度センサ、人感センサ等)、あるいはカメラ60bの少なくとも1つにて取得される、ユーザの動作に関する情報であればよい。なお、センサ部60に音声入力部40が含まれ、ユーザアクションにユーザからの音声入力が含まれてもよい。この場合、不具合推測部16は、センサ部60が検知したユーザアクションに基づき、ロボット1bにおける不具合を推測する。
不具合推測部16が推測した不具合の内容を示す情報または当該不具合の解消に必要な情報の少なくとも一方である不具合情報は、対話制御部(不具合通知部)12bの制御により、音声出力部30からの発話音声に反映させて通知する。あるいは、表示制御部(不具合通知部)11bの制御により、表示部20にて表示する顔画像の表情に反映させて通知する。
データ格納部80bは、ロボット1bにて用いられる各種情報(データ)を記憶するブロックである。また、データ格納部80bは、ロボット1bの表示部20が表示する顔画像のデータベースである顔画像DB81bと、ロボット1bが発話する発話データのデータベースである対話シナリオ82bとを格納している。顔画像DB81bには表情毎に顔画像データが登録されている。対話シナリオ82bには、音声認識結果及び自律トリガに対応付けて、発話データが登録されている。また、対話シナリオ82bには、不具合推測部16が推測した不具合に対応付けて、当該不具合の内容を示す情報または当該不具合の解消に必要な情報である不具合情報をロボット1bが発話するのに必要な発話データが登録されている。さらに、対話シナリオ82bには、発話データと対応付けて表情を指定する情報が登録されている。よって、ロボット1bが対話制御部12bによる制御によってある発話データに基づく発話を行う際に、表示制御部11bは、当該発話データに対応付けられた表情を指定する情報を基に、顔画像DB81bから該当する表情の顔画像データ読み出し、表示部20に顔画像として表示させる。よって、ロボット1bでは、不具合情報を発話音声または顔画像の表情の少なくとも一方に反映させて通知することができる。
ロボット1bによる不具合の推測及び不具合情報の通知について、具体例(1)〜(5)を用いて説明する。
(1)ロボット1bは、センサ部60によりユーザが付近にいることを検知したが、音声入力部40からの音声入力が無い(音声を拾えない)場合、対話制御部12bにより「何か言って」等のユーザによる音声入力を即す発話を行う。それでも音声が拾えない場合、不具合推測部16が、音声入力部40であるマイクが不良である(不具合が発生している)と推測する。そして、対話制御部12bにより「耳がおかしいよ」という発話を行う。また、表示部20がカラー画像を表示可能に構成されている場合には、対話制御部12bによる「耳がおかしいよ」等の発話と共に、またはこの発話に代えて、赤い色の耳を表示する。ここでは、「耳がおかしいよ」という発話及び/または赤い色の耳を表示により、不具合の内容を示す情報を通知する。
ユーザが付近にいることの検知は、センサ部60の各種センサ60aに含まれる、タッチセンサ、加速度センサ、人感センサ、及びカメラ60bの少なくとも1つを用いて行うことができる。これら以外のセンサにてユーザが付近にいることの検知を行ってもよい。また、ロボット1bは、ユーザが付近にいることを検知する代わりに、カメラによりユーザが口を動かしていることを検知すると言った複雑な検知が行えるように構成されていてもよい。
(2)ロボット1bは、「顔が変だよ」というユーザ音声を音声入力部40から取得すると、対話制御部12bにより「どう変なの?」という発話を行う。これに対して、「場所が変」というユーザ音声を取得すると、不具合推測部16は、表示部20であるプロジェクタの取り付けに不具合が発生していると推測する。そして、対話制御部12bにより「調子悪いから入院させて」と発話することで、不具合の解消に必要な情報を通知する。
また、「どう変なの?」という発話に対して、「色が変」というユーザ音声を取得すると、不具合推測部16は、表示部20であるプロジェクタが不良であると推測する。この場合も、対話制御部12bにより「調子悪いから入院させて」と発話することで、不具合の解消に必要な情報を通知する。
(3)ロボット1bは、「どっち向いているの?」というユーザ音声を音声入力部40から取得すると、対話制御部12bにより「右向くよ」と発話し、頭部2を回転させる制御を行う。そして、「向いた?」と発話する。これに対して、「はい」や「うん」と言ったユーザ音声を取得すると、不具合推測部16は、頭部2を回転させるモータの取り付け正常であるが、音声入力部40であるマイクが不良であると推測する。そして、対話制御部12bにより「耳の調子が悪いみたい」という発話を行い、不具合情報を通知する。この場合、(1)と同様に赤い色の耳を表示してもよい。
また、「向いた?」という発話に対して、「向いてないよ」や「ううん」と言ったユーザ音声を取得すると、不具合推測部16は、音声入力部40であるマイクの取り付けは正常であるが、頭部2を回転させるモータの取り付けが不良であると推測する。この場合、対話制御部12bにより「首の調子が悪いみたい」と発話することで、不具合情報を通知する。
(4)ロボット1bは、センサ部60の各種センサ60aに含まれる温度センサが35℃を超えたことを検知すると、対話制御部12bにより「暑くない?」と発話する。これに対して、「そうだね」や「暑いね」と言ったユーザ音声を取得すると、不具合推測部16は、温度センサは正常であると判断する。一方で、「暑くない?」との発話に対して、「いいや」、「暑くないよ」と言ったユーザ音声を取得すると、不具合推測部16は、温度センサが不良であると推測する。そして、対話制御部12bにより「熱っぽいから入院させて」という発話を行うことで、不具合情報を通知する。この場合、汗をかいた表情であり赤い顔色の顔画像を表示してもよい。
(5)ロボット1bは、カメラ60bからの画像と音声入力部40からのユーザ音声との取得により、付近にユーザがいることを検知したが、各種センサ60aに含まれる人感センサが反応しない場合、対話制御部12bにより「誰かいるの?」と発話する。これに対して、ユーザ音声を取得できた場合、人感センサの取り付けが不良であると推測する。(この推測は、以下の仮定に基づくものである。人感センサの出力値からある程度センサ自体の不良か取り付け不良かを判別できるため、出力値からセンサ自体の不良ではない判別した場合に、ユーザ音声を取得できても人感センサが反応しないのは、人感センサの取り付けが不良であると仮定する。)
そして、対話制御部12bにより「目が見えなくなってきた」という発話を行うことで、不具合情報を通知する。さらに、まばたきを早くする顔画像を表示することで、不具合情報を通知してもよい。
上記の不具合の推測及び不具合情報の通知はいずれも例示であり、これらに限定はされない。また、ユーザとの対話を重ねることで不具合を絞ることも可能である。また、表示部20は、不具合情報として、不具合を説明する文字を表示したり、ロボット1bのメーカーの電話番号やURLを表示したりしてもよい。また、ロボット1bは、特定の不具合を自動的に解消できるように構成されていたり、ユーザ操作により特定の不具合を解消できるように構成されていたりしてもよい。
以上のように、ロボット1bでは、ユーザ音声またはユーザアクションの少なくとも一方に基づき、つまり、ユーザとのより自然なコミュニケーションに基づき、自機の不具合を推測することができる。そして、不具合情報にて、ユーザに不具合の内容または不具合の解消に必要な情報を明確に通知することができる。このようにロボット1bでの不具合の推測及び不具合情報の通知は、コミュニケーションが重視されているので、ユーザは、ロボット1bに愛着を湧きやすく、不具合に対して適切に対処する可能性が高い。よって、ロボット1bの不具合が放置されるのが抑制され、ロボット1bのメンテナンスが適切に適時に行われることに繋がる。このように、ロボット1bは、ユーザが親しみをもって接することができ、ユーザとのより自然なコミュニケーションを行うことが可能である。
また、ロボット1bは、不具合情報を発話音声または顔画像の表情の少なくとも一方に反映させて通知することで、ユーザに、コミュニケーションをより重視して、わかり易く、不具合情報を通知することができる。なお、表情は画像で表示するため、表情の種類を豊富に用意することがたやすく行える。よって、ロボット1bにおいて複雑な処理をすることなく、表情を不具合情報に対応させたわかり易いものにすることが可能となる。
なお、従来のロボットでは、各部品や各センサの取り付け方と言ったロボットの性能的不具合については検知ができないため、通知もできない。これら性能的不具合を検知及び通知するには、多くの仕組みをロボットに搭載する必要があり、コストがかかり過ぎる。しかし、ロボット1bでは、性能的不具合についてもユーザ音声またはユーザアクションの少なくとも一方に基づき推測でき、通知可能である。よって、ロボット1bは、自機の不具合をコストを抑えて通知することができる。
〔実施の形態4〕
実施の形態1から3にて説明したロボット1,1a,1bは、それぞれ、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、ロボット1,1a,1bは、それぞれ、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラム及び各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)等を備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能であり、異なる実施の形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。さらに、各実施の形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
〔まとめ〕
本発明の態様1に係るロボット(1)は、顔画像を表示し、音声対話を行うロボットであって、自機へ入力されたユーザ音声または自機から出力する発話音声に対応付けられた感情パラメータ、自機が有するセンサ部の検知結果に対応付けられた感覚パラメータ、及び自機の動作状態に対応付けられた状態パラメータ、を用いて表情を決定する表情決定部(15)と、前記表情決定部が決定した表情に応じた顔画像を表示部(20)に表示させる表示制御部(11)と、を備えている。
上記構成によると、ロボットが表示する顔画像の(ロボットが表出する)表情を、ユーザ音声又発話音声に対応付けられた「感情パラメータ」、センサ部の検知結果に対応付けられた「感覚パラメータ」、及びロボットの動作状態に対応付けられた「状態パラメータ」を用いて決定する。よって、ロボットの表情は、ユーザ音声又発話音声、センサ部の検知結果、及びロボットの動作状態に依存して様々に変わることになる。なお、表情は画像にて表現するため、表情の種類を豊富に用意することがたやすく行え、ロボットにおいて複雑な処理をすることなく、表情を様々に変化させることが可能である。
よって、ロボットにおいて、表情のバリエーションを増やすことができ、あたかも人間のような多彩で複雑な表情の表出を実現させることが可能となる。そして、上記のように決定された表情の顔画像を表示することで、話し手であるユーザの感情に共感したり、ロボットに感情があるような振る舞いをさせたり、直感的にロボットの状態をユーザに理解させたりすることができる。そのため、上記構成によると、ユーザが親しみをもって接することができ、ユーザとのより自然なコミュニケーションを行うロボットを提供することが可能となる。
ここで、センサ部は、ロボット内部のまたはロボット周囲の環境を検知するセンサであれば特に限定はされない。例えば、ロボットのハードウエアの故障を検知するセンサ、温度センサ、湿度センサ、照度センサ、加速度センサ、タッチセンサ、加速度センサ、人感センサ、またはカメラであってもよい。また、センサ部は、これらのうちの複数を備えていてもよい。
本発明の態様2に係るロボットは、上記態様1に係るロボットにおいて、前記感情パラメータ、前記感覚パラメータ、及び前記状態パラメータには、表情に及ぼす影響の強さを示す優先度が自機の動作状態に応じて設定されており、前記表情決定部は、前記優先度に基づき前記各パラメータを用いて表情を決定する。
上記構成によると、ロボットの動作状態に応じて優先度が設定された、感情パラメータ、感覚パラメータ、及び状態パラメータに応じて表情が決定される。よって、例えば、発話状態では、感情パラメータの優先度が最も高くなるよう設定し、いずれの動作状態でも、致命的なエラーを検知した場合には感覚パラメータの優先度が最も高くなるよう設定しておけば、優先度に応じて適切に表情を決定することができる。なお、優先度は、上記3つ全てのパラメータを用いるように設定されていても、あるいは上記3つのうち1つまたは2つのパラメータを用いるように設定されていてもよい。
本発明の態様3に係るロボットは、前記感情パラメータは、前記ユーザ音声から推定されるユーザ感情または前記発話音声に対応付けられている。
上記構成によると、ロボットの表情を、ユーザ音声から推定されるユーザ感情または発話音声、センサ部の検知結果、及びロボットの動作状態に応じて決定する。表情の決定にユーザ感情が加味される場合には、話し手であるユーザの感情により共感した表情を表出することが可能となる。
本発明の態様4に係るロボット(1a)は、上記態様1から3のいずれか1つに係るロボットにおいて、前記表示制御部は、前記表情決定部により新たに決定された表情の顔画像を当該決定された表情に応じて設定された期間表示し、その後、前記新たに決定した表情の顔画像の前に表示していた顔画像の表示に戻すよう前記表示部を制御する前記表示部を制御する。
上記構成によると、例えば、新たに決定した表情の顔画像として、喜びの表情の顔画像は長く表示するが、怒りの表情の顔画像は短く表示するといった制御を行うことで、ユーザに安心感を与えることができる。また、新たに決定した表情の顔画像の表示期間(表情の保持時間)を、ロボット毎に変化させることでロボットの個性を決めることもできる。
本発明の態様5に係るロボットは、上記態様4に係るロボットにおいて、前記表情決定部が新たに決定した表情の新顔画像を表示し、その後、表情のユーザに与える印象が前記新顔画像の前に表示していた旧顔画像と前記新顔画像との中間に設定された顔画像を所定期間表示してから、前記旧顔画像の表示に戻すよう前記表示部を制御する。
上記構成によると、ロボットにおいて、表情のユーザに与える印象が中間に設定された顔画像が所定期間表示されてから、旧顔画像の表示に戻るため、ユーザがロボットの表情の変化についていきやすい。そのため、ユーザがより親しみをもってロボットに接することが可能となる。
本発明の態様6に係るロボットは、上記態様1から5のいずれか1つに係るロボットにおいて、前記表示部は、カラー表示可能に構成されており、前記表情決定部は、表情と共に顔色も決定し、前記表示制御部は、前記表情決定部が決定した表情及び顔色に応じた顔画像を前記表示部に表示させる。
上記構成によると、表情に加え顔色のある顔画像を表示することができる。よって、例えば、同じ表情の顔画像であっても、顔色を異ならせることで別の顔画像として表示できる。このように、上記構成によると、表示できる顔画像のバリエーションを増やすことができる。
本発明の態様7に係るロボット(1b)は、顔画像を表示し、音声対話を行うロボットであって、自機が有する検知部(音声入力部40、センサ部60)が検知したユーザアクションに基づき、自機における不具合を推測する不具合推測部(16)と、前記推測された不具合の内容を示す情報または当該不具合の解消に必要な情報の少なくとも一方である不具合情報を外部に通知する不具合通知部(対話制御部12、表示制御部11b)と、を備えている。
上記構成によると、ロボットは、ユーザアクションに基づき自機の不具合を推測し、不具合情報を外部に通知する。ユーザアクションはユーザからのロボットへのアクションであり、例えば、音声入力、接触、抱き上げ等である。よって、ユーザとの自然なコミュニケーションに基づき、自機の不具合を推測することができる。そして、不具合情報にて、ユーザに不具合の内容または不具合の解消に必要な情報を明確に通知することができる。このような不具合の推測及び不具合情報の通知は、コミュニケーションが重視されているので、ユーザは、ロボットに愛着を湧きやすく、不具合に対して適切に対処する可能性が高い。よって、ロボットの不具合が放置されるのが抑制され、ロボットのメンテナンスが適切に適時に行われることに繋がる。
ここで、検知部は、ユーザアクションを検知できるものであればどのようなセンサであってもよい。検知部は、例えば、音声入力部(マイク)、タッチセンサ、加速度センサ、人感センサ、及びカメラの少なくとも1つを含んでいてもよい。
以上からわかるように、上記構成によると、ユーザが親しみをもって接することができ、ユーザとのより自然なコミュニケーションを行うことが可能なロボットを提供することができる。
なお、従来のロボットでは、ハードウエアの故障といったロボットの機能的不具合については、エラー番号を表示したり警告音を出したりすることで通知できるが、各部品や各センサの取り付け方と言ったロボットの性能的不具合については検知ができないため、通知もできない。これら性能的不具合を検知及び通知するには、多くの仕組みをロボットに搭載する必要があり、コストがかかり過ぎる。しかし、本発明の上記構成によると、性能的不具合についてもユーザアクションに基づき推測でき、通知可能である。よって、上記構成によると、ロボットの不具合をコストを抑えて通知することが可能となる。
本発明の態様8に係るロボットは、上記態様7に係るロボットにおいて、前記不具合通知部は、前記不具合情報を、音自機から出力する発話音声または自機にて表示する顔画像の表情の少なくとも一方に反映させて通知する。
上記構成によると、不具合情報を、発話音声または顔画像の表情の少なくとも一方に反映させて通知することで、ユーザに、コミュニケーションをより重視して、わかり易く、不具合情報を通知することができる。なお、表情は画像で表示するため、表情の種類を豊富に用意することがたやすく行える。よって、ロボットにおいて複雑な処理をすることなく、表情を不具合情報に対応させたわかり易いものにすることが可能となる。
本発明の態様9に係るロボットは、上記態様7または8に係るロボットにおいて、前記不具推測部は、前記推測した不具合を、さらに自機に入力されたユーザ音声に基づき限定し、前記不具合通知部は、前記限定された不具合についての前記不具合情報を通知する。
上記構成によると、推測した不具合をユーザ音声にて絞ることができる。よって、不具合情報を詳細に通知することが可能となる。よって、ユーザにより適切な対応を行わせることができる。
本発明の態様10に係るロボットは、上記態様7から9のいずれか1つに係るロボットにおいて、前記推測された不具合を解消する調整部を備えている。
上記構成によると、調整部が不具合を自動で解消できるものであれば、ユーザに負担をかけることなく不具合を解消できる。また、調整部をユーザが操作できるものであれば、ユーザが調整部を操作して不具合を解消することができる。
本発明の態様11に係るコミュニケーションシステムは、上記態様1から10のいずれか1つに係るロボットと、当該ロボットにユーザとの対話に必要な情報を提供するサーバ装置(情報提供サーバ100)とを備えている。
上記コミュニケーションシステムによると、サーバ装置からユーザとの対話に必要な情報をロボットに提供することで、ロボットでは、バリエーションに富んだ情報にて対話を行うことができ、より自然なコミュニケーションを行うことが可能となる。
本発明の態様12に係る制御方法は、顔画像を表示し、音声対話を行うロボットの制御方法であって、前記ロボットへ入力された音声または自機から出力する音声に対応付けられた感情パラメータ、前記ロボットが有するセンサ部の検知結果に対応付けられた感覚パラメータ、及び前記ロボットの動作状態に対応付けられた状態パラメータ、を用いて表情を決定する表情決定ステップと、前記表情決定ステップにて決定した表情に応じた顔画像を前記ロボットの表示部に表示させる表示制御ステップとを含む。
上記制御方法によると、態様1に係るロボットと同様の効果を奏し、ユーザが親しみをもって接することができ、ユーザとのより自然なコミュニケーションを行うようにロボットを制御することができる。
本発明の態様13に係る制御方法は、顔画像を表示し、音声対話を行うロボットの制御方法であって、前記ロボットへのユーザのアクションに基づき、前記ロボットにおける不具合を推測する不具合推測ステップと、前記不具合推測ステップにて推測された不具合の内容を示す情報または当該不具合の解消に必要な情報の少なくとも一方である不具合情報を外部に通知する不具合通知ステップと、を含む。
上記制御方法によると、態様7に係るロボットと同様の効果を奏し、ユーザが親しみをもって接することができ、ユーザとのより自然なコミュニケーションを行うようにロボットを制御することができる。
また、本発明の各態様に係るロボットは、コンピュータによって実現してもよく、この場合には、コンピュータを、ロボットが備える表情決定部及び表示制御部、または、不具合推測部及び不具合通知部として動作させることにより、ロボットを、コンピュータにて実現させるプログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は、ユーザと音声対話を行うコミュニケーションロボット等に利用可能である。
1,1a,1b ロボット
10,10a,10b 制御部
11,11a 表示制御部
11b 表示制御部(不具合通知部)
12 対話制御部(不具合通知部)
13 環境認識部
14 状態制御部
15 表情決定部
16 不具合推測部
20 表示部
30 音声出力部
40 音声入力部(検知部)
50 モータ部
60 センサ部(検知部)
80 データ格納部
82,82b 対話シナリオ
100 情報提供サーバ

Claims (3)

  1. 顔画像を表示し、音声対話を行うロボットであって、
    自機へ入力されたユーザ音声または自機から出力する発話音声に対応付けられた感情パラメータ、自機が有するセンサ部の検知結果に対応付けられた感覚パラメータ、及び自機の動作状態に対応付けられた状態パラメータ、を用いて表情を決定する表情決定部と、
    前記表情決定部が決定した表情に応じた顔画像を表示部に表示させる表示制御部と、を備え
    前記表示制御部は、前記表情決定部により新たに決定された表情の新顔画像を当該決定された表情に応じて設定された期間表示し、その後、表情のユーザに与える印象が、前記新顔画像と前記新顔画像の前に表示していた旧顔画像との中間に設定された顔画像を所定期間表示してから、前記旧顔画像の表示に戻すよう前記表示部を制御する、ことを特徴とするロボット。
  2. 前記感情パラメータ、前記感覚パラメータ、及び前記状態パラメータには、表情に及ぼす影響の強さを示す優先度が自機の動作状態に応じて設定されており、
    前記表情決定部は、前記優先度に基づき、前記感情パラメータ、前記感覚パラメータ、及び前記状態パラメータを用いて表情を決定することを特徴とする請求項1に記載のロボット。
  3. 前記表示部は、カラー表示可能に構成されており、
    前記表情決定部は、表情と共に顔色も決定し、
    前記表示制御部は、前記表情決定部が決定した表情及び顔色に応じた顔画像を前記表示部に表示させることを特徴とする請求項1または2に記載のロボット。
JP2015074169A 2015-03-31 2015-03-31 ロボット Expired - Fee Related JP6359478B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015074169A JP6359478B2 (ja) 2015-03-31 2015-03-31 ロボット
PCT/JP2016/051324 WO2016157944A1 (ja) 2015-03-31 2016-01-18 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015074169A JP6359478B2 (ja) 2015-03-31 2015-03-31 ロボット

Publications (2)

Publication Number Publication Date
JP2016193466A JP2016193466A (ja) 2016-11-17
JP6359478B2 true JP6359478B2 (ja) 2018-07-18

Family

ID=57004125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015074169A Expired - Fee Related JP6359478B2 (ja) 2015-03-31 2015-03-31 ロボット

Country Status (2)

Country Link
JP (1) JP6359478B2 (ja)
WO (1) WO2016157944A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163614A (ja) * 2017-03-27 2018-10-18 カシオ計算機株式会社 自律移動装置、自律移動方法およびプログラム
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
CN107340859B (zh) * 2017-06-14 2021-04-06 北京光年无限科技有限公司 多模态虚拟机器人的多模态交互方法和系统
KR102034255B1 (ko) * 2017-06-29 2019-10-18 네이버 주식회사 사람-기계 간 감정 대화를 위한 방법 및 시스템
CN109521927B (zh) * 2017-09-20 2022-07-01 阿里巴巴集团控股有限公司 机器人互动方法和设备
JP7020159B2 (ja) 2018-02-07 2022-02-16 トヨタ自動車株式会社 コミュニケーション装置およびその制御プログラム
CN108960403B (zh) * 2018-07-04 2023-07-04 腾讯科技(深圳)有限公司 情感确定方法、计算机可读存储介质及计算机设备
JP6800183B2 (ja) * 2018-07-13 2020-12-16 本田技研工業株式会社 コミュニケーション装置
JP7169840B2 (ja) * 2018-10-19 2022-11-11 東京瓦斯株式会社 情報処理システムおよびプログラム
KR102480556B1 (ko) * 2020-11-26 2022-12-23 주식회사 제페토로보틱스 교육용 로봇의 동작보정 시스템 및 동작보정 방법
US20230032760A1 (en) * 2021-08-02 2023-02-02 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3792882B2 (ja) * 1998-03-17 2006-07-05 株式会社東芝 感情生成装置及び感情生成方法
JP2001150374A (ja) * 1999-11-25 2001-06-05 Sony Corp ロボットの故障診断システム
JP4556024B2 (ja) * 2004-10-04 2010-10-06 株式会社国際電気通信基礎技術研究所 ロボットおよびロボットシステム
JP2006212717A (ja) * 2005-02-01 2006-08-17 Advanced Telecommunication Research Institute International ロボット装置
JP2006289508A (ja) * 2005-04-05 2006-10-26 Sony Corp ロボット装置及びその表情制御方法
JP2007152470A (ja) * 2005-12-02 2007-06-21 Mitsubishi Heavy Ind Ltd 自己診断機能付きロボット
JP2008107673A (ja) * 2006-10-27 2008-05-08 Business Design Kenkyusho:Kk 会話ロボット
JP2008186075A (ja) * 2007-01-26 2008-08-14 Advanced Telecommunication Research Institute International インタラクティブ画像表示装置

Also Published As

Publication number Publication date
WO2016157944A1 (ja) 2016-10-06
JP2016193466A (ja) 2016-11-17

Similar Documents

Publication Publication Date Title
JP6359478B2 (ja) ロボット
KR102306624B1 (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
CN111869185B (zh) 生成基于IoT的通知并提供命令以致使客户端设备的自动助手客户端自动呈现基于IoT的通知
US20230305530A1 (en) Information processing apparatus, information processing method and program
WO2016052164A1 (ja) 対話装置
US11302325B2 (en) Automatic dialogue design
US20240045440A1 (en) Electronic apparatus and control method therof
KR102071116B1 (ko) 휴머노이드 로봇의 대기 모드
US20230266767A1 (en) Information processing apparatus, information processing method, and program
US20240095143A1 (en) Electronic device and method for controlling same
US11240058B2 (en) System and method to view occupant status and manage devices of building
WO2016206643A1 (zh) 机器人交互行为的控制方法、装置及机器人
US11429339B2 (en) Electronic apparatus and control method thereof
US11938625B2 (en) Information processing apparatus, information processing method, and program
KR102346158B1 (ko) 감성지능 교육 ai 스피커 시스템
KR20230047434A (ko) 어시스턴트 디바이스(들)의 주변 감지에 기초한 어시스턴트 액션(들) 추론하기
KR20210056220A (ko) 교환 가능한 멀티모달 인간 인터랙션 시스템
US11731262B2 (en) Robot and method for operating the same
JP7202836B2 (ja) コミュニケーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180620

R150 Certificate of patent or registration of utility model

Ref document number: 6359478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees