JP2017064862A - ロボット装置 - Google Patents

ロボット装置 Download PDF

Info

Publication number
JP2017064862A
JP2017064862A JP2015194851A JP2015194851A JP2017064862A JP 2017064862 A JP2017064862 A JP 2017064862A JP 2015194851 A JP2015194851 A JP 2015194851A JP 2015194851 A JP2015194851 A JP 2015194851A JP 2017064862 A JP2017064862 A JP 2017064862A
Authority
JP
Japan
Prior art keywords
robot apparatus
feature image
image
displayed
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015194851A
Other languages
English (en)
Inventor
梅原 尚子
Naoko Umehara
尚子 梅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015194851A priority Critical patent/JP2017064862A/ja
Priority to PCT/JP2016/055484 priority patent/WO2017056520A1/ja
Publication of JP2017064862A publication Critical patent/JP2017064862A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators

Abstract

【課題】簡便な構成で顔の向きが変化したようにユーザに視認させる。【解決手段】ロボット装置において、顔画像を上部筐体(2a)の投影領域(5)の縁部に表示する場合、顔画像(6)を投影領域(5)の中央部に表示する場合に比べて、中央部から縁部への方向のサイズを縮小した顔画像(6a)を表示する。【選択図】図1

Description

本発明は、頭部を備えるロボット装置に関する。
近年、人間とのコミュニケーションが可能なロボット技術の開発が進んでいる。人間同士のコミュニケーションでは、言語を用いたコミュニケーション(言語コミュニケーション)よりも、顔の表情、顔の向き、視線、身振りなど、言語以外の手段を用いたコミュニケーション(非言語コミュニケーション)の方が重要な役割を担う場合がある。それゆえ、人間とのコミュニケーション機能を備えるロボット装置においても、非言語コミュニケーションを適切に実行できることが望ましい。これにより、人間とのコミュニケーションを、さらに高度かつ円滑なものにすることができる。
顔の向きを変化させるロボット装置の例としては、特許文献1、2に記載のものが挙げられる。特許文献1に記載のコミュニケーションロボットは、顔に相当する部位において感情状態に基づいて生成された表情を曲面ディスプレイ上に画像として表示させる画像表示部と、表情の一部として首の運動も含めるために上記画像表示部および運動機構を一体化した機構とを備えている。これにより、上記画像表示部を人の頭部のように運動させることができる。
また、特許文献2に記載のロボット装置は、透光性の球状のスクリーンからなる頭部を胴体部に取り付け、該胴体部の内部に顔の表情を投影するための液晶プロジェクタを設けたものである。上記スクリーンの内周面に上記液晶プロジェクタから映像光を出射し、上記頭部に表情映像を投影すると共に、上記液晶プロジェクタに与える映像を変化させることで、顔の表情及び/または向きを変化させることができる。
特開2006−043780号公報(2006年 2月16日公開) 特開2006−212717号公報(2006年 8月17日公開) 特開平8−314401号公報(1996年11月29日公開)
しかしながら、特許文献1に記載のコミュニケーションロボットは、運動機構を備える必要があり、装置規模が増大する結果となる。また、特許文献2に記載のロボット装置は、上記液晶プロジェクタから映像光が上記球状のスクリーンの全体に照射される必要がある。このため、出力する光量の大きな液晶プロジェクタを利用する必要があり、装置規模が増大する結果となる。
本発明は、上記問題点に鑑みてなされたものであり、その目的は、簡便な構成で、例えば顔のような、本体の表面の特徴部分の向きが変化したようにユーザに視認させることができるロボット装置などを提供することにある。
上記の課題を解決するために、本発明の一態様に係るロボット装置は、該ロボット装置の本体の表面における一部領域に予め設定された表示可能領域に、当該表面を特徴付ける特徴部分を示す特徴画像を表示するための表示部と、該表示部を制御する制御部と、を備えており、該制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、当該特徴画像を前記表示可能領域の中央部に表示する場合に比べて、前記中央部から前記縁部への方向のサイズを縮小した前記特徴画像を表示するように、前記表示部を制御することを特徴としている。
本発明の一態様によれば、簡便な構成で、本体の表面の特徴部分の向きが変化したようにユーザに視認させることができるという効果を奏する。
本発明の一実施形態に係るロボット装置において、プロジェクタから投影される顔画像を示す図である。 上記ロボット装置の外観を示す正面図である。 上記ロボット装置の内部の要部構成を示す断面図である。 上記ロボット装置の概略構成を示すブロック図である。 上記ロボット装置の一変形例において、上記プロジェクタから投影される顔画像を示す図である。 上記ロボット装置の別の変形例において、上記プロジェクタから投影される顔画像を示す図である。 本発明の別の実施形態に係るロボット装置において、プロジェクタから投影される顔画像を示す図である。 本発明の他の実施形態に係るロボット装置の内部の要部構成を示す断面図である。 上記ロボット装置において、深刻なエラーが発生した場合にプロジェクタから投影される画像を示す図である。
以下、本発明の実施の形態について、詳細に説明する。なお、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付記し、適宜その説明を省略する。
〔実施形態1〕
まず、本発明の一実施形態について、図1〜図4を参照して説明する。
(ロボット装置の外観)
図2は、本実施形態におけるロボット装置1の外観を示す正面図である。本実施形態のロボット装置1は、人間とのコミュニケーションが可能なコミュニケーションロボットとして機能するものであり、その外観は、図2に示すように頭部(本体)と胴体部とを有する雪だるま型である。なお、ロボット装置1の外観は、図示したものに限定されず、例えば、図2の外観にさらに腕部、脚部などを有していてもよい。あるいは、ヒューマノイド型であっても、ペット型であってもよい。
ロボット装置1は、その頭部の表面に顔画像(特徴画像)が表示され、該顔画像を、後述のセンサ部の検知結果に基づき変更したり、ユーザとの対話内容に基づき変更したりすることにより、表情(非言語コミュニケーション)を表出することができる。ロボット装置1は、本来の表情である喜怒哀楽に加え、汗をかいたり震えたりする顔画像を表示することで、人間により近い表情を表出することが可能である。このように、ロボット装置1は顔の表情を様々に変化できるため、ロボット装置1が感情を持っているように見せかけることができる。そのため、ユーザは、より親しみや愛着をもってロボット装置1に接することができる。
さらに、ロボット装置1は、音声認識機能及び発話機能を有しており、音声(音声信号)が入力されると音声認識を行い、その認識結果に応じた発話を行う。よって、ユーザは自然言語を用いた音声によってロボット装置1との対話(言語コミュニケーション)を行うことが可能である。
図2に示すように、本実施形態のロボット装置1は、上記頭部に相当する球状の上部筐体2aと、上記胴体部に相当する球状の下部筐体2bと、上記雪だるまの首巻に相当する装飾部材3とを具備している。上部筐体2aは、内部から外部への光の一部が透過・散乱する透光性の材料からなる一方、下部筐体2bおよび装飾部材3は遮光性の材料からなる。なお、下部筐体2bも上部筐体2aと同様に透光性の材料を用いて形成されてもよい。
上部筐体2aと下部筐体2bとは、それぞれ一体成型されており、開口部20aと開口部20bとを有している。下部筐体2bの開口部20bに装飾部材3が取り付けられ、装飾部材3に上部筐体2aの開口部20aが嵌合することにより、図2に示すような雪だるまの形状となる。装飾部材3により、開口部20aと開口部20bとは外部から見えないように隠される。なお、装飾部材3は、上部筐体2aおよび下部筐体2bに配された他の構造(例えば、吸気孔、排気孔など)を外部から見えないように隠してもよい。
上部筐体2aは、リアプロジェクション方式により、内側から投影された画像が表示される投影領域5(表示可能領域)を有している。この投影領域5は、上部筐体2aの一部に予め設定されている。図2では、雪だるまの顔を示す画像(顔画像)が投影領域5に投影された様子が示されている。この顔画像は、上部筐体2aの内側から投影されているため、投影する顔画像を変更するだけで、笑顔、泣き顔、怒った顔など、顔の表情を容易に切り替えることができる。
(ロボット装置の内部構成)
図3は、ロボット装置1の内部の要部構成を示す断面図である。図3に示すように、上部筐体2aおよび下部筐体2bによって囲まれた空間内の適所にプロジェクタ10および反射板11が設けられている。図3の例では、プロジェクタ10は、下部筐体2bの中心から前方に配置されており、反射板11は、上部筐体2aの中心から後方に配置されている。プロジェクタ10からの光は、図3にて破線矢印で示すように、上方かつ後方に出射し、反射板11にて反射して、投影領域5へ投影される。
なお、反射板11に代えて、プリズムなど、プロジェクタ10からの光の方向を屈曲させる任意の光学要素を利用することができる。また、図3には示していないが、ロボット装置1の内部には、プロジェクタ10および反射板11以外にも、電源ユニット、ファンなど、ロボット装置1の動作に必要な任意の構成要素が設けられている。
(顔画像の移動)
図1は、本実施形態のロボット装置1において、プロジェクタ10から投影される顔画像を示す図であって、該顔画像の表示位置を、投影領域5の中央部から右側に移動させる場合を示す図である。図1において、図面に向かって左側には、投影領域5が平面であると仮定した場合に投影される画像が示されている。この画像は、プロジェクタ10から出射される画像の鏡像に対応し、プロジェクタ10から反射板11に投影される画像に対応する。一方、図面に向かって右側には、球状の上部筐体2aに投影される画像が示されている。
図1の(a)は、投影領域5の中央部に顔画像6が表示される場合を示している(同図の左側)。この場合、上部筐体2aの正面に顔画像6が表示されることになる(同図の右側)。このとき、ロボット装置1の正面と対向しているユーザは、ロボット装置1の顔が前方向を向いているように視認することになる。
一方、図1の(b)は、投影領域5の中央部から右側に顔画像6が表示される場合を示している(同図の左側)。この場合、上部筐体2aの正面から右側に顔画像6が表示されることになる(同図の右側)。このとき、上部筐体2aが球面であるから、表示される顔画像6は、図1の(a)の場合に比べて、左目の画像7aが前方に、右目の画像7bが後方にそれぞれ位置することになる。従って、上記ユーザは、ロボット装置1の顔が前方向から稍右方向を向いているように視認することになる。
そして、図1の(c)は、投影領域5の右部(縁部)に、横方向(移動方向)のサイズが縮小された顔画像6aが表示される場合を示している(同図の左側)。この場合、上部筐体2aの正面から右側(横方向)に、上記縮小された顔画像6aが表示されることになる(同図の右側)。従って、投影領域5に顔画像を、図1の(a)〜(c)の順で投影することにより、顔画像がアニメーション表示されるので、顔の向きが徐々に変化したように、ユーザに視認させることができる。
ところで、或る回転体が実在し、該回転体の周面に描かれた図形にユーザが対向している場合に、当該回転体が回転軸の周りに回転すると、ユーザは、該回転により当該図形が移動する方向のサイズが縮小された図形をユーザは視認することになる。
従って、図1の(c)に示す顔画像6aを視認したユーザは、あたかも、ロボット装置1の頭部が回転して、上記顔が右方向から稍前方向を向いているように顔画像6aを視認することになる。
これにより、プロジェクタ10および反射板11を回転させる駆動機構を備えること無しに、上記顔の向きが変化したようにユーザに視認させることができる。また、投影領域5が上部筐体2aの一部領域に限定されるので、上部筐体2aの全領域を表示するプロジェクタに比べて、小型であり、消費電力が低く、その結果安価なプロジェクタ10を利用することができる。以上より、本実施形態のロボット装置1は、簡便な構成で顔の向きが変化したようにユーザに視認させることができる。
なお、顔画像6aは、上記中央部から右方向への変位量に応じて、横方向のサイズを縮小してもよい。この場合、顔の向きが変化したように、よりリアルにユーザに視認させることができる。
また、顔画像6aは、投影領域5に収まるように、横方向のサイズを縮小してもよい。この場合、顔画像6aの一部が欠落して表示されることを防止でき、顔画像6aの表示品質を維持することができる。
また、縮小前の顔画像6が投影領域5に収まる場合には、縮小前の顔画像6を表示する一方、縮小前の顔画像6が投影領域5からはみ出す場合には、縮小した顔画像6aを表示してもよい。この場合、顔画像を右部に表示するときでも、縮小前の顔画像6を利用することができ、縮小した顔画像6aの準備数を減らすことができる。
なお、本実施形態では、顔の向きが変化したようにユーザに視認させるために、図1の(a)〜(c)に示す3つの画像を順に表示しているが、表示する画像の数(コマ数、フレーム数)はこれに限定されるものでは無い。例えば、図1の(a)・(c)に示す2つの画像を順に表示してもよいし、4つ以上の画像を順に表示してもよい。顔の向きが滑らかに変化したようにユーザに視認させることができるような数の画像を順に表示することが好ましい。
(ロボット装置の概略構成)
図4は、ロボット装置1の概略構成を示すブロック図である。図4に示すように、ロボット装置1は、ロボット装置1は、制御部30、記憶部31、表示部32、音声入力部33、音声出力部34、撮影部35、およびセンサ部36を備えている。
制御部30は、ロボット装置1内の各種構成を統括的に制御するものであり、CPU(Central Processing Unit)などのプロセッサを備える構成である。記憶部31は、各種のデータおよびプログラムを記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)などの記憶素子を備える構成である。なお、制御部30および記憶部31の詳細については後述する。
表示部32は、制御部30からの画像のデータに基づいて、表示画面に上記画像を表示するものである。本実施形態では、表示部32は、制御部30からの顔画像のデータに基づいて、ロボット装置1の投影領域5に様々な顔画像を表示し、その結果、ロボット装置1にて喜怒哀楽等の表情を表出するものである。具体的には、表示部32は、上述のように、リアプロジェクション方式でプロジェクタ10および反射板11によりロボット装置1の投影領域5に顔画像を表示している。
音声入力部33は、外部から入力された音波を、音声データに変換して制御部30に送信するものである。具体的には、音声入力部33はマイクロホン、アンプ、A/D変換器などを備える構成である。
音声出力部34は、制御部30からの音声データを音波に変換して外部に出力するものである。具体的には、音声出力部34は、D/A変換器、アンプ、スピーカなどを備える構成である。
撮影部35は、被写体の撮影を行って映像データを生成するものである。具体的には、撮影部35は、被写体からの光を電気信号に変換するCCD(Charge Coupled Device)、CMOS(Complementary Metal-oxide Semiconductor)イメージセンサなどの撮像素子と、該撮像素子からの電気信号をRGB各色のデジタル映像データに変換する映像処理回路とを備える構成である。撮影部35は、生成した映像データを制御部30に送信する。
センサ部36は、ロボット装置1の周囲の環境を検知するためのものである。具体的には、センサ部36は、赤外線センサ、温度センサ、湿度センサなどの各種センサを備える構成である。センサ部36は、検知結果を示す検知データを制御部30に送信する。
なお、ロボット装置1は、自装置を移動させたり回転させたりするための動作部を備えていてもよい。
(ロボット装置の詳細)
次に、制御部30および記憶部31の詳細について説明する。図4に示すように、制御部30は、音声認識部40、応答情報取得部41、表示制御部42、および発話制御部43を備える構成である。また、記憶部31には、応答テーブル50、顔画像データ51(特徴画像のデータ)、および発話データ52が記憶されている。
応答テーブル50は、種々の条件と、応答内容を示す応答情報とを対応付けたものである。上記条件の対象としては、音声の内容、外部からの指示の内容、時刻、温度、湿度など、種々のものが考えられる。顔画像データ51は、ロボット装置1の投影領域5に表示される各種の顔画像を示すものである。発話データ52は、ロボット装置1が発話する内容を示すものである。
本実施形態では、顔を横に向けた場合の顔画像として、図1(a)・(b)に示すような通常の(縮小前の)顔画像を示す顔画像データ51と、図1(c)に示すような縮小された顔画像を示す顔画像データ51と、が記憶部31に記憶されている。これにより、制御部30は、上記顔画像を縮小する処理が不要となる。
音声認識部40は、ユーザからの入力音声を認識するものである。具体的には、音声認識部40は、音声入力部33から入力された音声データをテキストデータに変換し、該テキストデータを解析して単語および/またはフレーズを抽出する。なお、音声認識の処理については、公知技術を用いることができるので、その説明を省略する。
応答情報取得部41は、記憶部31に記憶された応答テーブル50を参照して、該応答テーブル50に含まれる種々の条件の何れが合致したかを判断し、合致した条件に対応する応答情報を取得するものである。
表示制御部42は、応答情報取得部41が取得した応答情報に対応する顔画像データ51を、記憶部31から読み出して表示部32に送信することにより、当該顔画像データ51によって示される顔画像をロボット装置1の頭部の投影領域5に表示するように、表示部32を制御するものである。本実施形態では、上記応答情報が、顔を横に向けることを示すものである場合、表示制御部42は、図1の(a)〜(c)に示す顔画像を順番に表示するように表示部32を制御する。
発話制御部43は、応答情報取得部41が取得した応答情報に対応する発話データ52を、記憶部31から読み出し、読み出した発話データに対応する音声データ(音声、音声情報)を生成(音声合成)して、音声出力部34から出力させるものである。なお、発話データが音声データとして生成されている場合、発話制御部43は、上記音声合成の処理を省略すればよい。
(付記事項)
本実施形態では、応答テーブル50は、ロボット装置1内の記憶部31に記憶されているが、外部のサーバに記憶されていてもよい。この場合、応答情報取得部41は、種々の条件の何れが合致したかを判断し、合致した条件を、通信ネットワークを介して上記サーバに送信して、該サーバから応答情報を、通信ネットワークを介して受信すればよい。
また、上記実施形態では、表示部32としてプロジェクタ10を利用しているが、投影領域5を表示可能領域とする、LCD(Liquid Crystal Display)、EL(Electroluminescence)ディスプレイなどのフラットパネルディスプレイを用いてもよい。この場合、顔画像は、図1の左側のような表示となる。
また、上記実施形態では、投影領域5に顔画像のみを表示しているが、その他の情報を表示してもよい。この場合も、その他の情報を示す画像を横方向に移動する場合には、図1の(c)と同様に、当該画像のサイズを横方向に縮小した画像を表示することが望ましい。
また、筐体2a・2bは完全な球面でなくてもよい。同様に投影領域5も完全な球面でなくてもよい。
〔変形例1〕
なお、上記実施形態では、プロジェクタ10から投影される顔画像の表示位置を、投影領域5の中央部から右側に移動させているが、中央部から下側に移動させることもできる。
図5は、本実施形態のロボット装置1の変形例において、プロジェクタ10から投影される顔画像を示す図であって、該顔画像の表示位置を、投影領域5の中央部から下側に移動させる場合を示す図である。図1と同様に、図5において、図面に向かって左側には、投影領域5が平面であると仮定した場合に投影される画像が示される一方、図面に向かって右側には、球状の上部筐体2aに投影される画像が示されている。なお、図5の(a)は、図1の(a)と同様であるので、その説明を省略する。
図5の(b)は、投影領域5の中央部から下側に顔画像6が表示される場合を示している(同図の左側)。この場合、上部筐体2aの正面から下側に顔画像6が表示されることになる(同図の右側)。このとき、上部筐体2aが球面であるから、表示される顔画像6は、図5の(a)の場合に比べて、両目の画像7a・7bが前方に、口の画像8が後方にそれぞれ位置することになる。従って、上記ユーザは、ロボット装置1の顔が前方向から稍下方向を向いているように視認することになる。
そして、図5の(c)は、投影領域5の下部(縁部)に、縦方向(移動方向)のサイズが縮小された顔画像6bが表示される場合を示している(同図の左側)。この場合、上部筐体2aの正面から下側に、上記縮小された顔画像6bが表示されることになる(同図の右側)。このとき、ロボット装置1の顔が、あたかも、下方向に移動し、かつ、後方に移動したように、すなわち、ロボット装置1の頭部が回転して、上記顔が下方向から稍前方向を向いているように上記ユーザが視認することになる。
〔変形例2〕
また、上記実施形態では、プロジェクタ10から投影される顔画像の表示位置を、中央部から上側に移動させることもできる。
図6は、本実施形態のロボット装置1の変形例において、プロジェクタ10から投影される顔画像を示す図であって、該顔画像の表示位置を、投影領域5の中央部から上側に移動させる場合を示す図である。図1と同様に、図6において、図面に向かって左側には、投影領域5が平面であると仮定した場合に投影される画像が示される一方、図面に向かって右側には、球状の上部筐体2aに投影される画像が示されている。なお、図6の(a)は、図1の(a)と同様であるので、その説明を省略する。
図6の(b)は、投影領域5の中央部から上側に顔画像6が表示される場合を示している(同図の左側)。この場合、上部筐体2aの正面から上側に顔画像6が表示されることになる(同図の右側)。このとき、上部筐体2aが球面であるから、表示される顔画像6は、図6の(a)の場合に比べて、両目の画像7a・7bが後方に、口の画像8が前方にそれぞれ位置することになる。従って、上記ユーザは、ロボット装置1の顔が前方向から稍上方向を向いているように視認することになる。
そして、図6の(c)は、投影領域5の上部(縁部)に、縦方向(移動方向)のサイズが縮小された顔画像6bが表示される場合を示している(同図の左側)。この場合、上部筐体2aの正面から上側に、上記縮小された顔画像6bが表示されることになる(同図の右側)。このとき、ロボット装置1の顔が、あたかも、上方向に移動し、かつ、後方に移動したように、すなわち、ロボット装置1の頭部が回転して、上記顔が上方向から稍前方向を向いているように上記ユーザが視認することになる。
以上のように、本実施形態は、顔画像の表示位置を何れの方向に移動させても、当該方向に対応する顔画像を表示することができる。
〔実施形態2〕
本発明の別の実施形態について、図7を参照して説明する。本実施形態のロボット装置1は、図1〜図4に示すロボット装置1に比べて、顔画像の表示位置を、投影領域5の中央部から右側に移動させる場合に表示する顔画像が異なるのみであり、その他の構成は同様である。
図7は、本実施形態のロボット装置1において、プロジェクタ10から投影される顔画像を示す図であって、該顔画像の表示位置を、投影領域5の中央部から右側に移動させる場合を示す図である。本実施形態の顔画像は、図1に示す顔画像に比べて、目7a・7bおよび口8が、黒色から白抜きに変更している点と、投影領域5の右部に顔画像が表示される場合に、図1の(c)に示す顔画像6aから、図7の(c)に示す顔画像6cに変更している点とが異なり、その他の構成は同様である。従って、図7の(a)・(b)は、図1の(a)・(b)と同様であるので、その説明を省略する。
ところで、実際に球体が回転する場合、当該球面上の各位置の移動量は、上記球体の中心を通りかつ回転軸を法線とする平面と上記球面との交線である赤道を0°とし、上記回転軸と上記球面との交点である両極を90°とする緯度に依存する。具体的には、緯度が0°の場合に上記移動量が最大となり、緯度が90°の場合に上記移動量が最小となる。このため、前記球体を視認しているユーザは、当該球体の回転に応じて、球面上に描かれた形状が歪曲して視認することになる。
そこで、本実施形態では、図7の(c)に示すように、回転軸lによって規定される緯度が大きくなるにつれて、移動量が少なくなるように、各部位(図示の例では目7a・7bおよび口8)を歪曲させた顔画像6cを表示している。これにより、顔の向きが変化したように、より効果的にユーザに視認させることができる。
〔実施形態3〕
本発明の他の実施形態について、図8および図9を参照して説明する。本実施形態のロボット装置1は、図1〜図4に示すロボット装置1に比べて、ロボット装置1に反射板12が新たに設けられている点と、プロジェクタ10から投影される顔画像とが異なるのみであり、その他の構成は同様である。
図8は、ロボット装置1の内部の要部構成を示す断面図である。図8に示すように、上部筐体2aの上部前方に反射板12が設けられている。これにより、プロジェクタ10から投影される画像の上部が、反射板12にて反射して、上部筐体2aの上部背面に投影されることになる。
図9は、本実施形態のロボット装置1において、深刻なエラーが発生した場合にプロジェクタ10から投影される画像を示す図である。図9の(a)は、プロジェクタ10から反射板11に投影される画像が示されており、図9の(b)・(c)は、球状の上部筐体2aの前面および背面に投影される画像がそれぞれ示されている。
図9の(a)に示すように、プロジェクタ10から投影される画像には、痛切な表情の顔画像6dが含まれ、上部にエラーコードが含まれている。これにより、顔画像6dは、図9の(b)に示すように、上部筐体2aの前面に投影される。一方、上部のエラーコードは、反射板12にて反射して、図9の(c)に示すように、上部筐体2aの背面に投影される。これにより、ユーザは、ロボット装置1の製造元のコールセンターに電話して、ロボット装置1の背面に表示されたエラーコードを告げることにより、上記エラーの対処方法を迅速かつ容易に知ることができる。
〔付記事項〕
なお、本発明は、上記実施形態で示したような、顔を示す顔画像に限定されるものではなく、ロボット装置1の頭部を特徴付ける任意の特徴部分を示す特徴画像に本発明を適用することができる。上記特徴部分の例としては、髪などのような頭部の部位、リボン、髪飾りなどのような頭部に設けられる装身具、帽子などのような頭部に設けられる衣装などが挙げられる。
さらに、ロボット装置1の胴部(本体)に対応する下部筐体2bに投影領域5が設けられる場合、上記胴部を特徴付ける任意の特徴部分を示す特徴画像に本発明を適用することができる。上記特徴部分の例としては、臍などのような胴部の部位、リボン、ネックレスなどのような胴部に設けられる装身具、ドレスなどのような胴部に設けられる衣装などが挙げられる。このように、ロボット装置1の本体を特徴付ける任意の特徴部分を示す特徴画像に本発明を適用することができる。
〔ソフトウェアによる実現例〕
ロボット装置1の制御ブロック(特に制御部30)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、ロボット装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係るロボット装置1は、該ロボット装置の本体(上部筐体2a)の表面における一部領域に予め設定された表示可能領域に、当該表面を特徴付ける特徴部分を示す特徴画像を表示するための表示部32と、該表示部を制御する制御部30と、を備えており、該制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、当該特徴画像を前記表示可能領域の中央部に表示する場合に比べて、前記中央部から前記縁部への方向のサイズを縮小した前記特徴画像を表示するように、前記表示部を制御する構成である。
上記の構成によると、本体の表面における表示可能領域の縁部に特徴画像を表示する場合、前記表示可能領域の中央部に特徴画像を表示する場合に比べて、前記中央部から前記縁部への方向のサイズが縮小された前記特徴画像が表示される。従って、前記本体が回転して、前記本体の表面における特徴部分の向きが変化したようにユーザに視認させることができる。
これにより、本体を回転させる駆動機構を備えること無しに、前記特徴部分の向きが変化したようにユーザに視認させることができる。また、本体の一部領域に特徴画像を表示可能な表示部を備えればよく、特許文献2に記載のロボット装置のように、本体の全領域を表示する表示部を備える必要が無いので、表示部の大型化を防止できる。以上より、簡便な構成で前記特徴部分の向きが変化したようにユーザに視認させることができる。なお、前記特徴部分の例としては、顔、髪、リボンなどの装身具、衣服などが挙げられる。
本発明の態様2に係るロボット装置は、上記態様1において、前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、前記中央部から前記縁部への変位量に応じて前記サイズを縮小した前記特徴画像を表示するように、前記表示部を制御してもよい。この場合、前記特徴部分の向きが変化したように、よりリアルにユーザに視認させることができる。
本発明の態様3に係るロボット装置は、上記態様1または2において、前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、前記表示可能領域に収まるように前記サイズを縮小した前記特徴画像を表示するように、前記表示部を制御してもよい。この場合、前記特徴画像の一部が欠落して表示されることを防止でき、前記特徴画像の表示品質を維持することができる。
ところで、前記表示可能領域が球面である場合、前記特徴画像の表示を、前記表示可能領域の中央部から移動させるのみで、前記特徴部分の向きが変化したようにユーザに視認させることができる。
そこで、本発明の態様4に係るロボット装置は、上記態様1において、前記本体は、少なくとも前記表示可能領域が球面であり、前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、前記縮小する前の特徴画像を当該縁部に表示しても前記表示可能領域に収まるとき、前記縮小する前の特徴画像を表示する一方、前記縮小する前の特徴画像を当該縁部に表示すると前記表示可能領域からはみ出すとき、前記縮小した特徴画像を表示するように、前記表示部を制御してもよい。この場合、前記特徴画像を縁部に表示するときでも、前記縮小する前の特徴画像を利用することができ、前記縮小した特徴画像の準備数を減らすことができる。
ところで、球体が回転する場合、当該球面上の各位置の移動量は、当該球面の緯度に依存する。このため、前記球体を視認しているユーザは、当該球体の回転に応じて、球面上に描かれた形状を歪んで視認することになる。
そこで、本発明の態様5に係るロボット装置は、上記態様4において、前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、前記サイズを縮小し、かつ、前記球面の緯度に応じて歪曲させた特徴画像を表示するように前記表示部を制御してもよい。この場合、前記特徴部分の向きが変化したように、よりリアルにユーザに視認させることができる。
本発明の態様6に係るロボット装置は、上記態様1から5において、通常の特徴画像のデータと、該通常の特徴画像に対し、前記中央部から前記縁部への複数の方向のサイズをそれぞれ縮小した複数の特徴画像のデータとを予め記憶する記憶部31をさらに備えてもよい。この場合、前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、前記縮小した複数の特徴画像のうち、前記中央部から前記縁部への方向に応じた特徴画像のデータを前記記憶部から読み出して前記表示部に送信すればよく、前記特徴画像を縮小する処理が不要となる。
本発明の態様7に係るロボット装置の制御方法は、本体と、該本体の表面における一部領域に予め設定された表示可能領域に、当該表面を特徴付ける特徴部分を示す特徴画像を表示するための表示部と、を備えるロボット装置の制御方法であって、前記特徴画像を前記表示可能領域の縁部に表示する場合、当該特徴画像を前記表示可能領域の中央部に表示する場合に比べて、前記中央部から前記縁部への方向のサイズを縮小した前記特徴画像を表示するように、前記表示部を制御するステップを含む方法である。
上記の方法によると、上記態様1と同様の効果を奏することができる。
本発明の各態様に係るロボット装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記ロボット装置が備える各部(ソフトウェア要素)として動作させることにより上記ロボット装置をコンピュータにて実現させるロボット装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
1 ロボット装置
2a 上部筐体(本体)
2b 下部筐体
5 投影領域(表示可能領域)
6 顔画像(特徴画像)
10 プロジェクタ
11、12 反射板
20a、20b 開口部
30 制御部
31 記憶部
32 表示部
33 音声入力部
34 音声出力部
35 撮影部
36 センサ部
40 音声認識部
41 応答情報取得部
42 表示制御部
43 発話制御部
50 応答テーブル
51 顔画像データ(特徴画像のデータ)
52 発話データ

Claims (5)

  1. ロボット装置であって、
    該ロボット装置の本体の表面における一部領域に予め設定された表示可能領域に、当該表面を特徴付ける特徴部分を示す特徴画像を表示するための表示部と、
    該表示部を制御する制御部と、を備えており、
    該制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、当該特徴画像を前記表示可能領域の中央部に表示する場合に比べて、前記中央部から前記縁部への方向のサイズを縮小した前記特徴画像を表示するように、前記表示部を制御することを特徴とするロボット装置。
  2. 前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、前記中央部から前記縁部への変位量に応じて前記サイズを縮小した前記特徴画像を表示するように、前記表示部を制御することを特徴とする請求項1に記載のロボット装置。
  3. 前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、前記表示可能領域に収まるように前記サイズを縮小した前記特徴画像を表示するように、前記表示部を制御することを特徴とする請求項1または2に記載のロボット装置。
  4. 前記本体は、少なくとも前記表示可能領域が球面であり、
    前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、
    前記縮小する前の特徴画像を当該縁部に表示しても前記表示可能領域に収まるとき、前記縮小する前の特徴画像を表示する一方、
    前記縮小する前の特徴画像を当該縁部に表示すると前記表示可能領域からはみ出すとき、前記縮小した特徴画像を表示するように、前記表示部を制御することを特徴とする請求項1に記載のロボット装置。
  5. 前記制御部は、前記特徴画像を前記表示可能領域の縁部に表示する場合、前記サイズを縮小し、かつ、前記球面の緯度に応じて歪曲させた特徴画像を表示するように前記表示部を制御することを特徴とする請求項4に記載のロボット装置。
JP2015194851A 2015-09-30 2015-09-30 ロボット装置 Pending JP2017064862A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015194851A JP2017064862A (ja) 2015-09-30 2015-09-30 ロボット装置
PCT/JP2016/055484 WO2017056520A1 (ja) 2015-09-30 2016-02-24 ロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015194851A JP2017064862A (ja) 2015-09-30 2015-09-30 ロボット装置

Publications (1)

Publication Number Publication Date
JP2017064862A true JP2017064862A (ja) 2017-04-06

Family

ID=58423254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015194851A Pending JP2017064862A (ja) 2015-09-30 2015-09-30 ロボット装置

Country Status (2)

Country Link
JP (1) JP2017064862A (ja)
WO (1) WO2017056520A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019130601A (ja) * 2018-01-30 2019-08-08 日本信号株式会社 対話型ロボット
JP2020010771A (ja) * 2018-07-13 2020-01-23 本田技研工業株式会社 コミュニケーション装置、及び、コミュニケーション装置の動作方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019050034A1 (ja) 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット
CN113518211A (zh) * 2020-04-10 2021-10-19 中强光电股份有限公司 投影系统以及投影操作方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314401A (ja) * 1995-05-16 1996-11-29 Sony Corp ディスプレイ装置
JP2006212717A (ja) * 2005-02-01 2006-08-17 Advanced Telecommunication Research Institute International ロボット装置
JP2009044403A (ja) * 2007-08-08 2009-02-26 Olympus Corp 撮像装置
JP5431083B2 (ja) * 2009-09-16 2014-03-05 オリンパスイメージング株式会社 撮影装置および撮影装置の制御方法
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
JP5694867B2 (ja) * 2011-06-27 2015-04-01 京セラ株式会社 携帯端末装置、プログラムおよび表示制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019130601A (ja) * 2018-01-30 2019-08-08 日本信号株式会社 対話型ロボット
JP7125083B2 (ja) 2018-01-30 2022-08-24 日本信号株式会社 対話型ロボット
JP2020010771A (ja) * 2018-07-13 2020-01-23 本田技研工業株式会社 コミュニケーション装置、及び、コミュニケーション装置の動作方法
US11520549B2 (en) 2018-07-13 2022-12-06 Honda Motor Co., Ltd. Facially responsive communication apparatus

Also Published As

Publication number Publication date
WO2017056520A1 (ja) 2017-04-06

Similar Documents

Publication Publication Date Title
US9094576B1 (en) Rendered audiovisual communication
US20210286502A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US11615596B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US9838597B2 (en) Imaging device, imaging method, and program
KR102098277B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US9171198B1 (en) Image capture technique
WO2017056520A1 (ja) ロボット装置
US20220091723A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
JPWO2018155026A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2006212717A (ja) ロボット装置
US11579693B2 (en) Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body
US20240094815A1 (en) Method and device for debugging program execution and content playback
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
KR20200101208A (ko) 전자 장치 및 이를 이용한 카메라 기능과 연동하여 이모지 편집을 위한 사용자 인터페이스를 제공하는 방법
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US20240077937A1 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
JP7397883B2 (ja) 環境に基づく通信データの提示
KR102650349B1 (ko) Xr 디바이스 및 그 제어 방법
JP2019191392A (ja) 立体面表示装置
US20230171484A1 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
US20240104819A1 (en) Representations of participants in real-time communication sessions
US20240103678A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
US20240118746A1 (en) User interfaces for gaze tracking enrollment
US20240103617A1 (en) User interfaces for gaze tracking enrollment
US20230262406A1 (en) Visual content presentation with viewer position-based audio