JP2017164854A - ロボット及びプログラム - Google Patents

ロボット及びプログラム Download PDF

Info

Publication number
JP2017164854A
JP2017164854A JP2016053339A JP2016053339A JP2017164854A JP 2017164854 A JP2017164854 A JP 2017164854A JP 2016053339 A JP2016053339 A JP 2016053339A JP 2016053339 A JP2016053339 A JP 2016053339A JP 2017164854 A JP2017164854 A JP 2017164854A
Authority
JP
Japan
Prior art keywords
user
image
robot
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016053339A
Other languages
English (en)
Other versions
JP6686583B2 (ja
Inventor
哲司 牧野
Tetsuji Makino
哲司 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016053339A priority Critical patent/JP6686583B2/ja
Publication of JP2017164854A publication Critical patent/JP2017164854A/ja
Application granted granted Critical
Publication of JP6686583B2 publication Critical patent/JP6686583B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットが誰を認識しているかを容易に確認できる。【解決手段】会話等のコミュニケーションをユーザとすることができる人型のロボット10は、顔100の左右の目に相当する位置に配置された表示装置101L、101Rと、顔100の眉間に相当する位置に配置されたカメラ102とを備える。ロボット10の表示装置101L、101Rには、カメラ102によって撮像されたロボット10に正対しているユーザの顔画像が表示される。【選択図】図1

Description

本発明は、ロボットの技術に関する。
人間や動物等に模して人間と会話等のコミュニケーションをすることができるロボットが知られている。特許文献1には、このようなロボットとの会話での親近感を高めるために、ロボットの目の瞳を、カメラで撮像した画像等から判別したユーザの目の方向に制御する発明について記載されている。
特開2004−34274号公報
ロボットと円滑にコミュニケーションするには、人間側でも、コミュニケーションの相手としてロボットが自分を認識していることに気づくことが重要である。気づかない場合、ロボットが一方的に人間に話しかけているような状態となり、双方向のコミュニケーションが成立しないためである。特許文献1に記載されているロボットでは、ロボットの瞳がユーザの目を向くように動くだけであるため、ロボットが自分を認識していることにユーザが気づかない可能性がある。特に、ロボットが群衆の中の一人のユーザと会話をしようとする場合には、ロボットの目の向きから、ロボットが誰と会話しようとしているかをユーザが認識することは困難であり、ロボットと円滑にコミュニケーションできない虞がある。また、カメラの位置と造形上の目の位置とが異なるロボットの場合は、カメラで撮像した画像から判別したユーザの方向と、ロボットの造形上の目から見たユーザの方向(視線方向)とでずれが生じるため、ロボットに見つめられていることをユーザが十分に実感できない虞も考えられる。
本発明は、上記実情に鑑みてなされたものであり、誰を認識しているかを容易に確認できるロボット及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明のロボットは、
顔を備えたロボットであって、
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、
を備えることを特徴とする。
本発明によれば、ロボットが誰を認識しているかを容易に確認できる。
本発明の実施形態に係るロボットの外観図である。 本発明の実施形態に係るロボットの顔部分を示した図であり、(A)は通常表示状態、(B)はユーザ表示状態を示す図である。 本発明の実施形態に係るロボットの構成を示すブロック図である。 本発明の実施形態に係る表示制御処理のフローチャートを示す図である。 表示制御処理のフローチャートの変形例を示す図である。 所定の処理が施された顔画像が表示装置に表示されたロボットの顔部分を示した図である。 表示制御処理のフローチャートの変形例を示す図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。
図1は、本発明の実施形態に係るロボット10の外観を模式的に示した図である。ロボット10は、図1に示すように顔100と首200と胴体300とを備えた人型である。ロボット10は、例えば、イベント会場の受付に設置され、来場者と会話して各種の案内をするために利用される。ロボット10の顔100には、2つの表示装置(表示部)101L、101Rと、カメラ(撮像部)102と、スピーカ103と、マイク104と、が設けられている。
2つの表示装置101L、101Rは、それぞれ、LCD(Liquid Crystal Display)等で構成され、顔100の左右の目に相当する位置に設けられている。また、2つの表示装置101L、101Rは、表示面が円形であり、これにより、ユーザにはロボット10の目(左目、右目)として認識される。なお、以後の説明では、2つの表示装置101L、101Rを区別しない場合は表示装置101とも表記する。
また後述する表示制御処理により、ロボット10に正対しているユーザがいない場合、図2(A)に示すように表示装置101には、通常の目を模した画像が表示される。以下の説明では、このときの表示装置101の状態を「通常表示状態」とも表記する。
また、後述する表示制御処理により、ロボット10に正対しているユーザがいる場合、図2(B)に示すように表示装置101には、このユーザの顔が表示される。以下の説明では、このときの表示装置101の状態を「ユーザ表示状態」とも表記する。
図1に戻り、カメラ102は、2つの表示装置101L、101Rの間の顔100の眉間に相当する位置に設けられており、後述する制御部110の制御の下、所定の時間毎(例えば、1/60秒毎)に撮像を行っている。カメラ102はロボット10の目として機能する。
スピーカ103は、顔100の口に相当する位置に設けられている。スピーカ103は、後述する制御部110の制御の下、各種の音声を出力する。スピーカ103はロボット10の口としての機能を有する。
マイク104は、顔100の顎に相当する部分に設けられ、周囲の音声を集音する。マイク104はロボット10の耳として機能する。なお、ロボット10の首200や胴体300にマイク104を設けてもよい。
また、図3に示すように、その他の構成として、ロボット10は、首駆動部105と、操作ボタン106と、センサ群107と、電源部108と、記憶部109と、制御部110と、を備える。
首駆動部105は、複数のモータ等を備え、制御部110の指示に基づいて、人間の首と同様に、ロボット10の顔の向きを上下左右自在に制御する。
操作ボタン106は、ロボット10を操作するための各種のボタンであり、例えば、電源ボタンやモード切替ボタンなどを含む。
センサ群107は、加速度センサや障害物検知センサ等であり、ロボット10の姿勢制御や、安全性の確保のために使用される。
電源部108は、ロボット10に内蔵される充電池等であり、ロボット10の各部に電力を供給する。
記憶部109は、ハードディスクドライブやフラッシュメモリ等から構成され、制御部110によって実行されるプログラムやカメラ102が撮像した画像データや各種のデータを記憶する。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などで構成される。制御部110は、RAMをワークスペースとして、記憶部109やROMに記憶されたプログラムを実行することにより、ロボット10全体を制御する。例えば、制御部110は、マイク104で集音したユーザの音声に反応してスピーカ103から所定の音声を出力させることにより、正対しているユーザとコミュニケーション(会話)する。なお、本実施形態において「コミュニケーション」とは会話を伴うものに限らないものとする。ユーザとロボット10とで見つめ合うこともコミュニケーションの一種である。
また、制御部110は、カメラ102が撮像した画像から正対するユーザの有無を判別し、ユーザがいる場合はその画像をカメラ102に表示させる表示制御部として機能する。
また、制御部110は、首駆動部105を制御して、ユーザと正対するように顔100の向きを調整する顔向調整部として機能する。制御部110の行うこれらの処理の詳細については後述する。
続いて、上述したロボット10の動作について説明する。ロボット10の制御部110は、電源がONの間、継続して、図4に示す表示制御処理を実行する。なお、制御部110は、表示制御処理とは独立して、ユーザと会話する処理等を実施しているものとする。
まず、制御部110は、カメラ102が撮像した画像を取得する(ステップS101)。なお、以下の説明では、ステップS101で取得した画像を取得画像とも表記する。
続いて、制御部110は、公知の手法を用いて、取得画像から所定サイズ以上の人間の顔を検出する顔検出処理を実施する(ステップS102)。例えば、制御部110は、人間の顔のテンプレートのデータを記憶部109に格納しておき、取得画像内でテンプレートに合致する部分を人間の顔として検出すればよい。
続いて、制御部110は、顔検出処理でユーザの顔を検出できたか否かを判別する(ステップS103)。ユーザの顔を検出できなかった場合(ステップS103;No)、制御部110は、表示装置101を図2(A)に示すような通常表示状態に制御し(ステップS104)、ステップS101に処理は戻る。
一方、ユーザの顔を検出できた場合(ステップS103;Yes)、制御部110は、検出した顔にロボット10が正対しているか否かを判別する(ステップS105)。例えば、制御部110は、検出した顔が取得画像の中央部分にある場合に正対していると判別すればよい。
ロボット10がユーザの顔と正対していないと判別した場合(ステップS105;No)、制御部110は、首駆動部105を制御して、ユーザの顔と正対するように顔100(カメラ102)の向きを調整し(ステップS106)、ステップS101に処理は戻る。
一方、ロボット10がユーザの顔と正対していると判別した場合(ステップS105;Yes)、制御部110は、表示装置101の表示面のサイズと一致するように、取得画像から顔部分を円形に切り出す(トリミングする)(ステップS107)。なお、ステップS107で切り出した画像を顔画像とも表記する。
続いて、制御部110は、切り出した顔画像を鏡像反転(左右反転)させる(ステップS108)。そして、制御部110は、図2(B)に示すように、鏡像反転させた顔画像を左右の表示装置101L、101Rに表示させ(ステップS109)、ステップS101に処理は戻る。なお、制御部110は、ステップS109で顔画像を表示させた後、スピーカ103を制御して、この顔画像のユーザに話しかける等の処理を行ってもよい。
このように、本実施形態によれば、ロボット10の顔100の目に位置する表示装置101に、カメラ102によって撮像されたロボット10に正対するユーザの画像が表示される。そのため、このユーザや他のユーザは、この表示からロボット10が誰を認識しているかを容易に知ることができ、ロボット10と円滑にコミュニケーションすることが可能となる。例えば、ロボット10が群衆の中の一人のユーザと会話をしようとする場合であっても、ロボット10が誰と会話しようとしているかはロボット10の目(表示装置101)を確認するだけで容易に知ることができる。
また、本実施形態によれば、正対しているユーザがロボット10の目(表示装置101)に表示されるため、カメラ102の位置と造形上の目の位置とが異なるロボット10であっても、視線方向のずれの影響を受けずに、ユーザは、自分が見つめられていることを十分に実感することができる。
また、本実施形態によれば、カメラ102によって撮像された画像からユーザを検出できても、そのユーザがロボット10と正対していない場合は、正対するようにロボット10の顔100の向きが調整される。そのため、ユーザは正対しているロボット10と円滑にコミュニケーションすることが可能となる。
なお、本発明は、上記実施形態に限定されず、本発明の要旨を逸脱しない部分での種々の修正は勿論可能である。
(変形例1)
例えば、上記実施形態では、表示制御処理において、制御部110は、カメラ102で撮像したユーザの顔画像をそのまま表示装置101に表示したが、カメラ102の画角やフォーカス距離等のパラメータや表示装置101とカメラ102との間の相対位置情報等に基づいて、切り出した顔画像をロボット10の目(表示装置101)の位置から撮像されたように補正してから表示してもよい。なお、この場合、左目(表示装置101L)の位置から撮像されたように補正された顔画像と、右目(表示装置101R)の位置から撮像されたように補正された顔画像との2種類の顔画像が作成されて別々に表示されることとなる。このようにすることで、表示装置101L、101Rには、ロボット10の左右の目からユーザを見たような顔画像が表示されるため、ユーザは、ロボット10に見つめられていることをより強く実感することができる。
(変形例2)
例えば、上記実施形態では、撮像したユーザの顔画像をそのまま表示装置101に表示したが、顔をデフォルメ処理した画像を表示させたり、減色処理した画像(例えば、モノクロ画像)を表示したりしてもよい。また、撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合には、その人物に特有の処理を施した画像を表示装置101に表示してもよい。
この場合、特定の人物の顔を識別するための情報(例えば、その人物の顔の画像データ)と、処理の内容とを対応付けたテーブルを記憶部109に記憶させておく。そして、図4に示す表示制御処理において、取得画像から切り出した顔画像を鏡像反転させた後(ステップS108)、図5に処理は移り、制御部110は、公知の手法を用いて、顔画像の人物がテーブルで規定されている特定の人物と同一であるか否かを判別する(ステップS201)。同一人物で無いと判別した場合(ステップS201;No)、図4に処理は移り、制御部110は、鏡像反転させた顔画像をそのまま表示させる(ステップS109)。一方、同一人物であると判別した場合(ステップS201;Yes)、制御部110は、テーブルを参照して所定の処理を顔画像に施す(ステップS202)。そして、図4に処理は移り、制御部110は、処理を施した画像を表示装置101に表示させる(ステップS109)。
図6は、このような処理が施された顔画像が表示装置101に表示されたロボット10の顔を示す図である。この例では、星マークP1を重畳する処理が施された顔画像が表示装置101に表示されている。なお、別のマークを重畳して表示させたり、通常と背景の色が異なる顔画像を表示させたり、特定のメッセージが付された顔画像を表示させたりしてもよく、種々の処理を顔画像に施してよい。また、制御部110は、特定人物を検出した場合に、その人物の顔画像に替えて、予め準備したその人物用のアイコン画像等を表示装置101に表示させてもよい。
このようにすることで、特定の人物がロボット10と正対した場合には、その人物に特有の処理が施された顔画像が表示されるため、より親近感の高いロボット10とのコミュニケーションが実現できる。
(変形例3)
また、上述した図4に示す表示制御処理の顔検出処理(ステップS102)で取得画像から複数の顔を検出できる場合も考えられる。この場合、ロボット10の制御部110は、取得画像内で最も中央にある顔、最もサイズの大きい顔、ロボット10との距離が最も近い顔、ロボット10と最も視線の合う顔、マイク104で集音した音声の発信元に最も近い位置や方向にある顔等を検出してステップS103以降の処理を実施し、顔画像を表示装置101に表示させてもよい。
このようにすることで、画像内から複数のユーザの顔が検出できた場合に最もロボット10とコミュニケーションしたいと想定されるユーザの顔が表示装置101に表示されるため、より円滑なロボット10とコミュニケーションすることが可能となる。
(変形例4)
例えば、表示制御処理において制御部110(ユーザ切替報知部)が、表示装置101に表示中の被写体であるユーザが別のユーザに切り替わることを報知してもよい。
この場合、図4に示す表示制御処理で取得画像から切り出した顔画像を鏡像反転させた後(ステップS108)、図7に処理は移り、制御部110は、この顔画像の被写体であるユーザが、現在表示している画像の被写体と異なっているか否かを判別する(ステップS301)。例えば、制御部110は、今回切り出した顔画像と、現在表示装置101に表示中の画像との類似度を公知の手法により求め、閾値以下である場合に異なっていると判別すればよい。
そして、被写体のユーザが異なっていないと判別した場合(ステップS301;No)、図4に処理は移り、制御部110は、鏡像反転させた顔画像をそのまま表示させる(ステップS109)。
一方、被写体のユーザが異なっていると判別した場合(ステップS301;Yes)、制御部110は、目の瞬きを模した映像を表示装置101に表示させる(ステップS302)。そして、図4に処理は移り、制御部110は、顔画像を表示装置101に表示させる(ステップS109)。なお、このとき表示される顔画像では、これまで表示していたユーザ(又は通常表示状態の画像)とは別のユーザが被写体となっている。
このようにすることで、ユーザは、ロボット10の目(表示装置101)の瞬きから表示される人物が切り替わるタイミングを容易に知ることができるため、ロボット10とより円滑にコミュニケーションすることが可能となる。なお、制御部110は、瞬きの代わりに特定の音声をスピーカ103から発生させたりしてもよく、人物が切り替わるタイミングを報知する手法は種々の手法が採用可能である。
(変形例5)
上述した実施形態では、カメラ102が撮像した画像からユーザの顔が検出できた場合に顔画像を表示したが、ユーザの視線方向も考慮に入れて画像を表示してもよい。
例えば、表示制御処理において、制御部110は、公知の手法により取得画像を解析してユーザの視線方向を取得し、ユーザがロボット10を見ているか否かを判別する。そして、制御部110は、ユーザがロボット10を見ていない場合は顔画像を表示装置101に表示せず、ユーザがロボット10を見ている場合(アイコンタクトが成立している場合)に表示装置101に顔画像を表示させてもよい。
若しくは、制御部110(アイコンタクト報知部)は、ユーザの視線がロボット10に切り替わってアイコンタクトが成立した際に、スピーカ103から特定の音声を出力させたり、表示装置101の表示を点滅させたり、眉毛などを備えて表情を変化することができる機構を備えたロボット10の場合は表情を変化させたりする等して、その旨を報知してもよい。
このようにユーザの視線を考慮に入れた画像表示をすることで、ロボット10とのアイコンタクトをユーザに促す効果が期待でき、ロボット10とより円滑にコミュニケーションすることが可能となる。
(変形例6)
また、車輪等の駆動機構を備えて移動することができるようにロボット10を構成してもよい。この場合、制御部110は、表示制御処理の顔検出処理(図4、ステップS102)で検出した顔との距離を公知の手法により求める。そして、制御部110は、ユーザとの距離が所定距離以内(例えば、2m以内)になるように、駆動機構を制御してもよい。
(変形例7)
また、上記実施形態では、ユーザの顔部分の画像(顔画像)を表示装置101に表示させたが、ユーザの上半身の画像や全身画像等を表示装置101に表示させてもよい。
(変形例8)
また、上記実施形態では、左右の2つの目に相当する2つの表示装置101L、101Rを備えたロボット10を示したが、1個のみの目や3個以上の目を有するロボットにも本発明は適用可能である。また、ロボット10が行うユーザとのコミュニケーションは音声会話に限定されず、胴体等に設けたモニターにメッセージを表示してユーザとコミュニケーションするタイプのロボット等にも本発明は適用可能である。また、介護用のロボットや、ペットロボット等にも本発明は適用可能である。また、図1に示したような人型に限らず、犬型や猫型のような動物を模したロボット等にも本発明は適用可能である。
また、この発明のロボット10の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、ロボット10が行う表示制御処理のプログラムが、記憶部109や制御部110のROMに予め記憶されているものとして説明した。しかし、このプログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。
本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
顔を備えたロボットであって、
撮像部と、
前記顔の目の位置に配置される表示部と、
前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、
を備えることを特徴とするロボット。
(付記2)
前記ユーザと正対するように前記顔の向きを調整する顔向調整部を備える、
ことを特徴とする付記1に記載のロボット。
(付記3)
前記表示制御部は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
ことを特徴とする付記1又は2に記載のロボット。
(付記4)
前記表示制御部は、前記ユーザとアイコンタクトが成立したときに、前記ユーザの画像を前記表示部に表示させる、
ことを特徴とする付記1から3の何れか1つに記載のロボット。
(付記5)
前記ユーザとアイコンタクトが成立したことを知らせるアイコンタクト報知部をさらに備える、
ことを特徴とする付記1から4の何れか1つに記載のロボット。
(付記6)
前記表示制御部は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
ことを特徴とする付記1から5の何れか1つに記載のロボット。
(付記7)
前記表示制御部は、前記撮像部によって撮像された画像内から複数のユーザが検出された場合に、前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像を前記表示部に表示させる、
ことを特徴とする付記1から6の何れか1つに記載のロボット。
(付記8)
前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像は、前記撮像部によって撮像された画像内で最も中央にあるユーザの画像、最もサイズの大きいユーザの画像、前記ロボットとの距離が最も近いユーザの画像、前記ロボットと最も視線の合うユーザの画像、音声の発信元に最も近い位置又は方向にあるユーザの画像の何れかである、
ことを特徴とする付記7に記載のロボット。
(付記9)
前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知部を備える、
ことを特徴とする付記1から8の何れか1つに記載のロボット。
(付記10)
前記ユーザ切替報知部は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
ことを特徴とする付記9に記載のロボット。
(付記11)
撮像部と顔の目の位置に配置される表示部とを備えたロボットを制御するコンピュータを、
前記撮像部に撮像させる撮像制御手段、
前記撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御手段、
として機能させるプログラム。
(付記12)
前記表示制御手段は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
ことを特徴とする付記11に記載のプログラム。
(付記13)
前記コンピュータを、前記ユーザとアイコンタクトが成立したことを知らせる報知手段としてさらに機能させる、
付記11又は12に記載のプログラム。
(付記14)
前記コンピュータを、前記撮像部により撮像された画像内から複数のユーザが検出された際に、所定の条件を満たすユーザを判別する判別手段としてさらに機能させ、
前記表示制御手段は、前記所定の条件を満たすユーザの画像を表示させる、
付記11から13の何れか1つに記載のプログラム。
10…ロボット、100…顔、101(101L,101R)…表示装置(表示部)、102…カメラ(撮像部)、103…スピーカ、104…マイク、105…首駆動部、106…操作ボタン、107…センサ群、108…電源部、109…記憶部、110…制御部、200…首、300…胴体

Claims (14)

  1. 顔を備えたロボットであって、
    撮像部と、
    前記顔の目の位置に配置される表示部と、
    前記撮像部によって撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御部と、
    を備えることを特徴とするロボット。
  2. 前記ユーザと正対するように前記顔の向きを調整する顔向調整部を備える、
    ことを特徴とする請求項1に記載のロボット。
  3. 前記表示制御部は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
    ことを特徴とする請求項1又は2に記載のロボット。
  4. 前記表示制御部は、前記ユーザとアイコンタクトが成立したときに、前記ユーザの画像を前記表示部に表示させる、
    ことを特徴とする請求項1から3の何れか1項に記載のロボット。
  5. 前記ユーザとアイコンタクトが成立したことを知らせるアイコンタクト報知部をさらに備える、
    ことを特徴とする請求項1から4の何れか1項に記載のロボット。
  6. 前記表示制御部は、前記撮像部が撮像したユーザが特定の人物であるか否かを判別し、特定の人物である場合は、該人物の画像に所定の処理を施した画像を前記表示部に表示させる、
    ことを特徴とする請求項1から5の何れか1項に記載のロボット。
  7. 前記表示制御部は、前記撮像部によって撮像された画像内から複数のユーザが検出された場合に、前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像を前記表示部に表示させる、
    ことを特徴とする請求項1から6の何れか1項に記載のロボット。
  8. 前記ロボットと最もコミュニケーションしたいと想定されるユーザの画像は、前記撮像部によって撮像された画像内で最も中央にあるユーザの画像、最もサイズの大きいユーザの画像、前記ロボットとの距離が最も近いユーザの画像、前記ロボットと最も視線の合うユーザの画像、音声の発信元に最も近い位置又は方向にあるユーザの画像の何れかである、
    ことを特徴とする請求項7に記載のロボット。
  9. 前記表示部に表示されている画像の被写体であるユーザが別のユーザに切り替わることを報知するユーザ切替報知部を備える、
    ことを特徴とする請求項1から8の何れか1項に記載のロボット。
  10. 前記ユーザ切替報知部は、前記表示部に目の瞬きを模した映像を表示させることにより前記報知を行う、
    ことを特徴とする請求項9に記載のロボット。
  11. 撮像部と顔の目の位置に配置される表示部とを備えたロボットを制御するコンピュータを、
    前記撮像部に撮像させる撮像制御手段、
    前記撮像された前記ロボットに正対するユーザの画像を前記表示部に表示させる表示制御手段、
    として機能させるプログラム。
  12. 前記表示制御手段は、前記ユーザの画像を前記表示部の位置から撮像されたように補正したうえで前記表示部に表示させる、
    ことを特徴とする請求項11に記載のプログラム。
  13. 前記コンピュータを、前記ユーザとアイコンタクトが成立したことを知らせる報知手段としてさらに機能させる、
    請求項11又は12に記載のプログラム。
  14. 前記コンピュータを、前記撮像部により撮像された画像内から複数のユーザが検出された際に、所定の条件を満たすユーザを判別する判別手段としてさらに機能させ、
    前記表示制御手段は、前記所定の条件を満たすユーザの画像を表示させる、
    請求項11から13の何れか1項に記載のプログラム。
JP2016053339A 2016-03-17 2016-03-17 ロボット及びプログラム Active JP6686583B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016053339A JP6686583B2 (ja) 2016-03-17 2016-03-17 ロボット及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016053339A JP6686583B2 (ja) 2016-03-17 2016-03-17 ロボット及びプログラム

Publications (2)

Publication Number Publication Date
JP2017164854A true JP2017164854A (ja) 2017-09-21
JP6686583B2 JP6686583B2 (ja) 2020-04-22

Family

ID=59909910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016053339A Active JP6686583B2 (ja) 2016-03-17 2016-03-17 ロボット及びプログラム

Country Status (1)

Country Link
JP (1) JP6686583B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110861107A (zh) * 2019-12-03 2020-03-06 北京海益同展信息科技有限公司 服务机器人及其显示控制方法、控制器和存储介质
KR20200085640A (ko) * 2019-01-07 2020-07-15 엘지전자 주식회사 로봇

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004114178A (ja) * 2002-09-24 2004-04-15 Honda Motor Co Ltd 受付案内ロボット装置
JP2004299006A (ja) * 2003-03-31 2004-10-28 Sony Corp ロボット装置及びロボット装置による顔認識状況の提示方法
JP2005254433A (ja) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd 対人ロボット及び対人ロボット制御プログラム
JP2005279895A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット
JP2007044798A (ja) * 2005-08-09 2007-02-22 Advanced Telecommunication Research Institute International ロボットコミュニケーションシステム
JP2009045692A (ja) * 2007-08-20 2009-03-05 Saitama Univ コミュニケーションロボットとその動作方法
JP2012175136A (ja) * 2011-02-17 2012-09-10 Nec Corp カメラシステムおよびその制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004114178A (ja) * 2002-09-24 2004-04-15 Honda Motor Co Ltd 受付案内ロボット装置
JP2004299006A (ja) * 2003-03-31 2004-10-28 Sony Corp ロボット装置及びロボット装置による顔認識状況の提示方法
JP2005254433A (ja) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd 対人ロボット及び対人ロボット制御プログラム
JP2005279895A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット
JP2007044798A (ja) * 2005-08-09 2007-02-22 Advanced Telecommunication Research Institute International ロボットコミュニケーションシステム
JP2009045692A (ja) * 2007-08-20 2009-03-05 Saitama Univ コミュニケーションロボットとその動作方法
JP2012175136A (ja) * 2011-02-17 2012-09-10 Nec Corp カメラシステムおよびその制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200085640A (ko) * 2019-01-07 2020-07-15 엘지전자 주식회사 로봇
KR102259428B1 (ko) * 2019-01-07 2021-06-02 엘지전자 주식회사 로봇
US11654575B2 (en) 2019-01-07 2023-05-23 Lg Electronics Inc. Robot
CN110861107A (zh) * 2019-12-03 2020-03-06 北京海益同展信息科技有限公司 服务机器人及其显示控制方法、控制器和存储介质
CN110861107B (zh) * 2019-12-03 2020-12-22 北京海益同展信息科技有限公司 服务机器人及其显示控制方法、控制器和存储介质

Also Published As

Publication number Publication date
JP6686583B2 (ja) 2020-04-22

Similar Documents

Publication Publication Date Title
EP2981070B1 (en) Information processing device, notification state control method, and program
JP4949969B2 (ja) コミュニケーションロボットとその動作方法
JP5881873B2 (ja) 撮像装置、撮像方法およびプログラム
JP5120745B2 (ja) コミュニケーションロボット
WO2014156389A1 (ja) 情報処理装置、提示状態制御方法及びプログラム
JP4512830B2 (ja) コミュニケーションロボット
JP5186723B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法
JP4722573B2 (ja) 顔面情報検出装置および顔面情報検出式通信装置
JP6203696B2 (ja) ロボット
US10803376B2 (en) Interaction apparatus, interaction method, non-transitory recording medium, and robot
US20230266767A1 (en) Information processing apparatus, information processing method, and program
JP6565853B2 (ja) コミュニケーション装置
US20220016757A1 (en) Information processing device, information processing method, and program
JP2010127779A (ja) 情報提供装置、情報提供方法およびプログラム
JP2024023193A (ja) 情報処理装置及び情報処理方法
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP6686583B2 (ja) ロボット及びプログラム
JP2004034274A (ja) 会話ロボット及びその動作方法
JP2016022537A (ja) ロボット
TW201707759A (zh) 機器人及機器人系統
JP2005279895A (ja) ロボット
WO2024004623A1 (ja) ロボット及びロボットの制御方法
JP5702037B1 (ja) 撮像装置、撮像方法およびプログラム
EP4124416A1 (en) Telepresence robot
JP2015136030A (ja) 撮像装置及び電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R150 Certificate of patent or registration of utility model

Ref document number: 6686583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150