JP2022174639A - ロボット - Google Patents
ロボット Download PDFInfo
- Publication number
- JP2022174639A JP2022174639A JP2021080573A JP2021080573A JP2022174639A JP 2022174639 A JP2022174639 A JP 2022174639A JP 2021080573 A JP2021080573 A JP 2021080573A JP 2021080573 A JP2021080573 A JP 2021080573A JP 2022174639 A JP2022174639 A JP 2022174639A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- sight
- line
- person
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 71
- 230000008921 facial expression Effects 0.000 claims description 51
- 238000005259 measurement Methods 0.000 claims description 33
- 238000000034 method Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 33
- 238000012545 processing Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 26
- 210000001508 eye Anatomy 0.000 description 23
- 230000033001 locomotion Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 230000009471 action Effects 0.000 description 5
- 230000006854 communication Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Rehabilitation Tools (AREA)
Abstract
【課題】人に対する認識を容易に把握できるロボットを実現する。【解決手段】本発明の一態様に係るロボット(1)は、ロボット(1)の擬似的な視線を提示する視線提示部(11)と、ロボットの周囲の人を検知する人検知部(12)と、視線提示部(11)が提示する前記視線を、一時的に、人検知部(12)が検知した人に向ける制御部(10)と、を備えている。【選択図】図1
Description
本発明は、ロボットに関する。
眼球を表現する手段を備え、視線を動かすことのできるロボットが従来技術として知られている。以下の特許文献1では、会話相手の眼を見て会話を行うロボットが開示されている。また、特許文献2では、眼球部を変位させるコミュニケーションロボットが開示されている。
しかしながら、上述のような従来技術を用いた場合、会話相手以外の人は、ロボットが自身を認識しているか否かを知ることができない、という問題があった。
人は、ロボットが自身を認識していることが分かると安心し、ロボットが自身を認識しているか否かが分からないと不安になるという傾向がある。例えば、ロボットが自身を認識していることが分かると、そのロボットと安心してすれ違うことができるが、ロボットが自身を認識しているのか否かが分からないと、そのロボットと安心してすれ違うことができない。このように、従来技術を用いた場合、ロボットの存在が人を不安にさせる原因となり得る。
本発明の一態様は、上記の問題に鑑みてなされたものであり、会話相手以外の人を不安にさせ難いロボットを実現することを目的とする。
上記の課題を解決するために、本発明の一様態に係るロボットは、前記ロボットの擬似的な視線を提示する視線提示部と、前記ロボットの周囲の人を検知する人検知部と、前記視線提示部が提示する前記視線を、一時的に、前記人検知部が検知した人に向ける制御部と、を備えている構成である。
本発明の一態様によれば、人に対する認識を容易に把握できるロボットが実現できる。
本発明の実施形態について図1~図7を参照して説明すれば以下の通りである。
〔実施形態1〕
以下、本発明の一実施形態について、図1~図4を参照して説明すれば以下の通りである。本実施形態においては、ロボットが、検知した人に対して一時的に視線を向ける構成について説明する。
以下、本発明の一実施形態について、図1~図4を参照して説明すれば以下の通りである。本実施形態においては、ロボットが、検知した人に対して一時的に視線を向ける構成について説明する。
〔1.ロボット1の構成〕
図1を参照して本実施形態の構成について説明する。図1は、本実施形態に係るロボット1の機能ブロック図である。また、図2は、ロボット1の外観の一例を示す図である。
図1を参照して本実施形態の構成について説明する。図1は、本実施形態に係るロボット1の機能ブロック図である。また、図2は、ロボット1の外観の一例を示す図である。
ロボット1は、介護施設または病院等において医療介護等の用途に用いられるロボットであって、制御部10、視線提示部11、人検知部12、及び走行部13を備えている。
制御部10は、ロボット1全体を統括する制御装置である。制御部10は、例えば、視線提示部11が提示する視線方向を制御する処理等を行う。また、制御部10は、走行部13を制御することによって、ロボット1の自律走行を可能にする。一態様において、制御部10は、ロボット1が、自律的に、ロボット1に予め入力された基本経路を巡回するように走行部13を制御する。
視線提示部11は、ロボット1の疑似的な視線を提示する。なお、視線提示部11が実現される構成は、特定の構成に限定されない。例えば、視線提示部11が、ロボット1の眼を表すパーツとなる部材を備え、ロボット1の疑似的な視線を動かす動作が、黒眼を表す部材が物理的に可動する構成によって実現されてもよい。或いは、図2に示すように、視線提示部11による視線を動かす動作は、ディスプレイに表示された眼が何れかの方向を向くことによって実現される構成でもよい。上記の構成においては、ディスプレイが、視線提示部11の機構を実現するものと解釈してもよいし、視線提示部11が、ディスプレイを備えるものと解釈してもよい。
人検知部12は、例えば測域センサや赤外線カメラ等を備え、ロボット1の周囲の人、つまり人を検知する。なお、人検知部12の検知対象は人であることに限定されず、例えば動物又はその他の物体を検知可能な構成であってもよい。また、上記の構成においては、人検知部12又は制御部10が、人とそれ以外の動物及び物体とを、例えば機械学習等によって区別可能、又は体温や大きさ等から推定可能であってもよい。
走行部13は、少なくともロボット1を前進又は方向転換させる機能を有する車輪等の部材である。なお、走行部13は、ロボット1を後退させる機能も有していてもよい。また、走行部13は、例えばクローラ等によって実現される構成でもよい。
なお、ロボット1が備える各部材は単数であることに限定されず、複数の当該部材を備える構成でもよい。また、各部材における上述した処理の一部が、他の部材によって実行されてもよい。また、ロボット1が図1には図示しない外部の装置と通信する機能を有し、各部材における上述した一部の処理が、当該外部の装置によって実行される構成でもよい。また、ロボット1は、図示しないスピーカ等から制御部10の制御に基づいて音声を出力可能であってもよい。また、図2中の表情提示部14については後述する。
〔2.処理の流れ〕
以下、ロボット1が、検知した人に対して一時的に視線を向ける処理の流れについて、図1及び図3を参照してステップごとに説明する。図3は、本実施形態に係る処理の流れを示すフローチャートである。
以下、ロボット1が、検知した人に対して一時的に視線を向ける処理の流れについて、図1及び図3を参照してステップごとに説明する。図3は、本実施形態に係る処理の流れを示すフローチャートである。
(ステップS101)
ステップS101において、走行部13は、ロボット1の移動を開始し、例えばロボット1に予め入力された基本経路を巡回する。なお、ロボット1の移動において、ロボット1の視線は、走行方向を向いているものとする。つまり、視線提示部11は、ロボット1の視線方向を、当該走行方向に向ける制御を行う。なお、以降のステップにおいてもロボット1は移動を継続しているものとする。
ステップS101において、走行部13は、ロボット1の移動を開始し、例えばロボット1に予め入力された基本経路を巡回する。なお、ロボット1の移動において、ロボット1の視線は、走行方向を向いているものとする。つまり、視線提示部11は、ロボット1の視線方向を、当該走行方向に向ける制御を行う。なお、以降のステップにおいてもロボット1は移動を継続しているものとする。
(ステップS102)
続いて、ステップS102において、制御部10は、人検知部12が人を検知したか否かを判定する。なお、制御部10は、人検知部12がロボット1を基準とした所定の範囲において人を検知した場合に、人検知部12が人を検知したものとしてもよい。換言すると、人検知部12が人の存在を検知してはいるものの、当該人がロボット1を基準とした所定の範囲内に居ない場合、又は所定の距離内に居ない場合には、制御部10は、人検知部12が人を検知していないものとして扱ってもよい。制御部10が、人検知部12が人を検知したものと判定した場合、続いてステップS103の処理が実行され、そうでない場合、人を検知するまで、本ステップS102における判定処理が繰り返される。
続いて、ステップS102において、制御部10は、人検知部12が人を検知したか否かを判定する。なお、制御部10は、人検知部12がロボット1を基準とした所定の範囲において人を検知した場合に、人検知部12が人を検知したものとしてもよい。換言すると、人検知部12が人の存在を検知してはいるものの、当該人がロボット1を基準とした所定の範囲内に居ない場合、又は所定の距離内に居ない場合には、制御部10は、人検知部12が人を検知していないものとして扱ってもよい。制御部10が、人検知部12が人を検知したものと判定した場合、続いてステップS103の処理が実行され、そうでない場合、人を検知するまで、本ステップS102における判定処理が繰り返される。
(ステップS103)
ステップS103において、視線提示部11は、ロボット1の視線方向を、ステップS102において人検知部12が検知した人に向ける処理を行う。なお、ロボット1が人に向ける視線方向は、ロボット1に対する相対的な人の移動に追従させてもよい。
ステップS103において、視線提示部11は、ロボット1の視線方向を、ステップS102において人検知部12が検知した人に向ける処理を行う。なお、ロボット1が人に向ける視線方向は、ロボット1に対する相対的な人の移動に追従させてもよい。
(ステップS104)
続いて、ステップS104において、視線提示部11は、ロボット1の視線方向を元の走行方向に戻す処理を行う。なお、例えば、ロボット1と人とがすれ違う場合において、本ステップにおける処理は、ロボット1と人とがすれ違った後に行われてもよいし、すれ違う前に行われてもよい。つまり、本ステップにおける処理は、依然、人検知部12が、人を検知しているときに行われてもよい。換言すると、制御部10は、ロボット1の走行中(移動中)に、人検知部12が人を検知した場合に、視線提示部11を介して、ロボット1の視線を、一時的に、人に追従させた後、走行方向に向けてもよい。
続いて、ステップS104において、視線提示部11は、ロボット1の視線方向を元の走行方向に戻す処理を行う。なお、例えば、ロボット1と人とがすれ違う場合において、本ステップにおける処理は、ロボット1と人とがすれ違った後に行われてもよいし、すれ違う前に行われてもよい。つまり、本ステップにおける処理は、依然、人検知部12が、人を検知しているときに行われてもよい。換言すると、制御部10は、ロボット1の走行中(移動中)に、人検知部12が人を検知した場合に、視線提示部11を介して、ロボット1の視線を、一時的に、人に追従させた後、走行方向に向けてもよい。
上記の構成によれば、ロボット1が視線方向を人の移動に追従させることにより、人は、その間継続して安心感を得ることができる。
なお、本ステップの処理は、ステップS103における視線提示部11がロボット1の視線方向を人に向ける処理が行われてから、所定の時間経過後に行われる構成でもよい。
或いは一例として、本ステップの処理は、人検知部12が人を検知しなくなったとき、ロボット1とすれ違う人が加速したことを人検知部12が検知したとき、人がロボット1から離れる方向に向きを変えたことを人検知部12が検知したとき、又はロボット1の視線の角度が所定以上になったときに行われる構成でもよい。
ここまで、ロボット1が検知した対象が人である場合を例に挙げて説明したが、ロボット1は、検知した対象が、人、又は、人と動物とであった場合に視線方向を当該対象に向け、そうでない場合には視線方向を当該対象に向けない構成でもよい。
このようにロボット1は、走行部13を備え、制御部10は、走行部13による走行中(移動中)は、前記視線を走行方向に向けており、当該走行中に、人検知部12が人を検知した場合に、前記視線を、一時的に、当該人に向けてもよい。上記の構成によれば、後述するように、よりスムーズにロボット1と人とがすれ違うことができる。
以上が、図3のフローチャートに基づく処理の流れである。なお、視線提示部11がロボット1の視線方向を人、動物、又はその他の物体に向けるタイミングは、ロボット1が走行中であってもよいし、後述するように静止中であってもよい。また、ロボット1が、人と会話中である場合、又は通信処理中である場合等、所定の処理を行っている場合においても、人検知部12が対象を検知した場合には、都度、視線提示部11がロボット1の視線方向を当該対象に一時的に向けてもよい。
以下、本実施形態に係るロボット1の効果を、図4を参照して詳細に説明する。図4の各図は、ロボット1と人2とがすれ違う様子を示す概略図である。
ここで、図4の説明図401は、ロボット1が上述した処理を行わず、無作為な方向に視線を向けて人2とすれ違う様子を示している。また、説明図402は、ロボット1が上述した処理を行わず、終始、視線を走行方向に向けたまま、人2とすれ違う様子を示している。また、説明図403は、上述したように、人2に視線を一時的に向けて、当該人2とすれ違う様子を示している。
説明図401に示す構成においては、人2は、ロボット1が何れの方向に移動するかがよく分からず、不安であると言える。説明図401は、人2が安全のため、ロボット1から距離をとる様子を示している。
また、説明図402に示す構成においては、人2は、ロボット1が視線を走行方向に向けて移動しているため、ロボット1の走行方向を認識し易い。しかしながら、人2は、ロボット1が人2を認識しているかどうかがよく分からず、更に接近した場合に衝突する可能性が思い浮かび、不安であると言える。
一方で、説明図403に示す、本実施形態に係る構成においては、人2がロボット1の走行方向を認識し易い。更に、すれ違いざまにロボット1が人2に視線を一時的に向けることにより、人2は、自身がロボット1に認識されていることが把握でき、安心することができる。故に、例えば狭い通路においても、よりスムーズにロボット1と人2とがすれ違うことが可能である。以上、図4を参照して本実施形態に係るロボット1の効果について説明した。
なお、当然に、ロボット1が人に対して一時的に視線を向けるのは、移動中であることに限定されない。ロボット1が静止している場合においても、制御部10が、人検知部12が検知したと判定した人に対して、視線提示部11を介して視線を向けることにより、当該人は自身が認識されていることが把握でき、安心感を得ることができる。
また、ロボット1と人とが正対していた場合、当該人は、ロボット1の視線が当該人を向いているのか、単に走行方向を向いているのかを判断することは困難である。そこで、制御部10は、人検知部12が検知したと判定した人とロボット1とが正対していた場合、人に対して、視線提示部11を介して視線を向けた後に、特定の動作を行うことによって、当該人に自身が認識されていることを把握させるようにしてもよい。一例として、制御部10は、後述する表情提示部14を制御することによって上記特定の動作を行ってもよい。なお、表情提示部14は、ロボット1の眼または顔を提示する。制御部10は、上記特定の動作として、例えば、表情提示部14において眼を瞑らせることによって会釈を表現する構成であってもよいし、表情提示部14を人に向かってお辞儀するように傾けるものであってもよい。或いは制御部10は、上記特定の動作として、例えば表情提示部14において笑顔又はその他の所定の表情を提示する構成であってもよい。
上述したように、本実施形態に係るロボット1は、ロボット1の擬似的な視線を提示する視線提示部11と、ロボット1の周囲の人を検知する人検知部12と、視線提示部11が提示する前記視線を、一時的に、人検知部12が検知した人に向ける制御部10と、を備えている。上記の構成によれば、人に対する認識を容易に把握できるロボット1が実現できる。
〔実施形態1の変形例1〕
上述したように、ロボット1は、静止している場合、つまり移動せずに任意の方向に視線を向けている場合においても、検知したものと判定された人等に対して一時的に視線を向けてもよい。
上述したように、ロボット1は、静止している場合、つまり移動せずに任意の方向に視線を向けている場合においても、検知したものと判定された人等に対して一時的に視線を向けてもよい。
具体例としては、ロボット1が会話機能を有し、第1の人に視線を向けながら会話中である場合に、制御部10が、人検知部12が第2の人を検知したと判定したとき、ロボット1は、第2の人に対して一時的に視線を向けたのち、再度、第1の人の方に視線を向けてもよい。
本変形例において説明した処理において、ロボット1は移動しないので、ロボット1が走行部13を備えない構成でも構わない。
〔実施形態1の変形例2〕
ステップS103において、視線提示部11は、ロボット1の視線方向を、ステップS102において人検知部12が検知した人の眼に向ける処理を行ってもよい。
ステップS103において、視線提示部11は、ロボット1の視線方向を、ステップS102において人検知部12が検知した人の眼に向ける処理を行ってもよい。
本変形例および後述する変形例においては、人検知部12がカメラを備え、制御部10が上記カメラの撮像画像を参照する。また、制御部10は、視線提示部11が提示する前記視線の視線元に、人検知部12が検知した人が視線を向けるタイミングを推定し、視線提示部11が提示する前記視線を、人検知部12が検知した人の眼に、前記推定したタイミングで向けてもよい。
また、図2に示す例において、視線提示部11が提示する視線の視線元とは、表情提示部14が提示するロボット1の眼または顔を意味する。
即ち、本変形例の構成を別の観点から言えば、制御部10が、人の視線移動の軌跡を予測し、予測した視線移動の軌道上にロボット1の眼や顔があると推定した場合、視線提示部11が、人がロボットの眼や顔を注視するタイミングと、ロボット1が人の眼を注視するタイミングとが一致するように制御する。
また、人がロボット1の眼に視線を向けるタイミングを制御部10が推定する方法は、特に限定されず、既存の手法を応用してもよい。上記既存の手法に関する技術の一例としては、瞳孔の外観計測等により人の視線や注視点を推定する技術が挙げられ、例えば、車両運転時の運転者の覚醒状態の推定や、Virtual Reality環境またはMixed Reality環境を使用するユーザへのシステム応答等に利用されている技術等が挙げられる。また、機械学習により人検知部12が備えるカメラの撮像画像から人の視線や注視点を推定してもよい。
このように、ロボット1と人との双方が相手の眼から目線を外した状態からタイミングを同調してアイコンタクトするようにロボット1の眼を制御することで、相手のロボット1への関心を非常に高める効果が期待できる。また、視線提示部11は、ロボット1と人とがアイコンタクトをした状態が一定時間継続された場合、例えばウインク等によって眼や顔のパターンを変化させて感情を表現することで、特定の情報を人に伝達することも可能となる。
〔実施形態1の変形例3〕
ステップS103において、視線提示部11は、ロボット1の視線方向を、ステップS102において人検知部12が検知した人が注視していると推定される位置に向ける処理を行ってもよい。本変形例に係る制御部10は、人検知部12が検知した人が視線を向ける先を推定し、視線提示部11が提示する視線を、前記視線を向ける先に向ける構成である。制御部10が人の視線を推定する方法は、上述したとおりである。
ステップS103において、視線提示部11は、ロボット1の視線方向を、ステップS102において人検知部12が検知した人が注視していると推定される位置に向ける処理を行ってもよい。本変形例に係る制御部10は、人検知部12が検知した人が視線を向ける先を推定し、視線提示部11が提示する視線を、前記視線を向ける先に向ける構成である。制御部10が人の視線を推定する方法は、上述したとおりである。
これにより、例えばロボット1の移動先に障害物がある場合、障害物に人が視線を向けたときにロボット1の視線方向を当該障害物とすることで、ロボット1が当該障害物を認識していることを容易に人に伝達することができる。また、人が自身の操作する物体に視線を向けているとき、ロボット1の視線方向を当該物体とすることで、ロボット1が当該物体を認識していることを容易に人に伝達することができる。
また、別の態様として、ロボット1がアーム等の機構を備え、人の音声による指示等に基づいて物体を把持することが可能な構成であってもよい。
従来、人がロボットに対して「あれを取ってください」と声をかけたとしても、音声認識だけではロボットが把持対象を決定することは困難である。また「あれとは何ですか」、「コップです」というような会話を重ねたとしても、人が意図する物体の名称とロボットが認識する名称とが一致するとは限らない。
一方で、上述したロボット1の構成によれば、相手の注視点を検知して物体を認識し、ロボット1も同一物体を注視して「あれを取りますね」と返答することで、把持対象の物体を動作前に確認してから行動を開始することができる。また、物体の名称が、人とロボット1とで一致しない場合またはロボット1にとって未知である場合であっても、視線動作を交えることによって対象となる物体の相互理解が向上する。
なお、ロボット1が視線を向ける先は、人が手や指または身振りで指示している物体であってもよい。別の観点から言えば、人検知部12が、ロボット1の周囲の人を検出し、制御部10が、当該検出した人が指等で指示する対象を推定し、視線提示部11が提示する前記視線を、当該推定した対象に向ける制御を行う構成であってもよい。なお、制御部10が、前記検出した人が指等で指示する対象を推定する方法は、特に限定されず、既存の手法を応用してもよい。上記既存の手法に関する技術の一例としては、モーションキャプチャ等の人の指の方向を検出する技術が挙げられる。また、機械学習により人検知部12が備えるカメラの撮像画像から検出した人が指等で指示する方向を推定してもよい。制御部10は、前記検出した人から見て前記推定した方向の先に存在する物体を、前記検出した人が指等で指示する対象として推定すればよい。
〔実施形態1の変形例4〕
ステップS103において、ロボット1は、検知した人に視線方向を向けた場合において、人がロボット1に近づいてきたこと、又は上述したように人がロボット1に視線を向けてきたと制御部10が推定した場合、移動を中断して当該人の方向に体の向きを変え、挨拶等を行うことによってコミュニケーションをとる構成であってもよい。また、続いて人がロボット1から離れたことを人検知部12が検知した場合に、元の移動を再開する構成であってもよい。
ステップS103において、ロボット1は、検知した人に視線方向を向けた場合において、人がロボット1に近づいてきたこと、又は上述したように人がロボット1に視線を向けてきたと制御部10が推定した場合、移動を中断して当該人の方向に体の向きを変え、挨拶等を行うことによってコミュニケーションをとる構成であってもよい。また、続いて人がロボット1から離れたことを人検知部12が検知した場合に、元の移動を再開する構成であってもよい。
なお、上述した各変形例における構成は、以降の実施形態に対しても適用可能である。
〔実施形態2〕
本発明の第2の実施形態について、図1、図4~図7を参照して説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。また、以降の実施形態においても同様である。本実施形態においては、ロボットが視線を人に向けることに加えて表情を提示する構成について説明する。
本発明の第2の実施形態について、図1、図4~図7を参照して説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。また、以降の実施形態においても同様である。本実施形態においては、ロボットが視線を人に向けることに加えて表情を提示する構成について説明する。
〔1.ロボット1aの構成〕
図5を参照して本実施形態の構成について説明する。図5は、本実施形態に係るロボット1aの機能ブロック図である。
図5を参照して本実施形態の構成について説明する。図5は、本実施形態に係るロボット1aの機能ブロック図である。
ロボット1aは、図1に示すロボット1から、更に表情提示部14を備える構成である。表情提示部14は、ロボット1aの擬似的な表情を提示する。なお、表情提示部14が実現される構成は、特定の構成に限定されない。例えば、表情提示部14が、ロボット1aの口等を表すパーツとなる部材を備え、ロボット1aの疑似的な表情を提示する動作が、当該部材が物理的に可動する構成によって実現されてもよい。或いは、図2に示すように、表情提示部14による表情を提示する動作は、ディスプレイに表示された顔の表情が変化すること、つまり口等の位置や向きが変化することによって実現される構成でもよい。上記の構成においては、ディスプレイが、表情提示部14、又は表情提示部14と視線提示部11との機構を実現するものと解釈してもよいし、表情提示部14、又は表情提示部14と視線提示部11とが、単独で又は共同でディスプレイを備えるものと解釈してもよい。また、表情提示部14が提示可能な表情は特に限定されないが、例えば、喜び、安堵、怒り、悲しみ等の表情であってよい。
〔2.処理の流れ〕
以下、ロボット1aが、検知した人に対して視線を向けることに加え、表情を提示する処理について、図5及び図6を参照してステップごとに説明する。図6は、本実施形態に係る処理の流れを示すフローチャートである。
以下、ロボット1aが、検知した人に対して視線を向けることに加え、表情を提示する処理について、図5及び図6を参照してステップごとに説明する。図6は、本実施形態に係る処理の流れを示すフローチャートである。
(ステップS101、S102)
ステップS101、S102においては、実施形態1と同様の処理を行う。ステップS102において、制御部10が、人検知部12が人を検知したものと判定した場合、続いてステップS203の処理が実行される。
ステップS101、S102においては、実施形態1と同様の処理を行う。ステップS102において、制御部10が、人検知部12が人を検知したものと判定した場合、続いてステップS203の処理が実行される。
(ステップS203)
ステップS203において、視線提示部11は、ロボット1aの視線方向を、ステップS102において人検知部12が検知した人に向ける処理を行う。そして表情提示部14は、ロボット1aの表情を変化させて人に提示する処理を行う。なお、ロボット1aが人に向ける視線方向は、ロボット1aに対する相対的な人の移動に追従させてもよい。
ステップS203において、視線提示部11は、ロボット1aの視線方向を、ステップS102において人検知部12が検知した人に向ける処理を行う。そして表情提示部14は、ロボット1aの表情を変化させて人に提示する処理を行う。なお、ロボット1aが人に向ける視線方向は、ロボット1aに対する相対的な人の移動に追従させてもよい。
(ステップS204)
続いて、ステップS204においては、視線提示部11がステップS104と同様の処理、つまりロボット1aの視線方向を元の走行方向に戻す処理を行う。そして、表情提示部14は、ロボット1aの表情を元の表情に戻す処理を行う。ただし、ステップS203において人に提示した表情が特に笑顔である場合、人検知部12が、例えば人がロボット1aの近傍に居ることを検知している間は、笑顔であることがより好ましい。
続いて、ステップS204においては、視線提示部11がステップS104と同様の処理、つまりロボット1aの視線方向を元の走行方向に戻す処理を行う。そして、表情提示部14は、ロボット1aの表情を元の表情に戻す処理を行う。ただし、ステップS203において人に提示した表情が特に笑顔である場合、人検知部12が、例えば人がロボット1aの近傍に居ることを検知している間は、笑顔であることがより好ましい。
以上が図6のフローチャートに基づく処理の流れである。このように、本実施形態に係るロボット1aは、ロボット1aの擬似的な表情を提示する表情提示部14を備え、制御部10は、前記視線を、一時的に、人検知部12が検知した人に向けるとき、表情提示部14が提示する前記表情を変化させる。
以下、本実施形態に係るロボット1aの効果を、図7を参照して詳細に説明する。図7の各図は、ロボット1aが人2とすれ違う様子を示す概略図である。
一例として、図7の説明図701は、ロボット1aがすれ違いざま人2に視線を向けて、笑顔を提示した様子を示している。また、説明図702は、ロボット1aがすれ違いざま人2に視線を向けて、困った表情を提示した様子を示している。説明図701及び説明図702に示す構成においては、実施形態1で図4の説明図403を参照して上述した効果に加え、以下のような効果が得られる。
説明図701に示す構成においては、人2がロボット1aに対する親近感が得られる効果を奏する。説明図701は、人2がロボット1aに更に近づく様子を示している。
説明図702に示す構成においては、人2は、例えばロボット1aが人2との衝突を予想しているものと推定できる。説明図702は、人2が安全のため、ロボット1aから距離をとる様子を示している。以上、図7を参照して本実施形態に係るロボット1aの効果について説明した。
なお、ロボット1aが人に対して視線を向け、表情を提示するのは、移動中であることに限定されない。ロボット1aが静止している場合においても、制御部10が、人検知部12が検知したと判定した人に対して、視線提示部11を介して視線を向け、表情提示部14を介して表情を提示することにより、当該人は安心感や楽しさを得ることができる。
また、ロボット1aは、自身の状態、例えばバッテリー残量等に応じて提示する表情を決定してもよい。例えば当該バッテリー残量が十分である場合には、笑顔を、そうでない場合には困った顔を人に提示する構成でもよい。上記の構成において、人は、提示される表情に応じてロボット1aのバッテリー残量を容易に把握することができる。
〔実施形態3〕
本発明の第3の実施形態について、図5、図8~10を参照して説明する。本実施形態においては、ロボットが、ロボット自身に対して人が正対するように誘導し、人の生体情報を計測する構成について説明する。
本発明の第3の実施形態について、図5、図8~10を参照して説明する。本実施形態においては、ロボットが、ロボット自身に対して人が正対するように誘導し、人の生体情報を計測する構成について説明する。
〔1.ロボット1bの構成〕
図8を参照して本実施形態の構成について説明する。図8は、本実施形態に係るロボット1bの機能ブロック図である。
図8を参照して本実施形態の構成について説明する。図8は、本実施形態に係るロボット1bの機能ブロック図である。
ロボット1bは、図5に示すロボット1aから、更に計測部15を備える構成である。計測部15は、人検知部12が検知した人の生体情報を、レーザ計測などの手法によって非接触で計測する。計測部15は、図9に例示するように、人検知部12が備えるカメラの撮影画像を分析して人の頭部を識別し、前記頭部における体温を計測する。また、図9において、オブジェクト20は、ロボット1aの位置を示している。また、オブジェクト21の円弧部分は、レーザによって計測された、人の足の表面を示しており、円部分は、人の足の位置を示している。オブジェクト22は、レーザによって計測された、施設の壁の表面を示している。
なお、計測部15が計測する生体情報は、体温に限定されない。例えば計測部15がドップラーセンサを備え、心拍数等を測定する構成であってもよいし、顔色等を計測してもよい。また、計測部15による計測において機械学習が用いられる構成であってもよい。また、前記構成においては、例えば計測部15が顔認証を行って、検知された人を特定し、前記人に応じた計測を行ってもよい。
また、本実施形態に係る制御部10は、例えば計測部15による撮影画像の分析結果を参照して、人の視線方向がロボット1bの方向を向いているか否かと、人の少なくとも頭部がロボット1bの方向を向いているか否かとを判定する機能を有する。
〔2.処理の流れ〕
以下、ロボット1bが、検知した人を対象として生体情報を計測する処理について、図9及び図10を参照してステップごとに説明する。図10は、本実施形態に係る処理の流れを示すフローチャートである。
以下、ロボット1bが、検知した人を対象として生体情報を計測する処理について、図9及び図10を参照してステップごとに説明する。図10は、本実施形態に係る処理の流れを示すフローチャートである。
(ステップS101、S102)
ステップS101、S102においては、実施形態1と同様の処理を行う。ステップS102において、制御部10が、人検知部12が人を検知したものと判定した場合、続いてステップS303の処理が実行される。
ステップS101、S102においては、実施形態1と同様の処理を行う。ステップS102において、制御部10が、人検知部12が人を検知したものと判定した場合、続いてステップS303の処理が実行される。
(ステップS303)
ステップS303において、視線提示部は、ロボット1bの視線方向を、ステップS102において人検知部12が検知した前記人に向け、元の走行方向に戻す処理を行う。
ステップS303において、視線提示部は、ロボット1bの視線方向を、ステップS102において人検知部12が検知した前記人に向け、元の走行方向に戻す処理を行う。
(ステップS304)
ステップS304において、制御部10は、前記人の視線方向、又は人の進行方向がロボット1bに向けられたか否かを判定する。制御部10が、前記視線方向又は前記進行方向の少なくとも何れかがロボット1bに向けられたと判定した場合、続いてステップS305の処理が実行される。また、制御部10は、前記視線方向及び前記進行方向の何れもロボット1bに向けられていないと判定した場合、続いてステップS307の処理を実行する。
ステップS304において、制御部10は、前記人の視線方向、又は人の進行方向がロボット1bに向けられたか否かを判定する。制御部10が、前記視線方向又は前記進行方向の少なくとも何れかがロボット1bに向けられたと判定した場合、続いてステップS305の処理が実行される。また、制御部10は、前記視線方向及び前記進行方向の何れもロボット1bに向けられていないと判定した場合、続いてステップS307の処理を実行する。
(ステップS305)
ステップS305において、視線提示部は、ロボット1bの視線方向を、前記人の眼に向けて注視させる処理を行う。また、本ステップS305等においては、図9に例示するように、図示しないスピーカを介して制御部10が挨拶等の音声を出力してもよい。
ステップS305において、視線提示部は、ロボット1bの視線方向を、前記人の眼に向けて注視させる処理を行う。また、本ステップS305等においては、図9に例示するように、図示しないスピーカを介して制御部10が挨拶等の音声を出力してもよい。
(ステップS306)
ステップS306において、制御部10は、前記人の視線方向がロボット1bの眼に向けられているか否か、換言すると、前記人とロボット1bとの間でアイコンタクトが成立したか否かを判定する。制御部10は、前記人の視線方向がロボット1bの眼に向けられていると判定した場合、続いてステップS308の処理を実行し、向けられていないと判定した場合、続いてステップS307の処理を実行する。
ステップS306において、制御部10は、前記人の視線方向がロボット1bの眼に向けられているか否か、換言すると、前記人とロボット1bとの間でアイコンタクトが成立したか否かを判定する。制御部10は、前記人の視線方向がロボット1bの眼に向けられていると判定した場合、続いてステップS308の処理を実行し、向けられていないと判定した場合、続いてステップS307の処理を実行する。
ロボット1bの視線以外の例えば音声を用いた構成によっても、前記人の視線や姿勢を誘導することは可能であるが、ロボット1bの視線を用いた構成は、前記人による注視の維持又は開放を直感的に誘導することが可能である上に、前記人に対して特に信頼感を与えやすくなる。
(ステップS307)
ステップS307において、制御部10は、ステップS304における判定処理を行った合計回数、又はステップS306における判定処理を行った合計回数が所定回数に達したか否かを判定する。ここで、前記合計回数とは、対象となるステップに遷移した合計回数とも換言できる。制御部10が、何れかの前記合計回数が所定回数に達したと判定した場合、続いてステップS101からの処理が繰り返される。制御部10が、何れの前記合計回数も所定回数に達していないと判定した場合、続いてステップS303からの処理が繰り返される。
ステップS307において、制御部10は、ステップS304における判定処理を行った合計回数、又はステップS306における判定処理を行った合計回数が所定回数に達したか否かを判定する。ここで、前記合計回数とは、対象となるステップに遷移した合計回数とも換言できる。制御部10が、何れかの前記合計回数が所定回数に達したと判定した場合、続いてステップS101からの処理が繰り返される。制御部10が、何れの前記合計回数も所定回数に達していないと判定した場合、続いてステップS303からの処理が繰り返される。
なお、ステップS304における判定処理を行った合計回数と比較される所定回数と、ステップS306における判定処理を行った合計回数と比較される所定回数とは、互いに異なることが望ましい。
(ステップS308)
ステップS308において、制御部10は、ロボット1bの少なくとも頭部を、前記人の方向に向けて正対させる。
ステップS308において、制御部10は、ロボット1bの少なくとも頭部を、前記人の方向に向けて正対させる。
(ステップS309)
ステップS309において、制御部10は、前記人の少なくとも頭部が、ロボット1bに正対する方向に向けられているか否かを判定する。制御部10が、前記人の少なくとも頭部がロボット1bに正対する方向に向けられていると判定した場合、続いてステップS310の処理が実行され、向けられていないと判定した場合、制御部10は、続いてステップS312の処理を実行する。
ステップS309において、制御部10は、前記人の少なくとも頭部が、ロボット1bに正対する方向に向けられているか否かを判定する。制御部10が、前記人の少なくとも頭部がロボット1bに正対する方向に向けられていると判定した場合、続いてステップS310の処理が実行され、向けられていないと判定した場合、制御部10は、続いてステップS312の処理を実行する。
(ステップS310)
ステップS310において、表情提示部は、前記人がロボット1bに正対した状態を維持させるために、ロボット1bの表情を変化させる。表情提示部は、例えばロボット1bの眼を瞑らせることによって会釈を表現してもよい。ここで、前記人がロボット1bに正対した状態を維持させるのは、計測部15による計測において、計測時間及び計測状態に関する要件をできるだけ満たすようにするためである。
ステップS310において、表情提示部は、前記人がロボット1bに正対した状態を維持させるために、ロボット1bの表情を変化させる。表情提示部は、例えばロボット1bの眼を瞑らせることによって会釈を表現してもよい。ここで、前記人がロボット1bに正対した状態を維持させるのは、計測部15による計測において、計測時間及び計測状態に関する要件をできるだけ満たすようにするためである。
なお、ロボット1bが表情提示部を備え、本ステップS310の処理がなされる構成は、必ずしも必須の要件ではなく、本ステップS310の処理が省略される構成であってもよい。
(ステップS311)
ステップS311において、制御部10は、前記人の少なくとも頭部がロボット1bに正対する方向に向けられた状態が維持されているか否かを判定する。制御部10が、前記状態が維持されていると判定した場合、続いてステップS313の処理が実行される。制御部10は、前記状態が維持されていないと判定した場合、続いてステップS312の処理を実行する。
ステップS311において、制御部10は、前記人の少なくとも頭部がロボット1bに正対する方向に向けられた状態が維持されているか否かを判定する。制御部10が、前記状態が維持されていると判定した場合、続いてステップS313の処理が実行される。制御部10は、前記状態が維持されていないと判定した場合、続いてステップS312の処理を実行する。
(ステップS312)
ステップS312において、制御部10は、ステップS309における判定処理を行った合計回数、又はステップS311における判定処理を行った合計回数が所定回数に達したか否かを判定する。
ステップS312において、制御部10は、ステップS309における判定処理を行った合計回数、又はステップS311における判定処理を行った合計回数が所定回数に達したか否かを判定する。
制御部10が、何れかの前記合計回数が所定回数に達したと判定した場合、続いてステップS101からの処理が繰り返される。制御部10は、何れの前記合計回数も所定回数に達していないと判定した場合、続いてステップS309からの処理を繰り返す。
なお、ステップS309における判定処理を行った合計回数と比較される所定回数と、ステップS311における判定処理を行った合計回数と比較される所定回数とは、互いに異なることが望ましい。
(ステップS313)
ステップS313において、計測部15は、前記人の生体情報を計測する。前記人がロボット1bに正対しているので、正対していない場合と比較して、計測部15がより正確に生体情報を計測することができる。また、例えば計測部15は、前記人の顔の一部が麻痺している場合等における左右非対称な表情の変化を計測すること、及び鼻先や口元等の顔の一部の領域における温度を計測することができる。
ステップS313において、計測部15は、前記人の生体情報を計測する。前記人がロボット1bに正対しているので、正対していない場合と比較して、計測部15がより正確に生体情報を計測することができる。また、例えば計測部15は、前記人の顔の一部が麻痺している場合等における左右非対称な表情の変化を計測すること、及び鼻先や口元等の顔の一部の領域における温度を計測することができる。
(ステップS314)
ステップS314において、制御部10は、計測部15による、前記人の生体情報の計測が終了したか否かを判定する。制御部10は、前記計測が終了したと判定した場合、ロボット1bの巡回等を再開するものとして、続いてステップS101からの処理が再開される。制御部10は、前記計測が終了していないと判定した場合、計測部15による計測を継続させつつ、ステップS309からの処理を繰り返す。
ステップS314において、制御部10は、計測部15による、前記人の生体情報の計測が終了したか否かを判定する。制御部10は、前記計測が終了したと判定した場合、ロボット1bの巡回等を再開するものとして、続いてステップS101からの処理が再開される。制御部10は、前記計測が終了していないと判定した場合、計測部15による計測を継続させつつ、ステップS309からの処理を繰り返す。
なお、本ステップS314において、制御部10は、計測部15による計測結果を示す情報を、外部の装置に送信する構成であってもよい。
上述したように、ロボット1bが計測部15を備えることにより、人検知部12が検知した人の生体情報を計測することができる。加えて、制御部10が、視線提示部が提示する視線を、一時的に、人検知部12が検知した人に向けることにより、前記人がロボット1bに正対するように誘導し、計測部15がより正確に生体情報を計測することに寄与する。
〔ソフトウェアによる実現例〕
ロボット1(1a、1b)の制御ブロック(特に制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
ロボット1(1a、1b)の制御ブロック(特に制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、ロボット1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
〔まとめ〕
本発明の態様1に係るロボット(1、1a、1b)は、前記ロボットの擬似的な視線を提示する視線提示部(11)と、前記ロボットの周囲の人を検知する人検知部(12)と、前記視線提示部が提示する前記視線を、一時的に、前記人検知部が検知した人に向ける制御部(10)と、を備えている構成である。上記の構成によれば、人に対する認識を容易に把握できるロボットが実現できる。
本発明の態様1に係るロボット(1、1a、1b)は、前記ロボットの擬似的な視線を提示する視線提示部(11)と、前記ロボットの周囲の人を検知する人検知部(12)と、前記視線提示部が提示する前記視線を、一時的に、前記人検知部が検知した人に向ける制御部(10)と、を備えている構成である。上記の構成によれば、人に対する認識を容易に把握できるロボットが実現できる。
本発明の態様2に係るロボットは、上記の態様1において、走行部(13)をさらに備え、前記制御部は、前記走行部による走行中は、前記視線を走行方向に向けており、当該走行中に、前記人検知部が人を検知した場合に、前記視線を、一時的に、当該人に向ける構成としてもよい。上記の構成によれば、よりスムーズにロボットと人とがすれ違うことができる。
本発明の態様3に係るロボットは、上記の態様2において、前記制御部は、前記走行中に、前記人検知部が人を検知した場合に、前記視線を、一時的に、当該人に追従させた後、前記走行方向に向ける構成としてもよい。上記の構成によれば、ロボットが視線方向を人の移動に追従させることにより、人は、その間継続して安心感を得ることができる。
本発明の態様4に係るロボットは、上記の態様1~3のいずれかにおいて、前記ロボットの擬似的な表情を提示する表情提示部(14)をさらに備え、前記制御部は、前記視線を、一時的に、前記人検知部が検知した人に向けるとき、前記表情提示部が提示する前記表情を変化させる構成としてもよい。上記の構成によれば、人に対する認識をより容易に把握できるロボットが実現できる。
本発明の態様5に係るロボットは、上記の態様1~4のいずれかにおいて、前記人検知部が検知した人の生体情報を計測する計測部(15)をさらに備える構成としてもよい。上記の構成によれば、人検知部が検知した人の生体情報の計測が可能となる。また、前記人がロボットに正対するように制御部が誘導し、計測部がより正確に生体情報を計測することに寄与する。
本発明の態様6に係るロボットは、上記の態様1~5のいずれかにおいて、前記制御部は、前記視線提示部が提示する前記視線の視線元に、前記人検知部が検知した人が視線を向けるタイミングを推定し、前記視線提示部が提示する前記視線を、前記人検知部が検知した人の眼に、前記推定したタイミングで向ける構成としてもよい。上記の構成によれば、上記の人のロボットへの関心を非常に高める効果が期待できる。
本発明の態様7に係るロボット(1、1a、1b)は、前記ロボットの擬似的な視線を提示する視線提示部(11)と、前記ロボットの周囲の人を検知する人検知部(12)と、前記視線提示部が提示する前記視線を、前記人検知部が検知した人が視線を向ける先に向ける制御部(10)と、を備えている構成である。上記の構成によれば、例えば人が視線を向けている物体を、ロボットが認識していることを容易に伝達することができる。
本発明の態様8に係るロボット(1、1a、1b)は、前記ロボットの擬似的な視線を提示する視線提示部(11)と、前記ロボットの周囲の人を検知する人検知部(12)と、前記視線提示部が提示する前記視線を、前記人検知部が検知した人が指示する対象に向ける制御部(10)と、を備えている構成である。
上記の構成によれば、例えば人が指示する対象を、ロボットが認識していることを容易に伝達することができる。
上記の構成によれば、例えば人が指示する対象を、ロボットが認識していることを容易に伝達することができる。
1、1a、1b ロボット
2 人
10 制御部
11 視線提示部
12 人検知部
13 走行部
14 表情提示部
15 計測部
2 人
10 制御部
11 視線提示部
12 人検知部
13 走行部
14 表情提示部
15 計測部
Claims (8)
- ロボットであって、
前記ロボットの擬似的な視線を提示する視線提示部と、
前記ロボットの周囲の人を検知する人検知部と、
前記視線提示部が提示する前記視線を、一時的に、前記人検知部が検知した人に向ける制御部と、を備えていることを特徴とするロボット。 - 走行部をさらに備え、
前記制御部は、前記走行部による走行中は、前記視線を走行方向に向けており、当該走行中に、前記人検知部が人を検知した場合に、前記視線を、一時的に、当該人に向けることを特徴とする請求項1に記載のロボット。 - 前記制御部は、前記走行中に、前記人検知部が人を検知した場合に、前記視線を、一時的に、当該人に追従させた後、前記走行方向に向けることを特徴とする請求項2に記載のロボット。
- 前記ロボットの擬似的な表情を提示する表情提示部をさらに備え、
前記制御部は、前記視線を、一時的に、前記人検知部が検知した人に向けるとき、前記表情提示部が提示する前記表情を変化させることを特徴とする請求項1~3のいずれか一項に記載のロボット。 - 前記人検知部が検知した人の生体情報を計測する計測部をさらに備えることを特徴とする請求項1~4の何れか一項に記載のロボット。
- 前記制御部は、前記視線提示部が提示する前記視線の視線元に、前記人検知部が検知した人が視線を向けるタイミングを推定し、前記視線提示部が提示する前記視線を、前記人検知部が検知した人の眼に、前記推定したタイミングで向ける請求項1~5のいずれか一項に記載のロボット。
- ロボットであって、
前記ロボットの擬似的な視線を提示する視線提示部と、
前記ロボットの周囲の人を検知する人検知部と、
前記視線提示部が提示する前記視線を、前記人検知部が検知した人が視線を向ける先に向ける制御部と、を備えていることを特徴とするロボット。 - ロボットであって、
前記ロボットの擬似的な視線を提示する視線提示部と、
前記ロボットの周囲の人を検知する人検知部と、
前記視線提示部が提示する前記視線を、前記人検知部が検知した人が指示する対象に向ける制御部と、を備えていることを特徴とするロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021080573A JP2022174639A (ja) | 2021-05-11 | 2021-05-11 | ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021080573A JP2022174639A (ja) | 2021-05-11 | 2021-05-11 | ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022174639A true JP2022174639A (ja) | 2022-11-24 |
Family
ID=84144668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021080573A Pending JP2022174639A (ja) | 2021-05-11 | 2021-05-11 | ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022174639A (ja) |
-
2021
- 2021-05-11 JP JP2021080573A patent/JP2022174639A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11000952B2 (en) | More endearing robot, method of controlling the same, and non-transitory recording medium | |
WO2019087495A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11709476B2 (en) | Information processing apparatus, information processing method and program | |
WO2020031767A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US10350761B2 (en) | Communication device | |
JP2009045692A (ja) | コミュニケーションロボットとその動作方法 | |
JP7559900B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
US20200272810A1 (en) | Response apparatus and response method | |
Maciel et al. | Shared control methodology based on head positioning and vector fields for people with quadriplegia | |
JP2022174639A (ja) | ロボット | |
US20240016677A1 (en) | Device and method for navigating and/or guiding the path of a vehicle, and vehicle | |
Sharma et al. | Eye gaze controlled robotic arm for persons with ssmi | |
WO2017085963A1 (ja) | 情報処理装置、及び映像表示装置 | |
CA3231733A1 (en) | System and method for monitoring human-device interactions | |
CN113995416A (zh) | 用于显示眼镜中的用户界面的装置和方法 | |
US12128543B2 (en) | Information processing device and information processing method | |
JP7133733B1 (ja) | ロボットシステム、ロボット操作方法、及びロボット操作プログラム | |
JP7442341B2 (ja) | ロボット、ロボット制御プログラムおよびロボット制御方法 | |
Yamashita et al. | Face direction recognition system for robot control system using fingertip gesture | |
CN114998700B (zh) | 一种人机交互场景下多特征融合的沉浸度计算方法及系统 | |
Fujita | 17.1 AI x Robotics: Technology Challenges and Opportunities in Sensors, Actuators, and Integrated Circuits | |
US11493994B2 (en) | Input device using bioelectric potential | |
Fukuoka | A Study on Sensory Attenuation with Virtual Supernumerary Robotic Limbs Controlled by Facial Movements | |
Xu et al. | A Practical, Robust, Accurate Gaze-Based Intention Inference Method for Everyday Human-Robot Interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240131 |