JP7253900B2 - コミュニケーションロボット - Google Patents
コミュニケーションロボット Download PDFInfo
- Publication number
- JP7253900B2 JP7253900B2 JP2018212853A JP2018212853A JP7253900B2 JP 7253900 B2 JP7253900 B2 JP 7253900B2 JP 2018212853 A JP2018212853 A JP 2018212853A JP 2018212853 A JP2018212853 A JP 2018212853A JP 7253900 B2 JP7253900 B2 JP 7253900B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- person
- distance
- communication robot
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
Description
すなわち、特許文献1には、ロボット制御装置が人(利用者)に対して行うアクションを決定してコミュニケーションロボットに実行させる。そして、このアクションに対する人からのリアクションが検出されると、ロボット制御装置は、リアクションに基づいて人に話しかける可能性を判定し、判定結果に基づいてコミュニケーションロボットの動作モードを制御する技術が記載されている。
特に、ロボットが設置された位置から移動できない静置型のコミュニケーションロボットの場合、応対可能領域が設置位置の周囲に制限されてしまう。したがって、静置型コミュニケーションロボットの場合には、誘導や案内などのロボットに与えられた役割を果たすことが困難なケースが発生する。
また、歩行などの移動が可能なコミュニケーションロボットの場合でも、移動可能な範囲が制限される等の理由で、静置型コミュニケーションロボットの場合と同様の問題が発生することもある。
本願は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、本発明のコミュニケーションロボットは、筐体に取り付けられたパーツと、筐体そのものとの少なくともいずれか一方を可動させる駆動部と、筐体の周囲の人の音声を取得する音声取得部と、音声を発生する音声発生部とを備える。
さらに、本発明のコミュニケーションロボットは、筐体に取り付けられた検出センサの検出信号に基づいて、人の存在を検出する人検出部と、人検出部が検出した人の位置又は距離を算出する算出部と、算出部が算出した人の位置又は距離に基づいて、予め設定された実行条件で駆動部によるパーツ又は筐体の動作を制御する動作制御部と、人を誘導可能な方向についての情報を保持する誘導可能方向データ保持部と、を備える。
動作制御部の制御による駆動部の動作には、探索動作と誘導動作とがあり、誘導動作では、動作制御部は、誘導可能方向データ保持部が保持した誘導可能方向データで示される誘導可能な方向に対する、算出部が算出した位置又は距離に応じて、実行条件を変更しながら、パーツと筐体の少なくともいずれか一方の可動により人を誘導するように、パーツ又は筐体を可動させる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
以下、本発明の第1の実施の形態例について、図1~図10を参照して詳細に説明する。
図1は、第1の実施の形態例のコミュニケーションロボット1の外観形状の例を示す。本実施の形態例のコミュニケーションロボット1は、例えば人が来る方向や人が存在するエリアが定まっているような、建物の出入口付近の受付などに設置されるものである。コミュニケーションロボット1は、自律移動ができない静置型のロボットである。但し、コミュニケーションロボット1を静置型としたのは一例であり、コミュニケーションロボット1に車輪や歩行用の脚部を設けるようにしてもよい。
頭部2には、顔部2aと、その表面に目を表現する疑似的な右目8R及び左目8Lが取り付けられている。また、胴体上部3には、右腕部6R及び左腕部6Lが取り付けられている。
コミュニケーションロボット1は、その動作制御システムとして電子演算処理部70を備える。電子演算処理部70は、コンピュータ装置と記憶装置などで構成され、実装されたプログラム(ソフトウェア)を実行することにより、コミュニケーションロボット1の動作を制御する。図2に示す電子演算処理部70の内部構成は、電子演算処理部70が行うソフトウェア機能から見た構成である。
人検出部71は、検出センサ10の出力信号に基づいて、人の顔を検出する。
位置算出部72は、人検出部71が顔を検出した人までの距離、又は人がいる位置を算出する。具体的には、位置算出部72において、人の顔が検出されている場合、その人の顔の位置を取得する。
また、位置算出部72はメモリ機能を有しており、検出した顔に対する距離DFと偏差角度φFを記憶することができ、前回記録された距離との差分から距離変化ΔDF、偏差角度変化ΔφFを算出することができる。
コミュニケーションが可能な範囲は、例えばコミュニケーションロボット1から数m程度までの距離の範囲である。このコミュニケーションが可能な範囲は、音声取得部9で人の話し声を拾うことができる範囲でもある。
言語応答データベース部76には、取得した言語の内容(会話内容)に対する発話動作、可動部動作及び表示動作などの応答動作が登録されており、この言語応答データベース部76から、音声・言語処理部73で取得した言語に対応した応答動作が読み出される。
次に、コミュニケーションロボット1が行う動作の例を、図4~図8を参照して説明する。なお、以下の動作で説明する3軸(x軸、y軸、z軸)は、図1の右下に示す軸で規定される。すなわち、図1に示すようにコミュニケーションロボット1の水平面の左右方向をx軸、水平面の前後方向をy軸、上下方向(垂直方向)をz軸とする。
図4に示すように、コミュニケーションロボット1の胴体下部4は、腰部5に対してz軸周りに可動することができ、旋回動作が可能である。図4に示す例では、コミュニケーションロボット1は、可動中心点51を基準に、腰部5に対して胴体下部4が旋回角度θA(ここでは角度52として示す可動量)だけ右側に動作している状態を示している。
図5に示すように、胴体上部3は胴体下部4に対して、x軸周りに可動することができ、コミュニケーションロボット1の正面側から見たとき、お辞儀するように見える動作が可能である。図5に示す例では、コミュニケーションロボット1は、可動中心点53を基準に、胴体下部4に対して胴体上部3が、お辞儀角度θB(ここでは角度54として示す可動量)だけ動作している状態を示している。
図6に示すように、右腕部6Rと左腕部6Lはそれぞれ胴体上部3に対して、回転軸55R、55L周りに可動することができ、腕を振り上げる動作が可能である。右腕部6Rと左腕部6Lは、それぞれ回転軸55R、55L周りに回動することで、右腕部6RAと左腕部6LAの位置に移動した状態になる。この図6に示す状態では、仮想線で示す右腕部6Rと左腕部6Lの位置に対して、それぞれ動作角度56R、56Lだけ振り上げた状態になるように動作している。
図7に示すように、右目8Rと左目8Lは、頭部2にある顔部2aに対して、顔部2aに沿うように可動することで、目を傾斜させることができる。図7に示す状態では、右目8Rと左目8Lは、それぞれ可動中心点57R、57Lを基準に、目の傾斜角度58R(θDR)、58L(θDL)だけ動いた状態になっている。
この図6、図7、あるいは図1に示すような右目8Rと左目8Lの動きで、顔部2aに様々な表情を持たせることができる。
なお、以下の説明では、図4~図7に示した各動作方向の動作角度を正(プラス)とし、これとは逆の動作角度を負(マイナス)とする。
図9は、動作制御部74が行う制御処理例を示すフローチャートである。
まず、動作制御部74は、音声・言語処理部73で検出した言語情報を取得する(ステップS11)。そして、動作制御部74は、取得した情報に言語情報が存在するか否かを判断する(ステップS12)。ここで、言語情報が存在する場合には(ステップS12のYES)、図9のフローチャートの処理を終了し、検出した言語情報に基づいて案内や会話などを行うコミュニケーション処理に移行する。ここで行われるコミュニケーション処理の詳細については省略するが、例えば人からの質問に応答したり、接近した人に対して行き先を案内するなどの処理である。
なお、ステップS14での判断では、位置算出部72で算出した人の位置又は距離の情報から、コミュニケーションロボット1から一定距離の範囲内(例えば数メートル程度内)に人の顔が存在するか否かを判断する。この一定距離の範囲内であることの判断は、先に説明したコミュニケーションロボット1が人とコミュニケーションが可能な範囲内か否かの判断に相当する。
一方、距離DFが小さくと距離変化ΔDFが負で小さい場合、すなわち、人が近くに存在し、さらに近くに移動しようとしている場合は、動作の大きさが小さくなるように、かつ動作の周期が遅くなるように変更する。
また、図10の右側は、右腕部6Rを振り上げる動作の周期と人の顔までの距離の変化量ΔDFとの関係を示し、縦軸は動作の周期、横軸は距離の変化量を示す。
θCR=θCR0×sin(2Πt/TCR0)
とする。振り上げ動作角度θCRは、図6に示す右腕部6Rの動作角度56Rを一例として示す振り上げ時の動作角度である。θCR0は、振り上げ動作角度θCRが変化する際の振幅であり、TCR0は、右腕部6Rが振り上げ動作を繰り返す際の周期である。
振幅θCR0と、周期TCR0は図10に示すように変更される。
距離の変化量ΔD3とΔD4との間の値のとき、最大の周期TCR2と最小の周期TCR1との間で図10に示すように徐々に変化する値とし、距離変化ΔD4以上のときは、最小の周期TCR1とする。左腕部6L、胴体上部3、右目8R、左目8Lに関しても、同様の制御処理で人の顔に基づいて、それぞれの変化の振幅や周期を変更することが可能である。
さらに、音声発生部11に関しては、距離DFが大きく、距離の変化量ΔDFが正で大きい場合、ブザー音が大きく、かつブザー周期が早くなるように変更する。逆に、距離DFが小さくと距離変化ΔDFが負で小さい場合はブザー音が小さく、かつブザー周期が遅くなるように変更する。
例えば、D1<DF0とし、θDR=K1×(DF-DF0)+K2*ΔDFとする。このようにすることで、距離DFが大きく、距離変化ΔDFが正で大きい場合、図8(a)に示すような怒った表情になり、距離DFが小さくと、距離変化ΔDFが負で小さい場合は、図8(b)に示すような穏和な表情になる。距離DF0のときは、目が回転しない図1に示すような無表情になる。
さらに、本実施の形態例のコミュニケーションロボット1の場合、誘導動作時に表示部7R、7L、7ER、7ELの明るさや点滅周期などを、連動して変化させるようにしたことで、より良好に誘導を行うことができる。但し、表示部の表示状態を、他の誘導動作と連動させるのは一例であり、表示部での表示状態を誘導動作時に変化させないようにしてもよい。
次に、本発明の第2の実施の形態例について、図11及び図12を参照して詳細に説明する。この図11及び図12において、第1の実施の形態例で説明した図1~図10に対応する部分には同一符号を付して重複説明を省略し、以下の説明では第1の実施の形態例と相違する点を中心に説明する。
第2の実施の形態例のコミュニケーションロボット1は、人の来る方向や存在するエリアが定まっていないような施設である、駅や空港などの開けた環境下に設置され、受付や案内を行うロボットである。
図11は、第2の実施の形態例のコミュニケーションロボット1の動作制御システムの内部構成例を示す。
図11に示す動作制御システムの電子演算処理部70は、第1の実施の形態例で説明した電子演算処理部70に加えて、誘導可能方向データ格納部77を備えるようにした。
上述したように、駅や空港などの開けた環境下では、アナウンスに用いられるスピーカの音源など、人とのコミュニケーションを阻害する要因が存在する。適切かつ正確なコミュニケーションをとるためには、この要因がある方向を避けて、人とのコミュニケーションをとることが望ましく、コミュニケーションを阻害する要因がある場所を避けるように、人を誘導することが望ましい。
誘導可能方向データは、例えば図4に示す胴体下部4の旋回角度θAで示され、誘導可能エリアが、誘導可能な角度範囲θA0≦θA≦θA1で設定される。
これらの誘導可能な角度範囲の下限値θA0と上限値θA1は、実際の設置状況によって設定される値である。
電子演算処理部70のその他の構成は、第1の実施の形態例で説明した図2に示す電子演算処理部70と同様である。
図12は、動作制御部74が行う制御処理例を示すフローチャートである。この図12のフローチャートにおいて、第1の実施の形態例で説明した図9のフローチャートと同一の処理又は判断は同一のステップ番号を付し、重複説明を省略する。
その後、さらにステップS23に移行し、動作制御部74は、胴体下部4の旋回動作の大きさと周期を変更して、誘導動作を実行する。このステップS23では、胴体上部3のお辞儀動作(図5参照)の大きさと周期を変更して、誘導動作を実行してもよい。
図12のフローチャートのその他の処理及び判断は、第1の実施の形態例で説明した図9に示すフローチャートと同じである。
この場合、旋回角度θAの変更と、お辞儀角度θBの変更は、同時に行ってもよいが、旋回角度θAの変更と、お辞儀角度θBの変更を交互に行ってもよい。
まず、位置算出部72は、図17に示す偏差角度φFと、胴体下部4の旋回角度θAに基づいて、人の方向θH(=θA+φF)を算出する。偏差角度φFは、コミュニケーションロボット1の正面方向と人80の顔がある方向の偏差角度である。ここでは、図17に示すように、コミュニケーションロボット1と人80とが、距離DFだけ離れている。
そして、ステップS24で動作制御部74は、人の方向θHが、誘導範囲であるθA0≦θH≦θA1の条件が成立するかどうかを判断し、成立する場合に動作制御部74は、ステップS21に移行する。
なお、上述した例では、コミュニケーションを阻害する要因がある方向として、騒音などがある方向とした。これに対して、例えば検出センサ10であるカメラが人を撮影する際に、照明が外光などで、逆光状態で撮影されて、人の顔などが適切に検知できない範囲を、コミュニケーションを阻害する要因がある方向としてもよい。つまり、コミュニケーションを阻害する要因がある方向として、音声の集音が適切にできない方向に加えて、カメラでの撮影が適切にできる方向に設定してもよい。
次に、本発明の第3の実施の形態例について、図13~図16を参照して詳細に説明する。この図13~図16において、第1の実施の形態例で説明した図1~図10、並びに2の実施の形態例で説明した図11~図12に対応する部分には同一符号を付して重複説明を省略し、以下の説明では第1の実施の形態例と相違する点を中心に説明する。
図13は、第3の実施の形態例のコミュニケーションロボット1の動作制御システムの内部構成例を示す。
図13に示す動作制御システムの電子演算処理部70は、第1の実施の形態例で説明した電子演算処理部70の構成に加えて、グループ判断部78を備える構成とした。例えば、駅、空港などの人数が多い環境下に設置されたコミュニケーションロボット1の場合、人検出部71が複数の人の顔を同時に検出するケースが多々想定される。
電子演算処理部70のその他の構成は、第1の実施の形態例で説明した図2に示す電子演算処理部70と同様である。
図14は、グループ判断部78での判断処理の例を示す。
図14に示す例は、コミュニケーションロボット1の周囲に、2人の人81、82が存在する場合である。
ここで、ロボット1と人81との距離をDFA、ロボット1と人82との距離をDFB、人81と人82との距離DFdiffAB、並びにそれらの距離変化ΔDFA、ΔDFB、ΔDFdiffABとしたとき、グループ判断部78はこれらの距離及び距離変化を取得する。そして、グループ判断部78は、これらの距離及び距離変化から、人81と人82とが同一グループかどうかを判断する。
条件1:|DFA-DFB|<D10
条件2:DFdiffAB<D11
条件3:|ΔDFA-ΔDFB|<ΔD10
逆に、条件1、2、3のいずれか1つでも、一定時間T10の間、連続して満たすことがないとき、グループ判断部78は、人81と人82を同じグループとは見なさないようにする。
図15及び図16は、動作制御部74が行う制御処理例を示すフローチャートである。図15の[A1]で示す箇所が、図16の[A1]で示す箇所に接続され、図16の[B1]で示す箇所が、図15の[B1]で示す箇所に接続される。
この図15及び図16のフローチャートにおいて、第1の実施の形態例で説明した図9のフローチャートと同一の処理又は判断は同一のステップ番号を付し、重複説明を省略する。
ここで、誘導対象の人Cと、周囲の人とが同じグループである場合(ステップS32のYES)、動作制御部74は、グループとしての距離DFCGを算出する(ステップS33)。ここでは、グループの中で最も近い人Cの距離DFCを、グループとしての距離DFCGに設定する。
ここでは、例えばグループの最端の方向角度がθCGmin(最小値)とθCGmax(最大値)とすると、動作制御部74は、胴体下部4の旋回動作の大きさとして、角度θCGminから角度θCGmaxまでの間になるように設定する。
また、ステップS26で取得した顔が複数でないとき(ステップS26のNO)、及びステップS32でグループでないと判断したときにも(ステップS32のNO)、動作制御部74は、図15のステップS19の判断に移行する。
本発明は、上述した各実施の形態例に限定されるものではなく、様々な変形例が含まれる。
例えば、上述した第2の実施の形態例で説明した、コミュニケーションを阻害する要因がある範囲から適切は範囲に誘導する処理と、第3の実施の形態例で説明した、グループ時にグループ全体で誘導する処理を組み合わせるようにしてもよい。
あるいは、グループを検出したとき、グループ内のそれぞれの人に交互に振り向きながら、コミュニケーションがとれる範囲に誘導するようにしてもよい。
誘導動作時や探索動作時に、腕や胴体などを動かす振幅(大きさ)と、周期の双方を変化させる点についても一例であり、少なくともいずれか一方のみを変化させればよい。
Claims (8)
- 筐体に取り付けられたパーツと、前記筐体そのものとの少なくともいずれか一方を可動させる駆動部と、
前記筐体の周囲の人の音声を取得する音声取得部と、
音声を発生する音声発生部と、
前記筐体に取り付けられた検出センサの検出信号に基づいて、人の存在を検出する人検出部と、
前記人検出部が検出した人の位置又は距離を算出する算出部と、
前記算出部が算出した人の位置又は距離に基づいて、予め設定された実行条件で前記駆動部による前記パーツ又は前記筐体の動作を制御する動作制御部と、
人を誘導可能な方向についての情報を保持する誘導可能方向データ保持部と、を備え、
前記動作制御部の制御による前記駆動部の動作には、探索動作と誘導動作とがあり、
前記誘導動作では、前記動作制御部は、前記誘導可能方向データ保持部が保持した誘導可能方向データで示される誘導可能な方向に対する、前記算出部が算出した位置又は距離に応じて、前記実行条件を変更しながら、前記パーツと前記筐体の少なくともいずれか一方の可動により人を誘導するように、前記パーツ又は前記筐体を可動させる
コミュニケーションロボット。 - 前記探索動作では、前記検出センサが検出する方向が変更するように、前記筐体を前記駆動部で可動させる
請求項1に記載のコミュニケーションロボット。 - 前記算出部が算出した人の位置又は距離が、前記音声取得部による音声の取得と前記音声発生部による発生でコミュニケーションをとることが可能な位置又は距離でない場合に、前記動作制御部が前記誘導動作を行って、コミュニケーションをとることが可能な位置又は距離に人を誘導する
請求項2に記載のコミュニケーションロボット。 - 前記実行条件の変更は、前記算出部が算出した位置又は距離の変化に応じて、前記筐体を周期的に可動させる際の、周期と大きさの少なくともいずれか一方の変更である
請求項2に記載のコミュニケーションロボット。 - 前記動作制御部が前記誘導動作の際に行う前記実行条件には、前記音声発生部からの誘導用の音声の出力が含まれる
請求項2に記載のコミュニケーションロボット。 - さらに、表示部を備え、
前記動作制御部が前記誘導動作の際に行う前記実行条件には、前記表示部での誘導用の表示処理が含まれる
請求項2に記載のコミュニケーションロボット。 - 前記実行条件には、前記パーツの動きにより、当該コミュニケーションロボットの表情を設定する条件が含まれる
請求項1に記載のコミュニケーションロボット。 - さらに、前記算出部が算出した複数の人の位置又は距離の変化に基づいて、複数人が同じグループか否かを判断するグループ判断部を備え、
前記誘導動作の際に、前記動作制御部は、前記グループ判断部が複数人を同じグループと判断した場合に、前記算出部が算出したグループの位置又は距離に基づいて、前記実行条件を変更する
請求項2に記載のコミュニケーションロボット。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018212853A JP7253900B2 (ja) | 2018-11-13 | 2018-11-13 | コミュニケーションロボット |
PCT/JP2019/040217 WO2020100488A1 (ja) | 2018-11-13 | 2019-10-11 | コミュニケーションロボット |
CN201980068901.5A CN112912152B (zh) | 2018-11-13 | 2019-10-11 | 交流机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018212853A JP7253900B2 (ja) | 2018-11-13 | 2018-11-13 | コミュニケーションロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020078448A JP2020078448A (ja) | 2020-05-28 |
JP7253900B2 true JP7253900B2 (ja) | 2023-04-07 |
Family
ID=70730717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018212853A Active JP7253900B2 (ja) | 2018-11-13 | 2018-11-13 | コミュニケーションロボット |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7253900B2 (ja) |
CN (1) | CN112912152B (ja) |
WO (1) | WO2020100488A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021175108A (ja) | 2020-04-27 | 2021-11-01 | 日本電気株式会社 | Pcf装置、af装置、nef装置、及びこれらの方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013099800A (ja) | 2011-11-07 | 2013-05-23 | Fujitsu Ltd | ロボット、ロボットの制御方法及び制御プログラム |
JP2013237124A (ja) | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | 端末装置、情報提供方法及びプログラム |
JP2013244566A (ja) | 2012-05-28 | 2013-12-09 | Fujitsu Ltd | ロボット及びロボットの制御方法 |
US20150088310A1 (en) | 2012-05-22 | 2015-03-26 | Intouch Technologies, Inc. | Social behavior rules for a medical telepresence robot |
JP2017177228A (ja) | 2016-03-28 | 2017-10-05 | 株式会社国際電気通信基礎技術研究所 | サービス提供ロボットシステム |
JP2017222021A (ja) | 2016-06-14 | 2017-12-21 | グローリー株式会社 | 店舗受付システム |
JP2018086689A (ja) | 2016-11-28 | 2018-06-07 | 株式会社G−グロボット | コミュニケーションロボット |
JP2018149625A (ja) | 2017-03-13 | 2018-09-27 | 大日本印刷株式会社 | コミュニケーションロボット、プログラム及びシステム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4528295B2 (ja) * | 2006-12-18 | 2010-08-18 | 株式会社日立製作所 | 案内ロボット装置及び案内システム |
CN103612252B (zh) * | 2013-12-03 | 2015-09-16 | 北京科技大学 | 面向孤独症儿童的智能远程社交辅助治疗机器人 |
-
2018
- 2018-11-13 JP JP2018212853A patent/JP7253900B2/ja active Active
-
2019
- 2019-10-11 CN CN201980068901.5A patent/CN112912152B/zh active Active
- 2019-10-11 WO PCT/JP2019/040217 patent/WO2020100488A1/ja active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013099800A (ja) | 2011-11-07 | 2013-05-23 | Fujitsu Ltd | ロボット、ロボットの制御方法及び制御プログラム |
JP2013237124A (ja) | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | 端末装置、情報提供方法及びプログラム |
US20150088310A1 (en) | 2012-05-22 | 2015-03-26 | Intouch Technologies, Inc. | Social behavior rules for a medical telepresence robot |
JP2013244566A (ja) | 2012-05-28 | 2013-12-09 | Fujitsu Ltd | ロボット及びロボットの制御方法 |
JP2017177228A (ja) | 2016-03-28 | 2017-10-05 | 株式会社国際電気通信基礎技術研究所 | サービス提供ロボットシステム |
JP2017222021A (ja) | 2016-06-14 | 2017-12-21 | グローリー株式会社 | 店舗受付システム |
JP2018086689A (ja) | 2016-11-28 | 2018-06-07 | 株式会社G−グロボット | コミュニケーションロボット |
JP2018149625A (ja) | 2017-03-13 | 2018-09-27 | 大日本印刷株式会社 | コミュニケーションロボット、プログラム及びシステム |
Also Published As
Publication number | Publication date |
---|---|
CN112912152B (zh) | 2022-07-22 |
WO2020100488A1 (ja) | 2020-05-22 |
CN112912152A (zh) | 2021-06-04 |
JP2020078448A (ja) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10293484B2 (en) | Robot device and method of controlling the robot device | |
JP5456832B2 (ja) | 入力された発話の関連性を判定するための装置および方法 | |
JP4849244B2 (ja) | 移動ロボットおよび移動速度推定方法 | |
JP6388141B2 (ja) | 移動体 | |
US20100198443A1 (en) | Path planning device, path planning method, and moving body | |
KR20210052634A (ko) | 운전자의 부주의를 판단하는 인공 지능 장치 및 그 방법 | |
JP2009222969A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
KR102463806B1 (ko) | 이동이 가능한 전자 장치 및 그 동작 방법 | |
JP2008087140A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
US10576633B2 (en) | Communication device | |
US10464214B2 (en) | Voice interaction device and control method therefor | |
JP2023095918A (ja) | ロボット、ロボットの制御方法及びプログラム | |
JP7253900B2 (ja) | コミュニケーションロボット | |
CN111002303A (zh) | 识别装置、机器人、识别方法和存储介质 | |
JPWO2019187834A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
EP3599065A1 (en) | Communication robot and control program therefor | |
JP2021157203A (ja) | 移動体制御装置および移動体制御方法、並びにプログラム | |
JP3768957B2 (ja) | 移動ロボットの経路設定方法 | |
EP3950498B1 (en) | Unmanned moving body and information processing method | |
KR102314385B1 (ko) | 로봇 및 그의 제어 방법 | |
KR20190095194A (ko) | 사용자의 동선을 결정하는 인공 지능 장치 및 그 방법 | |
CN209737616U (zh) | 一种陪护机器人 | |
JP6707255B2 (ja) | サービス提供ロボットシステム | |
US11491660B2 (en) | Communication system and method for controlling communication system | |
US20240004605A1 (en) | Wearable with eye tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7253900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |