JP7253900B2 - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP7253900B2
JP7253900B2 JP2018212853A JP2018212853A JP7253900B2 JP 7253900 B2 JP7253900 B2 JP 7253900B2 JP 2018212853 A JP2018212853 A JP 2018212853A JP 2018212853 A JP2018212853 A JP 2018212853A JP 7253900 B2 JP7253900 B2 JP 7253900B2
Authority
JP
Japan
Prior art keywords
unit
person
distance
communication robot
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018212853A
Other languages
English (en)
Other versions
JP2020078448A (ja
Inventor
晃弘 山本
亮介 中村
梓 網野
泰士 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018212853A priority Critical patent/JP7253900B2/ja
Priority to PCT/JP2019/040217 priority patent/WO2020100488A1/ja
Priority to CN201980068901.5A priority patent/CN112912152B/zh
Publication of JP2020078448A publication Critical patent/JP2020078448A/ja
Application granted granted Critical
Publication of JP7253900B2 publication Critical patent/JP7253900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators

Description

本発明は、コミュニケーションロボットに関する。
近年、利用者と会話を行うコミュニケーションロボットが各種開発されている。例えば、特許文献1には、コミュニケーションロボットに適用可能なロボット制御装置に関する技術が記載されている。
すなわち、特許文献1には、ロボット制御装置が人(利用者)に対して行うアクションを決定してコミュニケーションロボットに実行させる。そして、このアクションに対する人からのリアクションが検出されると、ロボット制御装置は、リアクションに基づいて人に話しかける可能性を判定し、判定結果に基づいてコミュニケーションロボットの動作モードを制御する技術が記載されている。
WO2016/132729号公報
しかしながら、従来提案されている技術は、いずれも人がロボット近傍の会話できる位置に接近したことを検出した際に実行される動作であり、ロボットの近傍に人がいないときの動作については何も考慮されていない。
特に、ロボットが設置された位置から移動できない静置型のコミュニケーションロボットの場合、応対可能領域が設置位置の周囲に制限されてしまう。したがって、静置型コミュニケーションロボットの場合には、誘導や案内などのロボットに与えられた役割を果たすことが困難なケースが発生する。
また、歩行などの移動が可能なコミュニケーションロボットの場合でも、移動可能な範囲が制限される等の理由で、静置型コミュニケーションロボットの場合と同様の問題が発生することもある。
本発明の目的は、会話などのコミュニケーションができない状況であっても、適切に誘導や案内などを行うことができるコミュニケーションロボットを提供することにある。
上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
本願は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、本発明のコミュニケーションロボットは、筐体に取り付けられたパーツと、筐体そのものとの少なくともいずれか一方を可動させる駆動部と、筐体の周囲の人の音声を取得する音声取得部と、音声を発生する音声発生部とを備える。
さらに、本発明のコミュニケーションロボットは、筐体に取り付けられた検出センサの検出信号に基づいて、人の存在を検出する人検出部と、人検出部が検出した人の位置又は距離を算出する算出部と、算出部が算出した人の位置又は距離に基づいて、予め設定された実行条件で駆動部によるパーツ又は筐体の動作を制御する動作制御部と、人を誘導可能な方向についての情報を保持する誘導可能方向データ保持部と、を備える。
動作制御部の制御による駆動部の動作には、探索動作と誘導動作とがあり、誘導動作では、動作制御部は、誘導可能方向データ保持部が保持した誘導可能方向データで示される誘導可能な方向に対する、算出部が算出した位置又は距離に応じて、実行条件を変更しながら、パーツと筐体の少なくともいずれか一方の可動により人を誘導するように、パーツ又は筐体を可動させる。
本発明によれば、コミュニケーションロボットの筐体又はパーツの動きで、コミュニケーションロボットの周囲の人に対して誘導などの動作を行うことができる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施の形態例によるコミュニケーションロボットの外観の例を示す正面図である。 本発明の第1の実施の形態例によるコミュニケーションロボットの内部構成例を示すブロック図である。 本発明の第1の実施の形態例によるコミュニケーションロボットの駆動部の構成例を示すブロック図である。 本発明の第1の実施の形態例によるコミュニケーションロボットの外観の例を示す上面図である。 本発明の第1の実施の形態例によるコミュニケーションロボットの外観の例を示す側面図である。 本発明の第1の実施の形態例によるコミュニケーションロボットが腕を開いた状態の例を示す正面図である。 本発明の第1の実施の形態例によるコミュニケーションロボットの顔の例を示す正面図である。 図7に示す顔の表情を変化させた例を示す説明図である。 本発明の第1の実施の形態例による動作制御例を示すフローチャートである。 本発明の第1の実施の形態例による振幅及び周期の制御例を示す特性図である。 本発明の第2の実施の形態例によるコミュニケーションロボットの内部構成例を示すブロック図である。 本発明の第2の実施の形態例による動作制御例を示すフローチャートである。 本発明の第3の実施の形態例によるコミュニケーションロボットの内部構成例を示すブロック図である。 本発明の第3の実施の形態例によるグループ判断例を示す説明図である。 本発明の第3の実施の形態例による動作制御例を示すフローチャート(その1)である。 本発明の第3の実施の形態例による動作制御例を示すフローチャート(その2)である。 コミュニケーションロボットの誘導範囲の例を示す説明図である。
<1.第1の実施の形態例>
以下、本発明の第1の実施の形態例について、図1~図10を参照して詳細に説明する。
[1-1.コミュニケーションロボットの構成]
図1は、第1の実施の形態例のコミュニケーションロボット1の外観形状の例を示す。本実施の形態例のコミュニケーションロボット1は、例えば人が来る方向や人が存在するエリアが定まっているような、建物の出入口付近の受付などに設置されるものである。コミュニケーションロボット1は、自律移動ができない静置型のロボットである。但し、コミュニケーションロボット1を静置型としたのは一例であり、コミュニケーションロボット1に車輪や歩行用の脚部を設けるようにしてもよい。
コミュニケーションロボット1は、ロボット本体を構成する筐体として、頭部2、胴体上部3、胴体下部4、及び腰部5を備える。
頭部2には、顔部2aと、その表面に目を表現する疑似的な右目8R及び左目8Lが取り付けられている。また、胴体上部3には、右腕部6R及び左腕部6Lが取り付けられている。
疑似的な右目8R及び左目8L、胴体上部3、胴体下部4、右腕部6R及び左腕部6Lは、それぞれ可動できる可動部として構成されている。これらの各可動部は、それぞれコミュニケーションロボット1の内部に取り付けられた駆動部21によって駆動される。各可動部を可動させる例については、図4~図8にて後述する。
また、コミュニケーションロボット1の各部には、表示部7R、7L、7ER、7ELが配置されている。すなわち、右腕部6R及び左腕部6Lに、表示部7R及び7Lが配置され、頭部2に表示部7ER及び7ELが配置されている。表示部7R、7L、7ER、7ELは、発光ダイオード(LED)などで構成され、それぞれの表示部7R、7L、7ER、7ELが配置された箇所が所定の色に発光する。表示部7R、7L、7ER、7ELの発光色、発光輝度、及び点滅周期は、図2で後述する動作計画実行部75からの指令で設定される。なお、表示部7R、7L、7ER、7ELの他に、文字メッセージや画像などを表示可能な表示部を配置することもできる。
また、コミュニケーションロボット1の頭部2には、検出センサ10が配置されている。この検出センサ10は、コミュニケーションロボット1の周囲にいる人を検出するセンサである。検出センサ10としては、ステレオカメラ、デプスセンサ、RGBカメラ、赤外線距離センサ、測域センサなどが適用可能である。なお、検出センサ10は、上述したカメラやセンサの内の複数で構成してもよい。
コミュニケーションロボット1の胴体下部4には、複数のマイクよりなるマイクアレイなどで構成される音声取得部9が取り付けられ、コミュニケーションロボット1の周囲にいる人の話し声などを取得する。コミュニケーションロボット1の頭部2には、スピーカやブザーなどで構成される音声発生部11が取り付けられ、音声や警告音などを出力する。音声取得部9での音声取得処理と、音声発生部11での音声発生処理により、コミュニケーションロボット1は、コミュニケーションロボット1の周囲にいる人とコミュニケーションをとることができる。
図2は、コミュニケーションロボット1の動作制御システムの内部構成例を示す。
コミュニケーションロボット1は、その動作制御システムとして電子演算処理部70を備える。電子演算処理部70は、コンピュータ装置と記憶装置などで構成され、実装されたプログラム(ソフトウェア)を実行することにより、コミュニケーションロボット1の動作を制御する。図2に示す電子演算処理部70の内部構成は、電子演算処理部70が行うソフトウェア機能から見た構成である。
電子演算処理部70には、検出センサ10の出力信号と音声取得部9で得た音声信号とが供給される。また、電子演算処理部70での演算結果に基づいて、表示部7R、7L、7ER、7ELにおける表示がなされる。また、この演算結果に基づいて、音声発生部11における音声出力と、駆動部21によるそれぞれの可動部に対する駆動が行われる。
電子演算処理部70は、人検出部71、位置算出部72、音声・言語処理部73、動作制御部74、動作計画実行部75、及び言語応答データベース部76を備える。
人検出部71は、検出センサ10の出力信号に基づいて、人の顔を検出する。
位置算出部72は、人検出部71が顔を検出した人までの距離、又は人がいる位置を算出する。具体的には、位置算出部72において、人の顔が検出されている場合、その人の顔の位置を取得する。
ここで、図10で後述するように、人の顔とコミュニケーションロボット1との距離をDFとし、コミュニケーションロボット1の正面方向と人の顔がある方向の偏差角度をφFとする。
また、位置算出部72はメモリ機能を有しており、検出した顔に対する距離DFと偏差角度φFを記憶することができ、前回記録された距離との差分から距離変化ΔDF、偏差角度変化ΔφFを算出することができる。
音声・言語処理部73は、音声取得部9で取得した音声信号に基づいて言語が存在するかどうかを判別し、言語が存在すると判断した場合は、人が話した内容である言語情報を記録する。なお、音声・言語処理部73は、音声取得部9で取得した音声信号に含まれる言語の種類(日本語、英語など)を判別して、その判別した言語種類の情報についても記録する。
動作制御部74は、人の検出有無の判断結果と人の顔の位置および位置変化に基づき、コミュニケーションロボット1の動作を選択し、その動作の実行条件を制御する。動作制御部74の制御に基づいて行われる動作には、コミュニケーションロボット1の周囲にいる人とコミュニケーションを行う応答動作と、そのコミュニケーションが可能な範囲外にいる人を、コミュニケーションが可能なエリアに誘導する誘導動作とがある。
コミュニケーションが可能な範囲は、例えばコミュニケーションロボット1から数m程度までの距離の範囲である。このコミュニケーションが可能な範囲は、音声取得部9で人の話し声を拾うことができる範囲でもある。
言語応答データベース部76には、取得した言語の内容(会話内容)に対する発話動作、可動部動作及び表示動作などの応答動作が登録されており、この言語応答データベース部76から、音声・言語処理部73で取得した言語に対応した応答動作が読み出される。
動作計画実行部75は、動作制御部74で選択された動作と、その動作条件に基づいて、動作に関する各種指令を算出する。そして、動作制御部74で選択された動作と動作計画実行部75で算出された各種指令が、表示部7R、7L、7ER、7EL、音声発生部11、及び駆動部21に出力される。
図3は、駆動部21の構成を示す。駆動部21は、可動部モータ制御部21a、可動部モータ駆動部21b、可動部モータ21c、及び可動部位置センサ21dで構成されている。この図3に示す駆動部21が、可動部ごとに用意されている。
可動部モータ制御部21aは、駆動部21に入力された動作指令に基づいて制御信号を算出し、可動部モータ駆動部21bで制御信号に対応する電圧に変換し、可動部モータ21cに印加する。また、可動部位置センサ21dにより可動部の動作角度を検出し、検出結果を可動部モータ制御部21aにフィードバックして、可動部モータ21cの動作を制御する。
[1-2.コミュニケーションロボットの動作例]
次に、コミュニケーションロボット1が行う動作の例を、図4~図8を参照して説明する。なお、以下の動作で説明する3軸(x軸、y軸、z軸)は、図1の右下に示す軸で規定される。すなわち、図1に示すようにコミュニケーションロボット1の水平面の左右方向をx軸、水平面の前後方向をy軸、上下方向(垂直方向)をz軸とする。
図4は、コミュニケーションロボット1の胴体下部4が可動する状態を示す。
図4に示すように、コミュニケーションロボット1の胴体下部4は、腰部5に対してz軸周りに可動することができ、旋回動作が可能である。図4に示す例では、コミュニケーションロボット1は、可動中心点51を基準に、腰部5に対して胴体下部4が旋回角度θA(ここでは角度52として示す可動量)だけ右側に動作している状態を示している。
図5は、コミュニケーションロボット1の胴体上部3が可動する状態を示す。
図5に示すように、胴体上部3は胴体下部4に対して、x軸周りに可動することができ、コミュニケーションロボット1の正面側から見たとき、お辞儀するように見える動作が可能である。図5に示す例では、コミュニケーションロボット1は、可動中心点53を基準に、胴体下部4に対して胴体上部3が、お辞儀角度θB(ここでは角度54として示す可動量)だけ動作している状態を示している。
図6は、コミュニケーションロボット1の右腕部6Rと左腕部6Lが可動する状態を示す。
図6に示すように、右腕部6Rと左腕部6Lはそれぞれ胴体上部3に対して、回転軸55R、55L周りに可動することができ、腕を振り上げる動作が可能である。右腕部6Rと左腕部6Lは、それぞれ回転軸55R、55L周りに回動することで、右腕部6RAと左腕部6LAの位置に移動した状態になる。この図6に示す状態では、仮想線で示す右腕部6Rと左腕部6Lの位置に対して、それぞれ動作角度56R、56Lだけ振り上げた状態になるように動作している。
図7及び図8は、コミュニケーションロボット1の顔部2aの右目8Rと左目8Lが可動する状態を示す。
図7に示すように、右目8Rと左目8Lは、頭部2にある顔部2aに対して、顔部2aに沿うように可動することで、目を傾斜させることができる。図7に示す状態では、右目8Rと左目8Lは、それぞれ可動中心点57R、57Lを基準に、目の傾斜角度58R(θDR)、58L(θDL)だけ動いた状態になっている。
さらに、図8に示すように目の傾斜を左右対称にすることも考えられる。すなわち、図7に示したθDR=-θDLとすると、目の傾斜により、コミュニケーションロボットの表情を変更することができる。図8(a)に示す例では、右目8Rと左目8Lの外側の端が上がった状態になり、図8(b)に示す例では、右目8Rと左目8Lの外側の端が下がった状態になる。
さらに別の例として、図1に示すように、右目8Rと左目8Lのそれぞれが、縦長になった状態とすることもできる。
この図6、図7、あるいは図1に示すような右目8Rと左目8Lの動きで、顔部2aに様々な表情を持たせることができる。
なお、以下の説明では、図4~図7に示した各動作方向の動作角度を正(プラス)とし、これとは逆の動作角度を負(マイナス)とする。
[1-3.動作制御例]
図9は、動作制御部74が行う制御処理例を示すフローチャートである。
まず、動作制御部74は、音声・言語処理部73で検出した言語情報を取得する(ステップS11)。そして、動作制御部74は、取得した情報に言語情報が存在するか否かを判断する(ステップS12)。ここで、言語情報が存在する場合には(ステップS12のYES)、図9のフローチャートの処理を終了し、検出した言語情報に基づいて案内や会話などを行うコミュニケーション処理に移行する。ここで行われるコミュニケーション処理の詳細については省略するが、例えば人からの質問に応答したり、接近した人に対して行き先を案内するなどの処理である。
そして、ステップS12で言語情報が存在しないと判断したとき(ステップS12のNO)、動作制御部74は、人検出部71で取得された人の検出結果を参照する(ステップS13)。そして、動作制御部74は、人検出部71での検出結果で、人の顔が存在するか否かを判断する(ステップS14)。
なお、ステップS14での判断では、位置算出部72で算出した人の位置又は距離の情報から、コミュニケーションロボット1から一定距離の範囲内(例えば数メートル程度内)に人の顔が存在するか否かを判断する。この一定距離の範囲内であることの判断は、先に説明したコミュニケーションロボット1が人とコミュニケーションが可能な範囲内か否かの判断に相当する。
ステップS14で人の顔が存在しないと判断された場合には(ステップS14のNO)、動作制御部74は、あらかじめ設定されている検出センサ10の検出方向を変更する探索動作を選択する(ステップS15)。ここでは、コミュニケーションロボット1が、人が来る方向が定まっているような出入口付近の受付などに設置されることを想定しているため、動作制御部74は、お辞儀動作(図5参照)を行って、お辞儀角度θBを変更する(ステップS16)。
すなわち、図5に示すお辞儀角度θBを(θB+ΔθB1)となるように変更する。ここで、ΔθB1は、あらかじめ正の値で設定されており、前傾側に角度が変更される。お辞儀角度θBが前傾側の動作角度制限値を超えると正負が反転されて、お辞儀角度θBが後傾側に変更される。一方、後傾側の動作角度制限値を超えるときに再度正負が反転されて、お辞儀角度θBが前傾側に変更される。なお、ステップS16では、遷移されるたびにこの動作を繰り返す。
また、ステップS14で人の顔が存在すると判断された場合には(ステップS14のYES)、動作制御部74は、あらかじめ設定されている人を誘導する動作を選択する(ステップS17)。ここでは、人を誘導する動作を行うために、動作制御部74は、位置算出部72で取得されて記憶された、コミュニケーションロボット1と人の顔の距離DFとその変化量ΔDFを参照する(ステップS18)。そして、動作制御部74は、距離DFが人への応答可能距離D1以内であるか否かを判断する(ステップS19)。
ステップS19で、距離DFが人への応答可能距離D1以内でないと判断された場合には(ステップS19のNO)、動作制御部74は、人の顔の距離DFとその変化量ΔDFに基づいて、動作の大きさと周期を変更して誘導動作を実行する(ステップS20)。ここでは、距離DFが大きくかつ変化量ΔDFが正で大きい場合には、動作の大きさが大きくなるように、そして動作の周期が早くなるように変更する。ここで、距離DFが大きくかつ変化量ΔDFが正で大きい場合人が遠くに存在し、さらに遠くに移動しようとしている場合を意味する。
一方、距離DFが小さくと距離変化ΔDFが負で小さい場合、すなわち、人が近くに存在し、さらに近くに移動しようとしている場合は、動作の大きさが小さくなるように、かつ動作の周期が遅くなるように変更する。
また、ステップS19で、距離DFが人への応答可能距離D1以内であると判断された場合には(ステップS19のYES)、動作制御部74は、動作の大きさと周期を応答動作用に設定する(ステップS21)。このとき、動作制御部74は、応答時の音声・言語処理部73での言語判断を阻害しない程度に、動作の大きさを小さくし、周期を遅く設定する。
図10は、図9のフローチャートのステップS20での誘導動作の大きさと周期を変更する処理の一例を示す。図10の左側は、右腕部6Rの振り上げ動作角度θCR(図6に示す角度56Rなど)と人の顔までの距離DFとの関係を示し、縦軸は振り上げ動作角度の値、横軸は顔までの距離の変化を示す。
また、図10の右側は、右腕部6Rを振り上げる動作の周期と人の顔までの距離の変化量ΔDFとの関係を示し、縦軸は動作の周期、横軸は距離の変化量を示す。
例えば、右腕部6Rの振り上げ動作角度θCRとして、
θCR=θCR0×sin(2Πt/TCR0)
とする。振り上げ動作角度θCRは、図6に示す右腕部6Rの動作角度56Rを一例として示す振り上げ時の動作角度である。θCR0は、振り上げ動作角度θCRが変化する際の振幅であり、TCR0は、右腕部6Rが振り上げ動作を繰り返す際の周期である。
振幅θCR0と、周期TCR0は図10に示すように変更される。
つまり、コミュニケーションロボット1と人との距離DFが、図10に示す第1の距離D1以下であるとき、振幅θCR0が0になる。また、コミュニケーションロボット1と人との距離DFが、第1の距離D1から第2の距離D2へ変化する場合には、徐々に振幅θCR0が大きくなる。第2の距離D2のとき、可動限界制限値のθCR2になり、第2の距離D2以上のときには、その可動限界制限値θCR2になる。
また、周期TCR0については、距離の変化量ΔDFがマイナス側の特定の変化量ΔD3のとき、最大の周期TCR2となり、変化量ΔDFがプラス側の特定の変化量ΔD4のとき、最小の周期(可動限界制限値)TCR1となる。
距離の変化量ΔD3とΔD4との間の値のとき、最大の周期TCR2と最小の周期TCR1との間で図10に示すように徐々に変化する値とし、距離変化ΔD4以上のときは、最小の周期TCR1とする。左腕部6L、胴体上部3、右目8R、左目8Lに関しても、同様の制御処理で人の顔に基づいて、それぞれの変化の振幅や周期を変更することが可能である。
また、表示部7R、7L、7ER、7ELに関しては、距離DFが大きく、その変化量ΔDFが正で大きい場合、明るくなるように明るさを変更し、点滅周期を早くする。逆に、距離DFが小さく、かつ変化量ΔDFが負で小さい場合は暗くなるように明るさを変更し、点滅周期を遅くする。
さらに、音声発生部11に関しては、距離DFが大きく、距離の変化量ΔDFが正で大きい場合、ブザー音が大きく、かつブザー周期が早くなるように変更する。逆に、距離DFが小さくと距離変化ΔDFが負で小さい場合はブザー音が小さく、かつブザー周期が遅くなるように変更する。
さらに、目に関して右目8Rと左目8Lの傾斜角度が左右対称になるように設定すると(θDR=-θDL)、右目8Rと左目8Lとで表情を構成することができる。
例えば、D1<DF0とし、θDR=K1×(DF-DF0)+K2*ΔDFとする。このようにすることで、距離DFが大きく、距離変化ΔDFが正で大きい場合、図8(a)に示すような怒った表情になり、距離DFが小さくと、距離変化ΔDFが負で小さい場合は、図8(b)に示すような穏和な表情になる。距離DF0のときは、目が回転しない図1に示すような無表情になる。
なお、ステップS20での処理時に誘導を促す発話動作を行い、ステップS21での処理時に会話を促す発話動作にしてもよい。
以上説明したように、本実施の形態例のコミュニケーションロボット1によると、会話などのコミュニケーションがとれる範囲外の人を積極的に検出して、その検出した人に対してコミュニケーションがとれる範囲に誘導することができる。特に、検出した人を誘導する際には、検出した距離に応じて腕などを動作させる振幅や周期を変えることで、誘導時に人に興味を失わせないように反応示すことができ、コミュニケーションロボット1の応対可能領域に円滑に誘導することができる。また、本実施の形態例のコミュニケーションロボット1の場合、誘導動作を行う前に、お辞儀動作などで探索動作を行うようにしたことで、コミュニケーションロボット1の周囲にいる人を効率よく探索することができるようになる。
また、誘導動作時には、検出した人との距離又は位置の変化に応じて、誘導動作の大きさ(振幅)と周期の少なくともいずれか一方を変化させるようにしたことで、適切にコミュニケーションがとれる範囲に誘導できるようになる。
さらに、本実施の形態例のコミュニケーションロボット1の場合、誘導動作時に表示部7R、7L、7ER、7ELの明るさや点滅周期などを、連動して変化させるようにしたことで、より良好に誘導を行うことができる。但し、表示部の表示状態を、他の誘導動作と連動させるのは一例であり、表示部での表示状態を誘導動作時に変化させないようにしてもよい。
さらにまた、本実施の形態例のコミュニケーションロボット1の場合、誘導動作時に、右目8Rや左目8Lを動かすようにして、顔に表情を持たせるようにしたので、この点からも適切な誘導を行うことができるようになる。目で表情を持たせるようにしたのは一例であり、ロボットのその他の箇所(パーツや筐体)の動きで表情を持たせるようにしてもよい。また、誘導時に目などで表情を持たせる処理は省略するか、あるいは、誘導した人がロボットにある程度の距離に近づいたときだけ、表情を変化させるようにしてもよい。
<2.第2の実施の形態例>
次に、本発明の第2の実施の形態例について、図11及び図12を参照して詳細に説明する。この図11及び図12において、第1の実施の形態例で説明した図1~図10に対応する部分には同一符号を付して重複説明を省略し、以下の説明では第1の実施の形態例と相違する点を中心に説明する。
第2の実施の形態例のコミュニケーションロボット1は、第1の実施の形態例で説明したコミュニケーションロボット1と外形形状や各可動部の形状は同じであり、その動作制御システムが第1の実施の形態例と相違する。
第2の実施の形態例のコミュニケーションロボット1は、人の来る方向や存在するエリアが定まっていないような施設である、駅や空港などの開けた環境下に設置され、受付や案内を行うロボットである。
[2-1.システム全体の構成]
図11は、第2の実施の形態例のコミュニケーションロボット1の動作制御システムの内部構成例を示す。
図11に示す動作制御システムの電子演算処理部70は、第1の実施の形態例で説明した電子演算処理部70に加えて、誘導可能方向データ格納部77を備えるようにした。
上述したように、駅や空港などの開けた環境下では、アナウンスに用いられるスピーカの音源など、人とのコミュニケーションを阻害する要因が存在する。適切かつ正確なコミュニケーションをとるためには、この要因がある方向を避けて、人とのコミュニケーションをとることが望ましく、コミュニケーションを阻害する要因がある場所を避けるように、人を誘導することが望ましい。
上述したように、本実施の形態例の電子演算処理部70は、電子演算処理部70に、誘導可能方向データ格納部77を設けている。誘導可能方向データ格納部77は、コミュニケーションロボット1の設置位置の周囲で、コミュニケーションを阻害する要因がある方向を避けるために、人を誘導することが可能な方向についてのデータ(誘導可能方向データ)を持つ。この誘導可能方向データは、例えばコミュニケーションロボット1を設置する際の初期設定で生成される。また、コミュニケーションロボット1を設置した後の実際の運用で、コミュニケーションをとることが難しい状況が発生したとき、該当する状況が発生したときの人の位置を、誘導可能方向から除くようにして、誘導可能方向データを随時更新するようにしてもよい。
誘導可能方向データ格納部77が格納した誘導可能方向データは、動作制御部74が読み出す。
誘導可能方向データは、例えば図4に示す胴体下部4の旋回角度θAで示され、誘導可能エリアが、誘導可能な角度範囲θA0≦θA≦θA1で設定される。
これらの誘導可能な角度範囲の下限値θA0と上限値θA1は、実際の設置状況によって設定される値である。
動作制御部74は、この誘導可能方向データ格納部77に格納された誘導可能な角度範囲のデータを読み出して人を検知すると、誘導可能な角度範囲で人とコミュニケーションとることができるように、人を誘導する動作を行う。この誘導動作では、誘導中の人が、誘導可能な角度範囲からどの程度の距離があるかによって、旋回動作やお辞儀動作の大きさと周期が変更される。
電子演算処理部70のその他の構成は、第1の実施の形態例で説明した図2に示す電子演算処理部70と同様である。
[2-2.動作制御例]
図12は、動作制御部74が行う制御処理例を示すフローチャートである。この図12のフローチャートにおいて、第1の実施の形態例で説明した図9のフローチャートと同一の処理又は判断は同一のステップ番号を付し、重複説明を省略する。
図12に示す動作制御では、動作制御部74は、ステップS19で距離DFが人への応答可能距離D1以内であるか否かを判断し、距離DFが人への応答可能距離D1以内であると判断された場合に(ステップS19のYES)、後述するステップS24に移行する。また、ステップS19で距離DFが人への応答可能距離D1以内でない場合には(ステップS19のNO)、ステップS20に移行し、動作制御部74は、人の顔の距離DFとその変化量ΔDFに基づいて、動作の大きさと周期を変更して誘導動作を実行する。このステップS20での動作は、右腕部6R、左腕部6Lと、右目8R、左目8Lの動作である。
その後、さらにステップS23に移行し、動作制御部74は、胴体下部4の旋回動作の大きさと周期を変更して、誘導動作を実行する。このステップS23では、胴体上部3のお辞儀動作(図5参照)の大きさと周期を変更して、誘導動作を実行してもよい。
また、ステップS19で距離DFが人への応答可能距離D1以内であると判断された場合に移行するステップS24では、動作制御部74は、人の位置が誘導可能方向データの範囲内か否かを判断する。このステップS24で、人の位置が誘導可能方向データの範囲内であると判断された場合には(ステップS24のYES)、ステップS21に移行し、動作制御部74は、動作の大きさと周期を応答動作用に設定する。
また、ステップS24で、誘導可能方向データの範囲外であると判断された場合には(ステップS24のNO)、ステップS23に移行し、動作制御部74は、胴体下部4の旋回動作の大きさと周期を変更して、誘導可能への誘導動作を実行する。また、この誘導動作時には、動作制御部74は、胴体上部3のお辞儀動作(図5参照)についても行い、その際の動作の大きさと周期を変更して、誘導動作を実行する。
図12のフローチャートのその他の処理及び判断は、第1の実施の形態例で説明した図9に示すフローチャートと同じである。
図12に示すように、動作制御部74は、ステップS24で、人の位置が誘導可能方向データの範囲外であると判断したとき、ステップS23での胴体下部4の旋回動作で、コミュニケーションを阻害する要因がある方向を避けるような誘導動作を行う。すなわち、本実施の形態例のコミュニケーションロボット1は、駅や空港などの開けた環境に設置されるため、人が来る方向が定まっておらず、いずれの旋回方向にも人が存在する可能性がある。そのため、動作制御部74では、胴体下部4の旋回動作とお辞儀動作をコミュニケーションロボット1に実行させ、適正にコミュニケーションがとれる範囲に人を誘導する処理を行う。
具体的には、ステップS23として、旋回角度θA=θA+ΔθA2、お辞儀角度θB=θB+ΔθB2とする処理が行われる。ΔθA2とΔθB2は、旋回角度とお辞儀角度の変化分である。
この場合、旋回角度θAの変更と、お辞儀角度θBの変更は、同時に行ってもよいが、旋回角度θAの変更と、お辞儀角度θBの変更を交互に行ってもよい。
ここで、ステップS24での判断例の具体的な例を説明する。
まず、位置算出部72は、図17に示す偏差角度φFと、胴体下部4の旋回角度θAに基づいて、人の方向θH(=θA+φF)を算出する。偏差角度φFは、コミュニケーションロボット1の正面方向と人80の顔がある方向の偏差角度である。ここでは、図17に示すように、コミュニケーションロボット1と人80とが、距離DFだけ離れている。
そして、ステップS24で動作制御部74は、人の方向θHが、誘導範囲であるθA0≦θH≦θA1の条件が成立するかどうかを判断し、成立する場合に動作制御部74は、ステップS21に移行する。
一方、θA0≦θH≦θA1の条件が成立しないときに移行するステップS23では、人の方向θHを上限値θA1や下限値θA0と比較する。この比較で、θH>θA1のとき、目標とする誘導方向θHREFとして、θHREF=θA1とする。また、θH<θA0のとき、目標とする誘導方向θHREFとして、θHREF=θA0とする。この動作制御部74の処理は、近い方の制限値を設定する処理である。
そして、動作制御部74は、人の方向θHと目標誘導方向θHREFの領域を、旋回動作の範囲として設定する。すなわち、周方向において人との距離DFが遠くなるほど旋回動作の大きさが大きく、近くなるほど小さくなる。また、変化量ΔθHの値が正で大きいと旋回動作の周期を早く設定し、変化量ΔθHの値が負で大きいと旋回動作の周期を遅く設定する。
この処理により、コミュニケーションロボット1の周囲の人を、コミュニケーションをとることが難しい領域から、応対可能領域に適切に誘導することができるので、コミュニケーションロボット1は、円滑に人とのコミュニケーションをとることが可能になる。
なお、上述した例では、コミュニケーションを阻害する要因がある方向として、騒音などがある方向とした。これに対して、例えば検出センサ10であるカメラが人を撮影する際に、照明が外光などで、逆光状態で撮影されて、人の顔などが適切に検知できない範囲を、コミュニケーションを阻害する要因がある方向としてもよい。つまり、コミュニケーションを阻害する要因がある方向として、音声の集音が適切にできない方向に加えて、カメラでの撮影が適切にできる方向に設定してもよい。
また、コミュニケーションを阻害する要因がある方向や範囲は、予め複数の方向や範囲を設定しておき、時間などの条件に応じて、その複数の方向や範囲の中から、現在の状態で阻害する要因がある方向や範囲を選ぶようにしてもよい。
<3.第3の実施の形態例>
次に、本発明の第3の実施の形態例について、図13~図16を参照して詳細に説明する。この図13~図16において、第1の実施の形態例で説明した図1~図10、並びに2の実施の形態例で説明した図11~図12に対応する部分には同一符号を付して重複説明を省略し、以下の説明では第1の実施の形態例と相違する点を中心に説明する。
第3の実施の形態例のコミュニケーションロボット1は、第1の実施の形態例で説明したコミュニケーションロボット1と外形形状や各可動部の形状は同じであり、その動作制御システムが第1の実施の形態例と相違する。
[3-1.システム全体の構成]
図13は、第3の実施の形態例のコミュニケーションロボット1の動作制御システムの内部構成例を示す。
図13に示す動作制御システムの電子演算処理部70は、第1の実施の形態例で説明した電子演算処理部70の構成に加えて、グループ判断部78を備える構成とした。例えば、駅、空港などの人数が多い環境下に設置されたコミュニケーションロボット1の場合、人検出部71が複数の人の顔を同時に検出するケースが多々想定される。
グループ判断部78は、人検出部71が複数の人の顔を検出したとき、位置算出部72で算出したそれぞれの人の顔の位置の変化などから、その複数の人が同じグループの人か、あるいは複数の人がグループでないかを判断するものである。グループ判断部78で、同じグループの人であると判断したとき、動作制御部74は、その同じグループの複数の人を、一括して誘導する処理を行う。
電子演算処理部70のその他の構成は、第1の実施の形態例で説明した図2に示す電子演算処理部70と同様である。
[3-2.グループ判断の例]
図14は、グループ判断部78での判断処理の例を示す。
図14に示す例は、コミュニケーションロボット1の周囲に、2人の人81、82が存在する場合である。
ここで、ロボット1と人81との距離をDFA、ロボット1と人82との距離をDFB、人81と人82との距離DFdiffAB、並びにそれらの距離変化ΔDFA、ΔDFB、ΔDFdiffABとしたとき、グループ判断部78はこれらの距離及び距離変化を取得する。そして、グループ判断部78は、これらの距離及び距離変化から、人81と人82とが同一グループかどうかを判断する。
具体的には、距離DFA,DFBの差分を判断する閾値D10と、2人の距離DFdiffABを判断する閾値D11とを設定する。そして、以下の条件1、2、3を、一定時間T10の間、連続して満たすとき、グループ判断部78は、人81と人82を同一のグループとして判断する。
条件1:|DFA-DFB|<D10
条件2:DFdiffAB<D11
条件3:|ΔDFA-ΔDFB|<ΔD10
逆に、条件1、2、3のいずれか1つでも、一定時間T10の間、連続して満たすことがないとき、グループ判断部78は、人81と人82を同じグループとは見なさないようにする。
[3-3.動作制御例]
図15及び図16は、動作制御部74が行う制御処理例を示すフローチャートである。図15の[A1]で示す箇所が、図16の[A1]で示す箇所に接続され、図16の[B1]で示す箇所が、図15の[B1]で示す箇所に接続される。
この図15及び図16のフローチャートにおいて、第1の実施の形態例で説明した図9のフローチャートと同一の処理又は判断は同一のステップ番号を付し、重複説明を省略する。
図15に示す動作制御では、動作制御部74は、ステップS18で人の顔の位置(距離)情報を取得した後、取得した顔が複数か否かを判断する(ステップS26)。ここで、取得した顔が複数であるとき(ステップS26のYES)、動作制御部74は、図16のフローチャートのステップS31に移行する。
ステップS31では、動作制御部74は、検出された複数人の中で最も距離DFが小さい、すなわちコミュニケーションロボット1に最も近い人Cを、誘導対象として選択する。そして、動作制御部74は、グループ判断部78での処理結果に基づいて、その誘導対象の人Cと、周囲の別の人とが同じグループか否かを判断する(ステップS32)。
ここで、誘導対象の人Cと、周囲の人とが同じグループである場合(ステップS32のYES)、動作制御部74は、グループとしての距離DFCGを算出する(ステップS33)。ここでは、グループの中で最も近い人Cの距離DFCを、グループとしての距離DFCGに設定する。
そして、動作制御部74は、そのグループの距離DFCGに基づいて、グループ内の人を包括するように誘導対象の方向範囲を設定する(ステップS34)。
ここでは、例えばグループの最端の方向角度がθCGmin(最小値)とθCGmax(最大値)とすると、動作制御部74は、胴体下部4の旋回動作の大きさとして、角度θCGminから角度θCGmaxまでの間になるように設定する。
そして、誘導対象の方向範囲を設定した後、動作制御部74は、図15のステップS19の判断に移行する。
また、ステップS26で取得した顔が複数でないとき(ステップS26のNO)、及びステップS32でグループでないと判断したときにも(ステップS32のNO)、動作制御部74は、図15のステップS19の判断に移行する。
このように本実施の形態例のコミュニケーションロボット1によると、複数人の顔を同時に検出したとき、その複数人がグループか否かを判断して、グループ時には、そのグループ全体に対して誘導するようになる。したがって、例えば駅、空港などの複数の人が存在する環境化にコミュニケーションロボット1を設置した場合であっても、積極的に人を検出して円滑に応対可能領域に誘導することができる。
<4.変形例>
本発明は、上述した各実施の形態例に限定されるものではなく、様々な変形例が含まれる。
例えば、上述した第2の実施の形態例で説明した、コミュニケーションを阻害する要因がある範囲から適切は範囲に誘導する処理と、第3の実施の形態例で説明した、グループ時にグループ全体で誘導する処理を組み合わせるようにしてもよい。
また、第1の実施の形態例では、コミュニケーションをとることが可能な位置又は距離として、予め数m程度の一定の範囲を設定して、その範囲内に誘導するようにした。これに対して、コミュニケーションをとることが可能な位置又は距離として、ロボットを設置した場所での状況に応じて、可変設定するようにしてもよい。例えば、駅や空港などに設置した状況で、周囲の騒音が小さい状況では、コミュニケーションをとることが可能な距離を例えば3m程度に設定し、周囲の騒音が大きい状況では、コミュニケーションをとることが可能な距離を例えば1m程度に設定してもよい。
また、第2の実施の形態例で説明した、コミュニケーションを阻害する要因として、音声の集音が困難な範囲や、カメラでの撮影が逆光などで困難な範囲は一例であり、その他のコミュニケーションを阻害する要因を考慮してもよい。例えば、多数の人が絶えず通行するような状況で、人の通行を邪魔するような範囲(通路となる範囲)については、コミュニケーションを阻害する要因の範囲とし、通路から外れた箇所に人を誘導して、コミュニケーションをとるようにしてもよい。
また、第3の実施の形態例で説明したグループ全体で誘導する処理時には、コミュニケーションロボット1に最も近い人を誘導対象とした。これに対して、例えばグループを構成する複数人の位置の中心位置を仮想的に求めて、その仮想的に求めた中心位置を、コミュニケーションがとれる範囲に誘導するようにしてもよい。
あるいは、グループを検出したとき、グループ内のそれぞれの人に交互に振り向きながら、コミュニケーションがとれる範囲に誘導するようにしてもよい。
また、上述した各実施の形態例では、探索動作として、胴体上部3や頭部2を傾斜させるお辞儀角度を変更する動作を周期的に行うようにした。これに対して、探索動作として、胴体下部4の旋回動作などの他の動作を行うようにしてもよい。あるいは、お辞儀動作と旋回動作を組み合わせるようにしてもよい。
また、上述した各実施の形態例では、誘導動作時に左腕と右腕の動作や目の動作を行うようにした。この腕や目を動かす点についても一例であり、ロボットを構成する胴体や顔などの筐体そのものの動作や、腕や目以外のロボットに取り付けられた各部の部品(パーツ)を、誘導動作時や探索動作時に、動かすようにしてもよい。
誘導動作時や探索動作時に、腕や胴体などを動かす振幅(大きさ)と、周期の双方を変化させる点についても一例であり、少なくともいずれか一方のみを変化させればよい。
また、上述した各実施の形態例では、位置算出部72は、ロボットから人までの距離を算出するようした。これに対して、位置算出部72は、ロボットが配置された空間内での人の位置を算出して、算出した人の位置とロボットの設置位置との差から、距離を算出するようにしてもよい。
また、上述した各実施の形態では、静置型のロボットに適用したが、自走可能なロボットに適用してもよい。但し、自走可能なロボットであっても、本発明の処理を行う際には、決められた場所に停止して、その停止した場所で周囲の人などを検出して、処理を行うことが好ましい。
また、上述した実施の形態例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、図2、図3、図11、図13などの構成図や機能ブロック図では、制御線や情報線は説明上必要と考えられるものだけを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。また、図9、図12、図15、図16に示すフローチャートにおいて、実施の形態例の処理結果に影響がない範囲で、一部の処理ステップの実行順序を入れ替えたり、一部の処理ステップを同時に実行したりするようにしてもよい。
1…コミュニケーションロボット、2…頭部、3…胴体上部、4…胴体下部、5…腰部、6R…右腕部、6L…左腕部、7R、7L、7ER、7EL…表示部、8R…右目、8L…左目、9…音声取得部、10…検出センサ、11…音声発生部、21…駆動部、21a…可動部モータ制御部、21b…可動部モータ駆動部、21c…可動部モータ、21d…可動部位置センサ、70…電子演算処理部、71…人検出部、72…位置算出部、73…音声・言語処理部、74…動作制御部、75…動作計画実行部、76…言語応答データベース部、77…誘導可能方向データ格納部、78…グループ判断部

Claims (8)

  1. 筐体に取り付けられたパーツと、前記筐体そのものとの少なくともいずれか一方を可動させる駆動部と、
    前記筐体の周囲の人の音声を取得する音声取得部と、
    音声を発生する音声発生部と、
    前記筐体に取り付けられた検出センサの検出信号に基づいて、人の存在を検出する人検出部と、
    前記人検出部が検出した人の位置又は距離を算出する算出部と、
    前記算出部が算出した人の位置又は距離に基づいて、予め設定された実行条件で前記駆動部による前記パーツ又は前記筐体の動作を制御する動作制御部と、
    人を誘導可能な方向についての情報を保持する誘導可能方向データ保持部と、を備え、
    前記動作制御部の制御による前記駆動部の動作には、探索動作と誘導動作とがあり、
    前記誘導動作では、前記動作制御部は、前記誘導可能方向データ保持部が保持した誘導可能方向データで示される誘導可能な方向に対する、前記算出部が算出した位置又は距離に応じて、前記実行条件を変更しながら、前記パーツと前記筐体の少なくともいずれか一方の可動により人を誘導するように、前記パーツ又は前記筐体を可動させる
    コミュニケーションロボット。
  2. 記探索動作では、前記検出センサが検出する方向が変更するように、前記筐体を前記駆動部で可動させ
    請求項1に記載のコミュニケーションロボット。
  3. 前記算出部が算出した人の位置又は距離が、前記音声取得部による音声の取得と前記音声発生部による発生でコミュニケーションをとることが可能な位置又は距離でない場合に、前記動作制御部が前記誘導動作を行って、コミュニケーションをとることが可能な位置又は距離に人を誘導する
    請求項2に記載のコミュニケーションロボット。
  4. 前記実行条件の変更は、前記算出部が算出した位置又は距離の変化に応じて、前記筐体を周期的に可動させる際の、周期と大きさの少なくともいずれか一方の変更である
    請求項2に記載のコミュニケーションロボット。
  5. 前記動作制御部が前記誘導動作の際に行う前記実行条件には、前記音声発生部からの誘導用の音声の出力が含まれる
    請求項2に記載のコミュニケーションロボット。
  6. さらに、表示部を備え、
    前記動作制御部が前記誘導動作の際に行う前記実行条件には、前記表示部での誘導用の表示処理が含まれる
    請求項2に記載のコミュニケーションロボット。
  7. 前記実行条件には、前記パーツの動きにより、当該コミュニケーションロボットの表情を設定する条件が含まれる
    請求項1に記載のコミュニケーションロボット。
  8. さらに、前記算出部が算出した複数の人の位置又は距離の変化に基づいて、複数人が同じグループか否かを判断するグループ判断部を備え、
    前記誘導動作の際に、前記動作制御部は、前記グループ判断部が複数人を同じグループと判断した場合に、前記算出部が算出したグループの位置又は距離に基づいて、前記実行条件を変更する
    請求項2に記載のコミュニケーションロボット。
JP2018212853A 2018-11-13 2018-11-13 コミュニケーションロボット Active JP7253900B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018212853A JP7253900B2 (ja) 2018-11-13 2018-11-13 コミュニケーションロボット
PCT/JP2019/040217 WO2020100488A1 (ja) 2018-11-13 2019-10-11 コミュニケーションロボット
CN201980068901.5A CN112912152B (zh) 2018-11-13 2019-10-11 交流机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018212853A JP7253900B2 (ja) 2018-11-13 2018-11-13 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2020078448A JP2020078448A (ja) 2020-05-28
JP7253900B2 true JP7253900B2 (ja) 2023-04-07

Family

ID=70730717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018212853A Active JP7253900B2 (ja) 2018-11-13 2018-11-13 コミュニケーションロボット

Country Status (3)

Country Link
JP (1) JP7253900B2 (ja)
CN (1) CN112912152B (ja)
WO (1) WO2020100488A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021175108A (ja) 2020-04-27 2021-11-01 日本電気株式会社 Pcf装置、af装置、nef装置、及びこれらの方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013099800A (ja) 2011-11-07 2013-05-23 Fujitsu Ltd ロボット、ロボットの制御方法及び制御プログラム
JP2013237124A (ja) 2012-05-15 2013-11-28 Fujitsu Ltd 端末装置、情報提供方法及びプログラム
JP2013244566A (ja) 2012-05-28 2013-12-09 Fujitsu Ltd ロボット及びロボットの制御方法
US20150088310A1 (en) 2012-05-22 2015-03-26 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
JP2017177228A (ja) 2016-03-28 2017-10-05 株式会社国際電気通信基礎技術研究所 サービス提供ロボットシステム
JP2017222021A (ja) 2016-06-14 2017-12-21 グローリー株式会社 店舗受付システム
JP2018086689A (ja) 2016-11-28 2018-06-07 株式会社G−グロボット コミュニケーションロボット
JP2018149625A (ja) 2017-03-13 2018-09-27 大日本印刷株式会社 コミュニケーションロボット、プログラム及びシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4528295B2 (ja) * 2006-12-18 2010-08-18 株式会社日立製作所 案内ロボット装置及び案内システム
CN103612252B (zh) * 2013-12-03 2015-09-16 北京科技大学 面向孤独症儿童的智能远程社交辅助治疗机器人

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013099800A (ja) 2011-11-07 2013-05-23 Fujitsu Ltd ロボット、ロボットの制御方法及び制御プログラム
JP2013237124A (ja) 2012-05-15 2013-11-28 Fujitsu Ltd 端末装置、情報提供方法及びプログラム
US20150088310A1 (en) 2012-05-22 2015-03-26 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
JP2013244566A (ja) 2012-05-28 2013-12-09 Fujitsu Ltd ロボット及びロボットの制御方法
JP2017177228A (ja) 2016-03-28 2017-10-05 株式会社国際電気通信基礎技術研究所 サービス提供ロボットシステム
JP2017222021A (ja) 2016-06-14 2017-12-21 グローリー株式会社 店舗受付システム
JP2018086689A (ja) 2016-11-28 2018-06-07 株式会社G−グロボット コミュニケーションロボット
JP2018149625A (ja) 2017-03-13 2018-09-27 大日本印刷株式会社 コミュニケーションロボット、プログラム及びシステム

Also Published As

Publication number Publication date
CN112912152B (zh) 2022-07-22
WO2020100488A1 (ja) 2020-05-22
CN112912152A (zh) 2021-06-04
JP2020078448A (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
US10293484B2 (en) Robot device and method of controlling the robot device
JP5456832B2 (ja) 入力された発話の関連性を判定するための装置および方法
JP4849244B2 (ja) 移動ロボットおよび移動速度推定方法
JP6388141B2 (ja) 移動体
US20100198443A1 (en) Path planning device, path planning method, and moving body
KR20210052634A (ko) 운전자의 부주의를 판단하는 인공 지능 장치 및 그 방법
JP2009222969A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP2008087140A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
US10576633B2 (en) Communication device
US10464214B2 (en) Voice interaction device and control method therefor
JP2023095918A (ja) ロボット、ロボットの制御方法及びプログラム
JP7253900B2 (ja) コミュニケーションロボット
CN111002303A (zh) 识别装置、机器人、识别方法和存储介质
JPWO2019187834A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3599065A1 (en) Communication robot and control program therefor
JP2021157203A (ja) 移動体制御装置および移動体制御方法、並びにプログラム
JP3768957B2 (ja) 移動ロボットの経路設定方法
EP3950498B1 (en) Unmanned moving body and information processing method
KR102314385B1 (ko) 로봇 및 그의 제어 방법
KR20190095194A (ko) 사용자의 동선을 결정하는 인공 지능 장치 및 그 방법
CN209737616U (zh) 一种陪护机器人
JP6707255B2 (ja) サービス提供ロボットシステム
US11491660B2 (en) Communication system and method for controlling communication system
US20240004605A1 (en) Wearable with eye tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230328

R150 Certificate of patent or registration of utility model

Ref document number: 7253900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150