JP7075168B2 - 装置、方法、プログラム、及びロボット - Google Patents

装置、方法、プログラム、及びロボット Download PDF

Info

Publication number
JP7075168B2
JP7075168B2 JP2018007252A JP2018007252A JP7075168B2 JP 7075168 B2 JP7075168 B2 JP 7075168B2 JP 2018007252 A JP2018007252 A JP 2018007252A JP 2018007252 A JP2018007252 A JP 2018007252A JP 7075168 B2 JP7075168 B2 JP 7075168B2
Authority
JP
Japan
Prior art keywords
action
target person
robot
acquired
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018007252A
Other languages
English (en)
Other versions
JP2019018336A (ja
Inventor
亮太 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to US16/027,215 priority Critical patent/US11220008B2/en
Priority to CN201810748410.2A priority patent/CN109262606B/zh
Priority to EP18183744.4A priority patent/EP3432225A1/en
Publication of JP2019018336A publication Critical patent/JP2019018336A/ja
Application granted granted Critical
Publication of JP7075168B2 publication Critical patent/JP7075168B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/30Hydrogen technology
    • Y02E60/50Fuel cells

Landscapes

  • Manipulator (AREA)

Description

本開示は、人物とのコミュニケーションを図るロボット等に関するものである。
従来より、人物とのコミュニケーションを通じて人物との関与を図ることを主眼とするロボットが知られている。このようなロボットでは、可能な限りユーザがロボットと関与している状態を継続させることが重要である。
特許文献1には、ロボットがユーザ入力から独立したタスクを実行する自律タスク状態と、ロボットがユーザと相互作用する関与状態とを含み、現在の状況に基づいて、自律タスク状態から関与状態への移行タイミングと、関与状態から自律タスク状態への移行タイミングとを判断する技術が開示されている。
特表2014-502566号公報
しかし、上記の従来技術では、集中しているとまわりが見えなくなり、かつ飽きが生じやすいという幼児の特性が全く考慮されていないので、関与状態を継続できないという課題があり、更なる改善の必要がある。
本開示の一態様に係る装置は、所定の行動を実行することによって対象人物とコミュニケーションする装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
処理部と、
スピーカと、
前記装置を動かす駆動部と、を備え、
前記処理部は、
前記取得された映像および前記取得された音に従って、前記装置に対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記装置に実行させ、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記装置に継続させ、
前記経過時間が前記閾値以上であると判断された場合は、前記現在の行動の一つ下位の行動を前記装置に実行させ、
前記装置に、前記第1行動として、所定のタスクを実行させ、
前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記装置に前記第3行動として、前記対象人物の動きと同調した動きをさせる。
上記態様により、更なる改善を実現できた。
本開示の実施の形態におけるロボットの全体構成の一例を示すブロック図である。 初期関与ステージテーブルの一例を示す図である。 移行テーブルの一例を示す図である。 関与ステージの決定処理の一例を示すフローチャートである。 図4の続きのフローチャートである。 図5のS205の詳細な処理の一例を示すフローチャートである。 割り込み禁止条件テーブルの一例を示す図である。 辞書テーブルの一例を示す図である。 ロボットの外観の一例を示す図である。
(本開示に係る一態様を発明するに至った経緯)
上述のように特許文献1では、関与状態と、関与状態以外の非関与状態(自律タスク状態及び休憩状態など)との間の移行タイミングを決定する方法が開示されてる。具体的には、特許文献1では、ユーザがロボットを注視し、且つ、ユーザがロボットからの関与オファー(例えば、問いかけ)に応じた場合、非関与状態から関与状態に移行することが開示されている。また、特許文献1では、関与状態において、会話が不成立となった後に複数回の問いかけに対してユーザからの応答がなく、一定時間、待機状態が継続した場合に非関与状態に移行することが開示されている。
ところで、本発明者は、幼児とクイズをしたり、幼児に片づけを促したり、幼児に学習を促したりというような、幼児に対して何らかの仕事(タスク)を通じて幼児を教育及びしつけして、幼児の能力を向上させるロボットの研究を行っている。ここで、幼児は、自己中心性が強いという心理特性を有しており、好奇心が旺盛である反面、飽きやすく、集中力を持続させることが困難という傾向がある。
したがって、特許文献1において幼児を対象とした場合、ロボットを注視したり、ロボットの問いかけ対して確実に応答したりすることが期待できず、非関与状態から関与状態への移行の契機が少ないという課題が発生する。また、たとえ関与状態に移行できたとしても、幼児は、すぐに、ロボットからの問いかけに対して無反応になったり、ロボットから遠くに離れたりするといった行動をとる傾向が高いので、すぐに非関与状態に戻ってしまうという課題が発生する。このように、特許文献1は、関与状態を長時間持続することができないという課題がある。
かかる課題は、上記特許文献1にも言及がなく、従来には存在しなかったと認識している。
そこで、本発明者は、幼児に対してあるタスクを実行させる場合、幼児の意識が低い状態でいきなりタスクを課すのは却って逆効果であり、幼児の意識を十分に高めてからタスクを実行させることが有効であるとの知見を得た。そのためには、幼児への関与の度合いを増減させながら幼児のロボットへの関心を徐々に高めていくことが有効であるとの知見を得た。
本発明者は、上記の課題を解決するために、上記の知見の下、以下の改善策を検討した。
本開示の一態様に係る装置は、所定の行動を実行することによって対象人物とコミュニケーションする装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
処理部と、
スピーカと、
前記装置を動かす駆動部と、を備え、
前記処理部は、
前記取得された映像および前記取得された音に従って、前記装置に対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記装置に実行させ、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記装置に継続させ、
前記経過時間が前記閾値以上であると判断された場合は、前記現在の行動の一つ下位の行動を前記装置に実行させ、
前記装置に、前記第1行動として、所定のタスクを実行させ、
前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記装置に前記第3行動として、前記対象人物の動きと同調した動きをさせる。
本態様では、関与の度合いが高い順に第1、第2、及び第3行動が用意されており、まず、ロボットの周囲の映像及び音の状況から第1~第3行動のうちのいずれかの行動が初期行動として決定される。ここで、第1行動は対象人物にタスクを実行させるための行動であり、第2行動は対象人物へ話しかける行動であり、第3行動は対象人物の動きに同調する行動であり、第1~第3行動の順に対象人物への関与が高いと言える。
そして、マイクが周囲の音を検知した場合は、初期行動が対象人物にとって相応しく、対象人物の装置への関心が高いとして初期行動が一つ上位の行動に移行される。一方、初期行動を実行してからの経過時間が閾値に到達するまでマイクにより音が検知されなかった場合は、初期行動が対象人物の意識に対して相応しくなく、対象人物の関心を高めることができなかったと判定され、初期行動が一つ下位の行動に移行される。以後、このようにして、現在の行動が段階的に移行されながら対象人物の関心が高められていき、対象人物の関心が十分に高まった状態で、対象人物にタスクが課される。
このように、本態様は対象人物の装置への関心を十分に高めてから対象人物にタスクを課すことができので、対象人物が例えば、幼児のような心理的特性を持つ人物であっても、装置の対象人物への関与状態を長時間継続させることができる。その結果、対象人物にタスクを長時間取り組ませることができ、対象人物の能力を効果的に高めることができる。
上記態様において、前記第3行動の一つ下位の行動は第4行動であり、
前記第4行動の一つ下位の行動は第5行動であり、
前記処理部は、
前記現在の行動が実行されてから、前記マイクによって取得された音がある場合、且つ、前記取得された音に含まれた前記対象人物の音声に、前記装置に備えられた辞書に含まれた語句が含まれる場合は、前記第5行動を前記装置に実行させ、
前記駆動部を制御して、前記装置に前記第4行動として、前記装置の現在位置で所定の動きをさせ、
前記装置に、前記第5行動として、前記対象人物とのコミュニケーションを停止させてもよい。
本態様では、更に、現在位置で装置に所定の動きをさせる第4行動と、第4行動よりも関与の度合いが下位にあり、対象人物とのコミュニケーションを停止させる第5行動とが用意されている。そして、対象人物が辞書に含まれた語句(例えば、あっちへ行って)を発話した場合、第5行動が実行されるので、対象人物が装置とのコミュニケーションを積極的に拒んでおり、装置への関心の向上が見込まれない状況において、装置が対象人物を不必要に刺激することが防止され、装置が対象人物にとって煩わしい存在となることを防止できる。
上記態様において、前記処理部は、前記取得された映像から前記対象人物を認識し、且つ、前記取得された音から前記対象人物の音声を認識した場合は、前記装置に対して前記初期行動として前記第1行動を実行させてもよい。
本態様では、対象人物が例えば装置の方を向いて発話しているような場合、対象人物の関心は十分に高いとして、第1行動が実行されるので、対象人物に対して速やかにタスクを課すことができる。
上記態様において、前記処理部は、前記取得された映像から前記対象人物を認識せず、且つ、前記取得された音から前記対象人物の音声を認識した場合は、前記装置に対して前記初期行動として前記第2行動を実行させてもよい。
本態様では、対象人物が例えば、装置に向かわずに何かしらの発話をしているような場合、対象人物に対して装置が話しかける第2行動が実行されるので、対象人物を適切に刺激して、対象人物の関心を高めることができる。
上記態様において、前記処理部は、前記取得された映像から前記対象人物を認識し、且つ、前記取得された音から前記対象人物の音声を認識しない場合は、前記装置に対して前記初期行動として前記第3行動を実行させてもよい。
本態様では、対象人物が例えば、装置に向かわず発話もしていないような場合、対象人物の動きに同調する第3行動が実行されるので、対象人物を適切に刺激して、対象人物の関心を高めることができる。
上記態様において、前記処理部は、前記第1行動として、前記スピーカに対して前記対象人物とのコミュニケーションを開始することを提案する音声を出力させてもよい。
本態様では、第1行動を行う際、対象人物とのコミュニケーションを通じてタスクを要求することができ、対象人物に対して違和感なくタスクを要求することができる。
上記態様において、前記処理部は、
前記取得された映像から前記対象人物の頭部の傾きを認識した場合は、
前記駆動部を制御して、前記第3行動として、前記装置の上部を、前記頭部の傾きと同じ方向と角度とで、傾けさせてもよい。
本態様では、第3行動を行う際、対象人物の頭部の姿勢の変化に連動して装置の姿勢が変化されるので、対象人物の動きに同調して装置が動作していることを対象人物に容易に分からせることができ、対象人物の装置への関心を高めることができる。
上記態様において、前記処理部は、
前記取得された映像から前記対象人物の所定のリズムに合わせた動作を認識した場合は、
前記駆動部を制御して、前記第3行動として、前記装置を前記リズムに合わせて動かせてもよい。
本態様では、第3行動を行う際、対象人物の動きのリズムに合わせて装置が動くため、対象人物の動きに同調して装置が動作していることを対象人物に容易に分からせることができ、対象人物の装置への関心を高めることができる。
上記態様において、前記処理部は、
前記第2行動として、前記対象人物に対応する名前を含んだ音声を、前記スピーカに出力させてもよい。
本態様では、第2行動を行う際、対象人物の名前を用いて装置が対象人物に話しかけるので、装置に対する対象人物の関心を高めることができる。
上記態様において、前記処理部は、
前記第4行動として、前記装置を左右に揺らせてもよい。
本態様では、第4行動を行う際、装置が左右に揺らされるので、対象人物の関心がさほど高くない状況下において、比較的少ない刺激で対象人物の装置への関心を引き出すことができる。
上記態様において、前記処理部は、
前記第4行動として、重力方向を軸として前記装置を旋回させてもよい。
本態様では、第4行動を行う際、装置がその場で自転するので、対象人物の関心がさほど高くない状況下において、比較的少ない刺激で対象人物の装置への関心を引き出すことができる。
上記態様において、前記処理部は、
前記第5行動として、前記装置を前記対象人物から遠ざからせてもよい。
本態様では、第5行動を行う際、装置が対象人物から遠ざかるので、対象人物の関心の向上が見込まれない状況下において、対象人物に対して不必要な刺激を付与することを防止できる。
上記態様において、前記処理部は、
前記第5行動として、重力方向を軸として前記装置を180度旋回させてもよい。
本態様では、装置が対象人物に対して反対方向に向くため、対象人物の関心の向上が見込まれない状況下において、対象人物に対して不必要な刺激を付与することを防止できる。
上記態様において、前記処理部は、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合、且つ、前記装置に所定の割り込み禁止条件が設定されている場合は、前記装置に前記第5行動を実行させ、
前記所定の割り込み禁止条件は、
所定の時間帯についての条件及び前記対象人物の場所についての条件を含んでもよい。
所定の場所で所定の時間に対象人物がロボットに関与されては困るような所定の行動(例えば、食事及び睡眠)を行うことが習慣化されていることがある。この場合、対象人物にロボットを関与させるのは生活パターンを乱すので好ましくない。そこで、本態様では割り込み禁止条件を設け、割り込み禁止条件が設定されている時間帯及び場所においては装置が対象人物への関与から離脱する第5行動をロボットに実行させる。これにより、ロボットが対象人物の生活パターンを乱すことを防止できる。
本開示は、このような装置に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムとして実現することもできる。そして、そのようなコンピュータプログラムを、CD-ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることも出来る。
(実施の形態)
(全体構成)
以下、本開示の実施の形態について説明する。以下の説明では、本開示の装置をロボットに適用した場合を例に挙げて説明する。
図1は、本開示の実施の形態におけるロボット1の全体構成の一例を示すブロック図である。ロボット1は、例えば、幼児等の自己中心性が強いという心理特性を有するユーザとのコミュニケーションを通じて幼児の発育を支援することを主な目的とするロボットである。なお、コミュニケーションとは、幼児とロボット1とが音声により会話するというような直接的なコミュニケーションのみならず、ロボット1と幼児とが一緒になってダンスをするような間接的なコミュニケーションも含まれる。
ロボット1は、センサー部100、行動実行部200、出力部300を備える。センサー部100は、マイク101及びカメラ102で構成されている。マイク101は、ロボット1の周囲の音を音声信号に変換する。また、マイク101は、変換した音声信号を所定のサンプリングレートでA/D変換し、デジタルの音声データに変換し、プロセッサ210に出力する。カメラ102は、ロボット1の周囲の映像を取得し、画像データを取得する。ここで、カメラ102は、例えば、CCD又はCMOSイメージセンサで構成され、所定のフレームレート(例えば、1秒間に60フレーム)でロボット1の周囲の画像を撮影し、デジタルの画像データに変換する。カメラ102は、ロボット1の正面前方を撮影する通常のカメラで構成されてもよいし、ロボット1の全方位を撮影する全方位カメラで構成されてもよい。カメラ102により所定のフレームレートで撮影された画像データは、所定のフレームレートで、プロセッサ210に入力される。ここで、カメラ102は、ステレオカメラ又は赤外線カメラで構成されてもよい。この場合、カメラ102が撮像する画像データには、周囲の物体までの距離を示す距離成分が含まれることになる。
行動実行部200は、プロセッサ210及びメモリ208を備える。プロセッサ210は、例えば、ASIC、DSP、又はCPU等のプロセッサで構成され、音声認識部201、画像認識部202、初期関与ステージ判断部203、関与実行部204、移行判断部205、及びコマンド生成部207を備える。ここで、プロセッサ210が備える各構成要素はプロセッサがメモリ208に記憶されたコンピュータを行動実行部200として機能させるプログラムを実行することで実現されてもよいし、専用のハードウェア回路で構成されてもよい。行動実行部200を構成する全ての構成要素は、同一端末に実装されてもよい。或いは、行動実行部200を構成する全て又は一部の構成要素は、光ファイバ、無線、又は公衆電話回線など任意のネットワークを介して接続される別の端末又はサーバ上に個別に実装されていてもよい。この場合、行動実行部200は、別の端末又はサーバと通信することによって実現される。
音声認識部201は、マイク101から入力される音声データに対して所定の音声認識処理を実行して、音声データからロボット1の周囲に存在するユーザの発話内容を認識し、認識した発話内容を文字列に変換し、発話データを生成する。所定の音声認識処理としては、例えば、隠れマルコフモデル、統計的手法、又は動的時間伸縮法といった公知の手法が採用できる。
また、音声認識部201は、マイク101から入力される音声データの声紋がメモリ208に記憶された所定のユーザの声紋と照合することで、発話したユーザを特定する。そして、音声認識部201は、特定したユーザの識別情報と、発話データとを含むデータを音声認識データとして出力する。所定のユーザとしては、例えば、ロボット1が教育支援対象とする幼児及びその幼児の家族が含まれる。以下、ロボット1が教育支援の対象とする幼児を対象人物の一例として説明する。
画像認識部202は、カメラ102から入力される画像データに対して顔認識処理を適用することで、ロボット1の周囲に位置するユーザを認識し、認識したユーザの識別情報を画像認識データとして出力する。また、画像認識部202は、顔認識処理により認識したユーザの目線、顔の方向、及びユーザの移動量等を検出し、検出結果を画像認識データとして出力する。ここで、画像認識処理には、例えば、画像データに含まれる人物の顔の特徴量を抽出する処理、及び、抽出した特徴量を予めメモリ208に記憶された所定のユーザの顔の特徴量と比較する処理等が含まれる。
初期関与ステージ判断部203は、音声認識部201から出力された音声認識データと、画像認識部202から出力された画像認識データとに基づいて、ロボット1の幼児に対する初期の関与ステージを示す初期関与ステージを決定する。図2は、初期関与ステージ判断部203が初期関与ステージを決定するために用いる初期関与ステージテーブルT1の一例を示す図である。なお、初期関与ステージテーブルT1はメモリ208に事前に記憶されている。
初期関与ステージテーブルT1は、複数の初期関与ステージと各初期関与ステージに対する条件とが対応付けられたデータベースであり、「認識項目」、「センサ」、「条件」、及び「初期関与ステージ」のフィールドを備える。
「初期関与ステージ」フィールドには、「タスク実行」、「模倣」、及び「問いかけ」の3つ関与ステージと、対応する関与ステージがないことを示す「N/A」とが登録されている。なお、「タスク実行」、「問いかけ」、及び「模倣」の順で、ロボット1の幼児に対する関与の度合いが高い。「関与ステージ」とは、幼児に対してロボット1が関与する際の行動を決定するための指標を指す。
関与ステージが「タスク実行」にある場合、幼児に対して所定のタスクを課す行動(第1行動の一例)がロボット1により実行される。所定のタスクとは、幼児が取り組むべき仕事又は課題を指し、例えば、なぞなぞ遊び、片付け、勉強、宿題、読書、ロボット1による絵本の読み聞かせ、及び手伝い等が該当する。なお、タスクは、音声認識部201から出力される音声認識データと、画像認識部202から出力される画像認識データとの少なくとも一方に基づいて、初期関与ステージの決定に先立ってプロセッサ210により事前に決定される。言い換えれば、初期関与ステージを決定する処理は、新たなタスクが決定される度に実行される。
例えば、発話データに幼児に対して片付けを促す母親によって発話されたメッセージが含まれる場合、「片付け」がタスクとして決定される。例えば、音声認識データに「○○ちゃん、お片づけしましょうね」というような片付けを促す母親による発話データが含まれていれば、所定のタスクとして「片付け」が決定される。
「認識項目」フィールドには、初期関与ステージのそれぞれに対するロボット1の認識項目が登録されている。図2の例では、全ての初期関与ステージに対して、「認識項目」として、「人認識」と「音声認識」とが含まれている。「人認識」とは、ロボット1が幼児を映像によって認識したことを指す。「音声認識」とは、ロボット1が幼児を音によって認識したことを指す。
「センサ」フィールドには、認識項目に挙げられた認識を実現するためのセンサの種類が登録されている。図2の例では、全ての初期関与ステージにおいて、「人認識」には「カメラ」が登録され、「音声認識」には「マイク」が登録されている。つまり、「人認識」はカメラ102により撮影された画像データを用いて実行され、「音声認識」はマイク101により集音された音声データを用いて実行されることになる。
「条件」フィールドには、各初期関与ステージに対する決定条件が登録されている。例えば、「タスク実行」は、「人認識」と「音声認識」とが共に「認識」である場合に決定される。「模倣」は「人認識」が「認識」であり、「音声認識」が「なし」(=非認識)である場合に決定される。「問いかけ」は「人認識」が「なし」であり、「音声認識」が「認識」である場合に決定される。なお、「人認識」と「音声認識」とが共に「なし」である場合、初期関与ステージは決定されない。
ここで、初期関与ステージの決定は、幼児のロボット1への関心が高いほど、ロボット1への関与の度合いを高くするとの考えに基づいている。また、幼児のロボット1への関心は、幼児がロボット1に向かって会話している状況、幼児がロボット1に向かわずに会話している状況、及び幼児がロボット1に向かっているが会話はしていない状況の順に高いとみなしている。
そこで、初期関与ステージテーブルT1では、「人認識」と「音声認識」とが共に「認識」の状況は、幼児のロボット1への関心の度合いが1番高いステージにあるとみなし、ロボット1の幼児への関与の度合いが1番高い関与ステージである「タスク実行」が割り当てられている。また、「人認識」が「なし」であり「音声認識」が「認識」の状況は、幼児のロボット1への関心が2番目に高いステージにあるとみなし、ロボット1の幼児への関与の度合いが2番目に高い関与ステージである「問いかけ」が割り当てられている。また、「人認識」が「認識」であり「音声認識」が「なし」の状況は、幼児のロボット1への関心が3番目に高いステージにあるとみなし、ロボット1の幼児への関与の度合いが3番目に高い関与ステージである「模倣」が割り当てられている。
図1に参照を戻す。関与実行部204は、初期関与ステージ判断部203によって決定された初期関与ステージに対応する行動をロボット1に実行させるためのコマンドの出力依頼をコマンド生成部207に出力する。また、関与実行部204は、後述する移行判断部205によって関与ステージの移行が決定された場合、移行先の関与ステージに対応する行動をロボット1に実行させるためのコマンドの出力依頼をコマンド生成部207に出力する。
ここで、関与ステージは後述の図3で示すように、「タスク実行」、「問いかけ」、「模倣」、「待機」、及び「離脱」の5つで構成される。そのため、関与実行部204は、これら5つの関与ステージに対応する5つの行動をロボット1に実行させるためのコマンドの出力依頼をコマンド生成部207に出力する。なお、「タスク実行」、「問いかけ」、「模倣」、「待機」、及び「離脱」のそれぞれに対応する行動は、第1行動、第2行動、第3行動、第4行動、及び第5行動の一例に該当する。
例えば、決定された関与ステージが「タスク実行」であれば、「タスク実行」のコマンドの出力依頼がコマンド生成部207に出力され、決定された関与ステージが「模倣」であれば、「模倣」のコマンドの出力依頼がコマンド生成部207に出力される。
移行判断部205は、初期関与ステージ判断部203により決定された初期関与ステージを別の関与ステージに移行するか否かを判断する。また、移行判断部205は、初期関与ステージを移行させた後の関与ステージを別の関与ステージに移行するか否かを判定する。以下、初期関与ステージと、初期関与ステージから移行された後の関与ステージとを含め、現在、ロボット1に設定されている関与ステージのことを「現在の関与ステージ」と記述する。
ここで、移行判断部205は、現在の関与ステージに対応する行動が実行されてから、音声認識部201により幼児の音声が認識された場合、現在の関与ステージを一つ上の関与ステージに移行すると判断する。すなわち、移行判断部205は、現在の関与ステージをロボット1に実行させた結果、幼児が発話により反応した場合、幼児のロボット1への関心は高まる傾向にあると判断して、現在の関与ステージを1つ上の関与ステージに移行するのである。
一方、移行判断部205は、現在の関与ステージに対応する行動(現在の行動)が実行されてから、音声認識部201により幼児の音声が認識されなかった場合、現在の行動が実行されてからの経過時間が閾値未満であるかを判断する。そして、移行判断部205は、前記経過時間が閾値未満であると判断した場合、現在の関与ステージを継続すると判断する。一方、移行判断部205は、前記経過時間が閾値以上になっても幼児が発話しなかった場合、現在の関与ステージを一つ下位の関与ステージに移行すると判断する。すなわち、移行判断部205は、前記経過時間が閾値に到達するまで待っても、幼児から発話による反応がない場合は、現在の関与ステージは幼児に合っておらず、却って幼児のロボット1への関心を低下させてしまうと判断して、一つ下位の関与ステージに移行するのである。
図3は、ロボット1の関与ステージの順序を定める移行テーブルT2の一例を示す図である。図3に示す移行テーブルT2には、ロボット1が幼児に関与する度合いが高い順に「タスク実行」、「問いかけ」、「模倣」、「待機」、及び「離脱」の5つの関与ステージが登録されている。例えば、移行判断部205は、移行テーブルT2に登録された順位にしたがって段階的に関与ステージを設定し、ロボット1の幼児に対する関与の度合いを上げ下げする。なお、移行テーブルT2は、メモリ208に事前に記憶されている。
コマンド生成部207は、関与実行部204からコマンドの出力依頼を受け付けた場合、出力依頼が示すコマンドを出力部300に出力する。
出力部300は、コマンド生成部207からのコマンドにしたがって、現在の関与ステージに対応する行動をロボット1に実現させる構成要素であり、スピーカ301及び駆動部302を備える。
スピーカ301は、コマンド生成部207からのコマンドにしたがって、現在の関与ステージに対応する行動を実行する際に必要な音声データを音声に変換して外部に出力する。
駆動部302は、例えば、モータ等のアクチュエータと、アクチュエータによって作動する機構部とによって構成され、コマンド生成部207からのコマンドにしたがって、現在の関与ステージに対応する行動をロボット1に実現させる。機構部としては、ロボット1を前進又は後進させる部材、ロボット1の姿勢を変化させる部材、及びロボット1の顔の表情を表示する表示部の向きを変化させる部材等が含まれる。アクチュエータとしては、ロボット1を前進又は後進させる部材を駆動するモータ、ロボット1の姿勢を変化させる部材を駆動するモータ、及び表示部の向きを変化させるモータ等が含まれる。
なお、行動実行部200がロボット1の本体部分とは別の端末又はサーバに実装されている場合、スピーカ301及び駆動部302は、有線または無線を介して行動実行部200が実装された端末又はサーバと接続されればよい。
(フローチャート)
次に、図4及び図5を用いて、ロボット1における関与ステージの決定処理について説明する。図4は、関与ステージの決定処理の一例を示すフローチャートである。図5は図4の続きのフローチャートである。
まず、プロセッサ210は、音声認識部の電源がオンされるとロボット1が起動する(S101)。次に、初期関与ステージ判断部203は、音声認識部201による音声認識データと、画像認識部202よる画像認識データとに基づいて、センサー入力の有無を検知する(S102)。ここで、初期関与ステージ判断部203は、音声認識部201により幼児に関する音声認識データが出力されず、且つ、画像認識部202により幼児に関する画像認識データが出力されていない場合、センサー入力無しと判断し、幼児に関する音声認識データと幼児に関する画像認識データとの少なくとも一方が出力された場合、センサー入力有りと判断すればよい。
S102において、センサー入力有りと判断された場合(S102でYES)、処理はS103に進み、センサー入力無しと判断された場合(S102でNO)、処理はS102に戻る。
S103では、初期関与ステージ判断部203は、メモリ208に記憶された初期関与ステージテーブルT1を参照して、ロボット1の初期関与ステージを決定する(S103)。ここで、初期関与ステージ判断部203は、条件の項目にマッチした関与ステージをロボット1の初期関与ステージとして決定する。
例えば、音声認識部201により幼児の発話が音声認識され、且つ、画像認識部202により幼児の映像が認識された場合、初期関与ステージとして「タスク実行」が決定される。また、音声認識部201により幼児の発話が音声認識されず、且つ、画像認識部202により幼児の映像が認識された場合、初期関与ステージとして「模倣」が決定される。また、音声認識部201により幼児の発話が音声認識され、且つ、画像認識部202により幼児の映像が認識されなかった場合、初期関与ステージとして「問いかけ」が決定される。
次に、図5を参照し、S202では、現在の関与ステージが「離脱」でない場合(202でNO)、関与実行部204は、現在の関与ステージに対応する行動を実行するためのコマンドの出力依頼をコマンド生成部207に出力する(S203)。ここで、初期関与ステージとしては、「タスク実行」、「問いかけ」、及び「模倣」の3つがあるため、まず、これら3つの関与ステージのいずれかに対応する行動が実行されることになる。
タスクとして、例えば、なぞなぞ遊びが実行される場合、プロセッサ210は、幼児に対して「なぞなぞ遊びをやろう」というようなコミュニケーションの開始を提案する音声をスピーカ301に出力させるコマンド、及びなぞなぞの問題を読み上げる音声をスピーカ301から出力させるコマンドを出力部300に出力すればよい。また、プロセッサ210は、なぞなぞの問題を読み上げた後、音声認識部201により幼児から答えの発話が音声認識された場合、発話内容をなぞなぞの答えと照合し、正解した場合は、正解したことを示す音声をスピーカ301から出力させるコマンドを出力部300に出力すればよい。
また、タスクとして、片付けが実行される場合、プロセッサ210は、「お部屋の片付けをしよう」という問いかけの音声をスピーカ301から出力させるコマンドを出力部300に出力した後、画像認識部202の認識結果から幼児が片付けをしているか否かを判断し、片付けをしていると判断した場合は、幼児の行動をほめる音声をスピーカ301から出力させるコマンドを出力部300に出力すればよい。一方、プロセッサ210は、幼児が片付けをしていないと判断した場合は、幼児に対して片付けを促す音声をスピーカ301から出力させるコマンドを出力部300に出力すればよい。
「問いかけ」の関与ステージに対応する行動は、ロボット1が幼児に対し、例えば、幼児の名前を呼ぶなどして、幼児に話しかける行動が該当する。
「模倣」の関与ステージに対応する行動は、ロボット1が幼児と同調した動きをする行動、すなわち、幼児の動き真似をする行動が該当する。「模倣」の関与ステージに対応する行動をロボット1が実行する場合、プロセッサ210は、例えば、画像認識部202の認識結果から、幼児が下を向いて何らかの作業を集中して行っていることを検出したとすると、ロボット1の上部を幼児の頭部の傾きと同じ角度で同じ向きに傾けるコマンドを出力部300に出力すればよい。ここで、同じ向きとは、ロボット1と幼児とが対面していることを想定しており、例えば、幼児が頭部を左に傾けたのであればロボット1が上部を右の方向に傾けること、又、幼児が頭部を右に傾けたのであればロボット1が上部を左の方向に傾けることが該当する。
また、プロセッサ210は、例えば、画像認識部202の認識結果から、ダンスのように幼児が所定のリズムに合わせた動作をしていることを検知した場合、ロボット1を所定のリズムに合わせてダンスさせるコマンドを出力部300に出力すればよい。
一方、S202にて、現在の関与ステージが「離脱」である場合(S202でYES)、関与実行部204は、ロボット1に幼児への関与から離脱させる離脱行動を実行させるコマンドの出力依頼をコマンド生成部207に出力し、ロボット1に離脱行動を実行させ(S207)、処理を終了する。
ここで、離脱行動とは、ロボット1が幼児への関与を離脱する行動を指す。例えば、離脱行動としては、幼児から所定距離だけ離れた位置にロボット1を移動させたり、ロボット1の向きを重力方向を軸として180度旋回させて幼児の顔と反対方向にロボット1の正面を向けさせたりするというような、ロボット1が幼児とのコミュニケーションを停止させる自律的な行動が該当する。これにより、ロボット1への関心の向上が見込まれないほど幼児の意識が低い状態において、不必要に幼児を刺激して幼児がロボット1に対して嫌悪感を抱くことを防止できる。
S204にて、関与実行部204は、現在の関与ステージが「タスク実行」であってそのタスクが終了した場合(S204でNO)、ロボット1に離脱行動を実行させるコマンドの出力依頼をコマンド生成部207に出力し、ロボット1に離脱行動を実行させ(S207)、処理を終了する。これにより、タスクの終了後もロボット1が幼児につきまとい、幼児がロボット1に対して嫌悪感を抱くことを防止できる。
一方、現在の関与ステージが「タスク実行」であってそのタスクが終了していない場合(S204でNO)、又は、現在の関与ステージが「問いかけ」、「模倣」、又は「待機」の場合(S204でNO)、移行判断部205は関与ステージの移行の判断処理を行う(S205)。
なお、タスクは、タスク毎に設定されている終了条件が満たされた場合に終了される。例えば、タスクが幼児の質問に答えるタスクである場合、タスクはロボット1が幼児の質問に答えた後、一定時間が経過するまで、幼児から質問がなければ終了される。また、タスクがなぞなぞ遊びであれば、ロボット1が出題したなぞなぞに幼児が所定回数回答した場合又は出題してから一定時間が経過するまでに幼児からの発話がない場合に終了される。
次に、関与実行部204は、S205の処理によって決定された関与ステージに対応する行動をロボット1に実行させるためのコマンドの出力依頼をコマンド生成部207に出力する(S206)。これにより、S205の処理によって決定された関与ステージに対応する行動がロボット1によって実行される。なお、S205の処理によって決定された関与ステージはメモリ208に一時的に記憶される。
次に、図5のS205に示す移行の判断処理について説明する。図6は、図5のS205の詳細な処理の一例を示すフローチャートである。
まず、移行判断部205は、幼児の音声反応が無しと判断した場合(S301でNO)、割り込み禁止状態にあるか否かを確認をする(S302)。図7は、割り込み禁止条件が設定された割り込み禁止条件テーブルT3の一例を示す図である。
幼児が所定の時間に所定の場所でロボット1に関与されると困るような行動を行うことが習慣化されている場合、所定の時間に所定の場所にいる幼児にロボット1が関与すると、幼児の生活パターンを乱してしまう。例えば、朝の時間帯にダイニングで幼児が朝食をとることが習慣化されている場合、この朝の時間帯にロボット1が幼児に関与すると、朝食の妨げになってしまう。そこで、本実施の形態では割り込み禁止条件を設け、割り込み禁止条件が設定されている時間帯及び場所においては、ロボット1に離脱行動を実行させ、幼児の生活パターンをロボット1が乱すことを防止している。
割り込み禁止条件テーブルT3は縦軸に時間帯、横軸に場所が規定された二次元のテーブルである。「時間帯」フィールドには、1日の時間帯を複数に区切った時間帯が登録されている。ここでは、7時から9時、9時から12時、・・・、21時から7時というように、1日の時間帯が7個の時間帯に区切られている。「場所」フィールドには、幼児の家の部屋名が登録されている。割り込み禁止条件テーブルT3の各セルには、割り込み禁止条件が設定されていることを示すデータ「ON」と割り込み禁止条件が設定されていないことを示すデータ「OFF」とが登録されている。
例えば、7時から9時の時間帯においてダイニングのセルには「ON」が登録されている。したがって、移行判断部205は、この時間帯において幼児がダイニングにいることを検知した場合、関与ステージを「離脱」に決定する。これは、この家庭では、例えば、7時から9時の時間帯にダイニングで、幼児が朝食をとることが習慣化されており、ロボット1を幼児に関与させると朝食の邪魔になるからである。
一方、例えば、7時から9時の時間帯においてダイニング以外の場所のセルには「OFF」が登録されている。したがって、移行判断部205は、この時間帯であっても幼児がダイニング以外の場所にいれば、ロボット1は離脱行動以外の行動が許容された通常動作を行う。
なお、割り込み禁止条件は、例えば、スマートフォン等の携帯端末に対してユーザが入力したデータに基づいて事前に設定される。ユーザは、例えば、携帯端末に対して発話することで、割り込み禁止条件を設定すればよい。これにより、割り込み禁止状態にある場合、ロボット1が幼児に関与することを防止できる。
図6に参照を戻す。S302では、移行判断部205は、割り込み禁止条件テーブルT3を参照し、割り込み禁止状態であると判定した場合(S302でYES)、関与ステージを「離脱」に移行する(S305)。一方、割り込み禁止状態でないと判断した場合(S302でNO)、処理はS303に進む。ここで、移行判断部205は、画像認識部202による認識結果から幼児がいる部屋を判定し、判定した部屋と現在時刻が属する時間帯とに対応するセルに「ON」が登録されている場合、割り込み禁止状態にあると判定し(S302でYES)、前記セルに「OFF」が登録されている場合、割り込み禁止状態にないと判定する(S302でNO)。
S303では、移行判断部205は、現在の関与ステージに対応する行動を実行してからの経過時間が閾値未満であるか否かを判定する。前記経過時間が閾値未満であれば(S303でYES)、移行判断部205は、現在の関与ステージを維持する(S307)。一方、前記経過時間が閾値以上であれば(S303でNO)、移行判断部205は、移行テーブルT2を参照し、現在の関与ステージを一つ下位の関与ステージに移行させる(S308)。閾値としては、例えば、これ以上、同一の関与ステージに対応する行動をロボット1に実行させても、幼児の関心が高まらないことが見込まれる予め定められた時間が採用され、例えば、1分、2分、3分、5分、10分というような値が採用できる。
図3において、例えば現在の関与ステージが「模倣」であり、この状態において関与ステージが一つ下位に移行すると判断された場合、関与ステージは「待機」に設定される。なお、「待機」の関与ステージに対応する行動は、ロボット1をその場で左右に揺らせる行動、又は、重力方向を軸としてロボット1をその場で旋回(スピン)させる行動が該当する。これにより、幼児の関心が低い状況下において、比較的少ない刺激で幼児のロボット1への関心を引き出すことができる。
S301において、移行判断部205は、幼児の音声反応が有ると判断した場合(S301でYES)、幼児の発話内容が拒絶用語辞書にヒットしたか否かを判断をする(S304)。図8は、拒絶用語辞書が登録された辞書テーブルT4の一例を示す図である。辞書テーブルT4には、「あっちいって」、「話かけないで」、及び「うるさい」等、ロボット1を拒絶するような用語が登録されている。移行判断部205は、幼児の発話内容に辞書テーブルT4に登録されたいずれかの用語が含まれている場合(S304でYES)、幼児はロボット1の関与を積極的に拒んでいると判断し、現在の関与ステージを「離脱」に移行させる(S305)。
一方、幼児の発話内容に辞書テーブルT4に登録されいずれの用語も含まれていない場合(S304でNO)、移行判断部205は現在の関与ステージを一つ上位の関与ステージに移行させる(S306)。図3を参照し、例えば、現在の関与ステージが「模倣」であり、この状態において関与ステージを一つ上位に上げると判断された場合、関与ステージは「問いかけ」に移行される。
S305、S306、S307、S308の処理が終了すると、処理は図5のS206に戻り、関与ステージが移行された後、処理が図5のS202に進み、タスクが終了する又は離脱行動が実行されるまでS202~S206の処理が繰り返される。
(ロボット)
次に、ロボット1の機構について説明する。図9は、ロボット1の外観の一例を示す図である。ロボット1は、球帯状のメイン筐体401と球冠部402、403とを備えており、メイン筐体401と球冠部402、403とは全体として球体を構成する。即ち、ロボット1は球体形状を有する。また、ロボット1は、球冠部402(もしくは球冠部403)にマイク101とカメラ102とスピーカ301とを備える。また、ロボット1は、図略の制御回路を備える。図1に示す行動実行部200は、この制御回路に実装される。図9の例では、カメラ102は球冠部402と球冠部403とのそれぞれに設けられた2つのカメラを含むステレオカメラで構成されており、周辺環境の映像と距離データを取得する。
球冠部402の中心と球冠部403の中心とはメイン筐体401の内部に設けられたシャフト(図略)によって固定接続されている。メイン筐体401はシャフトに対して回転自在に取り付けられている。また、シャフトにはフレーム(図略)及び表示部(図略)が取り付けられている。フレームにはメイン筐体401を回転させる第1モータ(図略)が取り付けられている。この第1モータ(図略)が回転することで、メイン筐体401は球冠部402、403に対して回転し、ロボット1は前進又は後退する。なお、ロボット1が前進又は後退する場合、球冠部402、403は停止状態にあるので、スピーカ301及びカメラ102はロボット1の正面を向いた状態に維持される。また、表示部には、ロボット1の目及び口を示す画像を表示する。この表示部は、第2モータ(図略)による動力によってシャフトに対する角度が調整自在に取り付けられている。したがって、表示部のシャフトに対する角度を調整することで、ロボットの目及び口の方向が調整される。なお、表示部はメイン筐体401とは独立してシャフトに取り付けられているので、メイン筐体401が回転してもシャフトに対する角度は変化しない。したがって、ロボット1は、目及び口の向きを固定した状態で前進又は後退できる。
更に、シャフトにはおもり(図略)が下げられている。このおもりは、第3モータ(図略)の動力によりロボット1の正面方向を軸として揺動自在に取り付けられている。したがって、おもりを揺動させることで、ロボット1をその場で揺れるように動作をさせることができる。また、おもりを後方から前方に見て、左方又は右方に傾斜させた状態でロボット1を前進させることで、ロボット1を左方又は右方に旋回させることができる。例えば、おもりを左方に傾斜させた状態でロボット1を前進させる動作と、おもりを右方に傾斜させた状態でロボット1を後退させる動作とを小刻みに繰り返すことで、ロボット1は重力方向を軸に旋回(その場旋回)を行うことができる。
なお、上述した、メイン筐体401、第1モータ、第2モータ、第3モータ、及び表示部は図1の駆動部302を構成する。
制御回路は、ロボット1の各種動作を制御する。なお、ロボット1は、全体として球体を構成しているが、これに限られるものではなく、少なくとも移動機構を有した構成を備えれば良い。
このように、本実施の形態では、幼児へのロボット1の関与の度合いを段階的に上げることにより、幼児のロボット1への関心を段階的に高めていき、幼児のの関心が十分に高まった状態で幼児にタスクを課すことができる。したがって、本開示では、集中力を持続させることが困難な心理的特性を持つ幼児に対して、ロボット1を長時間関与させることが可能となる。その結果、幼児にタスクを長時間取り組ませることができ、幼児の能力を効果的に高めることができる。
本開示は、下記の変形例が採用できる。
(1)上記実施の形態では、本開示に係る装置がロボット1に適用される例が示されたが、これに限定されず、ロボット1以外の移動可能な装置であればどのような実装されてもよい。
(2)上記実施の形態では、関与ステージとして「離脱」及び「待機」が含まれていたが、これらの関与ステージは省かれてもよい。この場合、「タスク実行」、「問いかけ」、及び「模倣」の3つの関与ステージのいずれかに対応する行動をロボット1はとることになる。
(3)図6のフローチャートでは、割り込み禁止状態の有無を判定する処理(S302)と、拒絶用語辞書へのヒットの有無を判定する処理(S304)とが設けられているが、これは一例であり、両処理のうちいずれか一方又は両方が省かれてもよい。
(4)図5のフローチャートは電源ONをトリガーに開始されているが、これは一例であり、幼児に課すべきタスクが発生したことをトリガーに開始されてもよい。
本開示によれば、飽きが生じやすく、関与の契機が難しい対象人物に対し、ロボットの関与状態を持続できるので、教育用ロボットとして有用である。
1 ロボット
100 センサー部
101 マイク
102 カメラ
200 行動実行部
201 音声認識部
202 画像認識部
203 初期関与ステージ判断部
204 関与実行部
205 移行判断部
207 コマンド生成部
208 メモリ
210 プロセッサ
300 出力部
301 スピーカ
302 駆動部
T1 初期関与ステージテーブル
T2 移行テーブル
T3 割り込み禁止条件テーブル
T4 辞書テーブル

Claims (17)

  1. 所定の行動を実行することによって対象人物とコミュニケーションする装置であって、
    前記装置周辺の映像を取得するカメラと、
    前記装置周辺の音を取得するマイクと、
    処理部と、
    スピーカと、
    前記装置を動かす駆動部と、を備え、
    前記処理部は、
    前記取得された映像および前記取得された音に従って、前記装置に対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
    前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記装置に実行させ、
    前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
    前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記装置に継続させ、
    前記経過時間が前記閾値以上であると判断された場合は、前記現在の行動の一つ下位の行動を前記装置に実行させ、
    前記装置に、前記第1行動として、所定のタスクを実行させ、
    前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記装置に前記第3行動として、前記対象人物の動きと同調した動きをさせ、
    前記現在の行動が前記第1行動の場合、前記タスクの終了条件が満たされるまで第1行動を継続する、
    装置。
  2. 前記第3行動の一つ下位の行動は第4行動であり、
    前記第4行動の一つ下位の行動は第5行動であり、
    前記処理部は、
    前記現在の行動が実行されてから、前記マイクによって取得された音がある場合、且つ、前記取得された音に含まれた前記対象人物の音声に、前記装置に備えられた辞書に含まれた語句が含まれる場合は、前記第5行動を前記装置に実行させ、
    前記駆動部を制御して、前記装置に前記第4行動として、前記装置の現在位置で前記装置を待機させる動きをさせ、
    前記装置に、前記第5行動として、前記対象人物とのコミュニケーションを停止させる、
    請求項1記載の装置。
  3. 前記処理部は、前記取得された映像から前記対象人物を認識し、且つ、前記取得された音から前記対象人物の音声を認識した場合は、前記装置に対して前記初期行動として前記第1行動を実行させる、
    請求項1記載の装置。
  4. 前記処理部は、前記取得された映像から前記対象人物を認識せず、且つ、前記取得された音から前記対象人物の音声を認識した場合は、前記装置に対して前記初期行動として前記第2行動を実行させる、
    請求項1記載の装置。
  5. 前記処理部は、前記取得された映像から前記対象人物を認識し、且つ、前記取得された音から前記対象人物の音声を認識しない場合は、前記装置に対して前記初期行動として前記第3行動を実行させる、
    請求項1記載の装置。
  6. 前記処理部は、前記第1行動として、前記スピーカに対して前記対象人物とのコミュニケーションを開始することを提案する音声を出力させる、
    請求項3記載の装置。
  7. 前記処理部は、
    前記取得された映像から前記対象人物の頭部の傾きを認識した場合は、
    前記駆動部を制御して、前記第3行動として、前記装置の上部を、前記頭部の傾きと同じ方向と角度とで、傾けさせる、
    請求項5記載の装置。
  8. 前記処理部は、
    前記取得された映像から前記対象人物の所定のリズムに合わせた動作を認識した場合は、
    前記駆動部を制御して、前記第3行動として、前記装置を前記リズムに合わせて動かせる、
    請求項5記載の装置。
  9. 前記処理部は、
    前記第2行動として、前記対象人物に対応する名前を含んだ音声を、前記スピーカに出力させる、
    請求項4記載の装置。
  10. 前記処理部は、
    前記第4行動として、前記装置を左右に揺らせる、
    請求項2記載の装置。
  11. 前記処理部は、
    前記第4行動として、重力方向を軸として前記装置を旋回させる、
    請求項2記載の装置。
  12. 前記処理部は、
    前記第5行動として、前記装置を前記対象人物から遠ざからせる、
    請求項2記載の装置。
  13. 前記処理部は、
    前記第5行動として、重力方向を軸として前記装置を180度旋回させる、
    請求項2記載の装置。
  14. 前記処理部は、
    前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合、且つ、前記装置に所定の割り込み禁止条件が設定されている場合は、前記装置に前記第5行動を実行させ、
    前記所定の割り込み禁止条件は、
    所定の時間帯についての条件及び前記対象人物の場所についての条件を含む、
    請求項2記載の装置。
  15. 所定の行動を実行することによって対象人物とコミュニケーションする装置であって、前記装置を動かす駆動部、カメラ、マイクおよびスピーカを備える前記装置、における方法であって、
    前記装置周辺の映像を前記カメラにより取得し、
    前記装置周辺の音を前記マイクにより取得し、
    前記取得された映像及び前記取得された音に従って、前記装置に対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
    前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記装置に実行させ、
    前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
    前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記装置に継続させ、
    前記経過時間が前記閾値以上と判断された場合は、前記現在の行動の一つ下位の行動を前記装置に実行させ、
    前記装置に、前記第1行動として、所定のタスクを実行させ、
    前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記装置に前記第3行動として、前記対象人物の動きと同調した動きをさせ、
    前記現在の行動が前記第1行動の場合、前記タスクの終了条件が満たされるまで第1行動を継続する、
    方法。
  16. 請求項15記載の方法を前記装置を制御するコンピュータに実行させるためのプログラム。
  17. 所定の行動を実行することによって対象人物とコミュニケーションするロボットであって、
    前記ロボット周辺の映像を取得するカメラと、
    前記ロボット周辺の音を取得するマイクと、
    処理部と、
    スピーカと、
    前記ロボットを動かす駆動部と、を備え、
    前記処理部は、
    前記取得された映像および前記取得された音に従って、前記ロボットに対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
    前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記ロボットに実行させ、
    前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
    前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記ロボットに継続させ、
    前記経過時間が前記閾値以上であると判断された場合は、前記現在の行動の一つ下位の行動を前記ロボットに実行させ、
    前記ロボットに、前記第1行動として、所定のタスクを実行させ、
    前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記ロボットに前記第3行動として、前記対象人物の動きと同調した動きをさせる、
    前記現在の行動が前記第1行動の場合、前記タスクの終了条件が満たされるまで第1行動を継続する、
    ロボット。
JP2018007252A 2017-07-18 2018-01-19 装置、方法、プログラム、及びロボット Active JP7075168B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/027,215 US11220008B2 (en) 2017-07-18 2018-07-03 Apparatus, method, non-transitory computer-readable recording medium storing program, and robot
CN201810748410.2A CN109262606B (zh) 2017-07-18 2018-07-10 装置、方法、记录介质以及机器人
EP18183744.4A EP3432225A1 (en) 2017-07-18 2018-07-16 Apparatus, method, non-transistory computer-readable recording medium storing program, and robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017139116 2017-07-18
JP2017139116 2017-07-18

Publications (2)

Publication Number Publication Date
JP2019018336A JP2019018336A (ja) 2019-02-07
JP7075168B2 true JP7075168B2 (ja) 2022-05-25

Family

ID=65354274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018007252A Active JP7075168B2 (ja) 2017-07-18 2018-01-19 装置、方法、プログラム、及びロボット

Country Status (1)

Country Link
JP (1) JP7075168B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020241223A1 (ja) * 2019-05-28 2020-12-03 パナソニックIpマネジメント株式会社 片付け誘引システム、片付け誘引家具及び片付け誘引方法

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255991A (ja) 2002-03-06 2003-09-10 Sony Corp 対話制御システム、対話制御方法及びロボット装置
JP2003285286A (ja) 2002-03-27 2003-10-07 Nec Corp ロボット装置
JP2005305631A (ja) 2004-03-25 2005-11-04 Nec Corp ロボットおよびその制御方法
JP2006088276A (ja) 2004-09-24 2006-04-06 Advanced Telecommunication Research Institute International 動作生成システム
JP2007000938A (ja) 2005-06-21 2007-01-11 Toshiba Corp 行動融和型ロボット装置
JP2007038406A (ja) 2002-05-17 2007-02-15 Victor Co Of Japan Ltd 移動ロボット
JP2007152445A (ja) 2005-12-01 2007-06-21 Mitsubishi Heavy Ind Ltd 自走式ロボット
JP2009136967A (ja) 2007-12-06 2009-06-25 Honda Motor Co Ltd コミュニケーションロボット
JP2011097531A (ja) 2009-11-02 2011-05-12 Advanced Telecommunication Research Institute International 傾聴対話持続システム
JP2014502566A (ja) 2011-01-13 2014-02-03 マイクロソフト コーポレーション ロボットとユーザーの相互作用のためのマルチ状態モデル
JP2014191029A (ja) 2013-03-26 2014-10-06 Fuji Soft Inc 音声認識システムおよび音声認識システムの制御方法
US20150120043A1 (en) 2013-10-30 2015-04-30 Georgia Tech Research Corporation Methods and systems for facilitating interactions between a robot and user
JP2016093279A (ja) 2014-11-13 2016-05-26 日本電信電話株式会社 制御装置、制御装置の動作方法およびコンピュータプログラム
JP2016220174A (ja) 2015-05-26 2016-12-22 株式会社東芝 家電制御方法及び家電制御装置
JP2017077442A (ja) 2015-10-22 2017-04-27 株式会社日本自動車部品総合研究所 動作体の動作制御装置及び動作制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140047273A (ko) * 2012-10-12 2014-04-22 피프가부시끼가이샤 로봇

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255991A (ja) 2002-03-06 2003-09-10 Sony Corp 対話制御システム、対話制御方法及びロボット装置
JP2003285286A (ja) 2002-03-27 2003-10-07 Nec Corp ロボット装置
JP2007038406A (ja) 2002-05-17 2007-02-15 Victor Co Of Japan Ltd 移動ロボット
JP2005305631A (ja) 2004-03-25 2005-11-04 Nec Corp ロボットおよびその制御方法
JP2006088276A (ja) 2004-09-24 2006-04-06 Advanced Telecommunication Research Institute International 動作生成システム
JP2007000938A (ja) 2005-06-21 2007-01-11 Toshiba Corp 行動融和型ロボット装置
JP2007152445A (ja) 2005-12-01 2007-06-21 Mitsubishi Heavy Ind Ltd 自走式ロボット
JP2009136967A (ja) 2007-12-06 2009-06-25 Honda Motor Co Ltd コミュニケーションロボット
JP2011097531A (ja) 2009-11-02 2011-05-12 Advanced Telecommunication Research Institute International 傾聴対話持続システム
JP2014502566A (ja) 2011-01-13 2014-02-03 マイクロソフト コーポレーション ロボットとユーザーの相互作用のためのマルチ状態モデル
JP2014191029A (ja) 2013-03-26 2014-10-06 Fuji Soft Inc 音声認識システムおよび音声認識システムの制御方法
US20150120043A1 (en) 2013-10-30 2015-04-30 Georgia Tech Research Corporation Methods and systems for facilitating interactions between a robot and user
JP2016093279A (ja) 2014-11-13 2016-05-26 日本電信電話株式会社 制御装置、制御装置の動作方法およびコンピュータプログラム
JP2016220174A (ja) 2015-05-26 2016-12-22 株式会社東芝 家電制御方法及び家電制御装置
JP2017077442A (ja) 2015-10-22 2017-04-27 株式会社日本自動車部品総合研究所 動作体の動作制御装置及び動作制御方法

Also Published As

Publication number Publication date
JP2019018336A (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11220008B2 (en) Apparatus, method, non-transitory computer-readable recording medium storing program, and robot
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
US11024294B2 (en) System and method for dialogue management
JP6818280B2 (ja) 対話システム、対話方法、対話装置、およびプログラム
JP5982840B2 (ja) 対話装置、対話プログラムおよび対話方法
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US20210205987A1 (en) System and method for dynamic robot configuration for enhanced digital experiences
JP6583765B2 (ja) エージェント対話システムおよびプログラム
JP7363764B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2008509455A (ja) ユーザとシステムとの間の通信方法及びシステム
JP6992957B2 (ja) エージェント対話システム
JP7075168B2 (ja) 装置、方法、プログラム、及びロボット
JP2007030050A (ja) ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法
JP7286303B2 (ja) 会議支援システム及び会議用ロボット
JPWO2018168247A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7432960B2 (ja) 対話システムおよびプログラム
JP7015711B2 (ja) 装置、ロボット、方法、及びプログラム
WO2024084855A1 (ja) 遠隔会話支援方法、遠隔会話支援装置、遠隔会話システム、及び、プログラム
WO2023286224A1 (ja) 会話処理プログラム、会話処理システムおよび会話型ロボット
JP2013167987A (ja) 遠隔対話支援装置および遠隔対話支援方法
WO2024185417A1 (ja) 応答制御装置、応答制御方法および応答制御プログラム
McCabe Syllable from Sound
WO2021064948A1 (ja) 対話方法、対話システム、対話装置、およびプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200605

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220510

R151 Written notification of patent or utility model registration

Ref document number: 7075168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151