JP2021129814A - コミュニケーションロボット、制御プログラムおよび制御方法 - Google Patents

コミュニケーションロボット、制御プログラムおよび制御方法 Download PDF

Info

Publication number
JP2021129814A
JP2021129814A JP2020027041A JP2020027041A JP2021129814A JP 2021129814 A JP2021129814 A JP 2021129814A JP 2020027041 A JP2020027041 A JP 2020027041A JP 2020027041 A JP2020027041 A JP 2020027041A JP 2021129814 A JP2021129814 A JP 2021129814A
Authority
JP
Japan
Prior art keywords
expression
robot
emotions
event
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020027041A
Other languages
English (en)
Other versions
JP7399740B2 (ja
Inventor
熙乾 鄭
Xiqian Zheng
熙乾 鄭
昌裕 塩見
Masahiro Shiomi
昌裕 塩見
隆史 港
Takashi Minato
隆史 港
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2020027041A priority Critical patent/JP7399740B2/ja
Publication of JP2021129814A publication Critical patent/JP2021129814A/ja
Application granted granted Critical
Publication of JP7399740B2 publication Critical patent/JP7399740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】触覚刺激を通じてロボットが感情を自然に表出することができる。【解決手段】システムは、ロボットおよびコンテンツ提示装置を含み、ロボットは、手部、コンピュータおよびアクチュエータを含み、近くに存在する人に手部によって触れる接触動作を行う。コンピュータは、コンテンツ提示装置から所定の感情を表出するイベントの発生タイミングおよび表出用の感情を取得し(ステップS3)、表出用の感情に対応する表出用の算出条件を設定し(ステップS7)、発生タイミングを基準として、表出用の算出条件を用いて、接触動作の開始タイミングを算出し(ステップS9)、開始タイミングに到達したときに、手部を変位させて、接触動作を行う(ステップS13)。【選択図】図11

Description

この発明はコミュニケーションロボット、制御プログラムおよび制御方法に関し、特にたとえば、人に触れる接触動作を含むコミュニケーション行動を取る、コミュニケーションロボット、制御プログラムおよび制御方法に関する。
本件発明者等は、非特許文献1に記載されるように、ロボットの抱擁中の音声刺激と視覚刺激が、人の知覚印象とストレス緩衝効果をどのように変化させるかについての実験を行い、この実験結果によって、人とロボットとの抱擁の相互作用によりストレス軽減効効果を人にもたらすことが分かった。
Masahiro Shiomi, Norihiro Hagita, "Audio-Visual Stimuli Change not Only Robot’s Hug Impressions but Also Its Stress-Buffering Effects" International Journal of Social Robotics, 2019.
背景技術では、ロボットが人に触れることによる触覚刺激でロボット自身の印象を変化させること、および、触覚刺激によってストレス軽減効効果を人にもたらすことが期待できることがわかったが、触覚刺激を通じてロボットがどのように感情を自然に表出するかについては考慮されていなかった。
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボット、制御プログラムおよび制御方法を提供することである。
この発明の他の目的は、コミュニケーション対象者に対して、接触動作を通じてロボットが感情を自然に表出することができる、コミュニケーションロボット、制御プログラムおよび制御方法を提供することである。
第1の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットであって、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、イベントにおいて表出する表出用の感情を取得する第2取得手段、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する第1設定手段、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件に応じて、開始タイミングを算出する算出手段、および算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御手段を備える。
第1の発明では、ロボット(12)は、少なくとも頭部(24)、胴体部(20)、腕部(30)および手部(38)を含み、近くに存在する人に手部によって触れる接触動作を行う。第1取得手段(50、302d、S3)は、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する。第2取得手段(50、302d、S3)は、イベントにおいて表出する表出用の感情を取得する。第1設定手段(50、302e、S7)は、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する。算出手段(50、302f、S9)は、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件を用いて、開始タイミングを算出する。動作制御手段(50、302c、S13)は、算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う。
第1の発明では、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される複数の算出条件を用意しておき、所定の感情を表出するイベントが発生する際に、表出用の感情に対応する表出用の算出条件を用いて、接触動作の開始タイミングを算出し、算出された開始タイミングに到達したときに、接触動作を行う。このため、接触動作を通じてロボットが感情を自然に表出することができる。
第2の発明は、第1の発明に従属し、複数の算出条件のそれぞれは、複数の感情のそれぞれに応じて、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される平均および分散を含み、算出手段は、表出用の算出条件に含まれる平均および分散をパラメータとする確率密度関数に従う乱数に応じて開始タイミングを算出する、コミュニケーションロボットである。
第2の発明によれば、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される平均および分散をパラメータとする確率密度関数に従う乱数に応じて開始タイミングが算出されるので、接触動作を通じてロボットが感情をより自然に表出することができる。
第3の発明は、第1または第2の発明に従属し、コミュニケーションロボットは、視覚的および/または聴覚的に認識可能なコンテンツを近くに存在する人と並んで視聴する際に接触動作を行い、イベントは、コンテンツのクライマックスを含む、コミュニケーションロボットである。
第3の発明によれば、接触動作を通じてロボットが感情を自然に表出することができる。
第4の発明は、第1から第3までのいずれかの発明に従属し、接触動作は、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいた複数の動作パターンを含み、複数の動作パターンの中から、第2取得手段で取得された表出用の感情に対応する表出用の動作パターンを設定する第2設定手段をさらに備え、動作制御手段は、開始タイミングに到達したときに、表出用の動作パターンに従って接触動作を行う、コミュニケーションロボットである。
第4の発明によれば、人が感情を表出する際の動きを測定する実験結果に基づいた複数の動作パターンを用意しておき、表出用の感情に対応する表出用の動作パターンに従って接触動作を行うので、接触動作を通じてロボットが感情をより自然に表出することができる。
第5の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットのコンピュータによって実行される制御プログラムであって、コンピュータを、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、イベントにおいて表出する表出用の感情を取得する第2取得手段、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得手段で取得された表出用の感情に対応する表出用の算出条件を設定する第1設定手段、第1取得手段で取得された発生タイミングを基準として、第1設定手段で設定された表出用の算出条件を用いて、開始タイミングを算出する算出手段、および算出手段で算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御手段として機能させる制御プログラムである。
第6の発明は、少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に手部によって触れる接触動作を行う人型のコミュニケーションロボットの制御方法であって、コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得ステップ、イベントにおいて表出する表出用の感情を取得する第2取得ステップ、複数の感情のそれぞれに対応して予め設定される、接触動作の開始タイミングを算出するための複数の算出条件の中から、第2取得ステップで取得された表出用の感情に対応する表出用の算出条件を設定する第1設定ステップ、第1取得ステップで取得された発生タイミングを基準として、第1設定ステップで設定された表出用の算出条件を用いて、開始タイミングを算出する算出ステップ、および算出ステップで算出された開始タイミングに到達したときに、手部を変位させて、接触動作を行う動作制御ステップを含む制御方法である。
第5および第6の発明によれば、第1の発明と同様の効果が期待できる。
この発明によれば、コミュニケーション対象者に対して、接触動作を通じてロボットが感情を自然に表出することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例のシステムを示す図である。 図2は図1に示すアンドロイドロボットの外観構成を示す図である。 図3(A)は図1に示すアンドロイドロボットの瞼および眼球を動かすアクチュエータを説明するための図である。 図3(B)は図1に示すアンドロイドロボットの額、眉間および口角を動かすアクチュエータを説明するための図である。 図3(C)は図1に示すアンドロイドロボットの唇を動かすアクチュエータを説明するための図である。 図4は図1に示すアンドロイドロボットの頭部、肩部、腰部、腕部、手部を動かすアクチュエータを説明するための図である。 図5は図1に示すアンドロイドロボットの電気的な構成を示すブロック図である。 図6は一実施例における接触動作のために人とアンドロイドロボットとが並んでいる状態を示す図である。 図7(A)は感情を表出していない状態のアンドロイドロボットの手の状態を示す図である。 図7(B)は手部で対象者に接触することによって感情を表出している状態のアンドロイドロボットの手の状態を示す図である。 図7(C)は指部で対象者に接触することによって感情を表出している状態のアンドロイドロボットの手の状態を示す図である。 図8は或るコンテンツにおけるクライマックスの時間と感情のカテゴリの対応の一例を示す表である。 図9は感情のカテゴリに対応する、接触動作の種類および算出条件の一例を示す表である。 図10はアンドロイドロボットのRAMのメモリマップの一例を示す図である。 図11はアンドロイドロボットのCPUのロボット制御処理の一部を示すフロー図である。
図1を参照して、この発明の一実施例のアンドロイドロボット制御システム(以下、単に「システム」ということがある。)10は、アンドロイドロボット(以下、単に「ロボット」という)12を含む。ロボット12は、人間に酷似した姿形(外観など)を有する人型ロボットであり(図2〜図4参照)、人間に酷似した人間らしい動作(振り、振る舞い、発話)を行う。また、詳細は後述するが、本実施例のロボット12は、ロボット12と対話(コミュニケーション)するコミュニケーション対象となる人(対象者)に触れる接触動作を含むコミュニケーション行動(または動作)を行う。
ロボット12は、LAN(Local Area Network)、インターネットおよび電話通信回線のようなネットワーク14を介してコンテンツ提示装置16および位置検出装置18に接続される。ロボット12は、ネットワーク14を介さずに、有線または無線(たとえば赤外線方式、WiFi(登録商標)方式またはブルートゥース(Bluetooth;登録商標)方式)で、コンテンツ提示装置16、位置検出装置18および他のコンピュータ等と直接通信することもできる。
コンテンツ提示装置16は、人が視覚的および/または聴覚的に認識可能なコンテンツを再生する。この実施例では、コンテンツは、映像または音(音声)或いはその両方(以下、簡単に「映像・音」ということがある。)を含む。
コンテンツ提示装置16は、再生装置、ディスプレイおよびスピーカを含む。ディスプレイおよびスピーカの各々は、再生装置に接続される。再生装置は、コンテンツを再生して映像データまたは音データ或いはその両方のデータ(映像・音データ)を出力する装置である。
再生装置としては、記憶媒体または自装置内の記憶部に記憶されたコンテンツを再生する装置を用いることができる。この種の装置としては、光ディスクプレイヤ、ビデオデッキ、カセットデッキ、携帯型音楽プレイヤ、スマートフォン、フィーチャーフォン、デスクトップPC、ノート(ラップトップ)PCおよびタブレットPC等がある。また、再生装置としては、ネットワーク14等を介して外部から転送されるコンテンツを再生(ストリーミング再生)する装置(たとえばスマートフォンまたはPC等)、テレビジョン信号またはラジオ信号を受信してコンテンツを再生する装置(たとえばテレビジョン受信機またはラジオ受信機)等を用いることもできる。
ディスプレイとしては、たとえばLCD(Liquid Crystal Display)またはEL(Electro-Luminescence)ディスプレイなどの汎用のディスプレイを用いることができ、スピーカとしては、汎用のスピーカを用いることができる。また、ディスプレイとスピーカとは、別々に設けられていてもよく、スピーカを内蔵したスピーカ内蔵型ディスプレイのように一体的に構成されていてもよい。さらに、再生装置、ディスプレイおよびスピーカが一体的に構成されていてもよい。
再生装置でコンテンツが再生されると、再生装置からディスプレイに映像データが入力され、ディスプレイは、入力された映像データに対応する映像を出力(表示)し、再生装置からスピーカに音データが入力され、スピーカは、入力された音データに対応する音を出力する。なお、映像のみのコンテンツの場合には、再生装置からは映像データのみが出力され、音のみのコンテンツの場合には、再生装置からは音データのみが出力される。
以上のように、コンテンツ提示装置16によって、映像・音のコンテンツが視聴者に提示される。また、コンテンツ提示装置16は、コンテンツに関するデータ(以下、「イベントデータ」という)をロボット12に送信する。なお、映像・音のコンテンツの内容に連動して、たとえば緊張や興奮が高まる場面(クライマックス)に到達したときに、ディスプレイの明るさ(明度)が変動するようにしても良い。この場合、ディスプレイの明るさが変動することもコンテンツの一部となる。また、コンテンツ提示装置16に加えて、またはこれに代えて、人間(コンテンツ提示者)が視覚的および/または聴覚的に認識可能なコンテンツ(紙芝居、読み聞かせまたは朗読劇等)を視聴者に提示してもよい。
位置検出装置18は、対象者の体の位置、特に対象者の手の位置を検出する。この実施例では、位置検出装置18は、コンピュータ(位置検出用コンピュータ)および複数の距離画像センサを含む。距離画像センサは、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCD(Charge Coupled Device)センサなどの光学センサによって捉える。距離画像センサは、光が戻るまでの時間を画素毎に計測することで、対象物までの実際の距離を測定する。また、距離画像センサは、対象物の形状(たとえば、頭部および手などの人間の所定部位)を測定することが可能である。したがって、距離画像センサの出力に基づいて、人間の位置および人間の所定部位(頭部および手)の位置を検出することができる。
距離画像センサとしては、ASUS(登録商標)製のXtion(登録商標)と言われる製品が採用されている。なお、他の例では、距離画像センサは、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと言われる場合もある。なお、距離画像センサとしては、たとえばLiDAR(たとえば、Velodine社製のイメージングユニットLiDAR(HDL−32e)(商品名))のような全方位レーザ距離計や、ステレオカメラなども利用可能である。
距離画像センサの各々からの距離画像信号は、位置検出用コンピュータに入力され、位置検出用コンピュータでは、その距離画像信号をディジタルデータとして、メモリ(たとえばHDDまたはRAMなど)に記憶する。位置検出用コンピュータは、このメモリに記憶した距離画像データを処理して得られた、1または複数の人間の所定部位の位置(この第1実施例では、対象者の手の3次元位置)についてのデータ(以下、「人位置データ」という)をロボット12に送信する。
なお、図1に示すシステム10の構成は一例であり、ロボット12と、コンテンツ提示装置16および位置検出装置18との間に、サーバ等の他のコンピュータが介在してもよい。
また、図1では省略するが、ロボット12と通信可能な外部制御端末が設けられてもよい。外部制御端末は、ロボット12を遠隔操作するためのコンピュータである。たとえば、ロボット12が人間とコミュニケーションを行う場合において、ロボット12で対応できない事象が発生したときに、管理者等が外部制御端末を用いてロボット12を制御し、ロボット12が対応できない事象について対応する。管理者等は、ロボット12を通して人間と会話したり、ロボット12にコマンドを送信してコミュニケーション行動を実行させたりする。
図2〜図4は図1のロボット12の外観および構成の一例を示す。なお、図2〜図4に示すロボット12は一例であり、他の外観、構成を持つ任意のアンドロイドロボットが利用可能である。また、ロボット12は、アンドロイドロボットに限定される必要は無く、人間に似た外観を有し、接触動作が可能なロボットであれば他のロボットを使用することもできる。一例として、身体動作または/および音声で、コミュニケーション対象である人間または他のロボットとコミュニケーションを取ることができるコミュニケーションロボットを使用することができる。以下、図2〜図4を用いて、本実施例のロボット12の外観および構成について簡単に説明する。
図2および図4に示すように、ロボット12は、胴体部20およびその胴体部20の上に、首部22を介して設けられた頭部24を含む。
胴体部20の上端(頭部の下方)が肩部26であり、胴体部20の中ほどが腰部28である。左右の肩部26のそれぞれから上肢部(腕部)30が設けられ、胴体部20の下端からは下肢部32が設けられる。
また、図4に示すように、上肢部30の中ほどが肘部34であり、上肢部30の先端には、上肢部30の基端(肩部26に近い側)から順に手首部36および手部38が設けられ、手部38は、先端に設けられる5本の指部40を含む。
このようなロボット12は、たとえば金属のような構造材で全体を組み立て、その構造材の上にたとえばシリコーン樹脂のようなソフトな樹脂で皮膚を形成し、必要な部分でその皮膚を衣服から露出させている。
この実施例のシステム10では、ロボット12は、椅子42に座った状態でセットされていて、人間らしい動作を実現するように、空気圧アクチュエータで各部分を動かす。ロボット12の上述の各部分(対象部位)を動かすための以下に説明するアクチュエータは、この第1実施例では、いずれもパルス電力によって駆動されるステッピングモータであり、ステッピングモータの回転量はパルス数で決まる。パルス数が指令値として与えられる。なお、各対象部位は、平常状態において、アクチュエータに初期値が与えられ、変位させる場合に、その方向と大きさに応じたパルス数の指令値が該当するアクチュエータに与えられる。この第1実施例では、各アクチュエータは、「0−255」の指令値で動作され、「0−255」のいずれかの値が初期値として与えられる。以下、図面を参照してロボット12の各部分を動かすための構成を説明する。
図3(A)を参照して、アクチュエータA1は、上瞼44aの上下動を制御するためのアクチュエータである。アクチュエータA2、A3およびA4は眼球を左右上下に動かすためのアクチュエータである。アクチュエータA5は、下瞼44bの上下動を制御するアクチュエータである。したがって、アクチュエータA1およびA5によって、目(瞼)が開閉される。
図3(B)を参照して、アクチュエータA6は額を動かすためのアクチュエータであり、アクチュエータA7は眉間を動かすためのアクチュエータである。また、アクチュエータA8は、口角46を上げるためのアクチュエータである。アクチュエータA9は舌を上下方に動かすためのアクチュエータである。
図3(C)を参照して、アクチュエータA10は口唇を左右に広げるアクチュエータであり、アクチュエータA11は口唇を前に突き出すためのアクチュエータである。アクチュエータA13は顎を突き出したり引いたりするためのアクチュエータである。このアクチュエータ13によって、口が開閉される。
図4を参照して、アクチュエータA14は頭部24を左右に傾動させるためのアクチュエータであり、アクチュエータA15は頭部24を俯仰させるためのアクチュエータであり、そして、アクチュエータA16は頭部を左右に回動させるためのアクチュエータである。アクチュエータA17は腰部28を前屈させまたは後傾させるためのアクチュエータであり、アクチュエータA18は腰部28を左右に回動(ひねる)させるためのアクチュエータである。
また、アクチュエータA19は肩部26を上下動させる(胴体部20に対する上肢部30の角度を制御する)ためのアクチュエータである。アクチュエータA20は肘部34を中心に上肢部30を屈伸(肘部34を中心に手首部36および手部38を回動)させるためのアクチュエータである。アクチュエータA21は手首部36を中心に手部38を回動させるためのアクチュエータである。アクチュエータA22は指部40を屈伸または回動させるためのアクチュエータである。図示は省略するが、アクチュエータA22は5本の指部40のそれぞれに対応して設けられる。アクチュエータA19〜A22の各々が駆動されることによって、ロボット12は、上肢部30(肘部34、手首部36、手部38および指部40等)を用いて、人の腕、手および指の動きに酷似した動作を行うことができる。たとえば、近くに存在する人に手部38または指部40で触れる接触動作(タッチ動作)を行うことができる。
なお、図示は省略するが、下肢部32には、下肢部32の各部分を動かすためのアクチュエータが適宜設けられる。
ロボット12は、図5に示すように、ロボット12の全体制御を司るプロセッサ(この第1実施例では、CPU)50を備える。CPU50は、バス52を通して、RAM54、通信モジュール56、アクチュエータ制御回路58、センサI/F(インタフェース)60および入出力I/F62等に接続される。
CPU50は通信モジュール56を介して、ネットワーク14すなわちコンテンツ提示装置16および位置検出装置18等の外部コンピュータと、有線または無線で、通信可能に接続される。
RAM54は、CPU50のバッファ領域およびワーク領域として用いられる。ただし、RAM54に代えて、HDDを用いることもできる。CPU50は、バス52を通してRAM54にアクセスし、RAM54に記憶されているプログラムやデータ(図10参照)に従って、バス52を通してアクチュエータ制御回路58に指令値を与え、各アクチュエータA1−Anの動作を制御する。
アクチュエータ制御回路58は、CPU50から与えられる指令値に応じた数のパルス電力を生成し、それを該当するステッピングモータに与えることによって、各アクチュエータA1−Anを駆動する。ただし、アクチュエータとしてはステッピングモータを用いるものの他、サーボモータを用いるアクチュエータ、流体アクチュエータなど任意のアクチュエータが利用可能である。
センサI/F60は、触覚センサ64および眼カメラ66からのそれぞれの出力を受ける。
触覚センサ64ないし皮膚センサは、たとえばタッチセンサであり、ロボット12の触覚の一部を構成する。つまり、触覚センサ64は、人間や他の物体等がロボット12に触れたか否かを検出するために用いられる。触覚センサ64からの出力(検出データ)は、センサI/F60を介してCPU50に与えられる。したがって、CPU50は、人間や他の物体等がロボット12に触れたこと(およびその強弱)を検出することができる。
眼カメラ66は、イメージセンサであり、ロボット12の視覚の一部を構成する。つまり、眼カメラ66は、ロボット12の眼から見た映像ないし画像を検出するために用いられる。この第1実施例では、眼カメラ66の撮影映像(動画ないし静止画)に対応するデータ(画像データ)は、センサI/F60を介してCPU50に与えられる。CPU50は、その画像データを、RAM54に記憶したり、通信モジュール56およびネットワーク14(図1)を介して外部のコンピュータ(たとえば、外部制御端末)に送信したりする。
また、スピーカ68およびマイク70は、入出力I/F62に接続される。スピーカ68は、ロボット12が発話を行う際に音声を出力する。マイク70は、音センサであり、ロボット12の聴覚の一部を構成する。このマイク70は、指向性を有し、主として、ロボット12と対話(コミュニケーション)する人間の音声を検出するために用いられる。
このような構成のシステム10は、ロボット12の接触動作を通じて、ユーザに対して物理的または身体的な刺激(触覚刺激)を提示するためのシステムであり、ロボット12は、接触動作を通じて対象者に触覚刺激を与えることによって色々な感情を表出するコミュニケーション行動を行う。ただし、本実施例のロボット12が表出可能な感情には、感動、楽しみ、悲しみ、怒り、恐怖などがある。
図6に示すように、本実施例のロボット12は、対象者と同じ方向を向いて横に並んで座った状態で、コンテンツ提示装置16によって再生される視覚的および/または聴覚的に認識可能な映像・音を含むコンテンツ(たとえば映画等)を対象者と共に視聴しながら、コミュニケーション行動を行う。本実施例では、ロボット12は、手部38を動作させて、手部38(左の手部(左手部)38または左の指部40)で対象者の手(右手)の甲に触れる接触動作を行うことによって感情を表出する。
図7(A)に示すように、接触動作を行わない場合には、ロボット12は、手部38が対象者の手に触れないように、手部38を対象者の手から少し離れた位置に位置させ(対象者から手部38を離間させ)、図7(B)および図7(C)に示すように、接触動作を行う場合には、ロボット12は、手部38を対象者の手に重ねるように、すなわち手部38が対象者の手に触れるように、手部38を位置させる。なお、図7(B)に示すように手部38の全体で対象者の手に触れるようにしてもよいし、図7(C)に示すように指部40のみで対象者の手に触れるようにしてもよい。
ただし、ロボット12の接触動作は、感情を表出すべきイベントが発生した場合に行われる。本実施例では、感情を表出すべきイベントは、視聴中のコンテンツにおいて、重要な場面、内容が大きく変化する場面または緊張や興奮が高まる場面等、すなわちクライマックスのことである。コンテンツ提示装置16によって再生されるコンテンツには、少なくとも1つのイベントが含まれ、ロボット12の接触動作は、視聴中のコンテンツのイベントに応じて行われる。
コンテンツ提示装置16は、イベントに関するデータ(以下、「イベントデータ」という)をロボット12に送信する。イベントデータは、イベント(クライマックス)が発生するタイミング(以下、「発生タイミング」という)のデータと、イベントにおいて表出すべき感情(以下、「表出用の感情」という)のデータとを含む。本実施例では、イベントは、視聴中のコンテンツのクライマックスであるので、ロボット12は、視聴中のコンテンツのクライマックスについてのデータをイベントデータとしてコンテンツ提示装置16から取得する。
なお、コンテンツにおけるどの部分(場面)をクライマックスとして設定するかについては、コンテンツを解析して重要な場面をクライマックスとして自動的に抽出するようにしてもよいし、人間がコンテンツを視聴した上で、人間が典型的に考える場面をクライマックスとして設定してもよい。なお、コンテンツから重要な場面を抽出する技術は、特開2004−342272号公報などに詳細に開示されるので参照されたい。
図8は、イベントデータの内容の一例を示す図である。図8に示すように、イベントデータには、コンテンツに含まれる各イベントを識別(特定)するための識別情報であるイベントIDが含まれ、各イベントIDに対応して、当該イベントの発生タイミングと、当該イベントの表出用の感情の種類(カテゴリ)とが含まれる。なお、ロボット12が発生タイミングと表出用の感情の種類との対応関係が認識できるのであれば、イベントIDは省略されてもよい。
図8に示す例では、発生タイミングは、コンテンツの開始時点(0分0秒)からの経過時間として表現されている。たとえば、コンテンツの開始時点から6分54秒後に“感動”を表出するイベント(イベントID“1”のイベント)が発生し、コンテンツの開始時点から8分48秒後に“悲しみ”を表出するイベント(イベントID“2”のイベント)が発生し、コンテンツの開始時点から15分18秒後に“怒り”を表出するイベント(イベントID“3”のイベント)が発生し、コンテンツの開始時点から24分18秒後に“恐怖”を表出するイベント(イベントID“4”のイベント)が発生し、コンテンツの開始時点から27分12秒後に“楽しみ”を表出するイベント(イベントID“5”のイベント)が発生する。
また、システム10では、イベントの発生タイミングに基づいて接触動作を開始するタイミング(以下、「開始タイミング」という)を算出するための算出条件が感情の種類毎に予め設定されている。たとえば、平均および分散をパラメータ(母数)とする確率密度関数に従う乱数に応じて開始タイミングが算出される。確率密度関数としては、正規分布、二項分布および逆ガウス分布等の確率密度関数を用いることができる。
図9は、感情の種類毎の算出条件のパラメータとしての平均および分散と、感情の種類毎の動作パターンとを示す図である。ただし、平均の値(平均値)は、感情の種類毎に予め設定される平均的なタイミング(平均タイミング)とイベントの発生タイミングとの時間差(秒)を示す値であり、正の数で表される平均値は、平均タイミングが発生タイミングに対し遅れる(繰り下げる)期間(時間)を示し、負の数で表される平均値は、平均タイミングが発生タイミングに対し早まる(繰り上げる)期間を示す。また、分散の値(分散値)は、乱数のとる値のばらつきを示す値であり、分散値が小さいほど乱数の取りうる値が平均値の近くに集まるようになり、分散値が大きいほど乱数の取りうる値がばらつくようになる。
また、ロボット12の接触動作は、感情の種類毎に複数の動作パターン(動作種類)を含む。ロボット12は、イベントに割り当てられる感情に対応する動作パターン(表出用の動作パターン)に従って接触動作を行う。動作パターンは、ロボット12が表出可能な感情のそれぞれに対応して複数用意されており、複数の動作パターンのそれぞれは、互いに異なる動きの特徴を含む。たとえば、動きの特徴は、接触動作の強さ(圧力)、接触動作の連続性、接触動作の長さ等である。
なお、発明者等は、感情を表出すべきイベントが含まれるコンテンツを複数の被験者に視聴させ、人が感情を表出する際(イベントが発生する際)に、近くに存在する他人に接触する接触動作の開始タイミングを測定する実験を行った。また、アンドロイドロボットが特定の感情を表現するときに、複数種類の動作パターンに従って被験者に対し接触動作を行い、感情の種類に応じて被験者が好ましいと認識する動作パターンを測定する実験を行った。これらの実験は、“感動”、“楽しみ”、“悲しみ”、“怒り”および“恐怖”のそれぞれについて行われ、図9に示す感情の種類毎に設定される平均値、分散値および動作パターンは、この実験結果に基づいて決定されている。
図9に示す感情の種類毎の平均値からわかるように、“感動”、“楽しみ”、“悲しみ”および“怒り”を表出する場合の人の接触動作の平均タイミングは、発生タイミングよりも後に設定され、“恐怖”を表出する場合の人の接触動作の平均タイミングは、発生タイミングよりも前に設定される。すなわち、“感動”、“楽しみ”、“悲しみ”および“怒り”を表出する場合の人の接触動作は、イベントの発生タイミングよりも少し後に行われることが多く、“恐怖”を表出する場合の人の接触動作は、イベントの発生タイミングよりも少し前に行われることが多い傾向にある。
また、“楽しみ”、“怒り”および“恐怖”を表出する場合の人の接触動作の平均タイミングは、発生タイミングに対する時間差が小さい傾向にあり、“感動”および“悲しみ”を表出する場合の人の接触動作の平均タイミングは、発生タイミングに対する時間差が大きい傾向にある。
さらに、図9に示す感情の種類毎の分散値からわかるように、“悲しみ”を表出する場合の人の接触動作の開始タイミングは、個人差が大きい傾向にあり、“怒り”および“恐怖”を表出する場合の個人差が小さい傾向にある。
図9からわかるように、動作パターンの一要素としての接触動作の強さ(圧力)の観点で言えば、“感動”、“楽しみ”および“悲しみ”を表出する場合の動作パターンでは、接触動作の強さが所定の強さ(普通の強さ)に設定され、“怒り”および“恐怖”を表出する場合の動作パターンでは、“感動”、“楽しみ”および“悲しみ”を表出する場合よりも強い強さに設定される。
また、接触動作の連続性の観点で言えば、“感動”、“楽しみ”および“怒り”を表出する場合の動作パターンは、手部38で対象者の手を「とんとん」と数回叩くような断続的な動きに設定される。一方、“悲しみ”および“恐怖”を表出する場合の動作パターンは、手部38を所定時間継続して対象者の手に添えるような連続的な動きに設定される。
さらに、接触動作の長さの観点で言えば、“楽しみ”および“怒り”を表出する場合の動作パターンでは、接触動作の長さが所定の長さ(“短い”に相当)に設定され、“感動”、“悲しみ”および“恐怖”を表出する場合の動作パターンでは、“楽しみ”および“怒り”を表出する場合よりも接触動作の長さが長く設定される。なお、接触動作の長さとは、断続的な動きをする動作パターンの場合には、接触動作において最初に対象者の手を叩いたときから最後に対象者の手を叩いたときまでの時間の長さのことをいう。
システム10では、イベントにおいて表出する表出用の感情が設定(取得)されると、表出用の感情に設定される平均および分散を算出用パラメータとする表出用の算出条件が設定され、表出用の算出条件を用いて、イベントの発生タイミングを基準として、接触動作の開始タイミングが算出される。また、表出用の感情に応じて接触動作の動作パターン(表出用の動作パターン)が設定される。そして、ロボット12は、開始タイミングに到達すると、表出用の動作パターンに従って接触動作を行う。
本実施例では、人が感情を表出する際の動きを測定する実験結果に基づいて、接触動作の開始タイミングを設定(算出)し、接触動作の動作パターンを設定するので、人が行う接触動作に似た、自然な接触動作を再現することができると考えられる。
また、ロボット12は、接触動作の他にも所定の振り、振る舞いのような身体動作または/および発話動作を行う。この第1実施例では、ロボット12が接触動作等の各種動作を実行するための制御情報は、アクチュエータ(A1〜A22)を駆動制御するための制御データまたは/および発話内容についての合成音声の音声データを含み、各コミュニケーション行動に付された名称(コマンド名)に対応して記憶される。ただし、身体動作には、自然の動作(無意識動作)も含まれる。無意識動作の代表的な例としては、瞬きや呼吸が該当する。また、このような生理的な動作のみならず、人間の癖による動作も無意識動作に含まれる。たとえば、癖による動作としては、たとえば、髪の毛を触る動作、顔を触る動作や爪を噛む動作などが該当する。また、制御情報は、身体動作とは別に、口の動きおよび顔の表情を表現するための制御データも含む。
図4では省略したが、コミュニケーション行動についての制御情報は、HDDのような不揮発性のメモリに記憶され、必要に応じて、HDDから読み出され、RAM54に書き込まれる。
図10は図4に示したRAM54のメモリマップ300の一例を示す図である。図10に示すように、RAM54は、プログラム記憶領域302およびデータ記憶領域304を含む。
プログラム記憶領域302には、通信プログラム302a、人位置検出プログラム302b、動作制御プログラム302c、イベントデータ取得プログラム302d、算出条件設定プログラム302e、タイミング算出プログラム302fおよび動作パターン設定プログラム302g等が記憶される。
通信プログラム302aは、コンテンツ提示装置16、位置検出装置18、他のロボットまたは外部コンピュータ等と通信するためのプログラムである。人位置検出プログラム302bは、位置検出装置18から送信される人位置データに基づいて、接触動作を行う目標となる対象者の所定部位(目標部位)の3次元位置(本実施例では対象者の右手の3次元位置)を検出または取得するためのプログラムである。
動作制御プログラム302cは、ロボット12の動作を制御するためのプログラムであって、上半身(肩)制御プログラム3020、上肢(肘)制御プログラム3022、手首制御プログラム3024および指制御プログラム3026を含む。
上半身(肩)制御プログラム3020は、接触動作等の身体動作に合わせてロボット12の上半身(肩)26の動作を行うように(上肢部30の角度を変位させるように)、図4に示すアクチュエータA19を制御するためのプログラムである。
上肢(肘)制御プログラム3022は、接触動作等の身体動作に合わせてロボット12の上肢部30(肘部34)の動作を行うように、図4に示すアクチュエータA20を制御するためのプログラムである。
手首制御プログラム3024は、接触動作等の身体動作に合わせてロボット12の手首部36の動作を行うように、図4に示すアクチュエータA21を制御するためのプログラムである。
指制御プログラム3026は、接触動作等の身体動作に合わせてロボット12の指部40の動作を行うように、図4に示すアクチュエータA22を制御するためのプログラムである。
なお、詳しい説明は省略するが、動作制御プログラム302cには、図3に示すアクチュエータA1−A18のそれぞれを適宜制御して、ロボット12の目または/および口の表情を表現する表情制御プログラム、ロボット12の口唇形状を表現する口唇動作制御プログラム、ロボット12の頭部24の動作を行う頭部制御プログラムおよびロボット12の下半身(腰)32の動作を行う下半身(腰)制御プログラム等も含まれる。
イベントデータ取得プログラム302dは、コンテンツ提示装置16から送信されるイベントデータを取得するためのプログラムである。算出条件設定プログラム302eは、イベントの表出用の感情の種類に応じて、平均および分散を算出用パラメータとする表出用の算出条件を設定するためのプログラムである。タイミング算出プログラム302fは、イベントの発生タイミングを基準として、表出用の算出条件を用いて、接触動作の開始タイミングを算出するためのプログラムである。動作パターン設定プログラム302gは、表出用の感情の種類に応じて、表出用の動作パターンを設定するためのプログラムである。
図示は省略するが、プログラム記憶領域302には、人間がロボット12に対して発話した内容をCPU50が認識するための音声認識プログラム、音声合成データに従って合成した音声をスピーカ68に出力するための音声合成プログラム、ロボット12を制御するための他のプログラム等が記憶される。
RAM54のデータ記憶領域304には、種々のデータが記憶される。人位置データ304aは、人位置検出プログラム302bに従って検出または取得される接触動作の目標となる対象者の所定部位の3次元位置のデータである。イベントデータ304bは、イベントデータ取得プログラム302dによって取得されるデータであって、イベントの発生タイミングのデータおよびイベントにおいて表出すべき表出用の感情のデータを含む。算出条件データ304cは、ロボット12が表出可能な感情毎に予め設定され、イベントの発生タイミングに基づいて開始タイミングを算出するための算出条件のデータである。動作パターンデータ304dは、ロボット12が表出可能な感情のそれぞれに対応して用意されている動作パターンのデータである。
図示は省略するが、データ記憶領域304には、マイク70から入力される音声データ、音声認識のために必要な辞書などのデータなども記憶される。また、データ記憶領域304には、ロボット12の制御に必要なコミュニケーション行動を実行するための制御情報などの他のデータが記憶され、さらに、CPU50の動作に必要な、タイマ、レジスタ、フラグなどが設けられる。
図11は図5に示すCPU50のロボット制御処理の一例を示すフロー図である。このロボット制御処理は、コンテンツ提示装置16によってコンテンツの再生されたことに合わせて開始される。図11に示すように、CPU50は、ロボット制御処理を開始すると、ステップS1で、イベントデータ取得プログラム302dに従って、コンテンツ提示装置16から送信されたイベントデータを取得(受信)して、ステップS3で、ステップS1で取得したイベントデータに含まれる次(直後)のイベントの発生タイミングおよび表出用の感情を取得する。
続いて、ステップS5で、動作パターン設定プログラム302gに従って、RAM54のデータ記憶領域304に記憶された動作パターンデータ304dを読み出して、ロボット12が表出可能な感情のそれぞれに対応して用意されている動作パターンの中から、表出用の感情に応じた表出用の動作パターンを設定する。
続いて、ステップS7で、算出条件設定プログラム302eに従って、RAM54のデータ記憶領域304に記憶された算出条件データ304cを読み出して、ロボット12が表出可能な感情毎に予め設定された算出条件の中から、表出用の感情に応じた表出用の算出条件を設定する。
続いて、ステップS9で、タイミング算出プログラム302fに従って、イベントの発生タイミングを基準として、表出用の算出条件を用いて開始タイミングを算出し、ステップS11で、ステップS9で算出された開始タイミングに到達したかどうかを判断する。
ステップS11で“NO”であれば、つまり、開始タイミングに到達していないと判断した場合は、同じステップS11に戻る。一方、ステップS11で“YES”であれば、つまり、開始タイミングに到達したと判断した場合は、ステップS13で、表出用の動作パターンに従って接触動作(対象者にタッチする動作)を実行する。ここでは、アクチュエータ制御回路58に指令値を与え、各アクチュエータA1−Anの動作を制御して、接触動作を行う目標となる対象者の所定部位に手部38が触れるように、手部38を変位させる。
続いて、ステップS15で、接触動作を終了するかどうかを判断する。ステップS15で“NO”であれば、つまり、接触動作を終了しないと判断した場合は、ステップS13に戻る。一方、ステップS15で“YES”であれば、つまり、接触動作を終了すると判断した場合は、ステップS17で、ステップS1で取得したイベントデータに基づいて、次のイベントが存在するかどうかを判断する。
ステップS17で“YES”であれば、つまり、次のイベントが存在すると判断した場合は、ステップS3に戻る。一方、ステップS17で“NO”であれば、つまり、次のイベントが存在しないと判断した場合は、ロボット制御処理を終了する。
この第1実施例では、複数の感情のそれぞれに対応して、人が感情を表出する際の動きを測定する実験結果に基づいて予め設定される複数の算出条件を用意しておき、所定の感情を表出するイベントが発生する際に、表出用の感情に対応する表出用の算出条件を用いて、接触動作の開始タイミングを算出し、算出された開始タイミングに到達したときに、接触動作を行う。このため、接触動作を通じてロボットが感情を自然に表出することができる。
なお、上述の各実施例で示した具体的な数値は単なる例示であり、限定される必要は無く、実際の製品および製品が適用される環境などに応じて適宜変更可能である。
また、上述の実施例で示したロボット制御処理は、同じ結果が得られるのであれば、各ステップが処理される順番を変更してもよい。
さらに、ロボット12および位置検出装置18が一体的に構成されていてもよい。この場合、ロボット12の眼カメラ66が位置検出装置18の距離画像センサとして機能する。
さらにまた、ロボット12は、対象者と対面で座った状態で、コンテンツを対象者と共に視聴しながら、コミュニケーション行動を行うようにしても良い。
また、上述の実施例では、ロボット12は対象者の手(右手)に触れる接触動作を行うことによって感情を表出するようにしたが、対象者の手以外の部位、たとえば、腕、胴体等に触れる接触動作を行うことによって感情を表出するようにしてもよい。
10 …システム
12 …アンドロイドロボット
14 …ネットワーク
16 …コンテンツ提示装置
18 …位置検出装置
26 …肩部
30 …上肢部
36 …手首部
38 …手部
40 …指部
50 …CPU
54 …RAM
56 …通信モジュール
58 …アクチュエータ制御回路

Claims (6)

  1. 少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に前記手部によって触れる接触動作を行う人型のコミュニケーションロボットであって、
    前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、
    前記イベントにおいて表出する表出用の感情を取得する第2取得手段、
    前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定手段、
    前記第1取得手段で取得された前記発生タイミングを基準として、前記第1設定手段で設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出手段、および
    前記算出手段で算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御手段を備える、コミュニケーションロボット。
  2. 前記複数の算出条件のそれぞれは、前記複数の感情のそれぞれに応じて予め設定される平均および分散を含み、
    前記算出手段は、前記表出用の算出条件に含まれる平均および分散をパラメータとする確率密度関数に従う乱数に応じて前記開始タイミングを算出する、請求項1記載のコミュニケーションロボット。
  3. 前記コミュニケーションロボットは、視覚的および/または聴覚的に認識可能なコンテンツを近くに存在する人と並んで視聴する際に前記接触動作を行い、
    前記イベントは、前記コンテンツのクライマックスを含む、請求項1または2記載のコミュニケーションロボット。
  4. 前記接触動作は、前記複数の感情のそれぞれに対応する複数の動作パターンを含み、
    前記複数の動作パターンの中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の動作パターンを設定する第2設定手段をさらに備え、
    前記動作制御手段は、前記開始タイミングに到達したときに、前記表出用の動作パターンに従って前記接触動作を行う、請求項1から3までのいずれかに記載のコミュニケーションロボット。
  5. 少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に前記手部によって触れる接触動作を行う人型のコミュニケーションロボットのコンピュータによって実行される制御プログラムであって、前記コンピュータを、
    前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得手段、
    前記イベントにおいて表出する表出用の感情を取得する第2取得手段、
    前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得手段で取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定手段、
    前記第1取得手段で取得された前記発生タイミングを基準として、前記第1設定手段で設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出手段、および
    前記算出手段で算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御手段として機能させる、制御プログラム。
  6. 少なくとも頭部、胴体部、腕部および手部を含み、近くに存在する人に前記手部によって触れる接触動作を行う人型のコミュニケーションロボットの制御方法であって、
    前記コミュニケーションロボットが表出可能な複数の感情に含まれる所定の感情を表出するイベントが発生する発生タイミングを取得する第1取得ステップ、
    前記イベントにおいて表出する表出用の感情を取得する第2取得ステップ、
    前記複数の感情のそれぞれに対応して予め設定される、前記接触動作の開始タイミングを算出するための複数の算出条件の中から、前記第2取得ステップで取得された前記表出用の感情に対応する表出用の算出条件を設定する第1設定ステップ、
    前記第1取得ステップで取得された前記発生タイミングを基準として、前記第1設定ステップで設定された前記表出用の算出条件を用いて、前記開始タイミングを算出する算出ステップ、および
    前記算出ステップで算出された前記開始タイミングに到達したときに、前記手部を変位させて、前記接触動作を行う動作制御ステップを含む、制御方法。
JP2020027041A 2020-02-20 2020-02-20 コミュニケーションロボット、制御プログラムおよび制御方法 Active JP7399740B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027041A JP7399740B2 (ja) 2020-02-20 2020-02-20 コミュニケーションロボット、制御プログラムおよび制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027041A JP7399740B2 (ja) 2020-02-20 2020-02-20 コミュニケーションロボット、制御プログラムおよび制御方法

Publications (2)

Publication Number Publication Date
JP2021129814A true JP2021129814A (ja) 2021-09-09
JP7399740B2 JP7399740B2 (ja) 2023-12-18

Family

ID=77551528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027041A Active JP7399740B2 (ja) 2020-02-20 2020-02-20 コミュニケーションロボット、制御プログラムおよび制御方法

Country Status (1)

Country Link
JP (1) JP7399740B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110118870A1 (en) 2007-09-06 2011-05-19 Olympus Corporation Robot control system, robot, program, and information storage medium
JP5688574B2 (ja) 2009-11-04 2015-03-25 株式会社国際電気通信基礎技術研究所 触覚提示付ロボット
WO2017217192A1 (ja) 2016-06-14 2017-12-21 Groove X株式会社 涼しさを求める自律行動型ロボット
KR102577571B1 (ko) 2016-08-03 2023-09-14 삼성전자주식회사 로봇 장치 및 로봇 장치의 감정 표현 방법
JP7020159B2 (ja) 2018-02-07 2022-02-16 トヨタ自動車株式会社 コミュニケーション装置およびその制御プログラム

Also Published As

Publication number Publication date
JP7399740B2 (ja) 2023-12-18

Similar Documents

Publication Publication Date Title
JP7378553B2 (ja) 完全な顔画像の眼球周囲およびオーディオ合成
US10733992B2 (en) Communication device, communication robot and computer-readable storage medium
US9691296B2 (en) Methods and apparatus for conversation coach
CN108886532B (zh) 用于操作个人代理的装置和方法
JP6391465B2 (ja) ウェアラブル端末装置およびプログラム
TWI766499B (zh) 互動物件的驅動方法、裝置、設備以及儲存媒體
JP5982840B2 (ja) 対話装置、対話プログラムおよび対話方法
JP2019145108A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
JP7092108B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3705241A1 (en) Information processing device, information processing method, and program
JP2020039029A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
WO2020215590A1 (zh) 智能拍摄设备及其基于生物特征识别的场景生成方法
CN110737335B (zh) 机器人的交互方法、装置、电子设备及存储介质
JP7198244B2 (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
JP2017047494A (ja) アンドロイドロボットの制御システム、装置、プログラムおよび方法
JP7066115B2 (ja) パブリックスピーキング支援装置、及びプログラム
EP3664425A1 (en) Method and device for generating and displaying an electronic avatar
WO2016206645A1 (zh) 为机器装置加载控制数据的方法及装置
US11368664B2 (en) Information processing apparatus, information processing method, and program
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
JP7399740B2 (ja) コミュニケーションロボット、制御プログラムおよび制御方法
JP2020091909A (ja) 表情制御プログラム、記録媒体、表情制御装置、表情制御方法
Heisler et al. Making an android robot head talk
JP6977463B2 (ja) 通信装置、通信システムおよびプログラム
CN111278611A (zh) 信息处理设备、信息处理方法和程序

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7399740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150