JP6726388B2 - ロボット制御システム - Google Patents

ロボット制御システム Download PDF

Info

Publication number
JP6726388B2
JP6726388B2 JP2016052253A JP2016052253A JP6726388B2 JP 6726388 B2 JP6726388 B2 JP 6726388B2 JP 2016052253 A JP2016052253 A JP 2016052253A JP 2016052253 A JP2016052253 A JP 2016052253A JP 6726388 B2 JP6726388 B2 JP 6726388B2
Authority
JP
Japan
Prior art keywords
robot
user
service
humanoid
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016052253A
Other languages
English (en)
Other versions
JP2017167797A (ja
Inventor
タプリヤ ローシャン
タプリヤ ローシャン
ベリンダ ダンスタン
ベリンダ ダンスタン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016052253A priority Critical patent/JP6726388B2/ja
Priority to US15/221,081 priority patent/US10513038B2/en
Priority to EP16186790.8A priority patent/EP3219447B1/en
Priority to KR1020160115427A priority patent/KR102150928B1/ko
Priority to CN201610825812.9A priority patent/CN107199571B/zh
Publication of JP2017167797A publication Critical patent/JP2017167797A/ja
Application granted granted Critical
Publication of JP6726388B2 publication Critical patent/JP6726388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation

Description

本発明は、ロボット制御システムに関する。
特許文献1には、ある広さの区域において火事や人などの熱源の探索、有毒ガスや有毒放射線の探索を行う場合に、複数のセンシングロボットとそれらを制御するベースステーションとセンシングロボットの移動を制御するフェロモンロボットとを含む群ロボットシステムを使用し、一つのセンシングロボットからの信号を、複数の経路に位置する複数のセンシングロボットにおいて通信を中継してベースステーションに通信する際に、通信を中継するごとに信号を補正することによってセンサ情報の信頼性を高めることが開示されている。
特開2005−125466号公報
従来のロボットでは、対話機能とサービス実行機能の両方を一つのロボットに集約していたため、利用者の要求を受け付けてサービスを提供する際に、利用者の要求と感情に正確に応じたサービスを提供することが難しかった。例えば、対話機能を向上させて利用者の感情を引き出すためには、ロボットを人型の形状に近づける必要があり、これによりロボットの形状が制約されるために、各種サービスを提供する能力が低下する。また、サービス実行機能を向上させるために各種の機能をロボットに組み込むと、人型形状から離れてしまうため、利用者は感情を表現しなくなり、ロボットが利用者の要求と感情を正確に察知することが難しくなる。
本発明の目的は、対話機能とサービス実行機能の両方を一つのロボットに集約したロボットを使用して利用者の要求を受け付ける場合に比べて、利用者の感情反応より多く引き出し、利用者の要求に対してより正確に対応したサービスを提供できるロボット制御システムを提供することである。
上記課題を解決するために、請求項1に記載の発明は、
利用者と対話する人型対話ロボットと、
前記利用者に対して役務を提供する役務実行ロボットと、
利用者と前記人型対話ロボット間の対話を通して前記利用者の要求と感情を認識する認識手段と、
前記利用者の要求と感情に応じて、前記利用者に提供する役務と当該役務を実行する役務実行ロボットと、当該役務の優先順位を決定する決定手段と、を備え、
前記決定手段により決定された役務実行ロボットが、決定された役務を、決定された優先順位で実行する、ロボット制御システムである。
また、請求項2に記載の発明は、
利用者と対話する人型対話ロボットと、
前記利用者に対して役務を提供する役務実行ロボットと、
利用者と前記人型対話ロボット間の対話を通して前記利用者の要求と感情を認識する認識手段と、
前記利用者の要求と感情に応じて、前記利用者に提供する役務と当該役務を実行する役務実行ロボットと、当該役務を実行する役務実行ロボットの移動速度を決定する決定手段と、を備え、
前記決定手段により決定された役務実行ロボットが、決定された役務を、決定された移動速度で実行する、ロボット制御システムである。
また、請求項に記載の発明は、請求項1又は2記載のロボット制御システムにおいて、前記人型対話ロボットが、前記認識手段により認識された前記利用者の感情に応じて、前記人型対話ロボットを構成する身体の形状を変化させることを特徴とする。
また、請求項に記載の発明は、請求項記載のロボット制御システムにおいて、前記人型対話ロボットが、体幹に対する胸部および頭部のいずれか或いは両方の向きを変化させることにより、前記人型対話ロボットを構成する身体の形状を変化させることを特徴とする。
また、請求項に記載の発明は、請求項1又は2記載のロボット制御システムにおいて、前記人型対話ロボットが頭部に一つの突起部を有し、前記利用者との対話時に、前記突起部を前記利用者の方向に向けることを特徴とする。
また、請求項に記載の発明は、請求項記載のロボット制御システムにおいて、前記人型対話ロボットには、前記頭部に、前記突起部に向けて収束するように点灯装置が配置され、前記認識手段により認識した前記利用者の感情に応じて、前記点灯装置の点灯方法が変化することを特徴とする。
また、請求項に記載の発明は、請求項または記載のロボット制御システムにおいて、前記人型対話ロボットの頭部には、人間の目および口に相当する部分が設けられておらず、前記突起部が設けられていない領域に、利用者の接触を検出するための感圧センサが設けられていることを特徴とする。
また、請求項に記載の発明は、請求項1からのいずれかに記載のロボット制御システムにおいて、前記役務実行ロボットは、運搬ロボット、テーブルロボット、ライティングツール提供ロボット、インタラクティブスクリーンロボットのいずれか1つまたはこれらの複数の組み合わせであることを特徴とする。
また、請求項に記載の発明は、請求項1からのいずれかに記載のロボット制御システムにおいて、前記認識手段が、前記人型対話ロボットに内蔵、または前記人型対話ロボットとは別体に配置、或いはその両方に設けられることを特徴とする。
また、請求項10に記載の発明は、請求項1からのいずれかに記載のロボット制御システムにおいて、前記認識手段が、前記人型対話ロボットに内蔵、または前記人型対話ロボットとは別体に配置、或いはその両方に設けられることを特徴とする。
また、請求項11に記載の発明は、請求項1から10のいずれかに記載のロボット制御システムにおいて、第1の人型対話ロボットおよび第2の人型対話ロボットを備え、第1の人型対話ロボットが前記利用者の第1の要求および感情を認識し、その後第2の人型対話ロボットが前記利用者の第2の要求および感情を認識した場合、第2の人型対話ロボットは前記決定手段に第2の要求および感情を送信し、前記決定手段は、実行する役務と役務実行ロボットを、前記第1の要求および感情と、前記第2の要求および感情とに応じて決定することを特徴とする。
請求項1、2に記載のロボット制御システムの発明によれば、対話機能とサービス実行機能の両方を一つのロボットに集約したロボットを使用して利用者の要求を受け付ける場合に比べて、利用者の感情反応より多く引き出し、利用者の要求に対してより正確に対応したサービスを提供することができる。
請求項に記載のロボット制御システムの発明によれば、身体の形状を変化させない対話ロボットを使用した場合に比べて利用者の感情表現をいっそう引き出すことができる。
請求項に記載のロボット制御システムの発明によれば、人型対話ロボットに、顔の表情を使用せずに、利用者の感情に合わせた感情を表現する動作ができ、胸部や頭部の向きが変化しない対話ロボットを使用した場合に比べて、利用者の感情表現をいっそう引き出すことができる。
請求項に記載のロボット制御システムの発明によれば、利用者との対話時に、人型対話ロボットがどちらを向いて対話しているのかを利用者に対して伝達することができ、突起部を利用者の方向へ向けない対話ロボットを使用した場合に比べて、利用者との対話が促進される。
請求項に記載のロボット制御システムの発明によれば、利用者との対話時に、利用者の感情に合わせた特定の感情を表す点灯方法によって、点灯装置を使用しない対話ロボットを使用した場合に比べて、利用者の感情表現をいっそう引き出すことができる。
請求項に記載のロボット制御システムの発明によれば、利用者の人型対話ロボットに対する接触の強さを検出することによって利用者の感情を認識することができる。
請求項に記載のロボット制御システムの発明によれば、各種役務(サービス)に特化したサービス実行ロボットを使用することによって、対話機能とサービス実行機能の両方を有するロボットを使用した場合に比べて、利用者の必要により正確に合ったサービスを提供することができる。
請求項に記載のロボット制御システムの発明によれば、複数のロボットが同一の拠点において動作している場合に、統一感のない座部を有するロボットを使用した場合に比べて、チームとして動作しているロボットを容易に識別することが可能となる。
請求項10に記載のロボット制御システムの発明によれば、利用者の要求と感情を、人型対話ロボット単体で、またはサーバにおいて、或いは人型対話ロボットとサーバの両方で認識することができる。
請求項11に記載のロボット制御システムの発明によれば、利用者が人型対話ロボットに対して第1の要求をした後に別の人型対話ロボットに対して異なる第2の要求をした場合であっても、利用者の要求と感情に応じたサービスを提供することができる。
本発明の実施形態に係るロボット制御システム10の一例を示す全体概略図である。 人型対話ロボット210のハードウェア構成図である。 人型対話ロボット210の機能ブロック図である。 サービス実行ロボット240のハードウェア構成図である。 サービス実行ロボット240の機能ブロック図である。 サーバ40のハードウェア構成図である。 サーバ40の機能ブロック図である。 ロボット制御システム10の動作の流れを示すフローチャートである。 利用者の感情に応じて人型対話ロボット210が身体の形状を変化させる方法の一例を示した図である。 図10(A)は、人型対話ロボット210の頭部の外観斜視図である。図10(B)は、図10(A)の頭部に利用者が手で触れた状態を示す図である。 人型対話ロボット210の電源オン時、および電源オフ時の点灯装置の点灯方法を示す図である。 人型対話ロボット210が、「興味深い・幸せ・好奇心」の感情と受け止められる身体の形状の変化、および点灯装置の点灯方法を変化させる場合の一例を示す図である。 人型対話ロボット210が、「悲しみ・恥ずかしさ・落胆」の感情と受け止められる身体形状の変化、および点灯装置の点灯方法を変化させる場合の一例を示す図である。 人型対話ロボット210、230とサービス実行ロボット240、260が、統一感のある外観形状の座部を有することを説明する図である。
本発明の一実施形態のロボット制御システムを、図1を参照して説明する。ロボット制御システム10は、オフィス20等の拠点に配置され、利用者50と対話する人型対話ロボット210、230、利用者50に対して役務を提供する役務実行ロボット(以下、利用者50に対してサービスを提供するので、サービス実行ロボットという)240、260、オフィス20の天井等に配置されるセンサ280、およびサーバ40を備えて構成される。そいて、サーバ40は、各ロボット210〜260、センサ280にネットワーク30によって接続される。サーバ40と各ロボット210〜260、および、それぞれのロボット210〜260同士は、オフィス20に設置されたアクセスポイント270を介して無線により接続される。
人型対話ロボット210、230は、利用者50と対話をし、利用者の要求と感情を認識し、サーバ40に送信する。本実施形態において、人型対話ロボット210、230は、オフィス20に一台ずつ、合計2台配置されている。なお、本発明においては、人型対話ロボット210は、オフィスに一台のみ配置されてもよいし、3台以上配置されてもよい。また、複数の人型対話ロボットが配置される場合に、本実施形態のようにそれぞれの人型対話ロボットが同一の外形および機能を有するものを使用してもよいし、異なる外形および機能を有するものを使用してもよい。
また、サービス実行ロボット240、260は、例えば、運搬ロボット、テーブルロボット、ライティングツール提供ロボット、インタラクティブスクリーンロボットのいずれか1つまたはこれらの複数の組み合わせである。なお、本実施形態においては、一台目のサービス実行ロボット240はインタラクティブスクリーンロボットであり、もう一台のサービス実行ロボット260はライティングツール提供ロボットである。
センサ280は3次元モーションセンサ等であって、オフィス20の天井や壁等に設置される。センサ280は、オフィス内における利用者50の表情、挙動、身体の状態の変化、心拍数、体温等を検出し、ネットワーク30を介してサーバ40に利用者情報として出力する。
ここで、図2、3を参照して、本実施形態の人型対話ロボット210について説明する。図2は、人型対話ロボット210のハードウェア構成図である。図2に示すように、人型対話ロボット210は、制御用マイクロプロセッサ211、メモリ212、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等の記憶装置213、通信インタフェース214、カメラ215、マイクロフォン216、スピーカ217、モータ218、および点灯装置219、感圧センサ220を備えて構成され、それぞれ制御バス221に接続されている。
制御用マイクロプロセッサ211は、記憶装置213に記憶された制御プログラムに基づいて人型対話ロボット210の各部の動作を制御統括する。メモリ212には、人型対話ロボット210が利用者50と行った対話時の対話の音声、対話内容、カメラ215により撮影された利用者50の表情、挙動、身体の状態の画像等が一時的に記憶される。記憶装置213には人型対話ロボット210の各部を制御するための制御プログラムが記憶される。通信インタフェース214は、人型対話ロボット210がアクセスポイント270、およびネットワーク30を介してサーバ40、他の人型対話ロボット230、およびサービス実行ロボット240、250と通信を行うための通信制御を行う。
カメラ215は、利用者50の表情、挙動、身体の状態の変化等を撮影し、メモリ212に記憶する。マイクロフォン216は、利用者50と対話を行った際に、利用者50の音声を検出し、メモリ212に記憶、つまり録音する。メモリ212には、音声を直接録音するのではなく、音声内容を解釈した後の対話内容を記憶させてもよい。スピーカ217は、人型対話ロボット210の後述する対話制御部が生成した音声を出力する。モータ218は、動作制御部において生成された制御情報に基づいて人型対話ロボット210の身体を構成する胸部や頭部を動かし、特定の挙動をとる。点灯装置219は、後述するが、人型対話ロボット210の頭部に配置された複数のLEDライトで構成され、動作制御部において生成された制御情報に基づいて特定の色、特定の点灯パターンで点灯する。
感圧センサ220は、人型対話ロボット210の頭部に配置され、利用者50が人型対話ロボット210に触れたかどうか、また、どの程度の強度で触れたかを検出する。感圧センサ220は、人型対話ロボット210の頭部以外の他の部位に配置されてもよい。また、感圧センサに代えて接触センサを使用し、利用者50の心拍数や体温、導電率の変化等を検出してもよい。接触センサは、利用者の身体に装着するウエアラブルセンサであってもよいが、その場合には、接触センサは人型対話ロボット210とは別体となる。
図3は、人型対話ロボット210の機能ブロック図を示す。人型対話ロボット210は、記憶装置213に記憶されている制御プログラムを制御用マイクロプロセッサ211において実行することにより、図4に示されるように、認識部222、対話制御部223、動作制御部224として機能する。
認識部222は、利用者50と人型対話ロボット210間の対話を通して利用者50の要求と感情を認識し解釈する。具体的には、認識部222はメモリ212に記憶された、利用者50との対話時における利用者50の音声データ、或いは対話内容に基づいて、利用者50の要求を特定する。また、認識部222は、メモリ212に記憶された利用者50の挙動、表情、顔の色、身体の状態、さらには、声の調子、声の速さ、心拍数のいずれか少なくとも一つ、或いは複数の組み合わせで構成される情報に基づいて利用者50の感情を解釈する。例えば、顔色の変化はカメラ215で撮影した利用者の顔の画像のRGBの割合の変化から検出可能であるが、認識部222は、利用者の顔の色の変化に基づいて、利用者の心拍数や体温の変化を算出し、その算出結果に基づいて利用者50の感情を解釈する。
認識部222は、さらに、マイクロフォン216によって検出され、メモリ212に記憶された利用者50の音声のデータを解析し、声の調子(トーン)や声の速さ(言葉の速さ)等に基づいて、利用者50の感情を解釈する。感情の解釈については、例えば、顔の色の変化と口の開け具合から、『喜んでいる』、心拍数と肌の伝導率の変化から『緊張している』、声の調子と言葉の速さから『苛立っている』というような解釈を行う。認識部222は、解釈した要求と感情に関する情報を、通信インタフェース214を介してサーバ40に送信する。
対話制御部223は、人型対話ロボット210が利用者50と行う対話を制御するとともに、利用者50に対する応答内容を生成する。例えば、メモリ212に記憶された対話内容に応じて応答メッセージを生成し、スピーカ217に出力する。その際、対話制御部223は、認識部222において認識された利用者50の感情に応じてメッセージの出力音声の大きさや発話速度を調整する。動作制御部224は、人型対話ロボット210の挙動を制御する制御情報を生成し、人型対話ロボット210の身体を構成する各部の動作を制御する。具体的には、制御情報を生成して、モータ218の動作を制御し、人型対話ロボット210の身体を構成する胸部や頭部を動かし、特定の挙動をとったり、点灯装置219を、特定の色、特定の点灯パターンで点灯したりさせる。
オフィスに配置されるもう一台の人型対話ロボット230は、上述した人型対話ロボット210の構成と同一の構成であるので、構成と動作に関する説明を省略する。人型対話ロボット230は、上述した人型対話ロボット210の構成に対して液晶ディスプレイ等の表示装置の構成を追加したものであってもよいし、点灯装置219および感圧センサ220をなくしたものであってもよい。
次に、図4、5を参照して、本実施形態のサービス実行ロボット240について説明する。図4は、本実施形態のサービス実行ロボット240のハードウェア構成図である。サービス実行ロボット240は、制御用マイクロプロセッサ241、メモリ242、記憶装置243、通信インタフェース244、カメラ245、マイクロフォン246、移動装置247、表示装置248、入力装置249を備えて構成され、それぞれ制御バス250に接続されている。
制御用マイクロプロセッサ241は、記憶装置243に記憶された制御プログラムを実行することによりサービス実行ロボット240の各部の動作を制御統括する。メモリ242は、通信インタフェース244を介して人型対話ロボット210、230やサーバ40から受信したサービス指示情報を一時的に記憶する。また、メモリ242には、カメラ245が捉えた画像やマイクロフォン246が検出した音声等も一時的に記憶される。記憶装置243は、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等であり、サービス実行ロボット240を制御するための制御プログラムが記憶されている。通信インタフェース244は、サービス実行ロボット240がアクセスポイント270およびネットワーク30を介してサーバ40、他の人型対話ロボット210、230と通信を行うための通信制御を行う。
カメラ245は、サービス実行ロボット240が移動する際に、周囲の状況を撮影したり、利用者50がサービス実行ロボット240の表示装置248の前に立ってテレビ電話をかける、というような場合に利用者50の顔を撮影したりする。カメラ245によって撮影された画像はメモリ242に一時的に記憶される。マイクロフォン246は、利用者50の音声等を検出し、メモリ242に一時的に記憶する。移動装置247は、サービス実行ロボット240を任意の場所に移動させるのに必要な車輪やモータ等の駆動装置、GPS受信装置等で構成される。表示装置248は、液晶ディスプレイ、液晶ディスプレイの角度や高さを変えるための調節装置等で構成され、記憶装置243に記憶された情報や、通信インタフェース244、アクセスポイント270、およびネットワーク30を介してサーバ40やインターネット等から取得した情報を、液晶ディスプレイ上に表示する。入力装置249は、表示装置248を構成する液晶ディスプレイの表面に配置されタッチパネルであり、利用者が表示装置248に表示された情報を視認しながらタッチパネルの所定箇所に触れることにより、必要な情報を入力することができる。
図5は、サービス実行ロボット240の機能ブロック図を示す。サービス実行ロボット240は、記憶装置243に記憶されている制御プログラムを制御用マイクロプロセッサ241において実行することにより、図5に示されるように、サービス指示受信部251、サービス解釈部252、サービス実行部253として機能する。
サービス指示受信部251は、サーバ40から実行すべきサービス指示情報を受信してメモリ242に記憶する。このサービス指示情報には、実行すべきなのはどんなサービスか(サービス内容)、そのサービスをどこで提供するのか(サービス提供の場所)、だれに対して提供するのか(サービス提供相手)、いつ、或いはいつまでに提供するのか(サービス提供の時期)といった情報が含まれる。
サービス解釈部252は、受信したサービス指示情報を解釈し、サービス実行ロボット240の各部を動作させる具体的な制御情報を生成する。制御情報には、サービス実行ロボット240の移動装置247を、いつ、どのように動作させ、サービス実行ロボット240をどこからどこへ移動させるか、どのように表示装置248を動作させるか、どんな情報を表示するか、どんなものをどのように収集、配布するか、といった具体的動作に関する情報が含まれており、メモリ242に一時的に記憶される。
サービス実行部253は、メモリ242に記憶されている制御情報にしたがって、移動装置247、表示装置248を動作させ、サーバ40から受信したサービスを実行する。
サービス実行ロボット260は、上述したサービス実行ロボット240と実質的に同じ構成であるので、説明を省略する。また、サービス実行ロボットは運搬ロボットであってもよいが、その場合には、上述したサービス実行ロボット240から表示装置や入力装置を省略した構成となる。
次に、図6、7を参照して、本実施形態のサーバ40について説明する。図6は、サーバ40のハードウェア構成図である。図6に示すように、サーバ40は、CPU401、メモリ402、記憶装置403、通信インタフェース404、ユーザインタフェース405を備えて構成され、それぞれ制御バス406に接続されている。る。CPU401は、記憶装置403に記憶された制御プログラムに基づいてサーバ40各部の動作を制御統括する。メモリ402には、人型対話ロボット210、230から送信されてきた利用者50の要求と感情に関する情報、センサ280から送信されてきた利用者情報、およびサービス実行ロボット240、260に送信されるサービス指示情報が一時的に記憶される。
記憶装置403は、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等であり、サーバ40を制御するための制御プログラムが記憶されている。通信インタフェース404は、サーバ40がアクセスポイント270を介して人型対話ロボット210、230、サービス実行ロボット240、260、およびセンサ280と各種データの送受信を行うための通信制御を行う。ユーザインタフェース405は、液晶ディスプレイ等の表示装置、キーボードやマウス等の入力装置によって構成されており、記憶装置403に記憶されている制御プログラムを管理者が調整したりするためのものである。
図7は、サーバ40の機能ブロック図を示す。サーバ40は、記憶装置403に記憶されている制御プログラムをCPU401において実行することにより、図7に示されるように、サービス実行ロボット決定部407、サービス内容決定部408、サービス指示情報生成部409、サービス指示情報送信部410として機能する。
サービス実行ロボット決定部407とサービス内容決定部408は、利用者50の要求と感情に応じて、利用者50に提供するサービスとそのサービスを実際に実行するサービス実行ロボットとを決定する決定手段として機能する。具体的に、サービス実行ロボット決定部407は、メモリ402に記憶された利用者50の要求と感情に関する情報、およびセンサ280から受信した利用者情報に基づいて、どのサービス実行ロボットがサービスを実行するのが最適かを判断し、サービスを実際に実行するサービス実行ロボットを決定する。この判断は、利用者50の要求の内容と、サービス実行ロボットの種類、また利用者50やサービス実行ロボットの位置に応じて行われる。サービス内容決定部408は、メモリ402に記憶された利用者50の要求と感情に関する情報、および利用者情報に基づいて、サービス実行ロボット決定部407によって決定されたサービス実行ロボットにどんなサービスを、どのように実行させるかを決定する。サービス指示情報生成部409は、サービス実行ロボット決定部407、サービス内容決定部408により決定された情報に基づいて、サービス内容、サービス提供の場所、サービス提供相手、サービス提供の時期といった情報で構成されるサービス指示情報を生成する。サービス指示情報送信部410は、サービス実行ロボット決定部407によって決定されたサービス実行ロボットに対して、サービス指示情報生成部409によって生成されたサービス指示情報を、アクセスポイント270を介して送信する。
次に、図8を参照して、本実施形態のロボット制御システム10の動作について説明する。図8は、ロボット制御システム10の動作の流れを示すフローチャートである。ステップS801において、人型対話ロボット210は、利用者50と対話する。ステップS802において、人型対話ロボット210は、動作制御部224の制御のもとに、利用者50の感情に応じて人型対話ロボット210を構成する身体の形状を変化させたり、点灯装置219の点灯方法を変化させたりして、利用者50の感情反応をさらに引き出す。具体的には、後述するが、人型対話ロボット210は、体幹に対する胸部および頭部のいずれか或いは両方の向きを変化させることにより、利用者50に対し、人型対話ロボット210が特定の感情を表現していると感じさせる。
次いで、ステップS803において、人型対話ロボット210の認識部222は、利用者50と人型対話ロボット210との間の対話を通して利用者50の要求と感情を認識する。例えば、利用者50が「ある特定の資料を参照したい」という要求、そして「利用者50は苛立っている」という感情を認識する。ステップS804において、認識部222は、利用者50の要求と感情に関する情報をサーバ40に送信する。上述の例では、「ある特定の資料の参照」、「利用者は苛立っている」という情報である。また、このとき、オフィス20に設置されたセンサ280により、オフィス内における利用者50の表情、挙動、身体の状態の変化、心拍数、体温等を検出し、ネットワーク30を介してサーバ40に利用者情報として出力する。
次いで、ステップS805において、サーバ40は、センサ280から送信されてくる利用者情報を受信する。またステップS806において、人型対話ロボット210から送信されてきた利用者50の要求と感情に関する情報を受信する。ステップS807において、サーバ40のサービス実行ロボット決定部407は、センサ280から受信した利用者情報、および利用者50の要求と感情に関する情報に応じて、どのサービス実行ロボットにサービスを実行させるかを決定する。ここで、利用者の要求は「ある特定の資料の参照」であるので、インタラクティブスクリーンロボットであるサービス提供ロボット240にサービスを実行させることに決定する。
また、ステップS808において、サーバ40のサービス内容決定部408は、センサ280から受信した利用者情報、および利用者50の要求と感情に関する情報に応じて、サービス実行ロボットが実行するサービスの内容とサービスを実行する方法を決定する。上述の例では、インタラクティブスクリーンロボット240を利用者50の近くに移動させ、利用者50が希望している資料を表示装置248に表示するというサービス内容に決定する。また、利用者50が苛立っているので、通常よりも迅速に移動して(利用者50の所に急行して)情報を表示させることに決定する。或いは、実行すべき他のサービスがある場合に、今回のサービス実行の優先順位を高くし、優先してサービスを実行させてもよい。
次いで、ステップS809の処理に進み、サーバ40のサービス指示情報生成部409は、サービス実行ロボット決定部407、サービス内容決定部408により決定された情報に基づいて、サービスを実行させるサービス実行ロボット、サービス内容、サービス提供の場所、サービス提供相手、サービス提供の時期といった情報で構成されるサービス指示情報を生成する。ステップS810において、サーバ40のサービス指示情報送信部410は、サービス実行ロボット決定部407において決定されたサービス実行ロボット(例えば、サービス実行ロボット240)に対して、サービス指示情報生成部409で生成されたサービス指示情報を送信する。
ステップS811において、サービス実行ロボット240のサービス指示受信部251は、サーバ40からサービス指示情報を受信する。次いで、ステップS812において、サービス実行ロボット240のサービス解釈部252は、受信したサービス指示情報を解釈し、サービス実行ロボット240の各部を動作させる具体的な制御情報を生成する。ステップS813において、サービス実行ロボット決定部407により決定されたサービス実行ロボット240が、サービス内容決定部408により決定されたサービスを実行する。具体的には、サービス実行ロボット240のサービス実行部253は、生成された制御情報にしたがってサービス実行ロボット240の移動装置247、表示装置248等を制御し、利用者50に対してサービスを実行する。上述の例では、サービス実行ロボット240は、利用者50の近くに移動し、インタラクティブスクリーンである表示装置248を利用者50の方向に向け、利用者50が必要としている資料を記憶装置243、或いは通信インタフェース244を介してネットワーク上から入手し、表示装置248に表示する。
なお、上記の例においては、利用者50が「苛立っている」場合に、サービス実行ロボット240が利用者50の場所に急行した場合を説明したが、反対に、利用者50が緊迫した状態でなければ、サービス実行ロボット240の移動速度を通常よりも遅くしたり、或いは他のサービスの実行がある場合に、サービス実行の優先順位を低くし、サービス実行を遅らせたりしてもよい。
なお、上記サービス実行ロボット240の動作は一例であり、利用者50の他の要求や感情に応じて他の異なるサービスを実行する。例えば、利用者50がメモを取りたい場合には、ライティングツール提供ロボットであるサービス実行ロボット260が利用者50の近くに移動し、表示装置248でもり入力装置249でもあるライティングテーブルを水平な向きに展開し、利用者50がライティングテーブルに書き込むことができるようにする。また、利用者50が乾電池を3つ所要とする場合には、運搬ロボット(図示せず)が所定部署から乾電池を3つ収集して利用者50のところに運搬してくる。
次に、図9を参照して、人型対話ロボット210が利用者50と対話している際に、利用者の感情に応じて人型対話ロボット210を構成する身体の形状を変化させる方法について説明する。人型対話ロボット210は、体幹2120、体幹2120の左右に配置される胸部2110、体幹2120の上部に接続されるとともに胸部2110の上方に配置される頭部2130、体幹2120の下部に接続されるとともに胸部2110の下方に配置される座部2140により構成される。胸部2110と頭部2130は体幹2120に対して可動式に接続され、モータ218によって駆動される。また、人型対話ロボット210は、高さ約110cm〜140cm程度である。この高さであると、成人の身長と同じ高さの人型対話ロボット210を使用した場合に比べ、利用者50は圧迫感を感じることが少なく、いっそう感情を表現しやすくなる傾向がある。
利用者50と人型対話ロボット210が対話している際に、利用者50が特別な感情を表現していなければ、人型対話ロボット210は、図9(A)に示すような通常状態をとる。通常状態において、左右の胸部2110は体幹2120を挟んでほぼ平行に、第一の距離、つまり通常の幅で相対する。また、頭部2130は正面を向き、頭部2130の重心が体幹2120のちょうど上方に位置する。
利用者50が人型対話ロボット210に対して熱意を込めて真剣に話しかけると、人型対話ロボット210の認識部222は利用者50が熱意を込めて話していると判断し、動作制御部224がそれに応じた表現を人型対話ロボット210に行わせるための制御情報を生成して各部の動作を制御し、図9(B)に示すような「驚き・関心・好奇心」の状態をとる。「驚き・関心・好奇心」の状態では、左右の胸部2110は、前方部分が左右に開いて、通常の幅よりも広くなる。また、胸部2110の下方よりも上方が左右に大きく開いてもよい。さらに、頭部2130が斜め上方を向き、頭部2130の重心が体幹2120の上方よりも後方へ移動する。これにより、利用者50は、人型対話ロボット210が驚いている、或いは関心を示している、好奇心を抱いていると判断し、さらに白熱して対話を行う。
利用者50が人型対話ロボット210との対話中に怒りを表わした場合、人型対話ロボット210の認識部222は、利用者50が怒っていると判断し、動作制御部224により図9(C)に示すような「悲しみ・落胆」の状態をとる。「悲しみ・落胆」状態では、左右の胸部2110は、前方部分が閉じて、通常の幅よりも狭くなる。また、胸部2110の上部或いは下部が、下部或いは上部よりも狭くなり、ちょうど「肩をすぼめている」ような恰好をとる。さらに、頭部2130が斜め下方を向き、頭部2130の重心が体幹2120の上方よりも前方へ移動する。これにより、利用者50は、人型対話ロボット210が落胆している、しょんぼりしていると感じ、人型対話ロボット210の反応に応じてさらに感情を表現するよう促される。
なお、上記の、利用者の感情に応じて人型対話ロボット210を構成する身体の形状を変化させる方法は一例にすぎない。他にも、利用者が矛盾した指示や間違った指示を繰り返すような場合には、胸部をそり返すような動作をとることによって、高圧的、或いは怒りを表しているような身体形状をとるとともに、スピーカ217から通常より大きめの音声で「指示内容をまとめて下さい」といった応答をするようにしてもよい。
次に図10を参照して、人型対話ロボット210の頭部2130の構造について説明する。図10(A)は、人型対話ロボット210の頭部の外観斜視図である。図10(B)は、図10(A)の頭部に利用者が手で触れた状態を示す図である。図10(A)に示すように、人型対話ロボット210の頭部2130には、外観上人間の目および口に相当する部分が設けられておらず、代わりに一つの突起部2133を有しており、この突起部2133は頭部2130の上部から前部2131にかけて他の部位よりも外方に向けて突出するように形成されている。つまり、人型対話ロボット210は、人間に極似していないものの、鼻と頬のみを有する半人間的な外観形状となっている。さらに、複数本の筋状部材2134が、頭部2130の、突起部2133が形成されている側とは反対側の後部2132から突起部2133に向かってアーチ状、或いは流線形状に収束するように形成される。
人型対話ロボット210は、利用者50との対話時に、突起部2133を利用者50の方向に向ける。図10Aでは突起部2133がXで表される地点を向いている状態が示されている。これにより、利用者50は、人型対話ロボット210がどこを向いているのか、だれと対話しているのかということを容易に識別できるようになる。
さらに、複数本の筋状部材2134に沿って、筋状部材2134の上側に、突起部2133に向けて収束するように点灯装置2135が配置される。この点灯装置2135は、例えば一つまたは複数のLEDライトで構成される。この点灯装置2135は、認識部222により認識した利用者50の感情に応じて、点灯方法を変化させる。この点灯方法の変化については後述する。
また、図10(B)に示すように、突起部2133が設けられていない領域に、つまり頭部2130の筋状部材2134の下側に、利用者50の接触を検出するための感圧センサ2136が設けられている。この感圧センサ2136は、表面からは見えないように、頭部2130の内部に埋め込まれていてもよい。図10(B)に示すように、利用者50が手50Aで感圧センサ2136に触れると、利用者50の接触の有無、および接触の強度が検出される。この接触の有無、また接触の強度は、人型対話ロボット210の認識部222に伝達され、利用者50の感情を認識することに使用される。
次に、図11〜13を参照して、点灯装置2135の点灯方法の変化について説明する。図11は、人型対話ロボット210の電源オン時、および電源オフ時の点灯装置2135の点灯方法を示す図である。図12は、人型対話ロボット210が、「興味深い・幸せ・好奇心」の感情と受け止められる身体の形状の変化、および点灯装置2135の点灯方法を変化させる場合の一例を示す図である。図13は、人型対話ロボット210が、「悲しみ・恥ずかしさ・落胆」の感情と受け止められる身体形状の変化、および点灯装置2135の点灯方法を変化させる場合の一例を示す図である。
人型対話ロボット210は電源オンの状態になると、点灯装置2135が、図11(A)、(B)、(C)の順番で示されるように、筋状部材2134側から上側に向かって点灯範囲が広がっていくように点灯する。反対に、電源オフになる場合には、電源オフになる直前に、図11(C)、(B)、(A)の順番で示されるように、上側から筋状部材2134側へ向かって点灯範囲が狭まるように点灯し、最後にすべて消灯する。
人型対話ロボット210が、「興味深い・幸せ・好奇心」の感情と受け止められるように点灯装置2135を点灯させる場合、点灯装置2135は、図12(A)、(B)、(C)の順番で示されるように、突起部2133側から後部2132に向かって後方に点灯範囲が広がっていくように点灯する。或いは、突起部2133側から後部2132に向かって後方に部分的な点灯範囲が移動していくように点灯してもよい。また、図12の点灯方法を、一度だけ実施してもよいし、繰り返し実施してもよい。或いは、利用者50の感情の強さに応じて点灯を繰り返す回数を決定してもよい。さらに、図12では、点灯装置2135を点灯させると同時に、頭部2130が斜め上方を向き、頭部2130の重心が体幹2120の上方よりも後方へ移動していく様子も示されている。
一方、人型対話ロボット210が、「悲しみ・恥ずかしさ・落胆」の感情と受け止められるよう点灯装置2135を点灯させる場合、点灯装置2135は、図13(A)、(B)、(C)の順番で示されるように、後部2132側から突起部2133に向かって前方に部分的な点灯範囲が移動していくように点灯する。或いは、後部2132側から突起部2133に向かって前方に点灯範囲が広がっていくように点灯させてもよい。図13の点灯方法を、一度だけ実施してもよいし、繰り返し実施してもよい。或いは、利用者50の感情の強さに応じて点灯繰り返す回数を決定してもよい。さらに、図13では、点灯装置2135を点灯させると同時に、頭部2130が斜め下方を向き、頭部2130の重心が体幹の上方よりも前方へ移動していく様子も示されている。
なお、人型対話ロボット210の点灯装置2135の点灯方法を変化させるだけでなく、点灯装置2135の点灯する色を変化させてもよい。例えば、「興味深い・幸せ・好奇心」の感情の場合、点灯装置2135を黄緑色で点灯させ、「悲しみ・恥ずかしさ・落胆」の感情の場合、点灯装置2135を紫色で点灯させる。
さらに、本実施形態の人型対話ロボット210、230とサービス実行ロボット240、260とは、統一感のある外観形状の座部を有している。その一例を図14に示す。図14においては、人型対話ロボット210の座部2140、もう一台の人型対話ロボット230の座部2340、およびサービス実行ロボット240、260の座部2440、2640がそれぞれ錐台形状の座部を有している。これらの座部2140、2340、2440、2640は、円錐台形状、三角錐台形状、四角錐台形状等であり、互いに同一、或いは相似、または類似した外形に形成されることによって統一感のある外観形状となるようにする。また、オフィス20の他の部署に配置されるロボットには、別の外観形状を有する座部で統一する。これにより、複数のロボットで構成されるチームを、別の部署に配置されたロボットで構成されるチームと区別することが可能となる。また、座部2140、2340、2440、2460を使用することによって、人型対話ロボット210、230、サービス実行ロボット240、260を安定させ、転倒しにくくさせることもできる。
以上、本実施形態のロボット制御システム10について説明した。なお、上記ロボット制御システム10においては、利用者50の要求と感情を認識する認識部222が人型対話ロボット210に内蔵されている場合を説明したが、本発明は、上記実施形態に限定されず、認識部222が人型対話ロボット210と別体に配置されていてもよい。例えば、認識部を、サーバ40の一つの機能として動作させるようにしても良い。その場合、利用者50の対話内容、挙動、表情、顔の色、身体の状態、声の調子、声の速さ、心拍数のいずれか少なくとも一つ、或いは複数の組み合わせで構成される情報を人型対話ロボット210、230、およびセンサ280から受信し、その情報に基づいて利用者50の要求と感情を認識する。また、認識部222を、人型対話ロボット210とサーバ40の両方に設けてもよい。
また、人型対話ロボット210を第1の人型対話ロボットとし、人型対話ロボット230を第2の人型対話ロボットとし、第1の人型対話ロボット210が利用者50の第1の要求と感情を認識し、その後第2の人型対話ロボット230が利用者50の第2の要求と感情を認識した場合、第2の人型対話ロボット230はサーバ40に対して利用者の次の要求と感情を送信し、サーバ40のサービス実行ロボット決定部407およびサービス内容決定部408は、サービスを実際に実行するサービス実行ロボットと、実行するサービスの内容とを、利用者50の第1の要求および感情と、第2の要求および感情とに応じて決定する。
また、上記実施形態においては、サービス実行ロボット240、260がサービス実行を最後まで完了する場合について説明した。しかしながら、実際には、サービス実行ロボット240、260が途中で転倒したり、充電が切れたり、収集物が見つからないといった理由のためにサービスの実行を完了できない場合もある。そのような場合、サービス実行ロボット240は、サーバ40、或いは人型対話ロボット210、230に対して、サービス実行が不可能であることを伝える。サーバ40のサービス実行ロボット決定部407、サービス内容決定部408、および人型対話ロボット210、230のそれらに対応する機能は、その状況下で他のサービス実行ロボットに対して同様のサービスの実行を指示するか、完全にサービスを中止するか、或いは利用者50に状況を伝えて指示を仰ぐかを判断し、必要な動作指示を人型対話ロボット210、230、サービス実行ロボット240、260に送信する。
なお、上記実施形態においては、人型対話ロボット210、230、サービス実行ロボット240、260のそれぞれは、アクセスポイント270、およびサーバ40を介して別のロボットと通信を行う場合を説明したが、本発明は上記実施形態に限定されず、人型対話ロボット210と230相互、人型対話ロボット210とサービス実行ロボット240、260相互がアクセスポイント270を介さず直接に無線で接続され、直接通信を行うようにしてもよい。同様に、人型対話ロボット230とサービス実行ロボット240、260とが直接に無線で接続され、直接通信を行うようにしてもよい。
また、上記実施形態においては、サーバ40において、サービスを実行するサービス実行ロボット、実行するサービスの内容を決定し、決定内容に基づいてサービス指示情報を生成していたが、これらの動作をサーバ40ではなく、人型対話ロボット210、230が行うようにしてもよい。その場合、サービス実行ロボット決定部407、サービス内容決定部408、サービス情報生成部409に対応する機能は人型対話ロボット210、230が実行することになる。
また、上記実施形態においては、テーブルロボット、ライティングツール提供ロボット、インタラクティブスクリーンロボットはそれぞれ別々のサービス提供ロボットとして説明したが、本発明は上記実施形態に限定されず、これらのサービス提供ロボットが一体であってもよい。例えば、表示装置でもあり入力装置でもあるタッチパネル付きディスプレイ部分の向きを変化させることによって、例えば、表示装置として機能させたり、ライティングテーブルとして機能させたり、或いはプロジェクタとして機能させたりしてもよい。
10 ロボット制御システム
20 オフィス
30 ネットワーク
40 サーバ
50 利用者
210 人型対話ロボット
211 制御用マイクロプロセッサ
212 メモリ
213 記憶装置
214 通信インタフェース
215 カメラ
216 マイクロフォン
217 スピーカ
218 モータ
219 点灯装置
220 感圧センサ
221 制御バス
222 認識部
223 対話制御部
224 動作制御部
230 人型対話ロボット
240 サービス実行ロボット
241 制御用マイクロプロセッサ
242 メモリ
243 記憶装置
244 通信インタフェース
245 カメラ
246 マイクロフォン
247 移動装置
248 表示装置
249 入力装置
250 制御バス
251 サービス指示受信部
252 サービス解釈部
253 サービス実行部
260 サービス実行ロボット
270 アクセスポイント
280 センサ
402 メモリ
403 記憶装置
404 通信インタフェース
405 ユーザインタフェース
406 制御バス
407 サービス実行ロボット決定部
408 サービス内容決定部
409 サービス指示情報生成部
410 サービス指示情報送信部
2110 胸部
2120 体幹
2130 頭部
2131 前部
2132 後部
2133 突起部
2134 筋状部材
2135 点灯装置
2136 感圧センサ
2140、2340、2440、2640 座部

Claims (11)

  1. 利用者と対話する人型対話ロボットと、
    前記利用者に対して役務を提供する役務実行ロボットと、
    利用者と前記人型対話ロボット間の対話を通して前記利用者の要求と感情を認識する認識手段と、
    前記利用者の要求と感情に応じて、前記利用者に提供する役務と当該役務を実行する役務実行ロボットと、当該役務の優先順位を決定する決定手段と、を備え、
    前記決定手段により決定された役務実行ロボットが、決定された役務を、決定された優先順位で実行する、ロボット制御システム。
  2. 利用者と対話する人型対話ロボットと、
    前記利用者に対して役務を提供する役務実行ロボットと、
    利用者と前記人型対話ロボット間の対話を通して前記利用者の要求と感情を認識する認識手段と、
    前記利用者の要求と感情に応じて、前記利用者に提供する役務と当該役務を実行する役務実行ロボットと、当該役務を実行する役務実行ロボットの移動速度を決定する決定手段と、を備え、
    前記決定手段により決定された役務実行ロボットが、決定された役務を、決定された移動速度で実行する、ロボット制御システム。
  3. 前記人型対話ロボットが、前記認識手段により認識された前記利用者の感情に応じて、前記人型対話ロボットを構成する身体の形状を変化させる、請求項1又は2記載のロボット制御システム。
  4. 前記人型対話ロボットが、体幹に対する胸部および頭部のいずれか或いは両方の向きを変化させることにより、前記人型対話ロボットを構成する身体の形状を変化させる請求項記載のロボット制御システム。
  5. 前記人型対話ロボットが頭部に一つの突起部を有し、前記利用者との対話時に、前記突起部を前記利用者の方向に向ける、請求項1又は2記載のロボット制御システム。
  6. 前記人型対話ロボットには、前記頭部に、前記突起部に向けて収束するように点灯装置が配置され、前記認識手段により認識した前記利用者の感情に応じて、前記点灯装置の点灯方法が変化する、請求項記載のロボット制御システム。
  7. 前記人型対話ロボットの頭部には、人間の目および口に相当する部分が設けられておらず、前記突起部が設けられていない領域に、利用者の接触を検出するための感圧センサが設けられている請求項または記載のロボット制御システム。
  8. 前記役務実行ロボットは、運搬ロボット、テーブルロボット、ライティングツール提供ロボット、インタラクティブスクリーンロボットのいずれか1つまたはこれらの複数の組み合わせである、請求項1からのいずれかに記載のロボット制御システム。
  9. 前記役務実行ロボットと前記人型対話ロボットとが、統一感のある外観形状の座部を有する、請求項1からのいずれかに記載のロボット制御システム。
  10. 前記認識手段が、前記人型対話ロボットに内蔵、または前記人型対話ロボットとは別体に配置、或いはその両方に設けられる、請求項1からのいずれかに記載のロボット制御システム。
  11. 第1の人型対話ロボットおよび第2の人型対話ロボットを備え、第1の人型対話ロボットが前記利用者の第1の要求および感情を認識し、その後第2の人型対話ロボットが前記利用者の第2の要求および感情を認識した場合、第2の人型対話ロボットは前記決定手段に第2の要求および感情を送信し、前記決定手段は、実行する役務と役務実行ロボットを、前記第1の要求および感情と、前記第2の要求および感情とに応じて決定する、請求項1から10のいずれかに記載のロボット制御システム。
JP2016052253A 2016-03-16 2016-03-16 ロボット制御システム Active JP6726388B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016052253A JP6726388B2 (ja) 2016-03-16 2016-03-16 ロボット制御システム
US15/221,081 US10513038B2 (en) 2016-03-16 2016-07-27 Robot control system
EP16186790.8A EP3219447B1 (en) 2016-03-16 2016-09-01 Robot control system
KR1020160115427A KR102150928B1 (ko) 2016-03-16 2016-09-08 로봇 제어 시스템
CN201610825812.9A CN107199571B (zh) 2016-03-16 2016-09-14 机器人控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016052253A JP6726388B2 (ja) 2016-03-16 2016-03-16 ロボット制御システム

Publications (2)

Publication Number Publication Date
JP2017167797A JP2017167797A (ja) 2017-09-21
JP6726388B2 true JP6726388B2 (ja) 2020-07-22

Family

ID=56876934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016052253A Active JP6726388B2 (ja) 2016-03-16 2016-03-16 ロボット制御システム

Country Status (5)

Country Link
US (1) US10513038B2 (ja)
EP (1) EP3219447B1 (ja)
JP (1) JP6726388B2 (ja)
KR (1) KR102150928B1 (ja)
CN (1) CN107199571B (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10880470B2 (en) * 2015-08-27 2020-12-29 Accel Robotics Corporation Robotic camera system
WO2017199662A1 (ja) * 2016-05-20 2017-11-23 Groove X株式会社 自律行動型ロボット及びコンピュータプログラム
JP6761598B2 (ja) * 2016-10-24 2020-09-30 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
CN107122491B (zh) * 2017-05-19 2020-12-15 深圳市优必选科技有限公司 用于数据交互的方法
CN109093627A (zh) * 2017-06-21 2018-12-28 富泰华工业(深圳)有限公司 智能机器人
WO2019087478A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2019088990A1 (en) * 2017-10-31 2019-05-09 Hewlett-Packard Development Company, L.P. Control system for mobile robots
KR102463806B1 (ko) * 2017-11-09 2022-11-07 삼성전자주식회사 이동이 가능한 전자 장치 및 그 동작 방법
CN108055175A (zh) * 2017-11-24 2018-05-18 海尔优家智能科技(北京)有限公司 一种信息展示方法及装置
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
JP7192222B2 (ja) * 2018-03-08 2022-12-20 トヨタ自動車株式会社 発話システム
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques
KR20190141303A (ko) * 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
US11883963B2 (en) * 2019-06-03 2024-01-30 Cushybots Corporation Robotic platform for interactive play using a telepresence robot surrogate
US20220281117A1 (en) * 2019-07-16 2022-09-08 Serve Robotics Inc. Remote physiological data sensing robot
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
KR20190104488A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 인공 지능을 이용하여, 오브젝트의 이동을 관리하는 인공 지능 로봇 및 그의 동작 방법
KR20190116190A (ko) * 2019-09-23 2019-10-14 엘지전자 주식회사 로봇
US20220223140A1 (en) * 2021-01-08 2022-07-14 Samsung Electronics Co., Ltd. Structural assembly for digital human interactive display

Family Cites Families (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
US6586859B2 (en) * 2000-04-05 2003-07-01 Sri International Electroactive polymer animated devices
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
KR100617525B1 (ko) * 1998-06-23 2006-09-04 소니 가부시끼 가이샤 로봇장치 및 정보처리시스템
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
EP1120740B1 (en) * 1999-05-10 2007-10-03 Sony Corporation Robot device, its control method, and recorded medium
US6374155B1 (en) * 1999-11-24 2002-04-16 Personal Robotics, Inc. Autonomous multi-platform robot system
JP2001150374A (ja) * 1999-11-25 2001-06-05 Sony Corp ロボットの故障診断システム
WO2001039932A1 (fr) * 1999-11-30 2001-06-07 Sony Corporation Robot, son procede de commande et procede d'appreciation du caractere du robot
KR20020008848A (ko) * 2000-03-31 2002-01-31 이데이 노부유끼 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot
BE1013637A6 (nl) * 2000-08-07 2002-05-07 Smet Francis De Werkwijze voor het opzoeken van informatie op het internet.
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
AU2002232928A1 (en) * 2000-11-03 2002-05-15 Zoesis, Inc. Interactive character system
EP1344612B1 (en) * 2000-11-17 2011-01-05 Sony Corporation Device and method for controlling motion of legged mobile robot, and motion unit generating method for legged mobile robot
AU2002258422A1 (en) * 2001-02-27 2002-09-12 Anthrotronix, Inc. Robotic apparatus and wireless communication system
US7206753B2 (en) * 2001-05-04 2007-04-17 Axxon Robotics, Llc Methods for facilitating a retail environment
EP1256937B1 (en) * 2001-05-11 2006-11-02 Sony France S.A. Emotion recognition method and device
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
US20060179022A1 (en) * 2001-11-26 2006-08-10 Holland Wilson L Counterpart artificial intelligence software program
DE60215296T2 (de) * 2002-03-15 2007-04-05 Sony France S.A. Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung
JP2003345435A (ja) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd ロボットおよびロボットシステム
US6671582B1 (en) * 2002-08-26 2003-12-30 Brian P. Hanley Flexible agricultural automation
US6907688B2 (en) * 2002-12-09 2005-06-21 George W. Brint Flying and simulated wounded mechanical bird decoys and method
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
EP1610221A4 (en) * 2003-03-28 2009-01-07 Sony Corp INFORMATION PROVIDER DEVICE, ASSOCIATED METHOD, AND INFORMATION PROVIDER SYSTEM
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
CN100436082C (zh) * 2003-08-12 2008-11-26 株式会社国际电气通信基础技术研究所 用于通信机器人的控制系统
JP2005125466A (ja) 2003-10-27 2005-05-19 Sharp Corp 群ロボットシステム、群ロボットシステムに含まれるセンシングロボット、群ロボットシステムに含まれるベースステーション、および群ロボットシステムに含まれるフェロモンロボット
JP2005193331A (ja) * 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法
JP4303602B2 (ja) * 2004-01-09 2009-07-29 本田技研工業株式会社 顔面像取得システム
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
JP4370410B2 (ja) * 2004-03-08 2009-11-25 独立行政法人情報通信研究機構 対話システム、対話ロボット、プログラム及び記録媒体
JP4477924B2 (ja) * 2004-03-31 2010-06-09 本田技研工業株式会社 移動ロボットの外部検出装置
JP4794846B2 (ja) * 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
EP1834230A1 (en) * 2004-12-30 2007-09-19 Samsung Electronics Co., Ltd. A terminal data format and a communication control system and method using the terminal data format
JP2007011880A (ja) 2005-07-01 2007-01-18 Nippon Signal Co Ltd:The 自動販売機の制御システム
US20070021206A1 (en) * 2005-07-08 2007-01-25 Sunnen Gerard V Poker training devices and games using the devices
US7991764B2 (en) * 2005-07-22 2011-08-02 Yogesh Chunilal Rathod Method and system for communication, publishing, searching, sharing and dynamically providing a journal feed
US8352273B2 (en) * 2005-07-26 2013-01-08 Honda Motor Co., Ltd. Device, method, and program for performing interaction between user and machine
JP5188977B2 (ja) * 2005-09-30 2013-04-24 アイロボット コーポレイション 個人の相互交流のためのコンパニオンロボット
KR100825719B1 (ko) * 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
JP4718987B2 (ja) * 2005-12-12 2011-07-06 本田技研工業株式会社 インターフェース装置およびそれを備えた移動ロボット
US8509972B2 (en) * 2006-08-29 2013-08-13 Industrial Technology Research Institute Electronic pet and pet interaction system thereof
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
US8677281B2 (en) * 2007-02-09 2014-03-18 Intel-Ge Care Innovations Llc System, apparatus and method for emotional experience time sampling via a mobile graphical user interface
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
US8577126B2 (en) * 2007-04-11 2013-11-05 Irobot Corporation System and method for cooperative remote vehicle behavior
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
US20090002178A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Dynamic mood sensing
JP4506795B2 (ja) * 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP4857242B2 (ja) * 2007-11-05 2012-01-18 株式会社日立製作所 ロボット
JP4516592B2 (ja) * 2007-12-06 2010-08-04 本田技研工業株式会社 移動型ロボット
US20090319459A1 (en) * 2008-02-20 2009-12-24 Massachusetts Institute Of Technology Physically-animated Visual Display
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
GB0809563D0 (en) * 2008-05-28 2008-07-02 Health Smart Ltd A behaviour modification system
KR20100001928A (ko) 2008-06-27 2010-01-06 중앙대학교 산학협력단 감정인식에 기반한 서비스 장치 및 방법
KR101553521B1 (ko) * 2008-12-11 2015-09-16 삼성전자 주식회사 지능형 로봇 및 그 제어방법
US9155961B2 (en) * 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
KR20110002757A (ko) * 2009-07-02 2011-01-10 삼성전자주식회사 감성 모델 장치, 감성 모델의 성향 학습 장치 및 방법
JP5476833B2 (ja) * 2009-07-23 2014-04-23 カシオ計算機株式会社 動物の感情表示システム及び動物の感情表示方法
CN102470923B (zh) * 2009-07-28 2015-03-25 国立大学法人九州工业大学 振翅飞翔机器人
KR101239866B1 (ko) * 2009-09-01 2013-03-06 한국전자통신연구원 이동 로봇을 이용한 조류 통제 방법 및 그 장치
JP5526942B2 (ja) * 2010-03-31 2014-06-18 ソニー株式会社 ロボット装置、ロボット装置の制御方法およびプログラム
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
FR2963132A1 (fr) 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
FR2969026B1 (fr) * 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
US9049259B2 (en) * 2011-05-03 2015-06-02 Onepatont Software Limited System and method for dynamically providing visual action or activity news feed
US8996429B1 (en) * 2011-05-06 2015-03-31 Google Inc. Methods and systems for robot personality development
US8380349B1 (en) * 2011-05-06 2013-02-19 Google Inc. Methods and systems for providing instructions to a robotic device
CN202123513U (zh) * 2011-05-10 2012-01-25 富通彗(北京)科技有限公司 多点感应触摸机器人
US8737677B2 (en) * 2011-07-19 2014-05-27 Toytalk, Inc. Customized audio content relating to an object of interest
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
US9079315B2 (en) * 2011-08-29 2015-07-14 Neil Davey Banking automation using autonomous robot
US10176725B2 (en) * 2011-08-29 2019-01-08 Worcester Polytechnic Institute System and method of pervasive developmental disorder interventions
WO2013068936A1 (en) * 2011-11-09 2013-05-16 Koninklijke Philips Electronics N.V. Using biosensors for sharing emotions via a data network service
US9747480B2 (en) * 2011-12-05 2017-08-29 Adasa Inc. RFID and robots for multichannel shopping
US8751042B2 (en) * 2011-12-14 2014-06-10 Toyota Motor Engineering & Manufacturing North America, Inc. Methods of robot behavior generation and robots utilizing the same
US9207755B2 (en) * 2011-12-20 2015-12-08 Iconicast, LLC Method and system for emotion tracking, tagging, and rating and communication
FR2989209B1 (fr) * 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
EP2852475A4 (en) * 2012-05-22 2016-01-20 Intouch Technologies Inc SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT
US20140032466A1 (en) * 2012-07-30 2014-01-30 Boris Kaplan Computer system of artificial intelligence of a cyborg or an android, wherein a received signal-reaction of the computer system of artificial intelligence of the cyborg or the android, an association of the computer system of artificial intelligence of the cyborg or the android, a thought of the computer system of artificial intelligence of the cyborg or the android are substantiated, and a working method of this computer system of artificial intelligence of a cyborg or an android
US9569976B2 (en) * 2012-10-02 2017-02-14 Gavriel Yaacov Krauss Methods circuits, devices and systems for personality interpretation and expression
US9044863B2 (en) * 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
WO2014138472A2 (en) * 2013-03-06 2014-09-12 Robotex Inc. System and method for collecting and processing data and for utilizing robotic and/or human resources
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US9785911B2 (en) * 2013-07-25 2017-10-10 I AM Robotics, LLC System and method for piece-picking or put-away with a mobile manipulation robot
US9846843B2 (en) * 2013-10-30 2017-12-19 Georgia Tech Research Corporation Methods and systems for facilitating interactions between a robot and user
JP6397817B2 (ja) * 2013-12-20 2018-09-26 Re&Do株式会社 サービス提供管理システム
US20150234398A1 (en) * 2014-02-14 2015-08-20 Visa International Service Association Evolving Interactive Virtual-Physical Hybrid Platforms, Systems, and Methods
RU2743044C1 (ru) * 2014-02-20 2021-02-12 Марк ОЛЕЙНИК Роботизированная кухонная система
US9533413B2 (en) * 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US10198758B2 (en) * 2014-03-28 2019-02-05 Ecovacs Robotics, Inc. Guide robot for shopping guiding system and method
US9302393B1 (en) * 2014-04-15 2016-04-05 Alan Rosen Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes
EP2933065A1 (en) 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
JP6058053B2 (ja) * 2014-06-05 2017-01-11 Cocoro Sb株式会社 記録制御システム、システム及びプログラム
EP2952299A1 (en) * 2014-06-05 2015-12-09 Aldebaran Robotics Standby mode of a humanoid robot
US9050723B1 (en) * 2014-07-11 2015-06-09 inVia Robotics, LLC Human and robotic distributed operating system (HaRD-OS)
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
CN104493827A (zh) * 2014-11-17 2015-04-08 福建省泉州市第七中学 智能认知机器人及其认知系统
DE102014016968A1 (de) * 2014-11-18 2015-01-22 Boris Kaplan Ein Computersystem von einer Künstlichen Intelligenz von einem Cyborg oder einem Android, wobei eine aufgenommene Signal-Reaktion des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, eine entsprechende Assoziation des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, und ein entsprechender Gedanke des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android in dem Computersystem physisch gebaut werden, und ein Arbeitsverfahren von dem Computersystem von der Künstlichen Intelligenz von dem Cyborg oder dem Android
US9530058B2 (en) * 2014-12-11 2016-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Visual-assist robots
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
US9821455B1 (en) * 2015-08-08 2017-11-21 X Development Llc Replacing a first robot with a second robot during performance of a task by the first robot
US10430744B2 (en) * 2015-08-21 2019-10-01 Autodesk, Inc. Robot service platform
US10063702B2 (en) * 2015-12-30 2018-08-28 Shanghai Xiaoi Robot Technology Co., Ltd. Intelligent customer service systems, customer service robots, and methods for providing customer service
US9921574B1 (en) * 2016-03-03 2018-03-20 Sprint Communications Company L.P. Dynamic interactive robot dialogue creation incorporating disparate information sources and collective feedback analysis

Also Published As

Publication number Publication date
KR20170107875A (ko) 2017-09-26
CN107199571B (zh) 2021-11-05
CN107199571A (zh) 2017-09-26
EP3219447B1 (en) 2024-05-01
US10513038B2 (en) 2019-12-24
KR102150928B1 (ko) 2020-09-02
US20170266812A1 (en) 2017-09-21
JP2017167797A (ja) 2017-09-21
EP3219447A1 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
JP6726388B2 (ja) ロボット制御システム
KR102630774B1 (ko) 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의자동 제어
CN112424727A (zh) 用于可穿戴系统的跨模态输入融合
KR102616850B1 (ko) 전자 장치, 전자 장치와 결합 가능한 외부 디바이스 및 이의 디스플레이 방법
KR20180129886A (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
US20210141444A1 (en) Modes of user interaction
CN105144027A (zh) 在确定动作中使用非言语通信
WO2012119371A1 (zh) 一种用户交互系统和方法
US9332219B2 (en) Telepresence device
US20200133630A1 (en) Control apparatus, agent apparatus, and computer readable storage medium
US11474499B2 (en) Communication robot and control program of communication robot
KR20200059112A (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
KR102639904B1 (ko) 공항용 로봇 및 그의 동작 방법
JP7439826B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2011033837A (ja) 対話支援装置、対話支援方法およびプログラム
LaViola Jr et al. Multimodal input for perceptual user interfaces
KR20080078324A (ko) 자율적 감정표현 로봇 시스템
JP2010110862A (ja) コミュニケーションロボットシステム、コミュニケーションロボット制御方法およびプログラム
FR3086195A1 (fr) Doigt robotise pour dispositif portable
JP7371820B1 (ja) アニメーション操作方法、アニメーション操作プログラム及びアニメーション操作システム
WO2023210164A1 (ja) アニメーション操作方法、アニメーション操作プログラム及びアニメーション操作システム
WO2021106552A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230325002A1 (en) Techniques for neuromuscular-signal-based detection of in-air hand gestures for text production and modification, and systems, wearable devices, and methods for using these techniques
Henschke User behaviour with unguided touchless gestural interfaces
JP2023039445A (ja) ドッペルゲンガー遠隔ロボットシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200610

R150 Certificate of patent or registration of utility model

Ref document number: 6726388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350