JP6747506B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP6747506B2
JP6747506B2 JP2018514070A JP2018514070A JP6747506B2 JP 6747506 B2 JP6747506 B2 JP 6747506B2 JP 2018514070 A JP2018514070 A JP 2018514070A JP 2018514070 A JP2018514070 A JP 2018514070A JP 6747506 B2 JP6747506 B2 JP 6747506B2
Authority
JP
Japan
Prior art keywords
robot
expression
user
function
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018514070A
Other languages
English (en)
Other versions
JPWO2017187620A1 (ja
Inventor
井出 勝
勝 井出
真司 神田
真司 神田
金岡 利知
利知 金岡
薫 木下
薫 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2017187620A1 publication Critical patent/JPWO2017187620A1/ja
Application granted granted Critical
Publication of JP6747506B2 publication Critical patent/JP6747506B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

本発明は、ロボットに関する。
ロボットには、設置型のロボットと、人型のロボットとがある。ヴィストン株式会社製のソータ(Sota,登録商標)は、設置型のロボットの一例である。また、ソフトバンクロボティクス株式会社製のペッパー(Pepper,登録商標)は、人型のロボットの一例である。
設置型のロボットは、ユーザからの問いに対して、例えば手を差し出して方向を指し示すといった単純な動作を行う。設置型のロボットの動作の自由度は比較的低く、音声出力に合わせたジェスチャーに近い。設置型のロボットは、構成が簡単であるため、サイズ及びコストを低減可能である。しかし、設置型のロボットでは、ユーザとのインタラクションの際に、身振りで感情表現などの表現を行うことは難しい。
一方、人型のロボットは、人と略同様の関節を有し、腕、手、または指で方向を示したり、首を傾けたりすることができる。人型のロボットの動作の自由度は比較的高く、身振りで感情表現などの表現を行うこともできる。しかし、人型のロボットが、例えばお辞儀をするためには、腕、足、肩、腰、首などの多くの関節を適切に制御しなければならない。このため、人型のロボットでは、関節などの複雑な構成に加え、関節などの複雑な制御が要求される。また、人型のロボットは、関節などの複雑な構成により、サイズ及びコストを低減することが難しい。
従って、設置型のロボットのように動作の自由度を減らすと、身振りで感情表現などの表現を行うことが難しくなり、人間型のロボットのように動作の自由度を増やして身振りで感情表現などの表現を可能にすると、ロボットのサイズやコストを低減することが難しくなる。このような、ロボットの動作の自由度の増減によるトレードオフの関係において、少ない動作の自由度の身振で多くの感情表現などの表現を行うことが望まれている。
従来のロボットでは、少ない動作の自由度の身振りで多種の表現を行うことことは難しい。
そこで、1つの側面では、少ない動作の自由度の身振りで多種の表現を行うことが可能なロボットを提供することを目的とする。
1つの案によれば、身振りを含む非言語反応で表現を行うロボットであって、設置面上の支点に対してパン及びチルト可能に設けられた下部を有する胴体と、前記胴体の側部に上下動可能に設けられた一対の腕と、前記胴体の上部にパン及びチルト可能に設けられた頭と、前記胴体、前記一対の腕、及び前記頭を駆動する駆動部と、ユーザまでの距離を検知する第1の検知部と、前記距離に応じて駆動パターンと、前記駆動パターンによる表現を行う順番とを決定し、決定した前記駆動パターン及び前記順番前記胴体と、前記一対の腕及び前記頭のうち少なくとも一方とを駆動するように前記駆動部を制御する制御部と、を備え、前記非言語反応は、前記駆動パターンに対応する、前記胴体の前記支点に対するチルトと、前記一対の腕及び前記頭のうち少なくとも一方の動きとの組み合わせであるロボットが提供される。

一態様によれば、少ない動作の自由度の身振りで多種の表現を行うことができる。
一実施例におけるシステムのハードウェア構成の一例を示すブロック図である。 駆動部の一例を示すブロック図である。 ロボットの一例を示す斜視図である。 ロボットの機能構成の第1の例を示す機能ブロック図である。 傾き設定テーブルの一例を示す図である。 表現順序テーブルの一例を示す図である。 ロボットの動作の一例を説明するフローチャートである。 ロボットの動作の一例を説明するフローチャートである。 インタラクション状態推定テーブルの一例を示す図である。 能動動作テーブルの一例を示す図である。 受動動作テーブルの一例を示す図である。 ロボットの動作の一例を説明するフローチャートである。 LED表現テーブルの一例を示す図である。 音声表現テーブルの一例を示す図である。 一実施例におけるロボットの動作の一例を説明するフローチャートである。 ロボットのお辞儀の一例を示す斜視図である。 ロボットの驚きの一例を示す斜視図である。 ロボットの落胆の一例を示す斜視図である。 ロボットの機能構成の第2の例を示す機能ブロック図である。
開示のロボットは、身振りを含む非言語反応で感情表現などの表現を行う。ロボットは、設置面上の支点に対してパン及びチルト可能に設けられた下部を有する胴体と、胴体の側部に上下動可能に設けられた一対の腕と、胴体の上部にパン及びチルト可能に設けられた頭とを備える。非言語反応は、胴体の支点に対するチルトと、一対の腕及び頭のうち少なくとも一方の動きとの組み合わせである。
以下に、開示のロボットの各実施例を図面と共に説明する。
図1は、一実施例におけるシステムのハードウェア構成の一例を示すブロック図である。図1に示すシステム1は、ロボット2−1と、センサビーコン3と、ゲートウェイ(GW:Gate-Way)4とを有する。このシステム1は、例えば展示会場に適用されるので、ロボット2−1及びGW4は、展示会場内に設けられており、同じ位置に設けられていても良い。ロボット2−1は、展示会場内の例えば1つの展示ブース内に設けられている。センサビーコン3は、展示会場内で見学する来場者により所持される。センサビーコン3は、例えば来場者が首からかけられる、首かけカードホルダに収納されていても良い。来場者は、サービスの提供を受けるユーザの一例である。
ロボット2−1は、検知部21と、制御部22と、表現部23と、表現蓄積部24と、ビーコン通信部25とを有する。検知部21は、背中接触センサ211と、頭接触センサ212と、マイクロホン213と、人感センサ214と、カメラ215と、タブレット216と、測距センサ217と、温度センサ218とを有する。制御部22は、CPU221と、メモリ222と、アナログ・デジタル変換器(ADC:Analog-to-Digital Converter)223を有する。表現部23は、駆動部231と、スピーカ232と、光源の一例である発光ダイオード(LED:Light Emitting Diode)233とを有する。表現蓄積部24は、検知部21により検知された検知情報に応じて決まる表現を行うためのロボット2−1の胴体、腕、及び頭の駆動パターンを蓄積する。この例では、表現蓄積部24は、インタラクション状態推定テーブル241と、案内行動(以下、「ビヘイビア」とも言う)テーブル242と、心理ビヘイビアテーブル243とを有する。検知部21が検知した情報と、ビーコン通信部25がセンサビーコン3から受信したビーコンIDとは、制御部22内のADC223を介してメモリ222に格納される。制御部22内のCPU221は、表現蓄積部24内のインタラクション状態推定テーブル241と、案内ビヘイビアテーブル242と、心理ビヘイビアテーブル243とから、インタラクション状態、案内ビヘイビア、及び心理ビヘイビアを読み出す。また、制御部22内のCPU221は、表現部23内の駆動部231と、スピーカ232と、LED233とを駆動する。
センサビーコン3は、アクティブタグの一例である。センサビーコン3は、メモリ31と、送信機32とを有する。送信機32は、GW4と、例えばBLE(Bluetooth Low Energy、登録商標)に準拠した通信を行う。メモリ31は、個々のセンサビーコン3を識別するための識別情報の一例であるビーコンIDを格納する。
GW4は、センサビーコン3が送信するビーコンIDを受信すると共に、ロボット2−1と通信可能な通信制御装置の一例である。GW4は、受信機41と、個人情報データベース(DB:Data-Base)42と、メモリ43と、CPU(Central Processing Unit)44と、ロボット通信部45とを有する。CPU44は、GW4全体の動作を制御するプロセッサの一例である。受信機41は、CPU44の制御下でセンサビーコン3から送信されてくるビーコンIDを受信して、受信電波強度(即ち、信号受信強度)などを検知する。ロボット通信部45は、CPU44の制御下でロボット2−1と、例えばWebSocket(HTTP、登録商標)に準拠した通信を行う。メモリ43は、CPU44が実行するプログラムなどを格納しても良い。この例では、個々のセンサビーコン3には、例えば展示会場の受付での来場者の登録時に来場者の名前が登録される。このため、DB42には、来場者を特定するためのユーザIDが、来場者の名前と共に、当該センサビーコン3のビーコンIDと紐付けて登録される。ユーザIDは、個々のユーザを識別するための識別情報の一例である。CPU44は、センサビーコン3からのビーコンIDに基づいて、ロボット2−1の動作を制御することもできる。
図2は、駆動部の一例を示すブロック図である。図2に示すように、駆動部231は、制御部22(即ち、CPU221)の制御下で、ロボット2−1の左右の腕を上下動させる腕動作用モータ231−1と、ロボット2−1の首をパン及びチルトさせる首動作用モータ231−2と、ロボット2−1の胴体をパン及びチルトさせる胴動作用モータ231−3とを駆動する。
図3は、ロボットの一例を示す斜視図である。図3に示すロボット2−1は、土台205の設置面205A上の支点205Bに対してパン及びチルト可能に設けられた胴体201と、胴体201の側部に上下動可能に設けられた左右一対の腕202L,202Rと、胴体201の上部にパン及びチルト可能に設けられた頭203とを有する。頭203の正面部には、表現部23のLED233が設けられている。この例では、LED233が駆動されてオンになると、LED233から出射された光は頭203の正面部を透過するので、ユーザには、フルカラーの透過光が見える。胴体201は、胴動作用モータ231−3により駆動されて、矢印Bpで示す方向にパン可能であり、矢印Btで示す方向にチルト可能である。左腕202Lは、腕動作用モータ231−1により駆動されて矢印Alvで示す方向に上下動可能であり、右腕202Rは、腕動作用モータ231−1により駆動されて矢印Arvで示す方向に上下動可能である。頭203は、首動作用モータ231−2により駆動されて、矢印Hpで示す方向にパン可能であり、矢印Htで示す方向にチルト可能である。土台205の形状は特に限定されないが、例えば箱状であっても良い。また、土台205は、ロボット2−1の一部を形成しても良い。
駆動部231は、胴動作用モータ231−3を駆動して、胴体201を矢印Bpで示す方向に例えば±90度の捻り角度だけパン可能であり、矢印Btで示す方向に例えば±15度の傾き角度だけチルト可能である。また、駆動部231は、腕動作用モータ231−1を駆動して、各腕202L,202Rを別々に矢印Arvで示す方向に、例えば±90度の振り上げ角度だけ上下動可能である。さらに、駆動部231は、首動作用モータ231−2を駆動して、頭203を矢印Hpで示す方向に例えば±150度の首振り角度だけパン可能であり、矢印Htで示す方向に例えば±30度の頷き角度だけチルト可能である。このように、胴体201の自由度は2、各腕202L,202Rの自由度は1、頭203の自由度は2であるため、ロボット2−1全体の自由度は合計6である。
なお、ロボット2−1の胴動作用モータ231−3またはアクチュエータ、重力キャンセラなどは、土台205内に配置することで、胴体201などを小型化可能である。また、少なくとも制御部22は、土台205内に配置可能である。
背中接触センサ211は、ロボット2−1の胴体201の背中部分に設けられ、頭接触センサ212は、ロボット2−1の頭203に設けられている。マイクロホン213と、人感センサ214と、カメラ215と、タブレット216と、測距センサ217と、温度センサ218とは、いずれも、ロボット2−1側に設けても、土台205側に設けても良い。例えば、カメラ215は、ロボット2−1の頭203の中央部分に配置し、ユーザの顔をトラッキングするようにしても良い。また、マイクロホン213と、人感センサ214と、タブレット216と、測距センサ217と、温度センサ218とは、土台205に配置しても良い。人感センサ214は、例えば土台205の4箇所に、例えばロボット2−3の前後左右の4方向に沿って人を感知できるように配置しても良い。なお、ロボット2−1とGW4とをケーブルで接続する場合には、例えば土台205の背面などからケーブルを引き出しても良い。
ロボット2−1の胴体201の下部は、設置面205A上の支点205Bで支持されており、矢印Bpで示す方向にパン可能であり、矢印Btで示す方向にチルト可能である。胴体201のチルトにより、ロボット2−1にオーバーアクションを行わせることができる。つまり、胴体201の支点205Bに対するチルトと、一対の腕202L,202R及び頭203のうち少なくとも一方の動きとの組み合わせにより、身振りを含む非言語反応で感情表現などの表現を行うことができる。また、非言語反応は、スピーカ232からの音声出力及びLED333のオンまたはオフのうち、少なくとも一方とのさらなる組み合わせであっても良い。
図4は、ロボットの機能構成の第1の例を示す機能ブロック図である。図4に示すロボット2−1は、人及び環境検知部51と、表現決定部52−1と、表現実行部53とを有する。人及び環境検知部51は、顔トラッキング機能511と、個人情報検知機能512と、接触検知機能513と、ユーザ意思検知機能514と、ユーザ存在検知機能515と、距離検知機能516と、環境検知機能517とを有する。
顔トラッキング機能511は、カメラ215が撮影したユーザの顔をトラッキングするCPU221の機能である。個人情報検知機能512は、マイクロホン213が検知したユーザの音声入力、または、タブレット216が検知したユーザの手動入力から、ユーザの個人情報を検知するCPU221の機能である。ビーコン通信部25が、センサビーコン3から送信されるビーコンIDを受信するGW4の個人情報DB42の内容を受信してメモリ222に格納している場合には、個人情報検知機能512は、ユーザの音声入力または手動入力に応じてメモリ222内の個人情報を参照することで、ユーザの個人情報を検知できる。接触検知機能513は、背中接触センサ211、頭接触センサ212、及びタブレット216のうち、少なくとも1つがユーザによる接触(即ち、タッチ)を検知すると、ユーザがロボット2−1と接触(即ち、タッチ)したことを検知するCPU221の機能である。ユーザ意思検知機能514は、マイクロホン213が検知したユーザの音声入力、または、タブレット216が検知したユーザの手動入力から、ユーザの意思(または、ユーザ距離)を検知するCPU221の機能である。ユーザ意思検知機能514は、音声入力の発話内容を認識する周知の音声認識機能を含んでも良い。一方、手動入力は、ユーザの意思を直接ロボット2−1に入力しても良い。ユーザ存在検知機能515は、人感センサ214がユーザのロボット2−1への接近を検知すると、ユーザの存在を検知するCPU221の機能である。距離検知機能516は、測距センサ217がロボット2−1へ接近するユーザまでの距離を測定すると、距離を検知するCPU221の機能である。環境検知機能517は、温度センサ218が温度を検知すると、ロボット2−1が設置された環境の温度を検知するCPU221の機能である。
表現決定部52−1は、インタラクション状態推定機能521−1と、表現蓄積機能522−1と、表現選定機能523−1とを有する。表現選定機能523−1は、強調レベル調整機能524−1と、表現順番決定機能525−1とを含む。表現蓄積機能522−1は、ロボット2−1が表現する複数種類の表現内容を蓄積するCPU221の機能であり、身振りを含む非言語反応による感情表現などの表現を含む。表現蓄積機能522−1は、例えば基本的なビヘイビアテーブル、案内サービスに特化した案内ビヘイビアテーブル242などを含んでも良い。インタラクション状態推定機能521−1は、例えば後述するインタラクション状態推定テーブル241を用いて、ロボット2−1とユーザとの間のインタラクション状態を推定し、人及び環境検知部51が検知した情報に応じた表現内容を決定するCPU221の機能である。表現選定機能523−1は、インタラクション状態推定機能521−1が推定したインタラクション状態に基づき、後述する能動動作テーブル244及び受動動作テーブル245を参照することで、表現蓄積機能522−1が蓄積する複数種類の表現内容から、ロボット2−1の傾き角度を含むロボット2−1の大まかな表現内容を決定するCPU221の機能である。
強調レベル調整機能524−1は、表現選定機能523−1が決定した表現内容を強調する強調レベルを調整するCPU221の機能である。例えば、表現内容がお辞儀の場合、個人情報検知機能512が検知した個人情報に基づいて、例えば図5に示す傾き設定テーブル246を参照することで、胴体201を個人情報に応じた傾きに調整する。図5は、傾き設定テーブルの一例を示す図である。図5に示す例では、ユーザ情報がVIPであると傾きは「大」、一般であると「中」、社員であると「小」に調整される。表現順番決定機能525−1は、表現選定機能523−1が決定した表現内容を、どの順番で行うかを決定するCPU221の機能である。例えば、表現内容がお辞儀の場合、ユーザ意思検知機能514が検知したユーザ距離に基づいて、例えば図6に示す表現順序テーブル247を参照することで、頭203を下げた後で胴体201を傾けるか、或いは、胴体201を傾けた後に頭203を下げるかなどを決定する。図6は、表現順序テーブルの一例を示す図である。図6に示す例では、ユーザ距離がユーザが近づいた場合(近傍に着目)を示すと「胴体の傾きが先、頭の傾きが後」、ユーザがロボット2−1から遠ざかる場合(遠方に着目)を示すと「胴体の傾き及び頭の傾きが同時」、ユーザがロボット2−1にお礼を言う場合(挨拶したい)を示すと「胴体の傾きが後、頭の傾きが先」の表現順序を決定する。
傾き設定テーブル246及び表現順序テーブル247は、例えば表現蓄積部24内に設けても良い。
表現実行部53は、駆動機能531と、光表現機能533と、音声出力機能534とを有する。駆動機能531は、傾き駆動機能532を含む。駆動機能531は、駆動部231により腕動作用モータ231−1と、首動作用モータ231−2と、胴動作用モータ231−3とを駆動して、ロボット2−1の動作を制御することで表現を実行するCPU221の機能である。駆動機能531の傾き駆動機能532は、胴体201の傾き及び頭203の傾きを制御する。光表現機能533は、LED233のオンまたはオフを制御して、発光の有無及び発光色により表現を実行するCPU221の機能である。音声出力機能534は、スピーカ232からの音声出力を制御して、音声出力により表現を実行するCPU221の機能である。光表現機能533によるLED233を用いた表現と、音声出力機能534によるスピーカ232からの音声出力を用いた表現とは、傾き駆動機能532による胴体201、腕202L,202R、及び頭203の動きを用いた表現と連動している。
図7、図8、及び図12は、ロボットの動作の一例を説明するフローチャートである。図7において、ステップS1〜S8,S11〜S14の処理は、ロボット2−1のCPU221により実行可能である。図7に示すステップS1では、CPU221が、ロボット2−1が設置された環境に関する環境データを取得する。例えば、環境設定ST1は、予め定義または設定されていても良い。図7に示す例では、環境設定ST1は、グローバル変数定義S111と、検知機能変数定義S112と、近傍指示対象の音声定義S113と、遠方指示対象の音声定義S114と、案内サービス設定(Guide=0または1)S115とを含む。
ステップS2では、CPU221が、グローバル変数を初期化し、ステップS3では、CPU221が、検知変数を初期化する。ステップS4では、CPU221が、タイマフラグをオン(ON)にして、ステップS5では、CPU221が、割り込み設定をF=0にリセットする。ここで、Fは、人感センサ214(或いは、ユーザ存在検知機能515)がロボット2−1の近傍でユーザを検知した場合にF=1に設定される実行フラグを表す。ステップS6では、CPU221が、F=1であるか否かを判定し、判定結果がYESであると処理はステップS7へ進み、判定結果がNOであると処理はステップS8へ進む。ステップS7では、CPU221が、ユーザタスクを実行し、処理は一方ではステップS8へ進み、他方では図8に示すステップS21へ進む。ステップS8では、CPU221が、タイマフラグをオフ(OFF)にし、処理はステップS5へ戻る。
タイマ処理は、ステップS11〜S14を含む。ステップS11では、CPU221が、タイマフラグをONにし、ステップS12では、CPU221が、ロボット2−1近傍のユーザの存在を検知する。ステップS13では、CPU221が実行フラグFをF=1に設定する。ステップS14では、CPU221が、タイマフラグをOFFとし、処理はステップS6へ進む。
図8において、ステップS21〜S43の処理は、ロボット2−1のCPU221により実行可能である。図8に示すステップS21では、CPU221が、ユーザタスクの実行をスタートさせる。ステップS22では、CPU221が、ADC223を初期化し、ステップS23では、CPU221が、検知部21の各センサ211〜218の検知情報を取得する。ステップS24では、CPU221が、各センサ211〜218の検知情報を入力として、インタラクション状態推定テーブル241を参照することで、出力する表現の種類を示す状態推定データを取得する。図9は、インタラクション状態推定テーブルの一例を示す図である。図9中、○印は該当する表現の項目を示し、シーンはロボット2−1とユーザとの間のインタラクション状態の一例を示す。ステップS25では、CPU221が、Guide=1であるか否かを判定し、判定結果がYESであると処理はステップS26へ進み、判定結果がNOであると処理はステップS27へ進む。
ステップS26では、CPU221が、各センサ211〜218の検知情報を入力として、案内ビヘイビアテーブル242を参照することで、案内シーンでの表現の種類を示す案内日へビヘイビアデータを取得する。この例では、案内ビヘイビアテーブル242は、図9に示すインタラクション状態推定テーブル241に含まれる。ステップS27では、CPU221が、状態推定データと、案内ビヘイビアデータとを照合し、ステップS28では、CPU221が、照合により表現の種類が決定したか否かを判定する。ステップS28の判定結果がNOであると処理はステップS24へ戻り、判定結果がYESであると処理はステップS29へ進む。
ステップS29では、CPU221が、決定した表現の種類が能動表現であるか否かを判定し、判定結果がYESであると処理はステップS30へ進み、判定結果がNOであると処理は後述するステップS37へ進む。ステップS30では、CPU221が、各センサ211〜218の検知情報を入力として、図10に示す能動動作テーブル244を参照することで、能動動作を表すアクションデータを取得する。図10は、能動動作テーブルの一例を示す図である。図10は、頭チルト、頭パン、右腕、左腕、胴チルト、胴パンなどの能動動作が、近傍指示、遠方指示、お辞儀、考え中または迷い、主張、人によって態度を変える、つっこみ(を入れる)、応援などを表現する例を示す。
ステップS33では、CPU221が、ID_flag=1であるか否かを判定し、判定結果がYESであると処理はステップS34へ進む、判定結果がNOであると処理はステップS31へ進む。ステップS31では、CPU221が、マイクロホン213またはタブレット216(或いは、個人情報検知機能512)により検知したユーザIDを取得する。ステップS32では、CPU221が、ID_flag=1に設定し、処理はステップS33へ進む。
ステップS34では、CPU221が、ユーザIDを入力として、個人情報DB248を参照することで、個人情報データを取得する。個人情報DB248は、例えばメモリ222内に設けても、表現蓄積部24内に設けても良い。
ステップS35では、CPU221が、ユーザ情報を表す個人情報データを入力として、図5に示す傾き設定テーブル246を参照することで、ユーザ情報に合わせた傾きの強調レベルを表す強調レベルデータを取得する。ステップS36では、CPU221が、傾きの強調レベルが決定したか否かを判定し、判定結果がNOであると処理はステップS34へ戻り、判定結果がYESであると処理はステップS41へ進む。
一方、ステップS37では、CPU221が、決定した表現の種類が受動表現であるか否かを判定し、判定結果がYESであると処理はステップS38へ進み、判定結果がNOであると処理は後述するステップS24へ戻る。ステップS38では、CPU221が、各センサ211〜218の検知情報を入力として、図11に示す受動動作テーブル245を参照することで、受動動作を表すアクションデータを取得する。図11は、受動動作テーブルの一例を示す図である。図11は、頭チルト、頭パン、右腕、左腕、胴チルト、胴パンなどの受動動作が、驚き、喜び、落胆、恥、疑問、怒り、退屈などを表現する例を示す。ステップS38の後、処理はステップS33へ進む。
一方、ステップS39では、CPU221が、測距センサ217(或いは、距離検知機能516)により検知した距離を取得する。ステップS40では、CPU221が、距離XをX=0にリセットし、処理はステップS41へ進む。ステップS41では、CPU221が、X>1000であるか否かを判定し、判定結果がNOであると処理はステップS39へ戻り、判定結果がYESであると処理はステップS42へ進む。
ステップS42では、CPU221が、ユーザ距離を入力として、図6に示す表現順序テーブル247を参照することで、ロボット2−1の各部の表現の順序を表す表現順序データを取得する。ステップS43では、CPU221が、表現順序データが決定したか否かを判定し、判定結果がNOであると処理はステップS42へ戻り、判定結果がYESであると処理は図12の処理へ進む。
図12において、ステップS51〜S56の処理は、ロボット2−1のCPU221により実行可能である。ステップS51,S52,S54の処理は、並行して実行可能である。ステップS51では、CPU221が、駆動部231(或いは、駆動機能531)に各モータ231−1,231−2,231−3への制御を指示し、処理はステップS56へ進む。ステップS52では、CPU221が、図13に示すLED表現テーブル601を参照することで、驚き、喜び、落胆などの表現に応じてオンまたはオフに制御する赤(R)、緑(G)、及び青(B)のLED233のLED表現パターンを取得する。図13は、LED表現テーブルの一例を示す図である。図13は、赤(R)、緑(G)、及び青(B)のLED233の出力が驚き、喜び、及び落胆を表現する例を示す。図13中、◎印は、該当する表現の項目を示す。ステップS53では、CPU221が、取得したLED表現パターンデータに応じたLED233の制御を指示し、処理はステップS56へ進む。
ステップS54では、CPU221が、図14に示す音声表現テーブル602を参照することで、驚き、喜び、落胆などの表現に応じてスピーカ232から出力する音声データを取得する。この例では、音声データは、例えばブザー音などである。図14は、音声表現テーブルの一例を示す図である。図14は、スピーカ232からの高音、中音、及び低音の音声出力が驚き、喜び、及び落胆を表現する例を示す。図14中、◎印は、該当する表現の項目を示す。ステップS55では、CPU221が、取得した音声データをスピーカ232へ出力する制御を指示し、処理はステップS56へ進む。
ステップS56では、CPU221が、駆動部231、LED233、及びスピーカ232に対する制御の指示に基づくタスクを実行し、処理は図7に示すステップS1へ戻る。ステップS51,S52,S54の処理は、並行して実行可能であるため、LED233を用いた表現と、スピーカ232からの音声出力を用いた表現とは、胴体201、腕202L,202R、及び頭203の動きを用いた表現と連動している。
図15は、一実施例におけるロボットの動作の一例を説明するフローチャートである。図15に示すステップS101〜S107の処理は、例えばロボット2−1のCPU221により実行可能である。図15は、図4に示す各機能と対応させたCPU221の処理を示す。
図15において、ステップS101では、CPU221が、人及び環境検知部51により、ユーザとロボット2−1との接触を示す接触情報と、ユーザの意思とを取得する。具体的には、接触検知機能513が、背中接触センサ211、頭接触センサ212、及びタブレット216のうち、少なくとも1つがユーザによる接触(即ち、タッチ)を検知すると、ユーザがロボット2−1と接触(即ち、タッチ)したことを検知すると、接触を示す接触情報を取得する。また、ユーザ意思検知機能514が、マイクロホン213が検知したユーザの音声入力、または、タブレット216が検知したユーザの手動入力を検知すると、ユーザの意思(または、ユーザ距離)を取得する。
ステップS102では、CPU221が、表現決定部52−1のインタラクション状態推定機能521−1により、取得した接触情報及びユーザの意思に応じてインタラクション状態を推定し、ロボット2−1がどのような表現をするかをインタラクション状態推定テーブル241を用いて推定する。
ステップS103では、CPU221が、表現蓄積機能522−1により案内ビヘイビアテーブル242などに蓄積された、ロボット2−1が表現する複数種類の表現内容を参照する。また、ステップS103では、CPU221が、表現選定機能523−1により、インタラクション状態推定機能521−1が推定したインタラクション状態に基づき、能動動作テーブル244及び受動動作テーブル245を参照することで、ロボット2−1の傾き角度を含む、遠方指示、近傍指示などの、ロボット2−1の大まかな表現内容を決定する。
ステップS104では、CPU221が、表現選定機能523−1の強調レベル調整機能524−1により、表現選定機能523−1が決定した表現内容を強調する強調レベルを調整する。例えば、表現内容がお辞儀の場合、個人情報検知機能512が検知した個人情報に基づいて、傾き設定テーブル246を参照することで、胴体201を個人情報に応じた傾きに調整する。
ステップS105では、CPU221が、表現順番決定機能525−1により、表現選定機能523−1が決定した表現内容を、どの順番で行うかを決定する。例えば、表現内容がお辞儀の場合、ユーザ意思検知機能514が検知したユーザ距離に基づいて、表現順序テーブル247を参照することで、頭203を下げた後で胴体201を傾けるか、或いは、胴体201を傾けた後に頭203を下げるかなどを決定する。
ステップS106では、CPU221が、表現実行部53の駆動機能531内の傾き駆動機能532により、決定された表現内容の順番に応じて、胴体201の傾き及び頭203の傾きを制御する。
ステップS107では、CPU221が、光表現機能533によるLED233を用いた表現と、音声出力機能534によるスピーカ232からの音声出力を用いた表現とを、傾き駆動機能532による胴体201、腕202L,202R、及び頭203の動きを用いた表現と連動して行い、処理は終了する。
次に、身振りを含む非言語反応で感情表現などの表現を行う例について、図16乃至図18と共に説明する。身振りを含む非言語反応で感情表現などの表現を行う場合、ブザー音などの音声出力を行っても良いが、この例では説明の便宜上、言語による感情表現などの表現は行わないものとする。また、身振りを含む非言語反応で感情表現などの表現を行う場合、発光の有無及び発光色による光表現を行っても良い。音声出力による感情表現などの表現及び光表現による感情表現などの表現のうち、少なくとも一方は、身振りを含む非言語反応と連動していても良い。
なお、ロボットは、コミュニケーションロボットとして機能しても良い。コミュニケーションロボットの場合、ユーザとの対話を可能とする、周知の対話機能を設けて、上記非言語反応と並行して言語による感情表現などの表現を行っても良いことは、言うまでもない。
図16は、ロボットのお辞儀の一例を示す斜視図である。図10の能動動作テーブル244に示すように、お辞儀をする場合、頭チルトは下向き、頭パンは正面、右腕は下向き、左腕は下向き、胴チルトは前傾、胴パンは正面となるようにロボット2−1の各モータ231−1〜231−3が駆動される。これにより、人型のロボットのような複雑な構成及び複雑な制御を行うことなく、図16に示すように、ユーザから見て容易にお辞儀と認識できる動作をロボット2−1に行わせることができる。また、図5の傾き設定テーブル246を用いて、表現内容を強調する強調レベルを調整することもできる。この場合、ユーザ情報に応じて胴チルトの傾きを変えることで、例えばユーザに合わせた気軽なお辞儀や、丁寧なお辞儀などをロボット2−1に行わせることもできる。さらに、表現順序テーブル247を用いて、ユーザ距離に応じてロボット2−1の各部による表現の順序を決定することもできる。
図17は、ロボットの驚きの一例を示す斜視図である。図11の受動動作テーブル245に示すように、驚きを表現する場合、頭チルトは上向き、頭パンは無し(−)、右腕は上向き、左腕は上向き、胴チルトは仰け反り、胴パンは無し(−)となるようにロボット2−1の各モータ231−1〜231−3が駆動される。この場合も、表現内容を強調する強調レベルを調整して、驚きの度合が増える程、例えば胴チルトの傾きを大きくするようにしても良い。また、図13のLED表現テーブル601を用いて赤のLED233をオンにして驚きを表現したり、図14の音声表現テーブル602を用いてスピーカ232から高音の音声出力を行うことで驚きを表現したりすることもできる。
図18は、ロボットの落胆の一例を示す斜視図である。図11の受動動作テーブル245に示すように、落胆を表現する場合、頭チルトは下向き、頭パンは無し(−)、右腕は前向き、左腕は前向き、胴チルトは前傾、胴パンは無し(−)となるようにロボット2−1の各モータ231−1〜231−3が駆動される。この場合も、表現内容を強調する強調レベルを調整して、落胆の度合が増える程、例えば胴チルトの傾きを大きくするようにしても良い。また、図13のLED表現テーブル601を用いて青のLED233をオンにして落胆を表現したり、図14の音声表現テーブル602を用いてスピーカ232から低音の音声出力を行うことで落胆を表現したりすることもできる。
このように、ロボット2−1は、特に胴体201のチルトにより、オーバーアクションを行うことができるので、腕202L,202Rの上下動及び頭203のパン及びチルトと組み合わせることで、ユーザが認識し易い感情表現を行うことができる。
なお、ロボット2−1は、感情表現の他に、近くを指し示す、遠くを指し示すなどの案内表現を行うこともできる。この場合も、特に胴体201のチルトにより、オーバーアクションを行うことができるので、腕202L,202Rの上下動及び頭203のパン及びチルトと組み合わせることで、ユーザが認識し易い案内表現を行い、ユーザとのインタラクションを円滑にすることができる。例えば、方向を指示する案内表現の場合、一方の腕202Lのみで方向を示すよりも、胴体201を傾けてオーバーアクションを伴う方が、ユーザには注目され易く、且つ、認識され易い。
また、感情表現または案内表現を行う際、ロボット2−1が、ユーザの印象に残る動きをすることで、ロボット2−1からのサービス提供を支援することもできる。さらに、ロボット2−1がオーバーアクションを行うことで、ユーザがロボット2−1をより身近に感じるような心理的な効果も得られる。例えば、ロボット2−1からの距離が遠いユーザであっても、当該ユーザに向かってロボット2−1の胴体201を傾けることで、この例では図9のインタラクション状態推定テーブル241に含まれる心理ビヘイビアテーブル243で心理表現シーンの心理表現が高親和性の場合のように、ユーザとロボット2−1との間で親和性のあるインタラクションが可能となる。
図19は、ロボットの機能構成の第2の例を示す機能ブロック図である。図19中、図4と同一部分には同一符号を付し、その説明は省略する。図19に示すロボット2−2の表現決定部52−2は、インタラクション状態推定機能521−2と、表現蓄積機能522−2と、表現選定機能523−2と、強調レベル調整機能524−2と、表現順番決定機能525−2とを有する。
インタラクション状態推定機能521−2は、例えばインタラクション状態推定テーブル241を用いて、ロボット2−2とユーザとの間のインタラクション状態を推定し、人及び環境検知部51の顔トラッキング機能511、接触検知機能513、ユーザ意思検知機能514、ユーザ存在検知機能515、及び環境検知機能517が検知した情報に応じた表現内容を決定するCPU221の機能である。表現蓄積機能522−2は、ロボット2−2が表現する複数種類の表現内容を蓄積するCPU221の機能であり、身振りを含む非言語反応による感情表現などの表現を含む。
強調レベル調整機能524−2は、人及び環境検知部51の個人情報検知機能512が検知した個人情報に応じて、表現選定機能523−2が決定した表現内容を強調する強調レベルを調整するCPU221の機能である。例えば、表現内容がお辞儀の場合、個人情報検知機能512が検知した個人情報に基づいて、傾き設定テーブル246を参照することで、胴体201を個人情報に応じた傾きに調整する。
表現順番決定機能525−2は、人及び環境検知部51の距離検知機能516が検知した距離情報に応じて、表現選定機能523−2が決定した表現内容を、どの順番で行うかを決定するCPU221の機能である。例えば、表現内容がお辞儀の場合、ユーザ意思検知機能514が検知したユーザ距離に基づいて、表現順序テーブル247を参照することで、頭203を下げた後で胴体201を傾けるか、或いは、胴体201を傾けた後に頭203を下げるかなどを決定する。
表現選定機能523−2は、インタラクション状態推定機能521−2が推定したインタラクション状態に基づき、能動動作テーブル244及び受動動作テーブル245を参照することで、表現蓄積機能522−2が蓄積する複数種類の表現内容から、ロボット2−2の傾き角度を含むロボット2−2の大まかな表現内容を決定するCPU221の機能である。
上記の各実施例によれば、少ない動作の自由度の身振りで多種の感情表現などの表現を行うことが可能となる。特に胴体のチルトにより、オーバーアクションを行うことができるので、腕の上下動及び頭のパン及びチルトと組み合わせることで、ユーザが認識し易い感情表現などの表現を行うことができる。また、ロボットの構成が比較的簡単であるため、サイズ及びコストを低減可能である。
以上、開示のロボットを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。
1 システム
2−1,2−2 ロボット
3 センサビーコン
4 GW
21 検知部
22 制御部
23 表現部
24 表現蓄積部
221 CPU
231 駆動部
232 スピーカ
233 LED

Claims (8)

  1. 身振りを含む非言語反応で表現を行うロボットであって、
    設置面上の支点に対してパン及びチルト可能に設けられた下部を有する胴体と、
    前記胴体の側部に上下動可能に設けられた一対の腕と、
    前記胴体の上部にパン及びチルト可能に設けられた頭と、
    前記胴体、前記一対の腕、及び前記頭を駆動する駆動部と、
    ユーザまでの距離を検知する第1の検知部と、
    前記距離に応じて駆動パターンと、前記駆動パターンによる表現を行う順番とを決定し、決定した前記駆動パターン及び前記順番前記胴体と、前記一対の腕及び前記頭のうち少なくとも一方とを駆動するように前記駆動部を制御する制御部と、
    を備え、
    前記非言語反応は、前記駆動パターンに対応する、前記胴体の前記支点に対するチルトと、前記一対の腕及び前記頭のうち少なくとも一方の動きとの組み合わせであることを特徴とする、ロボット。
  2. 前記頭に設けられた光源をさらに備え、
    前記非言語反応は、前記光源のオンまたはオフとのさらなる組み合わせであることを特徴とする、請求項1記載のロボット。
  3. 前記光源は、異なる複数の色の光源を含み、
    前記非言語反応は、前記異なる複数の色の光源のオンまたはオフとのさらなる組み合わせであることを特徴とする、請求項2記載のロボット。
  4. スピーカをさらに備え、
    前記非言語反応は、前記スピーカからの音声出力とのさらなる組み合わせであることを特徴とする、請求項1乃至3のいずれか1項記載のロボット。
  5. ユーザと前記ロボットとの接触を示す接触情報と、前記ユーザの意思とを含む検知情報を検知する第2の検知部と、
    前記表現を行うための前記胴体、前記一対の腕、及び前記頭の駆動パターンを蓄積する表現蓄積部と、
    をさらに備え、
    前記制御部は、前記検知情報に応じて駆動パターンを決定し、決定した駆動パターンで前記駆動部を制御する
    ことを特徴とする、請求項1乃至4のいずれか1項記載のロボット。
  6. 前記制御部は、前記決定した駆動パターンによる表現を強調する強調レベルを調整する手段を有し、前記胴体の前記設置面に対する傾きを前記強調レベルに応じて増やすように前記胴体の駆動部を制御することを特徴とする、請求項5記載のロボット。
  7. 前記第2の検知部は、
    前記接触情報を検知する接触センサ及びタブレットのうち、少なくとも一方と、
    前記ユーザの意思を検知するマイクロホン及び前記タブレットのうち少なくとも一方と、
    を有することを特徴とする、請求項5又は6項記載のロボット。
  8. 前記設置面を有する箱状の土台をさらに備え、
    前記制御部は、前記箱状の土台内に配置されていることを特徴とする、請求項5乃至のいずれか1項記載のロボット。
JP2018514070A 2016-04-28 2016-04-28 ロボット Active JP6747506B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/063438 WO2017187620A1 (ja) 2016-04-28 2016-04-28 ロボット

Publications (2)

Publication Number Publication Date
JPWO2017187620A1 JPWO2017187620A1 (ja) 2018-11-22
JP6747506B2 true JP6747506B2 (ja) 2020-08-26

Family

ID=60160213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514070A Active JP6747506B2 (ja) 2016-04-28 2016-04-28 ロボット

Country Status (5)

Country Link
US (1) US11331808B2 (ja)
EP (1) EP3450118A4 (ja)
JP (1) JP6747506B2 (ja)
CN (1) CN109070356B (ja)
WO (1) WO2017187620A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2567586A (en) * 2016-07-20 2019-04-17 Groove X Inc Autonmous-behavior-type robot that understands emotional communication through physical contact
KR102024087B1 (ko) * 2017-03-31 2019-09-23 엘지전자 주식회사 커뮤니케이션 로봇
US10970527B2 (en) * 2017-09-01 2021-04-06 Digital Dream Labs, Llc Robot attention detection
US20220055224A1 (en) * 2018-11-05 2022-02-24 DMAI, Inc. Configurable and Interactive Robotic Systems
JP7300335B2 (ja) * 2019-07-17 2023-06-29 日本信号株式会社 案内ロボット及び案内ロボット用のプログラム
CN114347061A (zh) * 2022-01-24 2022-04-15 美的集团(上海)有限公司 机器人的氛围灯设置方法、设置装置及机器人

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63160900U (ja) * 1987-04-10 1988-10-20
JPH06233871A (ja) * 1993-02-05 1994-08-23 Kokoro:Kk サービスロボット
JPH07222873A (ja) * 1994-02-16 1995-08-22 Yamasan:Kk 可動象形体付き置物及びその象形体
CN2199853Y (zh) * 1994-06-18 1995-06-07 四川乾坤高新技术研究院 礼仪机器人
US6529802B1 (en) * 1998-06-23 2003-03-04 Sony Corporation Robot and information processing system
US6458011B1 (en) 1999-05-10 2002-10-01 Sony Corporation Robot device
JP3277500B2 (ja) * 1999-05-10 2002-04-22 ソニー株式会社 ロボット装置
JP2001191276A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装
JP2002154081A (ja) * 2000-11-16 2002-05-28 Nec Access Technica Ltd ロボットならびにその表情表現方法および段差と持ち上げ状態の検出方法
JP2003266350A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置及び内部状態表出装置
JP2004160630A (ja) * 2002-09-27 2004-06-10 Sony Corp ロボット装置及びその制御方法
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP3963162B2 (ja) * 2003-08-28 2007-08-22 ソニー株式会社 ロボット装置及びロボット装置の制御方法ロボット装置
JP2005335001A (ja) * 2004-05-26 2005-12-08 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP5120745B2 (ja) * 2005-03-10 2013-01-16 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP2007125629A (ja) 2005-11-01 2007-05-24 Sony Corp ロボット装置及びその行動制御方法
JP2008049421A (ja) * 2006-08-23 2008-03-06 Advanced Telecommunication Research Institute International ロボットアームおよびそれを備えるロボット
CN201505454U (zh) * 2009-09-18 2010-06-16 俞瑞霞 玩具机芯
CN101661569B (zh) * 2009-09-18 2013-03-27 北京科技大学 一种智能情感机器人多模态行为关联表达系统
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
CN104898652B (zh) * 2011-01-28 2018-03-13 英塔茨科技公司 与一个可移动的远程机器人相互交流
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
JP2013151045A (ja) * 2012-01-25 2013-08-08 Toshiba Tec Corp 情報処理装置及びプログラム
FR2989209B1 (fr) * 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
JP2013237124A (ja) * 2012-05-15 2013-11-28 Fujitsu Ltd 端末装置、情報提供方法及びプログラム
KR101190660B1 (ko) * 2012-07-23 2012-10-15 (주) 퓨처로봇 로봇 제어 시나리오 생성 방법 및 장치
CN103845899A (zh) * 2012-12-05 2014-06-11 上海市浦东新区知识产权保护协会 一种太阳能驱动机器狗
JP6040745B2 (ja) 2012-12-11 2016-12-07 富士通株式会社 情報処理装置、情報処理方法、情報処理プログラム及びコンテンツ提供システム
CN103280126A (zh) * 2013-05-14 2013-09-04 郑州英博锐电子技术有限公司 一种智能互动早教系统
CN203765626U (zh) * 2013-12-30 2014-08-13 长沙市岳麓区迪艾玩机器人科技有限公司 迎宾智能机器人
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
JP3192150U (ja) 2014-05-19 2014-07-31 株式会社リュウコドウ 置物
US20160121487A1 (en) * 2014-11-03 2016-05-05 Qualcomm Incorporated Communicating Configurable Instruction Sets to Robots for Controlling Robot Behavior
CN204248895U (zh) * 2014-11-27 2015-04-08 国家康复辅具研究中心 一种宠物型陪护机器人及系统
JP6530906B2 (ja) * 2014-11-28 2019-06-12 マッスル株式会社 パートナーロボットおよびその遠隔制御システム
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
CN105415379A (zh) * 2015-12-03 2016-03-23 昆山穿山甲机器人有限公司 仿真迎宾机器人

Also Published As

Publication number Publication date
EP3450118A1 (en) 2019-03-06
US20190054626A1 (en) 2019-02-21
WO2017187620A1 (ja) 2017-11-02
CN109070356B (zh) 2022-06-28
EP3450118A4 (en) 2019-04-10
CN109070356A (zh) 2018-12-21
US11331808B2 (en) 2022-05-17
JPWO2017187620A1 (ja) 2018-11-22

Similar Documents

Publication Publication Date Title
JP6747506B2 (ja) ロボット
Shigemi et al. ASIMO and humanoid robot research at Honda
US8010231B2 (en) Communication robot
US11491661B2 (en) Communication robot and control program of communication robot
US7653458B2 (en) Robot device, movement method of robot device, and program
US9873200B2 (en) Personal robot
JP5429462B2 (ja) コミュニケーションロボット
US9662788B2 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
US11474499B2 (en) Communication robot and control program of communication robot
JP2007216363A (ja) コミュニケーションロボット
JP2010231470A (ja) 情報提供システム
JP4373903B2 (ja) 自律移動ロボット
JP2006272471A (ja) コミュニケーションロボット
JP2015066624A (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP6134894B2 (ja) ロボット制御システムおよびロボット
JP2017170568A (ja) サービス提供ロボットシステム
JP2007160427A (ja) ロボット制御システム
JP6142306B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP5115886B2 (ja) 道案内ロボット
KR102301763B1 (ko) 이동로봇을 제어하기 위한 시스템 및 방법
JP2021064299A (ja) 制御システム、端末装置、制御方法及びコンピュータプログラム
Nieuwenhuisen et al. Intuitive multimodal interaction for domestic service robots
JP7258438B2 (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
Tang The development of a human-robot interface for industrial collaborative system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R150 Certificate of patent or registration of utility model

Ref document number: 6747506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150