JP2018051701A - コミュニケーション装置 - Google Patents

コミュニケーション装置 Download PDF

Info

Publication number
JP2018051701A
JP2018051701A JP2016191838A JP2016191838A JP2018051701A JP 2018051701 A JP2018051701 A JP 2018051701A JP 2016191838 A JP2016191838 A JP 2016191838A JP 2016191838 A JP2016191838 A JP 2016191838A JP 2018051701 A JP2018051701 A JP 2018051701A
Authority
JP
Japan
Prior art keywords
gesture
user
face
obstacle
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016191838A
Other languages
English (en)
Other versions
JP6565853B2 (ja
Inventor
加来 航
Ko Kako
航 加来
真太郎 吉澤
Shintaro Yoshizawa
真太郎 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016191838A priority Critical patent/JP6565853B2/ja
Priority to US15/710,284 priority patent/US10576633B2/en
Priority to EP17192546.4A priority patent/EP3300841B1/en
Publication of JP2018051701A publication Critical patent/JP2018051701A/ja
Application granted granted Critical
Publication of JP6565853B2 publication Critical patent/JP6565853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39088Inhibit movement in one axis if collision danger
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39091Avoid collision with moving obstacles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40411Robot assists human in non-industrial environment like home or office
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45007Toy

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】構造体の顔部に対するユーザの向きを考慮した自然なコミュニケーション行動を行うことが可能なコミュニケーション装置を提供する。
【解決手段】コミュニケーション装置1は、構造体2と制御装置100とを有する。構造体2は、頭部4と胴体部6と腕部8といった構成部位を有する。構造体2の頭部4の正面には、構造体2の構成部位である顔部20が設けられている。構造体2は、構造体2の周囲の物体の相対的な位置を検出するセンサとしてカメラ32とマイク34と距離センサ40とを有する。制御装置100は、構造体2の各構成部位の動作を制御することによって、コミュニケーション行動を表現するジェスチャを構造体2に行わせる。制御装置100は、顔部20が向く方向と顔部20から見たユーザの顔の方向とのなす角度に応じて異なるジェスチャを構造体2に行わせるように、構成部位の動作を制御する。
【選択図】図1

Description

本発明はコミュニケーション装置に関し、特に、ユーザとコミュニケーションを行うコミュニケーション装置に関する。
ジェスチャ及び発話等によってユーザと自律的にコミュニケーションを行うコミュニケーション装置(コミュニケーションロボット)が知られている。この技術に関連し、特許文献1は、人間との間で、身振り手振りのようなジェスチャ(身体動作)および音声の少なくとも一方を含むコミュニケーション行動を実行するコミュニケーションロボットを開示している。
特許文献1にかかるコミュニケーションロボットは、人間の質問に応じて選択された1の領域の大きさに応じて、身体動作を決定する。また、特許文献1にかかるコミュニケーションロボットは、前記選択された1の領域と、自身と、人間との位置関係に応じて、音声の内容を決定する。また、特許文献1にかかるコミュニケーションロボットは、胴体と、左右の腕と、頭部とを有する。頭部には、人の口に相当する位置にスピーカが設けられ、人の耳に相当する位置にマイクが設けられ、人の目に相当する位置にカメラを含む眼球部が設けられる。
特開2013−239209号公報
コミュニケーションロボットが周囲の状況に応じた動作を行うことによって、ユーザに安心感を与える。一方、コミュニケーションを取る相手(ユーザ)がロボット(構造体)の頭部の正面側(顔部)に存在するか否かに関わらず、ロボットが同じジェスチャを行うと、ユーザに対して無機質な印象を与えるおそれがある。したがって、ユーザはコミュニケーションロボットと自然なコミュニケーションを行っていないと感じるおそれがある。したがって、コミュニケーションロボット(構造体)に対するユーザの向きを考慮したジェスチャを行うことが望まれる。
本発明は、構造体の顔部に対するユーザの向きを考慮した自然なコミュニケーション行動を行うことが可能なコミュニケーション装置を提供するものである。
本発明にかかるコミュニケーション装置は、ユーザに対してコミュニケーション行動を行うコミュニケーション装置であって、複数の構成部位から構成され、顔を構成する部位に対応する構成部位を少なくとも1つ備える顔部を有する構造体と、前記構成部位の動作を制御することによって、前記コミュニケーション行動を表現するジェスチャを前記構造体に行わせる制御手段と、前記構造体の周囲の物体の、前記構造体に対する相対的な位置を検出する検出手段とを有し、前記検出手段は、ユーザの顔の位置を検出し、前記制御手段は、前記顔部が向く方向と前記顔部から見た前記ユーザの顔の方向とのなす角度に応じて異なるジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する。
本発明は、上記のように構成されていることによって、構造体に対するユーザの方向に応じて、ジェスチャを変更することができる。これにより、構造体は、ユーザの方向を考慮してコミュニケーションを行っていることを表現できるので、ユーザに対して無機質な印象を与えることを抑制することができる。したがって、本発明にかかるコミュニケーション装置は、構造体の顔部に対するユーザの向きを考慮した自然なコミュニケーション行動を行うことが可能となる。
また、好ましくは、前記制御手段は、前記角度が予め定められた閾値以上である場合と前記閾値未満である場合とで、異なるジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する。
本発明は、このように構成されていることによって、ユーザが構造体の正面にいる場合といない場合とで異なるジェスチャを行うことが可能となる。したがって、ユーザの方向を考慮してコミュニケーションを行っていることをさらに確実に表現できるので、ユーザに対して無機質な印象を与えることをさらに抑制することができる。したがって、本発明にかかるコミュニケーション装置は、構造体の顔部に対するユーザの向きを考慮した、より自然なコミュニケーション行動を行うことが可能となる。
また、好ましくは、前記角度が前記閾値未満である場合に、前記制御手段は、第1のジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御し、前記角度が前記閾値以上である場合に、前記制御手段は、前記第1のジェスチャよりも前記構成部位の動作範囲の大きな第2のジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する。
本発明は、このように構成されていることによって、ユーザが構造体の正面に存在しない場合に、ユーザに対して視認し易いジェスチャを行うことが可能となる。これにより、ユーザの方向を考慮してコミュニケーションを行っていることをさらに確実に表現できるので、ユーザに対して無機質な印象を与えることをさらに抑制することができる。したがって、本発明にかかるコミュニケーション装置は、構造体の顔部に対するユーザの向きを考慮した、より自然なコミュニケーション行動を行うことが可能となる。
また、好ましくは、前記角度が前記閾値未満である場合に、前記制御手段は、第1のジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御し、前記角度が前記閾値以上である場合に、前記制御手段は、前記第1のジェスチャに相当する動作が前記検出されたユーザの顔の位置から視認されやすくなるように、前記第1のジェスチャにおいては動作しない前記構成部位が動作する第2のジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する。
本発明は、このように構成されていることによって、ユーザが構造体の正面に存在しない場合であっても、ジェスチャを表現する構造部位が他の構成部位によって隠れてしまうことを抑制できる。したがって、本発明では、ユーザがジェスチャを視認できなくなることを抑制できる。つまり、本発明では、ジェスチャをユーザに対してより視認し易くなるようにすることが可能となる。これにより、ユーザの方向を考慮してコミュニケーションを行っていることをさらに確実に表現できるので、ユーザに対して無機質な印象を与えることをさらに抑制することができる。したがって、本発明にかかるコミュニケーション装置は、構造体の顔部に対するユーザの向きを考慮した、より自然なコミュニケーション行動を行うことが可能となる。
また、好ましくは、前記制御手段は、前記検出手段によって検出された前記ユーザの顔の一部が障害物によって隠れているか否かに応じて異なるジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する。
本発明は、このように構成されていることによって、障害物によって構造体の行うジェスチャが隠れてしまい、ユーザがジェスチャを視認できなくなることを抑制できる。言い換えると、本発明では、ジェスチャをユーザに対してより視認し易くなるようにすることが可能となる。これにより、障害物を考慮してコミュニケーションを行っていることをさらに確実に表現できるので、ユーザに対して無機質な印象を与えることをさらに抑制することができる。したがって、本発明にかかるコミュニケーション装置は、障害物を考慮した、より自然なコミュニケーション行動を行うことが可能となる。
本発明によれば、構造体の顔部に対するユーザの向きを考慮した自然なコミュニケーション行動を行うことが可能なコミュニケーション装置を提供できる。
実施の形態1にかかるコミュニケーション装置を示す図である。 実施の形態1にかかるコミュニケーション装置のハードウェア構成を示す図である。 実施の形態1にかかる制御装置の構成を示すブロック図である。 実施の形態1にかかる制御装置によって行われる、構造体の制御方法を示すフローチャートである。 実施の形態1にかかる制御装置によって行われる、構造体の制御方法を示すフローチャートである。 実施の形態1にかかる制御装置によって行われる、構造体の制御方法を示すフローチャートである。 実施の形態1にかかる制御装置によって行われる、構造体の制御方法を示すフローチャートである。 ユーザが構造体の正面に存在するか否かを判断する方法について説明するための図である。 実施の形態1にかかる第一ジェスチャの具体例を示す図である。 実施の形態1にかかる第二ジェスチャの1つの具体例を示す図である。 実施の形態2にかかるジェスチャ内容の設定方法を示す図である。 実施の形態2にかかる第一ジェスチャの具体例を示す図である。 実施の形態2にかかる第三ジェスチャの1つの具体例を示す図である。
(実施の形態1)
以下、図面を参照して本発明の実施の形態について説明する。
図1は、実施の形態1にかかるコミュニケーション装置1を示す図である。コミュニケーション装置1は、コミュニケーション装置1の周囲のユーザに対してコミュニケーション行動を行う。コミュニケーション行動とは、ユーザに対して情報及び感情等を伝達するための、ユーザが知覚可能な行動である。具体的には、例えば、コミュニケーション装置1は、周囲の状況又はユーザの発話状況等に応じて、予め定められたジェスチャを行う。また、例えば、コミュニケーション装置1は、周囲の状況又はユーザの発話状況等に応じて、ユーザに対して発話を行うことで、ユーザと会話を行う。
コミュニケーション装置1は、構造体2と、制御装置100とを有する。構造体2は、例えばロボット等の、コミュニケーション行動を表現するものである。制御装置100は、制御手段としての機能を有する。制御装置100は、構造体2の動作を制御する。構造体2は、複数の構成部位から構成されている。構造体2は、頭部4と、胴体部6と、腕部8、基部10といった構成部位を有する。
頭部4は、人間の頭に対応する。胴体部6は、人間の胴体に対応する。腕部8は、人間の腕に対応する。基部10は、地面(床)に接する構成部位であり、胴体部6を支持している。頭部4は、首関節部14を介して胴体部6に支持されている。腕部8は、腕関節部18を介して胴体部6に支持されている。胴体部6は、胴関節部16を介して基部10に支持されている。また、腕部8は、右腕に対応する腕部8Rと、左腕に対応する腕部8Lから構成されている。腕部8Rは、腕関節部18Rを介して胴体部6に支持されている。腕部8Lは、腕関節部18Lを介して胴体部6に支持されている。ここで、便宜上、構造体2の胴体部6の正面から前方に向かう方向(図1の紙面手前方向)を正とするx軸、構造体2の胴体部6から見て腕部8Lの方向(図1の右方向)を正とするy軸、及び、構造体2の胴体部6から見て上方向を正とするz軸から構成される三次元空間を想定する。なお、この三次元空間は、胴体部6を基準としているので、胴体部6の移動に伴って変化し得る。
首関節部14は、制御装置100によって制御される1つ以上のモータ(サーボモータ)を備えており、モータの数に応じた数の軸の周りに回転する。これにより、頭部4は、胴体部6に対して相対的に動作を行う。例えば、首関節部14は、3個のモータを有し、3つの軸の周りにそれぞれ回転するように構成されている。首関節部14がx軸に平行な回転軸の周りに回転すると、頭部4は、首関節部14を中心として左右に傾く(揺動する)ように動作する。首関節部14がy軸に平行な回転軸の周りに回転すると、頭部4は、首関節部14を中心として上下に振る(頷く)ように動作する。首関節部14がz軸に平行な回転軸の周りに回転すると、頭部4は、首関節部14を中心として左右を向く(回転する)ように動作する。
また、腕関節部18は、制御装置100によって制御される1つ以上のモータ(サーボモータ)を備えており、モータの数に応じた数の軸の周りに回転する。これにより、腕部8は、胴体部6に対して相対的に動作を行う。例えば、腕関節部18は、3個のモータを有し、3つの軸の周りにそれぞれ回転するように構成されている。腕関節部18がx軸に平行な回転軸の周りに回転すると、腕部8は、腕関節部18を中心として上下に揺動するように動作する。腕関節部18がy軸に平行な回転軸の周りに回転すると、腕部8は、腕関節部18を中心として腕部8を捻るように動作する。腕関節部18がz軸に平行な回転軸の周りに回転すると、腕部8は、腕関節部18を中心として前後に揺動するように動作する。
また、胴関節部16は、制御装置100によって制御される1つ以上のモータ(サーボモータ)を備えており、モータの数に応じた数の軸の周りに回転する。これにより、胴体部6は、基部10に対して相対的に動作を行う。例えば、胴関節部16は、3個のモータを有し、3つの軸の周りにそれぞれ回転するように構成されている。胴関節部16がx軸に平行な回転軸の周りに回転すると、胴体部6は、胴関節部16を中心として左右に傾く(揺動する)ように動作する。胴関節部16がy軸に平行な回転軸の周りに回転すると、胴体部6は、胴関節部16を中心として上下に傾く(頷く)ように動作する。胴関節部16がz軸に平行な回転軸の周りに回転すると、胴体部6は、胴関節部16を中心として左右を向く(回転する)ように動作する。
また、構造体2の頭部4の正面には、構造体2の構成部位である顔部20が設けられている。顔部20は、人間の顔を構成する部位(目、口等)に対応する構成部位を少なくとも1つ備える。図1に示した例では、顔部20は、人間の目に対応する目部22と、人間の口に対応する口部24とを有する。目部22は、右目に対応する目部22Rと、左目に対応する目部22Lとから構成されている。
また、構造体2は、周囲の物体の撮像を行うカメラ32と、周囲の音声を収集するマイク34と、音声を発するスピーカ36とを有する。例えば、カメラ32、マイク34及びスピーカ36は、顔部20に設けられている。また、構造体2は、周囲の物体までの距離を検出する距離センサ40を有する。本実施の形態において、カメラ32、マイク34及び距離センサ40は、構造体2の周囲の物体の相対的な位置を検出するセンサ(検出手段)として構成されている。ここで、「物体」とは、人(ユーザ)を含む概念である。
距離センサ40は、目部22Rの近傍に設けられた距離センサ40Aと、目部22Lの近傍に設けられた距離センサ40Bと、胴体部6の右側面に設けられた距離センサ40Cと、胴体部6の左側面に設けられた距離センサ40Dとから構成されている。距離センサ40Aは、頭部4の右側に存在する物体の位置を検出する。距離センサ40Bは、頭部4の左側に存在する物体の位置を検出する。距離センサ40Cは、胴体部6の右側(腕部8Rの下側)に存在する物体の位置を検出する。距離センサ40Dは、胴体部6の左側(腕部8Lの下側)に存在する物体の位置を検出する。
なお、カメラ32の数は1つでなくてもよく、複数あってもよい。例えば、カメラ32は、頭部4の正面側(顔部20)だけでなく、頭部4の後側に取り付けられてもよい。これにより、構造体2の全方位について撮像が可能となる。なお、カメラ32が顔部20に1つ設けられている場合であっても、首関節部14がz軸に平行な回転軸の周りに1回転することによって、構造体2の全方位を撮像するようにしてもよい。また、全方位カメラであるカメラ32を頭部4の上端に設けることで、構造体2の全方位を撮像するようにしてもよい。また、カメラ32を目部22R及び目部22Lにそれぞれ設けることによって、これらのカメラ32によって撮像された画像の視差を用いて、物体までの距離を検出してもよい。
制御装置100は、例えばコンピュータとしての機能を有する。制御装置100は、構造体2(ロボット)の内部に搭載されてもよいし、構造体2と有線又は無線を介して通信可能に接続されてもよい。制御装置100は、構造体2の各構成部位の動作を制御することによって、コミュニケーション行動を表現するジェスチャを構造体2に行わせる。つまり、コミュニケーション装置1において、制御装置100はマスタ装置としての機能を有し、構造体2はスレーブ装置としての機能を有する。
図2は、実施の形態1にかかるコミュニケーション装置1のハードウェア構成を示す図である。制御装置100は、首関節部14、腕関節部18、胴関節部16、カメラ32、マイク34、距離センサ40及びスピーカ36と、有線又は無線を介して接続されている。制御装置100は、カメラ32、マイク34及び距離センサ40の少なくとも1つから受け付けた情報から、構造体2に表出させる内容(表出内容)を決定する。そして、制御装置100は、決定された表出内容を表出させるために、首関節部14、腕関節部18、胴関節部16及びスピーカ36の少なくとも1つを制御する。
ここで、「表出内容」とは、コミュニケーション装置1がユーザとコミュニケーションを行うために構造体2がユーザに対して表現(表出)する行動(コミュニケーション行動)である。例えば、「表出内容」は、ジェスチャ及び発話を含む。ジェスチャは、ユーザが視覚によって認識可能な身振り手振りであって、例えば、「腕(腕部8)を振る」、「頭(頭部4)を上下に振る(頷く)」といったものを含む。発話は、ユーザが聴覚により認識可能な言語(又は音)を発することである。
例えば、制御装置100は、表出内容(コミュニケーション行動)が「腕を振る」である場合に、腕関節部18を制御して、腕部8を動作させる。これによって、コミュニケーション装置1は、「腕を振る」という表出内容を表出する。また、例えば、制御装置100は、表出内容(コミュニケーション行動)が「挨拶をする」である場合に、スピーカ36を制御して「こんにちは」という音声を発生させ、首関節部14を制御して頭部4を上下に傾けるようにする。これによって、コミュニケーション装置1は、「挨拶をする」という表出内容を表出する。
また、制御装置100は、ユーザの感情に応じて表出内容(コミュニケーション行動)を決定してもよい。具体的には、制御装置100は、カメラ32を用いてユーザの顔の表情を解析し、その解析結果に応じて表出内容を決定してもよい。さらに、制御装置100は、音声認識を行い、音声認識に応じて表出内容(コミュニケーション行動)を決定してもよい。具体的には、制御装置100は、マイク34を用いてユーザが発した声を検出し、その声のトーン又は発話の内容等を解析する。そして、制御装置100は、解析結果から表出内容を決定してもよい。これにより、コミュニケーション装置1は、ユーザの感情に応じた自然なコミュニケーションを行うことができる。
図3は、実施の形態1にかかる制御装置100の構成を示すブロック図である。制御装置100は、主要なハードウェア構成として、CPU(Central Processing Unit)102と、ROM(Read Only Memory)104と、RAM(Random Access Memory)106とを有する。CPU102は、制御処理及び演算処理等を行う演算装置としての機能を有する。ROM104は、CPU102によって実行される制御プログラム及び演算プログラム等を記憶するための機能を有する。RAM106は、処理データ等を一時的に記憶するための機能を有する。
また、制御装置100は、情報取得部112、表出判断部114、検出処理部116、ジェスチャ内容設定部118、動作量設定部120、障害物補正部122及び動作制御部124(以下、「各構成要素」と称する)を有する。情報取得部112、表出判断部114、検出処理部116、ジェスチャ内容設定部118、動作量設定部120、障害物補正部122及び動作制御部124は、それぞれ、情報取得手段、表出判断手段、検出処理手段、ジェスチャ内容設定手段、動作量設定手段、障害物補正手段及び動作制御手段としての機能を有する。各構成要素は、例えば、CPU102がROM104に記憶されたプログラムを実行することによって実現可能である。また、必要なプログラムを任意の不揮発性記録媒体に記録しておき、必要に応じてインストールするようにしてもよい。なお、各構成要素は、上記のようにソフトウェアによって実現されることに限定されず、何らかの回路素子等のハードウェアによって実現されてもよい。各構成要素の機能については、以下に示すフローチャート(図4〜図7)を用いて説明する。
図4〜図7は、実施の形態1にかかる制御装置100によって行われる、構造体2の制御方法を示すフローチャートである。図4は、制御装置100が構造体2を制御してジェスチャを行わせる方法を示している。図5は、S16の処理の詳細を示す。図6は、S20の処理の詳細を示す。図7は、S30の処理の詳細を示す。
制御装置100は、情報を取得する(ステップS10)。具体的には、情報取得部112は、コミュニケーション行動の表出のタイミングを判断するために必要な情報を取得する。さらに具体的には、例えば、情報取得部112は、マイク34を用いて音声データを取得する。また、例えば、情報取得部112は、カメラ32を用いて撮像された画像データを取得する。例えば、情報取得部112は、距離センサ40を用いて物体までの距離を示す距離情報を取得する。また、例えば、情報取得部112は、構造体2自身の状態を示す構造体情報を取得する。
次に、制御装置100は、コミュニケーション行動の表出を行うか否かを判断する(ステップS12)。具体的には、表出判断部114は、S10の処理で取得された情報を用いて、コミュニケーション行動の表出を行うか否かのタイミングを判断する。表出判断部114がコミュニケーション行動の表出を行わないと判断した場合(S12のNO)、処理はS10に戻る。一方、表出判断部114がコミュニケーション行動の表出を行うと判断した場合(S12のYES)、表出判断部114は、表出内容を決定する(ステップS14)。つまり、表出判断部114は、どのようなコミュニケーション行動を行うかを決定する。このように、タイミングよく非言語コミュニケーションを行うことで、構造体2が生き物らしいような印象をユーザに与えることができ、さらにユーザの対話動機を高めることができる。
例えば、表出判断部114は、音声認識結果から、ユーザの発話が完了したと判断した場合(S12のYES)に、発話の完了に応じたコミュニケーション行動の表出を行うと判断する(S14)。この場合、表出判断部114は、取得された音声データから雑音を除去して、ユーザの発話を示す発話情報のみを抽出する。そして、表出判断部114は、抽出された発話情報から、ユーザの音声の音量及び周波数等の変化を解析することによって、ユーザの発話が完了したことを判断する。さらに、表出判断部114は、表出内容として、例えば、頭部4を上下に振動させて相槌を打っているように見えるコミュニケーション行動を行うと決定する。
また、例えば、表出判断部114は、ユーザが出現した場合(S12のYES)に、ユーザが出現したことに応じたコミュニケーション行動の表出を行うと判断する(S14)。ユーザが出現した場合とは、例えば、コミュニケーション装置1(構造体2)が存在する部屋に人が進入した場合である。この場合、表出判断部114は、取得された画像データから人を検出する。そして、表出判断部114は、人が検出された場合に、ユーザが出現したと判断する。さらに、表出判断部114は、表出内容として、例えば、片方の腕部8を上下に揺動させて手を振っているように見えるコミュニケーション行動を行うと決定する。
また、例えば、表出判断部114は、ユーザの感情が変化した場合(S12のYES)に、ユーザの感情の変化に応じたコミュニケーション行動の表出を行うと判断する(S14)。この場合、表出判断部114は、例えば、取得された画像データから、ユーザの表情の変化及び動作の変化(顔向き又は体の向きの変化)を解析する。そして、表出判断部114は、ユーザの表情の変化及び動作の変化が生じたと判断された場合に、ユーザの感情が変化したと判断する。また、例えば、表出判断部114は、取得された音声データからユーザの発話情報を抽出し、発話情報に対して形態素解析を行うことで発話の内容を解析して、話題の変化を検出する。そして、表出判断部114は、話題が変化した場合に、ユーザの感情が変化したと判断する。さらに、表出判断部114は、表出内容として、例えば、両方の腕部8を上下に揺動させて手を振っているように見えるコミュニケーション行動を行うと決定する。
また、例えば、表出判断部114は、構造体2の状態が変化した場合(S12のYES)に、構造体2の変化に応じたコミュニケーション行動の表出を行うと判断する(S14)。この場合、表出判断部114は、例えば、取得した構造体情報から、構造体2の状態が変化したか否かを判断する。例えば、表出判断部114は、構造体2のバッテリ残量が低下した場合に、構造体2の状態が変化したと判断する。さらに、表出判断部114は、表出内容として、両方の腕部8で胴体部6の前方を押さえるようにし、胴体部6を前方に傾けるようにして、空腹であるように見えるコミュニケーション行動を行うと決定する。
次に、制御装置100は、ユーザ及び障害物の検出処理を行う(ステップS16)。具体的には、図5に示すように、検出処理部116は、ユーザの検出処理を行う(ステップS160)。例えば、検出処理部116は、取得された画像データを解析して、ユーザの顔(又は目)を認識してもよい。また、検出処理部116は、取得された音声データから、ユーザの発話情報を抽出してもよい。
検出処理部116は、ユーザが予め定められた範囲に存在するか否かを判断する(ステップS162)。例えば、検出処理部116は、画像データにおいて予め定められた画角にユーザの顔が存在しない場合に、ユーザが予め定められた範囲に存在しないと判断してもよい。ユーザが予め定められた範囲に存在しないと判断された場合(S162のNO)、検出処理部116は、発話処理を行う(ステップS164)。一方、ユーザが予め定められた範囲に存在すると判断された場合(S162のYES)、検出処理部116は、発話処理(S164)を行わない。
このとき、検出処理部116は、音声データからユーザが近くに存在することを認識しているが、所定の画角にユーザの顔が存在しない場合に、発話処理を行ってもよい。この場合の例として、構造体2がリビングに位置し、ユーザはリビングと一続きとなったキッチンに存在する場合がある。この場合、検出処理部116は、スピーカ36を制御して、「どこにいますか。顔を出してください」といった音声を発生させて、ユーザが構造体2の前に来るように促す。
次に、検出処理部116は、障害物の検出処理(ステップS166)を行う。具体的には、検出処理部116は、距離センサ40から、物体(障害物)までの距離を示す距離情報を取得する。これにより、制御装置100は、構造体2の周囲の障害物の位置を検出できる。ここで、「障害物」とは、構造体2の構成部位の動作を妨げ得る(つまり構成部位に干渉し得る)物体であって、人(ユーザ)も含まれる。
例えば、検出処理部116は、距離センサ40Aからの距離情報を用いて、頭部4の右側(及び腕部8Rの上側)にある障害物の位置を検出できる。また、検出処理部116は、距離センサ40Bからの距離情報を用いて、頭部4の左側(及び腕部8Lの上側)にある障害物の位置を検出できる。また、検出処理部116は、距離センサ40Cからの距離情報を用いて、胴体部6の右側(及び腕部8Rの下側)にある障害物の位置を検出できる。また、検出処理部116は、距離センサ40Dからの距離情報を用いて、胴体部6の左側(及び腕部8Lの下側)にある障害物の位置を検出できる。
次に、制御装置100は、ジェスチャ内容の設定を行う(ステップS20)。ここで、ジェスチャ内容とは、構造体2の構成部位(頭部4、腕部8、胴体部6等)を、どの位置で、どの方向に、どれだけ動作させるかといった、コミュニケーション行動(表出内容)のより具体的な内容である。例えば、コミュニケーション行動が「手を振る」である場合、ジェスチャ内容とは、腕部8をどれだけ揺動させるのか、及び、腕部8をどの位置で揺動させるのかを示す。
図6に示すように、ジェスチャ内容設定部118は、ユーザが構造体2の正面に存在するか否かを判断する(ステップS200)。この具体的な判断方法については、図8を用いて後述する。ユーザが構造体2の正面に存在すると判断された場合(S200のYES)、ジェスチャ内容設定部118は、構造体2に行わせるジェスチャを第一ジェスチャ(第1のジェスチャ)に設定する(ステップS210)。そして、動作量設定部120は、第一ジェスチャを構造体2に行わせるための各関節(首関節部14、胴関節部16及び腕関節部18)の動作量を設定する(ステップS212)。
一方、ユーザが構造体2の正面に存在しないと判断された場合(S200のNO)、ジェスチャ内容設定部118は、構造体2に行わせるジェスチャを、第一ジェスチャとは異なる第二ジェスチャ(第2のジェスチャ)に設定する(ステップS220)。そして、動作量設定部120は、第二ジェスチャを構造体2に行わせるための各関節(首関節部14、胴関節部16及び腕関節部18)の動作量を設定する(ステップS222)。
ここで、第一ジェスチャは、コミュニケーション行動(表出内容)に関して基礎となるジェスチャである。一方、第二ジェスチャは、第一ジェスチャよりも、ユーザにとって視認しやすいようなジェスチャとなっている。言い換えると、第二ジェスチャは、第一ジェスチャよりも目立つジェスチャとなっている。なお、第二ジェスチャは、第一ジェスチャと比較して全く異なる動作を表現するわけではない。第二ジェスチャも、第一ジェスチャが表現するコミュニケーション行動を表現することに留意されたい。
例えば、第二ジェスチャにおける構成部位の動作範囲は、第一ジェスチャにおける構成部位の動作範囲よりも大きい。コミュニケーション行動が「手を振る」である場合、第二ジェスチャでは、第一ジェスチャよりも、腕部8の動作範囲が大きくなる。したがって、ユーザには、構造体2が手を大きく振っているように見える。よって、第二ジェスチャは、第一ジェスチャよりも、ユーザにとって視認しやすく、目立っている。
また、例えば、第二ジェスチャにおいては、第一ジェスチャにおいては動作しない構成部位を動作させるようになっている。コミュニケーション行動が「手を振る」である場合、第一ジェスチャでは、腕部8が動作するのみである。一方、第二ジェスチャでは、腕部8だけでなく、第一ジェスチャでは動作しない頭部4が動作する。したがって、腕部8が頭部4に隠れることが抑制されるので、第二ジェスチャは、第一ジェスチャよりも、ユーザにとって視認しやすく、目立っている。
また、例えば、第二ジェスチャにおける構成部位の動作位置は、第一ジェスチャよりも、構造体2の他の構成部位から離れた位置で動作するようになっている。コミュニケーション行動が「手を振る」である場合、第二ジェスチャでは、第一ジェスチャよりも上の位置で腕部8が揺動する。したがって、腕部8が胴体部6に隠れることが抑制されるので、第二ジェスチャは、第一ジェスチャよりも、ユーザにとって視認しやすく、目立っている。
また、動作量の設定について説明すると、動作量設定部120は、設定されたジェスチャ(第一ジェスチャ又は第二ジェスチャ)について目標姿勢を定義する。そして、動作量設定部120は、目標姿勢を実現するような、各関節(首関節部14、胴関節部16及び腕関節部18)の関節角度を設定する。動作量設定部120は、設定された目標関節角度と、現在の関節角度との差分(動作量)を算出する。例えば、第一ジェスチャについての首関節部14の動作量をΔXとし、胴関節部16の動作量をΔYとし、腕関節部18の動作量をΔZとする。ここで、ΔX、ΔY及びΔZは、各関節の回転軸の数に対応する次元のベクトルである。例えば、首関節部14が3つの軸の周りに回転する場合、ΔXは三次元のベクトルである。また、胴関節部16が2つの軸の周りに回転する場合、ΔYは二次元のベクトルである。
動作量設定部120は、算出した動作量を、時間的に段階的に変化するように区分して定義する。この区分数Nは、各関節のモータの応答性及びジェスチャの動作速度等に応じて決定される。首関節部14の現在の関節角度をXとすると、i区分目(iはN以下の整数)における首関節部14の関節角度Xは、以下の式1のように表される。
(式1)
Figure 2018051701
同様に、胴関節部16の現在の関節角度をYとすると、i区分目における胴関節部16の関節角度Yは、以下の式2のように表される。
(式2)
Figure 2018051701
同様に、腕関節部18の現在の関節角度をZとすると、i区分目における腕関節部18の関節角度Zは、以下の式3のように表される。
(式3)
Figure 2018051701
次に、制御装置100は、障害物を回避するための補正(障害物補正)を行う(ステップS30)。具体的には、図7に示すように、障害物補正部122は、障害物の検出処理(図5のS166)の結果から、胴体部6の周りに障害物があるか否かを判断する(ステップS302)。障害物補正部122は、設定されたジェスチャで胴体部6を動作させたときに胴体部6が障害物に接触する場合に、胴体部6の周りに障害物があると判断する。
胴体部6の周りに障害物がないと判断された場合(S302のNO)、障害物補正部122は、後述するS304の処理を行わない。一方、胴体部6の周りに障害物があると判断された場合(S302のYES)、障害物補正部122は、胴体部6が障害物に接触しないように、胴関節部16の動作を制限する(ステップS304)。具体的には、障害物補正部122は、胴関節部16の回転角度にリミットを設けて、回転範囲を制限するように、設定された胴関節部16の動作量を変更する。これにより、ジェスチャ内容は、胴体部6が障害物に接触しないように変更される。例えば、距離センサ40Cによって胴体部6の右側にある障害物に胴体部6が接触する可能性があるとき、障害物補正部122は、胴体部6が左側に移動することを制限するように、胴関節部16の回転角度を制限する。
障害物補正部122は、障害物の検出処理(図5のS166)の結果から、腕部8の周りに障害物があるか否かを判断する(ステップS306)。障害物補正部122は、設定されたジェスチャで腕部8を動作させたときに腕部8が障害物に接触する場合に、腕部8の周りに障害物があると判断する。このとき、障害物補正部122は、S304の処理により胴関節部16の動作が制限された状態で、設定されたジェスチャで腕部8を動作させたときに腕部8が障害物に接触するか否かを判断してもよい。
腕部8の周りに障害物がないと判断された場合(S306のNO)、障害物補正部122は、後述するS308の処理を行わない。一方、腕部8の周りに障害物があると判断された場合(S306のYES)、障害物補正部122は、腕部8が障害物に接触しないように、腕関節部18の動作を制限する(ステップS308)。具体的には、障害物補正部122は、腕関節部18の回転角度にリミットを設けて、回転範囲を制限するように、設定された腕関節部18の動作量を変更する。これにより、ジェスチャ内容は、腕部8が障害物に接触しないように変更される。例えば、距離センサ40Dによって左側の腕部8Lの下側にある障害物に腕部8が接触する可能性があるとき、障害物補正部122は、腕部8Lが下側に移動することを制限するように、腕関節部18の回転角度を制限する。
障害物補正部122は、障害物の検出処理(図5のS166)の結果から、頭部4の周りに障害物があるか否かを判断する(ステップS310)。障害物補正部122は、設定されたジェスチャで頭部4を動作させたときに頭部4が障害物に接触する場合に、頭部4の周りに障害物があると判断する。このとき、障害物補正部122は、S304の処理により胴関節部16の動作が制限された状態で、設定されたジェスチャで頭部4を動作させたときに頭部4が障害物に接触するか否かを判断してもよい。
頭部4の周りに障害物がないと判断された場合(S310のNO)、障害物補正部122は、後述するS312の処理を行わない。一方、頭部4の周りに障害物があると判断された場合(S310のYES)、障害物補正部122は、頭部4が障害物に接触しないように、首関節部14の動作を制限する(ステップS312)。具体的には、障害物補正部122は、首関節部14の回転角度にリミットを設けて、回転範囲を制限するように、設定された首関節部14の動作量を変更する。これにより、ジェスチャ内容は、頭部4が障害物に接触しないように変更される。例えば、距離センサ40Aによって頭部4の右側にある障害物に頭部4が接触する可能性があるとき、障害物補正部122は、頭部4が右側に移動することを制限するように、首関節部14の回転角度を制限する。
本実施の形態にかかるコミュニケーション装置1では、このように、構造体2が障害物に接触することが抑制されている。したがって、ユーザは構造体2が周囲の状況を配慮して行動しているように感じるので、ユーザに安心感を与えることができる。
次に、制御装置100は、ジェスチャ内容を構造体2に表出させるように、構造体2を制御する(ステップS40)。具体的には、動作制御部124は、S20で設定され、S30の処理で制限された動作量(回転角度)で、各関節(首関節部14、胴関節部16及び腕関節部18)を動作させるように、各関節のモータを制御する。これにより、構造体2は、設定されたジェスチャ内容を表出(再生)することができる。
次に、S200の処理において、ユーザが構造体2の正面に存在するか否かを判断する方法について説明する。
図8は、ユーザが構造体2の正面に存在するか否かを判断する方法について説明するための図である。構造体2の顔部20が向く方向、つまり顔部20の正面の方向をDfとする。また、顔部20から見たユーザ80の顔80fの方向をDuとする。このとき、方向Dfに対する方向Duの角度、つまり方向Dfと方向Duとのなす角度をθ1とすると、角度θ1が予め定められた閾値θth未満である場合に、ジェスチャ内容設定部118は、ユーザ80が構造体2の正面に存在すると判断する。
したがって、ジェスチャ内容設定部118は、角度θ1が閾値θth未満である場合に、構造体2に行わせるジェスチャを第一ジェスチャに設定する(S210)。一方、ジェスチャ内容設定部118は、角度θ1が閾値θth以上である場合に、構造体2に行わせるジェスチャを第二ジェスチャに設定する(S220)。なお、閾値θthは、概ね15度程度であるが、これに限られない。また、角度θ1は、顔部20の正面の方向Dfから左方向及び右方向にそれぞれ0度以上180度以下であってもよい。また、角度θ1は、例えば右回り方向を正として0度以上360度以下であってもよい。このとき、顔部20の正面の方向Dfに対して左側の角度を負で示してもよい。この場合、「角度θ1が閾値θth以上である」とは、「角度θ1の絶対値」が閾値θth以上であることを意味し得る。同様に、「角度θ1が閾値θth未満である」とは、「角度θ1の絶対値」が閾値θth未満であることを意味し得る。したがって、「角度θ1が閾値θth以上である」とは、ユーザが構造体2の顔部20の正面にいないことを意味し得る。また、「角度θ1が閾値θth未満である」とは、ユーザが構造体2の顔部20の正面にいることを意味し得る。
なお、制御装置100が角度θ1を測定する方法としては、既存の様々な方法が考えられるが、例として、カメラ32によって取得された画像データを用いる方法がある。例えば、顔部20の正面の方向に撮影した画像データにおいて、顔部20が向く方向の画素位置(座標)P0は、予め定められ得る。そして、ジェスチャ内容設定部118は、顔認識処理によって、画像データにおけるユーザの顔の画素位置(座標)P1を算出する。そして、ジェスチャ内容設定部118は、ユーザの顔にピントを合わせたときの焦点距離(又は画像データにおけるユーザの顔の大きさ)等から、ユーザの顔までの距離Lを算出できる。ジェスチャ内容設定部118は、これらのP0、P1及び距離Lから、幾何学的に角度θ1を算出することができる。また、カメラ32又は首関節部14を水平に回転させるようにして構造体2の周囲を撮像する方法を採用する場合は、カメラ32の正面にユーザが存在するときのカメラ32又は首関節部14の角度から、角度θ1を容易に求めることができる。
次に、実施の形態1にかかるジェスチャ内容の具体例を説明する。以下に示す具体例では、コミュニケーション行動が「左手を振る」である場合について示されている。
図9は、実施の形態1にかかる第一ジェスチャの具体例を示す図である。上述したように、図9に例示する第一ジェスチャは、コミュニケーション行動「左手を振る」の基礎となるジェスチャである。
図9に例示するように、制御装置100は、x軸に平行な回転軸の周りに腕関節部18Lを回転させるように制御を行う。これにより、矢印Aで示すように、腕部8Lが腕関節部18Lを中心として上下に揺動する。このようにして、第一ジェスチャが表出される。したがって、ユーザには、構造体2が左手を振っているように見える。
また、第二ジェスチャでは、制御装置100は、腕関節部18の回転角度の範囲を、第一ジェスチャの場合よりも大きくする。これにより、第二ジェスチャでは、腕部8Lが上下に揺動する範囲が、第一ジェスチャの場合よりも大きくなる。したがって、第二ジェスチャは、第一ジェスチャよりも、ユーザによって視認しやすく、目立っている。
図10は、実施の形態1にかかる第二ジェスチャの1つの具体例を示す図である。図10は、構造体2を後側(背後)から見た図である。図10は、ユーザが構造体2の後側(背後)に存在するときに表出される第二ジェスチャの例を示す。ジェスチャ内容設定部118は、例えば角度θ1が120度以上である場合に、図10に示す第二ジェスチャを表出するように設定してもよい。この場合、閾値θthは120度である。
この場合、制御装置100は、首関節部14をx軸と平行な回転軸の周りに、図10において時計回りに少し回転させる。これにより、頭部4は、矢印Bで示すように、首関節部14を中心として右側に傾く。このように、第二ジェスチャでは、第一ジェスチャでは動作しない頭部4を動作させることによって、腕部8の動きが頭部4によって隠れることが抑制される。したがって、構造体2の背後からでも、ユーザは、腕部8Lの動きを視認しやすくなる。つまり、第一ジェスチャと比較して、第二ジェスチャは目立っている。このように、制御装置100は、第一ジェスチャに相当する動作が、検出されたユーザの顔の位置から視認されやすくなるように、第一ジェスチャにおいては動作しない構成部位が動作する第二ジェスチャを、構造体2に行わせる。
また、制御装置100は、第二ジェスチャでは、第一ジェスチャの場合よりも腕部8Lが上側で揺動するように、腕関節部18の動作を制御する。これにより、腕部8Lの動きが胴体部6に隠れることが抑制されるので、ユーザは、腕部8Lの動きを視認しやすくなる。つまり、第一ジェスチャと比較して、第二ジェスチャは目立っている。また、腕部8Lの揺動する範囲を大きくすることで、ユーザは、腕部8Lの動きを視認しやすくなる。つまり、第一ジェスチャと比較して、第二ジェスチャは目立っている。
このように、実施の形態1にかかるコミュニケーション装置1は、ユーザが構造体2の顔部20の正面にいる場合と正面にいない場合とで、異なるジェスチャを構造体2に行わせるように構成されている。したがって、構造体2は、顔部20に対するユーザの向きを考慮して構造体2がコミュニケーション行動を行っていることを表現できる。これにより、ユーザに無機質な印象を与えることを抑制できる。したがって、実施の形態1にかかるコミュニケーション装置1は、構造体2の顔部20に対するユーザの向きを考慮した、自然なコミュニケーションを行うことが可能となる。
また、実施の形態1にかかるコミュニケーション装置1は、顔部20の正面から離れた方向にユーザがいる場合に、目立つジェスチャを構造体2に行わせるように構成されている。したがって、構造体2は、顔部20に対するユーザの向きを考慮して、ユーザによって気付き易いジェスチャを行っていることを表現できる。これにより、ユーザに無機質な印象を与えることをさらに抑制できる。したがって、実施の形態1にかかるコミュニケーション装置1は、構造体2の顔部20に対するユーザの向きを考慮した、さらに自然なコミュニケーションを行うことが可能となる。
(実施の形態2)
次に、実施の形態2について説明する。実施の形態2は、ユーザと構造体2との間に存在する障害物を考慮する点で、実施の形態1と異なる。なお、実施の形態2にかかるコミュニケーション装置1のハードウェア構成は、実施の形態1のハードウェア構成と実質的に同様であるので、説明を省略する。また、実施の形態2にかかる制御装置100の構成についても、図3に示したものと実質的に同様であるので、説明を省略する。さらに、制御装置100によって行われる、構造体2の制御方法については、S20を除いて図4に示すフローチャートと実質的に同様であるので、S20以外の処理については説明を省略する。
図11は、実施の形態2にかかるジェスチャ内容の設定方法(S20)を示す図である。なお、図6に示した処理と実質的に同様の処理については、同一の符号が付されており、適宜、説明を省略する。
ジェスチャ内容設定部118は、ユーザが構造体2の正面に存在するか否かを判断する(ステップS200)。ユーザが構造体2の正面に存在すると判断された場合(S200のYES)、ジェスチャ内容設定部118は、構造体2の顔部20から見てユーザの顔の一部が障害物によって隠れているか否かを判断する(ステップS202)。例えば、構造体2の顔部20とユーザとの間に何らかの障害物が存在する場合に、構造体2の顔部20から見てユーザの顔が障害物によって隠れることがあり得る。
具体的には、ジェスチャ内容設定部118は、カメラ32によって撮像された画像データを解析して、顔認識によって、ユーザの顔を認識する。そして、ジェスチャ内容設定部118は、画像データにおいて、ユーザの顔の輪郭が少しでも欠けている場合、又は予め定められた割合以上にユーザの顔の輪郭が欠けている場合に、ユーザの顔が障害物によって隠れていると判断する。どの程度ユーザの顔が欠けた場合にユーザの顔が障害物によって隠れていると判断するかについては、表出内容(コミュニケーション行動)に関する構成部位の動作等に応じて、適宜定められ得る。
ユーザの顔が障害物によって隠れていないと判断された場合(S202のNO)、ジェスチャ内容設定部118は、構造体2に行わせるジェスチャを第一ジェスチャに設定する(ステップS210)。そして、動作量設定部120は、第一ジェスチャを構造体2に行わせるための各関節の動作量を設定する(ステップS212)。
一方、ユーザの顔が障害物によって隠れていると判断された場合(S202のYES)、ジェスチャ内容設定部118は、構造体2に行わせるジェスチャを、第一ジェスチャとは異なる第三ジェスチャに設定する(ステップS230)。第三ジェスチャについては後述する。そして、動作量設定部120は、第三ジェスチャを構造体2に行わせるための各関節の動作量を設定する(ステップS232)。なお、各関節の動作量を設定方法については、上述した方法でなされ得る。
一方、ユーザが構造体2の正面に存在しないと判断された場合(S200のNO)、ジェスチャ内容設定部118は、構造体2の顔部20から見てユーザの顔の一部が障害物によって隠れているか否かを判断する(ステップS204)。この判断方法については、S202の処理と実質的に同様であってもよい。ユーザの顔が障害物によって隠れていないと判断された場合(S204のNO)、ジェスチャ内容設定部118は、構造体2に行わせるジェスチャを第二ジェスチャに設定する(ステップS220)。そして、動作量設定部120は、第二ジェスチャを構造体2に行わせるための各関節の動作量を設定する(ステップS222)。
一方、ユーザの顔が障害物によって隠れていると判断された場合(S204のYES)、ジェスチャ内容設定部118は、構造体2に行わせるジェスチャを、第一ジェスチャ及び第二ジェスチャとは異なる第四ジェスチャに設定する(ステップS240)。第四ジェスチャについては後述する。そして、動作量設定部120は、第四ジェスチャを構造体2に行わせるための各関節の動作量を設定する(ステップS242)。なお、各関節の動作量を設定方法については、上述した方法でなされ得る。
ここで、第三ジェスチャ及び第四ジェスチャは、設定されたコミュニケーション行動(表出内容)を、障害物によってユーザが視認できないことを抑制しつつ表現したジェスチャである。言い換えると、第三ジェスチャ及び第四ジェスチャは、障害物を避けるようになされるジェスチャである。なお、第三ジェスチャ及び第四ジェスチャにおける「障害物を避ける」という用語は、構造体2の構成部位が障害物に「接触」することを防止することを意味するのではなく、障害物によってユーザがジェスチャを視認できなくなることを抑制することを意味する。したがって、障害物が構造体2から離れている場合であっても、構造体2の顔部20とユーザとの間に障害物が存在すれば、第三ジェスチャ及び第四ジェスチャは、なされ得る。
また、第三ジェスチャは、第一ジェスチャの動作を、障害物によってユーザが視認できないことを抑制するように変更したジェスチャである。また、第四ジェスチャは、第二ジェスチャの動作を、障害物によってユーザが視認できないことを抑制するように変更したジェスチャである。つまり、第四ジェスチャは、第一ジェスチャよりも目立ち、かつ、障害物を避けるようになされる。なお、第三ジェスチャ及び第四ジェスチャは、第一ジェスチャと比較して全く異なる動作を表現するわけではない。第三ジェスチャ及び第四ジェスチャも、第一ジェスチャが表現するコミュニケーション行動を表現することに留意されたい。
第三ジェスチャ及び第四ジェスチャにおいて、障害物を避けるように各関節を動作させる方法については、例えば、限定されないが、以下に示す方法がある。制御装置100は、画像データを解析して、ユーザの顔の隠れている側とは反対側に構造体2を傾けるように、各関節を動作させる。制御装置100は、画像データにおいてユーザの顔の(構造体2から見て)左側が障害物によって隠れていると判断した場合、胴体部6を右側に傾けるように胴関節部16を動作させる。一方、制御装置100は、画像データにおいてユーザの顔の(構造体2から見て)右側が障害物によって隠れていると判断した場合、胴体部6を左側に傾けるように胴関節部16を動作させる。さらに、第三ジェスチャの場合は、制御装置100は、障害物を避けるようにした状態で、第一ジェスチャを表現するように各関節を動作させる。また、第四ジェスチャの場合は、制御装置100は、障害物を避けるようにした状態で、第二ジェスチャを表現するように各関節を動作させる。なお、障害物の位置及び設定されたコミュニケーション行動等に応じて、首関節部14及び腕関節部18を動作させて障害物を避けるようにしてもよい。
また、障害物を避けるための各関節の動作量は、ユーザの顔の隠れている割合によらず一定であってもよい。この場合、制御装置100(ジェスチャ内容設定部118)は、ユーザの顔の隠れている側に応じたジェスチャを設定する。一方、障害物を避けるための各関節の動作量は、ユーザの顔の隠れている割合から決定されてもよい。この場合、制御装置100(動作量設定部120)は、ユーザの顔の隠れている割合が大きいほど、胴関節部16等の各関節の動作量を大きくしてもよい。このように、第三ジェスチャ及び第四ジェスチャは、一定である必要はなく、ユーザ及び障害物の位置関係に応じて変化し得る。
次に、実施の形態2にかかるジェスチャ内容の具体例を説明する。以下に示す具体例では、コミュニケーション行動が「頭(頭部4)を上下に振る」である場合について示されている。
図12は、実施の形態2にかかる第一ジェスチャの具体例を示す図である。上述したように、図12に例示する第一ジェスチャは、コミュニケーション行動「頭を上下に振る」の基礎となるジェスチャである。
図12に例示するように、制御装置100は、y軸に平行な回転軸の周りに首関節部14を回転させるように制御を行う。これにより、矢印Cで示すように、頭部4が首関節部14を中心として上下に揺動する。このようにして、第一ジェスチャが表出される。したがって、ユーザには、構造体2が頭を上下に振っている(頷いている)ように見える。
図13は、実施の形態2にかかる第三ジェスチャの1つの具体例を示す図である。図13の例では、構造体2とユーザとの間に障害物90がある。そして、図13の例では、ユーザから見て、構造体2の右側寄りに障害物90がある。したがって、画像データにおいては、ユーザの顔の(構造体2から見て)右側が障害物によって隠れている。
この場合、制御装置100は、胴関節部16を、x軸と平行な回転軸の周りに左回り(図13において時計回り)に少し回転させる。これにより、胴体部6は、矢印Dで示すように、胴関節部16を中心として左側(腕部8Lの側)に傾く。これにより、「頭を上下に振る」というコミュニケーション行動を表現する頭部4が、ユーザに対して顕在化する。したがって、ユーザは、「頭を上下に振る」というコミュニケーション行動を、障害物によって遮蔽されないで視認できるようになる。そして、制御装置100は、矢印Cで示すように、頭部4が首関節部14を中心として上下に揺動するように、首関節部14を制御する。なお、このとき、胴体部6が傾くことに伴って頭部4が傾かないように、制御装置100は、矢印Eで示すように、首関節部14をx軸と平行な回転軸の周りに、右回り(図13において反時計回り)に回転させてもよい。
このように、実施の形態2にかかるコミュニケーション装置1は、構造体2とユーザとの間に障害物がある場合であっても、ユーザがコミュニケーション行動を視認できるように、ジェスチャ内容を変更するように構成されている。したがって、ユーザは、構造体2とユーザとの間に障害物がある場合であっても、ユーザがコミュニケーション行動を視認することが可能となる。さらに、構造体2は、障害物を考慮して、ユーザとコミュニケーションを行っていることを表現できる。これにより、ユーザに無機質な印象を与えることをさらに抑制できる。したがって、実施の形態2にかかるコミュニケーション装置1は、構造体2とユーザとの間の障害物を考慮した、より自然なコミュニケーションを行うことが可能となる。
(変形例)
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述した実施の形態では、ユーザの顔が構造体2の顔部20の正面にあるか否かの判断の基準となる閾値θthは1つであるとしたが、閾値θthは、1つとは限らない。閾値θthを複数設けることによって、ユーザの顔が構造体2の顔部20の正面から離れるにつれて、段階的にジェスチャが変化し得る。つまり、各コミュニケーション行動において、第二ジェスチャは1つとは限らない。言い換えると、1つの第一ジェスチャに対応する第二ジェスチャは、1つとは限らない。
例えば、閾値θth1を15度、閾値θth2を90度としてもよい。このとき、コミュニケーション行動が「手を振る」であるとする。このケースにおいて、顔部20が向く方向と顔部20から見たユーザの顔の方向とのなす角度θ1が15度以上となった場合に、第一ジェスチャの場合よりも少し腕部8の動作範囲を大きくする。そして、角度θ1が90度以上となった場合に、さらに腕部8の動作範囲を大きくしてもよい。または、角度θ1が90度以上となった場合に、片方の腕部8だけでなく両方の腕部8を揺動させてもよい。
さらに、ジェスチャを変更する基準として、閾値θthを用いなくてもよい。ジェスチャを表現する構成部位(腕部8等)の動作範囲を、角度θ1の関数として表してもよい。この場合、角度θ1が大きくなるにつれて、構成部位の動作範囲が大きくなるようにしてもよい。なお、閾値θthを用いることによって、異なるジェスチャを行わせるための制御が、より容易となり得る。
また、第二ジェスチャ(及び第四ジェスチャ)の場合、つまり、ユーザが構造体2の顔部20の正面にいない場合、構造体2の顔向き又は胴向きをユーザの方に変更するように、ジェスチャを変更してもよい。これにより、構造体2はユーザの方を向いてジェスチャを行うので、ユーザの位置を考慮したより自然なコミュニケーションを行うことが可能となる。
また、第二ジェスチャと第一ジェスチャとの差異は、上述した実施の形態における例に限られない。第二ジェスチャの方が第一ジェスチャよりも、ユーザに対して目立つようなものであれば、任意の差異が可能である。例えば、第二ジェスチャの方が、第一ジェスチャよりも、構成部位の動作速度が速くてもよい。または、第二ジェスチャの方が、第一ジェスチャよりも、構成部位の動作時間が長くてもよい。
また、上述した実施の形態においては、頭部4、腕部8及び胴体部6を動作させることで、コミュニケーション行動を表現するとしたが、このような構成に限られない。例えば、構造体2が脚部及び脚部を動作させるための関節を有する場合、脚部を動作させてジェスチャを表現してもよい。さらに、顔部20を構成する構成部位(目部22及び口部24等)を動作させてジェスチャを表現してもよい。
また、顔部20は、目部22及び口部24を有するとしたが、顔部20の構成はこれに限られない。顔部20は、一般的に、人間が「顔」であると認識し得るような構成部位を少なくとも有していればよい。例えば、顔部20は、少なくとも目部22を有していればよい。また、カメラ32、マイク34、スピーカ36及び距離センサ40の位置は、上述した実施の形態にかかる構造体2における位置に限られない。また、カメラ32、マイク34、スピーカ36及び距離センサ40の数は、上述した実施の形態にかかるコミュニケーション装置1における数に限られない。
また、上述した実施の形態においては、角度θ1をカメラ32によって撮像された画像データを用いて検出するとしたが、このような構成に限られない。ユーザの位置を認識し、ユーザの方角を検出可能な方法であれば、任意の方法が可能である。例えば、人感センサを用いてもよい。
また、上述した実施の形態においては、構造体2が、人間に対応するロボット(人型ロボット)である例を示したが、このような構成に限られない。構造体2は、人間ではなく、他の生物(犬又は猫等)に対応してもよい。また、構造体2は、縫いぐるみのようなものであってもよい。
1 コミュニケーション装置
2 構造体
4 頭部
6 胴体部
8 腕部
10 基部
14 首関節部
16 胴関節部
18 腕関節部
20 顔部
22 目部
24 口部
32 カメラ
34 マイク
36 スピーカ
40 距離センサ
100 制御装置
112 情報取得部
114 表出判断部
116 検出処理部
118 ジェスチャ内容設定部
120 動作量設定部
122 障害物補正部
124 動作制御部

Claims (5)

  1. ユーザに対してコミュニケーション行動を行うコミュニケーション装置であって、
    複数の構成部位から構成され、顔を構成する部位に対応する構成部位を少なくとも1つ備える顔部を有する構造体と、
    前記構成部位の動作を制御することによって、前記コミュニケーション行動を表現するジェスチャを前記構造体に行わせる制御手段と、
    前記構造体の周囲の物体の、前記構造体に対する相対的な位置を検出する検出手段と
    を有し、
    前記検出手段は、ユーザの顔の位置を検出し、
    前記制御手段は、前記顔部が向く方向と前記顔部から見た前記ユーザの顔の方向とのなす角度に応じて異なるジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する
    コミュニケーション装置。
  2. 前記制御手段は、前記角度が予め定められた閾値以上である場合と前記閾値未満である場合とで、異なるジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する
    請求項1に記載のコミュニケーション装置。
  3. 前記角度が前記閾値未満である場合に、前記制御手段は、第1のジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御し、
    前記角度が前記閾値以上である場合に、前記制御手段は、前記第1のジェスチャよりも前記構成部位の動作範囲の大きな第2のジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する
    請求項2に記載のコミュニケーション装置。
  4. 前記角度が前記閾値未満である場合に、前記制御手段は、第1のジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御し、
    前記角度が前記閾値以上である場合に、前記制御手段は、前記第1のジェスチャに相当する動作が前記検出されたユーザの顔の位置から視認されやすくなるように、前記第1のジェスチャにおいては動作しない前記構成部位が動作する第2のジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する
    請求項2に記載のコミュニケーション装置。
  5. 前記制御手段は、前記検出手段によって検出された前記ユーザの顔の一部が障害物によって隠れているか否かに応じて異なるジェスチャを前記構造体に行わせるように、前記構成部位の動作を制御する
    請求項1から4のいずれか1項に記載のコミュニケーション装置。
JP2016191838A 2016-09-29 2016-09-29 コミュニケーション装置 Active JP6565853B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016191838A JP6565853B2 (ja) 2016-09-29 2016-09-29 コミュニケーション装置
US15/710,284 US10576633B2 (en) 2016-09-29 2017-09-20 Communication device
EP17192546.4A EP3300841B1 (en) 2016-09-29 2017-09-22 Communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016191838A JP6565853B2 (ja) 2016-09-29 2016-09-29 コミュニケーション装置

Publications (2)

Publication Number Publication Date
JP2018051701A true JP2018051701A (ja) 2018-04-05
JP6565853B2 JP6565853B2 (ja) 2019-08-28

Family

ID=59974144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016191838A Active JP6565853B2 (ja) 2016-09-29 2016-09-29 コミュニケーション装置

Country Status (3)

Country Link
US (1) US10576633B2 (ja)
EP (1) EP3300841B1 (ja)
JP (1) JP6565853B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019220899A1 (ja) * 2018-05-16 2019-11-21 富士フイルム株式会社 生体情報取得システム、電子機器、生体情報取得方法、及び生体情報取得プログラム
JP2020055066A (ja) * 2018-10-02 2020-04-09 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
KR20230076966A (ko) * 2021-11-23 2023-06-01 한국공학대학교산학협력단 인간 친화형 로봇의 감정 표현을 위한 몸짓 시각화 정보 생성 방법 및 장치

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833601B2 (ja) * 2017-04-19 2021-02-24 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
CN109079809B (zh) * 2018-07-27 2022-02-01 平安科技(深圳)有限公司 一种机器人屏幕解锁方法、装置、智能设备及存储介质
CN109079814A (zh) * 2018-08-14 2018-12-25 上海常仁信息科技有限公司 实现情感交流的健康机器人

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005238382A (ja) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International コミュニケーションロボット
WO2007132571A1 (ja) * 2006-05-16 2007-11-22 Murata Kikai Kabushiki Kaisha ロボット
JP2009166184A (ja) * 2008-01-17 2009-07-30 Saitama Univ ガイドロボット
JP2013237124A (ja) * 2012-05-15 2013-11-28 Fujitsu Ltd 端末装置、情報提供方法及びプログラム
WO2015045844A1 (ja) * 2013-09-27 2015-04-02 日本電気株式会社 ロボット、制御方法、及びプログラム
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6604021B2 (en) 2001-06-21 2003-08-05 Advanced Telecommunications Research Institute International Communication robot
WO2003035334A1 (fr) * 2001-10-22 2003-05-01 Sony Corporation Appareil robotique et procede de commande pour un tel appareil
JP2004042151A (ja) 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006212717A (ja) 2005-02-01 2006-08-17 Advanced Telecommunication Research Institute International ロボット装置
US8565922B2 (en) * 2008-06-27 2013-10-22 Intuitive Automata Inc. Apparatus and method for assisting in achieving desired behavior patterns
JP4996577B2 (ja) 2008-10-28 2012-08-08 川田工業株式会社 簡易設置型ロボット用出力制限機能付電力供給システムおよびそのシステムを具えた簡易設置型ロボット
JP5688574B2 (ja) 2009-11-04 2015-03-25 株式会社国際電気通信基礎技術研究所 触覚提示付ロボット
JP2012051042A (ja) 2010-08-31 2012-03-15 Yaskawa Electric Corp ロボットシステム及びロボット制御装置
CA2824606A1 (en) 2010-12-30 2012-07-05 Irobot Corporation Mobile human interface robot
JP5732632B2 (ja) 2011-02-03 2015-06-10 株式会社国際電気通信基礎技術研究所 ロボットシステムおよびそれに用いる空間陣形認識装置
EP2810748A4 (en) 2012-02-03 2016-09-07 Nec Corp COMMUNICATION COMMITMENT SYSTEM, COMMUNICATION COMMITMENT METHOD, AND COMMUNICATION COMMITMENT PROGRAM
JP5978028B2 (ja) 2012-06-28 2016-08-24 本田技研工業株式会社 移動ロボットの制御装置
JP2013239209A (ja) 2013-09-04 2013-11-28 Advanced Telecommunication Research Institute International コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法
US9517559B2 (en) 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
US9902061B1 (en) * 2014-08-25 2018-02-27 X Development Llc Robot to human feedback
WO2017169826A1 (ja) * 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット
CN109414623B (zh) * 2016-07-11 2021-03-19 Groove X 株式会社 行为自主型机器人

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005238382A (ja) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International コミュニケーションロボット
WO2007132571A1 (ja) * 2006-05-16 2007-11-22 Murata Kikai Kabushiki Kaisha ロボット
JP2009166184A (ja) * 2008-01-17 2009-07-30 Saitama Univ ガイドロボット
JP2013237124A (ja) * 2012-05-15 2013-11-28 Fujitsu Ltd 端末装置、情報提供方法及びプログラム
WO2015045844A1 (ja) * 2013-09-27 2015-04-02 日本電気株式会社 ロボット、制御方法、及びプログラム
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019220899A1 (ja) * 2018-05-16 2019-11-21 富士フイルム株式会社 生体情報取得システム、電子機器、生体情報取得方法、及び生体情報取得プログラム
JPWO2019220899A1 (ja) * 2018-05-16 2021-07-29 富士フイルム株式会社 生体情報取得システム、電子機器、生体情報取得方法、及び生体情報取得プログラム
JP2020055066A (ja) * 2018-10-02 2020-04-09 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP7275518B2 (ja) 2018-10-02 2023-05-18 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
KR20230076966A (ko) * 2021-11-23 2023-06-01 한국공학대학교산학협력단 인간 친화형 로봇의 감정 표현을 위한 몸짓 시각화 정보 생성 방법 및 장치
KR102669074B1 (ko) 2021-11-23 2024-05-24 한국공학대학교산학협력단 인간 친화형 로봇의 감정 표현을 위한 몸짓 시각화 정보 생성 방법 및 장치

Also Published As

Publication number Publication date
US20180085924A1 (en) 2018-03-29
EP3300841B1 (en) 2020-05-06
US10576633B2 (en) 2020-03-03
JP6565853B2 (ja) 2019-08-28
EP3300841A1 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
JP6565853B2 (ja) コミュニケーション装置
CN110900617B (zh) 机器人及其操作方法
KR102242779B1 (ko) 로봇 및 그 동작 방법
JP5732632B2 (ja) ロボットシステムおよびそれに用いる空間陣形認識装置
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP7351383B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7502520B2 (ja) ロボット、ロボットの制御方法及びプログラム
CN110794964A (zh) 虚拟机器人的交互方法、装置、电子设备及存储介质
US20230195401A1 (en) Information processing apparatus and information processing method
JP4399603B2 (ja) コミュニケーションロボット
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
CN111708428B (zh) 通信系统和用于控制通信系统的方法
JP7435641B2 (ja) 制御装置、ロボット、制御方法およびプログラム
KR20210078060A (ko) 사용자와의 인터랙션 중 인터럽션(제3자로부터의 개입)을 방지하는 로봇
JP2001188551A (ja) 情報処理装置および方法、並びに記録媒体
JP6686583B2 (ja) ロボット及びプログラム
JP7133840B2 (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
CN110014431B (zh) 通信装置
JP2023021207A (ja) テレプレゼンスロボット
JP2018089757A (ja) ロボットおよびロボット制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R151 Written notification of patent or utility model registration

Ref document number: 6565853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151