JP7524807B2 - ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム - Google Patents

ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム Download PDF

Info

Publication number
JP7524807B2
JP7524807B2 JP2021049878A JP2021049878A JP7524807B2 JP 7524807 B2 JP7524807 B2 JP 7524807B2 JP 2021049878 A JP2021049878 A JP 2021049878A JP 2021049878 A JP2021049878 A JP 2021049878A JP 7524807 B2 JP7524807 B2 JP 7524807B2
Authority
JP
Japan
Prior art keywords
robot
unit
person
image
communication target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021049878A
Other languages
English (en)
Other versions
JP2022148263A (ja
Inventor
優香 橋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021049878A priority Critical patent/JP7524807B2/ja
Priority to US17/696,458 priority patent/US20220305665A1/en
Priority to CN202210290311.0A priority patent/CN115179303A/zh
Publication of JP2022148263A publication Critical patent/JP2022148263A/ja
Application granted granted Critical
Publication of JP7524807B2 publication Critical patent/JP7524807B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2143Clearing memory, e.g. to prevent the data from being stolen

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Bioethics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Manipulator (AREA)

Description

本発明はロボット、コミュニケーションシステム、コミュニケーション方法及びプログラムに関する。
近年、人とロボットとの間のコミュニケーション技術が進展している。例えば、特許文献1には、コミュニケーションシステムが搭載されたロボットが、特定したコミュニケーション対象者に対して光を照射することが記載されている。これにより、コミュニケーション対象者に対して、ロボットとコミュニケーションをとることを認識させることができる。
国際公開第2013/114493号
上述の技術においては、特定したコミュニケーション対象者に対して、ピンポイントで光を照射することができない可能性が想定される。例えば、ロボットの周辺に人が多く存在するような場合、照射された光が他の人によって遮られることが考えられるほか、コミュニケーション対象者が他に気をとられることで、照射された光に気付けないことも考えられる。このような場合、コミュニケーション対象者に対して、自身がコミュニケーション対象であることを効果的に示すことができないことになる。
本発明は、このような問題を解決するためのものであり、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことが可能なロボット、コミュニケーションシステム、コミュニケーション方法及びプログラムを提供するものである。
本発明の例示的な一態様に係るロボットは、周囲に存在する人物の中から、コミュニケーションの対象となるコミュニケーション対象者を特定する特定部と、特定部が特定したコミュニケーション対象者に関連する個人情報を取得する取得部と、個人情報を保護する保護処理がセットで実行されるように、個人情報を表示部に表示させる表示処理部を備える。これにより、ロボットは、コミュニケーション対象者に対してコミュニケーション対象者に関する情報を視認させるため、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことができる。また、ロボットの表示データに基づいて第三者が個人を特定しにくくなるため、コミュニケーション対象者がロボットと安心してコミュニケーションを取ることができる。
また、上記ロボットにおいて、個人情報は、コミュニケーション対象者の顔画像を含み、保護処理は、顔画像に加工を施した加工画像を作成する処理であり、表示処理部は加工画像を表示部に表示させても良い。これにより、ロボットは、第三者に個人を特定される可能性をさらに削減できる。
また、上記ロボットにおいて、個人情報は、コミュニケーション対象者の顔画像を含み、表示処理部は、顔画像を表示部に表示させた後、保護処理として、顔画像のデータをロボットから削除させる処理を実行しても良い。これにより、ロボットは、個人情報が適切に管理されているという安心感をコミュニケーション対象者に対して与えられるため、コミュニケーション対象者は、ロボットと安心してコミュニケーションを取ることができる。
また、上記ロボットにおいて、取得部は、顔画像を撮像する撮像部を含んでも良い。これにより、ロボットは、ロボット単独で、顔画像を用いて、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことができる。
また、上記ロボットにおいて、特定部は、コミュニケーション対象者の位置情報をさらに特定し、表示処理部は、個人情報とともに、位置情報を表示部に表示させても良い。これにより、ロボットは、コミュニケーション対象者に対して、コミュニケーション対象であることを一層効果的に示すことができる。
また、上記ロボットにおいて、特定部は、周囲に存在する人物とロボットとの距離に基づいて、コミュニケーション対象者を特定しても良い。これにより、これにより、ロボットは、ロボットに対してコミュニケーションを取ろうとしているコミュニケーション対象者を精度良く判定することができる。
本発明の例示的な他の態様に係るロボットは、周囲に存在する人物を撮像する撮像部と、撮像部が撮像した撮像データを遠隔装置に送信する送信部と、遠隔装置から、コミュニケーションの対象となるコミュニケーション対象者を周囲に存在する人物の中から特定する特定情報を受信する受信部と、特定情報が特定するコミュニケーション対象者に関連する個人情報を表示部に表示させる表示処理部を備える。これにより、ロボットは、コミュニケーション対象者に対してコミュニケーション対象者に関する情報を視認させるため、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことができる。
また、上記ロボットにおいて、撮像データから、人物の少なくとも一部を人物領域として抽出する抽出部をさらに備え、送信部は、撮像データと併せて、人物領域を示す情報を遠隔装置に送信しても良い。これにより、操作者は、人物領域を示す情報によって、遠隔装置の表示部上に表示された人物の中からコミュニケーション対象者を選択する処理がしやすくなる。
また、上記ロボットにおいて、周囲に存在する人物とロボットとの距離に基づいて、撮像データから、コミュニケーション対象者の候補となる人物の少なくとも一部を人物領域として抽出する抽出部をさらに備え、送信部は、撮像データと併せて、人物領域を示す情報を遠隔装置に送信しても良い。これにより、操作者は、人物領域を示す情報によって、遠隔装置の表示部上に表示された人物の中からコミュニケーション対象者を選択する処理がしやすくなる。また、ロボットは、ロボットとコミュニケーションを取ろうとしていると考えられる人物を、ロボットとの距離を考慮して予め選択している。そのため、操作者は、コミュニケーションを取ろうとしている人物を、より精度良くコミュニケーション対象者として選択することができる。
本発明の例示的な一態様に係るコミュニケーションシステムは、ロボットと、ロボットを遠隔操作する遠隔装置と、ロボットの周囲に存在する人物を撮像して撮像データを取得する撮像装置を備え、ロボットは、遠隔装置から、コミュニケーションの対象となるコミュニケーション対象者を周囲に存在する人物の中から特定する特定情報を受信する受信部と、受信部が特定したコミュニケーション対象者に関連する個人情報を取得する取得部と、ロボットの表示部を介して個人情報を表示させる表示処理部を有し、遠隔装置は、送信された撮像データを操作者に表示する表示部と、操作者によって指定されたコミュニケーション対象者に係る特定情報をロボットに送信する特定情報送信部を有する。これにより、ロボットは、コミュニケーション対象者に対してコミュニケーション対象者に関する情報を視認させるため、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことができる。
また、上記コミュニケーションシステムにおいて、撮像装置又はロボットは、撮像データから、人物の少なくとも一部を人物領域として抽出し、人物領域を示す情報が撮像データと併せて遠隔装置に送信され、遠隔装置の表示部は、撮像データ及び人物領域を示すデータを操作者に表示するか、又は、遠隔装置は、撮像データから、人物の少なくとも一部を人物領域として抽出し、遠隔装置の表示部は、撮像データ及び人物領域を示す情報を操作者に表示しても良い。これにより、操作者は、人物領域を示す情報によって、遠隔装置の表示部上に表示された人物の中からコミュニケーション対象者を選択する処理がしやすくなる。
また、上記コミュニケーションシステムにおいて、撮像装置又はロボットは、周囲に存在する人物とロボットとの距離に基づいて、撮像データから、コミュニケーション対象者の候補となる人物の少なくとも一部を人物領域として抽出し、人物領域を示す情報が撮像データと併せて遠隔装置に送信され、遠隔装置の表示部は、撮像データ及び人物領域を示す情報を操作者に表示するか、又は、遠隔装置は、周囲に存在する人物とロボットとの距離に基づいて、撮像データから、コミュニケーション対象者の候補となる人物の少なくとも一部を人物領域として抽出し、遠隔装置の表示部は、撮像データ及び人物領域を示す情報を操作者に表示しても良い。これにより、操作者は、人物領域を示す情報によって、遠隔装置の表示部上に表示された人物の中からコミュニケーション対象者を選択する処理がしやすくなる。また、操作者は、コミュニケーションを取ろうとしている人物を、より精度良くコミュニケーション対象者として選択することができる。
本発明の例示的な一態様に係るコミュニケーション方法は、周囲に存在する人物の中から、コミュニケーションの対象となるコミュニケーション対象者を特定する特定ステップと、特定したコミュニケーション対象者に関連する個人情報を取得する取得ステップと、個人情報を保護する保護処理がセットで実行されるように、個人情報を表示部に表示させる表示処理ステップをロボットが実行するものである。これにより、ロボットは、コミュニケーション対象者に対してコミュニケーション対象者に関する情報を視認させるため、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことができる。また、ロボットの表示データに基づいて第三者が個人を特定しにくくなるため、コミュニケーション対象者がロボットと安心してコミュニケーションを取ることができる。
本発明の例示的な他の態様に係るコミュニケーション方法は、周囲に存在する人物を撮像する撮像ステップと、撮像した撮像データを遠隔装置に送信する送信ステップと、遠隔装置から、コミュニケーションの対象となるコミュニケーション対象者を周囲に存在する人物の中から特定する特定情報を受信する受信ステップと、特定したコミュニケーション対象者に関連する個人情報を表示部に表示させる表示処理ステップをロボットが実行するものである。これにより、ロボットは、コミュニケーション対象者に対してコミュニケーション対象者に関する情報を視認させるため、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことができる。
本発明の例示的な一態様に係るプログラムは、周囲に存在する人物の中から、コミュニケーションの対象となるコミュニケーション対象者を特定する特定ステップと、特定した前記コミュニケーション対象者に関連する個人情報を取得する取得ステップと、個人情報を保護する保護処理がセットで実行されるように、個人情報を表示部に表示させる表示処理ステップをロボットに実行させるものである。これにより、ロボットは、コミュニケーション対象者に対してコミュニケーション対象者に関する情報を視認させるため、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことができる。また、ロボットの表示データに基づいて第三者が個人を特定しにくくなるため、コミュニケーション対象者がロボットと安心してコミュニケーションを取ることができる。
本発明の例示的な他の態様に係るプログラムは、周囲に存在する人物を撮像する撮像ステップと、撮像した撮像データを遠隔装置に送信する送信ステップと、遠隔装置から、コミュニケーションの対象となるコミュニケーション対象者を周囲に存在する人物の中から特定する特定情報を受信する受信ステップと、特定したコミュニケーション対象者に関連する個人情報を表示部に表示させる表示処理ステップをロボットに実行させるものである。これにより、ロボットは、コミュニケーション対象者に対してコミュニケーション対象者に関する情報を視認させるため、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことができる。
本発明により、コミュニケーション対象者に対してコミュニケーション対象であることを効果的に示すことが可能なロボット、コミュニケーションシステム、コミュニケーション方法及びプログラムを提供することができる。
実施の形態1にかかるコミュニケーションシステムの一例を示す模式図である。 実施の形態1にかかるロボットの外部構成の一例を示す図である。 実施の形態1にかかるロボットの一例を示すブロック図である。 実施の形態1にかかる操作端末の一例を示すブロック図である。 実施の形態1にかかる管理サーバの一例を示すブロック図である。 実施の形態1にかかるコミュニケーションシステムの動作例を示すシーケンス図である。 実施の形態1にかかるコミュニケーションシステムの動作例を示すシーケンス図である。 実施の形態2にかかるロボットの一例を示すブロック図である。 実施の形態2にかかるロボットの動作例を示すフローチャートである。 各実施の形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。
まず、図1~図5を用いて、本実施の形態にかかるコミュニケーションシステムの構成と動作について説明する。その後、図6A、6Bを用いて、本実施の形態にかかるコミュニケーションシステム全体の動作について説明する。
<コミュニケーションシステム>
図1は、実施の形態にかかるコミュニケーションシステムを説明するための図である。図1に示すように、本実施の形態にかかるコミュニケーションシステム1は、ロボット10、操作端末20(遠隔装置)、及び管理サーバ30を備える。本実施の形態にかかるコミュニケーションシステム1は、操作端末20によって遠隔操作されるロボット10が、ロボット10の周囲に存在するサービス利用者である対象者C(図2参照)と会話等のコミュニケーションを行うコミュニケーションシステムである。
ロボット10は、例えばイベント等の会場に置かれることで、対象者Cに対して会場の案内や宣伝等をすることができる。ロボット10には、コミュニケーションをするために、表示パネル、マイク及びスピーカが搭載されている。ロボット10の詳細な構成については後述する。
ロボット10と操作端末20は、互いに離れた位置に配置されており、操作者は操作端末20を用いてロボット10を遠隔操作することができる。ロボット10と操作端末20は、後述するように、ロボット10の動作指示、映像データ、音声データ等について、互いに通信可能に構成されている。また、ロボット10と管理サーバ30、操作端末20と管理サーバ30も、互いに通信可能に構成されている。なお、管理サーバ30は、ロボット10および操作端末20と離れた位置に配置されていてもよく、操作端末20の近傍に配置されていてもよく、ロボット10の近傍に配置されていてもよい。以下、本実施の形態にかかるコミュニケーションシステム1の構成と動作について詳細に説明する。
<ロボットの外部構成>
まず、ロボット10の外部構成について説明する。図2に示すように、ロボット10は、移動ユニット101及び本体部102を備える。
移動ユニット101は、ロボット10を移動させるためのユニットである。例えば、移動ユニット101の下面には車輪(不図示)が設けられており、この車輪を駆動することで、ロボット10を平面上で自在に移動又は回転させることができる。移動ユニット101は、操作端末20からの制御信号によって、移動又は回転の方向、速度、停止等が制御される。ロボット10が回転することにより、頭部113が向く方向を変える、すなわち、ロボット10がコミュニケーションをする対象者を変えることができる。
本体部102は、移動ユニット101の上部に搭載されており、胴部111、接続部112及び頭部113を有する。移動ユニット101の上部に胴部111が搭載され、接続部112は、胴部111と頭部113を接続している。
胴部111には、正面に支持されたアーム121及びその先端部に設置されたハンド122を備える。アーム121とハンド122は、操作端末20からの制御信号によって、不図示のモータを介して駆動され、様々な物体を制御された姿勢で把持したり、感情を表現するジェスチャーを行ったりする。例えば、アーム121とハンド122が連動して動作することで、ロボット10の近傍にあるパンフレット、お菓子等のグッズをハンド122が把持し、それをロボット10とコミュニケーションを取っている人物の前まで移動させて、その人物に渡すように制御されても良い。
頭部113は、ステレオカメラ131(取得部、撮像部又は撮像装置)、マイク132、スピーカ133及び表示パネル134を備え、コミュニケーション対象者C(以下、対象者Cと記載)とコミュニケーションを取るための構成を有する。以下、頭部113の詳細な構成について説明する。
ステレオカメラ131は、同じ画角を有する2つのカメラユニット131A、131Bが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された画像を撮像データとして生成する。この撮像データは、静止画でも良いし、動画でも良い。ステレオカメラ131は、このようにして、ロボット10の周囲に存在する人物を撮像する。なお、ステレオカメラ131は、ロボット10周辺に人物(コミュニケーション対象の候補者)が存在することだけでなく、ロボット10からその人物までの距離を検出することもできる。ロボット10は、撮像された撮像データ及び距離の情報を、操作端末20に送信する。
マイク132は、ロボット10の周辺で発生する音や、人物の声を音声データに変換する。ロボット10は、その音声データを操作端末20に送信する。
スピーカ133は、操作端末20からの指示に応じてロボット10が記憶した音声データを選択し、その音声を出力しても良いし、操作端末20からの指示に応じて生成した音声を出力しても良い。また、操作端末20から受け取った音声データを実際の音声に変換して出力することもできる。
表示パネル134は、例えば液晶パネルであり、顔画像(撮像された顔画像の実画像、又は、撮像された顔画像に基づいて生成された加工画像)を対象者Cに対して表示する。表示パネル134に実画像又は加工画像の顔を表示することにより、表示パネル134が擬似的な顔部であるかの印象を対象者Cに与えることができる。また、表示パネル134は、文字情報や絵の情報(例えばアイコン)等を表示して、対象者Cに知らせることもできる。表示パネル134に表示される上述の顔画像、文字情報や絵の情報は、ロボット10が記憶又は生成しても良いし、操作端末20から表示データとして受け取っても良い。
また、表示パネル134は、表示面にタッチパネルを設けて、対象者Cからの指示入力を受け付けるように構成しても良い。ロボット10は、受け付けた指示入力に応じた動作をしても良いし、その指示入力を操作端末20に送信しても良い。
なお、移動ユニット101がロボット10の向きを変えることで、頭部113が面する方向を変えることができる。そのため、ステレオカメラ131は、任意の方向の対象物を撮像することができ、マイク132は、任意の方向からの音声データを取得することができる。また、スピーカ133、表示パネル134は、それぞれ、任意の方向に向けて音声を発したり、任意の方向へ向けて表示内容を呈示したりすることができる。
<ロボットのシステム構成>
次に、ロボット10のシステム構成について説明する。図3は、ロボットのシステム構成を説明するためのブロック図である。図3に示すように、ロボット10は、システム構成として、ステレオカメラ131、マイク132、スピーカ133、表示パネル134のほかに、制御部140(表示処理部及び抽出部)、アーム駆動部141、移動ユニット駆動部142、通信部143(送信部及び受信部)及び記憶部144を備える。
制御部140は、ロボット10の各部の処理を制御するものであり、バスを介して、他の各構成要素と接続されている。
制御部140は、ステレオカメラ131から取得した撮像データや、マイク132から取得した音声データ(例えば、人物の画像データや音声データ)を、通信部143を介して操作端末20に送信する。また、必要に応じて、制御部140は、ステレオカメラ131やマイク132から取得した撮像データ、音声データを、記憶部144に格納しても良い。制御部140は、記憶部144に格納した任意のデータを読みだして利用したり、削除したりすることができる。
例えば、制御部140は、ステレオカメラ131が撮像した撮像データを表示パネル134に表示させることができる。制御部140は、撮像データのうち、選択された対象者Cの実物の顔画像の部分を抽出して、その顔画像を表示パネル134に表示させても良い。また、制御部140は、対象者Cの顔画像に対して保護処理である加工を施した加工画像を作成して、その顔画像を表示パネル134に表示させても良い。加工画像は、例えば実物の顔画像をフィルタ加工したものであっても良いし、実物の顔画像に基づく似顔絵又はアバターであっても良い。制御部140は、公知の加工処理を用いてこの加工画像を生成することができる。
また、制御部140は、ステレオカメラ131から取得した撮像データに基づいて、撮像データに映っている人物の少なくとも一部を人物領域として抽出しても良い。人物の存在を検出するために、制御部140は、顔検出(顔全体又は顔のパーツの検出)、顔認識、人物検出、動画における人物追跡等の公知の技術を用いることができる。
また、制御部140は、公知の測定技術を用いて、人物とロボット10との距離(以下、人物との距離と記載)を算出することもできる。なお、制御部140は、マイク132から取得した音声データのうち、撮像データに映っている人物の音声データを抽出し、その音声データをさらに用いて、人物との距離を算出しても良い。
制御部140は、人物領域を示す情報及び算出した人物との距離を、ステレオカメラ131から取得した撮像データと併せて、通信部143を介して操作端末20に送信しても良い。例えば、制御部140は、撮像データにおいて人物の顔を検出した場合に、その顔を四角形等の図形で囲む目印を、人物領域を示す情報として撮像データに付加する。また、ある人物の検出した距離を、撮像データ上において、その人物の顔の近傍に表示させるように撮像データに付加する。制御部140は、これらの付加処理がなされた撮像データを、操作端末20に送信する。なお、送信される撮像データには、複数の人物に関して、その存在を示す情報及び人物との距離に係る情報が含まれていても良いことはいうまでもない。
また、制御部140は、通信部143を介して操作端末20から受信した音声データを、音声としてスピーカ133から出力する。また、通信部143を介して操作端末20から受信した表示データを、表示パネル134に表示させる。なお、制御部140は、操作端末20からの指示に応じて、記憶部144に記憶された音声データや表示データを選択し、それぞれスピーカ133、表示パネル134から出力しても良い。また、必要に応じて、制御部140は、操作端末20から受信した音声データ、表示データを、記憶部144に格納しても良い。
また、制御部140は、制御信号をアーム駆動部141に出力することで、アーム121及びハンド122を駆動させる。これにより、ロボット10のアーム部を任意の態様で動かすことができる。例えば、制御部140は、操作端末20(又は管理サーバ30)から送信された操作信号に基づいて、ステレオカメラ131で撮影されている対象者Cに対し、アーム121を前方に伸ばすことによって、握手の動作をすることができる。
また、制御部140は、制御信号を移動ユニット駆動部142に出力することで、移動ユニット101を駆動させる。これにより、ロボット10を任意の態様で移動させることができる。例えば、制御部140は、操作端末20(又は管理サーバ30)から送信された操作信号に基づいて、移動ユニット101を制御するための制御信号を生成することができる。また、制御部140は、ステレオカメラ131やマイク132から取得した情報を用いて、ロボット10の周囲の障害物を検知し、この検知した障害物に関する情報を用いて制御信号を生成してもよい。これにより、ロボット10が障害物を回避して移動するように移動ユニット101を制御することができる。制御部140は、このような動作に関するロボット10の現在の動作状態(実行中の動作、実行された動作及び実行できなかった動作に関するもの)を、通信部143を介して操作端末20に送信する。
アーム駆動部141は、アーム121を駆動するための手段であり、例えばモータ等を用いて構成することができる。アーム駆動部141は、制御部140から供給された制御信号に基づいて、アーム121及びハンド122を駆動する。
移動ユニット駆動部142は、移動ユニット101を駆動するための手段であり、例えばモータ等を用いて構成することができる。移動ユニット駆動部142は、制御部140から供給された制御信号に基づいて、移動ユニット101を駆動する。
通信部143は、操作端末20、管理サーバ30のそれぞれと、有線または無線で通信可能に構成されている。通信部143によって、操作信号、撮像データや音声データといった情報を送受信することができる。例えば、通信部143は、WebRTC(Web Real-Time Communication)により、ウェブブラウザ又はモバイルアプリケーションによるリアルタイム通信で、操作端末20と撮像データや音声データの送受信をしても良い。また、通信部143は、所定の通信プロトコル(例えばWebSocket)により、操作端末20から操作信号を受信したり、操作端末20に現在の動作状態を送信したりしても良い。
記憶部144には、ステレオカメラ131やマイク132から取得した撮像データ、音声データや、操作端末20から受信したデータ(例えば音声データや表示データ)が格納される。また、記憶部144には、コミュニケーションに必要な文字、絵等の表示データが格納されていても良い。この表示データは、例えば、ロボット10が設けられる会場で実施されるイベントの一覧や、ナビゲーションに用いられる図であっても良い。ナビゲーションに用いられる図として、会場の見取り図(特に、ロボット10周辺の環境が示された見取り図)、会場から近隣の交通機関へのアクセスを示す図が一例として挙げられる。制御部140は、格納されたこれらのデータを、操作端末20からの操作信号に応じて読みだし、表示パネル134に表示させることができる。
なお、ロボット10の上記構成は一例であり、本実施の形態にかかるコミュニケーションシステム1において、ロボット10の構成は上記構成に限定されることはない。
<操作端末の構成>
次に、操作端末20について説明する。図1に示すように、操作端末20は、操作者がロボット10を遠隔操作するための端末であり、例えば、パーソナルコンピュータやタブレット端末等を用いて構成することができるコンピュータである。図1に示されるように、操作端末20は、その外観上において、カメラ201と表示部202が設けられている。
図4は、操作端末のシステム構成を説明するためのブロック図である。図4に示すように、操作端末20は、カメラ201、表示部202、スピーカ203、マイク204、入力部205、通信部206(特定情報送信部)、記憶部207及び制御部208を備える。制御部208は、操作端末20を制御する機能を有し、カメラ201、表示部202、スピーカ203、マイク204、入力部205、及び通信部206は、制御部208に接続されている。
カメラ201は、操作端末20の表示部202の前方にいる操作端末20の操作者を撮影する。表示部202は、ロボット10から送信された撮像データ(撮像データには、例えば人物の画像、人物領域を示す情報及び算出された人物との距離の情報が含まれる)や、ロボット10の現在の動作状態を表示する。また、スピーカ203は、通信部143を介して操作端末20から受信した音声データ(例えば、人物の声)を音声に変換して出力する。これにより、操作端末20の操作者は、人物の顔や音声等を確認することができる。
マイク204は、操作端末20の周辺で発生する音や、人物の声(例えば、操作端末20を操作している操作者の声)を音声データに変換する。この音声データは、通信部206を介してロボット10の通信部143に送信されても良い。
入力部205は、操作者が操作端末20に対して情報を入力するための手段である。入力部205に情報が入力されることで、ロボット10を遠隔操作するための各種情報が入力される。制御部208は、入力された入力情報を操作信号として通信部206からロボット10に送信する。
例えば、入力部205は、タッチパネルやキーボードを用いて構成することができる。例えば、タッチパネルを用いて入力部205を構成した場合は、表示部202に表示されているアイコン等を操作者が押下することで、ロボット10を遠隔操作することができる。また、キーボードを用いて入力部205を構成した場合は、例えば、キーボードから所定の情報を入力することで、ロボット10を遠隔操作することができる。
なお、表示部202に人物の画像及び人物領域を示す情報が撮像データとして表示されているとき、操作者が表示部202上での人物の表示領域を入力部205で指定することにより、その人物をコミュニケーションの対象者Cとして選択することができる。指定は、操作者がタッチパネルを押下したり、キーボードによる入力であったりしても良い。
入力部205の入力によりなされる遠隔操作は、例えば、ロボット10全体の移動、アーム121及びハンド122の動作、スピーカ133からの音声の出力、表示パネル134への表示内容の決定及び変更に関するものであるが、これに限られない。
通信部206は、ロボット10、管理サーバ30のそれぞれと有線または無線で通信可能に構成されている。例えば、通信部206は、制御部208から出力された情報をロボット10に送信するほか、ロボット10から送信された情報を制御部208に出力することにより、ロボット10の遠隔操作を実行する。通信部206により送受信される情報は、上述の通りである。例えば、通信部206は、WebRTCにより、通信部143と撮像データや音声データの送受信をしても良いし、WebSocketにより、通信部143に操作信号を送信したり、通信部143から現在の動作状態を受信したりしても良い。
記憶部207は、制御部208の制御によって、カメラ201、スピーカ203、マイク204、入力部205から取得した情報を格納することができる。また、制御部208の制御によって、ロボット10から通信部206を介して取得した撮像データ、音声データ等の情報を格納しても良い。
制御部208は、操作端末20の各部の処理を制御するものであり、バスを介して、他の各構成要素と接続されている。
制御部208は、カメラ201から取得した撮像データや、マイク204から取得した音声データ(例えば、操作者の画像データや音声データ)を、通信部206を介してロボット10に送信することができる。また、制御部208は、入力部205から入力されたロボット10の遠隔操作に関する入力情報を操作信号として、通信部206を介してロボット10に送信することができる。
また、制御部208は、通信部206を介してロボット10から受信した音声データを、音声としてスピーカ203から出力する。また、通信部206を介してロボット10から受信した撮像データを、表示部202に表示させる。さらに、制御部140は、ロボット10から受信したロボット10の現在の動作状態を、表示部202に表示させる。
また、制御部208は、記憶部207に、取得した各種情報を格納することができるほか、格納された任意の情報を読みだしたり、削除したりすることができる。
なお、操作端末20の上記構成は一例であり、本実施の形態にかかるコミュニケーションシステム1において、操作端末20の構成は上記構成に限定されることはない。
<管理サーバの構成>
次に、管理サーバ30について説明する。図1に示すように、管理サーバ30は、ロボット10を管理するためのサーバである。管理サーバ30は、ロボット10、操作端末20とそれぞれ通信可能に構成されている。
図5は、管理サーバのシステム構成を説明するためのブロック図である。図5に示すように、管理サーバ30は、通信部301、通信制御部302、及び記憶部303を備える。
通信部301は、ロボット10の通信部143および操作端末20の通信部206と、有線または無線で通信可能に構成されている。通信制御部302は、通信部301を介してロボット10、操作端末20と通信をすることにより、ロボット10と操作端末20間の撮像データ、音声データの通信をアシストする。
例えば、通信部143と通信部206とが、WebRTCにより撮像データや音声データの送受信をする場合を考える。この場合、通信制御部302は、通信部143のWebRTCクライアント、通信部206のアプリケーション表示をそれぞれ制御することで、互いに通信を可能とする。例えば、通信制御部302は、ロボット10と操作端末20とが通信を開始する際に、通信部206のアプリケーションを立ち上げても良い。また、通信部143は、アプリケーション表示のステータス更新の情報を通信部301に送信しても良い。この場合、管理サーバ30は、Webサーバとして機能する。
記憶部303は、通信制御部302の制御に必要な各種情報を記憶する。通信制御部302は、必要な際に記憶部303からその情報を読み込み、制御を行う。
なお、操作端末20、管理サーバ30は、それぞれ、複数のロボット10と通信し、複数のロボット10を管理するように構成されていてもよい。また、管理サーバ30は、操作端末20と同一のコンピュータシステムを構成してもよい。
<コミュニケーションシステムの動作の説明>
次に、本実施の形態にかかるコミュニケーションシステムの動作について、図6A、6Bに示すシーケンス図を用いて説明する。
まず、操作端末20側の操作者は、入力部205に遠隔操作の入力をすることで、ロボット10を所望の方向に移動又は回転させるように操縦する(ステップS11)。制御部208は、その遠隔操作に係る操作信号を生成し、通信部206によりロボット10に送信する(ステップS12)。
ロボット10の通信部143は、その操作信号を受信する。制御部140は、その操作信号に基づいて、移動ユニット駆動部142に対してロボット10を移動又は回転させるための制御信号を出力する。移動ユニット駆動部142がそれに応じて駆動することで、ロボット10は操作者が指示した通りの動作をする(ステップS13)。
ロボット10は、ステレオカメラ131が撮像した撮像データ中に人物を検出した場合(ステップS14)、検出した全ての人物について、人物までの距離を算出する。この詳細は上述の通りである。そして、ロボット10は、検出した全ての人物領域を示す情報及び人物との距離を、ステレオカメラ131から取得した撮像データと併せて、通信部143を介して操作端末20に送信する(ステップS15)。なお、ステレオカメラ131が撮像した撮像データは、一時的に、記憶部144に格納される。
操作端末20の通信部206は、送信された撮像データを受信し、制御部208は、その撮像データを表示部202上に表示させる(ステップS16)。操作者は、表示された一人又は複数の人物のうち、一人の人物を入力部205で指定することにより、ロボット10の周囲に存在する人物の中から、コミュニケーションの対象となる対象者Cを決定する(ステップS17)。
操作端末20の通信部206は、選択された対象者Cを特定する特定情報を送信する(ステップS18)。ロボット10の通信部143は、その特定情報を受信する。
制御部140は、受信した特定情報に基づいて、対象者Cとコミュニケーションを取る処理をする。しかしながら、ロボット10が単に対象者Cに話しかけた場合には、対象者Cに気づかれない可能性がある。したがって、ロボット10は、次の通り、対象者Cに対してコミュニケーション対象であることを示すようにする。
制御部140は、ステップS18で受信した特定情報に基づいて、対象者Cを特定する特定部として機能し、対象者Cの顔画像を抽出する(すなわち、対象者Cに関連する個人情報を取得する)ことで、その顔画像を表示パネル134に表示させる(ステップS19)。顔画像は、静止画の実画像であっても良いし、ステレオカメラ131が撮像した動画データから抽出した、対象者Cの顔領域を追跡した動画であっても良い。また、制御部140は、対象者Cの実画像ではなく、実画像に加工を施した加工画像を生成して、その加工画像を表示パネル134に表示させても良い。加工画像についての詳細な説明は上述の通りである。なお、表示パネル134に表示させる画像は、一時的に、記憶部144に格納される。
制御部140は、ステップS19の処理と連動して、対象者Cの方向に対してロボット10を所定の距離だけさらに移動させても良い。この所定の距離は、ロボット10と対象者Cとの距離よりも短い距離である。この移動は、制御部140が自動的に実行しても良いし、操作者が操作端末20を介して遠隔操作をすることによりなされても良い。また、制御部140は、ステップS19において、対象者Cに対してアピールするために、表示パネル134をさらに発光させるなどの処理を実行しても良い。
制御部140は、対象者Cがロボット10に気づいたことを検出すると、コミュニケーションを開始する(ステップS20)。ここで、制御部140は、例えば次のいずれかの状態を判定した場合に、対象者Cがロボット10に気づいたことを検出する。
(a)対象者Cの視線がロボット10の表示パネル134を見たことを、顔認証、顔検出等の技術を用いて、ステレオカメラ131の撮像データに基づいて制御部140が検出した場合
(b)表示パネル134が対象者Cの顔画像を表示開始後に、対象者Cがロボット10に近づいた距離又は速度が、所定の閾値以上であることを制御部140が検出した場合
(c)表示パネル134がタッチパネルである場合に、対象者Cが表示パネル134に触れたことを制御部140が検出した場合
なお、(b)の所定の閾値は、記憶部144に格納され、制御部140によって判定に用いられる。
なお、制御部140は、コミュニケーションを開始するときに、記憶部144に格納された音声データをスピーカ133から音声として出力する。例えば、スピーカ133からは、「何か御用でしょうか」等の音声が出力される。また、制御部140は、スピーカ133からの音声出力に代えて、又は併せて、記憶部144に格納された表示データを表示パネル134に表示させても良い。表示データは、例えば、対象者Cが情報を取得するためのホーム画面である。
対象者Cが音声を発した場合、その音声は操作端末20に送信され、操作者が聞くことになる。操作者は、その音声に応じて、ロボット10が対象者Cとコミュニケーションを取るための動作を、入力部205を介した遠隔操縦によりロボット10に指示する。この動作は、例えば、スピーカ133から音声を発する、表示パネル134上の画面を変更する、アーム121やハンド122を動かす、等の動作である。また、操作者がスピーカ203に自身の音声を話すことにより、ロボット10のスピーカ133からその音声を出力しても良い。この場合、対象者Cと操作者が、コミュニケーションシステム1によって通話することになる。
また、操作者は、遠隔操作により、ロボット10のアーム121とハンド122を動作させて、ロボット10の近傍にあるグッズを対象者Cに渡す動作を実行させても良い。
対象者Cは、コミュニケーションを取った後、コミュニケーションを終了する(ステップS21)。ここで、コミュニケーションの終了としては、例えば次のいずれかの状態が想定される。
(d)対象者Cがロボット10から遠ざかった距離又は速度が、所定の閾値以上であることを制御部140が検出した場合
(e)所定時間以上、対象者Cがロボット10に話しかけない時間が継続した場合
(f)表示パネル134がタッチパネルである場合に、所定時間以上、対象者Cが表示パネル134に触れない時間が継続した場合
操作端末20の操作者は、ロボット10と対象者Cとのコミュニケーションが終了したと判断した場合に、入力部205を介して、ロボット10に対し、コミュニケーションの終了処理を実行させるよう、遠隔操作する(ステップS22)。操作端末20の通信部206は、終了処理の指示をロボット10に送信する(ステップS23)。
ロボット10の通信部143は、終了処理の指示を受信する。制御部140は、スピーカ133からの音声出力を停止する、表示パネル134に表示された画面を初期画面(ステップS19の前に表示されていた画面)にするといった終了処理を実行する(ステップS24)。遅くともこの段階で、表示パネル134には、コミュニケーションをしていた対象者Cの実画像又は加工画像が表示されなくなる。
さらに、制御部140は、ステップS24において、ステップS19で使用するために記憶部144に格納された対象者Cの実画像又は加工画像を削除する、個人情報の保護処理を実行しても良い。また、制御部140は、記憶部144に一時的に格納されており、過去に対象者Cが撮像された撮像データを参照し、その撮像データを記憶部144からさらに削除しても良い。
また、以上に示した図6A、6Bの処理について、以下のような変更をすることも可能である。
上述のステップS11~S13では、ロボット10が操作端末20からの遠隔操縦によって自身の移動又は回転を実行した。しかしながら、制御部140は、外部からの指示がない場合でも、自動的にロボット10の移動又は回転を実行しても良い。例えば、制御部140は、数~10秒に一度、移動ユニット駆動部142を制御し、ロボット10を所定の距離だけ移動、又は所定の角度だけ回転させても良い。制御部140は、この動作を、ステップS19以前の処理において実行することができる。また、ステレオカメラ131の撮像データ中において、人物がロボット10から所定の閾値以内にいる場合、又は所定の過去の時間から現在までにかけて、ロボット10に近づいた距離又は速度が所定の閾値以上である人物がいる場合には、制御部140は、この動作を停止し、ロボット10を静止させても良い。
上述のステップS14では、ロボット10が、ステレオカメラ131が撮像した撮像データ中に対象者Cを検出した場合に、対象者Cまでの距離を算出した。しかしながら、ロボット10と対象者Cまでの距離の算出は、操作端末20側の制御部208が、ステレオカメラ131から取得した撮像データを用いて実行しても良い。なお、制御部208は、マイク132から取得した音声データのうち、対象者Cの音声データを抽出し、その音声データをさらに用いて、対象者との距離を算出しても良い。
上述のステップS17では、操作端末20の表示部202上に、対象者Cの候補である人物を示す情報が表示され、操作者はそのうちの一人の人物を入力部205で選択することにより、対象者Cを決定した。しかしながら、複数の人物が撮像データ中に存在する場合に、操作端末20は、そのうちの特定の1又は複数の人物を対象者Cの候補として選択して、表示部202上に表示させても良い。例えば、制御部208は、撮像データ中に存在する複数の人物のうち、最も距離が近い人物、又はロボット10から所定の閾値以内にいる人物の少なくともいずれかを、対象者Cの候補として選択しても良い。又は、制御部208は、撮像データが動画である場合、所定の過去の時間(例えば数~10秒前)から現在までにかけて、ロボット10に近づいた距離又は速度が所定の閾値以上である人物を対象者Cの候補として選択しても良い。この場合、ロボット10に近づいてくる人物は、ロボット10に興味を有して近づいてくると想定されるからである。
選択された人物は、表示部202上に強調して表示される。例えば、制御部208は、選択された人物全体又はその一部(例えば顔)を表示部202上で濃い枠で囲んだり、発光又は点滅させたりして表示させることができる。
操作者は、入力部205を操作することにより、制御部208が選択した人物を対象者Cとして決定することができる。また、制御部208が選択した人物を対象者Cとして決定しない場合には、その旨を、入力部205を操作することにより入力することもできる。この入力を受けて、制御部208は表示部202上の強調表示を停止し、ステレオカメラ131が撮像した撮像データ中の全ての人物を、ステップS17と同様に表示する。そして、操作者は、入力部205を操作して、その中から一人を対象者Cとして選択する。なお、選択に用いられる所定の閾値は、記憶部207に格納されても良いし、操作者が設定しても良い。
また、ロボット10の制御部140が、撮像データ中に存在する人物について、ロボットとの距離に基づいて、対象者Cの候補者となる所定の人物を判定しても良い。制御部140は、例えば、最も距離が近い人物、ロボット10から所定の閾値以内にいる人物、所定の過去の時間から現在までにかけて、ロボット10に近づいた距離又は速度が所定の閾値以上である人物の少なくともいずれかを満たす人物を判定しても良い。判定条件を満たす人物について、制御部140は、その人物の存在を強調して示す情報を撮像データにさらに付加し、操作端末20に送信しても良い。又は、制御部140は、判定条件を満たす人物に限り、その人物領域を示す情報及び人物との距離の情報を生成し、撮像データと併せて操作端末20に送信しても良い。
上述のステップS19において、制御部140は、表示パネル134に対して、実画像又は加工画像とともに、対象者Cの位置情報を表示しても良い。対象者Cの位置情報は、ステレオカメラ131が撮像した撮像データから取得可能である。制御部140は、対象者Cの位置情報を、ロボット10と対象者Cの位置関係を示す図面、テキストといった情報で表示させる。
また、ステップS19において、顔画像(実画像又は加工画像)は、制御部140に代えて、操作端末20の制御部208が生成し、ロボット10に送信しても良い。通信部143は、顔画像を取得する取得部として機能する。制御部140は、表示パネル134に、その顔画像を表示させる。
ステップS22、S23の処理はなされずに、ロボット10の制御部140が、(d)~(f)の状態を自動的に判定することにより、コミュニケーション終了を判定しても良い。(e)、(f)の所定時間の値は、記憶部144に格納され、制御部140によって判定に用いられる。コミュニケーション終了を判定した場合に、制御部140は、ステップS24の処理を実行する。
また、ステップS24において、制御部140は、対象者Cの情報を削除する旨の通知を、操作端末20に出力しても良い。操作端末20が、対象者Cの実画像又は加工画像、対象者Cが撮像された撮像データを記憶部207に一時的に格納している場合、制御部208は、その通知を受けて、対象者Cの実画像又は加工画像、又は対象者Cが撮像された撮像データのうち少なくともいずれかを記憶部207から削除しても良い。
ステップS19で対象者Cの加工画像を生成した場合、ステップS24において、加工画像は記憶部144から必ずしも削除されなくとも良い。個人情報の保護処理は、加工画像を生成する処理において既になされていると考えられるからである。
なお、ロボット10は、ステレオカメラでなく、他の種類のカメラを撮像部として有しても良い。また、ロボット10に設けられた撮像部に代えて、ロボット10とは別の装置である撮像装置を設けても良い。この撮像装置は、ロボット10周辺の人物を撮像し、その撮像データを操作端末20に送信する。なお、撮像装置は、撮像データから、人物の少なくとも一部を人物領域として抽出し、撮像データと併せて、その人物領域を示す情報を操作端末20に送信しても良い。また、撮像装置は、ロボット10の周囲に存在する人物とロボット10との距離に基づいて、撮像データから、対象者Cの候補となる人物の少なくとも一部を人物領域として抽出し、撮像データと併せて、その人物領域を示す情報を操作端末20に送信しても良い。ただし、この抽出処理は、撮像装置から撮像データを出力されたロボット10側で実行されても良い。この処理の詳細は、上述に記載の通りである。撮像装置又はロボット10は、抽出処理がなされた撮像データを操作端末20に送信し、操作端末20は、送信された撮像データを用いて、上述の処理をする。
<効果の説明>
次に、本実施の形態にかかるコミュニケーションシステムの効果について説明する。
実施の形態1において、ロボット10は、ステレオカメラ131が撮像した周囲に存在する人物の撮像データを操作端末20に送信する。操作端末20は、操作者の操作に基づいて、対象者Cを周囲に存在する人物の中から特定する特定情報を送信する。制御部140は、特定情報が特定する対象者Cに関連する個人情報である実画像又は加工画像を表示パネル134に表示させる。このようにして、ロボット10は、対象者Cに対して対象者Cに関する情報を視認させるため、対象者Cに対してコミュニケーション対象であることを効果的に示すことができる。ロボット10は、イベント等、不特定多数の人物が存在し、人物の個人情報が事前に与えられていない場所に設けられていても、人物の顔画像を撮像することで、人物とコミュニケーションを取ることができる。
また、制御部140は、撮像データから、人物の少なくとも一部を人物領域として抽出し、通信部143は、撮像データと併せて、その人物領域を示す情報を操作端末20に送信することができる。これにより、操作者は、人物領域を示す情報によって、表示部202上に表示された人物の中から対象者Cを選択する処理がしやすくなる。
また、制御部140は、周囲に存在する人物とロボット10との距離に基づいて、撮像データから、対象者Cの候補となる人物の少なくとも一部を人物領域として抽出し、通信部143は、撮像データと併せて、その人物領域を示す情報を操作端末20に送信することができる。この処理によっても、操作者は、対象者Cを選択する処理がしやすくなる。また、制御部140が、ロボット10とコミュニケーションを取ろうとしていると考えられる人物を、ロボット10との距離を考慮して予め選択している。そのため、操作者は、コミュニケーションを取ろうとしている人物を、より精度良く対象者Cとして選択することができる。
制御部140は、ステップS19において、実画像を用いて加工画像を生成し、その加工画像を表示パネル134で表示しても良い。また、制御部140は、ステップS24において、ステップS19で使用するために記憶部144に格納された対象者Cの実画像又は加工画像を削除しても良い。このように、制御部140は、個人情報である顔画像を保護する保護処理がセットで実行されるように、顔画像を表示パネル134に表示させることができる。そのため、ロボット10の表示データに基づいて第三者が個人を特定しにくくなり、対象者Cがロボット10と安心してコミュニケーションを取ることができる。
なお、制御部140が加工画像を生成して表示パネル134に表示させることにより、ロボット10が実画像を表示パネル134にそのまま表示した場合と比較して、第三者に個人を特定される可能性をさらに削減できる。また、制御部140が対象者Cに関する画像を記憶部144から削除することにより、個人情報が適切に管理されているという安心感を対象者Cに対して与えられるため、対象者Cは、ロボット10と安心してコミュニケーションを取ることができる。
また、制御部140は、表示パネル134に対して対象者Cの位置情報を表示させることにより、対象者Cに対してコミュニケーション対象であることを一層効果的に示すことができる。
コミュニケーションシステム1における操作端末20は、送信された撮像データを表示部202で表示し、通信部206は、操作者によって指定された対象者Cに係る特定情報をロボット10に送信する。このようにして、操作端末20の操作者は、ロボット10の対象者Cを決定することができる。
また、コミュニケーションシステム1におけるロボット10又は撮像装置は、撮像データから人物領域を抽出し、操作端末20の表示部202は、撮像データ及び人物領域を示す情報を操作者に表示しても良い。又は、操作端末20が、撮像データから人物領域を抽出し、表示部202が、撮像データ及び人物領域を示す情報を操作者に表示しても良い。これにより、操作者は、人物領域を示す情報によって、表示部202上に表示された人物の中から対象者Cを選択する処理がしやすくなる。
ロボット10又は撮像装置は、撮像データから対象者Cに関する人物領域を抽出し、操作端末20の表示部202は、撮像データ及び人物領域を示す情報を操作者に表示しても良い。又は、操作端末20が、撮像データから対象者Cに関する人物領域を抽出し、表示部202が、撮像データ及び人物領域を示す情報を操作者に表示しても良い。この処理によっても、操作者は、対象者Cを選択する処理がしやすくなる。また、操作者は、コミュニケーションを取ろうとしている人物を、より精度良く対象者Cとして選択することができる。
実施の形態2
実施の形態1では、ロボット10及び操作端末20を含むコミュニケーションシステム1を説明したが、対象者Cとのコミュニケーションは、ロボット10単独で行うこともできる。実施の形態2では、この内容について説明する。なお、以降では、実施の形態1と異なる構成及び処理内容について説明し、実施の形態1と共通する構成及び処理内容については、適宜説明を省略する。
実施の形態2におけるロボット10の外部構成については、図2に示した通りである。また、その内部の構成要素については、図7に示す通りである。図7に示す通り、このロボット10は、外部との情報の送受信をするための通信部143を有さない。制御部140は、自動的にロボット10の各部を制御して、ロボット10の動作を実行させる。
例えば、制御部140は、ステレオカメラ131で取得した撮像データ及び距離の情報、マイク132で取得した音声データに基づいて、人物を検出したり、対象者Cを決定したりする。この撮像データ、音声データ等は、適宜記憶部144に格納される。また、制御部140は、記憶部144から移動や動作のロジックを読み込むことにより、アーム駆動部141、移動ユニット駆動部142をそれぞれ制御することで、ロボット10の移動や動作を制御する。一例として、制御部140は、近くに人物を検出した場合に、その人物を避けるように移動したり、その人物の方向に頭部113が向いたりするように移動ユニット101を制御しても良い。また、制御部140は、その人物の動作に応じて、アーム121とハンド122を連動して動作させ、その人物に物を渡したり、握手等のコミュニケーションをしたりするように制御しても良い。例えば、表示パネル134がタッチパネルである場合に、対象者Cからタッチパネルを介した指示入力を受け付けた場合に、制御部140はそのような動作を実行しても良い。
さらに、制御部140は、記憶部144から音声データを読みだすことにより、スピーカ133から、状況に応じたコミュニケーションに関する音声を出力しても良い。また、制御部140は、表示パネル134に表示される顔画像、文字情報や絵の情報を、自身で生成するか、記憶部144から読み込む。
制御部140は、人物領域を示す情報及び算出した人物との距離に基づいて、検出した1又は複数の人物の中から、ロボット10がコミュニケーションを取る対象者Cがいるか否かを判定する。例えば、制御部140は、撮像データ中に存在する複数の人物のうち、最も距離が近い人物、又はロボット10から所定の閾値以内にいる人物を、対象者Cとして選択しても良い。又は、制御部208は、撮像データが動画である場合、所定の過去の時間(例えば数~10秒前)から現在までにかけて、ロボット10に近づいた距離又は速度が所定の閾値以上である人物を対象者Cの候補として選択しても良い。この場合、ロボット10に近づいてくる人物は、ロボット10に興味を有して近づいてくると想定されるからである。以上の条件を満たさない場合には、制御部140は、ロボット10がコミュニケーションを取る対象者Cがいないと判定する。
なお、ロボット10の上記構成は一例であり、本実施の形態にかかるコミュニケーションシステム1において、ロボット10の構成は上記構成に限定されることはない。
<ロボットの動作の説明>
次に、本実施の形態にかかるロボットの動作について、図8に示すフローチャートを用いて説明する。
まず、ロボット10の制御部140は、記憶部144から移動のロジックを読み込むことにより、ロボット10を自律的に移動させる(ステップS31)。
制御部140は、ステレオカメラ131が撮像した撮像データ中に人物を検出した場合、この人物が、コミュニケーションを取る対象者Cとなるか否かを判定する(ステップS32)。これにより、制御部140は、対象者Cが存在するか否かを判定する。上述の通り、ロボット10は、人物領域を示す情報及び算出した人物との距離に基づいて、対象者Cを判定することができる。
対象者Cが存在しない場合(ステップS32のNo)、制御部140は、ステップS31に戻って処理を実行する。一方、対象者Cが存在する場合(ステップS32のYes)、制御部140は、対象者Cが撮像された撮像データを用いて、対象者Cの顔画像を抽出する(すなわち、対象者Cに関連する個人情報を取得する)。そして、制御部140は、その顔画像を表示パネル134に表示させる(ステップS33)。この顔画像は、上述の通り、実画像であっても良いし、加工画像であっても良い。
制御部140は、対象者Cがロボット10に気づいたことを検出すると、コミュニケーションを開始する(ステップS34)。この検出の詳細については、実施の形態1に記載の通りである。コミュニケーション開始後、制御部140は、スピーカ133から取得される対象者Cの音声、ステレオカメラ131が撮像した対象者Cの動作等に基づいて、動作を実行したり、マイク132で音声を出力したりする。
制御部140は、コミュニケーションを開始して所定の時間が経過後、対象者Cとのコミュニケーションが終了したか否かを判定する(ステップS35)。この検出の詳細についても、実施の形態1に記載の通りである。
コミュニケーションが終了していない場合(ステップS35のNo)、制御部140は、コミュニケーションを続行し、所定の時間が経過後、再度ステップS35の判定処理を行う。一方、コミュニケーションが終了した場合(ステップS35のYes)、制御部140は、スピーカ133からの音声出力を停止する、表示パネル134に表示された画面を初期画面にするといった終了処理を実行する(ステップS36)。さらに、制御部140は、記憶部144に格納された対象者Cの実画像、加工画像、撮像データ等を削除する、個人情報の保護処理を実行しても良い。
なお、ロボット10は、ステレオカメラでなく、他の種類のカメラを撮像部として有しても良い。また、ロボット10に設けられた撮像部に代えて、ロボット10とは別の装置である撮像装置を設けても良い。この撮像装置は、ロボット10周辺の人物を撮像し、その撮像データをロボット10に送信する。なお、撮像データから、人物の少なくとも一部を人物領域として抽出する処理又は対象者Cの候補となる人物の少なくとも一部を人物領域として抽出する処理は、ロボット10と撮像装置のいずれが実行しても良い。
<効果の説明>
次に、本実施の形態にかかるロボット10の効果について説明する。
実施の形態2でも、実施の形態1と同様、ロボット10の制御部140は、個人情報である顔画像を保護する保護処理がセットで実行されるように、顔画像を表示パネル134に表示させることができる。これにより、ロボット10は、対象者Cに対してコミュニケーション対象であることを効果的に示すことができる。
さらに、ロボット10が顔画像を撮像するステレオカメラ131を有することで、ロボット10単独で、顔画像を用いて、対象者Cに対してコミュニケーション対象であることを効果的に示すことができる。
また、制御部140は、ロボット10の周囲に存在する人物とロボット10との距離に基づいて、コミュニケーション対象者を特定することができる。これにより、ロボット10は、ロボット10に対してコミュニケーションを取ろうとしている対象者Cを精度良く判定することができる。その他の効果については、実施の形態1で記載した効果と同様のことがいえる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、実施の形態1、2において、ロボット10又は操作端末20は、検出された撮像データ中の人物の中で、所定の条件を満たす人物を、優先して対象者Cの候補者として選択しても良い。所定の条件は、例えば、子供であっても良い。ある人物が子供か否かは、人物の顔画像、人物の服装、人物の身長等の少なくともいずれかに基づいて、ロボット10又は操作端末20が判定することができる。または、車椅子に搭乗した人物等、何らかの介助が必要と考えられる人物も、同様にして判定することができる。ロボット10又は操作端末20は、判定された人物を、優先して対象者Cの候補者として表示部202に表示させるよう、実施の形態1で記載した通り、表示部202上に強調して表示されるように制御しても良い。
実施の形態1において、管理サーバ30は、コミュニケーションシステム1に必ずしも設けられなくても良い。また、別の端末がコミュニケーションシステム1に設けられても良い。別の端末として、例えば、スタッフがロボット10の近傍でロボット10の状態をチェックするためのタブレット端末が挙げられる。
表示パネル134に表示される対象者Cの画像として、対象者Cの正面以外の画像(例えば後ろ姿)を用いても良い。例えば、制御部140は、対象者Cが特定された場合に、記憶部144に格納された過去の撮像データ(例えば動画データ)を参照し、過去の撮像データ中の対象者Cの正面以外の画像を特定して抽出する。これにより、制御部140は、対象者Cの正面以外の画像を表示させることができる。この画像は、実施の形態に記載の通り、加工がなされても良い。
表示パネル134に表示される対象者Cの個人情報は、実施の形態で示したもの以外のバリエーションも考えられる。例えば、コミュニケーションシステム1内に、人物の個人情報を取得可能なコンピュータを設け、ロボット10は、そのコンピュータと連動した処理をすることにより、人物の個人情報を取得しても良い。
例えば、ロボット10が設けられるイベント会場の入口に、イベント参加者の顔画像を撮像するカメラと、そのカメラと接続され、撮像されたイベント参加者の顔画像と、その参加者の受付番号とを関連付けてイベント参加者に提示する受付コンピュータを設けても良い。受付コンピュータは、イベント参加者の顔写真と、その参加者の受付番号とを紐づけて、自身の記憶部に記憶する。
操作端末20がステップS17で対象者Cを決定した場合に、操作端末20は、対象者Cの顔画像の情報を含む受付番号の問い合わせを受付コンピュータに送信する。受付コンピュータは、問い合わせに応じて、受信した顔画像と紐づけられた受付番号を、個人情報として操作端末20に送信する。操作端末20は、その受付番号を、ステップS18においてロボット10に送信する。ロボット10は、その受付番号を、ステップS19で表示する。受付番号の情報では、第三者から対象者Cを特定することが困難であるため、受付番号を表示することは、「個人情報を保護する保護処理」に該当する。これにより、ロボットは、対象者Cに対してコミュニケーション対象であることを効果的に示すことができるほか、個人情報を保護することもできる。ただし、ロボット10は、受付番号に加えて、対象者Cの実際の顔画像又は加工画像を表示パネル134に表示しても良い。
なお、上述の例では、操作端末20が受付コンピュータに問い合わせを送信しているが、ロボット10がステップS18によって対象者Cの特定情報を取得した後に、対象者Cの顔画像の情報を含む問い合わせを受付コンピュータに送信しても良い。受付コンピュータは、問い合わせに応じて受付番号をロボット10に送信し、ロボット10は、その受付番号を、ステップS19で表示する。
また、受付番号に代えて、イベント参加者の仮名、イニシャル等、イベント参加者が自身を認識可能な他の種類の情報が用いられても良い。ロボット10は、そのような情報を文字情報として単独で表示パネル134に表示させても良いし、対象者Cの実際の顔画像又は加工画像と併せて表示させても良い。なお、以上に示した受付番号等の表示パネル134上での表示処理は、実施の形態2に示されたロボット10においても、ロボット10が対象者Cを決定した場合に、顔画像の情報を含む問い合わせを受付コンピュータに送信し、受付番号等の個人情報を受付コンピュータから受信することで、同様に実現される。
図9は、以上に示した各実施の形態の処理が実行されるロボット10、操作端末20及び管理サーバ30を構成する情報処理装置のハードウェア構成例を示すブロック図である。図9を参照すると、この情報処理装置90は、信号処理回路91、I/O部(Input/Output)92、プロセッサ93及びメモリ94を含む。
信号処理回路91は、プロセッサ93の制御に応じて、信号を処理し、出力するための任意の回路である。I/O部92は、情報処理装置90の遠隔装置と情報の入出力を実行するハードウェアインタフェースである。
プロセッサ93は、メモリ94からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態において説明された装置の処理を行う。プロセッサ93の一例として、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)のうち一つを用いてもよいし、これらのうちの複数が用いられてもよい。プロセッサ93がメモリ94からソフトウェアを読み出して実行し、信号処理回路91を制御することで、信号処理回路91は、ロボット10、操作端末20及び管理サーバ30のそれぞれにおいて、メモリを除く各部の機能を実行する。
メモリ94は、揮発性メモリや不揮発性メモリ、またはそれらの組み合わせで構成される。メモリ94は、1個に限られず、複数設けられてもよい。なお、揮発性メモリは、例えば、DRAM (Dynamic Random Access Memory)、SRAM (Static Random Access Memory)等のRAM (Random Access Memory)であってもよい。不揮発性メモリは、例えば、PROM (Programmable Random Only Memory)、EPROM (Erasable Programmable Read Only Memory) 等のROM (Random Only Memory)や、SSD(Solid State Drive)であってもよい。
なお、メモリ94は、プロセッサ93の外部に設けられるものに加えて、プロセッサ93に内蔵されているものを含んでもよい。また、メモリ94は、プロセッサ93を構成するプロセッサから離れて配置されたストレージを含んでもよい。この場合、プロセッサは、例えばI/O部92を介してメモリ94にアクセスすることができる。
図9の例では、メモリ94は、ソフトウェアモジュール群を格納するために使用される。プロセッサ93は、これらのソフトウェアモジュール群をメモリ94から読み出して実行することで、上述の実施形態において説明された処理を行うことができる。
以上に説明したように、上述の実施形態における各装置が有する1又は複数のプロセッサは、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。この処理により、各実施の形態に記載された信号処理方法が実現できる。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、光学記憶媒体(例えばDVD(Digital Versatile Disc)、CD(Compact Disc)といった光ディスク)、半導体メモリ(例えば、マスクROM(Read Only Memory)、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、実施の形態を参照して本発明を説明したが、本発明は上記によって限定されるものではない。本発明の構成や詳細には、開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
1 コミュニケーションシステム
10 ロボット
101 移動ユニット
102 本体部
111 胴部
112 接続部
113 頭部
121 アーム
122 ハンド
131 ステレオカメラ
132 マイク
133 スピーカ
134 表示パネル
140 制御部
141 アーム駆動部
142 移動ユニット駆動部
143 通信部
144 記憶部
20 操作端末
201 カメラ
202 表示部
203 スピーカ
204 マイク
205 入力部
206 通信部
207 記憶部
208 制御部
30 管理サーバ
301 通信部
302 通信制御部
303 記憶部

Claims (16)

  1. 周囲に存在する人物とコミュニケーションを実行するロボットであって、
    前記ロボットの周囲に存在する人物の中から、コミュニケーションの対象となるコミュニケーション対象者を特定する特定部と、
    前記特定部が特定した前記コミュニケーション対象者の画像を取得する取得部と、
    前記コミュニケーション対象者の前記画像に対し、個人情報の保護処理を実行する処理部と、
    前記コミュニケーション対象者に対し、前記保護処理が実行された状態の前記画像を表示する表示部と、を備える
    ロボット。
  2. 前記処理部は、前記保護処理として、前記コミュニケーション対象者の前記画像であって、前記コミュニケーション対象者の後ろ姿の画像を前記表示部に表示させる、
    請求項1に記載のロボット。
  3. 前記画像は、前記コミュニケーション対象者の顔画像を含み、
    前記処理部は、前記顔画像を前記表示部に表示させた後、記顔画像のデータを前記ロボットから削除させる処理を実行する、
    請求項1に記載のロボット。
  4. 前記取得部は、前記顔画像を撮像する撮像部を含む、
    請求項に記載のロボット。
  5. 前記特定部は、前記コミュニケーション対象者の位置情報をさらに特定し、
    前記表示は、前記保護処理が実行された状態の前記画像とともに、前記位置情報を前記コミュニケーション対象者に対して表示する
    請求項1乃至4のいずれか1項に記載のロボット。
  6. 前記特定部は、前記周囲に存在する人物と前記ロボットとの距離に基づいて、前記コミュニケーション対象者を特定する、
    請求項1乃至5のいずれか1項に記載のロボット。
  7. 周囲に存在する人物とコミュニケーションを実行するロボットであって、
    前記ロボットの周囲に存在する人物を撮像する撮像部と、
    前記撮像部が撮像した撮像データを遠隔装置に送信する送信部と、
    前記遠隔装置から、コミュニケーションの対象となるコミュニケーション対象者を前記ロボットの周囲に存在する人物の中から特定する特定情報を受信する受信部と、
    前記特定情報が特定する前記コミュニケーション対象者の画像に対し、個人情報の保護処理を実行する処理部と、
    前記コミュニケーション対象者に対し、前記保護処理が実行された状態の前記画像を表示する表示部と、を備える
    ロボット。
  8. 前記撮像データから、人物の少なくとも一部を人物領域として抽出する抽出部をさらに備え、
    前記送信部は、前記撮像データと併せて、前記人物領域を示す情報を前記遠隔装置に送信する、
    請求項7に記載のロボット。
  9. 前記周囲に存在する人物と前記ロボットとの距離に基づいて、前記撮像データから、前記コミュニケーション対象者の候補となる人物の少なくとも一部を人物領域として抽出する抽出部をさらに備え、
    前記送信部は、前記撮像データと併せて、前記人物領域を示す情報を前記遠隔装置に送信する、
    請求項7に記載のロボット。
  10. 周囲に存在する人物とコミュニケーションを実行するロボットと、
    前記ロボットを遠隔操作する遠隔装置と、
    前記ロボットの周囲に存在する人物を撮像して撮像データを取得する撮像装置と、
    を備え、
    前記ロボットは、
    前記遠隔装置から、コミュニケーションの対象となるコミュニケーション対象者を前記ロボットの周囲に存在する人物の中から特定する特定情報を受信する受信部と、
    前記受信部が特定した前記コミュニケーション対象者の画像を取得する取得部と、
    前記コミュニケーション対象者の前記画像に対し、個人情報の保護処理を実行する処理部と、
    前記コミュニケーション対象者に対し、前記保護処理が実行された状態の前記画像を表示する第1表示部と、を有し、
    前記遠隔装置は、
    送信された前記撮像データを操作者に表示する第2表示部と、
    前記操作者によって指定された前記コミュニケーション対象者に係る前記特定情報を前記ロボットに送信する特定情報送信部と、を有する
    コミュニケーションシステム。
  11. 前記撮像装置又は前記ロボットは、前記撮像データから、人物の少なくとも一部を人物領域として抽出し、前記人物領域を示す情報が前記撮像データと併せて前記遠隔装置に送信され、前記遠隔装置の前記第2表示部は、前記撮像データ及び前記人物領域を示すデータを前記操作者に表示するか、又は、
    前記遠隔装置は、前記撮像データから、人物の少なくとも一部を人物領域として抽出し、前記遠隔装置の前記第2表示部は、前記撮像データ及び前記人物領域を示す情報を前記操作者に表示する、
    請求項10に記載のコミュニケーションシステム。
  12. 前記撮像装置又は前記ロボットは、前記周囲に存在する人物と前記ロボットとの距離に基づいて、前記撮像データから、前記コミュニケーション対象者の候補となる人物の少なくとも一部を人物領域として抽出し、前記人物領域を示す情報が前記撮像データと併せて前記遠隔装置に送信され、前記遠隔装置の前記第2表示部は、前記撮像データ及び前記人物領域を示す情報を前記操作者に表示するか、又は、
    前記遠隔装置は、前記周囲に存在する人物と前記ロボットとの距離に基づいて、前記撮像データから、前記コミュニケーション対象者の候補となる人物の少なくとも一部を人物領域として抽出し、前記遠隔装置の前記第2表示部は、前記撮像データ及び前記人物領域を示す情報を前記操作者に表示する、
    請求項10に記載のコミュニケーションシステム。
  13. 周囲に存在する人物とコミュニケーションを実行するロボットが実行するコミュニケーション方法であって、
    前記ロボットの周囲に存在する人物の中から、コミュニケーションの対象となるコミュニケーション対象者を特定する特定ステップと、
    特定した前記コミュニケーション対象者の画像を取得する取得ステップと、
    前記コミュニケーション対象者の前記画像に対し、個人情報の保護処理を実行する保護処理ステップと、
    前記保護処理が実行された状態の前記画像を前記ロボットの表示部に表示することで、前記コミュニケーション対象者に対し前記画像を表示する表示ステップと、
    をロボットが実行するコミュニケーション方法。
  14. 周囲に存在する人物とコミュニケーションを実行するロボットが実行するコミュニケーション方法であって、
    前記ロボットの周囲に存在する人物を撮像する撮像ステップと、
    撮像した撮像データを遠隔装置に送信する送信ステップと、
    前記遠隔装置から、コミュニケーションの対象となるコミュニケーション対象者を前記ロボットの周囲に存在する人物の中から特定する特定情報を受信する受信ステップと、
    特定した前記コミュニケーション対象者の画像に対し、個人情報の保護処理を実行する保護処理ステップと、
    前記保護処理が実行された状態の前記画像を前記ロボットの表示部に表示することで、前記コミュニケーション対象者に対し前記画像を表示する表示ステップと、
    をロボットが実行するコミュニケーション方法。
  15. 周囲に存在する人物とコミュニケーションを実行するロボットに対し、
    前記ロボットの周囲に存在する人物の中から、コミュニケーションの対象となるコミュニケーション対象者を特定する特定ステップと、
    特定した前記コミュニケーション対象者の画像を取得する取得ステップと、
    前記コミュニケーション対象者の前記画像に対し、個人情報の保護処理を実行する保護処理ステップと、
    前記保護処理が実行された状態の前記画像を前記ロボットの表示部に表示することで、前記コミュニケーション対象者に対し前記画像を表示する表示ステップと、
    を前記ロボットに実行させるプログラム。
  16. 周囲に存在する人物とコミュニケーションを実行するロボットに対し、
    前記ロボットの周囲に存在する人物を撮像する撮像ステップと、
    撮像した撮像データを遠隔装置に送信する送信ステップと、
    前記遠隔装置から、コミュニケーションの対象となるコミュニケーション対象者を前記ロボットの周囲に存在する人物の中から特定する特定情報を受信する受信ステップと、
    特定した前記コミュニケーション対象者の画像に対し、個人情報の保護処理を実行する保護処理ステップと、
    前記保護処理が実行された状態の前記画像を前記ロボットの表示部に表示することで、前記コミュニケーション対象者に対し前記画像を表示する表示ステップと、
    をロボットに実行させるプログラム。
JP2021049878A 2021-03-24 2021-03-24 ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム Active JP7524807B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021049878A JP7524807B2 (ja) 2021-03-24 2021-03-24 ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム
US17/696,458 US20220305665A1 (en) 2021-03-24 2022-03-16 Robot, communication system, communication method, and computer readable medium
CN202210290311.0A CN115179303A (zh) 2021-03-24 2022-03-23 机器人、沟通系统、沟通方法以及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021049878A JP7524807B2 (ja) 2021-03-24 2021-03-24 ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022148263A JP2022148263A (ja) 2022-10-06
JP7524807B2 true JP7524807B2 (ja) 2024-07-30

Family

ID=83362974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021049878A Active JP7524807B2 (ja) 2021-03-24 2021-03-24 ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム

Country Status (3)

Country Link
US (1) US20220305665A1 (ja)
JP (1) JP7524807B2 (ja)
CN (1) CN115179303A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114493A1 (ja) 2012-02-03 2013-08-08 日本電気株式会社 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
WO2019225201A1 (ja) 2018-05-25 2019-11-28 ソニー株式会社 情報処理装置及び情報処理方法、並びに情報処理システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009166184A (ja) * 2008-01-17 2009-07-30 Saitama Univ ガイドロボット
JP2013054494A (ja) * 2011-09-02 2013-03-21 Sony Corp 情報処理装置、情報処理方法、プログラム、記録媒体、及び情報処理システム
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
CN204790566U (zh) * 2015-07-16 2015-11-18 高世恒 一种多功能智能家居机器人
CN107103029B (zh) * 2017-03-03 2021-08-20 北京光年无限科技有限公司 一种用于机器人的图像数据处理方法
US10898999B1 (en) * 2017-09-18 2021-01-26 X Development Llc Selective human-robot interaction
JP7273538B2 (ja) * 2019-02-26 2023-05-15 パナソニックホールディングス株式会社 装置、方法、及びプログラム
JP7074716B2 (ja) * 2019-04-24 2022-05-24 セコム株式会社 警備システム及び監視表示装置
JP7354686B2 (ja) * 2019-08-27 2023-10-03 株式会社リコー 出力制御装置、表示制御システム、出力制御方法およびプログラム
JP7402145B2 (ja) * 2020-11-13 2023-12-20 本田技研工業株式会社 遠隔操作システム、移動ロボット、及び操作端末

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114493A1 (ja) 2012-02-03 2013-08-08 日本電気株式会社 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
WO2019225201A1 (ja) 2018-05-25 2019-11-28 ソニー株式会社 情報処理装置及び情報処理方法、並びに情報処理システム

Also Published As

Publication number Publication date
CN115179303A (zh) 2022-10-14
JP2022148263A (ja) 2022-10-06
US20220305665A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
WO2019216419A1 (ja) プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法
US10189677B2 (en) Elevator control system with facial recognition and authorized floor destination verification
JP5012968B2 (ja) 会議システム
JP4512830B2 (ja) コミュニケーションロボット
KR20200031083A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP2018067785A (ja) コミュニケーションロボットシステム
JP7340063B2 (ja) 警備システム及び監視表示装置
KR101444858B1 (ko) 원격 존재 장치
JP7279646B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2009045692A (ja) コミュニケーションロボットとその動作方法
JP2009166184A (ja) ガイドロボット
JP2011152593A (ja) ロボット操作装置
WO2015072166A1 (ja) 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体
US20220152836A1 (en) Robot
JP7524807B2 (ja) ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム
JP2006263873A (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
WO2012008553A1 (ja) ロボットシステム
US20210400234A1 (en) Information processing apparatus, information processing method, and program
US10650832B2 (en) Information processing device and information processing method
US11792484B2 (en) Information providing system, information providing method and management apparatus for information providing system for providing information obtained through a robot
WO2018056169A1 (ja) 対話装置、処理方法、プログラム
WO2014208169A1 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
JP7090116B2 (ja) プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法
US20220301130A1 (en) Image processing device, telepresence system, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240701

R150 Certificate of patent or registration of utility model

Ref document number: 7524807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150