JP2021064067A - 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法 - Google Patents

機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法 Download PDF

Info

Publication number
JP2021064067A
JP2021064067A JP2019187168A JP2019187168A JP2021064067A JP 2021064067 A JP2021064067 A JP 2021064067A JP 2019187168 A JP2019187168 A JP 2019187168A JP 2019187168 A JP2019187168 A JP 2019187168A JP 2021064067 A JP2021064067 A JP 2021064067A
Authority
JP
Japan
Prior art keywords
emotion
unit
target
robot
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019187168A
Other languages
English (en)
Other versions
JP7392377B2 (ja
Inventor
篤史 小杉
Atsushi Kosugi
篤史 小杉
吉田 敏之
Toshiyuki Yoshida
敏之 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019187168A priority Critical patent/JP7392377B2/ja
Publication of JP2021064067A publication Critical patent/JP2021064067A/ja
Application granted granted Critical
Publication of JP7392377B2 publication Critical patent/JP7392377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】対象にとってより利便性の高い処理を行うことを可能とする技術が提供されることが望まれる。【解決手段】撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情識別部によって識別された感情に対応した処理を行う処理部と、を備える、機器が提供される。【選択図】図1

Description

本発明は、機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法に関する。
近年、様々な技術が知られている。例えば、他の会議参加者の表示をしながら発言者が誰であるかを容易に認識することを可能にし、議参加者に関する映像情報を自然かつ詳細に認識することを可能にするテレビ会議システムが開示されている(例えば、特許文献1参照。)。
また、監視エリア全体を撮像する監視用カメラと、人の顔部分を撮像するクローズアップ用カメラと、監視装置とを備えるシステムにおいて、監視装置が、監視用カメラによって撮像された画像に基づき人の動きを検出し、検出した人の動きに応じてクローズアップ用カメラによって撮像された画像を録画する技術が開示されている(例えば、特許文献2参照。)。
さらに、遠隔操作によって自由移動させることが可能なロボット装置が開示されている(例えば、特許文献3参照。)。操作者は、遠隔地の会議場に出席させたロボット装置を介して、会議の状況を見たり、聞いたり、表情を見せたり、話したり、資料を提示したり、握手をしたりすることができる。
特開平7−336660号公報 特開平10−336632号公報 特開2002−46088号公報
特許文献1は、テレビ会議システムを開示しているに過ぎず、特許文献2は、画像を用いる監視装置を開示しているに過ぎず、特許文献3は、遠隔操作によって自由移動しつつ情報のやりとりを行うことが可能なロボット装置を開示しているに過ぎない。しかし、対象(例えば、人など)によって機器が用いられる場合には、機器による処理は、対象の感情が考慮された上で実行されたほうが、対象にとって利便性が高いと考えられる。
そこで、対象にとってより利便性の高い処理を行うことを可能とする技術が提供されることが望まれる。
上記問題を解決するために、本発明のある観点によれば、撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情識別部によって識別された感情に対応した処理を行う処理部と、を備える、機器が提供される。
前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、オペレータの操作端末に通報されるように通信部を制御してもよい。
前記処理部は、前記敵意の感情値が前記第1の閾値以上である対象が存在する場合には、前記映像が前記操作端末に送信されるように前記通信部を制御してもよい。
前記処理部は、前記感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には、前記機器によって前記対象の位置に基づく所定の動作がなされるように前記機器を制御してもよい。
前記視線の感情値は、前記視線と前記機器との位置関係に基づいて識別されてもよい。
前記処理部は、前記感情のうちの第1の感情の感情値が第1の条件を満たす場合には、前記機器が前記対象に接近するように移動部を制御してもよい。
前記処理部は、前記感情のうちの第2の感情の感情値が第2の条件を満たす場合には、前記機器と操作端末とが接続されるように通信部を制御してもよい。
前記機器と接続される前記操作端末は、前記感情のうちの第3の感情の感情値に基づいて選択されてもよい。
前記処理部は、前記機器とオペレータの操作端末とが接続された後、前記操作端末から受信された前記オペレータによって発せられた音声が出力されるようにスピーカを制御してもよい。
前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記第2の条件に対応するコンテンツが表示されるように前記機器が備える表示装置を制御してもよい。
前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記映像が前記操作端末に送信されるように前記通信部を制御してもよい。
また、本発明の別の観点によれば、撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、前記感情に対応した処理を行うことと、を含む、情報処理方法が提供される。
また、本発明の別の観点によれば、コンピュータを、撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情識別部によって識別された感情に対応した処理を行う処理部と、を備える機器として機能させるためのプログラムが提供される。
また、本発明の別の観点によれば、機器と管理センタとを有する情報処理システムであって、前記機器は、撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情のうちの所定の感情値が所定の条件を満たす場合には、前記機器とオペレータの操作端末とが接続されるように通信部を制御する処理部と、を備え、前記管理センタは、前記感情に基づいて前記オペレータを選択するコミュニケーション部を備える、情報処理システムが提供される。
また、本発明の別の観点によれば、撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、前記感情のうちの所定の感情値が所定の条件を満たす場合には、機器と前記感情に基づいて選択されたオペレータの操作端末とが接続されるように通信部を制御することと、を有する、情報処理システムの方法が提供される。
以上説明したように本発明によれば、対象にとってより利便性の高い処理を行うことを可能とする技術が提供される。
本発明の実施形態に係る情報処理システムの構成例を示す図である。 対象と位置と感情との紐づけデータテーブルの構成例を示す図である。 感情とコンテンツとの紐づけデータテーブルの構成例を示す図である。 オペレータと感情との紐づけデータテーブルの構成例を示す図である。 表示部によって表示されるエリア監視画面の例を示す図である。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 同実施形態に係る情報処理システムの動作例を示すフローチャートである。 同実施形態に係るロボットの例としての情報処理装置のハードウェア構成を示す図である。 走行ルート情報の例を示す図である。 マップに表現された現在ルートと代替ルートの例を示す図である。 マップに表現された障害物の発見地点の例を示す図である。 ロボットの視線の映像に表現された現在ルートの例を示す図である。 ロボットの視線の映像に表現されたルート補正候補の例を示す図である。 ロボットの視線の映像に表現されたルート補正後の現在ルートの例を示す図である。 迂回可否の識別結果とロボットのアクションとの対応関係の例を示す表である。 ロボットの視線の映像に表現された現在ルートの例を示す図である。 自由視点の映像に表現された現在ルートの例を示す図である。 マップに表現された手動ルートの例を示す図である。 手動ルートで目標位置に向かって走行するロボットの視線の映像の例を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。
(1.実施形態の詳細)
続いて、本発明の実施形態の詳細について説明する。
(1−1.システム構成の説明)
図1は、本発明の実施形態に係る情報処理システムの構成例を示す図である。図1に示されるように、情報処理システム1は、ロボット100と、管理センタ160とを備える。ロボット100および管理センタ160は、ネットワークの例としてのIP(Internet Protocol)網150に接続されており、IP網150を介して互いに通信可能に構成されている。
ここで、ロボットとは、一般に、「人造人間」、「人間に類似した動作や作業を行うもの」、「指示に基づき動作や作業をコンピュータ操作により行う装置」、「自律的な動作や作業をコンピュータ操作により行う装置」、「自動制御によるマニピュレーション機能又は、移動機能をもち、各種の作業をプログラムによって実行でき、産業に使用される機械」(JIS B 0134−1998)、「人間にサービスするロボット」(JIS B 0187:2005)「センサ、知能・制御系、駆動系の3つの要素技術を有する、知能化した機械システム」(経済産業省ロボット政策研究会)、等のように解される。
ロボット100は、対象の感情に応じた処理を実行する機器の一例として機能する。本発明の実施形態では、ロボット100によって感情が考慮される対象が人である場合を主に想定する。しかし、感情が考慮される対象は、人以外の動物(例えば、犬または猫など)であってもよいし、機械(例えば、ロボットなど)であってもよいし、その他の感情推定され得るものであってもよい。また、本発明の実施形態では、ロボット100が1台存在する場合を主に想定する。しかし、ロボット100は、複数台存在していてもよい。
図1に示されるように、ロボット100は、ネットワーク101、監視部102、通信部103、コミュニケーション部104、人工知能部105、移動部106および制御データベース141を備える。
ネットワーク101は、ロボット100の内部の機能ブロック同士の通信を中継する。ネットワーク101の形態は限定されない。例えば、ネットワーク101は、LAN(Local Area Network)やUSB(Universal Serial Bus)などを含んでもよい。ロボット100の内部の機能ブロックは、ネットワーク101上でP2P(Peer to Peer)ネットワークを形成し、機能ブロック同士でP2P通信を行うようにしてもよい。この場合、ロボット100は、各機能ブロック(ノード)のノード情報を管理するノード情報管理部(図示省略)を有し、ノード情報管理部が機能ブロックから要求があった際に接続先のノード情報を与え、機能ブロックがノード情報管理部から与えられたノード情報に基づきP2P接続を行ってP2P通信を行う。ノード情報管理部は、各機能ブロックの起動時に機能ブロック毎のノード名、URI(Uniform Resource Identifier)、通信ポート番号、IPアドレス等の登録を受けると共にノード情報として管理し、例えば、機能ブロックから接続先ノード名で要求を受けると、ノード名でノード情報を参照し、ノード名に対応するURI、通信ポート番号、IPアドレス等をノード情報として要求元の機能ブロックへ与える。
監視部102は、周囲を監視する機能を有する。本発明の実施形態では、監視部102が、エリア監視カメラ111を含んでおり、エリア監視カメラ111が周囲の映像を撮像する場合を主に想定する。しかし、監視部102は、エリア監視カメラ111の代わりに、または、エリア監視カメラ111に追加して、周囲の音を検出するマイクロフォンを含んでもよいし、周囲の匂いを検出する匂いセンサを含んでもよいし、他のセンサを含んでもよい。
通信部103は、通信インタフェースによって構成されており、IP網150に接続されている。例えば、通信部103は、IP網150を介して管理センタ160との間で通信を行うことが可能である。
コミュニケーション部104は、対象との間でコミュニケーションを行う機能を有する。より詳細に、コミュニケーション部104は、対象からの入力を受ける入力装置と、対象への出力を行う出力装置とを含んでいる。本発明の実施形態では、コミュニケーション部104が、対象からの操作を検出する検出装置および対象に視覚情報を提示するディスプレイが積層されたタッチパネル121と、対象に音(自動音声またはオペレータから発せられた音)を提示するスピーカ122と、対象から発せられた音(例えば、声など)を検出するマイクロフォン123とを含んでいる場合を主に想定する。しかし、コミュニケーション部104が具体的にどのようなデバイスを含んでいるかは限定されない。
移動部106は、車輪およびモーターを備えており、人工知能部105による制御に従って、モーターが車輪を回転させることによって床面上を移動する。このように、本発明の実施形態では、ロボット100が床面上を移動可能である場合を主に想定するが、ロボット100は、床面上を移動できなくてもよい。例えば、ロボット100は、人工知能部105による制御に従って、床面上に静止した状態で身体の一部(例えば、頭部など)のみを動かすことが可能であってもよい。また、ロボット100は、空中を移動する飛行物体(ドローン)であってもよく、その場合、移動部106は、プロペラおよびモーターを備えており、人工知能部105による制御に従って、モーターがプロペラを回転させることによって空中を移動する。
人工知能部105は、CPU(Central Processing Unit)などの演算装置を含み、図示しないメモリにより記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、人工知能部105は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。
より詳細に、人工知能部105は、エリア監視カメラ111による監視結果に基づいて、ロボット100による動作の判断を行う。そして、人工知能部105は、判断結果に基づいて、ロボット100が動作するようにロボット100を制御する。図1に示されるように、人工知能部105は、感情判断部131および行動処理部132を含んでいる。
制御データベース141は、対象と位置と感情との紐づけデータテーブル142(図2)、および、感情とコンテンツとの紐づけデータテーブル143(図3)を有する。なお、制御データベース141は、記憶装置に格納されている。ここで、記憶装置は、ロボット100の動作を制御するためのプログラムを記憶している。また、記憶装置は、(制御データベース141やノード情報管理部が管理するノード情報を含む)各種のデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。
感情判断部131は、エリア監視カメラ111によって撮像された映像に基づいて、映像に写る対象の位置を検出する。本発明の実施形態では、感情判断部131によって検出される対象が1つである場合を主に想定する。しかし、感情判断部131によって検出される対象は、複数であってもよい。そして、感情判断部131は、検出した対象の感情を識別する。
本発明の実施形態では、感情判断部131が、対象の感情の例として、対象の各種類の感情(興味、困り、焦り、泣き、敵意、視線それぞれの感情)を識別する場合を主に想定する。特に、敵意の感情は、怒りの感情なども含み得る。また、泣きの感情は、哀しみの感情を含み得る。さらに、視線の感情は、何かを見たいという感情に相当し得る。しかし、感情判断部131によって識別される感情の種類はこれらに限定されない。より詳細に、感情判断部131は、各種類の感情の値(感情値)を算出する。
感情判断部131は、検出した対象それぞれに対して対象IDを付与するとともに、検出した対象それぞれの処理順序を算出し(処理順序を導出し)、付与した対象IDと対象の位置と識別した各種類の感情値と処理順序とを制御データベース141の対象と位置と感情との紐づけデータテーブル142(図2)に登録する。処理順序については後に詳細に説明する。
図2は、対象と位置と感情との紐づけデータテーブル142の構成例を示す図である。図2に示されるように、対象と位置と感情との紐づけデータテーブル142は、「対象ID」と、対象の「位置」と、「興味」、「困り」、「焦り」、「泣き」、「敵意」、「視線」それぞれの感情値と、「順序」とが対応付けられてなる。
「対象ID」は、対象を一意に識別するための情報である。対象の「位置」は、対象の三次元位置である。図2に示された例では、対象の三次元位置がX座標とY座標とZ座標との組み合わせによって表現されている。しかし、対象の三次元位置は、かかる形式に限定されない。また、各感情値は、大きいほど当該種類の感情が強いことを示す。図2に示された例では、感情値の最小値が「0」であり、感情値の最大値が「100」である場合を想定する。しかし、感情値の最小値および最大値は、これらに限定されない。
特に、「視線」の感情値は、ロボット100に対する対象の視線の強さを示す。ここで、視線の強さは、感情判断部131によって視線とロボット100との位置関係に基づいて識別されてよい。より詳細に、本発明の実施形態では、視線の強さが、対象によってロボット100に視線が連続して当てられている時間である場合を主に想定する。しかし、視線の強さは、かかる例に限定されない。例えば、視線の強さは、対象の視線方向と対象からロボット100への方向とのなす角度に関する値であってもよいし、対象の位置とロボット100の位置との距離に関する値であってもよい。
例えば、対象の視線方向と対象からロボット100への方向とのなす角度が小さいほど、対象がロボット100に強く視線を向けていると言える。そこで、感情判断部131は、対象の視線方向と対象からロボット100への方向とのなす角度が小さいほど、「視線」の感情値を大きく算出してもよい。あるいは、対象の位置とロボット100の位置との距離が小さいほど、対象がロボット100に視線を強く向けていると言える。そこで、感情判断部131は、対象からロボット100までの距離が小さいほど、「視線」の感情値を大きく算出してもよい。
「順序」は、ロボット100による処理順序を示している。本発明の実施形態では、処理順序が、全部または一部の感情値の合計値の大きい順である場合を主に想定する。図2には、全部の感情値の合計値が最も大きい対象(対象ID=30003)の処理順序が最も早く(「順序」=1)、合計値が次に大きい対象(対象ID=20002)の処理順序が次に早く(「順序」=2)、合計値が最も小さい対象(対象ID=10001)の処理順序が最も遅い例が示されている(「順序」=3)。しかし、処理順序は、かかる例に限定されない。例えば、処理順序は、いずれかの一つの感情値が大きい順であってもよい。
行動処理部132は、感情判断部131によって識別された感情に対応した処理を行う。かかる構成によれば、対象にとってより利便性の高い処理がロボット100によって行われ得る。ここでは、行動処理部132が、処理順序が最も早い(最高値の)処理のみを実行する場合を想定する。しかし、行動処理部132は、処理順序が早い順に所定数の処理のみを実行してもよいし、処理順序が早い順に全部の処理を実行してもよい。
例えば、行動処理部132は、感情判断部131によって識別された感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、オペレータの操作端末164に通報されるように通信部103を制御する。通信部103は、行動処理部132による制御に従って管理センタ160に通報する。かかる構成によれば、オペレータが敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。
ここで、通報を受ける操作端末164は、あらかじめ決められていてもよいし、そのときの状況に応じて決められてもよい(例えば、空いているオペレータの操作端末164が通報を受けてもよい)。このとき、行動処理部132は、通報とともにエリア監視カメラ111によって撮像された映像と敵意の感情を持つ対象の位置とが操作端末164に送信されるように通信部103を制御する。
また、行動処理部132は、感情判断部131によって識別された感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には(例えば、敵意の感情値が第1の閾値未満である場合、かつ、視線の感情値が第2の閾値以上である場合には)、ロボット100によって当該対象の位置に基づく所定の動作がなされるようにロボット100を制御する。かかる構成によれば、ロボット100によって対象の存在が認識されたことを早期に対象に知らせることが可能になるという効果が享受される。
対象の位置に基づく所定の動作は、特定の動作に限定されない。例えば、対象の位置に基づく所定の動作は、ロボット100が当該対象にロボット100の頭部の正面(例えば、顔など)を見せるように頭部を動かす動作であってもよいし、ロボット100が当該対象にロボット100の胴体の正面(例えば、腹など)を見せるように胴体を動かす動作であってもよいし、タッチパネル121を当該対象に近づける動作であってもよいし、他の動作であってもよい。
また、行動処理部132は、(例えば、敵意の感情値が第1の閾値未満である場合、かつ、視線の感情値が第2の閾値未満である場合には)感情判断部131によって識別された感情と、あらかじめ用意された感情とコンテンツとの紐づけデータテーブル143とに基づいて、処理を決定し得る。
図3は、感情とコンテンツとの紐づけデータテーブル143の構成例を示す図である。図3に示されるように、感情とコンテンツとの紐づけデータテーブル143は、「興味の閾値」と、「困りの閾値」と、「焦りの閾値」と、「泣きの閾値」と、コンテンツとが対応付けられてなる。行動処理部132は、感情判断部131によって識別された各感情(興味、困り、焦り、泣き)の値が、対応する閾値以上である場合に、対応するコンテンツが出力されるように制御する。
なお、コンテンツは、HTML(HyperText Markup Language)、XML(Extensible Markup Language)、CSS(Cascading Style Sheets)またはJSON(JavaScript(登録商標) Object Notation)などの形式による記述を組み合わせて形成されればよい。また、コンテンツは、文字、動画像、音などを含むよう形成されてもよい。また、コンテンツとしてコンテンツに係る資源の場所を表すURL(Uniform Resource Locator)を設定し、URLに基づきコンテンツが取得され、コンテンツが出力されるように制御してもよい。また、図3に示された例は、感情とコンテンツとの紐づけの一例に過ぎないため、感情とコンテンツとの紐づけは、図3に示された例に限定されない。
図3に示された例では、コンテンツの例として、メッセージと、音声と、センタ接続とが挙げられている。ただし、図3に示された例は、感情とコンテンツとの紐づけの一例に過ぎない。行動処理部132は、感情判断部131によって識別された興味の感情値が「興味の閾値」以上である場合には、コンテンツの例としてのメッセージ「〇〇にご興味はお有りですか」がタッチパネル121によって表示されるようにタッチパネル121を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的なメッセージの内容は限定されない。
さらに、行動処理部132は、感情判断部131によって識別された感情のうちのある感情(第1の感情)の感情値がロボット100を対象に接近させる必要のある条件(第1の条件)を満たす場合には、ロボット100が対象に接近するように移動部106を制御してもよい。かかる構成によれば、ロボット100が対象とコミュニケーションを取り始めるまでの時間を短縮することが可能になるという効果が享受される。
ロボット100を対象に接近させる必要のある条件は、興味の感情値が「興味の閾値」以上であるという条件であってもよい。あるいは、ロボット100を対象に接近させる必要のある条件は、他の感情値(例えば、困り、焦り、または、泣きの感情値)が対応する閾値以上であるという条件であってもよい。
行動処理部132は、対象の視線が当たる位置に(あるいは、対象の視界にロボット100が入るように)ロボット100を対象に接近させてもよい。また、ロボット100の対象への接近は、毎回同じように行われてもよいし、状況に応じて異なるように行われてもよい。例えば、ロボット100を対象に接近させるスピード(ロボット100の移動スピード)は、毎回同じであってもよいし、対象の感情のうちのある感情値または対象の性別などに基づいて、変化してもよい。あるいは、ロボット100を対象に接近させる経路も、毎回同じであってもよいし、対象の感情のうちのある感情値または対象の性別などに基づいて、変化してもよい。
また、行動処理部132は、感情判断部131によって識別された困りの感情値が「困りの閾値」以上である場合には、コンテンツの例としてのメッセージ「どうなされましたか」がタッチパネル121によって表示されるようにタッチパネル121を制御するとともに、コンテンツの例としての動作「管理センタのオペレータの操作端末への接続」が通信部103によって行われるように通信部103を制御する。通信部103は、行動処理部132による制御に従って、管理センタ160に接続要求を送信する。接続要求には、各感情値が含まれてよい。ただし、オペレータの操作端末164に接続されるための条件は、かかる例に限定されない。
すなわち、行動処理部132は、感情判断部131によって識別された感情のうちのある感情(第2の感情)の感情値が管理センタ160で対応する必要がある条件(第2の条件)を満たす場合には、当該条件に対応するコンテンツが表示されるようにタッチパネル121を制御するとともに、ロボット100とオペレータの操作端末164とが接続されるように通信部103を制御すればよい。かかる構成によれば、オペレータが早期に対象の状態を確認できるという効果が享受される。
このとき、管理センタ160で対応する必要がある条件は、他の感情値(例えば、興味、焦り、または、泣きの感情値)が閾値以上であるという条件であってよい。後に説明するように、オペレータは、管理センタ160において選択されればよい。ロボット100とオペレータの操作端末164とが接続された後は、行動処理部132は、操作端末164から受信されたオペレータによって発せられた音声が出力されるようにスピーカ122を制御するとともに、エリア監視カメラ111によって撮像された映像が操作端末164に送信されるように通信部103を制御する。
また、行動処理部132は、感情判断部131によって識別された焦りの感情値が「焦りの閾値」以上である場合には、コンテンツの例としてのメッセージ「何かお探しですか」がタッチパネル121によって表示されるようにタッチパネル121を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的なメッセージの内容は限定されない。
また、行動処理部132は、感情判断部131によって識別された泣きの感情値が「泣きの閾値」以上である場合には、コンテンツの例としての音声(音楽)がスピーカ122によって出力されるようにスピーカ122を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的な音声の内容は限定されない。
管理センタ160は、ロボット100を遠隔から管理する。本発明の実施形態では、管理センタ160によって1台のロボット100が管理される場合を主に想定する。しかし、管理センタ160によって複数台のロボット100が管理されてもよい。図1に示されるように、管理センタ160は、ゲートウェイ装置161、ネットワーク162、コミュニケーション部163、管理データベース165、および、複数の操作端末164を備える。
ゲートウェイ装置161は、IP網150に接続されている。例えば、ゲートウェイ装置161は、IP網150を介してロボット100との間で通信を行うことが可能である。より詳細には、ゲートウェイ装置161は、タッチパネル121によって検出された操作、マイクロフォン123によって検出された音、接続要求、エリア監視カメラ111によって撮像された映像、対象の位置、対象の感情などを受信し、オペレータから発せられた音(例えば、声など)をロボット100に送信する。
ネットワーク162は、管理センタ160の内部の機能ブロック同士の通信を中継する。ネットワーク162の形態は限定されない。例えば、ネットワーク162は、LAN(Local Area Network)などを含んでもよい。
管理データベース165は、オペレータと感情との紐づけデータテーブル166(図4)を有する。なお、管理データベース165は、記憶装置に格納されている。ここで、記憶装置は、管理センタ160の動作を制御するためのプログラムを記憶している。また、記憶装置は、(管理データベース165を含む)各種のデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。
コミュニケーション部163は、接続制御部171を備える。コミュニケーション部163は、ロボット100から送信された通報がゲートウェイ装置161によって受信された場合、操作端末164に通報を送信する。上記したように、通報を受ける操作端末164は、あらかじめ決められていてもよいし、そのときの状況に応じて決められてもよい。
一方、コミュニケーション部163は、ロボット100から送信された接続要求がゲートウェイ装置161によって受信された場合、接続要求に基づいてオペレータを選択する。図4は、オペレータと感情との紐づけデータテーブル166の構成例を示す図である。図4に示されるように、オペレータと感情との紐づけデータテーブル166は、「オペレータID」と「興味の閾値」、「困りの閾値」、「焦りの閾値」、「泣きの閾値」とが対応付けられてなる。
「オペレータID」は、オペレータを一意に識別するための情報である。
「興味の閾値」は、興味の感情値の閾値である。同様に、「困りの閾値」は、困りの感情値の閾値であり、「焦りの閾値」は、焦りの感情値の閾値であり、「泣きの閾値」は、泣きの感情値の閾値である。なお、オペレータに閾値が対応付けられる感情の種類は、これらに限定されない。ここでは、感情値の最小値が「0」である場合を想定しているため、図4に示された例では、オペレータID「aaa」には、興味の閾値「50」のみが実質的に対応付けられ、オペレータID「bbb」には、困りの閾値「50」のみが実質的に対応付けられ、オペレータID「ccc」には、焦りの閾値「50」および泣きの閾値のみが実質的に対応付けられている。
コミュニケーション部163は、接続要求に含まれる各感情値のうちのある感情(第3の感情)の感情値に基づいてオペレータを選択する。かかる構成によれば、対象の感情に適したオペレータが選択され得る。ここでは、興味、困り、焦り、および、泣きそれぞれの感情値が接続要求に含まれる場合を想定する。コミュニケーション部163は、興味、困り、焦り、および、泣きそれぞれの感情値が、オペレータと感情との紐づけデータテーブル166の対応する閾値以上であるオペレータIDが存在する場合に、当該オペレータID(オペレータ)を選択すればよい。
コミュニケーション部163は、オペレータを選択すると、接続制御部171によってロボット100とオペレータの操作端末164との接続制御を行う。例えば、接続制御部171による接続制御は、WebRTC(Web Real−Time Communication)によって実現されてもよい。ロボット100と操作端末164とが接続されると、ロボット100と操作端末164との間の通信が開始される(対象とオペレータとの間のコミュニケーションが開始される)。
操作端末164は、図示しない制御部を備える。制御部は、CPU(Central Processing Unit)などの演算装置を含み、図示しないメモリにより記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、制御部は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。
操作端末164は、通信部181、操作部182、および、表示部183を有する。通信部181は、通信インタフェースによって構成されており、IP網150に接続されている。例えば、通信部181は、IP網150を介してロボット100との間で通信を行うことが可能である。操作部182は、オペレータからの操作(例えば、コミュニケーション開始操作など)を検出する。
表示部183は、通信部181によって通報が受信されると、エリア監視カメラ111によって撮像された映像を表示する。これによって、オペレータは、敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。
一方、操作端末164とロボット100との接続がなされると、表示部183は、エリア監視カメラ111によって撮像された映像と対象の位置とに基づいて、対象が拡大された映像(拡大映像)を表示する。また、表示部183は、対象の各感情値を表示する。
図5は、表示部183によって表示されるエリア監視画面185の例を示す図である。図5に示されたように、一例として、表示部183は、エリア監視画面185を表示する。エリア監視画面185には、対象301の拡大映像が含まれており、当該拡大映像には、(ロボット100に相当する)ロボット100も写っている。ロボット100は、拡大映像の中央に位置してもよい。なお、ロボット100は、既に説明したように移動部106およびタッチパネル121を備える他、エリア監視カメラ111の例としてのカメラ111a〜111dを備える。本発明の実施形態では、カメラ111a〜111dそれぞれによって撮像された映像に基づいて、エリア監視画面185に表示されているような自由視点の映像(ロボット100の俯瞰映像(当該ロボット100周辺の自由視点映像であって当該ロボット100を斜め上方向から俯瞰した映像)に、ロボット100をかたどったグラフィック(いわゆるアバター画像)をレンダリングした、いわゆるフライングビュー(登録商標)の映像)が形成(レンダリング)されてもよい。自由視点の映像を形成する処理については、例えば、参考文献1(沖電気工業株式会社 駒井 英敬著,「フライングビュー」,[Online],INTERNET,[2019年10月8日検索],<URL:https://www.oki.com/jp/iot/doc/2018/img/ceatec/ceatec_flyingview.pdf>の記載技術を適用するようにしてもよい。カメラの個数および取り付け位置などは限定されない。対象301の近傍には、対象301のIDと各感情値が表示されている。オペレータは、このようにして表示部183によって表示されたエリア監視画面185を見ることができる。
なお、操作端末164は、操作部182によってオペレータからのコミュニケーション開始操作が検出され、オペレータから発せられた音(例えば、声など)が操作端末164によって検出されると、オペレータから発せられた音がゲートウェイ装置161を介してロボット100に送信されるようにゲートウェイ装置161を制御する。これによって、対象は、オペレータから発せられた音を聴くことができる。一方、操作端末164は、対象から発せられた音がロボット100のマイクロフォン123によって検出された場合、対象から発せられた音を出力する。これによって、オペレータは、対象から発せられた音を聴くことができる。
以上、本発明の実施形態に係る情報処理システム1の構成について説明した。
(1−2.システムの動作)
続いて、本発明の実施形態に係る情報処理システム1の動作について説明する。図6および図7は、本発明の実施形態に係る情報処理システム1の動作例を示すフローチャートである。なお、情報処理システム1の構成について、上記のように詳細に説明したため、ここでの情報処理システム1の動作の説明は、情報処理システム1の構成の説明よりも、簡略化して行う。
まず、図6に示されるように、ロボット100のエリア監視カメラ111は、周囲を撮像することによって映像を得る(S201)。次に、ロボット100の感情判断部131は、エリア監視カメラ111によって得られた映像に基づいて、対象と(対象の)位置と(対象の)感情との紐づけデータを作成する(S202)。感情判断部131は、対象と(対象の)位置と(対象の)感情との紐づけデータを、対象と位置と感情の紐づけデータテーブル142(図2)に登録する。
行動処理部132は、対象と(対象の)位置と(対象の)感情との紐づけデータに基づいて、敵意の感情値が閾値以上の対象が存在するか否かを判断する(S203)。
敵意の感情値が閾値以上の対象が存在する場合には(S203において「YES」)、ロボット100の通信部103が、IP網150を介して管理センタ160と通信を行い、管理センタ160の操作端末164に通報を行う(S211)。表示部183が、エリア監視カメラ111によって撮像された映像を表示すると、操作端末164のオペレータは、当該映像を見ることによって敵意の感情を持つ対象を監視することができる(S212)。
行動処理部132は、敵意の感情値が閾値以上の対象が存在しない場合には(S203において「NO」)、対象と(対象の)位置と(対象の)感情との紐づけデータに基づいて、対象の処理順序を計算する(処理順序を導出する)(S204)。そして、行動処理部132は、対象の処理順序を、対象と位置と感情の紐づけデータテーブル142(図2)に登録する。
続いて、行動処理部132は、対象と(対象の)位置と(対象の)感情との紐づけデータから、処理順序が最高値のデータ(処理順序が最も早いデータ)を選択する(S205)。なお、以下の動作では、処理順序が最高値のデータについての処理のみが実行される場合を説明するが、上記したように、処理順序が早い順に所定数の処理が実行されてもよいし、処理順序が早い順に全部の処理が実行されてもよい。
続いて、図7に示されるように、行動処理部132は、選択した対象が視線をロボット100に向けているか否かを判断する(S206)。対象が視線をロボット100に向けているか否かは、対象の視線の感情値が閾値以上であるか否かによって判断され得る。行動処理部132は、対象が視線をロボット100に向けていると判断した場合(S206において「YES」)、ロボット100が対象にロボット100の正面を見せるようにロボット100を制御する(S221)。その代わりに、上記したように、行動処理部132は、タッチパネル121を対象に近づけるようロボット100を制御してもよい。行動処理部132は、S207に進む。
一方、行動処理部132は、対象が視線をロボット100に向けていないと判断した場合(S206において「NO」)、S207に進む。行動処理部132は、S207に進むと、ロボット100が対象に接近する必要があるかを判断する(S207)。行動処理部132は、ロボット100が対象に接近する必要があると判断した場合(S207において「YES」)、ロボット100が対象に接近するように移動部106を制御する(S222)。行動処理部132は、S208に進む。
一方、行動処理部132は、ロボット100が対象に接近する必要がないと判断した場合(S207において「NO」)、S208に進む。行動処理部132は、S208に進むと、管理センタ160で対応する必要があるかを判断する(S208)。行動処理部132が、管理センタ160で対応する必要があると判断した場合(S208において「YES」)、通信部103は、IP網150を介して管理センタ160と通信し、コミュニケーション部163によって、対象の感情と、オペレータと感情との紐づけデータテーブル166(図4)とに基づいて選択されたオペレータの操作端末164に接続する(S223)。
続いて、操作端末164は、エリア監視カメラ111によって撮像された映像と対象の位置とに基づいて、対象の映像をエリア監視画面185(図5)に拡大表示する(S224)。これによって、オペレータは、対象を監視しつつ、対象に向けた音声(例えば、アドバイスなど)を発することができる。ロボット100の行動処理部132は、感情とコンテンツとの紐づけデータテーブル143(図3)から、対象の各感情値が合致するデータ(処理判断データ)を取得する。そして、行動処理部132は、取得した処理判断データに従い、コンテンツをタッチパネル121に表示させるとともに、スピーカ122からオペレータの音声を出力させる(S225)。
一方、行動処理部132は、管理センタ160で対応する必要がないと判断した場合(S208において「NO」)、感情とコンテンツとの紐づけデータテーブル143(図3)から、対象の各感情値が合致するデータ(処理判断データ)を取得する。そして、行動処理部132は、取得した処理判断データに従い、コンテンツをタッチパネル121に表示させるとともに、スピーカ122からあらかじめ登録されている音声(自動音声)を出力させる(S209)。
以上、本発明の実施形態に係る情報処理システム1の動作について説明した。
(2.ハードウェア構成例)
続いて、本発明の実施形態に係るロボット100のハードウェア構成例について説明する。ただし、本発明の実施形態に係る管理センタ160のハードウェア構成例も同様に実現され得る。
以下では、本発明の実施形態に係るロボット100のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、ロボット100のハードウェア構成の一例に過ぎない。したがって、ロボット100のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
図8は、本発明の実施形態に係るロボット100の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。
以上、本発明の実施形態に係るロボット100のハードウェア構成例について説明した。
(3.まとめ)
以上に説明したように、本発明の実施形態によれば、エリア監視カメラ111(撮像部)によって撮像された映像に基づいて映像に写る対象の感情を識別する感情判断部131(感情識別部)と、感情判断部131によって識別された感情に対応した処理を行う行動処理部132(処理部)と、を備える、ロボット100(機器)が提供される。かかる構成によれば、対象にとってより利便性の高い処理を行うことが可能となる。
行動処理部132は、感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、オペレータの操作端末164に通報されるように通信部103を制御してもよい。かかる構成によれば、オペレータが敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。さらに、行動処理部132は、敵意の感情値が第1の閾値以上である対象が存在する場合には、映像が操作端末164に送信されるように通信部103を制御してもよい。
行動処理部132は、感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には、ロボット100によって対象の位置に基づく所定の動作がなされるようにロボット100を制御してもよい。かかる構成によれば、ロボット100によって対象の存在が認識されたことを早期に対象に知らせることが可能になるという効果が享受される。ここで、視線の感情値は、視線とロボット100との位置関係に基づいて識別されてもよい。
行動処理部132は、感情のうちの第1の感情の感情値が第1の条件(ロボット100を対象に接近させる必要のある条件)を満たす場合には、ロボット100が対象に接近するように移動部106を制御してもよい。かかる構成によれば、ロボット100が対象とコミュニケーションを取り始めるまでの時間を短縮することが可能になるという効果が享受される。
行動処理部132は、感情のうちの第2の感情の感情値が第2の条件(管理センタ160で対応する必要がある条件)を満たす場合には、ロボット100と操作端末164とが接続されるように通信部103を制御してもよい。ここで、ロボット100と接続される操作端末164は、感情のうちの第3の感情の感情値に基づいて選択されてもよい。かかる構成によれば、対象の感情に適したオペレータが選択され得る。
ここで、行動処理部132は、ロボット100とオペレータの操作端末164とが接続された後、操作端末164から受信されたオペレータによって発せられた音声が出力されるようにスピーカ122を制御してもよい。対象は、オペレータによって発せられた音声を聴くことが可能になる。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。
行動処理部132は、第2の感情の感情値が第2の条件を満たす場合には、第2の条件に対応するコンテンツが表示されるようにロボット100が備えるタッチパネル121(表示装置)を制御してもよい。かかる構成によれば、対象は、表示されたコンテンツを見ることが可能になる。あるいは、行動処理部132は、第2の感情の感情値が第2の条件を満たす場合には、映像が操作端末164に送信されるように通信部103を制御してもよい。かかる構成によれば、オペレータは、対象の映像を監視することが可能になる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記では、行動処理部132が、敵意の感情を持つ対象が存在する場合に、オペレータの操作端末164に通報されるように制御し、エリア監視カメラ111によって撮像された映像が操作端末164に送信されるように制御する例を説明した。このとき、行動処理部132は、他のセンサによって得られたセンシングデータも操作端末164に送信されるように制御してもよい。より詳細に、行動処理部132は、敵意の感情を持つ対象の回りに存在する他のセンサを起動して敵意の感情を持つ対象を監視させてもよいし、既にセンサを用いて監視を行っている他のロボットが存在すれば、当該他のロボットのセンサによって敵意の感情を持つ対象を監視するようにしてもよい。
本発明の実施形態に係るロボット100は、様々な分野の業務を行い得る。例えば、ロボット100は、警備業の分野において警備員が手動にて行っていた業務を代行することも可能である。例えば、ロボット100が対象の感情に対応する処理を行うことによって、簡易に対象を監視することができる(例えば、迷子になってしまった対象を簡易に識別することが可能となる)。
(ロボット自立走行)
本発明の実施形態に係るロボット100は、自立走行を行う。例えば、ロボット100は、図9に示される走行ルート情報に基づき、自立走行を行う。ここで、走行ルート情報は、地図(マップ)情報、ルート情報(ルート1)、初期位置情報(A)、目標位置情報(B)等に基づき形成されている情報である。地図(マップ)情報は、床および壁の位置などを含んでよい。ロボット100は、記憶装置やmicroSDカード(図示省略)等に予め設定された走行ルート情報を保持してもよいし、ネットワークを介して走行ルート情報をダウンロードしてもよい。ここでは、図9に示されたように、走行ルート情報が、二次元情報(縦横で表された地図(マップ)情報、ルート情報、初期位置情報、目標位置情報等に基づき形成される情報)である場合を主に想定する。しかし、走行ルート情報は、三次元情報(縦横高さで表された地図(マップ)情報、ルート情報、初期位置情報、目標位置情報等に基づき形成される情報)であってもよい。
(ロボット自立走行における障害物検知)
本発明の実施形態に係るロボット100は、走行路上で障害物を検知することが可能である。例えば、ロボット100は、エリア監視カメラ111によって得られた撮像情報に基づき障害物検知を行ってもよいし、センサ部(超音波センサやミリ波レーダー等)によって取得されたセンサ情報に基づき障害物検知を行ってもよいし、撮像情報とセンサ情報とに基づき障害物検知を行ってもよい。
(ロボット自立走行における障害物回避)
本発明の実施形態に係るロボット100は、走行路上で障害物検知を行うと、障害物回避を試みる。ロボット100は、例えば、現在ルート(図10のルート1)に障害物を検知した場合、走行ルート情報に基づき、現在ルート(図10のルート1)において障害物を回避できるルート補正候補を識別し現在ルート内で障害物を回避するルート補正(図10のルート1)、現在ルートとは別に設定された代替ルートを識別し代替ルートで障害物を回避する静的代替ルート補正(図10のルート2)、現在ルートとは別にAI(Artificial Intelligent)で発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正(図10のルート3)、等により回避できるか否かを判断する。
ここで、現在ルートにおいて障害物を回避できるルート補正候補を識別し現在ルート内で障害物を回避するルート補正について説明する。例えば、ロボット100が、現在ルート(図11のルート1)を自立走行中、ある地点(図11のC)で障害物を発見したとする(図12)。すると、ロボット100は、撮像情報とセンサ情報とに基づき、自身が自立走行中の現在ルートと障害物との位置関係を識別すると共に、通行可能なスペースの幅や高さを識別して自身の通行可否を識別し、現在ルートにおいて障害物を回避できるルート補正候補を識別する(図13)。そして、ロボット100は、現在ルートにおいて障害物を回避できるルート補正候補に従って、現在ルート内で障害物を回避するルート補正(図14のルート補正後ルート1)を行う。
ここで、現在ルートとは別にAIで発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正について説明する。例えば、ロボット100が、現在ルート(図11のルート1)を自立走行中、ある地点(図11のC)で障害物を発見したとする(図12)。すると、ロボット100は、走行ルート情報に基づき、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる最短ルートを導出する。例えば、ロボット100は、AIにより、RRT(Rapidly exploring random tree)アルゴリズムなどに基づき障害物を発見した地点(図11のC)から目標位置(図11のB)までの最短ルートを導出する。このとき、ロボット100は、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる純粋な最短ルートを導出してもよいし、障害物を発見した地点(図11のC)から障害物を回避しつつ現在ルートに戻り目標位置(図11のB)に通ずる最短ルートを導出してもよい。
そして、ロボット100は、現在ルートとは別にAIで発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正(図10のルート3)を行う。なお、図10のルート3は、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる純粋な最短ルートであり、障害物を発見した地点(図11のC)から障害物を回避しつつ現在ルートに戻り目標位置(図11のB)に通ずる最短ルートである。
(ロボット自立走行における障害物検知時オペレータ通知)
本発明の実施形態に係るロボット100は、障害物検知時にオペレータに通知を行う。このとき、例えば、ロボット100は、障害物回避できるか否かに係わらず、障害物検知時にオペレータに通知を行ってよい。さらに、ロボット100は、オペレータへの通知に際し、識別した障害物情報(ダンボール、倒木、危険物などの障害物を表す情報)をオペレータに通知してもよい。
ここで、迂回可否の識別結果とロボット100のアクションとの対応関係をまとめると、図15のようになる。
(オペレータ遠隔操作)
本発明の実施形態に係るロボット100は、障害物検知を行い、自立走行(身動き)できなくなってしまった場合、オペレータにその旨(自立走行できないことや発見した障害物について)を通知し、遠隔操作モードに移行し、オペレータによる迂回ルート設定をできるようにしてもよい。遠隔操作モードへの移行は、ロボット100がオペレータの操作端末164に対し、遠隔操作モードへの移行通知を行ってオペレータが操作端末164に対して移行操作をすることでなされ得る。
遠隔操作モードに移行すると、オペレータは、操作端末164に表示されるエリア監視画面でロボット100の周辺監視を行えるようになり、ロボット100が置かれている状態を観察できるようになる。ここで、遠隔操作モードにおいて、オペレータは迂回ルートを設定する。例えば、ロボット100が、図11のCの位置で障害物を発見し、遠隔操作モードに至った場合、オペレータは、操作端末164に表示される画面(図16や図17)において、走行ルート情報を呼び出し新たなルート(図18の手動ルート)を設定する。この場合、ロボット100は、設定に基づき、障害物を発見した位置(図11のC)から初期位置(図11のA)に移動し、新たなルート(図18の手動ルート)で目標位置(図18のB)に向かって走行する。
なお、オペレータは、遠隔操作モードで新たなルートを設定後、新たなルートで目標位置に向かって走行しているロボット100の視線の映像を閲覧してもよい。図19は、障害物を発見した位置(図11のC)から初期位置(図11のA)に移動し、新たなルート(図18の手動ルート)で目標位置(図18のB)に向かって走行するロボット100の視線の映像であって、図18のAの位置の映像である。
(エリア監視画面)
エリア監視画面に表示される映像は、ロボット1000の視線の映像であってもよいし、上記したように形成された自由視点の映像であってもよい。あるいは、エリア監視画面上で、エリア監視画面に表示される映像をロボット100の視線の映像にするか、自由視点の映像にするかをオペレータが切り替え可能であってもよい。
1 情報処理システム
100 ロボット(機器)
101 ネットワーク
102 監視部
103 通信部
104 コミュニケーション部
105 人工知能部
106 移動部
111 エリア監視カメラ
121 タッチパネル
122 スピーカ
123 マイクロフォン
131 感情判断部
132 行動処理部
141 制御データベース
142 対象と位置と感情との紐づけデータテーブル
143 感情とコンテンツとの紐づけデータテーブル
150 IP網
160 管理センタ
161 ゲートウェイ装置
162 ネットワーク
163 コミュニケーション部
164 操作端末
165 管理データベース
166 オペレータと感情との紐づけデータテーブル
171 接続制御部
181 通信部
182 操作部
183 表示部
185 エリア監視画面
301 対象

Claims (15)

  1. 撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、
    前記感情識別部によって識別された感情に対応した処理を行う処理部と、
    を備える、機器。
  2. 前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、オペレータの操作端末に通報されるように通信部を制御する、
    請求項1に記載の機器。
  3. 前記処理部は、前記敵意の感情値が前記第1の閾値以上である対象が存在する場合には、前記映像が前記操作端末に送信されるように前記通信部を制御する、
    請求項2に記載の機器。
  4. 前記処理部は、前記感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には、前記機器によって前記対象の位置に基づく所定の動作がなされるように前記機器を制御する、
    請求項1に記載の機器。
  5. 前記視線の感情値は、前記視線と前記機器との位置関係に基づいて識別される、
    請求項4に記載の機器。
  6. 前記処理部は、前記感情のうちの第1の感情の感情値が第1の条件を満たす場合には、前記機器が前記対象に接近するように移動部を制御する、
    請求項1に記載の機器。
  7. 前記処理部は、前記感情のうちの第2の感情の感情値が第2の条件を満たす場合には、前記機器と操作端末とが接続されるように通信部を制御する、
    請求項1に記載の機器。
  8. 前記機器と接続される前記操作端末は、前記感情のうちの第3の感情の感情値に基づいて選択される、
    請求項7に記載の機器。
  9. 前記処理部は、前記機器とオペレータの操作端末とが接続された後、前記操作端末から受信された前記オペレータによって発せられた音声が出力されるようにスピーカを制御する、
    請求項7に記載の機器。
  10. 前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記第2の条件に対応するコンテンツが表示されるように前記機器が備える表示装置を制御する、
    請求項7に記載の機器。
  11. 前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記映像が前記操作端末に送信されるように前記通信部を制御する、
    請求項7に記載の機器。
  12. 撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、
    前記感情に対応した処理を行うことと、
    を含む、情報処理方法。
  13. コンピュータを、
    撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、
    前記感情識別部によって識別された感情に対応した処理を行う処理部と、
    を備える機器として機能させるためのプログラム。
  14. 機器と管理センタとを有する情報処理システムであって、
    前記機器は、
    撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、
    前記感情のうちの所定の感情値が所定の条件を満たす場合には、前記機器とオペレータの操作端末とが接続されるように通信部を制御する処理部と、を備え、
    前記管理センタは、
    前記感情に基づいて前記オペレータを選択するコミュニケーション部を備える、
    情報処理システム。
  15. 撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、
    前記感情のうちの所定の感情値が所定の条件を満たす場合には、機器と前記感情に基づいて選択されたオペレータの操作端末とが接続されるように通信部を制御することと、
    を有する、情報処理システムの方法。
JP2019187168A 2019-10-10 2019-10-10 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法 Active JP7392377B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019187168A JP7392377B2 (ja) 2019-10-10 2019-10-10 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019187168A JP7392377B2 (ja) 2019-10-10 2019-10-10 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法

Publications (2)

Publication Number Publication Date
JP2021064067A true JP2021064067A (ja) 2021-04-22
JP7392377B2 JP7392377B2 (ja) 2023-12-06

Family

ID=75486268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019187168A Active JP7392377B2 (ja) 2019-10-10 2019-10-10 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法

Country Status (1)

Country Link
JP (1) JP7392377B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7120693B1 (ja) * 2021-04-28 2022-08-17 株式会社I’mbesideyou 動画像分析システム
JP7138990B1 (ja) * 2021-04-29 2022-09-20 株式会社I’mbesideyou 動画像分析システム
JP7156743B1 (ja) 2021-04-29 2022-10-19 株式会社I’mbesideyou 動画像分析システム
JP7156742B1 (ja) 2021-04-29 2022-10-19 株式会社I’mbesideyou 動画像分析システム
JP2022170685A (ja) * 2021-04-28 2022-11-10 株式会社I’mbesideyou 動画像分析システム
JP2022170668A (ja) * 2021-04-28 2022-11-10 株式会社I’mbesideyou 動画像分析システム
WO2022259596A1 (ja) * 2021-06-10 2022-12-15 ソニーグループ株式会社 ロボット運用システム

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230480A (ja) * 2003-01-28 2004-08-19 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2006247780A (ja) * 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007229817A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 自律移動型ロボット
JP2009075713A (ja) * 2007-09-19 2009-04-09 Toppan Printing Co Ltd 感情判定方法
JP2010066844A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
JP2010154395A (ja) * 2008-12-26 2010-07-08 Sony Corp 情報処理装置および方法、並びにプログラム
JP2012223457A (ja) * 2011-04-21 2012-11-15 Nikon Corp 電子機器
JP2014206903A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 表情推定装置、制御方法、制御プログラム、および記録媒体
JP2016522465A (ja) * 2013-03-15 2016-07-28 ジボ インコーポレイテッド 永続性コンパニオンデバイスを提供するための装置及び方法
JP2017073107A (ja) * 2015-10-08 2017-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報提示装置の制御方法、及び、情報提示装置
WO2017175559A1 (ja) * 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット
JP2017207801A (ja) * 2016-05-16 2017-11-24 Cocoro Sb株式会社 顧客応対制御システム、顧客応対システム及びプログラム
US20180068321A1 (en) * 2016-09-06 2018-03-08 Fujitsu Limited Reception supporting method and device
JP2019005846A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2019008510A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2019091233A (ja) * 2017-11-14 2019-06-13 株式会社Jvcケンウッド 通知制御システム、通知制御方法およびプログラム
WO2019163279A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6812803B2 (ja) 2017-01-12 2021-01-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230480A (ja) * 2003-01-28 2004-08-19 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2006247780A (ja) * 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007229817A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 自律移動型ロボット
JP2009075713A (ja) * 2007-09-19 2009-04-09 Toppan Printing Co Ltd 感情判定方法
JP2010066844A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
JP2010154395A (ja) * 2008-12-26 2010-07-08 Sony Corp 情報処理装置および方法、並びにプログラム
JP2012223457A (ja) * 2011-04-21 2012-11-15 Nikon Corp 電子機器
JP2016522465A (ja) * 2013-03-15 2016-07-28 ジボ インコーポレイテッド 永続性コンパニオンデバイスを提供するための装置及び方法
JP2014206903A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 表情推定装置、制御方法、制御プログラム、および記録媒体
JP2017073107A (ja) * 2015-10-08 2017-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報提示装置の制御方法、及び、情報提示装置
WO2017175559A1 (ja) * 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット
JP2017207801A (ja) * 2016-05-16 2017-11-24 Cocoro Sb株式会社 顧客応対制御システム、顧客応対システム及びプログラム
US20180068321A1 (en) * 2016-09-06 2018-03-08 Fujitsu Limited Reception supporting method and device
JP2019005846A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2019008510A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2019091233A (ja) * 2017-11-14 2019-06-13 株式会社Jvcケンウッド 通知制御システム、通知制御方法およびプログラム
WO2019163279A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022170685A (ja) * 2021-04-28 2022-11-10 株式会社I’mbesideyou 動画像分析システム
JP7197947B2 (ja) 2021-04-28 2022-12-28 株式会社I’mbesideyou 動画像分析システム
JP7197950B2 (ja) 2021-04-28 2022-12-28 株式会社I’mbesideyou 動画像分析システム
JP7120693B1 (ja) * 2021-04-28 2022-08-17 株式会社I’mbesideyou 動画像分析システム
JP2022170668A (ja) * 2021-04-28 2022-11-10 株式会社I’mbesideyou 動画像分析システム
WO2022230139A1 (ja) * 2021-04-28 2022-11-03 株式会社I’mbesideyou 動画像分析システム
JP7156742B1 (ja) 2021-04-29 2022-10-19 株式会社I’mbesideyou 動画像分析システム
WO2022230154A1 (ja) * 2021-04-29 2022-11-03 株式会社I’mbesideyou 動画像分析システム
JP2022171562A (ja) * 2021-04-29 2022-11-11 株式会社I’mbesideyou 動画像分析システム
JP2022171563A (ja) * 2021-04-29 2022-11-11 株式会社I’mbesideyou 動画像分析システム
JP7156743B1 (ja) 2021-04-29 2022-10-19 株式会社I’mbesideyou 動画像分析システム
JP7138990B1 (ja) * 2021-04-29 2022-09-20 株式会社I’mbesideyou 動画像分析システム
WO2022259596A1 (ja) * 2021-06-10 2022-12-15 ソニーグループ株式会社 ロボット運用システム

Also Published As

Publication number Publication date
JP7392377B2 (ja) 2023-12-06

Similar Documents

Publication Publication Date Title
JP7392377B2 (ja) 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法
US11468648B2 (en) Image processing apparatus and image processing method
US10717189B2 (en) Display control device, display control method, computer program product, and communication system
US9796093B2 (en) Customer service robot and related systems and methods
KR102357265B1 (ko) 게임 플레이를 통한 환경의 세부 데이터 세트 생성 방법 및 시스템
WO2021103987A1 (zh) 扫地机器人控制方法、扫地机器人及存储介质
US11330951B2 (en) Robot cleaner and method of operating the same
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
US10855925B2 (en) Information processing device, information processing method, and program
JP2008252519A (ja) 画像処理装置
JP6609588B2 (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
KR20220120908A (ko) 이동 로봇 및 이동 로봇의 제어 방법
US11030979B2 (en) Information processing apparatus and information processing method
CN115904082A (zh) 多模态交互系统及交互方法
JP2017086542A (ja) 画像変更システム、方法、及びプログラム
JP7408991B2 (ja) 移動物システム、移動物、制御プログラム、及び制御方法
WO2021044953A1 (ja) 情報処理システム及び情報処理方法
WO2016151958A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2021007034A (ja) 制御装置、制御方法及びプログラム
JP5633003B2 (ja) 記録制御装置および記録制御プログラム
JP2021071967A (ja) 対応支援システム、方法及びプログラム
WO2022107447A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2024127596A1 (ja) 情報処理方法、情報処理装置及び情報処理プログラム
US20230410417A1 (en) Information processing apparatus, information processing method, and storage medium
JP2023019950A (ja) ロボット制御システム、ロボット制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231106

R150 Certificate of patent or registration of utility model

Ref document number: 7392377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150