JP6444767B2 - 業務支援装置および業務支援プログラム - Google Patents

業務支援装置および業務支援プログラム Download PDF

Info

Publication number
JP6444767B2
JP6444767B2 JP2015037475A JP2015037475A JP6444767B2 JP 6444767 B2 JP6444767 B2 JP 6444767B2 JP 2015037475 A JP2015037475 A JP 2015037475A JP 2015037475 A JP2015037475 A JP 2015037475A JP 6444767 B2 JP6444767 B2 JP 6444767B2
Authority
JP
Japan
Prior art keywords
user
information
worker
atmosphere
business support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015037475A
Other languages
English (en)
Other versions
JP2016162001A (ja
Inventor
伸也 高山
伸也 高山
茂之 酒澤
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015037475A priority Critical patent/JP6444767B2/ja
Publication of JP2016162001A publication Critical patent/JP2016162001A/ja
Application granted granted Critical
Publication of JP6444767B2 publication Critical patent/JP6444767B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、複数のユーザの業務またはコミュニケーションを支援する技術に関する。
従来から、利用者の端末操作によりネットワークを介して特定の人同士のコミュニケーションによる交流をコンピュータが支援する技術が知られている。例えば、特許文献1では、装置との対話等の利用者の発信した情報を、共有サーバに記録したり、関係者へ提示したりする技術が開示されている。
また、特許文献2では、利用者の端末操作により、現実世界における人同士の交流を模倣するような仮想映像を生成し、人の交流を支援する技術が開示されている。
また、特許文献3では、ネットワーク上の協調支援サーバを介し、参加者の状態または会議の雰囲気を推定する技術が開示されている。
特開平08−255150号公報 特許第5527751号明細書 特開2008−306586号公報
しかしながら、特許文献1では、入力装置に対して情報を発信したり、表示装置から情報が提示されたりと、利用者と機械とのやり取りに過ぎず、同一空間にいない勤務者同士が協調して仕事を執り行なう際に、本システムを利用すると、人間的な意思疎通が図れず、仕事効率が低下する、または信頼関係が欠如するといった課題がある。また、利用者は、自分の状態を知らせるために、自ら情報を発信する必要があり、手間である。
また、特許文献2では、現実世界における人を模倣するような仮想映像を生成するので、同一空間にいない勤務者同士が協調して仕事を執り行なう際に、互いの勤務者の映像を生成しながら会話をすることにより、人間的な意思疎通は図れるようになるが、離席や書類作成等の勤務者の行動、繁忙や怠惰等の勤務者の状況、驚きや怒り等の勤務者の感情、監視されている感覚や緊迫している感覚等の場の雰囲気まで提示することはできない。また、対象者以外の人の映像は生成しないため、勤務者全員が同一空間に勤務する感覚を持てない。
また、特許文献3では、ネットワーク上に協調支援サーバを設置する必要がある。また、参加者の状態または会議の雰囲気をディスプレイ越しに確認するため、勤務者全員が同一空間に勤務する物理的な感覚を持つことができない。
本発明は、このような事情に鑑みてなされたものであり、同一空間にいない複数の勤務者の状態を同一の仮想空間に合成させることにより、協調型の仕事に従事する在宅勤務者を支援する装置を提供する。また、本発明は、勤務者の状態を常に認識して提示することにより、サーバを介さず、勤務者全員が同一空間に勤務する物理的な感覚を持つことが可能となる。さらに、本発明において、勤務者の表情や仕草等を模倣する映像を仮想空間に合成すれば、互いの勤務者の映像を確認しながら会話をすることができ、人間的な意思疎通を図ることが可能となる。加えて、本発明において、勤務者の行動、状態、感情、場の雰囲気等を認識すれば、他の勤務者が直接視認できない離席や書類作成等の勤務者の行動、繁忙や怠惰等の勤務者の状況、驚きや怒り等の勤務者の感情、監視されている感覚や緊迫している感覚等の場の雰囲気等の情報を提示することができ、仕事効率が低下する、または信頼関係が欠如するといった課題を解消することが可能となる。また、勤務者の状態を人型ロボットが表現すれば、自分とは異なる空間にいる勤務者同士のやり取りも、ロボットを介して視認することができ、実空間においても勤務者全員が同一空間で勤務することが可能となる。
(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、複数のユーザの業務またはコミュニケーションを支援する業務支援装置であって、各ユーザの行動、状況、感情および前記ユーザの周囲の雰囲気を認識し、認識情報を出力する状態認識部と、前記認識した認識情報および他の業務支援装置で認識した認識情報を合成して合成情報を生成する状態合成部と、前記生成した合成情報を表示する状態表示部と、を備えることを特徴とする。
このように、各ユーザの行動、状況、感情およびユーザの周囲の雰囲気を認識し、認識情報を出力する状態認識部と、前記認識した認識情報および他の業務支援装置で認識した認識情報を合成して合成情報を生成し、生成した合成情報を表示するので、同一空間にいないユーザであっても、他のユーザと同一の空間に存在する物理的な感覚をリアルタイムで共有することができる仮想空間を提供することができ、複数のユーザの業務またはコミュニケーションを支援することが可能となる。さらに、サーバを介さないため、低コストでの実現が可能となる。
(2)また、前記認識した認識情報に基づき、予めデータベースに記憶されたユーザの表情および仕草を示す情報を用いて、映像データを生成する映像生成部を備え、状態合成部は、自装置で生成した映像データおよび他の業務支援装置から取得した映像データを合成して合成情報を生成することを特徴とする。
このように、認識した認識情報に基づき、予めデータベースに記憶されたユーザの表情および仕草を示す情報を用いて、映像データを生成し、状態合成部は、自装置で生成した映像データおよび他の業務支援装置から取得した映像データを合成して合成情報を生成するので、お互いの映像を確認しながら会話をすることができ、人間的な意思疎通を図ることが可能となる。
(3)また、前記生成した合成情報を、ロボットを用いて表現する状態表現部を備えることを特徴とする。
このように、生成した合成情報を、ロボットを用いて表現するので、より人間的な意思疎通を図ることが可能となる。
(4)また、前記状態認識部は、ユーザの動作情報、ユーザの体温情報、ユーザの血圧情報、ICチップの電波に含まれるユーザの位置情報、またはユーザの周囲の雰囲気を示す環境音圧レベルの少なくとも一つを認識することを特徴とする。
このように、状態認識部は、ユーザの動作情報、ユーザの体温情報、ユーザの血圧情報、ICチップに含まれるユーザの位置情報、またはユーザの周囲の雰囲気を示す環境音圧レベルの少なくとも一つを認識するので、ユーザの移動や作業などのユーザの行動、繁忙や怠惰などのユーザの状態、驚きや怒り等のユーザの感情、他のユーザからの監視状況など、遠隔地にいるユーザが視認することができない情報を取得することが可能となる。
(5)また、本発明のプログラムは、複数のユーザの業務またはコミュニケーションを支援する業務支援プログラムであって、各ユーザの行動、状況、感情および前記ユーザの周囲の雰囲気を認識し、認識情報を出力する処理と、前記認識した認識情報および他の業務支援装置で認識した認識情報を合成して合成情報を生成する処理と、前記生成した合成情報を表示する処理と、を含む一連の処理をコンピュータに実行させることを特徴とする。
このように、各ユーザの行動、状況、感情および前記ユーザの周囲の雰囲気を認識し、認識情報を出力し、認識した認識情報および他の業務支援装置で認識した認識情報を合成して合成情報を生成し、生成した合成情報を表示するので、同一空間にいないユーザであっても、他のユーザと同一の空間に存在する物理的な感覚をリアルタイムで共有することができる仮想空間を提供することができる。さらに、サーバを介さないため、低コストでの実現が可能となる。
本発明によれば、同一空間にいないユーザであっても、他のユーザと同一の空間に存在する物理的な感覚をリアルタイムで共有することができる仮想空間を提供することができるようになる。その結果、複数のユーザの業務またはコミュニケーションを支援することが可能となる。さらに、サーバを介さないため、低コストでの実現が可能となる。
本実施形態に係る業務支援装置の概略構成を示す図である。 本実施形態に係る業務支援装置のブロック図である。 本実施形態に係る業務支援装置の動作例を示すフローチャートである。 状態認識部の機能を示すブロック図である。 映像生成部の機能を示すブロック図である。 状態合成部の機能を示すブロック図である。 状態表示部の機能を示すブロック図である。 状態表現部の機能を示すブロック図である。 具体的な用途例を示した図である。
本発明者らは、同一空間にいないユーザとインターネットを介して業務またはコミュニケーションを行なう際に、相手の感情や状況を把握することできず、人間的な意思疎通が図れないことにより、やり取りの効率が低下し、信頼関係が欠如してしまう場合があることに着目し、同一空間にいない複数のユーザの状態を同一の仮想空間に合成させ、その仮想空間を複数のユーザが共有することによって、円滑な業務の遂行またはコミュニケーションを行なうことができ、やり取りの効率が向上し、お互いにより良い信頼関係を築くことができることを見出し、本発明をするに至った。
すなわち、本発明の業務支援装置は、複数のユーザの業務またはコミュニケーションを支援する業務支援装置であって、各ユーザの行動、状況、感情および前記ユーザの周囲の雰囲気を認識し、認識情報を出力する状態認識部と、前記認識した認識情報および他の業務支援装置で認識した認識情報を合成して合成情報を生成する状態合成部と、前記生成した合成情報を表示する状態表示部と、を備えることを特徴とする。
これにより、本発明者らは、同一空間にいないユーザであっても、他のユーザと同一の空間に存在する物理的な感覚をリアルタイムで共有することができる仮想空間を提供することができ、複数のユーザの業務またはコミュニケーションを支援することを可能とした。さらに、サーバを介さないため、低コストでの実現を可能とした。以下、本発明の実施形態について、図面を参照しながら、具体的に説明する。
図1は、本実施形態に係る業務支援装置の概略構成を示す図である。本発明の業務支援装置は、スマートフォン等の小型情報端末70に内蔵されるICチップ10、温度センサ20、血圧センサ30、IC受信機40、カメラ50、マイクロフォン60と、ディスプレイ80、スピーカ90、人型ロボット100から構成される。そして、温度センサ20、血圧センサ30、IC受信機40、カメラ50、マイクロフォン60、ディスプレイ80、スピーカ90、人型ロボット100は、ネットワークを介して小型情報端末70と接続されている。なお、遠隔から測定できるセンサであれば、温度センサ20、血圧センサ30は、各勤務者に装着しなくても良い。また、ディスプレイ80、スピーカ90は、小型情報端末70に内蔵されているものを使用しても良い。さらに、小型情報端末、ディスプレイ、スピーカ、人型ロボットがすべて組み込まれた業務支援装置としても構成することが可能である。
小型情報端末70は、温度センサ20、血圧センサ30、IC受信機40、カメラ50、マイクロフォン60が取得した情報に基づき、勤務者の状態または場の雰囲気を認識する。また、小型情報端末70は、認識された勤務者の状態または場の雰囲気に基づき、勤務者の表情や仕草を模倣する映像を生成すると共に、認識された同一または異なる空間にいる複数の勤務者の状態または場の雰囲気、および、生成されたそれら勤務者の映像を同一の仮想空間に合成する。さらに、ディスプレイ80、スピーカ90は、合成された複数の勤務者の状態および映像または場の雰囲気を表示する。更に、人型ロボット100を用いて、合成された複数の勤務者の状態を表現することも可能である。
図2は、本実施形態に係る業務支援装置のブロック図である。小型情報端末70の状態認識部70−1は、温度センサ20、血圧センサ30、IC受信機40、カメラ50、マイクロフォン60が取得した情報に基づいて、勤務者の作業内容、存在位置、状況、顔の向き、視線、体調、感情、勤務する同一または異なる空間における環境音圧レベルなどの、勤務者の状態または場の雰囲気を認識する。小型情報端末70の映像生成部70−2は、状態認識部70−1が認識した勤務者の感情や作業内容に基づいて、勤務者の表情や仕草を模倣する映像を生成する。小型情報端末70の状態合成部70−3は、状態認識部70−1が認識した同一または異なる空間にいる複数の勤務者の状態または場の雰囲気、および、映像生成部70−2が生成した同一または異なる空間にいる複数の勤務者の表情や仕草を模倣する映像を、同一の仮想空間に合成する。ディスプレイ80およびスピーカ90の状態表示部は、状態合成部70−3で合成された複数の勤務者の状態または場の雰囲気、および、複数の勤務者の表情や仕草を模倣する映像を表示する。人型ロボット100の状態表現部は、状態合成部70−3で合成された複数の勤務者の状態、および、複数の勤務者の表情や仕草を表現する。映像生成部70−2は、生成した映像を状態表示部または状態表現部へ直接送信しても良い。
図3は、本実施形態に係る業務支援装置の動作例を示すフローチャートである。本実施形態に係る業務支援装置を構成する各機能を示すブロック図とともに、動作例について説明する。
図4は、状態認識部70−1の機能を示すブロック図である。初めに、温度センサ20、血圧センサ30、IC受信機40、カメラ50、マイクロフォン60は、各勤務者の情報を取得し、小型情報端末70に送信する(ステップS1)。なお、本実施形態では、ICチップ、温度センサ、血圧センサ、IC受信機、カメラ、マイクロフォンを使用して情報を取得するが、本発明の技術的思想は、これらに限定されるわけではなく、他の装置を使用して情報を取得しても良い。
各勤務者に装着された温度センサ20は、各勤務者の体温を随時計測し、小型情報端末70に送信する。各勤務者に装着された血圧センサ30は、各勤務者の最高血圧、最低血圧、心拍数を随時計測し、小型情報端末70に送信する。各勤務者の勤務席に備え付けられたIC受信機40は、各勤務者が所持している端末などに搭載されたICチップ10のうち、近接にあるICチップ10を随時計測し、近接に存在する各勤務者の位置情報を取得し、小型情報端末70に送信する。各勤務者の勤務席に備え付けられたカメラ50は、各勤務者の顔、全身、周辺の映像を随時取得し、小型情報端末70に送信する。各勤務者の勤務席に備え付けられたマイクロフォン60は、各勤務者の音声または各勤務者が勤務する空間の環境音を随時取得し、小型情報端末70に送信する。
図5は、映像生成部70−2の機能を示すブロック図である。小型情報端末70は、ステップS1で取得した情報に基づいて、各勤務者の状態または場の雰囲気を認識する(ステップS2)。なお、本実施形態では、各勤務者の作業内容、存在位置、状況、顔の向き、視線、体調、感情、環境音圧レベルを用いて、勤務者の状態または場の雰囲気を認識するが、本発明の技術的思想は、これらに限定されるわけではなく、他の状態または場の雰囲気を認識しても良い。また、以下に説明する各勤務者の状態または場の雰囲気の認識方法についても同様である。次に、各勤務者の状態または場の雰囲気の認識方法について、具体的な例を用いて説明する。
(勤務者の作業内容の認識)
・勤務者が手でキーボードを操作している映像をカメラ50が取得した場合
→ 勤務者の作業内容:PC操作中
・勤務者が手に筆記用具を所持している映像をカメラ50が取得した場合
→ 勤務者の作業内容:筆記中
・勤務者が手に電話を所持している映像をカメラ50が取得した場合
→ 勤務者の作業内容:電話対応中
・θ秒以上継続して勤務者の目蓋が閉じている映像をカメラ50が取得した場合
→ 勤務者の作業内容:睡眠中
(勤務者の存在位置の認識)
・勤務者Aの勤務席に備え付けられたIC受信機40が近接にあると計測したICチップ10に、勤務者Aのものが含まれる場合
→ 勤務者の存在位置:勤務者Aは在席中
・勤務者A以外(ここでは勤務者B)の勤務席に備え付けられたIC受信機40が近接にあると計測したICチップ10に、勤務者Aのものが含まれる場合
→ 勤務者の存在位置:勤務者Aは勤務者Bの席に移動中
・何れの勤務席に備え付けられたIC受信機40にも、近接にあると計測したICチップ10に、勤務者Aのものが含まれない場合
→ 勤務者の存在位置:勤務者Aは離席中
(勤務者の状況の認識)
・θ分以上継続して勤務者の作業内容が何れかと認識された場合
→ 勤務者の状況:繁忙
・θ分以上継続して勤務者の作業内容が睡眠中と認識された、または、何れの作業内も認識されない場合
→ 勤務者の状況:怠惰
(勤務者の顔の向きの認識)
・θ秒以上継続して勤務者の顔が右を向いている映像をカメラ50が取得した場合
→ 勤務者の顔の向き:右
・θ秒以上継続して勤務者の顔が左を向いている映像をカメラ50が取得した場合
→ 勤務者の顔の向き:左
・θ秒以上継続して勤務者の顔が下を向いている映像をカメラ50が取得した場合
→ 勤務者の顔の向き:下
・上記の何れの映像もカメラ50が取得しない場合
→ 勤務者の顔の向き:正面
(勤務者の視線の認識)
・θ秒以上継続して勤務者Aの視線が勤務者Bを向いている映像をカメラ50が取得した場合
→ 勤務者の視線:勤務者Aは勤務者Bを監視中
・θ秒以上継続して勤務者Aの視線が勤務者Bに向かない映像をカメラ50が取得した場合
→ 勤務者の視線:勤務者Aは勤務者Bを放置
(勤務者の体調の認識)
・温度センサ20が37.5℃以上を計測した場合
→ 勤務者の体調:発熱
・温度センサ20が36.8℃以上且つ37.5℃未満を計測した場合
→ 勤務者の体調:微熱
・温度センサ20が36.0℃未満を計測した場合
→ 勤務者の体調:低体温
・血圧センサ30が最高血圧140以上を計測した場合
→ 勤務者の体調:高血圧
・血圧センサ30が最低血圧100未満を計測した場合
→ 勤務者の体調:低血圧
・血圧センサ30が心拍数100以上を計測した場合
→ 勤務者の体調:動悸息切れ
・温度センサ20および血圧センサ30が上記の何れも計測しない場合
→ 勤務者の体調:正常
(勤務者の感情の認識)
人間の表情形成に用いられる感情に対応する勤務者の顔画像を予め登録しておく。例えば、感情分類として、「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つの感情および無感情がある。また感情分類に加え、勤務者の音声を取得し、人間の感情をより豊かに表現することも可能である。
・カメラ50で取得した映像が「喜び」の顔画像に最も近い場合
→ 勤務者の感情:喜び
・カメラ50で取得した映像が「悲しみ」の顔画像に最も近い場合
→ 勤務者の感情:悲しみ
・カメラ50で取得した映像が「怒り」の顔画像に最も近い場合
→ 勤務者の感情:怒り
・カメラ50で取得した映像が「嫌悪」の顔画像に最も近い場合
→ 勤務者の感情:嫌悪
・カメラ50で取得した映像が「恐怖」の顔画像に最も近い場合
→ 勤務者の感情:恐怖
・カメラ50で取得した映像が「罪」の顔画像に最も近い場合
→ 勤務者の感情:罪
・カメラ50で取得した映像が「恥」の顔画像に最も近い場合
→ 勤務者の感情:恥
・カメラ50で取得した映像が「興味」の顔画像に最も近い場合
→ 勤務者の感情:興味
・カメラ50で取得した映像が「驚き」の顔画像に最も近い場合
→ 勤務者の感情:驚き
・カメラ50で取得した映像が「無感情」の顔画像に最も近い場合
→ 勤務者の感情:無感情
・マイクロフォン60で取得した勤務者の音声がαdB以上の場合
→ 勤務者の感情:強度W大
・βdB未満の勤務者の音声をマイクロフォン60が取得した場合
→ 勤務者の感情:強度W小
(環境音圧レベルの認識)
・γdB以上の環境音を同一空間にあるN個以上のマイクロフォン60が取得した場合
→ 場の雰囲気:騒々しい
・δdB未満の環境音を同一空間にあるN個以上のマイクロフォン60が取得した場合
→ 場の雰囲気:静寂
・δdB未満の環境音を同一空間にあるN個以上のマイクロフォン60が取得し、同空間内の勤務者の何れかの感情が「怒り」または「恐怖」と認識された場合
→ 場の雰囲気:緊迫(ピリピリモード)
次に、小型情報端末70において、ステップS2で認識された勤務者の作業内容、状況、顔の向き、感情に基づいて、勤務者の表情または仕草を模倣する映像を生成する(ステップS3)。
任意のエージェントにおけるアニメーションデータ生成の例を以下に示す。なお、本実施形態では、アニメーションデータとして、時刻tにおけるエージェントの任意のポリゴンP(p=1,2,…,n)の空間位置座標(X ,Y ,Z )が記述されている場合の例を示すが、本発明の技術的思想は、これに限定されるわけなく、予め登録した勤務者本人の映像を再生しても良い。
初めに、予め用意されたモデルデータベースから当該勤務者のエージェントを読み込む。ここで、予め登録された勤務者の顔画像に対して、「喜び」における無感情との差分を(ΔXp1 ,ΔYp1 ,ΔZp1 )、「悲しみ」における無感情との差分を(ΔXp2 ,ΔYp2 ,ΔZp2 )、「怒り」における無感情との差分を(ΔXp3 ,ΔYp3 ,ΔZp3 )、「嫌悪」における無感情との差分を(ΔXp4 ,ΔYp4 ,ΔZp4 )、「恐怖」における無感情との差分を(ΔXp5 ,ΔYp5 ,ΔZp5 )、「罪」における無感情との差分を(ΔXp6 ,ΔYp6 ,ΔZp6 )、「恥」における無感情との差分を(ΔXp7 ,ΔYp7 ,ΔZp7 )、「興味」における無感情との差分を(ΔXp8 ,ΔYp8 ,ΔZp8 )、「驚き」における無感情との差分を(ΔXp9 ,ΔYp9 ,ΔZp9 )、と表わす。
(勤務者の表情を模擬する映像の生成)
Pの座標(X ,Y ,Z )を次式で更新して当該勤務者のエージェントにおけるアニメーションデータを生成することで、勤務者の感情に応じた勤務者の表情を模擬する映像を生成する。
Figure 0006444767
(勤務者の仕草を模擬する映像の生成)
予め用意されたアニメーションデータベースから当該アニメーションデータを抽出して付与することで、勤務者の勤務者の作業内容、状況、顔の向き、視線、感情に応じた勤務者の仕草を模擬する映像を生成する。
図6は、状態合成部70−3の機能を示すブロック図である。小型情報端末70において、ステップS2で認識された勤務者の状態または場の雰囲気、および、ステップS3で生成された同一または異なる空間にいる複数の勤務者の表情または仕草を模倣する映像を、同一の仮想空間に合成する(ステップS4)。
まず、仮想空間上に各勤務者の勤務席を配置する。同一空間にいる勤務者については、予めフロア図等を用いて相互の位置関係を取得し、仮想空間上に勤務席を配置する。一方、異なる空間の勤務者については、各空間を並列表示する等行ない、空間同士を結合し、全ての勤務者を同一の仮想空間上に配置する。
次に、ステップS2で認識された各勤務者の存在位置に該当する仮想空間上に勤務席において、ステップS2で認識された各勤務者の体調またはステップS3で生成された勤務者の表情または仕草を模倣する映像を合成する。これにより、例えば、実空間であっても相互の勤務者同士が視認しにくい体温、血圧等、体調に関する情報が視覚的かつ即時に確認でき、健康管理の効率化、過労の防止に繋がる。また、異なる空間にいる勤務者同士が会話する場合でも、同一空間で会話をしている仮想映像を提示でき、他の勤務者がその会話に気軽に加わることが可能となる。さらに、勤務者の視線を模擬する仮想映像と共に、監視中や放置等の認識された勤務者の視線情報を提示すれば、他の勤務者から見られている、他の勤務者の注目を集めていない等の情報を勤務者同士で共有でき、勤務者全員が同一空間に勤務する感覚を提供することが可能となる。さらに加えて、勤務者の状況を模擬する仮想映像と共に、繁忙や怠惰等の認識された勤務者の状況情報を提示すれば、仕事が回っていない、仕事をサボっている等の情報を勤務者同士で共有でき、仕事効率が低下する、信頼関係が欠如するといった課題を解消することが可能となる。
次に、ステップS2で認識された場の雰囲気を同一の仮想空間上に合成する。ここでは、認識された場の雰囲気のテキスト情報を合成する場合を述べるが、場の雰囲気に応じて、仮想空間の配色を変える、雰囲気を示すアイコンを提示する等、空間アニメーションで合成しても良い。また、実空間によって異なる場の雰囲気が認識された場合は、勤務者の最も多い実空間における場の雰囲気を統一の仮想空間上の場の雰囲気として合成しても良いし、実空間単位で異なる場の雰囲気を仮想空間上に合成しても良い。例えば、大半の勤務者が勤務する場の雰囲気が緊迫(ピリピリモード)と認識された場合、それとは異なる実空間にいる勤務者の場の雰囲気も緊迫(ピリピリモード)と提示することにより、緊迫感を共有でき、勤務者全員が同一空間に勤務する感覚を提供することが可能となる。
図7は、状態表示部の機能を示すブロック図である。状態表示部の機能を有するディスプレイ80およびスピーカ90において、ステップS4で合成された勤務者の状態または場の雰囲気、および、複数の勤務者の表情や仕草を模倣する映像を表示する(ステップS5)。
図8は、状態表現部の機能を示すブロック図である。状態表現部の機能を有する人型ロボット100において、ステップS4で合成された複数の勤務者の状態、および、複数の勤務者の表情や仕草を表現する(ステップS6)。ステップS4で合成された複数の勤務者の状態のうち、顔の向き、視線、表情、仕草等、人型ロボット100の駆動装置で表現可能なものは、物理制御を行なって表現する。駆動装置で表現できないものについては、発話により表現することも可能である。これにより、例えば、異なる空間にいる勤務者における、PC操作中や電話対応中等の勤務者の作業内容、在席中や離席中等の勤務者の存在位置、勤務者の顔の向きや視線に加え、繁忙や怠惰等の勤務者の状況、発熱や息切れ等の勤務者の体調、怒りや驚き等の勤務者の感情、静寂や緊迫等の場の雰囲気等、人間や場の内面的な情報まで提示することが可能となる。
また、本発明を用いることにより、例えば、図9に示すような在宅勤務支援の環境を提供することができる。その結果、在宅勤務者と協調作業を円滑に行なうことが可能となり、実際は異なる空間にいる隣の席の勤務者の状態に感化されて仕事が捗る等の作用が期待される。さらに、在宅勤務支援の他、遠隔地にいる家族間コミュニケーションの活性化や遠隔医療支援等にまでも用途を広げることができる。
以上説明したように、本実施形態によれば、同一空間にいないユーザであっても、他のユーザと同一の空間に存在する物理的な感覚をリアルタイムで共有することができる仮想空間を提供することができるようになる。その結果、複数のユーザの業務またはコミュニケーションを支援することが可能となる。さらに、サーバを介さないため、低コストでの実現が可能となる。
10 ICチップ
20 温度センサ
30 血圧センサ
40 IC受信機
50 カメラ
60 マイクロフォン
70 小型情報端末
70−1 状態認識部
70−2 映像生成部
70−3 状態合成部
80 ディスプレイ
90 スピーカ
100、220、320、420 人型ロボット
200 会議室
210 勤務者
300 自宅A
310 在宅勤務者A
400 自宅B
410 在宅勤務者B

Claims (5)

  1. 複数のユーザの業務またはコミュニケーションを支援する業務支援装置であって、
    ユーザの行動、状況、感情および前記ユーザの周囲の雰囲気を認識し、認識情報を出力する状態認識部と、
    前記認識した認識情報および他の業務支援装置で認識した認識情報のうち、前記ユーザが最も多く存在する実空間におけるユーザの周囲の雰囲気を統一して仮想空間上の場の雰囲気とし、この場の雰囲気および前記各認識情報のうち前記ユーザの周囲の雰囲気以外の認識情報を合成して合成情報を生成する状態合成部と、
    前記生成した合成情報に基づいて、全ユーザの状態および統一された場の雰囲気を表示する状態表示部と、を備えることを特徴とする業務支援装置。
  2. 前記認識した認識情報に基づき、予めデータベースに記憶されたユーザの表情および仕草を示す情報を用いて、映像データを生成する映像生成部を備え、
    前記状態合成部は、自装置で生成した映像データおよび他の業務支援装置から取得した映像データを合成して合成情報を生成することを特徴とする請求項1記載の業務支援装置。
  3. 前記生成した合成情報を、ロボットを用いて表現する状態表現部を備えることを特徴とする請求項1または請求項2記載の業務支援装置。
  4. 前記状態認識部は、
    ユーザの動作情報、ユーザの体温情報、ユーザの血圧情報、ICチップの電波に含まれるユーザの位置情報、またはユーザの周囲の雰囲気を示す環境音圧レベルの少なくとも一つを認識することを特徴とする請求項1から請求項3のいずれかに記載の業務支援装置。
  5. 複数のユーザの業務またはコミュニケーションを支援する業務支援プログラムであって、
    ユーザの行動、状況、感情および前記ユーザの周囲の雰囲気を認識し、認識情報を出力する処理と、
    前記認識した認識情報および他の業務支援装置で認識した認識情報のうち、前記ユーザが最も多く存在する実空間におけるユーザの周囲の雰囲気を統一して仮想空間上の場の雰囲気とし、この場の雰囲気および前記各認識情報のうち前記ユーザの周囲の雰囲気以外の認識情報を合成して合成情報を生成する処理と、
    前記生成した合成情報に基づいて、全ユーザの状態および統一された場の雰囲気を表示する処理と、を含む一連の処理をコンピュータに実行させることを特徴とする業務支援プログラム。
JP2015037475A 2015-02-26 2015-02-26 業務支援装置および業務支援プログラム Active JP6444767B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015037475A JP6444767B2 (ja) 2015-02-26 2015-02-26 業務支援装置および業務支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037475A JP6444767B2 (ja) 2015-02-26 2015-02-26 業務支援装置および業務支援プログラム

Publications (2)

Publication Number Publication Date
JP2016162001A JP2016162001A (ja) 2016-09-05
JP6444767B2 true JP6444767B2 (ja) 2018-12-26

Family

ID=56847030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037475A Active JP6444767B2 (ja) 2015-02-26 2015-02-26 業務支援装置および業務支援プログラム

Country Status (1)

Country Link
JP (1) JP6444767B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235346A1 (ja) * 2019-05-20 2020-11-26 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、システム及び方法
JP7121848B1 (ja) 2021-11-12 2022-08-18 株式会社ユカリア 情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システム
KR102421118B1 (ko) * 2022-01-25 2022-07-14 주식회사 경남은행 사내 커뮤니케이션 지원 시스템

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2539153B2 (ja) * 1993-03-19 1996-10-02 インターナショナル・ビジネス・マシーンズ・コーポレイション 仮想会議システム用端末装置及び仮想会議システム
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP3674993B2 (ja) * 1995-08-31 2005-07-27 三菱電機株式会社 仮想会議システムの画像表示方法並びに仮想会議用端末装置
JP2000181967A (ja) * 1998-10-06 2000-06-30 Canon Inc 分散オフィスシステムおよびその管理方法
JP2003235019A (ja) * 2002-02-07 2003-08-22 Nippon Telegr & Teleph Corp <Ntt> 通信支援装置
JP2004066367A (ja) * 2002-08-05 2004-03-04 Mitsubishi Heavy Ind Ltd 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム
JP2006302047A (ja) * 2005-04-21 2006-11-02 Fuji Xerox Co Ltd 会議支援プログラム、会議支援装置、および会議支援方法
JP2009232054A (ja) * 2008-03-21 2009-10-08 Oki Electric Ind Co Ltd 会議支援システム
JP6175969B2 (ja) * 2013-08-09 2017-08-09 株式会社リコー 情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
JP2016162001A (ja) 2016-09-05

Similar Documents

Publication Publication Date Title
US11960698B2 (en) Communicating between a virtual area and a physical space
US20120204118A1 (en) Systems and methods for conducting and replaying virtual meetings
US20120204120A1 (en) Systems and methods for conducting and replaying virtual meetings
US20120204119A1 (en) Systems and methods for conducting and replaying virtual meetings
JP7073116B2 (ja) オフィス用バーチャルリアリティシステム、及びオフィス用バーチャルリアリティプログラム
JP6444767B2 (ja) 業務支援装置および業務支援プログラム
JP2006302047A (ja) 会議支援プログラム、会議支援装置、および会議支援方法
JPWO2019139101A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11212488B2 (en) Conference system
CN114615455A (zh) 远程会议的处理方法、装置、会议系统和存储介质
JP6867971B2 (ja) 会議支援装置及び会議支援システム
JP6888854B1 (ja) 遠隔勤務支援システム及び遠隔勤務支援方法
WO2022137547A1 (ja) コミュニケーション支援システム
Myodo et al. Issues and solutions to informal communication in working from home using a telepresence robot
JP6901190B1 (ja) 遠隔対話システム、遠隔対話方法及び遠隔対話プログラム
JP2021002145A (ja) 仮想空間提供システム、仮想空間提供方法及びプログラム
JP2023146875A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2012109006A2 (en) Systems and methods for conducting and replaying virtual meetings
Kaiser et al. Multimodal interaction for future control centers: Interaction concept and implementation
Sawyerr et al. Designing a 3D virtual world for providing social support for the elderly
JP2017163251A (ja) テレイグジスタンスを利用したコミュニケーションシステム
JP7292765B1 (ja) コミュニケーション制御装置及びコンピュータープログラム
JP2007325063A (ja) 遠隔会議システム
WO2023032172A1 (ja) 仮想空間提供装置、仮想空間提供方法、及びコンピュータ読み取り可能な記憶媒体
Ishii et al. E-VChat: A video communication system in which a speech-driven embodied entrainment character working with head motion is superimposed for a virtual face-to-face scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181128

R150 Certificate of patent or registration of utility model

Ref document number: 6444767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150