JP5947902B2 - 対面データ生成装置及び対面データの生成方法 - Google Patents
対面データ生成装置及び対面データの生成方法 Download PDFInfo
- Publication number
- JP5947902B2 JP5947902B2 JP2014534081A JP2014534081A JP5947902B2 JP 5947902 B2 JP5947902 B2 JP 5947902B2 JP 2014534081 A JP2014534081 A JP 2014534081A JP 2014534081 A JP2014534081 A JP 2014534081A JP 5947902 B2 JP5947902 B2 JP 5947902B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- data
- person
- sensor
- sensor terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、ウェアラブルセンサ端末によって取得した人物同士の対面データと、室内に設置した距離センサによって取得した人物の活動データとを用いて、業務におけるコミュニケーションを活動状況に応じて数値化し、数値化したデータを可視化する計算機システムに関する。特に、業務上で対面する人物の状況を把握し、人物同士の関係を抽出する業務システムに関する。
企業にとって、人は重要な資本であり、人の行動如何で企業の状態が大きく変化する。業務を円滑に遂行するために必要な人の行動として、コミュニケーションがある。例えば、チームの目的や方向性の確認、状況認識や問題意識の共有、ノウハウや知識の交流、仕事のアイディアや問題解決のためのヒントを得る、など、さまざまな場面においてコミュニケーションは非常に重要な役割を示す。コミュニケーションを客観的に把握し、コミュニケーションの実態を知ることで、組織の特徴や問題点を知り、業務の改善や効率化、組織の活性化に役立てることが出来るようになる。
業務におけるコミュニケーションの実態を知る手段の一つとして、人と人との関係を視覚的にわかりやすく提示する、ネットワーク相関図がある。ネットワーク相関図は、人を一つのノードとし、何らかのインタラクション(相関関係)の生じたノード同士を、インタラクションの強度に応じて線で結ぶものである。
業務における人の相関図を生成するものとして、従来、電子メールや電子文書ファイリングシステム、電話の交信記録ログから、組織のメンバ間のネットワーク図を生成する技術が知られている(例えば、特許文献1、特許文献2)。
これにより、社内、社外を含めたオンライン上のコミュニケーション状況を知ることができるが、Face to Faceの物理的な対面を知ることはできない。業務における人の物理的対面を取得する技術として、人が装着するセンサ端末によって取得したデータから、装着者同士の関係を示す値を算出する技術が知られている(例えば、特許文献3)。
また一方で、近年の距離センサの低価格化により気軽に利用できるようになり、センサで取得したデータから得られる対象物の三次元形状や動きを利用したサービスの開発が進んできている。例えば、ジェスチャによってPCやテレビの操作を行ったり、身体の動きに応じて表示される映像を変更したりする、などといった利用方法が提案されている。
上記従来例では、センサを装着した者同士のコミュニケーション状況を知ることができる。しかしながら、センサを装着させることが困難である社外からの来客とのコミュニケーション状況を知ることが出来なかった。
業務の円滑な遂行や業務効率の改善に必要な情報の一つとして、業務における社内及び社外を含めた物理的な人の対面状況を、時間だけでなく質(活発さ)も含めて定量的に把握することが有効である。上記従来例及び各従来例の組み合わせからは、社内及び社外の人物間の対面状況を把握できないという問題があった。
本発明は、プロセッサと記憶部を備えて、人物同士の物理的な対面に関するデータを生成する対面データ生成装置であって、複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する通信部と、所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第1の計測部と、所定の位置に配置されて前記センサ端末と通信を行って当該センサ端末の位置を特定する第2の計測部と、前記第1の計測部で特定した前記人物の位置と、前記第2の計測部で特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する対面データ生成部と、を備え、前記第2のセンサは、前記人物までの距離を測定する距離センサで構成され、前記第1の計測部は、前記距離センサから取得したデータと、前記距離センサの位置及び方向に基づいて、前記人物の実際の配置に基づく座席見取り図を生成する。
本発明によれば、センサ端末のセンシングデータを解析することにより、センサ端末を装着した人物同士のコミュニケーションの状況を把握できるだけでなく、センサ端末を装着していない人物とのコミュニケーションの状況を把握することも可能となる。
以下、本発明の一実施形態について添付図面を用いて説明する。
本発明は、業務で人と人が対面したことを示す対面データを生成する業務上対面データ生成システムであり、複数のセンシングデータを用いて、社内だけでなく社外の人との対面状況を、対面時の活動量と共に表す業務対面活動マトリクス及び可視化データを生成することを特徴とする。以下、図面を用いて説明を行う。なお、業務上対面データ生成システムは、センサーと計算機及びネットワークを含む計算機システムである。
最初に、本発明の第1の実施例について図面を参照して説明する。実施例1においては、社内の従業員(社員)同士の対面データと、社外者との対面データとを結合する。そして、業務に関する社内外を含めた人物同士の対面データを生成する。対面データの生成にあたり、社内の人物同士の対面データと同一の単位系において、社外者と社内(または社外)の人物の対面データからコミュニケーション量(対面時間)を算出する。さらに、本実施例1では対面時の人物の活動量も含めて算出することを特徴とする。
実施例1では、社内対面データの生成において、従業員が装着したセンサ端末から得られる情報に基づき従業員同士の対面データを生成する方法を開示しているが、これ以外のものであってもよい。これにより、社内における従業員同士の対面においては、実体に基づく対面データを生成することが可能となる。
また、実施例1では、社外者との対面データを生成するにあたり、会議室内に設置した距離センサを用いる方法を開示しているが、画像認識など距離センサ以外のものであってもよい。
<図1:全体の処理の流れ>
図1に、第1の実施例の業務上対面データ生成システムの概要を示す。第1の実施例では、センサ端末(TR、TR2〜8:以下個体を識別しない場合にはすべてTRと示す)をユーザ(US)である従業員(社内の人物)が装着し、装着された端末(TR)によって各従業員の行動や従業員間の交流(インタラクション)に関するセンシングデータを取得する。インタラクションについては、ユーザ(US)同士が対面した際に各センサ端末(TR)間で赤外線を送受信することで対面状態を検知している。なお、センサ端末(TR)は、物理量のひとつとして対面する他のセンサ端末からの赤外線を検知する。各端末(TR)が取得したセンシングデータは無線または有線で接続した基地局(GW)に送信される。
図1に、第1の実施例の業務上対面データ生成システムの概要を示す。第1の実施例では、センサ端末(TR、TR2〜8:以下個体を識別しない場合にはすべてTRと示す)をユーザ(US)である従業員(社内の人物)が装着し、装着された端末(TR)によって各従業員の行動や従業員間の交流(インタラクション)に関するセンシングデータを取得する。インタラクションについては、ユーザ(US)同士が対面した際に各センサ端末(TR)間で赤外線を送受信することで対面状態を検知している。なお、センサ端末(TR)は、物理量のひとつとして対面する他のセンサ端末からの赤外線を検知する。各端末(TR)が取得したセンシングデータは無線または有線で接続した基地局(GW)に送信される。
基地局(GW)は、ネットワーク(NW)を介して転送したセンシングデータをセンサネットサーバ(SS)に格納する。センサネットサーバ(SS)は定期的(所定の周期など)に、格納されたセンシングデータの前処理を行って二次データを生成し、二次データとして保管しておく。
また一方で、従業員(US)と社外来訪者(VT、VT2〜3:以下個体を識別しない場合にはすべてVTと示す)が打合せ等で利用する会議室では、距離センサ(RS)で、会議の状態を形状データで測定して、計測PC(MP)に送信する。距離センサ(RS)は会議室内の所定の位置に設置されて、無線、音波、光などの周知の技術を用いて会議室内をスキャンしながら距離を測定することで、形状データを生成する。
また、会議室内の所定の位置に配置されたセンサ端末装着者検出器(ISD)で、センサ端末(TR)を装着している人、すなわち従業員(US)の端末IDを検出し、計測PC(MP)に送信する。センサ端末装着者検出器(ISD)は会議室内の所定の位置に設置されて、無線、音波、光などの周知の技術を用いてセンサ端末(TR)と通信を行って、センサ端末(TR)の位置と、センサ端末(TR)に設定された端末IDを取得する。センサ端末装着者検出器(ISD)の詳細については、後述する。
計測PC(MP)では、距離センサ(RS)で取得した形状データから、会議室内の人物(従業員及び来訪者)や家具の実際の配置に基づく座席表を生成する。そして、計測PC(MP)は、センサ端末装着者検出器(ISD)で検出した端末IDと、センサ端末装着者検出器(ISD)の設置されている位置と方向からセンサ端末(TR)を装着している従業員(US)の座席を特定する。
次に、計測PC(MP)では、生成した座席表と従業員(US)の座席から来訪者(VT)の座席位置を特定する。計測PC(MP)は、入力装置を用いて、特定した座席位置について来訪者の情報を入力することにより、会議の参加者氏名と座席位置とを対応付けた座席表を生成する。
計測PC(MP)で生成された座席表データと、距離センサ(RS)で取得したセンシングデータは、データ処理サーバ(DS)に送信される。
データ処理サーバ(DS)では、生成された座席表データと距離センサ(RS)で取得した形状データとを含むセンシングデータに基づき会議参加者の会議の活性度を算出し、会議の参加者全ての組み合わせについて会議の活性度を算出してから会議活動二次データ(会議データ)を生成する。
本実施例では、活動量から得られる参加者の体の動きから、会議での発言の多寡を推定する値として活性度を用いる。すなわち、参加者の体の動きが多い場合には、会議での発言も多いと推定して、この場合は活性度が高い、と判定する。すなわち、活発な論議が行われた場合、発言する際のジェスチャーが大きくなる場合や、意見を聞く際に頷くなどの動作も大きくなる。このように活発な意見交換がある状況を、活性度が高いとする。
逆に、参加者の体の動きが少ない場合には、会議での発言も少ないと推定して、この場合は活性度が低い、と判定する。すなわち、他人の発表などを単に聞くだけのような状況では、意見を聞く際に頷くなどの動作が少なくなり、意見交換がほとんど無いような状況を、活性度が低いとする。
以上のように、本発明では、対面している人物の活動量から会議(または会話)の活性度を推定する。
クライアント(CL)で、従業員であるユーザ(US)向けに表示するためのコンテンツ(多くは画像であるが、動画やテキストデータ、音声データなど他のデータでもよい)を生成する際には、アプリケーションサーバ(AS)が、定期的にデータ処理サーバ(DS)から会議データや業務データを取得し、センサネットサーバ(SS)から二次データを取得する。そして、アプリケーションサーバ(AS)は、業務データと二次データとを合わせた処理を行い、コンテンツを生成する。
クライアント(CL)は、閲覧者検出器(CLBD)とディスプレイ(CSOD)を有し、閲覧者検出器(CLBD)は端末(TR)から送信された端末IDを含む赤外線情報を受信することで、ユーザ(US)がディスプレイを閲覧していることを検知する。閲覧者を検知する方法は、赤外線センサ以外にも、無線送受信機やRFID、カメラによる顔認識などを用いてもよい。閲覧者が検出された場合には、クライアント(CL)はアプリケーションサーバ(AS)に閲覧者のリストを送り、アプリケーションサーバ(AS)は、受信した閲覧者向けのコンテンツをクライアント(CL)に送信する。クライアント(CL)は受け取ったコンテンツをディスプレイ(CLOD)の画面(OD)に表示する。
なお、NTPサーバ(TS)は、ネットワーク(NW)に接続された計算機やセンサ端末(TR)及び基地局(GW)の時刻を同期させるため、基準となる時刻を送信する。
<各サーバ及び装置のブロック図>
図2A、図2Bから図5A、図5Bは、本発明の実施の形態の業務上対面データ生成システムを実現するための計算機の構成を説明するブロック図である。図示の都合上、図2Aから図5A、図5Bに分割して示すが、図1で示したように、された各構成要素は相互に連携して動作する。また、図内のそれぞれの機能はハードウェアまたはソフトウェア、あるいはハードウェアとソフトウェアの組み合わせによって実現されるものであり、必ずしも各機能ブロックがハードウェア実体を伴うとは限らない。以下では各構成要素は図2A、図2Bから図5A、図5Bに示されるように、制御部と記憶部と送受信部を有しているものとして説明する。
図2A、図2Bから図5A、図5Bは、本発明の実施の形態の業務上対面データ生成システムを実現するための計算機の構成を説明するブロック図である。図示の都合上、図2Aから図5A、図5Bに分割して示すが、図1で示したように、された各構成要素は相互に連携して動作する。また、図内のそれぞれの機能はハードウェアまたはソフトウェア、あるいはハードウェアとソフトウェアの組み合わせによって実現されるものであり、必ずしも各機能ブロックがハードウェア実体を伴うとは限らない。以下では各構成要素は図2A、図2Bから図5A、図5Bに示されるように、制御部と記憶部と送受信部を有しているものとして説明する。
各制御部は、通常のコンピュータ等の処理部である中央処理部(Central Processing Unit:CPU、図示省略)などで構成され、記憶部は半導体記憶装置や磁気記憶装置等のメモリ装置で構成され、送受信部は有線または無線等のネットワークインタフェースを備えて構成される。その他、必要に応じて時計等を備えている。
図2A、図2Bから図5A、図5Bにおける形の異なる5種類の矢印は、それぞれ、時刻同期、アソシエイト、取得したセンシングデータの格納、センシングデータの解析、ファームウェア更新、及び、制御信号のためのデータまたは信号の流れをそれぞれ表している。以下、図2A、図2Bから図5A、図5Bを個別に参照して説明する。
<クライアント(CL)、アプリケーションサーバ(AS)>
図2A、図2Bに、クライアント(CL)、およびアプリケーションサーバ(AS)の一例を示すブロック図を示す。
図2A、図2Bに、クライアント(CL)、およびアプリケーションサーバ(AS)の一例を示すブロック図を示す。
<クライアント(CL)>
図2Aにおいて、クライアント(CL)は、ユーザ(US)との接点(インターフェース)となって、データを入出力する。クライアント(CL)は、入出力部(CLIO)、送受信部(CLSR)、記憶部(CLME)、制御部(CLCO)、及び、閲覧者検出器(CLVD)を備える。
図2Aにおいて、クライアント(CL)は、ユーザ(US)との接点(インターフェース)となって、データを入出力する。クライアント(CL)は、入出力部(CLIO)、送受信部(CLSR)、記憶部(CLME)、制御部(CLCO)、及び、閲覧者検出器(CLVD)を備える。
入出力部(CLIO)は、ユーザ(US)とのインターフェースとなる部分である。入出力部(CLIO)は、ディスプレイ(CLOD)、タッチパネル(CLIT)、キーボード(CLIK)、そしてマウス(CLIM)等を備える。必要に応じて外部入出力(CLIU)に他の入出力装置を接続することもできる。
ディスプレイ(CLOD)は、CRT(Cathode−Ray Tube)又は液晶ディスプレイ等の画像表示装置である。ディスプレイ(CLOD)は、スピーカやプリンタ等を含んでいてもよい。ユーザ(US)による入力を支援するためにタッチパネル(CLIT)を用いる場合には、タッチパネル(CLIT)をディスプレイ(CLOD)の画面(OD)と重なるように設置し、出力と入力を同じ画面上で行うように表示することもできる。
送受信部(CLSR)は、アプリケーションサーバ(AS)や、ネットワーク(NW)に接続した他の機器との間でデータや命令を送受信する。具体的には、送受信部(CLSR)は、コンテンツのリクエストをアプリケーションサーバ(AS)に送信し、リクエストに対応するコンテンツをアプリケーションサーバ(AS)から受信する。
記憶部(CLME)は、ハードディスク、メモリ又はSD(登録商標)メモリカードのような外部記録装置で構成される。記憶部(CLME)は、閲覧者検出器(CLVD)のIDである検出器ID(CLVDID)や、有効な端末IDの一覧を示した端末IDリスト(CLID)を格納し、また、検出された閲覧者と、検出時刻の記録やその他クライアントに生じたイベントに関するログを蓄積するクライアントログ(CLCB)を格納する。
閲覧者検知器(CLVD)はクライアント(CL)に内蔵もしくは外部接続された端末であり、赤外線送受信器(CLVDIR)または人感センサ(CLVDHI)などのセンサを有し、クライアント(CL)のディスプレイ(CLOD)を閲覧している閲覧者を検知するためのものである。閲覧者検知器(CLVD)がクライアント(CL)に外部接続されるものである場合には、USBなどのインターフェースを介して接続される。赤外線によって閲覧者を検出する場合には、ユーザ(US)が装着したセンサ端末(TR)に備えられる赤外線送受信部(AB)から定期的に送信している端末IDを受信することで検知する。
制御部(CLCO)は、CPU(図示省略)を備え、通信の制御、ユーザ(US)からのコンテンツ選択等に関する入力、及び、コンテンツをユーザ(US)に出力するための入出力制御(CLCIO)、閲覧者検出器の制御(CLCBD)、検出したデータから閲覧者を適切に判定するための閲覧者判定(CLCVD)、また、アプリケーションサーバ(AS)へのコンテンツリストリクエスト(CLCLR)やコンテンツリクエスト(CLCCR)などの処理を実行する。
検出器制御(CLCBD)は、閲覧者検出器(CLVD)の動作を制御するものであり、検出器ID(CLVDID)を与えて閲覧者検出器(CLVD)から送信させたり、受信した情報がノイズではなく有効なデータであることを、端末IDリスト(CLID)を照会して確認したり、閲覧者検出器(CLVD)における赤外線の送受信タイミングを制御したりする。閲覧者判定(CLCVD)では、閲覧者検出器(CLVD)から得た検知データに基づき、現時点で閲覧しているとみなすユーザを逐次特定するものである。
コンテンツリストリクエスト(CLCLR)では、現在の閲覧者の端末IDのリストをアプリケーションサーバ(AS)に送り、当該閲覧者のメンバ構成で閲覧許可を持つコンテンツリストと、閲覧者の氏名を、アプリケーションサーバ(AS)から受け取る。この点に関して、コンテンツリスト(ASCL)とアクセス制御規定(ASAC)をクライアント(CL)内に保持し、クライアント(CL)内で閲覧許可を持つコンテンツリストを生成しても良い。しかし、アプリケーションサーバ(AS)の側で閲覧許可のあるコンテンツリスト(ASCLM)の生成と端末IDから氏名の検索とを行うようにすることで、個人情報であるユーザの氏名を、クライアント(CL)で保持する必要が無くなり、セキュリティを高めることができる。
入出力制御(CLCIO)は、ディスプレイ(CLOD)に出力する画面の映像を生成・制御するものであり、合わせて、タッチパネル(CLIT)やマウス(CLIM)などからの入力も受け付ける。入力、つまりユーザの操作に合わせて出力画面は逐次変更される。入出力制御(CLCIO)は、アプリケーションサーバ(AS)から受け取ったコンテンツリストとユーザの氏名を反映させ、画面内にコンテンツ切替ボタン(OD_C)や閲覧者選択ボタン(OD_A)を表示する。コンテンツ切替ボタン(OD_C)や閲覧者選択ボタン(OD_A)については図9を参照して後で説明する。これらのボタンは、ユーザが閲覧したいコンテンツを選択するためのものであり、選択する時点の閲覧者のメンバ構成で閲覧許可を持つコンテンツに関連するボタンのみが表示される。この機構によって、閲覧者は閲覧許可を持たないコンテンツにアクセスできないため、閲覧制限を実現可能である。
入出力制御(CLCIO)はユーザ操作によるタッチパネル(CLIT)またはマウス(CLIM)などからの入力を待ち、入力操作があった場合には、入力操作に対応するコンテンツのリクエストをアプリケーションサーバ(AS)に送信し、コンテンツ情報を受け取る(CLCCR)。コンテンツ情報は、主に画像であり、端末IDと対応した強調表示座標リスト(ASEM)を合わせて受け取る。ユーザ操作による指定がない場合には、最新の日付のデータ(コンテンツ)を要求する。入出力制御(CLCIO)は、コンテンツ画像をディスプレイに表示し、その上に、強調表示(CLCEM)が現在の閲覧者に対応する座標を強調するための四角形や丸などの記号を重ねて表示する。また、強調表示(CLCEM)は、コンテンツ画像を、現在の閲覧者が含まれる部分が画面中心に来るように、画像を移動したり、拡大などにより表示する。この機能によって、閲覧者にとって優先度の高い情報に、まず着目させることができる。
<アプリケーションサーバ(AS)>
図2Bにおいて、アプリケーションサーバ(AS)は、データ処理サーバ(DS)から会議データを受信し、センサネットサーバ(SS)からセンシングデータの二次データを受信する。アプリケーションサーバ(AS)は、受信したこれらの会議データおよびセンシングデータの二次データを処理し、クライアント(CL)や図示しない個人用クライアント(CP)を通してユーザ(US)に提示するためのコンテンツ情報を生成する。コンテンツ情報は、多くは画像であるが、動画やテキストデータ、音声データなど、他のデータまたはそれらのデータの組み合わせでもよい。
図2Bにおいて、アプリケーションサーバ(AS)は、データ処理サーバ(DS)から会議データを受信し、センサネットサーバ(SS)からセンシングデータの二次データを受信する。アプリケーションサーバ(AS)は、受信したこれらの会議データおよびセンシングデータの二次データを処理し、クライアント(CL)や図示しない個人用クライアント(CP)を通してユーザ(US)に提示するためのコンテンツ情報を生成する。コンテンツ情報は、多くは画像であるが、動画やテキストデータ、音声データなど、他のデータまたはそれらのデータの組み合わせでもよい。
アプリケーションサーバ(AS)は、送受信部(ASSR)、記憶部(ASME)及び制御部(ASCO)を備える。送受信部(ASSR)は、ネットワーク(NW)を通じて、センサネットサーバ(SS)、データ処理サーバ(DS)、NTP(Network Time Protocol)サーバ(TS)、クライアント(CL)との間でデータの送信及び受信を制御する。
記憶部(ASME)は、ハードディスク、メモリ又はSDメモリカードのような外部記録装置で構成される。記憶部(ASME)は、生成したコンテンツ情報や、コンテンツ生成のためのプログラム、その他のコンテンツ生成に関係するデータを格納する。具体的には、記憶部(ASME)は、ユーザ属性リスト(ASUL)、社外対面者リスト(ASPL)、コンテンツリスト(ASCL)、クライアントログ(ASCB)、アクセス制御規定(ASAC)、業務対面活動マトリクス(ASGM)、基本コンテンツファイル(ASBF)、強調表示座標リスト(ASEM)、センサ端末情報読込プログラム(ASSR)、会議活動二次データ読込プログラム(ASKR)、基本コンテンツ生成プログラム(ASCBC4)、業務対面活動マトリクス生成プログラム(ASCMC)、および、会議対面二次データ補正プログラム(ASCCC)を格納する。
ユーザ属性リスト(ASUL)は、センサ端末(TR)のIDと、当該センサ端末(TR)を装着したユーザ(US)の氏名、端末ID、所属、メールアドレス、属性等との関連を参照可能な対照表である。
社外対面者リスト(ASPL)は、社外対面者(来訪者)の氏名、会社名、所属、役職等を参照可能な対照表である。データ処理サーバ(DS)に格納されている、会議基本データから社外来訪者を抽出し、抽出結果をアプリケーションサーバ(AS)が結合することにより社外対面者リスト(ASPL)が生成される。
コンテンツリスト(ASCL)は、クライアント(CL)で提示可能なコンテンツの一覧を記述したリストである。クライアント(CL)から閲覧者の端末IDと共にコンテンツリストリクエスト(CLCLR)を受けた場合には、コンテンツリスト(ASCL)とアクセス制御規定(ASAC)とを合わせて照会し、コンテンツリスト生成(ASCLM)において現在の閲覧者が閲覧可能なリストを抽出してクライアント(CL)に送信する。
アクセス制御規定(ASAC)は、個々のコンテンツに対し、閲覧可能になる条件を規定したものである。主には端末IDまたは属性によって規定され、例えば、特定の組織に所属するユーザや、特定の職位以上のユーザが閲覧者の中に含まれているときに閲覧可能となるように端末IDが論理式のORで規定される。また、論理式のANDによって、特定のメンバが全員そろって閲覧者検出器(CLVD)で検出されているときのみ閲覧可能になるように規定されていてもよい。また、排他的に、特定のメンバがいるときには閲覧できないように規定してもよい。
業務対面活動マトリクス(ASGM)は、組織の構成メンバ(従業員)及び組織外の対面相手(来訪者)を、縦軸(列方向)及び横軸(行方向)の要素とし、アプリケーションサーバ(AS)が、それぞれの組み合わせにおける対面に関する情報(対面時の活動に応じた時間)を数値化し、当該数値を業務対面活動マトリクス(ASGM)上の該当セルに入力したものである。この数値は、センシングデータの二次データ、すなわち内部対面データと、距離センサデータを処理及び解析して得た会議時の対面に関する二次データ、すなわち対外対面データとにより、生成される。
基本コンテンツファイル(ASBF)には、基本コンテンツ生成(ASCBC)の結果出力されるコンテンツ情報(多くは画像であるが、動画やテキストデータ、音声データなど他のデータでもよい)が収容される。特定の期間や特定のメンバに関するセンサデータに基づいた画像が収容されていても良いし、テキストの文面や座標値などがテキストデータとして保持され、クライアント(CL)から呼び出された際に基本コンテンツファイルが結合及び再配置されて画像が生成されても良い。サーブレットのように、ユーザの操作に応じてリアルタイムに画像の形状を変えるプログラムであってもよい。すべてのコンテンツには日付や端末IDもしくは組織ID、コンテンツ種類などのタグが付与されており、クライアント(CL)からの要求によって一つに特定される。
二次データ読込プログラム(ASSR)は、センサネットサーバ(SS)から受け取ったセンシングデータの二次データを読み込むためのプログラムである。二次データである対面活動マトリクス(ASMM)などのファイルの形式を保持しており、ファイルの形式に沿って、指定された日付、時間及び対象ユーザのデータを読み込む。対面活動マトリクス(ASMM)については後述の図33A,図33Bで説明する。
会議活動データ読み込みプログラム(ASKR)は、データ処理サーバ(DS)から受け取った会議基本データや、距離センサ(RS)のデータを処理及び解析して得た会議活動二次データを読み込むためのプログラムである。会議活動二次データについては、後述の図30A、図30Bを参照して説明する。
社外対面者リスト更新プログラム(ASLU)は、会議情報読込プログラム(ASGR)で読み込まれたデータから、社外対面者に関する情報、氏名、会社名、所属及び職位などを抽出し、必要に応じてリストに追記する。
基本コンテンツ生成プログラム(ASBP)は、基本コンテンツを生成するための諸々のプログラムである。基本コンテンツ生成(ASCBC)時には、これをタイマ起動(ASTK)または管理者による手動起動、またはクライアント(CL)によるリクエストを受けて起動し、基本コンテンツファイルを出力する。
業務対面活動マトリクス生成プログラム(ASCMC)は、基本コンテンツ生成プログラム(ASBP)の一部であり、業務上の対面を可視化するコンテンツ生成のベースとなる、業務対面活動マトリクス(ASGM)を生成するプログラムである。この業務対面活動マトリクス(ASGM)には、N×N行列の中に対面時の活動に応じたコミュニケーション量の活動が記録されている。
制御部(ASCO)は、CPU(図示省略)を備え、データの送受信の制御及びデータの処理を実行する。具体的には、CPU(図示省略)が記憶部(ASME)に格納されたプログラムを実行することによって、コンテンツリスト生成(ASCLM)、コンテンツ選択・描画制御(ASCCS)、タイマ起動(ASTK)、基本コンテンツ生成(ASCBC)、及び強調表示座標リスト生成(ASCEM)等の処理が実行される。また、内部に保持する時計(ASCK)は、外部のNTPサーバ(TS)に定期的に接続することによって、現地(システムの設置される場所)の標準時刻を保持する。
コンテンツリスト生成(ASCLM)は、クライアント(CL)から閲覧者の端末IDと共にコンテンツリストリクエスト(CLCLR)を受けた場合に、コンテンツリスト(ASCL)とアクセス制御規定(ASAC)とを合わせて照会し、現在のクライアント(CL)の閲覧者に閲覧許可のあるコンテンツのリストを抽出してクライアント(CL)に送信するまでを行う処理である。図示しない個人用クライアント(CP)からコンテンツリストリクエスト(CPCLR)を受けた場合も同様である。
コンテンツ選択・描画制御(ASCCS)は、クライアント(CL)のディスプレイ(CLOD)を閲覧しているユーザ(US)による選択操作、またはクライアント(CL)から自動的に発せられる要求に応じて、指定されたコンテンツを基本コンテンツファイル(ASBF)から取り出し、必要ならばそれに対応する強調表示座標リスト(ASEM)を合わせて、クライアント(CL)に送信する処理である。またサーブレットのような、ユーザ(US)の操作に合わせてインタラクティブに動くコンテンツの場合には、コンテンツ選択・描画制御(ASCCS)において描画を制御する。また、閲覧しているユーザ(US)のメンバ構成に合わせて基本コンテンツファイルを組み合わせて一枚の画像を生成する処理を行う。
タイマ起動(ASTK)は時計(ASCK)があらかじめ指定された時刻になった際に、基本コンテンツ生成(ASCBC)の処理を開始する。
基本コンテンツ生成(ASCBC)は、基本コンテンツ生成プログラム(ASBP)を読み込み、データ処理サーバ(DS)から取得した会議情報と、センサネットサーバ(SS)から取得したセンシングデータまたはセンシングデータの二次データとを処理し、基本コンテンツファイル(ASBF)を出力する。具体的には、ネットワーク図(図9)の画面などの基本コンテンツファイル(ASBF)を出力する。
このように、図2Aのクライアント(CL)と図2Bのアプリケーションサーバ(AS)とを分けることによって、クライアント(CL)内には個人情報や機密情報を保存しないで済むため、クライアント(CL)をセキュリティエリア外に置くことができる。
しかし、クライアント(CL)とアプリケーションサーバ(AS)とを一体のものにして、クライアント(CL)内にコンテンツファイルやユーザ属性リストを保持しても良い。
CPUは、各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、CPUは、基本コンテンツ生成プログラムに従って動作することで基本コンテンツ生成部として機能する。他のプログラムについても同様である。さらに、CPUは、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
制御部(ASCL)の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
<図3A、図3B:データ処理サーバ(DS)、計測PC(MP)>
図3Aは、データ処理サーバ(DS)のブロック図を示し、図3Bは計測PC(MP)の構成を示すブロック図である。
図3Aは、データ処理サーバ(DS)のブロック図を示し、図3Bは計測PC(MP)の構成を示すブロック図である。
<データ処理サーバ(DS)>
図3Aにおいて、データ処理サーバ(DS)は、計測PC(MP)で計測した距離センサ(RS)のデータや、計測PC(MP)で生成した会議参加者の座席表のデータを受信し、当該受信データに基づき、会議活動量や、会議時の活動状態に関する二次データを生成する。また、アプリケーションサーバ(AS)からの要求に基づいて、会議基本情報や、会議活動二次データを送信する。
図3Aにおいて、データ処理サーバ(DS)は、計測PC(MP)で計測した距離センサ(RS)のデータや、計測PC(MP)で生成した会議参加者の座席表のデータを受信し、当該受信データに基づき、会議活動量や、会議時の活動状態に関する二次データを生成する。また、アプリケーションサーバ(AS)からの要求に基づいて、会議基本情報や、会議活動二次データを送信する。
データ処理サーバ(DS)は、送受信部(GSSR)、制御部(DSCO)、記憶部(DSME)を備える。
送受信部(GSSR)は、アプリケーションサーバ(AS)や計測PC(MP)との間で、データの送受信を制御する。
記憶部(GSME)は、ハードディスク等のデータ記憶装置によって構成され、少なくとも、会議基本情報データベース(DSDM)、会議活動二次データベース(DSKM)、座席表(DSLT)、センシングデータベース(DSSD)を格納する。さらに、記憶部(DSME)は、制御部(DSCO)のCPU(図示省略)によって実行されるプログラムを格納する。
会議基本情報データベース(DSDM)は、計測PC(MP)から送信された会議に関する基本情報、日時や場所、参加者が格納されている。
センシングデータベース(DSSD)は、計測PC(MP)から送信された、計測PC(MP)を介して制御した距離センサ(RS)のセンシング情報、具体的には、センシングした時刻と、センシングした時刻における物体表面形状を表す点群データとを対にして、時系列に記録されたものが格納されている。
座席表(DSLT)には、計測PC(MP)から送信された、計測PC(MP)で生成した会議時の座席配置が格納されている。座席表(DSLT)は、会議において、参加者の誰がどの位置に座っていたかが特定されたデータであり、さらに、参加者がどのような活動状況であったかを、名前と活動量とを対応づけて出力するのに利用する。
会議活動二次データベース(DSKM)は、データ処理サーバ(DS)で生成される情報である。会議活動二次データベース(DSKM)は、会議時における各参加者の時間毎の活動量や、各参加者の活動量もとに生成する会議の参加者全ての組み合わせにおける、互いの活動量に応じた対面時間を表したデータが格納されている。
データ受信(DSRV)は、計測PC(MP)からのデータを受信する。
会議活動量算出(DSAC)は、センシングデータ(DSSD)と座席表(DSLR)に基づき、各参加者の時間毎の活動量を算出する。活動量を算出する処理の詳細は、図22で説明する。
会議対面二次データ生成(DSMM)では、各参加者の時間量の活動に基づき、会議参加者全ての組み合わせにおける、互いの活動量に応じた時間を計算し、マトリクス形式で保存する。会議対面二次データ生成の詳細は、図27で説明する。
会議情報検索(DSDS)は、アプリケーションサーバ(AS)からの要求により、指定された日付の会議情報、具体的には、会議基本情報データベース(DSDM)の会議基本情報や、会議活動二次データベース(DSKM)の会議活動二次データを検索し、送受信部を介してアプリケーションサーバ(AS)に送信する。
データ処理サーバ(DS)のCPUもアプリケーションサーバ(AS)のCPUと同様であり、CPUは各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、CPUは、会議活動量算出プログラムに従って動作することで会議活動量算出部として機能する。他のプログラムについても同様である。さらに、CPUは、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
制御部(DSCO)の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
<計測PC(MP)>
図3Bにおいて、計測PC(MP)は、距離センサ(RS)とセンサ端末装着者検出器(ISD)を制御し、計測データを受信したり、受信したデータに基づき実際の配置に基づく座席表や、会議開催日時や場所、参加者等を格納した会議基本情報を生成し、距離センサ(RS)で計測したセンシングデータや、座席表、会議基本データを、送受信部を介して、データ処理サーバ(DS)に送信する。計測PC(MP)は、送受信部(MPSR)、制御部(MPCO)、記憶部(MPME)を備える。
図3Bにおいて、計測PC(MP)は、距離センサ(RS)とセンサ端末装着者検出器(ISD)を制御し、計測データを受信したり、受信したデータに基づき実際の配置に基づく座席表や、会議開催日時や場所、参加者等を格納した会議基本情報を生成し、距離センサ(RS)で計測したセンシングデータや、座席表、会議基本データを、送受信部を介して、データ処理サーバ(DS)に送信する。計測PC(MP)は、送受信部(MPSR)、制御部(MPCO)、記憶部(MPME)を備える。
送受信部(MPSR)は、データ処理サーバ(DS)や、距離センサ(RS)、センサ端末装着者検出器(ISD)との間で、データの送受信を制御する。
記憶部(MPME)は、ハードディスク等のデータ記憶装置によって構成され、少なくとも、会議基本情報データベース(MPDM)、座席表(MPLT)、センシングデータベース(MPSD)および検出IDデータベース(MPDT)を格納する。さらに、記憶部(MPME)は、制御部(MPCO)のCPU(図示省略)によって実行されるプログラムを格納する。
会議基本情報(MPDM)には、会議の開催日時や場所、参加者等が格納されている。座席表データ(MPLT)には、会議の参加者の氏名や所属、会議時の座席座標値などが格納されている。
センシングデータベース(MPSD)には、距離センサ(RS)で計測した情報、具体的には、センシングした時刻と、センシングの時刻における物体の表面形状を表す点群データとを対にして、時系列に記録されたものが格納されている。これにより、会議における室内の参加者の動きのログを残すことが出来る。
検出IDデータベース(MPDT)には、センサ端末装着者検出器(ISD)で検出した、センサ端末(TR)の端末IDが時系列に格納されている。センサ端末装着者検出器(ISD)の位置や向き、検出した端末IDから、センサ端末装着者がどの位置にいるか推定するのに利用する。
制御部(MPCO)は、データ送信(MPDSD)、会議基本情報生成(MPDM)、座席表生成(MPSC)、距離センサ制御(MPRS)、検出器制御(MPISD)により構成される。
検出器制御(MPISD)では、装着者検出器(ISD)に対して計測要求を出したり、計測されたデータを受信し、検出IDデータベース(MPDT)に格納することができる。
距離センサ制御(MPRS)では、距離センサ(RS)に対して計測要求を出したり、計測されたデータを受信し、センシングデータベース(MPSD)に格納することができる。
座席表生成(MPSC)では、センシングデータに基づく座席表を生成し、検出IDデータベース(MPDT)に基づき、センサ端末装着者の着席位置を特定する。また、入出力部(MPIO)のディスプレイ(MPOD)に、座席配置図を表示したり、マウス(MPIM)やキーボード(MOIK)によって、座席配置図を参考に社外の来訪者の情報を入力することができる。
会議基本情報生成(MPDM)では、会議開催日時や場所、参加者のデータを生成する。
データ送信では、会議基本情報(MPDM)と、座席表データ(MPLT)とセンシングデータ(MPSD)を、データ処理サーバ(DS)に送信する。
計測PC(MP)のCPU(図示省略)もアプリケーションサーバ(AS)のCPUと同様であり、CPUは各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、CPUは、距離センサ制御プログラムに従って動作することで距離センサ制御部として機能する。他のプログラムについても同様である。さらに、CPUは、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
制御部(MPCO)の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
<センサネットサーバ(SS)基地局(GW)>
図4A、図4Bは、センサネットサーバ(SS)及び基地局(GW)の構成例を示すブロック図である。
図4A、図4Bは、センサネットサーバ(SS)及び基地局(GW)の構成例を示すブロック図である。
<センサネットサーバ(SS)>
図4Aにおいて、センサネットサーバ(SS)は、全てのセンサ端末(TR)から集められたデータを管理する。具体的には、センサネットサーバ(SS)は、基地局(GW)を経由して送られてくるセンシングデータをセンシングデータベース(SSDB)に格納する。そして、センサネットサーバ(SS)は、アプリケーションサーバ(AS)やクライアント(CL)からの要求に基づいてセンシングデータまたは二次データを送信する。さらに、センサネットサーバ(SS)は、基地局(GW)と、基地局(GW)の管理下にあるセンサ端末(TR)の情報を随時管理する。
図4Aにおいて、センサネットサーバ(SS)は、全てのセンサ端末(TR)から集められたデータを管理する。具体的には、センサネットサーバ(SS)は、基地局(GW)を経由して送られてくるセンシングデータをセンシングデータベース(SSDB)に格納する。そして、センサネットサーバ(SS)は、アプリケーションサーバ(AS)やクライアント(CL)からの要求に基づいてセンシングデータまたは二次データを送信する。さらに、センサネットサーバ(SS)は、基地局(GW)と、基地局(GW)の管理下にあるセンサ端末(TR)の情報を随時管理する。
センサネットサーバ(SS)は、送受信部(SSSR)、記憶部(SSME)及び制御部(SSCO)を備える。
送受信部(SSSR)は、基地局(GW)、アプリケーションサーバ(AS)、との間で、データの送信及び受信を制御する。
記憶部(SSME)は、ハードディスク等のデータ記憶装置によって構成され、少なくとも、センシングデータベース(SSDB)、二次データベース(SSDT)、データ形式情報(SSMF)を格納する。さらに、記憶部(SSME)は、制御部(SSCO)のCPU(図示省略)によって実行されるプログラムを格納する。
センシングデータベース(SSDB)は、各センサ端末(TR)が取得したセンシングデータと、センサ端末(TR)の情報、及び、各センサ端末(TR)から送信されたセンシングデータが通過した基地局(GW)の情報等を記録しておくためのデータベースである。加速度等、データの要素ごとにカラムが生成され、データが管理される。また、データの要素ごとにテーブルが生成されてもよい。どちらの場合にも、全てのデータは、それらのデータを取得したセンサ端末(TR)のIDである端末情報(TRMT)(図4)と、センシングした時刻に関する情報とが関連付けて管理される。
二次データベース(SSDT)は、センシングデータベース(SSDB)のデータをセンシングデータ処理(SSCDT)した結果を格納するデータベースである。二次データベース(SSDT)に格納されている二次データは、所定の前処理によって規格化された、ユーザ(US)、すなわち社内の従業員間の物理的な対面状態を特定可能なデータである。この二次データは、センシングデータからノイズが取り除かれ、基本コンテンツを生成するために適した形式、例えば一日ごとにユーザ(US)の任意の2者間の合計対面時間を行列形式で表現したものなど、で保管される。
データ形式情報(SSMF)には、通信のためのデータ形式、基地局(GW)でタグ付けされたセンシングデータを切り分けてデータベースに記録する方法、センシングデータ処理(SSCDT)された二次データを二次データベース(SSDT)に記録する方法、及び、データの要求に対する対応方法を示す情報等が記録されている。センサネットサーバ(SS)ではデータ受信の後、またはデータ送信の前にはこのデータ形式情報(SSMF)が参照され、データ形式の変換とデータ振り分けが行われる。
制御部(SSCO)は、CPU(図示省略)を備え、センシングデータの送受信やデータベースへの記録・取り出しを制御する。具体的には、CPUが記憶部(SSME)に格納されたプログラムを実行することによって、センシングデータ保管(SSCDB)、センシングデータ処理(SSCDT)及び二次データ検索(SSCTS)等の処理を実行する。
センシングデータ保管(SSCDB)は、基地局(GW)から送られてきたセンシングデータを受け取り、センシングデータベース(SSDB)に格納する処理である。時刻情報や端末ID、基地局を経由した時刻などの付加情報を合わせて1レコードとして、データベースに格納する。
時計(SSCK)は、外部NTPサーバ(TS)と定期的に接続することによって、標準時刻を保持している。時計(SSCK)があらかじめ指定した時刻、または特定の条件を満たしたときに、センシングデータ処理(SSCDT)をタイマ起動(SSTK)する。
センシングデータ処理(SSCDT)は、センシングデータベース(SSDB)からセンシングデータ、すなわちセンサ端末(TR)で取得されたデータをデータ形式情報(SSMF)で指定された方法によって前処理し、二次データを生成する。
生成された二次データは二次データベース(SSDT)に格納される。一定間隔でセンシングデータ処理(SSCDT)を起動し、新しく追加されたセンシングデータを処理することで、二次データベース(SSDT)は常に更新された状態になるように保たれる。
二次データ検索(SSCTS)は、アプリケーションサーバ(AS)から要求を受けた際に、この要求に対応した二次データを二次データベース(SSDT)から取り出し、要求元に送信する処理を行う。この処理では、二次データに付与されている、日付や端末IDなどのタグ情報をもとに二次データが検索される。
センサネットサーバ(SS)のCPUもアプリケーションサーバ(AS)のCPUと同様であり、CPUは各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、CPUは、センシングデータ処理プログラムに従って動作することでセンシングデータ処理部として機能する。他のプログラムについても同様である。さらに、CPUは、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
制御部(SSCO)の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
<基地局(GW)>
図4Bにおいて、基地局(GW)は、センサ端末(TR)とセンサネットサーバ(SS)を仲介する役目を持つ。センサ端末(TR)と基地局(GW)間が無線で接続される場合には、無線の到達距離を考慮して、居室や職場等の領域をカバーするように複数の基地局(GW)が配置される。有線で接続される場合には、基地局(GW)の処理能力に合わせて管理するセンサ端末(TR)の個数の上限が設定される。
図4Bにおいて、基地局(GW)は、センサ端末(TR)とセンサネットサーバ(SS)を仲介する役目を持つ。センサ端末(TR)と基地局(GW)間が無線で接続される場合には、無線の到達距離を考慮して、居室や職場等の領域をカバーするように複数の基地局(GW)が配置される。有線で接続される場合には、基地局(GW)の処理能力に合わせて管理するセンサ端末(TR)の個数の上限が設定される。
基地局(GW)は、送受信部(GWSR)、記憶部(GWME)及び制御部(GWCO)を備える。
送受信部(GWSR)は、センサ端末(TR)からデータを無線または有線にて受信し、センサネットサーバ(SS)への有線又は無線による送信を行う。送受信に無線を用いる場合には、送受信部(GWSR)は無線通信を行うためのアンテナを備える。
記憶部(GWME)は、ハードディスク、メモリ、又はSDメモリカードのような外部記録装置(図示省略)で構成される。記憶部(GWME)には、データ形式情報(GWMF)、基地局情報(GWMG)等が格納される。データ形式情報(GWMF)は、通信のためのデータ形式を示す情報、及び、センシングデータにタグを付ける際に必要となる情報を含む。基地局情報(GWMG)は、基地局(GW)自身のアドレスなどの情報を含む。
記憶部(GWME)には、さらに、制御部(GWCO)のCPU(図示省略)によって実行されるプログラムが格納されてもよい。
制御部(GWCO)は、CPU(図示省略)を備える。CPUが記憶部(GWME)に格納されているプログラムを実行することによって、センサ端末(TR)からセンシングデータを受信するタイミング、センシングデータの処理、センサ端末(TR)やセンサネットサーバ(SS)への送受信のタイミング、及び、時刻同期のタイミングが管理される。具体的には、センシングデータ受信制御(GWCSR)、センシングデータ送信(GWCSS)及び時刻同期(GWCS)等の処理を実行する。
時計(GWCK)は時刻情報を保持する。そして、一定間隔で時刻情報は更新される。すなわち、一定間隔でNTPサーバ(TS)から取得した時刻情報によって、時計(GWCK)の時刻情報が修正される。
時刻同期(GWCS)は、一定間隔、または、センサ端末(TR)が基地局(GW)と接続されたのをトリガとして、配下のセンサ端末(TR)に時刻情報を送信する。これによって、複数のセンサ端末(TR)と基地局(GW)の時計(GWCK)の時刻が同期される。
センシングデータ受信制御(GWCSR)は、センサ端末(TR)から送られてきたセンシングデータ(SENSD)のパケットを受信する。センシングデータ受信制御(GWCSR)では、データのパケットのヘッダを読み込み、データの種類を判別したり、多数のセンサ端末(TR)から同時にデータが集中して送信されないように輻輳制御を行うことができる。
センシングデータ送信(GWCSS)は、データが通過した基地局のIDや、通過した時刻データを付与し、センシングデータをセンサネットサーバ(SS)に送信する。
<センサ端末(TR)>
図5A、図5Bは、センサノードの一実施例であるセンサ端末(TR)の構成を示している。本実施例では図1で示したように、センサ端末(TR)は名札型の形状をしており、人物の首からぶら下げることを想定しているが、これは一例であり、他の形状でもよい。
図5A、図5Bは、センサノードの一実施例であるセンサ端末(TR)の構成を示している。本実施例では図1で示したように、センサ端末(TR)は名札型の形状をしており、人物の首からぶら下げることを想定しているが、これは一例であり、他の形状でもよい。
センサ端末(TR)は、多くの場合には、本実施例で説明しているシステムの中に複数存在し、組織に属する人物(本実施の形態においては社内の従業員であるユーザ(US)がこれに相当する)がそれぞれ身に着けるものである。センサ端末(TR)は人間(ユーザ(US))同士の対面状況を検出するための複数の赤外線送受信部(AB)、装着者の動作を検出するための三軸加速度センサ(AC)等の各種センサを搭載する。搭載するセンサは一例であり、装着者間の対面状況と動作を検出するために他のセンサを使用してもよい。
本実施例では、赤外線送受信部(AB)は4組備えられる。赤外線送受信部(AB)は、センサ端末(TR)の固有識別情報である端末情報(TRMT)をセンサ端末(TR)の正面方向に向かって定期的に送信し続ける。他のセンサ端末(TR)を装着した人物が略正面(例えば、正面又は斜め正面)に位置した場合、センサ端末(TR)と他のセンサ端末(TR)とは、それぞれの端末情報(TRMT)を赤外線で相互に通信する。この端末情報(TRMT)を取得することで、誰と誰が対面しているのかを記録することができる。
また、クライアント(CL)に備えられる閲覧者検出器(CLVD)は、この端末情報(TRMT)を受信することで、どのユーザ(US)がクライアント(CL)のディスプレイ(CLOD)を閲覧しているかを検出することができる。また逆に、センサ端末(TR)が閲覧者検出器(CLVD)から送信された検出器ID(CLVDID)を受信することで、クライアント(CL)の設置場所にユーザ(US)が滞在していたことを記録することができる。
上述した各種のセンサによって検出されたセンシングデータ(SENSD)は、センシングデータ格納制御部(SDCNT)によって、記憶部(STRG)に格納される。センシングデータ(SENSD)は通信制御部(TRCC)によって送信パケットに加工され、送受信部(TRSR)によって基地局(GW)に送信される。
三軸加速度センサ(AC)は、ノードの加速度すなわちセンサ端末(TR)の動きを検出する。つまり、三軸加速度センサ(AC)から得られる加速度データから、センサ端末(TR)を装着した人物の動きの激しさや、歩行などの行動を解析することができる。さらに、複数のセンサ端末(TR)が検出した加速度の値を例えば時系列で比較することによって、それらのセンサ端末(TR)を装着した人物間のコミュニケーションの活性度(活発さ)や相互の動きのリズム、相互の動きの相関等を解析できる。
本実施例において、センサ端末(TR)では、三軸加速度センサ(AC)で取得されるデータは、センシングデータ格納制御部(SDCNT)によって記憶部(STRG)に格納されると同時に、上下検知回路(UDDET)によって名札の上下方向の向きを検出する。これは、三軸加速度センサ(AC)で検出される加速度は、装着者の動きによる動的な加速度変化と、地球の重力加速度による静的な加速度の2種類が観測されることを利用している。
表示装置(LCDD)は、端末(TR)を胸に装着しているときは、装着者の所属、氏名などの個人情報を表示する。つまり、名札として振舞う。
赤外線送受信部(AB)が他のセンサ端末(TR)との間で赤外線を送受信することによって、センサ端末(TR)が他のセンサ端末(TR)と対面したか否か、すなわち、センサ端末(TR)を装着した人物が他のセンサ端末(TR)を装着した人物と対面したか否かが検出される。このため、センサ端末(TR)は、人物の正面部に装着されることが望ましい。
上述の通り、センサ端末(TR)は三軸加速度センサ(AC)等のセンサを備える。センサ端末(TR)におけるセンシングのプロセスが、図5A、図5Bにおけるセンシング(TRSS1)の処理に相当する。
記憶部(STRG)は、具体的にはハードディスク、フラッシュメモリなどの不揮発記憶装置で構成され、センサ端末(TR)の固有識別番号である端末情報(TRMT)、センシングの間隔、及び、ディスプレイへの出力内容等の動作を規定する動作設定(TRMA)を記録している。この他にも記憶部(STRG)は一時的にデータを記録することができ、センシングしたデータを記録しておくために利用される。
時計(TRCK)は、時刻情報(GWCSD)を保持し、一定間隔で時刻情報(GWCSD)を更新する時計である。時間情報は、時刻情報(GWCSD)が他のセンサ端末(TR)のものとずれることを防ぐために、基地局(GW)から送信される時刻情報(GWCSD)によって定期的に時刻が修正される。
センシングデータ格納制御部(SDCNT)は、記憶部(STRG)に記録された動作設定(TRMA)に従って、各センサのセンシング間隔などを制御し、取得したデータを管理する。
通信制御部(TRCC)は、データを送受信する際に、送信間隔の制御、及び、無線の送受信に対応したデータフォーマットへの変換を行う。
送受信部(TRSR)は、アンテナを備え、無線信号の送信及び受信を行う。
<会議対面二次データ生成のシーケンス>
図6は、本発明の実施例において実行される、会議時の各々の参加者の活動状況を表す会議対面二次データを生成する手順を示すシーケンス図である。図6には、センサ端末装着者検出器(ISD)、距離センサ(RS)、計測PC(MP)、データ処理サーバ(DS)のそれぞれで実行される処理が時系列的に示されている。
図6は、本発明の実施例において実行される、会議時の各々の参加者の活動状況を表す会議対面二次データを生成する手順を示すシーケンス図である。図6には、センサ端末装着者検出器(ISD)、距離センサ(RS)、計測PC(MP)、データ処理サーバ(DS)のそれぞれで実行される処理が時系列的に示されている。
会議室に設置された計測PC(MP)において、会議計測アプリケーション(図示省略)が起動され、マウス(MPIM)の操作によって会議開始ボタンが押されるなど、会議開始(MPST)を意味する操作がなされたら、NPTサーバ(TS)と接続し、時刻修正(MPCS)を行う。時刻を修正することで、データ計測時の時刻を正しく記録することができ、同時刻に行われた複数の参加者の身体動作を、複数の計測装置で取得した場合においても、時刻情報を照らし合わせることにより、同じタイミングのデータを取り出すことが可能となる。なお、会議計測アプリケーションは、図3Bに示した時計(MPCK)、距離センサ制御(MPRS)、検出器制御(MPISD)、会議基本情報生成(MPDM)、座席表生成(MPSC)の各処理を含むソフトウェアである。
計測PC(MP)は、時刻の修正後、二つのセンサに対して、計測(MPRQ)要求を送信する。まず一つ目は、センサ端末装着者検出器(ISD)である。センサ端末装着者検出器(ISD)は、センシング(ISDSS)により、会議の参加者の一部が装着しているセンサ端末(TR)が送信する赤外線を受信し、センサ端末(TR)に固有の端末IDを取得する。
センサ端末装着者検出器(ISD)が検出したIDは、データ送信(ISDSE)により、計測PC(MC)に送信され、時刻とともに格納される。センサ端末装着者検出器(ISD)の指向性を利用し、複数のセンサ端末装着者検出器(ISD)を、それぞれ向きを変えて設置することで、どのセンサ端末装着者検出器(ISD)でどのセンサ端末(TR)のIDを取得したかによって、センサ端末(TR)のおおよその位置を推定することも可能である。
二つ目のセンサは、距離センサ(RS)である。距離センサ(RS)は、センシング(RSSS)により、人物や壁などの障害物表面までの距離を計測する装置である。計測PC(MC)は、既知の位置に設置した距離センサ(RS)で、会議室内を三次元でスキャンすることで、会議室内の三次元形状を把握することが可能となる。そして、計測PC(MC)は、計測位置(X,Y,Z)、計測の方向(α,β,γ)、距離センサ(RS)の位置と方向から計測された深度画像から、空間上の一点の座標値を算出することが出来る。
このような、空間上の座標値の集まりを点群といい、点群として座標値を格納することとする。点群データの生成にあたり、ひとつまたは複数の距離センサ(RS)を用いて各々の方向でデータを計測し、計測PC(MP)でデータを統合することによって360度全方向の点群データを生成する。データの構成の一例を図23に示す。
図23は、センサネットサーバ(SS)に保持されるセンシングデータ(RSSD)の一例を示す。センシングデータ(RSSD)は、距離のデータを測定したセンシング時刻(SSTM)と、当該センシング時刻に於ける3次元空間内の座標を点群データで格納する点群座標値(PCCV)から一つのエントリが構成される。
センシングした距離データは、データ送信(RSSE)により、計測PC(MC)に送信され、時刻とともに格納される。
計測PC(MP)では、時系列順に送信されてくる、センサ端末装着者検出器(ISD)からの検出IDデータと、距離センサ(RS)から送られてくるセンシングデータとを、時刻と共に順次格納していく。
会議時間中の会議参加者の活動データを取得するために距離センサ(RS)のセンシングデータを利用するが、誰がどの時間帯にどのように動いていたかを把握するためには、会議の参加者の座席配置を把握する必要がある。
会議室には、机と椅子が置いてあるが、椅子は固定ではなく移動可能であるため、実際の配置に基づく座席表が必要となる。このため、会議開始後に、計測PC(MP)では、まず座席表を生成する。
計測PC(MP)のマウス(MPIM)の操作などにより、座席表生成ボタンが押されるなど、座席表生成を意味する指令を受け付けると(MPSCQ)、現在、距離センサ(RS)から送信されたセンシングデータに基づき、参加者の配置を特定する座席表生成(MPSC)を実施する。計測PC(MP)の利用者は、会議参加者の所属や氏名を対応付ける作業を、半自動で実施する。詳細は、図10A、図10Bで後述する。
計測PC(MP)から送信する計測(MPRQ)要求は、マウス(MPIM)等の操作などによって、会議終了ボタンを押すなど、会議終了(MPMF)を意味する動作がなされるまで継続する。計測PC(MP)はセンサ端末装着者検出器(ISD)と距離センサ(RS)のデータを受信しつづける。なお、座席表生成(MPSC)作業の間も、データの計測要求及び計測データの受信を継続して実施する。
次に、会議終了(MPMF)後、計測PC(MP)は、会議基本データ(MPDM)生成を実施する。図11に会議基本データ(MPDM)の一例を示す。会議基本データ(MPDM)は、会議の開催日(MPDM1)、会議の開始時間(MPDM2)、会議の終了時間(MPDM3)、会議の実施場所(MPDM4)、会議の参加者の所属(MPDM5)、会議の参加者の氏名(MPDM6)を格納したデータとする。
会議の開催日(MPDM1)には、NPTサーバから受信した時刻修正後の時刻データの日付を格納する。会議の開始時間(MPDM2)には、マウス(MPIM)の操作によって会議開始ボタンが押されたなど、会議の開始を意味する動作が発生した時間を格納する。会議終了時間(MPDM3)には、会議終了ボタンが押されたなど、会議終了を意味する動作が発生した時間を格納する。会議実施場所(MPDM4)には、会議室名を格納するが、各会議室に設置された計測PC(MP)と会議室名を事前に対応付けておけば、使用した計測PC(MP)によって会議室名が一意に定まる。会議参加者所属(MPDM5)や参加者(MPDM6)の氏名には、座席表生成(MPSC)時に入力された会議参加者の所属や氏名が格納される。
会議基本データ(MPDM)の生成が終了したら、距離センサ(RS)で取得したセンシングデータと、座席表生成(MPSC)で生成した座席表、会議基本データ(MPDM)で生成した会議基本データ(MPDM)を、データ処理サーバ(DS)に送信する。
データ処理サーバ(DS)では、計測PC(MP)から送信されたデータを受け取ったら、受信完了レスポンスを計測PC(MP)に送信する。
データ処理サーバ(DS)は、まず、会議活動量算出(DSAC)で、距離センサ(RS)で取得したセンサデータに基づき、会議に参加した人の頭部の動きデータを抽出し、会議の参加者について時系列の会議における活動量(会議活動量)を算出する。会議活動量の算出の詳細は、図22で後述する。
データ処理サーバ(DS)で行われる会議対面二次データ生成(DSMM)では、会議参加者の時系列の会議活動量より活性度を算出し、双方の活性度の高かった時間、自分だけ活性度の高い時間または相手だけ活性度の高い時間を、会議参加者全員の各組み合わせについて算出し、マトリクスデータとして出力する。詳細は、図27で後述する。
<センサ端末(TR)のデータ格納のシーケンス>
図7は、本発明の実施の形態において実行される、センサ端末(TR)で取得したセンシングデータをセンサネットサーバ(SS)に格納する手順を示すシーケンス図である。図7には、センサ端末(TR)、基地局(GW)、およびセンサネットサーバ(SS)のそれぞれで実行される処理が時系列で示されている。
図7は、本発明の実施の形態において実行される、センサ端末(TR)で取得したセンシングデータをセンサネットサーバ(SS)に格納する手順を示すシーケンス図である。図7には、センサ端末(TR)、基地局(GW)、およびセンサネットサーバ(SS)のそれぞれで実行される処理が時系列で示されている。
センサ端末(TR)が、一つの基地局(GW)との通信が可能な状態になると(TRTA1)、センサ端末(TR)は、時刻同期(TRCS)を行う。時刻同期(TRCS)において、センサ端末(TR)は、基地局(GW)に時刻同期の要求を送信し、基地局(GW)から時刻情報を受信してセンサ端末(TR)内の時計(TRCK)を設定する。基地局(GW)は、NTPサーバ(TS)と定期的に接続し、時刻を修正している。
センサ端末(TR)の三軸加速度センサ(AC)などの各種センサは、例えば10秒ごとの一定の周期でタイマ割り込みによって起動(TRST)し、加速度等をセンシングする(TRSS1)。センサ端末(TR)は、端末情報(TRMT)の一つであるセンサ端末IDを、赤外線によって他のセンサ端末(TR)との間で送受信することで、対面状態を検出する。
センサ端末(TR)は、センシングしたデータに、時計(TRCK)の時刻情報及び端末情報(TRMT)を添付する(TRCT1)。データを解析する際には、端末情報(TRMT)によって、センサ端末(TR)を装着した人物が識別される。
データ形式変換(TRDF1)においてセンサ端末(TR)は、センシングデータにセンシングの条件などのタグ情報を付与し、予め設定された無線送信フォーマットに変換する。このフォーマットは基地局(GW)内のデータ形式情報(GWMF)やセンサネットサーバ(SS)内のデータ形式情報(SSMF)と共通して保管されているものである。変換されたデータは、その後、基地局(GW)に送信される。
データ送信(TRSE1)は、無線の通信規格に則り、送受信部(TRSR)を通して、基地局(GW)にデータを送信する。
基地局(GW)は、センサ端末(TR)からセンシングデータを受信(GWRE)すると、受信完了レスポンスをセンサ端末(TR)に送信する。レスポンスを受信したセンサ端末(TR)は、送信完了(TRSO)と判定する。
さらに、基地局(GW)は、基地局固有の番号である基地局情報(GWMG)をセンシングデータに付与し(GWGT)、当該センシングデータを、ネットワーク(NW)を介してセンサネットサーバ(SS)に向けて送信する(GWSE)。基地局情報(GWMG)は、送信時刻におけるセンサ端末(TR)の大まかな位置を示す情報として、データ解析の際に利用することができる。
センサネットサーバ(SS)は、基地局(GW)からデータを受信すると(SSRE)、受信したデータを時刻・端末情報・加速度・赤外線などの要素ごとに分類する(SSPB)。この分類は、データ形式情報(SSMF)として記録されているフォーマットを参照することによって実行される。分類されたデータは、センシングデータベース(SSDB)のレコード(行)の適切なカラム(列)に格納される(SSKI)。同じ時刻に対応するデータを同じレコードに格納することで、時刻及び端末情報(TRMT)による検索が可能になる。このとき必要であれば、端末情報(TRMT)ごとにテーブルを生成しても良い。このデータ受信(SSRE)、データ分類(SSPB)、データ格納(SSKI)を、図4におけるセンシングデータ保管(SSCDB)において行う。
なお、センサ端末(TR)が、基地局(GW)へセンシングデータを送信した後、所定の時間内に受信完了レスポンスを受信できない場合には、センサ端末(TR)の記憶部(STRG)にセンシングデータを保持する(TRDM)。そして、センサ端末(TR)が基地局(GW)と通信可能になるまで待機する(TRTA2)。この間、所定の周期毎に上述のタイマ起動(TRST)〜端末情報・時刻添付(TRCT1)を実行して、記憶部(STRG)にセンシングデータを蓄積する。
センサ端末(TR)が基地局(GW)と通信可能になると、上記と同様にセンシングデータの形式変換を実行してから(TRDF2)、データの分割を行い(TRBD2)、分割したセンシングデータを基地局(GW)へ送信する。
<基本コンテンツ生成(ASCBC)のシーケンス>
図8に、図2のアプリケーションサーバ(AS)内で実行される基本コンテンツ生成(ASCBC)の処理のシーケンスを示す。
図8に、図2のアプリケーションサーバ(AS)内で実行される基本コンテンツ生成(ASCBC)の処理のシーケンスを示す。
アプリケーションサーバ(AS)において、時計(ASCK)があらかじめ指定した時刻になったときに、基本コンテンツ生成プログラム(ASBP)が起動する(ASTK)。または、アプリケーションサーバ(AS)の管理者権限を有するユーザ(US)が任意のタイミングで操作することにより、基本コンテンツ生成プログラム(ASBP)が起動する(ASTK)。
基本コンテンツ生成プログラムは、図2Bの制御部(ASCO)で示したように、複数種類のプログラムを含み、それぞれに対応する複数種類の基本コンテンツファイル(ASBF)を出力してもよい。また、個別のプログラムを起動する順序を指定し、出力された基本コンテンツファイル(ASBF)を読み込んで次の別の基本コンテンツファイル(ASBF)を生成しても良い。
ここでは、基本コンテンツは1種類であり、また基本コンテンツは、センシングデータに基づいて生成される。この基本コンテンツは、特に、社内の従業員間の対面データと会議データの両方に基づき生成されるコンテンツであり、更に、基本コンテンツは、社内の従業員間及び社外の来訪者と従業員の対面時の活動状態を可視化するものである。
アプリケーションサーバ(AS)は、基本コンテンツ生成プログラム(ASBP)に格納された必要なデータを、対象期間や対象ユーザを指定して、センサネットサーバ(SS)及びデータ処理サーバ(DS)にデータ要求を送信する(ASCBC1)。センサネットサーバ(SS)から取得する二次データには、社内の任意の従業員間での期間内の活動状態を含んだコミュニケーション量を示した対面活動マトリクス(ASMM)を含むものとする。更に、対面活動マトリクス(ASMM)は、後述するように、双方の活動状態に応じて生成した双方向の対面活動マトリクス(ASMM1)と、双方向の対面活動マトリクス(ASMM1)を含むものとする。また更に、対象期間に開催された会議に参加したユーザの、センサ端末(TR)で取得した会議時間における活動度を表す、加速度データも含むものとする。前記取得の加速度データは、センサ端末(TR)で取得した活動量と、距離センサ(RS)から算出した会議活動量との補正を行う際に利用する。
また、データ処理サーバ(DS)から取得する会議データは、会議の日時や場所、参加者などが格納された会議基本情報データベースDSDMの基本情報や、会議時における従業員間の活性度合いを示す会議活動マトリクスを含む会議活動二次データベースDSKMである。なお、会議活動マトリクスとしては、会議双方活動マトリクス(DSKM1)と、会議一方活動マトリクス(DSKM2)を含むものとする。
センサネットサーバ(SS)はアプリケーションサーバ(AS)から受け取った要求に基づいて、二次データベース(SSDT)内を検索し(SSCTS)、必要なデータをアプリケーションサーバ(AS)に送信する。データ処理サーバ(DS)も同様に、要求に基づき会議データ検索(DSCTS)を行い、会議情報をアプリケーションサーバ(AS)に送信する。
アプリケーションサーバ(AS)は上記で検索された二次データや情報を受信する。センサ端末二次データは、センサ端末二次データ読込プログラム(ASPR)を用い、データ形式に基づいてデータを読み込む(ASCBC3)。同様に、会議基本データ(MPDM)も会議データ読込プログラム(ASGR)を用い、データ形式に基づいてデータを読み込む(ASCBC4)。
会議基本データ(MPDM)から、会議に参加した社外対面相手の情報(氏名、会社名、など)を抽出し、予め所持している業務上対面のあった人の情報(氏名、会社名、など)を格納した社外対面者リスト(ASPL)と比較し必要に応じて追記することにより、社外対面者リストを更新する(ASCLU)。
センサネットサーバ(SS)から取得したセンサ端末二次データの一つである社内の任意のメンバ間での、期間内の双方の活動状態に応じて示される、双方向の対面活動マトリクス(ASMM1)と、一方向の対面活動マトリクス(ASMM2)とをそれぞれ拡張し、社外相手とのコミュニケーション量を該当セルに格納することにより、業務対面マトリクスを生成(ASCMC)する。社外相手とのコミュニケーション量を追記するにあたり、会議対面二次データの補正を行う。会議時間における、センサ端末装着者の、センサ端末(TR)で取得した活動量と、距離センサ(RS)から算出した会議活動量から補正値を算出し、会議対面二次データに対して補正値に応じた値の変更を実施する(ASCCC)。
二次データと業務情報から生成した業務対面マトリクス(ASGM)を閲覧者の理解しやすい形に描画する(ASCBC5)。描画したコンテンツの画像ファイルを出力し(ASCBC6)、記憶部(ASME)内に基本コンテンツファイル(ASBF)として保管する。また、アクセス制御規定(ASAC)を合わせて出力し(ASCBC6)、この処理で生成した画像ファイルを閲覧できる端末IDを論理式などの形で指定する。
<コンテンツ表示のシーケンス>
図9A、図9Bは、本発明の実施例において実行される、コンテンツ、主に画像の表示をするときの手順を示すシーケンス図である。図9Aには、アプリケーションサーバ(AS)、クライアント(CL)、センサ端末(TR)のそれぞれで実行される処理がユーザ(US)により行われる操作とともに示されている。
図9A、図9Bは、本発明の実施例において実行される、コンテンツ、主に画像の表示をするときの手順を示すシーケンス図である。図9Aには、アプリケーションサーバ(AS)、クライアント(CL)、センサ端末(TR)のそれぞれで実行される処理がユーザ(US)により行われる操作とともに示されている。
クライアント(CL)は通常、誰でも閲覧可能なオープンコンテンツ(例えば、個人名を表示しないネットワーク図や、伝言板など)をディスプレイ(CLOD)に表示(CLD1)する。閲覧者検出器(CLVD)は常時待機状態にあり、閲覧者判定(CLCVD)を行う。クライアント(CL)が閲覧者なしと判定した場合には、オープンコンテンツが継続して表示される(CLD1)。
センサ端末(TR)から送信された端末ID(CLD2)を受け取り、閲覧者ありと判定された場合には、クライアント(CL)は閲覧者IDリストを生成(CLD3)する。そして、クライアント(CL)は、閲覧者IDリストをアプリケーションサーバ(AS)に送り、現在の閲覧者のメンバ構成で閲覧可能なコンテンツのリストを要求する(CLCLR)。
アプリケーションサーバ(AS)は、コンテンツリスト(ASCL)とアクセス制御規定(ASAC)を照会し、閲覧者のメンバ構成で閲覧可能なコンテンツのリストを抽出し、クライアント(CL)に応答する(ASCLM)。
アプリケーションサーバ(AS)は、また、ユーザ属性リスト(ASUL)を照会して閲覧者の氏名をクライアント(CL)に送信する。クライアント(CL)は、コンテンツリストに基づいて、閲覧可能なコンテンツへのリンクを示すコンテンツ切替ボタン(OD_C)や閲覧者の名前を示した閲覧者選択ボタン(OD_A)を表示する(CLD4)。これらのコンテンツ切替ボタン(OD_C)や閲覧者選択ボタン(OD_A)は図43に示される。
クライアント(CL)は、ユーザ(US)による操作を検出すると、選択されたコンテンツの画像(またはその他の種類のデータ)をアプリケーションサーバ(AS)に要求する(CLCCR)。アプリケーションサーバ(AS)は、要求された条件(対象の日付、対象ユーザ、コンテンツ種類)にしたがって該当するコンテンツを選択し、クライアントに送信する(ASCCS)。クライアント(CL)は、アプリケーションサーバ(AS)から受け取ったコンテンツを表示(CLD6)する。
コンテンツを表示(CLD6)の中で強調表示が付与されている内容(CLD6)に対しては、ユーザ(US)がコンテンツ操作(CLD8)を行うことによって強調表示を変更することができる(CLD9)。また、システムは閲覧者の自動で判定し(CLCVD)、閲覧者が変化した場合にはこれを検出し(CLD10)、強調表示の内容を変更して描画する(CLD11)。また、コンテンツを表示する際には、閲覧許可が必要なものについては、閲覧者がその条件を満たしているかどうかをシステムが判定し(CLD12) 、閲覧許可を持たない閲覧者に対しては、オープンコンテンツを表示する(CLD13)。
コンテンツを表示(CLD6)の中で強調表示が付与されている内容(CLD6)に対しては、ユーザ(US)がコンテンツ操作(CLD8)を行うことによって強調表示を変更することができる(CLD9)。また、システムは閲覧者の自動で判定し(CLCVD)、閲覧者が変化した場合にはこれを検出し(CLD10)、強調表示の内容を変更して描画する(CLD11)。また、コンテンツを表示する際には、閲覧許可が必要なものについては、閲覧者がその条件を満たしているかどうかをシステムが判定し(CLD12) 、閲覧許可を持たない閲覧者に対しては、オープンコンテンツを表示する(CLD13)。
<座席表生成のフローチャート>
図10A、図10Bに、計測PC(MP)で行われる座席表生成(MPSC)のフローチャートを示す。座席表生成(MPSC)は、マウス(MPIM)等により座席表生成ボタンが押される(MPSCQ)などのイベントが発生した場合に行われる処理であり、基本的には会議開始後に一度実施すればよい。
図10A、図10Bに、計測PC(MP)で行われる座席表生成(MPSC)のフローチャートを示す。座席表生成(MPSC)は、マウス(MPIM)等により座席表生成ボタンが押される(MPSCQ)などのイベントが発生した場合に行われる処理であり、基本的には会議開始後に一度実施すればよい。
処理の開始(MPSTS)後、計測PC(MP)は、座席表生成時刻(t)を取得する(MPST1)。座席表生成時刻(t)を取得しておくことで、後にデータ処理サーバ(DS)で各人の会議活動量生成で、動きのある人物領域と、人(氏名)との対応付けを行う際に、同じ時刻のデータを使用して対応付け処理を行うことができる。
座席表の生成は、距離センサ(RS)で取得したデータに基づき人物領域を抽出し見取り図を生成する処理と、センサ端末装着者検出器(ISD)で取得したデータに基づきセンサ端末装着者の座席位置と氏名とを自動的に対応づける処理と、センサ端末非装着者の座席位置を手入力により対応付ける処理との、大きく分けて三つのステップからなる。なお、本実施例では、距離センサ(RS)で取得したデータから人物領域を抽出して会議室の見取り図を生成する処理(MPST21〜MPST25)と、センサ端末装着者検出器(ISD)で取得したデータに基づきセンサ端末装着者の情報を取得する処理(MPST31〜MPST41)を並列して実行する例を示す。
まず、計測PC(MP)は、距離センサ(RS)でセンシングした、時刻(t)のセンシングデータを取得する。センシングデータは、例えば図23に示すセンシングデータ(RSSD)のように記述されており、時刻(t)のセンシングデータとは、ある時刻(t)のデータ(点群座標値PCCV)のみを抽出したものである。前記取得したセンシングデータから、人物領域を抽出する(MPST22)。
人物領域抽出方法の一例として、まず、会議室に人が全くいない状態における距離センサ(RS)によるセンシングデータを事前に計測し、図12に示す会議開始前計測データ(SD1)として格納しておく。そして、会議開始前計測データ(SD1)と、会議開始後計測データ(SD2)におけるセンシングデータとの差分により、人物領域抽出データ(SD3)を抽出する方法がある。
人物領域抽出後、人物領域に所定の半径(例えば20cm)の円を当てはめ、会議室を上から見た座席表の見取り図を生成する(MPST23)。円を当てはめる方法の一つとして、各人物領域(CPA1)におけるXY座標値のそれぞれの中心を算出し(CPA2)、算出した中心を人物中心として円を当てはめる(CPA3)方法を図13(A)に示す。ただし、距離センサ(RS)では、人物の前半分表面データしか取得できないため、若干人物中心からずれる可能性があるが、厳密な座標値は必要ないためこの方法でも問題ない。なお、この例では、距離センサ(RS)をテーブルの中心に設置し、回転させながら距離を測定している。
また、別の方法として、図13(B)に示す通り、各人物領域の最大Z座標値(高さ方向の最大値)から所定の範囲(例えば、20cm)引いた高さまでの領域を、頭部領域点群として抽出し(CPB1)、ここに所定の半径(例えば20cm)の円を照合処理によってあてはめる(CPB2)方法も考えられる。なお、CPB1で示す頭部領域点群は、取得点群をXY平面に投影し、距離センサから近い距離にある表面点群のみを抽出した図である。
また、別の方法として、図13(C)に示すように、既存のモーション抽出アルゴリズムを用いて、三次元点群データから人物の形状を抽出し(CPC1)、骨格を当てはめ(CPC2)、頭部と認識された点の座標値を人物領域の中心として抽出する方法もある(CPC3)。
計測PC(MP)は、図13(D)に示すように、上記算出した人物位置を円で表し、会議机と合わせて表示した図を、座席表見取り図とする。
人物領域を表す円の中心を、人物領域中心座標値(MPCV)として出力する(MPST24)。計測PC(MP)は、各人物領域に対して、人物番号P1〜Pnを付与する(MPST25)。人物番号付与は、例えば、左から右へのスキャン(X軸方向)、上から下へのスキャン(Y軸方向)で、人物中心座標値が検出された順に、P1から番号を付与するなどの方法を用いる。
次に、センサ端末装着者検出器(ISD)で取得したデータに基づく処理について説明する。センサ端末(TR)の装着者のいる方向を特定するために、複数のセンサ端末装着者検出器(ISD)を各々の方向に向けて設置する。例えば、6台のセンサ装着者検出器(ISD_1〜ISD_6)を、60度ずつ角度を変えて設置した例を、図15Aに示す。図15Aは、センサ装着者検出器ISDの配置や視野角を表す図である。このような配置で、どの方向にセンサ装着者がいても、いずれかの検出器(ISD_1〜ISD_6)でセンサ端末(TR)の端末IDを受信することができる。
図15Bは、センサ装着者検出器(ISD)の基本情報であり、検出器ID(ISDID)と、設置位置(ISDCV)、設置方向(ISDDR)が対応づけて格納される。この基本情報は、後述するように、時刻毎に計測PC(MP)で生成される。
まず、計測PC(MP)は、センサ装着者検出器(ISD)で検出したIDデータを、取得する(MPST31)。ここで、検出IDデータテーブル(ISDDT)の例を、図16A、図16Bに示す。図16Aは、検出器IDが「ISD_1」のテーブルで、図16Bは、検出器IDが「ISD_2」のテーブルを示す。各テーブルは、会議の開始時刻を14:48:00とした例を示す。
検出IDデータテーブル(ISDDT)は、検出器ID(ISDID)と、データ取得時刻(ISDTM)、データ取得時刻に検出したセンサ端末のID(ISDTR)が一つのエントリに格納される。データ取得開始時刻、すなわち、会議開始時刻から、座席表生成ボタンが押された時刻までのデータが格納されている。
また、各検出器において、一定時間(例えば、座席表生成ボタン押下時刻5分前から座席表生成押下時刻まで)の検出IDをカウントし(MPST32)、検出ID受信回数表(ISDDC)を生成する。
座席表生成ボタンが押された時刻(t)のデータだけでは、たまたまその時間帯に、センサ端末(TR)がいずれもの装着者検出器(ISD)の方向を向いておらずIDが検出されていない場合があるため、時間をさかのぼって、所定の期間のデータを取得し、検出数をカウントすることにより端末IDの検出をより確実にする。
図17に示す、検出ID受信回数表(ISDDC)は、検出器ID(ISDID)と、各検出器でセンサ端末(TR)ID受信数カウント対象となる時刻(ISDTT)、検出されたセンサ端末(TR)ID毎の受信回数(ISDCT1,ISDCT2)により構成される。ここでは、端末ID:1001とID:1002のみが検出された例を挙げているが、検出IDが更に多い場合は、検出ID受信回数表(ISDDC)の列を順次追加し、検出器ID(ISDID)ごとのカウント数を格納する。なお、図17の例では、14:50:00に検出ID受信回数表(ISDDC)を生成した例を示す。
次に、計測PC(MP)は、距離センサ(RS)で取得したデータに基づき生成した座席表のどの位置に、センサ装着者がいるかを推定する。
まず、検出器ID(ISDID)の計測位置と方向を知るために、センサ端末装着者検出器(ISD)の基本情報を読み込む(MPST41)。センサ端末装着者検出器(ISD)の基本情報は、図15Bで示すように、センサ端末装着者検出器(ISD)のID(ISDID)と、設置位置のXY座標値(ISDCV)、設置向き(ISDDR)がそれぞれ対応づけて格納されている。
図18は、距離センサ(RS)で取得したデータから生成した二次元座席表と、センサ端末装着者検出器(ISD)の配置や視野角を重ね合わせて表示した図である。距離センサ(RS)とセンサ端末装着者検出器(ISD)の座標系を、机の中心を原点とし、X軸、Y軸の方向を同一にしておけば、座標系変換処理の必要はなく、座標値をそのまま扱うことが可能である。
図10AのMPST25で人物番号を付与した二次元座席表と、MPST41で読みこんだセンサ端末装着者検出器基本情報と、MPST32で生成した検出器毎の検出IDデータカウント表に基づき、センサ端末装着者の位置を推定する(MPST42)。検出ID受信回数表(ISDDC)において、検出器ID(ISD_2)のセンサ端末装着者検出器(ISD)において、端末(TR)IDが1001と1002が多く検出されていることから、図18に示す検出器ID(ISD_2)の視野角内に入っている人物番号P2とP3は、端末(TR)IDが1001又は1002と推定される。また更に、検出器ID(ISD_1)のセンサ端末装着者検出器(ISD)において、センサ端末(TR)ID1001が検出され、検出器ID(ISD_3)のセンサ端末装着者検出器(ISD)において、センサ端末(TR)のID=1002が検出されていることから、人物番号P2はセンサ端末(TR)のID=1001、人物番号P3はセンサ端末(TR)のID1002と推定される。
検出されたセンサ端末(TR)のIDから、当該端末(TR)を装着している従業員の氏名を取得するために、図19に示す端末IDとユーザ氏名を対応づけたユーザリスト(MPUL)を読み込み、センサ端末装着者氏名を取得する(MPST43)。
座席配置図上にセンサ端末装着者の氏名を重ねて表示した、時刻(t)の座席配置図(MPSC)を計測PC(MP)のディスプレイに表示する(MPST51)。
図20Aは、二次元座席表上にセンサ端末装着者の氏名を重ねて表示した例であり、図20Bは、距離センサ(RS)で取得したデータから人物領域を抽出し、会議机と一緒に表示した三次元点群データ上にセンサ端末装着者の氏名を重ねて表示した例である。
座席表に格納された人物領域と、そこに着席した人との氏名とを対応付けるために、マウスなどのポインティングデバイスを用いて人物領域を指定する(MPST52)。人物領域が指定されたら、図20Cに示すような、情報入力ボックス(IIBX)を表示する(MPST53)。情報入力ボックス(IIBX)で記入する内容は、例えば、会社名や、氏名などがあげられる。その他、部署や役職などを入力する項目があっても構わない。
情報入力ボックス(IIBX)に、会議参加者の情報を入力したら(MPST54)、決定ボタンを押下する。図20Dは、3人分の会議参加者(センサ端末非装着者)の情報を入力し終わった座席配置図である。センサ端末装着者(従業員)とセンサ端末非装着者(来訪者)の、所属や氏名を表示するボックスの色を変えたり、ボックスの線のスタイルを変えたりすると、両者の区別がしやすくなる。
ここでは、二次元座席表図20Aを用いて会議参加者の情報を入力する方法(図20C)を示したが、三次元座席表(図20B)上の人物領域を指定し、当該領域に情報入力ボックスを表示しても構わない。
全ての人物領域に対して会議参加者情報の入力を繰り返し、全ての入力が終了し(MPST55)、入力終了ボタンが押されたら、会議参加者座席表(MPLT)を出力する(MPST6)。
会議参加者座席表(MPLT)には、図21に示すように、人物番号(MPLT1)、人物領域の中心のX座標値(MPLT2)とY座標値(MPLT3)、座席表生成時刻(MPLT4)、センサ装着者のセンサ端末ID(MPLT5)、来訪者の会社名(MPLT6)、氏名(MPLT7)が格納されている。
以上のように、計測PC(MP)では、距離センサ(RS)と、センサ端末装着者検出器ISDを利用して、会議中の人物の配置と氏名を設定することができる。つまり、計測PC(MP)は、距離センサ(RS)のデータから人物の位置を特定して人物の配置を示す見取り図を生成する。一方、計測PC(MP)は、センサ端末(TR)毎の位置をセンサ端末装着者検出器(ISD)で検出し、この検出結果によってセンサ端末(TR)毎の位置を特定する。そして、計測PC(MP)では、人物の配置を示す見取り図と、センサ端末(TR)毎に特定した位置を結合することで、センサ端末(TR)を装着した従業員と、センサ端末を装着していない来訪者を合わせた座席表を生成する(MPST6)ことができる。そして、センサ端末(TR)を装着している人物(従業員)については、予め設定されたユーザリスト(MPUL)を参照して端末IDからユーザ名を取得する。そして、センサ端末(TR)が非装着の人物の位置をディスプレイ(MPOD)で特定し、氏名や社名の入力を促すことで、会議に参加した全ての人物の氏名を特定することができる。
<会議活動量算出のフローチャート>
図22に、データ処理サーバ(DS)で行われる会議活動量算出(DSAC)のフローチャートを示す。距離センサで(RS)で計測したセンシングデータから導出した各人の頭部の移動量を、以下では会議活動量とする。
図22に、データ処理サーバ(DS)で行われる会議活動量算出(DSAC)のフローチャートを示す。距離センサで(RS)で計測したセンシングデータから導出した各人の頭部の移動量を、以下では会議活動量とする。
会議時において、よく動きの生じる身体部分は、頭と腕である。発話したり頷いたりすることにより、頭の動きが発生する。また、ジェスチャを交えて発言したり筆記することにより、腕の動きが発生する。頭と首の動きは連動する。センサ端末(TR)を首からぶら下げた人と、センサ端末(TR)を持っていない社外の来訪者との活動量とを一緒に扱うため、首から下げたセンサ端末(TR)と極力連動した値を取得したいため、腕ではなく頭部の動きから会議活動量を算出する。
図22において、処理の開始(DSACS)後、データ処理サーバ(DS)は、計測PC(MP)から送られてきた、距離センサ(RS)で取得した、会議開始から終了までの時系列のセンシングデータ(RSSD)を読み込む(DSAC1)。
センシングデータ(RSSD)は、図23で示す通り、センシング時刻(SSTM)と、センシング時刻に計測された点群の三次元座標値(PCCV)からなる。点群は、人の領域だけでなく、壁や机、その他室内に存在するものなど、距離センサ(RS)で計測された物の表面の座標値を、センサ位置を原点として表したものである。なお、センシングデータ(RSSD)は、計測した時間毎に、計測された点の集まりが一つのエントリ(またはレコード)に記録されている。
データ処理サーバ(DS)は、まず、最初の時刻(例えば、会議の開始時刻)のセンシングデータ(RSSD)を取得する(DSAC2)。次に、データ処理サーバ(DS)は、センシングデータ(RSSD)から、人物領域を抽出する(DSAC31)。これは、上記図12に示したように、人物領域抽出(MPST22)と同じ方法を用いるとよい。次に、データ処理サーバ(DS)は、人物領域の抽出後、頭部座標値を抽出する(DSAC32)。頭部座標値の抽出は、例えば、上記図13Cに示した既存のモーション抽出アルゴリズムを用いて、三次元点群データから人物の形状を抽出し、骨格を当てはめ、頭部と認識された点の座標値を頭部座標値として抽出する方法を用いる。
会議中のセンシングデータ(RSSD)では、短い時間間隔の中で人物の大きな移動は発生しない場合が多いため、一つ前の計測時間における各人物領域の頭部座標値の中で、最も近い座標値を持つ人物領域を同一人物であると推定して、人物領域(HDAR)の頭部座標値(HDCV)に値を追加格納する(DSAC33)。対象となる時間帯の人物領域の頭部座標値(HDCV)の算出が終了したら、次の時間帯のセンシングデータ(RSSD)を読み込み(DSAC34)、データが存在するうちは上記DSAC31〜34の頭部座標値の認識処理を継続して繰り返し、頭部座標値(HDPS)のデータを順次更新する。
データ処理サーバ(DS)は、全ての時間帯のセンシングデータにおいて、人物領域ごとの頭部座標値の算出が終了したら、3次元頭部座標値(HDPS)を出力する(DSAC5)。
頭部座標値表(HDPS)は、図24で示すように、人物領域番号(HDAR)、センシング時刻(HDTM)、頭部座標値(HDCV)で構成される。図24では、一定時間(例えば一秒)のデータを、一つのカラムに集めて格納した例を示している。1秒間に30回センサデータを取得していた場合、頭部座標値(HDCV)には、30個の頭部座標値が格納されることになる。
次に、データ処理サーバ(DS)は、一定時間(例えば一分)毎の頭部移動表(HDMS)を算出する(DSAC6)。図25Aは、頭部移動量算出の途中過程で、頭部座標値表(HDCV)に格納されたデータに基づき、一定時間(例えば一秒)毎の頭部移動量を算出した頭部移動表(HDMS)である。
一定時間(例えば一秒)前の頭部座標値との2点間の距離を算出することで、一定時間(例えば一秒)毎の頭部移動量を計算する。そして、一定時間(例えば一分)における一定時間(例えば一秒)毎の頭部移動量をすべて積算することにより、一定時間(例えば一分)毎の頭部移動量を算出する。図25Bは、一定時間(例えば一分)毎の頭部移動表(HDMM)である。
頭部移動表(HDMM)は、人物領域番号(HDAR)を縦軸に、時刻(HDTM)を横軸に取り、人物領域ごとの1分間の頭部移動量を時間ごとに格納したものである。
次に、データ処理サーバ(DS)は、頭部移動表(HDMM)に、人の名前を当てはめる。データ処理サーバ(DS)は、まず、計測PC(MP)で生成された会議参加者座席表(MPLT)を読み込む(DSAC51)。
データ処理サーバ(DS)は、会議参加者座席表(MPLT)の各人Pnの座標値と、頭部座標値表(HDPS)の座席表生成時刻における各人の頭部XY座標値から、最も値の近い者を同一人物として、対応付けを行う(DSAC52)。
図26Aは、会議参加者座席表(MPLT)の座席表生成時刻における、頭部座標値表(HDPS)に格納された各人の頭部座標値を抽出した表である。図26Bは、頭部移動表(HDMM)の人物領域番号(HDAR)と、会議参加者座席表(MPLT)の人物番号(MPLT1)との対応付けを示した表である。
図26Cに、頭部移動表(HDMM)の人物領域番号(HDAR)に、人物氏名を格納した例を示す。データ処理サーバ(DS)はこの表を、会議活動量表(MATB)として出力する(DSAC6)。
以上の処理によって、会議に参加した各人物の活動量が一定の時間間隔毎にまとめられた会議活動量表(MATB)が生成される。
<会議対面二次データ生成のフローチャート>
図27に、データ処理サーバ(DS)で行われる会議対面二次データ生成(DSMM)のフローチャートを示す。
図27に、データ処理サーバ(DS)で行われる会議対面二次データ生成(DSMM)のフローチャートを示す。
処理の開始後(DSMMS)、データ処理サーバ(DS)は会議活動量算出(DSAC)で生成した図26Cの会議活動量表(MATB)を読み込む(DSMM1)。データ処理サーバ(DS)は、会議の参加者ごと、各時刻ごとの頭部移動量から会議中の活性状態を活性または不活性の何れであるかを、予め設定した閾値を基準に判定する(DSMM2)。
データ処理サーバ(DS)は頭部移動量が閾値以上の場合は活性度に「1」を設定し、閾値以下の場合は活性度に「0」を設定して、会議活動表(MATB2)を生成する。図28Aに会議活動表(MATB2)を示す。会議活動表(MATB2)は、センシングデータの端末IDから端末IDリスト(MPUL)で特定される氏名(MANM)と、会議期間中の時刻(MATM)毎に活性度が格納される。本実施例では、時刻(MATM)は1分間隔に設定される。
図28Aに示した会議活動量(MATB2)の時刻MAMTのうち、活性度に「1」が設定された入力された箇所(時刻)を塗りつぶして、可視化した図(タペストリ)を図28Bで示すようにデータ処理サーバ(DS)が生成する。
図28Aの会議活動表(MATB2)と図28Bの会議活動量(MATB2)から、会議で活発に動いていた人の多い時間帯や、動きの少ない時間帯あるいは活発に動く時間の多い人や少ない人、などを、直感的に把握することが出来る。
次に、自分(あるいは着目する参加者)の活性度だけでなく、会議で相手となった人物の活性度もあわせることにより、(1)自分も相手も活性した場合の双方活性の状態と、(2)自分のみ活性した一方活性の状態と、(3)相手のみが活性した一方活性の状態の三つの状態に分類し、それぞれの状態毎の時間をカウントする(DSMM3)。状態として、自分も相手も不活性の場合もあるが、両者とも動きが少なく会議に対して消極的な場合は、コミュニケーション時間にカウントしないこととする。
図29に、対面相手の活性度を考慮して三つの状態をカウントする例を示す。図29は、会議活動量(MATB2)の、14:48−14:53の時間帯における佐藤さんと木村さんのデータを抽出した例である。双方活性の状態は、佐藤さん主体で見た場合も木村さん主体で見た場合も「3」とする。自分のみ活性の状態は、佐藤さん主体で見た場合は「2」に、木村さん主体で見た場合は「1」とする。逆に、相手のみ活性の状態は、佐藤さん主体で見た場合は「1」に、木村さん主体で見た場合は「2」とする。このカウンターにより、対面する人物同士の活性度に応じて、双方活性、自分活性、相手活性の3つの状態が設定される。
データ処理サーバ(DS)は、上記のようにカウントした結果に基づき、双方活性のマトリクス図と、一方活性のマトリクス図とを生成する(DSMM3)、(DSMM4)。
図30Aは、双方活性の会議双方活動マトリクス(DSKM1)である。会議の参加者が双方活性だった時間を、全ての参加者の組み合わせで生成したものを入力する。図中要素(KM1_6)は、佐藤さんと鈴木さんとが双方活性状態だった時間が14分であったことを表している。図30Bは、一方活性の会議一方活動マトリクス(DSKM2)である。参加者のうちどちらか一方が活性だった時間を、全ての人の組み合わせで算出したものを入力する。図中要素(KM2_6)は、鈴木さんのみが活性で、木村さんが不活性状態だった時間が9分であったことを表している。このように、着目する参加者だけが活性だった状態は横の行に、相手の参加者だけが活性だった状態は縦の列に一方向活性状態の時間が格納される。
<業務対面活動マトリクス(ASGM)生成処理>
図9A、図9Bに示される基本コンテンツの生成で、従業員と社外の来訪者との業務対面を可視化したコンテンツ生成するにあたり、対面の状態をN×N行列で表した業務対面活動マトリクス(ASGM)を生成する例を示す。
図9A、図9Bに示される基本コンテンツの生成で、従業員と社外の来訪者との業務対面を可視化したコンテンツ生成するにあたり、対面の状態をN×N行列で表した業務対面活動マトリクス(ASGM)を生成する例を示す。
図31に、アプリケーションサーバ(AS)で実行される業務対面マトリクス(ASGM)の生成処理のフローチャートを示す。ここでは、組織内人員(従業員)としての組織内構成メンバと、組織外人員としての社外対面者(来訪者)とを組み合わせたものを縦軸と横軸に設定した業務対面マトリクスの例を示す。なお、図31では、会議データの読み込み以降の処理(CMC1〜CMC5)と、会議活動二次データの読み込み処理(CMC6)を並列して行う例を示すが、これに限定されるものではなく、逐次実行してもよい。
処理の開始(CMCS)後、アプリケーションサーバ(AS)から対象期間などの条件をデータ処理サーバ(DS)に送信し、データ処理サーバ(DS)において、当該条件に該当する情報を検索し、会議データとしてアプリケーションサーバ(AS)に送信されたものを読み込む(CMC1)。会議データには、会議日時や参加者などの会議基本情報(MPDM)と、会議参加者の活動状況を時系列に「0」または「1」で表した会議活動表(MATB2)と、会議時の活動状況を示す会議活動二次データベース(DSKM)が含まれる。
また、アプリケーションサーバ(AS)から対象期間や端末IDなどの情報をセンサネットサーバ(SS)に送信し、センサネットサーバ(SS)において、当該条件に該当する情報を検索し、センサ端末データとしてアプリケーションサーバ(AS)に送信されたものを読み込む(CMC2)。センサ端末データには、従業員同士の対面活動を示す会議得活動二次データベース(DSKM)や、センサ端末(TR)の動きを表すセンシングデータ(加速度)などが含まれる。
まず、アプリケーションサーバ(AS)は、会議基本情報データベース(DSDM)に格納されている、会議日時、及び、センサ端末(TR)を装着している会議の参加者より、該当参加者の該当日時におけるセンシングデータ(加速度)を抽出し、該当時間帯における、参加者の活動時間を算出する。
また、アプリケーションサーバ(AS)は、会議活動表(MATB2)と、センサ端末(TR)を装着している会議参加者の活性度が「1」の時間を加算し、会議活動時間を算出する。
アプリケーションサーバ(AS)は、同じ時間帯における、センサ端末(TR)からの活動時間と、距離センサ(RS)からの活動時間より、会議活動の補正値を算出する(CMC3)。
図32に示すように、対象日時(2012/03/31 14:48 − 2012/03/31 15:30)における対象ユーザ2者のセンシングデータ(加速度)の和(23+15)を、2者の会議活動表(MATB2)の値の和(19+20)で、除した値を、会議活動補正値(0.97)とする。
次に、アプリケーションサーバ(AS)は、会議活動二次データ(DSKM)を読み込み(CMC4)、前記算出した会議活動補正値を、会議活動二次データ(DSKM)の各セルに格納されている値に乗じることにより、会議活動マトリクス(会議双方活動マトリクス(DSKM1)及び会議一方活動マトリクス(DSKM2))を補正する(CMC5)。
アプリケーションサーバ(AS)は、次に、センサネットサーバ(SS)から取得した、社内の任意の従業員間での期間内のコミュニケーション量を示した対面活動マトリクス(ASMM)を読み込む(CMC6)。
アプリケーションサーバ(AS)は、業務対面活動マトリクス(ASGM)を生成するにあたり、社内の従業員同士の対面活動を示す対面活動マトリクス(ASMM)を基本とし、社外の来訪者との対面を表す部分を拡張する。
アプリケーションサーバ(AS)は、まず、対面活動マトリクス(ASMM)を、社外の来訪者である対面相手の数だけマトリクスのサイズを拡張する(CMC7)。
例えば、対面活動マトリクス(ASMM)のサイズが30×30であり(これは社内の対象となる従業員数が30人であることを示す)、社外対面相手の数が15であった場合、45×45のマトリクスを生成する。
アプリケーションサーバ(AS)は、社内の対面を示す30×30の部分を、そのままコピーする。次に、アプリケーションサーバ(AS)は、社内の対象従業員と社外の対面相手との対面を示す30×15の部分を拡張マトリクス(EXMT)とし、CMC5で補正した会議活動マトリクス(会議双方活動マトリクス(DSKM1)及び会議一方活動マトリクス(DSKM2))のデータを、拡張マトリクス(EXMT)の該当セルに埋め込んでいく(CMC8)。
アプリケーションサーバ(AS)は、補正後の会議活動マトリクスに格納された社内のセンサ端末(TR)の装着者と会議に同席した来訪者より、マトリクス内の場所を決定し、社内のセンサ端末(TR)の装着者と会議に同席した来訪者との活動状態を含めたコミュニケーション量を、決定されたマトリクスの位置に格納する。一方、コミュニケーション量を格納するマトリクスの位置が重なった場合(同じ社内センサ装着者と会議同席来訪者のデータがあった場合)、アプリケーションサーバ(AS)は、当該マトリクスの位置に格納されていた値に、コミュニケーション量を加算して更新する。
会議活動マトリクス(会議双方活動マトリクス(DSKM1)及び会議一方活動マトリクス(DSKM2))に格納されたデータの全てが、業務対面活動マトリクス(ASGM)に反映されたか否かを判定し(CMC9)、全てのデータが反映されるまで、コミュニケーション量のマトリクスへの埋め込みを継続する。社外業務対面テーブルのデータすべてが反映されたら、業務対面活動マトリクス(ASGM)の完成となる(CMC9)。
<二次データベース(SSDT)の例:対面活動マトリクス>
センサネットサーバ(SS)内で、センシングデータ処理(SSCDT)の結果を格納する、二次データベース(SSDT)の例として、対面活動マトリクス(ASMM)の例を図33A,図33Bに示す。図33Aは、双方向の対面活動マトリクス(ASMM1)を示し、図33B、一方向の対面活動マトリクス(ASMM2)を示す。
センサネットサーバ(SS)内で、センシングデータ処理(SSCDT)の結果を格納する、二次データベース(SSDT)の例として、対面活動マトリクス(ASMM)の例を図33A,図33Bに示す。図33Aは、双方向の対面活動マトリクス(ASMM1)を示し、図33B、一方向の対面活動マトリクス(ASMM2)を示す。
二次データベース(SSDT)は、センサネットサーバ(SS)が、所定の前処理を行い、一定期間の特定のユーザの情報を共通の形式で保管するデータベースである。
図33A,図33Bでは、組織内の任意の従業員間での、所定の期間内の互いの活性度を含めた対面時間を示した対面活動マトリクス(ASMM)の例を示す。対面活動マトリクスはネットワーク分析の用語では隣接行列と呼ばれるものである。
対面活動マトリクス(ASMM)は、図34A,図34B(後述)に示したセンシングデータベース(SSDB)の対面テーブル(SSDB_IR)に基づいて、任意の組合せの従業員間での対面と、対面した時刻において対象となる組み合わせの従業員それぞれの加速度データから、双方が活動的である時間を計算し、マトリクス形式に整理したものが、図33Aの対面活動マトリクス(双方向)(ASMM1)である。
また、同様に、任意の組み合わせの従業員間での対面と、対面した時刻において対象となる組み合わせの速度データから、一方のみが活動的である時間を計算し、マトリクス形式に整理したものが、図33Bに示す対面活動マトリクス(一方向)(ASMM2)である。
<センシングデータベース(SSDB)の例:対面テーブル>
図34A,図34Bは、センシングデータベース(SSDB)の一例として、対面テーブルを示す。図34A,図34Bは、異なる端末IDのセンサ端末(TR)のセンシングデータである。
図34A,図34Bは、センシングデータベース(SSDB)の一例として、対面テーブルを示す。図34A,図34Bは、異なる端末IDのセンサ端末(TR)のセンシングデータである。
センシングデータベース(SSDB)には複数の従業員のセンサ端末(TR)のそれぞれに対応して複数種類のセンシングデータが記録されているが、センシングデータのうちの赤外線送受信による対面データをまとめたテーブルの例を図34A,図34Bに示す。
図34Aは、対面テーブル(SSDB_IR_1002)を示し、端末IDが1002であるセンサ端末(TR)が取得したデータを集めたテーブルであることを示す。同様に、図34Bは、対面テーブル(SSDB_IR_1003)を示し、端末IDが1003であるセンサ端末(TR)が取得したデータの対面テーブルである。なお、閲覧者検出器(CLVD)の赤外線送受信器(CLVDIR)や、センサ端末装着者検出器(ISD)の赤外線送受信器から受信した検出器ID(CLVDID)も、センサ端末(TR)から受信した端末IDと同様に赤外線送信側ID(DBR10)に記録しても良い。この場合、検出器IDをキーとしてテーブルを検索することにより、誰がどの場所で会議を行ったか、また、ディスプレイを閲覧したかを調べることができる。
図34A,図34Bの対面テーブルは、センサ端末(TR)がデータを送信した時刻(DBTM)と、赤外線送信側の端末ID(DBR1)と、当該端末IDからの受信回数(DBN1)とを10組(DBR1およびDBN1、DBR2およびDBN2、...、DBN10およびDBN10)格納する例を示す。
所定の時間内(例えば10秒間)に、どのセンサ端末(TR)から何回赤外線を受信したかを、この対面テーブルで表す。対面、つまり赤外線の受信がなかった場合にはテーブルの値は「null」となる。時間間隔も、10秒に限られるものではなく、目的に応じて変更可能である。
<センシングデータベース(SSDB)の例:加速度データテーブル>
センサネットサーバ(SS)のセンシングデータベース(SSDB)に格納されるセンシングデータの例として、加速度データテーブルの例(SSDB_ACC_1002)を図35に示す。
センサネットサーバ(SS)のセンシングデータベース(SSDB)に格納されるセンシングデータの例として、加速度データテーブルの例(SSDB_ACC_1002)を図35に示す。
加速度データテーブルは、基本的に、センサ端末(TR)で取得されたセンシングデータをそのまま格納したものであり、前処理をされていない状態のデータである。加速度データテーブルは、各個人(センサ端末(TR))に対応してそれぞれテーブルが作られ、所定のサンプリング周期(例えば0.02秒)ごとに時刻情報(DBTM)と対応付けてX軸(DBAX)、Y軸(DBAY)、Z軸(DBAZ)の、互いに直交する三軸方向それぞれの加速度データが格納される。
なお、加速度センサが検出した数値をそのまま格納しても良いし、センシングデータの測定値単位を[G]に変換した後の値を格納しても良い。このような加速度データテーブルをメンバごとに生成し、センシングした時刻の情報と対応付けて格納する。なお、端末IDを示すカラムを追加すれば、テーブルを個人ごとに分けずに統合したもの(組織内人員全員のデータを記録したテーブル)とすることが可能である。
<業務対面活動マトリクス(ASGM_1)の例>
図36は、社内の任意の従業員と、社外の対面者(来訪者)とを合わせたものを軸にした業務対面活動マトリクスの例である。図示の業務対面活動マトリクス(ASGM_1)は、センサネットサーバ(SS)から取得した二次データの一つである社内の任意の従業員間の双方活性の対面を示す対面活動マトリクス(双方向)(ASMM1)と、社内の任意の従業員と会議で同席した社外来訪者との対面活動を示す拡張マトリクス(EXMT)とを、アプリケーションサーバ(AS)で結合したものである。
図36は、社内の任意の従業員と、社外の対面者(来訪者)とを合わせたものを軸にした業務対面活動マトリクスの例である。図示の業務対面活動マトリクス(ASGM_1)は、センサネットサーバ(SS)から取得した二次データの一つである社内の任意の従業員間の双方活性の対面を示す対面活動マトリクス(双方向)(ASMM1)と、社内の任意の従業員と会議で同席した社外来訪者との対面活動を示す拡張マトリクス(EXMT)とを、アプリケーションサーバ(AS)で結合したものである。
図中破線で示す拡張マトリクス(EXMT)は、アプリケーションサーバ(AS)で社内の任意の従業員と社外の来訪者をそれぞれの軸に加えたマトリクスである。
図30Aに示した会議対面活動テーブル(DSKM1)を会議補正値で補正した値に従い、社内の従業員と社外来訪者の双方が活性状態であった時間をコミュニケーション量として、アプリケーションサーバ(AS)が拡張マトリクス(EXMT)内の該当セルに格納していく。図36に示す業務対面活動マトリクスでは、要素(KM2_8)に示すように、社内の山田さんと、X社の山口さんが、双方活性状態で対面した時間が2分であったことを示している。
なお、センサ端末非装着の来訪者と装着者、または非装着の来訪者同士の対面時間は、会議テーブルに着席している参加者は全員が対面しているものとして算出する。
なお、センサ端末非装着の来訪者と装着者、または非装着の来訪者同士の対面時間は、会議テーブルに着席している参加者は全員が対面しているものとして算出する。
<業務対面活動マトリクス(ASGM_2)の例>
図37は、社内の任意の従業員と社外の対面者(来訪者)とを合わせたものを軸にした業務対面活動マトリクス(ASGM_2)の例である。業務対面活動マトリクス(ASGM_2)は、センサネットサーバ(SS)から取得した二次データの一つである社内の任意の従業員間のどちらか一方が活性状態の対面を示す対面活動マトリクス(一方向)(ASMM2)と、社内の任意の従業員と会議で同席した社外の来訪者との対面活動を示す拡張マトリクス(EXMT)とを、アプリケーションサーバ(AS)で結合したものである。
図37は、社内の任意の従業員と社外の対面者(来訪者)とを合わせたものを軸にした業務対面活動マトリクス(ASGM_2)の例である。業務対面活動マトリクス(ASGM_2)は、センサネットサーバ(SS)から取得した二次データの一つである社内の任意の従業員間のどちらか一方が活性状態の対面を示す対面活動マトリクス(一方向)(ASMM2)と、社内の任意の従業員と会議で同席した社外の来訪者との対面活動を示す拡張マトリクス(EXMT)とを、アプリケーションサーバ(AS)で結合したものである。
図中破線で示す拡張マトリクス(EXMT)は、アプリケーションサーバ(AS)で社内の任意の従業員と社外の来訪者をそれぞれの軸に加えたマトリクスである。
図30Bに示した会議対面活動テーブル(DSKM2)を会議補正値で補正した値に従い、社内の従業員と社外の来訪者との一方が活性状態であった時間をコミュニケーション量として、アプリケーションサーバ(AS)が拡張マトリクス(EXMT)内の該当セルに格納していく。図37に示す業務対面活動マトリクス(ASGM)では、要素(KM2_8)に示すように、X社の山口さんが活動状態であり、社内の山田さんが非活動状態であった時間が2分であったことを示している。また、要素(KM8_2)に示すように、X社の山口さんが非活動状態であり、社内の山田さんが活動状態であった時間が21分であったことを示している。
なお、センサ端末非装着の来訪者と装着者、または非装着の来訪者同士の活動状態であった時間は、次のように算出する。として算出する。
(1)センサ端末の装着者同士については、加速度センサの測定値から活動の双方向性、片方向性を計算する(図33A、図33B参照)。
(2)センサ装着、未装着に関わらず、レーザ距離センサ(RS)での頭部の移動量によって、活動の双方向性、片方向性を判定する(図33A、図33B参照)。
これら2通りの計算方法のうち、図36、図37に記載の実線部分(対面活動マトリクス(ASMM))は上記の(1)の結果を使用し、その他の拡張部分(拡張マトリクス(EXMT)については、)については、(2)の結果を使用することによって、特に複雑な処理計算をすることなく、結果を得ることが可能となる。
なお、センサ端末非装着の来訪者と装着者、または非装着の来訪者同士の活動状態であった時間は、次のように算出する。として算出する。
(1)センサ端末の装着者同士については、加速度センサの測定値から活動の双方向性、片方向性を計算する(図33A、図33B参照)。
(2)センサ装着、未装着に関わらず、レーザ距離センサ(RS)での頭部の移動量によって、活動の双方向性、片方向性を判定する(図33A、図33B参照)。
これら2通りの計算方法のうち、図36、図37に記載の実線部分(対面活動マトリクス(ASMM))は上記の(1)の結果を使用し、その他の拡張部分(拡張マトリクス(EXMT)については、)については、(2)の結果を使用することによって、特に複雑な処理計算をすることなく、結果を得ることが可能となる。
<業務対面活動マトリクスから生成したネットワーク図>
上記では、人と人とのコミュニケーションを各々の活性状態に応じてN×N行列で表した業務対面活動マトリクス(ASGM)について説明した。業務対面活動マトリクス(ASGM)の情報を視覚的にわかりやすく表現するために、対面の発生した人同士を線で結ぶネットワーク図をアプリケーションサーバ(AS)で生成する。アプリケーションサーバ(AS)で生成したネットワーク図を画像データとして保存しておくことにより、クライアント(CL)でユーザに提示するコンテンツの一つとなる。
上記では、人と人とのコミュニケーションを各々の活性状態に応じてN×N行列で表した業務対面活動マトリクス(ASGM)について説明した。業務対面活動マトリクス(ASGM)の情報を視覚的にわかりやすく表現するために、対面の発生した人同士を線で結ぶネットワーク図をアプリケーションサーバ(AS)で生成する。アプリケーションサーバ(AS)で生成したネットワーク図を画像データとして保存しておくことにより、クライアント(CL)でユーザに提示するコンテンツの一つとなる。
アプリケーションサーバ(AS)では、図36に示した双方活性(ASGM_1)と、図37に示した一方活性(ASGM_2)の両方の業務対面活動マトリクスを利用し、業務対面活動マトリクスの軸を構成するメンバー(従業員及び来訪者)の互いのコミュニケーション状態を、ノード間を結ぶ線で表す。
図38Aではアプリケーションサーバ(AS)が、メンバーとして山田さんと田中さんを抽出した例で説明する。
アプリケーションサーバ(AS)は、山田さんと田中さんの対面時間について、総対面時間に対する双方活性状態の対面時間の割合(または比率)を図36に示した双方活性の業務対面活動マトリクス(ASGM_1)から算出する。なお、山田さんと田中さんの総対面時間は、図34A、図34Bに示したセンサ端末(TR)のセンシングデータから求めることができる。
また、アプリケーションサーバ(AS)は、山田さんと田中さんの対面時間について、総対面時間に対する一方のみが活性状態の対面時間の割合を図37に示した一方活性の業務対面活動マトリクス(ASGM_2)から算出する。以上により、図38Aで示すように、双方活性の対面時間の割合が67の%、田中さんのみが活性状態の対面時間の割合が27%、山田さんのみが活性状態の対面時間の割合が6%となる例を示す。
次に、田中さんと山田さんのノード間を線で結ぶ際に、矢印を利用する。また、対面状態の人物の活性状態と非活性状態とを、実線と点線を用いて区別する。図示の例では、活性状を、実線で示し、非活性状態を点線で示す。
田中さんが活性状態の時間は、田中さんのみが活性状態の時間(27%)+双方活性の時間(67%)であり、矢印の94%を実線で示す。残りの6%は点線で示す(「図中山田のみ活性」の部分)。
また、山田さんの活性時間は、山田さんのみが活性状態の時間(6%)+双方活性の時間(67%)であり、矢印の73%を実線で示し、残りの27%を点線で示す。これにより、双方活性の時間、一方活性の時間をそれぞれ実線と点線の差異から容易に把握することが出来る。
上記では、実線と点線で活性状態と非活性状態の差異を表現する方法について述べたが、色を変えた線で表現してもよい。
また、ノードAとノードBについて、双方活性が100%の場合は、図38Bで示すように、実線で両側の矢印をノードA、Bに接続する。
一方活性が100%の場合は、図38Cまたは図38Dで示すように、活性状態の人のノードから非活性状態の人のノードへ実線で矢印を接続する。
<対面活動マトリクスから生成した社内ネットワーク図の例>
図39A〜図39Cは、対面活動マトリクス(ASGM)からアプリケーションサーバ(AS)が生成する社内ネットワーク図の一例を示す。
図39A〜図39Cは、対面活動マトリクス(ASGM)からアプリケーションサーバ(AS)が生成する社内ネットワーク図の一例を示す。
図39Aに示す社内ネットワーク図(ASNF)は、センサネットサーバ(SS)から取得した二次データの一つである社内の任意の従業員間の対面時間を示す対面活動マトリクスを基に生成したネットワーク図である。
ここで示しているのは、対面時間に応じて、線幅を変更した例である。すなわち、対面時間が増大するにつれて、線幅を太くするものである。
図39Bに示す社内活動ネットワーク図1(ASAN1)は、上記図38A〜図38Dに従って、双方活性と一方活性とを実線と点線で区別し、センサネットサーバ(SS)から取得した二次データの一つである組織内の任意の従業員間での、所定の期間内の互いの活性度に対応する対面時間の割合を示した対面活動マトリクス(ASMM1)、(ASMM2)をもとに生成した社内ネットワーク図1である。
図39Cに示す社内活動ネットワーク図2(ASAN2)は、上記図39Aと図39Bを組み合わせたもので、双方活性と一方活性とを実線と点線で区別し、対面時間に応じて、線幅を変更した例である。センサネットサーバ(SS)から取得した二次データの一つである組織内の任意の従業員間の所定の期間内の互いの活性度に対応する対面時間の割合を実線と点線で区別し、双方活性と一方活性を矢印によって区別した。
これにより、対面時に、双方が積極的に活動していたか、または一方のみが積極的であったか、個人個人の関係性を把握することが出来る。また、社内活動ネットワーク図2(ASAN2)は、対面時間に応じて線幅を変更した例である。
また、アプリケーションサーバ(AS)は、図39A〜図39Cの少なくともひとつを画像データとして生成しておき、クライアント(CL)から要求を受け付けたときに、社内活動ネットワーク図を提供することができる。
<業務対面活動マトリクスから生成した、業務ネットワーク図の例>
図40A〜図40Cに示す業務ネットワーク図(ASGN)は、図39A〜図39Cに示した社内ネットワーク(ASNF)に、会議データから得られる情報を付加したものであり、対面時間に基づき線幅を変更して表したものである。上記図39A〜図39Cで示した社内ネットワーク図に、社外の来訪者の情報をアプリケーションサーバ(AS)で付加したものである。社内の従業員のノードと、社外来訪者のノードの形状を変えて表示することで、社内と社外の人の区別が視覚的にわかりやすくなる。
図40A〜図40Cに示す業務ネットワーク図(ASGN)は、図39A〜図39Cに示した社内ネットワーク(ASNF)に、会議データから得られる情報を付加したものであり、対面時間に基づき線幅を変更して表したものである。上記図39A〜図39Cで示した社内ネットワーク図に、社外の来訪者の情報をアプリケーションサーバ(AS)で付加したものである。社内の従業員のノードと、社外来訪者のノードの形状を変えて表示することで、社内と社外の人の区別が視覚的にわかりやすくなる。
<閲覧者判定(CSCVD)のフローチャート>
図41に、クライアント(CL)で行われる閲覧者判定(CLCVD)のフローチャートを示す。閲覧者判定(CLCVD)の処理は、閲覧者検出器(CLVD)が起動している間は常時行われる処理である。
図41に、クライアント(CL)で行われる閲覧者判定(CLCVD)のフローチャートを示す。閲覧者判定(CLCVD)の処理は、閲覧者検出器(CLVD)が起動している間は常時行われる処理である。
処理の開始(CVDS)後、クライアント(CL)は、閲覧者検出器(CLVD)から受信した赤外線データを取り込み(CVD1)、赤外線データに含まれるIDについて、端末IDリストを照会する。赤外線データに含まれるIDが端末IDリスト(CLID)に格納されている有効な端末IDではない場合には、当該データをノイズと判断して除去する(CVD2)。
そして、一定時間、例えば1秒間や5秒間ごとに区切って端末IDを受信した回数をカウントする。クライアント(CL)は、端末IDを受信した回数があらかじめ指定した閾値以上か否かを判定する(CVD3)。端末IDを受信した回数が閾値以上かであれば、クライアント(CL)は、受信した端末IDを閲覧者と見なす(CVD42)。一方、そうでない場合には、端末IDは閲覧者とはみなさない(CVD41)。これは、一瞬通りすがっただけのユーザ(US)を閲覧者に含まないようにする処置である。このようにして、クライアント(CL)は、所定の時間の中で閲覧者であるとみなしたユーザ(US)の端末IDのリスト(閲覧者IDリスト)を生成する(CVD5)。クライアント(CL)は、生成した閲覧者IDリストをアプリケーションサーバ(AS)に送り、リスト内の端末IDのそれぞれに対応する氏名を取得する(CVD6)。すなわち、閲覧者の氏名をアプリケーションサーバ(AS)から取得する。以上の流れを、閲覧者判定(CLCVD)プログラムが手動またはタイマによって終了されるまで繰り送信する。
<アクセス制御規定(ASAC)>
図42に、アプリケーションサーバ(AS)の記憶部(ASME)に記録される、アクセス制御規定(ASAC)ファイル内のデータ構造の一例を示す。アクセス制御規定(ASAC)ファイルは、アプリケーションサーバ(AS)における基本コンテンツ生成(ASCBC)時に合わせて出力されるものであり、対応する基本コンテンツファイル(ASBF)にアクセスできる条件が格納されているものである。例えば、ある部署に関するファイルであれば、閲覧者の中に当該部署の従業員が少なくとも一人含まれている場合には閲覧可能である、というようにアクセス条件が規定される。
図42に、アプリケーションサーバ(AS)の記憶部(ASME)に記録される、アクセス制御規定(ASAC)ファイル内のデータ構造の一例を示す。アクセス制御規定(ASAC)ファイルは、アプリケーションサーバ(AS)における基本コンテンツ生成(ASCBC)時に合わせて出力されるものであり、対応する基本コンテンツファイル(ASBF)にアクセスできる条件が格納されているものである。例えば、ある部署に関するファイルであれば、閲覧者の中に当該部署の従業員が少なくとも一人含まれている場合には閲覧可能である、というようにアクセス条件が規定される。
アクセス制御規定(ASAC)では、基本コンテンツファイルのファイルID(ASAC01)、ファイルの種類(ASAC02)、アクセス条件(ASAC03)を対応付けて格納される。
ファイル種類(ASAC02)は、コンテンツの種類を示すものである。クライアント(CL)のディスプレイ(CLOD)に表示されるコンテンツ切替ボタン(OD_C)においてボタンを表示する際の見出し、分類に用いられる。
アクセス条件(ASAC03)は、対応するファイルを表示するのに必要な閲覧者の端末IDを論理式で示したものである。
<ネットワーク図表示時の画面例>
図42に、クライアント(CL)のディスプレイ(CLOD)に表示される画面の一例を示す。クライアント(CL)がディスプレイ(CLOD)に表示するコンテンツ情報としては、社内組織のネットワーク図を採用した一例を示す。クライアント(CL)のディスプレイ(CLOD)に表示された画面(OD)の、コンテンツ表示エリア(OD_B)に、アプリケーションサーバ(AS)から受け取ったネットワーク図の画像を表示する。また、閲覧者選択ボタン(OD_A)には、現在、閲覧者として検出されているユーザの氏名が表示されている。
図42に、クライアント(CL)のディスプレイ(CLOD)に表示される画面の一例を示す。クライアント(CL)がディスプレイ(CLOD)に表示するコンテンツ情報としては、社内組織のネットワーク図を採用した一例を示す。クライアント(CL)のディスプレイ(CLOD)に表示された画面(OD)の、コンテンツ表示エリア(OD_B)に、アプリケーションサーバ(AS)から受け取ったネットワーク図の画像を表示する。また、閲覧者選択ボタン(OD_A)には、現在、閲覧者として検出されているユーザの氏名が表示されている。
以上のように、本発明によれば、センサ端末(TR)が計測したセンシングデータをデータ処理サーバ(DS)やアプリケーションサーバ(AS)で解析し、センサ端末(TR)を装着した人間同士のコミュニケーション量(対面時間)及び状況(活動量と活性度)を把握できるだけでなく、センサ端末(TR)を装着していない社外の人とのコミュニケーションの量(対面時間)及び状況(活動量と活性度)を把握することも可能となる。
また、上記実施例1では、会議の参加者ごと、各時刻ごとの頭部移動量から会議中の活性状態を活性(活性度=1)または不活性(活性度=0)の何れであるかを、予め設定した閾値を基準に判定する例を図27に示したが、これに限定されるものではない。例えば、複数の閾値を設けて活性度を複数の段階に分けるようにしても良い。
また、上記実施例1では、計測PC(MP)は、距離センサ(RS)で会議の参加者の位置を特定して座席配置図を生成する。そして、計測PC(MP)は、センサ端末装着者検出器(ISD)で検出したセンサ端末(TR)の端末IDから、座席に対応する参加者の氏名を特定する。さらに、計測PC(MP)では、参加者が存在する座席に端末IDが存在しない場合には、センサ端末(TR)を装着していない来訪者が存在すると推定して、氏名などの情報を入力するよう促すことができる。これにより、センサ端末(TR)を装着した人物と、センサ端末(TR)を装着していない人物の対面データを生成し、センサ端末(TR)を装着していない社外の人(来訪者)とのコミュニケーションの量(対面時間)及び状況(活動量と活性度)を容易に把握することができる。
また、上記実施例では、センサネットサーバ(SS)、データ処理サーバ(DS)、アプリケーションサーバ(AS)計測PC(MP)及びクライアント(CL)を主体として業務上対面データ生成システムを構成する例を示したが、センサネットサーバ(SS)、データ処理サーバ(DS)、アプリケーションサーバ(AS)計測PC(MP)及びクライアント(CL)を一つの計算機にまとめて業務上対面データ生成装置とすることができる。
なお、本発明において説明した計算機等の構成、処理部等は、それらの一部又は全部を、専用のハードウェアによって実現してもよい。
また、本実施例で例示した種々のソフトウェアは、電磁的、電子的及び光学式等の種々の記録媒体(例えば、非一時的な記憶媒体)に格納可能であり、インターネット等の通信網を通じて、コンピュータにダウンロード可能である。
また、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明をわかりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
Claims (12)
- プロセッサと記憶部を備えて、人物同士の物理的な対面に関するデータを生成する対面データ生成装置であって、
複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する通信部と、
所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第1の計測部と、
所定の位置に配置されて前記センサ端末と通信を行って当該センサ端末の位置を特定する第2の計測部と、
前記第1の計測部で特定した前記人物の位置と、前記第2の計測部で特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する対面データ生成部と、
を備え、
前記第2のセンサは、
前記人物までの距離を測定する距離センサで構成され、
前記第1の計測部は、
前記距離センサから取得したデータと、前記距離センサの位置及び方向に基づいて、前記人物の実際の配置に基づく座席見取り図を生成することを特徴とする対面データ生成装置。 - プロセッサと記憶部を備えて、人物同士の物理的な対面に関するデータを生成する対面データ生成装置であって、
複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する通信部と、
所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第1の計測部と、
所定の位置に配置されて前記センサ端末と通信を行って当該センサ端末の位置を特定する第2の計測部と、
前記第1の計測部で特定した前記人物の位置と、前記第2の計測部で特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する対面データ生成部と、
を備え、
前記第2の計測部は、
前記センサ端末と通信を行うセンサ端末検出器を有し、前記センサ端末検出器が検出したセンサ端末から取得した端末IDと、前記センサ端末検出器の位置及び方向に基づき、前記センサ端末を装着した人物の位置を特定することを特徴とする対面データ生成装置。 - 請求項1に記載の対面データ生成装置であって、
情報を入力する入力部をさらに備え、
前記入力部は、
前記座席見取り図上の人物の位置を選択し、当該人物の情報を入力することを特徴とする対面データ生成装置。 - 請求項1に記載の対面データ生成装置であって、
前記第1の計測部は、
前記距離センサのデータから前記人物の頭部の移動量を算出し、当該移動量から当該人物の活性度を算出することを特徴とする対面データ生成装置。 - 請求項4に記載の対面データ生成装置であって、
前記対面データに基づいて前記人物同士の関係を示すネットワーク図を生成するネットワーク図生成部をさらに備え、
前記ネットワーク図生成部は、
前記人物同士を表すノードとノードを接続する線に、活性度に応じた矢印を付与することを特徴とする対面データ生成装置。 - 請求項1に記載の対面データ生成装置であって、
前記座席見取り図は、
前記センサ端末を装着した人物の実際の配置と、前記センサ端末を非装着の人物の実際の配置とを含むことを特徴とする対面データ生成装置。 - プロセッサと記憶部を備えた計算機で、人物同士の物理的な対面に関するデータを生成する対面データの生成方法であって、
前記計算機が、複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する第1のステップと、
前記計算機が、所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第2のステップと、
前記計算機が、前記センサ端末と通信を行った結果に基づいて当該センサ端末の位置を特定する第3のステップと、
前記計算機が、前記特定した前記人物の位置と、前記特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する第4のステップと、
を含み、
前記第2のセンサは、
前記人物までの距離を測定する距離センサで構成され、
前記第2のステップは、
前記距離センサから取得したデータと、前記距離センサの位置及び方向に基づいて、前記人物の実際の配置に基づく座席見取り図を生成することを特徴とする対面データの生成方法。 - プロセッサと記憶部を備えた計算機で、人物同士の物理的な対面に関するデータを生成する対面データの生成方法であって、
前記計算機が、複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する第1のステップと、
前記計算機が、所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第2のステップと、
前記計算機が、前記センサ端末と通信を行った結果に基づいて当該センサ端末の位置を特定する第3のステップと、
前記計算機が、前記特定した前記人物の位置と、前記特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する第4のステップと、
を含み、
前記第3のステップは、
前記計算機が、前記センサ端末と通信を行うセンサ端末検出器が検出したセンサ端末の端末IDを受信し、前記センサ端末検出器の位置及び方向に基づき、前記センサ端末を装着した人物の位置を特定することを特徴とする対面データの生成方法。 - 請求項7に記載の対面データの生成方法であって、
前記計算機は、情報を入力する入力部をさらに備え、
前記座席見取り図上の人物の位置を選択し、当該人物の情報を前記入力部で入力する第5のステップをさらに含むことを特徴とする対面データの生成方法。 - 請求項7に記載の対面データの生成方法であって、
前記第2のステップは、
前記距離センサのデータから前記人物の頭部の移動量を算出し、当該移動量から当該人物の活性度を算出することを特徴とする対面データの生成方法。 - 請求項10に記載の対面データの生成方法であって、
前記対面データに基づいて前記人物同士の関係を示すネットワーク図を生成する第6のステップをさらに含み、
前記第6のステップは、
前記人物同士を表すノードとノードを接続する線に、前記活性度に応じた矢印を付与することを特徴とする対面データの生成方法。 - 請求項7に記載の対面データの生成方法であって、
前記座席見取り図は、
前記センサ端末を装着した人物の実際の配置と、前記センサ端末を非装着の人物の実際の配置とを含むことを特徴とする対面データの生成方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2012/072623 WO2014038014A1 (ja) | 2012-09-05 | 2012-09-05 | 対面データ生成装置及び対面データの生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5947902B2 true JP5947902B2 (ja) | 2016-07-06 |
JPWO2014038014A1 JPWO2014038014A1 (ja) | 2016-08-08 |
Family
ID=50236666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014534081A Expired - Fee Related JP5947902B2 (ja) | 2012-09-05 | 2012-09-05 | 対面データ生成装置及び対面データの生成方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5947902B2 (ja) |
WO (1) | WO2014038014A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7107732B2 (ja) * | 2018-04-24 | 2022-07-27 | 清水建設株式会社 | 人物関係抽出システム |
CN109634412A (zh) * | 2018-12-03 | 2019-04-16 | 小黄鹿(杭州)科技有限公司 | 一种具有多种交互方式的娱乐终端 |
CN109743155B (zh) * | 2019-02-28 | 2021-09-24 | 中国人民解放军国防科技大学 | 一种基于天线选择的差分混沌键控的物理层安全传输方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007037078A (ja) * | 2005-06-21 | 2007-02-08 | Ikuaki Cho | 実寸表示装置および電子配布装置 |
JP2008210363A (ja) * | 2007-01-31 | 2008-09-11 | Hitachi Ltd | ビジネス顕微鏡システム |
JP2008262046A (ja) * | 2007-04-12 | 2008-10-30 | Hitachi Ltd | 会議可視化システム、会議可視化方法、及び集計処理サーバ |
JP2009303083A (ja) * | 2008-06-16 | 2009-12-24 | Nippon Telegr & Teleph Corp <Ntt> | 会議支援システム及び会議支援方法 |
JP2010217939A (ja) * | 2009-03-13 | 2010-09-30 | Hitachi Ltd | 知識創造行動分析システム、及び、処理装置 |
JP2011166694A (ja) * | 2010-02-15 | 2011-08-25 | Sharp Corp | 情報処理装置、端末装置、情報処理システム、情報処理装置の制御方法、制御プログラム、及び該プログラムを記録したコンピュータ読み取り可能な記録媒体 |
-
2012
- 2012-09-05 WO PCT/JP2012/072623 patent/WO2014038014A1/ja active Application Filing
- 2012-09-05 JP JP2014534081A patent/JP5947902B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007037078A (ja) * | 2005-06-21 | 2007-02-08 | Ikuaki Cho | 実寸表示装置および電子配布装置 |
JP2008210363A (ja) * | 2007-01-31 | 2008-09-11 | Hitachi Ltd | ビジネス顕微鏡システム |
JP2008262046A (ja) * | 2007-04-12 | 2008-10-30 | Hitachi Ltd | 会議可視化システム、会議可視化方法、及び集計処理サーバ |
JP2009303083A (ja) * | 2008-06-16 | 2009-12-24 | Nippon Telegr & Teleph Corp <Ntt> | 会議支援システム及び会議支援方法 |
JP2010217939A (ja) * | 2009-03-13 | 2010-09-30 | Hitachi Ltd | 知識創造行動分析システム、及び、処理装置 |
JP2011166694A (ja) * | 2010-02-15 | 2011-08-25 | Sharp Corp | 情報処理装置、端末装置、情報処理システム、情報処理装置の制御方法、制御プログラム、及び該プログラムを記録したコンピュータ読み取り可能な記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2014038014A1 (ja) | 2016-08-08 |
WO2014038014A1 (ja) | 2014-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5672934B2 (ja) | センシングデータ表示装置および表示システム | |
US9111242B2 (en) | Event data processing apparatus | |
JP5219378B2 (ja) | インタラクションデータ表示装置、処理装置及び表示方法 | |
JP2008287690A (ja) | グループ可視化システム及びセンサネットワークシステム | |
US11914656B1 (en) | Systems and methods for generating hypermedia-based graphical user interfaces for mobile devices | |
JP5400895B2 (ja) | 組織行動分析装置及び組織行動分析システム | |
Spataru et al. | How to monitor people ‘smartly’to help reducing energy consumption in buildings? | |
JP6852293B2 (ja) | 画像処理システム、情報処理装置、情報端末、プログラム | |
JP7243413B2 (ja) | 見守りシステム、通知装置および通知方法 | |
WO2016125260A1 (ja) | 心理状態計測システム | |
US10264404B2 (en) | Information processing apparatus, system, and method | |
JP5947902B2 (ja) | 対面データ生成装置及び対面データの生成方法 | |
US20140372907A1 (en) | Gesture-based construction project collaboration system | |
JP2006252207A (ja) | 行動履歴管理システム、行動履歴管理装置、表示アプリケーションプログラムおよびスケジュール管理プログラム | |
JP2010198261A (ja) | 組織連携表示システム及び処理装置 | |
JP5372557B2 (ja) | 知識創造行動分析システム、及び、処理装置 | |
Sansano-Sansano et al. | Multimodal Sensor Data Integration for Indoor Positioning in Ambient‐Assisted Living Environments | |
JP2013008149A (ja) | 業務上対面データ生成装置およびシステム | |
JP2018109893A (ja) | 情報処理方法、装置、及びプログラム | |
JP2007219787A (ja) | 業務スタイル分析装置および方法 | |
CN115063752A (zh) | 一种基于uwb定位的视频追踪预警方法及系统 | |
Mo et al. | A framework of fine-grained mobile sensing data collection and behavior analysis in an energy-configurable way | |
JP5025800B2 (ja) | グループ可視化システム及びセンサネットワークシステム | |
US20180225888A1 (en) | Systems and methods for employee time recording | |
Niu | Achieving Healthy and Quality Life of One-person Households Using IoT and Machine Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160603 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5947902 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |