JPWO2014038014A1 - Face-to-face data generation apparatus and face-to-face data generation method - Google Patents

Face-to-face data generation apparatus and face-to-face data generation method Download PDF

Info

Publication number
JPWO2014038014A1
JPWO2014038014A1 JP2014534081A JP2014534081A JPWO2014038014A1 JP WO2014038014 A1 JPWO2014038014 A1 JP WO2014038014A1 JP 2014534081 A JP2014534081 A JP 2014534081A JP 2014534081 A JP2014534081 A JP 2014534081A JP WO2014038014 A1 JPWO2014038014 A1 JP WO2014038014A1
Authority
JP
Japan
Prior art keywords
face
data
sensor
person
sensor terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014534081A
Other languages
Japanese (ja)
Other versions
JP5947902B2 (en
Inventor
紅山 史子
史子 紅山
森脇 紀彦
紀彦 森脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of JP5947902B2 publication Critical patent/JP5947902B2/en
Publication of JPWO2014038014A1 publication Critical patent/JPWO2014038014A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

プロセッサと記憶部を備えて、人物同士の物理的な対面に関するデータを生成する対面データ生成装置であって、複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する通信部と、所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第1の計測部と、所定の位置に配置されて前記センサ端末と通信を行って当該センサ端末の位置を特定する第2の計測部と、前記第1の計測部で特定した前記人物の位置と、前記第2の計測部で特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する対面データ生成部と、を備える。A face-to-face data generation apparatus that includes a processor and a storage unit and generates data related to physical face-to-face contact between persons, and the physical quantity detected by a first sensor of a sensor terminal attached to each of a plurality of persons A communication unit that receives sensing data to be received and a second sensor that is disposed at a predetermined position and that measures the position of the person, and that determines the position of the person based on the received data. A first measurement unit, a second measurement unit arranged at a predetermined position and communicating with the sensor terminal to identify the position of the sensor terminal, and the position of the person identified by the first measurement unit A face data generation unit that combines the position of the sensor terminal specified by the second measurement unit and generates the face data of the person based on the physical quantity of the sensing data.

Description

本発明は、ウェアラブルセンサ端末によって取得した人物同士の対面データと、室内に設置した距離センサによって取得した人物の活動データとを用いて、業務におけるコミュニケーションを活動状況に応じて数値化し、数値化したデータを可視化する計算機システムに関する。特に、業務上で対面する人物の状況を把握し、人物同士の関係を抽出する業務システムに関する。   The present invention quantifies communication in business according to the activity situation using person-to-person data acquired by a wearable sensor terminal and person activity data acquired by a distance sensor installed indoors. The present invention relates to a computer system for visualizing data. In particular, the present invention relates to a business system that grasps the situation of persons facing each other in business and extracts the relationship between the persons.

企業にとって、人は重要な資本であり、人の行動如何で企業の状態が大きく変化する。業務を円滑に遂行するために必要な人の行動として、コミュニケーションがある。例えば、チームの目的や方向性の確認、状況認識や問題意識の共有、ノウハウや知識の交流、仕事のアイディアや問題解決のためのヒントを得る、など、さまざまな場面においてコミュニケーションは非常に重要な役割を示す。コミュニケーションを客観的に把握し、コミュニケーションの実態を知ることで、組織の特徴や問題点を知り、業務の改善や効率化、組織の活性化に役立てることが出来るようになる。   For companies, people are important capital, and the state of the company changes greatly depending on the behavior of people. Communication is one of the actions necessary for the smooth execution of business. Communication is very important in various situations, such as checking the purpose and direction of a team, sharing situational awareness and problem awareness, exchanging know-how and knowledge, and getting ideas for work and problem solving. Indicates role. By grasping communication objectively and knowing the actual state of communication, it becomes possible to know the characteristics and problems of the organization, and to improve the efficiency and efficiency of business, and to revitalize the organization.

業務におけるコミュニケーションの実態を知る手段の一つとして、人と人との関係を視覚的にわかりやすく提示する、ネットワーク相関図がある。ネットワーク相関図は、人を一つのノードとし、何らかのインタラクション(相関関係)の生じたノード同士を、インタラクションの強度に応じて線で結ぶものである。   One way to know the actual state of communication in business is a network correlation diagram that presents the relationship between people visually and clearly. In the network correlation diagram, a person is regarded as one node, and nodes in which some kind of interaction (correlation) occurs are connected by a line according to the strength of the interaction.

業務における人の相関図を生成するものとして、従来、電子メールや電子文書ファイリングシステム、電話の交信記録ログから、組織のメンバ間のネットワーク図を生成する技術が知られている(例えば、特許文献1、特許文献2)。   2. Description of the Related Art Conventionally, a technique for generating a network diagram between members of an organization from an email, an electronic document filing system, and a telephone communication record log is known as a method for generating a correlation diagram of people in business (for example, patent literature) 1, Patent Document 2).

これにより、社内、社外を含めたオンライン上のコミュニケーション状況を知ることができるが、Face to Faceの物理的な対面を知ることはできない。業務における人の物理的対面を取得する技術として、人が装着するセンサ端末によって取得したデータから、装着者同士の関係を示す値を算出する技術が知られている(例えば、特許文献3)。   This makes it possible to know the online communication status inside and outside the company, but not the face-to-face physical meeting. As a technique for acquiring a person's physical meeting in business, a technique for calculating a value indicating a relationship between wearers from data acquired by a sensor terminal worn by the person is known (for example, Patent Document 3).

また一方で、近年の距離センサの低価格化により気軽に利用できるようになり、センサで取得したデータから得られる対象物の三次元形状や動きを利用したサービスの開発が進んできている。例えば、ジェスチャによってPCやテレビの操作を行ったり、身体の動きに応じて表示される映像を変更したりする、などといった利用方法が提案されている。   On the other hand, it has become easy to use due to the recent price reduction of distance sensors, and the development of services using the three-dimensional shape and movement of the object obtained from the data acquired by the sensors is progressing. For example, a usage method such as operating a PC or a television by a gesture or changing an image displayed in accordance with a body movement has been proposed.

特開2007−249307JP2007-249307 特開2009−59075JP 2009-59075 A 特開2008−210363JP2008-210363

上記従来例では、センサを装着した者同士のコミュニケーション状況を知ることができる。しかしながら、センサを装着させることが困難である社外からの来客とのコミュニケーション状況を知ることが出来なかった。   In the above conventional example, it is possible to know the communication status between persons wearing the sensors. However, we were unable to know the status of communication with visitors from outside the company, who are difficult to put on sensors.

業務の円滑な遂行や業務効率の改善に必要な情報の一つとして、業務における社内及び社外を含めた物理的な人の対面状況を、時間だけでなく質(活発さ)も含めて定量的に把握することが有効である。上記従来例及び各従来例の組み合わせからは、社内及び社外の人物間の対面状況を把握できないという問題があった。   As one of the information necessary for smooth execution of business and improvement of business efficiency, physical face-to-face situation including internal and external business is quantitatively analyzed not only in time but also in quality (activity). It is effective to grasp. From the conventional example and the combination of the conventional examples, there is a problem that the face-to-face situation between persons inside and outside the company cannot be grasped.

本発明は、プロセッサと記憶部を備えて、人物同士の物理的な対面に関するデータを生成する対面データ生成装置であって、複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する通信部と、所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第1の計測部と、所定の位置に配置されて前記センサ端末と通信を行って当該センサ端末の位置を特定する第2の計測部と、前記第1の計測部で特定した前記人物の位置と、前記第2の計測部で特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する対面データ生成部と、を備える。   The present invention is a face-to-face data generation apparatus that includes a processor and a storage unit and generates data related to physical face-to-face contact between persons, and is detected by a first sensor of a sensor terminal attached to each of a plurality of persons. A communication unit that receives sensing data indicating the measured physical quantity and a second sensor that is arranged at a predetermined position and measures the position of the person, and the position of the person based on the received data A first measurement unit that identifies the first measurement unit, a second measurement unit that is disposed at a predetermined position and communicates with the sensor terminal to identify the position of the sensor terminal, and the first measurement unit identifies the position A face data generation unit that combines the position of the person and the position of the sensor terminal specified by the second measurement unit, and generates the face data of the person based on the physical quantity of the sensing data; That.

本発明によれば、センサ端末のセンシングデータを解析することにより、センサ端末を装着した人物同士のコミュニケーションの状況を把握できるだけでなく、センサ端末を装着していない人物とのコミュニケーションの状況を把握することも可能となる。   According to the present invention, by analyzing the sensing data of the sensor terminal, not only can the status of communication between persons wearing the sensor terminal be understood, but also the status of communication with a person not wearing the sensor terminal can be grasped. It is also possible.

本発明の実施例を示し、業務上対面データ生成システムの構成と利用状態を示すブロック図である。It is a block diagram which shows the Example of this invention and shows the structure and utilization state of a business facing data generation system. 本発明の実施例を示し、クライアントの構成の一例を示すブロック図である。It is a block diagram which shows the Example of this invention and shows an example of a structure of a client. 本発明の実施例を示し、アプリケーションサーバの構成の一例を示すブロック図である。It is a block diagram which shows the Example of this invention and shows an example of a structure of an application server. 本発明の実施例を示し、データ処理サーバの構成の一例を示すブロック図である。It is a block diagram which shows the Example of this invention and shows an example of a structure of a data processing server. 本発明の実施例を示し、計測PCの構成の一例を示すブロック図である。It is a block diagram which shows the Example of this invention and shows an example of a structure of measurement PC. 本発明の実施例を示し、センサネットサーバの構成の一例を示すブロック図である。It is a block diagram which shows the Example of this invention and shows an example of a structure of a sensor network server. 本発明の実施例を示し、基地局の構成の一例を示すブロック図である。It is a block diagram which shows the Example of this invention and shows an example of a structure of a base station. 本発明の実施例を示し、端末の構成の一例を示すブロック図の前半部である。It is the first half part of the block diagram which shows the Example of this invention and shows an example of a structure of a terminal. 本発明の実施例を示し、端末の構成の一例を示すブロック図の後半部である。It is a second half part of the block diagram which shows the Example of this invention and shows an example of a structure of a terminal. 本発明の実施例を示し、社外者との会議の活動を記録する距離センサのデータを計測し、データ処理サーバで会議二次対面データ生成までの処理の一例を示すシーケンス図である。It is a sequence diagram which shows the Example of this invention, measures the data of the distance sensor which records the activity of the meeting with the outsider, and shows an example of a process until meeting secondary meeting data generation with a data processing server. 本発明の実施例を示し、センシングデータがセンサネットサーバに格納されるまでの処理の一例を示すシーケンス図である。It is a sequence diagram which shows an Example of this invention and shows an example of a process until sensing data is stored in a sensor network server. 本発明の実施例を示し、アプリケーションサーバで行われる基本コンテンツ生成処理の一例を示すシーケンス図である。It is a sequence diagram which shows the Example of this invention and shows an example of the basic content production | generation process performed with an application server. 本発明の実施例を示し、クライアントで画面を表示する処理の一例を示すシーケンス図の前半部である。FIG. 10 is an example of the first half of a sequence diagram illustrating an example of processing for displaying a screen on a client according to an embodiment of this invention. 本発明の実施例を示し、クライアントで画面を表示する処理の一例を示すシーケンス図の後半部である。It is a second half part of a sequence diagram showing an example of the present invention and showing an example of processing for displaying a screen on a client. 本発明の実施例を示し、計測PCで行われる会議時の座席表生成処理の一例を示すフローチャートの前半部である。It is the first half of the flowchart which shows the Example of this invention and shows an example of the seating chart production | generation process at the time of the meeting performed by measurement PC. 本発明の実施例を示し、計測PCで行われる会議時の座席表生成処理の一例を示すフローチャートの後半部である。It is a second half part of the flowchart which shows the Example of this invention and shows an example of the seating chart production | generation process at the time of the meeting performed by measurement PC. 本発明の実施例を示し、会議基本データの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of meeting basic data. 本発明の実施例を示し、センシングデータから人物領域を抽出する処理の概念図である。It is a conceptual diagram of the process which shows the Example of this invention and extracts a person area | region from sensing data. 本発明の実施例を示し、センシングデータから人物領域中心を算出する処理の概念図である。It is a conceptual diagram of the process which shows the Example of this invention and calculates a person area center from sensing data. 本発明の実施例を示し、センシングデータから人物領域中心を算出する処理の概念図である。It is a conceptual diagram of the process which shows the Example of this invention and calculates a person area center from sensing data. 本発明の実施例を示し、センシングデータから人物領域中心を算出する処理の概念図である。It is a conceptual diagram of the process which shows the Example of this invention and calculates a person area center from sensing data. 本発明の実施例を示し、人物領域中心から座席表を生成する処理の概念図である。It is a conceptual diagram of the process which shows the Example of this invention and produces | generates a seating chart from the person area center. 本発明の実施例を示し、センシングデータに基づき算出した人物領域中心の座標を示す図の一例である。It is an example of the figure which shows the Example of this invention and shows the coordinate of the person area center calculated based on sensing data. 本発明の実施例を示し、センシングデータに基づき算出した座席表見取り図の一例である。It is an example of the seat plan sketch calculated based on sensing data, showing an example of the present invention. 本発明の実施例を示し、センサ装着者検出器の視野角(測定範囲)の一例を示す平面図である。It is a top view which shows the Example of this invention and shows an example of the viewing angle (measurement range) of a sensor wearer detector. 本発明の実施例を示し、センサ装着者検出器で測定した基本情報の一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the basic information measured with the sensor wearer detector. 本発明の実施例を示し、センサ装着者検出器の検出IDデータテーブルの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the detection ID data table of a sensor wearer detector. 本発明の実施例を示し、他のセンサ装着者検出器の検出IDデータテーブルの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the detection ID data table of another sensor wearer detector. 本発明の実施例を示し、センサ装着者検出器の検出ID受信回数を示す図の一例である。It is an example of the figure which shows the Example of this invention and shows the detection ID reception frequency of a sensor wearer detector. 本発明の実施例を示し、センサ装着者検出器の配置及び視野角と、座席表見取り図を重ね合わせたイメージである。It is an image which shows the Example of this invention and has superposed the arrangement | positioning and viewing angle of a sensor wearer detector, and a seating plan sketch. 本発明の実施例を示し、ユーザリストの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of a user list. 本発明の実施例を示し、座席配置図にデータを入力する画面の一例を示すイメージである。It is an image which shows the Example of this invention and shows an example of the screen which inputs data into a seating plan. 本発明の実施例を示し、座席配置図にデータを入力する画面の一例を示すイメージである。It is an image which shows the Example of this invention and shows an example of the screen which inputs data into a seating plan. 本発明の実施例を示し、座席配置図にデータを入力する画面の一例を示すイメージである。It is an image which shows the Example of this invention and shows an example of the screen which inputs data into a seating plan. 本発明の実施例を示し、本発明の実施例を示し、座席配置図にデータを入力する画面の一例を示すイメージである。It is an image which shows the Example of this invention, shows the Example of this invention, and shows an example of the screen which inputs data into a seating plan. 本発明の実施例を示し、会議参加者の座席表の一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the seating table of a conference participant. 本発明の実施例を示し、データ処理サーバで行われる会議活動量算出処理の一例を示すフローチャートである。It is a flowchart which shows the Example of this invention and shows an example of the conference activity amount calculation process performed with a data processing server. 本発明の実施例を示し、距離センサで計測したセンシングデータの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the sensing data measured with the distance sensor. 本発明の実施例を示し、会議中の時刻毎の人物頭部三次元座標値の一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the human head three-dimensional coordinate value for every time in a meeting. 本発明の実施例を示し、会議中の時刻毎の人物頭部移動量を示す図の一例である。It is an example of the figure which shows the Example of this invention and shows the person head movement amount for every time in a meeting. 本発明の実施例を示し、会議中の時刻毎の人物頭部移動量を示す図の一例である。It is an example of the figure which shows the Example of this invention and shows the person head movement amount for every time in a meeting. 本発明の実施例を示し、会議中の時刻毎の人物頭部移動量を示す表に人の椎別番号を対応づけた図である。It is the figure which showed the Example of this invention and matched the person's vertebral number with the table | surface which shows the human head movement amount for every time in a meeting. 本発明の実施例を示し、人物領域と座席表人物番号を対応づけた図である。It is the figure which showed the Example of this invention and matched the person area | region and the seating chart person number. 本発明の実施例を示し、会議中の時刻毎の人物の氏名と頭部移動量を対応づけた図である。It is the figure which shows the Example of this invention and matched the person's name and head movement amount for every time in a meeting. 本発明の実施例を示し、データ処理サーバで行われる会議対面二次データの生成処理の一例を示すフローチャートである。It is a flowchart which shows the Example of this invention and shows an example of the production | generation process of the meeting facing secondary data performed with a data processing server. 本発明の実施例を示し、会議中の時刻ごと、人ごとの活動を示す会議活動表の一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the meeting activity table | surface which shows the activity for every time and the person in a meeting. 本発明の実施例を示し、会議中の時刻ごと人ごとの活動を示す会議活動表の他の形態を示す図である。It is a figure which shows the Example of this invention and shows the other form of the meeting activity table | surface which shows the activity for every person for every time in a meeting. 本発明の実施例を示し、対面相手の活性度を考慮した状態の会議活動表のカウントの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the count of the meeting activity table of the state which considered the activity level of the other party. 本発明の実施例を示し、会議活動二次データである会議活動マトリクスの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the conference activity matrix which is conference activity secondary data. 本発明の実施例を示し、会議活動二次データである会議活動マトリクスの他の例を示す図である。It is a figure which shows the Example of this invention and shows the other example of the conference activity matrix which is conference activity secondary data. 本発明の実施例を示し、アプリケーションサーバで行われる業務対面活動マトリクス生成処理の一例を示すフローチャートである。It is a flowchart which shows the Example of this invention and shows an example of the business meeting activity matrix production | generation process performed with an application server. 本発明の実施例を示し、会議活動補正値を算出する例を示す図である。It is a figure which shows the Example of this invention and shows the example which calculates a meeting activity correction value. 本発明の実施例を示し、センサ端末で取得したデータに基づく双方向の対面活動マトリクスの例を示す図である。It is a figure which shows the Example of this invention and shows the example of the interactive meeting activity matrix based on the data acquired with the sensor terminal. 本発明の実施例を示し、センサ端末で取得したデータに基づく一方向の対面活動マトリクスの例を示す図である。It is a figure which shows the Example of this invention and shows the example of the one-way facing activity matrix based on the data acquired with the sensor terminal. 本発明の実施例を示し、センシングデータベースの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of a sensing database. 本発明の実施例を示し、センシングデータベースの一例を示す図である。It is a figure which shows the Example of this invention and shows an example of a sensing database. 本発明の実施例を示し、センシングデータベースを示す図の一例である。It is an example of the figure which shows the Example of this invention and shows a sensing database. 本発明の実施例を示し、センサ端末二次データと会議活動二次データに基づき生成した業務対面活動マトリクスの一例である。It is an example of the business meeting activity matrix which showed the Example of this invention and was produced | generated based on the sensor terminal secondary data and the conference activity secondary data. 本発明の実施例を示し、センサ端末二次データと会議活動二次データに基づき生成した業務対面活動マトリクスの一例である。It is an example of the business meeting activity matrix which showed the Example of this invention and was produced | generated based on the sensor terminal secondary data and the conference activity secondary data. 本発明の実施例を示し、ネットワーク図生成時のノード間表示の基本方針の一例を示す図である。It is a figure which shows the Example of this invention and shows an example of the basic policy of the display between nodes at the time of network figure production | generation. 本発明の実施例を示し、ネットワーク図生成時のノード間表示で人物AとBの双方向活性度が100%の例を示す図である。It is a figure which shows the Example of this invention and shows the example whose bidirectional | two-way activity of persons A and B is 100% by the display between nodes at the time of network diagram generation. 本発明の実施例を示し、ネットワーク図生成時のノード間表示で人物Aの活性度のみが100%の例を示す図である。It is a figure which shows the Example of this invention and shows the example which only the activity level of the person A is 100% by the display between nodes at the time of network diagram generation. 本発明の実施例を示し、ネットワーク図生成時のノード間表示で人物Bの活性度のみが100%の例を示す図である。It is a figure which shows the Example of this invention and shows the example which only the activity level of the person B is 100% by the display between nodes at the time of network diagram generation. 本発明の実施例を示し、対面活動マトリクスから生成した社内ネットワーク図の一例である。It is an example of the in-house network diagram which showed the Example of this invention and was produced | generated from the face-to-face activity matrix. 本発明の実施例を示し、対面活動マトリクスから生成した社内活動ネットワーク図の一例である。It is an example of the in-house activity network diagram which showed the Example of this invention and was produced | generated from the face-to-face activity matrix. 本発明の実施例を示し、対面活動マトリクスから生成した社内活動ネットワーク図の一例である。It is an example of the in-house activity network diagram which showed the Example of this invention and was produced | generated from the face-to-face activity matrix. 本発明の実施例を示し、業務対面活動マトリクスから生成した業務ネットワーク図の一例である。It is an example of the business network diagram which showed the Example of this invention and was produced | generated from the business meeting activity matrix. 本発明の実施例を示し、業務対面活動マトリクスから生成した業務活動ネットワーク図の一例である。It is an example of the business activity network diagram which showed the Example of this invention and was produced | generated from the business meeting activity matrix. 本発明の実施例を示し、業務対面活動マトリクスから生成した業務活動ネットワーク図の一例である。It is an example of the business activity network diagram which showed the Example of this invention and was produced | generated from the business meeting activity matrix. 本発明の実施例を示し、閲覧者判定の処理を示すフローチャートである。It is a flowchart which shows the Example of this invention and shows a browser determination process. 本発明の実施例を示し、本発明の実施例を示し、アクセス制御規定を示す図の一例である。FIG. 2 is an example of a diagram illustrating an embodiment of the present invention, illustrating an embodiment of the present invention, and illustrating an access control rule; 本発明の実施例を示し、クライアントで表示する画面を示す図一例である。It is an example of the figure which shows the Example which shows the Example of this invention and displays on a client.

以下、本発明の一実施形態について添付図面を用いて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

本発明は、業務で人と人が対面したことを示す対面データを生成する業務上対面データ生成システムであり、複数のセンシングデータを用いて、社内だけでなく社外の人との対面状況を、対面時の活動量と共に表す業務対面活動マトリクス及び可視化データを生成することを特徴とする。以下、図面を用いて説明を行う。なお、業務上対面データ生成システムは、センサーと計算機及びネットワークを含む計算機システムである。   The present invention is a business face-to-face data generation system that generates face-to-face data indicating that a person has faced the person in the work, and using a plurality of sensing data, the face-to-face situation with not only inside the company but also outside the person, A business face-to-face activity matrix and visualization data are generated together with the amount of activity at the time of face-to-face. Hereinafter, description will be made with reference to the drawings. Note that the business facing data generation system is a computer system including a sensor, a computer, and a network.

最初に、本発明の第1の実施例について図面を参照して説明する。実施例1においては、社内の従業員(社員)同士の対面データと、社外者との対面データとを結合する。そして、業務に関する社内外を含めた人物同士の対面データを生成する。対面データの生成にあたり、社内の人物同士の対面データと同一の単位系において、社外者と社内(または社外)の人物の対面データからコミュニケーション量(対面時間)を算出する。さらに、本実施例1では対面時の人物の活動量も含めて算出することを特徴とする。   First, a first embodiment of the present invention will be described with reference to the drawings. In the first embodiment, face-to-face data between internal employees (employees) and face-to-face data with outsiders are combined. Then, face-to-face data between persons including inside and outside the business is generated. In generating the face-to-face data, the communication amount (face-to-face time) is calculated from the face-to-face data of the outside person and the in-house (or outside) person in the same unit system as the face-to-face data between the persons in the company. Further, the first embodiment is characterized in that the amount of activity of the person at the time of meeting is also calculated.

実施例1では、社内対面データの生成において、従業員が装着したセンサ端末から得られる情報に基づき従業員同士の対面データを生成する方法を開示しているが、これ以外のものであってもよい。これにより、社内における従業員同士の対面においては、実体に基づく対面データを生成することが可能となる。   In the first embodiment, in the generation of in-house face-to-face data, a method for generating face-to-face data between employees based on information obtained from sensor terminals worn by employees is disclosed. Good. This makes it possible to generate face-to-face data based on the substance when face-to-face employees in the company.

また、実施例1では、社外者との対面データを生成するにあたり、会議室内に設置した距離センサを用いる方法を開示しているが、画像認識など距離センサ以外のものであってもよい。   Further, in the first embodiment, a method of using a distance sensor installed in the conference room is disclosed in generating the meeting data with an outsider, but other methods such as image recognition may be used.

<図1:全体の処理の流れ>
図1に、第1の実施例の業務上対面データ生成システムの概要を示す。第1の実施例では、センサ端末(TR、TR2〜8:以下個体を識別しない場合にはすべてTRと示す)をユーザ(US)である従業員(社内の人物)が装着し、装着された端末(TR)によって各従業員の行動や従業員間の交流(インタラクション)に関するセンシングデータを取得する。インタラクションについては、ユーザ(US)同士が対面した際に各センサ端末(TR)間で赤外線を送受信することで対面状態を検知している。なお、センサ端末(TR)は、物理量のひとつとして対面する他のセンサ端末からの赤外線を検知する。各端末(TR)が取得したセンシングデータは無線または有線で接続した基地局(GW)に送信される。
<Figure 1: Overall processing flow>
FIG. 1 shows an outline of a business meeting data generation system according to the first embodiment. In the first embodiment, a sensor terminal (TR, TR2 to 8: hereinafter referred to as TR when not identifying an individual) is worn by an employee (person in the company) who is a user (US). Sensing data related to each employee's behavior and interaction (interaction) between employees is acquired by the terminal (TR). As for the interaction, when the users (US) face each other, the face-to-face state is detected by transmitting and receiving infrared rays between the sensor terminals (TR). The sensor terminal (TR) detects infrared rays from other sensor terminals that face each other as one of the physical quantities. Sensing data acquired by each terminal (TR) is transmitted to a base station (GW) connected wirelessly or by wire.

基地局(GW)は、ネットワーク(NW)を介して転送したセンシングデータをセンサネットサーバ(SS)に格納する。センサネットサーバ(SS)は定期的(所定の周期など)に、格納されたセンシングデータの前処理を行って二次データを生成し、二次データとして保管しておく。   The base station (GW) stores the sensing data transferred via the network (NW) in the sensor network server (SS). The sensor network server (SS) performs preprocessing of the stored sensing data periodically (such as a predetermined cycle) to generate secondary data, and stores it as secondary data.

また一方で、従業員(US)と社外来訪者(VT、VT2〜3:以下個体を識別しない場合にはすべてVTと示す)が打合せ等で利用する会議室では、距離センサ(RS)で、会議の状態を形状データで測定して、計測PC(MP)に送信する。距離センサ(RS)は会議室内の所定の位置に設置されて、無線、音波、光などの周知の技術を用いて会議室内をスキャンしながら距離を測定することで、形状データを生成する。   On the other hand, in the conference room used by the employee (US) and the company visitor (VT, VT2-3: hereinafter, all shown as VT when not identifying the individual) for a meeting or the like, the distance sensor (RS) The state of the meeting is measured by shape data and transmitted to the measurement PC (MP). The distance sensor (RS) is installed at a predetermined position in the conference room, and generates shape data by measuring the distance while scanning the conference room using a well-known technique such as wireless, sound wave, and light.

また、会議室内の所定の位置に配置されたセンサ端末装着者検出器(ISD)で、センサ端末(TR)を装着している人、すなわち従業員(US)の端末IDを検出し、計測PC(MP)に送信する。センサ端末装着者検出器(ISD)は会議室内の所定の位置に設置されて、無線、音波、光などの周知の技術を用いてセンサ端末(TR)と通信を行って、センサ端末(TR)の位置と、センサ端末(TR)に設定された端末IDを取得する。センサ端末装着者検出器(ISD)の詳細については、後述する。   In addition, the sensor terminal wearer detector (ISD) arranged at a predetermined position in the conference room detects the terminal ID of the person wearing the sensor terminal (TR), that is, the employee (US), and measuring PC To (MP). The sensor terminal wearer detector (ISD) is installed at a predetermined position in the conference room, and communicates with the sensor terminal (TR) using a known technology such as radio, sound wave, light, etc., and the sensor terminal (TR). And the terminal ID set in the sensor terminal (TR). Details of the sensor terminal wearer detector (ISD) will be described later.

計測PC(MP)では、距離センサ(RS)で取得した形状データから、会議室内の人物(従業員及び来訪者)や家具の実際の配置に基づく座席表を生成する。そして、計測PC(MP)は、センサ端末装着者検出器(ISD)で検出した端末IDと、センサ端末装着者検出器(ISD)の設置されている位置と方向からセンサ端末(TR)を装着している従業員(US)の座席を特定する。   The measurement PC (MP) generates a seating chart based on the actual arrangement of persons (employees and visitors) and furniture in the conference room from the shape data acquired by the distance sensor (RS). Then, the measurement PC (MP) wears the sensor terminal (TR) from the terminal ID detected by the sensor terminal wearer detector (ISD) and the position and direction of the sensor terminal wearer detector (ISD). Identify the seats of employees who are working.

次に、計測PC(MP)では、生成した座席表と従業員(US)の座席から来訪者(VT)の座席位置を特定する。計測PC(MP)は、入力装置を用いて、特定した座席位置について来訪者の情報を入力することにより、会議の参加者氏名と座席位置とを対応付けた座席表を生成する。   Next, the measurement PC (MP) specifies the seat position of the visitor (VT) from the generated seat chart and the seat of the employee (US). The measurement PC (MP) uses the input device to input visitor information for the specified seat position, thereby generating a seating table in which the names of the participants in the conference and the seat positions are associated with each other.

計測PC(MP)で生成された座席表データと、距離センサ(RS)で取得したセンシングデータは、データ処理サーバ(DS)に送信される。   The seating chart data generated by the measurement PC (MP) and the sensing data acquired by the distance sensor (RS) are transmitted to the data processing server (DS).

データ処理サーバ(DS)では、生成された座席表データと距離センサ(RS)で取得した形状データとを含むセンシングデータに基づき会議参加者の会議の活性度を算出し、会議の参加者全ての組み合わせについて会議の活性度を算出してから会議活動二次データ(会議データ)を生成する。   In the data processing server (DS), the activity level of the conference participants is calculated based on the sensing data including the generated seating chart data and the shape data acquired by the distance sensor (RS). Conference activity secondary data (conference data) is generated after calculating the activity of the conference for the combination.

本実施例では、活動量から得られる参加者の体の動きから、会議での発言の多寡を推定する値として活性度を用いる。すなわち、参加者の体の動きが多い場合には、会議での発言も多いと推定して、この場合は活性度が高い、と判定する。すなわち、活発な論議が行われた場合、発言する際のジェスチャーが大きくなる場合や、意見を聞く際に頷くなどの動作も大きくなる。このように活発な意見交換がある状況を、活性度が高いとする。   In the present embodiment, the activity is used as a value for estimating the number of speeches at the meeting from the body movements of the participants obtained from the amount of activity. That is, when there is much movement of the participant's body, it is estimated that there are many remarks at the conference, and in this case, it is determined that the activity is high. That is, when an active discussion is performed, gestures when speaking are increased, and operations such as whispering when listening to opinions are also increased. Such a situation where there is an active exchange of opinions is assumed to be highly active.

逆に、参加者の体の動きが少ない場合には、会議での発言も少ないと推定して、この場合は活性度が低い、と判定する。すなわち、他人の発表などを単に聞くだけのような状況では、意見を聞く際に頷くなどの動作が少なくなり、意見交換がほとんど無いような状況を、活性度が低いとする。   On the contrary, when the participant's body movement is small, it is estimated that there are few statements at the conference, and in this case, it is determined that the activity is low. That is, in a situation where the user simply listens to an announcement from another person, the activity such as whispering decreases when listening to an opinion, and the activity is low in a situation where there is almost no exchange of opinions.

以上のように、本発明では、対面している人物の活動量から会議(または会話)の活性度を推定する。   As described above, in the present invention, the activity level of the meeting (or conversation) is estimated from the activity amount of the person who is facing.

クライアント(CL)で、従業員であるユーザ(US)向けに表示するためのコンテンツ(多くは画像であるが、動画やテキストデータ、音声データなど他のデータでもよい)を生成する際には、アプリケーションサーバ(AS)が、定期的にデータ処理サーバ(DS)から会議データや業務データを取得し、センサネットサーバ(SS)から二次データを取得する。そして、アプリケーションサーバ(AS)は、業務データと二次データとを合わせた処理を行い、コンテンツを生成する。   When generating content (mostly images, but other data such as video, text data, audio data, etc.) to be displayed for the user (US) who is an employee can be generated by the client (CL). The application server (AS) periodically acquires conference data and business data from the data processing server (DS), and acquires secondary data from the sensor network server (SS). Then, the application server (AS) performs processing that combines the business data and the secondary data to generate content.

クライアント(CL)は、閲覧者検出器(CLBD)とディスプレイ(CSOD)を有し、閲覧者検出器(CLBD)は端末(TR)から送信された端末IDを含む赤外線情報を受信することで、ユーザ(US)がディスプレイを閲覧していることを検知する。閲覧者を検知する方法は、赤外線センサ以外にも、無線送受信機やRFID、カメラによる顔認識などを用いてもよい。閲覧者が検出された場合には、クライアント(CL)はアプリケーションサーバ(AS)に閲覧者のリストを送り、アプリケーションサーバ(AS)は、受信した閲覧者向けのコンテンツをクライアント(CL)に送信する。クライアント(CL)は受け取ったコンテンツをディスプレイ(CLOD)の画面(OD)に表示する。   The client (CL) has a viewer detector (CLBD) and a display (CSOD), and the viewer detector (CLBD) receives infrared information including the terminal ID transmitted from the terminal (TR). It is detected that the user (US) is browsing the display. As a method for detecting a viewer, in addition to the infrared sensor, a face recognition using a wireless transceiver, RFID, or camera may be used. When a viewer is detected, the client (CL) sends a list of viewers to the application server (AS), and the application server (AS) transmits the received content for the viewer to the client (CL). . The client (CL) displays the received content on the screen (OD) of the display (CLOD).

なお、NTPサーバ(TS)は、ネットワーク(NW)に接続された計算機やセンサ端末(TR)及び基地局(GW)の時刻を同期させるため、基準となる時刻を送信する。   The NTP server (TS) transmits a reference time in order to synchronize the time of a computer, a sensor terminal (TR), and a base station (GW) connected to the network (NW).

<各サーバ及び装置のブロック図>
図2A、図2Bから図5A、図5Bは、本発明の実施の形態の業務上対面データ生成システムを実現するための計算機の構成を説明するブロック図である。図示の都合上、図2Aから図5A、図5Bに分割して示すが、図1で示したように、された各構成要素は相互に連携して動作する。また、図内のそれぞれの機能はハードウェアまたはソフトウェア、あるいはハードウェアとソフトウェアの組み合わせによって実現されるものであり、必ずしも各機能ブロックがハードウェア実体を伴うとは限らない。以下では各構成要素は図2A、図2Bから図5A、図5Bに示されるように、制御部と記憶部と送受信部を有しているものとして説明する。
<Block diagram of each server and device>
FIG. 2A and FIG. 2B to FIG. 5A and FIG. 5B are block diagrams illustrating the configuration of a computer for realizing the business face-to-face data generation system according to the embodiment of this invention. For convenience of illustration, the components shown in FIGS. 2A to 5A and 5B are divided. However, as shown in FIG. 1, the respective constituent elements operate in cooperation with each other. Each function in the figure is realized by hardware or software, or a combination of hardware and software, and each functional block is not necessarily accompanied by a hardware entity. Hereinafter, each component will be described as having a control unit, a storage unit, and a transmission / reception unit, as shown in FIGS. 2A and 2B to FIGS. 5A and 5B.

各制御部は、通常のコンピュータ等の処理部である中央処理部(Central Processing Unit:CPU、図示省略)などで構成され、記憶部は半導体記憶装置や磁気記憶装置等のメモリ装置で構成され、送受信部は有線または無線等のネットワークインタフェースを備えて構成される。その他、必要に応じて時計等を備えている。   Each control unit is configured by a central processing unit (CPU, not shown) that is a processing unit such as a normal computer, and the storage unit is configured by a memory device such as a semiconductor storage device or a magnetic storage device. The transmission / reception unit includes a network interface such as wired or wireless. In addition, a clock or the like is provided as necessary.

図2A、図2Bから図5A、図5Bにおける形の異なる5種類の矢印は、それぞれ、時刻同期、アソシエイト、取得したセンシングデータの格納、センシングデータの解析、ファームウェア更新、及び、制御信号のためのデータまたは信号の流れをそれぞれ表している。以下、図2A、図2Bから図5A、図5Bを個別に参照して説明する。   2A, 2B to 5A, and 5B are different types of arrows for time synchronization, associate, storage of acquired sensing data, analysis of sensing data, firmware update, and control signal, respectively. Each represents a data or signal flow. Hereinafter, description will be made with reference to FIGS. 2A and 2B to FIGS. 5A and 5B individually.

<クライアント(CL)、アプリケーションサーバ(AS)>
図2A、図2Bに、クライアント(CL)、およびアプリケーションサーバ(AS)の一例を示すブロック図を示す。
<Client (CL), Application server (AS)>
2A and 2B are block diagrams showing examples of the client (CL) and the application server (AS).

<クライアント(CL)>
図2Aにおいて、クライアント(CL)は、ユーザ(US)との接点(インターフェース)となって、データを入出力する。クライアント(CL)は、入出力部(CLIO)、送受信部(CLSR)、記憶部(CLME)、制御部(CLCO)、及び、閲覧者検出器(CLVD)を備える。
<Client (CL)>
In FIG. 2A, the client (CL) inputs and outputs data as a contact (interface) with the user (US). The client (CL) includes an input / output unit (CLIO), a transmission / reception unit (CLSR), a storage unit (CLME), a control unit (CLCO), and a viewer detector (CLVD).

入出力部(CLIO)は、ユーザ(US)とのインターフェースとなる部分である。入出力部(CLIO)は、ディスプレイ(CLOD)、タッチパネル(CLIT)、キーボード(CLIK)、そしてマウス(CLIM)等を備える。必要に応じて外部入出力(CLIU)に他の入出力装置を接続することもできる。   The input / output unit (CLIO) is a part serving as an interface with the user (US). The input / output unit (CLIO) includes a display (CLOD), a touch panel (CLIT), a keyboard (CLIK), a mouse (CLIM), and the like. Other input / output devices can be connected to an external input / output (CLIU) as required.

ディスプレイ(CLOD)は、CRT(Cathode−Ray Tube)又は液晶ディスプレイ等の画像表示装置である。ディスプレイ(CLOD)は、スピーカやプリンタ等を含んでいてもよい。ユーザ(US)による入力を支援するためにタッチパネル(CLIT)を用いる場合には、タッチパネル(CLIT)をディスプレイ(CLOD)の画面(OD)と重なるように設置し、出力と入力を同じ画面上で行うように表示することもできる。   The display (CLOD) is an image display device such as a CRT (Cathode-Ray Tube) or a liquid crystal display. The display (CLOD) may include a speaker, a printer, and the like. When the touch panel (CLIT) is used to support input by the user (US), the touch panel (CLIT) is installed so as to overlap the screen (OD) of the display (CLOD), and the output and input are on the same screen. It can also be displayed as it does.

送受信部(CLSR)は、アプリケーションサーバ(AS)や、ネットワーク(NW)に接続した他の機器との間でデータや命令を送受信する。具体的には、送受信部(CLSR)は、コンテンツのリクエストをアプリケーションサーバ(AS)に送信し、リクエストに対応するコンテンツをアプリケーションサーバ(AS)から受信する。   The transmission / reception unit (CLSR) transmits / receives data and commands to / from the application server (AS) and other devices connected to the network (NW). Specifically, the transmission / reception unit (CLSR) transmits a content request to the application server (AS) and receives the content corresponding to the request from the application server (AS).

記憶部(CLME)は、ハードディスク、メモリ又はSD(登録商標)メモリカードのような外部記録装置で構成される。記憶部(CLME)は、閲覧者検出器(CLVD)のIDである検出器ID(CLVDID)や、有効な端末IDの一覧を示した端末IDリスト(CLID)を格納し、また、検出された閲覧者と、検出時刻の記録やその他クライアントに生じたイベントに関するログを蓄積するクライアントログ(CLCB)を格納する。   The storage unit (CLME) is configured by an external recording device such as a hard disk, a memory, or an SD (registered trademark) memory card. The storage unit (CLME) stores a detector ID (CLVDID) which is an ID of a viewer detector (CLVD) and a terminal ID list (CLID) indicating a list of valid terminal IDs, and is detected. Stores a client log (CLCB) for accumulating a log of a viewer and a record of detection time and other events occurring in the client.

閲覧者検知器(CLVD)はクライアント(CL)に内蔵もしくは外部接続された端末であり、赤外線送受信器(CLVDIR)または人感センサ(CLVDHI)などのセンサを有し、クライアント(CL)のディスプレイ(CLOD)を閲覧している閲覧者を検知するためのものである。閲覧者検知器(CLVD)がクライアント(CL)に外部接続されるものである場合には、USBなどのインターフェースを介して接続される。赤外線によって閲覧者を検出する場合には、ユーザ(US)が装着したセンサ端末(TR)に備えられる赤外線送受信部(AB)から定期的に送信している端末IDを受信することで検知する。   The viewer detector (CLVD) is a terminal built in or externally connected to the client (CL), has a sensor such as an infrared transmitter / receiver (CLVDIR) or a human sensor (CLVDHI), and displays the client (CL) display ( This is for detecting a viewer who is browsing (CLOD). When the browser detector (CLVD) is externally connected to the client (CL), it is connected via an interface such as a USB. When a viewer is detected by infrared rays, detection is performed by receiving a terminal ID periodically transmitted from an infrared transmission / reception unit (AB) provided in a sensor terminal (TR) worn by a user (US).

制御部(CLCO)は、CPU(図示省略)を備え、通信の制御、ユーザ(US)からのコンテンツ選択等に関する入力、及び、コンテンツをユーザ(US)に出力するための入出力制御(CLCIO)、閲覧者検出器の制御(CLCBD)、検出したデータから閲覧者を適切に判定するための閲覧者判定(CLCVD)、また、アプリケーションサーバ(AS)へのコンテンツリストリクエスト(CLCLR)やコンテンツリクエスト(CLCCR)などの処理を実行する。   The control unit (CLCO) includes a CPU (not shown), controls communication, inputs related to content selection from the user (US), and input / output control (CLCIO) for outputting content to the user (US). Control of the viewer detector (CLCBD), browser determination (CLCVD) for appropriately determining the viewer from the detected data, content list request (CLCLR) and content request (CLCLR) to the application server (AS) CLCCR) is executed.

検出器制御(CLCBD)は、閲覧者検出器(CLVD)の動作を制御するものであり、検出器ID(CLVDID)を与えて閲覧者検出器(CLVD)から送信させたり、受信した情報がノイズではなく有効なデータであることを、端末IDリスト(CLID)を照会して確認したり、閲覧者検出器(CLVD)における赤外線の送受信タイミングを制御したりする。閲覧者判定(CLCVD)では、閲覧者検出器(CLVD)から得た検知データに基づき、現時点で閲覧しているとみなすユーザを逐次特定するものである。   The detector control (CLCBD) controls the operation of the viewer detector (CLVD). A detector ID (CLVDID) is given and transmitted from the viewer detector (CLVD), or the received information is noise. In this case, it is confirmed that the data is valid by referring to the terminal ID list (CLID), and infrared transmission / reception timing in the viewer detector (CLVD) is controlled. In the browser determination (CLCVD), users who are considered to be browsing at the present time are sequentially identified based on the detection data obtained from the viewer detector (CLVD).

コンテンツリストリクエスト(CLCLR)では、現在の閲覧者の端末IDのリストをアプリケーションサーバ(AS)に送り、当該閲覧者のメンバ構成で閲覧許可を持つコンテンツリストと、閲覧者の氏名を、アプリケーションサーバ(AS)から受け取る。この点に関して、コンテンツリスト(ASCL)とアクセス制御規定(ASAC)をクライアント(CL)内に保持し、クライアント(CL)内で閲覧許可を持つコンテンツリストを生成しても良い。しかし、アプリケーションサーバ(AS)の側で閲覧許可のあるコンテンツリスト(ASCLM)の生成と端末IDから氏名の検索とを行うようにすることで、個人情報であるユーザの氏名を、クライアント(CL)で保持する必要が無くなり、セキュリティを高めることができる。   In the content list request (CLCLR), a list of terminal IDs of the current viewer is sent to the application server (AS), and the content list having the browsing permission in the member configuration of the viewer, the name of the viewer, the application server ( AS). In this regard, the content list (ASCL) and the access control rule (ASAC) may be held in the client (CL), and a content list having browsing permission may be generated in the client (CL). However, by generating a content list (ASCLM) that is permitted to be viewed on the application server (AS) side and searching for the name from the terminal ID, the name of the user as personal information is changed to the client (CL). This eliminates the need to hold the data and increases security.

入出力制御(CLCIO)は、ディスプレイ(CLOD)に出力する画面の映像を生成・制御するものであり、合わせて、タッチパネル(CLIT)やマウス(CLIM)などからの入力も受け付ける。入力、つまりユーザの操作に合わせて出力画面は逐次変更される。入出力制御(CLCIO)は、アプリケーションサーバ(AS)から受け取ったコンテンツリストとユーザの氏名を反映させ、画面内にコンテンツ切替ボタン(OD_C)や閲覧者選択ボタン(OD_A)を表示する。コンテンツ切替ボタン(OD_C)や閲覧者選択ボタン(OD_A)については図9を参照して後で説明する。これらのボタンは、ユーザが閲覧したいコンテンツを選択するためのものであり、選択する時点の閲覧者のメンバ構成で閲覧許可を持つコンテンツに関連するボタンのみが表示される。この機構によって、閲覧者は閲覧許可を持たないコンテンツにアクセスできないため、閲覧制限を実現可能である。   The input / output control (CLCIO) generates and controls a screen image to be output to the display (CLOD), and also accepts input from a touch panel (CLIT), a mouse (CLIM), and the like. The output screen is sequentially changed according to the input, that is, the user's operation. The input / output control (CLCIO) reflects the content list received from the application server (AS) and the name of the user, and displays a content switching button (OD_C) and a viewer selection button (OD_A) on the screen. The content switching button (OD_C) and the viewer selection button (OD_A) will be described later with reference to FIG. These buttons are for the user to select content that the user wants to browse, and only buttons related to content that has browsing permission in the member configuration of the viewer at the time of selection are displayed. By this mechanism, since the viewer cannot access content that does not have permission to browse, browsing restrictions can be realized.

入出力制御(CLCIO)はユーザ操作によるタッチパネル(CLIT)またはマウス(CLIM)などからの入力を待ち、入力操作があった場合には、入力操作に対応するコンテンツのリクエストをアプリケーションサーバ(AS)に送信し、コンテンツ情報を受け取る(CLCCR)。コンテンツ情報は、主に画像であり、端末IDと対応した強調表示座標リスト(ASEM)を合わせて受け取る。ユーザ操作による指定がない場合には、最新の日付のデータ(コンテンツ)を要求する。入出力制御(CLCIO)は、コンテンツ画像をディスプレイに表示し、その上に、強調表示(CLCEM)が現在の閲覧者に対応する座標を強調するための四角形や丸などの記号を重ねて表示する。また、強調表示(CLCEM)は、コンテンツ画像を、現在の閲覧者が含まれる部分が画面中心に来るように、画像を移動したり、拡大などにより表示する。この機能によって、閲覧者にとって優先度の高い情報に、まず着目させることができる。   The input / output control (CLCIO) waits for input from the touch panel (CLIT) or mouse (CLIM) by a user operation, and when there is an input operation, requests for content corresponding to the input operation are sent to the application server (AS). Send and receive content information (CLCCR). The content information is mainly an image and is received together with a highlighted coordinate list (ASEM) corresponding to the terminal ID. When there is no designation by the user operation, the latest date data (content) is requested. The input / output control (CLCIO) displays a content image on a display, and an overlay (CLCEM) displays symbols such as a rectangle and a circle for emphasizing coordinates corresponding to the current viewer. . In addition, highlighting (CLCEM) displays a content image by moving or enlarging the image so that a portion including the current viewer comes to the center of the screen. With this function, it is possible to first focus attention on information having a high priority for the viewer.

<アプリケーションサーバ(AS)>
図2Bにおいて、アプリケーションサーバ(AS)は、データ処理サーバ(DS)から会議データを受信し、センサネットサーバ(SS)からセンシングデータの二次データを受信する。アプリケーションサーバ(AS)は、受信したこれらの会議データおよびセンシングデータの二次データを処理し、クライアント(CL)や図示しない個人用クライアント(CP)を通してユーザ(US)に提示するためのコンテンツ情報を生成する。コンテンツ情報は、多くは画像であるが、動画やテキストデータ、音声データなど、他のデータまたはそれらのデータの組み合わせでもよい。
<Application server (AS)>
In FIG. 2B, the application server (AS) receives conference data from the data processing server (DS) and receives secondary data of sensing data from the sensor network server (SS). The application server (AS) processes the received secondary data of the conference data and sensing data, and provides content information to be presented to the user (US) through the client (CL) or a personal client (CP) not shown. Generate. The content information is mostly an image, but may be other data such as a moving image, text data, audio data, or a combination of these data.

アプリケーションサーバ(AS)は、送受信部(ASSR)、記憶部(ASME)及び制御部(ASCO)を備える。送受信部(ASSR)は、ネットワーク(NW)を通じて、センサネットサーバ(SS)、データ処理サーバ(DS)、NTP(Network Time Protocol)サーバ(TS)、クライアント(CL)との間でデータの送信及び受信を制御する。   The application server (AS) includes a transmission / reception unit (ASSR), a storage unit (ASME), and a control unit (ASCO). The transmission / reception unit (ASSR) transmits and receives data to and from the sensor network server (SS), data processing server (DS), NTP (Network Time Protocol) server (TS), and client (CL) through the network (NW). Control reception.

記憶部(ASME)は、ハードディスク、メモリ又はSDメモリカードのような外部記録装置で構成される。記憶部(ASME)は、生成したコンテンツ情報や、コンテンツ生成のためのプログラム、その他のコンテンツ生成に関係するデータを格納する。具体的には、記憶部(ASME)は、ユーザ属性リスト(ASUL)、社外対面者リスト(ASPL)、コンテンツリスト(ASCL)、クライアントログ(ASCB)、アクセス制御規定(ASAC)、業務対面活動マトリクス(ASGM)、基本コンテンツファイル(ASBF)、強調表示座標リスト(ASEM)、センサ端末情報読込プログラム(ASSR)、会議活動二次データ読込プログラム(ASKR)、基本コンテンツ生成プログラム(ASCBC4)、業務対面活動マトリクス生成プログラム(ASCMC)、および、会議対面二次データ補正プログラム(ASCCC)を格納する。   The storage unit (ASME) is configured by an external recording device such as a hard disk, a memory, or an SD memory card. The storage unit (ASME) stores the generated content information, a program for generating content, and other data related to content generation. Specifically, the storage unit (ASME) includes a user attribute list (ASUL), an external meeting person list (ASPL), a content list (ASCL), a client log (ASCB), an access control rule (ASAC), a business meeting activity matrix. (ASGM), basic content file (ASBF), highlighted coordinate list (ASEM), sensor terminal information reading program (ASSR), conference activity secondary data reading program (ASKR), basic content generation program (ASCBC4), business face-to-face activities A matrix generation program (ASCMC) and a meeting facing secondary data correction program (ASCCC) are stored.

ユーザ属性リスト(ASUL)は、センサ端末(TR)のIDと、当該センサ端末(TR)を装着したユーザ(US)の氏名、端末ID、所属、メールアドレス、属性等との関連を参照可能な対照表である。   The user attribute list (ASUL) can refer to the relationship between the ID of the sensor terminal (TR) and the name, terminal ID, affiliation, mail address, attribute, etc. of the user (US) wearing the sensor terminal (TR). It is a comparison table.

社外対面者リスト(ASPL)は、社外対面者(来訪者)の氏名、会社名、所属、役職等を参照可能な対照表である。データ処理サーバ(DS)に格納されている、会議基本データから社外来訪者を抽出し、抽出結果をアプリケーションサーバ(AS)が結合することにより社外対面者リスト(ASPL)が生成される。   The external meeting person list (ASPL) is a comparison table that can refer to the name, company name, affiliation, position, etc. of the outside meeting person (visitor). A company visitor is extracted from the basic conference data stored in the data processing server (DS), and the application server (AS) combines the extraction results to generate an external meeting list (ASPL).

コンテンツリスト(ASCL)は、クライアント(CL)で提示可能なコンテンツの一覧を記述したリストである。クライアント(CL)から閲覧者の端末IDと共にコンテンツリストリクエスト(CLCLR)を受けた場合には、コンテンツリスト(ASCL)とアクセス制御規定(ASAC)とを合わせて照会し、コンテンツリスト生成(ASCLM)において現在の閲覧者が閲覧可能なリストを抽出してクライアント(CL)に送信する。   The content list (ASCL) is a list describing a list of contents that can be presented by the client (CL). When a content list request (CLCLR) is received from the client (CL) together with the terminal ID of the viewer, the content list (ASCL) and the access control rule (ASAC) are inquired together, and in the content list generation (ASCLM) A list that can be browsed by the current viewer is extracted and transmitted to the client (CL).

アクセス制御規定(ASAC)は、個々のコンテンツに対し、閲覧可能になる条件を規定したものである。主には端末IDまたは属性によって規定され、例えば、特定の組織に所属するユーザや、特定の職位以上のユーザが閲覧者の中に含まれているときに閲覧可能となるように端末IDが論理式のORで規定される。また、論理式のANDによって、特定のメンバが全員そろって閲覧者検出器(CLVD)で検出されているときのみ閲覧可能になるように規定されていてもよい。また、排他的に、特定のメンバがいるときには閲覧できないように規定してもよい。   The access control rule (ASAC) defines a condition for enabling browsing for each content. It is mainly defined by the terminal ID or attribute. For example, the terminal ID is logical so that it can be viewed when a user belonging to a specific organization or a user with a specific position or higher is included in the viewer. It is defined by the OR of the expression. Further, the logical expression AND may be defined so that browsing is possible only when all the specific members are detected by the browser detector (CLVD). Alternatively, it may be specified that browsing is not possible when a specific member is present.

業務対面活動マトリクス(ASGM)は、組織の構成メンバ(従業員)及び組織外の対面相手(来訪者)を、縦軸(列方向)及び横軸(行方向)の要素とし、アプリケーションサーバ(AS)が、それぞれの組み合わせにおける対面に関する情報(対面時の活動に応じた時間)を数値化し、当該数値を業務対面活動マトリクス(ASGM)上の該当セルに入力したものである。この数値は、センシングデータの二次データ、すなわち内部対面データと、距離センサデータを処理及び解析して得た会議時の対面に関する二次データ、すなわち対外対面データとにより、生成される。   The business face-to-face activity matrix (ASGM) uses organization members (employees) and face-to-face counterparts (visitors) outside the organization as elements of the vertical axis (column direction) and horizontal axis (row direction), and the application server (AS ) Is obtained by digitizing the information related to meeting in each combination (time corresponding to the activity at the time of meeting) and inputting the numerical value to the corresponding cell on the business meeting activity matrix (ASGM). This numerical value is generated by secondary data of sensing data, that is, internal meeting data, and secondary data relating to the meeting at the time of meeting obtained by processing and analyzing the distance sensor data, that is, external meeting data.

基本コンテンツファイル(ASBF)には、基本コンテンツ生成(ASCBC)の結果出力されるコンテンツ情報(多くは画像であるが、動画やテキストデータ、音声データなど他のデータでもよい)が収容される。特定の期間や特定のメンバに関するセンサデータに基づいた画像が収容されていても良いし、テキストの文面や座標値などがテキストデータとして保持され、クライアント(CL)から呼び出された際に基本コンテンツファイルが結合及び再配置されて画像が生成されても良い。サーブレットのように、ユーザの操作に応じてリアルタイムに画像の形状を変えるプログラムであってもよい。すべてのコンテンツには日付や端末IDもしくは組織ID、コンテンツ種類などのタグが付与されており、クライアント(CL)からの要求によって一つに特定される。   The basic content file (ASBF) contains content information (as a result of basic content generation (ASCBC)) (many are images, but may be other data such as moving images, text data, audio data). An image based on sensor data relating to a specific period or a specific member may be accommodated, or a text content or coordinate value of the text is stored as text data, and a basic content file when called from a client (CL) May be combined and rearranged to generate an image. A program that changes the shape of an image in real time according to a user operation, such as a servlet, may be used. All contents are provided with tags such as date, terminal ID or organization ID, and content type, and are specified as one by a request from the client (CL).

二次データ読込プログラム(ASSR)は、センサネットサーバ(SS)から受け取ったセンシングデータの二次データを読み込むためのプログラムである。二次データである対面活動マトリクス(ASMM)などのファイルの形式を保持しており、ファイルの形式に沿って、指定された日付、時間及び対象ユーザのデータを読み込む。対面活動マトリクス(ASMM)については後述の図33A,図33Bで説明する。   The secondary data reading program (ASSR) is a program for reading secondary data of sensing data received from the sensor network server (SS). A file format such as a face-to-face activity matrix (ASMM) which is secondary data is held, and data of a specified date, time and target user is read in accordance with the file format. The face-to-face activity matrix (ASMM) will be described later with reference to FIGS. 33A and 33B.

会議活動データ読み込みプログラム(ASKR)は、データ処理サーバ(DS)から受け取った会議基本データや、距離センサ(RS)のデータを処理及び解析して得た会議活動二次データを読み込むためのプログラムである。会議活動二次データについては、後述の図30A、図30Bを参照して説明する。   The conference activity data reading program (ASKR) is a program for reading the conference basic data received from the data processing server (DS) and the secondary data of the conference activity obtained by processing and analyzing the data of the distance sensor (RS). is there. The conference activity secondary data will be described with reference to FIGS. 30A and 30B described later.

社外対面者リスト更新プログラム(ASLU)は、会議情報読込プログラム(ASGR)で読み込まれたデータから、社外対面者に関する情報、氏名、会社名、所属及び職位などを抽出し、必要に応じてリストに追記する。   The external meeting person list update program (ASLU) extracts information, name, company name, affiliation and position, etc. related to external meeting persons from the data read by the meeting information reading program (ASGR), and puts it in the list as necessary. Append.

基本コンテンツ生成プログラム(ASBP)は、基本コンテンツを生成するための諸々のプログラムである。基本コンテンツ生成(ASCBC)時には、これをタイマ起動(ASTK)または管理者による手動起動、またはクライアント(CL)によるリクエストを受けて起動し、基本コンテンツファイルを出力する。   The basic content generation program (ASBP) is various programs for generating basic content. At the time of basic content generation (ASCBC), this is started by timer start (ASTK), manual start by an administrator, or a request by a client (CL), and a basic content file is output.

業務対面活動マトリクス生成プログラム(ASCMC)は、基本コンテンツ生成プログラム(ASBP)の一部であり、業務上の対面を可視化するコンテンツ生成のベースとなる、業務対面活動マトリクス(ASGM)を生成するプログラムである。この業務対面活動マトリクス(ASGM)には、N×N行列の中に対面時の活動に応じたコミュニケーション量の活動が記録されている。   The business face-to-face activity matrix generation program (ASMCC) is a part of the basic content generation program (ASBP), and is a program for generating a business face-to-face activity matrix (ASGM), which is a base for content generation for visualizing business face-to-face. is there. In the business face-to-face activity matrix (ASGM), activities of a communication amount corresponding to the activities at the time of face-to-face are recorded in an N × N matrix.

制御部(ASCO)は、CPU(図示省略)を備え、データの送受信の制御及びデータの処理を実行する。具体的には、CPU(図示省略)が記憶部(ASME)に格納されたプログラムを実行することによって、コンテンツリスト生成(ASCLM)、コンテンツ選択・描画制御(ASCCS)、タイマ起動(ASTK)、基本コンテンツ生成(ASCBC)、及び強調表示座標リスト生成(ASCEM)等の処理が実行される。また、内部に保持する時計(ASCK)は、外部のNTPサーバ(TS)に定期的に接続することによって、現地(システムの設置される場所)の標準時刻を保持する。   The control unit (ASCO) includes a CPU (not shown), and executes data transmission / reception control and data processing. Specifically, a CPU (not shown) executes a program stored in a storage unit (ASME), thereby generating a content list (ASCLM), content selection / drawing control (ASCCS), timer activation (ASTK), basic Processing such as content generation (ASCBC) and highlight coordinate list generation (ASCEM) is executed. Also, the clock (ASCK) held inside holds the standard time of the site (where the system is installed) by periodically connecting to an external NTP server (TS).

コンテンツリスト生成(ASCLM)は、クライアント(CL)から閲覧者の端末IDと共にコンテンツリストリクエスト(CLCLR)を受けた場合に、コンテンツリスト(ASCL)とアクセス制御規定(ASAC)とを合わせて照会し、現在のクライアント(CL)の閲覧者に閲覧許可のあるコンテンツのリストを抽出してクライアント(CL)に送信するまでを行う処理である。図示しない個人用クライアント(CP)からコンテンツリストリクエスト(CPCLR)を受けた場合も同様である。   When the content list generation (ASCLM) receives a content list request (CLCLR) together with the viewer's terminal ID from the client (CL), the content list generation (ASCL) and the access control rule (ASAC) are inquired together. This is a process of performing processing from extracting a list of contents that are permitted to be browsed by the viewer of the current client (CL) and transmitting it to the client (CL). The same applies when a content list request (CPCLR) is received from a personal client (CP) (not shown).

コンテンツ選択・描画制御(ASCCS)は、クライアント(CL)のディスプレイ(CLOD)を閲覧しているユーザ(US)による選択操作、またはクライアント(CL)から自動的に発せられる要求に応じて、指定されたコンテンツを基本コンテンツファイル(ASBF)から取り出し、必要ならばそれに対応する強調表示座標リスト(ASEM)を合わせて、クライアント(CL)に送信する処理である。またサーブレットのような、ユーザ(US)の操作に合わせてインタラクティブに動くコンテンツの場合には、コンテンツ選択・描画制御(ASCCS)において描画を制御する。また、閲覧しているユーザ(US)のメンバ構成に合わせて基本コンテンツファイルを組み合わせて一枚の画像を生成する処理を行う。   The content selection / drawing control (ASCCS) is specified in response to a selection operation by a user (US) browsing the display (CLOD) of the client (CL) or a request automatically issued from the client (CL). The content is extracted from the basic content file (ASBF), and if necessary, the corresponding highlight coordinate list (ASEM) is combined and transmitted to the client (CL). In the case of content that moves interactively according to the operation of the user (US), such as a servlet, rendering is controlled by content selection / drawing control (ASCCS). Also, a process of generating a single image by combining basic content files in accordance with the member configuration of the user (US) who is browsing is performed.

タイマ起動(ASTK)は時計(ASCK)があらかじめ指定された時刻になった際に、基本コンテンツ生成(ASCBC)の処理を開始する。   The timer activation (ASTK) starts the basic content generation (ASCBC) process when the clock (ASCK) reaches a predetermined time.

基本コンテンツ生成(ASCBC)は、基本コンテンツ生成プログラム(ASBP)を読み込み、データ処理サーバ(DS)から取得した会議情報と、センサネットサーバ(SS)から取得したセンシングデータまたはセンシングデータの二次データとを処理し、基本コンテンツファイル(ASBF)を出力する。具体的には、ネットワーク図(図9)の画面などの基本コンテンツファイル(ASBF)を出力する。   The basic content generation (ASCBC) reads the basic content generation program (ASBP), conference information acquired from the data processing server (DS), and sensing data acquired from the sensor network server (SS) or secondary data of the sensing data, To output a basic content file (ASBF). Specifically, a basic content file (ASBF) such as a screen of the network diagram (FIG. 9) is output.

このように、図2Aのクライアント(CL)と図2Bのアプリケーションサーバ(AS)とを分けることによって、クライアント(CL)内には個人情報や機密情報を保存しないで済むため、クライアント(CL)をセキュリティエリア外に置くことができる。   In this way, by separating the client (CL) in FIG. 2A and the application server (AS) in FIG. 2B, it is not necessary to store personal information or confidential information in the client (CL). Can be placed outside the security area.

しかし、クライアント(CL)とアプリケーションサーバ(AS)とを一体のものにして、クライアント(CL)内にコンテンツファイルやユーザ属性リストを保持しても良い。   However, the client (CL) and the application server (AS) may be integrated, and the content file and the user attribute list may be held in the client (CL).

CPUは、各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、CPUは、基本コンテンツ生成プログラムに従って動作することで基本コンテンツ生成部として機能する。他のプログラムについても同様である。さらに、CPUは、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。   The CPU operates as a functional unit that realizes a predetermined function by operating according to a program of each functional unit. For example, the CPU functions as a basic content generation unit by operating according to the basic content generation program. The same applies to other programs. Furthermore, the CPU also operates as a functional unit that realizes each of a plurality of processes executed by each program. A computer and a computer system are an apparatus and a system including these functional units.

制御部(ASCL)の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。   Information such as programs and tables for realizing each function of the control unit (ASCL) is a storage device, a nonvolatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), or an IC card, an SD card, a DVD Etc., and can be stored in a computer readable non-transitory data storage medium.

<図3A、図3B:データ処理サーバ(DS)、計測PC(MP)>
図3Aは、データ処理サーバ(DS)のブロック図を示し、図3Bは計測PC(MP)の構成を示すブロック図である。
<FIGS. 3A and 3B: Data Processing Server (DS), Measurement PC (MP)>
FIG. 3A shows a block diagram of the data processing server (DS), and FIG. 3B is a block diagram showing a configuration of the measurement PC (MP).

<データ処理サーバ(DS)>
図3Aにおいて、データ処理サーバ(DS)は、計測PC(MP)で計測した距離センサ(RS)のデータや、計測PC(MP)で生成した会議参加者の座席表のデータを受信し、当該受信データに基づき、会議活動量や、会議時の活動状態に関する二次データを生成する。また、アプリケーションサーバ(AS)からの要求に基づいて、会議基本情報や、会議活動二次データを送信する。
<Data processing server (DS)>
In FIG. 3A, the data processing server (DS) receives the data of the distance sensor (RS) measured by the measurement PC (MP) and the seating chart data of the conference participant generated by the measurement PC (MP). Based on the received data, secondary data on the amount of conference activity and the activity state at the time of the conference is generated. Further, based on a request from the application server (AS), basic conference information and secondary conference activity data are transmitted.

データ処理サーバ(DS)は、送受信部(GSSR)、制御部(DSCO)、記憶部(DSME)を備える。   The data processing server (DS) includes a transmission / reception unit (GSSR), a control unit (DSCO), and a storage unit (DSME).

送受信部(GSSR)は、アプリケーションサーバ(AS)や計測PC(MP)との間で、データの送受信を制御する。   The transmission / reception unit (GSSR) controls data transmission / reception with the application server (AS) and the measurement PC (MP).

記憶部(GSME)は、ハードディスク等のデータ記憶装置によって構成され、少なくとも、会議基本情報データベース(DSDM)、会議活動二次データベース(DSKM)、座席表(DSLT)、センシングデータベース(DSSD)を格納する。さらに、記憶部(DSME)は、制御部(DSCO)のCPU(図示省略)によって実行されるプログラムを格納する。   The storage unit (GSME) is configured by a data storage device such as a hard disk, and stores at least a conference basic information database (DSDM), a conference activity secondary database (DSKM), a seating chart (DSLT), and a sensing database (DSSD). . Further, the storage unit (DSME) stores a program executed by a CPU (not shown) of the control unit (DSCO).

会議基本情報データベース(DSDM)は、計測PC(MP)から送信された会議に関する基本情報、日時や場所、参加者が格納されている。   The conference basic information database (DSDM) stores basic information about the conference transmitted from the measurement PC (MP), the date and place, and the participants.

センシングデータベース(DSSD)は、計測PC(MP)から送信された、計測PC(MP)を介して制御した距離センサ(RS)のセンシング情報、具体的には、センシングした時刻と、センシングした時刻における物体表面形状を表す点群データとを対にして、時系列に記録されたものが格納されている。   The sensing database (DSSD) is transmitted from the measurement PC (MP), and the sensing information of the distance sensor (RS) controlled via the measurement PC (MP), specifically, the sensing time and the sensing time A pair of point cloud data representing the surface shape of the object is recorded in time series.

座席表(DSLT)には、計測PC(MP)から送信された、計測PC(MP)で生成した会議時の座席配置が格納されている。座席表(DSLT)は、会議において、参加者の誰がどの位置に座っていたかが特定されたデータであり、さらに、参加者がどのような活動状況であったかを、名前と活動量とを対応づけて出力するのに利用する。   The seating table (DSLT) stores the seat arrangement at the time of the conference generated by the measurement PC (MP) transmitted from the measurement PC (MP). The seating chart (DSLT) is data that specifies who is sitting at which position in the meeting, and further, the activity status of the participant by associating the name with the amount of activity. Used for output.

会議活動二次データベース(DSKM)は、データ処理サーバ(DS)で生成される情報である。会議活動二次データベース(DSKM)は、会議時における各参加者の時間毎の活動量や、各参加者の活動量もとに生成する会議の参加者全ての組み合わせにおける、互いの活動量に応じた対面時間を表したデータが格納されている。   The conference activity secondary database (DSKM) is information generated by the data processing server (DS). The conference activity secondary database (DSKM) is based on the amount of activity of each participant at the time of the conference and the amount of activity of each participant in the combination of all conference participants generated based on the amount of activity of each participant. Stores data representing meeting time.

データ受信(DSRV)は、計測PC(MP)からのデータを受信する。   Data reception (DSRV) receives data from the measurement PC (MP).

会議活動量算出(DSAC)は、センシングデータ(DSSD)と座席表(DSLR)に基づき、各参加者の時間毎の活動量を算出する。活動量を算出する処理の詳細は、図22で説明する。   The conference activity amount calculation (DSAC) calculates the activity amount of each participant for each hour based on the sensing data (DSSD) and the seating chart (DSLR). Details of the process of calculating the amount of activity will be described with reference to FIG.

会議対面二次データ生成(DSMM)では、各参加者の時間量の活動に基づき、会議参加者全ての組み合わせにおける、互いの活動量に応じた時間を計算し、マトリクス形式で保存する。会議対面二次データ生成の詳細は、図27で説明する。   In meeting face-to-face secondary data generation (DSMM), the time corresponding to each other's activity amount is calculated and stored in a matrix format in all combinations of the conference participants based on the activity of each participant's time amount. Details of the meeting-facing secondary data generation will be described with reference to FIG.

会議情報検索(DSDS)は、アプリケーションサーバ(AS)からの要求により、指定された日付の会議情報、具体的には、会議基本情報データベース(DSDM)の会議基本情報や、会議活動二次データベース(DSKM)の会議活動二次データを検索し、送受信部を介してアプリケーションサーバ(AS)に送信する。   The conference information search (DSDS) is performed according to a request from the application server (AS), specifically, conference information on a specified date, specifically, conference basic information in the conference basic information database (DSDM), or conference activity secondary database ( DSKM) conference activity secondary data is retrieved and transmitted to the application server (AS) via the transceiver.

データ処理サーバ(DS)のCPUもアプリケーションサーバ(AS)のCPUと同様であり、CPUは各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、CPUは、会議活動量算出プログラムに従って動作することで会議活動量算出部として機能する。他のプログラムについても同様である。さらに、CPUは、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。   The CPU of the data processing server (DS) is similar to the CPU of the application server (AS), and the CPU operates as a function unit that realizes a predetermined function by operating according to the program of each function unit. For example, the CPU functions as a conference activity amount calculator by operating according to the conference activity amount calculation program. The same applies to other programs. Furthermore, the CPU also operates as a functional unit that realizes each of a plurality of processes executed by each program. A computer and a computer system are an apparatus and a system including these functional units.

制御部(DSCO)の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。   Information such as programs and tables for realizing each function of the control unit (DSCO) is a storage device, a nonvolatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), or an IC card, an SD card, a DVD Etc., and can be stored in a computer readable non-transitory data storage medium.

<計測PC(MP)>
図3Bにおいて、計測PC(MP)は、距離センサ(RS)とセンサ端末装着者検出器(ISD)を制御し、計測データを受信したり、受信したデータに基づき実際の配置に基づく座席表や、会議開催日時や場所、参加者等を格納した会議基本情報を生成し、距離センサ(RS)で計測したセンシングデータや、座席表、会議基本データを、送受信部を介して、データ処理サーバ(DS)に送信する。計測PC(MP)は、送受信部(MPSR)、制御部(MPCO)、記憶部(MPME)を備える。
<Measurement PC (MP)>
In FIG. 3B, the measurement PC (MP) controls the distance sensor (RS) and the sensor terminal wearer detector (ISD) to receive measurement data, and based on the received data, , Generate meeting basic information that stores the meeting date and time, place, participants, etc., and send sensing data, seating charts, and meeting basic data measured by the distance sensor (RS) via the transmission / reception unit to the data processing server ( DS). The measurement PC (MP) includes a transmission / reception unit (MPSR), a control unit (MPCO), and a storage unit (MPME).

送受信部(MPSR)は、データ処理サーバ(DS)や、距離センサ(RS)、センサ端末装着者検出器(ISD)との間で、データの送受信を制御する。   The transceiver unit (MPSR) controls data transmission / reception with the data processing server (DS), distance sensor (RS), and sensor terminal wearer detector (ISD).

記憶部(MPME)は、ハードディスク等のデータ記憶装置によって構成され、少なくとも、会議基本情報データベース(MPDM)、座席表(MPLT)、センシングデータベース(MPSD)および検出IDデータベース(MPDT)を格納する。さらに、記憶部(MPME)は、制御部(MPCO)のCPU(図示省略)によって実行されるプログラムを格納する。   The storage unit (MPME) is configured by a data storage device such as a hard disk, and stores at least a conference basic information database (MPDM), a seating chart (MPLT), a sensing database (MPSD), and a detection ID database (MPDT). Further, the storage unit (MPME) stores a program executed by a CPU (not shown) of the control unit (MPCO).

会議基本情報(MPDM)には、会議の開催日時や場所、参加者等が格納されている。座席表データ(MPLT)には、会議の参加者の氏名や所属、会議時の座席座標値などが格納されている。   The meeting basic information (MPDM) stores the date and place of the meeting, the location, participants, and the like. In the seating chart data (MPLT), names and affiliations of participants in the conference, seat coordinate values at the time of the conference, and the like are stored.

センシングデータベース(MPSD)には、距離センサ(RS)で計測した情報、具体的には、センシングした時刻と、センシングの時刻における物体の表面形状を表す点群データとを対にして、時系列に記録されたものが格納されている。これにより、会議における室内の参加者の動きのログを残すことが出来る。   In the sensing database (MPSD), information measured by the distance sensor (RS), specifically, the time of sensing and point cloud data representing the surface shape of the object at the sensing time are paired in time series. Records are stored. As a result, it is possible to leave a log of the movements of the participants in the room in the conference.

検出IDデータベース(MPDT)には、センサ端末装着者検出器(ISD)で検出した、センサ端末(TR)の端末IDが時系列に格納されている。センサ端末装着者検出器(ISD)の位置や向き、検出した端末IDから、センサ端末装着者がどの位置にいるか推定するのに利用する。   In the detection ID database (MPDT), the terminal IDs of the sensor terminals (TR) detected by the sensor terminal wearer detector (ISD) are stored in time series. It is used to estimate the position of the sensor terminal wearer from the position and orientation of the sensor terminal wearer detector (ISD) and the detected terminal ID.

制御部(MPCO)は、データ送信(MPDSD)、会議基本情報生成(MPDM)、座席表生成(MPSC)、距離センサ制御(MPRS)、検出器制御(MPISD)により構成される。   The control unit (MPCO) includes data transmission (MPSDD), conference basic information generation (MPDM), seating chart generation (MPSC), distance sensor control (MPRS), and detector control (MPISD).

検出器制御(MPISD)では、装着者検出器(ISD)に対して計測要求を出したり、計測されたデータを受信し、検出IDデータベース(MPDT)に格納することができる。   In the detector control (MPISD), a measurement request can be issued to the wearer detector (ISD), or the measured data can be received and stored in the detection ID database (MPDT).

距離センサ制御(MPRS)では、距離センサ(RS)に対して計測要求を出したり、計測されたデータを受信し、センシングデータベース(MPSD)に格納することができる。   In the distance sensor control (MPRS), a measurement request can be issued to the distance sensor (RS), or the measured data can be received and stored in the sensing database (MPSD).

座席表生成(MPSC)では、センシングデータに基づく座席表を生成し、検出IDデータベース(MPDT)に基づき、センサ端末装着者の着席位置を特定する。また、入出力部(MPIO)のディスプレイ(MPOD)に、座席配置図を表示したり、マウス(MPIM)やキーボード(MOIK)によって、座席配置図を参考に社外の来訪者の情報を入力することができる。   In the seating chart generation (MPSC), a seating chart based on the sensing data is generated, and the seating position of the sensor terminal wearer is specified based on the detection ID database (MPDT). In addition, display the seat layout on the display (MPOD) of the input / output unit (MPIO), or enter information of visitors from outside the company using the mouse (MPIM) or keyboard (MOIK) with reference to the seat layout Can do.

会議基本情報生成(MPDM)では、会議開催日時や場所、参加者のデータを生成する。   In the basic conference information generation (MPDM), the date and time of the conference, the place, and the data of the participants are generated.

データ送信では、会議基本情報(MPDM)と、座席表データ(MPLT)とセンシングデータ(MPSD)を、データ処理サーバ(DS)に送信する。   In data transmission, conference basic information (MPDM), seating chart data (MPLT), and sensing data (MPSD) are transmitted to the data processing server (DS).

計測PC(MP)のCPU(図示省略)もアプリケーションサーバ(AS)のCPUと同様であり、CPUは各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、CPUは、距離センサ制御プログラムに従って動作することで距離センサ制御部として機能する。他のプログラムについても同様である。さらに、CPUは、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。   The CPU (not shown) of the measurement PC (MP) is similar to the CPU of the application server (AS), and the CPU operates as a functional unit that realizes a predetermined function by operating according to the program of each functional unit. For example, the CPU functions as a distance sensor control unit by operating according to the distance sensor control program. The same applies to other programs. Furthermore, the CPU also operates as a functional unit that realizes each of a plurality of processes executed by each program. A computer and a computer system are an apparatus and a system including these functional units.

制御部(MPCO)の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。   Information such as programs and tables for realizing each function of the control unit (MPCO) is a storage device, a nonvolatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), an IC card, an SD card, a DVD Etc., and can be stored in a computer readable non-transitory data storage medium.

<センサネットサーバ(SS)基地局(GW)>
図4A、図4Bは、センサネットサーバ(SS)及び基地局(GW)の構成例を示すブロック図である。
<Sensor network server (SS) base station (GW)>
4A and 4B are block diagrams illustrating configuration examples of the sensor network server (SS) and the base station (GW).

<センサネットサーバ(SS)>
図4Aにおいて、センサネットサーバ(SS)は、全てのセンサ端末(TR)から集められたデータを管理する。具体的には、センサネットサーバ(SS)は、基地局(GW)を経由して送られてくるセンシングデータをセンシングデータベース(SSDB)に格納する。そして、センサネットサーバ(SS)は、アプリケーションサーバ(AS)やクライアント(CL)からの要求に基づいてセンシングデータまたは二次データを送信する。さらに、センサネットサーバ(SS)は、基地局(GW)と、基地局(GW)の管理下にあるセンサ端末(TR)の情報を随時管理する。
<Sensor network server (SS)>
In FIG. 4A, the sensor network server (SS) manages data collected from all sensor terminals (TR). Specifically, the sensor network server (SS) stores the sensing data sent via the base station (GW) in the sensing database (SSDB). The sensor network server (SS) transmits sensing data or secondary data based on a request from the application server (AS) or the client (CL). Furthermore, the sensor network server (SS) manages information on the base station (GW) and the sensor terminals (TR) under the control of the base station (GW) as needed.

センサネットサーバ(SS)は、送受信部(SSSR)、記憶部(SSME)及び制御部(SSCO)を備える。   The sensor network server (SS) includes a transmission / reception unit (SSSR), a storage unit (SSME), and a control unit (SSCO).

送受信部(SSSR)は、基地局(GW)、アプリケーションサーバ(AS)、との間で、データの送信及び受信を制御する。   The transmission / reception unit (SSSR) controls data transmission and reception with the base station (GW) and the application server (AS).

記憶部(SSME)は、ハードディスク等のデータ記憶装置によって構成され、少なくとも、センシングデータベース(SSDB)、二次データベース(SSDT)、データ形式情報(SSMF)を格納する。さらに、記憶部(SSME)は、制御部(SSCO)のCPU(図示省略)によって実行されるプログラムを格納する。   The storage unit (SSME) is configured by a data storage device such as a hard disk, and stores at least a sensing database (SSDB), a secondary database (SSDT), and data format information (SSMF). Furthermore, the storage unit (SSME) stores a program executed by a CPU (not shown) of the control unit (SSCO).

センシングデータベース(SSDB)は、各センサ端末(TR)が取得したセンシングデータと、センサ端末(TR)の情報、及び、各センサ端末(TR)から送信されたセンシングデータが通過した基地局(GW)の情報等を記録しておくためのデータベースである。加速度等、データの要素ごとにカラムが生成され、データが管理される。また、データの要素ごとにテーブルが生成されてもよい。どちらの場合にも、全てのデータは、それらのデータを取得したセンサ端末(TR)のIDである端末情報(TRMT)(図4)と、センシングした時刻に関する情報とが関連付けて管理される。   The sensing database (SSDB) is a base station (GW) through which sensing data acquired by each sensor terminal (TR), information on the sensor terminal (TR), and sensing data transmitted from each sensor terminal (TR) has passed. It is a database for recording such information. A column is generated for each data element such as acceleration, and the data is managed. A table may be generated for each data element. In either case, all data is managed in association with terminal information (TRMT) (FIG. 4), which is the ID of the sensor terminal (TR) that acquired the data, and information regarding the sensed time.

二次データベース(SSDT)は、センシングデータベース(SSDB)のデータをセンシングデータ処理(SSCDT)した結果を格納するデータベースである。二次データベース(SSDT)に格納されている二次データは、所定の前処理によって規格化された、ユーザ(US)、すなわち社内の従業員間の物理的な対面状態を特定可能なデータである。この二次データは、センシングデータからノイズが取り除かれ、基本コンテンツを生成するために適した形式、例えば一日ごとにユーザ(US)の任意の2者間の合計対面時間を行列形式で表現したものなど、で保管される。   The secondary database (SSDT) is a database that stores the result of sensing data processing (SSCDT) on data in the sensing database (SSDB). The secondary data stored in the secondary database (SSDT) is data that can specify the physical face-to-face state between users (US), that is, employees in the company, standardized by predetermined preprocessing. . In this secondary data, noise is removed from the sensing data, and a format suitable for generating basic content, for example, the total face-to-face time between any two users (US) per day is expressed in a matrix format. Stored in things, etc.

データ形式情報(SSMF)には、通信のためのデータ形式、基地局(GW)でタグ付けされたセンシングデータを切り分けてデータベースに記録する方法、センシングデータ処理(SSCDT)された二次データを二次データベース(SSDT)に記録する方法、及び、データの要求に対する対応方法を示す情報等が記録されている。センサネットサーバ(SS)ではデータ受信の後、またはデータ送信の前にはこのデータ形式情報(SSMF)が参照され、データ形式の変換とデータ振り分けが行われる。   Data format information (SSMF) includes a data format for communication, a method of separating sensing data tagged with a base station (GW) and recording it in a database, and secondary data subjected to sensing data processing (SSCDT). Information indicating a method of recording in the next database (SSDT) and a method of responding to the request for data are recorded. The sensor network server (SS) refers to this data format information (SSMF) after data reception or before data transmission, and performs data format conversion and data distribution.

制御部(SSCO)は、CPU(図示省略)を備え、センシングデータの送受信やデータベースへの記録・取り出しを制御する。具体的には、CPUが記憶部(SSME)に格納されたプログラムを実行することによって、センシングデータ保管(SSCDB)、センシングデータ処理(SSCDT)及び二次データ検索(SSCTS)等の処理を実行する。   The control unit (SSCO) includes a CPU (not shown) and controls transmission / reception of sensing data and recording / retrieving to / from a database. Specifically, the CPU executes a program stored in the storage unit (SSME) to execute processing such as sensing data storage (SSCDB), sensing data processing (SSCDT), and secondary data search (SSCTS). .

センシングデータ保管(SSCDB)は、基地局(GW)から送られてきたセンシングデータを受け取り、センシングデータベース(SSDB)に格納する処理である。時刻情報や端末ID、基地局を経由した時刻などの付加情報を合わせて1レコードとして、データベースに格納する。   Sensing data storage (SSCDB) is processing for receiving sensing data sent from a base station (GW) and storing it in a sensing database (SSDB). Additional information such as time information, terminal ID, and time via the base station is combined and stored in the database as one record.

時計(SSCK)は、外部NTPサーバ(TS)と定期的に接続することによって、標準時刻を保持している。時計(SSCK)があらかじめ指定した時刻、または特定の条件を満たしたときに、センシングデータ処理(SSCDT)をタイマ起動(SSTK)する。   The clock (SSCK) maintains a standard time by periodically connecting to the external NTP server (TS). When the clock (SSCK) satisfies a predetermined time or a specific condition, the sensing data processing (SSCDT) is activated (SSTK).

センシングデータ処理(SSCDT)は、センシングデータベース(SSDB)からセンシングデータ、すなわちセンサ端末(TR)で取得されたデータをデータ形式情報(SSMF)で指定された方法によって前処理し、二次データを生成する。   Sensing data processing (SSCDT) pre-processes sensing data from the sensing database (SSDB), that is, data acquired by the sensor terminal (TR) by the method specified by the data format information (SSMF), and generates secondary data To do.

生成された二次データは二次データベース(SSDT)に格納される。一定間隔でセンシングデータ処理(SSCDT)を起動し、新しく追加されたセンシングデータを処理することで、二次データベース(SSDT)は常に更新された状態になるように保たれる。   The generated secondary data is stored in a secondary database (SSDT). By starting sensing data processing (SSCDT) at regular intervals and processing newly added sensing data, the secondary database (SSDT) is always kept updated.

二次データ検索(SSCTS)は、アプリケーションサーバ(AS)から要求を受けた際に、この要求に対応した二次データを二次データベース(SSDT)から取り出し、要求元に送信する処理を行う。この処理では、二次データに付与されている、日付や端末IDなどのタグ情報をもとに二次データが検索される。   In the secondary data search (SSCTS), when a request is received from the application server (AS), secondary data corresponding to the request is extracted from the secondary database (SSDT) and transmitted to the request source. In this process, secondary data is searched based on tag information such as date and terminal ID given to the secondary data.

センサネットサーバ(SS)のCPUもアプリケーションサーバ(AS)のCPUと同様であり、CPUは各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、CPUは、センシングデータ処理プログラムに従って動作することでセンシングデータ処理部として機能する。他のプログラムについても同様である。さらに、CPUは、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。   The CPU of the sensor network server (SS) is similar to the CPU of the application server (AS), and the CPU operates as a functional unit that realizes a predetermined function by operating according to the program of each functional unit. For example, the CPU functions as a sensing data processing unit by operating according to a sensing data processing program. The same applies to other programs. Furthermore, the CPU also operates as a functional unit that realizes each of a plurality of processes executed by each program. A computer and a computer system are an apparatus and a system including these functional units.

制御部(SSCO)の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。   Information such as a program and a table for realizing each function of the control unit (SSCO) is a storage device, a nonvolatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), an IC card, an SD card, a DVD Etc., and can be stored in a computer readable non-transitory data storage medium.

<基地局(GW)>
図4Bにおいて、基地局(GW)は、センサ端末(TR)とセンサネットサーバ(SS)を仲介する役目を持つ。センサ端末(TR)と基地局(GW)間が無線で接続される場合には、無線の到達距離を考慮して、居室や職場等の領域をカバーするように複数の基地局(GW)が配置される。有線で接続される場合には、基地局(GW)の処理能力に合わせて管理するセンサ端末(TR)の個数の上限が設定される。
<Base station (GW)>
In FIG. 4B, the base station (GW) has a role of mediating between the sensor terminal (TR) and the sensor network server (SS). When the sensor terminal (TR) and the base station (GW) are wirelessly connected, a plurality of base stations (GWs) are provided so as to cover areas such as living rooms and workplaces in consideration of the wireless reachable distance. Be placed. In the case of wired connection, an upper limit of the number of sensor terminals (TR) to be managed is set in accordance with the processing capability of the base station (GW).

基地局(GW)は、送受信部(GWSR)、記憶部(GWME)及び制御部(GWCO)を備える。   The base station (GW) includes a transmission / reception unit (GWSR), a storage unit (GWME), and a control unit (GWCO).

送受信部(GWSR)は、センサ端末(TR)からデータを無線または有線にて受信し、センサネットサーバ(SS)への有線又は無線による送信を行う。送受信に無線を用いる場合には、送受信部(GWSR)は無線通信を行うためのアンテナを備える。   The transmission / reception unit (GWSR) receives data from the sensor terminal (TR) wirelessly or by wire, and performs wired or wireless transmission to the sensor network server (SS). When wireless is used for transmission / reception, the transmission / reception unit (GWSR) includes an antenna for performing wireless communication.

記憶部(GWME)は、ハードディスク、メモリ、又はSDメモリカードのような外部記録装置(図示省略)で構成される。記憶部(GWME)には、データ形式情報(GWMF)、基地局情報(GWMG)等が格納される。データ形式情報(GWMF)は、通信のためのデータ形式を示す情報、及び、センシングデータにタグを付ける際に必要となる情報を含む。基地局情報(GWMG)は、基地局(GW)自身のアドレスなどの情報を含む。   The storage unit (GWME) is configured by an external recording device (not shown) such as a hard disk, a memory, or an SD memory card. The storage unit (GWME) stores data format information (GWMF), base station information (GWMG), and the like. The data format information (GWMF) includes information indicating a data format for communication and information necessary for tagging the sensing data. The base station information (GWMG) includes information such as the address of the base station (GW) itself.

記憶部(GWME)には、さらに、制御部(GWCO)のCPU(図示省略)によって実行されるプログラムが格納されてもよい。   The storage unit (GWME) may further store a program executed by a CPU (not shown) of the control unit (GWCO).

制御部(GWCO)は、CPU(図示省略)を備える。CPUが記憶部(GWME)に格納されているプログラムを実行することによって、センサ端末(TR)からセンシングデータを受信するタイミング、センシングデータの処理、センサ端末(TR)やセンサネットサーバ(SS)への送受信のタイミング、及び、時刻同期のタイミングが管理される。具体的には、センシングデータ受信制御(GWCSR)、センシングデータ送信(GWCSS)及び時刻同期(GWCS)等の処理を実行する。   The control unit (GWCO) includes a CPU (not shown). When the CPU executes a program stored in the storage unit (GWME), the timing at which sensing data is received from the sensor terminal (TR), the processing of the sensing data, to the sensor terminal (TR) or the sensor network server (SS) The transmission / reception timing and the time synchronization timing are managed. Specifically, processes such as sensing data reception control (GWCSR), sensing data transmission (GWCSS), and time synchronization (GWCS) are executed.

時計(GWCK)は時刻情報を保持する。そして、一定間隔で時刻情報は更新される。すなわち、一定間隔でNTPサーバ(TS)から取得した時刻情報によって、時計(GWCK)の時刻情報が修正される。   The clock (GWCK) holds time information. The time information is updated at regular intervals. That is, the time information of the clock (GWCK) is corrected by the time information acquired from the NTP server (TS) at regular intervals.

時刻同期(GWCS)は、一定間隔、または、センサ端末(TR)が基地局(GW)と接続されたのをトリガとして、配下のセンサ端末(TR)に時刻情報を送信する。これによって、複数のセンサ端末(TR)と基地局(GW)の時計(GWCK)の時刻が同期される。   Time synchronization (GWCS) transmits time information to a subordinate sensor terminal (TR) at a fixed interval or triggered by the sensor terminal (TR) being connected to a base station (GW). Thereby, the time of the clock (GWCK) of the plurality of sensor terminals (TR) and the base station (GW) is synchronized.

センシングデータ受信制御(GWCSR)は、センサ端末(TR)から送られてきたセンシングデータ(SENSD)のパケットを受信する。センシングデータ受信制御(GWCSR)では、データのパケットのヘッダを読み込み、データの種類を判別したり、多数のセンサ端末(TR)から同時にデータが集中して送信されないように輻輳制御を行うことができる。   The sensing data reception control (GWCSR) receives a packet of sensing data (SENSD) sent from the sensor terminal (TR). In the sensing data reception control (GWCSR), it is possible to read the header of the data packet, determine the type of data, and perform congestion control so that data is not concentrated and transmitted simultaneously from many sensor terminals (TR). .

センシングデータ送信(GWCSS)は、データが通過した基地局のIDや、通過した時刻データを付与し、センシングデータをセンサネットサーバ(SS)に送信する。   In the sensing data transmission (GWCSS), the ID of the base station through which the data has passed and the time data through which the data has passed are assigned, and the sensing data is transmitted to the sensor network server (SS).

<センサ端末(TR)>
図5A、図5Bは、センサノードの一実施例であるセンサ端末(TR)の構成を示している。本実施例では図1で示したように、センサ端末(TR)は名札型の形状をしており、人物の首からぶら下げることを想定しているが、これは一例であり、他の形状でもよい。
<Sensor terminal (TR)>
5A and 5B show the configuration of a sensor terminal (TR) which is an embodiment of the sensor node. In this embodiment, as shown in FIG. 1, the sensor terminal (TR) has a name tag type shape and is assumed to hang from a person's neck, but this is an example, and other shapes are also possible. Good.

センサ端末(TR)は、多くの場合には、本実施例で説明しているシステムの中に複数存在し、組織に属する人物(本実施の形態においては社内の従業員であるユーザ(US)がこれに相当する)がそれぞれ身に着けるものである。センサ端末(TR)は人間(ユーザ(US))同士の対面状況を検出するための複数の赤外線送受信部(AB)、装着者の動作を検出するための三軸加速度センサ(AC)等の各種センサを搭載する。搭載するセンサは一例であり、装着者間の対面状況と動作を検出するために他のセンサを使用してもよい。   In many cases, a plurality of sensor terminals (TR) exist in the system described in the present embodiment, and a person belonging to an organization (in this embodiment, a user (US) who is an in-house employee) Is equivalent to this). The sensor terminal (TR) includes various infrared transmission / reception units (AB) for detecting the face-to-face situation between humans (users (US)), a triaxial acceleration sensor (AC) for detecting a wearer's movement, and the like. Mount the sensor. The mounted sensor is an example, and other sensors may be used to detect the face-to-face situation and movement between wearers.

本実施例では、赤外線送受信部(AB)は4組備えられる。赤外線送受信部(AB)は、センサ端末(TR)の固有識別情報である端末情報(TRMT)をセンサ端末(TR)の正面方向に向かって定期的に送信し続ける。他のセンサ端末(TR)を装着した人物が略正面(例えば、正面又は斜め正面)に位置した場合、センサ端末(TR)と他のセンサ端末(TR)とは、それぞれの端末情報(TRMT)を赤外線で相互に通信する。この端末情報(TRMT)を取得することで、誰と誰が対面しているのかを記録することができる。   In this embodiment, four sets of infrared transmission / reception units (AB) are provided. The infrared transmission / reception unit (AB) continues to periodically transmit terminal information (TRMT), which is unique identification information of the sensor terminal (TR), in the front direction of the sensor terminal (TR). When a person wearing another sensor terminal (TR) is positioned substantially in front (for example, front or diagonally front), the sensor terminal (TR) and the other sensor terminal (TR) have their respective terminal information (TRMT). Communicate with each other via infrared. By acquiring this terminal information (TRMT), it is possible to record who and who are facing each other.

また、クライアント(CL)に備えられる閲覧者検出器(CLVD)は、この端末情報(TRMT)を受信することで、どのユーザ(US)がクライアント(CL)のディスプレイ(CLOD)を閲覧しているかを検出することができる。また逆に、センサ端末(TR)が閲覧者検出器(CLVD)から送信された検出器ID(CLVDID)を受信することで、クライアント(CL)の設置場所にユーザ(US)が滞在していたことを記録することができる。   In addition, the viewer detector (CLVD) provided in the client (CL) receives this terminal information (TRMT), which user (US) is browsing the display (CLOD) of the client (CL). Can be detected. Conversely, the user (US) stayed at the installation location of the client (CL) when the sensor terminal (TR) received the detector ID (CLVDID) transmitted from the viewer detector (CLVD). Can be recorded.

上述した各種のセンサによって検出されたセンシングデータ(SENSD)は、センシングデータ格納制御部(SDCNT)によって、記憶部(STRG)に格納される。センシングデータ(SENSD)は通信制御部(TRCC)によって送信パケットに加工され、送受信部(TRSR)によって基地局(GW)に送信される。   Sensing data (SENSD) detected by the various sensors described above is stored in the storage unit (STRG) by the sensing data storage control unit (SDCNT). The sensing data (SENSD) is processed into a transmission packet by the communication control unit (TRCC) and transmitted to the base station (GW) by the transmission / reception unit (TRSR).

三軸加速度センサ(AC)は、ノードの加速度すなわちセンサ端末(TR)の動きを検出する。つまり、三軸加速度センサ(AC)から得られる加速度データから、センサ端末(TR)を装着した人物の動きの激しさや、歩行などの行動を解析することができる。さらに、複数のセンサ端末(TR)が検出した加速度の値を例えば時系列で比較することによって、それらのセンサ端末(TR)を装着した人物間のコミュニケーションの活性度(活発さ)や相互の動きのリズム、相互の動きの相関等を解析できる。   The triaxial acceleration sensor (AC) detects the acceleration of the node, that is, the movement of the sensor terminal (TR). That is, from the acceleration data obtained from the triaxial acceleration sensor (AC), it is possible to analyze the intensity of movement of a person wearing the sensor terminal (TR) and behavior such as walking. Further, by comparing the acceleration values detected by the plurality of sensor terminals (TR) in, for example, time series, the activity (activity) of communication between the persons wearing the sensor terminals (TR) and mutual movements. The rhythm of each other, the correlation of the mutual movement, etc. can be analyzed.

本実施例において、センサ端末(TR)では、三軸加速度センサ(AC)で取得されるデータは、センシングデータ格納制御部(SDCNT)によって記憶部(STRG)に格納されると同時に、上下検知回路(UDDET)によって名札の上下方向の向きを検出する。これは、三軸加速度センサ(AC)で検出される加速度は、装着者の動きによる動的な加速度変化と、地球の重力加速度による静的な加速度の2種類が観測されることを利用している。   In this embodiment, in the sensor terminal (TR), the data acquired by the triaxial acceleration sensor (AC) is stored in the storage unit (STRG) by the sensing data storage control unit (SDCNT), and at the same time, the vertical detection circuit (UDDET) detects the vertical direction of the name tag. This is because two types of acceleration detected by the three-axis acceleration sensor (AC) are observed: a dynamic acceleration change due to the wearer's movement and a static acceleration due to the gravitational acceleration of the earth. Yes.

表示装置(LCDD)は、端末(TR)を胸に装着しているときは、装着者の所属、氏名などの個人情報を表示する。つまり、名札として振舞う。   When the terminal (TR) is worn on the chest, the display device (LCDD) displays personal information such as the affiliation and name of the wearer. In other words, it behaves as a name tag.

赤外線送受信部(AB)が他のセンサ端末(TR)との間で赤外線を送受信することによって、センサ端末(TR)が他のセンサ端末(TR)と対面したか否か、すなわち、センサ端末(TR)を装着した人物が他のセンサ端末(TR)を装着した人物と対面したか否かが検出される。このため、センサ端末(TR)は、人物の正面部に装着されることが望ましい。   Whether the sensor terminal (TR) has faced another sensor terminal (TR) by transmitting / receiving infrared rays to / from the other sensor terminal (TR), that is, the sensor terminal ( It is detected whether or not the person wearing TR) faces a person wearing another sensor terminal (TR). For this reason, it is desirable that the sensor terminal (TR) be mounted on the front part of a person.

上述の通り、センサ端末(TR)は三軸加速度センサ(AC)等のセンサを備える。センサ端末(TR)におけるセンシングのプロセスが、図5A、図5Bにおけるセンシング(TRSS1)の処理に相当する。   As described above, the sensor terminal (TR) includes a sensor such as a triaxial acceleration sensor (AC). The sensing process in the sensor terminal (TR) corresponds to the sensing (TRSS1) process in FIGS. 5A and 5B.

記憶部(STRG)は、具体的にはハードディスク、フラッシュメモリなどの不揮発記憶装置で構成され、センサ端末(TR)の固有識別番号である端末情報(TRMT)、センシングの間隔、及び、ディスプレイへの出力内容等の動作を規定する動作設定(TRMA)を記録している。この他にも記憶部(STRG)は一時的にデータを記録することができ、センシングしたデータを記録しておくために利用される。   The storage unit (STRG) is specifically composed of a nonvolatile storage device such as a hard disk or a flash memory, and includes terminal information (TRMT) that is a unique identification number of the sensor terminal (TR), a sensing interval, and a display. Operation settings (TRMA) that define operations such as output contents are recorded. In addition, the storage unit (STRG) can temporarily record data and is used to record sensed data.

時計(TRCK)は、時刻情報(GWCSD)を保持し、一定間隔で時刻情報(GWCSD)を更新する時計である。時間情報は、時刻情報(GWCSD)が他のセンサ端末(TR)のものとずれることを防ぐために、基地局(GW)から送信される時刻情報(GWCSD)によって定期的に時刻が修正される。   The clock (TRCK) is a clock that holds time information (GWCSD) and updates the time information (GWCSD) at regular intervals. In order to prevent the time information (GWCSD) from deviating from that of other sensor terminals (TR), the time information is periodically corrected based on the time information (GWCSD) transmitted from the base station (GW).

センシングデータ格納制御部(SDCNT)は、記憶部(STRG)に記録された動作設定(TRMA)に従って、各センサのセンシング間隔などを制御し、取得したデータを管理する。   The sensing data storage control unit (SDCNT) controls the sensing interval of each sensor according to the operation setting (TRMA) recorded in the storage unit (STRG) and manages the acquired data.

通信制御部(TRCC)は、データを送受信する際に、送信間隔の制御、及び、無線の送受信に対応したデータフォーマットへの変換を行う。   The communication control unit (TRCC) performs transmission interval control and conversion to a data format compatible with wireless transmission and reception when transmitting and receiving data.

送受信部(TRSR)は、アンテナを備え、無線信号の送信及び受信を行う。   The transmission / reception unit (TRSR) includes an antenna and transmits and receives radio signals.

<会議対面二次データ生成のシーケンス>
図6は、本発明の実施例において実行される、会議時の各々の参加者の活動状況を表す会議対面二次データを生成する手順を示すシーケンス図である。図6には、センサ端末装着者検出器(ISD)、距離センサ(RS)、計測PC(MP)、データ処理サーバ(DS)のそれぞれで実行される処理が時系列的に示されている。
<Conference meeting secondary data generation sequence>
FIG. 6 is a sequence diagram showing a procedure for generating conference-facing secondary data representing the activity status of each participant during a conference, which is executed in the embodiment of the present invention. In FIG. 6, processes executed in each of the sensor terminal wearer detector (ISD), the distance sensor (RS), the measurement PC (MP), and the data processing server (DS) are shown in time series.

会議室に設置された計測PC(MP)において、会議計測アプリケーション(図示省略)が起動され、マウス(MPIM)の操作によって会議開始ボタンが押されるなど、会議開始(MPST)を意味する操作がなされたら、NPTサーバ(TS)と接続し、時刻修正(MPCS)を行う。時刻を修正することで、データ計測時の時刻を正しく記録することができ、同時刻に行われた複数の参加者の身体動作を、複数の計測装置で取得した場合においても、時刻情報を照らし合わせることにより、同じタイミングのデータを取り出すことが可能となる。なお、会議計測アプリケーションは、図3Bに示した時計(MPCK)、距離センサ制御(MPRS)、検出器制御(MPISD)、会議基本情報生成(MPDM)、座席表生成(MPSC)の各処理を含むソフトウェアである。   In the measurement PC (MP) installed in the conference room, a conference measurement application (not shown) is activated, and an operation meaning a conference start (MPST) is performed, for example, a conference start button is pressed by a mouse (MPIM) operation. Then, it connects with the NPT server (TS) and performs time correction (MPCS). By correcting the time, the time at the time of data measurement can be recorded correctly, and even when the physical movements of multiple participants performed at the same time are acquired by multiple measurement devices, the time information is illuminated. By combining them, it is possible to extract data at the same timing. Note that the conference measurement application includes the clock (MPCK), distance sensor control (MPRS), detector control (MPISD), conference basic information generation (MPDM), and seating chart generation (MPSC) processing shown in FIG. 3B. Software.

計測PC(MP)は、時刻の修正後、二つのセンサに対して、計測(MPRQ)要求を送信する。まず一つ目は、センサ端末装着者検出器(ISD)である。センサ端末装着者検出器(ISD)は、センシング(ISDSS)により、会議の参加者の一部が装着しているセンサ端末(TR)が送信する赤外線を受信し、センサ端末(TR)に固有の端末IDを取得する。   The measurement PC (MP) transmits a measurement (MPRQ) request to the two sensors after correcting the time. The first is a sensor terminal wearer detector (ISD). The sensor terminal wearer detector (ISD) receives infrared rays transmitted by the sensor terminal (TR) worn by a part of the conference participants by sensing (ISDSS), and is specific to the sensor terminal (TR). Get the terminal ID.

センサ端末装着者検出器(ISD)が検出したIDは、データ送信(ISDSE)により、計測PC(MC)に送信され、時刻とともに格納される。センサ端末装着者検出器(ISD)の指向性を利用し、複数のセンサ端末装着者検出器(ISD)を、それぞれ向きを変えて設置することで、どのセンサ端末装着者検出器(ISD)でどのセンサ端末(TR)のIDを取得したかによって、センサ端末(TR)のおおよその位置を推定することも可能である。   The ID detected by the sensor terminal wearer detector (ISD) is transmitted to the measurement PC (MC) by data transmission (ISDSE) and stored along with the time. By using the directivity of the sensor terminal wearer detector (ISD) and installing a plurality of sensor terminal wearer detectors (ISD) in different directions, which sensor terminal wearer detector (ISD) It is possible to estimate the approximate position of the sensor terminal (TR) depending on which sensor terminal (TR) ID is acquired.

二つ目のセンサは、距離センサ(RS)である。距離センサ(RS)は、センシング(RSSS)により、人物や壁などの障害物表面までの距離を計測する装置である。計測PC(MC)は、既知の位置に設置した距離センサ(RS)で、会議室内を三次元でスキャンすることで、会議室内の三次元形状を把握することが可能となる。そして、計測PC(MC)は、計測位置(X,Y,Z)、計測の方向(α,β,γ)、距離センサ(RS)の位置と方向から計測された深度画像から、空間上の一点の座標値を算出することが出来る。   The second sensor is a distance sensor (RS). The distance sensor (RS) is a device that measures the distance to an obstacle surface such as a person or a wall by sensing (RSSS). The measurement PC (MC) can grasp the three-dimensional shape in the conference room by scanning the conference room in three dimensions with a distance sensor (RS) installed at a known position. Then, the measurement PC (MC) is obtained from the depth image measured from the measurement position (X, Y, Z), the measurement direction (α, β, γ), and the position and direction of the distance sensor (RS). The coordinate value of one point can be calculated.

このような、空間上の座標値の集まりを点群といい、点群として座標値を格納することとする。点群データの生成にあたり、ひとつまたは複数の距離センサ(RS)を用いて各々の方向でデータを計測し、計測PC(MP)でデータを統合することによって360度全方向の点群データを生成する。データの構成の一例を図23に示す。   Such a collection of coordinate values in space is called a point group, and coordinate values are stored as a point group. When generating point cloud data, measure data in each direction using one or more distance sensors (RS), and integrate the data with a measurement PC (MP) to generate 360 degree omnidirectional point cloud data To do. An example of the data structure is shown in FIG.

図23は、センサネットサーバ(SS)に保持されるセンシングデータ(RSSD)の一例を示す。センシングデータ(RSSD)は、距離のデータを測定したセンシング時刻(SSTM)と、当該センシング時刻に於ける3次元空間内の座標を点群データで格納する点群座標値(PCCV)から一つのエントリが構成される。   FIG. 23 shows an example of sensing data (RSSD) held in the sensor network server (SS). Sensing data (RSSD) is one entry from a sensing time (SSTM) at which distance data is measured and a point cloud coordinate value (PCCV) that stores the coordinates in the three-dimensional space at the sensing time as point cloud data. Is configured.

センシングした距離データは、データ送信(RSSE)により、計測PC(MC)に送信され、時刻とともに格納される。   The sensed distance data is transmitted to the measurement PC (MC) by data transmission (RSSE) and stored together with the time.

計測PC(MP)では、時系列順に送信されてくる、センサ端末装着者検出器(ISD)からの検出IDデータと、距離センサ(RS)から送られてくるセンシングデータとを、時刻と共に順次格納していく。   In the measurement PC (MP), detection ID data from the sensor terminal wearer detector (ISD) and sensing data sent from the distance sensor (RS), which are transmitted in chronological order, are sequentially stored along with the time. I will do it.

会議時間中の会議参加者の活動データを取得するために距離センサ(RS)のセンシングデータを利用するが、誰がどの時間帯にどのように動いていたかを把握するためには、会議の参加者の座席配置を把握する必要がある。   The sensing data of the distance sensor (RS) is used to acquire the activity data of the conference participants during the conference time, but in order to grasp who was moving in what time and how, It is necessary to grasp the seat arrangement.

会議室には、机と椅子が置いてあるが、椅子は固定ではなく移動可能であるため、実際の配置に基づく座席表が必要となる。このため、会議開始後に、計測PC(MP)では、まず座席表を生成する。   There are desks and chairs in the conference room, but the chairs are not fixed and can be moved, so a seating chart based on the actual layout is required. For this reason, after starting the conference, the measurement PC (MP) first generates a seating chart.

計測PC(MP)のマウス(MPIM)の操作などにより、座席表生成ボタンが押されるなど、座席表生成を意味する指令を受け付けると(MPSCQ)、現在、距離センサ(RS)から送信されたセンシングデータに基づき、参加者の配置を特定する座席表生成(MPSC)を実施する。計測PC(MP)の利用者は、会議参加者の所属や氏名を対応付ける作業を、半自動で実施する。詳細は、図10A、図10Bで後述する。   When a command indicating seating chart generation is received (MPSCQ), for example, a seating chart generation button is pressed by operating the mouse (MPIM) of the measurement PC (MP), etc., sensing currently transmitted from the distance sensor (RS) Based on the data, a seating chart generation (MPSC) that identifies the arrangement of participants is performed. The user of the measurement PC (MP) carries out the work of associating the affiliation and name of the conference participant semi-automatically. Details will be described later with reference to FIGS. 10A and 10B.

計測PC(MP)から送信する計測(MPRQ)要求は、マウス(MPIM)等の操作などによって、会議終了ボタンを押すなど、会議終了(MPMF)を意味する動作がなされるまで継続する。計測PC(MP)はセンサ端末装着者検出器(ISD)と距離センサ(RS)のデータを受信しつづける。なお、座席表生成(MPSC)作業の間も、データの計測要求及び計測データの受信を継続して実施する。   The measurement (MPRQ) request transmitted from the measurement PC (MP) is continued until an operation indicating a conference end (MPMF) is performed, such as pressing a conference end button by operating a mouse (MPIM) or the like. The measurement PC (MP) continues to receive data from the sensor terminal wearer detector (ISD) and the distance sensor (RS). During the seating chart generation (MPSC) work, the data measurement request and the measurement data are continuously received.

次に、会議終了(MPMF)後、計測PC(MP)は、会議基本データ(MPDM)生成を実施する。図11に会議基本データ(MPDM)の一例を示す。会議基本データ(MPDM)は、会議の開催日(MPDM1)、会議の開始時間(MPDM2)、会議の終了時間(MPDM3)、会議の実施場所(MPDM4)、会議の参加者の所属(MPDM5)、会議の参加者の氏名(MPDM6)を格納したデータとする。   Next, after the conference ends (MPMF), the measurement PC (MP) generates conference basic data (MPDM). FIG. 11 shows an example of conference basic data (MPDM). The basic conference data (MPDM) includes the conference date (MPDM1), conference start time (MPDM2), conference end time (MPDM3), conference location (MPDM4), affiliation of conference participants (MPDM5), It is assumed that the name of the conference participant (MPDM6) is stored.

会議の開催日(MPDM1)には、NPTサーバから受信した時刻修正後の時刻データの日付を格納する。会議の開始時間(MPDM2)には、マウス(MPIM)の操作によって会議開始ボタンが押されたなど、会議の開始を意味する動作が発生した時間を格納する。会議終了時間(MPDM3)には、会議終了ボタンが押されたなど、会議終了を意味する動作が発生した時間を格納する。会議実施場所(MPDM4)には、会議室名を格納するが、各会議室に設置された計測PC(MP)と会議室名を事前に対応付けておけば、使用した計測PC(MP)によって会議室名が一意に定まる。会議参加者所属(MPDM5)や参加者(MPDM6)の氏名には、座席表生成(MPSC)時に入力された会議参加者の所属や氏名が格納される。   The date of the time data after the time correction received from the NPT server is stored in the conference date (MPDM1). The conference start time (MPDM2) stores the time at which an operation meaning the start of the conference occurs, for example, the conference start button is pressed by operating the mouse (MPIM). The conference end time (MPDM3) stores the time when an operation that means the end of the conference occurs, such as when the conference end button is pressed. The meeting place name (MPDM4) stores the name of the meeting room. If the measurement PC (MP) installed in each meeting room is associated with the meeting room name in advance, it depends on the used measurement PC (MP). The meeting room name is uniquely determined. The names of conference participants belonging (MPDM5) and participants (MPDM6) store the names and names of the conference participants input at the time of seating chart generation (MPSC).

会議基本データ(MPDM)の生成が終了したら、距離センサ(RS)で取得したセンシングデータと、座席表生成(MPSC)で生成した座席表、会議基本データ(MPDM)で生成した会議基本データ(MPDM)を、データ処理サーバ(DS)に送信する。   When the generation of the conference basic data (MPDM) is completed, the sensing data acquired by the distance sensor (RS), the seating chart generated by the seating chart generation (MPSC), and the meeting basic data (MPDM) generated by the meeting basic data (MPDM) ) To the data processing server (DS).

データ処理サーバ(DS)では、計測PC(MP)から送信されたデータを受け取ったら、受信完了レスポンスを計測PC(MP)に送信する。   When the data processing server (DS) receives the data transmitted from the measurement PC (MP), it transmits a reception completion response to the measurement PC (MP).

データ処理サーバ(DS)は、まず、会議活動量算出(DSAC)で、距離センサ(RS)で取得したセンサデータに基づき、会議に参加した人の頭部の動きデータを抽出し、会議の参加者について時系列の会議における活動量(会議活動量)を算出する。会議活動量の算出の詳細は、図22で後述する。   First, the data processing server (DS) extracts the head movement data of the person who participated in the conference based on the sensor data acquired by the distance sensor (RS) in the conference activity amount calculation (DSAC) and participates in the conference. The amount of activity in a time-series meeting (conference activity amount) is calculated for the person. Details of the calculation of the conference activity amount will be described later with reference to FIG.

データ処理サーバ(DS)で行われる会議対面二次データ生成(DSMM)では、会議参加者の時系列の会議活動量より活性度を算出し、双方の活性度の高かった時間、自分だけ活性度の高い時間または相手だけ活性度の高い時間を、会議参加者全員の各組み合わせについて算出し、マトリクスデータとして出力する。詳細は、図27で後述する。   In the meeting face-to-face secondary data generation (DSMM) performed by the data processing server (DS), the activity is calculated from the amount of conference activities of the conference participants in time series. Or a time when the activity is high only for the other party is calculated for each combination of all the conference participants and output as matrix data. Details will be described later with reference to FIG.

<センサ端末(TR)のデータ格納のシーケンス>
図7は、本発明の実施の形態において実行される、センサ端末(TR)で取得したセンシングデータをセンサネットサーバ(SS)に格納する手順を示すシーケンス図である。図7には、センサ端末(TR)、基地局(GW)、およびセンサネットサーバ(SS)のそれぞれで実行される処理が時系列で示されている。
<Data storage sequence of sensor terminal (TR)>
FIG. 7 is a sequence diagram showing a procedure for storing sensing data acquired by the sensor terminal (TR) in the sensor network server (SS), which is executed in the embodiment of the present invention. In FIG. 7, processes executed in each of the sensor terminal (TR), the base station (GW), and the sensor network server (SS) are shown in time series.

センサ端末(TR)が、一つの基地局(GW)との通信が可能な状態になると(TRTA1)、センサ端末(TR)は、時刻同期(TRCS)を行う。時刻同期(TRCS)において、センサ端末(TR)は、基地局(GW)に時刻同期の要求を送信し、基地局(GW)から時刻情報を受信してセンサ端末(TR)内の時計(TRCK)を設定する。基地局(GW)は、NTPサーバ(TS)と定期的に接続し、時刻を修正している。   When the sensor terminal (TR) becomes ready for communication with one base station (GW) (TRTA1), the sensor terminal (TR) performs time synchronization (TRCS). In time synchronization (TRCS), the sensor terminal (TR) transmits a request for time synchronization to the base station (GW), receives time information from the base station (GW), and receives a clock (TRCK) in the sensor terminal (TR). ) Is set. The base station (GW) periodically connects to the NTP server (TS) and corrects the time.

センサ端末(TR)の三軸加速度センサ(AC)などの各種センサは、例えば10秒ごとの一定の周期でタイマ割り込みによって起動(TRST)し、加速度等をセンシングする(TRSS1)。センサ端末(TR)は、端末情報(TRMT)の一つであるセンサ端末IDを、赤外線によって他のセンサ端末(TR)との間で送受信することで、対面状態を検出する。   Various sensors such as the three-axis acceleration sensor (AC) of the sensor terminal (TR) are activated (TRST) by a timer interrupt at a constant cycle, for example, every 10 seconds, and sense acceleration or the like (TRSS1). The sensor terminal (TR) detects the facing state by transmitting / receiving a sensor terminal ID, which is one of terminal information (TRMT), to / from another sensor terminal (TR) using infrared rays.

センサ端末(TR)は、センシングしたデータに、時計(TRCK)の時刻情報及び端末情報(TRMT)を添付する(TRCT1)。データを解析する際には、端末情報(TRMT)によって、センサ端末(TR)を装着した人物が識別される。   The sensor terminal (TR) attaches time information of the clock (TRCK) and terminal information (TRMT) to the sensed data (TRCT1). When analyzing data, the terminal information (TRMT) identifies the person wearing the sensor terminal (TR).

データ形式変換(TRDF1)においてセンサ端末(TR)は、センシングデータにセンシングの条件などのタグ情報を付与し、予め設定された無線送信フォーマットに変換する。このフォーマットは基地局(GW)内のデータ形式情報(GWMF)やセンサネットサーバ(SS)内のデータ形式情報(SSMF)と共通して保管されているものである。変換されたデータは、その後、基地局(GW)に送信される。   In the data format conversion (TRDF1), the sensor terminal (TR) attaches tag information such as sensing conditions to the sensing data, and converts it into a preset wireless transmission format. This format is stored in common with the data format information (GWMF) in the base station (GW) and the data format information (SSMF) in the sensor network server (SS). The converted data is then transmitted to the base station (GW).

データ送信(TRSE1)は、無線の通信規格に則り、送受信部(TRSR)を通して、基地局(GW)にデータを送信する。   Data transmission (TRSE1) transmits data to the base station (GW) through the transmission / reception unit (TRSR) in accordance with a wireless communication standard.

基地局(GW)は、センサ端末(TR)からセンシングデータを受信(GWRE)すると、受信完了レスポンスをセンサ端末(TR)に送信する。レスポンスを受信したセンサ端末(TR)は、送信完了(TRSO)と判定する。   When the base station (GW) receives the sensing data from the sensor terminal (TR) (GWRE), the base station (GW) transmits a reception completion response to the sensor terminal (TR). The sensor terminal (TR) that has received the response determines that transmission is complete (TRSO).

さらに、基地局(GW)は、基地局固有の番号である基地局情報(GWMG)をセンシングデータに付与し(GWGT)、当該センシングデータを、ネットワーク(NW)を介してセンサネットサーバ(SS)に向けて送信する(GWSE)。基地局情報(GWMG)は、送信時刻におけるセンサ端末(TR)の大まかな位置を示す情報として、データ解析の際に利用することができる。   Furthermore, the base station (GW) gives the base station information (GWMG), which is a number unique to the base station, to the sensing data (GWGT), and sends the sensing data to the sensor network server (SS) via the network (NW). (GWSE). The base station information (GWMG) can be used in data analysis as information indicating the approximate position of the sensor terminal (TR) at the transmission time.

センサネットサーバ(SS)は、基地局(GW)からデータを受信すると(SSRE)、受信したデータを時刻・端末情報・加速度・赤外線などの要素ごとに分類する(SSPB)。この分類は、データ形式情報(SSMF)として記録されているフォーマットを参照することによって実行される。分類されたデータは、センシングデータベース(SSDB)のレコード(行)の適切なカラム(列)に格納される(SSKI)。同じ時刻に対応するデータを同じレコードに格納することで、時刻及び端末情報(TRMT)による検索が可能になる。このとき必要であれば、端末情報(TRMT)ごとにテーブルを生成しても良い。このデータ受信(SSRE)、データ分類(SSPB)、データ格納(SSKI)を、図4におけるセンシングデータ保管(SSCDB)において行う。   When the sensor network server (SS) receives data from the base station (GW) (SSRE), the sensor network server (SS) classifies the received data for each element such as time, terminal information, acceleration, and infrared rays (SSPB). This classification is performed by referring to a format recorded as data format information (SSMF). The classified data is stored in the appropriate column (row) of the record (row) of the sensing database (SSDB) (SSKI). By storing data corresponding to the same time in the same record, a search based on time and terminal information (TRMT) becomes possible. At this time, if necessary, a table may be generated for each terminal information (TRMT). This data reception (SSRE), data classification (SSPB), and data storage (SSKI) are performed in the sensing data storage (SSCDB) in FIG.

なお、センサ端末(TR)が、基地局(GW)へセンシングデータを送信した後、所定の時間内に受信完了レスポンスを受信できない場合には、センサ端末(TR)の記憶部(STRG)にセンシングデータを保持する(TRDM)。そして、センサ端末(TR)が基地局(GW)と通信可能になるまで待機する(TRTA2)。この間、所定の周期毎に上述のタイマ起動(TRST)〜端末情報・時刻添付(TRCT1)を実行して、記憶部(STRG)にセンシングデータを蓄積する。   If the sensor terminal (TR) cannot receive a reception completion response within a predetermined time after transmitting the sensing data to the base station (GW), sensing is performed in the storage unit (STRG) of the sensor terminal (TR). Retain data (TRDM). And it waits until a sensor terminal (TR) becomes communicable with a base station (GW) (TRTA2). During this period, the above-described timer activation (TRST) to terminal information / time attachment (TRCT1) are executed at predetermined intervals, and the sensing data is accumulated in the storage unit (STRG).

センサ端末(TR)が基地局(GW)と通信可能になると、上記と同様にセンシングデータの形式変換を実行してから(TRDF2)、データの分割を行い(TRBD2)、分割したセンシングデータを基地局(GW)へ送信する。   When the sensor terminal (TR) becomes communicable with the base station (GW), the sensing data is converted in the same manner as described above (TRDF2), and then the data is divided (TRBD2). Transmit to the station (GW).

<基本コンテンツ生成(ASCBC)のシーケンス>
図8に、図2のアプリケーションサーバ(AS)内で実行される基本コンテンツ生成(ASCBC)の処理のシーケンスを示す。
<Basic Content Generation (ASCBC) Sequence>
FIG. 8 shows a sequence of basic content generation (ASCBC) processing executed in the application server (AS) of FIG.

アプリケーションサーバ(AS)において、時計(ASCK)があらかじめ指定した時刻になったときに、基本コンテンツ生成プログラム(ASBP)が起動する(ASTK)。または、アプリケーションサーバ(AS)の管理者権限を有するユーザ(US)が任意のタイミングで操作することにより、基本コンテンツ生成プログラム(ASBP)が起動する(ASTK)。   In the application server (AS), the basic content generation program (ASBP) is activated (ASTK) when the clock (ASCK) reaches a predetermined time. Alternatively, the basic content generation program (ASBP) is activated (ASTK) when a user (US) having administrator authority of the application server (AS) operates at an arbitrary timing.

基本コンテンツ生成プログラムは、図2Bの制御部(ASCO)で示したように、複数種類のプログラムを含み、それぞれに対応する複数種類の基本コンテンツファイル(ASBF)を出力してもよい。また、個別のプログラムを起動する順序を指定し、出力された基本コンテンツファイル(ASBF)を読み込んで次の別の基本コンテンツファイル(ASBF)を生成しても良い。   As shown by the control unit (ASCO) in FIG. 2B, the basic content generation program may include a plurality of types of programs, and output a plurality of types of basic content files (ASBF) corresponding thereto. Alternatively, the order of starting individual programs may be specified, and the output basic content file (ASBF) may be read to generate another basic content file (ASBF).

ここでは、基本コンテンツは1種類であり、また基本コンテンツは、センシングデータに基づいて生成される。この基本コンテンツは、特に、社内の従業員間の対面データと会議データの両方に基づき生成されるコンテンツであり、更に、基本コンテンツは、社内の従業員間及び社外の来訪者と従業員の対面時の活動状態を可視化するものである。   Here, there is one type of basic content, and the basic content is generated based on sensing data. This basic content is especially generated based on both in-person data and conference data between employees in the company, and the basic content is in-person between internal employees and outside visitors and employees. It visualizes the activity state of time.

アプリケーションサーバ(AS)は、基本コンテンツ生成プログラム(ASBP)に格納された必要なデータを、対象期間や対象ユーザを指定して、センサネットサーバ(SS)及びデータ処理サーバ(DS)にデータ要求を送信する(ASCBC1)。センサネットサーバ(SS)から取得する二次データには、社内の任意の従業員間での期間内の活動状態を含んだコミュニケーション量を示した対面活動マトリクス(ASMM)を含むものとする。更に、対面活動マトリクス(ASMM)は、後述するように、双方の活動状態に応じて生成した双方向の対面活動マトリクス(ASMM1)と、双方向の対面活動マトリクス(ASMM1)を含むものとする。また更に、対象期間に開催された会議に参加したユーザの、センサ端末(TR)で取得した会議時間における活動度を表す、加速度データも含むものとする。前記取得の加速度データは、センサ端末(TR)で取得した活動量と、距離センサ(RS)から算出した会議活動量との補正を行う際に利用する。   The application server (AS) sends a data request to the sensor network server (SS) and the data processing server (DS) by specifying the target period and target user for the necessary data stored in the basic content generation program (ASBP). Transmit (ASCBC1). It is assumed that the secondary data acquired from the sensor network server (SS) includes a face-to-face activity matrix (ASMM) indicating the amount of communication including the activity state within a period between any employee in the company. Further, the face-to-face activity matrix (ASMM) includes a bidirectional face-to-face activity matrix (ASMM1) generated in accordance with both activity states and a bidirectional face-to-face activity matrix (ASMM1), as will be described later. Furthermore, it is assumed that acceleration data representing the degree of activity at the conference time acquired by the sensor terminal (TR) of the user who participated in the conference held during the target period is also included. The acquired acceleration data is used when correcting the activity amount acquired by the sensor terminal (TR) and the conference activity amount calculated from the distance sensor (RS).

また、データ処理サーバ(DS)から取得する会議データは、会議の日時や場所、参加者などが格納された会議基本情報データベースDSDMの基本情報や、会議時における従業員間の活性度合いを示す会議活動マトリクスを含む会議活動二次データベースDSKMである。なお、会議活動マトリクスとしては、会議双方活動マトリクス(DSKM1)と、会議一方活動マトリクス(DSKM2)を含むものとする。   In addition, the conference data acquired from the data processing server (DS) includes basic information in the conference basic information database DSDM in which the date, place, and participants of the conference are stored, and a conference indicating the degree of activity among employees at the conference. A conference activity secondary database DSKM including an activity matrix. It should be noted that the conference activity matrix includes a conference two-way activity matrix (DSKM1) and a conference one-side activity matrix (DSKM2).

センサネットサーバ(SS)はアプリケーションサーバ(AS)から受け取った要求に基づいて、二次データベース(SSDT)内を検索し(SSCTS)、必要なデータをアプリケーションサーバ(AS)に送信する。データ処理サーバ(DS)も同様に、要求に基づき会議データ検索(DSCTS)を行い、会議情報をアプリケーションサーバ(AS)に送信する。   Based on the request received from the application server (AS), the sensor network server (SS) searches the secondary database (SSDT) (SSCTS) and transmits necessary data to the application server (AS). Similarly, the data processing server (DS) performs conference data search (DSCTS) based on the request and transmits the conference information to the application server (AS).

アプリケーションサーバ(AS)は上記で検索された二次データや情報を受信する。センサ端末二次データは、センサ端末二次データ読込プログラム(ASPR)を用い、データ形式に基づいてデータを読み込む(ASCBC3)。同様に、会議基本データ(MPDM)も会議データ読込プログラム(ASGR)を用い、データ形式に基づいてデータを読み込む(ASCBC4)。   The application server (AS) receives the secondary data and information retrieved above. The sensor terminal secondary data is read based on the data format using the sensor terminal secondary data reading program (ASPR) (ASCBC3). Similarly, the conference basic data (MPDM) is also read using the conference data reading program (ASGR) based on the data format (ASCBC4).

会議基本データ(MPDM)から、会議に参加した社外対面相手の情報(氏名、会社名、など)を抽出し、予め所持している業務上対面のあった人の情報(氏名、会社名、など)を格納した社外対面者リスト(ASPL)と比較し必要に応じて追記することにより、社外対面者リストを更新する(ASCLU)。   Extract information (name, company name, etc.) of external meeting partners who participated in the meeting from the meeting basic data (MPDM), and information on the person (face name, company name, etc.) that has been held in business in advance. ) Is stored and the external meeting list is updated (ASCLU).

センサネットサーバ(SS)から取得したセンサ端末二次データの一つである社内の任意のメンバ間での、期間内の双方の活動状態に応じて示される、双方向の対面活動マトリクス(ASMM1)と、一方向の対面活動マトリクス(ASMM2)とをそれぞれ拡張し、社外相手とのコミュニケーション量を該当セルに格納することにより、業務対面マトリクスを生成(ASCMC)する。社外相手とのコミュニケーション量を追記するにあたり、会議対面二次データの補正を行う。会議時間における、センサ端末装着者の、センサ端末(TR)で取得した活動量と、距離センサ(RS)から算出した会議活動量から補正値を算出し、会議対面二次データに対して補正値に応じた値の変更を実施する(ASCCC)。   Bi-directional face-to-face activity matrix (ASMM1) shown according to both activity states within a period between arbitrary members in the company, which is one of the sensor terminal secondary data acquired from the sensor network server (SS) Then, the one-way meeting activity matrix (ASMM2) is expanded, and the amount of communication with the external party is stored in the corresponding cell, thereby generating a business meeting matrix (ASCMC). When adding the amount of communication with outside parties, the secondary data for meeting is corrected. A correction value is calculated from the activity amount acquired by the sensor terminal (TR) of the sensor terminal wearer at the conference time and the conference activity amount calculated from the distance sensor (RS), and the correction value for the conference-facing secondary data The value is changed according to (ASCCC).

二次データと業務情報から生成した業務対面マトリクス(ASGM)を閲覧者の理解しやすい形に描画する(ASCBC5)。描画したコンテンツの画像ファイルを出力し(ASCBC6)、記憶部(ASME)内に基本コンテンツファイル(ASBF)として保管する。また、アクセス制御規定(ASAC)を合わせて出力し(ASCBC6)、この処理で生成した画像ファイルを閲覧できる端末IDを論理式などの形で指定する。   A business meeting matrix (ASGM) generated from the secondary data and business information is drawn in a form that is easy for the viewer to understand (ASCBC5). An image file of the drawn content is output (ASCBC6) and stored as a basic content file (ASBF) in the storage unit (ASME). In addition, an access control rule (ASAC) is output together (ASCBC6), and a terminal ID that can view the image file generated by this processing is specified in the form of a logical expression or the like.

<コンテンツ表示のシーケンス>
図9A、図9Bは、本発明の実施例において実行される、コンテンツ、主に画像の表示をするときの手順を示すシーケンス図である。図9Aには、アプリケーションサーバ(AS)、クライアント(CL)、センサ端末(TR)のそれぞれで実行される処理がユーザ(US)により行われる操作とともに示されている。
<Content display sequence>
FIG. 9A and FIG. 9B are sequence diagrams showing a procedure when displaying contents, mainly images, executed in the embodiment of the present invention. FIG. 9A shows processes executed by the application server (AS), the client (CL), and the sensor terminal (TR) together with operations performed by the user (US).

クライアント(CL)は通常、誰でも閲覧可能なオープンコンテンツ(例えば、個人名を表示しないネットワーク図や、伝言板など)をディスプレイ(CLOD)に表示(CLD1)する。閲覧者検出器(CLVD)は常時待機状態にあり、閲覧者判定(CLCVD)を行う。クライアント(CL)が閲覧者なしと判定した場合には、オープンコンテンツが継続して表示される(CLD1)。   The client (CL) usually displays (CLD1) open content (for example, a network diagram or a message board that does not display personal names) that can be viewed by anyone on the display (CLOD). The browser detector (CLVD) is always in a standby state, and performs browser determination (CLCVD). When the client (CL) determines that there is no viewer, the open content is continuously displayed (CLD1).

センサ端末(TR)から送信された端末ID(CLD2)を受け取り、閲覧者ありと判定された場合には、クライアント(CL)は閲覧者IDリストを生成(CLD3)する。そして、クライアント(CL)は、閲覧者IDリストをアプリケーションサーバ(AS)に送り、現在の閲覧者のメンバ構成で閲覧可能なコンテンツのリストを要求する(CLCLR)。   When the terminal ID (CLD2) transmitted from the sensor terminal (TR) is received and it is determined that there is a viewer, the client (CL) generates a viewer ID list (CLD3). Then, the client (CL) sends the viewer ID list to the application server (AS), and requests a list of contents that can be browsed by the current viewer member configuration (CLCLR).

アプリケーションサーバ(AS)は、コンテンツリスト(ASCL)とアクセス制御規定(ASAC)を照会し、閲覧者のメンバ構成で閲覧可能なコンテンツのリストを抽出し、クライアント(CL)に応答する(ASCLM)。   The application server (AS) inquires the content list (ASCL) and the access control rule (ASAC), extracts a list of contents that can be browsed by the member configuration of the viewer, and responds to the client (CL) (ASCLM).

アプリケーションサーバ(AS)は、また、ユーザ属性リスト(ASUL)を照会して閲覧者の氏名をクライアント(CL)に送信する。クライアント(CL)は、コンテンツリストに基づいて、閲覧可能なコンテンツへのリンクを示すコンテンツ切替ボタン(OD_C)や閲覧者の名前を示した閲覧者選択ボタン(OD_A)を表示する(CLD4)。これらのコンテンツ切替ボタン(OD_C)や閲覧者選択ボタン(OD_A)は図43に示される。   The application server (AS) also queries the user attribute list (ASUL) and transmits the name of the viewer to the client (CL). Based on the content list, the client (CL) displays a content switching button (OD_C) indicating a link to the browseable content and a viewer selection button (OD_A) indicating the name of the viewer (CLD4). These content switching buttons (OD_C) and viewer selection buttons (OD_A) are shown in FIG.

クライアント(CL)は、ユーザ(US)による操作を検出すると、選択されたコンテンツの画像(またはその他の種類のデータ)をアプリケーションサーバ(AS)に要求する(CLCCR)。アプリケーションサーバ(AS)は、要求された条件(対象の日付、対象ユーザ、コンテンツ種類)にしたがって該当するコンテンツを選択し、クライアントに送信する(ASCCS)。クライアント(CL)は、アプリケーションサーバ(AS)から受け取ったコンテンツを表示(CLD6)する。
コンテンツを表示(CLD6)の中で強調表示が付与されている内容(CLD6)に対しては、ユーザ(US)がコンテンツ操作(CLD8)を行うことによって強調表示を変更することができる(CLD9)。また、システムは閲覧者の自動で判定し(CLCVD)、閲覧者が変化した場合にはこれを検出し(CLD10)、強調表示の内容を変更して描画する(CLD11)。また、コンテンツを表示する際には、閲覧許可が必要なものについては、閲覧者がその条件を満たしているかどうかをシステムが判定し(CLD12) 、閲覧許可を持たない閲覧者に対しては、オープンコンテンツを表示する(CLD13)。
When the operation of the user (US) is detected, the client (CL) requests the application server (AS) for an image (or other type of data) of the selected content (CLCCR). The application server (AS) selects the corresponding content according to the requested conditions (target date, target user, content type) and transmits it to the client (ASCCS). The client (CL) displays the content received from the application server (AS) (CLD6).
With respect to the content (CLD6) that is highlighted in the content display (CLD6), the user (US) can change the highlighting by performing the content operation (CLD8) (CLD9). . Further, the system automatically determines the viewer (CLCVD), detects when the viewer changes (CLD10), changes the contents of the highlight display, and draws (CLD11). In addition, when displaying the content, the system determines whether the viewer satisfies the conditions for those that require browsing permission (CLD12), and for viewers who do not have browsing permission, Open content is displayed (CLD13).

<座席表生成のフローチャート>
図10A、図10Bに、計測PC(MP)で行われる座席表生成(MPSC)のフローチャートを示す。座席表生成(MPSC)は、マウス(MPIM)等により座席表生成ボタンが押される(MPSCQ)などのイベントが発生した場合に行われる処理であり、基本的には会議開始後に一度実施すればよい。
<Flow chart of seating chart generation>
FIG. 10A and FIG. 10B show flowcharts of seating chart generation (MPSC) performed by the measurement PC (MP). The seating chart generation (MPSC) is a process performed when an event such as a seating chart generation button is pressed (MPSCQ) by a mouse (MPIM) or the like, and is basically performed once after the start of the conference. .

処理の開始(MPSTS)後、計測PC(MP)は、座席表生成時刻(t)を取得する(MPST1)。座席表生成時刻(t)を取得しておくことで、後にデータ処理サーバ(DS)で各人の会議活動量生成で、動きのある人物領域と、人(氏名)との対応付けを行う際に、同じ時刻のデータを使用して対応付け処理を行うことができる。   After the start of processing (MPSTS), the measurement PC (MP) acquires the seating chart generation time (t) (MPST1). By acquiring the seating chart generation time (t), when the data processing server (DS) later generates a conference activity amount for each person and associates a person area with movement with a person (name) In addition, the association process can be performed using data at the same time.

座席表の生成は、距離センサ(RS)で取得したデータに基づき人物領域を抽出し見取り図を生成する処理と、センサ端末装着者検出器(ISD)で取得したデータに基づきセンサ端末装着者の座席位置と氏名とを自動的に対応づける処理と、センサ端末非装着者の座席位置を手入力により対応付ける処理との、大きく分けて三つのステップからなる。なお、本実施例では、距離センサ(RS)で取得したデータから人物領域を抽出して会議室の見取り図を生成する処理(MPST21〜MPST25)と、センサ端末装着者検出器(ISD)で取得したデータに基づきセンサ端末装着者の情報を取得する処理(MPST31〜MPST41)を並列して実行する例を示す。   The seating chart is generated by extracting a person area based on the data acquired by the distance sensor (RS) and generating a sketch, and by using the data acquired by the sensor terminal wearer detector (ISD). The process is roughly divided into three steps: a process for automatically associating the position with the name, and a process for associating the seat position of the person not wearing the sensor terminal by manual input. In this embodiment, a person area is extracted from the data acquired by the distance sensor (RS) to generate a conference room sketch (MPST21 to MPST25), and acquired by a sensor terminal wearer detector (ISD). The example which performs in parallel the process (MPST31-MPST41) which acquires information of a sensor terminal wearer based on data is shown.

まず、計測PC(MP)は、距離センサ(RS)でセンシングした、時刻(t)のセンシングデータを取得する。センシングデータは、例えば図23に示すセンシングデータ(RSSD)のように記述されており、時刻(t)のセンシングデータとは、ある時刻(t)のデータ(点群座標値PCCV)のみを抽出したものである。前記取得したセンシングデータから、人物領域を抽出する(MPST22)。   First, the measurement PC (MP) acquires sensing data at time (t) sensed by the distance sensor (RS). The sensing data is described, for example, as sensing data (RSSD) shown in FIG. 23, and only the data (point cloud coordinate value PCCV) at a certain time (t) is extracted from the sensing data at time (t). Is. A person region is extracted from the acquired sensing data (MPST22).

人物領域抽出方法の一例として、まず、会議室に人が全くいない状態における距離センサ(RS)によるセンシングデータを事前に計測し、図12に示す会議開始前計測データ(SD1)として格納しておく。そして、会議開始前計測データ(SD1)と、会議開始後計測データ(SD2)におけるセンシングデータとの差分により、人物領域抽出データ(SD3)を抽出する方法がある。   As an example of the person area extraction method, first, sensing data by a distance sensor (RS) in a state where there is no person in the conference room is measured in advance and stored as measurement data (SD1) before the conference shown in FIG. . And there exists a method of extracting person area extraction data (SD3) by the difference of the measurement data (SD1) before a meeting start, and the sensing data in measurement data (SD2) after a meeting start.

人物領域抽出後、人物領域に所定の半径(例えば20cm)の円を当てはめ、会議室を上から見た座席表の見取り図を生成する(MPST23)。円を当てはめる方法の一つとして、各人物領域(CPA1)におけるXY座標値のそれぞれの中心を算出し(CPA2)、算出した中心を人物中心として円を当てはめる(CPA3)方法を図13(A)に示す。ただし、距離センサ(RS)では、人物の前半分表面データしか取得できないため、若干人物中心からずれる可能性があるが、厳密な座標値は必要ないためこの方法でも問題ない。なお、この例では、距離センサ(RS)をテーブルの中心に設置し、回転させながら距離を測定している。   After the person area is extracted, a circle having a predetermined radius (for example, 20 cm) is applied to the person area, and a floor plan of the seating table when the conference room is viewed from above is generated (MPST23). As one method of fitting a circle, a method of calculating the center of each XY coordinate value in each person area (CPA1) (CPA2) and applying the circle with the calculated center as the person center (CPA3) is shown in FIG. Shown in However, since the distance sensor (RS) can acquire only the front half surface data of a person, there is a possibility that the distance sensor (RS) slightly deviates from the center of the person. In this example, a distance sensor (RS) is installed at the center of the table, and the distance is measured while rotating.

また、別の方法として、図13(B)に示す通り、各人物領域の最大Z座標値(高さ方向の最大値)から所定の範囲(例えば、20cm)引いた高さまでの領域を、頭部領域点群として抽出し(CPB1)、ここに所定の半径(例えば20cm)の円を照合処理によってあてはめる(CPB2)方法も考えられる。なお、CPB1で示す頭部領域点群は、取得点群をXY平面に投影し、距離センサから近い距離にある表面点群のみを抽出した図である。   As another method, as shown in FIG. 13B, an area up to a height obtained by subtracting a predetermined range (for example, 20 cm) from the maximum Z coordinate value (maximum value in the height direction) of each person area is displayed. A method of extracting a partial area point group (CPB1) and applying a circle having a predetermined radius (for example, 20 cm) to the area by collation processing (CPB2) is also conceivable. The head region point group indicated by CPB1 is a diagram obtained by projecting the acquired point group onto the XY plane and extracting only the surface point group located at a short distance from the distance sensor.

また、別の方法として、図13(C)に示すように、既存のモーション抽出アルゴリズムを用いて、三次元点群データから人物の形状を抽出し(CPC1)、骨格を当てはめ(CPC2)、頭部と認識された点の座標値を人物領域の中心として抽出する方法もある(CPC3)。   As another method, as shown in FIG. 13C, using the existing motion extraction algorithm, the shape of the person is extracted from the three-dimensional point cloud data (CPC1), the skeleton is fitted (CPC2), the head There is also a method of extracting the coordinate value of the point recognized as a part as the center of the person area (CPC3).

計測PC(MP)は、図13(D)に示すように、上記算出した人物位置を円で表し、会議机と合わせて表示した図を、座席表見取り図とする。   As shown in FIG. 13D, the measurement PC (MP) represents the calculated person position in a circle, and the figure displayed together with the conference desk is a seat plan sketch.

人物領域を表す円の中心を、人物領域中心座標値(MPCV)として出力する(MPST24)。計測PC(MP)は、各人物領域に対して、人物番号P1〜Pnを付与する(MPST25)。人物番号付与は、例えば、左から右へのスキャン(X軸方向)、上から下へのスキャン(Y軸方向)で、人物中心座標値が検出された順に、P1から番号を付与するなどの方法を用いる。   The center of the circle representing the person area is output as a person area center coordinate value (MPCV) (MPST24). The measurement PC (MP) assigns person numbers P1 to Pn to each person area (MPST25). For example, the person numbering is performed by assigning numbers from P1 in the order in which the person center coordinate values are detected in the left-to-right scan (X-axis direction) and the top-to-bottom scan (Y-axis direction). Use the method.

次に、センサ端末装着者検出器(ISD)で取得したデータに基づく処理について説明する。センサ端末(TR)の装着者のいる方向を特定するために、複数のセンサ端末装着者検出器(ISD)を各々の方向に向けて設置する。例えば、6台のセンサ装着者検出器(ISD_1〜ISD_6)を、60度ずつ角度を変えて設置した例を、図15Aに示す。図15Aは、センサ装着者検出器ISDの配置や視野角を表す図である。このような配置で、どの方向にセンサ装着者がいても、いずれかの検出器(ISD_1〜ISD_6)でセンサ端末(TR)の端末IDを受信することができる。   Next, processing based on data acquired by the sensor terminal wearer detector (ISD) will be described. In order to specify the direction in which the wearer of the sensor terminal (TR) is present, a plurality of sensor terminal wearer detectors (ISD) are installed in each direction. For example, FIG. 15A shows an example in which six sensor wearer detectors (ISD_1 to ISD_6) are installed at different angles by 60 degrees. FIG. 15A is a diagram showing the arrangement and viewing angle of the sensor wearer detector ISD. With such an arrangement, the terminal ID of the sensor terminal (TR) can be received by any of the detectors (ISD_1 to ISD_6) regardless of the direction in which the sensor wearer is present.

図15Bは、センサ装着者検出器(ISD)の基本情報であり、検出器ID(ISDID)と、設置位置(ISDCV)、設置方向(ISDDR)が対応づけて格納される。この基本情報は、後述するように、時刻毎に計測PC(MP)で生成される。   FIG. 15B shows basic information of the sensor wearer detector (ISD), in which a detector ID (ISDDID), an installation position (ISDCV), and an installation direction (ISDDR) are stored in association with each other. As will be described later, this basic information is generated by the measurement PC (MP) at each time.

まず、計測PC(MP)は、センサ装着者検出器(ISD)で検出したIDデータを、取得する(MPST31)。ここで、検出IDデータテーブル(ISDDT)の例を、図16A、図16Bに示す。図16Aは、検出器IDが「ISD_1」のテーブルで、図16Bは、検出器IDが「ISD_2」のテーブルを示す。各テーブルは、会議の開始時刻を14:48:00とした例を示す。   First, the measurement PC (MP) acquires ID data detected by the sensor wearer detector (ISD) (MPST31). Here, examples of the detection ID data table (ISDDT) are shown in FIGS. 16A and 16B. FIG. 16A shows a table whose detector ID is “ISD_1”, and FIG. 16B shows a table whose detector ID is “ISD_2”. Each table shows an example in which the conference start time is 14:48:00.

検出IDデータテーブル(ISDDT)は、検出器ID(ISDID)と、データ取得時刻(ISDTM)、データ取得時刻に検出したセンサ端末のID(ISDTR)が一つのエントリに格納される。データ取得開始時刻、すなわち、会議開始時刻から、座席表生成ボタンが押された時刻までのデータが格納されている。   In the detection ID data table (ISDDT), the detector ID (ISDID), the data acquisition time (ISDTM), and the ID (ISDTR) of the sensor terminal detected at the data acquisition time are stored in one entry. Data from the data acquisition start time, that is, from the conference start time to the time when the seating chart generation button is pressed is stored.

また、各検出器において、一定時間(例えば、座席表生成ボタン押下時刻5分前から座席表生成押下時刻まで)の検出IDをカウントし(MPST32)、検出ID受信回数表(ISDDC)を生成する。   In each detector, the detection ID for a certain period of time (for example, from 5 minutes before the time when the seating chart generation button is pressed to the time when the seating chart generation is pressed) is counted (MPST32), and a detection ID reception frequency table (ISDDC) is generated. .

座席表生成ボタンが押された時刻(t)のデータだけでは、たまたまその時間帯に、センサ端末(TR)がいずれもの装着者検出器(ISD)の方向を向いておらずIDが検出されていない場合があるため、時間をさかのぼって、所定の期間のデータを取得し、検出数をカウントすることにより端末IDの検出をより確実にする。   With only the data at the time (t) when the seating chart generation button is pressed, the ID is detected because the sensor terminal (TR) does not face the direction of any wearer detector (ISD) during that time zone. In some cases, the terminal ID is detected more reliably by going back in time, obtaining data for a predetermined period, and counting the number of detections.

図17に示す、検出ID受信回数表(ISDDC)は、検出器ID(ISDID)と、各検出器でセンサ端末(TR)ID受信数カウント対象となる時刻(ISDTT)、検出されたセンサ端末(TR)ID毎の受信回数(ISDCT1,ISDCT2)により構成される。ここでは、端末ID:1001とID:1002のみが検出された例を挙げているが、検出IDが更に多い場合は、検出ID受信回数表(ISDDC)の列を順次追加し、検出器ID(ISDID)ごとのカウント数を格納する。なお、図17の例では、14:50:00に検出ID受信回数表(ISDDC)を生成した例を示す。   The detection ID reception number table (ISDDC) shown in FIG. 17 includes a detector ID (ISDID), a time (ISDTT) at which the detector terminal (TR) ID reception count is counted by each detector, and a detected sensor terminal ( (TR) The number of receptions for each ID (ISDCT1, ISDCT2). Here, an example is given in which only terminal ID: 1001 and ID: 1002 are detected. However, when there are more detection IDs, a column of a detection ID reception frequency table (ISDDC) is sequentially added, and detector ID ( The count number for each (ISDID) is stored. In addition, in the example of FIG. 17, the example which produced | generated the detection ID reception frequency table (ISDDC) at 14:50:00 is shown.

次に、計測PC(MP)は、距離センサ(RS)で取得したデータに基づき生成した座席表のどの位置に、センサ装着者がいるかを推定する。   Next, the measurement PC (MP) estimates at which position of the seating chart generated based on the data acquired by the distance sensor (RS) the sensor wearer.

まず、検出器ID(ISDID)の計測位置と方向を知るために、センサ端末装着者検出器(ISD)の基本情報を読み込む(MPST41)。センサ端末装着者検出器(ISD)の基本情報は、図15Bで示すように、センサ端末装着者検出器(ISD)のID(ISDID)と、設置位置のXY座標値(ISDCV)、設置向き(ISDDR)がそれぞれ対応づけて格納されている。   First, in order to know the measurement position and direction of the detector ID (ISDID), basic information of the sensor terminal wearer detector (ISD) is read (MPST41). As shown in FIG. 15B, the basic information of the sensor terminal wearer detector (ISD) includes the ID (ISDID) of the sensor terminal wearer detector (ISD), the XY coordinate value (ISDCV) of the installation position, the installation direction ( ISDDR) are stored in association with each other.

図18は、距離センサ(RS)で取得したデータから生成した二次元座席表と、センサ端末装着者検出器(ISD)の配置や視野角を重ね合わせて表示した図である。距離センサ(RS)とセンサ端末装着者検出器(ISD)の座標系を、机の中心を原点とし、X軸、Y軸の方向を同一にしておけば、座標系変換処理の必要はなく、座標値をそのまま扱うことが可能である。   FIG. 18 is a diagram in which the two-dimensional seating chart generated from the data acquired by the distance sensor (RS), the arrangement of the sensor terminal wearer detector (ISD), and the viewing angle are superimposed and displayed. If the coordinate system of the distance sensor (RS) and the sensor terminal wearer detector (ISD) is set to the center of the desk as the origin and the X-axis and Y-axis directions are the same, there is no need for coordinate system conversion processing. Coordinate values can be handled as they are.

図10AのMPST25で人物番号を付与した二次元座席表と、MPST41で読みこんだセンサ端末装着者検出器基本情報と、MPST32で生成した検出器毎の検出IDデータカウント表に基づき、センサ端末装着者の位置を推定する(MPST42)。検出ID受信回数表(ISDDC)において、検出器ID(ISD_2)のセンサ端末装着者検出器(ISD)において、端末(TR)IDが1001と1002が多く検出されていることから、図18に示す検出器ID(ISD_2)の視野角内に入っている人物番号P2とP3は、端末(TR)IDが1001又は1002と推定される。また更に、検出器ID(ISD_1)のセンサ端末装着者検出器(ISD)において、センサ端末(TR)ID1001が検出され、検出器ID(ISD_3)のセンサ端末装着者検出器(ISD)において、センサ端末(TR)のID=1002が検出されていることから、人物番号P2はセンサ端末(TR)のID=1001、人物番号P3はセンサ端末(TR)のID1002と推定される。   Based on the two-dimensional seating table to which the person number is assigned in MPST 25 in FIG. 10A, the sensor terminal wearer detector basic information read in MPST 41, and the detection ID data count table for each detector generated in MPST 32 The position of the person is estimated (MPST42). Since many terminal (TR) IDs 1001 and 1002 are detected in the sensor terminal wearer detector (ISD) of the detector ID (ISD_2) in the detection ID reception frequency table (ISDDC), it is shown in FIG. The person numbers P2 and P3 within the viewing angle of the detector ID (ISD_2) are estimated to have terminal (TR) IDs of 1001 or 1002. Furthermore, the sensor terminal (TR) ID 1001 is detected in the sensor terminal wearer detector (ISD) with the detector ID (ISD_1), and the sensor terminal wearer detector (ISD) with the detector ID (ISD_3) detects the sensor. Since ID = 1002 of the terminal (TR) is detected, it is estimated that the person number P2 is ID = 1001 of the sensor terminal (TR) and the person number P3 is ID1002 of the sensor terminal (TR).

検出されたセンサ端末(TR)のIDから、当該端末(TR)を装着している従業員の氏名を取得するために、図19に示す端末IDとユーザ氏名を対応づけたユーザリスト(MPUL)を読み込み、センサ端末装着者氏名を取得する(MPST43)。   In order to obtain the name of the employee wearing the terminal (TR) from the detected ID of the sensor terminal (TR), a user list (MPUL) in which the terminal ID and the user name shown in FIG. 19 are associated with each other. And the name of the sensor terminal wearer is acquired (MPST43).

座席配置図上にセンサ端末装着者の氏名を重ねて表示した、時刻(t)の座席配置図(MPSC)を計測PC(MP)のディスプレイに表示する(MPST51)。   The seat layout diagram (MPSC) at time (t), which is displayed with the name of the sensor terminal wearer superimposed on the seat layout map, is displayed on the display of the measurement PC (MP) (MPST51).

図20Aは、二次元座席表上にセンサ端末装着者の氏名を重ねて表示した例であり、図20Bは、距離センサ(RS)で取得したデータから人物領域を抽出し、会議机と一緒に表示した三次元点群データ上にセンサ端末装着者の氏名を重ねて表示した例である。   FIG. 20A is an example in which the name of the sensor terminal wearer is displayed superimposed on the two-dimensional seating chart, and FIG. 20B extracts the person area from the data acquired by the distance sensor (RS), and together with the conference desk This is an example in which the name of the sensor terminal wearer is superimposed on the displayed three-dimensional point cloud data.

座席表に格納された人物領域と、そこに着席した人との氏名とを対応付けるために、マウスなどのポインティングデバイスを用いて人物領域を指定する(MPST52)。人物領域が指定されたら、図20Cに示すような、情報入力ボックス(IIBX)を表示する(MPST53)。情報入力ボックス(IIBX)で記入する内容は、例えば、会社名や、氏名などがあげられる。その他、部署や役職などを入力する項目があっても構わない。   In order to associate the person area stored in the seating chart with the name of the person seated there, the person area is designated using a pointing device such as a mouse (MPST52). When the person area is designated, an information input box (IIBX) as shown in FIG. 20C is displayed (MPST 53). Examples of contents to be entered in the information input box (IIBX) include a company name and a name. In addition, there may be items for inputting a department or a title.

情報入力ボックス(IIBX)に、会議参加者の情報を入力したら(MPST54)、決定ボタンを押下する。図20Dは、3人分の会議参加者(センサ端末非装着者)の情報を入力し終わった座席配置図である。センサ端末装着者(従業員)とセンサ端末非装着者(来訪者)の、所属や氏名を表示するボックスの色を変えたり、ボックスの線のスタイルを変えたりすると、両者の区別がしやすくなる。   When the conference participant information is input to the information input box (IIBX) (MPST54), the determination button is pressed. FIG. 20D is a seat layout diagram in which information of three conference participants (sensor terminal non-wearers) has been input. Changing the color of the box that displays the affiliation and name of the sensor terminal wearer (employee) and non-sensor terminal wearer (visitor) or changing the line style of the box makes it easier to distinguish between the two .

ここでは、二次元座席表図20Aを用いて会議参加者の情報を入力する方法(図20C)を示したが、三次元座席表(図20B)上の人物領域を指定し、当該領域に情報入力ボックスを表示しても構わない。   Here, although the method (FIG. 20C) which inputs the information of a conference participant using the two-dimensional seating chart 20A is shown, a person area on the three-dimensional seating chart (FIG. 20B) is designated and information is stored in the area. An input box may be displayed.

全ての人物領域に対して会議参加者情報の入力を繰り返し、全ての入力が終了し(MPST55)、入力終了ボタンが押されたら、会議参加者座席表(MPLT)を出力する(MPST6)。   The conference participant information is repeatedly input to all the person areas, and all the inputs are completed (MPST55). When the input end button is pressed, the conference participant seating chart (MPLT) is output (MPST6).

会議参加者座席表(MPLT)には、図21に示すように、人物番号(MPLT1)、人物領域の中心のX座標値(MPLT2)とY座標値(MPLT3)、座席表生成時刻(MPLT4)、センサ装着者のセンサ端末ID(MPLT5)、来訪者の会社名(MPLT6)、氏名(MPLT7)が格納されている。   As shown in FIG. 21, the conference participant seat chart (MPLT) includes a person number (MPLT1), an X coordinate value (MPLT2) and a Y coordinate value (MPLT3) of the center of the person area, and a seat chart generation time (MPLT4). The sensor terminal ID (MPLT5) of the sensor wearer, the company name (MPLT6) of the visitor, and the name (MPLT7) are stored.

以上のように、計測PC(MP)では、距離センサ(RS)と、センサ端末装着者検出器ISDを利用して、会議中の人物の配置と氏名を設定することができる。つまり、計測PC(MP)は、距離センサ(RS)のデータから人物の位置を特定して人物の配置を示す見取り図を生成する。一方、計測PC(MP)は、センサ端末(TR)毎の位置をセンサ端末装着者検出器(ISD)で検出し、この検出結果によってセンサ端末(TR)毎の位置を特定する。そして、計測PC(MP)では、人物の配置を示す見取り図と、センサ端末(TR)毎に特定した位置を結合することで、センサ端末(TR)を装着した従業員と、センサ端末を装着していない来訪者を合わせた座席表を生成する(MPST6)ことができる。そして、センサ端末(TR)を装着している人物(従業員)については、予め設定されたユーザリスト(MPUL)を参照して端末IDからユーザ名を取得する。そして、センサ端末(TR)が非装着の人物の位置をディスプレイ(MPOD)で特定し、氏名や社名の入力を促すことで、会議に参加した全ての人物の氏名を特定することができる。   As described above, in the measurement PC (MP), it is possible to set the arrangement and names of persons in the meeting using the distance sensor (RS) and the sensor terminal wearer detector ISD. That is, the measurement PC (MP) generates a sketch that indicates the arrangement of the person by specifying the position of the person from the data of the distance sensor (RS). On the other hand, measurement PC (MP) detects the position for every sensor terminal (TR) with a sensor terminal wearer detector (ISD), and specifies the position for every sensor terminal (TR) by this detection result. Then, in the measurement PC (MP), the employee wearing the sensor terminal (TR) and the sensor terminal are attached by combining the sketch showing the arrangement of the person and the position specified for each sensor terminal (TR). It is possible to generate a seating chart that matches visitors who have not visited (MPST6). For a person (employee) wearing the sensor terminal (TR), a user name is acquired from the terminal ID with reference to a preset user list (MPUL). The position of the person who is not wearing the sensor terminal (TR) is specified on the display (MPOD), and the names of all persons who participated in the conference can be specified by prompting the input of the name and company name.

<会議活動量算出のフローチャート>
図22に、データ処理サーバ(DS)で行われる会議活動量算出(DSAC)のフローチャートを示す。距離センサで(RS)で計測したセンシングデータから導出した各人の頭部の移動量を、以下では会議活動量とする。
<Flowchart for calculating conference activity>
FIG. 22 shows a flowchart of conference activity amount calculation (DSAC) performed in the data processing server (DS). The amount of movement of each person's head derived from the sensing data measured by the distance sensor (RS) is hereinafter referred to as a conference activity amount.

会議時において、よく動きの生じる身体部分は、頭と腕である。発話したり頷いたりすることにより、頭の動きが発生する。また、ジェスチャを交えて発言したり筆記することにより、腕の動きが発生する。頭と首の動きは連動する。センサ端末(TR)を首からぶら下げた人と、センサ端末(TR)を持っていない社外の来訪者との活動量とを一緒に扱うため、首から下げたセンサ端末(TR)と極力連動した値を取得したいため、腕ではなく頭部の動きから会議活動量を算出する。   The body parts that often move during a meeting are the head and arms. Head movements occur as you speak or crawl. In addition, arm movements occur by speaking or writing with gestures. Head and neck movements are linked. In order to handle the amount of activity of people who hang the sensor terminal (TR) from the neck and visitors outside the sensor terminal (TR) together, the sensor terminal (TR) that is lowered from the neck is linked as much as possible. In order to obtain the value, the amount of conference activity is calculated from the movement of the head, not the arm.

図22において、処理の開始(DSACS)後、データ処理サーバ(DS)は、計測PC(MP)から送られてきた、距離センサ(RS)で取得した、会議開始から終了までの時系列のセンシングデータ(RSSD)を読み込む(DSAC1)。   In FIG. 22, after the start of the process (DSACS), the data processing server (DS) senses the time series from the start to the end of the conference acquired by the distance sensor (RS) sent from the measurement PC (MP). Data (RSSD) is read (DSAC1).

センシングデータ(RSSD)は、図23で示す通り、センシング時刻(SSTM)と、センシング時刻に計測された点群の三次元座標値(PCCV)からなる。点群は、人の領域だけでなく、壁や机、その他室内に存在するものなど、距離センサ(RS)で計測された物の表面の座標値を、センサ位置を原点として表したものである。なお、センシングデータ(RSSD)は、計測した時間毎に、計測された点の集まりが一つのエントリ(またはレコード)に記録されている。   As shown in FIG. 23, the sensing data (RSSD) includes a sensing time (SSTM) and a three-dimensional coordinate value (PCCV) of a point group measured at the sensing time. A point cloud represents not only a person's area, but also the surface coordinate value of an object measured by a distance sensor (RS) such as a wall, a desk, or other objects existing in a room, with the sensor position as the origin. . In the sensing data (RSSD), a collection of measured points is recorded in one entry (or record) for each measured time.

データ処理サーバ(DS)は、まず、最初の時刻(例えば、会議の開始時刻)のセンシングデータ(RSSD)を取得する(DSAC2)。次に、データ処理サーバ(DS)は、センシングデータ(RSSD)から、人物領域を抽出する(DSAC31)。これは、上記図12に示したように、人物領域抽出(MPST22)と同じ方法を用いるとよい。次に、データ処理サーバ(DS)は、人物領域の抽出後、頭部座標値を抽出する(DSAC32)。頭部座標値の抽出は、例えば、上記図13Cに示した既存のモーション抽出アルゴリズムを用いて、三次元点群データから人物の形状を抽出し、骨格を当てはめ、頭部と認識された点の座標値を頭部座標値として抽出する方法を用いる。   The data processing server (DS) first acquires sensing data (RSSD) at the first time (for example, the start time of the conference) (DSAC2). Next, the data processing server (DS) extracts a person area from the sensing data (RSSD) (DSAC31). For this purpose, as shown in FIG. 12, the same method as the person region extraction (MPST22) may be used. Next, the data processing server (DS) extracts the head coordinate value after extracting the person region (DSAC32). The head coordinate value is extracted by, for example, extracting the shape of a person from the three-dimensional point cloud data using the existing motion extraction algorithm shown in FIG. A method of extracting coordinate values as head coordinate values is used.

会議中のセンシングデータ(RSSD)では、短い時間間隔の中で人物の大きな移動は発生しない場合が多いため、一つ前の計測時間における各人物領域の頭部座標値の中で、最も近い座標値を持つ人物領域を同一人物であると推定して、人物領域(HDAR)の頭部座標値(HDCV)に値を追加格納する(DSAC33)。対象となる時間帯の人物領域の頭部座標値(HDCV)の算出が終了したら、次の時間帯のセンシングデータ(RSSD)を読み込み(DSAC34)、データが存在するうちは上記DSAC31〜34の頭部座標値の認識処理を継続して繰り返し、頭部座標値(HDPS)のデータを順次更新する。   In the sensing data (RSSD) during a meeting, since a large movement of a person often does not occur within a short time interval, the closest coordinate among the head coordinate values of each person area in the previous measurement time The person area having a value is estimated to be the same person, and the value is additionally stored in the head coordinate value (HDVV) of the person area (HBAR) (DSAC33). When the calculation of the head coordinate value (HDVV) of the person area in the target time zone is completed, the sensing data (RSSD) in the next time zone is read (DSAC 34), and the heads of the DSACs 31 to 34 are present while the data exists. The head coordinate value (HDPS) data is sequentially updated by repeating the process of recognizing the partial coordinate values.

データ処理サーバ(DS)は、全ての時間帯のセンシングデータにおいて、人物領域ごとの頭部座標値の算出が終了したら、3次元頭部座標値(HDPS)を出力する(DSAC5)。   The data processing server (DS) outputs the three-dimensional head coordinate value (HDPS) when the calculation of the head coordinate value for each person area is completed in the sensing data of all time zones (DSAC5).

頭部座標値表(HDPS)は、図24で示すように、人物領域番号(HDAR)、センシング時刻(HDTM)、頭部座標値(HDCV)で構成される。図24では、一定時間(例えば一秒)のデータを、一つのカラムに集めて格納した例を示している。1秒間に30回センサデータを取得していた場合、頭部座標値(HDCV)には、30個の頭部座標値が格納されることになる。   As shown in FIG. 24, the head coordinate value table (HDPS) includes a person area number (HBAR), a sensing time (HDTM), and a head coordinate value (HDV). FIG. 24 shows an example in which data for a fixed time (for example, one second) is collected and stored in one column. When sensor data is acquired 30 times per second, 30 head coordinate values are stored in the head coordinate value (HDV).

次に、データ処理サーバ(DS)は、一定時間(例えば一分)毎の頭部移動表(HDMS)を算出する(DSAC6)。図25Aは、頭部移動量算出の途中過程で、頭部座標値表(HDCV)に格納されたデータに基づき、一定時間(例えば一秒)毎の頭部移動量を算出した頭部移動表(HDMS)である。   Next, the data processing server (DS) calculates a head movement table (HDMS) every predetermined time (for example, one minute) (DSAC6). FIG. 25A is a head movement table in which the head movement amount is calculated for every predetermined time (for example, one second) based on the data stored in the head coordinate value table (HDV) in the middle of the head movement amount calculation. (HDMS).

一定時間(例えば一秒)前の頭部座標値との2点間の距離を算出することで、一定時間(例えば一秒)毎の頭部移動量を計算する。そして、一定時間(例えば一分)における一定時間(例えば一秒)毎の頭部移動量をすべて積算することにより、一定時間(例えば一分)毎の頭部移動量を算出する。図25Bは、一定時間(例えば一分)毎の頭部移動表(HDMM)である。   By calculating the distance between the two points with the head coordinate value before a certain time (for example, one second), the amount of head movement per certain time (for example, one second) is calculated. Then, the head movement amount for every fixed time (for example, one minute) is calculated by integrating all the head movement amounts for every fixed time (for example, one second) in a fixed time (for example, one minute). FIG. 25B is a head movement table (HDMM) every fixed time (for example, one minute).

頭部移動表(HDMM)は、人物領域番号(HDAR)を縦軸に、時刻(HDTM)を横軸に取り、人物領域ごとの1分間の頭部移動量を時間ごとに格納したものである。   The head movement table (HDMM) stores the person area number (HBAR) on the vertical axis and the time (HDTM) on the horizontal axis, and stores the head movement amount per minute for each person area for each hour. .

次に、データ処理サーバ(DS)は、頭部移動表(HDMM)に、人の名前を当てはめる。データ処理サーバ(DS)は、まず、計測PC(MP)で生成された会議参加者座席表(MPLT)を読み込む(DSAC51)。   Next, the data processing server (DS) assigns the person's name to the head movement table (HDMM). First, the data processing server (DS) reads the conference participant seating chart (MPLT) generated by the measurement PC (MP) (DSAC51).

データ処理サーバ(DS)は、会議参加者座席表(MPLT)の各人Pnの座標値と、頭部座標値表(HDPS)の座席表生成時刻における各人の頭部XY座標値から、最も値の近い者を同一人物として、対応付けを行う(DSAC52)。   The data processing server (DS) obtains the most from the coordinate value of each person Pn in the conference participant seating chart (MPLT) and the head XY coordinate value of each person at the seating chart generation time in the head coordinate value table (HDPS). The persons having similar values are associated with each other as the same person (DSAC 52).

図26Aは、会議参加者座席表(MPLT)の座席表生成時刻における、頭部座標値表(HDPS)に格納された各人の頭部座標値を抽出した表である。図26Bは、頭部移動表(HDMM)の人物領域番号(HDAR)と、会議参加者座席表(MPLT)の人物番号(MPLT1)との対応付けを示した表である。   FIG. 26A is a table in which the head coordinate values of each person stored in the head coordinate value table (HDPS) at the time of seating chart generation time of the conference participant seat chart (MPLT) are extracted. FIG. 26B is a table showing a correspondence between the person area number (HBAR) of the head movement table (HDMM) and the person number (MPLT1) of the conference participant seating chart (MPLT).

図26Cに、頭部移動表(HDMM)の人物領域番号(HDAR)に、人物氏名を格納した例を示す。データ処理サーバ(DS)はこの表を、会議活動量表(MATB)として出力する(DSAC6)。   FIG. 26C shows an example in which the person's name is stored in the person area number (HDAR) of the head movement table (HDMM). The data processing server (DS) outputs this table as a conference activity table (MATB) (DSAC6).

以上の処理によって、会議に参加した各人物の活動量が一定の時間間隔毎にまとめられた会議活動量表(MATB)が生成される。   Through the above processing, a conference activity amount table (MATB) in which the activity amount of each person who participated in the conference is gathered at regular time intervals is generated.

<会議対面二次データ生成のフローチャート>
図27に、データ処理サーバ(DS)で行われる会議対面二次データ生成(DSMM)のフローチャートを示す。
<Flow chart of meeting meeting secondary data generation>
FIG. 27 shows a flowchart of meeting-facing secondary data generation (DSMM) performed in the data processing server (DS).

処理の開始後(DSMMS)、データ処理サーバ(DS)は会議活動量算出(DSAC)で生成した図26Cの会議活動量表(MATB)を読み込む(DSMM1)。データ処理サーバ(DS)は、会議の参加者ごと、各時刻ごとの頭部移動量から会議中の活性状態を活性または不活性の何れであるかを、予め設定した閾値を基準に判定する(DSMM2)。   After the start of processing (DSMMS), the data processing server (DS) reads the conference activity amount table (MATB) of FIG. 26C generated by the conference activity amount calculation (DSAC) (DSMM1). The data processing server (DS) determines whether the active state during the conference is active or inactive based on the preset threshold value from the amount of head movement at each time for each participant of the conference ( DSMM2).

データ処理サーバ(DS)は頭部移動量が閾値以上の場合は活性度に「1」を設定し、閾値以下の場合は活性度に「0」を設定して、会議活動表(MATB2)を生成する。図28Aに会議活動表(MATB2)を示す。会議活動表(MATB2)は、センシングデータの端末IDから端末IDリスト(MPUL)で特定される氏名(MANM)と、会議期間中の時刻(MATM)毎に活性度が格納される。本実施例では、時刻(MATM)は1分間隔に設定される。   The data processing server (DS) sets the activity level to “1” when the head movement amount is greater than or equal to the threshold value, and sets the activity level to “0” when the head movement amount is equal to or less than the threshold value, and the conference activity table (MATB2). Generate. FIG. 28A shows a conference activity table (MATB2). The conference activity table (MATB2) stores the name (MANM) specified by the terminal ID list (MPUL) from the terminal ID of the sensing data and the activity for each time (MATM) during the conference period. In this embodiment, the time (MATM) is set at 1 minute intervals.

図28Aに示した会議活動量(MATB2)の時刻MAMTのうち、活性度に「1」が設定された入力された箇所(時刻)を塗りつぶして、可視化した図(タペストリ)を図28Bで示すようにデータ処理サーバ(DS)が生成する。   Of the time MAMT of the conference activity amount (MATB2) shown in FIG. 28A, the input portion (time) in which “1” is set as the activity level is painted and visualized (tapestri) as shown in FIG. 28B. Is generated by the data processing server (DS).

図28Aの会議活動表(MATB2)と図28Bの会議活動量(MATB2)から、会議で活発に動いていた人の多い時間帯や、動きの少ない時間帯あるいは活発に動く時間の多い人や少ない人、などを、直感的に把握することが出来る。   From the conference activity table (MATB2) in FIG. 28A and the conference activity amount (MATB2) in FIG. 28B, there are many people who are actively moving in the conference, less time zones, more people who are actively moving, and few people. People can be understood intuitively.

次に、自分(あるいは着目する参加者)の活性度だけでなく、会議で相手となった人物の活性度もあわせることにより、(1)自分も相手も活性した場合の双方活性の状態と、(2)自分のみ活性した一方活性の状態と、(3)相手のみが活性した一方活性の状態の三つの状態に分類し、それぞれの状態毎の時間をカウントする(DSMM3)。状態として、自分も相手も不活性の場合もあるが、両者とも動きが少なく会議に対して消極的な場合は、コミュニケーション時間にカウントしないこととする。   Next, by combining not only the degree of activity of the person (or the participant of interest) but also the degree of activity of the person who was the other party in the meeting, (1) It is classified into three states: (2) one-active state in which only one is active, and (3) one-active state in which only the partner is active, and the time for each state is counted (DSMM3). In some cases, both yourself and the other party may be inactive, but if both move slowly and are reluctant to the meeting, they will not be counted in the communication time.

図29に、対面相手の活性度を考慮して三つの状態をカウントする例を示す。図29は、会議活動量(MATB2)の、14:48−14:53の時間帯における佐藤さんと木村さんのデータを抽出した例である。双方活性の状態は、佐藤さん主体で見た場合も木村さん主体で見た場合も「3」とする。自分のみ活性の状態は、佐藤さん主体で見た場合は「2」に、木村さん主体で見た場合は「1」とする。逆に、相手のみ活性の状態は、佐藤さん主体で見た場合は「1」に、木村さん主体で見た場合は「2」とする。このカウンターにより、対面する人物同士の活性度に応じて、双方活性、自分活性、相手活性の3つの状態が設定される。   FIG. 29 shows an example in which three states are counted in consideration of the activity level of the face-to-face partner. FIG. 29 is an example of extracting data of Mr. Sato and Mr. Kimura in the time zone of 14: 48-14: 53 of the amount of conference activity (MATB2). The active state is “3” when viewed mainly by Mr. Sato and when viewed mainly by Mr. Kimura. The state where only oneself is active is “2” when viewed mainly by Mr. Sato, and “1” when viewed mainly by Mr. Kimura. Conversely, the active state of only the other party is “1” when viewed mainly by Mr. Sato and “2” when viewed mainly by Mr. Kimura. With this counter, three states are set according to the activity level of the persons facing each other: mutual activity, self activity, and partner activity.

データ処理サーバ(DS)は、上記のようにカウントした結果に基づき、双方活性のマトリクス図と、一方活性のマトリクス図とを生成する(DSMM3)、(DSMM4)。   The data processing server (DS) generates a two-activity matrix diagram and a one-activity matrix diagram (DSMM3) and (DSMM4) based on the result counted as described above.

図30Aは、双方活性の会議双方活動マトリクス(DSKM1)である。会議の参加者が双方活性だった時間を、全ての参加者の組み合わせで生成したものを入力する。図中要素(KM1_6)は、佐藤さんと鈴木さんとが双方活性状態だった時間が14分であったことを表している。図30Bは、一方活性の会議一方活動マトリクス(DSKM2)である。参加者のうちどちらか一方が活性だった時間を、全ての人の組み合わせで算出したものを入力する。図中要素(KM2_6)は、鈴木さんのみが活性で、木村さんが不活性状態だった時間が9分であったことを表している。このように、着目する参加者だけが活性だった状態は横の行に、相手の参加者だけが活性だった状態は縦の列に一方向活性状態の時間が格納される。   FIG. 30A is a two-activity conference two-way activity matrix (DSKM1). Enter the time when the participants in the meeting were active for all the participants. The element (KM1_6) in the figure represents that the time during which both Sato and Suzuki were active was 14 minutes. FIG. 30B is a one-activity conference one-activity matrix (DSKM2). Enter the time when either one of the participants was active, calculated by the combination of all people. The element (KM2_6) in the figure represents that only Mr. Suzuki was active and Mr. Kimura was inactive for 9 minutes. In this way, the state in which only the participant of interest is active is stored in the horizontal row, and the state in which only the other participant is active is stored in the vertical column.

<業務対面活動マトリクス(ASGM)生成処理>
図9A、図9Bに示される基本コンテンツの生成で、従業員と社外の来訪者との業務対面を可視化したコンテンツ生成するにあたり、対面の状態をN×N行列で表した業務対面活動マトリクス(ASGM)を生成する例を示す。
<Business-to-face activity matrix (ASGM) generation process>
In generating the basic contents shown in FIGS. 9A and 9B, the business face-to-face activity matrix (ASGM) that represents the face-to-face state in an N × N matrix is used to generate the contents that visualize the business face-to-face between employees and outside visitors. ) Is generated.

図31に、アプリケーションサーバ(AS)で実行される業務対面マトリクス(ASGM)の生成処理のフローチャートを示す。ここでは、組織内人員(従業員)としての組織内構成メンバと、組織外人員としての社外対面者(来訪者)とを組み合わせたものを縦軸と横軸に設定した業務対面マトリクスの例を示す。なお、図31では、会議データの読み込み以降の処理(CMC1〜CMC5)と、会議活動二次データの読み込み処理(CMC6)を並列して行う例を示すが、これに限定されるものではなく、逐次実行してもよい。   FIG. 31 shows a flowchart of a business face-to-face matrix (ASGM) generation process executed by the application server (AS). Here is an example of a business-facing matrix where the vertical and horizontal axes are a combination of internal structural members as internal personnel (employees) and external meeting personnel (visitors) as external personnel Show. FIG. 31 shows an example in which the process after reading the conference data (CMC1 to CMC5) and the process of reading the conference activity secondary data (CMC6) are performed in parallel, but the present invention is not limited to this. You may perform sequentially.

処理の開始(CMCS)後、アプリケーションサーバ(AS)から対象期間などの条件をデータ処理サーバ(DS)に送信し、データ処理サーバ(DS)において、当該条件に該当する情報を検索し、会議データとしてアプリケーションサーバ(AS)に送信されたものを読み込む(CMC1)。会議データには、会議日時や参加者などの会議基本情報(MPDM)と、会議参加者の活動状況を時系列に「0」または「1」で表した会議活動表(MATB2)と、会議時の活動状況を示す会議活動二次データベース(DSKM)が含まれる。   After the start of processing (CMCS), the application server (AS) transmits conditions such as the target period to the data processing server (DS), and the data processing server (DS) searches for information corresponding to the conditions, and conference data Is transmitted to the application server (AS) (CMC1). The conference data includes conference basic information (MPDM) such as the conference date and time, participants, a conference activity table (MATB2) in which the activity status of the conference participants is expressed in time series as “0” or “1”, and at the time of the conference The conference activity secondary database (DSKM) indicating the activity status of the event is included.

また、アプリケーションサーバ(AS)から対象期間や端末IDなどの情報をセンサネットサーバ(SS)に送信し、センサネットサーバ(SS)において、当該条件に該当する情報を検索し、センサ端末データとしてアプリケーションサーバ(AS)に送信されたものを読み込む(CMC2)。センサ端末データには、従業員同士の対面活動を示す会議得活動二次データベース(DSKM)や、センサ端末(TR)の動きを表すセンシングデータ(加速度)などが含まれる。   Also, information such as the target period and terminal ID is transmitted from the application server (AS) to the sensor network server (SS), the sensor network server (SS) searches for information corresponding to the condition, and the application as sensor terminal data. The data transmitted to the server (AS) is read (CMC2). The sensor terminal data includes a conference acquisition activity secondary database (DSKM) indicating face-to-face activities between employees, sensing data (acceleration) indicating movement of the sensor terminal (TR), and the like.

まず、アプリケーションサーバ(AS)は、会議基本情報データベース(DSDM)に格納されている、会議日時、及び、センサ端末(TR)を装着している会議の参加者より、該当参加者の該当日時におけるセンシングデータ(加速度)を抽出し、該当時間帯における、参加者の活動時間を算出する。   First, the application server (AS) receives the date and time of the relevant participant from the conference date and time and the conference participant wearing the sensor terminal (TR) stored in the conference basic information database (DSDM). Sensing data (acceleration) is extracted, and the activity time of the participant in the corresponding time zone is calculated.

また、アプリケーションサーバ(AS)は、会議活動表(MATB2)と、センサ端末(TR)を装着している会議参加者の活性度が「1」の時間を加算し、会議活動時間を算出する。   Further, the application server (AS) calculates the conference activity time by adding the conference activity table (MATB2) and the time when the activity level of the conference participant wearing the sensor terminal (TR) is “1”.

アプリケーションサーバ(AS)は、同じ時間帯における、センサ端末(TR)からの活動時間と、距離センサ(RS)からの活動時間より、会議活動の補正値を算出する(CMC3)。   The application server (AS) calculates a correction value of the conference activity from the activity time from the sensor terminal (TR) and the activity time from the distance sensor (RS) in the same time zone (CMC3).

図32に示すように、対象日時(2012/03/31 14:48 − 2012/03/31 15:30)における対象ユーザ2者のセンシングデータ(加速度)の和(23+15)を、2者の会議活動表(MATB2)の値の和(19+20)で、除した値を、会議活動補正値(0.97)とする。   As shown in FIG. 32, the sum (23 + 15) of the sensing data (acceleration) of two target users at the target date and time (2012/03/31 14: 48-2012 / 03/31 15:30) The value divided by the sum (19 + 20) of the values in the activity table (MATB2) is taken as the conference activity correction value (0.97).

次に、アプリケーションサーバ(AS)は、会議活動二次データ(DSKM)を読み込み(CMC4)、前記算出した会議活動補正値を、会議活動二次データ(DSKM)の各セルに格納されている値に乗じることにより、会議活動マトリクス(会議双方活動マトリクス(DSKM1)及び会議一方活動マトリクス(DSKM2))を補正する(CMC5)。   Next, the application server (AS) reads the conference activity secondary data (DSKM) (CMC4), and the calculated conference activity correction value is stored in each cell of the conference activity secondary data (DSKM). Is used to correct the conference activity matrix (conference bilateral activity matrix (DSKM1) and conference one-side activity matrix (DSKM2)) (CMC5).

アプリケーションサーバ(AS)は、次に、センサネットサーバ(SS)から取得した、社内の任意の従業員間での期間内のコミュニケーション量を示した対面活動マトリクス(ASMM)を読み込む(CMC6)。   Next, the application server (AS) reads the face-to-face activity matrix (ASMM) obtained from the sensor network server (SS) and indicating the communication amount within a period between any employee in the company (CMC6).

アプリケーションサーバ(AS)は、業務対面活動マトリクス(ASGM)を生成するにあたり、社内の従業員同士の対面活動を示す対面活動マトリクス(ASMM)を基本とし、社外の来訪者との対面を表す部分を拡張する。   The application server (AS) generates a business face-to-face activity matrix (ASGM) based on a face-to-face activity matrix (ASMM) indicating face-to-face activities between employees within the company, and represents a part representing face-to-face visits with outside visitors. Expand.

アプリケーションサーバ(AS)は、まず、対面活動マトリクス(ASMM)を、社外の来訪者である対面相手の数だけマトリクスのサイズを拡張する(CMC7)。   First, the application server (AS) expands the size of the face-to-face activity matrix (ASMM) by the number of face-to-face opponents who are outside visitors (CMC7).

例えば、対面活動マトリクス(ASMM)のサイズが30×30であり(これは社内の対象となる従業員数が30人であることを示す)、社外対面相手の数が15であった場合、45×45のマトリクスを生成する。   For example, if the size of the face-to-face activity matrix (ASMM) is 30 × 30 (this indicates that the number of employees targeted in the company is 30) and the number of external face-to-face contacts is 15, 45 × 45 matrices are generated.

アプリケーションサーバ(AS)は、社内の対面を示す30×30の部分を、そのままコピーする。次に、アプリケーションサーバ(AS)は、社内の対象従業員と社外の対面相手との対面を示す30×15の部分を拡張マトリクス(EXMT)とし、CMC5で補正した会議活動マトリクス(会議双方活動マトリクス(DSKM1)及び会議一方活動マトリクス(DSKM2))のデータを、拡張マトリクス(EXMT)の該当セルに埋め込んでいく(CMC8)。   The application server (AS) copies the 30 × 30 portion indicating the in-house meeting as it is. Next, the application server (AS) uses the 30 × 15 portion indicating the meeting between the in-house target employee and the outside meeting partner as an extended matrix (EXMT), and a meeting activity matrix (conference meeting activity matrix) corrected by CMC5. (DSKM1) and conference one activity matrix (DSKM2)) are embedded in the corresponding cells of the expansion matrix (EXMT) (CMC8).

アプリケーションサーバ(AS)は、補正後の会議活動マトリクスに格納された社内のセンサ端末(TR)の装着者と会議に同席した来訪者より、マトリクス内の場所を決定し、社内のセンサ端末(TR)の装着者と会議に同席した来訪者との活動状態を含めたコミュニケーション量を、決定されたマトリクスの位置に格納する。一方、コミュニケーション量を格納するマトリクスの位置が重なった場合(同じ社内センサ装着者と会議同席来訪者のデータがあった場合)、アプリケーションサーバ(AS)は、当該マトリクスの位置に格納されていた値に、コミュニケーション量を加算して更新する。   The application server (AS) determines the location in the matrix from the wearer of the in-house sensor terminal (TR) stored in the corrected meeting activity matrix and the visitor who attended the meeting, and the in-house sensor terminal (TR) ) And the communication amount including the activity state between the wearer and the visitor attending the conference are stored in the determined matrix position. On the other hand, when the positions of the matrices for storing the communication amount overlap (when there is data of the same in-house sensor wearer and the meeting attendee), the application server (AS) stores the value stored at the position of the matrix. In addition, the amount of communication is added and updated.

会議活動マトリクス(会議双方活動マトリクス(DSKM1)及び会議一方活動マトリクス(DSKM2))に格納されたデータの全てが、業務対面活動マトリクス(ASGM)に反映されたか否かを判定し(CMC9)、全てのデータが反映されるまで、コミュニケーション量のマトリクスへの埋め込みを継続する。社外業務対面テーブルのデータすべてが反映されたら、業務対面活動マトリクス(ASGM)の完成となる(CMC9)。   It is determined whether all the data stored in the conference activity matrix (the conference two-side activity matrix (DSKM1) and the conference one-side activity matrix (DSKM2)) are reflected in the business-facing activity matrix (ASGM) (CMC9). Until the data is reflected, the communication amount is continuously embedded in the matrix. When all the data of the external business meeting table is reflected, the business meeting activity matrix (ASGM) is completed (CMC9).

<二次データベース(SSDT)の例:対面活動マトリクス>
センサネットサーバ(SS)内で、センシングデータ処理(SSCDT)の結果を格納する、二次データベース(SSDT)の例として、対面活動マトリクス(ASMM)の例を図33A,図33Bに示す。図33Aは、双方向の対面活動マトリクス(ASMM1)を示し、図33B、一方向の対面活動マトリクス(ASMM2)を示す。
<Example of secondary database (SSDT): Face-to-face activity matrix>
An example of a face-to-face activity matrix (ASMM) is shown in FIGS. 33A and 33B as an example of a secondary database (SSDT) that stores the results of sensing data processing (SSCDT) in the sensor network server (SS). FIG. 33A shows a two-way face activity matrix (ASMM1) and FIG. 33B shows a one-way face activity matrix (ASMM2).

二次データベース(SSDT)は、センサネットサーバ(SS)が、所定の前処理を行い、一定期間の特定のユーザの情報を共通の形式で保管するデータベースである。   The secondary database (SSDT) is a database in which the sensor network server (SS) performs predetermined preprocessing and stores specific user information for a certain period in a common format.

図33A,図33Bでは、組織内の任意の従業員間での、所定の期間内の互いの活性度を含めた対面時間を示した対面活動マトリクス(ASMM)の例を示す。対面活動マトリクスはネットワーク分析の用語では隣接行列と呼ばれるものである。   FIG. 33A and FIG. 33B show an example of a face-to-face activity matrix (ASMM) showing face-to-face time including the degree of mutual activity within a predetermined period between arbitrary employees in the organization. The face-to-face activity matrix is called an adjacency matrix in network analysis terminology.

対面活動マトリクス(ASMM)は、図34A,図34B(後述)に示したセンシングデータベース(SSDB)の対面テーブル(SSDB_IR)に基づいて、任意の組合せの従業員間での対面と、対面した時刻において対象となる組み合わせの従業員それぞれの加速度データから、双方が活動的である時間を計算し、マトリクス形式に整理したものが、図33Aの対面活動マトリクス(双方向)(ASMM1)である。   The face-to-face activity matrix (ASMM) is based on the face-to-face table (SSDB_IR) of the sensing database (SSDB) shown in FIG. 34A and FIG. 34B (described later). The face-to-face activity matrix (bidirectional) (ASMM1) in FIG. 33A is obtained by calculating the time during which both are active from the acceleration data of each employee of the target combination and arranging them in a matrix format.

また、同様に、任意の組み合わせの従業員間での対面と、対面した時刻において対象となる組み合わせの速度データから、一方のみが活動的である時間を計算し、マトリクス形式に整理したものが、図33Bに示す対面活動マトリクス(一方向)(ASMM2)である。   Similarly, from the face-to-face between employees of any combination and the speed data of the target combination at the time of face-to-face, the time when only one is active is calculated and arranged in a matrix format, It is a face-to-face activity matrix (one direction) shown in FIG. 33B (ASMM2).

<センシングデータベース(SSDB)の例:対面テーブル>
図34A,図34Bは、センシングデータベース(SSDB)の一例として、対面テーブルを示す。図34A,図34Bは、異なる端末IDのセンサ端末(TR)のセンシングデータである。
<Example of sensing database (SSDB): face-to-face table>
34A and 34B show a facing table as an example of a sensing database (SSDB). 34A and 34B are sensing data of sensor terminals (TR) having different terminal IDs.

センシングデータベース(SSDB)には複数の従業員のセンサ端末(TR)のそれぞれに対応して複数種類のセンシングデータが記録されているが、センシングデータのうちの赤外線送受信による対面データをまとめたテーブルの例を図34A,図34Bに示す。   The sensing database (SSDB) stores a plurality of types of sensing data corresponding to each of the sensor terminals (TR) of a plurality of employees. Examples are shown in FIGS. 34A and 34B.

図34Aは、対面テーブル(SSDB_IR_1002)を示し、端末IDが1002であるセンサ端末(TR)が取得したデータを集めたテーブルであることを示す。同様に、図34Bは、対面テーブル(SSDB_IR_1003)を示し、端末IDが1003であるセンサ端末(TR)が取得したデータの対面テーブルである。なお、閲覧者検出器(CLVD)の赤外線送受信器(CLVDIR)や、センサ端末装着者検出器(ISD)の赤外線送受信器から受信した検出器ID(CLVDID)も、センサ端末(TR)から受信した端末IDと同様に赤外線送信側ID(DBR10)に記録しても良い。この場合、検出器IDをキーとしてテーブルを検索することにより、誰がどの場所で会議を行ったか、また、ディスプレイを閲覧したかを調べることができる。   FIG. 34A shows a face-to-face table (SSDB_IR_1002), which is a table in which data acquired by a sensor terminal (TR) whose terminal ID is 1002 is collected. Similarly, FIG. 34B shows a meeting table (SSDB_IR_1003), which is a meeting table of data acquired by the sensor terminal (TR) whose terminal ID is 1003. The detector ID (CLVDID) received from the infrared transmitter / receiver (CLVDIR) of the viewer detector (CLVD) and the infrared transmitter / receiver of the sensor terminal wearer detector (ISD) was also received from the sensor terminal (TR). Similar to the terminal ID, it may be recorded in the infrared transmission side ID (DBR10). In this case, by searching the table using the detector ID as a key, it is possible to check who has held the meeting at which place and who has browsed the display.

図34A,図34Bの対面テーブルは、センサ端末(TR)がデータを送信した時刻(DBTM)と、赤外線送信側の端末ID(DBR1)と、当該端末IDからの受信回数(DBN1)とを10組(DBR1およびDBN1、DBR2およびDBN2、...、DBN10およびDBN10)格納する例を示す。   34A and 34B, the time (DBTM) at which the sensor terminal (TR) transmits data, the terminal ID (DBR1) on the infrared transmission side, and the number of receptions from the terminal ID (DBN1) are 10 An example of storing a pair (DBR1 and DBN1, DBR2 and DBN2, ..., DBN10 and DBN10) is shown.

所定の時間内(例えば10秒間)に、どのセンサ端末(TR)から何回赤外線を受信したかを、この対面テーブルで表す。対面、つまり赤外線の受信がなかった場合にはテーブルの値は「null」となる。時間間隔も、10秒に限られるものではなく、目的に応じて変更可能である。   This face-to-face table indicates how many infrared rays are received from which sensor terminal (TR) within a predetermined time (for example, 10 seconds). When meeting, that is, when there is no infrared reception, the value of the table is “null”. The time interval is not limited to 10 seconds and can be changed according to the purpose.

<センシングデータベース(SSDB)の例:加速度データテーブル>
センサネットサーバ(SS)のセンシングデータベース(SSDB)に格納されるセンシングデータの例として、加速度データテーブルの例(SSDB_ACC_1002)を図35に示す。
<Example of sensing database (SSDB): acceleration data table>
FIG. 35 shows an example of an acceleration data table (SSDB_ACC — 1002) as an example of sensing data stored in the sensing database (SSDB) of the sensor network server (SS).

加速度データテーブルは、基本的に、センサ端末(TR)で取得されたセンシングデータをそのまま格納したものであり、前処理をされていない状態のデータである。加速度データテーブルは、各個人(センサ端末(TR))に対応してそれぞれテーブルが作られ、所定のサンプリング周期(例えば0.02秒)ごとに時刻情報(DBTM)と対応付けてX軸(DBAX)、Y軸(DBAY)、Z軸(DBAZ)の、互いに直交する三軸方向それぞれの加速度データが格納される。   The acceleration data table basically stores sensing data acquired by the sensor terminal (TR) as it is, and is data in a state in which preprocessing is not performed. The acceleration data table is created for each individual (sensor terminal (TR)), and is associated with time information (DBTM) every predetermined sampling period (for example, 0.02 seconds). ), Y axis (DBAY), and Z axis (DBAZ), the acceleration data in each of the three axis directions orthogonal to each other are stored.

なお、加速度センサが検出した数値をそのまま格納しても良いし、センシングデータの測定値単位を[G]に変換した後の値を格納しても良い。このような加速度データテーブルをメンバごとに生成し、センシングした時刻の情報と対応付けて格納する。なお、端末IDを示すカラムを追加すれば、テーブルを個人ごとに分けずに統合したもの(組織内人員全員のデータを記録したテーブル)とすることが可能である。   In addition, the numerical value detected by the acceleration sensor may be stored as it is, or a value obtained by converting the measurement value unit of the sensing data into [G] may be stored. Such an acceleration data table is generated for each member and stored in association with the sensed time information. Note that if a column indicating the terminal ID is added, the table can be integrated without being divided for each individual (a table in which data of all personnel in the organization is recorded).

<業務対面活動マトリクス(ASGM_1)の例>
図36は、社内の任意の従業員と、社外の対面者(来訪者)とを合わせたものを軸にした業務対面活動マトリクスの例である。図示の業務対面活動マトリクス(ASGM_1)は、センサネットサーバ(SS)から取得した二次データの一つである社内の任意の従業員間の双方活性の対面を示す対面活動マトリクス(双方向)(ASMM1)と、社内の任意の従業員と会議で同席した社外来訪者との対面活動を示す拡張マトリクス(EXMT)とを、アプリケーションサーバ(AS)で結合したものである。
<Example of business face-to-face activity matrix (ASGM_1)>
FIG. 36 is an example of a business face-to-face activity matrix based on a combination of an arbitrary employee in the company and an outside person (visitor). The business-facing activity matrix (ASGM_1) shown in the figure is a meeting activity matrix (two-way) that shows a two-way activity meeting between any employee in the company that is one of the secondary data acquired from the sensor network server (SS) ( The ASMM 1) and an expansion matrix (EXMT) indicating the face-to-face activity of a company visitor who is present at a meeting with an arbitrary employee in the company are combined by an application server (AS).

図中破線で示す拡張マトリクス(EXMT)は、アプリケーションサーバ(AS)で社内の任意の従業員と社外の来訪者をそれぞれの軸に加えたマトリクスである。   An extended matrix (EXMT) indicated by a broken line in the figure is a matrix in which arbitrary employees in the company and visitors outside the company are added to the respective axes in the application server (AS).

図30Aに示した会議対面活動テーブル(DSKM1)を会議補正値で補正した値に従い、社内の従業員と社外来訪者の双方が活性状態であった時間をコミュニケーション量として、アプリケーションサーバ(AS)が拡張マトリクス(EXMT)内の該当セルに格納していく。図36に示す業務対面活動マトリクスでは、要素(KM2_8)に示すように、社内の山田さんと、X社の山口さんが、双方活性状態で対面した時間が2分であったことを示している。
なお、センサ端末非装着の来訪者と装着者、または非装着の来訪者同士の対面時間は、会議テーブルに着席している参加者は全員が対面しているものとして算出する。
In accordance with the value obtained by correcting the meeting face-to-face activity table (DSKM1) shown in FIG. 30A with the meeting correction value, the application server (AS) sets the communication amount as the time during which both the in-house employee and the outside visitor are active. The data is stored in the corresponding cell in the expansion matrix (EXMT). In the business face-to-face activity matrix shown in FIG. 36, as shown in the element (KM2_8), it is shown that the time that Mr. Yamada in the company and Mr. Yamaguchi of Company X faced each other in an active state was 2 minutes. .
Note that the meeting time between a visitor who is not wearing the sensor terminal and the wearer, or between visitors who are not wearing the sensor terminal is calculated assuming that all the participants sitting at the conference table are facing each other.

<業務対面活動マトリクス(ASGM_2)の例>
図37は、社内の任意の従業員と社外の対面者(来訪者)とを合わせたものを軸にした業務対面活動マトリクス(ASGM_2)の例である。業務対面活動マトリクス(ASGM_2)は、センサネットサーバ(SS)から取得した二次データの一つである社内の任意の従業員間のどちらか一方が活性状態の対面を示す対面活動マトリクス(一方向)(ASMM2)と、社内の任意の従業員と会議で同席した社外の来訪者との対面活動を示す拡張マトリクス(EXMT)とを、アプリケーションサーバ(AS)で結合したものである。
<Example of business face-to-face activity matrix (ASGM_2)>
FIG. 37 is an example of a business face-to-face activity matrix (ASGM_2) centered on a combination of an arbitrary employee in the company and a face-to-face person (visitor) outside the company. The business face-to-face activity matrix (ASGM_2) is a face-to-face activity matrix (one-way) that shows a face-to-face active state between any employee in the company, which is one of the secondary data acquired from the sensor network server (SS). ) (ASMM2) and an expansion matrix (EXMT) indicating the face-to-face activity of an in-house employee and an outside visitor who is present at a meeting are combined by an application server (AS).

図中破線で示す拡張マトリクス(EXMT)は、アプリケーションサーバ(AS)で社内の任意の従業員と社外の来訪者をそれぞれの軸に加えたマトリクスである。   An extended matrix (EXMT) indicated by a broken line in the figure is a matrix in which arbitrary employees in the company and visitors outside the company are added to the respective axes in the application server (AS).

図30Bに示した会議対面活動テーブル(DSKM2)を会議補正値で補正した値に従い、社内の従業員と社外の来訪者との一方が活性状態であった時間をコミュニケーション量として、アプリケーションサーバ(AS)が拡張マトリクス(EXMT)内の該当セルに格納していく。図37に示す業務対面活動マトリクス(ASGM)では、要素(KM2_8)に示すように、X社の山口さんが活動状態であり、社内の山田さんが非活動状態であった時間が2分であったことを示している。また、要素(KM8_2)に示すように、X社の山口さんが非活動状態であり、社内の山田さんが活動状態であった時間が21分であったことを示している。
なお、センサ端末非装着の来訪者と装着者、または非装着の来訪者同士の活動状態であった時間は、次のように算出する。として算出する。
(1)センサ端末の装着者同士については、加速度センサの測定値から活動の双方向性、片方向性を計算する(図33A、図33B参照)。
(2)センサ装着、未装着に関わらず、レーザ距離センサ(RS)での頭部の移動量によって、活動の双方向性、片方向性を判定する(図33A、図33B参照)。
これら2通りの計算方法のうち、図36、図37に記載の実線部分(対面活動マトリクス(ASMM))は上記の(1)の結果を使用し、その他の拡張部分(拡張マトリクス(EXMT)については、)については、(2)の結果を使用することによって、特に複雑な処理計算をすることなく、結果を得ることが可能となる。
In accordance with the value obtained by correcting the meeting face-to-face activity table (DSKM2) shown in FIG. 30B with the meeting correction value, the time during which one of the in-house employee and the outside visitor is active is set as the communication amount, and the application server (AS Are stored in the corresponding cells in the expansion matrix (EXMT). In the business face-to-face activity matrix (ASGM) shown in FIG. 37, as shown in the element (KM2_8), Mr. Yamaguchi of company X was active and Mr. Yamada in the company was inactive for 2 minutes. It shows that. Further, as shown in the element (KM8_2), it is shown that Mr. Yamaguchi of Company X was inactive and Mr. Yamada in the company was active for 21 minutes.
In addition, the time which was the active state of the visitor who is not wearing the sensor terminal and the wearer, or between the non-wearing visitors is calculated as follows. Calculate as
(1) For wearers of sensor terminals, the bidirectionality and unidirectionality of the activity are calculated from the measured values of the acceleration sensor (see FIGS. 33A and 33B).
(2) Regardless of whether the sensor is attached or not, the bidirectionality or unidirectionality of the activity is determined based on the amount of movement of the head by the laser distance sensor (RS) (see FIGS. 33A and 33B).
Of these two calculation methods, the solid line portion (face-to-face activity matrix (ASMM)) described in FIGS. 36 and 37 uses the result of (1) above, and the other extended portion (extended matrix (EXMT)). For ()), by using the result of (2), it is possible to obtain the result without performing complicated processing calculation.

<業務対面活動マトリクスから生成したネットワーク図>
上記では、人と人とのコミュニケーションを各々の活性状態に応じてN×N行列で表した業務対面活動マトリクス(ASGM)について説明した。業務対面活動マトリクス(ASGM)の情報を視覚的にわかりやすく表現するために、対面の発生した人同士を線で結ぶネットワーク図をアプリケーションサーバ(AS)で生成する。アプリケーションサーバ(AS)で生成したネットワーク図を画像データとして保存しておくことにより、クライアント(CL)でユーザに提示するコンテンツの一つとなる。
<Network diagram generated from business-facing activity matrix>
In the above, the business face-to-face activity matrix (ASGM) in which communication between people is represented by an N × N matrix according to each active state has been described. In order to express the information of the business meeting activity matrix (ASGM) in a visually easy-to-understand manner, a network diagram that connects the persons who have encountered each other with lines is generated by the application server (AS). By storing the network diagram generated by the application server (AS) as image data, it becomes one of the contents presented to the user by the client (CL).

アプリケーションサーバ(AS)では、図36に示した双方活性(ASGM_1)と、図37に示した一方活性(ASGM_2)の両方の業務対面活動マトリクスを利用し、業務対面活動マトリクスの軸を構成するメンバー(従業員及び来訪者)の互いのコミュニケーション状態を、ノード間を結ぶ線で表す。   The application server (AS) uses the business-facing activity matrix of both the activity (ASGM_1) shown in FIG. 36 and the one activity (ASGM_2) shown in FIG. 37, and constitutes the axis of the business-facing activity matrix. The mutual communication state of (employee and visitor) is represented by a line connecting the nodes.

図38Aではアプリケーションサーバ(AS)が、メンバーとして山田さんと田中さんを抽出した例で説明する。   FIG. 38A illustrates an example in which the application server (AS) extracts Mr. Yamada and Mr. Tanaka as members.

アプリケーションサーバ(AS)は、山田さんと田中さんの対面時間について、総対面時間に対する双方活性状態の対面時間の割合(または比率)を図36に示した双方活性の業務対面活動マトリクス(ASGM_1)から算出する。なお、山田さんと田中さんの総対面時間は、図34A、図34Bに示したセンサ端末(TR)のセンシングデータから求めることができる。   The application server (AS) uses the interactive activity matrix (ASGM_1) of the interactive activity shown in FIG. 36 as the ratio (or ratio) of the interactive time of the active state to the total interactive time for the interactive time of Mr. Yamada and Mr. Tanaka. calculate. The total meeting time between Mr. Yamada and Mr. Tanaka can be obtained from the sensing data of the sensor terminal (TR) shown in FIGS. 34A and 34B.

また、アプリケーションサーバ(AS)は、山田さんと田中さんの対面時間について、総対面時間に対する一方のみが活性状態の対面時間の割合を図37に示した一方活性の業務対面活動マトリクス(ASGM_2)から算出する。以上により、図38Aで示すように、双方活性の対面時間の割合が67の%、田中さんのみが活性状態の対面時間の割合が27%、山田さんのみが活性状態の対面時間の割合が6%となる例を示す。   In addition, the application server (AS) determines the ratio of the meeting time in which only one of the face-to-face times of Mr. Yamada and Mr. Tanaka is active with respect to the total face-to-face time from the one-side active work face-to-face activity matrix (ASGM_2) shown in FIG. calculate. As described above, as shown in FIG. 38A, the ratio of the face-to-face time for both activities is 67%, only Mr. Tanaka is the face-to-face ratio in the active state is 27%, and only Mr. Yamada is the face-to-face time in the active state is 6. The example which becomes% is shown.

次に、田中さんと山田さんのノード間を線で結ぶ際に、矢印を利用する。また、対面状態の人物の活性状態と非活性状態とを、実線と点線を用いて区別する。図示の例では、活性状を、実線で示し、非活性状態を点線で示す。   Next, arrows are used to connect Tanaka-san and Yamada-san nodes with a line. Also, the active state and the inactive state of a person in a face-to-face state are distinguished using a solid line and a dotted line. In the illustrated example, the active state is indicated by a solid line, and the inactive state is indicated by a dotted line.

田中さんが活性状態の時間は、田中さんのみが活性状態の時間(27%)+双方活性の時間(67%)であり、矢印の94%を実線で示す。残りの6%は点線で示す(「図中山田のみ活性」の部分)。   The time during which Tanaka is active is the time when only Tanaka is active (27%) + the time when both are active (67%), and 94% of the arrow is indicated by a solid line. The remaining 6% is indicated by a dotted line (“Yamada only active” in the figure).

また、山田さんの活性時間は、山田さんのみが活性状態の時間(6%)+双方活性の時間(67%)であり、矢印の73%を実線で示し、残りの27%を点線で示す。これにより、双方活性の時間、一方活性の時間をそれぞれ実線と点線の差異から容易に把握することが出来る。   In addition, the active time of Mr. Yamada is the time when only Mr. Yamada is active (6%) + the time of both activities (67%), 73% of the arrow is indicated by a solid line, and the remaining 27% is indicated by a dotted line . Thereby, it is possible to easily grasp the time of both activity and the time of one activity from the difference between the solid line and the dotted line.

上記では、実線と点線で活性状態と非活性状態の差異を表現する方法について述べたが、色を変えた線で表現してもよい。   In the above description, the method of expressing the difference between the active state and the inactive state with the solid line and the dotted line has been described, but it may be expressed with a line with a different color.

また、ノードAとノードBについて、双方活性が100%の場合は、図38Bで示すように、実線で両側の矢印をノードA、Bに接続する。   Further, when both the activities of the node A and the node B are 100%, as shown in FIG. 38B, the arrows on both sides are connected to the nodes A and B by a solid line.

一方活性が100%の場合は、図38Cまたは図38Dで示すように、活性状態の人のノードから非活性状態の人のノードへ実線で矢印を接続する。   On the other hand, when the activity is 100%, as shown in FIG. 38C or FIG. 38D, an arrow is connected with a solid line from the active person node to the inactive person node.

<対面活動マトリクスから生成した社内ネットワーク図の例>
図39A〜図39Cは、対面活動マトリクス(ASGM)からアプリケーションサーバ(AS)が生成する社内ネットワーク図の一例を示す。
<Example of internal network diagram generated from face-to-face activity matrix>
39A to 39C show an example of an in-house network diagram generated by the application server (AS) from the face-to-face activity matrix (ASGM).

図39Aに示す社内ネットワーク図(ASNF)は、センサネットサーバ(SS)から取得した二次データの一つである社内の任意の従業員間の対面時間を示す対面活動マトリクスを基に生成したネットワーク図である。   The in-house network diagram (ASNF) shown in FIG. 39A is a network generated based on a face-to-face activity matrix indicating face-to-face time between arbitrary employees in the company, which is one of the secondary data acquired from the sensor net server (SS). FIG.

ここで示しているのは、対面時間に応じて、線幅を変更した例である。すなわち、対面時間が増大するにつれて、線幅を太くするものである。   What is shown here is an example in which the line width is changed according to the meeting time. That is, the line width is increased as the facing time increases.

図39Bに示す社内活動ネットワーク図1(ASAN1)は、上記図38A〜図38Dに従って、双方活性と一方活性とを実線と点線で区別し、センサネットサーバ(SS)から取得した二次データの一つである組織内の任意の従業員間での、所定の期間内の互いの活性度に対応する対面時間の割合を示した対面活動マトリクス(ASMM1)、(ASMM2)をもとに生成した社内ネットワーク図1である。   FIG. 39B shows an in-house activity network FIG. 1 (ASAN1) in which secondary activity and one-side activity are distinguished from each other by a solid line and a dotted line in accordance with FIGS. 38A to 38D, and secondary data acquired from the sensor network server (SS). In-house generated based on face-to-face activity matrix (ASMM1) and (ASMM2) showing the ratio of face-to-face time corresponding to each other's activity within a given period among any employee in the organization FIG. 1 is a network diagram 1.

図39Cに示す社内活動ネットワーク図2(ASAN2)は、上記図39Aと図39Bを組み合わせたもので、双方活性と一方活性とを実線と点線で区別し、対面時間に応じて、線幅を変更した例である。センサネットサーバ(SS)から取得した二次データの一つである組織内の任意の従業員間の所定の期間内の互いの活性度に対応する対面時間の割合を実線と点線で区別し、双方活性と一方活性を矢印によって区別した。   In-house activity network shown in Fig. 39C (ASAN2) is a combination of Fig. 39A and Fig. 39B. Both active and one-sided activities are distinguished by a solid line and a dotted line, and the line width is changed according to the facing time. This is an example. The ratio of facing time corresponding to each other's activity within a predetermined period between arbitrary employees in the organization, which is one of the secondary data acquired from the sensor network server (SS), is distinguished by a solid line and a dotted line, Bilateral activity and unilateral activity were distinguished by arrows.

これにより、対面時に、双方が積極的に活動していたか、または一方のみが積極的であったか、個人個人の関係性を把握することが出来る。また、社内活動ネットワーク図2(ASAN2)は、対面時間に応じて線幅を変更した例である。   Thereby, at the time of meeting, it can grasp | ascertain the relationship of an individual individual whether both sides were active or only one was active. Moreover, FIG. 2 (ASAN2) in-house activity network is an example in which the line width is changed according to the meeting time.

また、アプリケーションサーバ(AS)は、図39A〜図39Cの少なくともひとつを画像データとして生成しておき、クライアント(CL)から要求を受け付けたときに、社内活動ネットワーク図を提供することができる。   Further, the application server (AS) can generate at least one of FIGS. 39A to 39C as image data and provide an in-house activity network diagram when a request is received from the client (CL).

<業務対面活動マトリクスから生成した、業務ネットワーク図の例>
図40A〜図40Cに示す業務ネットワーク図(ASGN)は、図39A〜図39Cに示した社内ネットワーク(ASNF)に、会議データから得られる情報を付加したものであり、対面時間に基づき線幅を変更して表したものである。上記図39A〜図39Cで示した社内ネットワーク図に、社外の来訪者の情報をアプリケーションサーバ(AS)で付加したものである。社内の従業員のノードと、社外来訪者のノードの形状を変えて表示することで、社内と社外の人の区別が視覚的にわかりやすくなる。
<Example of business network diagram generated from business-facing activity matrix>
The business network diagram (ASGN) shown in FIGS. 40A to 40C is obtained by adding information obtained from conference data to the in-house network (ASNF) shown in FIGS. 39A to 39C. It is changed and expressed. Information on visitors from outside the company is added to the internal network diagrams shown in FIGS. 39A to 39C by an application server (AS). By distinguishing and displaying the internal employee node and the non-company visitor node shape, the distinction between internal and external people can be visually understood.

<閲覧者判定(CSCVD)のフローチャート>
図41に、クライアント(CL)で行われる閲覧者判定(CLCVD)のフローチャートを示す。閲覧者判定(CLCVD)の処理は、閲覧者検出器(CLVD)が起動している間は常時行われる処理である。
<Flow chart of visitor determination (CSCVD)>
FIG. 41 shows a flowchart of browser determination (CLCVD) performed by the client (CL). The browser determination (CLCVD) process is a process that is always performed while the browser detector (CLVD) is activated.

処理の開始(CVDS)後、クライアント(CL)は、閲覧者検出器(CLVD)から受信した赤外線データを取り込み(CVD1)、赤外線データに含まれるIDについて、端末IDリストを照会する。赤外線データに含まれるIDが端末IDリスト(CLID)に格納されている有効な端末IDではない場合には、当該データをノイズと判断して除去する(CVD2)。   After the start of processing (CVDS), the client (CL) takes in the infrared data received from the viewer detector (CLVD) (CVD1) and inquires the terminal ID list for the ID included in the infrared data. If the ID included in the infrared data is not a valid terminal ID stored in the terminal ID list (CLID), the data is determined to be noise and removed (CVD2).

そして、一定時間、例えば1秒間や5秒間ごとに区切って端末IDを受信した回数をカウントする。クライアント(CL)は、端末IDを受信した回数があらかじめ指定した閾値以上か否かを判定する(CVD3)。端末IDを受信した回数が閾値以上かであれば、クライアント(CL)は、受信した端末IDを閲覧者と見なす(CVD42)。一方、そうでない場合には、端末IDは閲覧者とはみなさない(CVD41)。これは、一瞬通りすがっただけのユーザ(US)を閲覧者に含まないようにする処置である。このようにして、クライアント(CL)は、所定の時間の中で閲覧者であるとみなしたユーザ(US)の端末IDのリスト(閲覧者IDリスト)を生成する(CVD5)。クライアント(CL)は、生成した閲覧者IDリストをアプリケーションサーバ(AS)に送り、リスト内の端末IDのそれぞれに対応する氏名を取得する(CVD6)。すなわち、閲覧者の氏名をアプリケーションサーバ(AS)から取得する。以上の流れを、閲覧者判定(CLCVD)プログラムが手動またはタイマによって終了されるまで繰り送信する。   Then, the number of times the terminal ID is received is counted for a predetermined time, for example, every 1 second or 5 seconds. The client (CL) determines whether or not the number of times the terminal ID has been received is equal to or greater than a predetermined threshold value (CVD3). If the number of times the terminal ID is received is equal to or greater than the threshold, the client (CL) regards the received terminal ID as a viewer (CVD42). On the other hand, if not, the terminal ID is not regarded as a viewer (CVD41). This is a measure to prevent a user (US) who has just passed for a moment from being included in the viewer. In this manner, the client (CL) generates a list (viewer ID list) of terminal IDs of users (US) regarded as viewers within a predetermined time (CVD 5). The client (CL) sends the generated viewer ID list to the application server (AS), and acquires a name corresponding to each terminal ID in the list (CVD 6). That is, the viewer's name is acquired from the application server (AS). The above flow is repeatedly transmitted until the viewer determination (CLCVD) program is terminated manually or by a timer.

<アクセス制御規定(ASAC)>
図42に、アプリケーションサーバ(AS)の記憶部(ASME)に記録される、アクセス制御規定(ASAC)ファイル内のデータ構造の一例を示す。アクセス制御規定(ASAC)ファイルは、アプリケーションサーバ(AS)における基本コンテンツ生成(ASCBC)時に合わせて出力されるものであり、対応する基本コンテンツファイル(ASBF)にアクセスできる条件が格納されているものである。例えば、ある部署に関するファイルであれば、閲覧者の中に当該部署の従業員が少なくとも一人含まれている場合には閲覧可能である、というようにアクセス条件が規定される。
<Access control rules (ASAC)>
FIG. 42 shows an example of the data structure in the access control specification (ASAC) file recorded in the storage unit (ASME) of the application server (AS). The access control rule (ASAC) file is output in accordance with basic content generation (ASCBC) in the application server (AS), and stores conditions for accessing the corresponding basic content file (ASBF). is there. For example, an access condition is defined such that a file related to a certain department can be browsed if at least one employee of the department is included in the viewer.

アクセス制御規定(ASAC)では、基本コンテンツファイルのファイルID(ASAC01)、ファイルの種類(ASAC02)、アクセス条件(ASAC03)を対応付けて格納される。   In the access control rule (ASAC), the file ID (ASAC01), file type (ASAC02), and access condition (ASAC03) of the basic content file are stored in association with each other.

ファイル種類(ASAC02)は、コンテンツの種類を示すものである。クライアント(CL)のディスプレイ(CLOD)に表示されるコンテンツ切替ボタン(OD_C)においてボタンを表示する際の見出し、分類に用いられる。   The file type (ASAC02) indicates the type of content. It is used for heading and classification when displaying a button in the content switching button (OD_C) displayed on the display (CLOD) of the client (CL).

アクセス条件(ASAC03)は、対応するファイルを表示するのに必要な閲覧者の端末IDを論理式で示したものである。   The access condition (ASAC03) is a logical expression showing the terminal ID of the viewer necessary for displaying the corresponding file.

<ネットワーク図表示時の画面例>
図42に、クライアント(CL)のディスプレイ(CLOD)に表示される画面の一例を示す。クライアント(CL)がディスプレイ(CLOD)に表示するコンテンツ情報としては、社内組織のネットワーク図を採用した一例を示す。クライアント(CL)のディスプレイ(CLOD)に表示された画面(OD)の、コンテンツ表示エリア(OD_B)に、アプリケーションサーバ(AS)から受け取ったネットワーク図の画像を表示する。また、閲覧者選択ボタン(OD_A)には、現在、閲覧者として検出されているユーザの氏名が表示されている。
<Screen example when displaying network diagram>
FIG. 42 shows an example of a screen displayed on the display (CLOD) of the client (CL). As the content information displayed on the display (CLOD) by the client (CL), an example in which a network diagram of an in-house organization is adopted is shown. The network diagram image received from the application server (AS) is displayed in the content display area (OD_B) of the screen (OD) displayed on the display (CLOD) of the client (CL). The viewer selection button (OD_A) displays the name of the user currently detected as a viewer.

以上のように、本発明によれば、センサ端末(TR)が計測したセンシングデータをデータ処理サーバ(DS)やアプリケーションサーバ(AS)で解析し、センサ端末(TR)を装着した人間同士のコミュニケーション量(対面時間)及び状況(活動量と活性度)を把握できるだけでなく、センサ端末(TR)を装着していない社外の人とのコミュニケーションの量(対面時間)及び状況(活動量と活性度)を把握することも可能となる。   As described above, according to the present invention, the sensing data measured by the sensor terminal (TR) is analyzed by the data processing server (DS) or the application server (AS), and communication between humans wearing the sensor terminal (TR) is performed. Not only can you grasp the amount (face-to-face time) and situation (activity and activity), but also the amount of communication (face-to-face time) and situation (activity and activity) with people outside the sensor terminal (TR). ) Can also be grasped.

また、上記実施例1では、会議の参加者ごと、各時刻ごとの頭部移動量から会議中の活性状態を活性(活性度=1)または不活性(活性度=0)の何れであるかを、予め設定した閾値を基準に判定する例を図27に示したが、これに限定されるものではない。例えば、複数の閾値を設けて活性度を複数の段階に分けるようにしても良い。   In the first embodiment, whether the active state during the conference is active (activity level = 1) or inactive (activity level = 0) based on the amount of head movement at each time for each participant of the conference. FIG. 27 shows an example in which is determined based on a preset threshold value, but the present invention is not limited to this. For example, a plurality of threshold values may be provided to divide the activity into a plurality of stages.

また、上記実施例1では、計測PC(MP)は、距離センサ(RS)で会議の参加者の位置を特定して座席配置図を生成する。そして、計測PC(MP)は、センサ端末装着者検出器(ISD)で検出したセンサ端末(TR)の端末IDから、座席に対応する参加者の氏名を特定する。さらに、計測PC(MP)では、参加者が存在する座席に端末IDが存在しない場合には、センサ端末(TR)を装着していない来訪者が存在すると推定して、氏名などの情報を入力するよう促すことができる。これにより、センサ端末(TR)を装着した人物と、センサ端末(TR)を装着していない人物の対面データを生成し、センサ端末(TR)を装着していない社外の人(来訪者)とのコミュニケーションの量(対面時間)及び状況(活動量と活性度)を容易に把握することができる。   Moreover, in the said Example 1, measurement PC (MP) pinpoints the position of the participant of a meeting with a distance sensor (RS), and produces | generates a seating plan. And measurement PC (MP) specifies the name of the participant corresponding to a seat from terminal ID of the sensor terminal (TR) detected with the sensor terminal wearer detector (ISD). Furthermore, in the measurement PC (MP), when the terminal ID does not exist in the seat where the participant exists, it is estimated that there is a visitor not wearing the sensor terminal (TR), and information such as a name is input. Can be encouraged. Thereby, the face-to-face data of the person wearing the sensor terminal (TR) and the person not wearing the sensor terminal (TR) is generated, and the outside person (visitor) not wearing the sensor terminal (TR) Communication amount (meeting time) and situation (activity and activity) can be easily grasped.

また、上記実施例では、センサネットサーバ(SS)、データ処理サーバ(DS)、アプリケーションサーバ(AS)計測PC(MP)及びクライアント(CL)を主体として業務上対面データ生成システムを構成する例を示したが、センサネットサーバ(SS)、データ処理サーバ(DS)、アプリケーションサーバ(AS)計測PC(MP)及びクライアント(CL)を一つの計算機にまとめて業務上対面データ生成装置とすることができる。   Moreover, in the said Example, the example which comprises a business network face-to-face data generation system mainly by a sensor network server (SS), a data processing server (DS), an application server (AS) measurement PC (MP), and a client (CL). As shown, the sensor network server (SS), the data processing server (DS), the application server (AS), the measurement PC (MP), and the client (CL) may be combined into one computer to be a business-to-face data generation device. it can.

なお、本発明において説明した計算機等の構成、処理部等は、それらの一部又は全部を、専用のハードウェアによって実現してもよい。   The configuration of the computer and the like, the processing unit, and the like described in the present invention may be partially or entirely realized by dedicated hardware.

また、本実施例で例示した種々のソフトウェアは、電磁的、電子的及び光学式等の種々の記録媒体(例えば、非一時的な記憶媒体)に格納可能であり、インターネット等の通信網を通じて、コンピュータにダウンロード可能である。   In addition, the various software exemplified in the present embodiment can be stored in various recording media (for example, non-transitory storage media) such as electromagnetic, electronic, and optical, and through a communication network such as the Internet. It can be downloaded to a computer.

また、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明をわかりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。   The present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.

本発明は、プロセッサと記憶部を備えて、人物同士の物理的な対面に関するデータを生成する対面データ生成装置であって、複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する通信部と、所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第1の計測部と、所定の位置に配置されて前記センサ端末と通信を行って当該センサ端末の位置を特定する第2の計測部と、前記第1の計測部で特定した前記人物の位置と、前記第2の計測部で特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する対面データ生成部と、を備え、前記第2のセンサは、前記人物までの距離を測定する距離センサで構成され、前記第1の計測部は、前記距離センサから取得したデータと、前記距離センサの位置及び方向に基づいて、前記人物の実際の配置に基づく座席見取り図を生成するThe present invention is a face-to-face data generation apparatus that includes a processor and a storage unit and generates data related to physical face-to-face contact between persons, and is detected by a first sensor of a sensor terminal attached to each of a plurality of persons. A communication unit that receives sensing data indicating the measured physical quantity and a second sensor that is arranged at a predetermined position and measures the position of the person, and the position of the person based on the received data A first measurement unit that identifies the first measurement unit, a second measurement unit that is disposed at a predetermined position and communicates with the sensor terminal to identify the position of the sensor terminal, and the first measurement unit identifies the position A face data generation unit that combines the position of the person and the position of the sensor terminal specified by the second measurement unit, and generates the face data of the person based on the physical quantity of the sensing data; The second sensor is constituted by a distance sensor for measuring a distance to the person, the first measurement unit, the data acquired from the distance sensor, based on the position and direction of the distance sensor, A seat plan based on the actual arrangement of the person is generated .

Claims (14)

プロセッサと記憶部を備えて、人物同士の物理的な対面に関するデータを生成する対面データ生成装置であって、
複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する通信部と、
所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第1の計測部と、
所定の位置に配置されて前記センサ端末と通信を行って当該センサ端末の位置を特定する第2の計測部と、
前記第1の計測部で特定した前記人物の位置と、前記第2の計測部で特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する対面データ生成部と、
を備えたことを特徴とする対面データ生成装置。
A face-to-face data generation device that includes a processor and a storage unit and generates data related to physical face-to-face between persons,
A communication unit that receives sensing data indicating a physical quantity detected by a first sensor of a sensor terminal attached to each of a plurality of persons;
A first measurement unit that receives data from a second sensor that is arranged at a predetermined position and measures the position of the person, and that specifies the position of the person based on the received data;
A second measuring unit arranged at a predetermined position to communicate with the sensor terminal and identify the position of the sensor terminal;
The position of the person specified by the first measurement unit and the position of the sensor terminal specified by the second measurement unit are combined to generate face-to-face data of the person based on the physical quantity of the sensing data. A face-to-face data generator,
A face-to-face data generation apparatus comprising:
請求項1に記載の対面データ生成装置であって、
前記第2のセンサは、
前記人物までの距離を測定する距離センサで構成され、
前記第1の計測部は、
前記距離センサから取得したデータと、前記距離センサの位置及び方向に基づいて、前記人物の実際の配置に基づく座席見取り図を生成することを特徴とする対面データ生成装置。
The face-to-face data generation device according to claim 1,
The second sensor is
It consists of a distance sensor that measures the distance to the person,
The first measurement unit includes:
A face-to-face data generation apparatus that generates a floor plan based on an actual arrangement of the person based on data acquired from the distance sensor and the position and direction of the distance sensor.
請求項1に記載の対面データ生成装置であって、
前記第2の計測部は、
前記センサ端末と通信を行うセンサ端末検出器を有し、前記センサ端末検出器が検出したセンサ端末から取得した端末IDと、前記センサ端末検出器の位置及び方向に基づき、前記センサ端末を装着した人物の位置を特定することを特徴とする対面データ生成装置。
The face-to-face data generation device according to claim 1,
The second measuring unit is
It has a sensor terminal detector that communicates with the sensor terminal, and the sensor terminal is mounted based on the terminal ID acquired from the sensor terminal detected by the sensor terminal detector and the position and direction of the sensor terminal detector. A face-to-face data generation apparatus characterized by specifying a position of a person.
請求項2に記載の対面データ生成装置であって、
情報を入力する入力部をさらに備え、
前記入力部は、
前記座席見取り図上の人物の位置を選択し、当該人物の情報を入力することを特徴とする対面データ生成装置。
The face-to-face data generation device according to claim 2,
It further includes an input unit for inputting information,
The input unit is
A face-to-face data generation apparatus, wherein a position of a person on the seat plan is selected and information on the person is input.
請求項2に記載の対面データ生成装置であって、
前記第1の計測部は、
前記距離センサのデータから前記人物の頭部の移動量を算出し、当該移動量から当該人物の活性度を算出することを特徴とする対面データ生成装置。
The face-to-face data generation device according to claim 2,
The first measurement unit includes:
A face-to-face data generation apparatus, wherein a movement amount of the person's head is calculated from data of the distance sensor, and an activity level of the person is calculated from the movement amount.
請求項5に記載の対面データ生成装置であって、
前記対面データに基づいて前記人物同士の関係を示すネットワーク図を生成するネットワーク図生成部をさらに備え、
前記ネットワーク図生成部は、
前記人物同士を表すノードとノードを接続する線に、活性度に応じた矢印を付与する付与することを特徴とする対面データ生成装置。
The face-to-face data generation device according to claim 5,
A network diagram generating unit that generates a network diagram showing the relationship between the persons based on the meeting data;
The network diagram generation unit
A face-to-face data generation device, characterized in that an arrow corresponding to the degree of activity is assigned to a node connecting nodes representing the persons.
請求項2に記載の対面データ生成装置であって、
前記座席見取り図は、
前記センサ端末を装着した人物の実際の配置と、前記センサ端末を非装着の人物の実際の配置とを含むことを特徴とする対面データ生成装置。
The face-to-face data generation device according to claim 2,
The seat floor plan is
A face-to-face data generation apparatus comprising: an actual arrangement of a person wearing the sensor terminal; and an actual arrangement of a person not wearing the sensor terminal.
プロセッサと記憶部を備えた計算機で、人物同士の物理的な対面に関するデータを生成する対面データの生成方法であって、
前記計算機が、複数の人物のそれぞれに装着されるセンサ端末の第1のセンサで検出された物理量を示すセンシングデータを受信する第1のステップと、
前記計算機が、所定の位置に配置されて前記人物の位置を測定する第2のセンサからのデータを受信し、受信した前記データに基づいて前記人物の位置を特定する第2のステップと、
前記計算機が、前記センサ端末と通信を行った結果に基づいて当該センサ端末の位置を特定する第3のステップと、
前記計算機が、前記特定した前記人物の位置と、前記特定した前記センサ端末の位置とを結合し、前記センシングデータの物理量に基づいて前記人物の対面データを生成する第4のステップと、
を含むことを特徴とする対面データの生成方法。
A face-to-face data generation method for generating data related to physical face-to-face contact between computers using a processor and a storage unit,
A first step in which the calculator receives sensing data indicating a physical quantity detected by a first sensor of a sensor terminal attached to each of a plurality of persons;
A second step in which the calculator receives data from a second sensor arranged at a predetermined position and measures the position of the person, and specifies the position of the person based on the received data;
A third step of identifying a position of the sensor terminal based on a result of the computer communicating with the sensor terminal;
A fourth step in which the computer combines the identified position of the person and the identified position of the sensor terminal, and generates face-to-face data of the person based on a physical quantity of the sensing data;
A method for generating face-to-face data, comprising:
請求項8に記載の対面データの生成方法であって、
前記第2のセンサは、
前記人物までの距離を測定する距離センサで構成され、
前記第2のステップは、
前記距離センサから取得したデータと、前記距離センサの位置及び方向に基づいて、前記人物の実際の配置に基づく座席見取り図を生成することを特徴とする対面データの生成方法。
The method for generating face-to-face data according to claim 8,
The second sensor is
It consists of a distance sensor that measures the distance to the person,
The second step includes
A method for generating face-to-face data, wherein a seat plan based on an actual arrangement of the person is generated based on data acquired from the distance sensor and a position and direction of the distance sensor.
請求項8に記載の対面データの生成方法であって、
前記第3のステップは、
前記計算機が、前記センサ端末と通信を行うセンサ端末検出器が検出したセンサ端末の端末IDを受信し、前記センサ端末検出器の位置及び方向に基づき、前記センサ端末を装着した人物の位置を特定することを特徴とする対面データの生成方法。
The method for generating face-to-face data according to claim 8,
The third step includes
The computer receives the terminal ID of the sensor terminal detected by the sensor terminal detector that communicates with the sensor terminal, and identifies the position of the person wearing the sensor terminal based on the position and direction of the sensor terminal detector A method for generating face-to-face data.
請求項9に記載の対面データの生成方法であって、
前記計算機は、情報を入力する入力部をさらに備え、
前記座席見取り図上の人物の位置を選択し、当該人物の情報を前記入力部で入力する第5のステップをさらに含むことを特徴とする対面データの生成方法。
The method for generating face-to-face data according to claim 9,
The calculator further includes an input unit for inputting information,
The method for generating face-to-face data, further comprising a fifth step of selecting a position of a person on the floor plan and inputting information about the person through the input unit.
請求項9に記載の対面データの生成方法であって、
前記第2のステップは、
前記距離センサのデータから前記人物の頭部の移動量を算出し、当該移動量から当該人物の活性度を算出することを特徴とする対面データの生成方法。
The method for generating face-to-face data according to claim 9,
The second step includes
A method for generating face-to-face data, wherein a moving amount of the head of the person is calculated from data of the distance sensor, and an activity level of the person is calculated from the moving amount.
請求項12に記載の対面データの生成方法であって、
前記対面データに基づいて前記人物同士の関係を示すネットワーク図を生成する第6のステップをさらに含み、
前記第6のステップは、
前記人物同士を表すノードとノードを接続する線に、前記活性度に応じた矢印を付与する付与することを特徴とする対面データの生成方法。
The method for generating face-to-face data according to claim 12,
A sixth step of generating a network diagram showing the relationship between the persons based on the meeting data;
The sixth step includes
A method for generating face-to-face data, characterized in that an arrow corresponding to the degree of activity is given to a line connecting nodes representing the persons.
請求項9に記載の対面データの生成方法であって、
前記座席見取り図は、
前記センサ端末を装着した人物の実際の配置と、前記センサ端末を非装着の人物の実際の配置とを含むことを特徴とする対面データの生成方法。
The method for generating face-to-face data according to claim 9,
The seat floor plan is
A method for generating face-to-face data, comprising an actual arrangement of a person wearing the sensor terminal and an actual arrangement of a person not wearing the sensor terminal.
JP2014534081A 2012-09-05 2012-09-05 Face-to-face data generation apparatus and face-to-face data generation method Expired - Fee Related JP5947902B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/072623 WO2014038014A1 (en) 2012-09-05 2012-09-05 Interaction data generation device and method for generating interaction data

Publications (2)

Publication Number Publication Date
JP5947902B2 JP5947902B2 (en) 2016-07-06
JPWO2014038014A1 true JPWO2014038014A1 (en) 2016-08-08

Family

ID=50236666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014534081A Expired - Fee Related JP5947902B2 (en) 2012-09-05 2012-09-05 Face-to-face data generation apparatus and face-to-face data generation method

Country Status (2)

Country Link
JP (1) JP5947902B2 (en)
WO (1) WO2014038014A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7107732B2 (en) * 2018-04-24 2022-07-27 清水建設株式会社 Human relationship extraction system
CN109634412A (en) * 2018-12-03 2019-04-16 小黄鹿(杭州)科技有限公司 A kind of recreation terminal with a variety of interactive modes
CN109743155B (en) * 2019-02-28 2021-09-24 中国人民解放军国防科技大学 Physical layer secure transmission method based on antenna selection differential chaos keying

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007037078A (en) * 2005-06-21 2007-02-08 Ikuaki Cho Actual dimension display unit and computerized distribution device
JP2008210363A (en) * 2007-01-31 2008-09-11 Hitachi Ltd Business microscope system
JP2008262046A (en) * 2007-04-12 2008-10-30 Hitachi Ltd Conference visualizing system and method, conference summary processing server
JP2009303083A (en) * 2008-06-16 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Conference support system and conference support method
JP2010217939A (en) * 2009-03-13 2010-09-30 Hitachi Ltd Knowledge creation behavior analysis system and processor
JP2011166694A (en) * 2010-02-15 2011-08-25 Sharp Corp Information processor, terminal device, information processing system, method of controlling information processor, control program, and computer-readable recording medium with the program recorded thereon

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007037078A (en) * 2005-06-21 2007-02-08 Ikuaki Cho Actual dimension display unit and computerized distribution device
JP2008210363A (en) * 2007-01-31 2008-09-11 Hitachi Ltd Business microscope system
JP2008262046A (en) * 2007-04-12 2008-10-30 Hitachi Ltd Conference visualizing system and method, conference summary processing server
JP2009303083A (en) * 2008-06-16 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Conference support system and conference support method
JP2010217939A (en) * 2009-03-13 2010-09-30 Hitachi Ltd Knowledge creation behavior analysis system and processor
JP2011166694A (en) * 2010-02-15 2011-08-25 Sharp Corp Information processor, terminal device, information processing system, method of controlling information processor, control program, and computer-readable recording medium with the program recorded thereon

Also Published As

Publication number Publication date
WO2014038014A1 (en) 2014-03-13
JP5947902B2 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
JP5672934B2 (en) Sensing data display device and display system
US9111242B2 (en) Event data processing apparatus
JP5219378B2 (en) Interaction data display device, processing device, and display method
JP2008287690A (en) Group visualization system and sensor-network system
JP5400895B2 (en) Organizational behavior analysis apparatus and organizational behavior analysis system
Spataru et al. How to monitor people ‘smartly’to help reducing energy consumption in buildings?
US11914656B1 (en) Systems and methods for generating hypermedia-based graphical user interfaces for mobile devices
US10264404B2 (en) Information processing apparatus, system, and method
JP2017208005A (en) Sensor data analysis system and sensor data analysis method
JP6852293B2 (en) Image processing system, information processing device, information terminal, program
JP7243413B2 (en) Monitoring system, notification device and notification method
WO2016125260A1 (en) Mental state measurement system
JP5947902B2 (en) Face-to-face data generation apparatus and face-to-face data generation method
JP2006252207A (en) Action history management system, action history management device, display application program and schedule management program
JP2010198261A (en) Organization cooperative display system and processor
JP5372557B2 (en) Knowledge creation behavior analysis system and processing device
JP2013008149A (en) Business-related facing data generation device and system
JP2018109893A (en) Information processing method, apparatus, and program
JP2007219787A (en) Device and method for analyzing business style
Mo et al. A framework of fine-grained mobile sensing data collection and behavior analysis in an energy-configurable way
JP5025800B2 (en) Group visualization system and sensor network system
JP4911081B2 (en) Information processing apparatus and program
Lin et al. An IoT-based smart healthcare system using location-based mesh network and big data analytics
Memon et al. Retrieval of life logs based on users context
US20180225888A1 (en) Systems and methods for employee time recording

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160603

R150 Certificate of patent or registration of utility model

Ref document number: 5947902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees