JP5160818B2 - ビジネス顕微鏡システム - Google Patents

ビジネス顕微鏡システム Download PDF

Info

Publication number
JP5160818B2
JP5160818B2 JP2007164112A JP2007164112A JP5160818B2 JP 5160818 B2 JP5160818 B2 JP 5160818B2 JP 2007164112 A JP2007164112 A JP 2007164112A JP 2007164112 A JP2007164112 A JP 2007164112A JP 5160818 B2 JP5160818 B2 JP 5160818B2
Authority
JP
Japan
Prior art keywords
person
terminal
data
relationship
indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007164112A
Other languages
English (en)
Other versions
JP2008210363A (ja
Inventor
信夫 佐藤
聡美 辻
和男 矢野
紀彦 森脇
穣 大串
義博 脇坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007164112A priority Critical patent/JP5160818B2/ja
Priority to US12/022,630 priority patent/US20080183525A1/en
Publication of JP2008210363A publication Critical patent/JP2008210363A/ja
Application granted granted Critical
Publication of JP5160818B2 publication Critical patent/JP5160818B2/ja
Priority to US15/644,024 priority patent/US20170308853A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本願明細書で開示される技術は、組織における人物間の対面コミュニケーションデータを取得することによって、組織の指標を可視化する技術に関する。
あらゆる組織において生産性の向上は必須の課題となっており、職場環境の改善及び業務の効率化のために多くの試行錯誤がなされている。工場等の組立又は搬送を業務とする組織に限定した場合には、部品又は製品の移動経路を追跡することでその成果を客観的に分析することができる。しかし事務、営業及び企画等の知識労働を行うホワイトカラー組織に関しては、モノと業務が直結していないため、モノを観測することで組織を評価することはできない。そもそも組織を形成する理由とは、複数の人間が力を合わせることによって、個人ではできない大掛かりな業務を達成するためである。このため、どのような組織においても2人又はそれ以上の人物によって常に意思決定及び合意がなされている。この意思決定及び合意は人物間の関係性によって左右されると考えることができ、ひいてはその成否が生産性を決定付けていると考えられる。ここで関係性とは、例えば上司、部下又は友人といったラベル付けされたものであってもよいし、さらに、好意、嫌悪、信頼又は影響等、互いに対する多様な感情を含んでもよい。人と人とが関係性を有するためには、意思疎通、つまりコミュニケーションが不可欠である。このため、コミュニケーションの記録を取得することで関係性を調べることができると考えられる。
組織における人物間のコミュニケーションの記録を調べる技術としては、例えば、特許文献1及び非特許文献1が開示されている。
特許文献1には、メーリングリストにおける発言データ及びヘッダ情報等のログ情報を、特定のイベント又は話題と関連付けることによって、コミュニケーションを分析する技術が開示されている。
非特許文献1には、携帯電話の送受信履歴を用いてコミュニケーションを分析する技術が開示されている。
一方、人物の行動を調べる技術として、例えば、特許文献2及び特許文献3が開示されている。
特許文献2には、複数のセンサによって収集された情報に基づいて独居居住者の行動を解析する技術が開示されている。
特許文献3には、センサが検出した人物の身体の活動に基づいて、その人物が消費するエネルギー量を算出することによって、人物の健康管理に必要な情報を提供する技術が開示されている。
特開2003−85347号公報 特開2004−46560号公報 特開2005−205167号公報 Eagle,N.,and Pentland,A.,"Reality Mining : Sensing Complex Social Systems",J.Of Personal and Ubiquitous Computing,July 2005
アメリカの社会学者であるミードの役割理論によると、個人の役割とは、他者からそのように期待され、それを個人が内面化することによって、本人・周囲ともに承認されるものとなると言われている(G・H・ミード『精神・自我・社会』(稲葉・滝沢・中野訳、青木書店、1973年)参照)。つまり人物間の関係性とはコミュニケーションによって相互に規定し合った役割の組であり、そのプロセスは試行錯誤と駆け引きの連続であると言える。よって関係性はコミュニケーションの都度変化するものであり、偶発性を含む不確定なものである。これを踏まえると、関係性の駆け引きは、雑談等のインフォーマルなコミュニケーションによって行われていることはもちろん、交渉や意思決定等のフォーマルなコミュニケーションにおいては、業務遂行と同時に発生しているものであると考えられる。
従来、IT化の進んだ組織における業務の多くが電子メールや携帯電話等のITツールを介して賄われるようになった結果、それらの電子メール等の記録を分析することによって人物間の関係性を評価することができると考えられていた。しかし、電子メールの送信及び電話の発信の際にはそもそも宛て先を指定するのであり、その時点で既に人物間に決まった関係が存在していると言える。つまり従来の電子メールや携帯電話の履歴の分析は、既に実世界に存在する関係性を静的な断面として切り取るものであった。
対して本発明が目指すものは、関係性を動的なプロセスとして捉えることである。そのためには直接顔を合わせて行われるコミュニケーション(ここでは対面コミュニケーションと呼ぶ)に関するデータを取得しなければならない。なぜならば、実世界では人は身体を有しており、無意識的であってもコミュニケーション時には様々な身体表現を行っている。この身体表現は、感情等の個人の内面の発露である。加えて、身体表現には、関係を規定するための試行錯誤のプロセスとして頷き・身振り・アイコンタクト等のやり取りによって相互に引き込みを行い、共通のリズムを生み出す作用がある。対面コミュニケーションは、このような身体表現を自由に用いることができるため、関係性の駆け引き、共感及び歩み寄りが必要な意思決定の現場で大きな影響力を持つのだと言える。よって、対面コミュニケーションを対象としてデータを取得・分析しなければ組織の生産性を決定付ける本質に触れることは不可能である。
まず、対面コミュニケーションに関するデータとして、必要であるものは「誰と」「誰が」「いつ」顔を合わせたかという情報である。さらに、「どのような」コミュニケーションが行われたかを知る必要がある。その際、先に述べた身体表現のプロセスを捉えるためには、時間的に連続して(あるいは、連続でなくても短い間隔で)データを取得しなくてはならない。
そして、組織におけるこれらの対面コミュニケーションデータを生産性の向上に活用するためには、常時、大量の(すなわち、多数の人物に関する)データを取得する仕組みが必要となる。意思決定は、常日頃から築いた関係性の影響を受ける。また、関係性は、コミュニケーションに基づいて、そのコミュニケーションが行われている間にも修正される。このため、連続して(又は短い間隔で)常時データを取得しなくては、関係性のプロセスを分析することはできない。そして、対面コミュニケーションデータとは記号化されていないデータであるため、大量のデータを比較及び処理しなくては、それらのデータの意味及び価値を抽出することはできない。
特許文献1及び非特許文献1には、電子メール又は携帯電話によるコミュニケーションを分析する技術が開示されている。しかし、これらの文献には、人物間の対面コミュニケーションを分析する技術は開示されていない。このため、対面コミュニケーションに基づく人物間の関係性を分析することはできない。
特許文献2及び特許文献3には、人物の身体の活動を示すデータを収集し、そのデータを分析する技術が開示されている。しかし、これらの文献によれば、収集されたデータは人物間のコミュニケーションを示すものではない。このため、人物間の関係性を分析することはできない。
よって、本発明の課題は、対面コミュニケーションを分析することによって、組織の生産性向上、顧客満足及び従業員満足等の指標として使用できる情報を取得することである。具体的には、「誰と、誰が、いつ、どのような」コミュニケーションを行ったか、という情報を含む組織のダイナミクスが常時、大量に連続して取得され、取得された情報に基づいて人物間の動的かつ多様な関係性が分析される。
本願で開示する代表的な発明は、複数の端末と、前記複数の端末と通信して前記複数の端末を管理する端末管理装置と、前記複数の端末から送信されたデータを処理する処理装置と、を含むセンサネットシステムであって、前記各端末は、物理量を検出するセンサと、データ送信部と、時刻を保持する端末時計部と、を備え、前記データ送信部は、前記センサが検出した物理量と、前記端末時計部から取得された、前記物理量が検出された時刻と、を示すデータを送信し、前記端末管理装置は、前記データを受信するデータ受信部と、前記端末管理装置と前記端末管理装置にデータを送信する端末とが通信するネットワークを確立する処理を実行するアソシエイト判定部と、時刻を保持する端末管理時計部と、前記センサネットシステムの外部に保持される標準時刻に前記端末管理時計部の時刻を同期する時刻同期部と、を備え、前記各端末が所定のコマンドを送信し、前記所定のコマンドを受信した端末管理装置の前記アソシエイト判定部が、前記各端末と前記端末管理装置とが通信するネットワークを確立する処理を実行した後に、前記各端末は、前記端末時計部が保持する時刻を前記端末管理時計部が保持する時刻に同期させる時刻同期を実行し、前記処理装置は、第1の前記端末から送信されたデータ及び第2の前記端末から送信されたデータに基づいて、前記第1の端末を装着した第1の人物と、前記第2の端末を装着した第2の人物との関係を示す値を算出することを特徴とする。
本発明の一実施形態によれば、人と人との対面コミュニケーションに基づく動的かつ多様な関係性を抽出することができる。
以下、本発明の実施の形態を、図面を参照して説明する。
本発明の実施の形態では、組織ダイナミクスに関するデータを取得するために、人間の身体に装着することのできる小型の端末(例えば、名札型の端末)が用いられる。この端末は、それを身に着けた人物が自由に日常の業務及び動作を行えるものであれば、どのような形状であってもよい。例えば、名札型、腕時計型、指輪型又は腕輪型の端末が用いられてもよい。このような端末は、衣服のポケットに入れられてもよいし、留め金で衣服又は靴等に装着されてもよい。あるいは、このような端末は、業務に用いる道具又は工具の中に組み込まれてもよいし、ペン又はペンのキャップ等に装着されてもよい。
端末は、内蔵したセンサ類によって、その端末を装着した人物の状況を検出し、さらに、その人物の行動及び周囲の音声に関するデータ等を定期的に取得する。取得したデータは、無線を介して基地局に送信され、さらにネットワーク上のサーバに集められる。データを解析する際、データに含まれる端末固有の識別番号(端末ID)及びデータを取得した時刻情報を基準にして、サーバに蓄えられたデータが取り出される。その結果、複数の端末によって取得されたデータを時系列に沿って比較対照することができる。そのために各端末は定期的に時刻同期を行う。なお、対面検出・行動・音声等に関するデータを総称して広く組織ダイナミクスデータと呼ぶ。
本発明の実施の形態では、組織ダイナミクスデータを取得・収集及び解析するための一連のシステムを実現した。本システムをビジネス顕微鏡と呼ぶ。
図1は、本発明の第1の実施の形態において実行される処理の全体の流れを示す説明図である。
具体的には、図1は、複数の端末による組織ダイナミクスデータの取得から、組織アクティビティとして人物間の関係性と現在の組織の評価(パフォーマンス)を図示するまでの一連の流れを示す。
本実施の形態では、組織ダイナミクスデータ取得(BMA)、パフォーマンス入力(BMP)、組織ダイナミクスデータ収集(BMB)、相互データ整列(BMC)、相関係数の学習(BMD)、組織アクティビティ解析(BME)及び組織アクティビティ表示(BMF)の各処理が適切な順序で実行される。これらの処理を実行する装置及びそれらの装置を含むシステム全体の構成については、図2を参照して後述する。
まず、組織ダイナミクスデータ取得(BMA)について説明する。端末A(TRa)は、加速度センサ(TRAC)、赤外線送受信器(TRIR)、マイクロホン(TRMI)等のセンサ類、マイクロコンピュータ(図示省略)及び無線送信機能を有する。センサ類は、種々の物理量を検出し、検出された物理量を示すデータを取得する。例えば、加速度センサ(TRAC)は、端末A(TRa)の加速度(すなわち、端末A(TRa)を装着している人物A(図示省略)の加速度)を検出する。赤外線送受信器(TRIR)は、端末A(TRa)の対面状態(すなわち、端末A(TRa)が他の端末と対面している状態)を検出する。なお、端末A(TRa)が他の端末と対面していることは、端末A(TRa)を装着した人物Aが、他の端末を装着した人物と対面していることを示す。マイクロホン(TRMI)は、端末A(TRa)の周囲の音声を検出する。端末A(TRa)は、上記以外のセンサ(例えば、温度センサ、照度センサ等)を備えてもよい。
本実施の形態のシステムは、複数の端末(図1の端末A(TRa)〜端末J(TRj)を備える。各端末は、それぞれ、一人の人物に装着される。例えば、端末A(TRa)は人物Aに、端末B(TRb)は人物B(図示省略)に装着される。人物間の関係性を解析し、さらに、組織のパフォーマンスを図示するためである。
なお、端末B(TRb)〜端末J(TRj)も、端末A(TRa)と同様、センサ類、マイクロコンピュータ及び無線送信機能を備える。以下の説明において、端末A(TRa)〜端末J(TRj)のいずれにも当てはまる説明をする場合、及び、それらの端末を特に区別する必要がない場合、端末(TR)と記載する。
各端末(TR)は、常時(又は短い間隔で繰り返し)センサ類によるセンシングを実行する。そして、各端末(TR)は、取得したデータ(センシングデータ)を、所定の間隔で無線によって送信する。データを送信する間隔は、センシング間隔と同じであってもよいし、センシング間隔より大きい間隔であってもよい。このとき送信されるデータには、センシングした時刻と、センシングした端末(TR)の固有のIDが付与されている。データの無線送信をまとめて実行するのは、送信による電力消費を抑えることによって、人が装着したままで、端末(TR)の使用可能状態を長時間維持するためである。また、全ての端末(TR)において同一のセンシング間隔が設定されていることが、後の解析のためには望ましい。
パフォーマンス入力(BMP)は、パフォーマンスを示す値を入力する処理である。ここで、パフォーマンスとは、何らかの基準に基づいて判定される主観的又は客観的な評価である。例えば、所定のタイミングで、端末(TR)を装着した人物は、その時点における業務の達成度、組織に対する貢献度及び満足度等、何らかの基準に基づく主観的な評価(パフォーマンス)の値を入力する。所定のタイミングとは、例えば、数時間に一度、一日に一度、又は、会議等のイベントが終了した時点であってもよい。端末(TR)を装着した人物は、その端末(TR)を操作して、又は、クライアント(CL)のようなPC(Personal Computer)を操作して、パフォーマンスの値を入力することができる。あるいは、手書きで記入された値が後にまとめてPCで入力されてもよい。なお、入力されたパフォーマンス値は、相関係数を学習するために用いられる。このため、ある程度の学習を行うために十分な量のパフォーマンス値が取得できていれば、必ずしもさらに値を入力する必要はない。
組織に関するパフォーマンスは、個人のパフォーマンスから算出されてもよい。売上高又はコスト等の客観的なデータ、及び、顧客のアンケート結果等の既に数値化されているデータが、パフォーマンスとして定期的に入力されてもよい。生産管理等におけるエラー発生率等のように、自動で数値が得られる場合、得られた数値が自動的にパフォーマンスの値として入力されてもよい。
無線によって各端末(TR)から送信されたデータは、組織ダイナミクスデータ収集(BMB)において収集され、データベースに格納される。例えば、端末(TR)ごとに、言い換えると端末(TR)を装着した人物ごとに、データテーブルが作成される。収集されたデータは、固有のIDに基づいて分類され、センシングされた時刻の順にデータテーブルに格納される。テーブルを端末(TR)ごとに作成しない場合、データテーブルの中に端末のID情報又は人物を示すカラムが必要になる。なお、図中のデータテーブルA(DTBa)は、データテーブルの例を簡略化して表現したものである。
また、パフォーマンス入力(BMP)において入力されたパフォーマンスの値は、パフォーマンスデータベース(PDB)に時刻情報と共に格納される。
相互データ整列(BMC)では、任意の二人の人物に関するデータ(言い換えると、それらの人物が装着した端末(TR)が取得したデータ)を比較するために、時刻情報に基づいて二人の人物に関するデータが整列(アライアンス)される。整列されたデータは、テーブルに格納される。このとき、二人の人物に関するデータのうち、同じ時刻のデータが同じレコード(行)に格納される。同じ時刻のデータとは、同じ時刻に二つの端末(TR)によって検出された物理量を含む二つのデータである。二人の人物に関するデータが、同じの時刻のデータを含まない場合、最も近い時刻のデータが近似的に同じ時刻のデータとして使用されてもよい。この場合、最も近い時刻のデータが同じレコードに格納される。このとき、同じレコードに格納されたデータの時刻を、例えば、最も近い時刻の平均値によってそろえることが望ましい。なお、これらのデータは、時系列によるデータの比較ができるように格納されていればよく、必ずしもテーブルに格納されなくてもよい。
なお、図1の結合テーブル(CTBab)はデータテーブルA(DTBa)とデータテーブルB(DTBb)を結合したテーブルの例を簡略化して表現したものである。ただし、データテーブルB(DTBb)の詳細は、図示が省略されている。結合テーブル(CTBab)は、加速度、赤外線及び音声のデータを含む。しかし、データの種類ごとの結合テーブル、例えば、加速度データのみを含む結合テーブル、又は、音声のみの結合テーブルが作成されてもよい。
本実施の形態では、組織ダイナミクスデータから関係性を計算したり、パフォーマンスを予測したりするために、相関係数の学習(BMD)を実行する。そのためにまず、過去の一定期間のデータを用いて相関係数を算出する。このプロセスは、定期的に新規なデータを用いて計算し直すことによって相関係数を更新するとより効果的である。
以下の説明は、加速度データから相関係数を算出する例である。しかし、加速度データの代わりに音声データ等の時系列データを用いても、同様の手順で相関係数を算出することができる。
なお、本実施の形態では、相関係数の学習(BMD)は、アプリケーションサーバ(AS)(図2参照)によって実行される。しかし、実際には、相関係数の学習(BMD)はアプリケーションサーバ(AS)以外の装置によって実行されてもよい。
始めに、アプリケーションサーバ(AS)は、相関係数を計算するために用いるデータの幅Tを数日から数週間程度に設定し、その期間のデータを選択する。
次に、アプリケーションサーバ(AS)は、加速度周波数計算(BMDA)を実行する。加速度周波数計算(BMDA)は、時系列に並んだ加速度データから周波数を求める処理である。周波数は、一秒間の波の振動数と定義され、つまり振動の激しさを表している指標である。しかし、正確な周波数を算出するにはフーリエ変換を行うことが必要であり、計算量に負担がかかる。フーリエ変換によって周波数を堅実に計算してもよいが、本実施の形態では、計算を簡略化するために、周波数に相当するものとして、ゼロクロス値を用いる。
ゼロクロス値とは、一定の期間内における時系列データの値がゼロとなった回数、より正確には、時系列データが正の値から負の値へ、又は負の値から正の値へと変化した回数を計数したものである。例えば、加速度の値が正から負に変化してから、次にその値が再び正から負に変化するまでの期間を1周期とみなすと、計数されたゼロクロスの回数から、1秒間当たりの振動数を算出することができる。このようにして算出された一秒間当たりの振動数を、加速度の近似的な周波数として使用することができる。ゼロクロス値の計数の仕方としては、例えば、センサが或る検出時点で検出した加速度の値とその次の検出時点で検出した加速度の値とで正負が逆転している2つの検出時点の対の数を計数すればよい。
さらに、本実施の形態の端末(TR)は、三軸方向の加速度センサを備えているため、同じ期間の三軸方向のゼロクロス値を合計することによって一つのゼロクロス値が算出される。これによって、特に左右及び前後方向の細かい振り子運動を検出し、振動の激しさを表す指標として用いることができる。
ゼロクロス値を計数する「一定の期間」として、連続したデータの間隔(つまり元のセンシング間隔)よりも大きな値が、秒又は分単位で設定される。
さらに、アプリケーションサーバ(AS)は、ゼロクロス値よりも大きく全データ幅Tより小さい時間幅であるウィンドウ幅wを設定する。次のステップにおいて、このウィンドウ内での周波数分布とゆらぎが求められる。さらに、ウィンドウを時間軸に沿って順に動かすことによって、各ウィンドウ毎の周波数分布とゆらぎが計算される。
このときウィンドウ幅wと同じ幅でウィンドウを動かすと、各ウィンドウ間に含まれるデータの重複がなくなる。その結果、後の相互相関計算(BMDC)で用いる特徴量グラフは離散的なグラフになる。一方、ウィンドウ幅wよりも小さい幅でウィンドウを動かすと、各ウィンドウ内のデータの一部が重複する。その結果、後の相互相関計算(BMDC)で用いられる特徴量グラフは連続的なグラフとなる。ウィンドウを動かす幅は、これらを考慮して任意に設定してよい。
なお、図1ではゼロクロス値を周波数とも表記している。以下の説明において、「周波数」とは、ゼロクロス値を含む概念である。すなわち、以下の「周波数」として、フーリエ変換によって算出された正確な周波数が使用されてもよいし、ゼロクロス値から算出された近似的な周波数が使用されてもよい。
次に、アプリケーションサーバ(AS)は、個人特徴量抽出(BMDB)を実行する。個人特徴量抽出(BMDB)は、各ウィンドウ内での加速度の周波数分布と周波数ゆらぎを算出することによって、個人の特徴量を抽出する処理である。
まず、アプリケーションサーバ(AS)は、周波数分布(つまり強度)を求める(DB12)。
本実施の形態において、周波数分布とは、それぞれの周波数の加速度が発生する頻度である。
加速度の周波数分布は、端末(TR)を装着した人物がどのような行動にどれだけの時間を使っているかを反映している。例えば、人物が歩いているときと、PCでメールを打っているときでは発生する加速度の周波数が異なる。このような加速度の履歴のヒストグラムを記録するために、周波数毎の加速度の発生頻度が求められる。
その際、アプリケーションサーバ(AS)は、想定される(又は必要とされる)最大の周波数を決定する。そして、アプリケーションサーバ(AS)は、0から、決定された周波数の最大値までの値を32分割する。そして、アプリケーションサーバ(AS)は、分割された各周波数範囲に含まれる加速度データの数を計数する。このようにして算出された周波数毎の加速度の発生頻度が、特徴量として扱われる。同様の処理が各ウィンドウについて実行される。
アプリケーションサーバ(AS)は、加速度の周波数分布に加えて、「周波数毎のゆらぎ」を算出する(DB11)。周波数のゆらぎとは、加速度の周波数がどれくらい連続して維持されるかを示す値である。
周波数毎のゆらぎは、人物による行動がどれだけの時間持続するかを示す指標である。例えば、1時間の間に30分歩いた人について、1分歩いて1分立ち止まった場合と、30分歩き続けて30分休憩した場合とでは、行動の持つ意味が異なる。周波数毎のゆらぎを算出することによって、これらの行動を区別することが可能になる。
しかし、連続した二つの値の差がどの程度の範囲ならば、値が維持されていると判断するか、その基準の設定によってゆらぎの量は大きく変わる。さらに、値が少しだけ変化したのか、大きく変化したのか、といったデータのダイナミクスを表す情報は欠落してしまうことになる。そこで、本実施の形態では、加速度の周波数の全範囲が所定の分割数に分割される。ここで、周波数の全範囲とは、周波数「0」から、周波数の最大値までの範囲である(ステップDB12参照)。分割された区画は、値が維持されているか否かを判定するための基準として使用される。例えば、分割数が32である場合、周波数の全範囲が32の区画に分割される。
例えば、ある時刻tにおける加速度の周波数がi番目の区画内にあり、かつ、次の時刻t+1における加速度の周波数が(i−1)、i又は(i+1)番目のいずれかの区画内にある場合、加速度の周波数の値が維持されていると判定される。一方、時刻t+1における加速度の周波数が(i−1)、i又は(i+1)番目のいずれの区画内にもない場合、加速度の周波数の値が維持されていないと判定される。値が維持されたと判定された回数が、ゆらぎを示す特徴量として計数される。以上の処理が、各ウィンドウ毎に実行される。
同様にして、分割数を16、8、及び4としたときのゆらぎを示す特徴量がそれぞれ算出される。このように、周波数毎のゆらぎの算出においては、分割数を変化させることで、小さな変化も大きな変化も、いずれかの特徴量に反映されることになる。
仮に、周波数の全範囲を32の区画に分割し、ある周波数の区画iから、任意の区画jへの遷移を追跡しようとすると、32の二乗である1024通りの遷移パターンを考慮しなくてはいけなくなる。その結果、パターン数が多くなると計算量が増えるという問題に加えて、一つのパターンに当てはまるデータが少なくなるため、統計的に誤差が大きくなってしまうという問題が発生する。
それに対して、上記のように分割数を32、16、8及び4としたときの特徴量を算出する場合、60パターンのみ考慮すればよいため、統計的な信頼度が高くなる。さらに、上記のように、大きい分割数から小さい分割数まで、いくつかの分割数について特徴量を算出することによって、多様な遷移パターンを特徴量に反映させることができるという効果がある。
上記は、加速度の周波数分布及びゆらぎを算出する例の説明である。アプリケーションサーバ(AS)は、加速度データ以外のデータ(例えば、音声データ)を取得した場合、その取得したデータに対して上記と同様の処理を実行することができる。その結果、取得したデータに基づく特徴量が算出される。
アプリケーションサーバ(AS)は、上記のようにして算出された32パターンの周波数分布と、60パターンの周波数毎のゆらぎの大きさの、合わせて92個の値を、各ウィンドウの時間帯におけるその人物Aの特徴量として扱う(DB13)。なお、これら92個の特徴量(xA1〜xA92)は全て独立なものである。
アプリケーションサーバ(AS)は、組織に属する全てのメンバ(又は、分析対象としたい全てのメンバ)の端末(TR)から送信されたデータに基づいて、上記の特徴量を算出する。特徴量はウィンドウ毎に算出されるため、そのウィンドウの時刻の順に特徴量をプロットすることによって、一人のメンバに関する特徴量を、一連の時系列データとして扱うことができる。なお、ウィンドウの時刻は、任意の規則に従って定めることができる。例えば、ウィンドウの時刻は、ウィンドウの中央の時刻又はウィンドウの始めの時刻、であってよい。
上記の特徴量(xA1〜xA92)は、人物Aに装着された端末(TR)が検出した加速度に基づいて算出された、人物Aに関する特徴量である。同様にして、他の人物(例えば、人物B)に装着された端末(TR)が検出した加速度に基づいて、その人物に関する特徴量(例えば、xB1〜xB92)が算出される。
次に、アプリケーションサーバ(AS)は、相互相関計算(BMDC)を実行する。相互相関計算(BMDC)は、二人の人物に関する特徴量の相互相関を求める処理である。二人の人物を、仮に人物A及び人物Bとする。
人物Aに関するある特徴量の時系列変化をグラフにしたものが、図1の相互相関計算(BMDC)内に示す特徴量xAのグラフである。同様にして、人物Bに関する特徴量のグラフは、相互相関計算(BMDC)内に示す特徴量xBのグラフである。
このとき、人物Bのある特徴量(例えば、xB1)が人物Aの特徴量(例えば、xA1)から受けている影響は、時間τの関数、
として表される。人物Bについても同様の計算をすることができる。Tは、周波数のデータが存在する時間の幅である。
つまり上記の式において、R(τ)がτ=τ1でピークとなっていた場合、ある時刻における人物Bの行動は、その時刻よりτ1だけ前の人物Aの行動と類似する傾向があるといえる。言い換えると、人物Bの特徴量xB1は、人物Aにおいて特徴量xA1の活動が起きた後、時間τ1を経てから影響を受けているということができる。
このピークが現れるτの値は、影響の種類を表していると解釈することができる。例えば、τが数秒以下なら、頷き等の直接会っている場合の影響を示し、τが数分から数時間であった場合には行動面での影響を示していると言える。
アプリケーションサーバ(AS)は、この相互相関計算の手順を、人物Aと人物Bについての特徴量の数である92パターンに関して算出する。さらに、アプリケーションサーバ(AS)は、組織に属する全てのメンバ(又は分析の対象としたい全てのメンバ)同士の組みあわせに関して、上記の手順で特徴量を算出する。
アプリケーションサーバ(AS)は、上記で求めた特徴量に関する相互相関計算の結果から、組織に関する複数の特徴量を取得する。例えば、一時間以内、一日以内、一週間以内等、時間領域をいくつかに分け、人物のペア毎の値を組織の特徴量として扱う(BMDD)。このとき相互相関計算の結果から特徴量として定数を定める方法は、上記で説明した方法以外のものであってもよい。これによって、一つの相互相関の式から、一つの組織特徴量が得られることになる。個人特徴量が92個ある場合、ペア毎には92の二乗、つまり8464個の組織特徴量が得られる。相互相関は、組織に属する二人のメンバの影響や関係性を反映したものである。このため、相互相関計算によって取得された値を組織の特徴量として用いることで、人と人とのつながりから成り立つ組織を定量的に扱うことができる。
一方、アプリケーションサーバ(AS)は、組織に関する定量的な評価(以下、パフォーマンスと記載する)のデータを、パフォーマンスデータベース(PDB)から取得する(BMDE)。後述するように、上記の組織特徴量とパフォーマンスとの相関が計算される。パフォーマンスは、例えば、各個人が申告した個人の達成度、又は、組織の人間関係等に関する主観的な評価の結果等から算出されてもよい。あるいは、売上、損失等の組織の財務評価がパフォーマンスとして用いられてもよい。パフォーマンスは、組織ダイナミクスデータ収集(BMB)のパフォーマンスデータベース(PDB)から取得され、パフォーマンスの評価が行われた時刻情報と組で扱われる。ここでは、例として、組織のパフォーマンスとして、売上、顧客満足、コスト、エラー率、成長、柔軟性の6つの指標(p1、p2、…、p6)を用いる場合について説明する。
次に、アプリケーションサーバ(AS)は、組織特徴量と個々の組織パフォーマンスとの相関解析を行う(BMDF)。しかし組織特徴量は大量にあり、この中には不必要な特徴量も含まれている。このため、アプリケーションサーバ(AS)は、ステップワイズ法によって特徴量として有効なものだけを選別する(BMDG)。アプリケーションサーバ(AS)は、ステップワイズ法以外の方法によって特徴量を選別してもよい。
そして、アプリケーションサーバ(AS)は、選別された組織特徴量(X1、X2、…、Xm)と個々の組織パフォーマンスとの関係において、
を満たす相関係数A1(a1、a2、…、am)を決定する(BMDH)。なお、図1の例において、mは92である。これをp1〜p6に関して行うことによって、p1〜p6のそれぞれに対してA1〜A6が決定される。ここでは最も簡単な線形式によるモデル化を行ったが、より精度を上げるためには非線形モデルによるX1、X2の値などを取り入れることもできる。あるいはニューラルネットなどの手段を用いることもできる。
これらのA1〜A6の相関係数を用いて、次に、加速度データから6つのパフォーマンスが予測される。
組織アクティビティ解析(BME)は、結合テーブルにおける任意の二人の人物に関する加速度、音声、対面等のデータから人物間の関係性を求め、さらに組織のパフォーマンスを計算する処理である。
これによって、データを取得しながらリアルタイムで組織のパフォーマンスを予測してユーザに提示し、悪い予測であれば良い方向に行動を変化させるように促すことができる。つまり短いサイクルでフィードバックすることが可能になる。
まず、加速度データを用いた計算について説明する。加速度周波数計算(EA12)、個人特徴量抽出(EA13)、人物間の相互相関計算(EA14)及び組織特徴量計算(EA15)は、それぞれ、相関係数の学習(BMD)における加速度周波数計算(BMDA)、個人特徴量抽出(BMDB)、相互相関計算(BMDC)及び組織特徴量計算(BMDD)と同様の手順であるため、これらの説明を省略する。これらの手順によって、組織特徴量(x1、…、xm)が算出される。
そして、アプリケーションサーバ(AS)は、ステップEA15において算出された組織特徴量(x1、…、xm)、及び、相関係数の学習(BMD)によって算出された各パフォーマンスに関する相関係数(A1、…、A6)を取得し(EA16)、これらを用いて各パフォーマンスの指標の値
を算出する。この値が組織パフォーマンスの予測値となる(EA17)。
後述するように、組織パフォーマンスを示す六つの指標の最新値が、バランス表示される。さらに、ある一つの指標の値の履歴が、指標予測履歴として時系列グラフとして表示される。
また、人物間の相互相関値から求められる任意の人物間の距離(EK41)は、組織構造を表示するためのパラメータ(組織構造パラメータ)を決定するために用いられる。ここで、人物間の距離とは、地理的な距離ではなく、人物間の関係性を示す指標である。例えば、人物間の関係が強い(例えば、人物間の相互相関が強い)ほど、人物間の距離が短くなる。また、人物間の距離に基づいてグループ化(EK42)を実行することによって、グループが決定される。
グループ化とは、特に密接な関係にある少なくとも二人の人物AとBを一組のグループとし、また別の密接な関係にある少なくとも二人の人物CとDを一組のグループとし、さらにそれらの人物A、B、C及びDを大きなグループとするように、密接な関係にある人物同士の組を作るための処理を指す。グループを表示に反映させることで,密接な関係にある人物同士を他と区別し強調して表現することが可能になる。さらに大規模な組織を表現または分析する際には,一組のグループを擬似的に一人の人物と同様に扱うことで,計算を簡略化でき,また組織の全体像を人が認知しやすくすることが可能になる。
なお、人物間の相互相関計算(EA14)から任意の人物間における関係性の距離を求め(EK41)、その距離を表示する方法の一例については後述する(図8参照)。
次に、赤外線データに基づく計算について説明する。赤外線データには、いつ、誰と誰が対面したかを示す情報が含まれている。アプリケーションサーバ(AS)は、赤外線データを用いて対面履歴を分析する(EI22)。そして、アプリケーションサーバ(AS)は、対面履歴に基づいて、組織構造を表示するためのパラメータを決定する(EK43)。このとき、アプリケーションサーバ(AS)は、対面履歴から任意の人物間の距離を算出し、その距離に基づいてパラメータを決定してもよい。例えば、二人の人物が所定の期間に対面した回数が多いほど、それらの人物間の距離が短く(すなわち、関係が強く)なるように、距離が算出される。
例えば、アプリケーションサーバ(AS)は、一人の人物における全対面回数の合計をノードの大きさに反映させ、人物間の短期的な対面回数をノード間の距離に反映させ、任意の人物間の長期的な対面回数をリンクの太さに反映させるようにパラメータを決定してもよい。ここでノードとは、クライアント(CL)のディスプレイ(CLOD)に、各人物を示すために表示される図形である。リンクとは、二つのノード間を結合するように表示される線である。その結果、現在までに、相手が誰であれ、多くの人物と対面している人物ほど、大きいノードによって表示される。最近多く対面している人物の組み合わせほど、近接した二つのノードによって表示される。長期にわたって多く対面している人物の組み合わせほど、太いリンクによって結合された二つのノードによって表示される。
また、アプリケーションサーバ(AS)は、端末を身に着けているユーザの属性情報を組織構造の表示に反映させることができる。例えば、人物の年齢によって、その人物を示すノードの色を決定してもよいし、役職によってノードの形を決定してもよい。
次に、音声データに基づく計算について説明する。既に説明したように、音声データを加速度データの代わりに用いることによって、加速度データを用いた場合と同様、人物間の相互相関を算出することもできる。しかし、音声データから音声の特徴量を抽出し(EV32)、その特徴量を対面データと合わせて解析することで、会話特徴量を抽出することもできる(EV33)。会話特徴量とは、例えば、会話における声のトーン、やり取りのリズム又は会話のバランスを示す量である。会話のバランスとは、二人の人物の一方が一方的に話しているのか、二人が対等にやり取りしているのか、を示す量であり、二人の人物の声に基づいて抽出される。
例えば、アプリケーションサーバ(AS)は、その会話のバランスがノード間の角度に反映されるように表示のパラメータを決定してもよい。具体的には、例えば、二人が対等に会話している場合、その二人を示すノードが水平に表示されてもよい。二人のうち一方が話すばかりである場合、話している人物を示すノードが、もう一方の人物のノードより上方に表示されてもよい。一人が一方的に話す傾向が強いほど、二人の人物を示すノードを結ぶ線と基準線とがなす角度(図1の組織構造表示(FC31)の例において、角度θAB又はθCD)が大きくなるように表示されてもよい。ここで基準線とは、例えば、ディスプレイの横方向(すなわち水平方向)に設定される線である。基準線はディスプレイに表示されなくてもよい。
組織アクティビティ表示(BMF)は、以上に説明した処理によって計算された組織パフォーマンス予測及び組織構造パラメータから、指標バランス表示(FA11)、指標予測履歴(FB21)及び組織構造表示(FC31)等を作成し、それらをクライアント(CL)のディスプレイ(CLOD)等に表示する処理である。
図1の組織アクティビティ(FD41)は、クライアント(CL)のディスプレイ(CLOD)に表示される画面の一例である。
図1の例では、はじめに、選択された表示期間、及び、表示したいユニット又は複数のメンバが表示される。ここで、ユニットとは、複数の人物からなる既定の組織単位を意味する。一つのユニットに属するメンバ全員が表示されてもよいし、ユニットの一部である複数のメンバが表示されてもよい。図1の例では、上記の表示期間及びユニット等に示される条件に基づいて解析された結果が、三種類の図として表示される。
指標予測履歴(FB21)の図では、例として「成長」のパフォーマンスの予測結果の履歴を表している。これによって、メンバのどのような行動が組織の成長にプラスとなるのか、さらに、マイナスからプラスに転換させるには何が効果的なのか、を過去の行動履歴と照らし合わせて分析することが可能となる。
組織構造表示(FC31)では、組織を構成する小グループの状況、各人物が組織において実質担っている役割、及び、任意の人物間のバランス等が可視化される。
指標バランス表示(FA11)は、設定された6つの組織パフォーマンス予測のバランスを示す。これによって、現在の組織の長所と短所を見極めることができる。
図2は、本発明の第1の実施の形態のビジネス顕微鏡システムを実現するセンサネットシステムの全体構成を説明するブロック図である。
本実施の形態のビジネス顕微鏡システムは、図2に示すような、センサを備える複数の端末(TR)と、それらの端末(TR)から取得したデータを処理する計算機と、を含むセンサネットシステムによって実現される。
より詳細には、図2は、端末(TR)が取得した組織ダイナミクスデータから、人物間の関係性及び現在の組織の評価(パフォーマンス)が組織アクティビティとして算出され、算出された組織アクティビティが表示されるまでのシステム全体の構成及びデータの流れを示す。
図2における形の異なる4種類の矢印は、それぞれ、時刻同期、アソシエイト、取得したセンシングデータの格納、及び、データ解析のためのデータの流れを表している。
端末(TR)は小型のセンサ端末である。各端末(TR)は、センシングの対象となる複数の人物にそれぞれ装着される。端末(TR)には赤外線送受信器(TRIR)が搭載されている。図2には、赤外線送信器と赤外線受信器とが一体化された赤外線送受信器(TRIR)を表示するが、端末(TR)は、赤外線送信器及び赤外線受信器それぞれを搭載してもよい。
赤外線送受信器(TRIR)がノード間で赤外線をやり取りすることによって、端末(TR)が他の端末(TR)と対面したか否か、すなわち、端末(TR)を装着した人物が他の端末(TR)を装着した人物と対面したか否かが検出される。このため、端末(TR)は、人物の正面部に装着されることが望ましい。例えば、端末(TR)を名札型にし、その端末(TR)を紐によって人物の首からぶら下げてもよい。後述するように、端末(TR)は、さらに、加速度センサ(TRAC)等のセンサを備える。端末(TR)におけるセンシングのプロセスが、図1における組織ダイナミクスデータ取得(BMA)に相当する。
なお、端末(TR)は、赤外線以外の無線信号をやり取りすることによって、他の端末(TR)との対面を検出してもよい。その場合、端末(TR)は、赤外線以外の無線信号を送受信する送受信器を備える。
端末(TR)は多くの場合には複数存在し、それぞれが近い基地局(GW)と結びついてパーソナルエリアネットワーク(PAN)を形成している。
一つの端末(TR)は、センシング部(TRSE)、入出力部(TRIO)、記録部(TRME)、時計(TRCK)、制御部(TRCO)及び送受信部(TRSR)を備える。センシング部(TRSE)にてセンシングされた情報を含むデータが、送信・受信部(TRSR)を介して基地局(GW)に送信される。
センシング部(TRSE)は、物理量をセンシングする。物理量とは、例えば、赤外線、加速度、音声、温度又は照度等である。センシング部(TRSE)は、センシングに用いるセンサとして、マイクロホン(TRMI)、加速度センサ(TRAC)、赤外線送受信器(TRIR)、温度センサ(TRTE)及び照度センサ(TRIL)を備える。さらに外部入力(TROU)に任意のセンサを接続することによって、新たにセンサを追加することができる。
赤外線送受信器(TRIR)は、端末(TR)の固有識別情報である端末情報(TRMT)を正面方向に向かって定期的に送信し続ける。他の端末(TRm)を装着した人物が略正面(例えば、正面又は斜め正面)に位置した場合、端末(TR)と他の端末(TRm)は、それぞれの端末情報(TRMT)を赤外線で相互にやり取りする。このため、誰と誰が対面しているのかを記録することができる。
加速度センサ(TRAC)は、ノードの加速度すなわちノードの動きを検出する。このため、加速度データから、端末を装着した人物の動きの激しさや、歩行などの行動を解析することができる。さらに、複数の端末が検出した加速度の値を比較することによって、それらの端末を装着した人物間のコミュニケーションの活性度や相互のリズム、相互の相関等を解析できる。
マイクロホン(TRMI)は、音声情報を取得する。音声情報によって、「騒々しい」又は「静か」等の周囲の環境を知ることができる。さらに、人物の声を取得・分析することによって、コミュニケーションが活発か停滞しているのか、相互に対等に会話をやり取りしているか一方的に話しているのか、怒っているのか笑っているのか、などの対面コミュニケーションを分析することができる。さらに、人物の立ち位置等の関係で赤外線送受信器(TRIR)が検出できなかった対面状態を、音声情報及び加速度情報によって補うこともできる。
温度センサ(TRTE)は端末(TR)のある場所の温度を、照度センサ(TRIL)は端末(TR)の正面方向などの照度を取得する。これによって、周囲の環境を記録することができる。例えば、温度及び照度に基づいて、端末(TR)が、ある場所から別の場所に移動したこと等を知ることもできる。
入出力部(TRIO)は、端末(TR)を装着した人物に対応した入出力装置である。入出力部(TRIO)は、ボタン(TRIB)、ディスプレイ(TROD)、ブザー(TRIS)等を備える。入出力部(TRIO)は、その他の入出力装置を備えてもよい。
記録部(TRME)は、ハードディスク、メモリ又はSDカードのような外部記録装置で構成され、端末(TR)の固有識別番号である端末情報(TRME)、センシングの間隔、及び、ディスプレイへの出力内容等の動作設定(TRMA)を記録している。この他にも記録部(TRME)は一時的にデータを記録することができ、センシングしたデータを記録しておくために利用される。さらに、記録部(TRME)には、制御部(TRCO)のCPU(図示省略)によって実行されるプログラムが格納されてもよい。
時計(TRCK)は、時刻情報を保持し、一定間隔でその時刻情報を更新する時計である。時計(TRCK)は、時刻情報が他の端末とずれることを防ぐために、基地局(GW)から送信される時刻情報によって定期的に時刻を修正する。
制御部(TRCO)は、CPU(図示省略)を備える。CPUが記録部(TRME)に格納されたプログラム(図示省略)を実行することによって、動作制御(TRCC)、センサ制御(TRSC)、時刻同期(TRCS)、無線通信制御(TRCC)及びアソシエイト(TRTA)等、端末の動作を制御するための処理を実行する。
動作制御(TRCC)は、制御部(TRCO)が実行する処理全体を制御する処理である。
センサ制御(TRSC)は、動作設定(TRMA)に従って、センシング部(TRSE)における各センサのセンシング間隔などを制御し、取得したデータを管理する。
時刻同期(TRCS)は、基地局(GW)から時刻情報を取得して時計(TRCK)を修正する。時刻同期(TRCS)は、アソシエイトの直後に実行されてもよいし、基地局(GW)から送信された時刻同期コマンドに従って実行されてもよい。
無線通信制御(TRCC)は、データを送受信する際に、送信間隔の制御、及び、無線の送受信に対応したデータフォーマットへの変換を行う。無線通信制御(TRCC)は、必要であれば、無線でなく有線による通信機能を持ってもよい。無線通信制御(TRCC)は、他の端末(TR)と送信タイミングが重ならないように輻輳制御を行うこともある。
アソシエイト(TRTA)は、基地局(GW)とパーソナルエリアネットワーク(PAN)を形成するためのコマンドを送受信し、データを送信すべき基地局(GW)を決定する。アソシエイト(TRTA)は、端末(TR)の電源が投入されたとき、及び、端末(TR)が移動した結果それまでの基地局(GW)との送受信が絶たれたときに実行される。アソシエイト(TRTA)の結果、端末(TR)は、その端末(TR)からの無線信号が届く近い範囲にある一つの基地局(GW)と関連付けられる。
送受信部(TRSR)は、アンテナを備え、無線信号の送信及び受信を行う。必要があれば、送受信部(TRSR)は、有線通信のためのコネクタを用いて送受信を行うこともできる。
基地局(GW)は、端末(TR)とセンサネットサーバ(SS)を仲介する役目を持つ。無線の到達距離を考慮して、居室・職場等の領域をカバーするように複数の基地局(GW)が配置される。
基地局(GW)は、送受信部(BASR)、記録部(GWME)、時計(GWCK)及び制御部(GWCO)を備える。
送受信部(BASR)は、端末(TR)からの無線を受信し、基地局(GW)への有線又は無線による送信を行う。さらに、送受信部(BASR)は、無線を受信するためのアンテナを備える。
記録部(GWME)は、ハードディスク、メモリ、又はSDカードのような外部記録装置で構成される。記録部(GWME)には、動作設定(GWMA)、データ形式情報(GWMF)、端末管理テーブル(GWTT)及び基地局情報(GWMG)が格納される。動作設定(GWMA)は、基地局(GW)の動作方法を示す情報を含む。データ形式情報(GWMF)は、通信のためのデータ形式を示す情報、及び、センシングデータにタグを付けるために必要な情報を含む。端末管理テーブル(GWTT)は、現在アソシエイトできている配下の端末(TR)の端末情報(TRMT)、及び、それらの端末(TR)を管理するために配布しているローカルIDを含む。基地局情報(GWMG)は、基地局(GW)自身のアドレスなどの情報を含む。
記録部(GWME)には、さらに、制御部(GWCO)のCPU(図示省略)によって実行されるプログラムが格納されてもよい。
時計(GWCK)は時刻情報を保持する。一定間隔でその時刻情報は更新される。具体的には、一定間隔でNTP(Network Time Protocol)サーバ(TS)から取得した時刻情報によって、時計(GWCK)の時刻情報が修正される。
制御部(GWCO)は、CPU(図示省略)を備える。CPUが記録部(GWME)に格納されているプログラムを実行することによって、センシングデータセンサ情報の取得タイミング、センシングデータの処理、端末(TR)やセンサネットサーバ(SS)への送受信のタイミング、及び、時刻同期のタイミングを管理する。具体的には、CPUが記録部(GWME)に格納されているプログラムを実行することによって、無線通信制御・通信制御(GWCC)、データ形式変換(GWDF)、アソシエイト(GWTA)、時刻同期管理(GWCD)及び時刻同期(GWCS)等の処理を実行する。
無線通信制御・通信制御(GWCC)は、無線又は有線による端末(TR)及びセンサネットサーバ(SS)との通信のタイミングを制御する。また、無線通信制御・通信制御(GWCC)は、受信したデータの種類を区別する。具体的には、無線通信制御・通信制御(GWCC)は、受信したデータが一般のセンシングデータであるか、アソシエイトのためのデータであるか、時刻同期のレスポンスであるか等をデータのヘッダ部分から識別して、それらのデータをそれぞれ適切な機能に渡す。
データ形式変換(GWDF)は、記録されたデータ形式情報(GWMF)を参照して、送受信のために適した形式にデータを変換し、データの種類を示すためのタグ情報を付け加える。
アソシエイト(GWTA)は、端末(TR)から送られてきたアソシエイトの依頼に対するレスポンスをし、各端末(TR)に割り付けたローカルIDを送信する。アソシエイトが成立したら、アソシエイト(GWTA)は、端末管理テーブル(GWTT)を修正する端末管理情報修正(GWTF)を行う。
時刻同期管理(GWCD)は、時刻同期を実行する間隔及びタイミングを制御し、時刻同期するように命令を出す。あるいは、センサネットサーバ(SS)が時刻同期管理(GWCD)を実行することによって、センサネットサーバ(SS)からシステム全体の基地局(GW)に統括して命令を送ってもよい。
時刻同期(GWCS)は、ネットワーク上のNTPサーバ(TS)に接続し、時刻情報の依頼及び取得を行う。時刻同期(GWCS)は、取得した時刻情報をに基づいて、時計(GWCK)を修正する。そして、時刻同期(GWCS)は、端末(TR)に時刻同期の命令と時刻情報を送信する。
センサネットサーバ(SS)は、全ての端末(TR)から集まったデータを管理する。具体的には、センサネットサーバ(SS)は、基地局(GW)から送られてくるデータをデータベースに格納し、また、アプリケーションサーバ(AS)及びクライアント(CL)からの要求に基づいてセンシングデータを送信する。さらに、センサネットサーバ(SS)は、基地局(GW)からの制御コマンドを受信し、その制御コマンドから得られた結果を基地局(GW)に返信する。
センサネットサーバ(SS)は、送受信部(SSSR)、記録部(SSME)及び制御部(SSCO)を備える。時刻同期管理(GWCD)がセンサネットサーバ(SS)で実行される場合、センサネットサーバ(SS)は時計も必要とする。
送受信部(SSSR)は、基地局(GW)、アプリケーションサーバ(AS)及びクライアント(CL)との間で、データの送信及び受信を行う。具体的には、送受信部(SSSR)は、基地局(GW)から送られてきたセンシングデータを受信し、アプリケーションサーバ(AS)又はクライアント(CL)へセンシングデータを送信する。
記録部(SSME)は、ハードディスク等のデータ記憶装置によって構成され、少なくとも、パフォーマンスデータベース(SSMR)、データ形式情報(SSME)、センシングデータベース(SSDB)及び端末管理テーブル(SSTT)を格納する。さらに、記録部(SSME)は、制御部(SSCO)のCPU(図示省略)によって実行されるプログラムを格納してもよい。
パフォーマンスデータベース(SSMR)は、端末(TR)から又は既存のデータから入力された、組織や個人に関する評価(パフォーマンス)を、時刻データと共に記録するためのデータベースである。パフォーマンスデータベース(SSMR)は、図1のパフォーマンスデータベース(PDB)と同じものである。パフォーマンスは、パフォーマンス入力部(MRPI)から入力される。
データ形式情報(SSME)には、通信のためのデータ形式、基地局(GW)でタグ付けされたセンシングデータを切り分けてデータベースに記録する方法、及び、データの要求に対する対応方法等が記録されている。データ受信の後、データ送信の前には必ずこのデータ形式情報(SSME)が参照され、データ形式変換(SSDF)とデータ振り分け(SSDS)が行われる。
センシングデータベース(SSDB)は、各端末(TR)が取得したセンシングデータ、端末(TR)の情報、及び、各端末(TR)から送信されたセンシングデータが通過した基地局(GW)の情報等を記録しておくためのデータベースである。加速度、温度等、データの要素ごとにカラムが作成され、データが管理される。また、データの要素ごとにテーブルが作成されてもよい。どちらの場合にも、全てのデータは、取得された端末(TR)のIDである端末情報(TRMT)と、取得された時刻に関する情報とが関連付けて管理される。センシングデータベース(SSDB)の具体的な例は、図6に示す。
端末管理テーブル(SSTT)は、どの端末(TR)が現在どの基地局(GW)の管理下にあるかを記録しているテーブルである。基地局(GW)の管理下に新たに端末(TR)が加わった場合、端末管理テーブル(SSTT)は更新される。
制御部(SSCO)は、CPU(図示省略)を備え、センシングデータの送受信やデータベースへの記録・取り出しを制御する。具体的には、CPUが記録部(SSME)に格納されたプログラムを実行することによって、通信制御(SSCC)、端末管理情報修正(SSTF)及びデータ管理(SSDA)等の処理を実行する。
通信制御(SSCC)は、有線又は無線による基地局(GW)、アプリケーションサーバ(AS)及びクライアント(CL)との通信のタイミングを制御する。また、通信制御(SSCC)は、送受信するデータの形式を、記録部(SSME)内に記録されたデータ形式情報(SSME)に基づいて、センサネットサーバ(SS)内におけるデータ形式、又は、各通信相手に特化したデータ形式に変換する。さらに、通信制御(SSCC)は、データの種類を示すヘッダ部分を読み取って、対応する処理部へデータを振り分ける。具体的には、受信されたデータはデータ管理(SSDA)へ、端末管理情報を修正するコマンドは端末管理情報修正(SSTF)へ振り分けられる。送信されるデータの宛先は、基地局(GW)、アプリケーションサーバ(AS)又はクライアント(CL)に決定される。
端末管理情報修正(SSTF)は、基地局(GW)から端末管理情報を修正するコマンドを受け取った際に、端末管理テーブル(SSTT)を更新する。
データ管理(SSDA)は、記録部(SSME)内のデータの修正・取得及び追加を管理する。例えば、データ管理(SSDA)によって、センシングデータは、タグ情報に基づいてデータの要素別にデータベースの適切なカラムに記録される。センシングデータがデータベースから読み出される際にも、時刻情報及び端末情報に基づいて必要なデータを選別し、時刻順に並べ替える等の処理が行われる。
センサネットサーバ(SS)が、基地局(GW)を介して受け取ったデータを、データ管理(SSDA)によってパフォーマンスデータベース(SSMR)及びセンシングデータベース(SSDB)に整理して記録することが、図1における組織ダイナミクスデータ収集(BMB)に相当する。
アプリケーションサーバ(AS)は、センシングデータを解析及び処理する。クライアント(CL)からの依頼を受けて、又は、設定された時刻に自動的に、解析アプリケーションが起動する。解析アプリケーションは、センサネットサーバ(SS)に依頼を送って、必要なセンシングデータを取得する。さらに、解析アプリケーションは、取得したデータを解析し、解析されたデータをクライアント(CL)に返す。あるいは、解析アプリケーションは、解析されたデータをそのまま解析データベースに記録しておいてもよい。
アプリケーションサーバ(AS)は、送受信部(ASSR)、記録部(ASME)及び制御部(ASCO)を備える。
送受信部(ASSR)は、センサネットサーバ(SS)及びクライアント(CL)との間でデータの送信及び受信を行う。具体的には、送受信部(ASSR)は、クライアント(CL)から送られてきたコマンドを受信し、センサネットサーバ(SS)にデータ取得依頼を送信する。さらに、送受信部(ASSR)は、センサネットサーバ(SS)からセンシングデータを受信し、解析したデータをクライアント(CL)に送信する。
記録部(ASME)は、ハードディスク、メモリ又はSDカードのような外部記録装置で構成される。記録部(ASME)は、解析のための設定条件及び解析したデータを格納する。具体的には、記録部(ASME)は、表示条件(ASMP)、解析アルゴリズム(ASMA)、解析パラメータ(ASMP)、端末情報−氏名(ASMT)、解析データベース(ASMD)、相関係数(ASMS)及び結合テーブル(CTB)を格納する。
表示条件(ASMP)は、クライアント(CL)から依頼された表示のための条件を一時的に記憶しておく。
解析アルゴリズム(ASMA)は、解析を行うプログラムを記録する。クライアント(CL)からの依頼に従って、適切なプログラムが選択され、そのプログラムによって解析が実行される。
解析パラメータ(ASMP)は、例えば、特徴量抽出のためのパラメータ等を記録する。クライアント(CL)の依頼によってパラメータを変更する際には、解析パラメータ(ASMP)が書き換えられる。
端末情報−氏名(ASMT)は、端末のIDと、その端末を装着した人物の氏名・属性等との対照表である。クライアント(CL)から依頼があれば、センサネットサーバ(SS)から受け取ったデータの端末IDに人物の氏名が追加される。ある属性に適合する人物のデータのみを取得する場合、人物の指名を端末IDに変換してセンサネットサーバ(SS)にデータ取得依頼を送信するために、端末情報−氏名(ASMT)が照会される。
解析データベース(ASMD)は、解析されたデータを格納するためのデータベースである。解析されたデータは、クライアント(CL)に送信されるまで一時的に記録される場合がある。あるいは、まとめて解析されたデータを自由に取得できるように、解析されたデータが大規模に記録される場合もある。解析と並行してクライアント(CL)にデータが送られる場合、このデータベースは必要ない。
相関係数(ASMS)は、相関係数の学習(BMD)によって決定された相関係数を記録する。相関係数(ASMS)は、組織アクティビティ解析(BME)の際に利用される。
結合テーブル(CTB)は、相互データ整列(BMC)によって整列された複数の端末に関するデータを格納するためのテーブルである。
制御部(ASCO)は、CPU(図示省略)を備え、データの送受信の制御及びセンシングデータの解析を実行する。具体的には、CPU(図示省略)が記録部(ASME)に格納されたプログラムを実行することによって、通信制御(ASCC)、解析条件設定(ASIS)、データ取得依頼(ASDR)、相互データ整列(BMC)、相関係数の学習(BMD)、組織アクティビティ解析(BME)及び端末情報−ユーザ照会(ASDU)等の処理が実行される。
通信制御(ASCC)は、有線又は無線によるセンサネットサーバ(SS)及びクライアントデータ(CL)との通信のタイミングを制御する。さらに、通信制御(ASCC)は、データの形式変換、及び、データの種類別に行き先の振り分けを実行する。
解析条件設定(ASIS)は、クライアント(CL)を通してユーザ(US)が設定した解析条件を受け取り、記録部(ASME)の解析条件(ASMP)に記録する。さらに、解析条件設定(ASIS)は、サーバにデータの依頼をするためのコマンドを作成し、データ取得依頼を送信する(ASDR)。
解析条件設定(ASIS)による依頼に基づいてサーバから送信されたデータは、相互データ整列(BMC)によって、任意の二人の人物に関するデータの時刻情報に基づいて整理される。これは図1の相互データ整列(BMC)と同じプロセスである。整理した結合テーブルの例を図7に示す。時刻を揃えることができれば、テーブルを作成しなくてもよい。
相関係数の学習(BMD)は、図1の相関係数の学習(BMD)に相当するプロセスである。相関係数の学習(BMD)は、解析アルゴリズム(ASMA)を用いて実行され、その結果は相関係数(ASMS)に記録される。
組織アクティビティ解析(BME)は、図1の組織アクティビティ解析(BME)に相当するプロセスである。組織アクティビティ解析(BME)は、記録された相関係数(ASMS)を取得し、解析アルゴリズム(ASMA)を用いることによって実行される。実行した結果は解析データベース(ASMD)に記録される。
端末情報−ユーザ照会(ASDU)は、端末情報(ID)を用いて管理されていたデータを、端末情報−氏名(ASMT)に従って、各端末を装着しているユーザの名前等に変換する。さらに、端末情報−ユーザ照会(ASDU)は、ユーザの所属や役職等の情報を付加してもよい。必要でなければ、端末情報−ユーザ照会(ASDU)は実行されなくてもよい。
クライアント(CL)は、ユーザ(US)との接点となって、データを入出力する。クライアント(CL)は、入出力部(CLIO)、送受信部(CLSR)、記録部(CLME)及び制御部(CLCO)を備える。
入出力部(CLIO)は、ユーザ(US)とのインタフェースとなる部分である。入出力部(CLIO)は、ディスプレイ(CLOD)、キーボード(CLIK)及びマウス(CLIM)等を備える。必要に応じて外部入出力(CLIU)に他の入出力装置を接続することもできる。
ディスプレイ(CLOD)は、CRT(Cathode−Ray Tube)又は液晶ディスプレイ等の画像表示装置である。ディスプレイ(CLOD)は、プリンタ等を含んでもよい。
送受信部(CLSR)は、アプリケーションサーバ(AS)又はセンサネットサーバ(SS)との間でデータの送信及び受信を行う。具体的には、送受信部(CLSR)は、解析条件をアプリケーションサーバ(AS)に送信し、解析結果を受信する。
記録部(CLME)は、ハードディスク、メモリ又はSDカードのような外部記録装置で構成される。記録部(CLME)は、解析条件(CLMP)及び描画設定情報(CLMT)等の、描画に必要な情報を記録する。解析条件(CLMP)は、ユーザ(US)から設定された解析対象のメンバの数及び解析方法の選択等の条件を記録する。描画設定情報(CLMT)は、図面のどの部分に何をプロットするかという描画位置に関する情報を記録する。さらに、記録部(CLCO)は、制御部(CLCO)のCPU(図示省略)によって実行されるプログラムを格納してもよい。
制御部(CLCO)は、CPU(図示省略)を備え、通信の制御、ユーザ(US)からの解析条件の入力、及び、解析結果をユーザ(US)に提示するための描画等を実行する。具体的には、CPUは、記録部(CLME)に格納されたプログラムを実行することによって、通信制御(CLCC)、解析条件設定(CLIS)、描画設定(CLTS)及び組織アクティビティ表示(BMF)等の処理を実行する。
通信制御(CLCC)は、有線又は無線によるアプリケーションサーバ(AS)又はセンサネットサーバ(SS)との間の通信のタイミングを制御する。また、通信制御(CLCC)は、データの形式を変換し、データの種類別に行き先を振り分ける。
解析条件設定(CLIS)は、ユーザ(US)から入出力部(CLIO)を介して指定される解析条件を受け取り、記録部(CLME)の解析条件(CLMP)に記録する。ここでは、解析に用いるデータの期間、メンバ、解析の種類及び解析のためのパラメータ等が設定される。クライアント(CL)は、これらの設定をアプリケーションサーバ(AS)に送信して解析を依頼し、それと並行して描画設定(CLTS)を実行する。
描画設定(CLTS)は、解析条件(CLMP)に基づいて解析結果を表示する方法、及び、図面をプロットする位置を計算する。この処理の結果は、記録部(CLME)の描画設定情報(CLMT)に記録される。
組織アクティビティ表示(BMF)は、アプリケーションサーバ(AS)から取得した解析結果をプロットして図表を作成する。例として、組織アクティビティ表示(BMF)は、図1の組織アクティビティ表示(BMF)のような、レーダーチャートのような表示、時系列グラフ、及び、組織構造表示をプロットする。このとき必要であれば、組織アクティビティ表示(BMF)は、表示されている人物の氏名等の属性も表示する。作成された表示結果は、ディスプレイ(CLOD)等の出力装置を介してユーザ(US)に提示される。ドラッグ&ドロップ等の操作によって、ユーザ(US)が表示位置を微調整することもできる。
図3は、本発明の第1の実施の形態において実行される、端末(TR)が取得したデータに基づいて、組織における人物間の関係性を表示する処理の手順を示すシーケンス図である。
まず、端末(TR)の電源が入っており、かつ端末(TR)が基地局(GW)とアソシエイト状態になっていないとき、端末(TR)はアソシエイト(TRTA1)を行う。アソシエイトとは、端末(TR)が、ある一つの基地局(GW)と通信する関係であると規定することである。アソシエイトによってデータの送信先を決定することで、端末(TR)は確実にデータを送信することができる。
アソシエイトが成功した場合、端末(TR)は、次に時刻同期(TRCS)を行う。時刻同期(TRCS)において、端末(TR)は、基地局(GW)から時刻データを受け取り、端末(TR)内の時計(TRCK)を設定する。基地局(GW)は、NTPサーバ(TS)と定期的に接続し時刻を修正している。このため、全ての端末(TR)において時刻が同期される。その結果、データに付随した時刻情報を照らし合わせることで、人物間のコミュニケーションにおける相互の身体表現又は音声情報のやり取りを分析することが可能になる。
アソシエイト(TRTA1)と時刻同期(TRCS)の手順についての詳細は後に図4で示す。
センサ制御部(TRSC)は、例えば10秒ごとの一定の周期でタイマ起動(TRST)し、加速度、音声、温度及び照度等をセンシングする(TRSS1)。端末(TR)は、端末IDを赤外線によって他の端末(TR)との間で送受信することで、対面状態を検出する。センサ制御部(TRSC)は、タイマ起動(TRST)せずに、常にセンシングを行ってもよい。しかし、一定の周期で起動することによって電源を効率的に使用することができ、長時間充電しないで端末(TR)を使用しつづけることができる。
端末(TR)は、センシングしたデータに、時計(TRCK)の時刻情報及び端末情報(TRMT)を添付する(TRCT1)。端末情報(TRMT)によって、端末(TR)を装着した人物が識別される。時刻情報は、後に相互データ整列(BMC)において、複数の人物のデータを整列させるためのキーとして使用されるため、必須である。
センシング(TRSS1)と端末情報・時刻添付(TRCT1)が、図1の組織ダイナミクスデータ取得(BMA)に相当する。
一方、各端末(TR)を装着している各人物は、端末(TR)又はクライアント(CL)を介して、パフォーマンスの値を入力する。入力された値は、センサネットサーバ(SS)に記録される。売上高又は株価等の組織全体の指標をパフォーマンスとして用いる場合には、代表者が一括して値を入力してもよいし、それらの指標が更新されたときに、更新された指標の値が自動的に入力されてもよい。
データ形式変換(TRDF1)において端末(TR)は、後に図5に示すように、センシングされたデータ及びセンシング条件を、決められた無線送信フォーマットに変換する。変換されたデータは、その後、基地局(GW)に送信される(データ送信(TRSE1)参照)。
加速度データ及び音声データ等の連続した多量のデータを送信する場合、端末(TR)は、データ分割(TRBD1)によって、一度に送信するデータ数を制限する。その結果、データが欠損するリスクが低下する。
データ送信(TRSE1)は、無線の送信規格に則り、送受信部(TRSR)からアソシエイトしている基地局(GW)にデータを送信する。
基地局(GW)は、端末(TR)からデータを受信(GWRE)すると、レスポンスを端末(TR)に返す。レスポンスを受信した端末(TR)は、送信完了(TRSF)と判定する。
一定の時間を経ても送信完了(TRSF)しない(すなわち端末(TR)がレスポンスを受信しない)場合、端末(TR)は、データ送信不可(TRSO)と判定する。この場合、データが端末(TR)内に記憶され、再び送信状態が確立されたときにまとめて送信される。これによって、端末(TR)を装着している人物が無線の届かない場所に移動してしまった場合、又は、基地局(GW)の不具合でデータが受信されなくなった場合にも、データを途切れさせることなく取得することが可能になる。これによって、組織の統計的な性質を安定して求めることができる。
このようなデータのまとめ送りの手順を説明する。端末(TR)は、送信できなかったデータを記憶しておき(TRDM)、再びアソシエイトの依頼を行う(TRTA2)。ここで基地局(GW)からレスポンスが得られ、アソシエイトが成功(TRAS)した場合、端末(TR)は、データ形式変換(TRDF2)、データ分割(TRBD2)及びデータ送信(TRSE2)を実行する。これらの処理は、それぞれ、データ形式変換(TRDF1)、データ分割(TRBD1)及びデータ送信(TRSE1)と同様である。データ送信(TRSE2)の際、無線が衝突しないように輻輳制御される。その後は通常の処理に戻る。
アソシエイトが成功しなかった場合、端末(TR)は、アソシエイトに成功するまで定期的にセンシング(TRSS2)と端末情報・時刻情報添付(TRCT2)実行する。センシング(TRSS2)及び端末情報・時刻情報添付(TRCT2)は、それぞれ、センシング(TRSS1)及び端末情報・時刻情報添付(TRCT1)と同様の処理である。これらの処理によって取得されたデータは、基地局(GW)への送信が成功するまで、端末(TR)内に記憶される。
基地局(GW)は、受信したデータが分割されたものであるか否かを図5Aから図5Cに示す分割フレーム番号によって判定する。データが分割されている場合、基地局(GW)は、データ結合(GWRC)を実行することによって、分割されたデータを連続したデータにまとめる。さらに、基地局(GW)は、基地局固有の番号である基地局情報(GWMG)をデータに付与し(GWRC)、そのデータを、ネットワーク(NW)を介して送信する(GWSE)。基地局情報(GWMG)は、その時刻における端末(TR)の大まかな位置を示す情報として、データ解析の際に利用することができる。
センサネットサーバ(SS)は、基地局(GW)からデータを受信すると(SSRE)、データ管理(SSDA)において、受信したデータを時刻・端末情報・加速度・赤外線・温度などの要素ごとに分類する(SSPB)。この分類は、データ形式情報(SSMF)として記録されているフォーマット(図5Aから図5C参照)を参照することによって実行される。分類されたデータは、データベースのレコード(行)の適切なカラム(列)に格納される(SSKI)。同じ時刻に対応するデータを同じレコードに格納することで、時刻及び端末情報(TRMT)による検索が可能になる。
このとき必要であれば、端末情報(TRMT)ごとにテーブルを作成しても良い。
ここまでの処理が、図1の組織ダイナミクスデータ収集(BMB)に相当する。
アプリケーションサーバ(AS)は、定期的に相関係数を学習する。相関係数の学習とは、数週間分から数ヶ月分程度のデータに基づいて、パフォーマンスとセンシングデータとの相関係数を求めて更新することである。相関係数の学習の具体的な方法は、図1の相関係数の学習(BMD)に示した。
アプリケーションサーバ(AS)は、設定された期間ごとに学習を起動し(BMDS)、必要なデータの取得依頼コマンドをセンサネットサーバ(SS)に送信し(ASDP)、センサネットサーバ(SS)からセンシングデータ及びパフォーマンスに関するデータを取得する。アプリケーションサーバ(AS)は、取得したデータに基づいて、相関係数の学習を実行する(BMD)。
次に、組織アクティビティ解析(BME)のシーケンスを説明する。まず、ユーザ(US)が解析を起動(USST)すると、組織アクティビティ解析(BME)が開始される。クライアント(CL)は、ユーザ(US)に希望する解析の種類等の具体的な設定を入力させ、その入力に従って解析条件を設定する(CLIS)。このとき、クライアント(CL)は、設定用ウィンドウ等をユーザ(US)に対して表示してもよい。クライアント(CL)は、設定された解析条件をアプリケーションサーバ(AS)に送信する(CLSE)。次にクライアント(CL)は、描画設定(CLTS)を行う。
アプリケーションサーバ(AS)は、クライアント(CL)から受信した解析条件を設定する(ASIS)。そして、アプリケーションサーバ(AS)は、データ取得依頼コマンドを作成してセンサネットサーバ(SS)に送信する(ASDP)。
センサネットサーバ(SS)は、取得依頼コマンドに基づいてセンシングデータベースを検索し(SSDR)、必要なデータを取得する(SSDG)。そして、センサネットサーバ(SS)は、取得したデータをアプリケーションサーバ(AS)に送信する(SSSE)。
アプリケーションサーバ(AS)は、センサネットサーバ(SS)からデータを受信すると(ASRE)、相互データ整列(BMC)及び組織アクティビティ解析(BME)を実行する。これらは図1及び図2において説明したプロセスと同じである。
そして、アプリケーションサーバ(AS)は、端末情報−ユーザ照会(ASDU)において、端末のID情報に対応するユーザの氏名及び属性情報を解析されたデータに付加し、その解析されたデータをクライアント(CL)に送信する(ASSE)。
クライアント(CL)は、解析されたデータを受信し(CLRE)、組織アクティビティ表示を作成し(BMF)、作成された組織アクティビティ表示をディスプレイ等の出力装置に表示する(CLDI)。組織アクティビティ表示(BMF)の内容は図1及び図2において説明したものと同じである。
ユーザ(US)は、表示された解析結果を確認し、解析終了(USEN)する。
図4は、本発明の第1の実施の形態において実行されるアソシエイト及び時刻同期の手順を説明するシーケンス図である。
具体的には、図4は、図3におけるアソシエイト(TRTA1及びTRTA2)及び時刻同期(TRCS)において、端末(TR)、基地局(GW)及びセンサネットサーバ(SS)が実行するプロセスの詳細なシーケンスを示したものである。
最初に、アソシエイトの手順を説明する。図4のうち、アソシエイト非成立(TRA1)から端末管理情報修正(SSTF)までの手順が、図3のアソシエイト(TRTA1及びTRTA2)に相当する。
端末(TR)の電源が投入された直後、及び、端末(TR)が基地局(GW)との無線通信が困難な場所にあった場合、アソシエイト非成立(TRA1)の状態である。この場合、端末(TR)は、基地局探索のためのコマンドを定期的に無線送信する(TRA2)。近くに存在するいずれかの基地局(GW)がそのコマンドを受信した場合には、その基地局(GW)からレスポンスが返される。
レスポンスを受信した端末(TR)は、アソシエイト依頼を送信(TRA3)する。アソシエイト依頼を受信した基地局(GW)は、端末(TR)に対してローカルIDを設定し、配布する(GWA1)。これによってパーソナルエリアネットワーク(PAN)が確立され、アソシエイトが成立する(TRA4)。
アソシエイトが成立したら(TRA4)、端末(TR)は端末管理情報修正依頼を送信する(TRA5)。端末管理情報修正依頼を受信した基地局(GW)は、記録部(GWME)内の端末管理テーブル(GWTT)に新たな端末のMACアドレス及びローカルIDを加えて修正する(GWTF)。さらに基地局(GW)は、その基地局(GW)が端末(TR)を管理していることを示す端末管理情報をセンサネットサーバ(SS)に送信する(TRA2)。端末管理情報を受信したセンサネットサーバ(SS)は、受信した情報に従って、基地局(GW)と端末(TR)とを対応付けている端末管理テーブル(SSTT)を修正する(SSTF)。
端末管理情報を常に更新することによって、センサネットサーバ(SS)は、全ての端末(TR)が現在どの基地局(GW)の配下にあるかを管理することができる。センサネットサーバ(SS)は、端末(TR)への下り送信を行う際に、更新された端末管理情報を参照することができる。
ここで、アソシエイト時にローカルIDを配布する理由を述べる。アソシエイト依頼(TRA3)では、全ての端末(TR)に関して唯一のアドレスであるMACアドレスが送信される。しかし、MACアドレスは桁数が多いため、通常の無線データ送信に用いるには不向きである。そのため、端末(TR)との送受信を確立した基地局(GW)は、パーソナルエリアネットワーク(PAN)内でのみ用いる桁数の少ないローカルIDを端末(TR)に割り振る。このローカルIDは、端末(TR)から基地局(GW)への通常のデータ送信に添付される。端末からデータを受信した基地局(GW)は、データに添付されたローカルIDをMACアドレスに変換し、そのMACアドレスが添付されたデータをセンサネットサーバ(SS)に送信する。
次に、時刻同期について述べる。図4のうち、時刻依頼送信(TRC1)から時刻修正(TRC2)までの手順が、図3の時刻同期(TRCS)に相当する。
基地局(GW)は、定期的にタイマ起動(GWC1)して、外部又は内部ネットワーク上に存在するNTPサーバ(TS)と接続して、基地局(GW)の時計(GWCK)を修正する。その手順を詳細に説明する。
タイマ起動(GWC1)した基地局(GW)は、時刻依頼をNTPサーバ(TS)に送信する(GWC2)。NTPサーバ(TS)は、時刻依頼を受信(TSC1)すると、正確な時刻情報を送信する(TRC2)。基地局(GW)は、NTPサーバ(TS)から受信した正確な時刻情報に従って時刻を修正(GWC3)し、時刻修正完了報告をセンサネットサーバ(SS)に送信する。このプロセスによって、複数の基地局(GW)間で時刻が同期される。
一方、端末(TR)は、所定のイベント(例えば、アソシエイトの成立)等をきっかけとして、基地局(GW)から時刻情報を受け取って、時計(TRCK)を修正する。その手順を詳細に説明する。
端末(TR)は、時刻依頼を基地局(GW)に送信する(TRC1)。基地局(GW)は、時刻依頼を受信(GWC4)すると、時刻情報を送信する(GWC5)。端末(TR)は、基地局(GW)から受信した情報に従って時刻を修正(TRC2)し、時刻修正完了報告を基地局(GW)に送信する。このプロセスによって、複数の端末(TR)間で時刻が同期される。その結果、それらの複数の端末(TR)を装着した複数の人物間の相互相関の解析等を行うことが可能になる。
図5Aから図5Cは、端末(TR)が取得したセンシングデータを無線送信する際に適用されるペイロードのフォーマットの一例である。このペイロードを送信する無線通信規格としては、例えばIEEE802.15.4を用いることが好適である。
一度に送信するデータ数に制限があるため、赤外線データ(図5A)、加速度データ(図5B)及び音声データ(図5C)は、それぞれ専用に設定されたフォーマットを用いて送信される。加速度データ及び音声データは連続して取得されるため、データ数が多くなった場合には分割して送信される。分割されたデータは基地局(GW)において再び結合され、タグ付けされる。無線送信ではなるべく送信データ長を短くするために無線送信フォーマットが定義づけられているため、そのフォーマットで送信することができないタグ等は基地局(GW)で付加される。図5Aから図5Cに示す無線送信フォーマットは、端末(TR)内のデータ形式情報(TRMF)、及び、基地局(GW)内のデータ形式情報(GWMF)に記録されている。
図5Aは、本発明の第1の実施の形態において赤外線データを無線送信するための赤外線データフォーマット(MFAIR)の説明図である。
なお、図5Aのフォーマットのうち第0バイトから第27バイトは、図5B及び図5Cの第0バイトから第27バイトと同様である。このため、以下の説明のうち、第0バイトから第27バイトの説明は、図5B及び図5Cにも適用される。
第0バイトのApplicationHeaderは、このデータが本実施の形態のビジネス顕微鏡システムに関するデータであることを示す。ここで、「このデータ」とは、図5Aに示すフォーマットによって送信されるセンシングデータを意味する。
第1バイトのDataTypeは、フォーマットの種類を示す。すなわち、第1バイトは、このデータが赤外線データ、加速度データ又は音声データのいずれであるかを示す。基地局(GW)は、このDataTypeに従って、受信したデータを区別し、それぞれのデータにタグ付けをする。タグ付けされたデータは、センサネットサーバ(SS)のデータベースに格納される。
第2バイトのMessageTypeは、このデータがコマンド、コマンドに対する応答、又は、イベントのいずれであるかを示す。
第3バイト及び第4バイトのSequenceNumは、取得したデータに順に付与された0000からFFFFまでの連続番号である。SequenceNumは、基地局(GW)がデータが全て受信できたか否かを確かめるために用いられる。SequenceNumがFFFFまでカウントされた場合、その次に取得されたデータには、0000が付与される。以後、1ずつ増加されたSequenceNumがデータに順次付与される。
第5バイトのサンプリング識別子は、分割された複数のフレームが同一センシング周期にサンプリングされたデータであることを示すためのものである。なお、図5Aの例では、第0バイトから第87バイトまでの88バイトのデータが一つのフレームのペイロードとして送信される。
第6バイトのまとめ送り識別子は、このデータがまとめ送りされたものであるか否かを示す。まとめ送りとは、端末(TR)が基地局(GW)にデータを送信できなかった場合に、一度端末(TR)内にそのデータを記憶し、その後、記憶されているデータをまとめて送信する処理である。まとめ送り識別子を参照することによって、このデータが取得されたときに、端末(TR)を装着した人物が、外出等のために基地局(GW)のエリアの外にいたことを知ることができる。
第7バイトの圧縮タイプ識別子は、このデータが圧縮されたものであるか否かを示す。このデータが圧縮されたものである場合、圧縮タイプ識別子はさらに、その圧縮方法を示す情報も含む。このデータが加速度データ又は音声データである場合、データ量が多いため、確実に送信するためにデータを圧縮する場合があるためである。データが圧縮されている場合、基地局(GW)又はセンサネットサーバ(SS)が元のデータに変換する。
第8バイト及び第9バイトのセンシング周期は、端末(TR)がセンシングをしている状態と休止している状態からなる一サイクルの周期を示す。
第10バイト及び第11バイトの無線送信周期は、無線によってセンシングデータを送信する周期を示す。通常、無線送信周期はセンシング周期の整数倍であることが望ましい。
第12バイト及び第13バイトのサンプリングレートは、センシングの間隔を示す。
第14バイト及び第15バイトのサンプリング回数は、連続してセンシングする回数である。サンプリング回数分だけセンシングを終えた後、次のサイクルに入るまでが休止状態となる。このように間欠的に動作させることで端末(TR)の低電力化を実現することができる。しかし、端末(TR)は、常時センシングを行うように設定されていてもよい。
第16バイトから第19バイトのユーザIDは、端末(TR)を装着した人物を示す番号である。端末(TR)を装着した人物が変更された場合、ユーザIDを書き換えることができる。
第21バイトの分割フレーム総数は、センシングデータ(特に、加速度又は音声データ)を分割して送信する場合に、一サイクルにおいて取得されたデータを分割した数を示す。基地局(GW)は、受信したデータを分割フレーム番号の順に結合させることによってデータ結合(GWRC)を行う。
第20バイトの分割フレーム番号は、このデータが分割された中の何番目のフレームかを降順で示す。すなわち、最終フレームのフレーム番号は0番となる。このため、送信されたフレームの欠損を容易に発見できる。
第22バイトから第27バイトのタイムスタンプは、センシング周期の始めの時刻を示す。タイムスタンプの値は、端末(TR)内の時計(TRCK)から取得される。このタイムスタンプが、図6のセンシングデータベースでは開始時刻(SSDB_STM)として格納される。
赤外線データフォーマット(MFIR)では、第28バイト以降に、必要に応じて温度データ(第28バイト)、照度データ(第29及び第30バイト)、電池電圧値(第31バイト)及びRSSI値(第32バイト)等が設定される。端末(TR)の表裏を判別するために、端末(TR)の表裏それぞれに照度センサ(TRIL)が設けられてもよい。その場合、表側と裏側の照度データのそれぞれに1バイトの領域が確保される。
電池電圧値は、端末(TR)に搭載されているバッテリー(図示省略)の残り電圧値である。RSSI値は、端末(TR)が基地局(GW)とアソシエイトした際の電波強度である。RSSI値によって基地局(GW)と端末(TR)の大まかな距離を知ることができる。リザーブ(第33バイト)は予備の領域である。
また、端末(TR)は、赤外線送信の際に、自身のMACアドレス(端末情報)の下4桁を、一度のセンシング周期に複数回送信する。端末(TR)は、赤外線信号を常時受信可能な状態である。4桁のアドレスを受信した端末(TR)は、一度のセンシング周期においてどの端末(TR)から何回受信したかをカウントする。そして、端末(TR)は、その4桁のアドレスを対面識別子とし、そのアドレスの受信回数を検出回数として送信する。
第36バイト及び第37バイトは、対面識別子である。第38バイト及び第39バイトは、第36バイト及び第37バイトが示す対面識別子を受信した回数(すなわち検出回数)である。同様にして、第40バイトから第87バイトに、12組の対面識別子と検出回数の組が登録される。
すなわち、図5Aの赤外線データフォーマット(MFIR)では、1回のセンシング周期において最大13個の端末(TR)からの赤外線信号を受信することができる。1回のセンシング周期において、13より少ない数の端末(TR)からの赤外線信号が受信された場合、一つ以上の対面識別子と検出回数の組が空のまま、図5Aに示すフォーマットのデータが送信される。第34バイト及び第35バイトの赤外線検出端末個数は、データが存在する(すなわち、空でない)対面識別子と検出回数の組の数を示す。
図5Bは、本発明の第1の実施の形態において加速度データを無線送信するための加速度データフォーマット(MFACC)の説明図である。
加速度データフォーマット(MFACC)のうち第0バイトから第27バイトまでの説明は、赤外線データフォーマット(MFAIR)と同様であるため、省略する。
加速度データフォーマット(MFACC)において、第28バイトの加速度データ数は、1フレームの送信フォーマットに含まれるX、Y、Z方向の加速度データの組の数を示す。図5Bの場合には20組の加速度データが含まれる。次の第30バイトから順に加速度データが登録される。
図5Cは、本発明の第1の実施の形態において音声データを無線送信するための音声データフォーマット(MFVOICE)の説明図である。
音声データフォーマット(MFVOICE)のうち第0バイトから第27バイトまでの説明は、赤外線データフォーマット(MFAIR)と同様であるため、省略する。
音声データフォーマット(MFVOICE)において、第28バイトの音声データ数は、1フレームの送信フォーマットに含まれる音声データの数を示す。図5の場合には60個の音声データが含まれる。次の第30バイトから順に音声データが登録される。
図6は、本発明の第1の実施の形態のセンシングデータベース(SSDB)の具体例の説明図である。
センシングデータベース(SSDB)は、センサネットサーバ(SS)の記録部(SSME)に格納される。センシングデータベース(SSDB)は、図1における組織ダイナミクスデータ収集(BMB)内のデータテーブルに相当する。図6では、端末(TR)ごとにテーブルが作成されるものと仮定して、IDが1002の端末(TR)に対応するテーブル(SSDB_1002)の例を示す。すなわち、図6に示すセンシングデータベース(SSDB_1002)には、IDが1002の端末(TR)から送信されたセンシングデータが格納される。
端末(TR)で取得されたデータは、図5Aから図5Cの無線送信フォーマットに整理されて基地局(GW)に送信される。基地局(GW)は、無線送信フォーマットから各データの意味情報を読み取り、XML等の形式でタグ付けしてセンサネットサーバ(SS)に送信する。センサネットサーバ(SS)の制御部(SSCO)は、受信したデータを、データ管理(SSDA)によって整理して、センシングデータベース(SSDB)に格納する。
テーブル(SSDB_1002)には、時刻(SSDB_STM)、赤外線送信側ID1(SSDB_OID1)、受信回数1(SSDB_NIR1)、…、赤外線送信側ID13(SSDB_OID13)、受信回数13(SSDB_NIR13)、加速度x1(SSDB_AX1)、加速度y1(SSDB_AY1)、加速度z1(SSDB_AZ1)、…、加速度x100(SSDB_AX100)、加速度y100(SSDB_AY100)及び加速度z100(SSDB_AZ100)のカラム(列)が存在する。
このテーブルは、さらに、受信回数2から受信回数12、赤外線送信側ID2から赤外線送信側ID12、加速度x2から加速度x99、加速度y2から加速度y99、及び、加速度z2から加速度z99のカラムを含む。これらのカラムは、図6では省略されている。
必要であれば、音声データ、温度・照度、センシング周期等の条件を格納するカラムが追加されてもよい。また、加速度及び音声の各センシングデータにそれぞれタイムスタンプを付けることが必要な場合には、加速度データテーブル、音声データテーブル等の独立したテーブルを作成してもよい。
時刻(SSDB_STM)には、図5Aから図5Cにおけるタイムスタンプが格納される。図6の例では、年・月・日・時・分・秒・ミリ秒の形で格納される。例えば、レコードRE01の「20060724−13374500」は、2006年7月24日13時37分45.00秒を示す。
赤外線送信側ID1(SSDB_OID1)、受信回数1(SSDB_NIR1)〜赤外線送信側ID13(SSDB_OID13)、受信回数13(SSDB_NIR13)には、それぞれ、赤外線データフォーマット(MFIR)における対面識別子[1]、検出回数[1]〜対面識別子[13]、検出回数[13]が格納される。
加速度x1(SSDB_AX1)、加速度y1(SSDB_AY1)、加速度z1(SSDB_AZ1)〜加速度x100(SSDB_AX100)、加速度y100(SSDB_AY100)、加速度z100(SSDB_AZ100)には、それぞれ、加速度データフォーマット(MFACC)の加速度x[1]〜加速度z[100]のデータが格納される。ただし、図6のテーブルに格納される加速度データは、加速度データフォーマット(MFACC)の加速度x[1]〜加速度z[100]を変換式によって単位[G]に変換することによって得られた値である。
1回のセンシング周期においてセンシングされたデータは、同じレコード(行)に格納され、各レコードには必ず時刻情報が含まれる。相互データ整列(BMC)の際には、この時刻情報を基準にして、各センシングデータが、他の端末(TR)から得られたデータと対応付けられる。
図7は、本発明の第1の実施の形態の結合テーブル(CTB)の具体例の説明図である。
結合テーブル(CTB)は、アプリケーションサーバ(AS)の記録部(ASME)に格納される。結合テーブル(CTB)は、図1における相互データ整列(BMC)の結合テーブルに相当する。図7は、例として、IDが1002である端末(TR)によって検出されたゼロクロス値と、IDが1000である端末(TR)によって検出されたゼロクロス値とを結合することによって作成された結合テーブル(CTB_1002_1000)を示す。結合テーブルは、組織に属する二人の人物、又は、分析に含みたい任意の二人の人物が装着する端末(TR)について作成される。
なお、図1の結合テーブル(CTBab)では加速度・赤外線及び音声のデータを一つの結合テーブルにまとめているが、図7に示すようにデータの種類ごとに独立にテーブルが作成されてもよい。
ゼロクロス値1002(ZERO1002)は、図6のテーブル(SSDB_1002)における一行に含まれる各軸方向100個の加速度データにおけるゼロクロス回数を計数し、さらに、X軸、Y軸、Z軸について計数された数を合計することによって算出される。よって一つの端末(TR)に関しては、一つの時刻情報に対して一つのゼロクロス値が存在する。
二つの端末(TR)に関するデータは、時刻情報に基づいて結合される。具体的には、二つの端末(TR)のそれぞれに関するデータを含む二つのテーブル(SSDB)(例えば、図6参照)の時刻(SSDB_STM)が照合される。そして、原則として、同じ時刻(SSDB_STM)に対応するデータが、結合テーブル(CTB_1002_1000)の同じレコードに格納される。この場合、それらのデータに対応する時刻(SSDB_STM)の値が時刻(ASDB_ACCTM)に格納される。
しかし、二つの端末(TR)のセンシング時刻が一致しない場合、二つのテーブル(SSDB)の時刻(SSDB_STM)が一致しない。すなわち、二つのテーブル(SSDB)に、同じ時刻(SSDB_STM)に対応するデータが存在しない。この場合、二つのテーブル(SSDB)のデータのうち、最も近い時刻(SSDB_STM)に対応するデータ同士が、テーブル(CTB_1002_1000)の同じレコードに格納される。このとき、時刻(ASDB_ACCTM)は、元の(最も近い)二つの時刻(SSDB_STM)に基づいて算出される。例えば、最も近い二つの時刻(SSDB_STM)の平均が時刻(ASDB_ACCTM)として格納されてもよい。
基本的にセンシング周期はどのノードにおいても同じであるため、一組の時刻情報を合わせると他の時刻情報も自動的に揃うことになる。しかし、送信エラーなどによるデータ欠損等がある場合には時刻がずれる。その場合には、欠損したデータをダミーデータによって補完する等の必要がある。
ゼロクロス値の結合テーブルは人物間の相互相関を計算するために用いられる。このため、2系統のデータ(図7の例では、ゼロクロス値1002及び1000)の時刻が揃っていなくてはならない。音声及び加速度のデータに関しても、組織のダイナミクスを抽出するためには任意の人物間における比較対照を行うことは必須である。二人の人物に関するデータの時刻情報をそろえることで、それらの人物の発話のリズムや回数の偏り、行動と対面との因果関係等を時系列上で分析することが可能になる。その結果、人物間の関係性、さらには組織ダイナミクスに関する複雑な解析を行うことが可能になる。
この結合テーブルを用いた相関係数の学習(BMD)、組織アクティビティ解析(BME)及び組織アクティビティ表示(BMF)の手順の一例は、図1において述べたとおりである。
次に、図1に示す組織アクティビティ解析(BME)及び組織アクティビティ表示(BMF)における、加速度データによる人物間の相互相関計算、任意の人物間の距離計算、グループ化、組織構造パラメータ、及び、組織構造表示の流れの具体的な例を示す。
図8は、本発明の第1の実施の形態における組織アクティビティ解析(BME)及び組織アクティビティ表示(BMF)の処理の一例を示す説明図である。
具体的には、図8は、図1における人物間の相互相関計算(EA14)から組織構造表示(FC31)までの処理の一例を、各処理の結果を合わせて示したものである。組織ダイナミクスデータ取得(BMA)から個人特徴量抽出(EA13)までは、図1に示す処理が実行されているものとする。
ここでは、任意の人物間の関係性を表す指標の一つとして影響力を計算し、組織の構造を表現する例を説明する。組織構造を解析するための指標は多種ありえるので、それらの複数の指標を計算してもよい。
図8では、人物Aが人物Bへ与えている影響力を表す指標の例として、人物間の相互相関計算(SEA14)の結果の表示例(SE1)を示す。これは、人物Aと人物Bの加速度のゼロクロス値の相互相関を計算した結果の例である。加速度のゼロクロス値の相互相関を計算するまでの手順は、図1の相関係数の学習(BMD)又は組織アクティビティ解析(BME)における加速度周波数計算(EA12)、個人特徴量抽出(EA13)及び人物間の相互相関計算(EA14)と同様である。すなわち、図8に示す人物間の相互相関計算(SEA14)は、図1に示す人物間の相互相関計算(EA14)に相当する。しかし、別の処理計算が用いられてもよい。
人物間の相互相関計算結果の表示例(SE1)のグラフは、横軸が時間差τ(分)であり、縦軸が影響の大きさ(Rab)を表している。縦軸は、正方向が正の相関を、負方向が負の相関を示す。例えば横軸20(分)におけるRabがピーク値を示す場合、人物Aと人物Bの動作には20分の間隔をおいて相関があると言うことができる。この場合、人物Aが動いた20分後に人物Bが動くという傾向があるため、人物Bが人物Aの影響を受けていると解釈することができる。
また、相関の現れる間隔によって、与えられる影響の種類が異なると考えることもできる。例えば、間隔がミリ秒単位であった場合、頷き又は共同注意等の直接的な対話における影響が与えられていると考えられる。一方、間隔が分単位であった場合には、行動による影響が与えられている(例えば、人物Aの指示に従って人物Bが行動している、又は、人物Aの行動を人物Bが模倣している、等)と解釈することができる。
さらに、図8ではτが正の値である場合しか表示していないが、τが負の値である場合についても計算することができる。負のτに対応するRabがピークを示す場合、人物Aの行動又は行動に関する予測が、その人物Aの行動以前の人物Bの行動に影響を与えていることを示していると解釈できる。
次に、影響力等の人物間の関係性を表す指標が取得され、任意の人物間の距離が計算される(SEK41)。この処理は、図1に示す任意の人物間の距離計算(EK41)に相当する。なお、関係性の指標及び距離は、図1において説明した組織特徴量と同じものであってもよいし、異なるものであってもよい。
まず、人物間の相互相関計算結果の表示例(SE1)のグラフから、関係性パラメータ(すなわち、人物間の関係性を表す指標)として一つの実数値を取得する必要がある。そのために、例えば、グラフにおいて最も大きなピーク値の値を取得してもよいし、グラフの絶対値の積分を計算した結果を取得してもよい。あるいは、特定の種類の影響を抽出したい場合、影響が現れる時間(すなわち、相関の現れる間隔)を、例えば0〜3分までというように限定して、その範囲内でのピーク値又は絶対値の積分を取得してもよい。このようにして取得された関係性パラメータの値が大きいほど、人物間の行動の相関が強いため、人物間の関係性が強い(すなわち、人物間の距離が近い)と考えられる。
ここで、絶対値の積分を関係性パラメータとして用いる場合を説明する。この場合、人物Aと人物Bの間の影響力をRab(τ)とすると、それらの人物間の関係性パラメータは、
として表される。
関係性パラメータが一つである場合には、この実数値がそのまま人物Aと人物Bの関係性の距離として用いられる。しかし、複数の関係性パラメータが用いられる場合(例えば、加速度から算出された関係性パラメータに加えて、赤外線又は音声から算出された関係性パラメータが用いられる場合)、人物間の関係性は、関係性ベクトル
によって表される。ここで、関係性ベクトルの要素Tab(k)(k=1、2、…、n)は、人物A及び人物Bについて算出された関係性パラメータである。この場合、人物Aと人物Bの間の関係性の強さ(すなわち距離)は、各関係性パラメータに重み付けを行って合計した実数値である関係性距離
として算出される。
同様にして、任意の人物間の関係性距離を求めることによって、それらを要素とする関係性距離行列Rを抽出することができる(SE21)。
任意の人物間の距離計算結果の表示例(SE2)は、関係性距離行列Rの一例(SE21)、及び、関係性ネットワークの一例(SE22)を示す。関係性ネットワークの一例(SE22)は、関係性距離行列Rの一例(SE21)を、ノード及びリンクからなる簡略なネットワーク形式で表示したものである。
A、B、C及びDが表示された各ノードは、それぞれ、人物A、人物B、人物C及び人物Dを示す。ノード間を結合しているリンクの近傍に表示されている正の実数は、それらのノードが示す人物の間の距離を示す。図8の例において、表示されている値が小さい方が距離が近い、つまり関係性が強いことを表している。ただし、0は関係がないことを表している。
図8の例では、関係性の強さと、表示されるリンクの太さとが関連付けられている。例えば、人物Aと人物Bの間の関係性距離の値は1.0、人物Bと人物Cの間の関係性距離の値は0.5である。すなわち、人物Bと人物Cの間の関係性は、人物Aと人物Bの間の関係性より強い。この場合、人物Bと人物Cを結合するリンクは、人物Aと人物Bを結合するリンクより太く表示される。なお、図8の例では、関係のない人物の間を結合するリンク(例えば、人物Aと人物Dを結合するリンク)は、点線によって表示される。
関係性距離行列Rは対称行列であることが望ましいが、必要であれば非対称行列が用いられてもよい。
次に、求めた関係性距離行列に基づいて、距離が近い人物同士のグループを検出するグループ化の手順を示す(SEK42)。
組織において人物は、業務ユニットのメンバとして、同期の友人として、趣味の仲間として等の多様な関係性と役割を有しており、趣味のつながりが業務の成功の手助けになったり、新たなひらめきを生むこともある。よって、一人の人物が複数のグループに属することを検出できるグループ化方法が望ましい。
また、大きなグループの中にも特に親密な小グループが存在することがあり、グループの大きさによってその質が異なっていると考えられる。よって、組織全体のマクロな構成を俯瞰したい場合と、個人間のミクロな関係を抽出したい場合とで、目的に合わせてグループを区切るレベルを可変にできるグループ化方法が望ましい。
これらの理由から、ここでは非排他的な階層的グループ化を行う。非排他的とは、一つの要素(すなわち人物)が複数のクラスタ(すなわちグループ)に含まれることを許可するという意味である。これによって、実際の組織構造に忠実に即した表現と分析が可能になる。
しかし、グループ化方法は以下の説明によって限定されず、目的に適したどの方法が選択されてもよい。また、グループ化は行わず、関係性距離行列の値のみに基づいて人物を示すノードの配置を決定することによって、組織構造表示を行ってもよい。
非排他的な階層的グループ化の手順を以下に述べる。任意の人物間の距離計算結果の表示例(SE2)を用いてグループ化結果の表示例(SE3)を描画することがここでの目標である。なお、以下のグループ化の手順は、アプリケーションサーバ(AS)によって実行されるが、その他の装置(例えばクライアント(CL))によって実行されてもよい。グループ化の結果は、クライアント(CL)のディスプレイ(CLOD)に表示される。
まず、関係性距離の計算結果としてネットワーク形式の表示(SE22)が得られたと仮定する。これは、人物AからDまでの任意の人物間の関係性の値をリンク上の値として表示したものである。値が小さいほど距離が近い、つまり関係性が強いことを示しているが、値0は関係性がないことを示す。
そこで始めに、関係性ネットワークから0を除いて最も小さな関係性距離の値を持つ二人の人物を探す。図8の例では、人物Cと人物Dの間の関係性距離0.2が最も小さい。この場合、二本の略平行な縦方向の線と、その二本の線の上端どうしを結合する横方向の線とからなるテーブル状の図形がグループ化結果の表示例(SE3)にプロットされる。このとき、テーブル状の図形の両脚に相当する二本の縦方向の線が、それぞれ、人物C及び人物Dに対応付けられる。そして、テーブル状の図形の高さ(すなわち、両脚の下端が接する基準線から上端の横方向の線までの距離)は、人物Cと人物Dの間の関係性距離0.2を示す。
さらに、次に小さな関係性距離の値を持つ人物を探す。その結果、関係性距離0.5の値を持つ人物Cと人物Bが発見される。この場合、上記と同様に、0.5の高さを持つテーブル状の図形が表示される。ここで既に人物Cは二箇所に表示されている。
そして、次に小さな関係性距離の値は人物Bと人物Dの間の0.7となる。これによって、既に表示されている値と合わせて、人物B−人物C−人物Dの三者の関係が明らかになる。この時点で、既に人物Cと人物Dの関係を示す図形、及び、人物Cと人物Bの関係を示す図形の二つが表示されている。このため、これらの図形をさらに結合するように、高さ0.7のテーブル状の図形が表示される。
このように、関係性距離の値が小さい順に、人物の組み合わせが抽出され、その二者間を結合するようにテーブル状の図形が表示される。そのとき三者間の関係が明らかになった場合には、既に表示されているテーブルを結合するようにテーブル状の図形が表示される。関係性距離の最大値までこの手順を繰り返すことによって、グループ化結果の表示例(SE3)が完成する。
また、この図において、閾値となる関係性距離の値を決定し、表示されている図形を閾値の高さで分断すると、分断された点より下部に複数のグループが存在する場合がある。これらのグループは、決定された閾値より小さい関係性距離を有する人物の組み合わせによって構成される。ここで閾値を大きくすると、その閾値の下グループの数が減る。一方、閾値を小さくすると、より小さい関係性距離を有する人物の組み合わせによって構成される多くの小グループが現れる。図8では、仮に閾値を1.5とした場合を示している。この場合、4人の人物からなる組織は、人物B、C及びDからなるグループ1と、人物A及びBからなるグループ2の二つに分けられる。そして、人物Bがこれら二つのグループを橋渡しする役割を担っていると解釈することができる。
以上の処理によって組織構造を表示するための組織構造パラメータが設定される(SEK43)。ここでは、関係性距離計算の結果がノード間の距離として表示され、グループ化の結果がグループとして表示される。
上記以外の組織構造パラメータを設定し、ノードの色又は大きさ等に反映させてもよい。
次に、組織構造表示(SFC31)では、組織構造パラメータに従って、各人物に対応するノード(円又は点)を表示画面上に配置することによって、人間関係から成る実際の組織構造が表示される。その結果、組織構造表示結果の例(SE4)のような表示が完成する。
表示の際には、各人物に対応するノードが、各関係性距離の値を反映し、かつ、全体のバランスが取れるように配置される。例えば、複数のグループに属する人物のノードは、その人物が属するグループの数だけ表示し、各グループに属するノードを楕円等で囲うことによってグループを表現してもよい。このとき、異なるグループが交差しないように表示することが望ましい。
なお、組織構造表示結果の例(SE4)には、閾値によって分断されたグループ1とグループ2だけでなく、グループ1の下に存在する人物Dと人物C、人物Cと人物Bの小グループも点線で囲って表現した。これによって、3人で構成されるグループ1が二つの小グループから成っていることがわかり、さらに、人物Cがそれらの小グループをつなぐ役割を担っていることがわかる。また、人物Bはグループ1とグループ2をつなぐ役割を担っていることがわかる。
なお、図1において説明したように、各人物間の関係性距離を反映するように各人物のノードが表示されてもよい。例えば、人物間の関係性が強い(すなわち、関係性距離が近い)ほど、それらの人物を示すノードが近くなるように表示されてもよい。具体的には、人物Cと人物Dの関係性距離が、人物Aと人物Bの関係性距離より近い場合、人物Cのノードと人物Dのノードの間の距離が、人物Cのノードと人物Dのノードの間の距離より近くなるように表示される(図8参照)。あるいは、図1に示すように、各人物のノードを結合するリンクが表示されてもよい。その場合、人物間の関係性距離が近いほど、それらの人物のノードを結合するリンクが太くなるように表示されてもよい。
図8には、人物間の関係性距離が、端末(TR)によって検出された加速度に基づいて算出される例を示した。しかし、関係性距離は、端末(TR)によって検出された種々の物理情報に基づいて算出することができる。例えば、所定の期間に端末(TR)が他の端末(TR)から赤外線信号を受信した回数に基づいて、関係性距離が算出されてもよい。その場合、赤外線信号を受信した回数が多いほど、関係性距離が近いと判定される。あるいは、端末(TR)が検出した音声に基づいて関係性距離が算出されてもよい。この場合、加速度の相互相関と同様の方法によって、各端末(TR)が検出した音声信号の相互相関が算出されてもよい。その場合、音声信号の相互相関の強さが、人物間の関係性の強さ(すなわち、人物間の関係性距離の近さ)として扱われる。
以上によって、各人物の行動を示す時系列データから、実際の組織構造を抽出することができた。この組織構造表現は、各人物間の関係性のダイナミクスを反映しているものである。
以上の本発明の第1の実施の形態によれば、人物が装着した端末(TR)によって検出された赤外線、加速度、音声等のデータを分析することによって、人物間の関係性が数値化される。さらに、人物間の関係性が視覚的にわかりやすいように表示される。これによって、組織に属する一人一人の行動と組織のパフォーマンスとの関係が明らかになり、個人と組織が共に高めあう好循環サイクルを実現することができる。さらに、これをリアルタイムで行うことによって好循環サイクルをより速く回すことが可能になる。
次に、本発明の第2の実施の形態について説明する。
任意の人物間の距離計算結果の表示例および組織構造表示結果の別の例を図9に示す。図8の組織構造表示(SE4)においては、人物とグループの関係性を示すのみであったが、本実施例では、特徴的な振る舞いをする人物あるいはグループをマーキングして表示する部分に特徴を持つ。具体的にこれを実現するため、任意の人物間の距離計算/人物毎の特徴計算(SEK41A)において、人物毎特徴テーブル(SE23)を用意して、人物毎の距離の総計とリンク数の総計を管理し、例えば、これらの総計が最も多い人物に対してマーキングを行う。図9の例では、人物Cが、これらの総計が最も多い人物としてマーキングされる。すなわち、図9の例では、人物Cと人物C以外の人物との関係が、他の人物とその人物以外の人物との関係より強いことを意味する。
ここで、マーキングの対象は、単に距離の総計の最も高い人物、もしくは、リンク数総計の最も高い人物、に対して行うこともできる。もしくは、距離の総計の最も低い人物、もしくは、リンク数総計の最も低い人物、に対して行うこともできる。マーキングの方法については、マーキング対象のノードの色や大きさ、ノードの形状を変更するように、組織構造パラメータ(SEK43A)に通知する。これらの結果は、組織構造表示(SFC31A)によって、組織構造表示(SE4A)に示される。図9の例では、ノードCに対してマーキング処理(四角のノード形状で表示)が施されている例を示している(EM1)。このようなマーキングを行うことによって、対象とする組織内において特徴ある振る舞いをする人物(例えば、組織内でハブとなって活躍している人物、等)を表示画面上で容易に特定することが可能となる。マーキング対象はマーキングの方法については、予めユーザ/管理者が、組織構造パラメータ(SE43K)内の、マーキングポリシ(MP)に設定しておく。
上記の例では、特定の人物に関して、マーキングを行う例を示したが、次に、特徴的なインタラクションを行うグループ(すなわち人物セット)をマーキングする例について説明する。グループ化(SEK42A)を行うためのグループ結果の表示(SE3A)において、グループ化を行なうための閾値(SE3T1)の他に、関係性距離の強度を判定するための閾値(SE3T2)を設ける。図9の例においては、SE3T2の値を0.3に設定しており、この閾値以下に相当する人物セットは(人物C、人物D)となる。すなわち、人物Cと人物Dの関係性は、閾値(SE3T2)が示す関係性より強い。これらの該当人物に対して、特徴的なマーキング(例えば、囲みのハッチング表示)を行うように、組織構造表示(SFC31A)に指示することで、人物C及び人物Dからなる人物セットがマーキング(EM2)される。このように、特定の人物だけでなく、活発な活動を行っている人物やグループに対しても、マーキングを行うことが可能となる。
このマーキングは、ノードの色又は形状を変更する代わりに、ノードとして任意のシンボルを表示することによって実行されてもよい。ここで、シンボルとは、色、模様、図形、記号又はそれらの組み合わせであってもよい。
さらに、ノードの色や形状の変更だけでなく、図10の組織構造表示結果(SE4B)に示すように、特徴的な人物や人物セットに対して、注釈(すなわちテキスト画像)を付与することも可能である。図10においては、人物Cに対して「組織のハブ」という注釈(EM11)が表示されている。この注釈は、人物Cとその他の人物との関係を示す情報を含む。一方、人物C及びDからなる人物セットに対しては「インタラクションが活発」という注釈(EM21)が付与されている。この注釈は、人物Cと人物Dとの関係を示す情報を含む。このように、注釈を併用することで、組織内での、特徴ある人物あるいはグループの行動をより際立たせて表示することが可能になる。
次に、本発明の第3の実施の形態について説明する。ユーザに対して日々の活動状況を提示することは、業務に対する意識を高める作用がある。ユーザへフィードバック効果として、1)業務現状の可視化による問題意識の共有化、2)センサノード装着のインセンティブ向上があげられる。本実施例では、アプリケーションサーバ(AS)によって求められた解析結果をメールやWebを用いてユーザへフィードバックする手順を述べる。
図11は、センサデータの取得からユーザへのフィードバックするための全体システムを図示したものである。以降は、図2に対しての追加部分のみを説明する。
フィードバック部(FBPI)では、アプリケーションサーバ(AS)によって求められた解析結果を、メールやWeb経由でユーザに対して提示する。フィードバック部(FBPI)は、制御部(FBCO)、記録部(FBME)、無線・有線通信部(FBSR)で構成されている。制御部(FBCO)内でのそれぞれの処理について述べる。
時計(FBCK)は、現在の時刻を保持している。ユーザリスト(FBUL)は、フィードバックを行なう対象のユーザ名と、どのようなフィードバックを行なうかを示すコンテンツ番号が記載されているリストである。コンテンツリスト(FBCL)には、電子メール、Webベースに提示等のフィードバック方法の指定、データの取得、コンテンツの生成、ユーザへ送信するまでの手順が格納されている。コンテンツ選択(FBCS)は、ユーザリスト(FBUL)とコンテンツリスト(FBCL)からの指示によって、どのフィードバックを行なうかを選択する。データ読み込み(FBDR)は、コンテンツ生成に必要なデータの依頼を無線・有線通信部(FBSR)経由でアプリケーションサーバ(AS)へ依頼し、また、その結果のデータを無線・有線通信部(FBSR)経由で取得する。データチェック(FBDC)は、データ読み込み(FBDR)で読み込んだデータに対して、ユーザ名、日付、形式等にエラーがあるデータや欠けているデータの有無のチェックを行なう。コンテンツ生成(FBCG)は、コンテンツ選択(FBCS)によって得られた、コンテンツ作成手順をもとに、データからコンテンツを生成する。文章生成(FBMG)は、コンテンツ生成(FBCG)において、データ読み込み(FBDR)によって取得したデータからフィードバックに必要な文章を生成する。画像生成(FBIG)は、コンテンツ生成(FBCG)において、データ読み込み(FBDR)によって取得したデータからフィードバックに必要な画像を生成する。データ送信(FBDS)は、コンテンツ生成(FBCG)の出力結果をユーザが望む提示方法(メール、Web等)によって、データを送信する。記録部(FBME)は、制御部(FBCO)で行なわれる処理に必要なデータを記録している。無線・有線通信部(FBSR)は、アプリケーションサーバ(AS)への通信や、携帯電話網、インターネット網との接続を無線・有線で接続する機能を有している。
PCログ入力部(PLPI)は、ユーザのパソコン(PC)の操作履歴をセンサネットサーバ(SS)に送信するための機構である。PCログ入力部(PLPI)は、制御部(PLCO)、記録部(PLME)、無線・有線通信部(PLSR)で構成されている。制御部(PLCO)内でのそれぞれの処理について述べる。
時計(PLCK)は、現在の時刻を保持している。ユーザリスト(PLUL)は、PCの操作履歴の取得を行なうユーザ名とPCログの取得方法が記載されているリストである。コンテンツリスト(PLCL)は、PCの操作履歴の取得方法として、Web経由での取得、また、メールベースの取得など複数あり、それぞれの内容を提示するまでの手順が格納されている。取得方法選択(PLAS)は、ユーザリスト(PLUL)とコンテンツリスト(PLCL)からの指示によって、どの方法でログを取得するかを選択する。Web生成(PLWG)は、Webを経由してPCログを取得するために必要な文章や画像が記載されている。メール生成(PLMG)は、メールを経由してPCログを取得するために必要な文章が記載されている。記録登録(PLMR)は、ユーザから送られてきたPCログをチェックし、無線・有線通信部(PLSR)経由にて、センサネットサーバ(SS)に送信する。ユーザチェック(PLUC)は、入手したデータが該当するユーザのものであるのかをチェックする。日付チェック(PLDC)は、入手したデータが該当する日付のものであるのかをチェックする。記録部(PLME)は、制御部(PLCO)で行なわれる処理に必要なデータを記録している。無線・有線通信部(PLSR)は、センサネットサーバ(SS)への通信や、携帯電話網、インターネット網との接続を無線・有線で接続機能する機能を有している。
パフォーマンス入力部(PMPI)は、ユーザの主観評価をアンケートという形で、ユーザのパフォーマンスを取得し、それをセンサネットサーバ(SS)に送信する機構である。パフォーマンス入力部(PMPI)は、制御部(PMCO)、記録部(PMME)、無線・有線通信部(PMSR)で構成されている。制御部(PMCO)内でのそれぞれの処理について述べる。ユーザリスト(PMUL)は、ユーザのパフォーマンスとして取得を行なうユーザ名とパフォーマンスの取得方法が記載されているリストである。時計(PMCK)は、現在の時刻を保持している。パフォーマンスリスト(PMCL)は、ユーザの主観評価の複数の計測方法、それぞれの内容のアンケートの提示方法、その結果のアプリケーションサーバ(AS)への送信方法、までの手順を記載している。取得方法選択(PMAS)は、ユーザリスト(PMUL)とパフォーマンスリスト(PMCL)からの指示によって、どの方法でパフォーマンスを取得するかを選択する。Web生成(PMWG)は、Webを経由してパフォーマンスを取得するために必要な文章や画像が記載されている。メール生成(PMMG)は、メールを経由してパフォーマンスを取得するために必要な文章が記載されている。提示(PMPS)は取得方法選択(PMAS)で作成したアンケートを無線・有線通信部(PMSR)を経由し、ユーザに提示する。記録登録(PMMR)は、ユーザから送られてきたパフォーマンスをチェックし、無線・有線通信部(PMSR)を経由で、センサネットサーバ(SS)に送信する。ユーザチェック(PMUC)は、入手したデータが該当するユーザのものであるのかをチェックする。日付チェック(PMDC)は、入手したデータが該当する日付のものであるのかをチェックする。記録部(PMME)は、制御部(PMCO)で行なわれる処理に必要なデータを記録している。無線・有線通信部(PMSR)は、センサネットサーバ(SS)への通信や、携帯電話網、インターネット網との接続を無線・有線で接続機能する機能を有している。
センサネットサーバ(SS)は、端末(TR)から基地局(GW)経由で送られてきたセンサデータを記録部(SSME)内のセンシングデータベース(SSDB)に保存する。センサデータを記録部(SSME)は、さらに、PCログデータベース(SSPL)とパフォーマンスデータベース(SSPM)を有する。PCログデータベース(SSPL)はPCログ入力部(PLPI)から送られてきたデータを格納するデータベースであり、パフォーマンスデータベース(SSPM)はパフォーマンス入力部(PMPI)から送られてきたデータを格納するデータベースである。
図12は、図11の構成によって実現されるフィードバックの利用イメージである。以下に、一連の流れを説明する。ユーザが持っている端末(TR)から取得したセンサ情報は基地局(GW)経由し、センサネットサーバ(SS)に送信される。また、ユーザの主観評価であるパフォーマンスはパフォーマンス入力部(PMPI)経由で、PCの操作履歴はPCログ入力部(PLPI)を経由して、センサネットサーバ(SS)に送信される。そして、これらのデータを用いて、アプリケーションサーバ(AS)にて解析が行なわれる。フィードバック部(FBPI)にて、アプリケーションサーバ(AS)の解析結果をもとに、ユーザへのフィードバックを行なう。フィードバックの方法は複数あり、電子メールを用いたフィードバック(FBMS)、Web、スクリーンセイバを用いたフィードバック(FBIS)、端末(TR)への配信によるフィードバックがある。ユーザはフィードバックの内容を携帯電話やクライアント(CR)上で確認を行う。
図13は、フィードバック部(FBPI)で行なわれる処理をシーケンス図で図示したものである。この処理では、アプリケーションサーバ(AS)、フィードバック部(FBPI)によって、フィードバックが特定の時刻に電子メールでクライアントユーザ(US)に配信される処理の例を示す。
フィードバック部(FBPI)にて、予め設定した開始時刻になると、タイマ起動(FB2T)よって処理が起動する。
内容選択(FB2S)は、コンテンツ選択(FBCS)で行なわれる処理である。具体的には、フィードバックの該当者をユーザリスト(FBUL)から選択し、そのユーザが希望するフィードバック方法の手順をコンテンツリスト(FBCL)から選択して、出力する。フィードバックの内容や提示方法は、予めユーザもしくは管理者によって決定され、この内容はコンテンツリスト(FBUL)に手順として登録されているものとする。
データ取得依頼送信(FB2A)は、データ読み込み(FBDR)で行なわれる処理である。具体的には、内容選択(FB2S)で取得されたユーザ名とコンテンツを作成するのに必要なセンサデータの取得を、アプリケーションサーバ(AS)に依頼する。
依頼を受信したアプリケーションサーバ(AS)の、データ取得依頼受信(AS2R)では、無線・有線通信部(FBSR)から送信したユーザ名と希望するデータ名を送受信部(ASSR)で受信する。
次にデータ検索(AS2S)では、アプリケーションサーバ(AS)は、データ依頼受信(AS2R)から受信したユーザ名とデータ名を検索キーとして、該当するデータを検索し、データを取得する。
有無チェック(AS2C)では、アプリケーションサーバ(AS)は、データ検索(AS2S)の出力であるデータをチェックする。その結果、データが欠けている場合、その部分を解析(AS2A)し、データが欠けていない場合、データ送信(AS2E)をする。
解析(AS2A)では、アプリケーションサーバ(AS)は、ユーザ名と欠けている時間を指定し、解析を行なう。
データ送信(AS2E)では、アプリケーションサーバ(AS)によって得られたデータをフィードバック部(FB)の無線・有線通信部(FBSR)に対して送信する。
データ受信(FB2R)では、送受信部(ASSR)から送信した希望したデータを送受信部(FBSR)で受信する。
フィードバック部(FBPI)でのデータ確認(FB2C)は、データチェック(FBDC)で行なわれる処理である。アプリケーションサーバ(AS)によって得られたセンサデータにエラーが含まれているかどうかのチェックを行なう。
画面・文章生成(FB2G)は、コンテンツ生成(FBCG)で行なわれる処理であり、コンテンツ選択(FBCS)内の内容選択(FB2S)で行なわれたコンテンツ生成手順に従って、もし、メール文章生成ならばメール生成(FBMG)、画像ならば画像生成(FBIG)によってコンテンツを作成する。
メール生成(FBMG)で作成したメールの例を図14に示す。図14のフィードバックメール(FM)は、日々の活動内容を文字で示している図である。分析日におけるセンサデータから活動時間、対面時間の長かった相手のランキングリストを表示している。このように、アプリケーションサーバ(AS)から得たデータとコンテンツリスト(FBCL)を用いることによって、フィードバックコンテンツを作成する。提示(FB2P)は、データ送信(FBDS)によって行なわれる処理であり、内容選択(FB2S)によって指定されたユーザ名とコンテンツ提示方法を用いて、ユーザに提示する。提示方法はユーザリスト(FBUL)に記載されており、メールでの提示、Webでの提示、また、スクリーンセイバによる提示等の提示方法が可能である。さらに、フィードバック結果の送信先を端末(TR)と指定することも可能であり、その際の送信先はセンサネットサーバ(SS)となる。また、フィードバックを受信するタイミングを、ユーザが予め設定しておくのではなく、ユーザが任意の時点でフィードバックを要求して取得することも可能である。この場合には、図13に示すように、ユーザクライアント(US)にてユーザが内容選択(US2S)を行う。内容選択(US2S)では、ユーザが、ユーザ名、コンテンツの選択、及び、コンテンツ提示方法を選択し、その結果をフィードバック部(FBPI)に送信することで、フィードバック処理が実行される。
以上、日々の状況をユーザに提示するフィードバック処理についての説明行なった。このフィードバック処理によって、ユーザが、自分の状況を理解・反省し、その後の思考や行動を考えることを誘発させることが可能となる。上記で説明したように、ユーザの提示の仕組みとしては、ユーザの嗜好性に沿ったものが相応しく、時間、分析内容、提示方法などの変更が可能である。
次に、本発明の第4の実施形態について説明する。
実施例3では、フィードバックを実現するための仕組みとメールを使用したフィードバックの例について述べた。本実施例では、別のフィードバックのコンテンツとして、画像を用いたフィードバックの例について説明する。
図15は画像におけるフィードバックの例であり、あるグループの業務においての、リスク(不確実性)と進捗(RP)を示した図である。リスクとは終了予定日にタスクを終了できるかというリスクを数値化したものであり、進捗とはメンバの業務に関する値である。これをユーザに見せることによって、自らの行動の見直しを促すことができる。画像(RI01)は、各ユーザを特定する固有の画像である。自分の顔写真などの絵を掲載しておくことが好ましい。
ラッキーカラー(RI02)は、各ユーザの行動の特徴量のうち、業務上の成果を出すにあたってもっとも効果が高いと思われる行動の特徴量に対して割り当てられた色(ラッキーカラー)を表示する。特徴量として、組織内の対話時間や対話人数、歩行時間、PC操作時間、歩行頻度、発話、対話相手、活性度、温度、赤外線センサの検出頻度、センサ信号のフーリエ変換後のスペクトラム値、センサ信号のゼロクロス値などがあげられる。なお、図15には、色の代わりにハッチングを表示している。ラッキーカラーの選択方法について以下に説明する。各ユーザに対して、図1の個人特徴量抽出(EA13)を用いて特徴量を抽出する。その際には、パフォーマンスが登録されている日付の特徴量を用いる。パフォーマンスが登録されていない日付のものは用いない。あらかじめ特徴量毎に色を割り当てておく必要がある。例えば、特徴量1は赤、特徴量2は青というように決めておく。
さらに、図16のようなアンケートを行ない、これをパフォーマンス入力部(PMPI)に代入する。図16の例で示しているパフォーマンス主観アンケート(PU)はユーザの行動を5つの観点から評価する。ユーザは、それぞれの項目に対して、5段階評価を行なう(1は最も評価が低く、5が最も評価が高い)。アンケートの中から1つの項目を選択し、その1つの特徴量を用いて分析を行なう。
次に、分析方法について説明する。例えば、ユーザのアンケート評価が高いときに値が高く、ユーザのアンケートの評価が低いときに値が低い値を示す特徴量を1つ導き出し、それをユーザのラッキーカラー(RI02)に指定する。この値を求めるためには、判別分析、回帰分析など、公知の解析手法である多変量解析を用いても構わない
行動グラフ(RI03)は日々の個人の状況をグラフ化したものである。ここではパフォーマンスは用いず、ラッキーカラー(RI02)を求めるために用いた分析と最新時刻のセンサデータから求めた特徴量を用いて分析を行なう。そして、センサデータを取得した時刻の箇所に特徴量をプロットする。
この結果、グラフの値が低いとラッキーカラーで示した特徴量が低いため、行動が芳しくないと判断することができる。その際に、特徴量として一番高かった値を、あらかじめ決めていた特徴量を示す色を選択し、これを現在のカラーとしてRI04に表示する。
予想終了日表(RI06)は図17のアンケートの集計結果を表示する。このアンケートは、パフォーマンス行動アンケート(PK)と呼ばれる。ユーザは、パフォーマンス主観アンケート(PU)と同じように、日々のアンケート入力によって各項目に回答する。パフォーマンス行動アンケート(PK)はパフォーマンス入力部(PMPI)に代入される。その現在日時とベスト、ワーストの日時のから終了実現可能度合いを求め、これをリスクとして表示する。求め方として、例えば、ワーストとベストに日時が離れているほど曖昧であると仮定し、リスクが高いと判定する。よって、その区間にある係数を掛け合わせたものをリスクの値とする。
予想終了日表(RI06)は現在の状況であるが、過去にさかのぼってリスク値を表示したグラフをリスクグラフ(RI05)で示す。
このように、ユーザはリスク(不確実性)と進捗を示した図を見ることによって、自らの行動の見直しを促すことができる。さらに、特徴量毎に色を決めておくことで、パフォーマンスと特徴量から自分のラッキーカラーを求めることができる。このラッキーカラーによるフィードバックによって、自分がどのように行動すべきなのかをわかりやすく判断することができる。
図18はフィードバック内容の別の表示例である。図15はフィードバック内容として各ユーザに対して1つの項目をフィードバックする例を示したが、図18では複数の項目を同時に表示することができる。図18では、「体」と「心」の満足度合いを示すレーダーチャートである。
図18を作成するためには、図15と同じように、特徴量毎にあらかじめ色を決めておく必要がある。図18では、レーダーチャートの中心を自分とし、同心円上に特徴量である色図をプロットする。そして、中心と色図を線で結び、中心の方が小さい値になるように、値をプロットし、プロットした点同士を結ぶ。
次に、図15のラッキーカラー(RI02)を求めた手法を用いて、例えば「体」のラッキーカラー(KK02)を求める。そして、複数個の満足度合いを図示するために、区別を行なう必要があり、例えば、それを色図のまわりのフレームを用いている。例えば、「体」のラッキーカラー(KK02)では、特徴量2であり、特徴量2の色図のまわりを破線で囲んでいる。そして、日々の状況に対して、行動グラフ(RI03)と同じように求めプロットする。各特徴量に対して、5段階で判定し、現在の状況をプロットする。5段階では1が不満足、5が満足とし、それぞれの特徴量において値の大きさを表示する。
このように複数個のラッキーカラーを表示するためには、それぞれを識別するものが必要であり、図18の例では、色図のまわりのフレームであったが、識別する方法としては、異なるアイコンや文字を使用することもできる。
最後に、図19に、組織内のメンバに対して、誰に影響を与え、誰の影響を受けているのかを組織影響マップ(KL)として示すフィードバック例である。図19に示す例では、レーダーチャートの中心を自分(A)とし、同心円上に他のメンバ(B〜I)をプロットし、自分とメンバとの影響度合いを示している。自分(A)とメンバを線で結び、その線の中心を0とし、影響を与えている場合ならば正の値を、影響を受けている場合には負の値をプロットし、プロットした点同士を結線する。
この影響度合いの求め方は、はじめに、メンバ全員の個人特徴量(EA12)の相関係数(図1に示す)を求め、縦横の個数がメンバ数となるような相関行列を作成する。相関行列は対称行列となるため、2者間の相関は同じ値となる。各ユーザに対して固有の係数を求め、その係数の値を2者間の相関値に掛け合わせることで、両者間の影響を求める。例えば、活動時間が長いユーザほど他のユーザに与える影響は大きくなると仮定すると、各ユーザの取得時間を求め、それをユーザ固有の係数とする。この係数の値は任意に決められるが、相関行列から影響を求めるためには何らかの係数が必要となる。そして、両者の相関値に対してそれぞれ係数を掛け合わせ、両者の影響を求める。影響度は、両者の影響の値の比較(例えば、影響値の差分)によって求める。ユーザ間の影響度は、上記以外の方法、例えば、判別分析又は回帰分析など、公知の解析手法である多変量解析によって求めてもよい。
このように、加速度の動きの相関行列を用いて、影響度として組織の状態を可視化することによって、組織内の現状を可視化することが可能となる。
さらに、特徴量として、メンバ全員の個人特徴量(EA12)の相関係数(図1に示す)の代わりに、メンバ全員のパフォーマンス(パフォーマンス行動アンケート(PK)、パフォーマンス主観アンケート(PU)などの主観評価値)との相関係数を用いてもよい。
以上、画像を用いた可視化手法によってフィードバックを行う例について述べた。フィードバックを画像で行う利点は、それを見たユーザが一見して大量の情報を取得できることである。例えば、パフォーマンスとセンサデータから特定の色(ラッキーカラー)を導き出すことによって、自分がどのように行動すべきなのかをわかりやすく提示することができる。さらに、加速度の動き特徴量から影響度という組織の状態を可視化する係数を求めることによって、組織内業務の依存関係を可視化することができる。
なお、上記の第3及び第4の実施の形態には、動き特徴量と色とを対応付ける例を示した。しかし、色、図形、模様、記号又はそれらの組み合わせ等、いかなるシンボルが動き特徴量と対応付けられてもよい。その場合、図12、図15及び図18において、各特徴量と対応付けられたシンボルが色の代わりに表示される。
本発明の第1の実施の形態において実行される処理の全体の流れを示す説明図である。 本発明の第1の実施の形態のビジネス顕微鏡システムを実現するセンサネットシステムの全体構成を説明するブロック図である。 本発明の第1の実施の形態において実行される、端末が取得したデータに基づいて、組織における人物間の関係性を表示する処理の手順を示すシーケンス図である。 本発明の第1の実施の形態において実行されるアソシエイト及び時刻同期の手順を説明するシーケンス図である。 本発明の第1の実施の形態において赤外線データを無線送信するための赤外線データフォーマットの説明図である。 本発明の第1の実施の形態において加速度データを無線送信するための加速度データフォーマットの説明図である。 本発明の第1の実施の形態において音声データを無線送信するための音声データフォーマットの説明図である。 本発明の第1の実施の形態のセンシングデータベースの具体例の説明図である。 本発明の第1の実施の形態の結合テーブルの具体例の説明図である。 本発明の第1の実施の形態における組織アクティビティ解析及び組織アクティビティ表示の処理の一例を示す説明図である。 本発明の第2の実施の形態における組織アクティビティ解析及び組織アクティビティ表示の処理の一例を示す説明図である。 本発明の第2の実施の形態における組織アクティビティ解析及び組織アクティビティ表示の処理の一例を示す説明図である。 本発明の第3の実施の形態おいて実行される処理の全体の流れを示す説明図である。 本発明の第3の実施の形態の利用シーンを示す図である。 本発明の第3の実施の形態おいてフィードバック処理の手順を示すシーケンス図である。 本発明の第3の実施の形態におけるフィードバックメールの例である。 本発明の第4の実施の形態におけるフィードバック画像の例である。 本発明の第4の実施の形態におけるパフォーマンスアンケートの例である。 本発明の第4の実施の形態におけるパフォーマンスアンケートの例である。 本発明の第4の実施の形態におけるフィードバック画像の例である。 本発明の第4の実施の形態におけるフィードバック画像の例である。
符号の説明
TR 端末
GW 基地局
NW ネットワーク
SS センサネットサーバ
AS アプリケーションサーバ
CL クライアント

Claims (27)

  1. 複数の端末と、前記複数の端末と通信して前記複数の端末を管理する端末管理装置と、前記複数の端末から送信されたデータを処理する処理装置と、を含むセンサネットシステムであって、
    前記各端末は、物理量を検出するセンサと、データ送信部と、時刻を保持する端末時計部と、を備え、
    前記データ送信部は、前記センサが検出した物理量と、前記端末時計部から取得された、前記物理量が検出された時刻と、を示すデータを送信し、
    前記端末管理装置は、前記データを受信するデータ受信部と、前記端末管理装置と前記端末管理装置にデータを送信する端末とが通信するネットワークを確立する処理を実行するアソシエイト判定部と、時刻を保持する端末管理時計部と、前記センサネットシステムの外部に保持される標準時刻に前記端末管理時計部の時刻を同期する時刻同期部と、を備え、
    前記各端末が所定のコマンドを送信し、前記所定のコマンドを受信した端末管理装置の前記アソシエイト判定部が、前記各端末と前記端末管理装置とが通信するネットワークを確立する処理を実行した後に、前記各端末は、前記端末時計部が保持する時刻を前記端末管理時計部が保持する時刻に同期させる時刻同期を実行し、
    前記処理装置は、第1の前記端末から送信されたデータ及び第2の前記端末から送信されたデータに基づいて、前記第1の端末を装着した第1の人物と、前記第2の端末を装着した第2の人物との関係を示す値を算出することを特徴とするセンサネットシステム。
  2. 請求項1において、
    前記処理装置は、前記各端末から送信されたデータに含まれる時刻に基づいて、同時刻に検出された前記物理量を含む前記第1の端末から送信されたデータと前記第2の端末から送信されたデータとを関連付けることによって、前記第1の端末と前記第2の端末との対面を示す情報と、前記第1の端末の動きを示す情報と、前記第2の端末の動きを示す情報と、を関連付けて処理することを特徴とするセンサネットシステム。
  3. 請求項2において、
    前記センサは、前記物理量として加速度を検出することを特徴とするセンサネットシステム。
  4. 請求項3において、
    前記処理装置は、前記各端末から送信されたデータに含まれる時刻に基づいて、各時間帯に前記第1の端末が備える前記センサが検出した加速度の周波数分布と、前記各時間帯と同一の時間帯に前記第2の端末が備える前記センサが検出した加速度の周波数分布とを比較することを特徴とするセンサネットシステム。
  5. 請求項4において、
    前記処理装置は、
    前記センサが或る検出時点で検出した加速度の値とその次の検出時点で検出した加速度の値とで正負が逆転している2つの検出時点の対の数を計数し、
    前記計数された回数に基づいて、前記加速度の値がゼロとなる頻度を算出し、
    前記算出された頻度を加速度の周波数として使用することによって、前記センサが検出した加速度の周波数分布を算出することを特徴とするセンサネットシステム。
  6. 請求項2において、
    前記センサは、前記物理量として音声を検出することを特徴とするセンサネットシステム。
  7. 請求項1において、
    前記各端末は、さらに、前記各端末の識別子を含む無線信号を送信する無線送信部を備え、
    前記各端末が備える前記センサは、他の前記端末から送信された前記無線信号を検出し、
    前記各端末から送信されたデータは、前記各端末が検出した前記無線信号に含まれる前記端末の識別子と、前記識別子によって識別される前記端末から送信された前記無線信号を検出した回数を示す情報と、を含み、
    前記処理装置は、前記第1の端末が前記第2の端末から送信された前記無線信号を検出した回数が多いほど、前記第1の人物と前記第2の人物との関係が強いことを示すように、前記第1の人物と前記第2の人物との関係を示す値を算出することを特徴とするセンサネットシステム。
  8. 請求項1において、
    前記センサネットシステムは、さらに、前記各人物を示す画像を表示する画像表示装置を含み、
    前記処理装置は、さらに、第3の前記端末から送信されたデータ及び第4の前記端末から送信されたデータに基づいて、前記第3の端末を装着した第3の前記人物と、前記第4の端末を装着した第4の前記人物との関係を示す値を算出し、
    前記画像表示装置は、前記第1の人物と前記第2の人物との関係を示す値が、前記第3の人物と前記第4の人物との関係を示す値と異なる場合、前記第1の人物を示す画像と前記第2の人物を示す画像との距離が、前記第3の人物を示す画像と前記第4の人物を示す画像との距離と異なるように、前記各人物を示す画像を表示することを特徴とするセンサネットシステム。
  9. 請求項8において、
    前記画像表示装置は、前記第1の人物と前記第2の人物との関係を示す値が、前記第3の人物と前記第4の人物との関係を示す値より強い関係を示す場合、前記第1の人物を示す画像と前記第2の人物を示す画像との距離が、前記第3の人物を示す画像と前記第4の人物を示す画像との距離より小さくなるように、前記各人物を示す画像を表示することを特徴とするセンサネットシステム。
  10. 請求項1において、
    前記センサネットシステムは、さらに、前記各人物を示す画像を表示する画像表示装置を含み、
    前記処理装置は、さらに、第3の前記端末から送信されたデータ及び第4の前記端末から送信されたデータに基づいて、前記第3の端末を装着した第3の前記人物と、前記第4の端末を装着した第4の前記人物との関係を示す値を算出し、
    前記画像表示装置は、
    前記第1の人物を示す画像と前記第2の人物を示す画像とを結合する第1の線を表示し、
    前記第2の人物を示す画像と前記第4の人物を示す画像とを結合する第2の線を表示し、
    前記第1の人物と前記第2の人物との関係を示す値が、前記第3の人物と前記第4の人物との関係を示す値と異なる場合、前記第1の線の太さが前記第2の線の太さと異なるように、前記第1及び第2の線を表示することを特徴とするセンサネットシステム。
  11. 請求項10において、
    前記画像表示装置は、
    前記第1の人物と前記第2の人物との関係を示す値が、前記第3の人物と前記第4の人物との関係を示す値より強い関係を示す場合、前記第1の線が前記第2の線より太くなるように、前記第1及び第2の線を表示することを特徴とするセンサネットシステム。
  12. 複数の端末と、前記複数の端末と通信して前記複数の端末を管理する端末管理装置と、前記複数の端末から送信されたデータを処理する処理装置と、を含むセンサネットシステムを制御する方法であって、
    前記各端末は、センサと、データ送信部と、時刻を保持する端末時計部と、を備え、
    前記端末管理装置は、前記データを受信するデータ受信部と、前記端末管理装置と前記端末管理装置にデータを送信する端末とが通信するネットワークを確立する処理を実行するアソシエイト判定部と、時刻を保持する端末管理時計部と、前記センサネットシステムの外部に保持される標準時刻に前記端末管理時計部の時刻を同期する時刻同期部と、を備え、
    前記方法は、
    前記各端末が所定のコマンドを送信し、前記所定のコマンドを受信した端末管理装置の前記アソシエイト判定部が、前記各端末と前記端末管理装置とが通信するネットワークを確立する処理を実行した後に、前記各端末が、前記端末時計部が保持する時刻を前記端末管理時計部が保持する時刻に同期させる時刻同期を実行し、
    前記各端末のセンサが物理量を検出し、
    前記各端末のデータ送信部が、前記センサが検出した物理量と、前記端末時計部から取得された、前記物理量が検出された時刻と、を示すデータを送信し、
    前記処理装置が、第1の前記端末から送信されたデータ及び第2の前記端末から送信されたデータに基づいて、前記第1の端末を装着した第1の人物と、前記第2の端末を装着した第2の人物との関係を示す値を算出することを特徴とする方法。
  13. 請求項12において、
    前記処理装置は、前記各端末から送信されたデータに含まれる時刻に基づいて、同時刻に検出された前記物理量を含む前記第1の端末から送信されたデータと前記第2の端末から送信されたデータとを関連付けることによって、前記第1の端末と前記第2の端末との対面を示す情報と、前記第1の端末の動きを示す情報と、前記第2の端末の動きを示す情報と、を関連付けて処理することを特徴とする方法。
  14. 請求項13において、
    前記センサは、前記物理量として加速度を検出することを特徴とする方法。
  15. 請求項14において、
    前記処理装置は、前記各端末から送信されたデータに含まれる時刻に基づいて、各時間帯に前記第1の端末が備える前記センサが検出した加速度の周波数分布と、前記各時間帯と同一の時間帯に前記第2の端末が備える前記センサが検出した加速度の周波数分布とを比較することを特徴とする方法。
  16. 請求項15において、
    前記処理装置は、
    前記センサが或る検出時点で検出した加速度の値とその次の検出時点で検出した加速度の値とで正負が逆転している2つの検出時点の対の数を計数し、
    前記計数された回数に基づいて、前記加速度の値がゼロとなる頻度を算出し、
    前記算出された頻度を加速度の周波数として使用することによって、前記センサが検出した加速度の周波数分布を算出することを特徴とする方法。
  17. 請求項13において、
    前記センサは、前記物理量として音声を検出することを特徴とする方法。
  18. 請求項12において、
    前記各端末は、さらに、前記各端末の識別子を含む無線信号を送信する無線送信部を備え、
    前記各端末が備える前記センサは、他の前記端末から送信された前記無線信号を検出し、
    前記各端末から送信されたデータは、前記各端末が検出した前記無線信号に含まれる前記端末の識別子と、前記識別子によって識別される前記端末から送信された前記無線信号を検出した回数を示す情報と、を含み、
    前記方法は、前記処理装置が、前記第1の端末が前記第2の端末から送信された前記無線信号を検出した回数が多いほど、前記第1の人物と前記第2の人物との関係が強いことを示すように、前記第1の人物と前記第2の人物との関係を示す値を算出することを特徴とする方法。
  19. 請求項12において、
    前記センサネットシステムは、さらに、前記各人物を示す画像を表示する画像表示装置を含み、
    前記方法は、さらに、
    前記処理装置が、第3の前記端末から送信されたデータ及び第4の前記端末から送信されたデータに基づいて、前記第3の端末を装着した第3の前記人物と、前記第4の端末を装着した第4の前記人物との関係を示す値を算出し、
    前記第1の人物と前記第2の人物との関係を示す値が、前記第3の人物と前記第4の人物との関係を示す値と異なる場合、前記第1の人物を示す画像と前記第2の人物を示す画像との距離が、前記第3の人物を示す画像と前記第4の人物を示す画像との距離と異なるように、前記画像表示装置が、前記各人物を示す画像を表示することを特徴とする方法。
  20. 請求項12において、
    前記センサネットシステムは、さらに、前記各人物を示す画像を表示する画像表示装置を含み、
    前記方法は、さらに、
    前記処理装置が、第3の前記端末から送信されたデータ及び第4の前記端末から送信されたデータに基づいて、前記第3の端末を装着した第3の前記人物と、前記第4の端末を装着した第4の前記人物との関係を示す値を算出し、
    前記画像表示装置が、前記第1の人物を示す画像と前記第2の人物を示す画像とを結合する第1の線を表示し、
    前記画像表示装置が、前記第2の人物を示す画像と前記第4の人物を示す画像とを結合する第2の線を表示し、
    前記第1の人物と前記第2の人物との関係を示す値が、前記第3の人物と前記第4の人物との関係を示す値と異なる場合、前記第1の線の太さが前記第2の線の太さと異なるように、前記画像表示装置が、前記第1及び第2の線を表示することを特徴とする方法。
  21. 請求項12において、
    前記処理装置は、前記第1の端末及び前記第2の端末を含む前記複数の端末から送信されたデータに基づいて、前記複数の端末を装着した複数の人物の相互の関係を示す値を算出し、前記算出された値をマトリクス形式で出力することを特徴とする方法。
  22. 請求項8において、
    前記第1の人物と前記第2の人物との関係を示す値が、所定の閾値が示す関係より強い関係を示し、前記第3の人物と前記第4の人物との関係を示す値が、前記所定の閾値が示す関係より強い関係を示さない場合、前記画像表示装置は、
    前記第1の人物及び前記第2の人物を含む第1のグループを示す画像、及び、前記第3の人物及び前記第4の人物を含む第2のグループを示す画像を表示し、
    前記第1のグループを示す画像は、前記第2のグループを示す画像が含まないシンボルを含み、
    前記シンボルは、色彩、模様、図形、記号又はそれらの二つ以上の組み合わせ、及び、前記第1の人物と前記第2の人物との関係を示す文字画像の少なくとも一方であることを特徴とするセンサネットシステム。
  23. 請求項8において、
    前記処理装置は、
    前記第1の人物と前記第1の人物以外の各人物との関係を示す値に基づいて、前記第1の人物と前記第1の人物以外の人物との関係の強さを算出し、
    前記第2の人物と前記第2の人物以外の各人物との関係を示す値に基づいて、前記第2の人物と前記第2の人物以外の人物との関係の強さを算出し、
    前記第1の人物と前記第1の人物以外の人物との関係が、前記第2の人物と前記第2の人物以外の人物との関係より強い場合、前記第1の人物を示す画像は、前記第2の人物を示す画像が含まないシンボルを含み、
    前記シンボルは、色彩、模様、図形、記号又はそれらの二つ以上の組み合わせ、及び、前記第1の人物と前記第1の人物以外の人物との関係を示す文字画像の少なくとも一方であることを特徴とするセンサネットシステム。
  24. 請求項1において、
    前記センサネットシステムは、さらに、前記各人物を示す画像を表示する画像表示装置を含み、
    前記処理装置は、さらに、
    前記各端末から送信されたデータに基づいて、前記各人物の行動の特徴量を算出し、
    前記算出された行動の特徴量に基づいて、前記各人物の行動を分類し、
    前記分類された前記各人物の行動の特徴量を示す情報を前記各人物に通知し、
    前記各人物に通知されるべき特徴量、前記通知のタイミング及び前記通知の方法の少なくとも一つを指定する情報を取得し、
    前記取得した情報が前記各人物に通知されるべき特徴量を指定する場合、前記取得した情報によって指定された特徴量を示す情報を前記各人物に通知し、
    前記取得した情報が前記通知のタイミングを指定する場合、前記取得した情報によって指定されたタイミングに、前記通知を実行し、
    前記取得した情報が前記通知の方法を指定する場合、前記取得した情報によって指定された方法によって、前記通知を実行し、
    前記特徴量を示す情報の前記各人物への通知は、前記特徴量を示す情報を含む電子メールを前記各人物に対応するアドレスに送信すること、又は、前記特徴量を示す情報を、前記センサネットシステムに含まれる画像表示装置に表示させること、のいずれかの方法によって実行されることを特徴とするセンサネットシステム。
  25. 請求項1において、
    前記センサネットシステムは、さらに、前記各人物を示す画像を表示する画像表示装置を含み、
    前記処理装置は、さらに、
    前記各端末から送信されたデータに基づいて、前記各人物の行動の特徴量を算出し、
    前記算出された行動の特徴量に基づいて、前記各人物の行動を分類し、
    前記画像表示装置は、前記分類された前記各人物の行動の特徴量と対応付けられたシンボルを表示し、
    前記処理装置は、さらに、
    前記各人物のパフォーマンスを示す情報を取得し、
    前記分類された前記各人物の行動の特徴量と前記取得した前記各人物のパフォーマンスとの相関を算出し、
    前記画像表示装置は、さらに、前記算出された相関が最も高い前記分類された前記各人物の行動の特徴量に対応付けられた前記シンボルを表示し、
    前記シンボルは、色彩、模様、図形、記号又はそれらの二つ以上の組み合わせを含むことを特徴とするセンサネットシステム。
  26. 請求項1において、
    前記センサネットシステムは、さらに、前記各人物を示す画像を表示する画像表示装置を含み、
    前記処理装置は、さらに、
    前記各端末から送信されたデータに基づいて、前記各人物の行動の特徴量を算出し、
    前記算出された前記各人物の行動の特徴量の相関を算出し、
    前記算出された相関に所定の係数を乗じることによって、前記各人物の間の影響度を算出し、
    前記画像表示装置は、前記算出された影響度を表示することを特徴とするセンサネットシステム。
  27. 請求項1において、
    前記処理装置は、前記第1の端末及び前記第2の端末を含む前記複数の端末から送信されたデータに基づいて、前記複数の端末を装着した複数の人物の相互の関係を示す値を算出し、前記算出された値をマトリクス形式で出力することを特徴とするセンサネットシステム。
JP2007164112A 2007-01-31 2007-06-21 ビジネス顕微鏡システム Active JP5160818B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007164112A JP5160818B2 (ja) 2007-01-31 2007-06-21 ビジネス顕微鏡システム
US12/022,630 US20080183525A1 (en) 2007-01-31 2008-01-30 Business microscope system
US15/644,024 US20170308853A1 (en) 2007-01-31 2017-07-07 Business microscope system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007021156 2007-01-31
JP2007021156 2007-01-31
JP2007164112A JP5160818B2 (ja) 2007-01-31 2007-06-21 ビジネス顕微鏡システム

Publications (2)

Publication Number Publication Date
JP2008210363A JP2008210363A (ja) 2008-09-11
JP5160818B2 true JP5160818B2 (ja) 2013-03-13

Family

ID=39786574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007164112A Active JP5160818B2 (ja) 2007-01-31 2007-06-21 ビジネス顕微鏡システム

Country Status (1)

Country Link
JP (1) JP5160818B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014232554A (ja) * 2014-09-18 2014-12-11 株式会社日立製作所 業務向上支援システムおよび業務向上支援方法
US11330449B2 (en) 2020-02-18 2022-05-10 Toyota Jidosha Kabushiki Kaisha Communication system, control method, and non-transitory computer readable medium storing control program
US11469875B2 (en) 2019-11-22 2022-10-11 Toyota Jidosha Kabushiki Kaisha Communication system and control method
US11943574B2 (en) 2020-11-04 2024-03-26 Toyota Jidosha Kabushiki Kaisha Information processing system, information processing method, and non-transitory computer readable medium storing program

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009355A (ja) * 2007-06-28 2009-01-15 Hitachi Ltd 組織コミュニケーション可視化システム
JP5025800B2 (ja) * 2008-10-17 2012-09-12 株式会社日立製作所 グループ可視化システム及びセンサネットワークシステム
US20110295655A1 (en) * 2008-11-04 2011-12-01 Hitachi, Ltd. Information processing system and information processing device
JP2010117875A (ja) * 2008-11-13 2010-05-27 Hitachi High-Technologies Corp 組織分析システム
JP2010198261A (ja) * 2009-02-25 2010-09-09 Hitachi Ltd 組織連携表示システム及び処理装置
JP5372557B2 (ja) * 2009-03-13 2013-12-18 株式会社日立製作所 知識創造行動分析システム、及び、処理装置
US9058587B2 (en) 2009-04-03 2015-06-16 Hitachi, Ltd. Communication support device, communication support system, and communication support method
JP5372588B2 (ja) * 2009-04-24 2013-12-18 株式会社日立製作所 組織評価装置および組織評価システム
JP5267995B2 (ja) * 2009-05-15 2013-08-21 独立行政法人情報通信研究機構 会話グループ把握装置、会話グループ把握方法、及びプログラム
WO2011070831A1 (ja) * 2009-12-11 2011-06-16 株式会社日立製作所 生活パターン分類装置及び生活パターン分類システム
JP5662993B2 (ja) * 2010-02-22 2015-02-04 株式会社日立製作所 情報処理システム、およびサーバ
JP5768813B2 (ja) * 2010-06-18 2015-08-26 日本電気株式会社 知的生産性計測装置、知的生産性計測方法およびプログラム
JP5304752B2 (ja) * 2010-08-13 2013-10-02 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2012169003A1 (ja) * 2011-06-07 2012-12-13 株式会社日立製作所 情報処理システム及び情報処理方法
WO2014038014A1 (ja) * 2012-09-05 2014-03-13 株式会社日立製作所 対面データ生成装置及び対面データの生成方法
JP6126540B2 (ja) * 2014-02-06 2017-05-10 ヤフー株式会社 関係性推定装置、関係性推定方法およびプログラム
WO2017038177A1 (ja) * 2015-09-01 2017-03-09 株式会社Jvcケンウッド 情報提供装置、端末装置、情報提供方法、プログラム
JP6675266B2 (ja) 2016-05-20 2020-04-01 株式会社日立製作所 センサデータ分析システム及びセンサデータ分析方法
JP7226756B2 (ja) * 2017-03-17 2023-02-21 Necソリューションイノベータ株式会社 組織ポテンシャルの予測装置、予測方法、プログラム、および記録媒体
JP6701160B2 (ja) 2017-12-28 2020-05-27 株式会社日立製作所 プロジェクト支援システム及び方法
JP7240596B2 (ja) * 2019-02-26 2023-03-16 京セラドキュメントソリューションズ株式会社 会話分析装置および会話分析システム
JP7085266B2 (ja) * 2019-03-22 2022-06-16 Kddi株式会社 行動情報に基づいて満足度を推定可能な装置、プログラム及び方法
JP2023132597A (ja) * 2022-03-11 2023-09-22 株式会社リコー 情報処理システム、組織構成支援システム、情報処理方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021342A (ja) * 2002-06-12 2004-01-22 Shigeo Kaneda 集団的行動判別システム、集団的行動判別方法および集団的行動判別プログラム
JP3974098B2 (ja) * 2003-10-31 2007-09-12 株式会社国際電気通信基礎技術研究所 関係検知システム
JP2006092371A (ja) * 2004-09-24 2006-04-06 Fuji Xerox Co Ltd 共同作業空間形成装置、共同作業空間形成方法およびプログラム
JP2006268787A (ja) * 2005-03-25 2006-10-05 Fuji Xerox Co Ltd 統計量表示装置および方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014232554A (ja) * 2014-09-18 2014-12-11 株式会社日立製作所 業務向上支援システムおよび業務向上支援方法
US11469875B2 (en) 2019-11-22 2022-10-11 Toyota Jidosha Kabushiki Kaisha Communication system and control method
US11330449B2 (en) 2020-02-18 2022-05-10 Toyota Jidosha Kabushiki Kaisha Communication system, control method, and non-transitory computer readable medium storing control program
US11943574B2 (en) 2020-11-04 2024-03-26 Toyota Jidosha Kabushiki Kaisha Information processing system, information processing method, and non-transitory computer readable medium storing program

Also Published As

Publication number Publication date
JP2008210363A (ja) 2008-09-11

Similar Documents

Publication Publication Date Title
JP5160818B2 (ja) ビジネス顕微鏡システム
US20170308853A1 (en) Business microscope system
JP5092020B2 (ja) 情報処理システム及び情報処理装置
JP5219378B2 (ja) インタラクションデータ表示装置、処理装置及び表示方法
US9111242B2 (en) Event data processing apparatus
JP2008287690A (ja) グループ可視化システム及びセンサネットワークシステム
US20090228318A1 (en) Server and sensor net system for measuring quality of activity
JP5055153B2 (ja) 解析システムおよび解析サーバ
US20080263080A1 (en) Group visualization system and sensor-network system
US20220000405A1 (en) System That Measures Different States of a Subject
US11681968B2 (en) User connector based on organization graph
US20170337842A1 (en) Sensor data analysis system and sensor data analysis method
JP2009009355A (ja) 組織コミュニケーション可視化システム
JP5503719B2 (ja) パフォーマンス分析システム
JP2018097459A (ja) 行動推薦システム及び行動推薦方法
JP2010198261A (ja) 組織連携表示システム及び処理装置
JP5617971B2 (ja) 組織コミュニケーション可視化システム
Liao et al. A framework for context information management
JP5372557B2 (ja) 知識創造行動分析システム、及び、処理装置
JP5025800B2 (ja) グループ可視化システム及びセンサネットワークシステム
JP2014232554A (ja) 業務向上支援システムおよび業務向上支援方法
Wu et al. Water cooler networks
JP2012128882A (ja) 組織コミュニケーション可視化システム
KR20200064600A (ko) 뉴로 마케팅 기반 콘텐츠 제공 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5160818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250