JP2021005248A - 判別システム、判別制御プログラムおよび判別制御方法 - Google Patents

判別システム、判別制御プログラムおよび判別制御方法 Download PDF

Info

Publication number
JP2021005248A
JP2021005248A JP2019119094A JP2019119094A JP2021005248A JP 2021005248 A JP2021005248 A JP 2021005248A JP 2019119094 A JP2019119094 A JP 2019119094A JP 2019119094 A JP2019119094 A JP 2019119094A JP 2021005248 A JP2021005248 A JP 2021005248A
Authority
JP
Japan
Prior art keywords
users
user
control unit
feature amount
collaborative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019119094A
Other languages
English (en)
Other versions
JP7298337B2 (ja
Inventor
彬 陳
Akira Chin
彬 陳
桂樹 岡林
Keiju Okabayashi
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019119094A priority Critical patent/JP7298337B2/ja
Publication of JP2021005248A publication Critical patent/JP2021005248A/ja
Application granted granted Critical
Publication of JP7298337B2 publication Critical patent/JP7298337B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】複数のユーザの活動状態が協働であるか非協働であるかを正確に判別できること。【解決手段】制御部の特徴抽出部111は、グループ作業している複数のユーザのテーブル上にオブジェクトの種類、大きさ、向き等の表示状態を取得する。また、表示したオブジェクトに対する複数のユーザの位置やオブジェクトへの手指し等の行動状態を取得する。そして、取得した情報をそれぞれ時間的に積分した特徴量を算出する。作業状態認識部112は、入力された一つあるいは複数の特徴量に基づき、複数のユーザがグループ作業を協働して行っているか否かを判別する。作業状態認識部112に入力される特徴量は、グループ作業時に複数のユーザが協働しているかを判別するための異なる情報であり、情報数が多いほど協働の有無を正確に判別できる。【選択図】図2

Description

本発明は、複数のユーザのグループ活動の協働状態を判別する判別システム、判別制御プログラムおよび判別制御方法に関する。
複数のユーザのグループ活動として、ワークショップやアクティブラーニング等がある。ワークショップでは、複数のユーザがそれぞれ異なる観点から新しいビジネスモデルの検討や、様々な問題に対してアイデアを出すグループディスカッションにより解を考えることができる。アクティブラーニングは、学校等の教員現場において生徒のグループ作業で行われ、アクティブラーニング過程で生成した活動データを分析して、学習を最適化する実証実験が行われている。
これら複数のユーザのグループ活動をデジタル的にサポートする技術として、空間UI(User Interface)がある。空間UI技術を用いることで、例えば、部屋を複数のタッチディスプレイで覆い、全てのディスプレイを一つの仮想ディスプレイへ統合できる。空間UI技術を用いることで、活動に参加したユーザの持ち込み情報やアイデアの共有を支援できるICT(Information and Communication Technology)システムが構築できる。そして、空間UIを利用することで、ワークショップやアクティブラーニング等の活動の過程で生じた活動データをデータサーバにリアルタイムに集約できる。
ユーザの活動状態の判別に関連する技術として、テレビ視聴者の顔の向きや表情、リモコン操作等を観測した時系列情報を機械学習することで、視聴番組の興味判定を迅速に行う技術が開示されている。また、複数のユーザ間での音声データの特徴量を分析することで、ユーザ間でのコミュニケーションの発生の有無を判別する技術が開示されている。
特開2013−235346号公報 国際公開第2016/158267号
しかしながら、従来技術では、複数のユーザのグループ活動が協働しているか否かを適切に判別することができなかった。例えば、空間UI技術を用いて、各ユーザのタッチ操作の数やバラツキ等の特徴量を機械学習する方法が考えられるが、タッチ数のみでは特徴量が作業の詳細を表現できず、グループ活動の様々な作業パターンに柔軟に対応できない。
例えば、各ユーザが同時に作業するフェーズでアイデアを出し尽くして停滞状態に近い場合と、1人のユーザだけが作業して他の複数のユーザがアイデアを考えて指示を出す状況があるが、これら異なる状況間で、一定時間内のタッチ操作の総数に大差はない。この場合、各ユーザが協働して作業しているか、あるいは各ユーザが異なる作業を行う等の非協働状態であるか、の判別が困難であった。このように、従来技術では、空間UI技術を用いたとしても有効利用しておらず、また、グループ活動における複数のユーザの協働/非協働状態を適切に判別できなかった。
一つの側面では、本発明は、複数のユーザの活動状態が協働であるか非協働であるかを正確に判別できることを目的とする。
本発明の一側面によれば、グループ作業に関わる複数のユーザに対するオブジェクトの提示状態、および提示した前記オブジェクトに対する複数の前記ユーザの行動状態、を示す情報をそれぞれ時間的に積分した特徴量を算出し、算出した前記特徴量に基づき、複数のユーザが前記グループ作業を協働して行っているか否かを判別することを要件とする。
本発明の一態様によれば、複数のユーザの活動状態が協働であるか非協働であるかを正確に判別できるという効果を奏する。
図1は、実施の形態にかかる複数のユーザの活動状態判別の一実施例を示す説明図である。 図2は、実施の形態にかかる判別システムの判別処理に用いる複数の協働特徴量等の例を示す図である。 図3Aは、実施の形態にかかる判別システムの構成例を示す図である。(その1) 図3Bは、実施の形態にかかる判別システムの構成例を示す図である。(その2) 図4は、実施の形態にかかる判別装置のハードウェア構成例を示す図である。 図5は、実施の形態の判別装置で用いる事前確率1を説明する図である。 図6は、実施の形態にかかる事前確率1の設定例を示す図である。 図7Aは、実施の形態にかかる事前確率2を説明する図である。(その1) 図7Bは、実施の形態にかかる事前確率2を説明する図である。(その2) 図8Aは、実施の形態にかかる事前確率3を説明する図である。(その1) 図8Bは、実施の形態にかかる事前確率3を説明する図である。(その2) 図9は、実施の形態の判別装置で用いる事前確率の再計算の処理例を示すフローチャートである。 図10は、実施の形態にかかる協働操作特徴量の算出例を示すフローチャートである。 図11は、実施の形態における操作バランス特徴量を説明する図である。 図12は、実施の形態にかかる操作バランス特徴量の算出例を示すフローチャートである。 図13Aは、実施の形態における情報共有特徴量を説明する図である。(その1) 図13Bは、実施の形態における情報共有特徴量を説明する図である。(その2) 図14は、実施の形態にかかる情報共有特徴量の算出例を示すフローチャートである。 図15は、実施の形態における協働行動特徴量を説明する図である。 図16は、実施の形態にかかる協働行動特徴量の算出例を示すフローチャートである。 図17は、実施の形態におけるエンゲージ特徴量を説明する図である。 図18は、実施の形態にかかるエンゲージ特徴量の算出例を示すフローチャートである。 図19Aは、実施の形態にかかる判別システムの他の構成例を示す図である。(その1) 図19Bは、実施の形態にかかる判別システムの他の構成例を示す図である。(その2) 図20は、実施の形態にかかる会話特徴量の算出例を示すフローチャートである。 図21は、実施の形態にかかる会話特徴量の算出例を説明する図である。
(実施の形態)
以下に図面を参照して、開示の判別システム、判別制御プログラムおよび判別制御方法の実施の形態を詳細に説明する。
図1は、実施の形態にかかる複数のユーザの活動状態判別の一実施例を示す説明図である。複数のユーザU(U1〜U4)がある部屋のテーブルTに着席してグループ活動(協働作業)を行っている状態を示す。実施の形態の判別システムは、空間UI技術を用いて、テーブルT単位での複数のユーザU(U1〜U4)のグループ活動(協働作業)が協働状態であるか非協働状態であるかを判別する。判別システムは、判別結果を評価者URに通知する。
評価者URは、判別システムが出力するグループ活動の判別結果(協働/非協働)に基づき、グループ活動の際、複数のユーザU(U1〜U4)がどの程度協働していたかを振り返り、グループ活動の成果等の評価を実施する。
図1には、部屋に一つのテーブルTに着席した4名のユーザU1〜U4の例を示したが、この部屋にはさらに多くのテーブルT毎に複数のユーザUが着席してそれぞれのテーブルT毎にグループ活動を行っていてもよい。
グループ活動は、例えば、上述したワークショップやアクティブラーニング等であり、空間UI技術により、テーブルT毎の複数のユーザU(U1〜U4)のタッチ操作を検出する。空間UI技術を用いたユーザU別のタッチ操作の検出構成の詳細は後述するが、例えば、テーブルT上に複数のデジタル模造紙A(A1〜A3)をアプリケーション制御により表示する。そして、各ユーザU(U1〜U4)は、赤外ペン等のタッチペンP(P1〜P4)を用いてデジタル模造紙A(A1〜A3)上でタッチ操作を行う。
実施の形態では、空間UI技術により、各ユーザUが同時に視認できるオブジェクトを提示する。オブジェクトは、例えば、デジタル模造紙A等のアプリケーションやコンテンツを含む。
デジタル模造紙Aは、例えば、プロジェクタを用いてグループ活動のミーティング内容の画像や文字等をテーブルT上に表示する。そして各ユーザUは、タッチペンPを用いてミーティング内容に対する提案や指示をデジタル模造紙A(A1〜A3)上でのタッチ操作により書き込む。空間UI技術では、例えば、空間UI情報入出力装置(ベースPCと称す)120が、例えば、プロジェクタによるデジタル模造紙Aの表示、およびタッチペンPを用いた各ユーザUのタッチ操作の検出にかかる制御を行う。
空間UI情報入出力装置120は、デジタル模造紙A等のアプリケーションを実行し、テーブルT毎の複数のユーザUのグループ活動(協働作業)に必要な情報を表示制御する。また、空間UI情報入出力装置120は、タッチペンPのタッチ操作を検出するアプリケーションを実行し、テーブルT毎の複数のユーザUのグループ活動(協働作業)が協働状態であるか否かを判別するのに必要な情報を取得する。
実施の形態では、協働とは、テーブルT単位での複数のユーザU(U1〜U4)が協働して作業している状態であり、各ユーザが異なる作業を行う等の状態を非協働とする。例えば、非協働の状態は、各ユーザが同時に作業するフェーズでアイデアを出し尽くして停滞状態に近い場合や、1人のユーザだけが作業して他の複数のユーザがアイデアを考えて指示を出す状況等を含む。
そして、空間UI情報入出力装置120は、各ユーザUのタッチペンPのタッチ操作を操作イベントIVと、センシングSの情報をそれぞれ検出し、判別装置(データPCと称す)100に出力する。空間UI情報入出力装置120は、空間UI技術に対応してユーザUに対するユーザインタフェース(UI)の情報を入出力する装置である。
上記の説明では、空間UI技術の例として、デジタル模造紙Aのアプリケーションを実行する構成例を説明したが、これに限らず、デジタル付箋紙のアプリケーションを実行し、テーブルT上の付箋紙に画像や文字を表示してもよい。また、部屋の壁のスクリーンにこれらデジタル模造紙Aやデジタル付箋紙を表示してもよい。さらには、操作イベントIVと、センシングSの情報として、タッチペンPを用いた操作検出に限らない。例えば、カメラの撮影画像により複数のユーザU(U1〜U4)の位置や移動状態、各ユーザU(U1〜U4)の手(指)の位置(デジタル模造紙A上での手差し位置に相当)を検出してもよい。
実施の形態では、判別装置(データPC)100は、複数のユーザU(U1〜U4)のグループ活動(協働作業)が協働状態であるか非協働状態であるかを判別する機能を有する。判別装置100には、空間UI情報入出力装置120による空間UIの制御情報、例えば、デジタル模造紙A等のアプリケーションの制御情報と、操作イベントIV、およびセンシングSの情報、等が入力される。
判別装置100は、特徴抽出部111、作業状態認識部112の機能を含む。判別装置100は、プロセッサおよびメモリ等の記憶部101を備え、プロセッサが記憶部101に格納されたプログラムを実行することで、上記機能を実現し、上記協働状態であるか非協働状態であるかを判別する制御を実行する。
特徴抽出部111には、例えば、デジタル模造紙A等のアプリケーションの制御情報と、操作イベントIV、およびセンシングSの情報等が入力される。そして、特徴抽出部111は、これらの入力情報に基づいて協働特徴量を抽出する。協働特徴量とは、グループ活動の協働状態を判別するために用いる情報であり、一つのテーブルT上での複数のユーザUがグループ活動の協働作業に関与した程度を表す。
実施の形態では、特徴抽出部111は、入力された複数の情報に基づき、異なる複数の種別の協働特徴量を算出し、作業状態認識部112に出力する。作業状態認識部112は、特徴抽出部111が算出した複数の種別の協働特徴量に基づき、テーブルT単位でのグループ活動が協働であるか非協働であるかを判別出力する。
振り返りダッシュボードサービスRは、グループ活動の実施後、評価者URに対し、複数のテーブルT毎の協働/非協働の判別結果を、例えばリスト化して通知し、非協働のグループに対しては非協働の状態の詳細を例えば、時系列に通知する。振り返りダッシュボードサービスRの機能は、独立したコンピュータ装置が提供してもよいし、上記いずれかのコンピュータ装置、例えば、ベースPC120が提供してもよい。これにより、評価者URは、振り返りダッシュボードサービスRが提供するグループ活動のグループ別の判別結果(協働/非協働)に基づき、グループ活動の際、複数のユーザU(U1〜U4)がどの程度協働していたかを振り返り、評価することができる。
評価者URは、例えば、グループ活動のリーダであり、この評価者URは、判別結果に基づき、以降のグループ活動の改善等の対策を施すことができるようになる。例えば、評価者URは、グループ作業のグループ長や、アクティブラーニングとして所定の授業を実施した教師であり、ユーザUは、グループ員や授業を受けた学生である。そして、評価者URは、テーブルT毎の協働/非協働の判別結果に基づき、以降の授業で非協働の判別結果となったテーブルTに着席していたユーザUに対し、協働しやすい環境をつくるための具体的改善策を検討できるようになる。
図2は、実施の形態にかかる判別システムの判別処理に用いる複数の協働特徴量等の例を示す図である。図2には、上述した判別装置100の作業状態認識部112の構成例を示す。
作業状態認識部112は、例えば、ニューラルネットワーク200で構成でき、このニューラルネットワーク200は、グループ活動の実施前に学習した学習モデル201を用いてグループ活動の判別結果(協働/非協働)を判別出力する。
この作業状態認識部112には、空間UI技術により利用しているアプリケーションの情報、ユーザUが操作したタッチペンPのタッチイベント、ユーザUの位置や移動状態等の情報が入力される。例えば、アプリケーションの情報は、テーブルT上に表示した上記のデジタル模造紙Aの数や、各デジタル模造紙Aの大きさ、テーブルT上での向き等の情報であり、タッチペンPのタッチイベントは、例えば、筆跡本数、タッチ回数等である。
また、作業状態認識部112には、特徴抽出部111が算出した上記の協働特徴量の情報が入力される。そして、作業状態認識部112は、事前に学習した「協働判別モデル」に基づいて、テーブルT単位での協働/非協働を判別する。このため、作業状態認識部112は、事前の学習フェーズ、およびグループ活動時の認識フェーズの処理を行う。
学習フェーズでは、作業状態認識部112は、各時刻において、タッチイベント、アプリケーション、センシングの各情報に基づいて、複数の協働特徴量を抽出し、「協働特徴ベクトル」を生成する。そして、サンプルデータに対して、人手で協働あるいは非協働の状態を分離しラベリングを行い、教師データを作成する。
この後、作業状態認識部112は、教師データで「協働判別モデル」を機械学習する。また、認識フェーズでは、作業状態認識部112は、グループ活動時にリアルタイムで検出した「協働特徴ベクトル」を「協働判別モデル」を通し、協働あるいは非協働の状態を判別し、判別結果を出力する。
このように、実施の形態では、単純にユーザUの操作(タッチイベント)の頻度を利用するだけで協働状態を判別するものではない。実施の形態の作業状態認識部112は、タッチ操作された対象物(デジタル模造紙Aのアプリケーションやコンテンツ)、タッチ位置の空間的分布、およびユーザとアプリケーションやコンテンツ表示位置との相対関係を考慮して、協働/非協働の状態を判別する。これにより、判別の認識精度の向上を図るものである。
1.通常、グループ活動等において協働あるいは非協働の作業を行う場合、使用するアプリケーションやコンテンツの種類が異なる。例えば、ユーザUが単独でアイデアを出す場合、デジタル付箋紙のアプリケーションを利用する。一方、グループ全員で出されたアイデアを分類や整理する場合、デジタル模造紙Aのアプリケーションを利用する。このため、作業状態認識部112は、テーブルT上に開いているアプリケーションの種類によって、グループが協働作業をしているかどうかの事前確率を使って推定できる。
2.テーブルT上に開いているアプリケーションが、表示位置、サイズ、向き等によって作業の状態が異なる可能性がある。例えば、デジタル付箋紙の場合、テーブルT上において複数のユーザUの前で、デジタル付箋紙が自身の方向に向き、小さく開いた表示制御の場合、個人作業を行っている可能性が高い。一方、同じデジタル付箋紙を用いた場合であっても、テーブルTの中央付近で、横向きにしてより多くのユーザに見やすいように表示制御する場合、例えば、複数のユーザU(U1〜U4)で情報共有するなどの協働作業をしている可能性が高い。このため、作業状態認識部112は、グループ活動時に実行しているアプリケーションの表示位置、向き、サイズ等の情報と、事前確率を用いることで協働作業かどうかを推定することができる。
3.テーブルT上にアプリケーションやコンテンツが表示されていても、グループが協働作業をしているとは断定できない。しかし、表示中のアプリケーションやコンテンツに対してユーザUが操作を行った場合、協働作業の可能性が高くなる。さらに、ユーザUの操作頻度が高くなれば、その可能性もさらに高くなる。このように、作業状態認識部112は、各ユーザUのタッチ行動が検出された時に、例えばベイズ推定に基づいて事前確率を更新することで、協働と非協働を確率的に推定することができる。
4.グループが協働作業をしている時に、アプリケーションやコンテンツへの操作だけではなく、手指しなどの行動もよく観測されている。このため、作業状態認識部112は、手指し行動が観測された場合、前記タッチイベントと同様に、ベイズ推定に基づいて事前確率を更新し、協働と非協働を確率的に推定する。
5.グループが協働作業をしている時に、メンバーが協働のアプリケーションやコンテンツの周りに密集してディスカッションや共に操作をすることが観測されている。そこで、上記の事前確率を重みとして、人と人の物理的距離の重み付き平均を協働と非協働の特徴量とすることができる。例えば、人がデジタル模造紙Aの周りに密集している場合、協働作業をしている可能性が高い。逆に、人が小さく表示されているデジタル付箋紙の周りに密集しても、協働作業の可能性が低い。
6.そして、上記2.〜5.で算出した数値については、それぞれ一定時間(たとえ3分)毎に積分し、積分した値を特徴ベクトルとする。作業状態認識部112は、算出した特徴ベクトルを用いて協働と非協働を機械学習で判別する。
7.機械学習に必要な教師データは、機械学習モデルの構築者がオフラインで、例えばグループ作業のビデオを見ながら、特徴ベクトルをラベリングすることで作成する。
8.作業状態認識部112は、上記の教師データを用いて、機械学習モデルを学習する。
9.オンラインで協働状態を推定する場合、作業状態認識部112は、リアルタイムに作成した特徴ベクトルを学習済みの機械学習モデルに入力し、機械学習モデルが出力したラベルを該当するアプリケーションに出力する。
図2に示す例では、作業状態認識部112(ニューラルネットワーク200)には、複数nの協働特徴量が入力される。協働特徴量は大別して、ユーザUの操作イベントIV、例えば、上記のタッチペンPの操作に基づくものと、センシングSの情報、例えば、ユーザUの位置や手の位置等に基づくものとがある。
ユーザUの操作イベントIV、例えば、上記のタッチペンPの操作に基づく協働特徴量は、A.協働操作特徴量(coop)、B.操作バランス特徴量(balance)、C.情報共有特徴量(sharing)等がある。また、センシングSの情報、例えば、ユーザUの位置や手の位置等に基づく協働特徴量は、D.協働行動特徴量(collabo)、E.エンゲージ特徴量(engage)等がある。これら各協働特徴量の詳細は後述する。作業状態認識部112は、入力される特徴量の種類が多いほど、協働/非協働の判別結果を精度よく判別できるようになる。
図3A,図3Bは、実施の形態にかかる判別システムの構成例を示す図である。図3Aは、主に空間UI技術にかかるシステム構成例を示す。図3Aに示すように、空間UI技術に関する構成として、プロジェクタ310、カメラ311、人認識センサ312、タッチペンP、ユニットPC313が含まれる。
プロジェクタ310は、部屋のテーブルTのテーブル面にグループ活動のミーティング内容の画像や文字等を投影表示する。カメラ311は、テーブルT上でのタッチペンPの位置や移動状態を認識するための画像を撮影する。人認識センサ312は、テーブルTに着席した複数のユーザUの位置や移動状態を認識する。ユニットPC313には、プロジェクタ310に対して表示画像を出力し、カメラ311および人認識センサ312が出力する画像が入力される。
図3Bに示すように、図3Aに示したプロジェクタ310〜ユニットPC313を一組としたシステムは、対象のグループ毎に複数設けられる。図3Bの例では、4つのグループに対する適用例を示す。
グループAでは、プロジェクタ310aが部屋の壁WAにミーティング内容の画像や文字等を投影表示する。カメラ311aは、テーブルT上でのタッチペンPの位置や移動状態を認識するための画像を撮影する。人認識センサ312aは、テーブルTに着席した複数のユーザUの位置や移動状態を認識する。ユニットPC313aには、プロジェクタ310aに対して表示画像を出力し、カメラ311aおよび人認識センサ312aが出力する画像が入力される。
グループBでは、プロジェクタ310bがテーブルTにミーティング内容の画像や文字等を投影表示する。カメラ311bは、テーブルT上でのタッチペンPの位置や移動状態を認識するための画像を撮影する。人認識センサ312bは、テーブルTに着席した複数のユーザUの位置や移動状態を認識する。ユニットPC313bは、プロジェクタ310bに対して表示画像を出力し、カメラ311bおよび人認識センサ312bが出力する画像が入力される。グループC,DについてもグループB同様の構成を有する。
そして、各グループA〜DのユニットPC313(313a〜313d)は、空間UIネットワーク320を介してコンピュータ装置(データPC100およびベースPC120)に接続される。上述したように、コンピュータ装置(ベースPC120)は、空間UI技術を用いてユニットPC313(313a〜313d)との間で各グループA〜Dのグループ活動のためのサービスやアプリケーションの配信を行う。
また、コンピュータ装置(データPC100)は、ユニットPC313(313a〜313d)を介して、グループA〜Dそれぞれでの操作イベントIVやセンシングS等のシステムイベントデータを収集し、各グループA〜D毎のグループ活動状態を判別する。そして、コンピュータ装置(データPC100)は、上述した協働/非協働の判別結果を出力する。この判別結果は、例えば、図1に示す振り返りダッシュボードサービスRに出力され、評価者URは、各グループA〜Dのグループ活動の振り返りおよび評価を行うことができる。振り返りダッシュボードサービスRは、例えば、コンピュータ装置(データPC100)が機能実行することができる。
図4は、実施の形態にかかる判別装置のハードウェア構成例を示す図である。判別装置(データPC)100は、例えば、図4に示すハードウェアからなる汎用のPCやサーバで構成することができる。
判別装置100は、CPU(Central Processing Unit)401、メモリ402、ネットワークインタフェース(IF)403、記録媒体IF404、記録媒体405、等を含む。400は各部を接続するバスである。
CPU401は、判別装置100の全体の制御を司る制御部として機能する演算処理装置である。メモリ402は、不揮発性メモリおよび揮発性メモリを含む。不揮発性メモリは、例えば、CPU401のプログラムを格納するROM(Read Only Memory)である。揮発性メモリは、例えば、CPU401のワークエリアとして使用されるDRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等である。
ネットワークIF403は、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどのネットワークNWに対する通信インタフェースである。判別装置100は、ネットワークIF403を介してネットワークNWに通信接続する。図3Bの構成例の場合、ネットワークNWは、空間UIネットワーク320に相当し、判別装置100は、ネットワークNWを介して、複数のユニットPC313(313a〜313d)と通信可能である。
記録媒体IF404は、CPU401が処理した情報を記録媒体405との間で読み書きするためのインタフェースである。記録媒体405は、メモリ402を補助する記録装置であり、HDD(Hard Disk Drive)や、SSD(Solid State Drive)、USB(Universal Serial Bus)フラッシュドライブ等を用いることができる。
メモリ402または記録媒体405に記録されたプログラムをCPU401が実行することにより、判別装置100の特徴抽出部111および作業状態認識部112の機能を実現し、協働/非協働の判別出力を得ることができる。また、メモリ402や記録媒体405は、判別装置100が扱う情報を記録保持する。これらメモリ402および記録媒体405は、図1に示した記憶部101に相当する。
また、上述した空間UI情報入出力装置(ベースPC)120、およびユニットPC313(313a〜313d)についても、図4に示すハードウェアからなる汎用のPCやサーバで構成することができる。
(協働/非協働判定のための事前確率)
判別装置100の制御部(CPU401)は、グループ活動が協働あるいは非協働を判定する際には、下記1.〜3.に示した事前確率を用いる。
1.タッチ位置の空間分布に基づく事前確率(事前確率1)
協働作業の場合、テーブルT上で参加者がよくタッチ操作する位置を(x,y)とする。以下のように、タッチ位置から得る事前確率1を以下の式で表す。
1(s=c|x,y)
(x,y:タッチ位置の座標,s:作業状態を示す、c:協働作業であることを示す)
図5は、実施の形態の判別装置で用いる事前確率1を説明する図である。事前確率1の実装例として、例えば図5に示すように2次元の事前確率マップ500を記憶部101に予め設定しておき、固定値として利用する。この事前確率マップ500の横縦のサイズは、テーブルTのタッチスクリーンのサイズと一致させて設定する。そして、テーブルTの中心ほどよくタッチされるため、テーブルTの中心付近に高い値の重みW1を設定しておき、テーブルTの周辺ほどタッチの頻度が少ないため、次第に低くなる値の重みW2〜W5を設定しておく。
図6は、実施の形態にかかる事前確率1の設定例を示す図である。図6には、図5の事前確率マップ500に設定する数値例を示し、特徴抽出部111が協働操作特徴量を算出する際にこの事前確率マップ500を参照する。事前確率マップ500は、テーブルTの中心ほどよくタッチされるため、テーブルTの中心のエリアが複数のユーザによる協働作業に適した場所であるため、高い値「0.9」の重みW1を設定する。そして、テーブルTの周辺ほどタッチの頻度が少ないため、周辺に従い次第に低くなる値の重みW2「0.8」〜W5「0.1」を設定しておく。
2.アプリケーションの種類に基づく事前確率(事前確率2)
テーブルT上に表示するアプリケーション種類をaで表した事前確率2を以下の式で表す。例えば、aがデジタル模造紙である場合、比較的高い値に設定する。逆に、aがデジタル付箋紙である場合、比較的低い値に設定する。
2(s=c|a)
(a:アプリケーション名)
例えば、アプリケーションaがデジタル模造紙の場合の事前確率2は、比較的高い値の重みを設定し、デジタル付箋紙の場合の事前確率2は比較的低い値の重みを設定しておく。これらデジタル模造紙とデジタル付箋紙は、いずれも複数ユーザが協働して用いることができるアプリケーションである。これに対し、ユーザが個人使用する他のアプリケーションについては、事前確率2を最も低い重みに設定しておく。
図7A,図7Bは、実施の形態にかかる事前確率2を説明する図である。上述したアプリケーションの種類に基づく事前確率2の設定例を説明しておく。図7A(a)に示すように、テーブルT上においてアプリケーションA〜Cが表示されているとする。なお、ここでは、各アプリケーションA〜Cの向きは0度(図の上側に各アプリケーションA〜Cの下部Lが位置し、図下側に各アプリケーションA〜Cの上部Hが位置した状態)であるとする。
この場合、図7A(b)に示すように、アプリケーションAはデジタル模造紙等であり、協働作業に用いられるものである場合、事前確率2は比較的高い重み「0.5」に設定する。また、アプリケーションCはデジタル付箋紙の場合、比較的低い重み「0.4」に設定する。また、アプリケーションBは、ユーザが個人使用する他のアプリケーションであり、事前確率を最も低い重み「0.2」に設定しておく。
そして、図7Bは、事前確率2をマップ化した事前確率マップ2を示す図表である。この事前確率マップ2(700)は、テーブルT上のアプリケーションAの領域の重みW1は「0.5」、アプリケーションCの領域の重みW2は「0.4」、アプリケーションBの重みW3は「0.2」として設定される。
3.アプリケーションのプロパティ(表示位置、向き、サイズ)に基づく事前確率(事前確率3)
テーブルT上のアプリケーションの表示位置をu,v、向きをo、サイズをzとした時の事前確率3を以下の式で表す。
3(s=c|o,u,v,z)
なお、この事前確率3は、下記式(1)に示すように、ガウシアン分布に基づくガウシアンモデルでも表現できる。なお、x、yは、アプリケーションの表示位置である(上記u,vに相当)。
Figure 2021005248
図8A,図8Bは、実施の形態にかかる事前確率3を説明する図である。上述したアプリケーションの種類およびテーブルT上での向きに基づく事前確率3の設定例を説明しておく。図8A(a)に示すように、テーブルT上においてアプリケーションA〜Cが表示されているとする。なお、ここでは、アプリケーションB,Cの向きは0度(図の上側にアプリケーションB,Cの下部Lが位置し、図下側にアプリケーションB,Cの上部Hが位置した状態)であるとする。また、アプリケーションAの向きは90度(図の右側にアプリケーションAの下部Lが位置し、図左側にアプリケーションAの上部Hが位置した状態)であるとする。
ここで、図8A(b)に示すように、各アプリケーションA〜Cの向き別の事前確率(事前確率3)を設定しておく。各アプリケーションA〜Cの向きが0度の場合において、アプリケーションAはデジタル模造紙等であり、協働作業に用いられるものである場合、事前確率3は比較的高い重み「0.5」に設定する。また、アプリケーションCはデジタル付箋紙の場合、比較的低い重み「0.4」に設定する。また、アプリケーションBは、ユーザが個人使用する他のアプリケーションであり、事前確率を最も低い重み「0.2」に設定しておく(図7A(b)と同じ設定)。
また、図8A(b)に示すように、各アプリケーションA〜Cの向きが90度の場合には、各アプリケーションA〜Cが協働作業に用いられる方向に向いているため、それぞれの事前確率3は0度の場合よりも重みが高く設定されている。例えば、アプリケーションAの事前確率3は0度の場合の重みが「0.5」であるのに対し、90度では「0.8」と高く設定される。また、アプリケーションBの事前確率3は0度の場合の重みが「0.2」であるのに対し、90度では「0.5」と高く設定される。また、アプリケーションCの事前確率3は0度の場合の重みが「0.4」であるのに対し、90度では「0.7」と高く設定される。
そして、図8Bは、図8A(a)に示す各アプリケーションA〜Cの種類と向きに対応した事前確率3をマップ化した事前確率マップ3を示す図表である。事前確率マップ3(800)は、テーブルT上のアプリケーションAの領域の重みW1は向きが90度であり「0.8」である。アプリケーションCの領域の重みW2は向きが0度であり「0.4」、アプリケーションBの重みW3は向きが0度であり「0.2」として設定される。
グループ活動の際、各ユーザが必要に応じて、テーブルT上でのアプリケーションの表示位置、サイズ、向きなどをタッチペンPの操作等でドラッグして変更する場合がある。この際、判別装置100の制御部(CPU401、主に特徴抽出部111)は、新しい表示位置、向き、サイズで事前確率3を動的に再計算する。例えば、デジタル付箋紙をあるユーザU1が自身の前に表示してアイデアを書いた後に、デジタル付箋紙をテーブルTの中央に移動させ、大きく表示して他のユーザU2〜U4と共有する場合、事前確率3(p3)を再計算する。
ユーザUが、テーブルT上でのアプリケーションの表示位置、サイズ、向きなどをタッチペンPの操作等でドラッグして変更したとする。この場合、判別装置100の制御部(CPU401、主に特徴抽出部111)は、新しい表示位置、向き、サイズで事前確率3を動的に再計算する。
図9は、実施の形態の判別装置で用いる事前確率の再計算の処理例を示すフローチャートである。判別装置100の制御部(CPU401、主に特徴抽出部111)が行う事前確率3の再計算の例を示す。制御部は、アプリケーションの種類、ウィンドウ位置、向き、サイズの情報を取得する(ステップS901)。そして、制御部は、取得したアプリケーションの種類、ウィンドウ位置、向き、サイズの情報に基づき事前確率3を計算し(ステップS902)、計算した事前確率に基づき、2次元の事前確率マップを生成し(ステップS903)、以上の処理を終了する。例えば、制御部は、事前確率2マップ(700)を用いて事前確率2を計算した後、アプリケーションの種類、ウィンドウ位置、向き、サイズのうちいずれかに変更があった場合に再計算して事前確率3として算出する。
そして、判別装置100の制御部(CPU401)は、上記の各協働の事前確率に基づいて、ユーザUの行動(タッチイベント、手指しイベント、密集イベントなど)を検出した場合、協働の確率を更新する。そして、制御部は、検出したユーザUの行動から算出した確率数値を一定時間内で積分し、積分した数値を協働特徴量とする。複数の協働特徴量をまとめて協働特徴ベクトルとする。以下、各種の協働特徴量の算出例を説明する。
(各種の協働特徴量の算出例)
上述したA.協働操作特徴量(coop)、B.操作バランス特徴量(balance)、C.情報共有特徴量(sharing)、D.協働行動特徴量(collabo)、E.エンゲージ特徴量(engage)について説明する。これらの各協働特徴量は、判別装置(データPC)100の制御部(CPU401)が、特に特徴抽出部111がプログラム実行により算出し、作業状態認識部112に出力する。
A.協働操作特徴量(coop)
複数のユーザU(U1〜U4)が同時に作業する時に、各ユーザUは自分の目の前のエリアで作業することが多い。また、協働した作業の時に、テーブルTのほぼ中央で作業することが多い。このような傾向から、テーブルTを協働作業用エリアと、個人作業用エリアとに仮想的に分割し、これら協働作業用エリアと、個人作業用エリアに異なるタッチ重みを付与した事前確率マップ500を作成しておく。
そして、制御部(特徴抽出部111)は、事前確率マップ500を参照しタッチイベントがあった際に、一定時間内の重み付き和を計算し、協働操作特徴量とする。重みの獲得方法は、例えば、
例1:テーブルTの中央エリアをタッチした場合に高い重み、周辺をタッチした場合に低い重みとし、重みマトリクスをアドホックに設定する。
例2:「協働」ラベルを付けたタッチイベントのサンプルから、エリア毎のタッチヒストグラムから獲得する。
協働操作特徴量は、あるタッチイベントを観測した場合、タッチ動作が起きた確率をpt(x,y)とする。ただし、ここでは、pt(x,y)=1.0とし、協働操作特徴量を下記式(2)で定義する。
Figure 2021005248
図10は、実施の形態にかかる協働操作特徴量の算出例を示すフローチャートである。制御部(CPU401)の特徴抽出部111が協働操作特徴量を算出する際の処理例を説明する。
はじめに、制御部は、ユーザUによるタッチペンP等によるタッチイベントを待ち受け(ステップS1001)、タッチイベントの有無を判断する(ステップS1002)。制御部は、タッチイベントの入力がない間は(ステップS1002:No)、ステップS1001の処理に戻り、タッチイベントが入力されれば(ステップS1002:Yes)、テーブルT上でのタッチ座標を抽出する(ステップS1003)。
そして、制御部は、事前確率を読み出す(ステップS1004)。ここでは、制御部は、図6に示す事前確率1の事前確率マップ500を読み出す。そして、制御部は、読み出した事前確率を一定時間分(例えば3分)積分し(ステップS1005)、協働操作特徴量(coop)を算出し(ステップS1006)、以上の処理を終了する。制御部は、算出した協働操作特徴量(coop)をメモリ402等に格納し、作業状態認識部112に対する、一つの協働特徴量として出力する。
B.操作バランス特徴量(balance)
複数のユーザU(U1〜U4)が並行して個人作業をする際、テーブルTの各ゾーンにおいて同時タッチイベントが多く発生する傾向がある。このため、制御部(特徴抽出部111)は、テーブルT上の各箇所のタッチイベント頻度の均等性(バラツキ)を操作バランス特徴量として算出する。
図11は、実施の形態における操作バランス特徴量を説明する図である。例えば、テーブルT全体の合計タッチ回数における、各ユーザU1〜U4の位置に対応したAゾーン〜Dゾーンの合計タッチ回数の占める割合のバラツキを操作バランス特徴量とする。
各ユーザU1〜U4が個人作業を行っている場合、Aゾーン〜Dゾーンで発生しているタッチ頻度がほぼ同じになる。一方、各ユーザU1〜U4が協働作業を行っている場合、テーブルT上の一部のゾーン(例えばAゾーン)だけでタッチイベントが発生している可能性が高いので、操作バランス度が低い。このように、操作バランス度が高いほうが、個人ワークの傾向が強く、操作バランス度が低いほうが、協働の傾向が強いことを示す。
例えば、下記式(3)では、ユーザ数4に対応して、テーブルTをA〜Dの4つのゾーンに分割した場合、IA tはAゾーンでのタッチ頻度を示す。qA tはAゾーンのタッチ頻度がテーブルT全体(A〜Dゾーン)のタッチ頻度に占める割合と、ある理想割合値との差を示す。テーブルTを4分割した例では、理想割合値が0.25になる。例えば、メンバー全員が平行に作業している場合、qA t,qB t,qC t,qD tの値がほぼ均等になり、操作バランス特徴量(balance)(t)が0に近くなる。
Figure 2021005248
上記式(3)は、以下のように示すこともできる。
例えば、Aゾーン偏差値={(Aゾーン合計タッチイベント数)/(テーブルT全体合計タッチ数)}−(1/ゾーン数)
Bゾーン偏差値={(Bゾーン合計タッチイベント数)/(テーブルT全体合計タッチ数)}−(1/ゾーン数)

操作バランス特徴量=最大ゾーン偏差値−最小ゾーン偏差値
なお、この操作バランス特徴量(balance)は、操作バランス度が、協働の確率を示す数値ではなく、上述した協働操作特徴量(coop)から延長した特徴量である。
図12は、実施の形態にかかる操作バランス特徴量の算出例を示すフローチャートである。制御部(CPU401)の特徴抽出部111が操作バランス特徴量を算出する際の処理例を説明する。
はじめに、制御部は、ユーザUによるタッチペンP等によるタッチイベントを待ち受け(ステップS1201)、タッチイベントの有無を判断する(ステップS1202)。制御部は、タッチイベントの入力がない間は(ステップS1202:No)、ステップS1201の処理に戻り、タッチイベントが入力されれば(ステップS1202:Yes)、テーブルT上でのタッチ座標を抽出する(ステップS1203)。
そして、制御部は、図11に示したテーブルT上でタッチされたゾーンを特定し(ステップS1204)、上記式(3)等の演算を一定時間分(例えば3分)積分し、操作バランス特徴量(balance)を算出する(ステップS1205)。そして、制御部は、算出した操作バランス特徴量(balance)をメモリ402等に格納し、作業状態認識部112に対する、一つの協働特徴量として出力し(ステップS1206)、以上の処理を終了する。
つぎに、C.情報共有特徴量(sharing)、D.協働行動特徴量(collabo)、E.エンゲージ特徴量(engage)では、制御部(特徴抽出部111)は、それぞれ上述した事前確率2、あるいは事前確率3を用いて算出する。事前確率3は、事前確率2を用いた特徴量の算出後、アプリケーションの向きが変更された場合に再計算により得られる。
C.情報共有特徴量(sharing)
制御部(特徴抽出部111)は、テーブルT上に開かれているアプリケーションの種類、レイアウト特徴(サイズ、向き、位置)から協働重みを算出する。そして、一定時間内のタッチイベントの重み付き平均を情報共有特徴量として算出する。また、一旦決まったアプリケーションのレイアウトがユーザの操作によって変わった場合、重みマップを再算出する。協働重みは、例えば、下記例1,2により取得する。
例1:設計者がアドホックに設定する。
例2:「協働」とラベリングしたデータサンプルにアプリケーション毎、レイアウト毎の頻度から獲得する。
この情報共有特徴量は、テーブルT上でユーザUがタッチ操作したアプリケーションやコンテンツの表示位置、向き、サイズなどの属性によって、タッチ動作が協働である可能性を示す特徴量であり、例えば、下記式(4)で示すことができる。
Figure 2021005248
図13A,図13Bは、実施の形態における情報共有特徴量を説明する図である。図13A(a)に示すように、テーブルT上にアプリケーションA,A1、A2が0度の向きで配置されているとする。また、アプリケーションBが180度の向き(図の下側にアプリケーションBの上部Hが位置し、図の上側にアプリケーションBの下部Lが位置した状態)であったとする。
この場合の各アプリケーションの重み(事前確率2に相当)は、アプリケーションの表示位置、向き、サイズ等に基づく。例えば、図13A(b)に示すように、アプリケーションBの重みW2が所定の高い値であり、アプリケーションA,A1、A2の重みW3がいずれも所定の低い値であったとする。なお、重みはW1>W2>W3>W4であるとする。
ここで、図13A(c)に示すように、アプリケーションAのサイズおよび向きが変更されたとする。アプリケーションAは図13A(a)の状態に対してサイズが大きく拡大され、また、向きが90度に変更されたとする(図の左側にアプリケーションAの上部Hが位置し、図の右側にアプリケーションAの下部Lが位置した状態)。
この場合、制御部(特徴抽出部111)は、図13A(d)に示すように、アプリケーションAの向きが90度に変更されたことにより、このアプリケーションAが複数のユーザUの協働作業に用いられるものと判断する。例えば、制御部(特徴抽出部111)は、変更前の向きとサイズに対して変更後の向きとサイズの情報に基づき再計算し、アプリケーションAの重みをW2に対してより高い値のW1に変更する(事前確率3に相当)。
また、制御部(特徴抽出部111)は、上位の向きおよびサイズに加え、各アプリケーションA,A1,A2,Bに対するタッチ操作の頻度を含め重みを変更することができる。例えば、図13B(a)は、各アプリケーションのタッチイベント(タッチ頻度)を示す。横軸は時間、縦軸は協働重みである。アプリケーションA1,A2のタッチ頻度に比して、アプリケーションAのタッチ頻度が多い。図13B(b)は、横軸が時間、縦軸が情報共有特徴量を示す。制御部(特徴抽出部111)は、上記のサイズと向きの情報に加えて、図13B(b)で突出した特性SPに基づき、対応するアプリケーションAでのアタッチ頻度が多いことに基づき、アプリケーションAの重みを高めW1に変更することができる。
図14は、実施の形態にかかる情報共有特徴量の算出例を示すフローチャートである。制御部(CPU401)の特徴抽出部111が情報共有特徴量(sharing)を算出する際の処理例を説明する。
はじめに、制御部は、ユーザUによるタッチペンP等によるタッチイベントを待ち受け(ステップS1401)、タッチイベントの有無を判断する(ステップS1402)。制御部は、タッチイベントの入力がない間は(ステップS1402:No)、ステップS1401の処理に戻り、タッチイベントが入力されれば(ステップS1402:Yes)、テーブルT上でのタッチ座標を抽出する(ステップS1403)。
そして、制御部は、タッチ操作されたアプリケーションを各アプリケーションの領域内であるか否かに基づき判別する(ステップS1404)。例えば、上記のアプリケーションA,A1,A2,Bのいずれかの領域の内部であれば(ステップS1404:Yes)、ステップS1405の処理に移行する。一方、上記のアプリケーションA,A1,A2,Bのいずれかの領域の外部、すなわちテーブルTのタッチ操作であれば(ステップS1404:No)、ステップS1401の処理に戻る。
ステップS1405では、制御部は、アプリケーション毎の事前確率3を読み出し(ステップS1405)、上記式(4)等の演算を一定時間分(例えば3分)積分し、情報共有特徴量(sharing)を算出する(ステップS1406)。そして、制御部は、算出した情報共有特徴量(sharing)をメモリ402等に格納し、作業状態認識部112に対する、一つの協働特徴量として出力し(ステップS1407)、以上の処理を終了する。
D.協働行動特徴量(collabo)
制御部(特徴抽出部111)は、カメラ311が撮影したユーザUの手指し行動の動きベクトルをテーブルTへマッピングし、アプリケーションの表示画面上での滞留イベントに対して、一定時間内の協働重み付き平均和を算出する。この重み付き平均和を協働行動特徴量として算出する。
このように、ユーザUがアプリケーションやコンテンツへの手指しを検出した場合、協働作業をしている可能性が高い、このため、例えば、制御部(特徴抽出部111)は、下記式(5)に基づき協働確率(協働行動特徴量)を計算する。
Figure 2021005248
ここでは、手が検出された場合、pk(hand)=1.0とする。同じ時刻kにタッチイベントが検出された場合、pk(x,y)=1.0とする。このため、アプリケーションの上に手の存在が検出されたと同時に、タッチイベントも発生した場合、collabo(t)=0になる。一方、タッチイベントが発生していない場合の協働行動特徴量は、下記式(6)で示される。
Figure 2021005248
図15は、実施の形態における協働行動特徴量を説明する図である。図15(a)に示すように、テーブルT上にアプリケーションA1,A2,Bが0度の向きで配置され、アプリケーションAが90度の向き(図の左側にアプリケーションAの上部Hが位置し、右側にアプリケーションAの下部Lが位置した状態)であったとする。
そして、テーブルT上のアプリケーションA,A1,A2,Bに対してユーザUが手指し行動を行った場合、カメラ311がユーザUの手UHの動きを撮影する。制御部(特徴抽出部111)は、このユーザUの手UHの動きベクトルをテーブルTへマッピングする。図15(a)の例では、アプリケーションA、Bに対してユーザUの手UHの動きが検出された状態である。
図15(b)に示す例では、アプリケーションAは、最も大きく表示されており、かつ向きが90度である。制御部(特徴抽出部111)は、アプリケーションAが複数のユーザUの協働作業に用いられるものと判断し、アプリケーションAの重みが最も高い値W1に設定する。他のアプリケーションBの重みはW2、アプリケーションA1,A2の重みはW3である(テーブルT部分は重みW4)。各重みは上述した事前確率3に相当する。
そして、制御部(特徴抽出部111)は、アプリケーションA、Bに対する手指し行動を検出する。図示のように、手UHは、アプリケーションA,Bの領域の外部から内部に出し入れする如く移動する。
そして、制御部(特徴抽出部111)は、アプリケーションA、Bの表示画面上での滞留イベントに対して、一定時間内の協働重み付き平均和を算出し、協働行動特徴量とする。ここで、動きのある箇所で同時にタッチイベントがあった場合、その動きイベントを重み付き平均和の計算から除く。すなわち、ユーザUのUI操作や書き込みは、情報シェアリング行動と見なさないため、タッチイベントを取り除く。
図15(c)は、協働行動特徴量を示し、横軸は時間、縦軸は協働行動特徴量である。このように、タッチイベントを取り除いた後のイベント系列、すなわち、手UHの動きに対応した情報のみを協働行動特徴量として出力することができる。
図16は、実施の形態にかかる協働行動特徴量の算出例を示すフローチャートである。制御部(CPU401)の特徴抽出部111が協働行動特徴量(collabo)を算出する際の処理例を説明する。
はじめに、制御部は、カメラ311が撮影したテーブルT部分の画像を読み込む(ステップS1601)。そして、制御部は、画像から前景、すなわちユーザUの手UHを抽出する(ステップS1602)。この際、画像からユーザU以外の背景領域を除去する。この後、制御部は、画像からテーブルTの外側のオブジェクトを除去し(ステップS1603)、画像(前景)を2値化する(ステップS1604)。
この後、制御部は、画像からテーブルTの内側(テーブルT面に相当)のオブジェクトを抽出し(ステップS1605)、画像からユーザUの手UHを認識する(ステップS1606)。この際、例えば、2値画像に対してピクセルをグルーピングして領域をセグメンテーションし、各セグメントに対して長方形をフィッティングして、手UHらしいオブジェクトを抽出する。
そして、制御部は、手UHを認識していない間は(ステップS1607:No)、ステップS1601の処理に戻り、手UHを認識すれば(ステップS1607:Yes)、画像から手UHの重心座標を算出する(ステップS1608)。
この後、制御部は、算出した手UHの重心位置がアプリケーション窓(領域)の内側であるか判断する(ステップS1609)。制御部は、手UHの重心位置がアプリケーション窓(領域)の内側でなければ(ステップS1609:No)、ステップS1601の処理に戻る。一方、手UHの重心位置がアプリケーション窓(領域)の内側であれば(ステップS1609:Yes)、手UHの重心位置が内側に位置するアプリケーションが操作されているかを判断する(ステップS1610)。
そして、制御部は、手UHの重心位置が内側に位置するアプリケーションが操作されていれば(ステップS1610:Yes)、ステップS1601の処理に戻る。この操作とは、上述したユーザUによるUI操作や書き込みに相当する。
一方、手UHの重心位置が内側に位置するアプリケーションが操作されていなければ(ステップS1610:No)、制御部は、メモリ402から事前確率(事前確率3)を読み込む(ステップS1611)。そして、上記式(5)、(6)等の演算を一定時間分(例えば3分)累積(積分)し、協働行動特徴量(collabo)を算出する(ステップS1612)。そして、制御部は、算出した協働行動特徴量(collabo)をメモリ402等に格納し、作業状態認識部112に対する、一つの協働特徴量として出力し(ステップS1613)、以上の処理を終了する。
E.エンゲージ特徴量(engage)
制御部(特徴抽出部111)は、カメラ311で撮影したユーザUの位置と各アプリケーションの表示画面(領域)の中心位置との間の距離に対して、一定時間内の協働重み付き平均和を算出し、この重み付き平均和をエンゲージ特徴量として算出する。例えば、協働で使用するアプリケーションに複数のユーザUが近寄っている場合、エンゲージ特徴量が大きくなる。
エンゲージ特徴量(engage)は、ユーザUがアプリケーションやコンテンツの周りに密集する度合いを示す特徴量であり、下記式(7)で示される。
Figure 2021005248
(A:テーブルT上に表示したアプリケーションやコンテンツのリスト、|A|:テーブルT上に表示したアプリケーションやコンテンツの数、B:テーブルTの周りに位置するユーザU、|B|:テーブルTの周りのユーザUの人数、dist(a,b):アプリケーションaの中心位置からユーザbまでの距離)
図17は、実施の形態におけるエンゲージ特徴量を説明する図である。図17(a)に示すように、テーブルT上にアプリケーションA1,A2,Bが0度の向きで配置され、アプリケーションAが90度の向き(図の左側にアプリケーションAの上部Hが位置し、右側にアプリケーションAの下部Lが位置した状態)であったとする。また、テーブルTには図の上下に2名ずつ計4名のユーザU(U1〜U4)が位置していたとする。
そして、制御部は、図17(b)に示すように、各アプリケーションA,A1,A2,Bに対する各ユーザU(U1〜U4)の距離を算出する。例えば、アプリケーションAに対するユーザU1の距離はL1A、ユーザU3の距離はL3Aである。ユーザUの中心位置は、例えばユーザUの頭UAの重心位置を用いる。図17(b)では、複数のユーザU(U1〜U4)のうち、ユーザU2,U4が左側に寄って位置している。この場合、テーブルT上で左側に位置しているアプリケーションAの重みW1が最も高くなる。
図17(c)は、エンゲージ特徴量の変化状態を示す。図17(c)の右側に示すように、通常はテーブルTに対しほぼ均等に各ユーザU(U1〜U4)が位置する。これに対し、図17(c)の左側に示したように、各ユーザU(U1〜U4)がテーブルTの左側に寄って位置していたとする。この場合、制御部は、テーブルTの左側にユーザU(U1〜U4)が密集していると判断する。すなわち、テーブルTの左側に位置するアプリケーションAに対する各ユーザU(U1〜U4)の距離が近づいた状態である。この場合、制御部は、アプリケーションAに対するエンゲージ特徴量で見ると、図の右側よりも左側の状態の時、アプリケーションAに対するエンゲージ特徴量を大きく設定する。
図18は、実施の形態にかかるエンゲージ特徴量の算出例を示すフローチャートである。制御部(CPU401)の特徴抽出部111がエンゲージ特徴量(engage)を算出する際の処理例を説明する。
はじめに、制御部は、カメラ311が撮影したテーブルTおよびユーザUを含む部分の画像を読み込む(ステップS1801)。そして、制御部は、画像から前景、すなわち各ユーザU(U1〜U4)を抽出し(ステップS1802)、各ユーザUの頭UAを抽出する(ステップS1803)。この後、制御部は、画像に含まれている複数のユーザU(U1〜U4)それぞれの頭UAの位置を取得する(ステップS1804)。この際、例えば、制御部は、前景領域から頭らしいオブジェクトを検出し、例えば、頭の形状○相当でフィッティングし、○らしい領域を頭UAと見なす。
全ユーザU(U1〜U4)の頭UAを取得していない間は(ステップS1804:No)、ステップS1802の処理に戻る。そして、全ユーザU(U1〜U4)の頭UAを認識すれば(ステップS1804:Yes)、各ユーザU(U1〜U4)の頭UAの重心座標を算出する(ステップS1805)。
この後、制御部は、各ユーザU(U1〜U4)の頭UAの重心位置と、テーブルT上のアプリケーション(A,A1,A2,B)の窓中心(領域)との距離をそれぞれ算出するう(ステップS1806)。そして、制御部は、メモリ402から事前確率(事前確率3)を読み込み(ステップS1807)、ステップS1806で算出した距離に基づき事前確率(事前確率3)を更新する(ステップS1808)。
そして、制御部は上記式(7)等の演算を一定時間分累積(積分)し(例えば3分)、エンゲージ特徴量(engage)を算出する(ステップS1809)。そして、制御部は、算出したエンゲージ特徴量(engage)をメモリ402等に格納し、作業状態認識部112に対する、一つの協働特徴量として出力し(ステップS1810)、以上の処理を終了する。
以上説明したA.協働操作特徴量(coop)〜E.エンゲージ特徴量(engage)の各協働特徴量は、制御部(CPU401)の特徴抽出部111がプログラム実行により算出する。
そして、これらA.協働操作特徴量(coop)〜E.エンゲージ特徴量(engage)の各協働特徴量は、グループ活動の協働/非協働判別のための識別モデルの学習用の教師データとして用いる。例えば、教師データとして、識別モデルの構築者が上記の各協働特徴量と同期したビデオ(すなわち、カメラ311の撮影画像の録画等)を見て、協働/非協働を特徴量へラベリングする作業を行い、識別モデルの学習用の教師データとする。
そして、作業状態認識部112には、ラベリングされた上記の協働特徴量、または、協働特徴量を含む特徴量が入力される(図2参照)。作業状態認識部112は、協働/非協働の判別モデルとして、機械学習分野で一般的に利用されている公知のモデルを利用する。例えば、ニューラルネットワーク(図2の符号200)、support vector machine、random forest等を利用することができる。
そして、作業状態認識部112は、グループ活動の協働/非協働であるかをオンライン判別する。リアルタイムに抽出した協働特徴量は、作業状態認識部112の学習済みの判別モデルに入力することで、オンラインで協働/非協働状態を判別する。そして、作業状態認識部112は、協働/非協働の判別結果を、必要とするアプリケーション(例えば、図1の振り返りダッシュボードサービスR)にリアルタイムに出力する。
(他のシステム構成例)
上述した判別システム(図3A,図3B)の判別装置100では、主に画像を用いて協働特徴量を算出する構成とした。これに加えて、判別装置100は、グループ活動時の各ユーザUの会話時の音声を用いてさらに他の協働特徴量として、F.会話特徴量(conversation)を算出することができる。
図19A,図19Bは、実施の形態にかかる判別システムの他の構成例を示す図である。これらの図において、図3A,図3Bと同じ構成には同じ符号を付している。図19Aに示すように、空間UI技術に関する構成として、図3Aで説明したプロジェクタ310、カメラ311、人認識センサ312、タッチペンP、ユニットPC313、に加えて、テーブルTの中心位置にマイクアレイ1900を設ける。例えば、マイクアレイ1900は、複数のマイクロフォンを有し、各ユーザU(U1〜U4)それぞれの発声を方向別に360度の全方向で検出する。
また、図19Bに示すように、図19Aに示したプロジェクタ310〜ユニットPC313、およびマイクアレイ1900を一組としたシステムは、対象のグループ毎に複数設けられる。
図20は、実施の形態にかかる会話特徴量の算出例を示すフローチャートである。制御部(CPU401)の特徴抽出部111がF.会話特徴量(conversation)を算出する際の処理例を説明する。
はじめに、制御部は、2次元事前確率マップを生成する(ステップS2001)。この2次元事前確率マップは、上述同様にテーブルT同様のサイズを有し、アプリケーション毎の重みを設定したものである(例えば、図6参照)。
つぎに、制御部は、マイクアレイ1900が収音した音声を検出し(ステップS2002)、この音声がユーザUの発声イベントであるか否かを判断する(ステップS2003)。例えば、雑音などユーザUの発声イベントでなければ(ステップS2003:No)、ステップS2002の処理に戻る。
一方、制御部は、ユーザUの発声イベントであると判断すれば(ステップS2003:Yes)、発声したユーザUの音源方向を検出し(ステップS2004)、音声イベントテーブルに時刻と音源方向(度)を登録する(ステップS2005)。
この後、制御部は、今回の発声イベントの直前に発声イベントがあったかを判断する(ステップS2006)。今回の発声イベントの直前に発声イベントがなければ(ステップS2006:No)、ステップS2002の処理に戻る。一方、今回の発声イベントの直前に発声イベントがあれば(ステップS2006:Yes)、制御部は、複数のユーザUによる対話イベントと判定する(ステップS2007)。
この後、制御部は、両話者の中間位置の座標を算出する(ステップS2008)。例えば、両話者それぞれの発声方向(度)に基づき両話者の中間位置の座標を算出する。そして、制御部は、算出した両話者の中間位置の座標に対応した事前確率(上記の事前確率3)をメモリ402から読み込む(ステップS2009)。
そして、制御部は読み込んだ事前確率を一定時間分累積(積分)し(例えば3分)、会話特徴量(conversation)を算出する(ステップS2010)。そして、制御部は、算出した会話特徴量(conversation)をメモリ402等に格納し、作業状態認識部112に対する、一つの協働特徴量として出力し(ステップS2011)、以上の処理を終了する。
図21は、実施の形態にかかる会話特徴量の算出例を説明する図である。図21(a)には、音声イベントテーブル2100を示す。制御部(特徴抽出部111)は、上記処理(ステップS2005)により、音声イベントテーブル2100に発生イベント毎の時刻と、音源方向(度)を登録していく。
また、図21(b)には、上記処理(ステップS2008)による両話者の中間位置の座標算出例を示す。例えば、制御部がユーザU1とU2の発声が対話イベントと判定した場合において、マイクアレイ1900がユーザU1の音源方向が150度、ユーザU2の音源方向が270度であったとする。なお、テーブルTの横方向が0度である。この場合、制御部は、ユーザU1とU2を繋ぐ仮想線上での両話者の中間位置Cを算出する。中間位置Cは、テーブルTの縦方向の中心位置のうち、横方向の座標上に位置する。
以上のように、判別システムは、協働特徴量として、音声を用いてユーザU間の対話を検出した会話特徴量(conversation)を算出することができる。これにより、協働特徴量として画像に加えて音声の情報を用いることができ、判別システムは、より多くの協働特徴量の情報を用いてより正確にグループ作業の協働/非協働状態を判別できるようになる。
以上説明した実施の形態は、グループ作業に関わる複数のユーザに対するアプリケーション等のオブジェクトの種類や、表示したテーブル上での大きさ、向き等の表示状態を示す情報をそれぞれ時間的に積分した特徴量を算出する。また、表示したアプリケーションに対する複数のユーザの位置や手指し等の行動状態、を示す情報をそれぞれ時間的に積分した特徴量を算出する。そして、算出した特徴量に基づき、複数のユーザがグループ作業を協働して行っているか否かを判別する。これらの特徴量は、グループ作業時に複数のユーザが協働しているかを判別するのに適した異なる情報であり、協働の有無を正確に判別できるようになる。
また、制御部は、特徴量の一つとして、オブジェクトの種類、大きさ、および複数のユーザへの提示の向き、にそれぞれ対応した重みを予め事前確率として記憶する。そして、オブジェクトの種類、大きさ、および複数のユーザへの提示の向き、に対応した情報共有特徴量を算出する。これにより、グループ作業時には、予め用意した事前確率の情報を用いて、例えば、ユーザに対するオブジェクトの提示状態を示す情報共有特徴量を迅速かつ簡単に算出でき、この情報共有特徴量を用いて、協働の有無を正確に判別できるようになる。また、オブジェクトの種類、大きさ、および複数のユーザへの提示の向き、のいずれかの変更があった場合、事前確率を当該変更に対応した重みを用いて情報共有特徴量を再算出する。これにより、事前確率を用いつつ、グループ作業時のオブジェクトの表示状態の変更に対応してリアルタイムに情報共有特徴量を更新でき、協働の有無を常に正確に判別できるようになる。
また、制御部は、特徴量の一つとして、提示されたオブジェクトに対する複数のユーザの手の動きに基づく協働行動特徴量を算出する。これにより、オブジェクトに対するユーザの操作に対応して、協働の有無を正確に判別できるようになる。
また、制御部は、特徴量の一つとして、オブジェクトの提示位置と、複数のユーザとの間の距離に基づき、複数のユーザの相対的密集度を表すエンゲージ特徴量を算出する。これにより、あるオブジェクトに対する複数のユーザの相対的な密集度に応じて、協働の有無を正確に判別できるようになる。
また、制御部は、特徴量の一つとして、複数のユーザが協働する作業エリア別に異なる重みに基づく協働操作特徴量を算出する。例えば、グループ作業時、テーブル中心で協働することが多いことに対応して、テーブル上での中心の重みを大きくし、周辺ほど重みを小さくする。これにより、作業エリア別の協働の有無を正確に判別できるようになる。
また、制御部は、特徴量の一つとして、複数のユーザが協働する全体の作業エリアに対する、複数のユーザの個別の作業エリアでのユーザの行動状態の情報に基づく操作バランス特徴量を算出する。これにより、ユーザが協働せず個別作業しているか否かにより、協働の有無を正確に判別できるようになる。
また、制御部は、特徴量の一つとして、ユーザの音声による発声があった場合、直前の他のユーザの発声との関係が対話状態である会話特徴量を算出する。例えば、ユーザの行動に関する特徴量は、上記の手指しに限らず、ユーザ間の会話に基づき得ることができる。これにより、ユーザ間の会話により、協働の有無を正確に判別できるようになる。
また、制御部は、グループ作業時に入力される、一つまたは複数の特徴量、および複数のユーザの行動状態、を示す情報を、事前学習した判別モデルに基づいて、複数のユーザがグループ作業を協働して行っているか否かを判別する。上述した各種の特徴量を多く取得できるほど、判別モデルを用いた協働の有無の判別精度を向上できるようになる。
また、オブジェクトを、表示によりユーザに提示するプロジェクタ、およびユーザの移動状態を撮影するカメラ、さらには、ユーザの発声および方向を検出するマイクアレイ、を含んでもよい。例えば、プロジェクタは、テーブルまたは壁にオブジェクトを表示し、カメラは、テーブル上に表示されたオブジェクトに対する複数のユーザのタッチ操作を検出する。これら汎用の装置を用いて判別システムを簡単に構築できる。
また、制御部は、複数のユーザがグループ作業を協働して行っているか否かの判別結果を、グループ学習の成果を評価するサービス機能部(振り返りダッシュボードサービス)に出力し、グループ作業のテーブルごとの協働/非協働状態の詳細を評価者に通知する。これにより、評価者は、判別結果に基づき、以降のグループ活動の改善等の対策を施すことができるようになる。
これらのことから、実施の形態によれば、グループ作業に関わった複数のユーザの協働、あるいは非協働状態を正確に判別できるようになる。この判別には、異なる複数の特徴量を用いることで、グループ作業時の様々な作業パターンに対応できるようになる。
例えば、各ユーザが同時に作業するフェーズでアイデアを出し尽くして停滞状態に近い場合と、1人のユーザだけが作業して他の複数のユーザがアイデアを考えて指示を出す状況とでは異なる状況であるが、一定時間内のタッチ操作の総数に大差はない。既存の技術では、各ユーザが協働して作業しているか、あるいは各ユーザが異なる作業を行う等の非協働状態であるか、の判別が困難であった。
これに対し、実施の形態では、タッチ数だけではなく、各ユーザの位置やオブジェクトに対する手指しの状態それぞれに異なる各種特徴量を用いる。これにより、各ユーザが協働して作業しているか、あるいは各ユーザが異なる作業を行う等の非協働状態であるか、を正確に判別できるようになる。そして、空間UI技術を用いて各ユーザに対するUIの入出力情報を有効利用し、グループ活動における複数のユーザの協働/非協働状態を適切に判別でき、グループ活動後の評価により、以降のグループ活動の改善や最適化を効率的に遂行できるようになる。
なお、本発明の実施の形態で説明した判別制御にかかる方法は、予め用意されたプログラムをサーバ等のプロセッサに実行させることにより実現することができる。本方法は、ハードディスク、フレキシブルディスク、CD−ROM(Compact Disc−Read Only Memory)、DVD(Digital Versatile Disk)、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また本方法は、インターネット等のネットワークを介して配布してもよい。
上述した実施の形態に関し、さらに以下の付記を開示する。
(付記1)グループ作業に関わる複数のユーザに対するオブジェクトの提示状態、および提示した前記オブジェクトに対する複数の前記ユーザの行動状態、を示す情報をそれぞれ時間的に積分した特徴量を算出し、算出した前記特徴量に基づき、複数のユーザが前記グループ作業を協働して行っているか否かを判別する制御部、
を備えたことを特徴とする判別システム。
(付記2)前記制御部は、前記特徴量の一つとして、前記オブジェクトの種類、大きさ、および複数の前記ユーザへの提示の向き、にそれぞれ対応した重みを予め事前確率として記憶し、前記オブジェクトの種類、大きさ、および複数の前記ユーザへの提示の向き、に対応した情報共有特徴量を算出し、
前記オブジェクトの種類、大きさ、および複数の前記ユーザへの提示の向き、のいずれかの変更があった場合、前記事前確率を当該変更に対応した重みを用いて前記情報共有特徴量を再算出する、
ことを特徴とする付記1に記載の判別システム。
(付記3)前記制御部は、前記特徴量の一つとして、提示した前記オブジェクトに対する複数の前記ユーザの手の動きに基づく協働行動特徴量を算出する、
ことを特徴とする付記1または2に記載の判別システム。
(付記4)前記制御部は、前記特徴量の一つとして、前記オブジェクトの提示位置と、複数の前記ユーザとの間の距離に基づき、複数の前記ユーザの相対的密集度を表すエンゲージ特徴量を算出する、
ことを特徴とする付記1〜3のいずれか一つに記載の判別システム。
(付記5)前記制御部は、前記特徴量の一つとして、複数の前記ユーザが協働する作業エリア別に異なる重みに基づく協働操作特徴量を算出する、
ことを特徴とする付記1〜4のいずれか一つに記載の判別システム。
(付記6)前記制御部は、前記特徴量の一つとして、複数の前記ユーザが協働する全体の作業エリアに対する、複数の前記ユーザの個別の作業エリアでの前記ユーザの行動状態の情報に基づく操作バランス特徴量を算出する、
ことを特徴とする付記1〜5のいずれか一つに記載の判別システム。
(付記7)前記制御部は、前記特徴量の一つとして、前記ユーザの音声による発声があった場合、直前の他のユーザの発声との関係が対話状態である会話特徴量を算出する、
ことを特徴とする付記1〜6のいずれか一つに記載の判別システム。
(付記8)前記制御部は、前記グループ作業時に入力される、一つまたは複数の前記特徴量、および複数の前記ユーザの行動状態、を示す情報を、事前学習した判別モデルに基づいて、複数の前記ユーザが前記グループ作業を協働して行っているか否かを判別する、
ことを特徴とする付記1〜7のいずれか一つに記載の判別システム。
(付記9)前記オブジェクトを、表示により前記ユーザに提示するプロジェクタ、および前記ユーザの移動状態を撮影するカメラ、を含むことを特徴とする付記1〜8のいずれか一つに記載の判別システム。
(付記10)前記ユーザの発声および方向を検出するマイクアレイ、を含むことを特徴とする付記7〜9のいずれか一つに記載の判別システム。
(付記11)前記プロジェクタは、テーブルまたは壁に前記オブジェクトを表示し、前記カメラは、前記テーブル上に表示されたオブジェクトに対する複数の前記ユーザのタッチ操作を検出することを特徴とする付記9に記載の判別システム。
(付記12)前記制御部は、複数のユーザが前記グループ作業を協働して行っているか否かの判別結果を、グループ学習の成果を評価するサービス機能部に出力することを特徴とする付記1〜11のいずれか一つに記載の判別システム。
(付記13)グループ作業に関わる複数のユーザに対するオブジェクトの提示状態、および提示した前記オブジェクトに対する複数の前記ユーザの行動状態を取得し、
前記取得した情報をそれぞれ時間的に積分した特徴量を算出し、
算出した前記特徴量に基づき、複数のユーザが前記グループ作業を協働して行っているか否かを判別する、
処理をコンピュータに実行させることを特徴とする判別制御プログラム。
(付記14)グループ作業に関わる複数のユーザに対するオブジェクトの提示状態、および提示した前記オブジェクトに対する複数の前記ユーザの行動状態を取得し、
前記取得した情報をそれぞれ時間的に積分した特徴量を算出し、
算出した前記特徴量に基づき、複数のユーザが前記グループ作業を協働して行っているか否かを判別する、
処理をコンピュータが実行することを特徴とする判別制御方法。
100 判別装置(データPC)
101 記憶部
111 特徴抽出部
112 作業状態認識部
120 空間UI情報入出力装置(ベースPC)
200 ニューラルネットワーク
201 学習モデル
310(310a〜310d) プロジェクタ
311(311a〜311d) カメラ
312(312a〜312d) 人認識センサ
313(313a〜313d) ユニットPC
320 空間UIネットワーク
401 CPU(制御部)
402 メモリ
403 ネットワークインタフェース
405 記録媒体
500,700,800 事前確率マップ
1900 マイクアレイ
2100 音声イベントテーブル
P タッチペン
R 振り返りダッシュボードサービス
T テーブル
U(U1〜U4) ユーザ
UR 評価者
W1〜W5 重み

Claims (13)

  1. グループ作業に関わる複数のユーザに対するオブジェクトの提示状態、および提示した前記オブジェクトに対する複数の前記ユーザの行動状態、を示す情報をそれぞれ時間的に積分した特徴量を算出し、算出した前記特徴量に基づき、複数のユーザが前記グループ作業を協働して行っているか否かを判別する制御部、
    を備えたことを特徴とする判別システム。
  2. 前記制御部は、前記特徴量の一つとして、前記オブジェクトの種類、大きさ、および複数の前記ユーザへの提示の向き、にそれぞれ対応した重みを予め事前確率として記憶し、前記オブジェクトの種類、大きさ、および複数の前記ユーザへの提示の向き、に対応した情報共有特徴量を算出し、
    前記オブジェクトの種類、大きさ、および複数の前記ユーザへの提示の向き、のいずれかの変更があった場合、前記事前確率を当該変更に対応した重みを用いて前記情報共有特徴量を再算出する、
    ことを特徴とする請求項1に記載の判別システム。
  3. 前記制御部は、前記特徴量の一つとして、提示した前記オブジェクトに対する複数の前記ユーザの手の動きに基づく協働行動特徴量を算出する、
    ことを特徴とする請求項1または2に記載の判別システム。
  4. 前記制御部は、前記特徴量の一つとして、前記オブジェクトの提示位置と、複数の前記ユーザとの間の距離に基づき、複数の前記ユーザの相対的密集度を表すエンゲージ特徴量を算出する、
    ことを特徴とする請求項1〜3のいずれか一つに記載の判別システム。
  5. 前記制御部は、前記特徴量の一つとして、複数の前記ユーザが協働する作業エリア別に異なる重みに基づく協働操作特徴量を算出する、
    ことを特徴とする請求項1〜4のいずれか一つに記載の判別システム。
  6. 前記制御部は、前記特徴量の一つとして、複数の前記ユーザが協働する全体の作業エリアに対する、複数の前記ユーザの個別の作業エリアでの前記ユーザの行動状態の情報に基づく操作バランス特徴量を算出する、
    ことを特徴とする請求項1〜5のいずれか一つに記載の判別システム。
  7. 前記制御部は、前記特徴量の一つとして、前記ユーザの音声による発声があった場合、直前の他のユーザの発声との関係が対話状態である会話特徴量を算出する、
    ことを特徴とする請求項1〜6のいずれか一つに記載の判別システム。
  8. 前記制御部は、前記グループ作業時に入力される、一つまたは複数の前記特徴量、および複数の前記ユーザの行動状態、を示す情報を、事前学習した判別モデルに基づいて、複数の前記ユーザが前記グループ作業を協働して行っているか否かを判別する、
    ことを特徴とする請求項1〜7のいずれか一つに記載の判別システム。
  9. 前記オブジェクトを、表示により前記ユーザに提示するプロジェクタ、および前記ユーザの移動状態を撮影するカメラ、を含むことを特徴とする請求項1〜8のいずれか一つに記載の判別システム。
  10. 前記ユーザの発声および方向を検出するマイクアレイ、を含むことを特徴とする請求項7〜9のいずれか一つに記載の判別システム。
  11. 前記プロジェクタは、テーブルまたは壁に前記オブジェクトを表示し、前記カメラは、前記テーブル上に表示されたオブジェクトに対する複数の前記ユーザのタッチ操作を検出することを特徴とする請求項9に記載の判別システム。
  12. グループ作業に関わる複数のユーザに対するオブジェクトの提示状態、および提示した前記オブジェクトに対する複数の前記ユーザの行動状態を取得し、
    前記取得した情報をそれぞれ時間的に積分した特徴量を算出し、
    算出した前記特徴量に基づき、複数のユーザが前記グループ作業を協働して行っているか否かを判別する、
    処理をコンピュータに実行させることを特徴とする判別制御プログラム。
  13. グループ作業に関わる複数のユーザに対するオブジェクトの提示状態、および提示した前記オブジェクトに対する複数の前記ユーザの行動状態を取得し、
    前記取得した情報をそれぞれ時間的に積分した特徴量を算出し、
    算出した前記特徴量に基づき、複数のユーザが前記グループ作業を協働して行っているか否かを判別する、
    処理をコンピュータが実行することを特徴とする判別制御方法。
JP2019119094A 2019-06-26 2019-06-26 判別システム、判別制御プログラムおよび判別制御方法 Active JP7298337B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019119094A JP7298337B2 (ja) 2019-06-26 2019-06-26 判別システム、判別制御プログラムおよび判別制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019119094A JP7298337B2 (ja) 2019-06-26 2019-06-26 判別システム、判別制御プログラムおよび判別制御方法

Publications (2)

Publication Number Publication Date
JP2021005248A true JP2021005248A (ja) 2021-01-14
JP7298337B2 JP7298337B2 (ja) 2023-06-27

Family

ID=74097347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019119094A Active JP7298337B2 (ja) 2019-06-26 2019-06-26 判別システム、判別制御プログラムおよび判別制御方法

Country Status (1)

Country Link
JP (1) JP7298337B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105749A (ja) * 1998-09-29 2000-04-11 Fuji Xerox Co Ltd 協調作業支援システムならびに協調作業支援装置および記録媒体
JP2006146415A (ja) * 2004-11-17 2006-06-08 Ricoh Co Ltd 会議支援システム
JP2007267965A (ja) * 2006-03-31 2007-10-18 Railway Technical Res Inst チームによる業務の活性度の評価システムおよびそれを用いた業務雰囲気の活性化システム
JP2008097236A (ja) * 2006-10-11 2008-04-24 Fujitsu Ltd グループ作業解析支援プログラム、グループ作業解析支援方法、およびグループ作業解析支援装置
JP2009229605A (ja) * 2008-03-19 2009-10-08 National Institute Of Advanced Industrial & Technology 活動プロセスリフレクション支援システム
JP2010244526A (ja) * 2009-03-31 2010-10-28 Fuji Xerox Co Ltd 共同作業コンテンツを自動的に検知する方法、システムおよびコンピュータプログラム、コンテンツの経時変化を可視化する方法およびシステム
JP2011215900A (ja) * 2010-03-31 2011-10-27 Kddi Corp マルチモーダル対話装置
JP2018063555A (ja) * 2016-10-12 2018-04-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105749A (ja) * 1998-09-29 2000-04-11 Fuji Xerox Co Ltd 協調作業支援システムならびに協調作業支援装置および記録媒体
JP2006146415A (ja) * 2004-11-17 2006-06-08 Ricoh Co Ltd 会議支援システム
JP2007267965A (ja) * 2006-03-31 2007-10-18 Railway Technical Res Inst チームによる業務の活性度の評価システムおよびそれを用いた業務雰囲気の活性化システム
JP2008097236A (ja) * 2006-10-11 2008-04-24 Fujitsu Ltd グループ作業解析支援プログラム、グループ作業解析支援方法、およびグループ作業解析支援装置
JP2009229605A (ja) * 2008-03-19 2009-10-08 National Institute Of Advanced Industrial & Technology 活動プロセスリフレクション支援システム
JP2010244526A (ja) * 2009-03-31 2010-10-28 Fuji Xerox Co Ltd 共同作業コンテンツを自動的に検知する方法、システムおよびコンピュータプログラム、コンテンツの経時変化を可視化する方法およびシステム
JP2011215900A (ja) * 2010-03-31 2011-10-27 Kddi Corp マルチモーダル対話装置
JP2018063555A (ja) * 2016-10-12 2018-04-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
坂口 勝哉: "二人組共同作業における頭上カメラを用いた協力度推定", 第68回 先進的学習科学と工学研究会資料, vol. SIG-ALST-B301-05, JPN6023007654, 17 June 2013 (2013-06-17), JP, pages 23 - 26, ISSN: 0005000106 *

Also Published As

Publication number Publication date
JP7298337B2 (ja) 2023-06-27

Similar Documents

Publication Publication Date Title
TWI412953B (zh) 基於從所捕獲的三維影像流所偵測之使用者行為信號控制文件
JP2021503662A (ja) ニューラルネットワークのモデルの訓練
US20230162411A1 (en) Augmented reality map curation
US20160180157A1 (en) Method for setting a tridimensional shape detection classifier and method for tridimensional shape detection using said shape detection classifier
CN110287947A (zh) 互动课堂中的互动教室确定方法及装置
JP2018032164A (ja) 面接システム
JP6888854B1 (ja) 遠隔勤務支援システム及び遠隔勤務支援方法
Marshall et al. 4D Cardiff Conversation Database (4D CCDb): A 4D database of natural, dyadic conversations
Tung et al. Multiparty interaction understanding using smart multimodal digital signage
Duraisamy et al. Classroom engagement evaluation using computer vision techniques
JP6855737B2 (ja) 情報処理装置、評価システムおよびプログラム
JP7298337B2 (ja) 判別システム、判別制御プログラムおよび判別制御方法
Neumann et al. Integration of audiovisual sensors and technologies in a smart room
Soroni et al. Hand Gesture Based Virtual Blackboard Using Webcam
WO2022168185A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022168180A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
Gandage et al. Virtual Paint
CN110110766B (zh) 一种基于运动规划控制特征的在线性格分析方法及装置
CN110192208B (zh) 共享物理图形的信号片段
Arsićc et al. 3d gesture recognition applying long short-term memory and contextual knowledge in a CAVE
Pantic et al. Special issue on human computing
JP7465013B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7465012B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
Stiefelhagen et al. Tracking identities and attention in smart environments-contributions and progress in the CHIL project
WO2022168174A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7298337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150