JP6772023B2 - ユーザー状態検出による集団相互作用の方法及びシステム - Google Patents
ユーザー状態検出による集団相互作用の方法及びシステム Download PDFInfo
- Publication number
- JP6772023B2 JP6772023B2 JP2016205763A JP2016205763A JP6772023B2 JP 6772023 B2 JP6772023 B2 JP 6772023B2 JP 2016205763 A JP2016205763 A JP 2016205763A JP 2016205763 A JP2016205763 A JP 2016205763A JP 6772023 B2 JP6772023 B2 JP 6772023B2
- Authority
- JP
- Japan
- Prior art keywords
- participants
- involvement
- time
- data stream
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000003993 interaction Effects 0.000 title claims description 20
- 238000001514 detection method Methods 0.000 title description 30
- 230000007704 transition Effects 0.000 claims description 31
- 230000033001 locomotion Effects 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 22
- 230000007613 environmental effect Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013479 data entry Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 description 16
- 230000006399 behavior Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000036544 posture Effects 0.000 description 10
- 238000000605 extraction Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 5
- 230000006996 mental state Effects 0.000 description 4
- 230000001144 postural effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000033458 reproduction Effects 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 238000011953 bioanalysis Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 230000036284 oxygen consumption Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B7/00—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Evolutionary Biology (AREA)
- Social Psychology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
前記2人以上の参加者についての少なくとも一つの三次元(3D)データストリームを捕捉する工程と、
前記2人以上の参加者についての前記少なくとも一つの3Dデータストリームから、時系列の骨格データを抽出する工程と、
前記2人以上の参加者の各々についての前記時系列の骨格データを、複数の体位識別子に基づいて分類する工程と、
前記2人以上の参加者の各々についての前記時系列の骨格データの前記分類に基づいて、前記2人以上の参加者の各々についての関与スコアを計算する工程と、
前記2人以上の参加者の前記関与スコアの少なくとも一つに従って、フィードバックを提供する工程と、
を有し、
前記2人以上の参加者の各々についての前記時系列の骨格データを前記複数の体位識別子に基づいて分類する工程は、
前記時系列の骨格データに最大平均差異(MMD)基準を適用し、連続するジェスチャーにおける変化点をジェスチャー遷移の初期推定切断部として検出する工程と、
運動学的拘束を用いて前記初期推定切断部を正確なジェスチャー遷移位置に修正する工程と、
確率密度推定を用いて2つの前記切断部間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去する工程と、を有することを特徴とする方法が開示される。
前記2人以上の参加者についての少なくとも一つの三次元(3D)データストリームを捕捉する工程と、
前記2人以上の参加者についての前記少なくとも一つの3Dデータストリームから、時系列の骨格データを抽出する工程と、
前記2人以上の参加者の各々についての前記時系列の骨格データを、複数の体位識別子に基づいて分類する工程と、
前記2人以上の参加者の各々についての前記時系列の骨格データの前記分類に基づいて、前記2人以上の参加者の各々についての関与スコアを計算する工程と、
前記2人以上の参加者の前記関与スコアの少なくとも一つに従って、フィードバックを提供する工程と、
を含み、
前記2人以上の参加者の各々についての前記時系列の骨格データを前記複数の体位識別子に基づいて分類する工程は、
前記時系列の骨格データに最大平均差異(MMD)基準を適用し、連続するジェスチャーにおける変化点をジェスチャー遷移の初期推定切断部として検出する工程と、
運動学的拘束を用いて前記初期推定切断部を正確なジェスチャー遷移位置に修正する工程と、
確率密度推定を用いて2つの前記切断部間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去する工程と、を含む処理を前記コンピューターに実行させることを特徴とするコンピュータープログラムが開示される。
前記2人以上の参加者についての少なくとも一つの三次元(3D)データストリームを捕捉するデータ入力モジュールと、
前記2人以上の参加者についての前記少なくとも一つの3Dデータストリームから、時系列の骨格データを抽出するモジュールと、
前記2人以上の参加者の各々についての前記時系列の骨格データを、複数の体位識別子に基づいて分類し、
前記2人以上の参加者の各々についての前記時系列の骨格データの前記分類に基づいて、前記2人以上の参加者の各々についての関与スコアを計算し、
前記2人以上の参加者の前記関与スコアの少なくとも一つに従って、フィードバックを提供するように構成されたプロセッサーと、
を備え、
前記プロセッサーは、
前記2人以上の参加者の各々についての前記時系列の骨格データを、前記複数の体位識別子に基づいて分類する際に、
前記時系列の骨格データに最大平均差異(MMD)基準を適用し、連続するジェスチャーにおける変化点をジェスチャー遷移の初期推定切断部として検出し、
運動学的拘束を用いて前記初期推定切断部を正確なジェスチャー遷移位置に修正し、
確率密度推定を用いて2つの前記切断部間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去することを特徴とするシステムが開示される。
前記2人以上の参加者の各々について、前記参加者の態度に基づき、関与した状態及び離脱した状態を含む前記ミーティングへの前記参加者の関与状態である個別関与状態を計算し、
前記2人以上の参加者の前記態度に基づき、前記ミーティングへの前記2人以上の参加者の関与状態である集団関与状態を計算し、
フィードバックを提供するように構成されたプロセッサーと、
前記2人以上の参加者についての少なくとも一つの三次元(3D)データストリームを捕捉するデータ入力モジュールと、
前記2人以上の参加者についての前記少なくとも一つの3Dデータストリームから、時系列の骨格データを抽出するモジュールと、
を備え、
前記プロセッサーは、
前記2人以上の参加者の各々についての前記時系列の骨格データを、複数の体位識別子に基づいて分類し、
前記2人以上の参加者の各々についての前記時系列の骨格データの前記分類に基づいて、前記2人以上の参加者の各々についての個別関与スコアを計算し、
前記フィードバックの提供は、
前記離脱した状態を有する前記参加者の数が第一の閾値を超えた場合は、前記参加者の前記個別関与状態に関わらず、前記参加者のすべてに対して集団警告を与えること、
前記離脱した状態を有する前記参加者の数が第二の閾値を超えない場合は、前記離脱した状態を有する前記参加者にのみ警告を与えること、及び
前記集団関与状態に従って、ミーティング室のシステムに環境的フィードバックを提供することを含み、
前記プロセッサーは、
前記2人以上の参加者の各々についての前記時系列の骨格データを、前記複数の体位識別子に基づいて分類する際に、
前記時系列の骨格データに最大平均差異(MMD)基準を適用し、連続するジェスチャーにおける変化点をジェスチャー遷移の初期推定切断部として検出し、
運動学的拘束を用いて前記初期推定切断部を正確なジェスチャー遷移位置に修正し、
確率密度推定を用いて2つの前記切断部間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去することを特徴とするシステムが開示される。
(a)離脱、例えば、散漫及び/又は油断
(b)緩やかな関与、例えば、傾聴又は観察
(c)身を入れた関与、例えば、うなずき、傾聴、非言語的フィードバック
(d)行動の意思、例えば、前方に傾く及び/又は口を開くジェスチャー
(e)行動、例えば、話す及び/又は操ること
(f)身を入れた行動、例えば、激しいジェスチャー及び/又は早口での発言
(マルチモーダルデータ)
(体位構成要素データ)
(音声データ)
(顔データ)
(重みデータ)
(ユーザー状態検出―関与)
(分類子)
(有限状態機械)
入場動作:その状態に入るときに実行される
状態動作:その状態の間に実行される
退場動作:その状態を抜けるときに実行される
(重み及び最終関与スコア)
離脱 < 非常に低い関与スコア
緩やかな関与 > 低い関与スコア
身を入れた関与 > 低い/中間の関与スコア
行動の意思 > 中間の関与スコア
行動 > 中間の高い関与スコア
身を入れた行動 > 高い関与スコア
(関与検出の適用)
(ジェスチャー認識の改善)
(ユーザー同定)
(ジェスチャーセグメンテーション)
図7に示すように、例示的な実施形態では、ジェスチャーセグメンテーションは、いつ現在のジェスチャーが終了して新たなジェスチャーが開始されるかを決定するフレーム又はフレームの組の検討を含む。図7に示すように、ジェスチャーセグメンテーションは3つのステップを含みうる。
(1)第一工程は、最大平均差異(Maximum Mean Discrepancy:MMD)を適用し、連続するジェスチャーにおける変化点を、ジェスチャー遷移の初期推定切断部として検出する。
(2)第二工程は、運動学的拘束(kinematic constraints)を用いて、初期推定切断部を正確なジェスチャー遷移位置に修正する。
(3)確率密度推定を用いて2つの切断部の間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去する。
(ジェスチャー分類)
(ポインティング精度)
(ミーティング参加者への関与フィードバック及びインフラストラクチャー管理)
(ミーティング動的フィードバック)
(環境的フィードバック)
(動作意思フィードバック)
Claims (25)
- ミーティングにおける2人以上の参加者間の相互作用を検出する方法であって、
前記2人以上の参加者についての少なくとも一つの三次元(3D)データストリームを捕捉する工程と、
前記2人以上の参加者についての前記少なくとも一つの3Dデータストリームから、時系列の骨格データを抽出する工程と、
前記2人以上の参加者の各々についての前記時系列の骨格データを、複数の体位識別子に基づいて分類する工程と、
前記2人以上の参加者の各々についての前記時系列の骨格データの前記分類に基づいて、前記2人以上の参加者の各々についての関与スコアを計算する工程と、
前記2人以上の参加者の前記関与スコアの少なくとも一つに従って、フィードバックを提供する工程と、
を有し、
前記2人以上の参加者の各々についての前記時系列の骨格データを前記複数の体位識別子に基づいて分類する工程は、
前記時系列の骨格データに最大平均差異(MMD)基準を適用し、連続するジェスチャーにおける変化点をジェスチャー遷移の初期推定切断部として検出する工程と、
運動学的拘束を用いて前記初期推定切断部を正確なジェスチャー遷移位置に修正する工程と、
確率密度推定を用いて2つの前記切断部間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去する工程と、を有することを特徴とする方法。 - 前記複数の体位識別子は、手を上げること、ディスプレイに顔を向けること、前方に傾くこと、後方に傾くこと、及び/又は猫背になることのうち一以上を含むことを特徴とする請求項1に記載の方法。
- 前記2人以上の参加者についてのオーディオデータストリームを捕捉する工程と、
前記2人以上の参加者についての前記オーディオデータストリームにおいて検出された発言に基づき、前記関与スコアに発言識別子を加える工程と、
を有することを特徴とする請求項1に記載の方法。 - 前記2人以上の参加者についての重みデータストリームであって、椅子の上の前記2人以上の参加者の各々の重み分布に対応する前記重みデータストリームを捕捉する工程と、
前記2人以上の参加者の各々の前記重み分布に基づき、前記関与スコアに重み分布識別子を加える工程と、
を有することを特徴とする請求項1に記載の方法。 - 前記2人以上の参加者についての集団関与スコアを生成する工程を有することを特徴とする請求項1に記載の方法。
- 前記2人以上の参加者の各々についての前記関与スコアと、前記集団関与スコアとに基づき、フィードバックを生成する工程であって、前記フィードバックは、ウェアラブルデバイスを用いたオーディオ、ビジュアル、バイブレーションアラート、又はミーティング室における環境的条件の変更のうち一以上を含む工程を有することを特徴とする請求項5に記載の方法。
- 前記2人以上の参加者の各々についての前記時系列の骨格データに対し、有限状態機械モデルを適用する工程を有することを特徴とする請求項1に記載の方法。
- 2人以上の参加者間の相互作用を検出するコンピューター読取可能なコードを記憶したコンピュータープログラムであって、前記プログラムはコンピューターにより実行され、
前記2人以上の参加者についての少なくとも一つの三次元(3D)データストリームを捕捉する工程と、
前記2人以上の参加者についての前記少なくとも一つの3Dデータストリームから、時系列の骨格データを抽出する工程と、
前記2人以上の参加者の各々についての前記時系列の骨格データを、複数の体位識別子に基づいて分類する工程と、
前記2人以上の参加者の各々についての前記時系列の骨格データの前記分類に基づいて、前記2人以上の参加者の各々についての関与スコアを計算する工程と、
前記2人以上の参加者の前記関与スコアの少なくとも一つに従って、フィードバックを提供する工程と、
を含み、
前記2人以上の参加者の各々についての前記時系列の骨格データを前記複数の体位識別子に基づいて分類する工程は、
前記時系列の骨格データに最大平均差異(MMD)基準を適用し、連続するジェスチャーにおける変化点をジェスチャー遷移の初期推定切断部として検出する工程と、
運動学的拘束を用いて前記初期推定切断部を正確なジェスチャー遷移位置に修正する工程と、
確率密度推定を用いて2つの前記切断部間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去する工程と、を有する処理を前記コンピューターに実行させることを特徴とするコンピュータープログラム。 - 前記複数の体位識別子は、手を上げること、ディスプレイに顔を向けること、前方に傾くこと、後方に傾くこと、及び/又は猫背になることのうち一以上を含むことを特徴とする請求項8に記載のコンピュータープログラム。
- 前記2人以上の参加者についてのオーディオデータストリームを捕捉する工程と、
前記2人以上の参加者についての前記オーディオデータストリームにおいて検出された発言に基づき、前記関与スコアに発言識別子を加える工程と、
を有することを特徴とする請求項8に記載のコンピュータープログラム。 - 前記2人以上の参加者の重み分布についての重みデータストリームであって、椅子の上の前記2人以上の参加者の各々の前記重み分布に対応する前記重みデータストリームを捕捉する工程と、
前記2人以上の参加者の各々の前記重み分布に基づき、前記関与スコアに重み分布識別子を加える工程と、
を有することを特徴とする請求項8に記載のコンピュータープログラム。 - 前記2人以上の参加者についての集団関与スコアを生成する工程を有することを特徴とする請求項8に記載のコンピュータープログラム。
- 2人以上の参加者間の相互作用を検出するシステムであって、
前記2人以上の参加者についての少なくとも一つの三次元(3D)データストリームを捕捉するデータ入力モジュールと、
前記2人以上の参加者についての前記少なくとも一つの3Dデータストリームから、時系列の骨格データを抽出するモジュールと、
前記2人以上の参加者の各々についての前記時系列の骨格データを、複数の体位識別子に基づいて分類し、
前記2人以上の参加者の各々についての前記時系列の骨格データの前記分類に基づいて、前記2人以上の参加者の各々についての関与スコアを計算し、
前記2人以上の参加者の前記関与スコアの少なくとも一つに従って、フィードバックを提供するように構成されたプロセッサーと、
を備え、
前記プロセッサーは、
前記2人以上の参加者の各々についての前記時系列の骨格データを前記複数の体位識別子に基づいて分類する際に、
前記時系列の骨格データに最大平均差異(MMD)基準を適用し、連続するジェスチャーにおける変化点をジェスチャー遷移の初期推定切断部として検出し、
運動学的拘束を用いて前記初期推定切断部を正確なジェスチャー遷移位置に修正し、
確率密度推定を用いて2つの前記切断部間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去することを特徴とするシステム。 - 前記2人以上の参加者についてのオーディオデータストリームを捕捉するように構成されたオーディオデバイスを備え、
前記プロセッサーは、前記2人以上の参加者についての前記オーディオデータストリームにおいて検出された発言に基づき、前記関与スコアに発言識別子を加えるように構成されていることを特徴とする請求項13に記載のシステム。 - 前記2人以上の参加者についての重みデータストリームであって、椅子の上の前記2人以上の参加者の各々の重み分布に対応する前記重みデータストリームを捕捉する重みセンサーを備え、
前記プロセッサーは、前記2人以上の参加者の各々の前記重み分布に基づき、前記関与スコアに重み分布識別子を加えるように構成されていることを特徴とする請求項13に記載のシステム。 - 前記プロセッサーは、前記2人以上の参加者についての集団関与スコアを生成するように構成されていることを特徴とする請求項13に記載のシステム。
- 前記関与スコア及び/又は前記集団関与スコアが所定の数又は割合を下回った場合に、前記2人以上の参加者の少なくとも1人に、リアルタイムでフィードバックを提供するように構成された、オーディオデバイス、ビジュアルデバイス、又はウェアラブルデバイス
を備えることを特徴とする請求項16に記載のシステム。 - 2人以上の参加者が参加するミーティングにおける集団相互作用を改善するシステムであって、
前記2人以上の参加者の各々について、前記参加者の態度に基づき、関与した状態及び離脱した状態を含む前記ミーティングへの前記参加者の関与状態である個別関与状態を計算し、
前記2人以上の参加者の前記態度に基づき、前記ミーティングへの前記2人以上の参加者の関与状態である集団関与状態を計算し、
フィードバックを提供するように構成されたプロセッサーと、
前記2人以上の参加者についての少なくとも一つの三次元(3D)データストリームを捕捉するデータ入力モジュールと、
前記2人以上の参加者についての前記少なくとも一つの3Dデータストリームから、時系列の骨格データを抽出するモジュールと、
を備え、
前記プロセッサーは、
前記2人以上の参加者の各々についての前記時系列の骨格データを、複数の体位識別子に基づいて分類し、
前記2人以上の参加者の各々についての前記時系列の骨格データの前記分類に基づいて、前記2人以上の参加者の各々についての個別関与スコアを計算し、
前記フィードバックの提供は、
前記離脱した状態を有する前記参加者の数が第一の閾値を超えた場合は、前記参加者の前記個別関与状態に関わらず、前記参加者のすべてに対して集団警告を与えること、
前記離脱した状態を有する前記参加者の数が第二の閾値を超えない場合は、前記離脱した状態を有する前記参加者にのみ警告を与えること、及び
前記集団関与状態に従って、ミーティング室のシステムに環境的フィードバックを提供することを含み、
前記プロセッサーは、
前記2人以上の参加者の各々についての前記時系列の骨格データを前記複数の体位識別子に基づいて分類する際に、
前記時系列の骨格データに最大平均差異(MMD)基準を適用し、連続するジェスチャーにおける変化点をジェスチャー遷移の初期推定切断部として検出し、
運動学的拘束を用いて前記初期推定切断部を正確なジェスチャー遷移位置に修正し、
確率密度推定を用いて2つの前記切断部間の手の動きを推定し、意図しない動作及び非ジェスチャーセグメントを除去することを特徴とするシステム。 - 前記フィードバックは、一定の時間フレームの間の前記参加者の前記態度に基づいて与えられることを特徴とする請求項18に記載のシステム。
- 前記第一の閾値は前記第二の閾値よりも高いことを特徴とする請求項18に記載のシステム。
- 前記離脱した状態を有する前記参加者の数が前記第一の閾値を超えた場合に、前記ミーティングをサポートする環境的フィードバックが提供されることを特徴とする請求項18に記載のシステム。
- 前記集団関与状態における変化が第三の閾値よりも大きい場合に前記環境的フィードバックが提供されることを特徴とする請求項18に記載のシステム。
- 前記2人以上の参加者についてのオーディオデータストリームを捕捉するように構成さ
れたオーディオデバイスを備え、
前記プロセッサーは、前記2人以上の参加者についての前記オーディオデータストリームにおいて検出された発言に基づき、前記個別関与スコアに発言識別子を加えるように構成されていることを特徴とする請求項18に記載のシステム。 - 前記2人以上の参加者についての重みデータストリームであって、椅子の上の前記2人以上の参加者の各々の重み分布に対応する前記重みデータストリームを捕捉する重みセンサーを備え、
前記プロセッサーは、前記2人以上の参加者の各々の前記重み分布に基づき、前記個別関与スコアに重み分布識別子を加えるように構成されていることを特徴とする請求項23に記載のシステム。 - リアルタイムで前記フィードバックを提供するように構成された、オーディオデバイス、ビジュアルデバイス又はウェアラブルデバイスを備えることを特徴とする請求項24に記載のシステム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562249118P | 2015-10-30 | 2015-10-30 | |
US62/249,118 | 2015-10-30 | ||
US201662301100P | 2016-02-29 | 2016-02-29 | |
US62/301,100 | 2016-02-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017123149A JP2017123149A (ja) | 2017-07-13 |
JP6772023B2 true JP6772023B2 (ja) | 2020-10-21 |
Family
ID=57838102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016205763A Active JP6772023B2 (ja) | 2015-10-30 | 2016-10-20 | ユーザー状態検出による集団相互作用の方法及びシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9800834B2 (ja) |
EP (1) | EP3163507A1 (ja) |
JP (1) | JP6772023B2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10116801B1 (en) * | 2015-12-23 | 2018-10-30 | Shoutpoint, Inc. | Conference call platform capable of generating engagement scores |
US10382722B1 (en) | 2017-09-11 | 2019-08-13 | Michael H. Peters | Enhanced video conference management |
US11290686B2 (en) * | 2017-09-11 | 2022-03-29 | Michael H Peters | Architecture for scalable video conference management |
US11785180B2 (en) | 2017-09-11 | 2023-10-10 | Reelay Meetings, Inc. | Management and analysis of related concurrent communication sessions |
US11122240B2 (en) | 2017-09-11 | 2021-09-14 | Michael H Peters | Enhanced video conference management |
JP7110568B2 (ja) * | 2017-09-19 | 2022-08-02 | 富士フイルムビジネスイノベーション株式会社 | 行動推定装置及び行動推定プログラム |
US11837233B2 (en) * | 2018-01-12 | 2023-12-05 | Sony Corporation | Information processing device to automatically detect a conversation |
JP6867971B2 (ja) * | 2018-03-26 | 2021-05-12 | 株式会社 日立産業制御ソリューションズ | 会議支援装置及び会議支援システム |
US11037557B2 (en) | 2018-08-24 | 2021-06-15 | International Business Machines Corporation | Cognitive contextual conversation side topics |
JP6997733B2 (ja) * | 2019-02-20 | 2022-01-18 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11455599B2 (en) * | 2019-04-02 | 2022-09-27 | Educational Measures, LLC | Systems and methods for improved meeting engagement |
US10838881B1 (en) * | 2019-04-26 | 2020-11-17 | Xio Research, Inc. | Managing connections of input and output devices in a physical room |
US11093903B2 (en) * | 2019-05-20 | 2021-08-17 | International Business Machines Corporation | Monitoring meeting participation level |
US11652875B2 (en) * | 2019-09-30 | 2023-05-16 | Salesforce, Inc. | Dynamic user integration in group-based communication systems |
US20220141266A1 (en) * | 2020-11-02 | 2022-05-05 | Virtual Sapiens Inc. | System and method to improve video conferencing using presence metrics |
US20230239366A1 (en) * | 2022-01-21 | 2023-07-27 | Avaya Management L.P. | Systems and methods for determining a communication load |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006323547A (ja) * | 2005-05-17 | 2006-11-30 | Fuji Xerox Co Ltd | 情報処理装置、情報処理方法及びプログラム |
JP2011081504A (ja) * | 2009-10-05 | 2011-04-21 | Hitachi Ltd | 会議支援システムおよびプログラム |
US8670018B2 (en) * | 2010-05-27 | 2014-03-11 | Microsoft Corporation | Detecting reactions and providing feedback to an interaction |
US8448056B2 (en) * | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US9152376B2 (en) * | 2011-12-01 | 2015-10-06 | At&T Intellectual Property I, L.P. | System and method for continuous multimodal speech and gesture interaction |
US20130205314A1 (en) * | 2012-02-07 | 2013-08-08 | Arun Ramaswamy | Methods and apparatus to select media based on engagement levels |
US20140145936A1 (en) * | 2012-11-29 | 2014-05-29 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for 3d gesture behavior recognition |
US8769557B1 (en) * | 2012-12-27 | 2014-07-01 | The Nielsen Company (Us), Llc | Methods and apparatus to determine engagement levels of audience members |
WO2014110598A1 (en) * | 2013-01-14 | 2014-07-17 | Massively Parallel Technologies, Inc. | System and method for determining engagement of audience members during a lecture |
US20160234551A1 (en) * | 2013-12-02 | 2016-08-11 | Dumbstruck, Inc. | Video reaction processing |
US9426421B2 (en) * | 2014-09-05 | 2016-08-23 | Avaya Inc. | System and method for determining conference participation |
US9639770B2 (en) * | 2015-03-26 | 2017-05-02 | Konica Minolta Laboratory U.S.A., Inc. | System and method for improving communication productivity |
-
2016
- 2016-10-20 JP JP2016205763A patent/JP6772023B2/ja active Active
- 2016-10-27 EP EP16196071.1A patent/EP3163507A1/en not_active Ceased
- 2016-10-31 US US15/339,613 patent/US9800834B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3163507A1 (en) | 2017-05-03 |
US20170127021A1 (en) | 2017-05-04 |
US9800834B2 (en) | 2017-10-24 |
JP2017123149A (ja) | 2017-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6772023B2 (ja) | ユーザー状態検出による集団相互作用の方法及びシステム | |
Kessous et al. | Multimodal emotion recognition in speech-based interaction using facial expression, body gesture and acoustic analysis | |
JP6467965B2 (ja) | 感情推定装置及び感情推定方法 | |
Sebe et al. | Emotion recognition based on joint visual and audio cues | |
JP2021057057A (ja) | 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム | |
Beyan et al. | Detecting emergent leader in a meeting environment using nonverbal visual features only | |
JP5437297B2 (ja) | 対話状態推定装置、方法、及びプログラム | |
JP2004112518A (ja) | 情報提供装置 | |
Zhang et al. | Emotion detection using Kinect 3D facial points | |
Gorga et al. | Conversation scene analysis based on dynamic bayesian network and image-based gaze detection | |
JP2018032164A (ja) | 面接システム | |
JP2018073204A (ja) | アクション指示プログラム、アクション指示方法及び画像生成装置 | |
EP3454332A1 (en) | Control device, control method, and computer program | |
US20170301037A1 (en) | Group discourse architecture | |
JP2023075197A (ja) | 反応解析システムおよび反応解析装置 | |
JP2018049481A (ja) | 情報処理装置、評価システムおよびプログラム | |
JP2017224166A (ja) | 画像生成装置、画像生成プログラム及び画像生成方法 | |
Celiktutan et al. | Continuous prediction of perceived traits and social dimensions in space and time | |
EP3454334A1 (en) | Control device, control method, and computer program | |
Hradis et al. | Voice activity detection from gaze in video mediated communication | |
JP2009042910A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
Otsuka | Multimodal conversation scene analysis for understanding people’s communicative behaviors in face-to-face meetings | |
JP2023015068A (ja) | 感情解析システムおよび感情解析装置 | |
JP6859641B2 (ja) | 評価システム、情報処理装置およびプログラム | |
Haider et al. | Improving Response Time of Active Speaker Detection Using Visual Prosody Information Prior to Articulation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200923 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6772023 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |