JPWO2018097177A1 - エンゲージメント測定システム - Google Patents

エンゲージメント測定システム Download PDF

Info

Publication number
JPWO2018097177A1
JPWO2018097177A1 JP2018552614A JP2018552614A JPWO2018097177A1 JP WO2018097177 A1 JPWO2018097177 A1 JP WO2018097177A1 JP 2018552614 A JP2018552614 A JP 2018552614A JP 2018552614 A JP2018552614 A JP 2018552614A JP WO2018097177 A1 JPWO2018097177 A1 JP WO2018097177A1
Authority
JP
Japan
Prior art keywords
engagement
face
value
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018552614A
Other languages
English (en)
Inventor
▲隆▼一 平出
▲隆▼一 平出
幹夫 岡崎
幹夫 岡崎
村山 正美
正美 村山
祥一 八谷
祥一 八谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GAIA SYSTEM SOLUTIONS Inc
Original Assignee
GAIA SYSTEM SOLUTIONS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GAIA SYSTEM SOLUTIONS Inc filed Critical GAIA SYSTEM SOLUTIONS Inc
Publication of JPWO2018097177A1 publication Critical patent/JPWO2018097177A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Educational Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

生徒や聴衆が授業あるいは講演にどの程度興味を持っているのかをリアルタイムで測定し、集計することができる、エンゲージメント測定システムを提供する。エンゲージメント測定装置は、単一あるいは少数の撮像装置を用いて多数の被写体である生徒を撮影し、生徒が授業にどの程度興味を持っているかを示すエンゲージメント値を測定する。エンゲージメント測定装置は被写体IDと日時情報とエンゲージメント値をログテーブルに記録する。

Description

本発明は、特に学習塾等に好適な、エンゲージメント測定システムに関する。
テレビジョン放送(以下「TV放送」)において放送される映像コンテンツが、どれだけ視聴者に視聴されているのかを示す指標として、従来から「世帯視聴率」が用いられている。TV放送における世帯視聴率の計測は、サンプルとなる家庭に視聴率を測定するための機器を設置し、その機器が、テレビジョン受像機(以下「TV」)がオン状態で表示しているチャンネルに関する情報をほぼリアルタイムで集計拠点へ送信する。すなわち世帯視聴率とは、視聴時間と視聴チャンネルに関する情報を集計した結果であり、世帯視聴率という情報からは視聴者がどのような状態で番組(映像コンテンツ)を視聴したのかはわからない。
例えば、視聴者がTV番組に対し、画面を注視せずラジオのように聞き流すような視聴形態である場合には、当該番組は視聴者にとって集中した状態で視聴されていないこととなる。このような視聴形態では、TV番組に挟まれるコマーシャル(以下「CM」)の宣伝効果はあまり期待できない。
視聴者がTV番組をどの程度集中して視聴しているのかを知るための技術が、幾つか検討されている。
特許文献1には、TV番組に対し、視聴者がどの程度集中しているのかを「集中度」と定義し、その集中度を取得して利用する技術が開示されている。
特開2003−111106号公報
発明者等は、これまで集中度を測定する機器を開発してきた。その機器の開発の過程において、人がある事象に対して集中するという状態は、能動的な要因のみならず、受動的な要因もあるということに気付いた。
例えば、人がある課題に直面して、その課題を解決するために集中するという行為は、能動的な要因である。つまり、当該行為は「当該事象に集中しなければならない」という感情に起因する。これに対し、人が面白いことや楽しいこと等の事象を見て、興味を惹かれるという行為は、ある意味で受動的な要因である。つまり、当該行為は「当該事象に思わず惹かれてしまう」という感情に起因する。
発明者等は、このように相反する感情に起因する行動を「集中度」という言葉で表現することが必ずしも適切ではないと考えた。そこで発明者等は、ある対象者が、ある事象に対し、能動的または受動的な要因の如何にかかわらず、注目している状態を、「エンゲージメント(Engagement)」という言葉として定義することとした。そして、発明者等は、これまで開発してきた機器を、集中度を測定する機器ではなく、エンゲージメントを測定する機器と定義することとした。
本明細書で説明する発明者等が開発したシステムは、このエンゲージメントを測定するシステムである。
エンゲージメントの測定は、前述のTV放送に適用されることが想定されるが、これ以外にも様々な応用が考えられる。今般、発明者等は、エンゲージメントの測定を学習塾等の教育現場に適用することを考えた。すなわち、生徒が授業にどの程度興味を持っているのかをリアルタイムで測定し、集計することができれば、学習塾の顧客満足度向上や業績向上に寄与することができる。
これまで集中度を計測するシステムは何れも高額であり、しかも多数の機器を導入する必要がある学習塾等には普及し難いという問題があった。
本発明はかかる課題に鑑みてなされたものであり、本発明の目的は、生徒や聴衆が授業あるいは講演にどの程度興味を持っているのかをリアルタイムで測定し、集計することができる、エンゲージメント測定システムを提供することにある。
上記課題を解決するために、本発明のエンゲージメント測定システムは、複数の被撮影者の顔を撮影可能な撮像装置と、撮像装置から動画像データストリームを受信して、複数の被撮影者のエンゲージメント値を測定するエンゲージメント測定装置とよりなる。
エンゲージメント測定装置は、撮像装置から出力される画像データストリームから1画面分の画像データを格納するフレームバッファと、フレームバッファに格納されている画像データから複数の被撮影者の顔の存在を検出し、複数の被撮影者の顔だけを抽出するための顔検出アドレス情報を出力する顔検出処理部と、フレームバッファに格納されている画像データと顔検出アドレス情報から、複数の被撮影者の顔の二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部とを具備する。更に、特徴点データから、被撮影者の顔の向きを示す顔方向ベクトルを生成するベクトル解析部と、顔方向ベクトルを演算して被撮影者が3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出し、注視方向ベクトルが所定の事象に向いているのか否かを判定し、判定結果の移動平均を算出してエンゲージメント値を出力するエンゲージメント算出部と、顔検出アドレス情報に基いて、画像データに含まれる複数の被撮影者毎にエンゲージメント値を算出させるべくエンゲージメント算出部を稼働させて、画像データの撮影日時情報または現在日時情報と、複数の被撮影者を画像データ内において一意に識別するID情報と共にログテーブルに記録する入出力制御部とを具備する。更に、エンゲージメント値の平均値を算出するエンゲージメント平均値算出部と、複数の被撮影者のエンゲージメント値の平均値を表示する表示部とを具備する。
本発明によれば、生徒や聴衆が授業あるいは講演にどの程度興味を持っているのかをリアルタイムで測定し、集計することができる、エンゲージメント測定システムを提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第一の実施形態に係るエンゲージメント測定システムを所定の学習塾に設置し稼働させた状態を示す概略図である。 本発明の第一の実施形態に係るエンゲージメント測定システムの全体構成を示す概略図である。 ノートパソコン及び小型のシングルボードコンピュータで構成されるエンゲージメント測定装置の外観図である。 シングルボードコンピュータで構成されるエンゲージメント測定装置の、ハードウェア構成を示すブロック図である。 本発明の第一の実施形態に係るエンゲージメント測定システムのソフトウェア機能を示すブロック図である。 撮像装置から出力される画像データストリームの一例を示す概略図と、顔検出処理部が出力する顔抽出画像データの一例を示す概略図と、特徴点抽出部が出力する特徴点データの一例を示す概略図である。 サーバのハードウェア構成を示すブロック図である。 サーバのソフトウェア機能を示すブロック図である。 モニタ端末のハードウェア構成を示すブロック図である。 モニタ端末のソフトウェア機能を示すブロック図である。 モニタ端末の表示部に表示されるモニタ画面の表示例である。 本発明の第二の実施形態に係るエンゲージメント測定システムの全体構成を示すと共に、エンゲージメント測定システムを所定の学習塾に設置し稼働させた状態を示す概略図である。 エンゲージメント測定装置のハードウェア構成を示すブロック図である。 本発明の第二の実施形態に係るエンゲージメント測定装置のソフトウェア機能を示すブロック図である。 撮像装置から出力され、フレームバッファに格納される1画面分の画像データの一例を示す概略図と、顔検出処理部が出力する顔検出アドレス情報の一例を示す概略図と、特徴点抽出部が出力する特徴点データの一例を示す概略図である。 フレームバッファに格納されている画像データに対し、顔検出処理部が顔検出アドレス情報を生成する状態と、顔検出処理部が顔検出アドレス情報を生成した状態を示すイメージ図である。 エンゲージメント算出部の機能ブロック図である。 ログテーブルのフィールド構成を示す表である。 エンゲージメント測定装置の入出力制御部によって表示部に表示されるモニタ画面の表示例である。
出願人は、コンテンツを視聴するユーザをカメラで撮影し、ユーザの顔の向き及び視線の向きから集中度を算出する集中度処理システムについて、先に特許出願した(特願2016−124611、以下「第一の特許出願」)。この第一の特許出願における集中度処理システムは、ユーザの顔をカメラで撮影し、ユーザの顔と視線の向きを検出し、それらの向きがコンテンツを表示するディスプレイにどの程度向いているかを測定することで、ユーザのコンテンツに対する集中度を算出している。
これより説明する第一の実施形態は、第一の特許出願に開示した集中度処理システムを改良し、学習塾等に向けたアプリケーションとして構築したエンゲージメント測定システム及びエンゲージメント測定装置に係る。
この第一の実施形態におけるエンゲージメント測定システムは、カメラを内蔵するエンゲージメント測定装置を生徒の近傍に設置して、生徒のエンゲージメント値を測定し、その平均値を集計する。また、エンゲージメント測定装置は、内蔵カメラに映る生徒一人のエンゲージメント値を測定する。
そして、第一の実施形態の次に説明する第二の実施形態は、第一の実施形態におけるエンゲージメント測定システムを更に改良し、より簡易なシステム構成を実現すべく構築したエンゲージメント測定システムに係る。すなわち、生徒あるいは聴衆の一人に一台ずつカメラを配置するのではなく、教室あるいは講堂全体を撮影する高解像度カメラを一台設けて、一台のカメラで複数人のエンゲージメント値を測定する。
[第一の実施形態:設置稼働例]
図1は、本発明の第一の実施形態に係るエンゲージメント測定システム101を所定の学習塾に設置し稼働させた状態を示す概略図である。
学習塾102において、講師103は生徒104に対して授業を行っている。この時、生徒104の机105には所定の教材等を表示すると共にエンゲージメントを測定する、ノートパソコンであるエンゲージメント測定装置106が設置されている。
エンゲージメント測定装置106のLCDディスプレイの枠には、カメラが装着あるいは埋設されており、カメラは生徒104の顔を撮影することが可能になっている。
エンゲージメント測定装置106には、後述するエンゲージメント測定プログラムが稼働しており、リアルタイムで生徒104のエンゲージメント値を測定し、測定したエンゲージメント値を無線LAN経由でサーバ108に送信する。各生徒104のエンゲージメント値は無線LANルータ107に接続されているサーバ108にてログ記録される。図1では、ノートパソコンでサーバ108を構成している。
更に、タブレットPCであるモニタ端末109は、無線LAN経由でサーバ108に常時アクセスして、各生徒104のエンゲージメントの値と集計値を受信して、液晶ディスプレイに表示する。講師103はモニタ端末109を見ることで、授業中にリアルタイムでエンゲージメントを確認することができる。
図8にて後述するが、モニタ端末109とサーバ108は兼用することが可能である。すなわち、ノートパソコンに、サーバ108としての機能と、モニタ端末109としての機能の両方を搭載して稼働させることができる。
なお、図1では図示していないが、本発明の第一の実施形態に係るエンゲージメント測定システム101は、インターネットを通じて展開されるサテライト授業においても、前述の学習塾102と同様の実施が可能である。
[全体構成]
図2は、本発明の第一の実施形態に係るエンゲージメント測定システム101の全体構成を示す概略図である。
エンゲージメント測定装置106と、サーバ108と、モニタ端末109は、無線LANルータ107を介して接続されている。ここで、無線LANルータ107は小規模なLANを構成する。無線LANルータ107の代わりにスイッチングハブ等を用いて、エンゲージメント測定装置106と、サーバ108と、モニタ端末109の全てを有線LANで接続してもよい。
サテライト授業や通信講座等の場合は、エンゲージメント測定装置106とサーバ108が、LANの代わりにインターネットで接続されることとなる。
エンゲージメント測定装置106を構成するノートパソコンには、後述するエンゲージメント測定プログラムが稼働しており、リアルタイムで生徒104のエンゲージメントを測定し、測定したエンゲージメントを無線LAN経由でサーバ108に送信する。
サーバ108は、エンゲージメント測定装置106から受信したエンゲージメント値をログ記録する。
モニタ端末109は、サーバ108にアクセスし、所定のエンゲージメント測定装置106が出力するエンゲージメント値を受信して、集計値を算出し、リアルタイムで液晶ディスプレイに表示する。
[エンゲージメント測定装置106:外観]
エンゲージメント測定装置106は、必ずしもノートパソコンで構成されるものではなく、例えば近年急速に普及しているシングルボードコンピュータでも構成することが可能である。
図3Aは、ノートパソコン301で構成されるエンゲージメント測定装置106の外観図である。
ノートパソコン301には、ネットワークOSと、ノートパソコン301をエンゲージメント測定装置106として稼働させるためのプログラムがインストールされている。
ノートパソコン301のLCDディスプレイ302の枠には、ビデオチャット等に使用されるwebカメラ303が装着あるいは埋設されている。ノートパソコン301を生徒104の机105に設置すると、このwebカメラ303が生徒104の顔を撮影することで、生徒104のエンゲージメント値の測定が可能になる。
図3Bは、小型のシングルボードコンピュータ304で構成されるエンゲージメント測定装置106の外観図である。
シングルボードコンピュータ304には、ネットワークOSと、シングルボードコンピュータ304をエンゲージメント測定装置106として稼働させるためのプログラムがインストールされている。
シングルボードコンピュータ304を生徒104の机上に設置すると、シングルボードコンピュータ304の筐体に装着されたカメラ305が生徒104の顔を撮影することで、生徒104のエンゲージメントの測定が可能になる。
シングルボードコンピュータ304は、例えば英国ラズベリーパイ財団(http://www.raspberrypi.org/)が開発する「Raspberry Pi」等が利用可能である。シングルボードコンピュータ304の演算処理能力は、例えばLinux(登録商標)等のネットワークOSが実用的な速度で稼働可能な程度であればよい。
[エンゲージメント測定装置106:ハードウェア構成]
図4は、シングルボードコンピュータ304で構成されるエンゲージメント測定装置106の、ハードウェア構成を示すブロック図である。
エンゲージメント測定装置106は、CPU401、ROM402、RAM403、不揮発性ストレージ404、現在日時情報を出力するリアルタイムクロック(以下「RTC」)405、無線LANルータ107等に接続するための無線LANインターフェース406とNIC(Network Interface Card)407がバス408に接続されている。 そして、エンゲージメント測定装置106において重要な役割を持つ撮像装置409(webカメラ303、カメラ305)もバス408に接続されている。
不揮発性ストレージ404には、シングルボードコンピュータ304をネットワークに接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、エンゲージメント測定装置106として稼働させるためのプログラムが格納されている。
なお、エンゲージメント測定装置106をノートパソコン301で構成する場合は、図4のバス408に、更に液晶ディスプレイである表示部と、キーボードやマウス等のポインティングデバイスである操作部が接続される構成となる。
[エンゲージメント測定装置106:ソフトウェア機能]
図5は、本発明の第一の実施形態に係るエンゲージメント測定装置106の、ソフトウェア機能を示すブロック図である。
撮像装置409から出力される画像データストリームは、顔検出処理部501に供給される。
顔検出処理部501は、撮像装置409から出力される画像データストリームを時間軸上で連続する静止画として捉え、この時間軸上で連続する静止画の各画像データに対し、例えばViola−Jones法等の周知のアルゴリズムを用いて、生徒104の顔の存在を検出する。そして、生徒104の顔だけを抽出した顔抽出画像データを出力する。
顔検出処理部501が出力する顔抽出画像データは、特徴点抽出部502に供給される。
特徴点抽出部502は、顔抽出画像データに含まれる生徒104の顔の画像に、ポリゴン解析等の処理を施す。そして、生徒104の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。特徴点データの詳細については図6で後述する。
特徴点抽出部502が出力する特徴点データは、ベクトル解析部503に供給される。 ベクトル解析部503は、連続する2枚の顔抽出画像データに基づく特徴点データから、生徒104の顔の向きを示すベクトル(以下「顔方向ベクトル」)と、生徒104の顔における、視線の向きを示すベクトル(以下「視線方向ベクトル」)を生成する。
顔方向ベクトルと視線方向ベクトルは、エンゲージメント算出部504に供給される。 エンゲージメント算出部504は、顔方向ベクトルと視線方向ベクトルを加算して、生徒104がコンテンツを表示するディスプレイと撮像装置409を含む3次元空間内の何処を注視しているのかを示す、注視方向ベクトルを算出して、生徒104の注視方向がディスプレイに向いているのか否かを判定する。この判定結果は、生徒104の注視方向がディスプレイに向いているのか(論理の「真」)否か(論理の「偽」)を示す、2値である。
エンゲージメント算出部504は、この注視方向判定結果を例えば100msec毎に算出する。そして、例えば直近1秒間の注視方向判定結果の移動平均を算出する。このように演算することで、2値の注視方向判定結果を疑似アナログ的な値として取得することが可能になる。この、注視方向判定結果の移動平均値が、エンゲージメント値である。
エンゲージメント算出部504が出力するエンゲージメント値は、入出力制御部505に供給される。
入出力制御部505は、エンゲージメント値にRTC405が出力する現在日時情報とID情報506を付加して、送信パケットを生成する。
送信パケットは、インターフェース選択部507を通じて、無線LANインターフェース406またはNIC407の、ネットワークに接続されているサーバ108へ、HTTP(Hyper Text Transfer Protocol)を用いて送信される。すなわち、入出力制御部505には、webクライアントとしての機能を有する。
インターフェース選択部507の実体は、OSに備わっているTCP/IPプロトコルスタックとDHCP(Dynamic Host Configuration Protocol)クライアントである。すなわち、インターフェース選択部507は、IPリーチャブルなネットワークに接続されているネットワークインターフェースを選択して、送信パケットをサーバ108へ送信する。
なお、本発明の第一の実施形態に係るエンゲージメント測定装置106では、ネットワークにおける通信に使用するプロトコルに、最も簡素で扱い易いHTTPを例示しているが、データストリームを送信するプロトコルはこれに限るものではない。
[送信データについて]
送信パケットには、100msec毎に測定されるエンゲージメント値の他、RTC405が出力する現在日時情報とID情報506が含まれる。
後述するモニタ端末109の表示画面にて、複数のエンゲージメント測定装置106が出力するエンゲージメント値と、その平均値をリアルタイムで表示される。ネットワークには遅延が伴うので、測定したエンゲージメント値に現在日時情報を付加することで、複数のエンゲージメント測定装置106が出力するエンゲージメント値の時間軸を揃えることが可能になる。また、このためにはエンゲージメント測定装置106にNTP(Network Time Protocol)クライアント等の日時情報較正機能を有するプログラムがインストールされ、実行されることで、RTC405を正確に保つことが好ましい。
また、エンゲージメント測定装置106は生徒104の人数に応じて複数設置される。サーバ108は、複数のエンゲージメント測定装置106から同時にエンゲージメント値を受信するため、各々のエンゲージメント測定装置106について一意に識別する情報が必要である。このため、エンゲージメント測定装置106及び/または生徒104を一意に識別するID情報506が設けられている。なお、本発明の第一の実施形態に係るエンゲージメント測定システム101の学習塾102等における利用に際し、利用者である生徒104の識別を全く必要としない場合に限って、ID情報506に代えて、エンゲージメント測定装置106のNIC407または無線LANインターフェース406に、DHCPサーバによって付与される動的IPアドレスを、エンゲージメント測定装置106を一意に識別する情報として利用することが可能である。ID情報506の代わりにIPアドレスを使用する場合、IPアドレスはIPパケットのヘッダに含まれるので、送信パケットのペイロードには現在日時情報とエンゲージメント値のみとなる。
[特徴点データについて]
以下、顔検出処理部501、特徴点抽出部502、そしてベクトル解析部503の動作について説明する。
図6Aは、撮像装置409から出力される画像データストリームの一例を示す概略図である。図6Bは、顔検出処理部501が出力する顔抽出画像データの一例を示す概略図である。図6Cは、特徴点抽出部502が出力する特徴点データの一例を示す概略図である。
先ず、撮像装置409から被撮影者601を含む画像データストリームがリアルタイムで出力される。これが図6Aの画像データP602である。
次に、顔検出処理部501は、撮像装置409から出力される画像データP602から、例えばViola−Jones法等の周知のアルゴリズムを用いて、被撮影者601の顔の存在を検出する。そして、被撮影者601の顔だけを抽出した顔抽出画像データを出力する。これが図6Bの顔抽出画像データP603である。
そして、特徴点抽出部502は、顔抽出画像データP603に含まれる被撮影者601の顔の画像に、ポリゴン解析等の処理を施す。そして、被撮影者601の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。これが図6Cの特徴点データP604である。この特徴点データP604は、二次元空間内における座標情報を有する特徴点の集合体で構成される。
前述の通り、特徴点抽出部502が出力する特徴点データは、あくまで2次元の座標情報である。単眼のカメラである撮像装置409が出力する画像データストリームはあくまでも2次元の画像データであるため、このままでは3次元の立体である被撮影者601の顔の向きを検出することはできない。
しかし、標準的な顔の3Dモデル上に特徴点をプロットしたものを撮影して、特徴点が写った2次元の画像データが得られたと仮定すると、計算により撮影された顔の向きやカメラまでの距離を推定することができる。
このような、2次元の画像から3次元の立体を推定する技術は、PnP(Perspective n Points)問題として既知である。そして、PnP問題を解くための計算方法も、DLT(Direct Linear Transform)法等で既知である。
PnP問題を解くことにより、被撮影者601(図6A参照)の顔の方向を算出することができる。これが顔方向ベクトルである。
また、目の輪郭に対する瞳の位置から、被撮影者601の顔に対するおおよその視線の方向を算出することができる。これが視線方向ベクトルである。
ベクトル解析部503は、以上のような処理にて、特徴点データから顔方向ベクトルと視線方向ベクトルを生成する。
[サーバ108:ハードウェア構成]
図7は、サーバ108のハードウェア構成を示すブロック図である。
サーバ108は、CPU701、ROM702、RAM703、表示部704、操作部705、不揮発性ストレージ706、RTC707とNIC708がバス709に接続されている。サーバ108には、図1、図2に示すようなノートパソコンや、図示はしていないがデスクトップパソコン等を利用することができる。また、不揮発性ストレージ706として大容量のハードディスク装置を利用可能であれば、前述のシングルボードコンピュータも利用可能である。
不揮発性ストレージ706には、サーバ108をネットワークに接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、サーバ108として稼働させるためのプログラムが格納されている。
なお、ノートパソコンでサーバ108を実現する場合、バス709には無線LANインターフェースが接続されていることが多い。
サーバ108をサーバとしての機能に特化する場合は、表示部704と操作部705は必ずしも必要ではない。但し、ノートパソコンにサーバ108とモニタ端末109とを兼用する場合は、表示部704と操作部705が必要になる。
[サーバ108:ソフトウェア機能]
図8Aは、サーバ108aのソフトウェア機能を示すブロック図である。
サーバ108aは、webサーバとしての機能と、データベースサーバとしての機能を有する。
入出力制御部801の実体はwebサーバプログラムであり、HTTPクライアントであるエンゲージメント測定装置106やモニタ端末109の要求を受信し、要求に応じた応答データを返信する。
エンゲージメント測定装置106から送信されるエンゲージメント値を含む情報は、入出力制御部801を経て、不揮発性ストレージ706に設けられるログテーブル802に記録される。
入出力制御部801は、モニタ端末109から受信する、全てのエンゲージメント測定装置106のエンゲージメント値の要求に対し、全てのエンゲージメント測定装置106のエンゲージメント値を、日時情報とID情報506と共に返信する。
図8Bは、モニタ端末109の機能を兼用するサーバ108bのソフトウェア機能を示すブロック図である。
図8Bに示すサーバ108bの、図8Aに示したサーバ108aとの相違点は、入出力制御部803に表示部704に表示する内容を生成する表示処理部804の機能が含まれていることと、入出力制御部803に集計処理部805と表示部704が接続されていることである。
入出力制御部803の実体はwebサーバプログラムであり、HTTPクライアントであるエンゲージメント測定装置106が送信する送信パケットを受信する。
エンゲージメント測定装置106から送信される送信パケットに含まれる、エンゲージメント値、日時情報及びID情報506は、入出力制御部803を経てログテーブル802に記録される。また、集計処理部805は時間軸を揃えた複数のエンゲージメント値の平均値を算出する。
表示処理部804は、全てのエンゲージメント測定装置106のエンゲージメント値と平均値に基づいて表示内容を生成し、表示部704に表示させる。
[モニタ端末109:ハードウェア構成]
図9は、モニタ端末109のハードウェア構成を示すブロック図である。
モニタ端末109は、CPU901、ROM902、RAM903、表示部904、操作部905、不揮発性ストレージ906、RTC907と無線LANインターフェース908がバス909に接続されている。
不揮発性ストレージ906には、サーバ108をネットワークに接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、モニタ端末109として稼働させるためのプログラムが格納されている。
タブレットPCであるモニタ端末109の、図7に示したサーバ108とのハードウェア構成の相違点は、NIC708が無線LANインターフェース908に代わっている点のみである。もし、タブレットPCの代わりにノートパソコンを用いる場合、図7と同一の構成になる。
[モニタ端末109:ソフトウェア機能]
図10は、モニタ端末109のソフトウェア機能を示すブロック図である。
入出力制御部1001の実体はwebサーバクライアントであり、webサーバであるサーバ108に対し、全てのエンゲージメント測定装置106のエンゲージメント値を返信する要求を送信する。そして、サーバ108から返信される、全てのエンゲージメント測定装置106のエンゲージメント値を受信する。
集計処理部1002は、図8Bの集計処理部805と同様に、受信した複数のエンゲージメント値の時間軸を揃えた上で、その平均値を算出する。
表示処理部1003は、図8Bの表示処理部804と同様に、全てのエンゲージメント測定装置106のエンゲージメント値と平均値に基づいて表示内容を生成し、表示部704に表示させる。
[モニタ端末109:表示例]
図11は、モニタ端末109の表示部704に表示されるモニタ画面の表示例である。
画面下半分の表示領域A1101は、全てのエンゲージメント測定装置106が出力するエンゲージメント値の棒グラフである。棒グラフは、例えば1秒毎、あるいは0.5秒毎にリフレッシュされ、その時点での最新のエンゲージメント値を棒グラフで表示する。そして、エンゲージメント値が66.6%以上の時は棒グラフを緑色に表示し(色P1101a)、エンゲージメント値が33.3%以上66.6%未満の時は棒グラフをオレンジ色に表示し(色P1101b)、エンゲージメント値が33.3%未満の時は棒グラフを赤色に表示する(色P1101c)。この様に、エンゲージメント値を色分けして表示することで、生徒104のエンゲージメント値の状態を瞬時に把握することが可能になる。
棒グラフの下に表示される数字は、エンゲージメント測定装置106を一意に識別する番号である。数字も棒グラフと同じ色で表示される。生徒104が欠席していて、エンゲージメント値を測定できないエンゲージメント測定装置106の番号は、灰色で表示される(色P1101d)。
例えば、全ての生徒104が授業に興味を持っている場合、欠席のエンゲージメント測定装置106の欄を除き、全ての棒グラフが一斉に緑色に染まる。
例えば、生徒104の多くが授業に対する集中力を失っている場合、多くの棒グラフがオレンジ色や赤色に染まる。
画面左上の表示領域A1102は、全てのエンゲージメント測定装置106が出力するエンゲージメント値の平均値の数値表示である。この数値も、折れ線グラフと同様の色分け表示を行う。
画面右上の表示領域A1103は、全てのエンゲージメント測定装置106が出力するエンゲージメント値の平均値の推移を示す折れ線グラフである。横軸は時間であり、縦軸はエンゲージメント値である。折れ線グラフを設けることで、エンゲージメント値の現在値のみならず、エンゲージメント値の推移も把握できるので、講師103は現在の講義が生徒104達にどの程度興味を惹かれているのか、どの話題で生徒104達の興味が惹かれたり、あるいは削がれたのかを把握することができる。
サーバ108にログ記録されたエンゲージメント値には絶対時間情報が含まれているので、後からモニタ端末109で再生することが可能である。また、別途動画カメラで授業を録画しておき、動画データに録画を開始した日時情報を付加しておけば、ログテーブル802に記録されているエンゲージメント値との同期再生も可能である。
本発明の第一の実施形態においては、エンゲージメント測定システム101を開示した。
エンゲージメント測定装置106は、被写体である生徒104が授業にどの程度興味を持っているかを示すエンゲージメント値を測定し、サーバ108に送信する。サーバ108は複数のエンゲージメント測定装置106から送信される、エンゲージメント値と日時情報とID情報506を含む送信パケットを受信し、ログテーブル802に記録する。モニタ端末109は、複数のエンゲージメント測定装置106から送信されるエンゲージメント値とその平均値をリアルタイムでグラフィカルに表示する。
本発明の第一の実施形態におけるエンゲージメント測定装置106の演算処理は従来と比べて極めて軽い。更に、エンゲージメント測定システム101が送信するデータは、極めてデータ容量が少ないエンゲージメント値と日時情報とID情報506である。したがって、エンゲージメント測定システム101がLAN及び/またはインターネットに流すデータ量は極めて少ない。
[第二の実施形態:エンゲージメント測定システム1201:全体構成及び設置稼働例]
図12は、本発明の第二の実施形態に係るエンゲージメント測定システム1201の全体構成を示すと共に、エンゲージメント測定システム1201を所定の学習塾に設置し稼働させた状態を示す概略図である。
エンゲージメント測定システム1201は、撮像装置1202とエンゲージメント測定装置1203よりなる。撮像装置1202とエンゲージメント測定装置1203は、USBまたはネットワーク等のケーブル1204で接続されている。
学習塾の教室1205において、講師1206は生徒1207に対して授業を行っている。教室1205の天井には、撮像装置1202が設置されている。この撮像装置1202は教室1205に着席する複数の生徒1207の顔を、撮像装置1202の画角及び解像度に応じて撮影することが可能である。
エンゲージメント測定装置1203には、後述するエンゲージメント測定プログラムが稼働しており、リアルタイムで複数の生徒1207のエンゲージメント値を測定し、測定したエンゲージメント値を表示部1208に表示する。図12では、ノートパソコンでエンゲージメント測定装置1203を構成している。
[エンゲージメント測定装置1203:ハードウェア構成]
図13は、エンゲージメント測定装置1203のハードウェア構成を示すブロック図である。
エンゲージメント測定装置1203は、バス1308に接続されたCPU1301、ROM1302、RAM1303、表示部1208、操作部1304、不揮発性ストレージ1305、現在日時情報を出力するリアルタイムクロック(以下「RTC」)1306とNIC(Network Interface Card)1307を備える。エンゲージメント測定装置1203には、図12に示すようなノートパソコンや、図示はしていないがデスクトップパソコン等を利用することができる。
不揮発性ストレージ1305には、エンゲージメント測定装置1203をネットワークに接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、エンゲージメント測定装置1203として稼働させるためのプログラムが格納されている。
そして、エンゲージメント測定装置1203において重要な役割を持つ撮像装置1202もバス1308に接続されている。
なお、撮像装置1202とエンゲージメント測定装置1203との距離が離れている場合、周知のUSBインターフェースはケーブルの長さが最大5mであり、エンゲージメント測定装置1203の設置場所が制約を受ける可能性が高い。そのような場合には、撮像装置1202にシングルボードコンピュータを装備し、エンゲージメント測定装置1203とシングルボードコンピュータとをネットワークで接続する。
そして、撮像装置1202が出力する動画像データストリームをネットワーク経由でエンゲージメント測定装置1203に送信する。これにより、ケーブルの長さを延長した状態を実現することが可能になる。
本発明のエンゲージメント測定システム1201では、エンゲージメント測定装置1203にネットワークの機能は必ずしも必要ではないが、上述のような理由で必要になる場合もある。
[エンゲージメント測定装置1203:ソフトウェア機能]
図14は、本発明の第二の実施形態に係るエンゲージメント測定装置1203のソフトウェア機能を示すブロック図である。
撮像装置1202から出力される画像データストリームは、一旦1画面分の画像データがフレームバッファ1401に格納される。
顔検出処理部1402は、フレームバッファ1401に格納された1画面分の画像データに対し、例えばViola−Jones法等の周知のアルゴリズムを用いて、1画面分の画像データに写っている全ての生徒1207の顔の存在を検出する。そして、生徒1207の顔だけを抽出するための、顔検出アドレス情報を出力する。
顔検出アドレス情報は、特徴点抽出部1403と入出力制御部1404に供給される。
特徴点抽出部1403は、顔検出処理部1402から得られた顔検出アドレス情報に基づいてフレームバッファ1401から生徒1207の顔だけを抽出した顔抽出画像データを読み出す。そして、顔抽出画像データに含まれる生徒1207の顔の画像に、ポリゴン解析等の処理を施す。このポリゴン解析処理は、生徒1207の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する処理である。
特徴点抽出部1403が出力する特徴点データは、ベクトル解析部1405に供給される。
ベクトル解析部1405は、顔抽出画像データに基づく特徴点データから、生徒1207の顔の向きを示すベクトル(以下「顔方向ベクトル」)と、生徒1207の顔における、視線の向きを示すベクトル(以下「視線方向ベクトル」)を生成する。
前述の通り、特徴点抽出部1403が出力する特徴点データは、あくまで2次元の座標情報である。単眼のカメラである撮像装置1202が出力する画像データストリームはあくまでも2次元の画像データであるため、このままでは3次元の立体である生徒1207の顔の向きを検出することはできない。
しかし、標準的な顔の3Dモデル上に特徴点をプロットしたものを撮影して、特徴点が写った2次元の画像データが得られたと仮定すると、計算により撮影された顔の向きやカメラまでの距離を推定することができる。
このような、2次元の画像から3次元の立体を推定する技術は、PnP(Perspective n Points)問題として既知である。そして、PnP問題を解くための計算方法も、DLT(Direct Linear Transform)法等で既知である。
PnP問題を解くことにより、被撮影者1501(図15A参照)の顔の方向を算出することができる。これが顔方向ベクトルである。
また、目の輪郭に対する瞳の位置から、被撮影者1501の顔に対するおおよその視線の方向を算出することができる。これが視線方向ベクトルである。
ベクトル解析部1405は、以上のような処理にて、特徴点データから顔方向ベクトルと視線方向ベクトルを生成する。
[特徴点データについて]
以下、顔検出処理部1402、特徴点抽出部1403、そしてベクトル解析部1405の動作について説明する。
図15Aは、撮像装置1202から出力され、フレームバッファ1401に格納される1画面分の画像データの一例を示す概略図である。図15Bは、顔検出処理部1402が出力する顔検出アドレス情報の一例を示す概略図である。図15Cは、特徴点抽出部1403が出力する特徴点データの一例を示す概略図である。
先ず、撮像装置1202から被撮影者1501を含む画像データストリームがリアルタイムで出力され、フレームバッファ1401に格納される。これが図15Aの画像データP1502である。
次に、顔検出処理部1402は、フレームバッファ1401に格納されている画像データP1502から、例えばViola−Jones法等の周知のアルゴリズムを用いて、被撮影者1501の顔の存在を検出する。そして、被撮影者1501の顔だけを抽出するための顔検出アドレス情報P1503を出力する。
顔検出アドレス情報P1503は、被撮影者1501の顔を取り囲む長方形状の領域である。始点アドレスP1503aは長方形状の領域の左上の頂点のアドレス情報であり、終点アドレスP1503bは長方形状の領域の右下の頂点のアドレス情報である。
そして、特徴点抽出部1403は、顔検出アドレス情報P1503で特定される部分画像データに含まれる被撮影者1501の顔の画像に、ポリゴン解析等の処理を施す。そして、被撮影者1501の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。これが図15Cの特徴点データP1504である。この特徴点データP1504は、二次元空間内における座標情報を有する特徴点の集合体で構成される。そして、この特徴点データP1504は、顔検出アドレス情報P1503の範囲に含まれている。
[顔検出アドレス情報P1503について]
図16Aは、フレームバッファ1401に格納されている画像データに対し、顔検出処理部1402が顔検出アドレス情報P1503を生成する状態を示すイメージ図である。
図16Bは、フレームバッファ1401に格納されている画像データに対し、顔検出処理部1402が顔検出アドレス情報P1503を生成した状態を示すイメージ図である。
顔検出処理部1402は、画像データに含まれている人の顔と思しき画像領域の存在全てを、画像データの解像度が許す限り検出し、それら複数の画像領域をそれぞれ長方形状に囲む。この長方形状の領域の、長方形の左上の頂点と右下の頂点のアドレス情報が、顔検出アドレス情報P1503になる。
図14に戻って、ブロック図の説明を続ける。
後述するエンゲージメント算出部1406では、エンゲージメント値の算出処理の中で、移動平均の演算処理を行う。移動平均を計算するということは、ある被験者から算出したエンゲージメント値の基となる値を、ある時間幅だけ、継続して加算する必要がある。すなわち、顔検出アドレス情報P1503か、あるいは別の情報を用いて、フレームバッファ1401に格納されている画像データに含まれる複数の顔の存在を特定する必要がある。
そこで、顔検出アドレス情報P1503は入出力制御部1404に含まれるアドレス情報処理部1407に供給される。
アドレス情報処理部1407は、顔検出処理部1402から出力された顔検出アドレス情報P1503から、情報形状の領域の中心点、すなわち顔検出アドレス情報P1503の中心点を算出する。これ以降、この中心点を顔検出中心点と呼ぶ。この顔検出中心点は、授業や講義、講演等において、撮像装置1202に写る人の顔の中心を示す点である。
アドレス情報処理部1407が出力する顔検出中心点は、入出力制御部1404に含まれるエンゲージメント算出部1406に供給される。エンゲージメント算出部1406は、後述するエンゲージメント算出処理に際し、顔検出中心点を個々人の識別子として取り扱う。
[エンゲージメント値算出処理について]
ベクトル解析部1405が出力する顔方向ベクトルと視線方向ベクトルは、入出力制御部1404に含まれるエンゲージメント算出部1406に供給される。エンゲージメント算出部1406は、顔方向ベクトルと視線方向ベクトルから、エンゲージメント値を算出する。
図17は、エンゲージメント算出部1406の機能ブロック図である。
ベクトル解析部1405が出力する顔方向ベクトルと視線方向ベクトルは、ベクトル加算部1701に入力される。ベクトル加算部1701は、顔方向ベクトルと視線方向ベクトルを加算して、注視方向ベクトルを算出する。この注視方向ベクトルは、生徒1207がコンテンツを表示する表示部1208と撮像装置1202を含む3次元空間内の何処を注視しているのかを示すベクトルである。
ベクトル加算部1701が算出した注視方向ベクトルは、注視方向判定部1702に入力される。注視方向判定部1702は、生徒1207が注視する対象を指し示す注視方向ベクトルが表示部1208に向いているか否かを判定する、2値の注視方向判定結果を出力する。
なお、撮像装置1202が表示部1208の近傍から離れた場所に設置されている場合は、不揮発性ストレージ1305に記憶されている初期補正値1703によって、注視方向判定部1702の判定処理に補正が加えられる。初期補正値1703には、生徒1207の顔と視線が表示部1208に正しく向かっているか否かを検出するために、予め生徒1207の顔と視線が表示部1208に正しく向かっている時の、撮像装置1202から見た生徒1207の顔と視線の向きの情報が、不揮発性ストレージ1305に記憶されている。
注視方向判定部1702が出力する2値の注視方向判定結果は、第一平滑化処理部1704に入力される。注視方向判定部1702が出力する注視方向判定結果には、特徴点抽出部1403が生成する特徴点データに含まれるノイズに由来する外乱がしばしば発生する。このため、第一平滑化処理部1704によってノイズの影響を抑え、生徒1207の挙動に極めて近い状態を示す「ライブエンゲージメント値」を得る。
第一平滑化処理部1704は、例えば現在の注視方向判定結果を含む数サンプルの移動平均を算出し、ライブエンゲージメント値を出力する。
第一平滑化処理部1704が出力するライブエンゲージメント値は、第二平滑化処理部1705に入力される。
第二平滑化処理部1705は、入力されたライブエンゲージメント値に対し、予め指定されたサンプル数1706の数に基づく平滑化処理を行い、「エンゲージメント基礎値」を出力する。例えば、サンプル数1706に「5」と記述されていれば、5個のライブエンゲージメント値に対して移動平均を算出する。また、平滑化処理では、加重移動平均、指数加重移動平均等の別のアルゴリズムを使用してもよい。このサンプル数1706及び平滑化処理のアルゴリズムは、本発明の第二の実施形態に係るエンゲージメント測定システム1201が適用されるアプリケーションに応じて、適切に設定される。
第二平滑化処理部1705が出力するエンゲージメント基礎値は、エンゲージメント演算処理部1707に入力される。
一方、顔方向ベクトルはよそ見判定部1708にも入力される。よそ見判定部1708は、生徒1207の顔の向きを示す顔方向ベクトルが表示部1208に向いているか否かを判定し、2値のよそ見判定結果を生成する。そして、このよそ見判定結果を、ベクトル解析部1405が出力する顔方向ベクトルと視線方向ベクトルのサンプリングレートにしたがって、よそ見判定部1708に内蔵される不図示の2個のカウンタで計数する。
すなわち、第一のカウンタは、生徒1207がよそ見をしている判定結果を計数し、第二のカウンタは、生徒1207がよそ見をしていない判定結果を計数する。第一のカウンタは、第二のカウンタが所定の計数値に至るとリセットされる。第二のカウンタは、第一のカウンタが所定の計数値に至るとリセットされる。第一のカウンタと第二のカウンタの論理値が、生徒1207がよそ見をしているか否かを示す判定結果として出力される。
また、方向別に第一のカウンタを複数持つ事で、アプリケーションに応じて、例えば手元でノートを取ることはよそ見と判定しないようにすることもできる。
また、視線方向ベクトルは目瞑り判定部1709にも入力される。目瞑り判定部1709は、生徒1207の視線の向きを示す視線方向ベクトルが検出できているか否かを判定する、2値の目瞑り判定結果を生成する。
視線方向ベクトルは生徒1207の目が開いている状態のときだけ検出される。つまり、生徒1207が目を瞑っていると、視線方向ベクトルは検出できなくなる。そこで、目瞑り判定部1709は、生徒1207が目を瞑っているか否かを示す、2値の目瞑り判定結果を生成する。
目瞑り判定部1709もよそ見判定部1708と同様に不図示の2個のカウンタを内蔵しており、この目瞑り判定部1709による目瞑り判定結果を、ベクトル解析部1405が出力する顔方向ベクトルと視線方向ベクトルのサンプリングレートにしたがって、2個のカウンタで計数する。
第一のカウンタは、生徒1207が目を瞑っている判定結果を計数し、第二のカウンタは、生徒1207が目を開いている(目を瞑っていない)判定結果を計数する。第一のカウンタは、第二のカウンタが所定の計数値に至るとリセットされる。第二のカウンタは、第一のカウンタが所定の計数値に至るとリセットされる。第一のカウンタと第二のカウンタの論理値が、生徒1207が目を瞑っているか否かを示す判定結果として出力される。
第二平滑化処理部1705が出力するエンゲージメント基礎値と、よそ見判定部1708が出力するよそ見判定結果と、目瞑り判定部1709が出力する目瞑り判定結果は、エンゲージメント演算処理部1707に入力される。
エンゲージメント演算処理部1707は、エンゲージメント基礎値と、よそ見判定結果と、目瞑り判定結果に対し、アプリケーションに応じた重み付け係数1710を乗算した上で加算して、最終的なエンゲージメント値を出力する。
サンプル数1706及び重み付け係数1710を調整することで、エンゲージメント測定システム1201を様々なアプリケーションに対応することができる。例えば、サンプル数1706を「0」に設定し、よそ見判定部1708及び目瞑り判定部1709に対する重み付け係数1710もそれぞれ「0」に設定すれば、第一平滑化処理部1704が出力するライブエンゲージメントそのものがそのままエンゲージメント値としてエンゲージメント演算処理部1707から出力される。
特に、第二平滑化処理部1705は、サンプル数1706の設定によって無効化することもできる。そこで、第一平滑化処理部1704と第二平滑化処理部1705は、単一の平滑化処理部として上位概念でみなすことができる。
[ログテーブル1408について]
本発明の第二の実施形態に係るエンゲージメント測定装置1203は、複数の生徒1207あるいは聴衆等に対し、個別にエンゲージメント値を算出するために、入出力制御部1404が顔検出アドレス情報P1503とログテーブル1408を用いて、被写体の匿名性を維持しつつ個別のエンゲージメント値の算出を実現する。
図18は、ログテーブル1408のフィールド構成を示す表である。
ログテーブル1408は、被写体IDフィールド、日時情報フィールド、顔検出アドレス情報フィールド、顔検出中心点フィールド、特徴点データフィールド、顔方向ベクトルフィールド、視線方向ベクトルフィールド、エンゲージメント値フィールドを有する。
被写体IDフィールドには、被写体である人を画像データ内において一意に識別するID情報である被写体IDが格納される。この被写体IDは、単に画像データ内に写っている人を、エンゲージメント値算出の際に混同しないために用いられるものであり、個人を厳密に特定する目的のものではない。
日時情報フィールドには、フレームバッファ1401に格納されている画像データが撮影された日時が格納される。画像データが撮影された日時は、RTC1306が出力する現在日時情報から撮像装置1202とフレームバッファ1401との間のデータ転送速度等を考慮して算出することができる。また、撮像装置1202がシングルボードコンピュータを有する場合、シングルボードコンピュータが内蔵するRTCが出力する撮影日時情報を用いることができる。なお、画像データが撮影された日時に代わり、RTC1306が出力する現在日時情報でも実質的には問題ない。
顔検出アドレス情報フィールドには、顔検出処理部1402が出力した顔検出アドレス情報P1503が格納される。
顔検出中心点フィールドには、アドレス情報処理部1407が顔検出アドレス情報P1503を基に算出した顔検出中心点が格納される。この顔検出中心点が、被写体IDの根拠となる。
特徴点データフィールドには、特徴点抽出部1403が生成する特徴点データが格納される。
顔方向ベクトルフィールドには、ベクトル解析部1405が出力する顔方向ベクトルが格納される。
視線方向ベクトルフィールドには、ベクトル解析部1405が出力する視線方向ベクトルが格納される。
エンゲージメント値フィールドには、顔方向ベクトルと視線方向ベクトルに基づいてエンゲージメント算出部1406が算出するエンゲージメント値が格納される。
入出力制御部1404のアドレス情報処理部1407は、顔検出アドレス情報P1503を基に算出した顔検出中心点と被写体IDを紐付ける。
授業中あるいは講演中、被写体である生徒1207や受講者は着席しており、顔の位置が大きく動くことはあまりない。そこで入出力制御部1404は、被写体が聴講中において顔検出中心点が移動する範囲を閾値として予め定めておく。そして、顔検出中心点がその閾値の範囲内に存在するのであれば、入出力制御部1404は当該顔検出中心点を同一の被写体IDに属するものと判断する。
顔検出中心点と被写体IDが紐付けられたら、顔検出中心点の基になった顔検出アドレス情報P1503、顔検出アドレス情報P1503の範囲内に存在する特徴点データ、その特徴点データに基づいて算出された顔方向ベクトル及び視線方向ベクトルが一意に紐付けられるので、これらをログテーブル1408の同一レコードに記録する。
ログテーブル1408に記録された、ある被写体IDにおける顔方向ベクトル及び視線方向ベクトルは、エンゲージメント算出部1406に読み込まれ、エンゲージメント値が算出され、ログテーブル1408の同一レコードに記録される。
エンゲージメント平均値算出部1409は、ログテーブル1408の日時情報フィールドに記録されている同一の日時情報に属する、複数のレコードのエンゲージメント値の平均値を算出する。
入出力制御部1404は、エンゲージメント平均値算出部1409が出力したエンゲージメント値の平均値に所定の加工処理を施して、表示部1208に表示する。
[エンゲージメント測定装置1203:表示例]
図19は、エンゲージメント測定装置1203の入出力制御部1404によって表示部1208に表示されるモニタ画面の表示例である。
画面下半分の表示領域A1901は、個々人のエンゲージメント値の棒グラフである。棒グラフは、例えば1秒毎、あるいは0.5秒毎にリフレッシュされ、その時点での最新のエンゲージメント値を棒グラフで表示する。そして、エンゲージメント値が66.6%以上の時は棒グラフを緑色に表示し(色P1901a)、エンゲージメント値が33.3%以上66.6%未満の時は棒グラフをオレンジ色に表示し(色P1901b)、エンゲージメント値が33.3%未満の時は棒グラフを赤色に表示する(色P1901c)。この様に、エンゲージメント値を色分けして表示することで、生徒1207のエンゲージメント値の状態を瞬時に把握することが可能になる。
棒グラフの下に表示される数字は、生徒1207を画像データ内において一意に識別する番号である。番号は被写体IDそのものであってもよい。数字も棒グラフと同じ色で表示される。生徒1207が途中退席した場合、エンゲージメント値を測定できないエンゲージメント測定装置1203の番号は、灰色で表示される(色P1901d)。
例えば、全ての生徒1207が授業に興味を持っている場合、欠席のエンゲージメント測定装置1203の欄を除き、全ての棒グラフが一斉に緑色に染まる。
例えば、生徒1207の多くが授業に対する集中力を失っている場合、多くの棒グラフがオレンジ色や赤色に染まる。
画面左上の表示領域A1902は、全てのエンゲージメント値の平均値の数値表示である。この数値も、折れ線グラフと同様の色分け表示を行う。
画面右上の表示領域A1903は、全てのエンゲージメント値の平均値の推移を示す折れ線グラフである。横軸は時間であり、縦軸はエンゲージメント値である。折れ線グラフを設けることで、エンゲージメント値の現在値のみならず、エンゲージメント値の推移も把握できるので、講師1206は現在の講義が生徒1207達にどの程度興味を惹かれているのか、どの話題で生徒1207達の興味が惹かれたり、あるいは削がれたのかを把握することができる。
エンゲージメント測定装置1203のログテーブル1408にログ記録されたエンゲージメント値には日時情報、すなわち絶対時間情報が含まれているので、後からエンゲージメント測定装置1203や他の情報処理装置で再生することが可能である。また、別途動画撮像装置で授業を録画しておき、動画データに録画を開始した日時情報を付加しておけば、ログテーブル1408に記録されているエンゲージメント値との同期再生も可能である。
以上に説明した本発明の第二の実施形態は、以下のような変形例が可能である。
(1)エンゲージメント測定システム1201に使用する撮像装置1202は、複数の被写体を撮影し、顔の特徴点データを抽出する。このため、撮像装置1202はできる限り高解像度であることが望ましく、また、撮像装置1202と被写体との距離によっては、顔の特徴点データを取得できない場合もある。そこで、エンゲージメント測定システム1201を設置する教室あるいは講堂には、撮像装置1202が撮影可能な画角及び範囲を考慮して、複数の撮像装置1202を配置する。そして、それら複数の撮像装置1202が出力する同画像データストリームを、適宜合成したり、あるいはトリミング処理を施す。その後、フレームバッファ1401に合成した画像データを格納すれば、広範囲で複数の被写体のエンゲージメント値を測定することが可能になる。
(2)フレームバッファ1401に格納されている画像データと顔検出アドレス情報P1503を、公知の顔認識処理に処理させることで、より精緻な個人の特定が可能になる。個人の特定が精緻にできる、ということは、エンゲージメント値の算出精度も向上することが期待できる。
(3)入出力制御部1404のエンゲージメント平均値算出部1409と表示部1208とを、例えばタブレットPC等の別の装置に実装して、相互を無線LAN等のネットワークで接続し、ネットワークを通してログテーブル1408に記録されるデータを送ることで、遠隔地でもエンゲージメント測定装置1203の表示を行うことができる。複数の表示装置にデータを送れば、複数地点での表示を行うこともできる。また、送られたデータをサーバに記録して、後から再生しても良い。これらによって、エンゲージメント測定が行われている教室1205と場所や時間が異なる、例えば事務室や遠隔地の本部や、後日でもエンゲージメント測定の結果を確認できる。
(4)図19に示したエンゲージメント測定値の平均値は、あくまで平均値である。つまり、必ずしも撮像装置1202が教室や講堂に着席している生徒1207や聴衆の全員を撮影する必要はない。撮像装置1202の解像度でエンゲージメント値を測定可能な人数が、平均値を算出するに十分なサンプル数であればよい。
本発明の第二の実施形態においては、エンゲージメント測定システム1201を開示した。
エンゲージメント測定装置1203は、単一あるいは少数の撮像装置1202を用いて多数の被写体である生徒1207を撮影し、生徒1207が授業にどの程度興味を持っているかを示すエンゲージメント値を測定する。エンゲージメント測定装置1203は被写体IDと日時情報とエンゲージメント値をログテーブル1408に記録する。エンゲージメント測定装置1203は、エンゲージメント値の平均値をリアルタイムでグラフィカルに表示する。
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含む。
101…エンゲージメント測定システム、102…学習塾、103…講師、104…生徒、105…机、106…エンゲージメント測定装置、107…無線LANルータ、108…サーバ、109…モニタ端末、301…ノートパソコン、302…LCDディスプレイ、303…webカメラ、304…シングルボードコンピュータ、305…カメラ、401…CPU、402…ROM、403…RAM、404…不揮発性ストレージ、405…RTC、406…無線LANインターフェース、407…NIC、408…バス、409…撮像装置、501…顔検出処理部、502…特徴点抽出部、503…ベクトル解析部、504…エンゲージメント算出部、505…入出力制御部、506…ID情報、507…インターフェース選択部、601…被撮影者、701…CPU、702…ROM、703…RAM、704…表示部、705…操作部、706…不揮発性ストレージ、707…RTC、708…NIC、709…バス、801…入出力制御部、802…ログテーブル、803…入出力制御部、804…表示処理部、805…集計処理部、901…CPU、902…ROM、903…RAM、904…表示部、905…操作部、906…不揮発性ストレージ、907…RTC、908…無線LANインターフェース、909…バス、1001…入出力制御部、1002…集計処理部、1003…表示処理部、1201…エンゲージメント測定システム、1202…撮像装置、1203…エンゲージメント測定装置、1204…ケーブル、1205…教室、1206…講師、1207…生徒、1208…表示部、1301…CPU、1302…ROM、1303…RAM、1304…操作部、1305…不揮発性ストレージ、1306…RTC、1307…NIC、1308…バス、1401…フレームバッファ、1402…顔検出処理部、1403…特徴点抽出部、1404…入出力制御部、1405…ベクトル解析部、1406…エンゲージメント算出部、1407…アドレス情報処理部、1408…ログテーブル、1409…エンゲージメント平均値算出部、1501…被撮影者、1701…ベクトル加算部、1702…注視方向判定部、1703…初期補正値、1704…第一平滑化処理部、1705…第二平滑化処理部、1706…サンプル数、1707…エンゲージメント演算処理部、1708…よそ見判定部、1709…目瞑り判定部、1710…重み付け係数

Claims (5)

  1. 複数の被撮影者の顔を撮影可能な撮像装置と、
    前記撮像装置から動画像データストリームを受信して、前記複数の被撮影者のエンゲージメント値を測定するエンゲージメント測定装置と
    よりなるエンゲージメント測定システムであり、
    前記エンゲージメント測定装置は、
    前記撮像装置から出力される画像データストリームから1画面分の画像データを格納するフレームバッファと、
    前記フレームバッファに格納されている前記画像データから前記複数の被撮影者の顔の存在を検出し、前記複数の被撮影者の顔だけを抽出するための顔検出アドレス情報を出力する顔検出処理部と、
    前記フレームバッファに格納されている前記画像データと前記顔検出アドレス情報から、前記複数の被撮影者の顔の二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部と、
    前記特徴点データから、前記被撮影者の顔の向きを示す顔方向ベクトルを生成するベクトル解析部と、
    前記顔方向ベクトルを演算して前記被撮影者が3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出し、前記注視方向ベクトルが所定の事象に向いているのか否かを判定し、判定結果の移動平均を算出してエンゲージメント値を出力するエンゲージメント算出部と、
    前記顔検出アドレス情報に基いて、前記画像データに含まれる前記複数の被撮影者毎に前記エンゲージメント値を算出させるべく前記エンゲージメント算出部を稼働させて、前記画像データの撮影日時情報または現在日時情報と、前記複数の被撮影者を画像データ内において一意に識別するID情報と共にログテーブルに記録する入出力制御部と、
    前記エンゲージメント値の平均値を算出するエンゲージメント平均値算出部と、
    前記複数の被撮影者の前記エンゲージメント値の平均値を表示する表示部と
    を具備する、エンゲージメント測定システム。
  2. 前記ベクトル解析部は、前記特徴点データから、前記被撮影者の顔の向きを示す顔方向ベクトルに加え、前記被撮影者の顔における視線の向きを示す視線方向ベクトルを生成するものであり、
    前記エンゲージメント算出部は、前記顔方向ベクトルに加え、前記視線方向ベクトルを加算して、前記被撮影者が3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出するものである、
    請求項1に記載のエンゲージメント測定システム。
  3. 前記入出力制御部は、前記複数の被撮影者の前記エンゲージメント値及び前記平均値を、所定の閾値に基づいて色分け表示する、
    請求項2に記載のエンゲージメント測定システム。
  4. 複数の被撮影者のエンゲージメント値を測定する複数のエンゲージメント測定装置と、
    前記エンゲージメント測定装置から送信パケットを受信してログ記録を行うサーバと、
    前記エンゲージメント測定装置が出力する前記エンゲージメント値をリアルタイムで表示するモニタ端末と
    よりなるエンゲージメント測定システムであり、
    前記エンゲージメント測定装置は、
    被撮影者の顔を撮影可能な撮像装置と、
    前記撮像装置から出力される画像データストリームから前記被撮影者の顔の存在を検出し、前記被撮影者の顔を抽出した顔抽出画像データを出力する顔検出処理部と、
    前記顔抽出画像データから、前記被撮影者の顔の二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部と、
    前記特徴点データから、前記被撮影者の顔の向きを示す顔方向ベクトルと、前記被撮影者の顔における視線の向きを示す視線方向ベクトルを生成する、ベクトル解析部と、
    前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記被撮影者が3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出し、前記注視方向ベクトルが所定の事象に向いているのか否かを判定し、判定結果の移動平均を算出してエンゲージメント値を出力する、エンゲージメント算出部と、
    現在日時情報を出力するリアルタイムクロックと、
    前記エンゲージメント算出部が出力する前記エンゲージメント値と、前記リアルタイムクロックが出力する前記現在日時情報と、被撮影者または他のエンゲージメント測定装置との個体を一意に識別するID情報をまとめて送信パケットを生成し、前記サーバに送信する入出力制御部と
    を具備し、
    前記サーバは、
    複数の前記エンゲージメント測定装置から送信される前記送信パケットがログ記録されるログテーブルと、
    複数の前記エンゲージメント測定装置から送信される前記送信パケットを受信して、前記ログテーブルにログ記録する入出力制御部と
    を具備し、
    前記モニタ端末は、
    複数の前記エンゲージメント測定装置または前記サーバから複数の前記エンゲージメント測定装置によって生成された前記送信パケットを受信する入出力制御部と、
    前記サーバが複数の前記エンゲージメント測定装置から受信した前記送信パケットに含まれる前記エンゲージメント値の平均値を算出する集計処理部と、
    前記エンゲージメント値と前記平均値を表示する表示部と、
    前記表示部に表示する、前記エンゲージメント値と前記平均値の表示画面を形成する表示処理部と
    を具備する、エンゲージメント測定システム。
  5. 前記モニタ端末の前記表示処理部は、前記エンゲージメント値及び前記平均値を、所定の閾値に基づいて色分け表示する、
    請求項4に記載のエンゲージメント測定システム。
JP2018552614A 2016-11-24 2017-11-22 エンゲージメント測定システム Pending JPWO2018097177A1 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016227698 2016-11-24
JP2016227698 2016-11-24
JP2017205034 2017-10-24
JP2017205034 2017-10-24
PCT/JP2017/042003 WO2018097177A1 (ja) 2016-11-24 2017-11-22 エンゲージメント測定システム

Publications (1)

Publication Number Publication Date
JPWO2018097177A1 true JPWO2018097177A1 (ja) 2019-10-17

Family

ID=62195248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018552614A Pending JPWO2018097177A1 (ja) 2016-11-24 2017-11-22 エンゲージメント測定システム

Country Status (5)

Country Link
US (1) US20190371189A1 (ja)
JP (1) JPWO2018097177A1 (ja)
KR (1) KR20190088478A (ja)
CN (1) CN109983779A (ja)
WO (1) WO2018097177A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11721228B2 (en) * 2018-02-28 2023-08-08 Centurylink Intellectual Property Llc Method and system for implementing AI-powered augmented reality learning devices
JP7020215B2 (ja) * 2018-03-19 2022-02-16 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP6844568B2 (ja) * 2018-03-27 2021-03-17 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
CN110020581B (zh) * 2018-12-03 2020-06-09 阿里巴巴集团控股有限公司 一种基于多帧脸部图像的比对方法、装置和电子设备
US11514805B2 (en) * 2019-03-12 2022-11-29 International Business Machines Corporation Education and training sessions
JP2021018408A (ja) * 2019-10-18 2021-02-15 株式会社フォーサイト 学習システム、学習講義提供方法、およびプログラム
CN111553323A (zh) * 2020-05-22 2020-08-18 北京市商汤科技开发有限公司 视频处理方法及装置、电子设备和存储介质
WO2023032057A1 (ja) * 2021-08-31 2023-03-09 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111106A (ja) 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
JP5441071B2 (ja) * 2011-09-15 2014-03-12 国立大学法人 大阪教育大学 顔分析装置、顔分析方法、及びプログラム
JP2016063525A (ja) * 2014-09-22 2016-04-25 シャープ株式会社 映像表示装置及び視聴制御装置

Also Published As

Publication number Publication date
KR20190088478A (ko) 2019-07-26
US20190371189A1 (en) 2019-12-05
CN109983779A (zh) 2019-07-05
WO2018097177A1 (ja) 2018-05-31

Similar Documents

Publication Publication Date Title
WO2018097177A1 (ja) エンゲージメント測定システム
JP6519370B2 (ja) ユーザ注意判定システム、方法及びプログラム
JP6282769B2 (ja) エンゲージメント値処理システム及びエンゲージメント値処理装置
KR101766347B1 (ko) 집중도 평가시스템
KR101618590B1 (ko) 몰입 효과들을 제공하기 위한 방법 및 시스템
CN107851324B (zh) 信息处理系统、信息处理方法和记录介质
US10013889B2 (en) Method and system for enhancing interactions between teachers and students
US9491507B2 (en) Content providing program, content providing method, and content providing apparatus
KR101835578B1 (ko) 집중도 평가시스템
WO2018135334A1 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR101838792B1 (ko) 콘텐츠에 대한 사용자의 감정을 공유하는 방법 및 장치
CN111163280B (zh) 非对称性视频会议系统及其方法
Wolff et al. Communicating eye gaze across a distance without rooting participants to the spot
WO2018136063A1 (en) Eye gaze angle feedback in a remote meeting
TW201935925A (zh) 吸引度測定系統
TW201826086A (zh) 互動測定系統
JP7001429B2 (ja) 関心度計測システムおよび方法
KR20210099496A (ko) 현장 공간에서의 동작 인식을 통한 만족도 조사 시스템
WO2019105004A1 (en) Information managing systems and methods
Leroy et al. 3d head pose estimation for tv setups
KR20140110557A (ko) 영상피드백을 활용한 이러닝 시스템
US20230308764A1 (en) Display terminal, communication system, method for displaying, method for communicating, and recording medium
JP2021167994A (ja) 視聴効果計測装置、視聴効果計測方法及びコンピュータプログラム
EP4349007A1 (en) Video-conference endpoint
JP2018206253A (ja) 注視方向計測装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200129