JP7445331B2 - ビデオミーティング評価端末及びビデオミーティング評価方法 - Google Patents

ビデオミーティング評価端末及びビデオミーティング評価方法 Download PDF

Info

Publication number
JP7445331B2
JP7445331B2 JP2022515716A JP2022515716A JP7445331B2 JP 7445331 B2 JP7445331 B2 JP 7445331B2 JP 2022515716 A JP2022515716 A JP 2022515716A JP 2022515716 A JP2022515716 A JP 2022515716A JP 7445331 B2 JP7445331 B2 JP 7445331B2
Authority
JP
Japan
Prior art keywords
video meeting
evaluation
video
user
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022515716A
Other languages
English (en)
Other versions
JPWO2022113248A5 (ja
JPWO2022113248A1 (ja
Inventor
渉三 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Imbesideyou Inc
Original Assignee
Imbesideyou Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imbesideyou Inc filed Critical Imbesideyou Inc
Publication of JPWO2022113248A1 publication Critical patent/JPWO2022113248A1/ja
Publication of JPWO2022113248A5 publication Critical patent/JPWO2022113248A5/ja
Application granted granted Critical
Publication of JP7445331B2 publication Critical patent/JP7445331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、ビデオミーティング評価端末、ビデオミーティング評価システム、ビデオミーティング評価プログラム、ビデオミーティング評価方法に関する。
従来、オンラインで何らかの知識を教授したり、説明等を行うためのシステムが知られている(例えば、特許文献1参照)。
また、このようなオンラインで行われるビデオミーティングの効果測定の方法として、例えば、ビデオミーティング後にアンケート等を行う方法も提案されている(例えば、特許文献2参照)。
特開2019-58625号公報
上述したアンケートによる効果測定の方法は、主観的になりがちであり、ビデオミーティングの内容に関して客観的な効果測定を行う方法としては不十分である。
また、第三者によってビデオミーティングを監視し、第三者による客観的な評価を取得する方法も考えられるが、手間と時間がかかりすぎて現実的ではない。
そこで、本発明は、ビデオミーティングの特に内容に関する評価を客観的に行うことを目的とする。
本発明によれば、
ユーザ端末間で実行されたビデオミーティングから得られる動画像を記憶する記憶部と、
記憶した動画像の評価対象を特定する評価対象特定部と、
特定された前記動画像内に含まれる少なくとも顔画像又は音声に関する評価値を算出する評価部とを備える、
ビデオミーティング評価端末が得られる。
本開示によれば、ビデオミーティングの動画像を評価することにより、特に内容に関する評価を客観的に行うことができる。
本実施の形態によるシステム全体図を示す図である。 本実施の形態による端末の構成例を示す図である。 本実施の形態による評価端末の機能ブロック図の一例である。 本実施の形態による実施例を示す図である。 本実施の形態による実施例を示す図である。 本実施の形態による実施例を示す図である。 本実施の形態による実施例を示す図である。 本実施の形態による実施例を示す図である。
本開示の実施形態の内容を列記して説明する。本開示は、以下のような構成を備える。
[項目1]
ユーザ端末間で実行されたビデオミーティングから得られる動画像を記憶する記憶部と、
記憶した動画像から評価対象を特定する評価対象特定部と、
特定された前記動画像内に含まれる少なくとも顔画像又は音声に関する評価値を算出する評価部とを備える、
ビデオミーティング評価端末。
[項目2]
項目1に記載のビデオミーティング評価端末であって、
前記評価対象特定部は、前記動画像をファイル単位で評価対象であるか否かを特定する、
ビデオミーティング評価端末。
[項目3]
項目1に記載のビデオミーティング評価端末であって、
前記評価対象特定部は、少なくとも一の前記動画像内おける所定数の前記フレームからなるフレーム群単位で評価対象であるか否かを特定する、
ビデオミーティング評価端末。
[項目4]
項目3に記載のビデオミーティング評価端末であって、
前記評価対象特定部は、所定の音声が含まれている時間又は無音時間の少なくともいずれかを前記フレーム群として特定する、
ビデオミーティング評価端末。
[項目5]
項目3に記載のビデオミーティング評価端末であって、
前記評価対象特定部は、所定の対象物が映っている時間又は所定の対象物が映っていない時間の少なくともいずれかを前記フレーム群として特定する、
ビデオミーティング評価端末。
[項目6]
項目1乃至項目5のいずれかに記載のビデオミーティング評価端末であって、
ビデオミーティング評価端末は、前記評価値の時系列によるグラフ情報を提供する、
ビデオミーティング評価端末。
[項目7]
項目1乃至項目6のいずれかに記載のビデオミーティング評価端末であって、
前記ビデオミーティング評価端末は、前記顔画像を複数の異なる観点によって評価した複数の評価値を算出する、
ビデオミーティング評価端末。
[項目8]
項目1乃至項目7のいずれかに記載のビデオミーティング評価端末であって、
前記ビデオミーティング評価端末は、前記動画像に含まれる音声と共に前記評価値を算出する、
ビデオミーティング評価端末。
[項目9]
項目1乃至項目8のいずれかに記載のビデオミーティング評価端末であって、
前記ビデオミーティング評価端末は、前記動画像内に含まれる前記顔画像以外の対象物と共に前記評価値を算出する、
ビデオミーティング評価端末。
[項目10]
項目1乃至項目9のいずれかに記載のビデオミーティング評価端末であって、
前記動画像に関連付けられた識別子を生成する識別子生成手段と、
前記識別子及び前記前記評価値を対応付けて共有する共有手段をさらに有する、
ビデオミーティング評価端末。
[項目11]
実行されたビデオミーティングから得られる動画像を記憶する記憶部、
記憶した動画像の評価対象を特定する評価対象特定部、
特定された前記動画像内に含まれる少なくとも顔画像又は音声に関する評価値を算出する評価部として、ビデオミーティング評価端末を機能させる
ビデオミーティング評価プログラム。
[項目12]
ユーザ端末間で実行されたビデオミーティングから得られる動画像を記憶する記憶ステップ、
記憶した動画像の評価対象を特定する評価対象特定ステップ、
特定された前記動画像内に含まれる少なくとも顔画像又は音声に関する評価値を算出する評価ステップを含む、
ビデオミーティング評価方法。
[項目13]
少なくとも第1ユーザ端末と第2ユーザ端末とを備えるビデオミーティング評価システムであって、
少なくとも前記第1ユーザ端末は、
前記第2ユーザ端末との間で実行されたビデオミーティングから得られる動画像を記憶する記憶部と、
記憶した動画像の評価対象を特定する評価対象特定部と、
特定された前記動画像内に含まれる少なくとも顔画像又は音声に関する評価値を算出する評価部とを備える、
ビデオミーティング評価システム。
[項目14]
少なくとも第1ユーザ端末と第2ユーザ端末とサーバ装置とを備えるビデオミーティング評価システムであって、
少なくとも前記サーバ装置は、
前記ビデオミーティングから得られる動画像を記憶する記憶部と、
記憶した動画像の評価対象を特定する評価対象特定部と、
特定された前記動画像内に含まれる少なくとも顔画像又は音声に関する評価値を算出する評価部とを備える、
ビデオミーティング評価システム。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<基本機能>
本実施形態の感情解析システムは、複数人でビデオミーティング(以下、一方向及び双方向含めてオンラインセッションという)が行われる環境において、当該複数人の中の解析対象者について他者とは異なる特異的な感情(自分または他人の言動に対して起こる気持ち。快・不快またはその程度など)や発話内容を解析するシステムである。
オンラインセッションは、例えばオンライン会議、オンライン授業、オンラインチャットなどであり、複数の場所に設置された端末をインターネットなどの通信ネットワークを介してサーバに接続し、当該サーバを通じて複数の端末間で動画像をやり取りできるようにしたものである。
オンラインセッションで扱う動画像には、端末を使用するユーザの顔画像や音声が含まれる。また、動画像には、複数のユーザが共有して閲覧する資料などの画像も含まれる。各端末の画面上に顔画像と資料画像とを切り替えて何れか一方のみを表示させたり、表示領域を分けて顔画像と資料画像とを同時に表示させたりすることが可能である。また、複数人のうち1人の画像を全画面表示させたり、一部または全部のユーザの画像を小画面に分割して表示させたりすることが可能である。
端末を使用してオンラインセッションに参加する複数のユーザのうち、何れか1人または複数人を解析対象者として指定することが可能である。例えば、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。なお、解析対象者を指定せず全ての参加者を解析対象としてもよい。
また、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定することも可能である。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。
図1に示されるように、本実施の形態によるビデオミーティング評価システムは、少なくともカメラ部及びマイク部等の入力部と、ディスプレイ等の表示部とスピーカー等の出力部とを有し、第1ユーザ及び第2ユーザの夫々が利用するユーザ端末10及び20と、ユーザ端末10及び20に双方向のビデオミーティングを提供するビデオミーティングサービス端末30と、ビデオミーティングに関する評価を行う評価端末40とを備えている。なお、本実施の形態によるビデオミーティングは、ユーザ端末10及び20同士がいわゆるエンドツーエンドで通信されるように構成することとしてもよい。
<ハードウェア構成例>
図2は、本実施形態に係る各端末10乃至40を実現するコンピュータのハードウェア構成例を示す図である。コンピュータは、少なくとも、制御部11、メモリ12、ストレージ13、通信部14および入出力部15等を備える。これらはバス16を通じて相互に電気的に接続される。
制御部11は、各端末全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部11は、CPU等のプロセッサであり、ストレージ13に格納されメモリ12に展開されたプログラム等を実行して各情報処理を実施する。
メモリ12は、DRAM等の揮発性記憶装置で構成される主記憶と、フラッシュメモリまたはHDD等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ12は、制御部11のワークエリア等として使用され、また、情報共有支援装置10の起動時に実行されるBIOS、及び各種設定情報等を格納する。
ストレージ13は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ13に構築されていてもよい。特にビデオミーティングサービス端末30にはオンラインセッションにおける動画像を記録しストレージ13に格納することとしてもよい。また、評価端末40は、動画像を取得し、評価端末40の管理するストレージ13にその解析結果(評価結果)と共に格納することとしてもよい。
通信部14は、情報共有支援装置10をネットワークに接続する。通信部14は、例えば、有線LAN、無線LAN、Wi-Fi(登録商標)、赤外線通信、Bluetooth(登録商標)、近距離または非接触通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して通信する。
入出力部15は、例えば、キーボード、マウス、タッチパネル等の情報入力機器、及びディスプレイ等の出力機器である。
バス16は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。
特に、本実施の形態による評価端末は、ビデオミーティングサービス端末から動画像を取得し、当該動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別すると共に、顔画像に関する評価値を算出する(詳しくは後述する)。
<動画の取得方法>
図3に示されるように、ビデオミーティングサービス端末が提供するビデオミーティングサービス(以下、単に「本サービス」と言うことがある」)は、ユーザ端末10、20に対して双方向に画像および音声によって通信が可能となるものである。本サービスは、ユーザ端末のディスプレイに相手のユーザ端末のカメラ部で取得した動画像を表示し、相手のユーザ端末のマイク部で取得した音声をスピーカーから出力可能となっている。
また、本サービスは双方の又はいずれかのユーザ端末によって、動画像及び音声(これらを合わせて「動画像等」という)を記録(レコーディング)することが可能に構成されている。記録された情報Vs1、Vs2(以下「記録情報」という)は、一時的には記録を開始したユーザ端末にキャッシュされつつ、ビデオミーティングサービス端末側か、またはいずれかのユーザ端末のローカルのみ、またはその両方に記録されることとなる。ユーザは、当該記録情報を本サービスの利用の範囲内で自分で視聴、他者に共有等行うことができる。
評価端末40は、当該記録情報を取得して、後述するような分析及び評価を行う。記録情報の取得方法としては、レコーディングされた情報がビデオミーティングサービス端末側及びユーザ端末側のいずれに記憶されるかによって取得のルートが異なる(図の点線矢印参照)。また、情報の特定方法としては、例えば、直接にダウンロードリクエストを行うこととしてもよいし、所定のURLを経由してアクセスすることとしてもよい。
評価端末40は、以上のようにして取得した動画を以下のような分析によって評価を行う。
以下、本発明の一実施形態を図面に基づいて説明する。図4は、本実施形態による評価の一連の処理に用いられる構成例を示すブロック図である。図4に示すように、本実施形態のビデオミーティング評価システムは、機能構成として、他のユーザ端末との通信を制御する通信制御部201、通信制御部201を介してビデオミーティングを制御するビデオミーティング制御部203、ビデオミーティングから得られる動画像を記憶する記憶部205、記憶した動画像から評価対象を特定する評価対象特定部207と、特定された動画像内に含まれる少なくとも顔画像又は音声に関する評価値を算出する評価部209とを備えている。評価部209の詳細は後述する。
<ファイル単位の評価>
図5に示されるように、評価対象特定部207は、動画像をファイル単位で評価対象であるか否かを特定する。図は、ビデオミーティングサービス端末30内に動画像が記憶される例を示したものである。
図示されるように、動画像は、各動画を識別するIDと、内容に関する情報と、評価対象とするかどうかのフラグ情報が関連座けられてデータベースに格納されている。本実施の形態においては、1のフラグが関連付けられている動画像は評価対象とし、0のフラグが関連付けられている動画像は評価対象とはしない。例えば、IDが「Urawa20201019001」の動画像についてはオンライン授業に関する動画像であり、講師の講義に対して受講生の表情や感情を評価することとしている。一方、IDが「Omiya20201019003」の動画像については個人面談に関する動画像であり個人情報やプライバシーの観点から評価すべき対象からは外されている。
このように、ファイル単位で、評価対象か否かのフラグを関連付けることとすれば、評価すべきでない動画自体を評価端末に送信することも防ぐことが可能となる。フラグは、動画像の属性情報(内容、時間帯、関連付けられている人等)に基づいて自動で付与されることとしてもよいし、手動での付与を受け付けることとしてもよい。
<フレーム群単位の評価>
図6に示されるように、評価対象特定部207は、少なくとも一の動画像内おける所定数のフレーム群t1~t5(幅の概念は、時間、フレーム数等例示できるがこれに限られない)からなるフレーム群単位で評価対象であるか否かを特定することとしてもよい。図示されるように、フレーム群t2及びt4が評価対象となっている。即ち、評価部209は、フレーム群t2及びt4に属するフレームのみを評価する。
図7に示されるように、評価対象特定部207は、所定の音声が含まれている有音時間(又は無音時間)の少なくともいずれかを評価対象であるフレーム群として自動的に特定することとしてもよい。
また、図示しないが、評価対象特定部207は、所定の対象物が映っている時間(又は所定の対象物が映っていない時間)の少なくともいずれかを評価対象であるフレーム群として自動的に特定することとしてもよい。この場合、例えば、動画像のフレーム内において識別できる人数が一定以上(又は一定以下)のときに当該フレーム群を評価対象とする(しない)としてもよい。
続いて、図4に戻り、評価部209の機能を説明する。評価部209は、動画像取得部11、生体反応解析部12、特異判定部13、関連事象特定部14、クラスタリング部15および解析結果通知部16を備えている。
上記各機能ブロック11~16は、例えば評価端末40に備えられたハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11~16は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
動画像取得部11は、オンラインセッション中に各端末が備えるカメラにより複数人(複数のユーザ)を撮影することによって得られる動画像を各端末から取得する。各端末から取得する動画像は、各端末の画面上に表示されるように設定されているものか否かは問わない。すなわち、動画像取得部11は、各端末に表示中の動画像および非表示中の動画像を含めて、動画像を各端末から取得する。
生体反応解析部12は、動画像取得部11により取得された動画像(画面上に表示中のものか否かは問わない)に基づいて、複数人のそれぞれについて生体反応の変化を解析する。本実施形態において生体反応解析部12は、動画像取得部11により取得された動画像を画像のセット(フレーム画像の集まり)と音声とに分離し、それぞれから生体反応の変化を解析する。
例えば、生体反応解析部12は、動画像取得部11により取得された動画像から分離したフレーム画像を用いてユーザの顔画像を解析することにより、表情、目線、脈拍、顔の動きの少なくとも1つに関する生体反応の変化を解析する。また、生体反応解析部12は、動画像取得部11により取得された動画像から分離した音声を解析することにより、ユーザの発言内容、声質の少なくとも1つに関する生体反応の変化を解析する。
人は感情が変化すると、それが表情、目線、脈拍、顔の動き、発言内容、声質などの生体反応の変化となって現れる。本実施形態では、ユーザの生体反応の変化を解析することを通じて、ユーザの感情の変化を解析する。本実施形態において解析する感情は、一例として、快/不快の程度である。本実施形態において生体反応解析部12は、生体反応の変化を所定の基準に従って数値化することにより、生体反応の変化の内容を反映させた生体反応指標値を算出する。
表情の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、事前に機械学習させた画像解析モデルに従って特定した顔の表情を複数に分類する。そして、その分類結果に基づいて、連続するフレーム画像間でポジティブな表情変化が起きているか、ネガティブな表情変化が起きているか、およびどの程度の大きさの表情変化が起きているかを解析し、その解析結果に応じた表情変化指標値を出力する。
目線の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から目の領域を特定し、両目の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、目線の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。目線の変化はユーザの集中度にも関連する。生体反応解析部12は、目線の変化の解析結果に応じた目線変化指標値を出力する。
脈拍の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定する。そして、顔の色情報(RGBのG)の数値を捉える学習済みの画像解析モデルを用いて、顔表面のG色の変化を解析する。その結果を時間軸に合わせて並べることによって色情報の変化を表した波形を形成し、この波形から脈拍を特定する。人は緊張すると脈拍が速くなり、気持ちが落ち着くと脈拍が遅くなる。生体反応解析部12は、脈拍の変化の解析結果に応じた脈拍変化指標値を出力する。
顔の動きの変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、顔の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、顔の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。顔の動きと目線の動きとを合わせて解析するようにしてもよい。例えば、表示中の話者の顔をまっすぐ見ているか、上目遣いまたは下目使いに見ているか、斜めから見ているかなどを解析するようにしてもよい。生体反応解析部12は、顔の向きの変化の解析結果に応じた顔向き変化指標値を出力する。
発言内容の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声認識処理を行うことによって音声を文字列に変換し、当該文字列を形態素解析することにより、助詞、冠詞などの会話を表す上で不要なワードを取り除く。そして、残ったワードをベクトル化し、ポジティブな感情変化が起きているか、ネガティブな感情変化が起きているか、およびどの程度の大きさの感情変化が起きているかを解析し、その解析結果に応じた発言内容指標値を出力する。
声質の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声解析処理を行うことによって音声の音響的特徴を特定する。そして、その音響的特徴に基づいて、ポジティブな声質変化が起きているか、ネガティブな声質変化が起きているか、およびどの程度の大きさの声質変化が起きているかを解析し、その解析結果に応じた声質変化指標値を出力する。
生体反応解析部12は、以上のようにして算出した表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値、声質変化指標値の少なくとも1つを用いて生体反応指標値を算出する。例えば、表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値および声質変化指標値を重み付け計算することにより、生体反応指標値を算出する。
特異判定部13は、解析対象者について解析された生体反応の変化が、解析対象者以外の他者について解析された生体反応の変化と比べて特異的か否かを判定する。本実施形態において、特異判定部13は、生体反応解析部12により複数のユーザのそれぞれについて算出された生体反応指標値に基づいて、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する。
例えば、特異判定部13は、生体反応解析部12により複数人のそれぞれについて算出された生体反応指標値の分散を算出し、解析対象者について算出された生体反応指標値と分散との対比により、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する。
解析対象者について解析された生体反応の変化が他者と比べて特異的である場合として、次の3パターンが考えられる。1つ目は、他者については特に大きな生体反応の変化が起きていないが、解析対象者について比較的大きな生体反応の変化が起きた場合である。2つ目は、解析対象者については特に大きな生体反応の変化が起きていないが、他者について比較的大きな生体反応の変化が起きた場合である。3つ目は、解析対象者についても他者についても比較的大きな生体反応の変化が起きているが、変化の内容が解析対象者と他者とで異なる場合である。
関連事象特定部14は、特異判定部13により特異的であると判定された生体反応の変化が起きたときに解析対象者、他者および環境の少なくとも1つに関して発生している事象を特定する。例えば、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける解析対象者自身の言動を動画像から特定する。また、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける他者の言動を動画像から特定する。また、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける環境を動画像から特定する。環境は、例えば画面に表示中の共有資料、解析対象者の背景に写っているものなどである。
クラスタリング部15は、特異判定部13により特異的であると判定された生体反応の変化(例えば、目線、脈拍、顔の動き、発言内容、声質のうち1つまたは複数の組み合わせ)と、当該特異的な生体反応の変化が起きたときに発生している事象(関連事象特定部14により特定された事象)との相関の程度を解析し、相関が一定レベル以上であると判定された場合に、その相関の解析結果に基づいて解析対象者または事象をクラスタリングする。
例えば、特異的な生体反応の変化がネガティブな感情変化に相当するものであり、当該特異的な生体反応の変化が起きたときに発生している事象もネガティブな事象である場合には一定レベル以上の相関が検出される。クラスタリング部15は、その事象の内容やネガティブな度合い、相関の大きさなどに応じて、あらかじめセグメント化した複数の分類の何れかに解析対象者または事象をクラスタリングする。
同様に、特異的な生体反応の変化がポジティブな感情変化に相当するものであり、当該特異的な生体反応の変化が起きたときに発生している事象もポジティブな事象である場合には一定レベル以上の相関が検出される。クラスタリング部15は、その事象の内容やポジティブな度合い、相関の大きさなどに応じて、あらかじめセグメント化した複数の分類の何れかに解析対象者または事象をクラスタリングする。
解析結果通知部16は、特異判定部13により特異的であると判定された生体反応の変化、関連事象特定部14により特定された事象、およびクラスタリング部15によりクラスタリングされた分類の少なくとも1つを、解析対象者の指定者(解析対象者またはオンラインセッションの主催者)に通知する。
例えば、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたとき(上述した3パターンの何れか。以下同様)に発生している事象として解析対象者自身の言動を解析対象者自身に通知する。これにより、解析対象者は、自分がある言動を行ったときに他者とは違う感情を持っていることを把握することができる。このとき、解析対象者について特定された特異的な生体反応の変化も併せて解析対象者に通知するようにしてもよい。さらに、対比される他者の生体反応の変化を更に解析対象者に通知するようにしてもよい。
例えば、解析対象者が普段どおりの感情で特に意識せずに行った言動、または、解析対象者がある感情を伴って特に意識して行った言動に対して他者が受けた感情と、言動の際に解析対象者自身が抱いていた感情とが相違している場合に、そのときの解析対象者自身の言動が解析対象者に通知される。これにより、自分の意識に反して他者の受けが良い言動や他者の受けが良くない言動などを発見することも可能である。
また、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたときに発生している事象を、特異的な生体反応の変化と共にオンラインセッションの主催者に通知する。これにより、オンラインセッションの主催者は、指定した解析対象者に特有の現象として、どのような事象がどのような感情の変化に影響を与えているのかを知ることができる。そして、その把握した内容に応じて適切な処置を解析対象者に対して行うことが可能となる。
また、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたときに発生している事象または解析対象者のクラスタリング結果をオンラインセッションの主催者に通知する。これにより、オンラインセッションの主催者は、指定した解析対象者がどの分類にクラスタリングされたかによって、解析対象者に特有の行動の傾向を把握したり、今後起こり得る行動や状態などを予測したりすることができる。そして、それに対して適切な処置を解析対象者に対して行うことが可能となる。
なお、上記実施形態では、生体反応の変化を所定の基準に従って数値化することによって生体反応指標値を算出し、複数人のそれぞれについて算出された生体反応指標値に基づいて、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する例について説明したが、この例に限定されない。例えば、以下のようにしてもよい。
すなわち、生体反応解析部12は、複数人のそれぞれについて目線の動きを解析して目線の方向を示すヒートマップを生成する。特異判定部13は、生体反応解析部12により解析対象者について生成されたヒートマップと他者について生成されたヒートマップとの対比により、解析対象者について解析された生体反応の変化が、他者について解析された生体反応の変化と比べて特異的か否かを判定する。
<変形例>
なお、図8に示すように、本実施形態のビデオミーティング評価システムは、機能構成として、動画像取得部11、生体反応解析部12および反応情報提示部13aを備えている。
反応情報提示部13aは、画面に表示されていない参加者を含めて生体反応解析部12aにより解析された生体反応の変化を示す情報を提示する。例えば、反応情報提示部13aは、生体反応の変化を示す情報をオンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)に提示する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。
このようにすることにより、オンラインセッションの主催者は、複数人でオンラインセッションが行われる環境において、画面に表示されていない参加者の様子も把握することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
本明細書において説明した装置は、単独の装置として実現されてもよく、一部または全部がネットワークで接続された複数の装置(例えばクラウドサーバ)等により実現されてもよい。例えば、情報共有支援装置10の制御部11およびストレージ13は、互いにネットワークで接続された異なるサーバにより実現されてもよい。
本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係る情報共有支援装置10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することが可能である。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
また、本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
以下の構成も本発明に含み得る。
<構成1>
複数人でオンラインセッションが行われる環境において、当該複数人の中の解析対象者について他者とは異なる特異的な感情を解析するビデオミーティング評価システム。
<構成2>
上記オンラインセッション中に上記複数人を撮影することによって得られる動画像を取得する動画像取得部と、
上記動画像取得部により取得された動画像に基づいて、上記複数人のそれぞれについて生体反応の変化を解析する生体反応解析部と、
上記解析対象者について解析された上記生体反応の変化が、上記解析対象者以外の他者について解析された上記生体反応の変化と比べて特異的か否かを判定する特異判定部とを備えた
ことを特徴とするビデオミーティング評価システム。
<構成3>
上記生体反応解析部は、上記動画像取得部により取得された動画像にける顔画像を解析することにより、表情、目線、脈拍、顔の動きの少なくとも1つに関する生体反応の変化を解析することを特徴とする構成2に記載のビデオミーティング評価システム。
<構成4>
上記生体反応解析部は、上記動画像取得部により取得された動画像にける音声を解析することにより、発言内容、声質の少なくとも1つに関する生体反応の変化を解析することを特徴とする構成2または3に記載のビデオミーティング評価システム。
<構成5>
上記生体反応解析部は、上記生体反応の変化を所定の基準に従って数値化することによって生体反応指標値を算出し、
上記特異判定部は、上記生体反応解析部により上記複数人のそれぞれについて算出された上記生体反応指標値に基づいて、上記解析対象者について解析された上記生体反応の変化が、上記解析対象者以外の他者について解析された上記生体反応の変化と比べて特異的か否かを判定する
ことを特徴とする構成2~4の何れか1項に記載のビデオミーティング評価システム。
<構成6>
上記特異判定部は、上記生体反応解析部により上記複数人のそれぞれについて算出された上記生体反応指標値の分散を算出し、上記解析対象者について算出された上記生体反応指標値と上記分散との対比により、上記解析対象者について解析された上記生体反応の変化が、上記他者について解析された上記生体反応の変化と比べて特異的か否かを判定することを特徴とする構成5に記載のビデオミーティング評価システム。
<構成7>
上記生体反応解析部は、上記複数人のそれぞれについて上記目線の動きを解析して目線の方向を示すヒートマップを生成し、
上記特異判定部は、上記生体反応解析部により上記解析対象者について生成されたヒートマップと上記他者について生成されたヒートマップとの対比により、上記解析対象者について解析された上記生体反応の変化が、上記他者について解析された上記生体反応の変化と比べて特異的か否かを判定する
ことを特徴とする構成3に記載のビデオミーティング評価システム。
<構成8>
上記特異判定部により特異的であると判定された生体反応の変化が起きたときに上記解析対象者、上記他者および環境の少なくとも1つに関して発生している事象を特定する関連事象特定部を更に備えたことを特徴とする構成2~7の何れか1項に記載のビデオミーティング評価システム。
<構成9>
上記特異判定部により特異的であると判定された生体反応の変化と、当該特異的な生体反応の変化が起きたときに発生している事象との相関の程度を解析し、相関が一定レベル以上であると判定された場合に、その相関の解析結果に基づいて上記解析対象者または上記事象をクラスタリングするクラスタリング部を更に備えたことを特徴とする構成8に記載のビデオミーティング評価システム。
<構成10>
上記特異判定部により特異的であると判定された生体反応の変化および上記関連事象特定部により特定された事象の少なくとも一方を、上記解析対象者または上記オンラインセッションの主催者に通知する解析結果通知部を更に備えたことを特徴とする構成8に記載のビデオミーティング評価システム。
<構成11>
上記特異判定部により特異的であると判定された生体反応の変化、上記関連事象特定部により特定された事象、および上記クラスタリング部によりクラスタリングされた分類の少なくとも1つを、上記解析対象者または上記オンラインセッションの主催者に通知する解析結果通知部を更に備えたことを特徴とする請求項9に記載のビデオミーティング評価システム。
<構成12>
複数人の参加者でオンラインセッションが行われる環境において、オンラインセッション中に参加者が画面に表示されているか否かによらず、上記参加者を撮影することによって得られる動画像をもとに上記参加者の反応を解析し、その解析結果を提示する反応解析システム。
<構成13>
上記オンラインセッション中に上記参加者を撮影することによって得られる動画像を取得する動画像取得部と、
上記動画像取得部により取得された動画像に基づいて、上記参加者について生体反応の変化を解析する生体反応解析部と、
上記画面に表示されていない参加者を含めて上記生体反応解析部により解析された上記生体反応の変化を示す情報を提示する反応情報提示部とを備えた
ことを特徴とする項目12に記載の反応解析システム。
<構成14>
上記生体反応解析部は、上記動画像取得部により取得された動画像にける顔画像を解析することにより、表情、目線、脈拍、顔の動きの少なくとも1つに関する生体反応の変化を解析することを特徴とする項目13に記載の反応解析システム。
<構成15>
上記生体反応解析部は、上記動画像取得部により取得された動画像にける音声を解析することにより、発言内容、声質の少なくとも1つに関する生体反応の変化を解析することを特徴とする項目13又は項目14に記載の反応解析システム。
<構成16>
上記生体反応解析部は、上記画面に表示されていない参加者が、上記画面に表示されている共有資料のどこを見ているかを解析することを特徴とする項目13に記載の反応解析システム。
<構成17>
上記生体反応解析部は、上記画面に表示されていない参加者が、上記オンラインセッション中のどのタイミングで声を出したかを解析することを特徴とする項目13に記載の反応解析システム。
<構成18>
上記反応情報提示部は、上記生体反応の変化を示す情報を上記オンラインセッションの主催者に提示することを特徴とする項目13乃至項目17の何れか1項に記載の反応解析システム。
10、20 ユーザ端末
30 ビデオミーティングサービス端末
40 評価端末

Claims (13)

  1. ビデオミーティングから得られる動画像をもとに前記ビデオミーティングに含まれるユーザの反応を分析するビデオミーティング評価端末であって、
    前記ビデオミーティングを実行した前記ユーザの端末から、前記ユーザの操作によって評価対象フラグが関連付けられた動画像のみを取得する動画像取得部と、
    前記動画像内に含まれる少なくとも前記ユーザの顔画像及び音声に基づいて前記ユーザの感情の変化に起因する生体反応の変化を評価値として解析する解析部と、を備える
    ビデオミーティング評価端末。
  2. 請求項1に記載のビデオミーティング評価端末であって、
    価対象特定部は、前記動画像をファイル単位で評価対象であるか否かを特定する、
    ビデオミーティング評価端末。
  3. 請求項1に記載のビデオミーティング評価端末であって、
    価対象特定部は、少なくとも一の前記動画像内おける所定数のフレームからなるレーム群単位で評価対象であるか否かを特定する、
    ビデオミーティング評価端末。
  4. 請求項3に記載のビデオミーティング評価端末であって、
    価対象特定部は、所定の音声が含まれている時間又は無音時間の少なくともいずれかを前記フレーム群として特定する、
    ビデオミーティング評価端末。
  5. 請求項3に記載のビデオミーティング評価端末であって、
    価対象特定部は、所定の対象物が映っている時間又は所定の対象物が映っていない時間の少なくともいずれかを前記フレーム群として特定する、
    ビデオミーティング評価端末。
  6. 請求項1乃至請求項5のいずれかに記載のビデオミーティング評価端末であって、
    ビデオミーティング評価端末は、前記評価値の時系列によるグラフ情報を提供する、
    ビデオミーティング評価端末。
  7. 請求項1乃至請求項6のいずれかに記載のビデオミーティング評価端末であって、
    前記ビデオミーティング評価端末は、前記顔画像を複数の異なる観点によって評価した複数の評価値を算出する、
    ビデオミーティング評価端末。
  8. 請求項1乃至請求項7のいずれかに記載のビデオミーティング評価端末であって、
    前記ビデオミーティング評価端末は、前記動画像に含まれる音声と共に前記評価値を算出する、
    ビデオミーティング評価端末。
  9. 請求項1乃至請求項8のいずれかに記載のビデオミーティング評価端末であって、
    前記ビデオミーティング評価端末は、前記動画像内に含まれる前記顔画像以外の対象物と共に前記評価値を算出する、
    ビデオミーティング評価端末。
  10. 請求項1乃至請求項9のいずれかに記載のビデオミーティング評価端末であって、
    前記動画像に関連付けられた識別子を生成する識別子生成手段と、
    前記識別子及び記評価値を対応付けて共有する共有手段をさらに有する、
    ビデオミーティング評価端末。
  11. 請求項1に記載のビデオミーティング評価端末であって、
    前記解析部は、数のユーザのそれぞれについて線の動きを解析して目線の方向を示すヒートマップを生成し、生成されたヒートマップと他のユーザについて生成されたヒートマップとの対比により、前記ユーザについて解析された前記生体反応の変化が、前記他のユーザについて解析された前記生体反応の変化と比べて特異的か否かを判定する、
    ビデオミーティング評価端末。
  12. 請求項1に記載のビデオミーティング評価端末であって、
    前記解析部は、前記ユーザについて解析された前記生体反応の変化が他の前記ユーザについて解析された前記生体反応の変化と比べて特異的か否かを判定し、前記ユーザに特異的であると判定された生体反応の変化が起きたときに前記ユーザ、他の前記ユーザ又環境の少なくとも1つに関して発生している事象を特定し、前記ユーザの前記生体反応の変化と前記事象との相関の程度を解析し、前記相関が一定レベル以上であると判定された場合にその相関の解析結果に基づいて前記ユーザ又は前記事象をクラスタリングする、
    ビデオミーティング評価端末。
  13. ビデオミーティングから得られる動画像をもとに前記ビデオミーティングに含まれるユーザの反応を分析するビデオミーティング評価プログラムであって、
    ビデオミーティング評価端末を
    前記ビデオミーティングを実行した前記ユーザの端末から、前記ユーザの操作によって評価対象フラグが関連付けられた動画像のみを取得する動画像取得部と、
    前記動画像内に含まれる少なくとも前記ユーザの顔画像及び音声に基づいて前記ユーザの感情の変化に起因する生体反応の変化を評価値として解析する解析部として機能させる
    ビデオミーティング評価プログラム。
JP2022515716A 2020-11-26 2020-11-26 ビデオミーティング評価端末及びビデオミーティング評価方法 Active JP7445331B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/044126 WO2022113248A1 (ja) 2020-11-26 2020-11-26 ビデオミーティング評価端末及びビデオミーティング評価方法

Publications (3)

Publication Number Publication Date
JPWO2022113248A1 JPWO2022113248A1 (ja) 2022-06-02
JPWO2022113248A5 JPWO2022113248A5 (ja) 2023-12-06
JP7445331B2 true JP7445331B2 (ja) 2024-03-07

Family

ID=81755711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022515716A Active JP7445331B2 (ja) 2020-11-26 2020-11-26 ビデオミーティング評価端末及びビデオミーティング評価方法

Country Status (2)

Country Link
JP (1) JP7445331B2 (ja)
WO (1) WO2022113248A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015181841A (ja) 2014-03-25 2015-10-22 フクダ電子株式会社 生体信号処理装置およびその制御方法
JP2018068618A (ja) 2016-10-28 2018-05-10 株式会社東芝 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム
CN110807394A (zh) 2019-10-23 2020-02-18 上海能塔智能科技有限公司 情绪识别方法、试驾体验评估方法、装置、设备与介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4891802B2 (ja) * 2007-02-20 2012-03-07 日本電信電話株式会社 コンテンツ検索・推薦方法、コンテンツ検索・推薦装置およびコンテンツ検索・推薦プログラム
JP2019058625A (ja) * 2017-09-26 2019-04-18 株式会社エモスタ 感情読み取り装置及び感情解析方法
JP7046546B2 (ja) * 2017-09-28 2022-04-04 株式会社野村総合研究所 会議支援システムおよび会議支援プログラム
JP2020013428A (ja) * 2018-07-20 2020-01-23 本田技研工業株式会社 表情推定装置および表情推定方法
JP2020160598A (ja) * 2019-03-25 2020-10-01 トヨタ紡織株式会社 情報処理装置、制御システム、情報処理装置の制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015181841A (ja) 2014-03-25 2015-10-22 フクダ電子株式会社 生体信号処理装置およびその制御方法
JP2018068618A (ja) 2016-10-28 2018-05-10 株式会社東芝 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム
CN110807394A (zh) 2019-10-23 2020-02-18 上海能塔智能科技有限公司 情绪识别方法、试驾体验评估方法、装置、设备与介质

Also Published As

Publication number Publication date
WO2022113248A1 (ja) 2022-06-02
JPWO2022113248A1 (ja) 2022-06-02

Similar Documents

Publication Publication Date Title
WO2022064621A1 (ja) ビデオミーティング評価システム及びビデオミーティング評価サーバ
JP7445331B2 (ja) ビデオミーティング評価端末及びビデオミーティング評価方法
JP7477909B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022064620A1 (ja) ビデオミーティング評価システム及びビデオミーティング評価サーバ
WO2022064619A1 (ja) ビデオミーティング評価システム及びビデオミーティング評価サーバ
WO2022064618A1 (ja) ビデオミーティング評価システム及びビデオミーティング評価サーバ
JP7471683B2 (ja) 反応通知システム
WO2022064617A1 (ja) ビデオミーティング評価システム及びビデオミーティング評価サーバ
JP7465012B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7465013B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7388768B2 (ja) 動画像分析プログラム
WO2022074785A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7121436B1 (ja) 動画像分析プログラム
JP7121433B1 (ja) 動画像分析プログラム
US11935329B2 (en) Video analysis program
JP7100938B1 (ja) 動画像分析プログラム
JP7197955B1 (ja) ビデオミーティング評価端末
WO2022201266A1 (ja) 動画像分析プログラム
WO2023032058A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022201269A1 (ja) 動画像分析プログラム
WO2022230138A1 (ja) 動画像分析システム
WO2022264217A1 (ja) 動画像分析システム
WO2022230068A1 (ja) 動画像分析プログラム
WO2022145043A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022230155A1 (ja) 動画像分析システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231127

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240216

R150 Certificate of patent or registration of utility model

Ref document number: 7445331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150