JP7138998B1 - VIDEO SESSION EVALUATION TERMINAL, VIDEO SESSION EVALUATION SYSTEM AND VIDEO SESSION EVALUATION PROGRAM - Google Patents
VIDEO SESSION EVALUATION TERMINAL, VIDEO SESSION EVALUATION SYSTEM AND VIDEO SESSION EVALUATION PROGRAM Download PDFInfo
- Publication number
- JP7138998B1 JP7138998B1 JP2022517949A JP2022517949A JP7138998B1 JP 7138998 B1 JP7138998 B1 JP 7138998B1 JP 2022517949 A JP2022517949 A JP 2022517949A JP 2022517949 A JP2022517949 A JP 2022517949A JP 7138998 B1 JP7138998 B1 JP 7138998B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- line
- gaze
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 60
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000006243 chemical reaction Methods 0.000 claims abstract description 91
- 238000004458 analytical method Methods 0.000 claims abstract description 74
- 230000004424 eye movement Effects 0.000 claims abstract description 11
- 230000008859 change Effects 0.000 claims description 74
- 238000010191 image analysis Methods 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 3
- 230000008451 emotion Effects 0.000 description 16
- 230000008921 facial expression Effects 0.000 description 16
- 239000000463 material Substances 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 7
- 230000002996 emotional effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 208000035473 Communicable disease Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008512 biological response Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】ビデオセッションにおいて取得された動画像を評価することにより、ビデオセッション自体の評価を行うこと。【解決手段】視線評価システムは、複数のユーザで行われるオンラインセッションから得られる動画像をもとにユーザの反応を分析する。システムは、ユーザに複数の画像を表示するディスプレイ部と、複数のユーザの夫々について、オンラインセッション中にユーザを撮影することによって得られる動画像を取得するカメラ部と、取得した動画像に基づいて、ユーザについて生体反応の変化を解析する解析部と、取得した動画像に基づいて対象者の目線の動きを取得する視線取得部と、カメラ部とディスプレイ部との位置関係を取得して、ユーザの目線に基づいて画像上におけるユーザの注視点を推定する注視点推定部と、表示した複数の画像ごとに、注視点と解析された生体反応の変化とを関連付けて出力する出力部とを備える。【選択図】図1A video session itself is evaluated by evaluating moving images acquired in the video session. A line-of-sight evaluation system analyzes user reactions based on moving images obtained from online sessions conducted by a plurality of users. The system includes a display unit that displays a plurality of images to the user, a camera unit that acquires a moving image obtained by photographing the user during an online session for each of the plurality of users, and based on the acquired moving image, an analysis unit that analyzes changes in biological reactions of the user; a line-of-sight acquisition unit that acquires eye movement of the subject based on the acquired moving image; a point-of-regard estimating unit for estimating the point of gaze of the user on the image based on the line of sight of the user; . [Selection drawing] Fig. 1
Description
本開示は、ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラムに関する。 The present disclosure relates to a video session evaluation terminal, a video session evaluation system and a video session evaluation program.
従来、発言者の発言に対して他者が受ける感情を解析する技術が知られている(例えば、特許文献1参照)。また、対象者の表情の変化を長期間にわたり時系列的に解析し、その間に抱いた感情を推定する技術も知られている(例えば、特許文献2参照)。さらに、感情の変化に最も影響を与えた要素を特定する技術も知られている(例えば、特許文献3~5参照)。さらにまた、対象者の普段の表情と現在の表情とを比較して、表情が暗い場合にアラートを発する技術も知られている(例えば、特許文献6参照)。また、対象者の平常時(無表情時)の表情と現在の表情とを比較して、対象者の感情の度合いを判定するようにした技術も知られている(例えば、特許文献7~9参照)。更に、また、組織としての感情や、個人が感じるグループ内の雰囲気を分析する技術も知られている(例えば、特許文献10、11参照)。
Conventionally, there has been known a technique for analyzing the emotions others receive in response to a speaker's utterances (see, for example, Patent Literature 1). There is also known a technique for analyzing changes in facial expressions of a subject in chronological order over a long period of time and estimating the emotions held during that period (see, for example, Patent Literature 2). Furthermore, there are known techniques for identifying factors that have the greatest influence on changes in emotions (see Patent Documents 3 to 5, for example). Furthermore, there is also known a technology that compares the subject's usual facial expression with the current facial expression and issues an alert when the facial expression is dark (see, for example, Patent Document 6). There is also known a technique for determining the degree of emotion of a subject by comparing the subject's normal (expressionless) facial expression with the current facial expression (for example, Patent Documents 7 to 9). reference). Furthermore, there is also known a technique for analyzing the feeling of an organization and the atmosphere within a group that an individual feels (see
上述したすべての技術は、現実空間におけるコミュニケーションが主である状況におけるサブ的な機能にすぎない。即ち、昨今の業務のDX(Digital Transformation)化や、世界的な感染症の流行等を受け、業務や授業等のコミュニケーションがオンラインで行われることが主とされる状況に生まれたものではない。 All the above-mentioned technologies are only secondary functions in situations where communication in the real space is the main activity. In other words, due to the recent DX (Digital Transformation) of business and the worldwide epidemic of infectious diseases, it is not a situation where communication such as business and classes is mainly conducted online.
本発明は、オンラインコミュニケーションが主となる状況において、より効率的なコミュニケーションを行うために、交わされたコミュニケーションを客観的に評価することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to objectively evaluate exchanged communication in order to conduct more efficient communication in a situation where online communication is the main activity.
本発明によれば、
対象者を撮影することによって得られる動画像を取得するカメラ部と、
取得した前記動画像に基づいて前記対象者の目線の動きを取得する視線取得部と、
前記対象者に複数の画像を連続して表示するディスプレイ部と、
前記カメラ部と、前記ディスプレイ部との位置関係を取得する位置取得部と、
表示した複数の前記画像ごとに前記目線の動きを関連付けて出力する出力部と、
が得られる。According to the invention,
a camera unit that acquires a moving image obtained by photographing a target person;
a line-of-sight acquisition unit that acquires a movement of the subject's line of sight based on the acquired moving image;
a display unit that continuously displays a plurality of images to the subject;
a position acquisition unit that acquires a positional relationship between the camera unit and the display unit;
an output unit that associates and outputs the eye movement for each of the plurality of displayed images;
is obtained.
本開示によれば、ビデオセッションの動画像を分析評価することにより、特に内容に関する評価を客観的に行うことができる。 According to the present disclosure, an objective assessment can be made, particularly regarding content, by analyzing the moving images of a video session.
特に、本発明によれば、オンラインコミュニケーションが主となる状況において、より効率的なコミュニケーションを行うために、交わされたコミュニケーションを客観的に評価することができる。 In particular, according to the present invention, exchanged communication can be objectively evaluated in order to conduct more efficient communication in a situation where online communication is the main activity.
本開示の実施形態の内容を列記して説明する。本開示は、以下のような構成を備える。
[項目1]
複数のユーザでオンラインセッションが行われる環境においてオンラインセッション中にユーザが画面に表示されているか否かによらず前記ユーザを撮影することによって得られる動画像をもとに前記ユーザの反応を分析する動画像分析システムであって、
前記ユーザに複数の画像を表示するディスプレイ部と、
複数の前記ユーザの夫々について、前記オンラインセッション中に前記ユーザを撮影することによって得られる動画像を取得するカメラ部と、
取得した前記動画像に基づいて、前記ユーザについて生体反応の変化を解析する解析部と、
取得した前記動画像に基づいて前記対象者の目線の動きを取得する視線取得部と、
前記カメラ部と前記ディスプレイ部との位置関係を取得して、前記ユーザの目線に基づいて前記画像上における前記ユーザの注視点を推定する注視点推定部と、
表示した複数の前記画像ごとに、前記注視点と解析された前記生体反応の変化とを関連付けて出力する出力部とを備える、
動画像分析システム。
を備える、視線評価システム。
[項目2]
請求項1に記載の視線評価システムであって、
前記出力部は、前記注視点と前記生体反応の変化に基づいて生成された前記生体反応の変化を所定の種類に分類し、分類毎に関連付けられた色を利用したヒートマップを重ねて出力する、
視線評価システム
[項目3]
請求項1に記載の視線評価システムであって、
前記出力部は、前記注視点に基づいて生成された注視時間を示すヒートマップを重ねて出力する、
視線評価システム
[項目4]
請求項1に記載の視線評価システムであって、
前記出力部は、同一の前記画像を表示した他のユーザの前記注視点を更に関連付けて出力する、
視線評価システム
[項目5]
請求項4に記載の視線評価システムであって、
前記ユーザに関連付けられた前記注視点における前記生体反応の変化が、前記他のユーザに関連付けられた前記注視点における前記生体反応の変化と比べて特異的か否かを判定する特異判定部を更に備える、
視線評価システム。
[項目6]
請求項1に記載の視線評価システムであって、
前記出力部は、前記画像ごとに複数の前記ユーザの前記目線の動きを平準化して得られる平準化ヒートマップを関連付けて出力する、
視線評価システム。The contents of the embodiments of the present disclosure are listed and described. The present disclosure has the following configurations.
[Item 1]
In an environment where an online session is held by a plurality of users, the reaction of the user is analyzed based on a moving image obtained by photographing the user regardless of whether or not the user is displayed on a screen during the online session. A moving image analysis system,
a display unit that displays a plurality of images to the user;
a camera unit that obtains a moving image obtained by photographing the user during the online session for each of the plurality of users;
an analysis unit that analyzes changes in biological reactions of the user based on the acquired moving image;
a line-of-sight acquisition unit that acquires a movement of the subject's line of sight based on the acquired moving image;
a gaze point estimation unit that obtains the positional relationship between the camera unit and the display unit and estimates the user's gaze point on the image based on the user's line of sight;
an output unit that associates and outputs the gaze point and the analyzed change in the biological reaction for each of the plurality of displayed images;
Video image analysis system.
A line-of-sight evaluation system.
[Item 2]
The line-of-sight evaluation system according to
The output unit classifies the change in the biological reaction generated based on the point of gaze and the change in the biological reaction into predetermined types, and outputs a heat map using colors associated with each classification in a superimposed manner. ,
Gaze evaluation system [Item 3]
The line-of-sight evaluation system according to
The output unit superimposes and outputs a heat map indicating a gaze time generated based on the gaze point.
Gaze evaluation system [Item 4]
The line-of-sight evaluation system according to
The output unit further associates and outputs the gaze point of another user who displayed the same image.
Gaze evaluation system [Item 5]
The line-of-sight evaluation system according to claim 4,
a peculiarity determination unit that determines whether or not the change in the biological reaction at the point of gaze associated with the user is more specific than the change in the biological reaction at the point of gaze associated with the other user; prepare
line of sight evaluation system.
[Item 6]
The line-of-sight evaluation system according to
The output unit associates and outputs a leveled heat map obtained by leveling the eye movements of the plurality of users for each of the images.
line of sight evaluation system.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.
<基本機能>
本実施形態のビデオセッション評価システムは、複数人でビデオセッション(以下、一方向及び双方向含めてオンラインセッションという)が行われる環境において、当該複数人の中の解析対象者について他者とは異なる特異的な感情(自分または他人の言動に対して起こる気持ち。快・不快またはその程度など)を解析し評価するシステムである。<Basic functions>
In the video session evaluation system of the present embodiment, in an environment where a video session (hereinafter referred to as an online session including one-way and two-way sessions) is held by a plurality of people, the person to be analyzed among the plurality of people is different from the others. It is a system that analyzes and evaluates specific emotions (feelings that occur in response to one's own or others' words and actions. Pleasant/unpleasant, or their degree).
オンラインセッションは、例えばオンライン会議、オンライン授業、オンラインチャットなどであり、複数の場所に設置された端末をインターネットなどの通信ネットワークを介してサーバに接続し、当該サーバを通じて複数の端末間で動画像をやり取りできるようにしたものである。 Online sessions are, for example, online meetings, online classes, online chats, etc. Terminals installed in multiple locations are connected to a server via a communication network such as the Internet, and moving images are transmitted between multiple terminals through the server. It's made to be interactable.
オンラインセッションで扱う動画像には、端末を使用するユーザの顔画像や音声が含まれる。また、動画像には、複数のユーザが共有して閲覧する資料などの画像も含まれる。各端末の画面上に顔画像と資料画像とを切り替えて何れか一方のみを表示させたり、表示領域を分けて顔画像と資料画像とを同時に表示させたりすることが可能である。また、複数人のうち1人の画像を全画面表示させたり、一部または全部のユーザの画像を小画面に分割して表示させたりすることが可能である。 Moving images handled in online sessions include facial images and voices of users using terminals. Moving images also include images such as materials that are shared and viewed by a plurality of users. It is possible to switch between the face image and the document image on the screen of each terminal to display only one of them, or to divide the display area and display the face image and the document image at the same time. In addition, it is possible to display the image of one user out of a plurality of users on the full screen, or divide the images of some or all of the users into small screens and display them.
端末を使用してオンラインセッションに参加する複数のユーザのうち、何れか1人または複数人を解析対象者として指定することが可能である。例えば、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。なお、解析対象者を指定せず全ての参加者を解析対象としてもよい。 It is possible to designate one or a plurality of users among a plurality of users participating in an online session using terminals as analysis subjects. For example, an online session leader, moderator, or manager (hereinafter collectively referred to as the organizer) designates any user as an analysis subject. Hosts of online sessions are, for example, instructors of online classes, chairpersons and facilitators of online meetings, coaches of sessions for coaching purposes, and the like. An online session host is typically one of the users participating in the online session, but may be another person who does not participate in the online session. It should be noted that all participants may be subject to analysis without specifying the person to be analyzed.
また、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定することも可能である。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。 In addition, it is also possible for an online session leader, moderator, or administrator (hereinafter collectively referred to as the organizer) to designate any user as an analysis subject. Hosts of online sessions are, for example, instructors of online classes, chairpersons and facilitators of online meetings, coaches of sessions for coaching purposes, and the like. An online session host is typically one of the users participating in the online session, but may be another person who does not participate in the online session.
本実施の形態によるビデオセッション評価システムは、複数の端末間においてビデオセッションセッションが確立された場合に、当該ビデオセッションから取得される少なくとも動画像を表示される。表示された動画像は、端末によって取得され、動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別される。その後、識別された顔画像に関する評価値が算出される。当該評価値は必要に応じて共有される。 The video session evaluation system according to this embodiment displays at least moving images obtained from a video session established between a plurality of terminals. The displayed moving image is acquired by the terminal, and at least a face image included in the moving image is identified for each predetermined frame unit. An evaluation value for the identified face image is then calculated. The evaluation value is shared as necessary.
特に、本実施の形態においては、取得した動画像は当該端末に保存され、端末上で分析評価され、その結果が当該端末のユーザに提供される。従って、例えば個人情報を含むビデオセッションや機密情報を含むビデオセッションであっても、その動画自体を外部の評価機関等に提供することなく分析評価できる。また、必要に応じて、当該評価結果(評価値)だけを外部端末に提供することによって、結果を可視化したり、クロス分析等行うことができる。 In particular, in this embodiment, the acquired moving image is stored in the terminal, analyzed and evaluated on the terminal, and the result is provided to the user of the terminal. Therefore, for example, even a video session containing personal information or a video session containing confidential information can be analyzed and evaluated without providing the moving image itself to an external evaluation agency or the like. In addition, by providing only the evaluation result (evaluation value) to the external terminal as necessary, the result can be visualized and cross-analysis can be performed.
図1に示されるように、本実施の形態によるビデオセッション評価システムは、少なくともカメラ部及びマイク部等の入力部と、ディスプレイ等の表示部とスピーカー等の出力部とを有するユーザ端末10、20と、ユーザ端末10、20に双方向のビデオセッションを提供するビデオセッションサービス端末30と、ビデオセッションに関する評価の一部を行う評価端末40とを備えている。
As shown in FIG. 1, the video session evaluation system according to the present embodiment includes
<ハードウェア構成例>
図2は、本実施形態に係る各端末10乃至40を実現するコンピュータのハードウェア構成例を示す図である。コンピュータは、少なくとも、制御部110、メモリ120、ストレージ130、通信部140および入出力部150等を備える。これらはバス160を通じて相互に電気的に接続される。<Hardware configuration example>
FIG. 2 is a diagram showing a hardware configuration example of a computer that implements each of the
制御部110は、各端末全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部110は、CPU等のプロセッサであり、ストレージ130に格納されメモリ120に展開されたプログラム等を実行して各情報処理を実施する。
The
メモリ120は、DRAM等の揮発性記憶装置で構成される主記憶と、フラッシュメモリまたはHDD等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ120は、制御部110のワークエリア等として使用され、また、各端末の起動時に実行されるBIOS、及び各種設定情報等を格納する。
The
ストレージ130は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ130に構築されていてもよい。特に本実施の形態においては、ビデオセッションサービス端末30のストレージ130にはオンラインセッションにおける動画像は記録されず、ユーザ端末10のストレージ130に格納される。また、評価端末40は、ユーザ端末10上において取得された動画像を評価するために必要なアプリケーションその他のプログラムを格納し、ユーザ端末10が利用可能に適宜提供する。なお、評価端末40の管理するストレージ13には、例えば、ユーザ端末10によって解析された結果、評価された結果のみが共有されることとしてもよい。
The
通信部140は、端末をネットワークに接続する。通信部140は、例えば、有線LAN、無線LAN、Wi-Fi(登録商標)、赤外線通信、Bluetooth(登録商標)、近距離または非接触通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して通信する。
入出力部150は、例えば、キーボード、マウス、タッチパネル等の情報入力機器、及びディスプレイ等の出力機器である。
The input/
バス160は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。
A
特に、本実施の形態による評価端末は、ビデオセッションサービス端末から動画像を取得し、当該動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別すると共に、顔画像に関する評価値を算出する(詳しくは後述する)。
<動画の取得方法>
図3に示されるように、ビデオセッションサービス端末が提供するビデオセッションサービス(以下、単に「本サービス」と言うことがある」)は、ユーザ端末10、20に対して双方向に画像および音声によって通信が可能となるものである。本サービスは、ユーザ端末のディスプレイに相手のユーザ端末のカメラ部で取得した動画像を表示し、相手のユーザ端末のマイク部で取得した音声をスピーカーから出力可能となっている。In particular, the evaluation terminal according to this embodiment acquires a moving image from a video session service terminal, identifies at least a face image included in the moving image for each predetermined frame unit, and calculates an evaluation value for the face image. (details will be described later).
<How to get videos>
As shown in FIG. 3, the video session service provided by the video session service terminal (hereinafter sometimes simply referred to as "this service") provides
また、本サービスは双方の又はいずれかのユーザ端末によって、動画像及び音声(これらを合わせて「動画像等」という)を少なくともいずれかのユーザ端末上の記憶部に記録(レコーディング)することが可能に構成されている。記録された動画像情報Vs(以下「記録情報」という)は、記録を開始したユーザ端末にキャッシュされつついずれかのユーザ端末のローカルのみに記録されることとなる。ユーザは、必要があれば当該記録情報を本サービスの利用の範囲内で自分で視聴、他者に共有等行うこともできる。 In addition, this service allows both or either of the user terminals to record moving images and sounds (collectively referred to as "moving images, etc.") in the storage unit of at least one of the user terminals. configured as possible. The recorded moving image information Vs (hereinafter referred to as “recorded information”) is cached in the user terminal that started recording and is locally recorded only in one of the user terminals. If necessary, the user can view the recorded information by himself or share it with others within the scope of using this service.
ユーザ端末10は、当該記録情報を取得して、後述するような分析及び評価を行う。
The
ユーザ端末10は、以上のようにして取得した動画を以下のような分析によって評価を行う。
The
<機能構成例1>
図4は、本実施形態による構成例を示すブロック図である。図4に示すように、本実施形態のビデオセッション評価システムは、ユーザ端末10が有する機能構成として実現される。すなわち、ユーザ端末10はその機能として、動画像取得部11、生体反応解析部12、特異判定部13、関連事象特定部14、クラスタリング部15および解析結果通知部16を備えている。<Functional configuration example 1>
FIG. 4 is a block diagram showing a configuration example according to this embodiment. As shown in FIG. 4, the video session evaluation system of this embodiment is implemented as a functional configuration of the
上記各機能ブロック11~16は、例えばユーザ端末10に備えられたハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11~16は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
Each of the
動画像取得部11は、オンラインセッション中に各端末が備えるカメラにより複数人(複数のユーザ)を撮影することによって得られる動画像を各端末から取得する。各端末から取得する動画像は、各端末の画面上に表示されるように設定されているものか否かは問わない。すなわち、動画像取得部11は、各端末に表示中の動画像および非表示中の動画像を含めて、動画像を各端末から取得する。
The moving
生体反応解析部12は、動画像取得部11により取得された動画像(画面上に表示中のものか否かは問わない)に基づいて、複数人のそれぞれについて生体反応の変化を解析する。本実施形態において生体反応解析部12は、動画像取得部11により取得された動画像を画像のセット(フレーム画像の集まり)と音声とに分離し、それぞれから生体反応の変化を解析する。
The biological
例えば、生体反応解析部12は、動画像取得部11により取得された動画像から分離したフレーム画像を用いてユーザの顔画像を解析することにより、表情、目線、脈拍、顔の動きの少なくとも1つに関する生体反応の変化を解析する。また、生体反応解析部12は、動画像取得部11により取得された動画像から分離した音声を解析することにより、ユーザの発言内容、声質の少なくとも1つに関する生体反応の変化を解析する。
For example, the biological
人は感情が変化すると、それが表情、目線、脈拍、顔の動き、発言内容、声質などの生体反応の変化となって現れる。本実施形態では、ユーザの生体反応の変化を解析することを通じて、ユーザの感情の変化を解析する。本実施形態において解析する感情は、一例として、快/不快の程度である。本実施形態において生体反応解析部12は、生体反応の変化を所定の基準に従って数値化することにより、生体反応の変化の内容を反映させた生体反応指標値を算出する。
When people's emotions change, it appears as changes in biological reactions such as facial expressions, eyes, pulse, facial movements, content of remarks, and voice quality. In this embodiment, changes in the user's emotions are analyzed through analysis of changes in the user's biological reactions. The emotion analyzed in this embodiment is, for example, the degree of comfort/discomfort. In the present embodiment, the biological
表情の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、事前に機械学習させた画像解析モデルに従って特定した顔の表情を複数に分類する。そして、その分類結果に基づいて、連続するフレーム画像間でポジティブな表情変化が起きているか、ネガティブな表情変化が起きているか、およびどの程度の大きさの表情変化が起きているかを解析し、その解析結果に応じた表情変化指標値を出力する。 Analysis of changes in facial expressions is performed, for example, as follows. That is, for each frame image, a facial region is identified from the frame image, and the identified facial expressions are classified into a plurality of types according to an image analysis model machine-learned in advance. Then, based on the classification results, it analyzes whether positive facial expression changes occur between consecutive frame images, whether negative facial expression changes occur, and to what extent the facial expression changes occur, A facial expression change index value corresponding to the analysis result is output.
目線の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から目の領域を特定し、両目の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、目線の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。目線の変化はユーザの集中度にも関連する。生体反応解析部12は、目線の変化の解析結果に応じた目線変化指標値を出力する。
The analysis of changes in line of sight is performed, for example, as follows. That is, for each frame image, the eye region is specified in the frame image, and the orientation of both eyes is analyzed to analyze where the user is looking. For example, it analyzes whether the user is looking at the face of the speaker being displayed, whether the user is looking at the shared material being displayed, or whether the user is looking outside the screen. Also, it may be analyzed whether the eye movement is large or small, or whether the movement is frequent or infrequent. A change in line of sight is also related to the user's degree of concentration. The biological
脈拍の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定する。そして、顔の色情報(RGBのG)の数値を捉える学習済みの画像解析モデルを用いて、顔表面のG色の変化を解析する。その結果を時間軸に合わせて並べることによって色情報の変化を表した波形を形成し、この波形から脈拍を特定する。人は緊張すると脈拍が速くなり、気持ちが落ち着くと脈拍が遅くなる。生体反応解析部12は、脈拍の変化の解析結果に応じた脈拍変化指標値を出力する。
Analysis of changes in pulse rate is performed, for example, as follows. That is, for each frame image, the face area is specified in the frame image. Then, using a trained image analysis model that captures numerical values of face color information (G of RGB), changes in the G color of the face surface are analyzed. By arranging the results along the time axis, a waveform representing changes in color information is formed, and the pulse is identified from this waveform. When a person is tense, the pulse speeds up, and when the person is calm, the pulse slows down. The biological
顔の動きの変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、顔の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、顔の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。顔の動きと目線の動きとを合わせて解析するようにしてもよい。例えば、表示中の話者の顔をまっすぐ見ているか、上目遣いまたは下目使いに見ているか、斜めから見ているかなどを解析するようにしてもよい。生体反応解析部12は、顔の向きの変化の解析結果に応じた顔向き変化指標値を出力する。
Analysis of changes in facial movement is performed, for example, as follows. That is, for each frame image, the face area is specified in the frame image, and the direction of the face is analyzed to analyze where the user is looking. For example, it analyzes whether the user is looking at the face of the speaker being displayed, whether the user is looking at the shared material being displayed, or whether the user is looking outside the screen. Further, it may be analyzed whether the movement of the face is large or small, or whether the movement is frequent or infrequent. The movement of the face and the movement of the line of sight may be analyzed together. For example, it may be analyzed whether the face of the speaker being displayed is viewed straight, whether the face is viewed with upward or downward gaze, or whether the face is viewed obliquely. The biological
発言内容の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声認識処理を行うことによって音声を文字列に変換し、当該文字列を形態素解析することにより、助詞、冠詞などの会話を表す上で不要なワードを取り除く。そして、残ったワードをベクトル化し、ポジティブな感情変化が起きているか、ネガティブな感情変化が起きているか、およびどの程度の大きさの感情変化が起きているかを解析し、その解析結果に応じた発言内容指標値を出力する。
Analysis of the content of the statement is performed, for example, as follows. That is, the biological
声質の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声解析処理を行うことによって音声の音響的特徴を特定する。そして、その音響的特徴に基づいて、ポジティブな声質変化が起きているか、ネガティブな声質変化が起きているか、およびどの程度の大きさの声質変化が起きているかを解析し、その解析結果に応じた声質変化指標値を出力する。
Analysis of voice quality is performed, for example, as follows. That is, the biological
生体反応解析部12は、以上のようにして算出した表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値、声質変化指標値の少なくとも1つを用いて生体反応指標値を算出する。例えば、表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値および声質変化指標値を重み付け計算することにより、生体反応指標値を算出する。
The biological
特異判定部13は、解析対象者について解析された生体反応の変化が、解析対象者以外の他者について解析された生体反応の変化と比べて特異的か否かを判定する。本実施形態において、特異判定部13は、生体反応解析部12により複数のユーザのそれぞれについて算出された生体反応指標値に基づいて、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する。
The
例えば、特異判定部13は、生体反応解析部12により複数人のそれぞれについて算出された生体反応指標値の分散を算出し、解析対象者について算出された生体反応指標値と分散との対比により、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する。
For example, the
解析対象者について解析された生体反応の変化が他者と比べて特異的である場合として、次の3パターンが考えられる。1つ目は、他者については特に大きな生体反応の変化が起きていないが、解析対象者について比較的大きな生体反応の変化が起きた場合である。2つ目は、解析対象者については特に大きな生体反応の変化が起きていないが、他者について比較的大きな生体反応の変化が起きた場合である。3つ目は、解析対象者についても他者についても比較的大きな生体反応の変化が起きているが、変化の内容が解析対象者と他者とで異なる場合である。 The following three patterns are conceivable as a case where the change in the biological reaction analyzed for the person to be analyzed is more specific than that for the other person. The first is a case where a relatively large change in biological reaction occurs in the subject of analysis, although no particularly large change in biological reaction has occurred in the other person. The second is a case where a particularly large change in biological reaction has not occurred in the subject of analysis, but a relatively large change in biological reaction has occurred in the other person. The third is a case where a relatively large change in biological reaction occurs in both the subject of analysis and the other person, but the content of the change differs between the subject of analysis and the other person.
関連事象特定部14は、特異判定部13により特異的であると判定された生体反応の変化が起きたときに解析対象者、他者および環境の少なくとも1つに関して発生している事象を特定する。例えば、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける解析対象者自身の言動を動画像から特定する。また、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける他者の言動を動画像から特定する。また、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける環境を動画像から特定する。環境は、例えば画面に表示中の共有資料、解析対象者の背景に写っているものなどである。
The related
クラスタリング部15は、特異判定部13により特異的であると判定された生体反応の変化(例えば、目線、脈拍、顔の動き、発言内容、声質のうち1つまたは複数の組み合わせ)と、当該特異的な生体反応の変化が起きたときに発生している事象(関連事象特定部14により特定された事象)との相関の程度を解析し、相関が一定レベル以上であると判定された場合に、その相関の解析結果に基づいて解析対象者または事象をクラスタリングする。
The
例えば、特異的な生体反応の変化がネガティブな感情変化に相当するものであり、当該特異的な生体反応の変化が起きたときに発生している事象もネガティブな事象である場合には一定レベル以上の相関が検出される。クラスタリング部15は、その事象の内容やネガティブな度合い、相関の大きさなどに応じて、あらかじめセグメント化した複数の分類の何れかに解析対象者または事象をクラスタリングする。
For example, if a change in a specific biological reaction corresponds to a negative emotional change, and the event occurring when the specific change in biological reaction occurs is also a negative event, a certain level The above correlation is detected. The
同様に、特異的な生体反応の変化がポジティブな感情変化に相当するものであり、当該特異的な生体反応の変化が起きたときに発生している事象もポジティブな事象である場合には一定レベル以上の相関が検出される。クラスタリング部15は、その事象の内容やポジティブな度合い、相関の大きさなどに応じて、あらかじめセグメント化した複数の分類の何れかに解析対象者または事象をクラスタリングする。
Similarly, if a specific change in biological reaction corresponds to a positive emotional change and the event occurring when the specific change in biological reaction occurs is also a positive event, Level or higher correlations are detected. The
解析結果通知部16は、特異判定部13により特異的であると判定された生体反応の変化、関連事象特定部14により特定された事象、およびクラスタリング部15によりクラスタリングされた分類の少なくとも1つを、解析対象者の指定者(解析対象者またはオンラインセッションの主催者)に通知する。
The analysis
例えば、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたとき(上述した3パターンの何れか。以下同様)に発生している事象として解析対象者自身の言動を解析対象者自身に通知する。これにより、解析対象者は、自分がある言動を行ったときに他者とは違う感情を持っていることを把握することができる。このとき、解析対象者について特定された特異的な生体反応の変化も併せて解析対象者に通知するようにしてもよい。さらに、対比される他者の生体反応の変化を更に解析対象者に通知するようにしてもよい。
For example, the analysis
例えば、解析対象者が普段どおりの感情で特に意識せずに行った言動、または、解析対象者がある感情を伴って特に意識して行った言動に対して他者が受けた感情と、言動の際に解析対象者自身が抱いていた感情とが相違している場合に、そのときの解析対象者自身の言動が解析対象者に通知される。これにより、自分の意識に反して他者の受けが良い言動や他者の受けが良くない言動などを発見することも可能である。 For example, the words and deeds of the person to be analyzed performed without being particularly conscious of their usual emotions, or the words and deeds of the person to be analyzed consciously accompanied by certain emotions, and the emotions and behaviors that others received When the emotion held by the person to be analyzed is different from the feeling held by the person to be analyzed at the time, the person to be analyzed is notified of the speech and behavior of the person to be analyzed at that time. As a result, it is possible to discover behaviors that are well received by others or behaviors that are not well received by others, contrary to one's own consciousness.
また、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたときに発生している事象を、特異的な生体反応の変化と共にオンラインセッションの主催者に通知する。これにより、オンラインセッションの主催者は、指定した解析対象者に特有の現象として、どのような事象がどのような感情の変化に影響を与えているのかを知ることができる。そして、その把握した内容に応じて適切な処置を解析対象者に対して行うことが可能となる。
In addition, the analysis
また、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたときに発生している事象または解析対象者のクラスタリング結果をオンラインセッションの主催者に通知する。これにより、オンラインセッションの主催者は、指定した解析対象者がどの分類にクラスタリングされたかによって、解析対象者に特有の行動の傾向を把握したり、今後起こり得る行動や状態などを予測したりすることができる。そして、それに対して適切な処置を解析対象者に対して行うことが可能となる。
In addition, the analysis
なお、上記実施形態では、生体反応の変化を所定の基準に従って数値化することによって生体反応指標値を算出し、複数人のそれぞれについて算出された生体反応指標値に基づいて、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する例について説明したが、この例に限定されない。例えば、以下のようにしてもよい。 In the above embodiment, the biological reaction index value is calculated by quantifying the change in biological reaction according to a predetermined standard, and the analysis subject is analyzed based on the biological reaction index value calculated for each of the plurality of people. Although the example of determining whether the change in the biological reaction received is specific compared to others has been described, the present invention is not limited to this example. For example, it may be as follows.
すなわち、生体反応解析部12は、複数人のそれぞれについて目線の動きを解析して目線の方向を示すヒートマップを生成する。特異判定部13は、生体反応解析部12により解析対象者について生成されたヒートマップと他者について生成されたヒートマップとの対比により、解析対象者について解析された生体反応の変化が、他者について解析された生体反応の変化と比べて特異的か否かを判定する。
In other words, the biological
このように、本実施の形態においては、ビデオセッションの動画像をユーザ端末10のローカルストレージに保存し、ユーザ端末10上で上述した分析を行うこととしている。ユーザ端末10のマシンスペックに依存する可能性があるとはいえ、動画像の情報を外部に提供することなく分析することが可能となる。
Thus, in this embodiment, moving images of a video session are stored in the local storage of the
<機能構成例2>
図5に示すように、本実施形態のビデオセッション評価システムは、機能構成として、動画像取得部11、生体反応解析部12および反応情報提示部13aを備えていてもよい。<Functional configuration example 2>
As shown in FIG. 5, the video session evaluation system of this embodiment may include a moving
反応情報提示部13aは、画面に表示されていない参加者を含めて生体反応解析部12aにより解析された生体反応の変化を示す情報を提示する。例えば、反応情報提示部13aは、生体反応の変化を示す情報をオンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)に提示する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。 The reaction information presentation unit 13a presents information indicating changes in biological reactions analyzed by the biological reaction analysis unit 12a, including those of participants not displayed on the screen. For example, the reaction information presenting unit 13a presents information indicating changes in biological reactions to an online session leader, moderator, or administrator (hereinafter collectively referred to as the organizer). Hosts of online sessions are, for example, instructors of online classes, chairpersons and facilitators of online meetings, coaches of sessions for coaching purposes, and the like. An online session host is typically one of the users participating in the online session, but may be another person who does not participate in the online session.
このようにすることにより、オンラインセッションの主催者は、複数人でオンラインセッションが行われる環境において、画面に表示されていない参加者の様子も把握することができる。 By doing so, the host of the online session can also grasp the state of the participants who are not displayed on the screen in an environment where the online session is held by a plurality of people.
<機能構成例3>
図6は、本実施形態による構成例を示すブロック図である。図6に示すように、本実施形態のビデオセッション評価システムは、機能構成として、上述した実施の形態1と類似する機能については同一つの参照符号を付して説明を省略することがある。<Functional configuration example 3>
FIG. 6 is a block diagram showing a configuration example according to this embodiment. As shown in FIG. 6, in the video session evaluation system of the present embodiment, functions similar to those of the above-described first embodiment are given the same reference numerals, and explanations thereof may be omitted.
本実施の形態によるシステムは、ビデオセッションの映像を取得するカメラ部及び音声を取得するマイク部と、動画像を分析及び評価する解析部、取得した動画像を評価することによって得られた情報に基づいて表示オブジェクト(後述する)を生成するオブジェクト生成部、前記ビデオセッション実行中にビデオセッションの動画像と表示オブジェクトの両方を表示する表示部と、を備えている。 The system according to this embodiment includes a camera unit that acquires images of a video session, a microphone unit that acquires audio, an analysis unit that analyzes and evaluates moving images, and information obtained by evaluating the acquired moving images. an object generator for generating a display object (described below) based on the display; and a display for displaying both the moving image of the video session and the display object during execution of the video session.
解析部は、上述した説明と同様に、動画像取得部11、生体反応解析部12、特異判定部13、関連事象特定部14、クラスタリング部15および解析結果通知部16を備えている。各要素の機能については上述したとおりである。
The analysis unit includes a moving
図7に示されるように、オブジェクト生成部は、解析部によってビデオセッションから取得される動画像を解析した結果に基づいて、必要に応じて、当該認識した顔の部分を示すオブジェクト50と、上述した分析・評価した内容を示す情報100を当該動画像に重畳して表示する。当該オブジェクト50は、複数人の顔が動画像内に移っている場合には、複数人全員の顔を識別し、表示することとしてもよい。
As shown in FIG. 7, the object generation unit generates an
また、オブジェクト50は、例えば、相手側の端末において、ビデオセッションのカメラ機能を停止している場合(即ち、物理的にカメラを覆う等ではなく、ビデオセッションのアプリケーション内においてソフトウェア的に停止している場合)であっても、相手側のカメラで相手の顔を認識していた場合には、相手の顔が位置している部分にオブジェクト50やオブジェクト100を表示することとしてもよい。これにより、カメラ機能がオフになっていたとしても、相手側が端末の前にいることがお互い確認することが可能となる。この場合、例えば、ビデオセッションのアプリケーションにおいては、カメラから取得した情報を非表示にする一方、解析部によって認識された顔に対応するオブジェクト50やオブジェクト100のみを表示することとしてもよい。また、ビデオセッションから取得される映像情報と、解析部によって認識され得られた情報とを異なる表示レイヤーに分け、前者の情報に関するレイヤーを非表示にすることとしてもよい。
In addition, the
オブジェクト50やオブジェクト100は、複数の動画像を表示する領域がある場合には、すべての領域又は一部の領域のみに表示することとしてもよい。例えば、図8に示されるように、ゲスト側の動画像のみに表示することとしてもよい。
If there are multiple moving image display areas, the
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or modifications within the scope of the technical idea described in the claims. are naturally within the technical scope of the present disclosure.
本明細書において説明した装置は、単独の装置として実現されてもよく、一部または全部がネットワークで接続された複数の装置(例えばクラウドサーバ)等により実現されてもよい。例えば、各端末10の制御部110およびストレージ130は、互いにネットワークで接続された異なるサーバにより実現されてもよい。
The devices described herein may be implemented as a single device, or may be implemented by a plurality of devices (eg, cloud servers) partially or wholly connected via a network, or the like. For example, the
即ち、本システムは、ユーザ端末10、20と、ユーザ端末10、20に双方向のビデオセッションを提供するビデオセッションサービス端末30と、ビデオセッションに関する評価を行う評価端末40とを含んでいるところ、以下のような構成のバリエーション組み合わせが考えられる。
(1)すべてをユーザ端末のみで処理
図9に示されるように、解析部による処理をビデオセッションを行っている端末で行うことにより、(一定の処理能力は必要なものの)ビデオセッションを行っている時間と同時に(リアルタイムに)分析・評価結果を得ることができる。
(2)ユーザ端末と評価端末とで処理
図10に示されるように、ネットワーク等で接続された評価端末に解析部を備えさせることとしてもよい。この場合、ユーザ端末で取得された動画像は、ビデオセッションと同時に又は事後的に評価端末に共有され、評価端末における解析部によって分析・評価されたのちに、オブジェクト50及びオブジェクト100の情報がユーザ端末に動画像データと共に又は別に(即ち、少なくとも解析データを含む情報が)共有され表示部に表示される。That is, the system includes
(1) Processing everything only on the user terminal As shown in FIG. 9, by performing the processing by the analysis unit on the terminal that is performing the video session (although a certain processing capacity is required), the video session can be performed. Analysis/evaluation results can be obtained at the same time (in real time) as you are.
(2) Processing by User Terminal and Evaluation Terminal As shown in FIG. 10, an analysis unit may be provided in an evaluation terminal connected via a network or the like. In this case, the moving images acquired by the user terminal are shared with the evaluation terminal at the same time as or after the video session, and are analyzed and evaluated by the analysis unit in the evaluation terminal. Together with or separately from the moving image data (that is, information including at least analysis data) is shared with the terminal and displayed on the display unit.
<実施の形態>
図11及び図12を参照して、本発明の第1の実施の形態を説明する。本実施の形態によるシステムは、概略、評価対象者の目線が画面上のいずれの場所を注視(以下「注視点」という)しているのかに関する情報と、その際に表示されている資料の情報から、表示されている資料のどの部分をどれくらいの時間、注視していたのかに関する情報と、そのときにどのような感情を持ちながらその部分を中止していたのかを分析し、評価するものである。単なる注視点の位置、時間のみならず、そのときのユーザの感情(生体反応の変化)を併せて関連付けることによって、精度の高いフィードバックを得ることができる。<Embodiment>
A first embodiment of the present invention will be described with reference to FIGS. 11 and 12. FIG. The system according to the present embodiment provides information about which place on the screen the eye of the person to be evaluated is gazing (hereinafter referred to as "gazing point"), and information on the material displayed at that time. Analyzes and evaluates information about which part of the displayed material was watched and for how long, and what kind of emotion the participant stopped watching at that time. be. Highly accurate feedback can be obtained by associating not only the mere position and time of the gaze point, but also the user's emotion (change in biological reaction) at that time.
即ち、本実施の形態によるシステムは、評価対象者を撮影することによって得られる動画像を取得するカメラ手段と、取得した動画像に基づいて対象者の目線の動きを取得する視線取得手段と、対象者に複数の画像を連続して表示するディスプレイ手段とを有している。 That is, the system according to the present embodiment includes camera means for acquiring a moving image obtained by photographing the person to be evaluated, line-of-sight acquiring means for acquiring the eye movement of the subject based on the acquired moving image, and display means for sequentially displaying a plurality of images to the subject.
特に、本システムは、カメラ手段と、ディスプレイ手段との位置関係を取得する位置取得手段を有している。これにより、対象者の目の動きと、注視点とをキャリブレーションすることが可能となる。キャリブレーション処理は、例えば、図11及び図12に示されるように、ディスプレイのカメラ部によって対象者の目の状態を取得し、その次に画面の所定の場所(キャリブレーションポイント:中央、画面の四隅等)を見ているときの目の動きを取得する。目の動きの取得については、例えば、画面上にアナウンスを流すこととして意図的にキャリブレーションポイントを見てもらうこととしてもよいし。中央のみに目立つようなサインをアイキャッチ的に表示しその瞬間の目の動きを中央を注視している状態(注視点が真ん中にある状態)と推定することとしてもよい。 In particular, the system has position acquisition means for acquiring the positional relationship between the camera means and the display means. This makes it possible to calibrate the subject's eye movement and gaze point. In the calibration process, for example, as shown in FIGS. 11 and 12, the subject's eye condition is acquired by the camera unit of the display, and then a predetermined place on the screen (calibration point: center, screen Four corners, etc.) to acquire the movement of the eyes. Regarding the acquisition of eye movements, for example, it is possible to have the user look at the calibration points intentionally by playing an announcement on the screen. A conspicuous sign may be displayed only in the center in an eye-catching manner, and the eye movement at that moment may be estimated as a state of gazing at the center (a state in which the point of gaze is at the center).
図11に示されるように、本実施の形態においては、画面に表示された(共有された)資料上に注視点をその注視時間とともに関連付けてヒートマップのように出力される。これにより、資料のどの部分をどれくらいの時間中止していたのかが把握でき、対象者の関心部分がわかる。注視点オブジェクトは、その注視時間に応じて、色、形、模様などを変えることとしてもよい。 As shown in FIG. 11, in the present embodiment, gaze points are associated with their gaze time on (shared) material displayed on the screen and output like a heat map. As a result, it is possible to grasp which part of the material was stopped for how long, and the part of interest of the subject can be understood. The gaze point object may change its color, shape, pattern, etc. according to its gaze time.
一方、図11に示される注視点オブジェクトは、当該資料の、注視点を中止したときのユーザの生体反応の変化(解析された感情)をヒートマップとして出力することとしてもよい。例えば、生体反応の変化を解析した結果、好印象を持って注視された部分と、悪印象を持って注視された部分とを異なる色で(例えば、赤と青)表すこととしてもよい。これにより、注視時間だけでなく、どういう意識で見られたかについての情報も可視化することができる。なお、上述したヒートマップとして可視化する感情は一例であり、さらに多角的な観点であってもよい。 On the other hand, the point-of-gazing object shown in FIG. 11 may output changes in the user's biological reaction (analyzed emotion) as a heat map when the point-of-gazing of the material is stopped. For example, as a result of analyzing changes in biological reactions, different colors (for example, red and blue) may be used to represent portions gazed at with a good impression and portions gazed at with a bad impression. This makes it possible to visualize not only the fixation time, but also information about what kind of consciousness the person was watching. It should be noted that the emotion visualized as the heat map described above is an example, and may be a multifaceted viewpoint.
また、特異判定部は、本時実施の形態によるシステムは、同一の資料について、他の対象者(別の営業先や、別の受講者等)の動きも考慮してヒートマップを生成することとしてもよい。この場合、他の対象者の注視点も資料上に表示することとすればよい。この際、他の対象者は注視しているのにもかかわらず当該対象者は注視していない部分や、他の対象者は注視していないにもかかわらず当該対象者は注視している部分のように、対象者特有の特異的特徴を出力することとしてもよい。 In addition, the peculiarity determination unit generates a heat map for the same material in consideration of the movements of other subjects (different sales offices, different students, etc.). may be In this case, the points of gaze of other subjects may also be displayed on the material. At this time, the part that the target person does not gaze at even though the other target person is gazing, or the part that the target person is gazing even though the other target person is not gazing It is good also as outputting the specific characteristic peculiar to a subject like.
なお、特異判定部は、同一又は近接する場所(所定範囲内に存在する注視点)に関してある対象者の注視点における生体反応の変化(例えば、好印象を持って注視していた)が、他の多くの対象者(参加者)の注視点における生体反応の変化(例えば、他の参加者は悪印象を持って注視していた)と比べて特異的か否かを判定することとしてもよい。 In addition, the peculiar determination unit determines that the change in the biological reaction (for example, the gaze with a favorable impression) at the gaze point of a certain subject with respect to the same or close place (the gaze point existing within a predetermined range) is different from the other. It may be determined whether it is specific compared to changes in biological reactions at the gaze point of many subjects (participants) (for example, other participants were gazing with a bad impression) .
なお、資料自体の評価を行う方法としては、資料毎に、対象者の目線の動きを平準化して得られる平準化ヒートマップを関連付けて出力してもよい。例えば、どの資料をよく見ていたかという観点でその資料の必要性が把握できる。一方、注視時間が短い資料についてはさほど必要性がないものであることもわかる。 As a method of evaluating the material itself, a leveled heat map obtained by leveling the eye movement of the subject may be associated with each material and output. For example, the necessity of the material can be grasped from the point of view of which material was looked at well. On the other hand, it can be seen that there is not much need for materials with short fixation times.
<ハードウェア構成の補足>
本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係る情報共有支援装置10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することが可能である。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。<Supplementary hardware configuration>
The sequence of operations performed by the apparatus described herein may be implemented using software, hardware, or a combination of software and hardware. It is possible to create a computer program for realizing each function of the information sharing
また、本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。 Also, the processes described with reference to flowcharts in this specification do not necessarily have to be executed in the illustrated order. Some processing steps may be performed in parallel. Also, additional processing steps may be employed, and some processing steps may be omitted.
以上説明した実施の形態を適宜組み合わせて実施することとしてもよい。また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 The embodiments described above may be combined as appropriate for implementation. Also, the effects described herein are merely illustrative or exemplary, and are not limiting. In other words, the technology according to the present disclosure can produce other effects that are obvious to those skilled in the art from the description of this specification, in addition to or instead of the above effects.
10、20 ユーザ端末
30 ビデオセッションサービス端末
40 評価端末
10, 20
Claims (6)
前記ユーザに複数の画像を表示するディスプレイ部と、
複数の前記ユーザの夫々について、前記オンラインセッション中に前記ユーザを撮影することによって得られる動画像を取得するカメラ部と、
取得した前記動画像に基づいて、前記ユーザについて生体反応の変化を解析する解析部と、
取得した前記動画像に基づいて前記ユーザの目線の動きを取得する視線取得部と、
前記カメラ部と前記ディスプレイ部との位置関係を取得して、前記ユーザの目線に基づいて前記画像上における前記ユーザの注視点を推定する注視点推定部と、
表示した複数の前記画像ごとに、前記注視点と解析された前記生体反応の変化とを関連付けて出力する出力部とを備える、
動画像分析システム。
を備える、視線評価システム。 In an environment where an online session is held by a plurality of users, the reaction of the user is analyzed based on a moving image obtained by photographing the user regardless of whether or not the user is displayed on a screen during the online session. A moving image analysis system,
a display unit that displays a plurality of images to the user;
a camera unit that obtains a moving image obtained by photographing the user during the online session for each of the plurality of users;
an analysis unit that analyzes changes in biological reactions of the user based on the acquired moving image;
a line-of-sight acquisition unit that acquires movement of the user 's line of sight based on the acquired moving image;
a gaze point estimation unit that obtains the positional relationship between the camera unit and the display unit and estimates the user's gaze point on the image based on the user's line of sight;
an output unit that associates and outputs the gaze point and the analyzed change in the biological reaction for each of the plurality of displayed images;
Video image analysis system.
A line-of-sight evaluation system.
前記出力部は、前記注視点と前記生体反応の変化に基づいて生成された前記生体反応の変化を所定の種類に分類し、分類毎に関連付けられた色を利用したヒートマップを重ねて出力する、
視線評価システム The line-of-sight evaluation system according to claim 1,
The output unit classifies the change in the biological reaction generated based on the point of gaze and the change in the biological reaction into predetermined types, and outputs a heat map using colors associated with each classification in a superimposed manner. ,
Gaze evaluation system
前記出力部は、前記注視点に基づいて生成された注視時間を示すヒートマップを重ねて出力する、
視線評価システム The line-of-sight evaluation system according to claim 1,
The output unit superimposes and outputs a heat map indicating a gaze time generated based on the gaze point.
Gaze evaluation system
前記出力部は、同一の前記画像を表示した他のユーザの前記注視点を更に関連付けて出力する、
視線評価システム The line-of-sight evaluation system according to claim 1,
The output unit further associates and outputs the gaze point of another user who displayed the same image.
Gaze evaluation system
前記ユーザに関連付けられた前記注視点における前記生体反応の変化が、前記他のユーザに関連付けられた前記注視点における前記生体反応の変化と比べて特異的か否かを判定する特異判定部を更に備える、
視線評価システム。 The line-of-sight evaluation system according to claim 4,
a peculiarity determination unit that determines whether or not the change in the biological reaction at the point of gaze associated with the user is more specific than the change in the biological reaction at the point of gaze associated with the other user; prepare
line of sight evaluation system.
前記出力部は、前記画像ごとに複数の前記ユーザの前記目線の動きを平準化して得られる平準化ヒートマップを関連付けて出力する、
視線評価システム。
The line-of-sight evaluation system according to claim 1,
The output unit associates and outputs a leveled heat map obtained by leveling the eye movements of the plurality of users for each of the images.
line of sight evaluation system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022137391A JP2023036034A (en) | 2021-08-31 | 2022-08-31 | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/032016 WO2023032057A1 (en) | 2021-08-31 | 2021-08-31 | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022137391A Division JP2023036034A (en) | 2021-08-31 | 2022-08-31 | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7138998B1 true JP7138998B1 (en) | 2022-09-20 |
JPWO2023032057A1 JPWO2023032057A1 (en) | 2023-03-09 |
Family
ID=83322598
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022517949A Active JP7138998B1 (en) | 2021-08-31 | 2021-08-31 | VIDEO SESSION EVALUATION TERMINAL, VIDEO SESSION EVALUATION SYSTEM AND VIDEO SESSION EVALUATION PROGRAM |
JP2022137391A Pending JP2023036034A (en) | 2021-08-31 | 2022-08-31 | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022137391A Pending JP2023036034A (en) | 2021-08-31 | 2022-08-31 | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7138998B1 (en) |
WO (1) | WO2023032057A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011042989A1 (en) * | 2009-10-09 | 2011-04-14 | Kikuchi Kouichi | Viewer's feeling determination device for visually-recognized scene |
US20170053304A1 (en) * | 2014-04-28 | 2017-02-23 | Tobii Ab | Determination of attention towards stimuli based on gaze information |
JP2018005892A (en) * | 2016-06-23 | 2018-01-11 | 株式会社ガイア・システム・ソリューション | Engagement value processing system and engagement value processing device |
WO2018097177A1 (en) * | 2016-11-24 | 2018-05-31 | 株式会社ガイア・システム・ソリューション | Engagement measurement system |
-
2021
- 2021-08-31 WO PCT/JP2021/032016 patent/WO2023032057A1/en active Application Filing
- 2021-08-31 JP JP2022517949A patent/JP7138998B1/en active Active
-
2022
- 2022-08-31 JP JP2022137391A patent/JP2023036034A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011042989A1 (en) * | 2009-10-09 | 2011-04-14 | Kikuchi Kouichi | Viewer's feeling determination device for visually-recognized scene |
US20170053304A1 (en) * | 2014-04-28 | 2017-02-23 | Tobii Ab | Determination of attention towards stimuli based on gaze information |
JP2018005892A (en) * | 2016-06-23 | 2018-01-11 | 株式会社ガイア・システム・ソリューション | Engagement value processing system and engagement value processing device |
WO2018097177A1 (en) * | 2016-11-24 | 2018-05-31 | 株式会社ガイア・システム・ソリューション | Engagement measurement system |
Also Published As
Publication number | Publication date |
---|---|
JP2023036034A (en) | 2023-03-13 |
WO2023032057A1 (en) | 2023-03-09 |
JPWO2023032057A1 (en) | 2023-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7120693B1 (en) | Video image analysis system | |
WO2022230156A1 (en) | Video analysis system | |
JP7138998B1 (en) | VIDEO SESSION EVALUATION TERMINAL, VIDEO SESSION EVALUATION SYSTEM AND VIDEO SESSION EVALUATION PROGRAM | |
JP7121433B1 (en) | Video analysis program | |
WO2023032058A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
JP7121436B1 (en) | Video analysis program | |
JP7197955B1 (en) | Video meeting evaluation terminal | |
JP7138997B1 (en) | Video meeting evaluation terminal | |
WO2022230138A1 (en) | Video analysis system | |
JP7121439B1 (en) | Video image analysis system | |
JP7477909B2 (en) | Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program | |
WO2022264222A1 (en) | Video analysis system | |
WO2022254493A1 (en) | Video analysis system | |
JP7152819B1 (en) | Video analysis program | |
WO2022230049A1 (en) | Video analysis system | |
JP7197947B2 (en) | Video image analysis system | |
WO2022201267A1 (en) | Video analysis program | |
JP7197950B2 (en) | Video image analysis system | |
WO2022230069A1 (en) | Video analysis system | |
WO2022230068A1 (en) | Video analysis program | |
WO2022264220A1 (en) | Video analysis system | |
WO2022264221A1 (en) | Video analysis system | |
WO2022230070A1 (en) | Video analysis system | |
WO2022254494A1 (en) | Video analysis system | |
WO2022254492A1 (en) | Video analysis system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220622 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138998 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |