JP7465013B2 - Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program - Google Patents

Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program Download PDF

Info

Publication number
JP7465013B2
JP7465013B2 JP2022517945A JP2022517945A JP7465013B2 JP 7465013 B2 JP7465013 B2 JP 7465013B2 JP 2022517945 A JP2022517945 A JP 2022517945A JP 2022517945 A JP2022517945 A JP 2022517945A JP 7465013 B2 JP7465013 B2 JP 7465013B2
Authority
JP
Japan
Prior art keywords
video
evaluation
subject
analysis
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022517945A
Other languages
Japanese (ja)
Other versions
JPWO2022145042A5 (en
JPWO2022145042A1 (en
Inventor
渉三 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Imbesideyou Inc
Original Assignee
Imbesideyou Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imbesideyou Inc filed Critical Imbesideyou Inc
Publication of JPWO2022145042A1 publication Critical patent/JPWO2022145042A1/ja
Publication of JPWO2022145042A5 publication Critical patent/JPWO2022145042A5/ja
Application granted granted Critical
Publication of JP7465013B2 publication Critical patent/JP7465013B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

本開示は、ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラムに関する。 The present disclosure relates to a video meeting evaluation terminal, a video meeting evaluation system, and a video meeting evaluation program.

従来、オンラインで何らかの知識を教授したり、説明等を行うためのシステムが知られている(例えば、特許文献1参照)。Conventionally, systems have been known for teaching knowledge or providing explanations online (see, for example, Patent Document 1).

また、このようなオンラインで行われるビデオミーティングの効果測定の方法として、例えば、ビデオミーティング後にアンケート等を行う方法も提案されている(例えば、特許文献2参照)。 In addition, as a method for measuring the effectiveness of such online video meetings, for example, a method of conducting a survey after the video meeting has been proposed (see, for example, Patent Document 2).

特開2019-58625号公報JP 2019-58625 A

上述したアンケートによる効果測定の方法は、主観的になりがちであり、ビデオミーティングの内容に関して客観的な効果測定を行う方法としては不十分である。 The above-mentioned method of measuring effectiveness through surveys tends to be subjective and is insufficient as a way to objectively measure the effectiveness of the content of video meetings.

また、第三者によってビデオミーティングを監視し、第三者による客観的な評価を取得する方法も考えられるが、手間と時間がかかりすぎて現実的ではない。Another option would be to have a third party monitor the video meeting and obtain an objective evaluation, but this would be too time-consuming and laborious to be practical.

そこで、本発明は、ビデオミーティングの特に内容に関する評価を客観的に行うことを目的とする。 Therefore, the present invention aims to objectively evaluate video meetings, particularly their content.

本発明によれば、
他の端末との間で行われるビデオミーティングの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレーム単位ごとに認識する顔認識手段と、
前記動画像内に含まれる前記対象者の少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記複数の観点による評価値の相対的な乖離が一定以上になった場合に通知を行う通知手段と、を備える
ビデオミーティング評価端末が得られる。
According to the present invention,
An acquisition means for acquiring video images of a video conference held between the terminal and another terminal;
a face recognition means for recognizing at least a face image of a target person included in the moving image for each predetermined frame;
a voice recognition means for recognizing at least the voice of the subject contained in the moving image; and an evaluation means for calculating an evaluation value from a plurality of viewpoints based on both the recognized face image and the recognized voice.
and a notification means for issuing a notification when the relative deviation of the evaluation values from the plurality of viewpoints reaches or exceeds a certain level.

本開示によれば、ビデオミーティングの動画像を評価することにより、特に内容に関する評価を客観的に行うことができる。 According to the present disclosure, by evaluating the video footage of a video meeting, it is possible to objectively evaluate the content in particular.

特に、本発明によれば、取得した動画像は当該端末に保存されることを前提としていることから、端末上で分析評価され、その結果が当該端末のユーザに提供される。従って、例えば個人情報を含むビデオミーティングや機密情報を含むビデオミーティングであっても、その動画自体を外部の評価事業者等に提供することなく分析評価できるIn particular, according to the present invention, since the acquired video is assumed to be stored on the terminal, it is analyzed and evaluated on the terminal, and the results are provided to the user of the terminal. Therefore, even if a video meeting contains personal information or confidential information, for example, the video itself can be analyzed and evaluated without providing it to an external evaluation company, etc.

また、分析・評価した結果をリアルタイムで又は事後的に動画像に重畳して表示することとすれば、より利便性が向上できる。 In addition, convenience can be further improved by displaying the analysis and evaluation results in real time or after the fact by superimposing them on video images.

本発明の実施の形態によるシステム全体図を示す図である。FIG. 1 is a diagram showing an overall system according to an embodiment of the present invention. 本発明の実施の形態による端末の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a terminal according to an embodiment of the present invention. 本発明の第1の実施の形態による評価端末の機能ブロック図の一例である。FIG. 2 is an example of a functional block diagram of an evaluation terminal according to the first embodiment of the present invention; 本発明の第1の実施の形態による機能ブロック図である。FIG. 1 is a functional block diagram according to a first embodiment of the present invention. 本発明の第1の実施の形態による機能ブロック図である。FIG. 1 is a functional block diagram according to a first embodiment of the present invention. 本発明の第1の実施の形態による機能ブロック図である。FIG. 1 is a functional block diagram according to a first embodiment of the present invention. 本発明の第1の実施の形態による機能ブロック図である。FIG. 1 is a functional block diagram according to a first embodiment of the present invention. 本発明の第1の実施の形態による機能ブロック図である。FIG. 1 is a functional block diagram according to a first embodiment of the present invention. 本発明の第2の実施の形態による機能ブロック図である。FIG. 11 is a functional block diagram according to a second embodiment of the present invention. 本発明の第2の実施の形態による機能ブロック図である。FIG. 11 is a functional block diagram according to a second embodiment of the present invention. 本発明の第3の実施の形態による実装例である。13 is an implementation example according to the third embodiment of the present invention. 本発明の第4の実施の形態による実装例である。13 is an implementation example according to the fourth embodiment of the present invention. 本発明の第5の実施の形態による実装例である。13 is an implementation example according to the fifth embodiment of the present invention. 本発明の第6の実施の形態による実装例である。13 is an implementation example according to the sixth embodiment of the present invention.

本開示の実施形態の内容を列記して説明する。本開示は、以下のような構成を備える。
[項目1]
他の端末との間で行われるビデオミーティングの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレーム単位ごとに認識する顔認識手段と、
前記動画像内に含まれる前記対象者の少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記複数の観点による評価値の相対的な乖離が一定以上になった場合に通知を行う通知手段と、を備える
ビデオミーティング評価端末。
[項目2]
項目1に記載のビデオミーティング評価端末であって、
前記通知手段は、前記顔画像及び前記音声の夫々から得られる評価値が一定以上乖離していた場合に通知する、
ビデオミーティング評価端末。
[項目3]
項目1に記載のビデオミーティング評価端末であって、
前記通知手段は、前記顔画像から取得できる顔の動き及び前記音声の夫々から得られる評価値が一定以上乖離していた場合に通知する、
ビデオミーティング評価端末。
[項目4]
項目1に記載のビデオミーティング評価端末であって、
前記通知手段は、前記顔画像から評価される感情の度合いと、前記音声とから得られる評価値が一定以上乖離していた場合に通知する、
ビデオミーティング評価端末。
[項目5]
コンピュータを、
他の端末との間で行われるビデオミーティングの動画像を取得する取得手段、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレーム単位ごとに認識する顔認識手段、
前記動画像内に含まれる前記対象者の少なくとも音声を認識する音声認識手段、
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段、
前記複数の観点による評価値の相対的な乖離が一定以上になった場合に通知を行う通知手段として機能させる
ビデオミーティング評価プログラム。
The contents of the embodiments of the present disclosure will be described below. The present disclosure has the following configuration.
[Item 1]
An acquisition means for acquiring video images of a video conference held between the terminal and another terminal;
a face recognition means for recognizing at least a face image of a target person included in the moving image for each predetermined frame;
a voice recognition means for recognizing at least the voice of the subject contained in the moving image; and an evaluation means for calculating an evaluation value from a plurality of viewpoints based on both the recognized face image and the recognized voice.
and a notification means for issuing a notification when a relative deviation of the evaluation values from the plurality of viewpoints reaches or exceeds a certain level.
[Item 2]
Item 1 is a video meeting evaluation terminal according to the present invention,
the notification means issues a notification when the evaluation values obtained from the face image and the voice respectively deviate from each other by a certain amount or more.
Video meeting evaluation terminal.
[Item 3]
Item 1 is a video meeting evaluation terminal according to the present invention,
the notification means issues a notification when the evaluation values obtained from the facial movement obtainable from the facial image and the voice respectively deviate from each other by a certain amount or more.
Video meeting evaluation terminal.
[Item 4]
Item 1 is a video meeting evaluation terminal according to the present invention,
the notification means notifies when the degree of emotion evaluated from the face image and the evaluation value obtained from the voice deviate by a certain amount or more.
Video meeting evaluation terminal.
[Item 5]
Computer,
An acquisition means for acquiring video images of a video conference held between the terminal and another terminal;
a face recognition means for recognizing at least a face image of a target person included in the moving image for each predetermined frame;
a voice recognition means for recognizing at least the voice of the subject contained in the moving image;
an evaluation means for calculating an evaluation value from a plurality of viewpoints based on both the recognized face image and the recognized voice;
and a video meeting evaluation program that functions as a notification means for issuing a notification when the relative deviation of the evaluation values from the multiple viewpoints reaches a certain level or more.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。A preferred embodiment of the present disclosure will be described in detail below with reference to the accompanying drawings. Note that in this specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.

<基本機能>
本実施形態のビデオミーティング評価システム(以下、単に「本システム」という場合がある)は、複数人でビデオミーティング(以下、一方向及び双方向含めてオンラインセッションという)が行われる環境において、当該複数人の中の解析対象者について他者とは異なる特異的な感情(自分または他人の言動に対して起こる気持ち。快・不快またはその程度など)を解析し評価するシステムである。
<Basic functions>
The video meeting evaluation system of this embodiment (hereinafter sometimes simply referred to as "this system") is a system that analyzes and evaluates the unique emotions (feelings that arise in response to one's own or others' words and actions, such as pleasant or unpleasant, or the degree of such feelings) of a person being analyzed among multiple people in an environment where the person is holding a video meeting (hereinafter referred to as an online session, including both one-way and two-way sessions) that are different from those of the other people.

オンラインセッションは、例えばオンライン会議、オンライン授業、オンラインチャットなどであり、複数の場所に設置された端末をインターネットなどの通信ネットワークを介してサーバに接続し、当該サーバを通じて複数の端末間で動画像をやり取りできるようにしたものである。 Online sessions include, for example, online conferences, online classes, and online chats, in which terminals installed in multiple locations are connected to a server via a communications network such as the Internet, allowing video and images to be exchanged between multiple terminals through the server.

オンラインセッションで扱う動画像には、端末を使用するユーザの顔画像や音声が含まれる。また、動画像には、複数のユーザが共有して閲覧する資料などの画像も含まれる。各端末の画面上に顔画像と資料画像とを切り替えて何れか一方のみを表示させたり、表示領域を分けて顔画像と資料画像とを同時に表示させたりすることが可能である。また、複数人のうち1人の画像を全画面表示させたり、一部または全部のユーザの画像を小画面に分割して表示させたりすることが可能である。 The video images handled in an online session include facial images and audio of the users using the terminals. The video images also include images of documents shared and viewed by multiple users. It is possible to switch between facial images and document images on the screen of each terminal and display only one of them, or to divide the display area and display facial images and document images simultaneously. It is also possible to display an image of one of multiple people on the full screen, or to split the images of some or all users onto smaller screens and display them.

端末を使用してオンラインセッションに参加する複数のユーザのうち、何れか1人または複数人を解析対象者として指定することが可能である。例えば、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。なお、解析対象者を指定せず全ての参加者を解析対象としてもよい。 Of multiple users who use terminals to participate in an online session, it is possible to specify one or more users as the subject of analysis. For example, the leader, facilitator, or manager of the online session (hereinafter collectively referred to as the organizer) specifies one of the users as the subject of analysis. The organizer of an online session may be, for example, a lecturer of an online class, a chairperson or facilitator of an online conference, or a coach of a session for coaching purposes. The organizer of an online session is usually one of the multiple users who participate in the online session, but may also be a different person who does not participate in the online session. Note that it is also possible to analyze all participants without specifying an analysis subject.

また、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定することも可能である。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。 It is also possible for the leader, facilitator or manager (hereinafter collectively referred to as the organizer) of an online session to specify a user as the subject of analysis. The organizer of an online session may be, for example, a lecturer of an online class, a chairperson or facilitator of an online conference, or a coach in a session for coaching purposes. The organizer of an online session is usually one of multiple users participating in the online session, but may also be a different person who does not participate in the online session.

本実施の形態によるビデオミーティング評価システムは、複数の端末間においてビデオミーティングセッションが確立された場合に、当該ビデオミーティングから取得される少なくとも動画像を表示される。表示された動画像は、端末によって取得され、動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別される。その後、識別された顔画像に関する評価値が算出される。当該評価値は必要に応じて共有される。 In the video meeting evaluation system according to this embodiment, when a video meeting session is established between multiple terminals, at least a moving image acquired from the video meeting is displayed. The displayed moving image is acquired by the terminal, and at least a facial image included in the moving image is identified for each predetermined frame unit. An evaluation value for the identified facial image is then calculated. The evaluation value is shared as necessary.

特に、本実施の形態においては、取得した動画像は当該端末に保存され、端末上で分析評価され、その結果が当該端末のユーザに提供される。従って、例えば個人情報を含むビデオミーティングや機密情報を含むビデオミーティングであっても、その動画自体を外部の評価機関等に提供することなく分析評価できる。また、必要に応じて、当該評価結果(評価値)だけを外部端末に提供することによって、結果を可視化したり、クロス分析等行うことができる。In particular, in this embodiment, the acquired video is stored on the terminal, analyzed and evaluated on the terminal, and the results are provided to the user of the terminal. Therefore, even if the video is a video meeting that contains personal information or confidential information, it can be analyzed and evaluated without providing the video itself to an external evaluation agency, etc. Furthermore, if necessary, the results can be visualized or cross-analysis can be performed by providing only the evaluation results (evaluation values) to an external terminal.

図1に示されるように、本実施の形態によるビデオミーティング評価システムは、少なくともカメラ部及びマイク部等の入力部と、ディスプレイ等の表示部とスピーカー等の出力部とを有するユーザ端末10、20と、ユーザ端末10、20に双方向のビデオミーティングを提供するビデオミーティングサービス端末30と、ビデオミーティングに関する評価の一部を行う評価端末40とを備えている。As shown in FIG. 1, the video meeting evaluation system of this embodiment includes user terminals 10, 20 having at least an input unit such as a camera unit and a microphone unit, a display unit such as a display, and an output unit such as a speaker, a video meeting service terminal 30 that provides two-way video meetings to the user terminals 10, 20, and an evaluation terminal 40 that performs part of the evaluation related to the video meeting.

<ハードウェア構成例>
図2は、本実施形態に係る各端末10乃至40を実現するコンピュータのハードウェア構成例を示す図である。コンピュータは、少なくとも、制御部110、メモリ120、ストレージ130、通信部140および入出力部150等を備える。これらはバス160を通じて相互に電気的に接続される。
<Hardware configuration example>
2 is a diagram showing an example of the hardware configuration of a computer that realizes each of the terminals 10 to 40 according to this embodiment. The computer includes at least a control unit 110, a memory 120, a storage 130, a communication unit 140, and an input/output unit 150. These are electrically connected to each other via a bus 160.

制御部110は、各端末全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部110は、CPU等のプロセッサであり、ストレージ130に格納されメモリ120に展開されたプログラム等を実行して各情報処理を実施する。The control unit 110 is a computing device that controls the overall operation of each terminal, controls the transmission and reception of data between each element, and performs information processing necessary for application execution and authentication processing. For example, the control unit 110 is a processor such as a CPU, and executes programs stored in the storage 130 and deployed in the memory 120 to perform each information processing.

メモリ120は、DRAM等の揮発性記憶装置で構成される主記憶と、フラッシュメモリまたはHDD等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ120は、制御部110のワークエリア等として使用され、また、各端末の起動時に実行されるBIOS、及び各種設定情報等を格納する。The memory 120 includes a main memory configured with a volatile storage device such as a DRAM, and an auxiliary memory configured with a non-volatile storage device such as a flash memory or a HDD. The memory 120 is used as a work area for the control unit 110, and also stores the BIOS executed when each terminal is started up, various setting information, etc.

ストレージ130は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ130に構築されていてもよい。特に本実施の形態においては、ビデオミーティングサービス端末30のストレージ130にはオンラインセッションにおける動画像は記録されず、ユーザ端末10のストレージ130に格納される。また、評価端末40は、ユーザ端末10上において取得された動画像を評価するために必要なアプリケーションその他のプログラムを格納し、ユーザ端末10が利用可能に適宜提供する。なお、評価端末40の管理するストレージ13には、例えば、ユーザ端末10によって解析された結果、評価された結果のみが共有されることとしてもよい。The storage 130 stores various programs such as application programs. A database storing data used for each process may be constructed in the storage 130. In particular, in this embodiment, the video images in the online session are not recorded in the storage 130 of the video meeting service terminal 30, but are stored in the storage 130 of the user terminal 10. The evaluation terminal 40 also stores applications and other programs necessary for evaluating the video images acquired on the user terminal 10, and provides them appropriately so that the user terminal 10 can use them. Note that, for example, only the results of analysis and evaluation by the user terminal 10 may be shared in the storage 13 managed by the evaluation terminal 40.

通信部140は、端末をネットワークに接続する。通信部140は、例えば、有線LAN、無線LAN、Wi-Fi(登録商標)、赤外線通信、Bluetooth(登録商標)、近距離または非接触通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して通信する。The communication unit 140 connects the terminal to a network. The communication unit 140 communicates with external devices directly or via a network access point, for example, by a wired LAN, a wireless LAN, Wi-Fi (registered trademark), infrared communication, Bluetooth (registered trademark), short-distance or contactless communication method, etc.

入出力部150は、例えば、キーボード、マウス、タッチパネル等の情報入力機器、及びディスプレイ等の出力機器である。The input/output unit 150 is, for example, an information input device such as a keyboard, a mouse, a touch panel, etc., and an output device such as a display.

バス160は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。Bus 160 is commonly connected to each of the above elements and transmits, for example, address signals, data signals, and various control signals.

特に、本実施の形態による評価端末は、ビデオミーティングサービス端末から動画像を取得し、当該動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別すると共に、顔画像に関する評価値を算出する(詳しくは後述する)。
<動画の取得方法>
図3に示されるように、ビデオミーティングサービス端末が提供するビデオミーティングサービス(以下、単に「本サービス」と言うことがある」)は、ユーザ端末10、20に対して双方向に画像および音声によって通信が可能となるものである。本サービスは、ユーザ端末のディスプレイに相手のユーザ端末のカメラ部で取得した動画像を表示し、相手のユーザ端末のマイク部で取得した音声をスピーカーから出力可能となっている。
In particular, the evaluation terminal according to this embodiment acquires moving images from a video meeting service terminal, identifies at least facial images contained in the moving images for each predetermined frame unit, and calculates an evaluation value for the facial images (details will be described later).
<How to get the video>
As shown in Fig. 3, the video meeting service provided by the video meeting service terminal (hereinafter sometimes simply referred to as "the service") enables two-way communication with user terminals 10 and 20 using images and audio. The service enables a user terminal to display video images captured by the camera unit of the other user terminal on its display, and to output audio captured by the microphone unit of the other user terminal from its speaker.

また、本サービスは双方の又はいずれかのユーザ端末によって、動画像及び音声(これらを合わせて「動画像等」という)を少なくともいずれかのユーザ端末上の記憶部に記録(レコーディング)することが可能に構成されている。記録された動画像情報Vs(以下「記録情報」という)は、記録を開始したユーザ端末にキャッシュされつついずれかのユーザ端末のローカルのみに記録されることとなる。ユーザは、必要があれば当該記録情報を本サービスの利用の範囲内で自分で視聴、他者に共有等行うこともできる。 The service is also configured to enable both or either of the user terminals to record (record) video and audio (collectively referred to as "video, etc.") in the memory of at least one of the user terminals. The recorded video information Vs (hereinafter referred to as "recorded information") is cached in the user terminal that initiated the recording and is recorded only locally on one of the user terminals. If necessary, the user can view the recorded information themselves or share it with others within the scope of their use of the service.

ユーザ端末10は、以上のようにして取得した動画を以下のような分析によって評価を行う。The user terminal 10 evaluates the video acquired in the above manner through the following analysis.

以下、本発明の一実施形態を図面に基づいて説明する。図4は、本実施形態による構成例を示すブロック図である。図4に示すように、本実施形態のビデオミーティング評価システムは、ユーザ端末10が有する機能構成として実現される。すなわち、ユーザ端末10はその機能として、動画像取得部11、生体反応解析部12、特異判定部13、関連事象特定部14、クラスタリング部15および解析結果通知部16を備えている。An embodiment of the present invention will now be described with reference to the drawings. FIG. 4 is a block diagram showing an example configuration according to this embodiment. As shown in FIG. 4, the video meeting evaluation system of this embodiment is realized as a functional configuration possessed by a user terminal 10. That is, the user terminal 10 has, as its functions, a video image acquisition unit 11, a biological reaction analysis unit 12, a peculiar determination unit 13, a related event identification unit 14, a clustering unit 15, and an analysis result notification unit 16.

上記各機能ブロック11~16は、例えばユーザ端末10に備えられたハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11~16は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。Each of the above-mentioned functional blocks 11 to 16 can be configured, for example, by hardware, a DSP (Digital Signal Processor), or software provided in the user terminal 10. For example, when configured by software, each of the above-mentioned functional blocks 11 to 16 is actually configured with a computer's CPU, RAM, ROM, etc., and is realized by the operation of a program stored in a recording medium such as the RAM, ROM, hard disk, or semiconductor memory.

動画像取得部11は、オンラインセッション中に各端末が備えるカメラにより複数人(複数のユーザ)を撮影することによって得られる動画像を各端末から取得する。各端末から取得する動画像は、各端末の画面上に表示されるように設定されているものか否かは問わない。すなわち、動画像取得部11は、各端末に表示中の動画像および非表示中の動画像を含めて、動画像を各端末から取得する。The video acquisition unit 11 acquires video from each terminal, obtained by photographing multiple people (multiple users) with a camera provided on each terminal during an online session. The video acquired from each terminal may or may not be set to be displayed on the screen of each terminal. In other words, the video acquisition unit 11 acquires video from each terminal, including video being displayed and video not being displayed on each terminal.

生体反応解析部12は、動画像取得部11により取得された動画像(画面上に表示中のものか否かは問わない)に基づいて、複数人のそれぞれについて生体反応の変化を解析する。本実施形態において生体反応解析部12は、動画像取得部11により取得された動画像を画像のセット(フレーム画像の集まり)と音声とに分離し、それぞれから生体反応の変化を解析する。The biological reaction analysis unit 12 analyzes changes in biological reactions for each of multiple people based on the moving images (whether or not they are being displayed on the screen) acquired by the moving image acquisition unit 11. In this embodiment, the biological reaction analysis unit 12 separates the moving images acquired by the moving image acquisition unit 11 into a set of images (a collection of frame images) and audio, and analyzes changes in biological reactions from each.

例えば、生体反応解析部12は、動画像取得部11により取得された動画像から分離したフレーム画像を用いてユーザの顔画像を解析することにより、表情、目線、脈拍、顔の動きの少なくとも1つに関する生体反応の変化を解析する。また、生体反応解析部12は、動画像取得部11により取得された動画像から分離した音声を解析することにより、ユーザの発言内容、声質の少なくとも1つに関する生体反応の変化を解析する。For example, the biological reaction analysis unit 12 analyzes a change in a biological reaction related to at least one of facial expression, eye line, pulse rate, and facial movement by analyzing the user's facial image using frame images separated from the video acquired by the video acquisition unit 11. The biological reaction analysis unit 12 also analyzes a change in a biological reaction related to at least one of the user's speech content and voice quality by analyzing the sound separated from the video acquired by the video acquisition unit 11.

人は感情が変化すると、それが表情、目線、脈拍、顔の動き、発言内容、声質などの生体反応の変化となって現れる。本実施形態では、ユーザの生体反応の変化を解析することを通じて、ユーザの感情の変化を解析する。本実施形態において解析する感情は、一例として、快/不快の程度である。本実施形態において生体反応解析部12は、生体反応の変化を所定の基準に従って数値化することにより、生体反応の変化の内容を反映させた生体反応指標値を算出する。When a person's emotions change, this is reflected in changes in biological reactions such as facial expressions, gaze, pulse rate, facial movements, speech, and voice quality. In this embodiment, the change in the user's emotions is analyzed by analyzing the change in the user's biological reactions. In this embodiment, the emotion analyzed is, for example, the degree of comfort/discomfort. In this embodiment, the biological reaction analysis unit 12 quantifies the change in the biological reaction according to a predetermined standard, thereby calculating a biological reaction index value that reflects the content of the change in the biological reaction.

表情の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、事前に機械学習させた画像解析モデルに従って特定した顔の表情を複数に分類する。そして、その分類結果に基づいて、連続するフレーム画像間でポジティブな表情変化が起きているか、ネガティブな表情変化が起きているか、およびどの程度の大きさの表情変化が起きているかを解析し、その解析結果に応じた表情変化指標値を出力する。 Analysis of changes in facial expressions is performed, for example, as follows. That is, for each frame image, a facial area is identified within the frame image, and the identified facial expressions are classified into multiple categories according to an image analysis model that has been trained by machine learning in advance. Then, based on the classification results, it is analyzed whether a positive or negative facial expression change has occurred between consecutive frame images, and the extent of the facial expression change, and a facial expression change index value according to the analysis results is output.

目線の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から目の領域を特定し、両目の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、目線の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。目線の変化はユーザの集中度にも関連する。生体反応解析部12は、目線の変化の解析結果に応じた目線変化指標値を出力する。 Analysis of changes in eye line is performed, for example, as follows. That is, for each frame image, the eye area is identified from within the frame image, and the direction of both eyes is analyzed to analyze where the user is looking. For example, it is analyzed whether the user is looking at the face of the speaker being displayed, at the shared material being displayed, or looking outside the screen. It may also be possible to analyze whether the eye movement is large or small, and whether the movement is frequent or infrequent. Changes in eye line are also related to the user's level of concentration. The biological response analysis unit 12 outputs an eye line change index value according to the analysis result of changes in eye line.

脈拍の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定する。そして、顔の色情報(RGBのG)の数値を捉える学習済みの画像解析モデルを用いて、顔表面のG色の変化を解析する。その結果を時間軸に合わせて並べることによって色情報の変化を表した波形を形成し、この波形から脈拍を特定する。人は緊張すると脈拍が速くなり、気持ちが落ち着くと脈拍が遅くなる。生体反応解析部12は、脈拍の変化の解析結果に応じた脈拍変化指標値を出力する。 The analysis of changes in pulse rate is performed, for example, as follows. That is, for each frame image, the facial area is identified from within the frame image. Then, using a trained image analysis model that captures the numerical values of facial color information (G in RGB), changes in the G color of the face surface are analyzed. The results are arranged along the time axis to form a waveform representing changes in color information, and the pulse rate is identified from this waveform. When a person is nervous, their pulse rate increases, and when they feel calm, their pulse rate decreases. The biological response analysis unit 12 outputs a pulse rate change index value according to the analysis results of changes in pulse rate.

顔の動きの変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、顔の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、顔の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。顔の動きと目線の動きとを合わせて解析するようにしてもよい。例えば、表示中の話者の顔をまっすぐ見ているか、上目遣いまたは下目使いに見ているか、斜めから見ているかなどを解析するようにしてもよい。生体反応解析部12は、顔の向きの変化の解析結果に応じた顔向き変化指標値を出力する。The analysis of changes in facial movement is performed, for example, as follows. That is, for each frame image, the facial area is identified from within the frame image, and the facial direction is analyzed to analyze where the user is looking. For example, it is analyzed whether the user is looking at the face of the speaker being displayed, the shared material being displayed, or looking outside the screen. It is also possible to analyze whether the facial movement is large or small, and whether the movement occurs frequently or infrequently. It is also possible to analyze the facial movement together with the eye movement. For example, it is possible to analyze whether the user is looking straight at the speaker being displayed, looking up or down, or looking at an angle. The biological response analysis unit 12 outputs a facial direction change index value according to the analysis result of the change in facial direction.

発言内容の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声認識処理を行うことによって音声を文字列に変換し、当該文字列を形態素解析することにより、助詞、冠詞などの会話を表す上で不要なワードを取り除く。そして、残ったワードをベクトル化し、ポジティブな感情変化が起きているか、ネガティブな感情変化が起きているか、およびどの程度の大きさの感情変化が起きているかを解析し、その解析結果に応じた発言内容指標値を出力する。 The analysis of the speech content is performed, for example, as follows. That is, the biological response analysis unit 12 converts the speech into a string of characters by performing a known speech recognition process on the speech for a specified period of time (for example, about 30 to 150 seconds), and performs morphological analysis on the string of characters to remove words that are unnecessary for expressing the conversation, such as particles and articles. The remaining words are then vectorized, and an analysis is performed to determine whether a positive or negative emotional change has occurred, and to what extent the emotional change has occurred, and a speech content index value corresponding to the analysis result is output.

声質の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声解析処理を行うことによって音声の音響的特徴を特定する。そして、その音響的特徴に基づいて、ポジティブな声質変化が起きているか、ネガティブな声質変化が起きているか、およびどの程度の大きさの声質変化が起きているかを解析し、その解析結果に応じた声質変化指標値を出力する。 Voice quality analysis is performed, for example, as follows. That is, the biological response analysis unit 12 identifies the acoustic characteristics of the voice by performing a known voice analysis process on the voice for a specified period of time (for example, about 30 to 150 seconds). Then, based on the acoustic characteristics, it analyzes whether a positive or negative voice quality change has occurred and to what extent the voice quality change has occurred, and outputs a voice quality change index value according to the analysis result.

生体反応解析部12は、以上のようにして算出した表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値、声質変化指標値の少なくとも1つを用いて生体反応指標値を算出する。例えば、表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値および声質変化指標値を重み付け計算することにより、生体反応指標値を算出する。The biological reaction analysis unit 12 calculates a biological reaction index value using at least one of the facial expression change index value, eye gaze change index value, pulse rate change index value, face direction change index value, speech content index value, and voice quality change index value calculated as described above. For example, the biological reaction index value is calculated by weighting the facial expression change index value, eye gaze change index value, pulse rate change index value, face direction change index value, speech content index value, and voice quality change index value.

特異判定部13は、解析対象者について解析された生体反応の変化が、解析対象者以外の他者について解析された生体反応の変化と比べて特異的か否かを判定する。本実施形態において、特異判定部13は、生体反応解析部12により複数のユーザのそれぞれについて算出された生体反応指標値に基づいて、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する。The uniqueness determination unit 13 determines whether the change in the biological reaction analyzed for the subject of analysis is unique compared to the change in the biological reaction analyzed for other people other than the subject of analysis. In this embodiment, the uniqueness determination unit 13 determines whether the change in the biological reaction analyzed for the subject of analysis is unique compared to other people based on the biological reaction index values calculated for each of the multiple users by the biological reaction analysis unit 12.

例えば、特異判定部13は、生体反応解析部12により複数人のそれぞれについて算出された生体反応指標値の分散を算出し、解析対象者について算出された生体反応指標値と分散との対比により、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する。For example, the uniqueness determination unit 13 calculates the variance of the biological reaction index values calculated for each of multiple individuals by the biological reaction analysis unit 12, and by comparing the biological reaction index value calculated for the subject of analysis with the variance, determines whether or not the changes in the biological reactions analyzed for the subject of analysis are unique compared to others.

解析対象者について解析された生体反応の変化が他者と比べて特異的である場合として、次の3パターンが考えられる。1つ目は、他者については特に大きな生体反応の変化が起きていないが、解析対象者について比較的大きな生体反応の変化が起きた場合である。2つ目は、解析対象者については特に大きな生体反応の変化が起きていないが、他者について比較的大きな生体反応の変化が起きた場合である。3つ目は、解析対象者についても他者についても比較的大きな生体反応の変化が起きているが、変化の内容が解析対象者と他者とで異なる場合である。 There are three possible cases where the changes in the analyzed biological reactions of the subject are unique compared to others. The first is when no particularly significant changes in the biological reactions of others occur, but a relatively large change in the biological reaction of the subject occurs. The second is when no particularly significant changes in the biological reactions of the subject occur, but a relatively large change in the biological reaction of others occurs. The third is when a relatively large change in the biological reaction occurs in both the subject and others, but the content of the change differs between the subject and others.

関連事象特定部14は、特異判定部13により特異的であると判定された生体反応の変化が起きたときに解析対象者、他者および環境の少なくとも1つに関して発生している事象を特定する。例えば、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける解析対象者自身の言動を動画像から特定する。また、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける他者の言動を動画像から特定する。また、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける環境を動画像から特定する。環境は、例えば画面に表示中の共有資料、解析対象者の背景に写っているものなどである。The related event identification unit 14 identifies an event occurring with respect to at least one of the subject of analysis, other people, and the environment when a change in a biological reaction determined to be unique by the uniqueness determination unit 13 occurs. For example, the related event identification unit 14 identifies the behavior of the subject of analysis himself/herself from a video when a unique change in a biological reaction occurs in the subject of analysis. The related event identification unit 14 also identifies the behavior of other people from the video when a unique change in a biological reaction occurs in the subject of analysis. The related event identification unit 14 also identifies the environment from the video when a unique change in a biological reaction occurs in the subject of analysis. The environment is, for example, a shared document being displayed on the screen, something that appears in the background of the subject of analysis, etc.

クラスタリング部15は、特異判定部13により特異的であると判定された生体反応の変化(例えば、目線、脈拍、顔の動き、発言内容、声質のうち1つまたは複数の組み合わせ)と、当該特異的な生体反応の変化が起きたときに発生している事象(関連事象特定部14により特定された事象)との相関の程度を解析し、相関が一定レベル以上であると判定された場合に、その相関の解析結果に基づいて解析対象者または事象をクラスタリングする。The clustering unit 15 analyzes the degree of correlation between a change in a biological reaction determined to be unique by the unique determination unit 13 (e.g., one or more combinations of eye movement, pulse rate, facial movement, speech content, and voice quality) and an event occurring when the unique change in the biological reaction occurs (an event identified by the related event identification unit 14), and if it is determined that the correlation is at or above a certain level, it clusters the person or event being analyzed based on the results of the correlation analysis.

例えば、特異的な生体反応の変化がネガティブな感情変化に相当するものであり、当該特異的な生体反応の変化が起きたときに発生している事象もネガティブな事象である場合には一定レベル以上の相関が検出される。クラスタリング部15は、その事象の内容やネガティブな度合い、相関の大きさなどに応じて、あらかじめセグメント化した複数の分類の何れかに解析対象者または事象をクラスタリングする。For example, if a specific change in a biological reaction corresponds to a negative emotional change, and the event occurring when the specific change in the biological reaction occurs is also a negative event, a correlation above a certain level is detected. The clustering unit 15 clusters the subject of analysis or the event into one of multiple pre-segmented classifications according to the content of the event, the degree of negativity, the magnitude of correlation, etc.

同様に、特異的な生体反応の変化がポジティブな感情変化に相当するものであり、当該特異的な生体反応の変化が起きたときに発生している事象もポジティブな事象である場合には一定レベル以上の相関が検出される。クラスタリング部15は、その事象の内容やポジティブな度合い、相関の大きさなどに応じて、あらかじめセグメント化した複数の分類の何れかに解析対象者または事象をクラスタリングする。Similarly, if a specific change in biological reaction corresponds to a positive emotional change, and the event occurring when the specific change in biological reaction occurs is also a positive event, a correlation above a certain level is detected. The clustering unit 15 clusters the subject of analysis or the event into one of multiple pre-segmented classifications according to the content of the event, the degree of positivity, the magnitude of correlation, etc.

解析結果通知部16は、特異判定部13により特異的であると判定された生体反応の変化、関連事象特定部14により特定された事象、およびクラスタリング部15によりクラスタリングされた分類の少なくとも1つを、解析対象者の指定者(解析対象者またはオンラインセッションの主催者)に通知する。The analysis result notification unit 16 notifies the person designating the analysis subject (the analysis subject or the organizer of the online session) of at least one of the changes in biological reactions determined to be specific by the uniqueness determination unit 13, the events identified by the related event identification unit 14, and the classifications clustered by the clustering unit 15.

例えば、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたとき(上述した3パターンの何れか。以下同様)に発生している事象として解析対象者自身の言動を解析対象者自身に通知する。これにより、解析対象者は、自分がある言動を行ったときに他者とは違う感情を持っていることを把握することができる。このとき、解析対象者について特定された特異的な生体反応の変化も併せて解析対象者に通知するようにしてもよい。さらに、対比される他者の生体反応の変化を更に解析対象者に通知するようにしてもよい。For example, the analysis result notification unit 16 notifies the analysis subject of the analysis subject's own words and actions as an event occurring when a unique change in the analysis subject's biological reaction that differs from that of others occurs (any of the three patterns described above; the same applies below). This allows the analysis subject to understand that when he or she behaves in a certain way, he or she has different emotions than others. At this time, the analysis subject may also be notified of the unique changes in the analysis subject's biological reaction identified. Furthermore, the analysis subject may be further notified of the changes in the biological reaction of others for comparison.

例えば、解析対象者が普段どおりの感情で特に意識せずに行った言動、または、解析対象者がある感情を伴って特に意識して行った言動に対して他者が受けた感情と、言動の際に解析対象者自身が抱いていた感情とが相違している場合に、そのときの解析対象者自身の言動が解析対象者に通知される。これにより、自分の意識に反して他者の受けが良い言動や他者の受けが良くない言動などを発見することも可能である。For example, if the emotions felt by others in response to words or actions made by the subject without any particular awareness and with normal emotions, or words or actions made by the subject with particular emotions and awareness differ from the emotions felt by the subject himself at the time of the words or actions, the subject will be notified of the words or actions of the subject at that time. This makes it possible to discover words or actions that are well-received by others or not well-received by others despite one's own awareness.

また、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたときに発生している事象を、特異的な生体反応の変化と共にオンラインセッションの主催者に通知する。これにより、オンラインセッションの主催者は、指定した解析対象者に特有の現象として、どのような事象がどのような感情の変化に影響を与えているのかを知ることができる。そして、その把握した内容に応じて適切な処置を解析対象者に対して行うことが可能となる。 Furthermore, the analysis result notification unit 16 notifies the organizer of the online session of events that occur when a unique change in the biological reaction of the analysis subject occurs that is different from that of others, along with the unique change in the biological reaction. This allows the organizer of the online session to know what events are influencing what emotional changes as a phenomenon unique to the specified analysis subject. Then, it becomes possible to take appropriate measures for the analysis subject depending on the content thus understood.

また、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたときに発生している事象または解析対象者のクラスタリング結果をオンラインセッションの主催者に通知する。これにより、オンラインセッションの主催者は、指定した解析対象者がどの分類にクラスタリングされたかによって、解析対象者に特有の行動の傾向を把握したり、今後起こり得る行動や状態などを予測したりすることができる。そして、それに対して適切な処置を解析対象者に対して行うことが可能となる。 Furthermore, the analysis result notification unit 16 notifies the organizer of the online session of events occurring when a unique change in the biological reaction of the analysis subject occurs that is different from that of others, or the clustering results of the analysis subject. This allows the organizer of the online session to understand the behavioral tendencies unique to the analysis subject and predict possible future behaviors and conditions, etc., depending on which classification the specified analysis subject is clustered into. It then becomes possible to take appropriate measures for the analysis subject.

なお、上記実施形態では、生体反応の変化を所定の基準に従って数値化することによって生体反応指標値を算出し、複数人のそれぞれについて算出された生体反応指標値に基づいて、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する例について説明したが、この例に限定されない。例えば、以下のようにしてもよい。In the above embodiment, a bioreaction index value is calculated by quantifying the change in bioreaction according to a predetermined standard, and based on the calculated bioreaction index value for each of a plurality of people, it is determined whether or not the change in the bioreaction analyzed for the subject of analysis is unique compared to others. However, the present invention is not limited to this example. For example, the following may be used.

すなわち、生体反応解析部12は、複数人のそれぞれについて目線の動きを解析して目線の方向を示すヒートマップを生成する。特異判定部13は、生体反応解析部12により解析対象者について生成されたヒートマップと他者について生成されたヒートマップとの対比により、解析対象者について解析された生体反応の変化が、他者について解析された生体反応の変化と比べて特異的か否かを判定する。That is, the biological reaction analysis unit 12 analyzes the eye movement of each of the multiple people to generate a heat map showing the direction of the eye movement. The peculiar determination unit 13 compares the heat map generated by the biological reaction analysis unit 12 for the analysis subject with the heat map generated for other people to determine whether the change in the biological reaction analyzed for the analysis subject is unique compared to the change in the biological reaction analyzed for other people.

このように、本実施の形態においては、ビデオミーティングの動画像をユーザ端末10のローカルストレージに保存し、ユーザ端末10上で上述した分析を行うこととしている。ユーザ端末10のマシンスペックに依存する可能性があるとはいえ、動画像の情報を外部に提供することなく分析することが可能となる。In this manner, in this embodiment, the video of the video meeting is stored in the local storage of the user terminal 10, and the above-mentioned analysis is performed on the user terminal 10. Although this may depend on the machine specifications of the user terminal 10, it is possible to analyze the video information without providing it to an external party.

生体反応解析部12は、対象者について解析された生体反応の変化に基づいて、複数の対象者間で平準化された評価基準に従って対象者の感情の度合いを評価する感情評価部を有していてもよい。例えば、感情評価部は、生体反応解析部12により対象者について解析された生体反応の変化(生体反応指標値)に基づいて、複数の対象者間で平準化された評価基準に基づく感情反応絶対値を算出する。The biological response analysis unit 12 may have an emotion evaluation unit that evaluates the degree of emotion of the subject according to an evaluation standard that is standardized among multiple subjects based on the changes in biological responses analyzed for the subject. For example, the emotion evaluation unit calculates an emotional response absolute value based on an evaluation standard that is standardized among multiple subjects based on the changes in biological responses (bioreaction index values) analyzed for the subject by the biological response analysis unit 12.

感情評価部が算出する感情反応絶対値は、例えば、生体反応解析部12により算出された生体反応指標値を、対象者による同じ感情の生起しやすさに応じて調整した値である。例えば、感情評価部は、生体反応解析部12により算出された生体反応指標値に対し、同じ感情を生起する頻度に応じた重み値を乗算することによって感情反応絶対値を算出する。The emotional response absolute value calculated by the emotion evaluation unit is, for example, a value obtained by adjusting the biological response index value calculated by the biological response analysis unit 12 according to the likelihood of the subject experiencing the same emotion. For example, the emotion evaluation unit calculates the emotional response absolute value by multiplying the biological response index value calculated by the biological response analysis unit 12 by a weighting value according to the frequency with which the same emotion is experienced.

例えば、対象者Aについて算出された生体反応指標値と対象者Bについて算出された生体反応指標値とが同じ値であった場合としても、同じ感情の生起しやすさ(同じ感情を生起する頻度)が対象者Aと対象者Bとで異なる場合、感情評価部により算出される感情反応絶対値は対象者Aと対象者Bとで異なる値となる。一例として、感情評価部は、同じ感情を生起しやすいほど重み値が小さくなり、同じ感情を生起しにくいほど重み値が大きくなるような関数に従って感情反応絶対値を算出する。For example, even if the biological response index value calculated for subject A and the biological response index value calculated for subject B are the same value, if the ease with which the same emotion occurs (the frequency with which the same emotion occurs) differs between subject A and subject B, the emotional response absolute value calculated by the emotion evaluation unit will be different between subject A and subject B. As an example, the emotion evaluation unit calculates the emotional response absolute value according to a function such that the weighting value is smaller the more likely it is that the same emotion will occur, and the weighting value is larger the more unlikely it is that the same emotion will occur.

このように算出した感情反応絶対値を用いることにより、対象者に関する真の意味での感情の度合いを評価することが可能となり、異なる対象者間で感情の度合いを客観的に対比することができる。 By using the absolute emotional response value calculated in this way, it is possible to evaluate the true degree of emotion of the subject, and to objectively compare the degrees of emotion between different subjects.

なお、感情評価部は、平常時の生体反応に対する現在の生体反応の違いの大きさに基づく感情の程度であって、対象者による同じ感情の生起しやすさに応じて調整された感情の度合いを評価するようにしてもよい。例えば、感情評価部は、生体反応解析部12により算出された生体反応指標値を、平常時の生体反応に対する現在の生体反応の違いの大きさと、対象者による同じ感情の生起しやすさとに応じて調整することによって感情反応絶対値を算出する。このように算出される感情反応絶対値は、平常時の生体反応に対する現在の生体反応の違いの大きさに基づく感情の程度を表す値であって、対象者が同じ感情を生起しやすいまたは生起しにくい度合いに応じて調整された値である。The emotion evaluation unit may evaluate the degree of emotion based on the magnitude of difference between the current biological reaction and the normal biological reaction, and adjusted according to the ease with which the subject will experience the same emotion. For example, the emotion evaluation unit calculates the absolute emotional reaction value by adjusting the biological reaction index value calculated by the biological reaction analysis unit 12 according to the magnitude of difference between the current biological reaction and the normal biological reaction and the ease with which the subject will experience the same emotion. The absolute emotional reaction value calculated in this manner is a value that represents the degree of emotion based on the magnitude of difference between the current biological reaction and the normal biological reaction, and is adjusted according to the ease with which the subject will experience the same emotion.

また、上記実施形態では、同じ感情の生起しやすさを表す尺度として、同じ感情を生起する頻度を用いる例について説明したが、これに限定されない。例えば、同じ感情を生起する頻度に代えてまたは加えて、対象者の性質または性格を用いるようにしてもよい。In the above embodiment, the frequency of occurrence of the same emotion is used as a measure of the likelihood of occurrence of the same emotion, but the present invention is not limited to this. For example, the subject's nature or character may be used instead of or in addition to the frequency of occurrence of the same emotion.

なお、図5に示されるように、画面に表示されていない参加者を含めて生体反応解析部12aにより解析された生体反応の変化を示す情報を提示する反応情報提示部13aを備えていてもよい。例えば、反応情報提示部13aは、生体反応の変化を示す情報をオンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)に提示する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。 As shown in FIG. 5, the system may be provided with a reaction information presentation unit 13a that presents information indicating changes in biological reactions analyzed by the biological reaction analysis unit 12a, including participants not displayed on the screen. For example, the reaction information presentation unit 13a presents information indicating changes in biological reactions to a leader, facilitator, or manager of the online session (hereinafter collectively referred to as the organizer). The organizer of the online session may be, for example, a lecturer of an online class, a chairperson or facilitator of an online conference, or a coach of a session for coaching purposes. The organizer of the online session is usually one of multiple users participating in the online session, but may also be a different person who does not participate in the online session.

このようにすることにより、オンラインセッションの主催者は、複数人でオンラインセッションが行われる環境において、画面に表示されていない参加者の様子も把握することができる。 In this way, the organizer of an online session can keep track of participants who are not displayed on the screen in an environment where an online session is being held with multiple people.

<第1の実施の形態>
図6乃至図8を参照して、上述した構成に基づく本システムの第1の実施の形態を説明する。本実施の形態においては、動画像内に含まれる対象者の顔画像を所定のフレーム単位ごとに認識するとともに、対象者の音声を認識する。認識は複数の対象者に対して行うこととしてもよい。
First Embodiment
A first embodiment of the present system based on the above-mentioned configuration will be described with reference to Fig. 6 to Fig. 8. In this embodiment, a face image of a subject included in a video is recognized for each predetermined frame, and the voice of the subject is also recognized. Recognition may be performed for multiple subjects.

続いて、認識されたた顔画像及び音声の双方に基づいて、前記対象者の複数の観点による感情が数値化され評価される。評価された感情はその度合いとともにグラフにプロットされる。Next, the subject's emotions from multiple perspectives are quantified and evaluated based on both the recognized facial image and voice. The evaluated emotions are plotted on a graph along with their degree.

グラフは動画の時系列に沿ってプロットされる。図6に示されるように、位置の動画像内における一の対象者について、幸福度(Happy Score)という一の観点で評価された数値をプロットすることとしてもよい。また、図7に示されるように、同一の動画像内における複数の対象者について、対象者ごとに複数の観点による感情の度合いをプロットすることとしてもよい。The graph is plotted along the timeline of the video. As shown in FIG. 6, a numerical value evaluated from one perspective, the happiness level (Happy Score), may be plotted for one subject in the video at a position. Also, as shown in FIG. 7, the degree of emotion from multiple perspectives may be plotted for multiple subjects in the same video.

更には、図8に示されるように、ある対象者が含まれる複数の動画像(例えばユーザがオンラインで受講した複数の授業の動画像や、ユーザが参加した複数のオンライン会議の動画像等)における感情の平均値(最高値、最低値、最頻値等でもよい)の度合いについて、横軸に動画像のタイトル、縦軸に感情の度合いをとってプロットすることとしてもよい。これにより、当該対象者が複数のビデオミーティングへの参加経験に伴って感情がどのように変化したのかにいてが可視化可能となる。Furthermore, as shown in Figure 8, the average level of emotion (which may be the highest, lowest, most frequent, etc.) in multiple videos that include a certain subject (e.g., videos of multiple classes taken online by a user, or videos of multiple online conferences that the user participated in) may be plotted with the title of the video on the horizontal axis and the level of emotion on the vertical axis. This makes it possible to visualize how the subject's emotions have changed as he or she has participated in multiple video meetings.

図示されたグラフは、折れ線グラフであるが、棒グラフやヒートマップ等どのようものであってもよい。また、感情の種類毎に色分けして表示することとしてもよい。The graph shown is a line graph, but it could also be a bar graph, heat map, or any other type. It could also be color-coded to show different types of emotions.

各グラフの縦軸は、例えば、複数の対象者間で平準化された評価基準に従って対象者の感情の度合いを感情の種類毎にプロットすることとしてもよい。これにより、同一の軸の尺度(例えば0~100)でも客観的な評価を行うことが可能になる。また、当該対象者の平常時の生体反応に対する現在の生体反応の違いの大きさに基づく感情の程度であって、同じ感情の生起しやすさに応じて調整された感情の度合いを評価して、当該調整された感情の度合いを、感情の種類毎にプロットすることとしても同様の効果を得られる。 The vertical axis of each graph may plot the degree of emotion of the subject for each type of emotion, for example, according to an evaluation standard that is standardized across multiple subjects. This allows for objective evaluation even on a uniform axis scale (e.g., 0 to 100). The same effect can also be achieved by evaluating the degree of emotion based on the magnitude of difference between the subject's current biological response and their normal biological response, adjusted according to the likelihood of the same emotion occurring, and plotting the adjusted degree of emotion for each type of emotion.

<第2の実施の形態>
図9及び図10を参照して本発明の第2の実施の形態を説明する。図に示されるように本実施の形態による画面には、検索ワードを受け付ける検索ワードボックスが表示されている。検索ワードボックスにワードが入力されると(例えば、「塩基」と入力されると)入力された検索ワードに対応する音声が含まれる動画像内の所定範囲が抽出され表示される。
Second Embodiment
A second embodiment of the present invention will be described with reference to Figures 9 and 10. As shown in the figures, a search word box for accepting a search word is displayed on the screen according to this embodiment. When a word is input into the search word box (for example, when "base" is input), a predetermined range in a video image that includes a sound corresponding to the input search word is extracted and displayed.

本実施の形態によるシステムは、動画像内に含まれる対象者の少なくとも顔画像を所定のフレーム単位ごとに認識する顔認識手段と、動画像内に含まれる対象者の少なくとも音声を認識する音声認識手段と、検索ワードの入力を受け付ける検索受付手段とを備えている。かかる構成によれば、図示されているように、動画像ファイル「20201230_Biology_Tanaka」の中から「塩基」と話されている範囲に対応する動画像の一部と、テキスト情報を表示することが可能となる。The system according to the present embodiment includes a face recognition means for recognizing at least the face image of a subject included in a video for each predetermined frame, a voice recognition means for recognizing at least the voice of the subject included in the video, and a search reception means for receiving input of a search word. With this configuration, as shown in the figure, it is possible to display a part of the video corresponding to the part where "base" is spoken in the video file "20201230_Biology_Tanaka" and text information.

抽出された動画像と対応するテキスト情報を同一画面内に表示することにより、当該ワードを話していた際にどのような状況・表情をしていたのかの確認を容易に行うことができる。By displaying the extracted video and corresponding text information on the same screen, it is easy to check the situation and facial expression when the word was spoken.

また、図示される画面例には「塩基」というワードが3か所に抽出されている。表示されている検索ワード(例えば、一番最初の「塩基」)を選択すると、当該ワードを話していたときのフレームを含む動画像が(部分的に)再生される。In addition, the example screen shown in the figure has the word "base" extracted in three places. When a displayed search word (for example, the very first "base") is selected, a video containing frames when that word was spoken is (partially) played.

なお、動画像内に検索ワードが複数抽出されていた場合に、当該検索ワードを含む複数の部分的動画像をつなぎ合わせたダイジェスト動画像を生成することとしてもよい。これにより、短時間で効率的に検索したワード周囲の動画像を確認することができる。 If multiple search words are extracted from a video, a digest video may be generated by stitching together multiple partial videos that contain the search words. This allows users to quickly and efficiently check the video surrounding the searched word.

また、あらかじめ検索ワードの登録を受け付けておき、動画像内に、登録された検索ワードが抽出されていた場合にアラートを発したり、当該検索ワードを含む複数の部分的動画像をつなぎ合わせたダイジェスト動画像を自動生成することとしてもよい。 It is also possible to accept search words to be registered in advance, and to issue an alert if the registered search word is extracted within a video, or to automatically generate a digest video by stitching together multiple partial videos that contain the search word.

例えば図10に示されるように、alert valueの列に示されるような単語を登録しておき、当該単語が登場する動画像の情報の所在を示す情報を関連付けることとしてもよい。For example, as shown in Figure 10, words such as those shown in the alert value column can be registered and associated with information indicating the location of video information in which the word appears.

更には、ビデオミーティング中に当該単語が発された場合に動画像内の当該地点への再生リンクを生成することとしてもよい。 Furthermore, when the word is spoken during a video meeting, a playback link to that point in the video may be generated.

登録された単語は事前に何らかのタグ付け(alert pattern)をしておくことにより管理が容易にしやすくなる。 Registered words can be easily managed by tagging them in advance (alert pattern).

動画中に当該単語が何回発生したかをカウントすることとしてもよい。例えば、認識された音声の中(又は変換されたテキスト情報)の中における単語の登場回数をカウントすることとすればよい。It is also possible to count how many times a word occurs in a video, for example by counting the number of times the word appears in the recognized speech (or in the converted text information).

<第3の実施の形態>
図11を参照して本発明の第3の実施の形態によるシステムを説明する。本実施の形態においては、特に、相手側がカメラをOFF(カメラから得られた視覚的な情報が提供されない状態)にした際であっても、他方に対して、当該ユーザがカメラの範囲内(即ち、コンピュータの正面)に存在していることやその時の表情を提供することが可能になる。
Third Embodiment
A system according to a third embodiment of the present invention will be described with reference to Fig. 11. In this embodiment, even when the other party has turned off the camera (a state in which visual information obtained from the camera is not provided), it is possible to provide the other party with information that the user is within the range of the camera (i.e., in front of the computer) and his/her facial expression at that time.

授業や会議のように複数の参加者によりビデオミーティングがされると、カメラから取得された情報を悪意を持って利用されることが想定される。例えば、他人の顔をスクリーンショットで記録したり、背景に映りこんだ部屋等のプライベート空間を見られたりすることがある。このため、参加者の中にはカメラ機能をOFFにして参加するものも少なくない。 When multiple participants participate in a video conference, such as a class or meeting, it is possible that information obtained from the camera could be used for malicious purposes. For example, someone could take screenshots of other people's faces or view private spaces, such as rooms, reflected in the background. For this reason, many participants turn off their camera functions when participating.

しかしながら、カメラをOFFにした場合、ホスト側からは、相手の顔が見えないことから、講義や会議にきちんと参加しているのかどうかを確かめることができない。このように、ホスト側からは、カメラの正面にゲストがきちんと参加しているのかどうかが知りたい一方、ゲスト側からは、きちんと参加していることを伝えたくてもカメラをONにしたくない状況が生じ得る。However, if the camera is turned off, the host cannot see the guest's face and cannot be sure whether they are properly participating in the lecture or meeting. In this way, a situation may arise where the host wants to know whether the guest is properly participating in front of the camera, while the guest wants to convey that they are properly participating but does not want to turn the camera on.

そこで本実施の形態においては、ゲストユーザの端末は、ゲストユーザのカメラの動画像を取得、当該動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別するとともに、識別した顔画像を顔情報に変換してホストユーザ端末に提供する。Therefore, in this embodiment, the guest user's terminal acquires video images from the guest user's camera, identifies at least the facial image contained in the video images for each specified frame, and converts the identified facial image into facial information and provides it to the host user terminal.

顔情報を例示すれば、カメラの正面にいるかいないか、顔の向き、カメラでとらえた表情から得られる感情、当該感じ用に基づいて生成されたオブジェクト情報などが挙げられるがこれに限られない。Examples of facial information include, but are not limited to, whether the person is in front of the camera or not, the direction of the face, emotions derived from facial expressions captured by the camera, and object information generated based on those emotions.

このような構成によれば、ゲストユーザのプライベートな情報(カメラで得られる視覚的情報)はホスト側に共有することなく、ゲストがカメラで検出されていることや、画面を正視していること、表情などの情報を提供することができる。 With this configuration, the guest user's private information (visual information obtained by the camera) is not shared with the host side, but information such as that the guest has been detected by the camera, that they are looking directly at the screen, and their facial expressions can be provided.

<第4の実施の形態>
図12を参照して本発明の第4の実施の形態によるシステムを説明する。本実施の形態においては、動画像から取得されたテキスト情報に感情に関する情報を付加するものである。
<Fourth embodiment>
A system according to a fourth embodiment of the present invention will be described with reference to Fig. 12. In this embodiment, information relating to emotions is added to text information obtained from a video image.

本実施の形態によるシステムは、テキストに感情に関する評価値を関連付けて出力する。例えば、図12に示されるように、所定以上の大きさの声で話された内容はフォントサイズを大きくしたり、カメラ目線で話された単語にはアンダーラインが引かれたりして表示される。The system according to this embodiment outputs text by associating it with an evaluation value related to emotions. For example, as shown in FIG. 12, content spoken in a voice louder than a certain volume is displayed in a larger font size, and words spoken while looking directly at the camera are underlined.

すなわち、本実施の形態によれば、動画像から得られるユーザの直接的な言動や、当該言動を分析した結果等に基づいて、テキストに所定の加工を加えることが可能になる。In other words, according to this embodiment, it becomes possible to apply predetermined processing to the text based on the user's direct words and actions obtained from video images, the results of analyzing such words and actions, etc.

ユーザの言動としては、身振り、手ぶり、ジェスチャー、顔の向き、顔の動き等の他、音声の抑揚、大きさ、高低、速さ等を事前に登録することができる。また、テキストへ加える加工は、フォントサイズの変更、太さの変更、斜体に変更、文字色の変更、影の付加、フォント種類の変更等などが例示できる。 User behavior can be registered in advance, including gestures, hand movements, facial direction, facial movements, as well as voice intonation, volume, pitch, speed, etc. Examples of processing applied to text include changing the font size, thickness, italics, changing the text color, adding a shadow, changing the font type, etc.

また、例えば、音声に関する条件(例えば、一定以上の大きさ)の登録を受け付けておき、登録された条件を満たす音声に対応するテキストを所定の表示形式に変更(大きく表示)することとしてもよい。 In addition, for example, the system may accept registration of conditions related to audio (e.g., a certain volume or greater), and change the text corresponding to audio that meets the registered conditions to a specified display format (displayed larger).

<第5の実施の形態>
図13を参照して本発明の第5の実施の形態によるシステムを説明する。本実施の形態においては、動画像から取得された複数の観点による分析評価情報それぞれの間における矛盾(評価値の乖離)によって、潜在的な感情の分析を行うものである。
Fifth embodiment
A system according to a fifth embodiment of the present invention will be described with reference to Fig. 13. In this embodiment, latent emotions are analyzed based on discrepancies (divergences in evaluation values) between pieces of analytical evaluation information from a plurality of perspectives obtained from video images.

具体的には、本システムは、顔画像及び音声の双方に基づいて複数の観点による評価値を算出する。複数の観点による評価値の相対的な乖離が一定以上になった場合に通知手段による通知が行われる。Specifically, the system calculates evaluation values from multiple perspectives based on both the facial image and the voice. If the relative deviation between the evaluation values from the multiple perspectives exceeds a certain level, a notification is issued by the notification means.

乖離のパターンとしては、例えば、顔画像及び音声の夫々から得られる評価値が一定以上乖離していた場合、顔画像から取得できる顔の動き及び音声の夫々から得られる評価値が一定以上乖離していた場合、顔画像から評価される感情の度合いと、音声とから得られる評価値が一定以上乖離していた場合などが例示できる。 Examples of patterns of deviation include when the evaluation values obtained from the facial image and voice respectively deviate by more than a certain amount, when the evaluation values obtained from the facial movement obtained from the facial image and voice respectively deviate by more than a certain amount, and when the degree of emotion evaluated from the facial image and the evaluation value obtained from the voice deviate by more than a certain amount.

例えば、図13示されるように、ある地点において、幸福度を表すグラフの点(H01)と、怒り度を表すグラフの点(A01)とを比較すると、幸福度の方が優位に高い値を示しており、当該ユーザの感情としては幸福である(よいコミュニケーションである)と感じていることが推定される。一方、別の地点における幸福度を表すグラフの点(H02)と、怒り度を表すグラフの点(A02)とを比較すると、いずれも同じ程度の値を示しており、感情的には矛盾することとなる。このような場合、例えば、顔は笑っているけれども、内心は疑っていたり、不審に思っていたりすることなどが考えられる。For example, as shown in FIG. 13, when comparing a point (H01) on a graph representing happiness with a point (A01) on a graph representing anger at a certain point, happiness shows a significantly higher value, and it is presumed that the user is feeling happy (good communication). On the other hand, when comparing a point (H02) on a graph representing happiness with a point (A02) on a graph representing anger at another point, both show similar values, resulting in emotional contradiction. In such a case, for example, it is possible that the person is smiling on the face, but is secretly suspicious or feeling suspicious.

本実施の形態によれば、評価値の乖離に基づく真の感情を推定することが可能となる。乖離の判断としては、所定の相関関係に基づいて判断すればよく、機械学習的な判断を行うこととしてもよい。According to this embodiment, it is possible to estimate true emotions based on the deviation of evaluation values. The deviation can be determined based on a predetermined correlation, or a machine learning-based determination can be used.

<第6の実施の形態>
図14を参照して本発明の第6の実施の形態によるシステムを説明する。本実施の形態においては、同時に参加している多数のユーザによる動画像から分析評価された評価値を当該動画像のそれぞれに関連付けて表示する。これにより、参加者全体の状態が、ヒートマップのように一括して理解できるようになる。
Sixth embodiment
A system according to a sixth embodiment of the present invention will be described with reference to Fig. 14. In this embodiment, evaluation values obtained by analyzing and evaluating videos of multiple users participating at the same time are displayed in association with each of the videos. This allows the status of all participants to be understood at once, like a heat map.

本システムは、同時にビデオミーティングに参加している複数のユーザのカメラから得られた動画像を一覧に表示する表示手段と、複数の動画像の夫々について、評価値に関連付けられたオブジェクトを関連付けて表示する関連付け手段を備えている。The system includes a display means for displaying a list of video images obtained from the cameras of multiple users simultaneously participating in a video meeting, and an association means for displaying an object associated with an evaluation value for each of the multiple video images.

例えば、関連付け手段は、評価値に応じたヒートマップを生成し、対応する色を動画像の夫々にオーバーレイして表示することとしてもよい。図14に示されるように、怒り度が高いユーザをグレーアウトしたりすることとしてもよい。For example, the association means may generate a heat map according to the evaluation values and overlay the corresponding colors on each of the videos. As shown in FIG. 14, users with high anger levels may be grayed out.

また、関連付け手段は、評価値に応じた喜怒哀楽アイコンを生成し、対応するアイコンを動画像の夫々に併記して表示することとしてもよい。The association means may also generate joy, anger, sadness, and happiness icons according to the evaluation value and display the corresponding icons alongside each of the moving images.

<第7の実施の形態>
再度図4を参照して、本発明の第7の実施の形態を説明する。本実施の形態においては、上述した特異判定部13によって、判定された同一のユーザについて以前とは異なる特異的な反応を解析した場合に所定の端末(画面等)にアラートを出す通知手段を備えている。
Seventh embodiment
A seventh embodiment of the present invention will be described with reference to Fig. 4 again. In this embodiment, a notification means is provided for issuing an alert on a predetermined terminal (screen or the like) when a unique reaction different from the previous reaction is analyzed for the same user determined by the above-mentioned unique determination unit 13.

通知手段は、反応が閾値の範囲を超えた場合に通知を行う。例えば、普段は怒らないユーザの怒り度数が以前よりも極めて高くなった場合などに通知を行うこととしてもよいし、普段なかなか笑わないユーザが笑った際に通知を行うこととしてもよい。どのような条件のときにどのような通知を行うかはあらかじめ登録することができる。The notification means issues a notification when the reaction exceeds a threshold range. For example, a notification may be issued when the anger level of a user who normally does not get angry becomes significantly higher than before, or when a user who normally does not laugh laughs. It is possible to register in advance what kind of notification will be issued under what conditions.

また、通知手段は、同一の時間帯(1度の会議、1度の授業等)に行われたオンラインミーティング内において、ユーザの特定の反応が所定の回数を超えた場合に前記通知を行うこととしてもよい。 The notification means may also be configured to issue the notification when a particular user's reaction exceeds a predetermined number of times during an online meeting held during the same time period (a single conference, a single class, etc.).

<ハードウェア構成の補足>
本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係る情報共有支援装置10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することが可能である。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<Hardware configuration supplement>
The series of processes performed by the device described in this specification may be realized using any of software, hardware, and a combination of software and hardware. A computer program for realizing each function of the information sharing support device 10 according to this embodiment may be created and installed in a PC or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored. The recording medium may be, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. The above computer program may also be distributed, for example, via a network, without using a recording medium.

また、本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。 In addition, the processes described in this specification using flow chart diagrams do not necessarily have to be performed in the order shown. Some processing steps may be performed in parallel. Also, additional processing steps may be employed, and some processing steps may be omitted.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。In addition, the effects described herein are merely descriptive or exemplary and are not limiting. In other words, the technology disclosed herein may provide other effects that are apparent to a person skilled in the art from the description herein, in addition to or in place of the above effects.

10、20 ユーザ端末
30 ビデオミーティングサービス端末
40 評価端末

10, 20 User terminal 30 Video meeting service terminal 40 Evaluation terminal

Claims (1)

他の端末との間で行われるビデオミーティングの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレーム単位ごとに認識する顔認識手段と、
前記動画像内に含まれる前記対象者の少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記複数の観点による評価値の相対的な乖離が一定以上になった場合に通知を行う通知手段と、を備え
前記評価手段は、前記顔画像から評価される第1の感情と、前記音声から得られる第2の感情とが相反する場合に、前記第1及び第2の感情を包含する第3の感情を推定する、
ビデオミーティング評価端末。
An acquisition means for acquiring video images of a video conference held between the terminal and another terminal;
a face recognition means for recognizing at least a face image of a target person included in the moving image for each predetermined frame;
a voice recognition means for recognizing at least the voice of the subject contained in the moving image; and an evaluation means for calculating an evaluation value from a plurality of viewpoints based on both the recognized face image and the recognized voice.
a notification means for notifying the user when a relative deviation of the evaluation values from the plurality of viewpoints becomes equal to or exceeds a certain level ;
the evaluation means estimates a third emotion including the first and second emotions when a first emotion evaluated from the face image and a second emotion obtained from the voice are contradictory to each other;
Video meeting evaluation terminal.
JP2022517945A 2020-12-31 2020-12-31 Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program Active JP7465013B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/049297 WO2022145042A1 (en) 2020-12-31 2020-12-31 Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program

Publications (3)

Publication Number Publication Date
JPWO2022145042A1 JPWO2022145042A1 (en) 2022-07-07
JPWO2022145042A5 JPWO2022145042A5 (en) 2024-01-11
JP7465013B2 true JP7465013B2 (en) 2024-04-10

Family

ID=82259227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022517945A Active JP7465013B2 (en) 2020-12-31 2020-12-31 Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program

Country Status (2)

Country Link
JP (1) JP7465013B2 (en)
WO (1) WO2022145042A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215468A (en) 2016-05-31 2017-12-07 トヨタ自動車株式会社 Voice interactive device and voice interactive method
JP2018068618A (en) 2016-10-28 2018-05-10 株式会社東芝 Emotion estimating device, emotion estimating method, emotion estimating program, and emotion counting system
JP2019058625A (en) 2017-09-26 2019-04-18 株式会社エモスタ Emotion reading device and emotion analysis method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215468A (en) 2016-05-31 2017-12-07 トヨタ自動車株式会社 Voice interactive device and voice interactive method
JP2018068618A (en) 2016-10-28 2018-05-10 株式会社東芝 Emotion estimating device, emotion estimating method, emotion estimating program, and emotion counting system
JP2019058625A (en) 2017-09-26 2019-04-18 株式会社エモスタ Emotion reading device and emotion analysis method

Also Published As

Publication number Publication date
JPWO2022145042A1 (en) 2022-07-07
WO2022145042A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
WO2022064621A1 (en) Video meeting evaluation system and video meeting evaluation server
JP7465013B2 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
JP7465012B2 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
JP7471683B2 (en) Reaction notification system
JP7477909B2 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
WO2022145043A1 (en) Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program
JP7445331B2 (en) Video meeting evaluation terminal and video meeting evaluation method
WO2022145038A1 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
WO2022145039A1 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
WO2022145041A1 (en) Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program
WO2022074785A1 (en) Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program
WO2022064620A1 (en) Video meeting evaluation system and video meeting evaluation server
WO2023032058A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
JP7138998B1 (en) VIDEO SESSION EVALUATION TERMINAL, VIDEO SESSION EVALUATION SYSTEM AND VIDEO SESSION EVALUATION PROGRAM
WO2022064617A1 (en) Video meeting evaluation system and video meeting evaluation server
WO2022064619A1 (en) Video meeting evaluation system and video meeting evaluation server
JP7388768B2 (en) Video analysis program
WO2022064618A1 (en) Video meeting evaluation system and video meeting evaluation server
JP7100938B1 (en) Video analysis program
JP7145556B1 (en) Video image analysis system
JP7197955B1 (en) Video meeting evaluation terminal
JP7121433B1 (en) Video analysis program
JP7121439B1 (en) Video image analysis system
JP7121436B1 (en) Video analysis program
US11935329B2 (en) Video analysis program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231227

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240229

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240322

R150 Certificate of patent or registration of utility model

Ref document number: 7465013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150