JP7465040B1 - Communication visualization system - Google Patents

Communication visualization system Download PDF

Info

Publication number
JP7465040B1
JP7465040B1 JP2023555848A JP2023555848A JP7465040B1 JP 7465040 B1 JP7465040 B1 JP 7465040B1 JP 2023555848 A JP2023555848 A JP 2023555848A JP 2023555848 A JP2023555848 A JP 2023555848A JP 7465040 B1 JP7465040 B1 JP 7465040B1
Authority
JP
Japan
Prior art keywords
communication
users
user
displays
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023555848A
Other languages
Japanese (ja)
Inventor
渉三 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Imbesideyou Inc
Original Assignee
Imbesideyou Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imbesideyou Inc filed Critical Imbesideyou Inc
Application granted granted Critical
Publication of JP7465040B1 publication Critical patent/JP7465040B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】会議や講義等、オンラインコミュニケーションが主となる状況において、より効率的なコミュニケーションを行うために、これらのコミュニケーションを可視化すること。【解決手段】本開示のコミュニケーション可視化システムは、複数のユーザの夫々について、オンラインセッション中に前記ユーザを撮影することによって得られる動画像を取得する動画像取得部と、前記動画像取得部により取得された動画像に基づいて、複数の前記ユーザ間のコミュニケーションを解析する解析部と、前記解析の結果を表示する表示部とを有するコミュニケーション可視化サーバにおいて、前記表示部は、前記ユーザを示すユーザアイコンと、前記ユーザ同士のコミュニケーションに応じて当該ユーザアイコン同士を連結するコネクタを表示する。【選択図】図1[Problem] To visualize communications in order to communicate more efficiently in situations where online communication is the norm, such as in meetings and lectures. [Solution] The communication visualization system disclosed herein is a communication visualization server having a video acquisition unit that acquires video images of each of a plurality of users by filming the user during an online session, an analysis unit that analyzes communication between the plurality of users based on the video images acquired by the video acquisition unit, and a display unit that displays the results of the analysis, in which the display unit displays user icons representing the users and connectors that connect the user icons according to the communication between the users. [Selected Figure] Figure 1

Description

本発明は、複数人の参加者でオンラインセッションが行われる環境において、オンラインセッション中に参加者が画面に表示されているか否かによらず、参加者を撮影することによって得られる動画像をもとに参加者の反応を解析するコミュニケーション可視化システムに関する。 The present invention relates to a communication visualization system that analyzes the reactions of participants in an environment where an online session is held with multiple participants, based on video images obtained by photographing the participants, regardless of whether the participants are displayed on the screen during the online session.

発言者の発言に対して他者が受ける感情を解析する技術が知られている(例えば、特許文献1参照)。また、対象者の表情の変化を長期間にわたり時系列的に解析し、その間に抱いた感情を推定する技術も知られている(例えば、特許文献2参照)。さらに、感情の変化に最も影響を与えた要素を特定する技術も知られている(例えば、特許文献3~5参照)。さらにまた、対象者の普段の表情と現在の表情とを比較して、表情が暗い場合にアラートを発する技術も知られている(例えば、特許文献6参照)。また、対象者の平常時(無表情時)の表情と現在の表情とを比較して、対象者の感情の度合いを判定するようにした技術も知られている(例えば、特許文献7~9参照)。更に、また、組織としての感情や、個人が感じるグループ内の雰囲気を分析する技術も知られている(例えば、特許文献10、11参照)。There is known a technique for analyzing the emotions felt by others in response to a speaker's statement (see, for example, Patent Document 1). There is also known a technique for chronologically analyzing changes in a subject's facial expression over a long period of time and estimating the emotions felt during that time (see, for example, Patent Document 2). There is also known a technique for identifying the factor that most influenced changes in emotions (see, for example, Patent Documents 3 to 5). There is also known a technique for comparing a subject's usual facial expression with their current facial expression and issuing an alert if the facial expression is gloomy (see, for example, Patent Document 6). There is also known a technique for comparing a subject's normal (expressionless) facial expression with their current facial expression to determine the degree of the subject's emotions (see, for example, Patent Documents 7 to 9). There is also known a technique for analyzing organizational emotions and the atmosphere within a group that an individual feels (see, for example, Patent Documents 10 and 11).

特開2019-58625号公報JP 2019-58625 A 特開2016-149063号公報JP 2016-149063 A 特開2020-86559号公報JP 2020-86559 A 特開2000-76421号公報JP 2000-76421 A 特開2017-201499号公報JP 2017-201499 A 特開2018-112831号公報JP 2018-112831 A 特開2011-154665号公報JP 2011-154665 A 特開2012-8949号公報JP 2012-8949 A 特開2013-300号公報JP 2013-300 A 特開2011-186521号公報JP 2011-186521 A WO15/174426号公報Publication No. WO15/174426

上述したすべての技術は、現実空間におけるコミュニケーションが主である状況におけるサブ的な機能にすぎない。即ち、昨今の業務のDX(Digital Transformation)化や、世界的な感染症の流行等を受け、業務や授業等のコミュニケーションがオンラインで行われることが主とされる状況に生まれたものではない。All of the above technologies are merely secondary functions in situations where communication in the real world is the main focus. In other words, they were not created in a situation where communication for work, classes, etc. is primarily conducted online, in response to the recent digital transformation (DX) of work and the global pandemic.

本発明は、会議や講義等、オンラインコミュニケーションが主となる状況において、より効率的なコミュニケーションを行うために、これらのコミュニケーションを可視化することを目的とする。 The present invention aims to visualize communications in order to make them more efficient in situations where online communication is the norm, such as meetings and lectures.

本発明のコミュニケーション可視化システムは、複数のユーザの夫々について、オンラインセッション中に前記ユーザを撮影することによって得られる動画像を取得する動画像取得部と、前記動画像取得部により取得された動画像に基づいて、複数の前記ユーザ間のコミュニケーションを解析する解析部と、前記解析の結果を表示する表示部とを有するコミュニケーション可視化サーバにおいて、前記表示部は、前記ユーザを示すユーザアイコンと、前記ユーザ同士のコミュニケーションに応じて当該ユーザアイコン同士を連結するコネクタを表示する。 The communication visualization system of the present invention is a communication visualization server having a video acquisition unit that acquires video for each of a plurality of users by photographing the user during an online session, an analysis unit that analyzes communication between the plurality of users based on the video acquired by the video acquisition unit, and a display unit that displays the results of the analysis, in which the display unit displays user icons representing the users and connectors that connect the user icons according to the communication between the users.

本開示によれば、会議や講義等、オンラインコミュニケーションが主となる状況において、より効率的なコミュニケーションを行うために、これらのコミュニケーションを可視化することができる。 According to the present disclosure, in situations where online communication is the norm, such as meetings and lectures, it is possible to visualize such communications in order to make them more efficient.

本発明の実施の形態によるシステム全体図を示す図である。FIG. 1 is a diagram showing an overall system according to an embodiment of the present invention. 本実施形態による構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example according to the present embodiment. 本実施形態による構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example according to the present embodiment. コミュニケーション図の一例を示す図である。FIG. 1 illustrates an example of a communication diagram. コミュニケーション図の一例を示す図である。FIG. 1 illustrates an example of a communication diagram. コミュニケーション図の一例を示す図である。FIG. 1 illustrates an example of a communication diagram. コミュニケーション図の一例を示す図である。FIG. 1 illustrates an example of a communication diagram. コミュニケーション図の一例を示す図である。FIG. 1 illustrates an example of a communication diagram.

本開示の実施形態の内容を列記して説明する。本開示は、以下のような構成を備える。
[項目1]<<ユーザアイコンとコネクタ 図4関連>>
複数のユーザの夫々について、オンラインセッション中に前記ユーザを撮影することによって得られる動画像を取得する動画像取得部と、
前記動画像取得部により取得された動画像に基づいて、複数の前記ユーザ間のコミュニケーションを解析する解析部と、
前記解析の結果を表示する表示部とを有するコミュニケーション可視化サーバにおいて、
前記表示部は、前記ユーザを示すユーザアイコンと、前記ユーザ同士のコミュニケーションに応じて当該ユーザアイコン同士を連結するコネクタを表示する、
コミュニケーション可視化システム。
[項目2]<<アイコンが選択されるとコミュニケーションした相手とのコネクタがオレンジになる 図5/図6関連>>
項目1に記載のコミュニケーション可視化システムであって、
前記表示部は、前記ユーザアイコンが選択された場合に当該ユーザアイコンに連結される前記コネクタが判別可能となるように表示する、
コミュニケーション可視化システム。
[項目3]<<アイコンを選択したら補助的情報を表示する 図7関連>>
項目1に記載のコミュニケーション可視化システムであって、
前記表示部は、前記ユーザアイコンが選択された場合に当該ユーザアイコンに対応する前記ユーザのコミュニケーションに関する統計情報を表示する、
コミュニケーション可視化システム。
[項目4]<<部署ごとにコネクタを表示>>
項目1に記載のコミュニケーション可視化システムであって、
複数の前記ユーザは、それぞれ所定のグループに関連付けられており、
前記表示部は、当該グループを示すグループアイコンと、前記グループに所属する前記ユーザ同士のコミュニケーションに応じて当該グループアイコン同士を連結するコネクタを表示する、
コミュニケーション可視化システム。
[項目5]<<孤独率の算定>>
項目1に記載のコミュニケーション可視化システムであって、
前記表示部は、複数の前記ユーザの中において、コミュニケーションの相手が所定数以下の前記ユーザの比率を算出して表示する、
コミュニケーション可視化システム。
[項目6]<<コミュニケーション負荷 順序で推定>>
項目1に記載のコミュニケーション可視化システムであって、
前記ユーザ間におけるコミュニケーションの順序に応じてコミュニケーションの負荷を算出するコミュニケーション負荷算出部をさらに有しており、
前記表示部は、算出された前記コミュニケーションの負荷を表示する
コミュニケーション可視化システム。
[項目7] <<コミュニケーション負荷 会話量で推定>>
項目1に記載のコミュニケーション可視化システムであって、
前記ユーザ間におけるコミュニケーションの量の偏りに応じてコミュニケーションの負荷を算出するコミュニケーション負荷算出部をさらに有しており、
前記表示部は、算出された前記コミュニケーションの負荷を表示する
コミュニケーション可視化システム。
The contents of the embodiments of the present disclosure will be described below. The present disclosure has the following configuration.
[Item 1] <<User icon and connector (related to Figure 4)>>
a video acquisition unit that acquires, for each of a plurality of users, a video obtained by photographing the user during an online session;
an analysis unit that analyzes communications between the plurality of users based on the video acquired by the video acquisition unit;
a communication visualization server having a display unit that displays a result of the analysis,
the display unit displays user icons representing the users and connectors connecting the user icons in response to communication between the users.
Communication visualization system.
[Item 2] <<When an icon is selected, the connector with the person you communicated with turns orange. Related to Figure 5/Figure 6>>
2. The communication visualization system according to claim 1,
the display unit displays the connector connected to the user icon in a distinguishable manner when the user icon is selected.
Communication visualization system.
[Item 3] <<Display supplementary information when an icon is selected (see Figure 7)>>
2. The communication visualization system according to claim 1,
the display unit displays, when the user icon is selected, statistical information regarding communication of the user corresponding to the user icon.
Communication visualization system.
[Item 4] <<Display connectors by department>>
2. The communication visualization system according to claim 1,
Each of the plurality of users is associated with a predetermined group;
the display unit displays a group icon indicating the group and a connector connecting the group icons in accordance with communication between the users belonging to the group.
Communication visualization system.
[Item 5] <<Calculation of loneliness rate>>
2. The communication visualization system according to claim 1,
the display unit calculates and displays a ratio of the users who have a predetermined number of communication partners or less among the plurality of users.
Communication visualization system.
[Item 6] <<Estimation of communication load by order>>
2. The communication visualization system according to claim 1,
The method further includes a communication load calculation unit that calculates a communication load according to a communication order between the users,
The display unit is a communication visualization system that displays the calculated communication load.
[Item 7] <<Communication load estimated by conversation volume>>
2. The communication visualization system according to claim 1,
The communication load calculation unit further includes a communication load calculation unit that calculates a communication load according to a bias in the amount of communication between the users,
The display unit is a communication visualization system that displays the calculated communication load.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。A preferred embodiment of the present disclosure will be described in detail below with reference to the accompanying drawings. In this specification and drawings, components having substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.

<基本機能>
本実施形態のコミュニケーション可視化システムは、複数人でビデオセッション(以下、一方向及び双方向含めてオンラインセッションという)が行われる環境において、当該複数人の中の解析対象者について他者とは異なる特異的な感情(自分または他人の言動に対して起こる気持ち。快・不快またはその程度など)を解析し評価するシステムである。オンラインセッションは、例えばオンライン会議、オンライン授業、オンラインチャットなどであり、複数の場所に設置された端末をインターネットなどの通信ネットワークを介してサーバに接続し、当該サーバを通じて複数の端末間で動画像をやり取りできるようにしたものである。オンラインセッションで扱う動画像には、端末を使用するユーザの顔画像や音声が含まれる。また、動画像には、複数のユーザが共有して閲覧する資料などの画像も含まれる。各端末の画面上に顔画像と資料画像とを切り替えて何れか一方のみを表示させたり、表示領域を分けて顔画像と資料画像とを同時に表示させたりすることが可能である。また、複数人のうち1人の画像を全画面表示させたり、一部または全部のユーザの画像を小画面に分割して表示させたりすることが可能である。端末を使用してオンラインセッションに参加する複数のユーザのうち、何れか1人または複数人を解析対象者として指定することが可能である。例えば、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。なお、解析対象者を指定せず全ての参加者を解析対象としてもよい。また、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定することも可能である。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。
<Basic functions>
The communication visualization system of the present embodiment is a system that analyzes and evaluates a unique emotion (feelings caused by one's own or other's words and actions, such as pleasantness or unpleasantness, or the degree of pleasantness) of an analysis target among a plurality of people in an environment where the plurality of people are engaged in a video session (hereinafter, one-way and two-way sessions are both referred to as online sessions) that is different from that of other people. An online session is, for example, an online conference, an online class, an online chat, etc., and terminals installed in a plurality of locations are connected to a server via a communication network such as the Internet, and moving images can be exchanged between the plurality of terminals through the server. The moving images handled in the online session include facial images and voices of users using the terminals. In addition, the moving images also include images such as materials shared and viewed by a plurality of users. It is possible to switch between a facial image and a material image on the screen of each terminal to display only one of them, or to divide the display area to display a facial image and a material image simultaneously. It is also possible to display an image of one of the plurality of people in full screen, or to display images of some or all of the users divided into small screens. It is possible to specify one or more of the plurality of users who participate in the online session using a terminal as the analysis target. For example, the leader, facilitator, or manager of the online session (hereinafter collectively referred to as the organizer) designates one of the users as the analysis target. The organizer of the online session is, for example, a lecturer of an online class, a chairperson or facilitator of an online conference, or a coach of a session for coaching purposes. The organizer of the online session is usually one of the multiple users who participate in the online session, but may be a different person who does not participate in the online session. It is also possible to not designate an analysis target and to use all participants as the analysis target. It is also possible for the leader, facilitator, or manager of the online session (hereinafter collectively referred to as the organizer) to designate one of the users as the analysis target. The organizer of the online session is, for example, a lecturer of an online class, a chairperson or facilitator of an online conference, or a coach of a session for coaching purposes. The organizer of the online session is usually one of the multiple users who participate in the online session, but may be a different person who does not participate in the online session.

本実施の形態によるコミュニケーション可視化システムは、複数の端末間においてビデオセッションセッションが確立された場合に、当該ビデオセッションから取得される少なくとも動画像を表示される。表示された動画像は、端末によって取得され、動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別される。その後、識別された顔画像に関する評価値が算出される。当該評価値は必要に応じて共有される。特に、本実施の形態においては、取得した動画像は当該端末に保存され、端末上で分析評価され、その結果が当該端末のユーザに提供される。従って、例えば個人情報を含むビデオセッションや機密情報を含むビデオセッションであっても、その動画自体を外部の評価機関等に提供することなく分析評価できる。また、必要に応じて、当該評価結果(評価値)だけを外部端末に提供することによって、結果を可視化したり、クロス分析等行うことができる。In the communication visualization system according to the present embodiment, when a video session is established between multiple terminals, at least a moving image acquired from the video session is displayed. The displayed moving image is acquired by the terminal, and at least a facial image contained in the moving image is identified for each predetermined frame unit. An evaluation value for the identified facial image is then calculated. The evaluation value is shared as necessary. In particular, in the present embodiment, the acquired moving image is stored in the terminal, analyzed and evaluated on the terminal, and the results are provided to the user of the terminal. Therefore, even if a video session includes personal information or confidential information, for example, the video itself can be analyzed and evaluated without providing the video itself to an external evaluation agency, etc. Also, if necessary, the evaluation result (evaluation value) alone can be provided to an external terminal, allowing the results to be visualized and cross-analysis, etc. to be performed.

図1に示されるように、本実施の形態によるコミュニケーション可視化システムは、少なくともカメラ部及びマイク部等の入力部と、ディスプレイ等の表示部とスピーカー等の出力部とを有するユーザ端末10、20と、ユーザ端末10、20に双方向のビデオセッションを提供するビデオセッションサービス端末30と、ビデオセッションに関する評価の一部を行う評価端末40とを備えている。As shown in FIG. 1, the communication visualization system according to this embodiment includes user terminals 10 and 20 having at least an input unit such as a camera unit and a microphone unit, a display unit such as a display, and an output unit such as a speaker, a video session service terminal 30 that provides a two-way video session to the user terminals 10 and 20, and an evaluation terminal 40 that performs part of the evaluation of the video session.

<ハードウェア構成例>
以下に説明する各機能ブロック、機能単位、機能モジュールは、例えばコンピュータに備えられたハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。本明細書において説明するシステム及び端末による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係るユーザ端末10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することが可能である。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<Hardware configuration example>
Each functional block, functional unit, and functional module described below can be configured, for example, by hardware, DSP (Digital Signal Processor), or software provided in a computer. For example, when configured by software, it is actually configured with a computer's CPU, RAM, ROM, etc., and is realized by the operation of a program stored in a recording medium such as a RAM, ROM, hard disk, or semiconductor memory. The series of processes by the system and terminal described in this specification may be realized using any of software, hardware, and a combination of software and hardware. It is possible to create a computer program for realizing each function of the user terminal 10 according to this embodiment and implement it in a PC or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, etc. In addition, the above computer program may be distributed, for example, via a network, without using a recording medium.

本実施の形態による評価端末は、ビデオセッションサービス端末から動画像を取得し、当該動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別すると共に、顔画像に関する評価値を算出する(詳しくは後述する)。The evaluation terminal in this embodiment acquires a moving image from a video session service terminal, identifies at least a facial image contained in the moving image for each predetermined frame unit, and calculates an evaluation value for the facial image (details will be described later).

<動画の取得方法>
図2に示されるように、ビデオセッションサービス端末が提供するビデオセッションサービス(以下、単に「本サービス」と言うことがある」)は、ユーザ端末10、20に対して双方向に画像および音声によって通信が可能となるものである。本サービスは、ユーザ端末のディスプレイに相手のユーザ端末のカメラ部で取得した動画像を表示し、相手のユーザ端末のマイク部で取得した音声をスピーカーから出力可能となっている。また、本サービスは双方の又はいずれかのユーザ端末によって、動画像及び音声(これらを合わせて「動画像等」という)を少なくともいずれかのユーザ端末上の記憶部に記録(レコーディング)することが可能に構成されている。記録された動画像情報Vs(以下「記録情報」という)は、記録を開始したユーザ端末にキャッシュされつついずれかのユーザ端末のローカルのみに記録されることとなる。ユーザは、必要があれば当該記録情報を本サービスの利用の範囲内で自分で視聴、他者に共有等行うこともできる。
<How to get the video>
As shown in FIG. 2, the video session service provided by the video session service terminal (hereinafter, sometimes simply referred to as "this service") enables two-way communication with user terminals 10 and 20 using images and audio. This service is capable of displaying video images captured by the camera unit of the other user terminal on the display of the user terminal, and outputting audio captured by the microphone unit of the other user terminal from the speaker. This service is also configured to enable both or any of the user terminals to record (record) video images and audio (collectively referred to as "video images, etc.") in the memory unit of at least one of the user terminals. The recorded video information Vs (hereinafter referred to as "recorded information") is cached in the user terminal that started the recording, and is recorded only locally in one of the user terminals. If necessary, the user can view the recorded information himself or share it with others within the scope of use of this service.

<機能構成例1>
図3は、本実施形態による構成例を示すブロック図である。図3に示すように、本実施形態のコミュニケーション可視化システムは、ユーザ端末10が有する機能構成として実現される。すなわち、ユーザ端末10はその機能として、動画像取得部11、生体反応解析部12、表示部13およびコミュニケーション負荷算出部14を備えている。
<Functional configuration example 1>
Fig. 3 is a block diagram showing an example of the configuration according to this embodiment. As shown in Fig. 3, the communication visualization system of this embodiment is realized as a functional configuration of a user terminal 10. That is, the user terminal 10 includes, as its functions, a moving image acquisition unit 11, a biological reaction analysis unit 12, a display unit 13, and a communication load calculation unit 14.

動画像取得部11は、オンラインセッション中に各端末が備えるカメラにより複数人(複数のユーザ)を撮影することによって得られる動画像を各端末から取得する。各端末から取得する動画像は、各端末の画面上に表示されるように設定されているものか否かは問わない。すなわち、動画像取得部11は、各端末に表示中の動画像および非表示中の動画像を含めて、動画像を各端末から取得する。The video acquisition unit 11 acquires video from each terminal, obtained by photographing multiple people (multiple users) with a camera provided on each terminal during an online session. The video acquired from each terminal may or may not be set to be displayed on the screen of each terminal. In other words, the video acquisition unit 11 acquires video from each terminal, including video being displayed and video not being displayed on each terminal.

生体反応解析部12は、動画像取得部11により取得された動画像(画面上に表示中のものか否かは問わない)に基づいて、複数人のそれぞれについて生体反応の変化を解析する。本実施形態において生体反応解析部12は、動画像取得部11により取得された動画像に基づいて、複数の前記ユーザ間のコミュニケーション(誰と誰がいつ、どれくらいオンラインで会話していたのか)を解析する解析部であり、動画像取得部11により取得された動画像を画像のセット(フレーム画像の集まり)と音声とに分離し、それぞれから生体反応の変化を解析する。The bioreaction analysis unit 12 analyzes changes in bioreactions for each of the multiple people based on the video images (whether or not they are being displayed on the screen) acquired by the video image acquisition unit 11. In this embodiment, the bioreaction analysis unit 12 is an analysis unit that analyzes communication between the multiple users (who was talking to whom, when, and for how long) based on the video images acquired by the video image acquisition unit 11, separates the video images acquired by the video image acquisition unit 11 into a set of images (a collection of frame images) and audio, and analyzes changes in bioreactions from each of them.

例えば、生体反応解析部12は、動画像取得部11により取得された動画像から分離したフレーム画像を用いてユーザの顔画像を解析することにより、表情、目線、脈拍、顔の動きの少なくとも1つに関する生体反応の変化を解析する。また、生体反応解析部12は、動画像取得部11により取得された動画像から分離した音声を解析することにより、ユーザの発言内容、声質の少なくとも1つに関する生体反応の変化を解析する。For example, the biological reaction analysis unit 12 analyzes a change in a biological reaction related to at least one of facial expression, eye line, pulse rate, and facial movement by analyzing the user's facial image using frame images separated from the video acquired by the video acquisition unit 11. The biological reaction analysis unit 12 also analyzes a change in a biological reaction related to at least one of the user's speech content and voice quality by analyzing the sound separated from the video acquired by the video acquisition unit 11.

人は感情が変化すると、それが表情、目線、脈拍、顔の動き、発言内容、声質などの生体反応の変化となって現れる。本実施形態では、ユーザの生体反応の変化を解析することを通じて、ユーザの感情の変化を解析する。本実施形態において解析する感情は、一例として、快/不快の程度である。本実施形態において生体反応解析部12は、生体反応の変化を所定の基準に従って数値化することにより、生体反応の変化の内容を反映させた生体反応指標値を算出する。When a person's emotions change, this is reflected in changes in biological reactions such as facial expressions, gaze, pulse rate, facial movements, speech, and voice quality. In this embodiment, the change in the user's emotions is analyzed by analyzing the change in the user's biological reactions. In this embodiment, the emotion analyzed is, for example, the degree of comfort/discomfort. In this embodiment, the biological reaction analysis unit 12 quantifies the change in the biological reaction according to a predetermined standard, thereby calculating a biological reaction index value that reflects the content of the change in the biological reaction.

表情の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、事前に機械学習させた画像解析モデルに従って特定した顔の表情を複数に分類する。そして、その分類結果に基づいて、連続するフレーム画像間でポジティブな表情変化が起きているか、ネガティブな表情変化が起きているか、およびどの程度の大きさの表情変化が起きているかを解析し、その解析結果に応じた表情変化指標値を出力する。 Analysis of changes in facial expressions is performed, for example, as follows. That is, for each frame image, a facial area is identified within the frame image, and the identified facial expressions are classified into multiple categories according to an image analysis model that has been trained by machine learning in advance. Then, based on the classification results, it is analyzed whether a positive or negative facial expression change has occurred between consecutive frame images, and the extent of the facial expression change, and a facial expression change index value according to the analysis results is output.

目線の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から目の領域を特定し、両目の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、目線の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。目線の変化はユーザの集中度にも関連する。生体反応解析部12は、目線の変化の解析結果に応じた目線変化指標値を出力する。 Analysis of changes in eye line is performed, for example, as follows. That is, for each frame image, the eye area is identified from within the frame image, and the direction of both eyes is analyzed to analyze where the user is looking. For example, it is analyzed whether the user is looking at the face of the speaker being displayed, at the shared material being displayed, or looking outside the screen. It may also be possible to analyze whether the eye movement is large or small, and whether the movement is frequent or infrequent. Changes in eye line are also related to the user's level of concentration. The biological response analysis unit 12 outputs an eye line change index value according to the analysis result of changes in eye line.

脈拍の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定する。そして、顔の色情報(RGBのG)の数値を捉える学習済みの画像解析モデルを用いて、顔表面のG色の変化を解析する。その結果を時間軸に合わせて並べることによって色情報の変化を表した波形を形成し、この波形から脈拍を特定する。人は緊張すると脈拍が速くなり、気持ちが落ち着くと脈拍が遅くなる。生体反応解析部12は、脈拍の変化の解析結果に応じた脈拍変化指標値を出力する。 The analysis of changes in pulse rate is performed, for example, as follows. That is, for each frame image, the facial area is identified from within the frame image. Then, using a trained image analysis model that captures the numerical values of facial color information (G in RGB), changes in the G color of the face surface are analyzed. The results are arranged along the time axis to form a waveform representing changes in color information, and the pulse rate is identified from this waveform. When a person is nervous, their pulse rate increases, and when they feel calm, their pulse rate decreases. The biological response analysis unit 12 outputs a pulse rate change index value according to the analysis results of changes in pulse rate.

顔の動きの変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、顔の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、顔の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。顔の動きと目線の動きとを合わせて解析するようにしてもよい。例えば、表示中の話者の顔をまっすぐ見ているか、上目遣いまたは下目使いに見ているか、斜めから見ているかなどを解析するようにしてもよい。生体反応解析部12は、顔の向きの変化の解析結果に応じた顔向き変化指標値を出力する。The analysis of changes in facial movement is performed, for example, as follows. That is, for each frame image, the facial area is identified from within the frame image, and the facial direction is analyzed to analyze where the user is looking. For example, it is analyzed whether the user is looking at the face of the speaker being displayed, the shared material being displayed, or looking outside the screen. It is also possible to analyze whether the facial movement is large or small, and whether the movement occurs frequently or infrequently. It is also possible to analyze the facial movement together with the eye movement. For example, it is possible to analyze whether the user is looking straight at the speaker being displayed, looking up or down, or looking at an angle. The biological response analysis unit 12 outputs a facial direction change index value according to the analysis result of the change in facial direction.

発言内容の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声認識処理を行うことによって音声を文字列に変換し、当該文字列を形態素解析することにより、助詞、冠詞などの会話を表す上で不要なワードを取り除く。そして、残ったワードをベクトル化し、ポジティブな感情変化が起きているか、ネガティブな感情変化が起きているか、およびどの程度の大きさの感情変化が起きているかを解析し、その解析結果に応じた発言内容指標値を出力する。 The analysis of the speech content is performed, for example, as follows. That is, the biological response analysis unit 12 converts the speech into a string of characters by performing known speech recognition processing on the speech for a specified period of time (for example, about 30 to 150 seconds), and performs morphological analysis on the string of characters to remove words that are unnecessary for expressing the conversation, such as particles and articles. The remaining words are then vectorized, and an analysis is performed to determine whether a positive or negative emotional change has occurred, and to what extent the emotional change has occurred, and a speech content index value corresponding to the analysis result is output.

声質の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声解析処理を行うことによって音声の音響的特徴を特定する。そして、その音響的特徴に基づいて、ポジティブな声質変化が起きているか、ネガティブな声質変化が起きているか、およびどの程度の大きさの声質変化が起きているかを解析し、その解析結果に応じた声質変化指標値を出力する。 Voice quality analysis is performed, for example, as follows. That is, the biological response analysis unit 12 identifies the acoustic characteristics of the voice by performing a known voice analysis process on the voice for a specified period of time (for example, about 30 to 150 seconds). Then, based on the acoustic characteristics, it analyzes whether a positive or negative voice quality change has occurred and to what extent the voice quality change has occurred, and outputs a voice quality change index value according to the analysis result.

生体反応解析部12は、以上のようにして算出した表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値、声質変化指標値の少なくとも1つを用いて生体反応指標値を算出する。例えば、表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値および声質変化指標値を重み付け計算することにより、生体反応指標値を算出する。The biological reaction analysis unit 12 calculates a biological reaction index value using at least one of the facial expression change index value, eye gaze change index value, pulse rate change index value, face direction change index value, speech content index value, and voice quality change index value calculated as described above. For example, the biological reaction index value is calculated by weighting the facial expression change index value, eye gaze change index value, pulse rate change index value, face direction change index value, speech content index value, and voice quality change index value.

表示部13は、生体反応解析部12によるコミュニケーションの解析結果を表示する。表示部13は、コミュニケーションを可視化した画面を表示する。以下では、コミュニケーションを可視化した図をコミュニケーション図という。図4は、コミュニケーション図の一例を示した図である。図示するコミュニケーション図では、各ユーザ間のコミュニケーション量が、各ユーザ間を結ぶ線の太さで表現される。図4に示すように、表示部13は、ユーザを示すユーザアイコン50と、ユーザ同士のコミュニケーションに応じて当該ユーザアイコン50同士を連結するコネクタ51を表示する。The display unit 13 displays the results of the communication analysis performed by the biological reaction analysis unit 12. The display unit 13 displays a screen that visualizes communication. Hereinafter, a diagram that visualizes communication is referred to as a communication diagram. FIG. 4 is a diagram showing an example of a communication diagram. In the illustrated communication diagram, the amount of communication between each user is represented by the thickness of the line connecting each user. As shown in FIG. 4, the display unit 13 displays user icons 50 representing users, and connectors 51 that connect the user icons 50 according to the communication between the users.

表示部13は、ユーザアイコンが選択された場合に当該ユーザアイコンに連結されるコネクタが判別可能となるように表示する。例えば、図5に示すように、ユーザAのユーザアイコンが選択されると、ユーザAがコミュニケーションした相手ユーザB~Nの各ユーザアイコンと、ユーザAのユーザアイコンとを連結するコネクタが例えば発色する。また例えば、図6に示すように、ユーザGのユーザアイコンが選択されると、ユーザGがコミュニケーションした相手ユーザA、E、F、I、Hの各ユーザアイコンと、ユーザGのユーザアイコンとを連結するコネクタが例えば発色する。 When a user icon is selected, the display unit 13 displays the connectors connected to the user icon so that they can be distinguished. For example, as shown in Fig. 5, when the user icon of user A is selected, the connectors connecting the user icon of user A to each of the user icons of users B to N with whom user A communicated turn colored, for example. Also, for example, as shown in Fig. 6, when the user icon of user G is selected, the connectors connecting the user icon of user G to each of the user icons of users A, E, F, I, and H with whom user G communicated turn colored, for example.

表示部13は、ユーザアイコンが選択された場合に当該ユーザアイコンに対応するユーザのコミュニケーションに関する統計情報を表示する。図7に示すように、ユーザAのユーザアイコンが選択されると、ユーザAのコミュニケーションに関する統計情報として、「コラボレーション(コミュニケーションした人数)/22人」、「総会議時間/6時間36分」が表示される。When a user icon is selected, the display unit 13 displays statistical information regarding the communication of the user corresponding to the user icon. As shown in FIG. 7, when the user icon of user A is selected, "Collaboration (number of people who communicated)/22 people" and "Total meeting time/6 hours 36 minutes" are displayed as statistical information regarding user A's communication.

なお、コミュニケーション図では、図8に示すように、「Sales」及び「Design」等の各部署を、複数のユーザが属する「グループ」としてもよい。複数のユーザはそれぞれ所定のグループに関連付けられている。図8に示すように、各部署間を各ユーザ間のようにコネクタで結んで表示してもよい。すなわち、表示部13は、図8に示すように、当該グループを示すグループアイコンと、前記グループに所属するユーザ同士のコミュニケーションに応じて当該グループアイコン同士を連結するコネクタを表示する。In addition, in the communication diagram, as shown in FIG. 8, each department such as "Sales" and "Design" may be treated as a "group" to which multiple users belong. Each of the multiple users is associated with a specific group. As shown in FIG. 8, each department may be displayed connected by a connector just like each user. That is, as shown in FIG. 8, the display unit 13 displays a group icon indicating the group, and connectors that connect the group icons according to the communication between users belonging to the group.

表示部13は、複数のユーザの中において、コミュニケーションの相手が所定数以下のユーザの比率(孤独率)を算出して表示することができる。これにより、会話の中心にいるユーザと、会話に入れず孤立した人を可視化できる。The display unit 13 can calculate and display the ratio (loneliness rate) of users who have a certain number of communication partners or less among multiple users. This makes it possible to visualize users who are at the center of a conversation and those who are not included in the conversation and are isolated.

本実施の形態によるコミュニケーション可視化システムは、コミュニケーション負荷算出部14をさらに有している。コミュニケーション負荷算出部14は、ユーザ間におけるコミュニケーションの順序に応じてコミュニケーションの負荷を算出する。表示部13は、算出されたコミュニケーションの負荷を表示する。負荷の算出の仕方としては、ユーザAが発言した後にユーザBが返事をした場合、ユーザAからユーザBに負荷がかかった、と判定してユーザBに1ポイントなどのように積算していく方式が採用される。The communication visualization system according to this embodiment further includes a communication load calculation unit 14. The communication load calculation unit 14 calculates the communication load according to the order of communication between users. The display unit 13 displays the calculated communication load. The method of calculating the load is such that, for example, if user B replies after user A makes a statement, it is determined that user A has imposed a load on user B, and 1 point is added up for user B.

なお、コミュニケーション負荷算出部14は、ユーザ間におけるコミュニケーションの量の偏りに応じてコミュニケーションの負荷を算出するものであってもよい。負荷の算出の仕方としては、ユーザAの会話量がユーザBの会話量よりも多かった場合、ユーザAからユーザBに負荷がかかったと推定して会話時間に応じたスコアを加算する方式が採用される。The communication load calculation unit 14 may calculate the communication load according to the imbalance in the amount of communication between users. The method of calculating the load is such that, if the amount of conversation of user A is greater than the amount of conversation of user B, it is estimated that user A has imposed a load on user B and a score according to the conversation time is added.

本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。The processes described in this specification using flow chart diagrams do not necessarily have to be performed in the order shown. Some process steps may be performed in parallel. Additional process steps may also be employed, and some process steps may be omitted.

以上説明した実施の形態を適宜組み合わせて実施することとしてもよい。また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。The above-described embodiments may be implemented in appropriate combinations. Furthermore, the effects described in this specification are merely descriptive or exemplary and are not limiting. In other words, the technology disclosed herein may achieve other effects that are apparent to a person skilled in the art from the description of this specification, in addition to or in place of the above-described effects.

10、20 ユーザ端末
11 動画像取得部
12 生体反応解析部
13 表示部
50 ユーザアイコン
51 コネクタ

10, 20 User terminal 11 Video image acquisition unit 12 Biological reaction analysis unit 13 Display unit 50 User icon 51 Connector

Claims (6)

複数のユーザの夫々について、オンラインセッション中に前記ユーザを撮影することによって得られる動画像を取得する動画像取得部と、
前記動画像取得部により取得された動画像に基づいて、複数の前記ユーザ間のコミュニケーションを解析する解析部と、
前記解析の結果を表示する表示部とを有するコミュニケーション可視化サーバにおいて、
前記表示部は、前記ユーザを示すユーザアイコンと、前記ユーザ同士のコミュニケーションに応じて当該ユーザアイコン同士を連結するコネクタを表示し、複数の前記ユーザの中において、コミュニケーションの相手が所定数以下の前記ユーザの比率を算出して表示する、
コミュニケーション可視化システム。
a video acquisition unit that acquires, for each of a plurality of users, a video obtained by photographing the user during an online session;
an analysis unit that analyzes communications between the plurality of users based on the video acquired by the video acquisition unit;
a communication visualization server having a display unit that displays a result of the analysis,
the display unit displays user icons representing the users and connectors connecting the user icons according to communications between the users, and calculates and displays a ratio of the users who have a predetermined number of communication partners or less among the plurality of users.
Communication visualization system.
複数のユーザの夫々について、オンラインセッション中に前記ユーザを撮影することによって得られる動画像を取得する動画像取得部と、
前記動画像取得部により取得された動画像に基づいて、複数の前記ユーザ間のコミュニケーションを解析する解析部と、
前記解析の結果を表示する表示部と、
前記ユーザ間におけるコミュニケーションの順序に応じてコミュニケーションの負荷を算出するミュニケーション負荷算出部と、を有するコミュニケーション可視化サーバにおいて、
前記表示部は、前記ユーザを示すユーザアイコンと、前記ユーザ同士のコミュニケーションに応じて当該ユーザアイコン同士を連結するコネクタを表示し、算出された前記コミュニケーションの負荷を表示する、
コミュニケーション可視化システム。
a video acquisition unit that acquires, for each of a plurality of users, a video obtained by photographing the user during an online session;
an analysis unit that analyzes communications between the plurality of users based on the video acquired by the video acquisition unit;
A display unit that displays the results of the analysis;
a communication load calculation unit that calculates a communication load according to an order of communications between the users,
the display unit displays user icons representing the users and connectors connecting the user icons in accordance with communications between the users, and displays the calculated communication load.
Communication visualization system.
複数のユーザの夫々について、オンラインセッション中に前記ユーザを撮影することによって得られる動画像を取得する動画像取得部と、
前記動画像取得部により取得された動画像に基づいて、複数の前記ユーザ間のコミュニケーションを解析する解析部と、
前記解析の結果を表示する表示部と、
前記ユーザ間におけるコミュニケーションの量の偏りに応じてコミュニケーションの負荷を算出するミュニケーション負荷算出部と、を有するコミュニケーション可視化サーバにおいて、
前記表示部は、前記ユーザを示すユーザアイコンと、前記ユーザ同士のコミュニケーションに応じて当該ユーザアイコン同士を連結するコネクタを表示し、算出された前記コミュニケーションの負荷を表示する、
コミュニケーション可視化システム。
a video acquisition unit that acquires, for each of a plurality of users, a video obtained by photographing the user during an online session;
an analysis unit that analyzes communications between the plurality of users based on the video acquired by the video acquisition unit;
A display unit that displays the results of the analysis;
a communication load calculation unit that calculates a communication load according to a bias in the amount of communication between the users,
the display unit displays user icons representing the users and connectors connecting the user icons in accordance with communications between the users, and displays the calculated communication load.
Communication visualization system.
請求項1ないし3のいずれか1項に記載のコミュニケーション可視化システムであって、
前記表示部は、前記ユーザアイコンが選択された場合に当該ユーザアイコンに連結される前記コネクタが判別可能となるように表示する、
コミュニケーション可視化システム。
The communication visualization system according to any one of claims 1 to 3,
the display unit displays the connector connected to the user icon in a distinguishable manner when the user icon is selected.
Communication visualization system.
請求項1ないし3のいずれか1項に記載のコミュニケーション可視化システムであって、
前記表示部は、前記ユーザアイコンが選択された場合に当該ユーザアイコンに対応する前記ユーザのコミュニケーションに関する統計情報を表示する、
コミュニケーション可視化システム。
The communication visualization system according to any one of claims 1 to 3,
the display unit displays, when the user icon is selected, statistical information regarding communication of the user corresponding to the user icon.
Communication visualization system.
請求項1ないし3のいずれか1項に記載のコミュニケーション可視化システムであって、
複数の前記ユーザは、それぞれ所定のグループに関連付けられており、
前記表示部は、当該グループを示すグループアイコンと、前記グループに所属する前記ユーザ同士のコミュニケーションに応じて当該グループアイコン同士を連結するコネクタを表示する、
コミュニケーション可視化システム。
The communication visualization system according to any one of claims 1 to 3,
Each of the plurality of users is associated with a predetermined group;
the display unit displays a group icon indicating the group and a connector connecting the group icons in accordance with communication between the users belonging to the group.
Communication visualization system.
JP2023555848A 2022-12-27 2022-12-27 Communication visualization system Active JP7465040B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022048311 2022-12-27

Publications (1)

Publication Number Publication Date
JP7465040B1 true JP7465040B1 (en) 2024-04-10

Family

ID=90606709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023555848A Active JP7465040B1 (en) 2022-12-27 2022-12-27 Communication visualization system

Country Status (1)

Country Link
JP (1) JP7465040B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304719A (en) 2003-04-01 2004-10-28 Nec Corp Mobile communication system and mobile terminal
WO2016158267A1 (en) 2015-03-27 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017215943A (en) 2016-05-27 2017-12-07 株式会社リコー Information sharing support system, information sharing support device, information sharing support method, and program
US20180167290A1 (en) 2016-12-14 2018-06-14 International Business Machines Corporation Visualization of analysis results of contents
JP2022124632A (en) 2021-02-16 2022-08-26 Necソリューションイノベータ株式会社 Influence degree analysis device, influence degree visualization system device, influence degree analysis method, influence degree visualization method, program, and recording medium
WO2022230156A1 (en) 2021-04-29 2022-11-03 株式会社I’mbesideyou Video analysis system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304719A (en) 2003-04-01 2004-10-28 Nec Corp Mobile communication system and mobile terminal
WO2016158267A1 (en) 2015-03-27 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017215943A (en) 2016-05-27 2017-12-07 株式会社リコー Information sharing support system, information sharing support device, information sharing support method, and program
US20180167290A1 (en) 2016-12-14 2018-06-14 International Business Machines Corporation Visualization of analysis results of contents
JP2022124632A (en) 2021-02-16 2022-08-26 Necソリューションイノベータ株式会社 Influence degree analysis device, influence degree visualization system device, influence degree analysis method, influence degree visualization method, program, and recording medium
WO2022230156A1 (en) 2021-04-29 2022-11-03 株式会社I’mbesideyou Video analysis system

Similar Documents

Publication Publication Date Title
WO2022024956A1 (en) Emotion analysis system and emotion analysis device
JP7465040B1 (en) Communication visualization system
WO2022230156A1 (en) Video analysis system
JP7388768B2 (en) Video analysis program
JP7121433B1 (en) Video analysis program
JP7121436B1 (en) Video analysis program
WO2022269801A1 (en) Video analysis system
JP7197955B1 (en) Video meeting evaluation terminal
WO2022230051A1 (en) Video analysis system
WO2022269802A1 (en) Video analysis system
US11935329B2 (en) Video analysis program
WO2022201267A1 (en) Video analysis program
WO2022230065A1 (en) Video analysis system
WO2022254497A1 (en) Video analysis system
WO2022201268A1 (en) Video analysis programme
WO2022264220A1 (en) Video analysis system
WO2022230049A1 (en) Video analysis system
WO2022230136A1 (en) Video analysis system
WO2023062795A1 (en) Video meeting evaluation terminal
WO2022230155A1 (en) Video analysis system
WO2022230050A1 (en) Video analysis system
WO2022254489A1 (en) Video analysis system
WO2023002562A1 (en) Video analysis system
WO2022201265A1 (en) Video analysis program
WO2023013027A1 (en) Video analysis system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231219

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240322

R150 Certificate of patent or registration of utility model

Ref document number: 7465040

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150