JP2024079546A - Information analysis system, information analysis apparatus, information analysis method, and program - Google Patents
Information analysis system, information analysis apparatus, information analysis method, and program Download PDFInfo
- Publication number
- JP2024079546A JP2024079546A JP2023086826A JP2023086826A JP2024079546A JP 2024079546 A JP2024079546 A JP 2024079546A JP 2023086826 A JP2023086826 A JP 2023086826A JP 2023086826 A JP2023086826 A JP 2023086826A JP 2024079546 A JP2024079546 A JP 2024079546A
- Authority
- JP
- Japan
- Prior art keywords
- information
- participants
- communication terminal
- information analysis
- participant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 335
- 238000004891 communication Methods 0.000 claims abstract description 270
- 238000000034 method Methods 0.000 claims description 104
- 230000008569 process Effects 0.000 claims description 84
- 230000000694 effects Effects 0.000 claims description 71
- 238000001514 detection method Methods 0.000 claims description 47
- 230000008921 facial expression Effects 0.000 claims description 37
- 230000005540 biological transmission Effects 0.000 claims description 26
- 238000003860 storage Methods 0.000 claims description 24
- 238000010801 machine learning Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims 1
- 230000014509 gene expression Effects 0.000 abstract 2
- 238000012545 processing Methods 0.000 description 123
- 238000010586 diagram Methods 0.000 description 66
- 230000015654 memory Effects 0.000 description 48
- 230000006870 function Effects 0.000 description 35
- 230000001815 facial effect Effects 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 12
- 238000012790 confirmation Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000000712 assembly Effects 0.000 description 5
- 238000000429 assembly Methods 0.000 description 5
- 230000004886 head movement Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000011946 reduction process Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000010923 batch production Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、情報解析システム、情報解析装置、情報解析方法及びプログラムに関する。 The present invention relates to an information analysis system, an information analysis device, an information analysis method, and a program.
グループにおける個人の発話をもとに、その個人の活性度を取得し出力する仕組みが従来から知られている。 Mechanisms that acquire and output the activity level of individuals based on their speech in a group are already known.
そのひとつとして、グループにおける複数の個人のそれぞれの個人の発話に関する活性度を取得し、取得したそれぞれの個人の発話に関する活性度に基づいて、グループにおけるそれぞれの個人の発話に関する基準値を設定し、設定した基準値と、取得したそれぞれの個人の発話に関する活性度とを比較した結果を出力する技術が知られている(例えば、特許文献1参照)。 One such technique involves acquiring the speech activity level of each of multiple individuals in a group, setting a reference value for the speech of each individual in the group based on the acquired speech activity level of each individual, and outputting the result of comparing the acquired speech activity level of each individual with the set reference value (see, for example, Patent Document 1).
その一方で、働き方の多様化に伴い、人々が物理的に同一の空間を利用して会議などを行う従来の方法から、Web会議などのリモート環境を利用したオンラインによる方法が普及してきている。 On the other hand, as working styles become more diverse, the traditional method of people holding meetings in the same physical space is being replaced by online methods using remote environments such as web conferencing.
しかしながら、従来の技術では、オンラインを利用したイベントでは、発話に基づく参加者の状態を把握することはできても、表情に基づく参加者の状態とあわせて把握し、発話と表情から得られる情報を活かすことが困難であるという課題がある。 However, with conventional technology, while it is possible to grasp the state of participants based on their speech at online events, there is an issue in that it is difficult to grasp their state based on facial expressions as well as to utilize the information obtained from speech and facial expressions.
上述した課題を解決するために、請求項1に係る発明は、オンラインで開催される所定のイベントに参加した複数の参加者に係る情報を取得可能な通信端末と、前記通信端末が送信した前記情報を解析する情報解析装置と、を有する情報解析システムであって、前記通信端末は、前記複数の参加者の画像情報及び音声情報を取得する取得手段と、取得した前記画像情報及び前記音声情報を前記情報解析装置に対して送信する第1の送信手段と、を有し、前記情報解析装置は、前記通信端末が送信した前記画像情報及び前記音声情報に基づいて、前記複数の参加者の状態を解析する解析手段と、解析した前記複数の参加者の状態に基づいて、前記通信端末で表示可能な状態通知を生成する生成手段と、を有する、ことを特徴とする情報解析システムを提供する。 In order to solve the above-mentioned problems, the invention according to claim 1 provides an information analysis system having a communication terminal capable of acquiring information related to multiple participants who have participated in a specific event held online, and an information analysis device that analyzes the information transmitted by the communication terminal, wherein the communication terminal has an acquisition means for acquiring image information and audio information of the multiple participants, and a first transmission means for transmitting the acquired image information and audio information to the information analysis device, and the information analysis device has an analysis means for analyzing the status of the multiple participants based on the image information and the audio information transmitted by the communication terminal, and a generation means for generating a status notification that can be displayed on the communication terminal based on the analyzed status of the multiple participants.
以上説明したように本発明によれば、オンラインを利用したイベントにおいても、発話のみならず表情に基づく参加者の状態を把握し、発話と表情から得られる情報を活かすことが可能になるという効果を奏する。 As described above, the present invention has the effect of making it possible to grasp the state of participants based on not only their speech but also their facial expressions, even in online events, and to utilize the information obtained from their speech and facial expressions.
以下、図面を用いて、発明を実施するための形態について説明する。なお、図面の説明において同一要素には同一符号を付し、重複する部分があればその説明を省略する。 Below, we will explain the form for implementing the invention using the drawings. Note that in the explanation of the drawings, the same elements are given the same reference numerals, and if there are overlapping parts, their explanation will be omitted.
〔第1の実施形態〕
〔情報解析システムの全体構成〕
図1は、情報解析システムの全体構成の一例を示す図である。図1に示されているように、情報解析システム1は、通信端末3及び情報解析装置5を含む各装置及び端末を有している。なお、通信端末3と情報解析装置5とは、点線で囲まれたオンラインイベント開催空間においてWeb会議(オンライン朝礼、オンライン打合せ)などが開催される。なお、オンラインイベント開催空間は、オンラインを利用したWeb会議が開催される仮想的な空間を表すものとして便宜上示したものである。更に、情報解析システム1では、通信端末3及び情報解析装置5は、通信ネットワーク100を介してそれぞれ互いに接続されている。なお、通信端末3は、通信ネットワーク100の内側に設けられたファイアウォールを介して情報解析装置5と接続されていてもよい。
First Embodiment
[Overall configuration of the information analysis system]
FIG. 1 is a diagram showing an example of the overall configuration of an information analysis system. As shown in FIG. 1, the information analysis system 1 has various devices and terminals including a communication terminal 3 and an information analysis device 5. The communication terminal 3 and the information analysis device 5 hold a Web conference (online morning assembly, online meeting) in an online event holding space surrounded by a dotted line. The online event holding space is shown for convenience as a virtual space in which an online Web conference is held. Furthermore, in the information analysis system 1, the communication terminal 3 and the information analysis device 5 are connected to each other via a communication network 100. The communication terminal 3 may be connected to the information analysis device 5 via a firewall provided inside the communication network 100.
通信ネットワーク100は、不特定多数の通信が行われる通信ネットワークであり、インターネット、イントラネット、LAN(Local Area Network)等によって構築されている。なお、通信ネットワーク100には、有線通信だけでなく、4G(4th Generation)、5G(5th Generation)、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)等の無線通信による通信ネットワークが含まれてもよい。 The communication network 100 is a communication network through which an unspecified number of communications are conducted, and is constructed using the Internet, an intranet, a LAN (Local Area Network), etc. Note that the communication network 100 may include not only wired communication, but also communication networks using wireless communication such as 4G (4th Generation), 5G (5th Generation), WiMAX (Worldwide Interoperability for Microwave Access), and LTE (Long Term Evolution).
<通信端末>
通信端末3は、情報解析システム1を利用するユーザ(参加者、リーダー等)によって利用され、オンラインで開催される所定のイベントに参加した複数の参加者に係る情報を取得可能な通信端末である。また、通信端末3は、一般的なOSなどが搭載された通信を行うための情報処理装置(コンピュータシステム)によって実現され、情報解析システム1を構築する一つの構成要素である。また、通信端末3は、情報解析装置5と通信を行うための通信アプリ、並びに、オンラインで開催されるオンライン会議アプリ等を記憶手段にインストールして記憶している。
<Communication terminal>
The communication terminal 3 is a communication terminal that is used by a user (participant, leader, etc.) who uses the information analysis system 1 and can acquire information related to multiple participants who have participated in a specific event held online. The communication terminal 3 is realized by an information processing device (computer system) for communication that is equipped with a general OS or the like, and is one of the components that configure the information analysis system 1. The communication terminal 3 also installs and stores in a storage unit a communication app for communicating with the information analysis device 5, an online conference app for online meetings, and the like.
なお、通信端末3は、一般的に使用されるPC(Personal Computer)、携帯型ノートPC、携帯電話、スマートフォン、タブレット端末、ウェアラブル端末(サングラス型、腕時計型等)の通信機能に加えて、画像を撮影して取得する画像取得部、及び音声を集音して取得する音声取得部をそれぞれ有する通信端末であってもよい。通信端末3は更に、ブラウザソフトウエア、各種アプリのソフトウエアを動作させることが可能な通信装置又は通信端末が用いられてもよい。 The communication terminal 3 may be a communication terminal having an image acquisition unit that captures and acquires images, and an audio acquisition unit that collects and acquires audio, in addition to the communication functions of commonly used PCs (Personal Computers), portable notebook PCs, mobile phones, smartphones, tablet terminals, and wearable terminals (sunglasses type, wristwatch type, etc.). The communication terminal 3 may further be a communication device or communication terminal capable of running browser software and various application software.
<情報解析装置>
情報解析装置5は、通信端末3が送信した情報を解析する装置である。また、情報解析装置5は、一般的なサーバOSなどが搭載された一以上の情報処理装置(コンピュータシステム)によって実現される。また、情報解析装置5は、他の装置、通信端末と通信を行うための通信アプリを記憶手段にインストールして記憶している。
<Information Analysis Device>
The information analyzing device 5 is a device that analyzes information transmitted by the communication terminal 3. The information analyzing device 5 is realized by one or more information processing devices (computer systems) equipped with a general server OS, etc. The information analyzing device 5 also installs and stores in a storage unit a communication application for communicating with other devices and communication terminals.
なお、情報解析装置5は、一般的に使用されるPC(Personal Computer)、携帯型ノートPC等の単一のコンピュータによって構築されてもよいし、ストレージ等の各部(機能又は手段)を分割して任意に割り当てられた複数のコンピュータによって構築されてもよい。また、情報解析装置5の機能の全てまたは一部は、クラウド環境に存在するサーバコンピュータであってもよいし、オンプレミス環境に存在するサーバコンピュータであってもよい。情報解析装置5は、更に、ブラウザソフトウエア等のソフトウエアを動作させることが可能な通信装置又は通信端末が用いられてもよい。 The information analysis device 5 may be constructed by a single computer such as a commonly used PC (Personal Computer) or a portable notebook PC, or may be constructed by multiple computers in which each section (function or means) such as storage is divided and arbitrarily assigned. In addition, all or part of the functions of the information analysis device 5 may be a server computer existing in a cloud environment, or a server computer existing in an on-premise environment. The information analysis device 5 may further use a communication device or communication terminal capable of operating software such as browser software.
また、情報解析装置5は、一般的に知られているクラウドを利用したWebサービスで利用可能なシステム(例えば、AWS:Amazon Web Services)を利用可能な環境を有するものであってもよい。 In addition, the information analysis device 5 may have an environment in which a system available for a commonly known cloud-based web service (e.g., AWS: Amazon Web Services) can be used.
情報解析装置5は、通信端末3に対してレポート等を送信する際、プッシュ通知(送信)によりデータ(情報)を通知(送信)してもよい。その場合、情報解析装置5は、例えば、プッシュ通知サーバの一例であるFCM(Firebase Cloud Messaging)を介してプッシュ通知が行われる。 When sending a report or the like to the communication terminal 3, the information analysis device 5 may notify (send) the data (information) by push notification (transmission). In that case, the information analysis device 5 performs the push notification via, for example, FCM (Firebase Cloud Messaging), which is an example of a push notification server.
●用語について●
本実施形態においてイベントとは、複数の参加者が所定の日時に話題、議題を共有して行う活動の総称である。イベントには、例えば、会議、朝礼、昼礼、夕礼、打合せが含まれる。本実施形態では、これらのイベントがWebサービスを利用したオンラインにより開催されることを前提としている。このような前提に基づいて、本実施形態における「オンラインで開催される所定のイベント」は、「オンラインにおける通信」の一例として扱われるものとする。そして通信には、画像情報(画像データ)及び音声情報(音声データ)が含まれるものとする。なお、画像情報は、所定のイベント中の複数の参加者の各々の画像に含まれる頷きに係る情報及び笑顔に係る情報のうち少なくとも一方を表す。また音声情報は、所定のイベント中の複数の参加者の各々の発話に係る情報を表す。
●About terminology●
In this embodiment, an event is a general term for an activity in which multiple participants share a topic or topic at a specific date and time. Events include, for example, meetings, morning assemblies, afternoon assemblies, evening assemblies, and consultations. In this embodiment, it is assumed that these events are held online using Web services. Based on this assumption, a "specific event held online" in this embodiment is treated as an example of "online communication." The communication includes image information (image data) and audio information (audio data). Note that the image information represents at least one of information related to nods and information related to smiles contained in the images of each of the multiple participants in the specific event. Furthermore, the audio information represents information related to the speech of each of the multiple participants in the specific event.
また、本実施形態においてユーザとは、通信端末3を用いてオンラインイベントに参加する各参加者、又は、各参加者を管理する管理者(リーダー等)をいう。以降、本実施形態ではこれらをまとめて、便宜上「ユーザ」と呼ぶこともある。 In addition, in this embodiment, a user refers to each participant who participates in an online event using a communication terminal 3, or an administrator (leader, etc.) who manages each participant. Hereinafter, in this embodiment, these are sometimes collectively referred to as "users" for convenience.
<頷き検出>
まず、本実施形態において、所定のオンラインイベントに参加した参加者の「頷き」を検出する方法について説明する。図2は、畳み込みニューラルネットワークの一例を示す概念図であり、(a)はLate fusionでの頷き検出の一例を示し、(b)はEarly fusionでの頷き検出の一例を示す。なお、図2に示した頷き検出に関する機械学習モデルの概念図は、下記参考文献1に示されたものを一部簡略化して示したものである。また、図2では、発話区間を除いた機械学習モデルを用いることも可能である。
<Nodding detection>
First, in this embodiment, a method for detecting "nodding" of participants who have participated in a specific online event will be described. FIG. 2 is a conceptual diagram showing an example of a convolutional neural network, in which (a) shows an example of nodding detection in late fusion, and (b) shows an example of nodding detection in early fusion. Note that the conceptual diagram of the machine learning model for nodding detection shown in FIG. 2 is a partially simplified version of that shown in Reference 1 below. In addition, in FIG. 2, it is also possible to use a machine learning model that excludes speech sections.
参考文献1:Analyzing Multifunctionality of Head Movements in Face-to-Face Conversations Using Deep Convolutional Neural Networks
KAZUHIRO OTSUKA 1, (Member, IEEE), AND MASAHIRO TSUMORI2
畳み込みニューラルネットワーク(CNN:Convolutional neural network)モデルの構造として、図2(a)は後期融合モデル、図2(b)は初期融合モデルを示している。どちらのモデルも、畳み込み層(conv1)とプーリング層(pool1)、2番目の畳み込み層(conv2)とプーリング層(pool2)、3番目の畳み込み層(conv3)、全結合層(fc4)、及び最終全結合層(fc5)で構成されている。なお、詳細については、上述の参考文献1を参照するものとして、説明を省略する。
Reference 1: Analyzing Multifunctionality of Head Movements in Face-to-Face Conversations Using Deep Convolutional Neural Networks
KAZUHIRO OTSUKA 1, (Member, IEEE), AND MASAHIRO TSUMORI2
As the structure of a convolutional neural network (CNN) model, FIG. 2(a) shows a late fusion model, and FIG. 2(b) shows an early fusion model. Both models are composed of a convolutional layer (conv1) and a pooling layer (pool1), a second convolutional layer (conv2) and a pooling layer (pool2), a third convolutional layer (conv3), a fully connected layer (fc4), and a final fully connected layer (fc5). For details, please refer to Reference 1 mentioned above, and the explanation will be omitted.
本実施形態では、頷き検出の流れとして、例えば、以下の手順を提示する。
・ステップ1:データ収集
データ収集では、動画全体に対しての頷きを示すプレト動画データと、所定のオンラインイベントで録画された動画データと、を収集する。
・ステップ2:アノテーション
アノテーションでは、ステップ1に対して頷きをアノテーションし、教師データを作成(生成)する。
・ステップ3:データセットの特徴量検出
データセットの特徴量検出では、既存のライブラリ(例えばMediaPipeライブラリ。)により顔のキーポイントを取得する。その後、取得したキーポイントから頭部運動を算出する。
In this embodiment, the following procedure, for example, is presented as a flow of nodding detection.
Step 1: Data Collection Data collection involves collecting pre-recorded video data showing nodding throughout the video, and video data recorded at a given online event.
Step 2: Annotation In annotation, a nod is annotated for step 1, and training data is created (generated).
Step 3: Detecting features of the dataset In detecting features of the dataset, face keypoints are acquired using an existing library (e.g., the MediaPipe library). Then, head movement is calculated from the acquired keypoints.
ステップ4:モデル作成(生成)
モデル作成(生成)では、既存の論文情報(上記参考文献1)からモデルを構築する。
Step 4: Model creation (generation)
In model creation (generation), a model is constructed from existing paper information (Reference 1 above).
なお、頷き検出に関しては、下記参考文献2における情報を利用してもよい。 For nodding detection, you may use the information in Reference 2 below.
参考文献2:Nodding detection system based on head motion and voice rhythm
Shunsuke OTA*,Seiko TAKI**,Mitsuru JINDAI*** and Toshiyuki YASUDA***
ステップ5:モデル評価
モデル評価では、構築したモデルの評価を実施する。
Reference 2: Nodding detection system based on head motion and voice rhythm
Shunsuke OTA*, Seiko TAKI**, Mitsuru JINDAI*** and Toshiyuki YASUDA***
Step 5: Model evaluation In model evaluation, the constructed model is evaluated.
以上のステップ1-5を一例として、オンラインイベントにて取得された画像データから、参加者の「頷き」を検出することが可能である。 Using steps 1-5 above as an example, it is possible to detect participants' "nodding" from image data captured at an online event.
<笑顔検出>
次に、所定のオンラインイベントに参加した参加者の「笑顔」を検出する方法について説明する。図3は、笑顔検出の一例を示す概念図である。本実施形態では、図3を用いた笑顔検出にあたっては、参加者のマスク着用の有無に応じたそれぞれの処理を行なうことを前提とする。この前提をもとに、図3において四角で囲んだRAN(Region Attention Networks)について説明する。なお、図3に示した他の処理については説明を省略する。
<Smile detection>
Next, a method for detecting the "smiles" of participants who have participated in a specific online event will be described. FIG. 3 is a conceptual diagram showing an example of smile detection. In this embodiment, smile detection using FIG. 3 is premised on performing different processes depending on whether or not the participant is wearing a mask. Based on this premise, RAN (Region Attention Networks) enclosed in a square in FIG. 3 will be described. Note that a description of the other processes shown in FIG. 3 will be omitted.
RANでは、入力画像の一部を切り出したクロップ画像を数種類生成し、生成されたクロップ画像それぞれをニューラルネットワークに入力し、それぞれの"重要度"を加味したうえで、最終的な評価(笑顔かどうか)を出力する。なお、各クロップ画像の”重要度”も同時にニューラルネットワークで算出される。このような構成にすることで、顔画像のうち表情認識に重要な部分のみに着目して推論することができ、顔の一部が隠れている場合においてもロバストに推論可能となる。 In RAN, several types of cropped images are generated by cutting out parts of the input image, and each of the cropped images is input into a neural network, which then takes into account the "importance" of each and outputs a final evaluation (whether the face is smiling or not). The "importance" of each cropped image is also calculated at the same time by the neural network. This configuration allows inference to be made by focusing on only the parts of the facial image that are important for facial expression recognition, making inference robust even when parts of the face are hidden.
<<マスク着用判定>>
ここで、マスク着用判定について説明する。マスク着用判定は、人の顔画像を入力として、顔画像として撮影された人の顔にマスクが着用されているかどうかを示す2値の情報を出力するマスク着用判定モデルにより行われる。マスク着用判定モデルは、畳み込みニューラルネットワーク(CNN)などの公知の機械学習アルゴリズムを用いて、人の顔画像と、顔画像に撮影された人の顔にマスクが着用されているかどうかを示す2値の情報と、から成るペアで構成される訓練データを用いた教師あり機械学習により生成される。
<<Mask wearing judgment>>
Here, the mask wearing judgment will be described. The mask wearing judgment is performed by a mask wearing judgment model that inputs a person's face image and outputs binary information indicating whether or not a mask is worn on the person's face captured as a face image. The mask wearing judgment model is generated by supervised machine learning using a known machine learning algorithm such as a convolutional neural network (CNN) using training data consisting of pairs of a person's face image and binary information indicating whether or not a mask is worn on the person's face captured in the face image.
<<マスク着用時/マスク非着用時の笑顔検出>>
続いてマスク着用時/マスク非着用時の笑顔検出について説明する。笑顔検出は、人の顔画像を入力として、顔画像に撮影された人の顔が笑顔であるかどうかを示す2値の情報を出力する笑顔検出モデルにより行われる。ただし、入力画像がマスクを着用した人の顔画像である場合は、マスク着用時笑顔検出モデルにより笑顔検出を行い、入力画像がマスクを着用していない人の顔画像である場合は、マスク非着用時笑顔検出モデルにより笑顔検出を行う。マスク着用時笑顔検出モデル、及び、マスク非着用時笑顔検出モデルは、ともに、RANを用いて、人の顔画像と、顔画像に撮影された人の顔が笑顔であるかどうかを示す2値の情報と、から成るペアで構成される訓練データを用いた教師あり機械学習により生成される。但し、マスク着用時笑顔検出モデルの生成に用いる訓練データは、マスクを着用した人の顔画像のみを用いて構成されるものであり、マスク非着用時笑顔検出モデルの生成に用いる訓練データは、マスクを着用していない人の顔画像のみを用いて構成されるものである。
<<Smile detection when wearing a mask/not wearing a mask>>
Next, the detection of smiles when wearing/not wearing a mask will be described. Smile detection is performed by a smile detection model that inputs a person's face image and outputs binary information indicating whether the face of the person photographed in the face image is smiling. However, if the input image is a face image of a person wearing a mask, smile detection is performed by the smile detection model when wearing a mask, and if the input image is a face image of a person not wearing a mask, smile detection is performed by the smile detection model when not wearing a mask. Both the smile detection model when wearing a mask and the smile detection model when not wearing a mask are generated by supervised machine learning using RAN and training data consisting of pairs of a person's face image and binary information indicating whether the face of the person photographed in the face image is smiling. However, the training data used to generate the smile detection model when wearing a mask is composed only of face images of people wearing masks, and the training data used to generate the smile detection model when not wearing a mask is composed only of face images of people not wearing masks.
〔実施形態における評価指標の考え方〕
ここで、本実施形態における評価指標の考え方について説明する。ここでは、評価指標として、オンラインイベントに参加している参加者個人の元気度を示す「個人元気度」、複数の参加者から構成されるグループ(チーム)としての集団の活性度を示す「集団活性度」、をそれぞれ定義する。
[Concept of evaluation index in embodiment]
Here, the concept of the evaluation index in this embodiment will be explained. Here, as the evaluation index, "individual vitality level" indicating the vitality level of an individual participant participating in an online event and "group activity level" indicating the activity level of a group (team) consisting of multiple participants are defined.
<個人元気度の算出>
まず、本実施形態において実行される「個人元気度」の算出について、その概要を説明する。
<Calculation of individual vitality level>
First, an overview of the calculation of the "individual vitality level" executed in this embodiment will be described.
オンラインイベントに参加している各参加者の元気度(以下、「個人元気度」と呼ぶ)は、画像データのみを用いて算出される。具体的には、「頷き」及び「笑顔」の時間が検出される。個人元気度を算出するためには、参加者が朝礼等のオンラインイベント(以下、単に「オンラインイベント」という)中に行動として現れやすい指標を用いる必要がある。特に、「頷き」と「笑顔」は、オンラインイベント中の参加者の行動の変化として現れやすい。そのため、個人元気度を算出するために「頷き」と「笑顔」とを用いる。 The vitality level of each participant taking part in an online event (hereafter referred to as "individual vitality level") is calculated using only image data. Specifically, the time of "nodding" and "smiling" is detected. In order to calculate individual vitality level, it is necessary to use indicators that are likely to appear as behavior during online events such as morning meetings (hereafter referred to simply as "online events"). In particular, "nodding" and "smiling" are likely to appear as changes in participants' behavior during online events. Therefore, "nodding" and "smiling" are used to calculate individual vitality level.
個人元気度を絶対値で評価してしまうと、参加者のパーソナリティによって差が激しくなってしまい、各個人の個人元気度を算出することが困難となる。そのため、少なくとも過去数回分(例えば、過去3回分)のデータを用いることによって、その課題をクリアするようにしてもよい。 If individual vitality levels were evaluated as absolute values, there would be large differences depending on the participants' personalities, making it difficult to calculate each individual's vitality level. Therefore, this problem can be overcome by using data from at least the past few sessions (for example, the past three sessions).
<グループ(チーム)における集団活性度の算出>
次に、本実施形態において実行される「集団活性度」の算出について、その概要を説明する。
<Calculation of group activity level in a group (team)>
Next, an overview of the calculation of the "group activity level" executed in this embodiment will be described.
オンラインイベントが行われている際、グループ(チーム)の活性度(以下、「集団活性度」と呼ぶ)は、各参加者の画像データと音声データとを用いて算出される。具体的には、画像データを用いて各参加者の「頷き」及び「笑顔」の時間が検出される。また、音声データを用いて各参加者の発話比率(誰がどのくらいの割合で発話していたか)、発話者の割合(発話したのは誰か)、感謝のことばの数がそれぞれ検出される。 When an online event is taking place, the activity level of a group (team) (hereafter referred to as "group activity level") is calculated using image data and voice data of each participant. Specifically, the time each participant "nodded" and "smiled" is detected using image data. In addition, the speech ratio of each participant (who spoke and at what rate), the speaker ratio (who spoke), and the number of words of thanks are detected using voice data.
本実施形態では、「頷き」、「笑顔」、「発話比率」、「発話者割合」、「感謝」をそれぞれ点数化し、その合計した点数をグループ(チーム)の集団活性度(点数)として表示する。後述するように「頷き」、「笑顔」、「発話比率」、「発話者割合」、「感謝」は、例えば、それぞれ20点満点で評価をしているが、これらの点数の比率は変えてもよい。また、グループ(チーム)の集団活性度を点数ではなく、記号やマークなどで表示してもよい。 In this embodiment, "nodding," "smiles," "speech ratio," "speaker ratio," and "thanks" are each scored, and the sum of these scores is displayed as the group (team) collective activity level (score). As described below, "nodding," "smiles," "speech ratio," "speaker ratio," and "thanks" are each scored on a maximum of 20 points, for example, but the ratio of these scores may be changed. Furthermore, the group (team) collective activity level may be displayed using symbols or marks instead of scores.
また、グループ(チーム)の集団活性度を向上させるには、心理的安全性を確保する必要がある。心理的安全性を向上するためには、「頷き」と「笑顔」が大切な指標となる。オンラインイベントを含め、所定のイベントが行われている場(空間)において、「頷き」を多くすることで参加者の共感を生み出し、相手に安心感を与えることができる。また、一人の笑顔が増えることで周囲の人にも伝搬させることができるため、良い雰囲気のグループ(チーム)づくりには「笑顔」が重要な指標となる。また、動画像から検出しやすい特性でもあるという理由から、本実施形態では、「頷き」と「笑顔」とを採用した。 In addition, to improve the collective activity level of a group (team), it is necessary to ensure psychological safety. In order to improve psychological safety, "nodding" and "smiles" are important indicators. In a place (space) where a specific event, including online events, increasing "nodding" can create empathy among participants and give the other person a sense of security. In addition, since increasing the number of smiles from one person can spread to those around them, "smiles" are important indicators for creating a good atmosphere in a group (team). In addition, "nodding" and "smiles" are adopted in this embodiment because they are characteristics that are easy to detect from moving images.
更に、心理的安全性の確保には「感謝」も重要な指標となる。感謝のない組織では「当然の権利」や「当たり前」が横行してしまう危険性がある。そのため、「感謝」を言語化することで、グループ(チーム)の心理的安全性、連帯感などが生まれる。 Furthermore, gratitude is also an important indicator for ensuring psychological safety. In an organization without gratitude, there is a danger that "natural rights" and "taking things for granted" will become prevalent. Therefore, verbalizing gratitude creates psychological safety and a sense of solidarity within a group (team).
また、オンラインによる朝礼という短い会議であったとしても、コミュニケーションの向上を図るのであれば、特定の人物のみが発話している状態は好ましくない。そのため、特定の人物(リーダー等のファシリテータ)以外の参加者がどの程度発話しているのか、その比率を計測、可視化して提供することで、リーダーに他の参加者へ話を振る回数を増やすことも期待できる。但し、特定のメンバーのみが発話している状態も好ましくはないため、本実施形態では、誰が発話していたのか、という発話者を可視化することで、均等に他の参加者へ話題を振ることも可能にする。 Furthermore, even in a short online morning meeting, if you want to improve communication, it is not desirable for only certain people to be speaking. Therefore, by measuring and visualizing the ratio of how much participants other than a certain person (a facilitator such as a leader) are speaking, it is expected that the leader will be able to pass the talk to other participants more often. However, since it is also not desirable for only certain members to be speaking, in this embodiment, by visualizing who is speaking, it is possible to pass the talk to other participants equally.
本実施形態における情報解析システムは、以上の評価指標を定義し、オンラインで開催される所定のイベントに参加した各参加者の「個人元気度」及び「集団活性度」を算出し、その結果をレポートとして提供する。これにより、オンラインを利用したイベント、すなわち各参加者の表情等を直接把握することができない環境においても、発話のみならず表情に基づく参加者の状態を把握し、発話と表情から得られる情報を活かすことを可能にする。 The information analysis system in this embodiment defines the above evaluation indexes, calculates the "individual vitality" and "group activity" of each participant who takes part in a specific event held online, and provides the results as a report. This makes it possible to understand the state of participants based on not only their speech but also their facial expressions, even in online events, i.e. environments where it is not possible to directly grasp the facial expressions of each participant, and to make use of the information obtained from their speech and facial expressions.
〔ハードウエア構成〕
続いて、図4及び図5を用いて、実施形態に係る情報解析システムを構成する通信端末又は装置のハードウエア構成について説明する。なお、図4及び図5に示されている通信端末又は装置のハードウエア構成は、必要に応じて構成要素が追加又は削除されてもよい。
[Hardware configuration]
Next, the hardware configuration of the communication terminal or device constituting the information analysis system according to the embodiment will be described with reference to Figures 4 and 5. Note that components may be added or deleted from the hardware configuration of the communication terminal or device shown in Figures 4 and 5 as necessary.
<通信端末のハードウエア構成>
図4は通信端末のハードウエア構成の一例を示す図である。図4に示されているように、通信端末3は、例えばコンピュータによって構築されており、CPU301、ROM302、RAM303、EEPROM304、ディスプレイ307、近距離通信I/F308、CMOSセンサ309、撮像素子I/F310を備えている。通信端末3は更に、ネットワークI/F311、タッチパネル312、ポインティングデバイス313、メディアI/F315、外部機器接続I/F316、音入出力I/F317、マイク318、スピーカ319及びバスライン320を備えている。但し、Webカメラ等の画像取得部としての機能を構成するCMOSセンサ309及び撮像素子I/F310、並びに、音声マイク等の音声取得部としての機能を構成する音入出力I/F317及びマイク318は、それぞれ通信端末3に取外し可能に外付けされる構成であってもよい。
<Hardware configuration of communication terminal>
Fig. 4 is a diagram showing an example of the hardware configuration of a communication terminal. As shown in Fig. 4, the communication terminal 3 is constructed by, for example, a computer, and includes a CPU 301, a ROM 302, a RAM 303, an EEPROM 304, a display 307, a short-range communication I/F 308, a CMOS sensor 309, and an image sensor I/F 310. The communication terminal 3 further includes a network I/F 311, a touch panel 312, a pointing device 313, a media I/F 315, an external device connection I/F 316, a sound input/output I/F 317, a microphone 318, a speaker 319, and a bus line 320. However, the CMOS sensor 309 and the image sensor I/F 310 that constitute the function as an image acquisition unit such as a Web camera, and the sound input/output I/F 317 and the microphone 318 that constitute the function as a sound acquisition unit such as a sound microphone may each be configured to be detachably attached to the communication terminal 3.
これらのうち、CPU301は、通信端末3全体の動作を制御する。ROM302は、CPU301の駆動に用いられるプログラム等を記憶する。RAM303は、CPU301のワークエリアとして使用される。EEPROM304は、CPU301の制御にしたがって、アプリ等の各種データの読出し又は書込みを行う。ディスプレイ307は、カーソル、メニュー、ウィンドウ、文字又は画像などの各種情報を表示する。本実施形態において、ディスプレイ307は、表示手段の一例として機能する。近距離通信I/F308は、NFC(Near Field Communication)、Bluetooth(登録商標。以下省略)、Wi-Fi(登録商標。以下省略)等の無線通信インターフェイスを備える通信装置又は通信端末等とデータ通信を行うための通信回路である。CMOSセンサ309は、CPU301の制御にしたがって被写体を撮像して画像データ又は動画データを得る内蔵型の撮像手段の一種である。なお、撮像手段は、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等で構成される撮像手段であってもよい。撮像素子I/F310は、CMOSセンサ309の駆動を制御する回路である。 Of these, the CPU 301 controls the operation of the entire communication terminal 3. The ROM 302 stores programs and the like used to drive the CPU 301. The RAM 303 is used as a work area for the CPU 301. The EEPROM 304 reads or writes various data such as apps under the control of the CPU 301. The display 307 displays various information such as a cursor, menu, window, text, or image. In this embodiment, the display 307 functions as an example of a display means. The short-range communication I/F 308 is a communication circuit for performing data communication with a communication device or communication terminal having a wireless communication interface such as NFC (Near Field Communication), Bluetooth (registered trademark, omitted below), or Wi-Fi (registered trademark, omitted below). The CMOS sensor 309 is a type of built-in imaging means that captures an image of a subject under the control of the CPU 301 to obtain image data or video data. The imaging means may be an imaging means configured with a CCD (Charge Coupled Device) sensor or the like instead of a CMOS sensor. The image sensor I/F 310 is a circuit that controls the driving of the CMOS sensor 309.
ネットワークI/F311は、通信ネットワーク100を利用してデータ通信をするためのインターフェイスである。タッチパネル412は、ユーザがディスプレイ307上に配置された所定のボタン、アイコン等に対して押下、クリック又はタップ等の操作をすることで、通信端末3を操作するための入力手段の一種である。ポインティングデバイス313は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。なお、通信端末3は、ポインティングデバイス313に代えて又は加えて、タッチパネル及びキーボードのうち少なくとも一方による入力手段を有するものであってもよい。メディアI/F315は、フラッシュメモリ等の記録メディア314に対するデータの読出し又は書込み(記憶)を制御する。外部機器接続I/F416は、各種の外部機器を接続するためのインターフェイスである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ等である。音入出力I/F317は、CPU301の制御にしたがってマイク318及びスピーカ319との間で音信号の入出力を処理する回路である。マイク318は、音を電気信号に変える内蔵型の回路であり、外部のスピーカ等から発する音声や音波を取得し電気信号を用いた情報を取得する。スピーカ319は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。バスライン320は、CPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The network I/F 311 is an interface for data communication using the communication network 100. The touch panel 412 is a type of input means for operating the communication terminal 3 by the user pressing, clicking, tapping, etc. on a predetermined button, icon, etc. arranged on the display 307. The pointing device 313 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, etc. Note that the communication terminal 3 may have an input means of at least one of a touch panel and a keyboard instead of or in addition to the pointing device 313. The media I/F 315 controls the reading or writing (storing) of data from the recording medium 314 such as a flash memory. The external device connection I/F 416 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, etc. The sound input/output I/F 317 is a circuit that processes the input and output of sound signals between the microphone 318 and the speaker 319 according to the control of the CPU 301. The microphone 318 is a built-in circuit that converts sound into an electrical signal, and obtains information using the electrical signal by acquiring voice or sound waves emitted from an external speaker or the like. The speaker 319 is a built-in circuit that converts electrical signals into physical vibrations to produce sounds such as music or voice. The bus line 320 is an address bus, data bus, or the like for electrically connecting each component such as the CPU 301.
<情報解析装置のハードウエア構成>
図5は、情報解析装置のハードウエア構成の一例を示す図である。図5に示されているように、情報解析装置5は、例えばコンピュータによって構築されており、CPU501、ROM502、RAM503、EEPROM504、HD(Hard Disk)505、HDD(Hard Disk Drive)コントローラ506、ネットワークI/F511、メディアI/F515、外部機器接続I/F516及びバスライン520を備えている。これらのハードウエア資源は、通信端末3のCPU301、ROM302、RAM303、EEPROM304、ネットワークI/F311、メディアI/F315及び外部機器接続I/F316及びバスライン320の各ハードウエア資源と同様であるため、説明を省略する。
<Hardware configuration of information analysis device>
Fig. 5 is a diagram showing an example of the hardware configuration of the information analysis device. As shown in Fig. 5, the information analysis device 5 is constructed by, for example, a computer, and includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a HD (Hard Disk) 505, a HDD (Hard Disk Drive) controller 506, a network I/F 511, a media I/F 515, an external device connection I/F 516, and a bus line 520. These hardware resources are similar to the hardware resources of the CPU 301, ROM 302, RAM 303, EEPROM 304, network I/F 311, media I/F 315, external device connection I/F 316, and bus line 320 of the communication terminal 3, and therefore description thereof will be omitted.
ここで、HD505は、プログラム等の各種データを記憶する。HDDコントローラ506は、CPU501の制御にしたがってHD505に対する各種データの読出し又は書込みを制御する。ここで、情報解析装置5は、HD505及びHDDコントローラ506に代えて、SSD(Solid State Drive)を搭載したハードウエア構成であってもよい。 Here, the HD 505 stores various data such as programs. The HDD controller 506 controls the reading and writing of various data from and to the HD 505 under the control of the CPU 501. Here, the information analysis device 5 may have a hardware configuration equipped with an SSD (Solid State Drive) instead of the HD 505 and the HDD controller 506.
なお、上記プログラムは、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読取り可能な記録媒体に記録、又はネットワークを介してダウンロードを行い流通させるようにしてもよい。記録媒体の例として、CD-R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、Blu-ray Disc(Blu-rayは登録商標。以下省略)、SDカード、USBメモリ等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内又は国外へ提供されることができる。例えば、情報解析装置5は、本発明に係るプログラムが実行されることで、本発明に係る情報解析方法を実現する。 The above program may be recorded in a computer-readable recording medium as an installable or executable file, or may be distributed by downloading via a network. Examples of recording media include CD-Rs (Compact Disc Recordable), DVDs (Digital Versatile Disks), Blu-ray Discs (Blu-ray is a registered trademark; omitted below), SD cards, and USB memories. The recording media may be provided domestically or internationally as a program product. For example, the information analysis device 5 realizes the information analysis method according to the present invention by executing the program according to the present invention.
〔情報解析システムの機能構成〕
次に、図6乃至図10を用いて、本実施形態の機能構成について説明する。図6は、情報解析システムの機能構成の一例を示す図である。なお、図6は、図1に示されている通信端末3又は情報解析装置5のうち、後述する処理又は動作に関連するものを示す。
[Functional configuration of the information analysis system]
Next, the functional configuration of the present embodiment will be described with reference to Fig. 6 to Fig. 10. Fig. 6 is a diagram showing an example of the functional configuration of the information analysis system. Fig. 6 shows the communication terminal 3 or the information analysis device 5 shown in Fig. 1 that is related to the processing or operation described later.
<通信端末の機能構成>
次に、通信端末3の機能構成について説明する。図6に示されているように、通信端末3は、送受信部31、操作受付部32、取得部33、表示制御部34、起動部36、登録部38及び記憶読出部39を有する。これら各機能部は、図4に示された各ハードウエア資源のいずれかが、ROM302、EEPROM304及び記録メディア314のうち少なくとも一つからRAM303に展開された通信端末3用のプログラムに従ったCPU301からの命令により動作することで実現される機能又は手段である。また、通信端末3は、図4に示されているROM302、EEPROM304及び記録メディア314のうち少なくとも一つにより構築される記憶部3000を有している。更に、記憶部3000には、各装置、各端末と通信ネットワーク100を介して通信を行うための通信プログラム(通信アプリ)、ブラウザアプリ、オンライン会議、オンライン朝礼等を行うためのビデオ会議アプリ等がインストールされ記憶されている。
<Functional configuration of communication terminal>
Next, the functional configuration of the communication terminal 3 will be described. As shown in Fig. 6, the communication terminal 3 has a transmission/reception unit 31, an operation reception unit 32, an acquisition unit 33, a display control unit 34, a startup unit 36, a registration unit 38, and a memory/readout unit 39. Each of these functional units is a function or means realized by operating any of the hardware resources shown in Fig. 4 by an instruction from the CPU 301 according to a program for the communication terminal 3 expanded from at least one of the ROM 302, the EEPROM 304, and the recording medium 314 to the RAM 303. The communication terminal 3 also has a storage unit 3000 constructed by at least one of the ROM 302, the EEPROM 304, and the recording medium 314 shown in Fig. 4. Furthermore, the storage unit 3000 has installed therein a communication program (communication application) for communicating with each device and each terminal via the communication network 100, a browser application, a video conference application for holding an online conference, an online morning meeting, and the like, and the like.
<<通信端末の各機能構成>>
次に、通信端末3の各機能構成について詳細に説明する。図6に示されている通信端末3の送受信部31は、主に、ネットワークI/F311及び近距離通信I/F308に対するCPU301の処理によって実現され、通信ネットワーク100を介して情報解析装置5との間で各種データ(又は情報)の送受信を行う。また、送受信部31は、取得した画像情報及び音声情報を情報解析装置に対して送信する。送受信部31は更に、参加者情報通知として、各参加者の顔画像データ、各参加者の電子メールアドレスを含む各種情報を情報解析装置5に対して送信する。本実施形態において送受信部31は、第1の送信手段及び第1の受信手段のうち少なくとも一方の手段の一例として機能する。
<<Functional configuration of communication terminal>>
Next, each functional configuration of the communication terminal 3 will be described in detail. The transmission/reception unit 31 of the communication terminal 3 shown in Fig. 6 is mainly realized by the processing of the CPU 301 on the network I/F 311 and the short-range communication I/F 308, and transmits and receives various data (or information) with the information analyzing device 5 via the communication network 100. The transmission/reception unit 31 also transmits the acquired image information and audio information to the information analyzing device. The transmission/reception unit 31 further transmits various information including face image data of each participant and email address of each participant to the information analyzing device 5 as participant information notification. In this embodiment, the transmission/reception unit 31 functions as an example of at least one of the first transmission means and the first reception means.
操作受付部32は、主に、ディスプレイ307、タッチパネル312及びポインティングデバイス313のうち少なくとも一方が受け付けた各種操作により生成された信号をCPU301が処理することによって実現される。なお、操作受付部32は、ディスプレイ307、タッチパネル312及びポインティングデバイス313に代えて、キーボード等の入力手段が受け付けた各種操作により生成された信号が用いられてもよい。なお、ディスプレイ307とタッチパネル312とは、そのハードウエア資源及び機能を共有するものであってもよい。また、操作受付部32は、オンライン朝礼等のイベントにおいて、各参加者又はリーダーによるオンライン朝礼の開始操作及び終了操作を受け付ける。本実施形態において操作受付部32は、受付手段の一例として機能する。 The operation reception unit 32 is realized mainly by the CPU 301 processing signals generated by various operations received by at least one of the display 307, the touch panel 312, and the pointing device 313. Note that the operation reception unit 32 may use signals generated by various operations received by an input means such as a keyboard instead of the display 307, the touch panel 312, and the pointing device 313. Note that the display 307 and the touch panel 312 may share their hardware resources and functions. Furthermore, the operation reception unit 32 receives operations to start and end an online morning meeting by each participant or leader in an event such as an online morning meeting. In this embodiment, the operation reception unit 32 functions as an example of a reception means.
取得部33は、主に、CPU301の処理によって実現され、送受信部31によって受信された各種情報を取得する。また、取得部33は、オンライン朝礼等における各参加者の顔画像データ及び発話音声データを、それぞれのハードウエア資源を用いて取得する。ここで、顔画像データは画像情報(視覚情報)の一例であり、発話音声データは音声情報の一例である。取得部33は更に、情報解析装置5が送信した所定の内容を含むレポートデータ(状態通知の一例)を、送受信部31を介して取得する。本実施形態において取得部33は、取得手段の一例として機能する。 The acquisition unit 33 is mainly realized by the processing of the CPU 301, and acquires various information received by the transmission/reception unit 31. The acquisition unit 33 also acquires facial image data and speech voice data of each participant in an online morning meeting, etc., using the respective hardware resources. Here, facial image data is an example of image information (visual information), and speech voice data is an example of audio information. The acquisition unit 33 further acquires report data (an example of a status notification) including predetermined content transmitted by the information analysis device 5 via the transmission/reception unit 31. In this embodiment, the acquisition unit 33 functions as an example of an acquisition means.
表示制御部34は、主に、ディスプレイ307に対するCPU301の処理によって実現され、通信端末3における各種画面及び情報(データ)の表示制御を行う。また、表示制御部34は、情報解析装置5が送信した複数の参加者の状態に係るレポートデータを、ディスプレイ307に表示させる。本実施形態において「参加者の状態」とは、参加者の頷きの回数及び笑顔の回数のうち少なくとも一方に基づく複数の参加者の各々の表情検出状態、並びに、複数の参加者の各々の表情検出状態に基づく複数の参加者全体の活性状態を示す。ここで、表情検出状態とは、後述する笑顔の検出状態及び頷きの検出状態を含む。更に、参加者全体の活性状態とは、後述する集団活性度を含む。なお、本実施形態では、表示制御部34に代えて、又は加えて、情報解析装置5の表示制御部54が、レポートデータで示される解析結果画面において、第1の選択肢及び第2の選択肢に対する選択に応じた画面をディスプレイ307(表示手段の一例)に表示させる機能を有していてもよい。また、表示制御部34は、例えば、ブラウザを用いて、HTML等により生成された表示画面を、ディスプレイ307に表示させる。本実施形態において表示制御部34は、表示制御手段の一例として機能する。 The display control unit 34 is mainly realized by the processing of the CPU 301 on the display 307, and controls the display of various screens and information (data) in the communication terminal 3. The display control unit 34 also displays report data related to the status of the multiple participants transmitted by the information analysis device 5 on the display 307. In this embodiment, the "status of the participants" refers to the facial expression detection state of each of the multiple participants based on at least one of the number of nods and the number of smiles of the participants, and the activity state of the multiple participants as a whole based on the facial expression detection state of each of the multiple participants. Here, the facial expression detection state includes the smile detection state and the nod detection state described later. Furthermore, the activity state of the entire participants includes the group activity level described later. In this embodiment, instead of or in addition to the display control unit 34, the display control unit 54 of the information analysis device 5 may have a function of displaying a screen corresponding to the selection of the first option and the second option on the analysis result screen shown in the report data on the display 307 (an example of a display means). The display control unit 34 also displays a display screen generated by HTML or the like on the display 307 using a browser, for example. In this embodiment, the display control unit 34 functions as an example of a display control means.
起動部36は、主に、CPU301の処理によって実現され、通信端末3におけるビデオ会議アプリを含む各種アプリの起動を行う。本実施形態において起動部36は、起動手段の一例として機能する。 The launch unit 36 is mainly realized by the processing of the CPU 301, and launches various applications including a video conferencing application in the communication terminal 3. In this embodiment, the launch unit 36 functions as an example of a launching means.
登録部38は、主に、CPU301の処理によって実現され、通信端末3における各種情報の登録を行う。本実施形態において登録部38は、登録手段の一例として機能する。 The registration unit 38 is mainly realized by the processing of the CPU 301, and registers various information in the communication terminal 3. In this embodiment, the registration unit 38 functions as an example of a registration means.
記憶読出部39は、主に、ROM302、EEPROM304及び記録メディア314のうち少なくとも一つに対するCPU301の処理によって実現され、記憶部3000に各種データ(又は情報)を記憶したり、記憶部3000から各種データ(又は情報)を読み出したりする。本実施形態において記憶読出部39は、記憶読出手段の一例として機能する。 The memory readout unit 39 is realized mainly by the processing of the CPU 301 on at least one of the ROM 302, the EEPROM 304, and the recording medium 314, and stores various data (or information) in the memory unit 3000 and reads various data (or information) from the memory unit 3000. In this embodiment, the memory readout unit 39 functions as an example of a memory readout means.
<情報解析装置の機能構成>
次に、情報解析装置5の機能構成について説明する。図6に示されているように、情報解析装置5は、送受信部51、取得部52、認証部53、表示制御部54、判断部55、解析処理部56、生成部57、登録部58及び記憶読出部59を有する。これら各機能部は、図5に示された各ハードウエア資源のいずれかが、ROM502、EEPROM504、HD505及び記録メディア514のうち少なくとも一つからRAM503に展開された情報解析装置5用のプログラムに従ったCPU501からの命令により動作することで実現される機能又は手段である。また、情報解析装置5は、図5に示されているROM502、EEPROM504、HD505及び記録メディア514のうち少なくとも一つにより構築される記憶部5000を有している。更に、記憶部5000には、通信端末3と通信ネットワーク100を介して通信を行うための通信プログラム(通信アプリ)、ブラウザアプリ等がインストールされ記憶されている。
<Functional configuration of information analysis device>
Next, the functional configuration of the information analyzing device 5 will be described. As shown in Fig. 6, the information analyzing device 5 has a transmission/reception unit 51, an acquisition unit 52, an authentication unit 53, a display control unit 54, a judgment unit 55, an analysis processing unit 56, a generation unit 57, a registration unit 58, and a storage/reading unit 59. Each of these functional units is a function or means realized by operating any of the hardware resources shown in Fig. 5 by an instruction from the CPU 501 according to a program for the information analyzing device 5 expanded from at least one of the ROM 502, the EEPROM 504, the HD 505, and the recording medium 514 to the RAM 503. The information analyzing device 5 also has a storage unit 5000 constructed by at least one of the ROM 502, the EEPROM 504, the HD 505, and the recording medium 514 shown in Fig. 5. Furthermore, a communication program (communication application), a browser application, etc. for communicating with the communication terminal 3 via the communication network 100 are installed and stored in the storage unit 5000.
<<情報解析装置の各機能構成>>
次に、情報解析装置5の各機能構成について詳細に説明する。図6に示されている情報解析装置5の送受信部51は、主に、ネットワークI/F511及び近距離通信I/F508に対するCPU501の処理によって実現され、通信ネットワーク100を介して通信端末3との間で各種データ(又は情報)の送受信を行う。また、送受信部51は、後述する生成部57によって生成された複数の参加者の状態に係るレポートデータ(状態通知の一例)を、通信端末3に対して送信する。本実施形態において送受信部51は、第2の送信手段及び第2の受信手段のうち少なくとも一方の手段の一例として機能する。
<<Functional configuration of information analysis device>>
Next, each functional configuration of the information analyzing device 5 will be described in detail. The transmitting/receiving unit 51 of the information analyzing device 5 shown in Fig. 6 is mainly realized by the processing of the CPU 501 on the network I/F 511 and the short-range communication I/F 508, and transmits and receives various data (or information) with the communication terminal 3 via the communication network 100. In addition, the transmitting/receiving unit 51 transmits report data (an example of a status notification) related to the status of multiple participants generated by the generating unit 57 described later to the communication terminal 3. In this embodiment, the transmitting/receiving unit 51 functions as an example of at least one of the second transmitting means and the second receiving means.
取得部52は、主に、CPU501の処理によって実現され、例えば、通信端末3が送信(投稿)した投稿文書(ファイル)を取得する。また、取得部52は、通信端末3が送信した参加者情報通知として、各参加者の顔画像データ(画像情報)、発話に係る音声データ(音声情報)、各参加者の電子メールアドレスを含む各種情報を、送受信部51を介して取得する。また、取得部52は、複数の参加者のうち特定の参加者が使用する通信端末3が送信した画像情報及び音声情報、又は、複数の参加者のそれぞれが使用する通信端末3が送信した画像情報及び音声情報のいずれかを取得する。なお、画像情報には、参加者の表情画像としての「頷き」及び「笑顔」が含まれる。また、音声情報には、参加者の発話音声としての「発言内容」、「感謝のことば」が含まれる。本実施形態において取得部52は、取得手段の一例として機能する。 The acquisition unit 52 is mainly realized by the processing of the CPU 501, and acquires, for example, a posted document (file) transmitted (posted) by the communication terminal 3. The acquisition unit 52 also acquires various information including facial image data (image information) of each participant, voice data (voice information) related to speech, and email addresses of each participant as participant information notifications transmitted by the communication terminal 3 via the transmission/reception unit 51. The acquisition unit 52 also acquires either image information and voice information transmitted by a communication terminal 3 used by a specific participant among the multiple participants, or image information and voice information transmitted by a communication terminal 3 used by each of the multiple participants. The image information includes "nodding" and "smile" as facial expression images of the participants. The voice information includes "statement content" and "words of gratitude" as the participant's voice. In this embodiment, the acquisition unit 52 functions as an example of an acquisition means.
認証部53は、主に、CPU501の処理によって実現され、通信端末3が送信した各参加者(メンバー)の顔画像データ、電子メールアドレスに基づいて認証処理を実行する。また、認証部53は、オンラインによるイベントが実行される際の各参加者のパスワード管理、ユーザ管理を行う。本実施形態において認証部53は、認証手段の一例、処理手段の一例として機能する。 The authentication unit 53 is mainly realized by the processing of the CPU 501, and performs authentication processing based on the facial image data and email address of each participant (member) transmitted by the communication terminal 3. The authentication unit 53 also performs password management and user management for each participant when an online event is held. In this embodiment, the authentication unit 53 functions as an example of an authentication means and an example of a processing means.
表示制御部54は、主に、通信端末3のディスプレイ307に対するCPU501の処理によって実現され、通信端末3に対する各種画面及び情報(データ)の表示制御を行う。また、表示制御部54は、例えば、ブラウザを用いて、HTML等により生成された表示画面を、通信端末3のディスプレイ307に表示させる。本実施形態において表示制御部54は、表示制御手段の一例として機能する。 The display control unit 54 is mainly realized by the processing of the CPU 501 on the display 307 of the communication terminal 3, and controls the display of various screens and information (data) on the communication terminal 3. The display control unit 54 also uses, for example, a browser to display a display screen generated by HTML or the like on the display 307 of the communication terminal 3. In this embodiment, the display control unit 54 functions as an example of a display control means.
判断部55は、主にCPU501の処理によって実現され、情報解析装置5全体における各種判断処理を行う。本実施形態において判断部55は、判断手段の一例として機能する。 The judgment unit 55 is mainly realized by the processing of the CPU 501, and performs various judgment processes in the entire information analysis device 5. In this embodiment, the judgment unit 55 functions as an example of a judgment means.
解析処理部56は、主に、CPU501の処理によって実現され、情報解析装置5において機械学習モデルを用いた一連の情報解析を行う。また、解析処理部56は、通信端末3が送信した画像情報及び音声に基づいて、複数の参加者の状態を解析する。また、解析処理部56は、複数の参加者の各々の、頷きに係る情報及び笑顔に係る情報のうち少なくとも一方、並びに、発話に係る情報、に基づいて複数の参加者の状態を解析する。解析処理部56は更に、頷きに係る情報及び笑顔に係る情報のうち少なくとも一方に対して機械学習モデルを用いた解析を行うことにより、複数の参加者の状態を解析する。解析処理部56は更に、複数の参加者のうち特定の参加者が使用する通信端末3が送信した画像情報及び音声情報、又は、複数の参加者のそれぞれが使用する通信端末3が送信した画像情報及び音声情報のいずれかに基づいて、複数の参加者の状態を解析する。本実施形態において解析処理部56は、解析処理手段の一例として機能する。なお、解析処理部56は、上述したAWSが用いられてもよい。 The analysis processing unit 56 is mainly realized by the processing of the CPU 501, and performs a series of information analyses using a machine learning model in the information analysis device 5. The analysis processing unit 56 also analyzes the states of the multiple participants based on the image information and voice transmitted by the communication terminal 3. The analysis processing unit 56 also analyzes the states of the multiple participants based on at least one of the information related to nods and the information related to smiles, and the information related to speech, for each of the multiple participants. The analysis processing unit 56 further analyzes the states of the multiple participants by performing an analysis using a machine learning model on at least one of the information related to nods and the information related to smiles. The analysis processing unit 56 further analyzes the states of the multiple participants based on either the image information and voice information transmitted by the communication terminal 3 used by a specific participant among the multiple participants, or the image information and voice information transmitted by the communication terminal 3 used by each of the multiple participants. In this embodiment, the analysis processing unit 56 functions as an example of an analysis processing means. Note that the analysis processing unit 56 may use the above-mentioned AWS.
生成部57は、主に、CPU501の処理によって実現され、情報解析装置5における各種情報(データ)を生成する。また、生成部57は、解析した複数の参加者の状態に基づいて、通信端末3で表示可能な状態通知としてのレポートデータ(状態通知の一例)を生成する。また、生成部57は、複数の参加者の各々の表情検出状態と活性状態とに基づいて、状態通知を生成する。また、生成部57は、状態通知として、複数の参加者の各々の表情検出状態と活性状態とをそれぞれ視覚的に表現した結果としての図表(グラフ形式、表形式等)、及び、複数の参加者のうちの特定の参加者への結果に対するコメントを生成する。本実施形態において生成部57は、生成手段の一例として機能する。 The generating unit 57 is mainly realized by the processing of the CPU 501, and generates various information (data) in the information analyzing device 5. The generating unit 57 also generates report data (an example of a status notification) as a status notification that can be displayed on the communication terminal 3, based on the analyzed statuses of the multiple participants. The generating unit 57 also generates a status notification based on the facial expression detection status and activity status of each of the multiple participants. The generating unit 57 also generates, as the status notification, a chart (in graph form, table form, etc.) as a result of visually expressing the facial expression detection status and activity status of each of the multiple participants, and a comment on the results for a specific participant among the multiple participants. In this embodiment, the generating unit 57 functions as an example of a generating means.
登録部58は、主に、CPU501の処理によって実現され、情報解析装置5で管理される各種データテーブルにおける情報の登録を行う。また、登録部58は、所定のイベントに対する参加者通知情報として、所定のイベントが実行される前に、所定のイベントに参加する複数の参加者の画像情報及び各参加者の電子メールアドレスを、ユーザの情報を管理する後述のユーザ情報管理DB(ユーザ情報管理手段の一例)に予め登録する。また、登録部58は、所定のイベントが実行される前に予め登録、認証され、所定のイベントに参加した複数の参加者のユーザID(電子メールアドレス)及び各参加者の画像情報を登録する。本実施形態において登録部58は、登録手段の一例として機能する。 The registration unit 58 is mainly realized by the processing of the CPU 501, and registers information in various data tables managed by the information analysis device 5. In addition, the registration unit 58 registers image information of multiple participants participating in a specified event and the email addresses of each participant in a user information management DB (an example of a user information management means) described below that manages user information as participant notification information for the specified event before the specified event is executed. In addition, the registration unit 58 registers user IDs (email addresses) of multiple participants who are registered and authenticated in advance and participate in the specified event, and image information of each participant before the specified event is executed. In this embodiment, the registration unit 58 functions as an example of a registration means.
記憶読出部59は、主に、ROM502、EEPROM504、HD505及び記録メディア514のうち少なくとも一つに対するCPU501の処理によって実現され、記憶部5000に各種データ(又は情報)を記憶したり、記憶部5000から各種データ(又は情報)を読み出したりする。本実施形態において記憶読出部59は、記憶読出手段の一例として機能する。 The memory/read unit 59 is mainly realized by the processing of the CPU 501 on at least one of the ROM 502, the EEPROM 504, the HD 505, and the recording medium 514, and stores various data (or information) in the memory unit 5000 and reads various data (or information) from the memory unit 5000. In this embodiment, the memory/read unit 59 functions as an example of a memory/read means.
●ユーザ情報管理テーブル●
図7は、ユーザ情報管理テーブルの一例を示す概念図である。なお、以下に説明するデータテーブルの構造は一例であり、これに限るものではない。記憶部5000には、図7に示されているようなユーザ情報管理テーブルによって構成されたユーザ情報管理DB5001が構築されている。ユーザ情報管理テーブルでは、ユーザID(電子メールアドレス)ごとに、グループ(チーム)名、リーダーフラグ及びユーザ名が関連付けられて記憶、管理されている。これらのうち、ユーザIDは、オンライン朝礼等の所定のイベントに参加する参加者(特定の参加者の一例であるリーダーを含む)の識別情報であり、例えば、電子メールアドレスである。グループ(チーム)名は、参加者が所属するグループ又はチームの名称である。リーダーフラグは、各ユーザがあるグループ又はチームのリーダーであるか否かを示すフラグであり、「True」であればリーダーであることを示す。ユーザ名は、ユーザIDに対応付けられたユーザの名前である。なお本実施形態では、以降「ID」と記載した場合、「識別情報」としての意味を含めるものとする。
●User information management table●
FIG. 7 is a conceptual diagram showing an example of a user information management table. The structure of the data table described below is an example, and is not limited to this. In the storage unit 5000, a user information management DB 5001 configured by a user information management table as shown in FIG. 7 is constructed. In the user information management table, a group (team) name, a leader flag, and a user name are associated with each user ID (email address), stored, and managed. Among these, the user ID is identification information of a participant (including a leader, which is an example of a specific participant) who participates in a predetermined event such as an online morning meeting, and is, for example, an email address. The group (team) name is the name of the group or team to which the participant belongs. The leader flag is a flag indicating whether each user is a leader of a certain group or team, and if it is "True", it indicates that the user is a leader. The user name is the name of the user associated with the user ID. In this embodiment, when "ID" is described hereinafter, it is assumed that it includes the meaning of "identification information".
本実施形態においてユーザ情報管理テーブル(ユーザ情報管理DB5001)は、ユーザ情報管理手段の一例として機能する。 In this embodiment, the user information management table (user information management DB5001) functions as an example of a user information management means.
●解析履歴管理テーブル●
図8は、解析履歴管理テーブルの一例を示す概念図である。なお、以下に説明するデータテーブルは一例であり、これに限るものではない。記憶部5000には、図8に示されているような解析履歴管理テーブルによって構成された解析履歴管理DB5002が構築されている。解析履歴管理テーブルでは、ユーザIDごとに、グループ(チーム)名、日時、イベントの内容、参加フラグ、レポート生成フラグ、画像内での未検出時間、頷きの時間、笑顔の時間、発言の時間、感謝のことばの発話回数及び合計時間が関連付けられて記憶、管理されている。これらのうち、日時は、オンラインによるイベントを含むイベントが開催された日時を示す。イベントの内容は、オンライン朝礼等のタイトルである。参加フラグは、ユーザIDで示される参加者が対応するイベントに参加したか否かを示すフラグであり、「True」であれば参加済みであることを示す。レポート生成フラグは、対応するイベントに対するレポートが生成されたか否かを示すフラグであり、「True」であればレポート生成済みであることを示す。画像内での未検出時間は、イベントを録画した画像(映像)内で、ユーザIDで対応付けられた参加者が未検出となった時間を[秒]単位で示したものである。なお、画像内での未検出時間は、その値が他の参加者の時間よりも過度に長い場合、その参加者に対してアラートを示すレポートが作成される指標になる。頷きの時間は、ユーザIDで対応付けられた参加者がイベント中に頷きとして検出された時間を[秒]単位で示したものである。笑顔の時間は、ユーザIDで対応付けられた参加者がイベント中に笑顔として検出された時間を[秒]単位で示したものである。発言の時間は、ユーザIDで対応付けられた参加者がイベント中に発言(発話)した時間を[秒]単位で示したものである。感謝のことばの発話回数は、ユーザIDで対応付けられた参加者がイベント中に感謝のことばを発話(発言)した回数を示したものである。合計時間は、オンライン朝礼等の開始から終了までの時間である。解析履歴管理テーブルでは、上述した各管理項目が、ユーザIDごとに履歴として蓄積、管理されていく。
●Analysis history management table●
FIG. 8 is a conceptual diagram showing an example of an analysis history management table. Note that the data table described below is an example, and is not limited to this. In the storage unit 5000, an analysis history management DB 5002 configured by an analysis history management table as shown in FIG. 8 is constructed. In the analysis history management table, for each user ID, a group (team) name, date and time, event content, participation flag, report generation flag, undetected time in an image, nodding time, smiling time, speech time, number of times of utterance of words of thanks, and total time are stored and managed in association with each other. Among these, the date and time indicates the date and time when an event including an online event was held. The content of the event is a title such as an online morning meeting. The participation flag is a flag indicating whether or not a participant indicated by a user ID participated in the corresponding event, and if it is "True", it indicates that the participant has participated. The report generation flag is a flag indicating whether or not a report for the corresponding event has been generated, and if it is "True", it indicates that the report has been generated. The undetected time in an image is the time in [seconds] during which a participant associated with a user ID was undetected in an image (video) in which the event was recorded. In addition, if the undetected time in the image is excessively longer than the time of other participants, it becomes an indicator for creating a report indicating an alert for that participant. The nodding time indicates the time in [seconds] that the participant associated with the user ID was detected as nodding during the event. The smiling time indicates the time in [seconds] that the participant associated with the user ID was detected as smiling during the event. The remark time indicates the time in [seconds] that the participant associated with the user ID spoke (uttered) during the event. The number of times words of thanks were spoken indicates the number of times the participant associated with the user ID spoke (uttered) words of thanks during the event. The total time is the time from the start to the end of an online morning meeting, etc. In the analysis history management table, each of the above-mentioned management items is accumulated and managed as history for each user ID.
本実施形態において解析履歴管理テーブル(解析履歴管理DB5002)は、解析履歴管理手段の一例として機能する。 In this embodiment, the analysis history management table (analysis history management DB5002) functions as an example of an analysis history management means.
●個人元気度管理テーブル●
図9は、個人元気度管理テーブルの一例を示す概念図である。なお、以下に説明するデータテーブルは一例であり、これに限るものではない。記憶部5000には、図9に示されているような個人元気度管理テーブルによって構成された個人元気度管理DB5003が構築されている。個人元気度管理テーブルでは、ユーザIDをタブとしたそれぞれのタブごとに、日時、イベントの内容、頷きの時間[秒]、笑顔の時間[秒]、個人元気度が関連付けられて記憶、管理されている。
●Individual vitality management table●
Fig. 9 is a conceptual diagram showing an example of an individual vitality management table. Note that the data table described below is an example and is not limited to this. A individual vitality management DB 5003 configured by an individual vitality management table as shown in Fig. 9 is constructed in the memory unit 5000. In the individual vitality management table, the date and time, the content of the event, the nodding time [seconds], the smiling time [seconds], and the individual vitality are stored and managed in association with each other for each tab, which is represented by a user ID.
これらのうち、日時は、イベントが開催された日時である。イベントの内容は、オンライン朝礼、オンライン会議等の開催名、議題等である。このイベントは、日ごと、週ごと、月ごと等の定期的な開催であってもよい。頷きの時間は、所定のイベントにおける各参加者の頷きが検出された時間を秒単位で表したものである。笑顔の時間は、所定のイベントにおける各参加者の笑顔が検出された時間を秒単位で表したものである。個人元気度は、頷きの時間、笑顔の時間に基づいて機械学習モデルを用いて算出された、所定のイベントにおける参加者個人の表情に対する度合いを数値化したものである。この個人元気度は、例えば、0点から20点までの点数で示されていてもよい。 Among these, the date and time is the date and time when the event was held. The content of the event is the name and agenda of an online morning meeting, online conference, etc. The event may be held periodically, such as daily, weekly, or monthly. The nodding time is the time in seconds that a nod of each participant in a specified event is detected. The smile time is the time in seconds that a smile of each participant in a specified event is detected. The individual vitality level is a numerical representation of the degree of the facial expression of an individual participant in a specified event, calculated using a machine learning model based on the nodding time and smile time. This individual vitality level may be expressed, for example, as a score from 0 to 20 points.
本実施形態において個人元気度管理テーブル(個人元気度管理DB5003)は、個人元気度管理手段の一例として機能する。 In this embodiment, the personal vitality management table (personal vitality management DB5003) functions as an example of a personal vitality management means.
●集団活性度管理テーブル●
図10は、集団活性度管理テーブルの一例を示す概念図である。なお、以下に説明するデータテーブルは一例であり、これに限るものではない。記憶部5000には、図10に示されているような集団活性度管理テーブルによって構成された集団活性度管理DB5004が構築されている。集団活性度管理テーブルでは、グループIDをタブとしたそれぞれのタブごとに、構成メンバー、日時、イベントの点数が関連付けられて記憶、管理されている。
●Group activity management table●
Fig. 10 is a conceptual diagram showing an example of a group activity level management table. Note that the data table described below is an example and is not limited to this. A group activity level management DB 5004 configured by a group activity level management table as shown in Fig. 10 is constructed in the memory unit 5000. In the group activity level management table, the constituent members, date and time, and event scores are associated with each tab, which is represented by a group ID, and are stored and managed.
これらのうち、構成メンバーは、グループ(チーム)を構成するメンバーを示す。なお、構成メンバーは、そのグループ(チーム)を構成する全員を表すため、オンラインで開催される所定のイベントに欠席者がいた場合は、参加者に一致するとは限らない。イベント点数は、オンラインで開催された朝礼等の点数(朝礼点数)である。イベント点数は、上述した各構成メンバー(各ユーザIDで示される各参加者)の個人元気度に基づいて算出された点数である。このイベント点数が、後述する通信端末3に送信されるレポートのうちの集団活性度を表す。 Of these, constituent members indicate the members that make up a group (team). Note that since constituent members represent all members of the group (team), if there are people absent from a specific event held online, they do not necessarily correspond to participants. The event score is the score (morning assembly score) of morning assemblies and the like held online. The event score is a score calculated based on the individual vitality of each constituent member (each participant indicated by each user ID) described above. This event score represents the group activity level in the report sent to the communication terminal 3 described later.
本実施形態において集団活性度管理テーブル(集団活性度管理DB5004)は、集団活性度管理手段の一例として機能する。 In this embodiment, the group activity management table (group activity management DB5004) functions as an example of a group activity management means.
〔実施形態の処理又は動作〕
次に、図11乃至図22を用いて、第1の実施形態に係る情報解析システムにおける各処理又は動作を説明する。
[Processing or Operation of the Embodiment]
Next, each process or operation in the information analysis system according to the first embodiment will be described with reference to FIGS.
<参加者情報通知、メンバー登録及び認証処理>
まず、参加者情報通知、メンバー登録及び認証処理について説明する。図11は、参加者情報通知、メンバー登録及び認証の各処理の一例を示すシーケンス図である。図11に示されているように、情報解析システム1を利用するユーザは、通信端末3を用いてオンライン会議アプリ又は所定のURLをアクセスすることによりWebブラウザを起動する(ステップS11)。
<Participant information notification, member registration and authentication processing>
First, the participant information notification, member registration, and authentication process will be described. Fig. 11 is a sequence diagram showing an example of each process of participant information notification, member registration, and authentication. As shown in Fig. 11, a user who uses the information analysis system 1 starts a web browser by accessing an online conference app or a predetermined URL using a communication terminal 3 (step S11).
次に、通信端末3の送受信部31は、情報解析装置5に対して、参加者情報通知を送信する(ステップS12)。これにより、情報解析装置5の送受信部51は、通信端末3が送信した参加者情報通知を受信する。このとき、参加者情報通知には、各参加者名、各参加者の顔画像データ、各参加者の電子メールアドレスが含まれる。なお、各参加者の顔画像データは、参加者毎に予め撮影された顔画像データ(例えば、社員証の写真データ)であってもよい。 Next, the transmitting/receiving unit 31 of the communication terminal 3 transmits a participant information notification to the information analyzing device 5 (step S12). As a result, the transmitting/receiving unit 51 of the information analyzing device 5 receives the participant information notification transmitted by the communication terminal 3. At this time, the participant information notification includes the name of each participant, facial image data of each participant, and email address of each participant. Note that the facial image data of each participant may be facial image data captured in advance for each participant (e.g., photo data of an employee ID card).
次に、情報解析装置5の登録部58は、メンバー登録処理を実行する(ステップS13)。具体的には、登録部58は、ステップS12で受信した参加者情報通知に含まれる各参加者の電子メールアドレスを、ユーザ情報管理DB5001(図7参照)のユーザIDに登録する。 Next, the registration unit 58 of the information analysis device 5 executes a member registration process (step S13). Specifically, the registration unit 58 registers the email address of each participant included in the participant information notification received in step S12 in the user ID of the user information management DB 5001 (see FIG. 7).
なお、上述したステップS13のメンバー登録処理は、通信端末3からの参加者情報の送信に代えて、情報解析装置5がアクセス可能な上述したAWS上の所定のデータベースに対して、各参加者情報の登録を実行するようにしてもよい。更に、メンバー登録処理は、一般的に知られているWebサービスと同様に、各参加者がそれぞれ自信を登録してもよいし、各参加者のリーダーが一括してグループ(チーム)のメンバーを登録してもよい。更に、情報解析を伴うサービス実施者が各参加者に係る参加者情報を受け取り、ユーザ登録を行うようにしてもよい。 In addition, the member registration process in step S13 described above may register each participant's information in a specific database on the AWS that is accessible to the information analysis device 5, instead of transmitting the participant information from the communication terminal 3. Furthermore, the member registration process may involve each participant registering themselves, as in commonly known web services, or the leader of each participant may register the members of the group (team) collectively. Furthermore, a service provider that involves information analysis may receive participant information related to each participant and perform user registration.
続いて、認証部53は、認証処理を実行する(ステップS14)。具体的には、認証部53は、ステップS13で登録されたメンバーと、開催されるオンラインイベントに参加する各参加者の情報を比較し、登録情報が無い場合は、そのオンラインイベントに係るサービスを行わないようにすることを前提としている。 Then, the authentication unit 53 executes an authentication process (step S14). Specifically, the authentication unit 53 compares the members registered in step S13 with the information of each participant who will participate in the online event to be held, and if there is no registered information, the authentication unit 53 does not provide services related to the online event.
上述したステップS11-S14の処理は、オンライン会議アプリ又はオンライン会議用のWebブラウザを起動した際の初回の処理に限られてもよい。そのため、通信端末3は、以降に説明する情報解析装置5との通信において、上述したステップによる各種処理が完了し、互いに通信可能な状態となっていることを前提としてもよい。 The processing of steps S11-S14 described above may be limited to the initial processing when the online conference app or the web browser for online conferences is launched. Therefore, the communication terminal 3 may assume that the various processing steps described above have been completed and that the two devices are capable of communicating with each other in communication with the information analysis device 5 described below.
<オンラインイベントにおける情報解析処理>
続いて、オンラインイベントにおける情報解析処理について説明する。図12は、オンラインイベントでの情報解析処理の一例を示すシーケンス図である。図12に示されているように、通信端末3の表示制御部34は、ステップS11のオンライン会議アプリの起動に応じて、ディスプレイ307にオンライン朝礼画面を表示させる(ステップS101)。
<Information analysis processing for online events>
Next, the information analysis process in the online event will be described. Fig. 12 is a sequence diagram showing an example of the information analysis process in the online event. As shown in Fig. 12, the display control unit 34 of the communication terminal 3 displays an online morning assembly screen on the display 307 in response to the start of the online conference app in step S11 (step S101).
●画面表示例●
ここで、通信端末3における表示画面例について説明する。図13は、所定のイベント開催時の通信端末における表示画面の一例を示す図である。図13に示されているように、通信端末3のディスプレイ307には、表示制御部34によってオンライン朝礼画面3111が表示される。ここで、通信端末3で起動されるオンライン会議アプリは、一般的に知られているようなオンラインで利用される会議ツールであってよい。この場合、ユーザの操作に基づいて開催される朝礼(イベント)が指定され、入室(参加)ボタン、アイコン等の操作に応じたオンライン朝礼画面が通信端末3のディスプレイ307に表示される。オンライン朝礼画面3111には、オンライン朝礼に参加している各参加者(参加者A,B,C,D,E,F(リーダー))のそれぞれの顔画像データ(静止画又は動画)が左上からZ字形の順番に並べられる。このように、通信端末3で表示される参加者の画像の位置と情報解析装置5で管理される参加者情報とを対応付けることで、情報解析装置5は、通信端末3から送信された各画像データに含まれる参加者を特定しやすくすることができる。また、タスクバーには、録画ボタン3551、録音ボタン3552、開始ボタン3553、及び終了ボタン3554が表示される。参加者は、これらのボタンに対してカーソル等を用いて操作して、オンライン朝礼における録画、録音、開始及び終了の各操作を行うことができる。なお、各操作は、オンライン朝礼に参加しているグループ(チーム)のリーダーが使用する通信端末3を用いて代表して行うことができる。他方、オンライン朝礼に参加しているグループ(チーム)の各メンバーがそれぞれの通信端末3を用いて行うこともできる。また、オンライン朝礼画面3111では、表示制御部34により、発話をしている発話者の枠内に、発話(発言)中表示マーク3112が表示される。これにより、オンライン朝礼に参加中のメンバーのうち、誰が発言(発話)しているかを目視でも確認することができる。オンライン朝礼画面3111では更に、表示制御部34により、各参加者の顔の動きにあわせて追従するような表情検出モニタ(四角い点線枠)が表示され、リアルタイムで各参加者の表情をモニタするようにしてもよい。本実施形態において、以降「ボタン」と記載した場合は、ディスプレイ307上に表示された「アイコン」を含むものとする。
●Screen display example●
Here, an example of a display screen in the communication terminal 3 will be described. FIG. 13 is a diagram showing an example of a display screen in the communication terminal when a specific event is held. As shown in FIG. 13, an online morning assembly screen 3111 is displayed on the display 307 of the communication terminal 3 by the display control unit 34. Here, the online conference app started by the communication terminal 3 may be a conference tool used online as is generally known. In this case, a morning assembly (event) to be held based on a user's operation is specified, and an online morning assembly screen corresponding to an operation of an entry (participation) button, an icon, etc. is displayed on the display 307 of the communication terminal 3. On the online morning assembly screen 3111, the face image data (still images or videos) of each participant (participant A, B, C, D, E, F (leader)) participating in the online morning assembly are arranged in Z-shaped order from the top left. In this way, by associating the position of the image of the participant displayed on the communication terminal 3 with the participant information managed by the information analysis device 5, the information analysis device 5 can easily identify the participant included in each image data transmitted from the communication terminal 3. In addition, the task bar displays a video recording button 3551, a sound recording button 3552, a start button 3553, and an end button 3554. Participants can operate these buttons with a cursor or the like to perform each operation of recording, sound recording, starting, and ending the online morning assembly. Each operation can be performed by the leader of the group (team) participating in the online morning assembly on behalf of the leader using the communication terminal 3 used by the leader. On the other hand, each member of the group (team) participating in the online morning assembly can also perform each operation using their own communication terminal 3. In addition, in the online morning assembly screen 3111, the display control unit 34 displays a speech (comment) display mark 3112 in the frame of the speaker who is speaking. This allows visual confirmation of who is speaking (commenting) among the members participating in the online morning assembly. In addition, in the online morning assembly screen 3111, the display control unit 34 may display a facial expression detection monitor (square dotted frame) that follows the facial movements of each participant, and monitor the facial expressions of each participant in real time. In this embodiment, hereinafter, when the term “button” is used, it is intended to include the “icon” displayed on the display 307 .
図12に戻り、通信端末3の操作受付部32は、オンライン朝礼開始操作を受け付ける(ステップS102)。具体的には、操作受付部32は、図13に示した開始ボタン3553に対する各参加者又はリーダーによる操作を受け付ける。 Returning to FIG. 12, the operation reception unit 32 of the communication terminal 3 receives an operation to start the online morning meeting (step S102). Specifically, the operation reception unit 32 receives an operation by each participant or the leader on the start button 3553 shown in FIG. 13.
次に、取得部33及び記憶読出部39は、参加者の画像データ及び音声データを取得・保存する(ステップS103)。具体的には、オンライン朝礼に参加した各参加者が使用する各通信端末3の取得部33が、Webカメラ等で構成される画像取得部により通信端末3を使用する各参加者の顔を含む画像に係る画像データ、並びに、音声マイク等で構成される音声取得部により各参加者の発話に係る音声データを取得する。その後、記憶読出部39は、取得した画像データ及び音声データを、記憶部3000の所定領域に記憶、保存する。このとき、記憶読出部39は、画像データ及び音声データを、各参加者が使用する通信端末3にそれぞれ記憶、保存してもよいし、リーダーが使用する通信端末3にまとめて記憶、保存してもよい。なお、別の方法として、記憶読出部39は、記憶部3000の所定領域に代えて、専用のデータベースを用いて画像データ及び音声データを記憶、保存するようにしてもよい。なお、通信端末3の記憶読出部39は、オンライン朝礼が開催されている間、上述した画像取得部及び音声取得部を用いて次のオンライン朝礼操作終了操作が受け付けられるまで、ステップS103の処理を所定時間間隔(例えば5秒間隔)で繰り返し実行するようにしてもよい(ループ処理の実行)。 Next, the acquisition unit 33 and the memory readout unit 39 acquire and store the image data and voice data of the participants (step S103). Specifically, the acquisition unit 33 of each communication terminal 3 used by each participant who participated in the online morning meeting acquires image data related to an image including the face of each participant using the communication terminal 3 by an image acquisition unit composed of a web camera, etc., and voice data related to the speech of each participant by a voice acquisition unit composed of an audio microphone, etc. Thereafter, the memory readout unit 39 stores and stores the acquired image data and voice data in a specified area of the memory unit 3000. At this time, the memory readout unit 39 may store and store the image data and voice data in the communication terminal 3 used by each participant, respectively, or may store and store them collectively in the communication terminal 3 used by the leader. As an alternative method, the memory readout unit 39 may store and store the image data and voice data using a dedicated database instead of a specified area of the memory unit 3000. In addition, while the online morning meeting is being held, the memory readout unit 39 of the communication terminal 3 may repeatedly execute the process of step S103 at a predetermined time interval (e.g., every 5 seconds) using the image acquisition unit and audio acquisition unit described above until the next online morning meeting operation end operation is accepted (executing a loop process).
次に、操作受付部32は、オンライン朝礼終了操作を受け付ける(ステップS104)。具体的には、操作受付部32は、図13に示した終了ボタン3554に対する操作を受け付ける。 Next, the operation reception unit 32 receives an operation to end the online morning meeting (step S104). Specifically, the operation reception unit 32 receives an operation on the end button 3554 shown in FIG. 13.
次に、記憶読出部59は、参加者の画像データ及び音声データを読み出す(ステップS105)。具体的には、記憶読出部59は、ステップS103で保存した画像データ及び音声データを各通信端末3の記憶部3000の所定領域から読み出す。このとき、記憶読出部59は、読み出した画像データを所定の画像(動画)データフォーマット(例えば、mp4)に変換し、音声データを所定の音声データフォーマット(例えば、wav)にそれぞれ変換する。その後、記憶読出部59は、生成部57と協働して、フォーマット変換されたそれぞれの画像データ及び音声データに対して、各参加者のユーザIDごとにフォルダを生成する。 Next, the memory readout unit 59 reads out the image data and audio data of the participants (step S105). Specifically, the memory readout unit 59 reads out the image data and audio data saved in step S103 from a predetermined area of the memory unit 3000 of each communication terminal 3. At this time, the memory readout unit 59 converts the read out image data into a predetermined image (video) data format (e.g., mp4) and converts the audio data into a predetermined audio data format (e.g., wav). Thereafter, the memory readout unit 59 cooperates with the generation unit 57 to generate a folder for each of the format-converted image data and audio data for each of the user IDs of the participants.
次に、送受信部31は、情報解析装置5に対して、ステップS105で取得した複数の参加者の画像データ及び音声データを送信(アップロード)する(ステップS106)。これにより、情報解析装置5の送受信部51は、通信端末3が送信したデータを受信する。このとき、受信したデータには、アップロード対象の全員の画像データ、音声データ、及び各参加者のメールアドレスにより生成されたフォルダが含まれる。なお、アップロードされるデータは、オンライン会議アプリを用いて朝礼中に録画、録音されたデータでもよいし、オンライン会議ツールにより録画、録音されたデータでもよい。 Next, the transmission/reception unit 31 transmits (uploads) the image data and audio data of the multiple participants acquired in step S105 to the information analysis device 5 (step S106). As a result, the transmission/reception unit 51 of the information analysis device 5 receives the data transmitted by the communication terminal 3. At this time, the received data includes image data and audio data of all the people to be uploaded, and a folder created by the email address of each participant. Note that the data to be uploaded may be data recorded during the morning meeting using an online conference app, or may be data recorded using an online conference tool.
続いて、情報解析装置5の記憶読出部59は、データの保存処理を行う(ステップS107)。具体的には、記憶読出部59は、ステップS106で受信したアップロード対象の全員の画像データ及び音声データを、記憶部5000の所定領域に記憶、保存する。より具体的には、記憶読出部59は、所定のジョブキューに受信した値を追加し、指定時刻が来たタイミングでグループ(チーム)のリストと結果のインデックスを確認して、ジョブキューを追加する。このとき、キューの属性として、ユーザID、グループ(チーム)名、追加日時、参加者の出欠情報などが含まれる。 Then, the storage/reading unit 59 of the information analysis device 5 performs a data saving process (step S107). Specifically, the storage/reading unit 59 stores and saves the image data and audio data of all the people to be uploaded that were received in step S106 in a specified area of the storage unit 5000. More specifically, the storage/reading unit 59 adds the received values to a specified job queue, and when the specified time arrives, checks the group (team) list and the result index, and adds the job queue. At this time, the queue attributes include the user ID, group (team) name, date and time of addition, and attendance information of participants.
次に、解析処理部56は、情報解析処理を実行する(ステップS108)。具体的には、解析処理部56は、通信端末3が送信した画像情報(画像データ)及び音声情報(音声データ)に基づいて、オンラインで開催される所定のイベントに参加した複数の参加者の状態を解析する。その後、生成部57は、解析した複数の参加者の状態に基づいて、通信端末3で表示可能な状態通知としてのレポートデータ(状態通知の一例)を生成する。ステップS108の情報解析処理については、以降にて詳細に説明する。 Next, the analysis processing unit 56 executes information analysis processing (step S108). Specifically, the analysis processing unit 56 analyzes the status of multiple participants who have participated in a specific event held online, based on the image information (image data) and audio information (audio data) transmitted by the communication terminal 3. Thereafter, the generation unit 57 generates report data (an example of a status notification) as a status notification that can be displayed on the communication terminal 3, based on the analyzed status of the multiple participants. The information analysis processing of step S108 will be described in detail below.
<<情報解析処理の詳細>>
続いて、情報解析処理の詳細について説明する。図14A及び図14Bは、オンラインイベントでの情報解析処理の詳細を示すフローチャートである。なお、以下に示す各処理は情報解析処理の一例であり、これに限らない。図14Aにおいて、まず、取得部52は、取得した画像データ(録画データ)及び音声データ(録音データ)を記憶読出部59を介して読み出し、コピー画像及びコピー音声を取得する(ステップS108-1)。なお、取得されたコピー画像を表すコピー画像データは、後述する頷きの回数、笑顔の回数、時間の少なくとも一方の検出に用いられる。また、取得されたコピー音声を表すコピー音声データは、後述する発話比率、発話者の発話有無の処理、感謝のことばの検出に用いられる。
<<Details of information analysis processing>>
Next, the details of the information analysis process will be described. FIG. 14A and FIG. 14B are flowcharts showing details of the information analysis process in an online event. Note that each process shown below is an example of the information analysis process, and is not limited thereto. In FIG. 14A, first, the acquisition unit 52 reads the acquired image data (recorded data) and audio data (audio recording data) via the storage and reading unit 59, and acquires a copy image and a copy audio (step S108-1). Note that the copy image data representing the acquired copy image is used to detect at least one of the number of nods, the number of smiles, and the time, which will be described later. In addition, the copy audio data representing the acquired copy audio is used for the speech ratio, processing of whether or not the speaker has spoken, and detection of words of thanks, which will be described later.
次に、解析処理部56は、取得したコピー画像を表すコピー画像データに対して、機械学習モデルを用いて各参加者の顔のキーポイントを検出する(ステップS108-2)。具体的には、解析処理部56は、コピー画像を表すコピー画像データに対して、一般的に知られている顔を抽出するための動画解析用パッケージ(例えば、FaceMesh)を利用して各参加者の顔のキーポイントを検出する。 Next, the analysis processing unit 56 detects the facial key points of each participant using a machine learning model for the copy image data representing the acquired copy image (step S108-2). Specifically, the analysis processing unit 56 detects the facial key points of each participant using a video analysis package (e.g., FaceMesh) that is commonly known for extracting faces for the copy image data representing the copy image.
続いて、解析処理部56は、機械学習モデルを用いて笑顔を検出する(ステップS108-3)。具体的には、解析処理部56は、ステップS108-2で検出した顔のキーポイントと学習済みのニューラルネットワークとを用いて、各参加者の顔画像から笑顔を検出する。 Then, the analysis processing unit 56 detects smiles using a machine learning model (step S108-3). Specifically, the analysis processing unit 56 detects smiles from the facial images of each participant using the facial key points detected in step S108-2 and the trained neural network.
ステップS108-2の処理を実行した後、解析処理部56は別の処理として、各参加者の頭部運動を算出する(ステップS108-4)。具体的には、解析処理部56は、ステップS108-2で検出した顔のキーポイントに基づいて、各参加者の頭部の運動を算出する。 After executing the process of step S108-2, the analysis processing unit 56 calculates the head movement of each participant as a separate process (step S108-4). Specifically, the analysis processing unit 56 calculates the head movement of each participant based on the facial key points detected in step S108-2.
次に、解析処理部56は、機械学習モデルを用いて頷きを検出する(ステップS108-5)。具体的には、解析処理部56は、ステップS108-4で検出した頭部運動の算出値と学習済みのニューラルネットワークとを用いて、各参加者の顔画像から頷きを検出する。 Next, the analysis processing unit 56 detects nodding using a machine learning model (step S108-5). Specifically, the analysis processing unit 56 detects nodding from the facial images of each participant using the calculated value of the head movement detected in step S108-4 and the trained neural network.
ステップS108-1の処理を実行した後、解析処理部56は更に別の処理として、ノイズ低減処理を実行する(ステップS108-6)。具体的には、解析処理部56は、取得したコピー音声を表すコピー音声データに対して、ノイズ低減処理を実行する。 After executing the process of step S108-1, the analysis processing unit 56 executes a noise reduction process as a further process (step S108-6). Specifically, the analysis processing unit 56 executes a noise reduction process on the copy audio data representing the acquired copy audio.
続いて、解析処理部56は、音声データをテキストに変換する(ステップS108-7)。具体的には、解析処理部56は、ステップS108-6のノイズ低減処理を実行した後、例えば、一般的に知られている音声、手話等を文字に起こす処理(transcribe)を実行する。 Then, the analysis processing unit 56 converts the voice data into text (step S108-7). Specifically, after performing the noise reduction process of step S108-6, the analysis processing unit 56 performs, for example, a process of transcribing commonly known voice, sign language, etc. into text.
続いて、解析処理部56は、生成部57と協働して、発話区間データを生成し(ステップS108-8)、その後、ステップS108-2の処理に戻る。 Then, the analysis processing unit 56 cooperates with the generation unit 57 to generate speech section data (step S108-8), and then returns to the processing of step S108-2.
ステップS108-7の処理を実行した後、解析処理部56は更に別の処理として、感謝の数の検出(ステップS108-9)と、発話比率の検出(ステップS108-10)と、をそれぞれ実行する。 After executing the process of step S108-7, the analysis processing unit 56 further executes separate processes of detecting the number of thank yous (step S108-9) and detecting the speech ratio (step S108-10).
なお、上述したステップS108-3,S108-5,S108-9及びS108-10の各処理で検出された笑顔、頷き、感謝の数、発話比率は、記憶部5000の所定領域に一時保存されておいてもよい。 The number of smiles, nods, and thank yous, and the speech ratio detected in each of the processes in steps S108-3, S108-5, S108-9, and S108-10 described above may be temporarily stored in a specified area of the memory unit 5000.
ステップS108-3,S108-5,S108-9及びS108-10の各処理を実行した後、解析処理部56は、個人元気度を解析して算出する(ステップS108-11)。具体的には、まず解析処理部56は、上述した笑顔検出処理、頷き検出処理、感謝の数の検出処理、及び発話比率の検出処理を実行した後、各参加者のユーザID(電子メールアドレス)を検索キーとして解析履歴管理DB5002(図8参照)を検索することにより、対応する笑顔の時間、頷きの時間をそれぞれ読み出す。その後、解析処理部56は、読み出したそれぞれの値を各参加者の過去履歴における参考値として、上述したステップS108-3及びS108-5で検出した各値との間で個人元気度を解析して算出する。より具体的には、解析処理部56は、例えば、ある参加者の笑顔に基づく個人元気度を解析、算出する場合、解析履歴管理DB5002で管理されているその参加者の笑顔の時間及び頷きの時間を参照する。このとき、解析処理部56は、現在解析対象となっているイベント(例えば、「今週の業務進捗」)と同じ若しくは同類のイベント(過去に行われた「今週の業務進捗」)における笑顔の時間及び頷きの時間を参照することが好ましい。このような方法を一例とし、上述した機械学習モデル(学習済みのニューラルネットワーク)を用いて、解析処理部56は、各参加者の笑顔及び頷きをそれぞれ解析して算出する。その後、記憶読出部59は、算出された個人元気度を、個人元気度管理DB5003(図9参照)の対応する個人元気度の項目に記憶、保存する。その後、情報解析装置5は、(丸A)以降の処理に遷移する。 After executing each process of steps S108-3, S108-5, S108-9, and S108-10, the analysis processing unit 56 analyzes and calculates the individual vitality level (step S108-11). Specifically, the analysis processing unit 56 first executes the above-mentioned smile detection process, nod detection process, thank number detection process, and speech ratio detection process, and then searches the analysis history management DB 5002 (see FIG. 8) using the user ID (email address) of each participant as a search key to read out the corresponding smile time and nod time. After that, the analysis processing unit 56 analyzes and calculates the individual vitality level between each of the read values as reference values in the past history of each participant and each of the values detected in the above-mentioned steps S108-3 and S108-5. More specifically, when analyzing and calculating the individual vitality level based on the smile of a certain participant, for example, the analysis processing unit 56 refers to the smile time and nod time of the participant managed in the analysis history management DB 5002. At this time, it is preferable for the analysis processing unit 56 to refer to the duration of smiling and nodding in the same or similar event (past "This week's work progress") as the event currently being analyzed (e.g., "This week's work progress"). Using this method as an example, the analysis processing unit 56 analyzes and calculates each of the smiling and nodding of each participant using the above-mentioned machine learning model (trained neural network). The memory reading unit 59 then stores and saves the calculated individual vitality level in the corresponding individual vitality level item in the individual vitality level management DB 5003 (see FIG. 9). The information analysis device 5 then transitions to the process from (circle A) onwards.
図14Bの(丸A)に続き、判断部55は、チーム全員分が揃っているかを判断する(ステップS108-12)。具体的には、判断部55は記憶読出部59を介して、ステップS106で受信した各参加者の電子メールアドレスを検索キーとしてユーザ情報管理DB5001(図7参照)を検索する。その後、判断部55は、解析対象のイベントに参加しているグループ(チーム)の参加者全員と、ユーザ情報管理DB5001に登録されそのグループ(チーム)に属するユーザIDと、を比較し、予め判明している欠席者を除く参加者が揃っているかを判断する。 Following (circle A) in FIG. 14B, the judgment unit 55 judges whether all the team members are present (step S108-12). Specifically, the judgment unit 55 searches the user information management DB 5001 (see FIG. 7) via the memory/read unit 59 using the email addresses of each participant received in step S106 as search keys. The judgment unit 55 then compares all the participants of the group (team) participating in the event to be analyzed with the user IDs registered in the user information management DB 5001 and belonging to that group (team), and judges whether all the participants are present, excluding those known to be absent.
チーム全員分が揃っていると判断された場合(ステップS108-12:YES)、解析処理部56は、集団活性度を解析して算出する(ステップS108-13)。具体的には、解析処理部56は、ステップS108-9で検出した感謝のことばの数、並びに、ステップS108-10で検出した発話回数、発言の時間、発話比率との間で集団活性度を解析して算出する。より具体的には、解析処理部56は、ステップS108-11で算出した個人元気度、並びに、解析履歴管理DB5002で管理されている発話回数、発言の時間、及び算出された発話比率に基づいて、集団活性度を解析して算出する。なお、集団活性度を算出する場合、個人元気度を解析して算出する場合と同様に、現在解析対象となっているイベント(例えば、「今週の業務進捗」)と同じ若しくは同類のイベント(過去に行われた「今週の業務進捗」)における感謝のことばの数、発話回数、発言の時間、発話比率をそれぞれ参照することが好ましい。このような方法を一例とし、上述した機械学習モデル(学習済みのニューラルネットワーク)を用いて、解析処理部56は、チーム全員分の解析結果に基づく集団活性度を解析して算出する。その後、記憶読出部59は、算出された集団活性度を、集団活性度管理DB5004(図10参照)の対応するイベント点数の項目に記憶、保存する。 If it is determined that all team members are present (step S108-12: YES), the analysis processing unit 56 analyzes and calculates the group activity level (step S108-13). Specifically, the analysis processing unit 56 analyzes and calculates the group activity level between the number of words of thanks detected in step S108-9 and the number of utterances, the duration of utterances, and the speech ratio detected in step S108-10. More specifically, the analysis processing unit 56 analyzes and calculates the group activity level based on the individual vitality level calculated in step S108-11, and the number of utterances, the duration of utterances, and the calculated speech ratio managed in the analysis history management DB 5002. Note that when calculating the group activity level, it is preferable to refer to the number of words of thanks, the number of utterances, the duration of utterances, and the speech ratio in the same or similar events (past "this week's work progress") as the event currently being analyzed (for example, "this week's work progress"). Using this method as an example, the analysis processing unit 56 uses the above-mentioned machine learning model (trained neural network) to analyze and calculate the group activity level based on the analysis results for all team members. The memory reading unit 59 then stores and saves the calculated group activity level in the corresponding event score item of the group activity level management DB 5004 (see FIG. 10).
続いて、生成部57は、算出した集団活性度に応じたUI画面データ(レポートデータ)を生成する(ステップS108-14)。具体的には、生成部57は、個人元気度管理DB5003(図9参照)及び集団活性度管理DB5004(図10参照)をそれぞれ参照して、ステップS108-11で算出された個人元気度及びステップS108-13で算出されたイベント点数(集団活性度)に対応したレポートデータを生成する。このレポートデータには、オンライン朝礼に参加した各参加者又はグループ(チーム)のリーダーに対するフィードバックコメントが含まれる。なお、レポートデータに含まれるフィードバックコメントは、算出されたそれぞれの点数に応じて情報解析装置5が適宜コメントを生成、若しくは予め用意された複数のコメントから選択するようなものであってもよい。その後、記憶読出部59は、記憶部5000の所定領域に生成したレポートデータを記憶してこのフローを抜ける。このとき、解析処理部56は、終了した対象ジョブをジョブキューから削除した後このフローを抜けるようにしてもよい。そして、ステップS108-12の判断処理を含む情報解析処理は、各個人のデータがバッチ処理に登録されるたびに実行される。 Next, the generating unit 57 generates UI screen data (report data) according to the calculated group activity level (step S108-14). Specifically, the generating unit 57 refers to the individual activity level management DB 5003 (see FIG. 9) and the group activity level management DB 5004 (see FIG. 10) to generate report data corresponding to the individual activity level calculated in step S108-11 and the event score (group activity level) calculated in step S108-13. This report data includes feedback comments to each participant who participated in the online morning meeting or the leader of the group (team). The feedback comments included in the report data may be comments appropriately generated by the information analysis device 5 according to the calculated scores, or may be selected from a plurality of comments prepared in advance. Thereafter, the memory reading unit 59 stores the generated report data in a predetermined area of the memory unit 5000 and exits this flow. At this time, the analysis processing unit 56 may delete the completed target job from the job queue and then exit this flow. The information analysis process, including the judgment process in step S108-12, is then performed each time each individual's data is registered in the batch process.
チーム全員分が揃っていないと判断された場合(ステップS108-12:NO)、解析処理部56は所定時間待機し(ステップS108-15)、その後、判断部55は、再度チーム全員分が揃っているかを判断する(ステップS108-16)。 If it is determined that not all team members have been gathered (step S108-12: NO), the analysis processing unit 56 waits for a predetermined time (step S108-15), and then the judgment unit 55 judges again whether all team members have been gathered (step S108-16).
所定時間待機後にチーム全員分が揃っている場合(ステップS108-16:YES)、判断部55は、上述したステップS108-13及びS108-14の処理を実行し、このフローを抜ける。 If all team members are present after waiting for the specified time (step S108-16: YES), the judgment unit 55 executes the processes of steps S108-13 and S108-14 described above and exits this flow.
他方、所定時間待機後もチーム全員分が揃っていない場合(ステップS108-16:NO)、解析処理部56は、欠席メンバーを除いた集団活性度を解析して算出する(ステップS108-17)。具体的には、解析処理部56は、ステップS108-9で検出した感謝のことばの数、並びに、ステップS108-10で検出した発話回数、発言の時間、発話比率との間で、現在揃っている参加者に関する集団活性度を解析して算出する。より具体的には、解析処理部56は、ステップS108-11で算出した個人元気度、並びに、解析履歴管理DB5002で管理されている発話回数、発言の時間、及び算出された発話比率に基づいて、現在揃っている参加者に関する集団活性度を解析して算出する。このときの処理の方法は、上述したステップS108-13における手法と同様であるため、説明を省略する。 On the other hand, if the entire team is not present even after waiting for a predetermined time (step S108-16: NO), the analysis processing unit 56 analyzes and calculates the group activity level excluding the absent members (step S108-17). Specifically, the analysis processing unit 56 analyzes and calculates the group activity level for the currently present participants based on the number of words of thanks detected in step S108-9 and the number of utterances, the duration of utterances, and the speech ratio detected in step S108-10. More specifically, the analysis processing unit 56 analyzes and calculates the group activity level for the currently present participants based on the individual vitality level calculated in step S108-11, and the number of utterances, the duration of utterances, and the calculated speech ratio managed in the analysis history management DB 5002. The method of processing at this time is the same as the method in step S108-13 described above, so a description thereof will be omitted.
次に、生成部57は、欠席メンバーを除いた集団活性度に応じたUI画面データ(レポートデータ。例えば、PDF)を生成する(ステップS108-18)。なお、ステップS108-18におけるレポートデータの生成についても、ステップS108-14で説明したような方法と同様であってよい。その後、記憶読出部59は、記憶部5000の所定領域に生成したレポートデータを記憶してこのフローを抜ける。 Next, the generation unit 57 generates UI screen data (report data, e.g., PDF) according to the group activity level excluding absent members (step S108-18). The generation of the report data in step S108-18 may be the same as the method described in step S108-14. Thereafter, the storage/readout unit 59 stores the generated report data in a specified area of the storage unit 5000 and exits this flow.
なお、上述したステップS108-15では、情報解析装置5は、事前に所定の締切時間(所定時間)を設定し、その締切時間分待機した時点でデータがない参加者を欠席者として、ステップS108-17以降の処理を実行するようにしてもよい。更に、情報解析装置5は、ステップS108-15の所定時間待機後に行うステップS108-16の判断処理に代えて、ステップS108-16の判断処理を所定時間繰り返し行う(ループ処理を行なう)ようにしてもよい。 In addition, in the above-mentioned step S108-15, the information analysis device 5 may set a predetermined deadline (predetermined time) in advance, and after waiting for the deadline, a participant who has no data may be regarded as an absentee, and the processing from step S108-17 onwards may be executed. Furthermore, instead of the judgment processing of step S108-16 performed after waiting for the predetermined time in step S108-15, the information analysis device 5 may repeat the judgment processing of step S108-16 for a predetermined time (perform a loop processing).
図12に再び戻り、情報解析装置5の送受信部51は、通信端末3に対して、ステップS108で生成したそれぞれの場合におけるレポートデータを送信する(ステップS109)。これにより、通信端末3の送受信部31は、情報解析装置5が送信した各レポートデータを受信する。 Returning to FIG. 12, the transmission/reception unit 51 of the information analyzing device 5 transmits the report data for each case generated in step S108 to the communication terminal 3 (step S109). As a result, the transmission/reception unit 31 of the communication terminal 3 receives each report data transmitted by the information analyzing device 5.
なお、ステップS109における情報解析装置5からのレポートの送信処理は、イベントの開催中(イベントの終了前)に実行されてもよい。 The process of sending the report from the information analysis device 5 in step S109 may be performed while the event is being held (before the event ends).
また、情報解析装置5は、ステップS109における通信端末3に対するレポートの送信に代えて、上述したステップS108において、以下のようにレポートを生成してもよい。例えば、情報解析装置5は、通信端末3を利用する参加者(ユーザ)による所定のWebブラウザへのアクセスに応じて、通信端末3で操作されるWebブラウザ上に表示可能な状態のレポートを生成するようにしてもよい。より具体的には、情報解析装置5は、レポートを生成した後、自動で参加者(例えば、リーダー)のもとへ電子メール等でレポートを送信する代わりに、Webブラウザ上に生成したレポートを保存し、そのWebブラウザにリーダーがアクセスした際に、Webブラウザ上に生成したレポートを表示するようにしてもよい。その場合、例えば、
・オンラインで開催されたオンライン朝礼を解析した後、情報解析装置5又は専用のサーバ側で生成したレポートを保持する。
・オンライン朝礼に参加した参加者を含むユーザが、Webブラウザへアクセスする。
・情報解析装置5又は専用のサーバで管理されているデータベース(DB)からレポートが渡され、Webブラウザ上にそのレポートが表示される。
といった手順にしたがって生成されたレポートの提供及び表示の形態が考えられる。
Furthermore, instead of transmitting the report to the communication terminal 3 in step S109, the information analyzing device 5 may generate a report in the following manner in step S108 described above. For example, the information analyzing device 5 may generate a report that can be displayed on a web browser operated on the communication terminal 3 in response to access to a specific web browser by a participant (user) using the communication terminal 3. More specifically, after generating the report, instead of automatically sending the report to a participant (e.g., a leader) by email or the like, the information analyzing device 5 may save the generated report on the web browser and display the generated report on the web browser when the leader accesses the web browser. In that case, for example,
After analyzing the online morning meeting held online, the information analysis device 5 or a dedicated server generates and stores the generated report.
- Users, including participants who attended the online morning meeting, access a web browser.
A report is sent from a database (DB) managed by the information analysis device 5 or a dedicated server, and the report is displayed on the Web browser.
A report generated according to the above procedure may be provided and displayed.
次に、通信端末3の表示制御部34は、ステップS109で受信したレポートデータを、ディスプレイ307に表示させる(ステップS110)。このとき、表示制御部34は、情報解析装置5が送信した電子メールを通信端末3のディスプレイ307にレポートとして表示してもよいし、Webブラウザ上にレポートの内容を表示してもよい。 Next, the display control unit 34 of the communication terminal 3 causes the report data received in step S109 to be displayed on the display 307 (step S110). At this time, the display control unit 34 may display the email sent by the information analysis device 5 as a report on the display 307 of the communication terminal 3, or may display the contents of the report on a web browser.
●画面表示例●
以下、本実施形態に係る通信端末3におけるレポート表示画面例について説明する。なお、通信端末3における画面表示については、既存の画面表示方法を用いて通信端末3のディスプレイ307に所定の画像を表示する方法が採用されてよい。図15以降に示すUI画面例に含まれるレポートは、例えば、オンライン朝礼における朝礼点数及び元気点数(個人元気度)といった全体の概要を提示し、その後に各参加者の頷き、笑顔等の詳細を提示する。なお、図15乃至図22に示したレポートの内容及び表示形態は一例であり、これらに限らない。
●Screen display example●
An example of a report display screen in the communication terminal 3 according to this embodiment will be described below. For the screen display in the communication terminal 3, a method of displaying a predetermined image on the display 307 of the communication terminal 3 using an existing screen display method may be adopted. The report included in the UI screen example shown in FIG. 15 and subsequent figures presents an overall overview, such as the morning assembly score and vitality score (individual vitality level) in the online morning assembly, and then presents details such as the nods and smiles of each participant. Note that the contents and display forms of the reports shown in FIG. 15 to FIG. 22 are merely examples and are not limited thereto.
〇朝礼点数(集団活性度)〇
図15は、通信端末におけるレポート表示画面(朝礼点数)の一例を示す図である。図15に示されているように、通信端末3のディスプレイ307には、表示制御部34により朝礼点数画面3121が表示される。朝礼点数画面3121には、ステップS108-11で算出された各参加者の個人元気度に基づく集団活性度(朝礼点数)が表示される。その内訳は、頷き(うなずき)点数、笑顔点数、発話者点数、発話比率点数、感謝点数であり、それぞれ例えば、20点満点中の点数で表される。そして、総合評価点数として、最高点(100点満点)中の合計点数が表示される。朝礼点数画面3121には更に、総評としてこの点数に対するコメントが付記される。これにより、このレポートを受信した各参加者若しくはグループ(チーム)のリーダーは、通知された点数及び総評を参考に、そのグループ(チーム)の次のオンライン朝礼に活かすことが可能になる。なお、図15では、集団活性度を点数化しているが、点数に代えて記号、マーク等で与えられてもよい。例えば、晴れ、曇り、雨などのマーク、記号を用いてもよい。このような表示形態は、以降、点数として表示されるものすべてに適用可能である。
Morning assembly score (group activity level) FIG. 15 is a diagram showing an example of a report display screen (morning assembly score) in a communication terminal. As shown in FIG. 15, a morning assembly score screen 3121 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The morning assembly score screen 3121 displays the group activity level (morning assembly score) based on the individual energy level of each participant calculated in step S108-11. The breakdown is a nod score, a smile score, a speaker score, a speech ratio score, and a gratitude score, each of which is expressed, for example, as a score out of a maximum of 20 points. Then, as an overall evaluation score, a total score out of the maximum score (maximum of 100 points) is displayed. The morning assembly score screen 3121 further includes a comment on this score as an overall evaluation. As a result, each participant or a leader of a group (team) who receives this report can use the notified score and overall evaluation as a reference for the next online morning assembly of the group (team). In Fig. 15, the group activity level is expressed as a score, but it may be expressed as a symbol, mark, etc. instead of a score. For example, marks or symbols such as sunny, cloudy, rainy, etc. may be used. Such a display form is applicable to all things displayed as a score hereafter.
〇元気点数(個人元気度)〇
図16は、通信端末におけるレポート表示画面(元気点数)の一例を示す図である。図16に示されているように、通信端末3のディスプレイ307には、表示制御部34により元気点数画面3131が表示される。元気点数画面3131には、ステップS108-11で算出された個人元気度に基づく元気点数が表示される。その内訳は、ある日時に開催されたイベント(例えば、朝礼)における各参加者の元気点数であり、例えば、10点満点中の点数で表される。元気点数画面3131には更に、総評として各参加者の点数に対するコメントが付記される。これにより、このレポートを受信した各参加者若しくはグループ(チーム)のリーダーは、各参加者の個人元気度を一度に把握することが可能になる。特に、リーダーは、点数が低い参加者がいた場合、その参加者にアラートを出して声掛けを促すことも可能になる。
○ Energy score (individual vitality level)○ FIG. 16 is a diagram showing an example of a report display screen (vitality score) in a communication terminal. As shown in FIG. 16, a vitality score screen 3131 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The vitality score screen 3131 displays a vitality score based on the individual vitality level calculated in step S108-11. The breakdown is the vitality score of each participant in an event (for example, a morning assembly) held on a certain date and time, and is expressed, for example, as a score out of 10 points. The vitality score screen 3131 further includes a comment on the score of each participant as an overall evaluation. This allows each participant or the leader of a group (team) who receives this report to grasp the individual vitality level of each participant at once. In particular, if there is a participant with a low score, the leader can issue an alert to that participant to encourage them to speak to him or her.
なお、図15、図16では、個人情報保護の観点から、参加者全員若しくはリーダーに各メンバーの個人情報をそのまま返すのではなく、チーム全体の点数と、各参加者の結果のみを返すようにしてもよい。 In addition, in Figures 15 and 16, from the perspective of protecting personal information, instead of returning the personal information of each member directly to all participants or to the leader, it is also possible to return only the score of the entire team and the results of each participant.
〇過去のオンライン朝礼点数〇
図17は、通信端末におけるレポート表示画面(過去のオンライン朝礼点数)の一例を示す図である。図17に示されているように、通信端末3のディスプレイ307には、表示制御部34により過去朝礼点数画面3141が表示される。過去朝礼点数画面3141には、ステップS108-11で算出された個人元気度に基づくある参加者の過去朝礼点数が表示される。その内訳は、最新の朝礼開催日を含む過去数回の朝礼におけるグループ(チーム)の頷き点数、笑顔点数、発話者点数、発話比率点数及び感謝点数が20点満点で表示される。なお、過去朝礼点数画面3141における結果は、過去のオンライン朝礼の開催日時とそれぞれの点数とを対応させた図表(グラフ形式、表形式等)で表示されてもよい。これにより、このレポートを受信した各参加者若しくはグループ(チーム)のリーダーは、過去のオンライン朝礼におけるそれぞれの点数を一度に把握することが可能になり、日時の変化、朝礼に内容といった要因による各参加者の変化を推測することも可能になる。
Past online morning assembly scores FIG. 17 is a diagram showing an example of a report display screen (past online morning assembly scores) in a communication terminal. As shown in FIG. 17, a past morning assembly score screen 3141 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The past morning assembly score screen 3141 displays the past morning assembly scores of a certain participant based on the individual vitality calculated in step S108-11. The breakdown is displayed on a scale of 20 points for the nod score, smile score, speaker score, speech ratio score, and gratitude score of the group (team) in the past several morning assemblies including the latest morning assembly day. The results on the past morning assembly score screen 3141 may be displayed in a chart (graph format, table format, etc.) that corresponds the date and time of the past online morning assembly and each score. This allows each participant or group (team) leader who receives this report to grasp the scores of each participant in the past online morning assembly at once, and also makes it possible to estimate changes in each participant due to factors such as changes in date and time and the content of the morning assembly.
〇頷き点数〇
図18は、通信端末におけるレポート表示画面(頷き検出時)の一例を示す図である。図18に示されているように、通信端末3のディスプレイ307には、表示制御部34により頷き点数画面3151が表示される。頷き点数画面3151には、ステップS108-11で算出された個人元気度に基づく1分間あたりの頷き回数が4回以上の参加者の頷き回数及び頷き点数が、グラフ化、点数化して表示される。頷き点数画面3151における上段のグラフは、解析した日の会議の結果が示され、下段のグラフは、過去との比較結果が示されている。頷き点数画面3151には更に、頷きの点数に応じたコメント、及び過去との比較を踏まえたコメントがそれぞれフィードバックされる。これにより、このレポートを受信した各参加者若しくはグループ(チーム)のリーダーは、解析した日のイベントとこれまでのイベントとの結果を容易に把握、比較できるようになる。なお、本実施例では頷きの回数をカウントしているが、頷き回数ではなく頷き時間として解析してもよい。
Nodding score FIG. 18 is a diagram showing an example of a report display screen (when nodding is detected) in a communication terminal. As shown in FIG. 18, a nodding score screen 3151 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The nodding score screen 3151 displays the number of noddings and the nodding scores of participants who nod four or more times per minute based on the individual vitality calculated in step S108-11 in a graph and a score. The upper graph on the nodding score screen 3151 shows the results of the conference on the analyzed day, and the lower graph shows the results of the comparison with the past. The nodding score screen 3151 further provides feedback on comments according to the nodding scores and comments based on the comparison with the past. This allows each participant or group (team) leader who receives this report to easily understand and compare the results of the event on the analyzed day with those of past events. In this embodiment, the number of noddings is counted, but the analysis may be performed using nodding time instead of the number of noddings.
〇笑顔点数〇
図19は、通信端末におけるレポート表示画面(笑顔検出時)の一例を示す図である。図19に示されているように、通信端末3のディスプレイ307には、表示制御部34により笑顔点数画面3161が表示される。笑顔点数画面3161には、ステップS108-11で算出された個人元気度に基づく笑顔回数が2回以上の参加者の笑顔回数及び笑顔点数が、グラフ化、点数化して表示される。笑顔点数画面3161における上段のグラフは、解析した日の会議の結果が示され、下段のグラフは、過去との比較結果が示されている。笑顔点数画面3161には更に、笑顔の点数に応じたコメント、及び過去との比較を踏まえたコメントがそれぞれフィードバックされる。これにより、このレポートを受信した各参加者若しくはグループ(チーム)のリーダーは、解析した日のイベントとこれまでのイベントとの結果を容易に把握、比較できるようになる。なお、本実施例では笑顔の回数をカウントしているが、笑顔の回数ではなく笑顔の時間として解析してもよい。
Smile Score FIG. 19 is a diagram showing an example of a report display screen (when a smile is detected) in a communication terminal. As shown in FIG. 19, a smile score screen 3161 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The smile score screen 3161 displays the number of smiles and smile scores of participants who have smiled twice or more based on the individual vitality calculated in step S108-11 in a graph and a score. The upper graph on the smile score screen 3161 shows the results of the meeting on the analyzed day, and the lower graph shows the results of a comparison with the past. The smile score screen 3161 also provides feedback on comments according to the smile score and comments based on a comparison with the past. This allows each participant or group (team) leader who receives this report to easily understand and compare the results of the event on the analyzed day with those of past events. In this embodiment, the number of smiles is counted, but the analysis may be performed using the time spent smiling instead of the number of smiles.
〇発話比率〇
図20は、通信端末におけるレポート表示画面(発話比率)の一例を示す図である。図20に示されているように、通信端末3のディスプレイ307には、表示制御部34により発話比率点数画面3171が表示される。発話比率点数画面3171には、ステップS108-11で算出された個人元気度に基づくファシリテータの発話比率の割合として、ファシリテータ(例えば、リーダー)以外の参加者の発話時間が、グラフ化、点数化して表示される。発話比率点数画面3171における上段のグラフは、解析した日の会議の結果が示され、下段のグラフは、過去との比較結果が示されている。発話比率点数画面3171には更に、発話比率の点数に応じたコメント、及び過去との比較を踏まえたコメントがそれぞれフィードバックされる。これにより、このレポートを受信した各参加者若しくはグループ(チーム)のリーダーは、ファシリテータ以外の参加者の発話時間の関係を容易に把握、比較できるようになる。
○ Speech ratio ○ FIG. 20 is a diagram showing an example of a report display screen (speech ratio) in a communication terminal. As shown in FIG. 20, a speech ratio score screen 3171 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The speech ratio score screen 3171 displays the speech time of participants other than the facilitator (e.g., leader) as a graph and a score as a ratio of the facilitator's speech ratio based on the individual vitality calculated in step S108-11. The upper graph in the speech ratio score screen 3171 shows the results of the conference on the analyzed day, and the lower graph shows the comparison result with the past. The speech ratio score screen 3171 further provides feedback on comments according to the score of the speech ratio and comments based on the comparison with the past. This allows each participant or the leader of the group (team) who receives this report to easily grasp and compare the relationship of the speech time of participants other than the facilitator.
〇発話者点数〇
図21は、通信端末におけるレポート表示画面(発話者)の一例を示す図である。図21に示されているように、通信端末3のディスプレイ307には、表示制御部34により発話者点数画面3181が表示される。発話者点数画面3181には、ステップS108-11で算出された個人元気度に基づく発話者の人数の関係が○、×表記で表示される。発話者点数画面3181における上段の表は、解析した日の会議の結果が示され、下段のグラフは、過去との比較結果が示されている。発話者点数画面3181には更に、各参加者の発話(発言)結果に応じたコメント、及び過去との比較を踏まえたコメントがそれぞれフィードバックされる。これにより、このレポートを受信した各参加者若しくはグループ(チーム)のリーダーは、各参加者の発話状況を容易に把握し、参加者間の発話状況を容易に比較できるようになる。また、例えば会議の冒頭に挨拶をした場合なども発話としてカウントしてしまうと、ほぼ参加者全員が発話者としてカウントされてしまうため、1回の発話時間に閾値(例えば、6秒間)を設けている。これによって単純な挨拶のみや、問いかけに対する短い返答を発話として認識させないようにしている。なお、本実施形態では発話者点数を○、×表記で表示しているが、棒グラフなどで表示してもよい。
Speaker Score FIG. 21 is a diagram showing an example of a report display screen (speaker) in a communication terminal. As shown in FIG. 21, a speaker score screen 3181 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The speaker score screen 3181 displays the relationship between the number of speakers based on the individual vitality calculated in step S108-11 with ○ and × notation. The table in the upper part of the speaker score screen 3181 shows the results of the conference on the analyzed day, and the graph in the lower part shows the results of comparison with the past. The speaker score screen 3181 further provides feedback on comments according to the speech (comment) results of each participant and comments based on the comparison with the past. This allows each participant or group (team) leader who receives this report to easily grasp the speech situation of each participant and easily compare the speech situations between the participants. Also, if a greeting at the beginning of a meeting were counted as an utterance, almost all participants would be counted as speakers, so a threshold is set for the duration of each utterance (for example, 6 seconds). This prevents simple greetings or short responses to questions from being recognized as utterances. In this embodiment, the speaker scores are displayed as O or X marks, but they may also be displayed as a bar graph or the like.
〇感謝点数〇
図22は、通信端末におけるレポート表示画面(感謝のことば検出時)の一例を示す図である。図22に示されているように、通信端末3のディスプレイ307には、表示制御部34により感謝点数画面3191が表示される。感謝点数画面3191には、ステップS108-11で算出された個人元気度に基づく感謝を伝えた数がグラフ化、点数化して表示される。この場合の感謝は、発話に関しては例えば、「ありがとう」、「助かりました」、「おかげさまで」などのことばであってよく、日本語のみならず外国語による感謝のことばが含まれていてもよい。感謝点数画面3191における上段の表は、解析した日の会議の結果が示され、下段のグラフは、過去との比較結果が示されている。感謝点数画面3191には更に、各参加者間で感謝された数に応じたコメント、及び過去との比較を踏まえたコメントがそれぞれフィードバックされる。これにより、このレポートを受信した各参加者若しくはグループ(チーム)のリーダーは、各参加者の感謝の度合いを容易に把握することができるようになる。
〇Thanks Score〇 FIG. 22 is a diagram showing an example of a report display screen (when words of thanks are detected) in a communication terminal. As shown in FIG. 22, a thanks score screen 3191 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The thanks score screen 3191 displays the number of thanks expressed based on the individual vitality calculated in step S108-11 in a graph and a score. In this case, the thanks may be, for example, words such as "Thank you,""It helped me," and "Thanks to you," and may include words of thanks in not only Japanese but also in foreign languages. The table in the upper part of the thanks score screen 3191 shows the results of the conference on the analyzed day, and the graph in the lower part shows the results of a comparison with the past. The thanks score screen 3191 further provides feedback on comments according to the number of thanks expressed between each participant and comments based on a comparison with the past. This allows each participant or group (team) leader who receives this report to easily grasp the degree of gratitude of each participant.
本実施形態に係る情報解析システムでは、例えば、上述したステップS106及びS109の処理が実行される場合、通信端末3と情報解析装置5との間に他の装置等が存在してもよい。つまり、通信端末3と情報解析装置5との間で送受信される各情報(データ)は、一度他の装置等を介して送受信されるような構成であってもよい。上述した構成は、通信端末3と情報解析装置5との間に他の処理ステップが存在した場合でも適用することが可能である。 In the information analysis system according to this embodiment, for example, when the processes of steps S106 and S109 described above are executed, other devices, etc. may exist between the communication terminal 3 and the information analysis device 5. In other words, each piece of information (data) transmitted and received between the communication terminal 3 and the information analysis device 5 may be configured to be transmitted and received once via another device, etc. The above-described configuration can be applied even when other processing steps exist between the communication terminal 3 and the information analysis device 5.
〔第1の実施形態の主な効果〕
以上説明したように本実施形態によれば、情報解析システム1における通信端末3は、Webカメラ等により各参加者の顔を含む画像に係る画像データ、並びに、音声マイク等により各参加者の発話に係る音声データを取得し(ステップS103)、取得した複数の参加者の画像データ及び音声データを情報解析装置5に対して送信する(ステップS106)。
情報解析装置5は、通信端末3が送信した画像データ及び音声データに基づいて、複数の参加者の状態を解析して通信端末3で表示可能な解析結果に係るレポートデータを生成する(ステップS108)。これにより、オンラインを利用したイベントにおいても、発話のみならず表情に基づく参加者の状態を把握し、発話と表情から得られる情報を活かすことが可能になるという効果を奏する。
[Major Effects of the First Embodiment]
As described above, according to this embodiment, the communication terminal 3 in the information analysis system 1 acquires image data relating to images including the faces of each participant using a webcam or the like, and audio data relating to the speech of each participant using an audio microphone or the like (step S103), and transmits the acquired image data and audio data of the multiple participants to the information analysis device 5 (step S106).
The information analysis device 5 analyzes the states of the multiple participants based on the image data and voice data transmitted by the communication terminal 3, and generates report data related to the analysis results that can be displayed on the communication terminal 3 (step S108). This has the effect of making it possible to grasp the states of the participants based on not only their speech but also their facial expressions, and to utilize information obtained from their speech and facial expressions, even in online events.
〔第2の実施形態〕
次に、第2の実施形態について説明する。第2の実施形態では、オンラインイベントの一例であるオンライン朝礼に参加した各参加者が使用する各通信端末3が、各参加者に対する録画及び録音を行い、録画データ及び録音データを個別に情報解析装置5に対して送信する形態である。そのため、情報解析システム1を構成する通信端末3及び情報解析装置5を構成するハードウエア資源は、実施形態1と同様であるため、説明を省略する。更に、通信端末3及び情報解析装置5の機能構成も実施形態と同様であるため、説明を省略する。
Second Embodiment
Next, a second embodiment will be described. In the second embodiment, each communication terminal 3 used by each participant who participates in an online morning meeting, which is an example of an online event, records and audios the video and audio data of each participant, and transmits the video and audio data individually to the information analysis device 5. Therefore, the hardware resources constituting the communication terminal 3 and the information analysis device 5 constituting the information analysis system 1 are the same as those in the first embodiment, and therefore the description will be omitted. Furthermore, the functional configurations of the communication terminal 3 and the information analysis device 5 are also the same as those in the embodiment, and therefore the description will be omitted.
<オンラインイベントにおける情報解析処理>
続いて、オンラインイベントにおける情報解析処理について説明する。図23は、第2の実施形態に係るオンラインイベントでの情報解析処理の一例を示すシーケンス図である。なお、図23に示されているステップS201(オンライン朝礼画面の表示),S202(オンライン朝礼開始操作の受付)の処理は、第1の実施形態で説明したステップS101,S102の各処理と同様である。なお、第2の実施形態で開催されるオンラインイベントは、第1の実施形態と同様にオンライン朝礼とする。
<Information analysis processing for online events>
Next, the information analysis process in the online event will be described. FIG. 23 is a sequence diagram showing an example of the information analysis process in the online event according to the second embodiment. Note that the processes of steps S201 (display of the online morning assembly screen) and S202 (acceptance of the online morning assembly start operation) shown in FIG. 23 are the same as the processes of steps S101 and S102 described in the first embodiment. Note that the online event held in the second embodiment is an online morning assembly as in the first embodiment.
●画面表示例●
ここで、通信端末3における表示画面例について説明する。図24は、第2の実施形態に係るオンラインイベントでの通信端末における表示画面の一例を示す図である。図24に示されているように、通信端末3のディスプレイ307には、表示制御部34によってオンライン朝礼画面3211が表示される。ここで、通信端末3で起動されるオンライン会議アプリは、一般的に知られているようなオンラインで利用される会議ツールであってよい。この場合、オンライン朝礼に参加している各ユーザの操作に基づいて開催される朝礼(イベント)が指定され、入室(参加)ボタン、アイコン等の操作に応じたオンライン朝礼画面が各通信端末3のディスプレイ307に表示される。オンライン朝礼画面3211には、オンライン朝礼に参加している参加者Aの顔画像データ(静止画又は動画)が表示される。このとき、他の参加者B,C,D,E,Fの画像は、参加者Aの画像の横に参加者Aの顔画像よりも小さいサイズで表示される。したがって、この表示形態の場合は、参加者Aの顔の表情だけ表情検出モニタが起動される。また、タスクバーには、録画ボタン3651、録音ボタン3652、開始ボタン3653、及び終了ボタン3654が表示される。各参加者は、これらのボタンに対してカーソル等を用いて操作して、オンライン朝礼における録画、録音、開始及び終了の各操作を各参加者のタイミングで行うことができる。また、オンライン朝礼画面3211では、表示制御部34により、発話をしている発話者の枠内が太く表示、若しくは枠が点滅するように表示されてもよい。これにより、オンライン朝礼に参加中のメンバーのうち、誰が発言(発話)しているかを目視でも確認することができる。
●Screen display example●
Here, an example of a display screen in the communication terminal 3 will be described. FIG. 24 is a diagram showing an example of a display screen in the communication terminal in an online event according to the second embodiment. As shown in FIG. 24, an online morning assembly screen 3211 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. Here, the online conference application started on the communication terminal 3 may be a conference tool used online as is generally known. In this case, the morning assembly (event) to be held based on the operation of each user participating in the online morning assembly is specified, and an online morning assembly screen corresponding to the operation of an entry (participation) button, an icon, etc. is displayed on the display 307 of each communication terminal 3. The online morning assembly screen 3211 displays face image data (still image or video) of participant A participating in the online morning assembly. At this time, the images of the other participants B, C, D, E, and F are displayed next to the image of participant A in a size smaller than the face image of participant A. Therefore, in this display form, the facial expression detection monitor is started only for the facial expression of participant A. Also, the task bar displays a video recording button 3651, a sound recording button 3652, a start button 3653, and an end button 3654. Each participant can operate these buttons with a cursor or the like to record, record, start, and end the online morning assembly at their own timing. Also, on the online morning assembly screen 3211, the display control unit 34 may display the frame of the speaker who is speaking in a thicker frame or with a blinking frame. This allows the user to visually confirm who is speaking (uttering) among the members participating in the online morning assembly.
図23に戻り、取得部33及び記憶読出部39は、参加者の画像データ及び音声データを取得・保存する(ステップS203)。具体的には、オンライン朝礼に参加した各参加者が使用する各通信端末3の取得部33が、Webカメラ等で構成される画像取得部により通信端末3を使用する参加者の顔を含む画像に係る画像データ、並びに、音声マイク等で構成される音声取得部により各参加者の発話に係る音声データを取得する。その後、記憶読出部39は、取得した画像データ及び音声データを、記憶部3000の所定領域に記憶、保存する。なお、通信端末3の記憶読出部39は、オンライン朝礼が開催されている間、上述した画像取得部及び音声取得部を用いて次のオンライン朝礼操作終了操作が受け付けられるまで、ステップS203の処理を所定時間間隔(例えば5秒間隔)で繰り返し実行するようにしてもよい(ループ処理の実行)。 Returning to FIG. 23, the acquisition unit 33 and the memory readout unit 39 acquire and store image data and voice data of the participants (step S203). Specifically, the acquisition unit 33 of each communication terminal 3 used by each participant who participated in the online morning assembly acquires image data related to an image including the face of the participant using the communication terminal 3 by an image acquisition unit composed of a web camera or the like, and voice data related to the speech of each participant by a voice acquisition unit composed of a voice microphone or the like. Thereafter, the memory readout unit 39 stores and saves the acquired image data and voice data in a predetermined area of the memory unit 3000. Note that the memory readout unit 39 of the communication terminal 3 may repeatedly execute the process of step S203 at a predetermined time interval (e.g., 5-second intervals) while the online morning assembly is being held, using the above-mentioned image acquisition unit and voice acquisition unit, until the next online morning assembly operation end operation is accepted (execution of loop processing).
続くステップS204の処理は、第1の実施形態で説明したステップS104の処理と同様である。 The subsequent processing in step S204 is similar to the processing in step S104 described in the first embodiment.
次に、記憶読出部59は、参加者の画像データ及び音声データを読み出す(ステップS105)。具体的には、記憶読出部59は、ステップS203で保存した画像データ及び音声データを各通信端末3の記憶部3000の所定領域から読み出す。このとき、記憶読出部59は、読み出した画像データを所定の画像(動画)データフォーマット(例えば、mp4)に変換し、音声データを所定の音声データフォーマット(例えば、wav)にそれぞれ変換する。その後、記憶読出部59は、生成部57と協働して、フォーマット変換されたそれぞれの画像データ及び音声データに対して、各参加者のユーザIDごとにフォルダを生成する。 Next, the memory readout unit 59 reads out the image data and audio data of the participants (step S105). Specifically, the memory readout unit 59 reads out the image data and audio data saved in step S203 from a predetermined area of the memory unit 3000 of each communication terminal 3. At this time, the memory readout unit 59 converts the read out image data into a predetermined image (video) data format (e.g., mp4) and converts the audio data into a predetermined audio data format (e.g., wav). Thereafter, the memory readout unit 59 cooperates with the generation unit 57 to generate a folder for each of the format-converted image data and audio data for each of the user IDs of the participants.
次に、各通信端末3の送受信部31は、情報解析装置5に対して、ステップS205で取得したデータを各通信端末3の任意のタイミングで送信(アップロード)する(ステップS206)。これにより、情報解析装置5の送受信部51は、各通信端末3が送信したそれぞれのデータを受信する。このとき、受信したそれぞれのデータには、アップロード対象の各参加者の画像データ、音声データ、及び参加者のメールアドレスにより生成されたフォルダが含まれる。なお、アップロードされるデータは、各通信端末3が起動したオンライン会議アプリを用いて朝礼中に録画、録音されたデータでもよいし、オンライン会議ツールにより録画、録音されたデータでもよい。 Next, the transmitting/receiving unit 31 of each communication terminal 3 transmits (uploads) the data acquired in step S205 to the information analyzing device 5 at a timing of each communication terminal 3's choice (step S206). As a result, the transmitting/receiving unit 51 of the information analyzing device 5 receives each data transmitted by each communication terminal 3. At this time, each received data includes image data and audio data of each participant to be uploaded, and a folder created by the participant's email address. Note that the data to be uploaded may be data recorded during the morning meeting using an online conference app launched by each communication terminal 3, or may be data recorded by an online conference tool.
ステップS207-S210までの処理は、第1の実施形態で説明したステップS107-S110までの処理と同様であるため、説明を省略する。 The processing from steps S207 to S210 is similar to the processing from steps S107 to S110 described in the first embodiment, so a description thereof will be omitted.
なお、上述した実施形態は、第1の実施形態における画像データ及び音声データの取得・保存方式、並びにデータアップロード方式と、第2の実施形態における画像データ及び音声データの取得・保存方式、並びにデータアップロード方式と、のそれぞれの方式を任意に組み合せたものであってもよい。 The above-described embodiment may be any combination of the image data and audio data acquisition and storage method and data upload method in the first embodiment and the image data and audio data acquisition and storage method and data upload method in the second embodiment.
〔第2の実施形態の主な効果〕
以上説明したように本実施形態によれば、情報解析システム1における各通信端末3は、それぞれの参加者の任意のタイミングで参加者自身の画像データ及び音声データを取得し、任意のタイミングで情報解析装置5に対して取得した画像データ及び音声データをアップロードする。これにより、第1の実施形態による効果に加えて、参加者の所属するグループ(チーム)のリーダーなどに画像データ及び音声データの取得操作、並びにデータのアップロードを行わせないため、リーダーなどの業務の負荷を軽減させることが可能になるという効果を奏する。
[Major Effects of the Second Embodiment]
As described above, according to this embodiment, each communication terminal 3 in the information analysis system 1 acquires image data and voice data of the participant himself/herself at a timing of the participant's choice, and uploads the acquired image data and voice data at a timing of the participant's choice to the information analysis device 5. This has the effect of reducing the workload of the leader of the group (team) to which the participants belong, since the leader is not required to acquire image data and voice data or upload data, in addition to the effect of the first embodiment.
〔実施形態の変形例〕
次に、実施形態の変形例について説明する。実施形態の変形例においても、第1の実施形態及び第2の実施形態に示したシステム構成、ハードウエア構成及び機能構成と共通であるため、それらの説明を省略する。ここでの変形例では、通信端末3で取得した各参加者の画像データ及び音声データを、オンラインイベントの終了を待たずに、オンラインイベント中に情報解析装置5に送信(アップロード)する場合を示している。
[Modifications of the embodiment]
Next, a modified example of the embodiment will be described. The modified example of the embodiment also has the same system configuration, hardware configuration, and functional configuration as those shown in the first and second embodiments, so the description thereof will be omitted. In this modified example, image data and audio data of each participant acquired by the communication terminal 3 is transmitted (uploaded) to the information analysis device 5 during the online event without waiting for the end of the online event.
<オンラインイベントにおける情報解析処理>
続いて、オンラインイベントにおける情報解析処理について説明する。図25は、実施形態の変形例に係るオンラインイベントでの情報解析処理の一例を示すシーケンス図である。なお、図25に示されているステップS251(オンライン朝礼画面の表示),S252(オンライン朝礼開始操作の受付)の処理は、第1の実施形態で説明したステップS101,S102の各処理と同様である。なお、変形例で開催されるオンラインイベントは、第1の実施形態と同様にオンライン朝礼とする。
<Information analysis processing for online events>
Next, the information analysis process in the online event will be described. FIG. 25 is a sequence diagram showing an example of the information analysis process in the online event according to the modified example of the embodiment. Note that the processes of steps S251 (display of the online morning assembly screen) and S252 (acceptance of the online morning assembly start operation) shown in FIG. 25 are the same as the processes of steps S101 and S102 described in the first embodiment. Note that the online event held in the modified example is an online morning assembly as in the first embodiment.
次に、取得部33は、参加者の画像データ及び音声データを取得する(ステップS253)。具体的には、オンライン朝礼に参加した各参加者が使用する各通信端末3の取得部33が、Webカメラ等で構成される画像取得部により通信端末3を使用する各参加者の顔を含む画像に係る画像データ、並びに、音声マイク等で構成される音声取得部により各参加者の発話に係る音声データを取得する。 Next, the acquisition unit 33 acquires image data and voice data of the participants (step S253). Specifically, the acquisition unit 33 of each communication terminal 3 used by each participant who participated in the online morning meeting acquires image data related to an image including the face of each participant using the communication terminal 3 by an image acquisition unit composed of a web camera or the like, and acquires voice data related to the speech of each participant by an audio acquisition unit composed of an audio microphone or the like.
続いて、通信端末3の送受信部31は、ステップS253で取得した情報解析装置5に対してデータを送信(アップロード)する(ステップS254)。これにより、情報解析装置5の送受信部51は、各通信端末3が送信したデータを受信する。このとき、受信したデータには、アップロード対象の各参加者の画像データ、音声データ、及び参加者のメールアドレスにより生成されたフォルダが含まれる。なお、アップロードされるデータは、各通信端末3が起動したオンライン会議アプリを用いて朝礼中に録画、録音されたデータでもよいし、オンライン会議ツールにより録画、録音されたデータでもよい。 Then, the transmitting/receiving unit 31 of the communication terminal 3 transmits (uploads) the data acquired in step S253 to the information analyzing device 5 (step S254). As a result, the transmitting/receiving unit 51 of the information analyzing device 5 receives the data transmitted by each communication terminal 3. At this time, the received data includes image data and audio data of each participant to be uploaded, and a folder created by the participant's email address. Note that the data to be uploaded may be data recorded during the morning meeting using an online conference app launched by each communication terminal 3, or may be data recorded by an online conference tool.
次のステップS255の処理は、第1の実施形態で説明したステップS107の処理と同様であるため、説明を省略する。なお、ステップS253-S255の処理は、次のオンライン朝礼操作終了操作が受け付けられるまで所定時間間隔(例えば5秒間隔)で繰り返し実行されるようにしてもよい(ループ処理の実行)。 The processing of the next step S255 is similar to the processing of step S107 described in the first embodiment, and therefore will not be described here. Note that the processing of steps S253-S255 may be repeatedly executed at a predetermined time interval (e.g., every 5 seconds) until the next online morning meeting operation end operation is accepted (execution of loop processing).
次に、通信端末3の操作受付部32は、オンライン朝礼終了操作を受け付ける(ステップS256)。 Next, the operation reception unit 32 of the communication terminal 3 receives an operation to end the online morning meeting (step S256).
続いて、送受信部31は、情報解析装置5に対して、朝礼終了通知を送信する(ステップS257)。これにより、情報解析装置5の送受信部51は、通信端末3が送信した
朝礼終了通知を受信する。このとき、朝礼終了通知には、朝礼終了を示す終了通知ボタン情報が含まれる。
Next, the transmitting/receiving unit 31 transmits a morning assembly end notification to the information analyzing device 5 (step S257). As a result, the transmitting/receiving unit 51 of the information analyzing device 5 receives the morning assembly end notification transmitted by the communication terminal 3. At this time, the morning assembly end notification includes end notification button information indicating the end of the morning assembly.
以降、ステップS258-S260までの処理は、第1の実施形態のステップS108-S110までの処理と同様であるため、説明を省略する。 The process from step S258 to step S260 is the same as the process from step S108 to step S110 in the first embodiment, so the explanation is omitted.
〔実施形態の変形例の主な効果〕
以上説明したように本実施形態によれば、通信端末3は、Webカメラ等で構成される画像取得部により通信端末3を使用する各参加者の顔を含む画像に係る画像データ、並びに、音声マイク等で構成される音声取得部により各参加者の発話に係る音声データを取得し、情報解析装置5に対して送信(アップロード)する。これにより、通信端末3では、取得した参加者の画像データ及び音声データを記憶させる必要がないため、例えば、通信端末3の記憶手段の増大に係るパフォーマンス、コストへの影響を考慮せずにオンラインイベントへの参加を実現することが可能になるという効果を奏する。
[Main Effects of the Modification of the Embodiment]
As described above, according to this embodiment, the communication terminal 3 acquires image data relating to an image including the face of each participant using the communication terminal 3 by an image acquisition unit configured with a Web camera or the like, and audio data relating to the speech of each participant by an audio acquisition unit configured with an audio microphone or the like, and transmits (uploads) the data to the information analysis device 5. As a result, the communication terminal 3 does not need to store the acquired image data and audio data of the participants, which has the effect of making it possible to realize participation in an online event without considering the impact on performance and costs associated with an increase in the storage means of the communication terminal 3, for example.
〔第3の実施形態〕
次に、第3の実施形態について説明する。第3の実施形態では、これまでに説明した第1の実施形態、第2の実施形態及び実施形態の変形例に対し、情報解析装置5においてオンライン朝礼に参加した各参加者に係るデータの取得可否、各参加者の解析結果の取扱いの観点にフォーカスし、それを実現する一例を説明する。具体的には、第3の実施形態では、後述する各参加者のダッシュボードにおいて操作される入力内容に応じて、各参加者に係る取得データの取扱いを予め設定する。これにより、オンラインで開催される所定のイベントに参加した複数の参加者のそれぞれに対し、各参加者に係るデータ(情報)の取扱いに対する合意形成を実現することを可能にする。
Third Embodiment
Next, a third embodiment will be described. In the third embodiment, in contrast to the first embodiment, the second embodiment, and the modified example of the embodiment described so far, the information analysis device 5 focuses on the viewpoint of whether data related to each participant who participated in the online morning meeting can be acquired and the viewpoint of handling the analysis results of each participant, and an example of realizing this will be described. Specifically, in the third embodiment, the handling of acquired data related to each participant is set in advance according to the input contents operated on the dashboard of each participant described later. This makes it possible to realize a consensus on the handling of data (information) related to each participant for each of the multiple participants who participated in a specific event held online.
第3の実施形態では、情報解析システム1を構成する通信端末3及び情報解析装置5を構成するハードウエア資源は、実施形態1と同様であるため、説明を省略する。更に、通信端末3及び情報解析装置5の機能構成も実施形態と同様であるため、説明を省略する。但し、情報解析装置5は、後述する個人データ利用管理DB5005を新たに管理する。 In the third embodiment, the hardware resources constituting the communication terminal 3 and the information analysis device 5 constituting the information analysis system 1 are the same as those in the first embodiment, and therefore a description thereof will be omitted. Furthermore, the functional configurations of the communication terminal 3 and the information analysis device 5 are also the same as those in the embodiment, and therefore a description thereof will be omitted. However, the information analysis device 5 newly manages a personal data usage management DB 5005, which will be described later.
〔情報解析システムの機能構成〕
次に、図26及び図27を用いて、本実施形態の機能構成について説明する。図26は、第3の実施形態に係る情報解析システムの全体構成の一例を示す図である。なお、通信端末3の一部の機能及び情報解析装置5の各機能構成は、第1の実施形態で説明した内容と同様であるため、説明を省略する。
[Functional configuration of the information analysis system]
Next, the functional configuration of this embodiment will be described with reference to Fig. 26 and Fig. 27. Fig. 26 is a diagram showing an example of the overall configuration of an information analysis system according to the third embodiment. Note that some functions of the communication terminal 3 and each functional configuration of the information analysis device 5 are the same as those described in the first embodiment, and therefore description thereof will be omitted.
<<通信端末の各機能構成>>
第3の実施形態に係る通信端末3の各機能構成のうち、表示制御部34は、複数の参加者の状態を解析する目的を各参加者に伝えるための説明動画を再生可能なアイコンを、ディスプレイ307に表示させる。また表示制御部34は、説明動画が再生された後、解析のためのデータの取得を許可するか否かを選択可能な取得許可選択部を、ディスプレイ307に表示させる。但し、表示制御部34は、上述した説明動画を再生可能なアイコンの表示を省略してもよい。その場合、通信端末3は、説明動画の再生も省略してもよい。また表示制御部34は、解析処理部56によって解析が行われた後、解析結果に係る通知を受け取るか否かを選択可能な通知受取選択部を、ディスプレイ307に表示させる。表示制御部34は更に、特定の参加者に係る解析結果を特定の参加者のリーダーに開示することを許可するか否かを選択可能な開示許可選択部を、ディスプレイ307に表示させる。
<<Functional configuration of communication terminal>>
Among the functional components of the communication terminal 3 according to the third embodiment, the display control unit 34 causes the display 307 to display an icon capable of playing an explanatory video for informing each participant of the purpose of analyzing the state of the multiple participants. After the explanatory video is played, the display control unit 34 also causes the display 307 to display an acquisition permission selection unit capable of selecting whether or not to permit acquisition of data for analysis. However, the display control unit 34 may omit displaying the icon capable of playing the explanatory video described above. In that case, the communication terminal 3 may also omit playing the explanatory video. After the analysis is performed by the analysis processing unit 56, the display control unit 34 also causes the display 307 to display a notification reception selection unit capable of selecting whether or not to receive a notification related to the analysis result. The display control unit 34 further causes the display 307 to display a disclosure permission selection unit capable of selecting whether or not to permit disclosure of the analysis result related to a specific participant to the leader of a specific participant.
<<情報解析装置の各機能構成>>
第3の実施形態に係る情報解析装置5では、次に説明する個人データ利用管理テーブル(個人データ利用管理DB5005)が追加される。この個人データ利用管理テーブルについて、以下に説明する。
<<Functional configuration of information analysis device>>
In the information analyzing device 5 according to the third embodiment, a personal data usage management table (personal data usage management DB 5005) is added, which will be described next. This personal data usage management table will be described below.
●個人データ利用管理テーブル●
図27は、第3の実施形態に係る個人データ利用管理テーブルの一例を示す概念図である。なお、以下に説明するデータテーブルの構造は一例であり、これに限るものではない。記憶部5000には、図27に示されているような個人データ利用管理テーブルによって構成された個人データ利用管理DB5005が構築されている。個人データ利用管理テーブルでは、イベントID(又はイベントの内容)をタブとしたそれぞれのタブごとに、ユーザID、グループ(チーム)名、ユーザ名、データ取得の許否、通知の受取り、データ開示の許否を含む項目が関連付けられて記憶、管理されている。
●Personal data usage management table●
FIG. 27 is a conceptual diagram showing an example of a personal data usage management table according to the third embodiment. Note that the structure of the data table described below is an example, and is not limited thereto. A personal data usage management DB 5005 configured by the personal data usage management table as shown in FIG. 27 is constructed in the storage unit 5000. In the personal data usage management table, items including a user ID, a group (team) name, a user name, permission or denial of data acquisition, receipt of notification, and permission or denial of data disclosure are associated with each tab with an event ID (or event contents) as a tab, and are stored and managed.
これらのうち、データ取得の許否は、オンライン朝礼に参加した参加者に係る解析データの取得を許可するか否かを管理する項目である。通知の受取りは、解析完了時のメール等による通知を受け取るか否かを管理する項目である。データ開示の許否は、自分の解析結果をリーダーに開示することを許可するか否かを管理する項目である。このように、個人データ利用管理テーブルでは、所定のイベントのリーダー以外の参加者(メンバー)に係る各種許否情報を管理するデータテーブルとして利用されてもよい。 Of these, permission to obtain data is an item that manages whether or not acquisition of analysis data related to participants who attended the online morning assembly is permitted. Receipt of notification is an item that manages whether or not notification is received by email or the like when analysis is completed. Permission to disclose data is an item that manages whether or not disclosure of one's analysis results to the leader is permitted. In this way, the personal data usage management table may be used as a data table that manages various permission information related to participants (members) other than the leader of a specified event.
なお、データ取得の許否、通知の受取り、データ開示の許否については、後述する各参加者の通信端末3のダッシュボード上に表示された利用者設定画面において選択入力された内容が、ユーザIDごとに対応付けられて設定される。 The permission to obtain data, receive notifications, and disclose data is set for each user ID based on the selections and inputs made on the user settings screen displayed on the dashboard of each participant's communication terminal 3, which will be described later.
本実施形態において個人データ利用管理テーブル(個人データ利用管理DB5005)は、個人データ利用管理手段の一例として機能する。 In this embodiment, the personal data usage management table (personal data usage management DB5005) functions as an example of a personal data usage management means.
<個人データ利用設定処理>
次に、個人データ利用設定処理について説明する。図28は、第3の実施形態に係る個人データ利用設定処理の一例を示すシーケンス図である。図28に示されているように、情報解析システム1を利用するユーザ(オンライン朝礼の参加者)は、通信端末3を用いてオンライン会議アプリ又は所定のURLをアクセスすることによりWebブラウザを起動する。これにより、通信端末3の表示制御部34は、通信端末3のディスプレイ307にログイン(サインイン)画面を表示させる(ステップS301)。
<Personal data usage setting processing>
Next, the personal data use setting process will be described. Fig. 28 is a sequence diagram showing an example of the personal data use setting process according to the third embodiment. As shown in Fig. 28, a user (a participant of an online morning meeting) who uses the information analysis system 1 starts a web browser by accessing an online conference app or a specified URL using the communication terminal 3. As a result, the display control unit 34 of the communication terminal 3 displays a login (sign-in) screen on the display 307 of the communication terminal 3 (step S301).
続いて、オンライン朝礼の参加者はログイン(サインイン)操作を行う。これにより、操作受付部32は、参加者によるログイン(サインイン)操作を受け受ける(ステップS302)。 Next, the participants of the online morning assembly perform a login (sign-in) operation. This causes the operation reception unit 32 to accept the login (sign-in) operation by the participants (step S302).
●画面表示例●
ここで、通信端末3における表示画面例について説明する。図29は、第3の実施形態に係る通信端末におけるサインイン画面の一例を示す図である。図29に示されているように、通信端末3のディスプレイ307には、表示制御部34によってサインイン画面3221が表示される。サインイン画面3221では、ステップS301で起動された朝礼診断ソリューションのタイトル、ユーザ名及びパスワードを入力する入力欄と、サインインを実行するためのサインインボタン3752が表示される。これにより、オンライン朝礼に参加する予定の各参加者は、各々の通信端末3を利用してサインインを行うことができる。
●Screen display example●
Here, an example of a display screen in the communication terminal 3 will be described. FIG. 29 is a diagram showing an example of a sign-in screen in the communication terminal according to the third embodiment. As shown in FIG. 29, a sign-in screen 3221 is displayed on the display 307 of the communication terminal 3 by the display control unit 34. The sign-in screen 3221 displays the title of the morning assembly diagnostic solution started in step S301, input fields for inputting a user name and password, and a sign-in button 3752 for executing sign-in. This allows each participant who plans to participate in the online morning assembly to sign in using their respective communication terminals 3.
図28に戻り、表示制御部34は、サービス内容紹介動画再生アイコンを表示する(ステップS303)。具体的には、表示制御部34は、ディスプレイ307にサービス内容紹介動画再生アイコンを含む画面を表示させる。 Returning to FIG. 28, the display control unit 34 displays a service content introduction video playback icon (step S303). Specifically, the display control unit 34 causes the display 307 to display a screen including the service content introduction video playback icon.
●画面表示例●
図30は、第3の実施形態に係る通信端末における動画再生画面の一例を示す図である。図30に示されているように、通信端末3のディスプレイ307には、表示制御部34によってサービス内容紹介画面3222が表示される。サービス内容紹介画面3222では、ステップS301で起動された朝礼診断ソリューションのタイトル、サービス内容動画を再生するための再生アイコン(四角内に右向き三角マーク)3231が表示される。ここで、サービス内容動画は例えば、複数の参加者の状態を解析する目的を各参加者に伝えるための動画である。動画による提供は、サービス内容、利用上の注意、ソフトウエア使用許諾等に係る各種情報をテキスト情報で与えた場合、最後まで読まずに同意等の処理をしてしまう利用者(参加者)を考慮した一つの解決手段(方法)である。これにより、オンライン朝礼に参加する予定の各参加者は、再生アイコン3231を操作して動画を再生させ、動画の視聴を終了した時点で「次へ」ボタン3752を操作して他の画面に遷移させることができる。
●Screen display example●
FIG. 30 is a diagram showing an example of a video playback screen in a communication terminal according to the third embodiment. As shown in FIG. 30, a service content introduction screen 3222 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. On the service content introduction screen 3222, the title of the morning assembly diagnostic solution started in step S301 and a playback icon (right-facing triangle mark in a square) 3231 for playing the service content video are displayed. Here, the service content video is, for example, a video for informing each participant of the purpose of analyzing the status of multiple participants. Providing the video is one solution (method) that takes into consideration users (participants) who, when various information related to the service content, usage precautions, software license, etc. is given as text information, will proceed with consent without reading to the end. As a result, each participant who plans to participate in the online morning assembly can operate the playback icon 3231 to play the video, and when they finish watching the video, they can operate the "Next" button 3752 to transition to another screen.
図28に再び戻り、表示制御部34は、同意登録画面を表示する(ステップS304)。具体的には、表示制御部34は、ディスプレイ307に確認及び同意に係る登録画面を表示させる。 Returning to FIG. 28, the display control unit 34 displays the consent registration screen (step S304). Specifically, the display control unit 34 causes the display 307 to display a registration screen related to confirmation and consent.
●画面表示例●
図31は、第3の実施形態に係る通信端末における確認及び同意に係る登録画面の一例を示す図である。図31に示されているように、通信端末3のディスプレイ307には、表示制御部34によって確認同意登録画面3223が表示される。確認同意登録画面3223では、ステップS301で起動された朝礼診断ソリューションのタイトル、参加者の書誌情報(所属企業名、名字、名前)、利用上の注意を確認したことをチェックするチェックボックス、ソフトウエア使用契約許諾に同意することをチェックするチェックボックスが表示される。これにより、オンライン朝礼に参加する予定の各参加者は、利用上の注意を確認したこと、ソフトウエア使用契約許諾に同意すること、を「登録」ボタン3752を操作することにより、情報解析装置5に対して登録させることができる。
●Screen display example●
31 is a diagram showing an example of a registration screen related to confirmation and consent in a communication terminal according to the third embodiment. As shown in FIG. 31, a confirmation consent registration screen 3223 is displayed on the display 307 of the communication terminal 3 by the display control unit 34. In the confirmation consent registration screen 3223, the title of the morning assembly diagnostic solution started in step S301, the bibliographic information of the participants (the company name, the surname, the given name), a check box for checking that the usage precautions have been confirmed, and a check box for checking that the software usage contract is agreed to are displayed. As a result, each participant who plans to participate in the online morning assembly can register in the information analysis device 5 that the usage precautions have been confirmed and that the software usage contract is agreed to by operating the "Register" button 3752.
図28に再び戻り、操作受付部32は、同意登録操作を受け付ける(ステップS305)。具体的には、操作受付部32は、図31に示した確認同意登録画面3223中の書誌事項の入力の受付、利用上の注意を確認したことのチェック入力、ソフトウエア使用契約許諾に同意することのチェック入力、「登録」ボタン3752に対する操作を、それぞれ受け付ける。 Returning to FIG. 28, the operation reception unit 32 receives the consent registration operation (step S305). Specifically, the operation reception unit 32 receives the input of bibliographic information in the confirmation consent registration screen 3223 shown in FIG. 31, the check input indicating that the usage precautions have been confirmed, the check input indicating that the user agrees to the software license agreement, and the operation of the "Register" button 3752.
続いて表示制御部34は、ダッシュボード画面を表示させる(ステップS306)。具体的には、上述したステップS305において「登録」ボタン3752が操作されたことを起点に、表示制御部34は、参加者の通信端末3のディスプレイ307にその参加者のダッシュボード画面を表示させる。 Then, the display control unit 34 displays the dashboard screen (step S306). Specifically, starting from the operation of the "Register" button 3752 in the above-mentioned step S305, the display control unit 34 displays the dashboard screen of the participant on the display 307 of the communication terminal 3 of the participant.
●画面表示例●
図32は、第3の実施形態に係る通信端末における利用者設定画面の一例を示す図である。図32に示されているように、通信端末3のディスプレイ307には、表示制御部34によってダッシュボード画面3311が表示される。ダッシュボード画面3311では、各参加者の名称を含むメニュータブ(Report, Schedule, Setting, Sign Out)、メニュータブに対応する設定画面が表示される。図32に示した例では、メニュータブのうち「Setting」について、
・プルダウンキーでチーム名を選択可能な領域
と、各メンバーに対して、
・データの所得を許可するためのスライド式の切替ボタン
・解析完了時にメールによる通知を受け取るためのスライド式の切替ボタン
・自分の解析結果をリーダーに開示することを許可するためのスライド式の切替ボタン
がそれぞれ表示される。なお、各選択ボタンの初期状態は、それぞれON(許否選択のうちの「許可する」又は「受け取る」)が選択されている。これにより、各参加者は、オンライン朝礼等の所定のイベントに対して、その日の自身の体調、精神的な状態などに応じて、データの取得の許否、通知の受取りの許否、解析結果のリーダーへの開示許否を自由に選択することができる。
●Screen display example●
Fig. 32 is a diagram showing an example of a user setting screen in a communication terminal according to the third embodiment. As shown in Fig. 32, a dashboard screen 3311 is displayed on the display 307 of the communication terminal 3 by the display control unit 34. On the dashboard screen 3311, menu tabs (Report, Schedule, Setting, Sign Out) including the names of each participant and setting screens corresponding to the menu tabs are displayed. In the example shown in Fig. 32, for "Setting" among the menu tabs,
- An area where you can select team names using the pull-down keys, and for each member,
A slide switch button for allowing data acquisition, a slide switch button for receiving email notification when analysis is complete, and a slide switch button for allowing disclosure of one's analysis results to the leader are displayed. The initial state of each selection button is ON ("Allow" or "Receive" in the permission/denial selection). This allows each participant to freely select whether to allow data acquisition, whether to receive notifications, and whether to allow disclosure of analysis results to the leader for a given event such as an online morning meeting, depending on their own physical condition, mental state, etc. on that day.
図28に再び戻り、操作受付部32は、個人データ利用設定操作を受け付ける(ステップS307)。具体的には、操作受付部32は、図32に示したダッシュボード画面3311中のデータの所得許否の選択入力、通知受取許否の選択入力を、解析結果の開示許否の選択入力をそれぞれ受け付ける。 Returning to FIG. 28 again, the operation reception unit 32 receives a personal data usage setting operation (step S307). Specifically, the operation reception unit 32 receives a selection input of whether or not to allow data acquisition in the dashboard screen 3311 shown in FIG. 32, a selection input of whether or not to allow notification to be received, and a selection input of whether or not to allow disclosure of the analysis results.
次に、送受信部31は、情報解析装置5に対して個人データ利用設定要求を送信する(ステップS308)。これにより、情報解析装置5の送受信部51は、通信端末3が送信した個人データ利用設定要求を受信する。このとき、個人データ利用設定要求には、イベントID、イベント名等のイベント情報、各参加者の電子メールアドレス、ダッシュボード画面3311において各参加者が入力した操作入力データが含まれる。 Next, the transmission/reception unit 31 transmits a personal data usage setting request to the information analyzing device 5 (step S308). As a result, the transmission/reception unit 51 of the information analyzing device 5 receives the personal data usage setting request transmitted by the communication terminal 3. At this time, the personal data usage setting request includes event information such as the event ID and event name, the email addresses of each participant, and the operation input data input by each participant on the dashboard screen 3311.
次に、情報解析装置5の解析処理部56は、個人データ利用設定処理を行う(ステップS309)。具体的には、解析処理部56は記憶読出部59を介して、個人データ利用管理DB5005(図27参照)で管理されている各項目の対応する項目に、ステップS308で受信した個人データ利用設定要求に含まれる情報を設定する。より具体的には、解析処理部56は、イベントID、イベント名等のイベント情報、各参加者の電子メールアドレス、操作入力データ(データ取得の許否、通知の受取り、データ開示の許否)を、個人データ利用管理DB5005の対応する項目に対して設定する。 Next, the analysis processing unit 56 of the information analysis device 5 performs a personal data usage setting process (step S309). Specifically, the analysis processing unit 56 sets the information included in the personal data usage setting request received in step S308 in the corresponding items managed in the personal data usage management DB 5005 (see FIG. 27) via the storage and reading unit 59. More specifically, the analysis processing unit 56 sets the event information such as the event ID and event name, the email address of each participant, and the operation input data (permission of data acquisition, receipt of notification, and permission of data disclosure) in the corresponding items in the personal data usage management DB 5005.
次に、送受信部51は、ステップS308で受信した個人データ利用設定要求に対する応答としての個人データ利用設定応答を、通信端末3に対して送信する(ステップS310)。これにより、通信端末3の送受信部31は、情報解析装置5が送信した個人データ利用設定応答を受信する。このとき、個人データ利用設定応答には、個人データ利用設定が完了した旨を示すメッセージ、フラグ等が含まれてよい。 Next, the transmission/reception unit 51 transmits a personal data usage setting response to the personal data usage setting request received in step S308 to the communication terminal 3 (step S310). As a result, the transmission/reception unit 31 of the communication terminal 3 receives the personal data usage setting response transmitted by the information analysis device 5. At this time, the personal data usage setting response may include a message, a flag, etc. indicating that the personal data usage setting has been completed.
なお、図28に示した個人データ利用設定処理における通信端末3は、オンライン朝礼等の所定のイベントに参加する各参加者の各通信端末である。そのため、により行われる。つまり、上述したステップS101-S310までの処理は、各通信端末3により個別に行われる処理となる。 The communication terminals 3 in the personal data usage setting process shown in FIG. 28 are the communication terminals of each participant who will be taking part in a specific event, such as an online morning meeting. Therefore, the process is performed by . In other words, the processes from steps S101 to S310 described above are performed individually by each communication terminal 3.
<オンラインイベントにおける情報解析処理>
続いて、オンラインイベントにおける情報解析処理について説明する。図33は、第3の実施形態に係るオンラインイベントでの情報解析処理の一例を示すシーケンス図である。図33に示したステップS321-S330の処理は、図12に示したステップS101-S110の処理と同様であるため、説明を省略する。但し、第3の実施形態では、ステップS328の処理において、上述したステップS309で個人データ利用管理DB5005(図27参照)に対して設定した個人データ利用設定情報を読み出し、結果に応じた通知画面データを生成する処理が追加される。
<Information analysis processing for online events>
Next, the information analysis process in the online event will be described. FIG. 33 is a sequence diagram showing an example of the information analysis process in the online event according to the third embodiment. The process of steps S321-S330 shown in FIG. 33 is similar to the process of steps S101-S110 shown in FIG. 12, and therefore the description will be omitted. However, in the third embodiment, in the process of step S328, a process is added in which the personal data usage setting information set in the personal data usage management DB 5005 (see FIG. 27) in the above-mentioned step S309 is read out, and notification screen data according to the result is generated.
<<情報解析処理の詳細>>
続いて、情報解析処理の詳細について説明する。図34A及び図34Bは、第3の実施形態に係るオンラインイベントでの情報解析処理の詳細を示すフローチャートである。なお、図34Aに示したステップS328-1-S328-11の処理は、図14Aに示したステップS108-1-S108-11の処理と同様であるため、説明を省略する。
<<Details of information analysis processing>>
Next, the details of the information analysis process will be described. Figures 34A and 34B are flowcharts showing details of the information analysis process in an online event according to the third embodiment. Note that the process of steps S328-1 to S328-11 shown in Figure 34A is the same as the process of steps S108-1 to S108-11 shown in Figure 14A, so the description will be omitted.
続く図34Bは、第3の実施形態に係るオンラインイベントでの情報解析処理の詳細を示すフローチャートである。なお、図34Bに示したステップS328-12-S328-18の処理は、図14Aに示したステップS108-12-S108-18の処理の間で、ステップS308-14及びS308-18を除いて同様である。そのため、詳細の説明を省略する。なお、ステップS308-14及びS308-18の処理については、別途詳細に説明する。 The following FIG. 34B is a flowchart showing details of the information analysis process for an online event according to the third embodiment. Note that the process of steps S328-12 to S328-18 shown in FIG. 34B is similar to the process of steps S108-12 to S108-18 shown in FIG. 14A, except for steps S308-14 and S308-18. Therefore, a detailed explanation will be omitted. Note that the process of steps S308-14 and S308-18 will be explained in detail separately.
<レポートデータの生成>
図35は、第3の実施形態に係るレポートデータ生成処理の詳細を示すフローチャートである。なお、以下に示す各処理は情報解析処理の一例であり、第3の実施形態においてこれに限らない。図35に示したように、情報解析装置5は、図34Bに示したステップS328-13に係る詳細処理として、以下のステップS328-14-1-S328-14-10までの処理を、イベントに参加した参加者全員分について繰り返し実行する。これは、欠席メンバーが存在する場合のステップS328-18に係る詳細処理についても同様である。以下では、ステップS328-14の詳細について説明する。
<Generating report data>
Fig. 35 is a flowchart showing details of the report data generation process according to the third embodiment. Note that each process shown below is an example of the information analysis process, and the third embodiment is not limited to this. As shown in Fig. 35, the information analysis device 5 repeatedly executes the following processes from steps S328-14-1 to S328-14-10 as detailed processes related to step S328-13 shown in Fig. 34B for all participants who attended the event. This also applies to detailed processes related to step S328-18 when there are absent members. Details of step S328-14 will be described below.
続いて、記憶読出部59は、個人データ毎の利用設定を読み出す(ステップS328-14-2)。具体的には、記憶読出部59は、イベントに参加した参加者のユーザID(電子メールアドレス)を検索キーとして個人データ利用管理DB5005(図27参照)を検索することにより、対応する情報としてデータ取得の許否、通知の受取り、データ開示の許否の各情報を読み出す。 Then, the memory readout unit 59 reads out the usage settings for each piece of personal data (step S328-14-2). Specifically, the memory readout unit 59 searches the personal data usage management DB 5005 (see FIG. 27) using the user ID (email address) of the participant who participated in the event as a search key, and reads out the corresponding information on whether data acquisition is permitted, whether notification is received, and whether data disclosure is permitted.
次に、判断部55は、データの取得を許可しているかを判断する(ステップS328-14-3)。具体的には、判断部55は記憶読出部59を介して、ステップS328-14-2で読み出した特定の参加者に係る情報のうち、データ取得の許否の項目に対して許可(ON)が設定されているかを判断する。 Next, the determination unit 55 determines whether data acquisition is permitted (step S328-14-3). Specifically, the determination unit 55 determines via the memory readout unit 59 whether the item for permitting data acquisition in the information related to the specific participant read out in step S328-14-2 is set to permitted (ON).
データの取得を許可していないと判断した場合(ステップS328-14-3:NO)、生成部57は、対象参加者の解析結果の取得を不許可とするUI画面データ(レポートデータ)を生成した後(ステップS328-14-4)、ステップS328-14-10を経由して他の参加者に対する処理に移行する。 If it is determined that data acquisition is not permitted (step S328-14-3: NO), the generation unit 57 generates UI screen data (report data) that does not permit acquisition of the analysis results for the target participant (step S328-14-4), and then proceeds to processing for other participants via step S328-14-10.
他方、データの取得を許可していると判断した場合(ステップS328-14-3:YES)、判断部55は更に、解析完了時に通知を受け取るかを判断する(ステップS328-14-5)。具体的には、判断部55は記憶読出部59を介して、ステップS328-14-2で読み出した特定の参加者に係る情報のうち、通知の受取りの項目に対して受け取る(ON)が設定されているかを判断する。 On the other hand, if it is determined that data acquisition is permitted (step S328-14-3: YES), the determination unit 55 further determines whether to receive a notification when the analysis is completed (step S328-14-5). Specifically, the determination unit 55 determines via the memory readout unit 59 whether the notification reception item in the information related to the specific participant read out in step S328-14-2 is set to receive (ON).
解析完了時に通知を受け取らないと判断した場合(ステップS328-14-5:NO)、生成部57は、対象参加者の解析結果を通知しないUI画面データ(レポートデータ)を生成した後(ステップS328-14-6)、ステップS328-14-10を経由して他の参加者に対する処理に移行する。 If it is determined that notification will not be received when the analysis is complete (step S328-14-5: NO), the generation unit 57 generates UI screen data (report data) that does not notify the target participant of the analysis results (step S328-14-6), and then proceeds to processing for other participants via step S328-14-10.
他方、解析完了時に通知を受け取ると判断した場合(ステップS328-14-5:YES)、判断部55は更に丸Bを経由して、解析結果のリーダーへの通知を許可するかを判断する(ステップS328-14-7)。具体的には、判断部55は記憶読出部59を介して、ステップS328-14-2で読み出した特定の参加者に係る情報のうち、データ開示の許否の項目に対して許可(ON)が設定されているかを判断する。 On the other hand, if it is determined that a notification will be received when the analysis is complete (step S328-14-5: YES), the judgment unit 55 further determines via circle B whether to permit notification of the analysis results to the leader (step S328-14-7). Specifically, the judgment unit 55 determines via the memory reading unit 59 whether the item regarding data disclosure permission is set to permission (ON) among the information related to the specific participant read in step S328-14-2.
解析結果のリーダーへの通知を許可すると判断した場合(ステップS328-14-7:YES)、生成部57は、対象参加者の解析結果を本人とリーダーに通知するUI画面データ(レポートデータ)を生成した後(ステップS328-14-8)、ステップS328-14-10を経由して他の参加者に対する処理に移行する。 If it is determined that notification of the analysis results to the leader is permitted (step S328-14-7: YES), the generation unit 57 generates UI screen data (report data) that notifies the target participant and the leader of the analysis results (step S328-14-8), and then proceeds to processing for other participants via step S328-14-10.
他方、解析結果のリーダーへの通知を許可しないと判断した場合(ステップS328-14-7:NO)、生成部57は、対象参加者の解析結果を本人のみに通知するUI画面データ(レポートデータ)を生成した後(ステップS328-14-9)、ステップS328-14-10を経由して他の参加者に対する処理に移行する。 On the other hand, if it is determined that notification of the analysis results to the leader is not permitted (step S328-14-7: NO), the generation unit 57 generates UI screen data (report data) that notifies only the target participant of the analysis results (step S328-14-9), and then proceeds to processing for the other participants via step S328-14-10.
このように、情報解析装置5は、上述したステップS328-14-1-S328-14-10の処理を各参加者に対して実行する。これにより、情報解析装置5は、オンライン朝礼等の所定のイベントに参加したリーダーを除く参加者全員に対して同様の処理を繰り返し、各参加者が入力設定した情報に応じた解析結果を各参加者又はリーダーに対して提供する。 In this way, the information analysis device 5 executes the above-mentioned processing of steps S328-14-1 to S328-14-10 for each participant. As a result, the information analysis device 5 repeats the same processing for all participants except the leader who participated in a specific event such as an online morning meeting, and provides each participant or leader with an analysis result according to the information input and set by each participant.
なお、図35のフローにおける処理は、上述した各判断の組合せや順序以外の処理が行われてもよい。これは、図34Bに示したステップS328-16における詳細処理(サブルーチン)の処理についても同様である。 Note that the processing in the flow of FIG. 35 may involve combinations and sequences of judgments other than those described above. This also applies to the detailed processing (subroutine) in step S328-16 shown in FIG. 34B.
また、本実施形態において、図35に示したフローを図34Aに示したステップS328-1の前で実行するようにしてもよい。これにより、図32で各参加者により入力された情報に基づき、データの取得を許可しない不許可利用者に対するデータ取得処理を最初の段階で取得せずに済むという効果が期待できる。 In addition, in this embodiment, the flow shown in FIG. 35 may be executed before step S328-1 shown in FIG. 34A. This is expected to have the effect of eliminating the need to perform data acquisition processing for unauthorized users who are not permitted to acquire data at the initial stage, based on the information entered by each participant in FIG. 32.
図33に戻り、ステップS329の処理を経て、通信端末3の表示制御部34は、レポートを表示する(ステップS330)。具体的には、通信端末3の表示制御部34は、情報解析装置5が送信した各参加者に係るレポートデータを、ディスプレイ307に表示させる。 Returning to FIG. 33, after the processing of step S329, the display control unit 34 of the communication terminal 3 displays the report (step S330). Specifically, the display control unit 34 of the communication terminal 3 causes the display 307 to display the report data related to each participant transmitted by the information analysis device 5.
●画面表示例●
図36は、第3の実施形態に係る通信端末におけるレポート表示画面(元気点数)の一例を示す図である。図36に示されているように、通信端末3のディスプレイ307には、表示制御部34により元気点数画面3411が表示される。元気点数画面3411における第1の実施形態に係る元気点数画面3131との相違点は、データの取得を不許可に設定した参加者Bさんの解析結果と、自身の解析結果をリーダーに開示不許可に設定した参加者Iさんの解析結果と、が、非表示になっている点である。非表示形態に関しては、例えば、データの取得を不許可にした場合は、その参加者のアイコン上に「取得不許可」と表示されるようにしてもよい。また、自身の解析結果のリーダーへの開示を不許可にした場合は、その参加者のアイコン上に「開示不許可」と表示されるようにしてもよい。更に、総評のコメントに、Bさん、Iさんがデータ非開示である旨のコメントを追記するようにしてもよい。これらにより、参加者Bさんと参加者Iさんのオンライン朝礼におけるプライバシーが守られるとともに、このレポートを受信したグループ(チーム)のリーダーは、各参加者のうちBさん、Iさんが、今回のオンライン朝礼の解析結果のデータ取得及び開示を望んでいないことを把握することが可能になる。
●Screen display example●
FIG. 36 is a diagram showing an example of a report display screen (energy score) in a communication terminal according to the third embodiment. As shown in FIG. 36, an energy score screen 3411 is displayed by the display control unit 34 on the display 307 of the communication terminal 3. The energy score screen 3411 is different from the energy score screen 3131 according to the first embodiment in that the analysis result of participant B, who has set data acquisition to be prohibited, and the analysis result of participant I, who has set his/her analysis result to be prohibited from disclosure to the leader, are not displayed. Regarding the non-display form, for example, when data acquisition is prohibited, "Acquisition not permitted" may be displayed on the icon of the participant. Also, when disclosure of his/her analysis result to the leader is prohibited, "Disclosure not permitted" may be displayed on the icon of the participant. Furthermore, a comment to the effect that data is not disclosed to participants B and I may be added to the overall evaluation comment. This protects the privacy of participants B and I during the online morning assembly, and the group (team) leader who receives this report will be able to understand that participants B and I do not want the analysis results of this online morning assembly to be collected or disclosed.
〔第3の実施形態の主な効果〕
以上説明したように本実施形態によれば、オンライン朝礼等の所定のイベントに参加する参加者に対して事前に意思の確認を行い、確認結果(設定内容)に応じた解析結果を許可された人物にのみ開示若しくは通知する。これにより、第1の実施形態による効果に加えて、オンラインで開催されるオンライン朝礼等の所定のイベントに参加した複数の参加者のそれぞれに対し、各参加者に係るデータ(情報)の取扱いに対する合意形成を実現することが可能になるという効果を奏する。
[Major Effects of the Third Embodiment]
As described above, according to this embodiment, the intention of participants participating in a predetermined event such as an online morning meeting is confirmed in advance, and the analysis results according to the confirmation result (setting contents) are disclosed or notified only to authorized persons. In addition to the effect of the first embodiment, this has the effect of realizing consensus building regarding the handling of data (information) related to each of multiple participants who participated in a predetermined event such as an online morning meeting held online.
〔実施形態の補足〕
上述した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたデバイスを含むものとする。このデバイスとは、例えば、プロセッサ、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)、及び従来の回路モジュール等をいう。
[Supplementary description of the embodiment]
Each function of the above-mentioned embodiment can be realized by one or more processing circuits. Here, the term "processing circuit" in this specification includes a device programmed to execute each function by software, such as a processor implemented by an electronic circuit. This device refers to, for example, a processor, an ASIC (Application Specific Integrated Circuit), a DSP (digital signal processor), an FPGA (field programmable gate array), an SOC (System on a chip), a GPU (Graphics Processing Unit), and a conventional circuit module, etc.
これまで本発明の一実施形態に係る情報解析システム、情報解析装置、情報解析方法及びプログラムについて説明してきたが、本発明は、上述した実施形態に限定されるものではなく、他の実施形態の追加、変更又は削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 So far, we have described an information analysis system, information analysis device, information analysis method, and program according to one embodiment of the present invention, but the present invention is not limited to the above-mentioned embodiment, and can be modified within the scope of what a person skilled in the art can imagine, such as adding, changing, or deleting other embodiments, and any aspect is within the scope of the present invention as long as it provides the functions and effects of the present invention.
■まとめ■
本発明に係る態様は、例えば、以下のとおりである。
■ Summary ■
For example, aspects of the present invention are as follows.
<第1態様>
第1態様としての情報解析システム1(情報解析システムの一例。以下省略)は、オンラインで開催される所定のイベントに参加した複数の参加者に係る情報を取得可能な通信端末3(通信端末の一例。以下省略)と、通信端末が送信した情報を解析する情報解析装置5(情報解析装置の一例。以下省略)と、を有し、通信端末3は、複数の参加者の画像情報及び音声情報を取得する取得部33(取得手段の一例。以下省略)と、取得した画像情報及び音声情報を情報解析装置5に対して送信する送受信部31(第1の送信手段の一例。以下省略)と、を有し、情報解析装置5は、通信端末3が送信した画像情報及び音声情報に基づいて、複数の参加者の状態を解析する解析処理部56(解析手段の一例。以下省略)と、解析した複数の参加者の状態に基づいて、通信端末3で表示可能な状態通知を生成する生成部57(生成手段の一例。以下省略)と、を有する。
<First aspect>
The information analysis system 1 (an example of an information analysis system; omitted below) as a first aspect has a communication terminal 3 (an example of a communication terminal; omitted below) that can acquire information related to multiple participants who participate in a specific event held online, and an information analysis device 5 (an example of an information analysis device; omitted below) that analyzes the information sent by the communication terminal, the communication terminal 3 has an acquisition unit 33 (an example of an acquisition means; omitted below) that acquires image information and audio information of the multiple participants, and a transmission/reception unit 31 (an example of a first transmission means; omitted below) that transmits the acquired image information and audio information to the information analysis device 5, and the information analysis device 5 has an analysis processing unit 56 (an example of an analysis means; omitted below) that analyzes the status of the multiple participants based on the image information and audio information sent by the communication terminal 3, and a generation unit 57 (an example of a generation means; omitted below) that generates a status notification that can be displayed on the communication terminal 3 based on the analyzed status of the multiple participants.
第1態様によれば、オンラインを利用したイベントにおいても、発話のみならず表情に基づく参加者の状態を把握し、発話と表情から得られる情報を活かすことが可能になる。 According to the first aspect, even in online events, it is possible to grasp the state of participants based on not only their speech but also their facial expressions, and to utilize the information obtained from their speech and facial expressions.
<第2態様>
第2態様としての情報解析システム1における情報解析装置5は、第1態様において、画像情報が、所定のイベント中の複数の参加者の各々の画像に含まれる頷きに係る情報及び笑顔に係る情報のうち少なくとも一方を表し、音声情報が、所定のイベント中の複数の参加者の各々の発話に係る情報を表し、解析処理部56が、複数の参加者の各々の、頷きに係る情報及び笑顔に係る情報のうち少なくとも一方、並びに発話に係る情報、に基づいて複数の参加者の状態を解析する。
<Second aspect>
In the information analysis device 5 in the information analysis system 1 as the second aspect, in the first aspect, the image information represents at least one of information relating to nodding and information relating to smiling faces contained in images of each of the multiple participants during a specified event, and the audio information represents information relating to speech of each of the multiple participants during a specified event, and the analysis processing unit 56 analyzes the state of the multiple participants based on at least one of information relating to nodding and information relating to smiling faces, and information relating to speech, of each of the multiple participants.
第2態様によれば、参加者の頷きに係る情報及び笑顔に係る情報のうち少なくとも一方により得られる各参加者への共感、相手への安心感といった、前向きな効果を与える情報を提供することが可能になる。 According to the second aspect, it is possible to provide information that has a positive effect, such as empathy for each participant and a sense of security for the other person, obtained by at least one of information related to the participant's nod and information related to the participant's smile.
<第3態様>
第3態様としての情報解析システム1における情報解析装置5は、第2態様において、解析処理部56が、頷きに係る情報及び笑顔に係る情報のうち少なくとも一方に対して機械学習モデルを用いた解析を行うことにより、複数の参加者の状態を解析する。
<Third aspect>
In the information analysis device 5 in the information analysis system 1 as the third aspect, in the second aspect, the analysis processing unit 56 analyzes the states of multiple participants by performing analysis using a machine learning model on at least one of information related to nodding and information related to smiling.
第3態様によれば、過去に学習済みの学習モデルを利用することで、より高精度な解析結果を得ることが可能になる。 According to the third aspect, by using a previously trained learning model, it is possible to obtain more accurate analysis results.
<第4態様>
第4態様としての情報解析システム1における情報解析装置5は、第1態様乃至第3態様のいずれかにおいて、解析処理部56が、複数の参加者のうち特定の参加者が使用する通信端末3が送信した画像情報及び音声情報、又は、複数の参加者のそれぞれが使用する通信端末3が送信した画像情報及び音声情報のいずれかに基づいて、複数の参加者の状態を解析する。
<Fourth aspect>
In the information analysis device 5 in the information analysis system 1 as a fourth aspect, in any of the first to third aspects, the analysis processing unit 56 analyzes the status of multiple participants based on either image information and audio information transmitted by a communication terminal 3 used by a specific participant among the multiple participants, or image information and audio information transmitted by a communication terminal 3 used by each of the multiple participants.
第4態様によれば、参加者の画像情報及び音声情報を提供(アップロード)する形態のバリエーションを増やすことが可能になる。 According to the fourth aspect, it becomes possible to increase the variety of ways in which participants can provide (upload) image information and audio information.
<第5態様>
第5態様としての情報解析システム1における情報解析装置5は、第2態様又は第3態様において、複数の参加者の状態が、頷きの回数及び笑顔の回数のうち少なくとも一方に基づく複数の参加者の各々の表情検出状態、並びに、複数の参加者の各々の表情検出状態に基づく複数の参加者全体の活性状態を表し、生成部57が、複数の参加者の各々の表情検出状態と活性状態とに基づいて、状態通知を生成する。
<Fifth aspect>
In the information analysis device 5 in the information analysis system 1 as the fifth aspect, in the second or third aspect, the status of the multiple participants represents the facial expression detection state of each of the multiple participants based on at least one of the number of nods and the number of smiles, and the activity state of the multiple participants as a whole based on the facial expression detection state of each of the multiple participants, and a generation unit 57 generates a status notification based on the facial expression detection state and activity state of each of the multiple participants.
第5態様によれば、参加者個人の指標に留まらず、各参加者が所属するグループ(チーム)の集団活性度を提供することが可能になる。 According to the fifth aspect, it is possible to provide not only indicators for individual participants, but also the collective activity level of the group (team) to which each participant belongs.
<第6態様>
第6態様としての情報解析システム1における情報解析装置5は、第5態様において、生成部57が、状態通知として、複数の参加者の各々の表情検出状態と活性状態とをそれぞれ視覚的に表現した結果としての図表(グラフ形式、表形式等)、及び、複数の参加者のうちの特定の参加者への結果に対するコメントを生成する。
<Sixth aspect>
In the information analysis device 5 in the information analysis system 1 as the sixth aspect, in the fifth aspect, the generation unit 57 generates, as a status notification, a chart (in graph form, table form, etc.) as a result visually representing the facial expression detection status and activity status of each of the multiple participants, and a comment on the results for a specific participant among the multiple participants.
第6態様によれば、集団活性度の視認性を向上させることが可能になる。 According to the sixth aspect, it is possible to improve the visibility of group activity levels.
<第7態様>
第7態様としての情報解析システム1における情報解析装置5は、第1態様乃至第6態様のいずれかにおいて、所定のイベントに対する参加者通知情報として、所定のイベントが実行される前に、所定のイベントに参加する複数の参加者の画像情報及び各参加者の電子メールアドレスを、ユーザの情報を管理するユーザ情報管理DB5001(ユーザ情報管理手段の一例。以下省略)に予め登録する登録部58(登録手段の一例。以下省略)、を有する。
<Seventh aspect>
The information analysis device 5 in the information analysis system 1 as the seventh aspect, in any of the first to sixth aspects, has a registration unit 58 (an example of a registration means, omitted hereinafter) that registers image information of multiple participants participating in a specified event and the email addresses of each participant in advance in a user information management DB 5001 (an example of a user information management means, omitted hereinafter) that manages user information, as participant notification information for the specified event, before the specified event is executed.
第7態様によれば、登録されたメンバーに限り個人元気度及び集団活性度を算出、提供することにより、組織内の情報の秘匿性を維持することが可能になる。 According to the seventh aspect, by calculating and providing individual vitality and group activity levels only to registered members, it becomes possible to maintain confidentiality of information within an organization.
<第8態様>
第8態様としての情報解析システム1における情報解析装置5は、第1態様乃至第7態様のいずれかにおいて、生成した状態通知をオンラインで開催される所定のイベントに参加した複数の参加者に係る情報を取得可能な通信端末3(通信端末3の一例。以下省略)に対して送信する送受信部51(第2の送信手段の一例。以下省略)を有する。
<Eighth aspect>
The information analysis device 5 in the information analysis system 1 as the eighth aspect, in any of the first to seventh aspects, has a transmission/reception unit 51 (an example of a second transmission means; omitted below) that transmits the generated status notification to a communication terminal 3 (an example of a communication terminal 3; omitted below) that can acquire information related to multiple participants who have participated in a specified event held online.
第8態様によれば、オンラインにより開催されるイベントに参加した参加者に対するフィードバックを参加者の通信端末に送信することにより、参加者は、フィードバックを確認することが可能になる。 According to the eighth aspect, feedback for participants who have taken part in an event held online is sent to the communication terminals of the participants, allowing the participants to check the feedback.
<第9態様>
第9態様としての情報解析システム1における通信端末3は、第1態様乃至第8態様のいずれかにおいて、情報解析装置5が送信した状態通知をディスプレイ307(表示手段の一例。以下省略)に表示させる表示制御部34(表示制御手段の一例。以下省略)を有する。
<Ninth aspect>
The communication terminal 3 in the information analysis system 1 as a ninth aspect has a display control unit 34 (an example of a display control means; omitted below) that displays the status notification sent by the information analysis device 5 on the display 307 (an example of a display means; omitted below) in any of the first to eighth aspects.
第9態様によれば、オンラインにより開催されるイベントに参加した参加者に対するフィードバックを参加者の通信端末に表示させることにより、個人の情報の秘匿性を確保することが可能になる。 According to the ninth aspect, feedback for participants who have taken part in an online event is displayed on the communication terminals of the participants, thereby ensuring the confidentiality of personal information.
<第10態様>
第10態様としてのオンラインで開催される所定のイベントに参加した複数の参加者に係る情報を解析する情報解析装置5は、オンラインで開催される所定のイベントに参加した複数の参加者に係る情報を取得可能な通信端末が送信した画像情報及び音声情報に基づいて、複数の参加者の状態を解析する解析処理部56(解析手段の一例。以下省略)と、解析した複数の参加者の状態に基づいて、通信端末3で表示可能な状態通知を生成する生成部57(生成手段の一例。以下省略)と、を有する。
<Tenth aspect>
The information analysis device 5 as a tenth aspect that analyzes information related to multiple participants who participated in a specified event held online has an analysis processing unit 56 (an example of an analysis means; omitted below) that analyzes the status of the multiple participants based on image information and audio information transmitted by a communication terminal capable of acquiring information related to the multiple participants who participated in a specified event held online, and a generation unit 57 (an example of a generation means; omitted below) that generates a status notification that can be displayed on the communication terminal 3 based on the analyzed status of the multiple participants.
第10態様によれば、第1態様と同様に、オンラインを利用したイベントにおいても、発話のみならず表情に基づく参加者の状態を把握し、発話と表情から得られる情報を活かすことが可能になる。 According to the tenth aspect, as in the first aspect, even in online events, it is possible to grasp the state of participants based on not only their speech but also their facial expressions, and to utilize the information obtained from their speech and facial expressions.
<第11態様>
第11態様としてのオンラインで開催される所定のイベントに参加した複数の参加者に係る情報を解析する情報解析装置5が実行する情報解析方法は、オンラインで開催される所定のイベントに参加した複数の参加者に係る情報を取得可能な通信端末3が送信した画像情報及び音声情報に基づいて、複数の参加者の状態を解析する解析ステップと、解析した複数の参加者の状態に基づいて、通信端末3で表示可能な状態通知を生成する生成ステップと、を含む処理を実行する。
<Eleventh aspect>
As an eleventh aspect, the information analysis method executed by the information analysis device 5 that analyzes information related to multiple participants who participated in a specified event held online executes processing including an analysis step of analyzing the status of the multiple participants based on image information and audio information transmitted by a communication terminal 3 capable of acquiring information related to the multiple participants who participated in a specified event held online, and a generation step of generating a status notification that can be displayed on the communication terminal 3 based on the analyzed status of the multiple participants.
第11態様によれば、第1態様と同様に、オンラインを利用したイベントにおいても、発話のみならず表情に基づく参加者の状態を把握し、発話と表情から得られる情報を活かすことが可能になる。 According to the eleventh aspect, as in the first aspect, even in online events, it is possible to grasp the state of participants based on not only their speech but also their facial expressions, and to utilize the information obtained from their speech and facial expressions.
<第12態様>
第12態様としてのプログラムは、オンラインで開催される所定のイベントに参加した複数の参加者に係る情報を解析する情報解析装置5に、オンラインで開催される所定のイベントに参加した複数の参加者に係る情報を取得可能な通信端末3が送信した画像情報及び音声情報に基づいて、複数の参加者の状態を解析する解析ステップと、解析した複数の参加者の状態に基づいて、通信端末3で表示可能な状態通知を生成する生成ステップと、を含む処理を実行させる。
<Twelfth aspect>
The program as a twelfth aspect causes an information analysis device 5 that analyzes information related to multiple participants who participated in a specified event held online to execute processing including an analysis step of analyzing the status of the multiple participants based on image information and audio information transmitted by a communication terminal 3 that can acquire information related to the multiple participants who participated in a specified event held online, and a generation step of generating a status notification that can be displayed on the communication terminal 3 based on the analyzed status of the multiple participants.
第12態様によれば、第1態様と同様に、オンラインを利用したイベントにおいても、発話のみならず表情に基づく参加者の状態を把握し、発話と表情から得られる情報を活かすことが可能になる。 According to the twelfth aspect, as in the first aspect, even in online events, it is possible to grasp the state of participants based on not only their speech but also their facial expressions, and to utilize the information obtained from their speech and facial expressions.
<第13態様>
第13態様としての情報解析システム1における情報解析装置5の表示制御部34は、第9態様において、複数の参加者の状態を解析する目的を各参加者に伝えるための説明動画を再生可能なアイコンを、ディスプレイ307に表示させる。
<Thirteenth aspect>
In the ninth aspect, the display control unit 34 of the information analysis device 5 in the information analysis system 1 as the thirteenth aspect causes the display 307 to display an icon capable of playing an explanatory video to communicate to each participant the purpose of analyzing the status of multiple participants.
第13態様によれば、参加者の負担を軽減させるとともに、参加者に対して利用目的の理解を深めさせることが可能になる。 According to the thirteenth aspect, it is possible to reduce the burden on participants and to help them better understand the purpose of use.
<第14態様>
第14態様としての情報解析システム1における情報解析装置5の表示制御部34は、第13態様において、解析のためのデータの取得を許可するか否かを選択可能な取得許可選択部を、ディスプレイ307に表示させる。
<14th aspect>
In the information analysis system 1 as the fourteenth aspect, the display control unit 34 of the information analysis device 5 in the thirteenth aspect causes the display 307 to display an acquisition permission selection unit that allows the user to select whether or not to allow the acquisition of data for analysis.
第14態様によれば、個人の情報に係る秘匿性をより確実に確保することが可能になる。 According to the 14th aspect, it is possible to more reliably ensure confidentiality of personal information.
<第15態様>
第15態様としての情報解析システム1における情報解析装置5の表示制御部34は、第14態様において、解析処理部56によって解析が行われた後、解析結果に係る通知を受け取るか否かを選択可能な通知受取選択部を、ディスプレイ307に表示させる。
<Fifteenth aspect>
In the 14th aspect, the display control unit 34 of the information analysis device 5 in the information analysis system 1 as the 15th aspect displays on the display 307 a notification reception selection unit that allows the user to select whether or not to receive a notification related to the analysis results after analysis is performed by the analysis processing unit 56.
第15態様によれば、参加者の状態や希望に応じた解析結果の提供を行うことが可能になる。 According to the fifteenth aspect, it becomes possible to provide analysis results according to the participant's condition and wishes.
<第16態様>
第16態様としての情報解析システム1における情報解析装置5の表示制御部34は、第14態様において、特定の参加者に係る解析結果を特定の参加者のリーダーに開示することを許可するか否かを選択可能な開示許可選択部を、ディスプレイ307に表示させる。
<16th aspect>
In the information analysis system 1 as the 16th aspect, the display control unit 34 of the information analysis device 5 in the 14th aspect displays on the display 307 a disclosure permission selection unit that allows the user to select whether or not to allow the analysis results related to a specific participant to be disclosed to the leader of a specific participant.
第16態様によれば、解析結果の共有についてより柔軟な運用を行うことが可能になる。 According to the 16th aspect, it becomes possible to operate more flexibly with regard to sharing of analysis results.
1 情報解析システム
3 通信端末
5 情報解析装置
31 送受信部(第1の受信手段の一例、第1の送信手段の一例)
33 取得部(取得手段の一例)
34 表示制御部(表示制御手段の一例)
51 送受信部(第2の受信手段の一例、第2の送信手段の一例)
52 取得処理部(取得手段の一例)
56 解析処理部(解析手段の一例)
57 生成部(生成手段の一例)
58 登録部(登録手段の一例)
307 ディスプレイ(表示手段の一例)
1 Information analysis system 3 Communication terminal 5 Information analysis device 31 Transmitter/receiver unit (an example of a first receiving means, an example of a first transmitting means)
33 Acquisition unit (an example of an acquisition means)
34 Display control unit (an example of a display control means)
51 Transmitter/receiver unit (an example of a second receiving means, an example of a second transmitting means)
52 Acquisition processing unit (an example of an acquisition means)
56 Analysis processing unit (an example of an analysis means)
57 Generation unit (an example of a generation means)
58 Registration unit (an example of a registration means)
307 Display (an example of a display means)
Claims (16)
前記通信端末は、
前記複数の参加者の画像情報及び音声情報を取得する取得手段と、
取得した前記画像情報及び前記音声情報を前記情報解析装置に対して送信する第1の送信手段と、
を有し、
前記情報解析装置は、
前記通信端末が送信した前記画像情報及び前記音声情報に基づいて、前記複数の参加者の状態を解析する解析手段と、
解析した前記複数の参加者の状態に基づいて、前記通信端末で表示可能な状態通知を生成する生成手段と、
を有する、
ことを特徴とする情報解析システム。 An information analysis system including: a communication terminal capable of acquiring information related to a plurality of participants who have participated in a predetermined event held online; and an information analysis device that analyzes the information transmitted by the communication terminal,
The communication terminal includes:
An acquisition means for acquiring image information and audio information of the plurality of participants;
a first transmission means for transmitting the acquired image information and audio information to the information analysis device;
having
The information analysis device includes:
an analysis means for analyzing states of the plurality of participants based on the image information and the audio information transmitted by the communication terminal;
a generating means for generating a status notification displayable on the communication terminal based on the analyzed statuses of the plurality of participants;
having
An information analysis system comprising:
前記解析手段は、
前記複数の参加者の各々の、前記頷きに係る情報及び前記笑顔に係る情報のうち少なくとも一方、並びに前記発話に係る情報、に基づいて前記複数の参加者の状態を解析する、
ことを特徴とする請求項1に記載の情報解析システム。 the image information represents at least one of information related to a nod and information related to a smile included in an image of each of the plurality of participants during the specified event, and the voice information represents information related to an utterance of each of the plurality of participants during the specified event;
The analysis means
Analyzing the states of the plurality of participants based on at least one of the information related to the nods and the information related to the smiles, and the information related to the speech of each of the plurality of participants;
2. The information analysis system according to claim 1 .
前記頷きに係る情報及び前記笑顔に係る情報のうち少なくとも一方に対して機械学習モデルを用いた解析を行うことにより、前記複数の参加者の状態を解析する、
ことを特徴とする請求項2に記載の情報解析システム。 The analysis means
analyzing at least one of the information related to the nods and the information related to the smiles using a machine learning model to analyze the states of the plurality of participants;
3. The information analysis system according to claim 2.
前記複数の参加者のうち特定の参加者が使用する通信端末が送信した前記画像情報及び前記音声情報、又は、前記複数の参加者のそれぞれが使用する通信端末が送信した前記画像情報及び前記音声情報のいずれかに基づいて、前記複数の参加者の状態を解析する、
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報解析システム。 The analysis means
Analyzing states of the plurality of participants based on either the image information and the audio information transmitted by a communication terminal used by a specific participant among the plurality of participants, or the image information and the audio information transmitted by a communication terminal used by each of the plurality of participants;
4. The information analysis system according to claim 1, wherein the information analysis system is a computer-readable storage device.
前記頷きの回数及び前記笑顔の回数のうち少なくとも一方に基づく前記複数の参加者の各々の表情検出状態、並びに、前記複数の参加者の各々の表情検出状態に基づく前記複数の参加者全体の活性状態を表し、
前記生成手段は、
前記複数の参加者の各々の表情検出状態と前記活性状態とに基づいて、前記状態通知を生成する、
ことを特徴とする請求項2乃至3のいずれか一項に記載の情報解析システム。 The states of the plurality of participants are:
expressing a facial expression detection state of each of the plurality of participants based on at least one of the number of nods and the number of smiles, and an activity state of the entire plurality of participants based on the facial expression detection states of each of the plurality of participants;
The generating means includes:
generating said status notification based on a facial expression detection state and the activity state of each of said plurality of participants;
4. The information analysis system according to claim 2, wherein the information analysis system is a computer-readable storage medium.
前記状態通知として、前記複数の参加者の各々の表情検出状態と前記活性状態とをそれぞれ視覚的に表現した結果としての図表、及び、前記複数の参加者のうちの特定の参加者への前記結果に対するコメントを生成する、
ことを特徴とする請求項5に記載の情報解析システム。 The generating means includes:
generating, as the status notification, a chart as a result visually expressing the facial expression detection status and the activation status of each of the plurality of participants, and a comment on the results for a specific participant among the plurality of participants;
6. The information analysis system according to claim 5,
前記情報解析装置は、更に、
前記所定のイベントに対する参加者通知情報として、前記所定のイベントが実行される前に、前記所定のイベントに参加する前記複数の参加者の前記画像情報及び各参加者の電子メールアドレスを、ユーザの情報を管理するユーザ情報管理手段に予め登録する登録手段、
を有する、
ことを特徴とする情報解析システム。 The information analysis system according to any one of claims 1 to 3,
The information analysis device further comprises:
a registration means for registering, in advance, the image information of the plurality of participants participating in the predetermined event and email addresses of each of the participants as participant notification information for the predetermined event in a user information management means for managing user information before the predetermined event is executed;
having
An information analysis system comprising:
前記情報解析装置は、更に、
生成した前記状態通知を前記通信端末に対して送信する第2の送信手段、
を有する、
ことを特徴とする情報解析システム。 The information analysis system according to any one of claims 1 to 3,
The information analysis device further comprises:
a second transmission means for transmitting the generated status notification to the communication terminal;
having
An information analysis system comprising:
前記通信端末は、更に、
前記情報解析装置が送信した前記状態通知を表示手段に表示させる表示制御手段、
を有する、
ことを特徴とする情報解析システム。 The information analysis system according to any one of claims 1 to 3,
The communication terminal further comprises:
a display control means for causing a display means to display the status notification transmitted by the information analyzing device;
having
An information analysis system comprising:
前記複数の参加者に係る画像情報及び音声情報を取得した通信端末が送信した前記画像情報及び前記音声情報に基づいて、前記複数の参加者の状態を解析する解析手段と、
解析した前記複数の参加者の状態に基づいて、前記通信端末で表示可能な状態通知を生成する生成手段と、
を有する、
ことを特徴とする情報解析装置。 An information analysis device that analyzes information related to a plurality of participants who have participated in a predetermined event held online,
an analysis means for analyzing states of the plurality of participants based on the image information and the audio information transmitted by a communication terminal that has acquired the image information and the audio information related to the plurality of participants;
a generating means for generating a status notification displayable on the communication terminal based on the analyzed statuses of the plurality of participants;
having
2. An information analysis device comprising:
前記複数の参加者に係る画像情報及び音声情報を取得した通信端末が送信した前記画像情報及び前記音声情報に基づいて、前記複数の参加者の状態を解析する解析ステップと、
解析した前記複数の参加者の状態に基づいて、前記通信端末で表示可能な状態通知を生成する生成ステップと、
を含む処理を実行する、
ことを特徴とする情報解析方法。 An information analysis method executed by an information analysis device that analyzes information related to a plurality of participants who have attended a predetermined event held online, comprising:
an analysis step of analyzing states of the plurality of participants based on the image information and the audio information transmitted by a communication terminal that has acquired the image information and the audio information related to the plurality of participants;
generating a status notification displayable on the communication terminal based on the analyzed statuses of the plurality of participants;
Perform a process that includes
1. An information analysis method comprising:
前記複数の参加者に係る画像情報及び音声情報を取得した通信端末が送信した前記画像情報及び前記音声情報に基づいて、前記複数の参加者の状態を解析する解析ステップと、
解析した前記複数の参加者の状態に基づいて、前記通信端末で表示可能な状態通知を生成する生成ステップと、
を含む処理を実行させるプログラム。 An information analysis device that analyzes information related to a plurality of participants who have participated in a specific event held online,
an analysis step of analyzing states of the plurality of participants based on the image information and the audio information transmitted by a communication terminal that has acquired the image information and the audio information related to the plurality of participants;
generating a status notification displayable on the communication terminal based on the analyzed statuses of the plurality of participants;
A program that executes a process including:
前記複数の参加者の状態を解析する目的を各参加者に伝えるための説明動画を再生可能なアイコンを、前記表示手段に表示させる、
ことを特徴とする請求項9に記載の情報解析システム。 The display control means
displaying, on the display means, an icon capable of playing an explanatory video for informing each participant of the purpose of analyzing the states of the plurality of participants;
10. The information analysis system according to claim 9.
前記解析のためのデータの取得を許可するか否かを選択可能な取得許可選択部を、前記表示手段に表示させる、
ことを特徴とする請求項13に記載の情報解析システム。 The display control means further
displaying, on the display means, an acquisition permission selection section that allows the user to select whether or not to permit acquisition of data for the analysis;
14. The information analysis system according to claim 13.
前記解析手段によって解析が行われた後、解析結果に係る通知を受け取るか否かを選択可能な通知受取選択部を、前記表示手段に表示させる、
ことを特徴とする請求項14に記載の情報解析システム。 The display control means
After the analysis is performed by the analysis means, a notification reception selection section is displayed on the display means, allowing the user to select whether or not to receive a notification regarding the analysis result.
15. The information analysis system according to claim 14.
特定の参加者に係る解析結果を前記特定の参加者のリーダーに開示することを許可するか否かを選択可能な開示許可選択部を、前記表示手段に表示させる、
ことを特徴とする請求項14に記載の情報解析システム。 The display control means
displaying, on the display means, a disclosure permission selection section that allows a user to select whether or not to permit disclosure of an analysis result related to a specific participant to a leader of the specific participant;
15. The information analysis system according to claim 14.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/511,177 US20240177380A1 (en) | 2022-11-30 | 2023-11-16 | Information analysis system, information analysis method, and non-transitory recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022191494 | 2022-11-30 | ||
JP2022191494 | 2022-11-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024079546A true JP2024079546A (en) | 2024-06-11 |
Family
ID=91391463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023086826A Pending JP2024079546A (en) | 2022-11-30 | 2023-05-26 | Information analysis system, information analysis apparatus, information analysis method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024079546A (en) |
-
2023
- 2023-05-26 JP JP2023086826A patent/JP2024079546A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11204743B2 (en) | Computer system and method for content authoring of a digital conversational character | |
JP2021530754A (en) | Browser application user interface | |
US20200273464A1 (en) | Communication terminal, sharing system, display control method, and non-transitory computer-readable medium | |
US20150195378A1 (en) | Information processing apparatus, server, information processing method, and information processing system | |
US11178085B2 (en) | Social media platform for sharing reactions to videos | |
US20240185362A1 (en) | Systems and methods of generating consciousness affects | |
Krieter | Can I record your screen? Mobile screen recordings as a long-term data source for user studies | |
US20240080293A1 (en) | Social contract based messaging platform | |
Hiniker et al. | Anchored audio sampling: A seamless method for exploring children's thoughts during deployment studies | |
US20230367448A1 (en) | Systems and methods of generating consciousness affects using one or more non-biological inputs | |
JP7491025B2 (en) | Conference registration system, management system, information processing method, and program | |
CN111033540B (en) | Method and system for streaming data over a network | |
JP2024079546A (en) | Information analysis system, information analysis apparatus, information analysis method, and program | |
JP2012168863A (en) | Behavior information recording apparatus | |
US20160072756A1 (en) | Updating a Sender of an Electronic Communication on a Disposition of a Recipient Toward Content of the Electronic Communication | |
JP7123448B1 (en) | Information processing method, computer program and information processing device | |
US20240177380A1 (en) | Information analysis system, information analysis method, and non-transitory recording medium | |
Henriques et al. | Emotionally-aware multimodal interfaces: Preliminary work on a generic affective modality | |
JP7452299B2 (en) | Conversation support system, conversation support method and program | |
JP2018049140A (en) | Voice analyzing program, voice analyzer, and voice analysis method | |
JP2012003698A (en) | Conference support device, conference support method, conference support program and recording medium | |
US12028390B2 (en) | Intelligent meeting management | |
US20210307663A1 (en) | Behavioral feedback system for facilitating shaping a subjects behavior | |
Heitmayer | Smartphones as steady companions: device use in everyday life and the economics of attention | |
Lourenço | Brain-Computer Interface and Silent Speech Recognition on Decentralized Messaging Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231023 |