JP2020126645A - Information processing method, terminal device and information processing device - Google Patents

Information processing method, terminal device and information processing device Download PDF

Info

Publication number
JP2020126645A
JP2020126645A JP2020010943A JP2020010943A JP2020126645A JP 2020126645 A JP2020126645 A JP 2020126645A JP 2020010943 A JP2020010943 A JP 2020010943A JP 2020010943 A JP2020010943 A JP 2020010943A JP 2020126645 A JP2020126645 A JP 2020126645A
Authority
JP
Japan
Prior art keywords
data
content
emotion
user
heartbeat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020010943A
Other languages
Japanese (ja)
Other versions
JP7440020B2 (en
Inventor
津村 徳道
Norimichi Tsumura
徳道 津村
一石 金
Il Seok Kim
一石 金
陽一 武川
Yoichi Takekawa
陽一 武川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Geo Nexus Co Ltd
Chiba University NUC
Original Assignee
Geo Nexus Co Ltd
Chiba University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geo Nexus Co Ltd, Chiba University NUC filed Critical Geo Nexus Co Ltd
Publication of JP2020126645A publication Critical patent/JP2020126645A/en
Application granted granted Critical
Publication of JP7440020B2 publication Critical patent/JP7440020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an information processing method and the like capable of determining the emotion of a viewer who is watching a content, and providing an emotion report of the viewer to the content by using a determination result.SOLUTION: A terminal device displays contents and obtains face image data of the face of a user visually recognizing the displayed contents. The terminal device generates hemoglobin image data by extracting a pigment component corresponding to hemoglobin from the face image data, generates heartbeat data indicating heartbeat of the user on the basis of the hemoglobin image data, and performs frequency conversion on the heartbeat data to generate heartbeat variability data that indicates the user's heartbeat variability. For example, a server generates emotion data indicating the emotion of a user by analyzing the emotion of the user on the basis of the heartbeat variability data, and generates an emotion report to the content on the basis of the emotion data of the plurality of users.SELECTED DRAWING: Figure 2

Description

本開示は、情報処理方法、端末装置及び情報処理装置に関する。 The present disclosure relates to an information processing method, a terminal device, and an information processing device.

近年、人の顔を撮影して得られた撮影画像から被写体の人の感情を判定する技術が開発されている。特許文献1には、RGBカメラを用いて撮影した顔画像に基づいて、被写体の人の心拍変動を示す心拍変動スペクトログラムを作成し、心拍変動スペクトログラムに基づいて被写体の人のストレス状態を判定する技術が提案されている。特許文献1に開示された技術では、顔画像から色素成分分離によってヘモグロビン画像が作成され、ヘモグロビン画像に基づいて心拍変動スペクトログラムが作成される。 2. Description of the Related Art In recent years, a technique has been developed for determining a person's emotion of a subject from a captured image obtained by capturing a human face. Patent Document 1 discloses a technique for creating a heart rate variability spectrogram showing the heart rate variability of a subject person based on a face image captured using an RGB camera, and determining a stress state of the subject person based on the heart rate variability spectrogram. Is proposed. In the technique disclosed in Patent Document 1, a hemoglobin image is created from a face image by pigment component separation, and a heart rate variability spectrogram is created based on the hemoglobin image.

特開2017−29318号公報JP, 2017-29318, A

特許文献1に開示された技術によって作成される心拍変動スペクトログラムは、被写体の人のストレス状態の判定だけでなく、人の感情の判定にも利用することができる。よって、特許文献1に開示された技術は、人の感情を判定した結果を用いて種々の処理を行う様々なシステムに利用されることが期待される。 The heartbeat variability spectrogram created by the technique disclosed in Patent Document 1 can be used not only for determining the stress state of the person who is the subject but also for determining the emotion of the person. Therefore, the technique disclosed in Patent Document 1 is expected to be used in various systems that perform various processes by using the result of determining the emotion of a person.

本開示はこのような事情に鑑みてなされたものであり、その目的は、コンテンツを視聴する視聴者の感情を判定し、判定結果を用いてコンテンツに対する視聴者の感情データを生成することが可能な情報処理方法等を提供することにある。 The present disclosure has been made in view of such circumstances, and an object thereof is to determine the emotion of a viewer who views content, and to use the determination result to generate emotion data of the viewer for the content. Providing information processing method.

本開示の一態様に係る情報処理方法は、コンテンツを表示部に表示し、表示されるコンテンツを視認するユーザの顔の顔画像データを取得し、前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成し、前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成し、前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成し、前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する処理をコンピュータが実行する。 An information processing method according to an aspect of the present disclosure displays content on a display unit, acquires face image data of a face of a user who visually recognizes the displayed content, and extracts a pigment component corresponding to hemoglobin from the face image data. Extracting to generate hemoglobin image data, generating heartbeat data indicating the heartbeat of the user based on the hemoglobin image data, performing frequency conversion on the heartbeat data, and heartbeat fluctuation indicating heartbeat fluctuation of the user. The computer executes a process of generating data, analyzing the emotion of the user based on the heart rate variability data, and generating emotion data indicating the emotion of the user.

本開示の一態様にあっては、コンテンツを視認(視聴)するユーザの顔画像に基づいて、視認中のユーザの感情を逐次分析できるので、コンテンツの再生タイミング毎のユーザの感情を取得できる。また、複数のユーザの感情の分析結果に基づいて、コンテンツに対する視認者(視聴者)の感情レポートを生成できる。よって、視認者の感情レポートをコンテンツの作成者に提供することができ、また、視認者の感情レポートに基づいてコンテンツに対する評価を行うことができる。 According to an aspect of the present disclosure, the emotion of the user who is visually recognizing can be sequentially analyzed based on the face image of the user who visually recognizes (views) the content, and thus the emotion of the user at each reproduction timing of the content can be acquired. In addition, a viewer (viewer) emotion report for the content can be generated based on the emotion analysis results of a plurality of users. Therefore, the viewer's emotional report can be provided to the content creator, and the content can be evaluated based on the viewer's emotional report.

感情分析システムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of an emotion analysis system. 感情分析システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of an emotion analysis system. サーバ及び端末装置に記憶されるDBの構成例を示す模式図である。It is a schematic diagram which shows the structural example of DB memorize|stored in a server and a terminal device. 端末装置の制御部によって実現される機能を示すブロック図である。It is a block diagram which shows the function implement|achieved by the control part of a terminal device. 端末装置による処理の説明図である。It is explanatory drawing of the process by a terminal device. サーバの制御部によって実現される機能を示すブロック図である。It is a block diagram which shows the function implement|achieved by the control part of a server. 画面例を示す模式図である。It is a schematic diagram which shows an example of a screen. 端末装置による心拍変動データの取得処理の手順を示すフローチャートである。It is a flow chart which shows a procedure of acquisition processing of heartbeat variability data by a terminal unit. サーバによる感情分析処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the emotion analysis process by a server. 実施形態2の感情分析システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the emotion analysis system of Embodiment 2. 実施形態2の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。9 is a flowchart showing a procedure of heartbeat fluctuation data acquisition processing by the terminal device of the second embodiment. 実施形態3の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。11 is a flowchart showing a procedure of heartbeat fluctuation data acquisition processing by the terminal device of the third embodiment. 実施形態3の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。11 is a flowchart showing a procedure of heartbeat fluctuation data acquisition processing by the terminal device of the third embodiment. 画面例を示す模式図である。It is a schematic diagram which shows an example of a screen. 実施形態3のサーバによる感情分析処理の手順を示すフローチャートである。9 is a flowchart showing a procedure of emotion analysis processing by the server of the third embodiment. 実施形態4の端末装置による健康状態判定処理の手順を示すフローチャートである。16 is a flowchart showing a procedure of health condition determination processing by the terminal device of the fourth embodiment.

以下に、本開示の情報処理方法、端末装置及び情報処理装置について、コンテンツを視認(視聴)するユーザの感情を分析する感情分析システムに適用した実施形態を示す図面に基づいて具体的に説明する。以下の実施形態では、コンテンツは画像のみを含むコンテンツであってもよく、画像及び音声を含むコンテンツであってもよい。よって、以下では、コンテンツを視聴する場合には、画像及び音声を含むコンテンツを見る場合だけでなく、画像のみのコンテンツを視認する場合も含まれる。また、視聴者は、画像及び音声を含むコンテンツを視聴するユーザだけでなく、画像のみのコンテンツを視認するユーザ(視認者)も含まれる。 Hereinafter, the information processing method, the terminal device, and the information processing device of the present disclosure will be specifically described based on the drawings showing the embodiment applied to the emotion analysis system that analyzes the emotion of the user who visually recognizes (views) the content. .. In the following embodiments, the content may be content including only images, or may be content including images and audio. Therefore, in the following, viewing the content includes not only the case of viewing the content including the image and the sound but also the case of visually recognizing the content including only the image. In addition, the viewer includes not only a user who views content including images and sounds, but also a user (viewer) who views content including only images.

(実施形態1)
図1は、感情分析システムの構成例を示す模式図である。本実施形態の感情分析システムは、サーバ(情報処理装置)10及び複数の端末装置20を含み、サーバ10及び各端末装置20は、インターネット又はLAN(Local Area Network)等のネットワークNを介して情報の送受信を行う。サーバ10は、サーバコンピュータ又はパーソナルコンピュータ等であり、複数台設けられてもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。サーバ10は、コンテンツの視聴中のユーザ(視聴者)の心拍変動に関するデータを各端末装置20から取得して蓄積する処理、蓄積したデータに基づいて各視聴者の感情を分析する処理、分析した結果に基づいて各コンテンツに対する感情レポートを生成する処理等、種々の情報処理を行う。端末装置20は、タブレット端末、パーソナルコンピュータ等であり、感情分析システムに用いられる専用端末であることが好ましい。端末装置20は、コンテンツの再生処理(表示処理)、再生中のコンテンツを視聴するユーザ(視聴者)の心拍変動に関するデータを収集する処理等、種々の情報処理を行う。端末装置20は例えば、ショッピングモール等に設けられたフードコート内の飲食店で料理を注文したユーザに貸し出され、注文した料理が出来上がったことを通知する通知端末を、注文した料理が出来上がるまでの間コンテンツを再生させるように構成した装置を用いることができる。また端末装置20は、美術館や博物館等で入館者に貸し出され、展示作品に対する解説コンテンツを再生する端末を用いることができる。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of an emotion analysis system. The emotion analysis system according to the present embodiment includes a server (information processing device) 10 and a plurality of terminal devices 20, and the server 10 and each terminal device 20 perform information via a network N such as the Internet or a LAN (Local Area Network). Send and receive. The server 10 is a server computer, a personal computer, or the like, and a plurality of servers may be provided, a plurality of virtual machines provided in one server device, or a cloud server. May be done. The server 10 acquires and stores data regarding heartbeat variability of the user (viewer) who is viewing the content from each terminal device 20, processes to analyze emotions of each viewer based on the stored data, and analyzes. Various information processing is performed, such as processing for generating an emotion report for each content based on the result. The terminal device 20 is a tablet terminal, a personal computer, or the like, and is preferably a dedicated terminal used in the emotion analysis system. The terminal device 20 performs various types of information processing such as content reproduction processing (display processing) and processing of collecting data regarding heartbeat fluctuation of a user (viewer) who views the content being reproduced. The terminal device 20 is, for example, rented out to a user who has ordered food at a restaurant in a food court provided in a shopping mall or the like, and a notification terminal for notifying that the ordered food is completed until the ordered food is completed. A device configured to play interim content can be used. The terminal device 20 may be a terminal that is rented to a visitor at a museum or the like and reproduces the commentary content for the exhibited work.

図2は、感情分析システムの構成例を示すブロック図である。端末装置20は、制御部21、記憶部22、通信部23、表示部24、入力部25、カメラ26等を含み、これらの各部はバスを介して相互に接続されている。制御部21は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部21は、記憶部22に記憶してある制御プログラム22Pを適宜実行することにより、端末装置20が行うべき種々の情報処理、制御処理等を行う。 FIG. 2 is a block diagram showing a configuration example of the emotion analysis system. The terminal device 20 includes a control unit 21, a storage unit 22, a communication unit 23, a display unit 24, an input unit 25, a camera 26, and the like, and these units are mutually connected via a bus. The control unit 21 includes one or more processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit) or a GPU (Graphics Processing Unit). The control unit 21 appropriately executes the control program 22P stored in the storage unit 22 to perform various types of information processing, control processing, and the like that the terminal device 20 should perform.

記憶部22は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部22は、制御部21が実行する制御プログラム22P及び制御プログラム22Pの実行に必要な各種のデータ等を予め記憶している。また記憶部22は、制御部21が制御プログラム22Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部22には、後述するコンテンツDB(データベース)22a及び心拍変動DB22bが記憶される。コンテンツDB22a及び心拍変動DB22bは、端末装置20に接続された外部の記憶装置に記憶されてもよく、ネットワークNを介して端末装置20と通信可能な記憶装置に記憶されてもよい。 The storage unit 22 includes a RAM (Random Access Memory), a flash memory, a hard disk, an SSD (Solid State Drive), and the like. The storage unit 22 stores in advance a control program 22P executed by the control unit 21 and various data necessary for executing the control program 22P. The storage unit 22 also temporarily stores data and the like generated when the control unit 21 executes the control program 22P. Further, the storage unit 22 stores a content DB (database) 22a and a heart rate variability DB 22b described later. The content DB 22a and the heart rate variability DB 22b may be stored in an external storage device connected to the terminal device 20, or may be stored in a storage device communicable with the terminal device 20 via the network N.

通信部23は、例えば無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。なお、通信部23は、有線通信によってネットワークNに接続される構成でもよい。表示部24は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部21からの指示に従って各種の情報を表示する。入力部25は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部21へ送出する。表示部24及び入力部25は一体として構成されたタッチパネルであってもよい。 The communication unit 23 is an interface for connecting to the network N by wireless communication, for example, and transmits/receives information to/from an external device via the network N. The communication unit 23 may be connected to the network N by wire communication. The display unit 24 is a liquid crystal display, an organic EL display, or the like, and displays various kinds of information according to an instruction from the control unit 21. The input unit 25 receives an operation input by the user and sends a control signal corresponding to the operation content to the control unit 21. The display unit 24 and the input unit 25 may be a touch panel integrally configured.

カメラ26は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して入射した光を、R(赤)、G(緑)、B(青)の各色に対応する撮像素子にて光電変換してRGBのカラー画像データを取得する。カメラ26は、制御部21からの指示に従って撮影を行い、取得した画像データ(撮影画像)を逐次記憶部22へ送出して記憶する。なお、カメラ26及び表示部24は、図1に示すように、カメラ26の撮影方向が表示部24の表示画面側となるように端末装置20に設けられており、表示部24の表示画面を視認するユーザの顔をカメラ26で撮影できるように配置されている。 The camera 26 is an image pickup device having a lens, an image pickup element, and the like, and photoelectrically converts light incident through the lens by an image pickup element corresponding to each color of R (red), G (green), and B (blue). Then, the RGB color image data is acquired. The camera 26 captures images according to an instruction from the control unit 21, and sequentially sends the acquired image data (captured image) to the storage unit 22 for storage. The camera 26 and the display unit 24 are provided in the terminal device 20 so that the shooting direction of the camera 26 is on the display screen side of the display unit 24 as shown in FIG. The face of the user to be visually recognized is arranged so that the camera 26 can photograph it.

端末装置20において、記憶部22に予め記憶される制御プログラム及びデータは、制御部21が通信部23を介してネットワークN経由で外部装置からダウンロードして記憶部22に記憶してもよい。また、端末装置20が可搬型記憶媒体に記憶された情報を読み取る読み取り部を有する場合、記憶部22に予め記憶される制御プログラム及びデータは、制御部21が読み取り部を介して可搬型記憶媒体から読み取って記憶部22に記憶してもよい。 In the terminal device 20, the control program and data stored in advance in the storage unit 22 may be downloaded from the external device via the network N via the communication unit 23 by the control unit 21 and stored in the storage unit 22. When the terminal device 20 has a reading unit that reads information stored in the portable storage medium, the control unit 21 stores the control program and data stored in advance in the storage unit 22 via the reading unit. It may be read from and stored in the storage unit 22.

サーバ10は、制御部11、記憶部12、通信部13、入力部14、表示部15、読み取り部16等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU、MPU又はGPU等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理、制御処理等をサーバ10に行わせる。 The server 10 includes a control unit 11, a storage unit 12, a communication unit 13, an input unit 14, a display unit 15, a reading unit 16, and the like, and these units are mutually connected via a bus. The control unit 11 includes one or more processors such as a CPU, MPU or GPU. By appropriately executing the control program 12P stored in the storage unit 12, the control unit 11 causes the server 10 to perform various types of information processing, control processing, and the like that the information processing apparatus of the present disclosure should perform.

記憶部12は、RAM、フラッシュメモリ、ハードディスク、SSD等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部12には、後述するコンテンツDB12a、心拍変動DB12b及び感情DB12cが記憶される。コンテンツDB12a、心拍変動DB12b及び感情DB12cは、サーバ10に接続された外部の記憶装置に記憶されてもよく、ネットワークNを介してサーバ10と通信可能な記憶装置に記憶されてもよい。 The storage unit 12 includes a RAM, a flash memory, a hard disk, an SSD and the like. The storage unit 12 stores in advance the control program 12P executed by the control unit 11 and various data necessary for executing the control program 12P. The storage unit 12 also temporarily stores data and the like generated when the control unit 11 executes the control program 12P. Further, the storage unit 12 stores a content DB 12a, a heart rate variability DB 12b, and an emotion DB 12c, which will be described later. The content DB 12a, the heart rate variability DB 12b, and the emotion DB 12c may be stored in an external storage device connected to the server 10 or may be stored in a storage device that can communicate with the server 10 via the network N.

通信部13は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。入力部14は、マウス及びキーボード等を含み、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。 The communication unit 13 is an interface for connecting to the network N by wire communication or wireless communication, and transmits/receives information to/from an external device via the network N. The input unit 14 includes a mouse, a keyboard, and the like, receives an operation input by the user, and sends a control signal corresponding to the operation content to the control unit 11. The display unit 15 is a liquid crystal display, an organic EL display, or the like, and displays various kinds of information according to an instruction from the control unit 11.

読み取り部16は、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM又はUSB(Universal Serial Bus)メモリを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に予め記憶される制御プログラム及びデータは、制御部11が読み取り部16を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に予め記憶される制御プログラム及びデータは、制御部11が通信部13を介してネットワークN経由で外部装置からダウンロードして記憶部12に記憶してもよい。更に、半導体メモリ1bから、制御部11が制御プログラム及びデータを読み出してもよい。 The reading unit 16 reads information stored in a portable storage medium 1a including a CD (Compact Disc)-ROM, a DVD (Digital Versatile Disc)-ROM, or a USB (Universal Serial Bus) memory. The control program and data stored in advance in the storage unit 12 may be read from the portable storage medium 1 a by the control unit 11 via the reading unit 16 and stored in the storage unit 12. The control program and data stored in advance in the storage unit 12 may be downloaded from the external device via the network N via the communication unit 13 by the control unit 11 and stored in the storage unit 12. Further, the control unit 11 may read the control program and data from the semiconductor memory 1b.

図3は、サーバ10に記憶されるDB12a〜12c及び端末装置20に記憶されるDB22a〜22bの構成例を示す模式図である。サーバ10に記憶されるコンテンツDB12a及び端末装置20に記憶されるコンテンツDB22aは同様の構成を有しており、図3AはコンテンツDB12a,22aを示す。またサーバ10に記憶される心拍変動DB12b及び端末装置20に記憶される心拍変動DB22bは同様の構成を有しており、図3Bは心拍変動DB12b,22bを示す。図3Cは感情DB12cを示す。 FIG. 3 is a schematic diagram showing a configuration example of the DBs 12a to 12c stored in the server 10 and the DBs 22a to 22b stored in the terminal device 20. The content DB 12a stored in the server 10 and the content DB 22a stored in the terminal device 20 have the same configuration, and FIG. 3A shows the content DBs 12a and 22a. The heart rate variability DB 12b stored in the server 10 and the heart rate variability DB 22b stored in the terminal device 20 have the same configuration, and FIG. 3B shows the heart rate variability DBs 12b and 22b. FIG. 3C shows the emotion DB 12c.

コンテンツDB12a,22aは、端末装置20によって再生されるコンテンツを記憶している。図3Aに示すコンテンツDB12a,22aは、コンテンツID列、コンテンツデータ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶する。コンテンツデータ列は、各コンテンツの再生用データを記憶する。コンテンツは動画コンテンツであってもよく静止画コンテンツであってもよく、再生用データはコンテンツに係る画像を表示するための表示用データである。なお、再生用データはコンテンツに係る音声を出力するための音声出力用データを含んでいてもよい。コンテンツの再生用データは、コンテンツDB12a,22aに記憶されるほかに、記憶部12,22の所定領域又は外部の記憶装置に記憶されてもよく、この場合、コンテンツデータ列は、コンテンツの再生用データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。サーバ10のコンテンツDB12aの記憶内容は、通信部13又は入力部14を介して追加、変更又は削除の指示を取得する都度、制御部11によって追加、変更又は削除される。端末装置20のコンテンツDB22aの記憶内容は、例えばネットワークN経由でサーバ10から更新用のデータを受信した場合に、制御部21によって更新される。コンテンツDB12a,22aの記憶内容は図3Aに示す例に限定されず、例えばコンテンツに付されたコンテンツ名、コンテンツの再生時間等が記憶されていてもよい。また、コンテンツDB12a,22aは異なる構成であってもよく、例えば端末装置20のコンテンツDB22aに、各コンテンツの再生順序が登録されていてもよい。 The content DBs 12a and 22a store content reproduced by the terminal device 20. The content DBs 12a and 22a shown in FIG. 3A include a content ID sequence, a content data sequence, and the like. The content ID column stores identification information assigned in advance to each content. The content data string stores reproduction data of each content. The content may be moving image content or still image content, and the reproduction data is display data for displaying an image related to the content. The reproduction data may include audio output data for outputting audio related to the content. The content reproduction data may be stored in predetermined areas of the storage units 12 and 22 or an external storage device in addition to being stored in the content DBs 12a and 22a. In this case, the content data string is used for content reproduction. Information for reading data (for example, a file name indicating a storage location of data) is stored. The storage content of the content DB 12a of the server 10 is added, changed, or deleted by the control unit 11 each time an instruction for addition, change, or deletion is acquired via the communication unit 13 or the input unit 14. The storage content of the content DB 22a of the terminal device 20 is updated by the control unit 21 when, for example, update data is received from the server 10 via the network N. The storage contents of the content DBs 12a and 22a are not limited to the example shown in FIG. 3A, and for example, the content name given to the content, the reproduction time of the content, etc. may be stored. Further, the content DBs 12a and 22a may have different configurations, and for example, the reproduction order of each content may be registered in the content DB 22a of the terminal device 20.

心拍変動DB12b,22bは、端末装置20を用いてコンテンツを視聴した視聴者の情報を記憶する。図3Bに示す心拍変動DB12b,22bは、コンテンツID列、視聴ID列、年齢列、性別列、心拍変動データ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶する。視聴ID列は、各コンテンツに対する視聴処理(再生処理)毎に割り当てられた識別情報を記憶する。なお、視聴IDは、例えば各コンテンツの視聴処理(視聴者)毎に割り当てられる。年齢列及び性別列はそれぞれ、それぞれの視聴処理を行った視聴者の年齢及び性別を記憶する。心拍変動データ列は、コンテンツの視聴処理中における視聴者の心拍変動を示すデータを記憶する。心拍変動を示すデータは、心拍変動DB12b,22bに記憶されるほかに、記憶部12,22の所定領域又は外部の記憶装置に記憶されてもよく、この場合、心拍変動データ列は、心拍変動を示すデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。 The heart rate variability DBs 12b and 22b store information of viewers who have viewed the content using the terminal device 20. The heart rate variability DBs 12b and 22b shown in FIG. 3B include a content ID sequence, a viewing ID sequence, an age sequence, a gender sequence, a heart rate variability data sequence, and the like. The content ID column stores identification information assigned in advance to each content. The viewing ID column stores identification information assigned to each viewing process (reproduction process) for each content. The viewing ID is assigned to each viewing process (viewer) of each content, for example. The age column and the sex column each store the age and sex of the viewer who has performed the viewing process. The heart rate variability data string stores data indicating the heart rate variability of the viewer during the content viewing process. The data indicating the heart rate variability may be stored in the heart rate variability DBs 12b and 22b, or may be stored in a predetermined area of the storage units 12 and 22 or an external storage device. In this case, the heart rate variability data string is the heart rate variability. The information for reading the data indicating (for example, the file name indicating the storage location of the data) is stored.

端末装置20の心拍変動DB22bに記憶されるコンテンツID及び視聴IDは、制御部21がコンテンツの再生処理を開始した場合に、制御部21によって記憶される。また端末装置20の心拍変動DB22bに記憶される年齢、性別及び心拍変動データは、コンテンツの再生処理中に制御部21が検出する都度、制御部21によって記憶される。端末装置20は、心拍変動DB22bに記憶した各データを、例えばコンテンツ毎又は視聴処理毎にまとめてサーバ10へ送信する。サーバ10の心拍変動DB12bの記憶内容は、制御部11が例えばネットワークN経由で端末装置20から各データを取得する都度、制御部11によって記憶される。心拍変動DB12b,22bの記憶内容は図3Bに示す例に限定されず、また、心拍変動DB12b,22bは異なる構成であってもよい。例えばサーバ10の心拍変動DB12bに、データの送信元の端末装置20の識別情報が登録されていてもよい。なお、心拍変動DB12b,22bには、コンテンツを視聴した視聴者個人を特定できない形式のデータが記憶されることが好ましい。 The content ID and the viewing ID stored in the heart rate variability DB 22b of the terminal device 20 are stored by the control unit 21 when the control unit 21 starts the content reproduction process. The age, sex, and heart rate variability data stored in the heart rate variability DB 22b of the terminal device 20 is stored by the control unit 21 each time the control unit 21 detects the content reproduction process. The terminal device 20 collectively transmits the data stored in the heart rate variability DB 22b to the server 10 for each content or each viewing process. The storage content of the heart rate variability DB 12b of the server 10 is stored by the control unit 11 each time the control unit 11 acquires each data from the terminal device 20 via the network N, for example. The stored contents of the heartbeat variability DBs 12b and 22b are not limited to the example shown in FIG. 3B, and the heartbeat variability DBs 12b and 22b may have different configurations. For example, the identification information of the terminal device 20 that is the transmission source of the data may be registered in the heart rate variability DB 12b of the server 10. It is preferable that the heart rate variability DBs 12b and 22b store data in a format that cannot identify an individual viewer who has viewed the content.

感情DB12cは、端末装置20を用いてコンテンツを視聴した視聴者の感情に関する情報を記憶する。図3Cに示す感情DB12cは、コンテンツID列、視聴ID列、年齢列、性別列、感情データ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶し、視聴ID列は、各視聴処理(再生処理)に割り当てられた識別情報を記憶し、年齢列及び性別列はそれぞれ、それぞれの視聴処理を行った視聴者の年齢及び性別を記憶する。感情データ列は、コンテンツの視聴中における視聴者の感情を示すデータを記憶し、具体的には喜び列、怒り列、悲しみ列、驚き列、嫌悪列、リラックス列等を含む。喜び列、怒り列、悲しみ列、驚き列、嫌悪列、リラックス列はそれぞれ、コンテンツの視聴中に視聴者が喜び、怒り、悲しみ、驚き、嫌悪、リラックスのそれぞれの感情について感じた可能性を示す数値を記憶する。各感情の数値は、例えばコンテンツの再生開始からの経過時間(再生時間)に対応付けて時系列的に記憶されており、コンテンツの視聴中における視聴者の感情の変化を示す。各感情を示す数値は、心拍変動DB12bに記憶された各コンテンツの視聴処理における視聴者の心拍変動データを分析して算出される。感情DB12cに記憶される感情データ以外の各データは、制御部11が、心拍変動DB12bに記憶された心拍変動データに基づいて視聴者の感情分析処理を開始した場合に、制御部11によって記憶される。また感情DB12cに記憶される感情データは、制御部11が感情分析処理によって各感情の数値を取得する都度、制御部11によって記憶される。感情DB12cの記憶内容は図3Cに示す例に限定されず、例えば各視聴処理を行った端末装置20(心拍変動データを収集した端末装置20)の識別情報が登録されていてもよい。また、感情DB12cに記憶される各感情は、図3Cに示す例に限定されない。 The emotion DB 12c stores information regarding the emotion of the viewer who has viewed the content using the terminal device 20. The emotion DB 12c illustrated in FIG. 3C includes a content ID column, a viewing ID column, an age column, a gender column, an emotion data column, and the like. The content ID column stores identification information assigned in advance to each content, the viewing ID column stores identification information assigned to each viewing process (reproduction process), and the age column and the gender column respectively The age and sex of the viewer who has performed the viewing process are stored. The emotion data sequence stores data indicating the emotion of the viewer while viewing the content, and specifically includes a pleasure sequence, an anger sequence, a sadness sequence, a surprise sequence, a dislike sequence, a relaxation sequence, and the like. The pleasure row, anger row, sadness row, surprise row, disgust row, and relax row each indicate how the viewer may have felt about their feelings of joy, anger, sadness, surprise, disgust, or relaxation while viewing content. Memorize the numerical value. The numerical value of each emotion is stored in time series in association with, for example, the elapsed time (reproduction time) from the start of reproduction of the content, and indicates a change in the emotion of the viewer while viewing the content. The numerical value indicating each emotion is calculated by analyzing the heartbeat variability data of the viewer in the viewing process of each content stored in the heartbeat variability DB 12b. Each data other than the emotion data stored in the emotion DB 12c is stored by the control unit 11 when the control unit 11 starts the viewer emotion analysis process based on the heart rate variability data stored in the heart rate variability DB 12b. It The emotion data stored in the emotion DB 12c is stored by the control unit 11 each time the control unit 11 obtains the numerical value of each emotion by the emotion analysis process. The storage content of the emotion DB 12c is not limited to the example illustrated in FIG. 3C, and for example, the identification information of the terminal device 20 that has performed each viewing process (the terminal device 20 that has collected heartbeat variability data) may be registered. Further, each emotion stored in the emotion DB 12c is not limited to the example shown in FIG. 3C.

次に、端末装置20の制御部21が制御プログラム22Pを実行することによって実現される機能について説明する。図4は、端末装置20の制御部21によって実現される機能を示すブロック図、図5は、端末装置20による処理の説明図である。端末装置20の制御部21は、記憶部22に記憶してある制御プログラム22Pを実行した場合、コンテンツ再生部201、撮影部202、属性判定部203、ヘモグロビン画像生成部204、心拍データ生成部205、心拍変動データ生成部206、出力部207の各機能を実現する。なお、本実施形態では、これらの各機能を制御部21が制御プログラム22Pを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。 Next, a function realized by the control unit 21 of the terminal device 20 executing the control program 22P will be described. FIG. 4 is a block diagram showing functions realized by the control unit 21 of the terminal device 20, and FIG. 5 is an explanatory diagram of processing by the terminal device 20. When the control unit 21 of the terminal device 20 executes the control program 22P stored in the storage unit 22, the content reproduction unit 201, the imaging unit 202, the attribute determination unit 203, the hemoglobin image generation unit 204, and the heartbeat data generation unit 205. The respective functions of the heart rate variability data generation unit 206 and the output unit 207 are realized. In the present embodiment, each of these functions is realized by the control unit 21 executing the control program 22P, but a part of these functions may be realized by a dedicated hardware circuit.

端末装置20において記憶部22には、図3Aに示すようなコンテンツDB22aと、図3Bに示す構成においてコンテンツIDのみが記憶された心拍変動DB22bとが格納されているものとする。なお、心拍変動DB22bは、コンテンツIDも記憶されていない状態であってもよい。 It is assumed that the storage unit 22 of the terminal device 20 stores a content DB 22a as shown in FIG. 3A and a heartbeat fluctuation DB 22b in which only the content ID is stored in the configuration shown in FIG. 3B. The heart rate variability DB 22b may be in a state in which no content ID is stored.

コンテンツ再生部201は、コンテンツDB22aに記憶されているコンテンツの再生用データに基づいてコンテンツを再生する(コンテンツに係る画像を表示部24に表示する)。なお、再生用データにコンテンツに係る音声を出力するための音声出力用データが含まれる場合、コンテンツ再生部201は、音声出力用データに基づいてコンテンツに係る音声をスピーカ(図示せず)から出力する。コンテンツ再生部201は、コンテンツDB22aに記憶されている順に各コンテンツを再生してもよいし、コンテンツDB22aに再生順序が登録されている場合には、登録された再生順序で各コンテンツを再生してもよい。コンテンツ再生部201は、コンテンツの再生処理を開始した場合、このコンテンツのコンテンツIDに対応付けて、視聴IDを心拍変動DB22bに記憶する。なお、視聴IDは、各コンテンツにおいてそれぞれの視聴処理間で重複しないIDであればどのような情報でもよい。 The content reproduction unit 201 reproduces the content based on the reproduction data of the content stored in the content DB 22a (displays the image related to the content on the display unit 24). When the reproduction data includes audio output data for outputting the audio related to the content, the content reproduction unit 201 outputs the audio related to the content from the speaker (not shown) based on the audio output data. To do. The content reproduction unit 201 may reproduce the respective contents in the order stored in the content DB 22a. If the reproduction order is registered in the content DB 22a, the contents reproduction unit 201 reproduces the respective contents in the registered reproduction order. Good. When the content reproduction unit 201 starts the content reproduction process, the content reproduction unit 201 stores the viewing ID in the heart rate variability DB 22b in association with the content ID of this content. Note that the viewing ID may be any information as long as it is an ID that does not overlap between the viewing processes of each content.

撮影部(取得部)202は、コンテンツ再生部201がコンテンツの再生処理を開始した場合、カメラ26による撮影を開始し、表示部24に表示されるコンテンツを視聴する視聴者の顔の顔画像(カラーの顔画像データ)を取得する。撮影部202は、例えば1秒間に30枚(30フレーム)の顔画像を取得し、取得した顔画像を例えば記憶部22に順次記憶しておく。 When the content reproduction unit 201 starts the reproduction processing of the content, the imaging unit (acquisition unit) 202 starts shooting by the camera 26, and the face image of the face of the viewer who views the content displayed on the display unit 24 ( (Color face image data) is acquired. The image capturing unit 202 acquires, for example, 30 face images (30 frames) per second, and sequentially stores the acquired face images in the storage unit 22, for example.

属性判定部203は、撮影部202が取得した顔画像(顔画像データ)に基づいて、この顔画像の被写体である人の属性を判定する。属性判定部203は例えばテンプレートマッチング技術によって顔画像中の被写体の属性を判定する。具体的には、年齢(年齢層)及び性別を含む人の属性毎に、各属性の人の一般的な顔又は顔の各器官の画像に基づくテンプレートを予め記憶部22に記憶しておき、属性判定部203は、顔画像にいずれかのテンプレートに一致する領域があるか否かを検知し、一致する領域を検知した場合、一致したテンプレートに対応付けられた属性を、ここでの被写体の属性に判定する。属性判定部203は、被写体の属性を判定した場合、再生中のコンテンツのコンテンツIDと実行中の再生処理(視聴処理)の視聴IDとに対応付けて、判定した属性(年齢及び性別)を心拍変動DB22bに記憶する。 The attribute determining unit 203 determines the attribute of the person who is the subject of the face image based on the face image (face image data) acquired by the image capturing unit 202. The attribute determination unit 203 determines the attribute of the subject in the face image using, for example, the template matching technique. Specifically, for each attribute of a person including age (age group) and sex, a template based on an image of a general face of a person having each attribute or each organ of the face is stored in the storage unit 22 in advance, The attribute determining unit 203 detects whether or not the face image has a region that matches any of the templates, and when a region that matches the template is detected, the attribute associated with the matching template is set as the object of the subject here. Judge as an attribute. When determining the attribute of the subject, the attribute determining unit 203 associates the determined attribute (age and gender) with the content ID of the content being reproduced and the viewing ID of the reproduction process (viewing process) being executed. It is stored in the fluctuation DB 22b.

ヘモグロビン画像生成部(抽出部)204は、撮影部202が取得した顔画像(顔画像データ)に対して色素成分分離処理を行い、ヘモグロビンに対応する色素成分を抽出してヘモグロビン画像(ヘモグロビン成分の顔画像データ)を生成する。なお、ヘモグロビン画像生成部204は、撮影部202が取得した顔画像から被写体の顔領域を検出し、検出した顔領域に対してのみ色素成分分離を行ってヘモグロビン画像を生成すればよい。この場合、ヘモグロビン画像生成部204は、例えば顔領域以外の領域(背景領域)における各画素の画素値を全て0にしてもよい。 The hemoglobin image generation unit (extraction unit) 204 performs pigment component separation processing on the face image (face image data) acquired by the imaging unit 202, extracts the pigment component corresponding to hemoglobin, and extracts the hemoglobin image (of the hemoglobin component). Face image data) is generated. Note that the hemoglobin image generation unit 204 may detect the face area of the subject from the face image acquired by the imaging unit 202, perform pigment component separation only on the detected face area, and generate the hemoglobin image. In this case, the hemoglobin image generation unit 204 may set all the pixel values of each pixel in the area (background area) other than the face area to 0, for example.

心拍データ生成部205は、ヘモグロビン画像生成部204が生成したヘモグロビン画像に基づいて、被写体の人の心拍を示す心拍データ(脈波データ)を生成する。具体的には、心拍データ生成部205は、順次生成されるヘモグロビン画像において、被写体の顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、それぞれのヘモグロビン画像における平均画素値の時間変化を心拍データとして生成する。なお、ヘモグロビン成分の成分量は血流量を表すので、ヘモグロビン成分の成分量に基づいて心拍を推定できる。図5Aは心拍データの一例を示し、図5Aに示す心拍データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸をヘモグロビン画像における平均画素値として示されている。心拍データ生成部205は、ヘモグロビン画像において被写体の顔領域に含まれる全画素の平均画素値の代わりに、顔領域の一部に含まれる画素の平均画素値を算出して心拍データを生成してもよい。例えば、制御部21は、撮影部202が取得した顔画像に基づいて、被写体の人の目、鼻、口等の器官を検出し、例えば額、頬、口の回り等の所定領域を特定する。そして、心拍データ生成部205は、ヘモグロビン画像において、特定された額、頬、口の回り等の所定領域に含まれる画素の平均画素値を算出して心拍データを生成してもよい。このように、顔領域の全体における平均画素値の代わりに、所定領域における平均画素値を用いることにより、撮影条件の影響を抑制して精度の高い心拍データを生成できる。 The heartbeat data generation unit 205 generates heartbeat data (pulse wave data) indicating the heartbeat of the subject person based on the hemoglobin image generated by the hemoglobin image generation unit 204. Specifically, the heartbeat data generation unit 205 calculates the average value (average pixel value) of the pixel values (component amounts of the hemoglobin component) of each pixel in the face area of the subject in the sequentially generated hemoglobin images, The time change of the average pixel value in each hemoglobin image is generated as heartbeat data. Since the component amount of the hemoglobin component represents the blood flow amount, the heartbeat can be estimated based on the component amount of the hemoglobin component. FIG. 5A shows an example of heartbeat data. In the heartbeat data shown in FIG. 5A, the horizontal axis represents the elapsed time from the start of content reproduction, and the vertical axis represents the average pixel value in the hemoglobin image. The heartbeat data generation unit 205 calculates heartbeat data by calculating an average pixel value of pixels included in a part of the face area instead of the average pixel value of all pixels included in the face area of the subject in the hemoglobin image. Good. For example, the control unit 21 detects organs such as the eyes, nose, and mouth of the human subject, based on the face image acquired by the imaging unit 202, and specifies a predetermined area such as the forehead, cheek, and mouth area. .. Then, the heartbeat data generation unit 205 may generate the heartbeat data by calculating an average pixel value of pixels included in a predetermined region such as the specified forehead, cheek, and mouth area in the hemoglobin image. As described above, by using the average pixel value in the predetermined area instead of the average pixel value in the entire face area, it is possible to suppress the influence of the imaging conditions and generate accurate heartbeat data.

心拍データ生成部205は、図5Aに示すような心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対してフィルタ処理を行い、図5Bに示すような心拍データを生成する。図5Bに示す心拍データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸をフィルタ処理後の平均画素値として示されている。心拍データ生成部205は、例えば傾き除去処理及びバンドパスフィルタ処理等のフィルタ処理を行うが、これらの処理に限定されない。心拍データ生成部205は、後段の心拍変動データ生成部206が精度の高い心拍変動データを生成できるような心拍データが得られる各種処理を行えばよい。 The heartbeat data generation unit 205 performs a filtering process on the heartbeat data as shown in FIG. 5A (temporal change of the average pixel value in the hemoglobin image) to generate heartbeat data as shown in FIG. 5B. In the heartbeat data shown in FIG. 5B, the horizontal axis represents the elapsed time from the start of content reproduction, and the vertical axis represents the average pixel value after filtering. The heartbeat data generation unit 205 performs filtering processing such as slope removal processing and bandpass filtering processing, but is not limited to these processing. The heartbeat data generation unit 205 may perform various processes to obtain heartbeat data such that the heartbeat fluctuation data generation unit 206 in the subsequent stage can generate highly accurate heartbeat fluctuation data.

心拍変動データ生成部206は、心拍データ生成部205が生成した心拍データに対して周波数変換処理を行い、被写体の人の心拍変動を示す心拍変動データを生成する。心拍変動データ生成部206は、時系列の心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対して、例えばフーリエパワースペクトル変換を行うことによって周波数領域の心拍変動スペクトログラムデータを生成する。なお、心拍変動スペクトログラムデータは、例えば心拍変動周波数の時間変化を示すデータであり、図5Cは心拍変動スペクトログラムデータの一例を示す。図5Cに示す心拍変動データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸を変動周波数として示されている。フーリエパワースペクトル変換においては、0.75Hz〜3Hz(心拍数が45bpm〜180bpm)における最大のパワースペクトルを脈拍と判断する。心拍変動データ生成部206は、生成した心拍変動データ(心拍変動スぺクトログラムデータ)を、再生中のコンテンツのコンテンツID及び実行中の視聴処理の視聴IDに対応付けて心拍変動DB22bに記憶する。 The heartbeat fluctuation data generation unit 206 performs frequency conversion processing on the heartbeat data generated by the heartbeat data generation unit 205, and generates heartbeat fluctuation data indicating the heartbeat fluctuation of the person who is the subject. The heartbeat variability data generation unit 206 generates heartbeat variability spectrogram data in the frequency domain by, for example, performing Fourier power spectrum conversion on the time-series heartbeat data (temporal change of the average pixel value in the hemoglobin image). The heartbeat variability spectrogram data is, for example, data indicating a temporal change in the heartbeat variability frequency, and FIG. 5C shows an example of the heartbeat variability spectrogram data. In the heart rate variability data shown in FIG. 5C, the horizontal axis represents the elapsed time from the start of content reproduction, and the vertical axis represents the fluctuation frequency. In the Fourier power spectrum conversion, the maximum power spectrum at 0.75 Hz to 3 Hz (heart rate of 45 bpm to 180 bpm) is determined as a pulse. The heart rate variability data generation unit 206 stores the generated heart rate variability data (heart rate variability spectrogram data) in the heart rate variability DB 22b in association with the content ID of the content being reproduced and the viewing ID of the viewing process being executed. ..

ヘモグロビン画像生成部204、心拍データ生成部205及び心拍変動データ生成部206は、撮影部202が被写体(視聴者)の顔画像データを取得する都度、取得した顔画像データに対して上述した各処理を行う。よって、コンテンツ再生部201が1つのコンテンツの再生処理を1回行った場合に、再生されたコンテンツに対応する心拍変動データが生成されて心拍変動DB22bに記憶される。 The hemoglobin image generation unit 204, the heartbeat data generation unit 205, and the heartbeat fluctuation data generation unit 206 each perform the above-described processing on the acquired face image data every time the imaging unit 202 acquires the face image data of the subject (viewer). I do. Therefore, when the content reproduction unit 201 performs the reproduction process of one content once, the heart rate variability data corresponding to the reproduced content is generated and stored in the heart rate variability DB 22b.

出力部207は、心拍変動DB22bに蓄積された各コンテンツに対応する心拍変動データを通信部23からサーバ10へ送信する。具体的には、出力部207は、各コンテンツの1回の再生処理毎に、再生されたコンテンツのコンテンツID、実行された再生処理(視聴処理)の視聴ID、視聴者の年齢、性別及び心拍変動データを心拍変動DB22bから読み出し、まとめてサーバ10へ送信する。なお、出力部207は、例えばサーバ10から心拍変動データの出力要求を受け付けた場合に、それまでに心拍変動DB22bに蓄積した各コンテンツの心拍変動データをサーバ10へ送信する。サーバ10は、出力部207が送信したコンテンツID、視聴ID、年齢、性別及び心拍変動データを受信し、それぞれを対応付けて心拍変動DB12bに記憶する。これにより、端末装置20で取得された視聴者の心拍変動データがサーバ10に蓄積される。なお、出力部207は、コンテンツを特定するための情報(コンテンツ情報)と、視聴者の属性に関する情報と共に心拍変動データをサーバ10へ送信すればよい。 The output unit 207 transmits the heartbeat variability data corresponding to each content accumulated in the heartbeat variability DB 22b from the communication unit 23 to the server 10. Specifically, the output unit 207, for each reproduction process of each content, the content ID of the reproduced content, the viewing ID of the executed reproduction process (viewing process), the viewer's age, sex, and heartbeat. The fluctuation data is read from the heart rate fluctuation DB 22b, and is collectively transmitted to the server 10. Note that, for example, when the output request of the heart rate variability data is received from the server 10, the output unit 207 transmits the heart rate variability data of each content accumulated in the heart rate variability DB 22b up to that time to the server 10. The server 10 receives the content ID, the viewing ID, the age, the sex, and the heart rate variability data transmitted by the output unit 207, and stores the data in association with each other in the heart rate variability DB 12b. Thereby, the heartbeat variation data of the viewer acquired by the terminal device 20 is accumulated in the server 10. The output unit 207 may transmit the heartbeat fluctuation data to the server 10 together with the information for specifying the content (content information) and the information about the attribute of the viewer.

本実施形態の端末装置20では、撮影部202は、取得した顔画像データを逐次記憶部22に記憶し、ヘモグロビン画像生成部204は、記憶部22に記憶された顔画像データを読み出してヘモグロビン画像の生成処理を行う。ヘモグロビン画像が生成された顔画像データは以降の処理では必要ないので、制御部(消去部)21は、ヘモグロビン画像生成部204がヘモグロビン画像を生成した後、顔画像データを記憶部22から消去(削除)してもよい。なお、制御部21は、例えば出力部207が心拍変動データをサーバ10へ送信した後に、この心拍変動データを生成する際に用いた顔画像データを記憶部22から消去する構成でもよい。このように視聴者個人を特定できる顔画像データを記憶部22から消去することによって、端末装置20に個人情報が残ることを防止できる。 In the terminal device 20 of the present embodiment, the image capturing unit 202 sequentially stores the acquired face image data in the storage unit 22, and the hemoglobin image generation unit 204 reads the face image data stored in the storage unit 22 to obtain the hemoglobin image. Is generated. Since the face image data for which the hemoglobin image is generated is not necessary in the subsequent processing, the control unit (erasing unit) 21 deletes the face image data from the storage unit 22 after the hemoglobin image generating unit 204 generates the hemoglobin image ( It may be deleted). Note that the control unit 21 may have a configuration in which, for example, after the output unit 207 transmits the heartbeat fluctuation data to the server 10, the face image data used when generating the heartbeat fluctuation data is deleted from the storage unit 22. In this way, by deleting the face image data that can identify the individual viewer from the storage unit 22, it is possible to prevent the personal information from remaining in the terminal device 20.

次に、サーバ10の制御部11が制御プログラム12Pを実行することによって実現される機能について説明する。図6は、サーバ10の制御部11によって実現される機能を示すブロック図、図7は、画面例を示す模式図である。サーバ10の制御部11は、記憶部12に記憶してある制御プログラム12Pを実行した場合、心拍変動データ取得部101、心拍変動データ記憶部102、感情分析部103、レポート生成部104、出力部105の各機能を実現する。なお、これらの各機能の一部を専用のハードウェア回路で実現してもよい。 Next, a function realized by the control unit 11 of the server 10 executing the control program 12P will be described. FIG. 6 is a block diagram showing functions realized by the control unit 11 of the server 10, and FIG. 7 is a schematic diagram showing an example of a screen. When the control program 11P stored in the storage unit 12 is executed, the control unit 11 of the server 10 acquires the heartbeat variability data acquisition unit 101, the heartbeat variability data storage unit 102, the emotion analysis unit 103, the report generation unit 104, the output unit. Each function of 105 is realized. A part of each of these functions may be realized by a dedicated hardware circuit.

心拍変動データ取得部(データ取得部)101は、端末装置20(出力部207)が送信した心拍変動データを通信部13にて取得する。具体的には、心拍変動データ取得部101は、端末装置20から各コンテンツの1回の再生処理毎に、再生されたコンテンツのコンテンツID、実行された再生処理の視聴ID、視聴者の年齢、性別及び心拍変動データをまとめて取得する。心拍変動データ記憶部102は、心拍変動データ取得部101が取得したコンテンツID、視聴ID、年齢、性別及び心拍変動データを対応付けて心拍変動DB12bに記憶する。心拍変動データ記憶部102は、心拍変動データ取得部101がいずれかの端末装置20から心拍変動データを取得する都度、取得した心拍変動データを心拍変動DB12bに記憶する。これにより、複数の端末装置20のそれぞれにおいてコンテンツの再生中に取得(収集)された視聴者の心拍変動データをサーバ10に蓄積することができる。 The heartbeat variability data acquisition unit (data acquisition unit) 101 acquires the heartbeat variability data transmitted by the terminal device 20 (output unit 207) at the communication unit 13. Specifically, the heart rate variability data acquisition unit 101, for each reproduction process of each content from the terminal device 20, the content ID of the reproduced content, the viewing ID of the executed reproduction process, the age of the viewer, Collect gender and heart rate variability data together. The heartbeat variability data storage unit 102 stores the content ID, the viewing ID, the age, the sex, and the heartbeat variability data acquired by the heartbeat variability data acquisition unit 101 in the heartbeat variability DB 12b in association with each other. The heartbeat variability data storage unit 102 stores the acquired heartbeat variability data in the heartbeat variability DB 12b each time the heartbeat variability data acquisition unit 101 acquires heartbeat variability data from any of the terminal devices 20. Thereby, the heartbeat variation data of the viewer acquired (collected) during the reproduction of the content in each of the plurality of terminal devices 20 can be accumulated in the server 10.

感情分析部103は、心拍変動DB12bに記憶した心拍変動データに基づいて、各視聴者の感情を分析し、各視聴者の感情を示す感情データを生成する。感情分析部103は例えば、喜び、怒り、悲しみ、驚き、嫌悪、リラックスの各感情(感情パラメータ)について、それぞれの程度を示す数値(スコア、分析値)を、例えば10点満点で取得(算出)する。なお、各感情の程度が高い程大きい値とする。感情分析部103は、心拍変動データにおいて、例えばコンテンツの再生開始から所定時間(例えば1/30秒)毎における変動周波数に基づいて対応する各感情の数値を決定し、コンテンツの視聴中の各感情の時間変化を示す感情データを生成する。具体的には、例えば変動周波数における各周波数帯毎に各感情の程度を示す数値を予め設定しておき、感情分析部103は、心拍変動データにおいて、コンテンツの再生開始から所定時間毎の変動周波数の値に対応する周波数帯に設定された各感情の数値を、この時点での感情の程度を示す数値に決定する。例えばリラックスの感情について、0.05Hz〜0.15Hzの周波数帯に、リラックスの程度が低いことを示す数値(例えば0に近い値)が設定され、0.15Hz〜0.4Hzの周波数帯に、リラックスの程度が高いことを示す数値(例えば10に近い値)が設定されてもよい。なお、それぞれの周波数帯において、段階的に増減する数値が設定されてもよい。また、感情毎に各感情の程度を示す数値に対応する周波数帯を設定しておいても、感情分析部103は同様に、コンテンツの再生開始から所定時間毎の変動周波数に対応する各感情の程度を示す数値を特定できる。 The emotion analysis unit 103 analyzes the emotion of each viewer based on the heartbeat variation data stored in the heartbeat variation DB 12b, and generates emotion data indicating the emotion of each viewer. For example, the emotion analysis unit 103 obtains (calculates) a numerical value (score, analysis value) indicating the degree of each emotion (emotion parameter) of joy, anger, sadness, surprise, disgust, and relaxation, for example, with a maximum of 10 points. To do. The higher the degree of each emotion, the larger the value. The emotion analysis unit 103 determines the numerical value of each corresponding emotion in the heart rate variability data based on the variation frequency at a predetermined time (for example, 1/30 second) from the start of reproduction of the content, and each emotion during viewing of the content is determined. The emotion data indicating the time change of is generated. Specifically, for example, a numerical value indicating the degree of each emotion is set in advance for each frequency band in the fluctuating frequency, and the emotion analysis unit 103 uses the heartbeat variability data to change the fluctuating frequency for each predetermined time from the start of playing the content. The numerical value of each emotion set in the frequency band corresponding to the value of is determined as the numerical value indicating the degree of emotion at this point. For example, for a feeling of relaxation, a numerical value (for example, a value close to 0) indicating that the degree of relaxation is low is set in the frequency band of 0.05 Hz to 0.15 Hz, and the frequency band of 0.15 Hz to 0.4 Hz, A numerical value (for example, a value close to 10) indicating that the degree of relaxation is high may be set. A numerical value that increases or decreases in stages may be set in each frequency band. Further, even if the frequency band corresponding to the numerical value indicating the degree of each emotion is set for each emotion, the emotion analysis unit 103 similarly similarly determines each emotion corresponding to the fluctuating frequency for each predetermined time from the start of reproducing the content. A numerical value indicating the degree can be specified.

感情分析部103は、感情の分析処理を行う場合、心拍変動DB12bからコンテンツID、視聴ID、年齢、性別及び心拍変動データを読み出し、読み出したコンテンツID、視聴ID、年齢及び性別を対応付けて感情DB12cに記憶する。そして、感情分析部103は、心拍変動データに基づいてコンテンツの再生開始から所定時間毎の感情の分析を行い、分析の結果得られた各感情の感情データを、先に記憶したコンテンツID、視聴ID、年齢及び性別に対応付けて感情DB12cに記憶する。これにより、コンテンツの再生中(視聴中)における視聴者の各感情の時間変化を示す感情データが生成されて感情DB12cに記憶される。なお、感情分析部103は、逆変換処理によって心拍変動データから心拍データ(脈波データ)を生成し、心拍データに基づいて視聴者の感情を分析し、視聴者の感情を示す感情データを生成してもよい。例えば感情分析部103は、心拍データにおいて心拍数のピーク値やピーク間の時間等を検出し、これらの検出結果に基づいて各感情の程度を判定してもよい。この場合にも、心拍データにおける心拍数のピーク値やピーク間の時間等に各感情の程度を示す数値を予め設定しておくことにより、感情分析部103は、コンテンツの再生開始から所定時間毎における心拍数のピーク値やピーク間の時間等に対応する各感情の数値を特定できる。また、感情毎に各感情の程度を示す数値に対応付けて、一般的な心拍数のピーク値やピーク間の時間等を予め設定しておくことにより、感情分析部103は、コンテンツの再生開始から所定時間毎における心拍数のピーク値やピーク間の時間等に対応する各感情の程度を示す数値を特定できる。 When performing the emotion analysis process, the emotion analysis unit 103 reads the content ID, the viewing ID, the age, the sex, and the heart rate variability data from the heart rate variability DB 12b, and associates the read content ID, the viewing ID, the age, and the gender with the emotion. It is stored in the DB 12c. Then, the emotion analysis unit 103 analyzes the emotion for each predetermined time from the start of the reproduction of the content based on the heart rate variability data, and the emotion data of each emotion obtained as a result of the analysis is stored in the previously stored content ID, the viewing It is stored in the emotion DB 12c in association with the ID, age, and sex. As a result, emotion data indicating temporal changes in each emotion of the viewer during reproduction (viewing) of the content is generated and stored in the emotion DB 12c. The emotion analysis unit 103 generates heartbeat data (pulse wave data) from the heartbeat fluctuation data by inverse conversion processing, analyzes the viewer's emotion based on the heartbeat data, and generates emotion data indicating the viewer's emotion. You may. For example, the emotion analysis unit 103 may detect the peak value of the heart rate, the time between peaks, and the like in the heartbeat data, and determine the degree of each emotion based on the detection results. Also in this case, the emotion analysis unit 103 sets the numerical value indicating the degree of each emotion to the peak value of the heart rate in the heartbeat data, the time between the peaks, and the like in advance, so that the emotion analysis unit 103 can reproduce the content at predetermined time intervals. It is possible to specify the numerical value of each emotion corresponding to the peak value of the heart rate and the time between peaks in. In addition, by setting the peak value of the general heart rate, the time between peaks, etc. in advance in association with the numerical value indicating the degree of each emotion for each emotion, the emotion analysis unit 103 starts the reproduction of the content. From this, it is possible to specify a numerical value indicating the degree of each emotion corresponding to the peak value of the heart rate at each predetermined time, the time between peaks, and the like.

レポート生成部104は、感情DB12cに蓄積された感情データに基づいて、各コンテンツに対する視聴者の感情レポートを生成する。例えばレポート生成部104は、感情レポートを生成すべきコンテンツのコンテンツID及びコンテンツデータ(再生用データ)をコンテンツDB12aから読み出し、このコンテンツに対する全ての感情データを感情DB12cから読み出す。レポート生成部104は、DB12a,12cから読み出した各情報に基づいて、図7A,Bに示すような感情レポートを表示するための表示データを生成する。図7A,Bはそれぞれ、感情レポートに基づく表示画面の例を示す。図7Aに示す画面は、分析対象のコンテンツのコンテンツID、コンテンツ名及び再生時間を表示する。コンテンツ名及び再生時間は、例えばコンテンツDB12aに記憶されており、レポート生成部104がコンテンツDB12aから読み出す。また図7Aに示す画面は、コンテンツ領域R1、ボタン領域R2及びレポート領域R3を有し、コンテンツ領域R1には、コンテンツDB12aから読み出したコンテンツデータが再生(表示)される。ボタン領域R2には、コンテンツ領域R1で再生されるコンテンツに対して再生指示、停止指示、早送り指示、早戻し指示等の操作を受け付けるボタンが表示される。またボタン領域R2には、コンテンツ領域R1に表示中の画像(場面)におけるコンテンツの再生開始からの経過時間を示すインジケータが表示されており、インジケータの下部には、表示中の場面における再生開始からの経過時間が表示されている。なお、インジケータは、コンテンツ領域R1で再生が開始(再開)される時点として、コンテンツの再生開始から再生終了までの間の任意の時点を受け付けることができ、インジケータが任意の時点を受け付けた場合、コンテンツ領域R1には、インジケータが受け付けた時点からコンテンツが再生される。 The report generation unit 104 generates a viewer emotion report for each content based on the emotion data accumulated in the emotion DB 12c. For example, the report generation unit 104 reads out the content ID and content data (reproduction data) of the content for which an emotional report should be generated from the content DB 12a, and reads out all emotional data for this content from the emotional DB 12c. The report generation unit 104 generates display data for displaying an emotion report as shown in FIGS. 7A and 7B, based on each information read from the DBs 12a and 12c. 7A and 7B each show an example of a display screen based on an emotion report. The screen shown in FIG. 7A displays the content ID, content name, and playback time of the content to be analyzed. The content name and the reproduction time are stored in, for example, the content DB 12a, and the report generation unit 104 reads them from the content DB 12a. The screen shown in FIG. 7A has a content area R1, a button area R2, and a report area R3, and the content data read from the content DB 12a is reproduced (displayed) in the content area R1. In the button area R2, buttons for accepting operations such as a reproduction instruction, a stop instruction, a fast forward instruction, and a fast reverse instruction for the content reproduced in the content area R1 are displayed. Further, in the button area R2, an indicator showing the elapsed time from the start of reproduction of the content in the image (scene) being displayed in the content area R1 is displayed. Below the indicator, from the reproduction start in the scene being displayed. The elapsed time of is displayed. It should be noted that the indicator can receive an arbitrary time point between the reproduction start and the reproduction end of the content as the time point when the reproduction is started (restarted) in the content region R1, and when the indicator receives the arbitrary time point, The content is reproduced in the content area R1 from the time when the indicator is received.

レポート領域R3には、コンテンツ領域R1で再生されるコンテンツに対する各感情のレポートが表示される。図7Aに示す感情レポートを生成する場合、レポート生成部104は、感情DB12cから読み出したコンテンツに対する全ての感情データに基づいて、コンテンツの再生開始から所定時間毎の各感情の数値の平均値を算出し、各感情について、コンテンツを視聴した視聴者の平均値(平均的な度合)の時間変化(分析値)を示す感情レポートを生成する。図7Aに示す感情レポートは、それぞれの感情の程度を縦長の矩形による感情ゲージで示しており、感情ゲージの下端は最低値を示し、上端は最高値を示し、下端からの色領域(図7Aではハッチング領域)の大きさによって感情の程度を示す。図7Aに示す画面は例えば、コンテンツ領域R1で再生されるコンテンツの再生タイミング(再生開始からの経過時間)と、レポート領域R3に表示される各感情の出現タイミング(視聴者が各感情を抱いたタイミング)とを同期して表示する。即ち、各感情に対する分析値とコンテンツとが、コンテンツの再生開始からの経過時間に同期して表示される。よって、コンテンツの再生タイミングのそれぞれにおける各感情の程度を容易に把握できる。即ち、コンテンツの各場面における視聴者の感情及び感情の変化を容易に把握できる。なお、レポート生成部104は、感情DB12cから読み出した全ての視聴者の感情データ(各感情の数値)の平均値に基づいて各感情の感情レポートを生成するほかに、各感情について視聴者の属性(年齢及び性別)毎の感情レポートを生成してもよい。この場合、レポート生成部104は、所定の属性の視聴者の感情データを感情DB12cから読み出し、読み出した感情データ(各感情の数値)の平均値に基づいて各感情の感情レポートを生成する。 In the report area R3, a report of each emotion regarding the content reproduced in the content area R1 is displayed. When the emotion report shown in FIG. 7A is generated, the report generation unit 104 calculates the average value of the numerical values of each emotion for each predetermined time from the start of reproducing the content, based on all the emotion data for the content read from the emotion DB 12c. Then, with respect to each emotion, an emotion report showing the time change (analysis value) of the average value (average degree) of the viewers who viewed the content is generated. The emotion report shown in FIG. 7A shows the degree of each emotion by an emotion gauge with a vertically long rectangle, the lower end of the emotion gauge shows the lowest value, the upper end shows the highest value, and the color region from the lower end (FIG. 7A Then, the degree of emotion is shown by the size of the hatching area). In the screen shown in FIG. 7A, for example, the reproduction timing of the content reproduced in the content area R1 (elapsed time from the start of reproduction) and the appearance timing of each emotion displayed in the report area R3 (the viewer holds each emotion) (Timing) is displayed in synchronization with. That is, the analysis value for each emotion and the content are displayed in synchronization with the elapsed time from the start of reproducing the content. Therefore, it is possible to easily grasp the degree of each emotion at each content reproduction timing. That is, the viewer's emotions and changes in emotions in each scene of the content can be easily grasped. The report generation unit 104 generates the emotion report of each emotion based on the average value of the emotion data (numerical value of each emotion) of all the viewers read from the emotion DB 12c, and also the attribute of the viewer for each emotion. An emotion report for each (age and sex) may be generated. In this case, the report generation unit 104 reads the emotion data of the viewer having a predetermined attribute from the emotion DB 12c and generates an emotion report of each emotion based on the average value of the read emotion data (numerical value of each emotion).

図7Bに示す画面は、分析対象のコンテンツのコンテンツID、コンテンツ名及び再生時間と、コンテンツに対する各感情について属性(年齢及び性別)毎の感情レポートを表示する。図7Bに示す感情レポートを生成する場合、レポート生成部104は、感情DB12cに蓄積してあるコンテンツに対する感情データを、属性毎に読み出す。属性は、例えば10代の男女を示すT層、20歳〜34歳の男性を示すM1層、35歳〜49歳の男性を示すM2層、50歳以上の男性を示すM3層、20歳〜34歳の女性を示すF1層、35歳〜49歳の女性を示すF2層、50歳以上の女性を示すF3層に区分できるが、これらの区分に限定されない。レポート生成部104は、属性毎に各属性の視聴者の感情データを感情DB12cから読み出す。レポート生成部104は、属性毎に読み出した感情データから、それぞれの属性について各感情の最大値を抽出する。レポート生成部104は、各感情について、属性毎に抽出した最大値を、それぞれの属性に対応付けて表示するグラフ(感情レポート)を生成する。図7Bに示す感情レポートでは、例えば実線は喜びの感情について属性毎の最大値を示しており、破線は悲しみの感情について属性毎の最大値を示している。 The screen shown in FIG. 7B displays the content ID, the content name, and the reproduction time of the content to be analyzed, and the emotion report for each attribute (age and sex) for each emotion with respect to the content. When the emotion report shown in FIG. 7B is generated, the report generation unit 104 reads emotion data for the content accumulated in the emotion DB 12c for each attribute. Attributes include, for example, T layer indicating males and females in their teens, M1 layer indicating males aged 20 to 34, M2 layer indicating males aged 35 to 49, M3 layer indicating males aged 50 and over, 20 years old aged It can be classified into an F1 layer indicating a female of 34 years old, an F2 layer indicating a female of 35 to 49 years old, and an F3 layer indicating a female of 50 years old or older, but not limited to these divisions. The report generation unit 104 reads, for each attribute, emotion data of the viewer of each attribute from the emotion DB 12c. The report generation unit 104 extracts the maximum value of each emotion for each attribute from the emotion data read for each attribute. For each emotion, the report generation unit 104 generates a graph (emotion report) that displays the maximum value extracted for each attribute in association with each attribute. In the emotion report shown in FIG. 7B, for example, the solid line indicates the maximum value for each attribute for the feeling of joy, and the broken line indicates the maximum value for each attribute for the feeling of sadness.

なお、レポート生成部104は、各感情について属性毎の最大値を示す感情レポートを生成するほかに、各感情について属性毎の平均値を示す感情レポートを生成してもよい。この場合、レポート生成部104は、属性毎に読み出した感情データに基づいて、例えばそれぞれの視聴者における各感情の数値の平均値を算出し、更に全ての視聴者における各感情の数値の平均値を算出する。これにより、それぞれの属性について、コンテンツに対する各感情における全視聴者の平均値(平均的な度合)が得られる。レポート生成部104は、各感情について属性毎に算出した平均値をそれぞれの属性に対応付けて表示するグラフ(感情レポート)を生成する。この場合にも、図7Bに示すようなグラフで属性毎の各感情の平均値を表示できる。また、図7Bに示す画面において、コンテンツ全体における感情の最大値や平均値を示す感情レポートの代わりに、コンテンツの再生開始からの経過時間帯毎における感情の最大値や平均値を示す感情レポートを表示してもよい。更に、図7Bに示す画面に、図7Aと同様に、コンテンツが再生されるコンテンツ領域や、再生されるコンテンツに対して再生指示、停止指示、早送り指示、早戻し指示等の操作を受け付けるボタンが表示されるボタン領域等を設けてもよい。 The report generation unit 104 may generate an emotion report indicating the maximum value for each attribute for each emotion, and may generate an emotion report indicating the average value for each attribute for each emotion. In this case, the report generation unit 104 calculates, for example, the average value of the numerical values of the emotions of each viewer based on the emotional data read for each attribute, and further calculates the average value of the numerical values of each emotion of all the viewers. To calculate. Thereby, for each attribute, the average value (average degree) of all viewers in each emotion for the content can be obtained. The report generation unit 104 generates a graph (emotion report) that displays the average value calculated for each attribute for each emotion in association with each attribute. Also in this case, the average value of each emotion for each attribute can be displayed in the graph as shown in FIG. 7B. Further, on the screen shown in FIG. 7B, instead of the emotion report indicating the maximum value or average value of emotions in the entire content, an emotion report indicating the maximum value or average value of emotions in each elapsed time period from the start of reproducing the content is displayed. It may be displayed. Further, as in the case of FIG. 7A, the screen shown in FIG. 7B has a content area in which the content is reproduced, and buttons for accepting operations such as a reproduction instruction, a stop instruction, a fast forward instruction, and a fast rewind instruction for the reproduced content. A displayed button area or the like may be provided.

レポート生成部104は、図7Aに示す感情レポートと図7Bに示す感情レポートとを各別に生成してもよいし、図7Aに示す感情レポートと図7Bに示す感情レポートとを1つの画面で表示するための表示データを生成してもよい。上述した感情レポートのほかに、レポート生成部104は例えば、各感情について最大値となった時点の再生開始からの経過時間を示す感情レポート、各感情について所定値以上の値となった時点の再生開始からの経過時間を示す感情レポート等を生成してもよい。またレポート生成部104は例えば、各感情について所定値以上の値となった時間の合計や、所定値未満の値となった時間の合計等を示す感情レポートを生成してもよい。これらの感情レポートも属性毎に生成されてもよい。 The report generation unit 104 may generate the emotion report shown in FIG. 7A and the emotion report shown in FIG. 7B separately, or display the emotion report shown in FIG. 7A and the emotion report shown in FIG. 7B on one screen. You may generate the display data for doing. In addition to the emotion report described above, the report generation unit 104 may, for example, display an emotion report indicating the elapsed time from the start of reproduction at the time when the maximum value is obtained for each emotion, or the reproduction at the time when the value becomes a predetermined value or more for each emotion. You may generate the emotion report etc. which show the elapsed time from the start. Further, the report generation unit 104 may generate, for example, an emotion report indicating the total time when a value is equal to or larger than a predetermined value or the total time when the value is smaller than the predetermined value for each emotion. These emotion reports may also be generated for each attribute.

出力部105は、レポート生成部104が生成した感情レポート(表示データ)を通信部13から所定の装置へ送信する。なお、例えばサーバ10が外部装置からあるコンテンツに対する感情レポートの生成要求を受信した場合に、レポート生成部104は、要求されたコンテンツに対する感情レポートを生成し、出力部105は、要求してきた外部装置に感情レポートを出力する。また、レポート生成部104は、所定のタイミングで各コンテンツに対する感情レポートを生成して記憶部12に記憶しておき、サーバ10が外部装置からあるコンテンツに対する感情レポートを要求された場合に、出力部105は、要求された感情レポートを記憶部12から読み出し、要求してきた外部装置に出力してもよい。出力部105が出力した感情レポートを受信した外部装置は、受信した感情レポートに基づいて図7A,Bに示すような画面を表示部に表示する。これにより、各コンテンツに対する視聴者の感情の変化を通知できる。 The output unit 105 transmits the emotion report (display data) generated by the report generation unit 104 from the communication unit 13 to a predetermined device. Note that, for example, when the server 10 receives a request to generate an emotional report for a content from an external device, the report generation unit 104 generates an emotional report for the requested content, and the output unit 105 outputs the requested external device. Output emotion report to. In addition, the report generation unit 104 generates an emotion report for each content at a predetermined timing and stores the emotion report in the storage unit 12, and when the server 10 is requested by the external device to send an emotion report for a content, the output unit The 105 may read the requested emotion report from the storage unit 12 and output it to the external device that has made the request. The external device receiving the emotion report output by the output unit 105 displays the screens shown in FIGS. 7A and 7B on the display unit based on the received emotion report. As a result, it is possible to notify the viewer of changes in the emotion of each content.

以下に、上述した構成の感情分析システムにおいて各装置が行う処理について説明する。図8は、端末装置20による心拍変動データの取得処理の手順を示すフローチャートである。以下の処理は、端末装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部21によって実行される。 The processing performed by each device in the emotion analysis system having the above configuration will be described below. FIG. 8 is a flowchart showing a procedure of a process of acquiring heartbeat variability data by the terminal device 20. The following processing is executed by the control unit 21 according to the control program 22P stored in the storage unit 22 of the terminal device 20.

端末装置20の制御部21は、コンテンツDB22aに記憶されているコンテンツの再生用データに基づいてコンテンツの再生処理を開始する(S11)。なお、コンテンツの再生を開始するタイミングは、例えば入力部25を介して再生指示が入力された場合や、通信部23を介して外部装置から再生指示を取得した場合等である。制御部21は、再生を開始したコンテンツのコンテンツIDと、この再生処理(視聴処理)に対して発行した視聴IDとを対応付けて心拍変動DB22bに記憶しておく。 The control unit 21 of the terminal device 20 starts the content reproduction process based on the content reproduction data stored in the content DB 22a (S11). The timing of starting the reproduction of the content is, for example, when a reproduction instruction is input through the input unit 25, when a reproduction instruction is acquired from an external device through the communication unit 23, or the like. The control unit 21 stores in the heart rate variability DB 22b the content ID of the content that has started to be reproduced and the viewing ID issued for this reproduction process (viewing process) in association with each other.

制御部21は、カメラ26による撮影を開始し、再生中のコンテンツを視聴する視聴者の顔画像を取得する(S12)。ここでは、制御部21は1枚の静止画である顔画像を取得する。制御部21は、取得した顔画像(顔画像データ)に基づいて、顔画像中の被写体である視聴者の属性(年齢及び性別)を判定する(S13)。制御部21は例えばテンプレートマッチング技術によって被写体の属性を判定し、判定した属性を、再生中のコンテンツのコンテンツID及び実行中の再生処理の視聴IDに対応付けて心拍変動DB22bに記憶しておく。 The control unit 21 starts shooting with the camera 26, and acquires the face image of the viewer who views the content being reproduced (S12). Here, the control unit 21 acquires a face image which is one still image. The control unit 21 determines the attributes (age and sex) of the viewer who is the subject in the face image based on the acquired face image (face image data) (S13). The control unit 21 determines the attribute of the subject by, for example, the template matching technique, and stores the determined attribute in the heart rate variability DB 22b in association with the content ID of the content being reproduced and the viewing ID of the reproduction process being executed.

制御部21は、ステップS12で取得した顔画像に対してヘモグロビンに対応する色素成分を抽出する分離処理を行ってヘモグロビン画像を生成し(S14)、ヘモグロビン画像に基づいて、被写体(視聴者)の心拍を示す心拍データを生成する(S15)。ここでは、制御部21は、ヘモグロビン画像において被写体の顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、心拍データとして、この顔画像を撮影した時点における再生開始からの経過時間(再生タイミング)に対応付けて記憶部22に記憶する。なお、制御部21は、コンテンツの再生開始後、顔画像を取得した場合、取得時点におけるコンテンツの再生開始からの経過時間を特定しておく。 The control unit 21 performs a separation process of extracting a pigment component corresponding to hemoglobin on the face image acquired in step S12 to generate a hemoglobin image (S14), and based on the hemoglobin image, the subject (viewer) Heartbeat data indicating a heartbeat is generated (S15). Here, the control unit 21 calculates the average value (average pixel value) of the pixel values (the component amount of the hemoglobin component) of each pixel in the face area of the subject in the hemoglobin image, and captures this face image as heartbeat data. It is stored in the storage unit 22 in association with the elapsed time (reproduction timing) from the start of reproduction at the time. When the face image is acquired after the reproduction of the content is started, the control unit 21 specifies the elapsed time from the start of the reproduction of the content at the acquisition time.

制御部21は、コンテンツを最後まで再生することによってコンテンツの再生処理を終了したか否かを判断しており(S16)、終了していないと判断した場合(S16:NO)、ステップS12で顔画像を取得してから所定時間が経過したか否かを判断する(S17)。制御部21は例えば1秒間に30枚の顔画像を取得する場合、1/30秒が経過したか否かを判断する。所定時間が経過していないと判断した場合(S17:NO)、制御部21は、ステップS16〜S17の処理を繰り返し、所定時間が経過したと判断した場合(S17:YES)、ステップS12の処理に戻る。そして、制御部21は、視聴者の顔画像を取得し(S12)、取得した顔画像に基づいてステップS13〜S15の処理を繰り返す。これにより、コンテンツの再生中に所定時間毎に取得した視聴者の顔画像に基づいて、所定時間毎の視聴者の心拍を示す心拍データが生成されて記憶部22に記憶される。 The control unit 21 determines whether or not the content reproduction processing has been completed by reproducing the content to the end (S16). If it is determined that the content reproduction processing has not been completed (S16: NO), the face is determined in step S12. It is determined whether a predetermined time has elapsed since the image was acquired (S17). For example, when acquiring 30 face images in 1 second, the control unit 21 determines whether 1/30 second has elapsed. When it is determined that the predetermined time has not elapsed (S17: NO), the control unit 21 repeats the processing of steps S16 to S17, and when it is determined that the predetermined time has elapsed (S17: YES), the processing of step S12. Return to. Then, the control unit 21 acquires the face image of the viewer (S12), and repeats the processing of steps S13 to S15 based on the acquired face image. As a result, based on the face image of the viewer that is acquired at predetermined time intervals during the reproduction of the content, heartbeat data indicating the heartbeat of the viewer at predetermined time intervals is generated and stored in the storage unit 22.

コンテンツの再生処理を終了したと判断した場合(S16:YES)、制御部21は、上述した処理によって生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対してフィルタ処理を行う(S18)。そして制御部21は、フィルタ処理後の心拍データに対して周波数変換処理を行い(S19)、心拍変動データ(周波数領域の心拍変動スペクトログラム)を生成し、生成した心拍変動データをコンテンツID及び視聴IDに対応付けて心拍変動DB22bに記憶する(S20)。これにより、コンテンツの視聴中における視聴者の心拍変動を示す心拍変動データが生成されて心拍変動DB22bに記憶される。なお、制御部21は、異なるコンテンツの再生処理を連続して行う場合、1つのコンテンツの再生処理を終了した後、このコンテンツに対してステップS18〜S20の処理を行いつつ、次のコンテンツに対してステップS11以降の処理を実行する。 When it is determined that the content reproduction processing has ended (S16: YES), the control unit 21 performs filter processing on the heartbeat data (temporal change in average pixel value in the hemoglobin image) generated by the above-described processing (S18). ). Then, the control unit 21 performs a frequency conversion process on the filtered heartbeat data (S19) to generate heartbeat variability data (heartbeat variability spectrogram in the frequency domain), and uses the generated heartbeat variability data as the content ID and the viewing ID. It is stored in the heart rate variability DB 22b in association with (S20). As a result, heartbeat variability data indicating the heartbeat variability of the viewer while viewing the content is generated and stored in the heartbeat variability DB 22b. Note that, when the reproduction processing of different contents is continuously performed, the control unit 21 finishes the reproduction processing of one content and then performs the processing of steps S18 to S20 for this content, while performing the processing of the next content. Then, the processing from step S11 is executed.

図9は、サーバ10による感情分析処理の手順を示すフローチャートである。以下の処理は、サーバ10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。サーバ10の制御部11は、端末装置20が送信した心拍変動データを通信部13にて取得し(S31)、取得した心拍変動データを心拍変動DB12bに記憶する(S32)。なお、制御部11は、端末装置20から、各コンテンツの1回の再生処理毎に、コンテンツID、視聴ID、年齢、性別及び心拍変動データをまとめて取得する。端末装置20からサーバ10へ心拍変動データを送信するタイミングは、例えば1日に1回の所定時刻、1週間に1回の所定時刻、コンテンツに設定された再生可能期間の満了後等とすることができる。また、端末装置20は、送信タイミングが到来した場合に、心拍変動データをサーバ10へ送信してもよいし、サーバ10からの送信要求に応じて送信してもよい。 FIG. 9 is a flowchart showing a procedure of emotion analysis processing by the server 10. The following processing is executed by the control unit 11 according to the control program 12P stored in the storage unit 12 of the server 10. The control unit 11 of the server 10 acquires the heartbeat fluctuation data transmitted by the terminal device 20 by the communication unit 13 (S31), and stores the acquired heartbeat fluctuation data in the heartbeat fluctuation DB 12b (S32). The control unit 11 collectively acquires the content ID, the viewing ID, the age, the sex, and the heartbeat variation data from the terminal device 20 for each one-time reproduction process of each content. The timing at which the heart rate variability data is transmitted from the terminal device 20 to the server 10 is, for example, a predetermined time once a day, a predetermined time once a week, after the expiration of the reproducible period set in the content, or the like. You can Further, the terminal device 20 may transmit the heartbeat variability data to the server 10 when the transmission timing arrives, or may transmit the heartbeat variability data in response to a transmission request from the server 10.

制御部11は、心拍変動DB12bに記憶した各コンテンツに対する心拍変動データに基づいて、各コンテンツに対するそれぞれの視聴者の感情を分析する(S33)。例えば制御部11は、心拍変動データ(心拍変動スぺクトログラム)における各変動周波数の値に応じて、喜び、怒り、悲しみ、驚き、嫌悪、リラックス等のそれぞれの感情パラメータに対して、それぞれの程度を示す数値(分析値)を決定する。制御部11は、各感情について、コンテンツの再生開始からの逐次タイミング(例えば1/30秒毎)での数値を決定することにより、コンテンツの再生開始から再生終了までの間における視聴者の各感情の時間変化を示す感情データを生成する。制御部11は、心拍変動DB12bから読み出したコンテンツID、視聴ID、年齢及び性別に対応付けて、生成した各感情の感情データを感情DB12cに記憶する(S34)。 The control unit 11 analyzes the emotion of each viewer for each content based on the heart rate variability data for each content stored in the heart rate variability DB 12b (S33). For example, the control unit 11 determines the degree of each emotional parameter such as joy, anger, sadness, surprise, disgust, and relaxation according to the value of each variation frequency in the heart rate variability data (heart rate variability spectrogram). The numerical value (analysis value) indicating is determined. For each emotion, the control unit 11 determines a numerical value at a sequential timing (for example, every 1/30 seconds) from the start of reproduction of the content, so that each emotion of the viewer from the start of reproduction of the content to the end of reproduction thereof. The emotion data indicating the time change of is generated. The control unit 11 stores the generated emotion data of each emotion in the emotion DB 12c in association with the content ID read from the heart rate variability DB 12b, the viewing ID, the age, and the sex (S34).

制御部11は、各コンテンツに対して感情DB12cに記憶した感情データに基づいて、各コンテンツに対する複数の視聴者の感情を総合的に評価した感情レポートを生成する(S35)。制御部11は、感情レポートを生成すべきコンテンツに対する全ての感情データを感情DB12cから読み出し、読み出した感情データに基づいて、図7Aや図7Bに示すような感情レポートを生成する。なお、制御部11が生成する感情レポートは、例えばコンテンツの再生開始から再生終了までの間において各感情について、複数の視聴者の平均値の時間変化、所定の時間帯毎又は属性毎の平均値の時間変化、複数の視聴者における最大値や平均値、所定の時間帯毎又は属性毎の最大値や平均値等、コンテンツに対する視聴者の感情を評価できるレポートを通知する。制御部11は、生成した感情レポートを、例えばコンテンツIDに対応付けて記憶部12に記憶しておき、例えば外部装置から所定のコンテンツに対する感情レポートの要求を受け付けた場合に、要求された感情レポートを要求元の外部装置へ提供する。 The control unit 11 generates an emotion report that comprehensively evaluates the emotions of a plurality of viewers for each content based on the emotion data stored in the emotion DB 12c for each content (S35). The control unit 11 reads all emotion data for the content for which an emotion report should be generated from the emotion DB 12c, and generates an emotion report as shown in FIGS. 7A and 7B based on the read emotion data. It should be noted that the emotion report generated by the control unit 11 is, for example, the time change of the average value of a plurality of viewers, the average value for each predetermined time period or each attribute, for each emotion between the reproduction start and the reproduction end of the content. The time change, the maximum value or the average value for a plurality of viewers, the maximum value or the average value for each predetermined time period or each attribute, and the like can be notified of a report that can evaluate the viewer's feelings about the content. The control unit 11 stores the generated emotion report in the storage unit 12 in association with, for example, the content ID, and, for example, when a request for an emotion report for predetermined content is received from an external device, the emotion report requested. To the requesting external device.

本実施形態では、コンテンツを視聴する視聴者の顔画像から、視聴者の視聴中の感情の変化(時間変化)を取得することができる。よって、視聴者の感情の時間変化に基づいて、コンテンツの再生開始からの各時点における視聴者の感情を把握できる。また本実施形態では、端末装置20がサーバ10へ心拍変動データを送信することにより、端末装置20及びサーバ10間で、視聴者個人を特定できない情報(心拍変動データ)のみが送受信される。即ち、例えば顔画像のように視聴者個人を特定できるデータを送受信しないことにより、個人情報の漏洩を防止できる。なお、周波数変換を行う前の心拍データを送受信してもよく、この場合、心拍データを受信したサーバ10が、心拍データから心拍変動データを生成する処理を行う。また、端末装置20において、視聴者個人を特定できる顔画像等のデータを、不要となった後に記憶部22から消去しておくことにより、端末装置20に個人情報が残ることを防止できる。なお、顔画像データだけでなくヘモグロビン画像データについても、生成された後に一旦記憶部22に記憶される場合、不要となった後に記憶部22から消去しておいてもよい。また、端末装置20は、収集(蓄積)した心拍変動データを直接サーバ10へ送信するように構成してもよく、この場合、端末装置20及びサーバ10間の通信は有線通信であっても無線通信であってもよい。 In the present embodiment, it is possible to acquire the change in emotion (time change) of the viewer during viewing from the face image of the viewer who views the content. Therefore, the emotion of the viewer at each time point from the start of reproducing the content can be grasped based on the temporal change of the emotion of the viewer. Further, in the present embodiment, the terminal device 20 transmits the heartbeat fluctuation data to the server 10, so that only the information (heartbeat fluctuation data) that cannot identify an individual viewer is transmitted and received between the terminal device 20 and the server 10. That is, the leakage of personal information can be prevented by not transmitting/receiving data that can identify the individual viewer, such as a face image. The heartbeat data before frequency conversion may be transmitted/received, and in this case, the server 10 receiving the heartbeat data performs a process of generating heartbeat variation data from the heartbeat data. Further, in the terminal device 20, it is possible to prevent the personal information from remaining in the terminal device 20 by deleting the data such as the face image that can identify the individual viewer from the storage unit 22 after it is no longer needed. When not only the face image data but also the hemoglobin image data is once stored in the storage unit 22 after being generated, it may be deleted from the storage unit 22 after it is no longer needed. Further, the terminal device 20 may be configured to directly transmit the collected (accumulated) heartbeat variability data to the server 10. In this case, the communication between the terminal device 20 and the server 10 may be wired communication or wireless communication. It may be communication.

(実施形態2)
ショッピングモール等に設けられたフードコート内の飲食店で料理を注文したユーザに端末装置が貸し出され、注文した料理が出来上がったことを端末装置によって通知する通知システムに適用した感情分析システムについて説明する。図10は、実施形態2の感情分析システムの構成例を示すブロック図である。本実施形態の感情分析システムは、サーバ10及び端末装置20のほかに通知装置30を含み、通知装置30は複数の端末装置20のそれぞれと無線通信を行うように構成されている。本実施形態では、通知装置30とそれぞれの端末装置20とは直接通信を行う構成とするが、ネットワークN経由で通信を行う構成でもよい。本実施形態では、例えば各店舗に1つの通知装置30及び複数の端末装置20が用意され、各店舗に設けられた通知装置30は、各店舗用に用意された複数の端末装置20との間で通信を行う。本実施形態のサーバ10は実施形態1と同じ構成を有し、同様の処理を行う。
(Embodiment 2)
A sentiment analysis system applied to a notification system in which a terminal device is lent to a user who ordered food at a restaurant in a food court provided in a shopping mall or the like and the terminal device notifies the user that the ordered food is completed will be described. .. FIG. 10 is a block diagram showing a configuration example of the emotion analysis system according to the second exemplary embodiment. The emotion analysis system of the present embodiment includes a notification device 30 in addition to the server 10 and the terminal device 20, and the notification device 30 is configured to perform wireless communication with each of the plurality of terminal devices 20. In this embodiment, the notification device 30 and each terminal device 20 are configured to directly communicate with each other, but may be configured to communicate via the network N. In the present embodiment, for example, one notification device 30 and a plurality of terminal devices 20 are prepared in each store, and the notification device 30 provided in each store is between the plurality of terminal devices 20 prepared for each store. Communicate with. The server 10 of this embodiment has the same configuration as that of the first embodiment and performs the same processing.

端末装置20は、実施形態1と同じ構成のほかに、無線通信部27及び通知部28を有する。無線通信部27は、例えば特定小電力無線によって外部装置と通信するためのインタフェースであり、本実施形態では通知装置30との通信を行う。なお、無線通信部27は、Bluetooth(登録商標)やWi-Fi等の無線通信を行う構成でもよい。通知部28は、例えばバイブレータ、ランプ、ブザー等を含み、制御部21からの指示に従って、バイブレータによる振動、ランプの点灯又は点滅、ブザーの鳴動等を行うことにより、端末装置20を貸し出されたユーザに所定の状況(注文した料理が出来上がったこと)を通知する。なお、通知部28は、スピーカによって所定のメッセージを音声出力することにより通知する構成でもよい。また、通知部28の代わりに表示部24に所定のメッセージを表示することにより通知する構成でもよい。 The terminal device 20 has a wireless communication unit 27 and a notification unit 28 in addition to the same configuration as the first embodiment. The wireless communication unit 27 is an interface for communicating with an external device by, for example, specific low power wireless communication, and communicates with the notification device 30 in the present embodiment. The wireless communication unit 27 may be configured to perform wireless communication such as Bluetooth (registered trademark) or Wi-Fi. The notification unit 28 includes, for example, a vibrator, a lamp, a buzzer, etc., and in accordance with an instruction from the control unit 21, a user rented out the terminal device 20 by vibrating the vibrator, lighting or blinking the lamp, or ringing the buzzer. Notify the specified situation (the ordered food is completed). The notification unit 28 may be configured to notify by outputting a predetermined message by voice from a speaker. Further, instead of the notification unit 28, the display unit 24 may display a predetermined message to notify.

通知装置30は、制御部31、記憶部32、入力部33、表示部34、無線通信部35等を含み、これらの各部はバスを介して相互に接続されている。通知装置30の各部は端末装置20の各部と同様の構成を有しており、同様の構成については詳細な説明を省略する。通知装置30の無線通信部35は端末装置20の無線通信部27との間で通信を行う。また、通知装置30の記憶部32には端末DB32aが記憶されている。端末DB32aには、通知装置30が通信を行う複数の端末装置20のそれぞれを識別するための識別情報(例えば端末ID)と、それぞれの端末装置20との間で無線通信を行うための宛先情報とが対応付けて記憶してある。なお、通知装置30は、上述した構成のほかに、ネットワークNに接続するためのインタフェース等が設けられていてもよい。 The notification device 30 includes a control unit 31, a storage unit 32, an input unit 33, a display unit 34, a wireless communication unit 35, and the like, and these units are mutually connected via a bus. Each unit of the notification device 30 has the same configuration as each unit of the terminal device 20, and detailed description of the same configuration will be omitted. The wireless communication unit 35 of the notification device 30 communicates with the wireless communication unit 27 of the terminal device 20. A terminal DB 32a is stored in the storage unit 32 of the notification device 30. In the terminal DB 32a, identification information (for example, terminal ID) for identifying each of the plurality of terminal devices 20 with which the notification device 30 communicates, and destination information for performing wireless communication with each terminal device 20. And are stored in association with each other. In addition to the above-described configuration, the notification device 30 may be provided with an interface or the like for connecting to the network N.

図11は、実施形態2の端末装置20による心拍変動データの取得処理の手順を示すフローチャートである。図11に示す処理は、図8に示す処理においてステップS16の代わりにステップS51を追加し、ステップS18の前にステップS52,S53を追加し、通知装置30が行う処理としてステップS41,S42を追加したものである。図8と同様のステップについては説明を省略する。 FIG. 11 is a flowchart showing a procedure of a process of acquiring heartbeat fluctuation data by the terminal device 20 of the second embodiment. In the process shown in FIG. 11, step S51 is added in place of step S16 in the process shown in FIG. 8, steps S52 and S53 are added before step S18, and steps S41 and S42 are added as processes performed by the notification device 30. It was done. Description of steps similar to those in FIG. 8 is omitted.

本実施形態において、例えば飲食店の従業員は、料理が注文されて料金の支払いが完了したユーザに対して1つの端末装置20を貸し出す。そして従業員は、料理が出来上がった場合、この料理を注文したユーザに貸し出した端末装置20に通知処理を行わせるために、この端末装置20の端末IDを通知装置30の入力部33にて入力する。通知装置30の制御部31は、入力部33を介して端末IDを受け付けたか否かを判断しており(S41)、受け付けていないと判断する場合(S41:NO)、受け付けるまで待機する。制御部31は、端末IDを受け付けたと判断した場合(S41:YES)、受け付けた端末IDに対応する宛先情報を端末DB32aから読み出し、読み出した宛先情報に基づいて無線通信部35によって通知信号を送信する(S42)。通知装置30の制御部31は、端末IDを受け付ける都度、受け付けた端末IDの端末装置20に通知信号を送信する。 In the present embodiment, for example, an employee of a restaurant lends one terminal device 20 to a user who has ordered food and completed payment of a charge. Then, when the food is completed, the employee inputs the terminal ID of the terminal device 20 into the input unit 33 of the notification device 30 so that the terminal device 20 lent to the user who ordered the food can perform the notification process. To do. The control unit 31 of the notification device 30 determines whether or not the terminal ID has been received via the input unit 33 (S41), and when determining that the terminal ID has not been received (S41: NO), waits until the reception. When determining that the terminal ID has been received (S41: YES), the control unit 31 reads the destination information corresponding to the received terminal ID from the terminal DB 32a, and transmits a notification signal by the wireless communication unit 35 based on the read destination information. (S42). Each time the control unit 31 of the notification device 30 receives the terminal ID, the control unit 31 transmits a notification signal to the terminal device 20 having the received terminal ID.

端末装置20の制御部21は、実施形態1と同様にステップS11〜S15の処理を行いつつ、通知装置30から通知信号を受信したか否かを判断しており(S51)、受信していないと判断した場合(S51:NO)、ステップS17の処理に移行する。このような処理により、制御部21は、コンテンツを視聴中の視聴者の顔画像に基づいて視聴者の心拍データを生成して記憶部22に記憶する。通知装置30から通知信号を受信したと判断した場合(S51:YES)、制御部21は通知部28による通知処理を行う(S52)。通知部28は例えばバイブレータによる振動、ランプの点灯又は点滅、ブザーの鳴動等を開始し、注文した料理が出来上がったことをユーザに通知する。そして制御部21は、コンテンツの再生処理を終了し(S53)、上述した処理によって生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対して、ステップS18〜S20の処理を行う。 The control unit 21 of the terminal device 20 determines whether or not a notification signal has been received from the notification device 30 while performing the processing of steps S11 to S15 as in the first embodiment (S51), and has not received the notification signal. If it is determined (S51: NO), the process proceeds to step S17. By such processing, the control unit 21 generates the heartbeat data of the viewer based on the face image of the viewer who is viewing the content, and stores the heartbeat data in the storage unit 22. When it is determined that the notification signal is received from the notification device 30 (S51: YES), the control unit 21 performs the notification process by the notification unit 28 (S52). The notification unit 28 starts, for example, vibration by a vibrator, lighting or blinking of a lamp, and ringing of a buzzer to notify the user that the ordered food is completed. Then, the control unit 21 ends the content reproduction processing (S53), and performs the processing of steps S18 to S20 on the heartbeat data (temporal change of the average pixel value in the hemoglobin image) generated by the above-described processing.

上述した処理により、注文した料理が出来上がるまでの待ち時間において、ユーザはコンテンツを視聴して楽しむことができると共に、ユーザのコンテンツ視聴中の心拍変動を示す心拍変動データを収集できる。上述した処理において、制御部21は、料理が出来上がったことを通知する通知処理を行った場合、例えば入力部25を介して通知処理の終了指示を受け付けた後に、コンテンツの再生処理を終了してもよい。例えばバイブレータによる振動の停止指示、ランプの消灯指示、ブザーの消音指示等の操作が入力部25を介して行われた場合に、コンテンツの再生処理を終了してもよい。また、通知処理の終了指示とは別にコンテンツ再生の終了指示が入力部25を介して行われた場合に、コンテンツの再生処理を終了するようにしてもよい。この場合、コンテンツを視聴中のユーザは、見たい場面までコンテンツを視聴でき、コンテンツの視聴時間が長くなることが期待できる。 By the above-described processing, the user can view and enjoy the content in the waiting time until the ordered dish is completed, and can collect the heartbeat variability data indicating the heartbeat variability while the user is viewing the content. In the above-described process, when the control unit 21 performs the notification process of notifying that the dish is completed, the control unit 21 ends the content reproduction process after receiving an instruction to end the notification process via the input unit 25, for example. Good. For example, when an operation such as a vibration stop instruction by a vibrator, a lamp off instruction, or a buzzer mute instruction is performed via the input unit 25, the content reproduction process may be ended. Further, the content reproduction process may be terminated when a content reproduction end instruction is issued via the input unit 25 separately from the notification process end instruction. In this case, the user who is viewing the content can view the content up to the desired scene, and it can be expected that the viewing time of the content becomes long.

本実施形態において、サーバ10は図9に示す処理と同様の処理を行い、複数の端末装置20から収集した多数の視聴者の心拍変動データに基づいて、各コンテンツに対する感情レポートを生成できる。本実施形態では、実施形態1と同様の効果が得られる。即ち、コンテンツを視聴する視聴者の顔画像から、視聴者の視聴中の感情の変化(時間変化)を取得でき、複数の視聴者の感情の時間変化に基づいて、コンテンツに対する視聴者の感情レポートを提供できる。また本実施形態では、例えばフードコートの飲食店等で料理を注文したユーザが、料理が出来上がるまでの待ち時間にコンテンツを視聴することにより、待ち時間を楽しむことができる。なお、本実施形態の端末装置20で再生されるコンテンツは、例えばフードコートが設けられたショッピングモール内の店舗の広告、イベント、キャンペーン、クーポン等の情報を通知するためのコンテンツ、ショッピングモールや店舗に対するアンケートの回答やクレーム等を受け付けるためのコンテンツ等を用いることができる。なお、端末装置20は入力部25を介してアンケートの回答やクレームの入力等を受け付けることができる。 In the present embodiment, the server 10 performs the same process as that shown in FIG. 9, and can generate an emotion report for each content based on the heartbeat variability data of a large number of viewers collected from a plurality of terminal devices 20. In this embodiment, the same effect as that of the first embodiment can be obtained. That is, it is possible to acquire the change in emotion (time change) of the viewer during viewing from the face image of the viewer who views the content, and based on the time change in the emotion of the plurality of viewers, the viewer's emotion report to the content is reported. Can be provided. Further, in the present embodiment, for example, a user who has ordered food at a restaurant such as a food court can enjoy the waiting time by viewing the content during the waiting time until the food is completed. Note that the content reproduced by the terminal device 20 of the present embodiment is, for example, a content for notifying information of advertisements, events, campaigns, coupons, etc. of stores in shopping malls provided with food courts, shopping malls and stores. Content and the like for accepting answers to questionnaires and complaints can be used. It should be noted that the terminal device 20 can accept a questionnaire response, a complaint input, and the like via the input unit 25.

上述した感情分析システムは、例えば、美術館や博物館等で入館者に端末装置が貸し出され、展示作品に対する解説コンテンツを端末装置で再生することによって展示作品の解説等を行うシステムにも適用できる。このようなシステムに適用した場合、端末装置20によって展示作品の解説を行えるだけでなく、解説コンテンツを視聴する入館者の感情を分析することにより、展示作品や展示作品に関する解説に対して入館者の関心の有無等を把握できる。 The emotion analysis system described above can also be applied to, for example, a system in which a terminal device is lent to a visitor at a museum or the like and a commentary about an exhibited work is reproduced by reproducing the commentary content for the exhibited work on the terminal device. When applied to such a system, not only can the explanation of the exhibited work be performed by the terminal device 20, but by analyzing the emotions of the visitors who watch the explanation contents, the visitors can respond to the exhibited works and the explanation about the exhibited works. It is possible to grasp the presence or absence of interest.

実施形態1,2の感情分析システムにおいて、端末装置20で再生されるコンテンツはどのようなコンテンツでもよく、どのようなコンテンツ対しても視聴中の視聴者の感情レポートを生成できる。例えば動画コンテンツに限らず、入力部25を操作することによってページ送りができる電子書籍であってもよい。この場合、ユーザが読書中のページ番号に対応付けてユーザの感情を分析することにより、各ページに対するユーザの感情レポートを生成できる。また、複数の選択肢のいずれかを選択するクイズ、ゲーム、アンケート等のコンテンツを用いてもよい。この場合、端末装置20は入力部25を介して選択肢に対する選択を受け付けることができ、それぞれの選択肢を受け付けた際のユーザの感情を分析できる。またアンケートが複数の質問を有する場合に、各質問に回答する回答者(ユーザ)の顔画像データに基づいて、各質問に対する回答者の感情を分析でき、各質問に対する感情データを生成できる。また、複数の回答者の感情データを用いることにより、各質問に対する回答者全体の感情レポートを生成できる。 In the emotion analysis system according to the first and second embodiments, the content reproduced by the terminal device 20 may be any content, and an emotion report of the viewer who is viewing the content can be generated. For example, the content is not limited to moving image content, and may be an electronic book that can be page forwarded by operating the input unit 25. In this case, the user's emotion report for each page can be generated by analyzing the user's emotion in association with the page number being read by the user. Further, contents such as a quiz, a game, and a questionnaire for selecting any one of a plurality of options may be used. In this case, the terminal device 20 can accept the selection of the options via the input unit 25, and can analyze the emotion of the user when the options are accepted. Further, when the questionnaire has a plurality of questions, the emotions of the respondents to each question can be analyzed based on the face image data of the respondent (user) who answers each question, and the emotion data for each question can be generated. Further, by using the emotion data of a plurality of respondents, it is possible to generate an emotion report of all the respondents to each question.

また、例えば従業員の満足度アンケート、ストレスチェック、360度評価調査等の従業員アンケートをコンテンツとして用いることができる。例えばアンケートがストレスチェックに関する質問を含む場合、端末装置20の制御部21は、各質問を表示部24に表示し、各質問に対する回答者の回答を入力部25にて受け付けると共に、回答者の顔画像に基づいて回答時の感情を分析して感情データを生成する。この場合、端末装置20は、質問に対して回答者が意図して回答した内容と、回答者が意図せずに顔画像から分析された質問回答時の感情とを取得できる。よって、端末装置20は、回答者の意識下での回答内容と、回答者が意図しない感情から読み取れる回答者の真意とを取得することができ、これらの情報に基づいて、回答者が回答した内容に対する真偽を客観的に判定することができ、回答者に対するストレスチェックを正確に行うことができる。また、端末装置20は、回答者の意識下での回答内容と、回答者が意図しない真意とを対応付けて所定装置へ出力することができる。ここでの所定装置は例えばストレスチェックの回答情報を収集する装置等である。このように各質問について、回答者による回答内容だけでなく、回答者が回答時に意図しない真意(感情)を収集できるので、回答者の真意に基づいて、今後の働き方の改善方法を検討でき、働き方改革を進めることが可能となる。 Further, for example, employee questionnaires such as employee satisfaction questionnaires, stress checks, and 360 degree evaluation surveys can be used as contents. For example, when the questionnaire includes questions regarding the stress check, the control unit 21 of the terminal device 20 displays each question on the display unit 24, accepts the answer of the respondent to each question through the input unit 25, and displays the face of the respondent. The emotion at the time of answering is analyzed based on the image to generate emotion data. In this case, the terminal device 20 can acquire the content that the respondent intentionally answered to the question and the emotion at the time of answering the question that the respondent unintentionally analyzed from the face image. Therefore, the terminal device 20 can acquire the response content under the consciousness of the respondent and the true meaning of the respondent that can be read from the emotion that the respondent does not intend, and the respondent responds based on these pieces of information. The authenticity of the content can be objectively determined, and the stress check for the respondents can be accurately performed. Further, the terminal device 20 can output the response content under the consciousness of the respondent and the true intention not intended by the respondent to the predetermined device in association with each other. The predetermined device here is, for example, a device for collecting response information of the stress check. In this way, for each question, not only the content of the answer by the respondent, but also the unintended intention (feeling) of the respondent at the time of answering can be collected. , It will be possible to promote work style reform.

実施形態1,2の感情分析システムにおいて、端末装置20が行う処理を、店舗等に設置されたデジタルサイネージが行うように構成してもよい。例えばデジタルサイネージに、店舗又は商品等に関する広告コンテンツを表示し、広告コンテンツを視聴しているユーザの顔画像からユーザの感情の変化(感情レポート)を取得するように構成することができる。このような構成により、表示中の商品等に対するユーザの関心度を測定できる。よって、ユーザの関心度に応じて、表示する広告コンテンツを切り替えることにより、ユーザが興味のある商品等の広告を表示することができ、商品の宣伝を効率良く行うことができる。また、デジタルサイネージ及び端末装置20に、例えば商品名又は商品のパッケージ画像等を表示し、視聴するユーザの感情を取得することにより、表示中の商品に対するユーザの認知度を測定することもできる。この場合には、複数のユーザの認知度を集計することにより、商品の認知度又は広告による宣伝効果を測定できる。 In the emotion analysis system according to the first and second embodiments, the process performed by the terminal device 20 may be configured to be performed by a digital signage installed in a store or the like. For example, the digital signage can be configured to display advertisement content related to a store, a product, or the like, and acquire a change in emotion of the user (emotion report) from a face image of the user who is viewing the advertisement content. With such a configuration, the degree of interest of the user with respect to the displayed product or the like can be measured. Therefore, by switching the advertisement content to be displayed in accordance with the degree of interest of the user, it is possible to display the advertisement of the product or the like that the user is interested in, and the product can be efficiently advertised. Further, by displaying, for example, a product name or a package image of the product on the digital signage and the terminal device 20 and acquiring the emotion of the user who views the product, the user's awareness of the product being displayed can be measured. In this case, by accumulating the awareness of a plurality of users, the awareness of the product or the advertising effect of the advertisement can be measured.

実施形態1,2の感情分析システムにおいて、端末装置20で再生されるコンテンツは、映画、ドラマ、アニメ等の動画コンテンツのほかに、ゲームコンテンツであってもよい。この場合、ゲーム中のステージ、レベル、コース、シーン等の各単位に対応付けてユーザの感情を分析することにより、各単位に対するユーザの感情レポートを生成できる。また、ゲームの開始時点、チュートリアルの再生時点、ゲーム内の各イベントの発生時点、課金時点、終了時点等の各タイミングに対応付けてユーザの感情を分析することにより、各タイミングでのユーザの感情レポートを生成できる。このようにゲーム中のユーザの感情の変化を分析することにより、ユーザがゲームを楽しんでいるタイミング及びゲーム中の箇所、並びに、ユーザがゲームを楽しんでいない又はゲームを終了するタイミング及びゲーム中の箇所を判定できる。よって、ユーザがゲームを終了する理由を分析することができ、分析結果を用いることにより、ユーザが飽きないゲームを製作することが可能となる。 In the emotion analysis system of the first and second embodiments, the content played back by the terminal device 20 may be game content in addition to movie content such as movies, dramas, and animations. In this case, a user emotion report for each unit can be generated by analyzing the user's emotion in association with each unit such as the stage, level, course, and scene in the game. In addition, by analyzing the emotion of the user in association with each timing such as the start time of the game, the reproduction time of the tutorial, the occurrence time of each event in the game, the billing time, the end time, etc., the emotion of the user at each timing is analyzed. Can generate reports. By analyzing changes in the emotions of the user during the game in this way, the timing at which the user enjoys the game and the place in the game, and the timing at which the user does not enjoy the game or ends the game and Can determine the location. Therefore, the reason why the user finishes the game can be analyzed, and by using the analysis result, it is possible to produce a game that the user does not get tired of.

(実施形態3)
美術館や博物館等で入館者に端末装置が貸し出され、展示作品に対する解説コンテンツを端末装置で再生することによって展示作品の解説等を行うシステムに適用した感情分析システムについて説明する。本実施形態の感情分析システムは、実施形態1の各装置と同様の装置によって実現できるので、構成については説明を省略する。
(Embodiment 3)
A sentiment analysis system applied to a system in which a terminal device is lent to a visitor at a museum or the like and a commentary content for the exhibited work is reproduced on the terminal device will be described. The emotion analysis system of the present exemplary embodiment can be realized by the same devices as the respective devices of the first exemplary embodiment, so description of the configuration will be omitted.

図12及び図13は、実施形態3の端末装置20による心拍変動データの取得処理の手順を示すフローチャート、図14は画面例を示す模式図である。図12及び図13に示す処理は、図8に示す処理においてステップS11の前にステップS61〜S62を追加し、ステップS16の代わりにステップS63〜S65を追加し、ステップS20の後にステップS66を追加したものである。図8と同様のステップについては説明を省略する。 12 and 13 are flowcharts showing the procedure of the process of acquiring heartbeat variability data by the terminal device 20 of the third embodiment, and FIG. 14 is a schematic diagram showing an example of a screen. In the process shown in FIGS. 12 and 13, steps S61 to S62 are added before step S11 in the process shown in FIG. 8, steps S63 to S65 are added instead of step S16, and step S66 is added after step S20. It was done. Description of steps similar to those in FIG. 8 is omitted.

本実施形態では、例えば美術館の入館者が入館する際に、端末装置20を借り受ける。端末装置20は、美術館内に展示されている展示品のそれぞれに対する解説コンテンツをコンテンツDB22aに記憶しており、表示部24に図14Aに示すようなコンテンツ一覧を表示している。なお、本実施形態におけるコンテンツIDは、解説コンテンツに割り当てられた識別情報であり、即ち、各展示品に割り当てられた識別情報である。コンテンツ一覧は、美術館内の各展示品のサムネイル画像を表示しており、それぞれのサムネイル画像に対応付けて、各展示品に関する解説コンテンツの再生指示を受け付けるための「解説を再生」ボタンが設けられている。よって、入館者は、解説を聴きたい展示品がある場合、展示品のサムネイル画像に対応する「解説を再生」ボタンを操作することにより、解説コンテンツの再生を指示する。 In the present embodiment, the terminal device 20 is rented, for example, when a person who enters the museum enters. The terminal device 20 stores the commentary content for each of the exhibits exhibited in the museum in the content DB 22a, and displays the content list as shown in FIG. 14A on the display unit 24. The content ID in this embodiment is identification information assigned to the commentary content, that is, identification information assigned to each exhibit. The content list displays thumbnail images of each exhibit in the museum, and a "play commentary" button is provided in association with each thumbnail image to accept a playback instruction of commentary content related to each exhibit. ing. Therefore, when there is an exhibit item for which the commentary is desired to be heard, the visitor operates the "play commentary" button corresponding to the thumbnail image of the exhibit item to instruct the reproduction of the commentary content.

よって、本実施形態において、端末装置20の制御部21は、美術館内の展示品のサムネイル画像を含むコンテンツ一覧を表示しており(S61)、コンテンツ一覧を介して、いずれかの解説コンテンツの再生指示を受け付けたか否かを判断する(S62)。再生指示を受け付けていないと判断した場合(S62:NO)、制御部21は、受け付けるまで待機する。いずれかの解説コンテンツの再生指示を受け付けたと判断した場合(S62:YES)、制御部21は、再生指示を受け付けた解説コンテンツの再生処理を開始する(S11)。具体的には、制御部21は、再生指示された解説コンテンツの再生用データをコンテンツDB22aから読み出し、読み出した再生用データに基づく再生処理を行う。図14Bは解説コンテンツの再生画面例を示しており、再生画面は、展示品に関する解説を表示する。なお、解説コンテンツは動画データであっても静止画データであってもよく、音声データが含まれていてもよい。また、図14Bに示す再生画面には、展示品に関する感想を入力するための入力欄と、展示品が気に入ったことを通知するためのいいねボタンと、表示中の解説コンテンツの表示終了を指示するための終了ボタンとが設けられている。なお、解説コンテンツに音声データが含まれる場合、制御部21は、スピーカ(図示せず)を介して音声データの再生処理も行う。制御部21は、解説コンテンツの再生処理を開始した場合、再生を開始した解説コンテンツのコンテンツIDと、この再生処理に対して発行した視聴IDとを対応付けて心拍変動DB22bに記憶しておく。 Therefore, in the present embodiment, the control unit 21 of the terminal device 20 displays a content list including thumbnail images of exhibits in the museum (S61), and reproduces any commentary content via the content list. It is determined whether an instruction has been accepted (S62). When it is determined that the reproduction instruction has not been received (S62: NO), the control unit 21 waits until it receives it. When it is determined that the instruction to reproduce any of the commentary contents has been received (S62: YES), the control unit 21 starts the reproduction processing of the commentary content for which the reproduction instruction has been accepted (S11). Specifically, the control unit 21 reads out the reproduction data of the commentary content instructed to be reproduced from the content DB 22a, and performs the reproduction process based on the read reproduction data. FIG. 14B shows an example of a reproduction screen of the explanation content, and the reproduction screen displays the explanation about the exhibit. The commentary content may be moving image data or still image data, and may include audio data. Further, on the reproduction screen shown in FIG. 14B, an input field for inputting impressions about the exhibit, a like button for notifying that the exhibit is liked, and an instruction to end display of the explanation content being displayed And an end button to do so. When the commentary content includes audio data, the control unit 21 also performs a reproduction process of the audio data via a speaker (not shown). When the reproduction process of the commentary content is started, the control unit 21 stores the content ID of the commentary content that has started to be reproduced and the viewing ID issued for this reproduction process in the heart rate variability DB 22b in association with each other.

その後、制御部21は、図8中のステップS12〜S15と同様の処理を行い、再生中の解説コンテンツを視聴するユーザ(視聴者)の顔画像に基づいて、ユーザの属性(年齢及び性別)を判定し、ユーザの心拍を示す心拍データを生成する。なお、ユーザは、再生画面によって展示品の解説を視聴し、必要に応じて入力部25を介して入力欄に感想を入力し、展示品が気に入った場合には入力部25を介していいねボタンを操作する。制御部21は、図14Bに示すような再生画面において、ユーザによるいいねボタンの操作又は入力欄への感想の入力を受け付けたか否かを判断する(S63)。いいねボタンの操作又は感想の入力のいずれかを受け付けたと判断した場合(S63:YES)、制御部21は、再生中の解説コンテンツのコンテンツIDに対応付けて、いいねボタンが操作されたことを示す情報、又は受け付けた感想を記憶部22に記憶する(S64)。なお、制御部21は、コンテンツIDに対応付けて、いいねボタンが操作されたことを示す情報、又は受け付けた感想を心拍変動DB22bに記憶するように構成されていてもよい。 After that, the control unit 21 performs the same processing as steps S12 to S15 in FIG. 8, and based on the face image of the user (viewer) who views the commentary content being reproduced, the attributes (age and gender) of the user. Is determined and heartbeat data indicating the user's heartbeat is generated. It should be noted that the user views the explanation of the exhibit on the reproduction screen, inputs an impression in the input field via the input unit 25 as necessary, and may like the input unit 25 if he/she likes the exhibit. Operate the button. The control unit 21 determines whether or not the operation of the like button by the user or the input of an impression in the input field has been accepted on the reproduction screen as shown in FIG. 14B (S63). When it is determined that either the operation of the like button or the input of the impression is accepted (S63: YES), the control unit 21 associates the content ID of the commentary content being reproduced with the operation of the like button. Is stored in the storage unit 22 (S64). The control unit 21 may be configured to store information indicating that the like button has been operated or the received impression in the heart rate variability DB 22b in association with the content ID.

制御部21は、いいねボタンの操作及び感想の入力のいずれも受け付けていないと判断した場合(S63:NO)、ステップS64の処理をスキップし、ステップS65の処理に移行する。制御部21は、図14Bに示すような再生画面において、ユーザが終了ボタンを操作することにより、再生中の解説コンテンツの再生終了の指示を受け付けたか否かを判断する(S65)。制御部21は、再生終了の指示を受け付けていないと判断した場合(S65:NO)、ステップS17の処理に移行し、再生終了の指示を受け付けたと判断した場合(S65:YES)、ステップS18の処理に移行する。これにより、各展示品の解説コンテンツの再生中に所定時間毎に取得したユーザの顔画像に基づいて、所定時間毎のユーザの心拍を示す心拍データが生成されて記憶部22に記憶される。また制御部21は、図8中のステップS18〜S20の処理を行うことにより、生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に基づいて、解説コンテンツの視聴中におけるユーザの心拍変動を示す心拍変動データが生成されて心拍変動DB22bに記憶される。 When the control unit 21 determines that neither the operation of the like button nor the input of the impression is received (S63: NO), the process of step S64 is skipped, and the process proceeds to step S65. The control unit 21 determines whether or not an instruction to end the reproduction of the commentary content being reproduced is received by the user operating the end button on the reproduction screen as shown in FIG. 14B (S65). If the control unit 21 determines that the reproduction end instruction has not been received (S65: NO), the control unit 21 proceeds to the process of step S17, and if the control unit 21 determines that the reproduction end instruction has been received (S65: YES), the process proceeds to step S18. Move to processing. As a result, heartbeat data indicating the user's heartbeat at each predetermined time is generated and stored in the storage unit 22 based on the user's face image acquired at every predetermined time during the reproduction of the commentary content of each exhibit. Further, the control unit 21 performs the processes of steps S18 to S20 in FIG. 8 to generate the heartbeat data of the user (temporal change of the average pixel value in the hemoglobin image) based on the generated heartbeat data and the heartbeat fluctuation of the user while viewing the commentary content. Heart rate variability data indicating is generated and stored in the heart rate variability DB 22b.

ステップS20の処理後、制御部21は、入力部25を介した操作に応じて、解説コンテンツの再生処理の終了指示を受け付けたか否かを判断する(S66)。例えば図14Aに示すコンテンツ一覧又は図14Bに示す再生画面中に、端末装置20の動作終了(解説処理の終了)を指示するための終了ボタンを設けておき、終了ボタンが操作された場合に、再生処理の終了指示を受け付けるように構成されていてもよい。なお、このような終了ボタンは、ユーザが端末装置20の利用を終了する際に操作してもよく、端末装置20が美術館に返却された後に美術館のスタッフ等によって操作されてもよい。制御部21は、再生処理の終了指示を受け付けていないと判断した場合(S66:NO)、ステップS61の処理に戻り、図14Aに示すようなコンテンツ一覧の表示に戻り、終了指示を受け付けたと判断した場合(S66:YES)、処理を終了する。上述した処理により、ユーザは美術館等の展示品に関する解説を受けることができると共に、ユーザのコンテンツ視聴中の心拍変動を示す心拍変動データを収集できる。 After the processing of step S20, the control unit 21 determines whether or not an instruction to end the reproduction processing of the commentary content has been received, in response to an operation via the input unit 25 (S66). For example, in the content list shown in FIG. 14A or the reproduction screen shown in FIG. 14B, an end button for instructing the end of the operation of the terminal device 20 (end of the comment processing) is provided, and when the end button is operated, It may be configured to receive an instruction to end the reproduction process. Note that such an end button may be operated by the user when terminating the use of the terminal device 20, or may be operated by the museum staff or the like after the terminal device 20 is returned to the museum. When the control unit 21 determines that the end instruction of the reproduction process is not accepted (S66: NO), the control unit 21 returns to the process of step S61, returns to the content list display as illustrated in FIG. 14A, and determines that the end instruction is accepted. If so (S66: YES), the process ends. Through the above-described processing, the user can receive a comment on an exhibit such as an art museum, and can collect heartbeat variability data indicating heartbeat variability while the user is viewing the content.

図15は、実施形態3のサーバ10による感情分析処理の手順を示すフローチャートである。図15に示す処理は、図9に示す処理においてステップS35の代わりにステップS71〜S73を追加したものである。図9と同様のステップについては説明を省略する。本実施形態において、サーバ10の制御部11は、図9中のステップS31〜S34と同様の処理を行う。これにより、サーバ10は、端末装置20が送信した心拍変動データを受信し、受信した心拍変動データに基づいて、各解説コンテンツ(解説コンテンツに対応する展示品)に対するユーザの感情を分析し、ユーザの各感情の時間変化を示す感情データを生成する。なお、本実施形態では、端末装置20が心拍変動データをサーバ10へ送信するタイミングは、ユーザが端末装置20の利用を終了したタイミングとしてもよい。また、本実施形態では、端末装置20は、端末装置20に割り当てられた識別子(例えば端末ID)又はユーザに割り当てられた識別子(例えばユーザID)に対応付けて心拍変動データをサーバ10へ送信する。よって、サーバ10は、端末ID又はユーザIDに対応付けて心拍変動データを例えば心拍変動DB12bに記憶し、ステップS34で生成した各感情の感情データを、端末ID又はユーザIDに対応付けて感情DB12cに記憶する。 FIG. 15 is a flowchart showing a procedure of emotion analysis processing by the server 10 of the third embodiment. The process shown in FIG. 15 is obtained by adding steps S71 to S73 instead of step S35 in the process shown in FIG. Description of steps similar to those in FIG. 9 is omitted. In the present embodiment, the control unit 11 of the server 10 performs the same processing as steps S31 to S34 in FIG. As a result, the server 10 receives the heart rate variability data transmitted by the terminal device 20, analyzes the user's feelings regarding each commentary content (exhibition corresponding to the commentary content) based on the received heart rate variability data, and the user The emotion data indicating the temporal change of each emotion is generated. In the present embodiment, the timing at which the terminal device 20 transmits the heartbeat fluctuation data to the server 10 may be the timing at which the user finishes using the terminal device 20. Further, in the present embodiment, the terminal device 20 transmits the heartbeat variability data to the server 10 in association with the identifier (for example, the terminal ID) assigned to the terminal device 20 or the identifier (for example, the user ID) assigned to the user. .. Therefore, the server 10 stores the heartbeat variability data in, for example, the heartbeat variability DB 12b in association with the terminal ID or the user ID, and associates the emotion data of each emotion generated in step S34 with the terminal ID or the user ID in the emotion DB 12c. Remember.

ステップS34の処理後、制御部11(箇所抽出部)は、端末ID又はユーザIDに対応付けて感情DB12cに記憶した各解説コンテンツに対する感情データに基づいて、ユーザが所定の感情を抱いた箇所を抽出する(S71)。例えば制御部11は、各解説コンテンツに対する感情データに基づいて、例えば喜びの感情パラメータのスコアが所定値以上であった解説コンテンツを特定し、特定した解説コンテンツに対応するコンテンツIDを抽出する。そして制御部11(アルバム生成部)は、抽出したコンテンツIDに対応する解説コンテンツ又は展示品のサムネイル画像等を用いてアルバムデータを生成する(S72)。これにより、ユーザが所定の感情を抱いたコンテンツ又は展示品をまとめて閲覧できるアルバムを生成できる。制御部11は、生成したアルバムデータを端末ID又はユーザIDに対応付けて記憶部12に記憶し(S73)、処理を終了する。 After the processing of step S34, the control unit 11 (location extraction unit) identifies the location where the user has a predetermined emotion based on the emotion data for each commentary content stored in the emotion DB 12c in association with the terminal ID or the user ID. Extract (S71). For example, the control unit 11 identifies commentary content whose score of the emotion parameter of joy is a predetermined value or more based on the emotional data for each commentary content, and extracts the content ID corresponding to the identified commentary content. Then, the control unit 11 (album generation unit) generates album data by using the commentary content corresponding to the extracted content ID or the thumbnail image of the exhibit (S72). As a result, it is possible to generate an album in which the user can collectively browse contents or exhibits that have a predetermined emotion. The control unit 11 stores the generated album data in the storage unit 12 in association with the terminal ID or the user ID (S73), and ends the process.

上述した処理により、解説コンテンツ及び展示品を見たユーザの感情に応じたアルバムデータを生成できるので、ユーザが無意識に所定の感情を抱いた解説コンテンツ又は展示品をまとめて閲覧できるアルバムを提供できる。なお、アルバムデータを生成する感情は、例えば喜び、怒り、悲しみ、驚き、嫌悪、リラックス等の感情パラメータのいずれかが予め設定されていてもよく、また、ユーザからの選択によって変更できるように構成されていてもよい。また、サーバ10は、端末ID又はユーザIDに対応付けて記憶部12に記憶したアルバムデータを、例えばユーザが所有するユーザ端末(図示せず)に提供できるように構成されている。サーバ10は、例えばユーザ端末から、端末ID又はユーザIDを指定してアルバムデータの要求を受け付けた場合、要求されたアルバムデータを要求元のユーザ端末へ送信してもよい。これにより、ユーザは、自身のユーザ端末においてアルバムを閲覧できるので、美術館での展示品の鑑賞だけでなく、美術館での鑑賞後にアルバムによって展示品又は解説コンテンツを振り返ることができる。 By the above-described processing, album data can be generated according to the emotion of the user who sees the commentary content and the exhibit, so that the album can be provided in which the user can browse the commentary content or the exhibit that unconsciously has a predetermined emotion. .. It should be noted that the emotions that generate the album data may be preset with any emotional parameters such as joy, anger, sadness, surprise, disgust, and relaxation, and are configured so that they can be changed by the user's selection. It may have been done. The server 10 is also configured to be able to provide album data stored in the storage unit 12 in association with the terminal ID or the user ID to, for example, a user terminal (not shown) owned by the user. For example, when the server 10 receives a request for album data by designating a terminal ID or a user ID from the user terminal, the server 10 may transmit the requested album data to the requesting user terminal. As a result, the user can browse the album on his/her own user terminal, so that not only can he/she appreciate the exhibits at the museum, but he/she can also look back at the exhibits or the commentary contents by the album after the observation at the museum.

なお、サーバ10がアルバムデータをユーザ端末へ送信する場合、例えばサーバ10が、端末ID又はユーザIDに応じたQRコード(登録商標)を発行し、発行したQRコードをユーザ端末へ送信してもよい。この場合、ユーザ端末は、QRコードを読み取って得られた宛先情報(例えばURL(Uniform Resource Locator))に基づいてアルバムデータを要求し、サーバ10からアルバムデータを取得することができる。また、例えばサーバ10がユーザIDに対応付けてアルバムデータを記憶する構成において、端末装置20を用いてネットワークN経由でユーザIDに基づいてアルバムデータをサーバ10からダウンロードできるように構成してもよい。この場合、同じ美術館又は他の美術館で貸し出された端末装置20において、前回鑑賞した際に生成されたアルバムを見ながら展示品を鑑賞することができる。 When the server 10 transmits the album data to the user terminal, for example, even if the server 10 issues a QR code (registered trademark) corresponding to the terminal ID or the user ID and transmits the issued QR code to the user terminal. Good. In this case, the user terminal can request the album data based on the destination information (for example, URL (Uniform Resource Locator)) obtained by reading the QR code, and can acquire the album data from the server 10. Further, for example, in a configuration in which the server 10 stores album data in association with a user ID, the terminal device 20 may be used to download album data from the server 10 via the network N based on the user ID. .. In this case, on the terminal device 20 rented out in the same museum or another museum, the exhibit can be viewed while viewing the album created when the previous viewing was performed.

本実施形態において、サーバ10は、端末装置20から受信した心拍変動データに基づいてアルバムデータを生成するか否かを、ユーザからの要求に応じて切り替えてもよい。例えば、サーバ10は、端末装置20又はユーザのユーザ端末からアルバムデータの要求を受け付けた後に、アルバムデータの生成処理を行い、端末装置20又はユーザ端末へ送信してもよい。このような構成とすることにより、アルバムデータの生成処理を不用意に行うことなく、処理負荷の増加を抑制できる。なお、本実施形態においても、サーバ10の制御部11は、図9中のステップS35の処理を行い、複数の端末装置20から収集した多数の視聴者の心拍変動データに基づいて、各コンテンツに対する感情レポートを生成してもよい。この場合、展示品を鑑賞する入館者の感情を分析し、各展示品について入館者の関心の有無等を把握できる。 In the present embodiment, the server 10 may switch whether or not to generate album data based on the heartbeat variability data received from the terminal device 20, in response to a user request. For example, the server 10 may perform album data generation processing after receiving a request for album data from the terminal device 20 or the user terminal of the user, and transmit the album data to the terminal device 20 or the user terminal. With such a configuration, an increase in processing load can be suppressed without carelessly performing album data generation processing. Note that, also in the present embodiment, the control unit 11 of the server 10 performs the process of step S35 in FIG. 9, and based on the heartbeat variability data of many viewers collected from the plurality of terminal devices 20, for each content. An emotional report may be generated. In this case, it is possible to analyze the emotions of the visitors who appreciate the exhibits, and to understand whether the visitors are interested in each exhibit.

本実施形態において、端末装置20で再生されるコンテンツは美術館等の展示品に対する解説コンテンツのほかに、観光地及び観光スポット等を解説又は案内するためのコンテンツであってもよく、映画、アニメ及びドラマ等のようにそれ自体が鑑賞対象である電子データ(コンテンツ)であってもよい。観光案内用のコンテンツを用いる場合、ユーザの心拍変動データに基づいて、ユーザが所定の感情を抱いた箇所(観光地又は観光スポット)を抽出し、抽出した箇所の写真又は解説等をまとめたアルバムデータを生成することができる。また、映画、アニメ及びドラマ等の映像コンテンツを用いる場合、ユーザの心拍変動データに基づいて、ユーザが所定の感情を抱いた箇所(シーン)を抽出し、例えばユーザが気に入ったシーンをまとめたアルバムデータを生成することができる。 In the present embodiment, the content reproduced by the terminal device 20 may be content for explaining or guiding tourist spots, sightseeing spots, and the like in addition to commentary content for exhibits such as museums. It may be electronic data (content) that is itself an object of appreciation, such as a drama. When using contents for tourist guidance, an album that extracts places (sightseeing spots or tourist spots) where the user has a certain emotion based on the user's heart rate variability data, and summarizes photos or explanations of the extracted places Data can be generated. Further, when using video contents such as movies, animations, and dramas, a portion (scene) in which the user has a predetermined emotion is extracted based on the user's heart rate variability data, and, for example, an album that summarizes the scenes that the user likes. Data can be generated.

(実施形態4)
ユーザが自身のユーザ端末(端末装置20)を使用している場合に、ユーザの顔画像に基づいてユーザの健康状態を判定する分析システムについて説明する。本実施形態の分析システムは、実施形態1の各装置と同様の装置によって実現できるので、構成については説明を省略する。なお、本実施形態では、端末装置20はユーザが所有するユーザ端末である。
(Embodiment 4)
An analysis system for determining the health condition of the user based on the face image of the user when the user uses his/her own user terminal (terminal device 20) will be described. The analysis system of the present embodiment can be realized by the same devices as the devices of the first embodiment, and therefore the description of the configuration will be omitted. In the present embodiment, the terminal device 20 is a user terminal owned by the user.

図16は、実施形態4の端末装置20による健康状態判定処理の手順を示すフローチャートである。以下の処理は、端末装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部21によって実行される。本実施形態において、例えばユーザが端末装置20を用いてテレビ電話中、又は、電子メール、LINE(登録商標)、SNS(Social Networking Service )に関する操作中の場合、端末装置20の制御部21は、カメラ26による撮影を開始し、操作中のユーザの顔画像を取得する(S81)。ここでは、制御部21は、図8中のステップS12と同様の処理を行う。 FIG. 16 is a flowchart showing the procedure of the health condition determination processing by the terminal device 20 of the fourth embodiment. The following processing is executed by the control unit 21 according to the control program 22P stored in the storage unit 22 of the terminal device 20. In the present embodiment, for example, when the user is making a videophone call using the terminal device 20 or is performing an operation related to e-mail, LINE (registered trademark), and SNS (Social Networking Service), the control unit 21 of the terminal device 20 is Shooting by the camera 26 is started, and the face image of the user who is operating is acquired (S81). Here, the control unit 21 performs the same processing as step S12 in FIG.

制御部21は、図8中のステップS13と同様の処理を行い、取得した顔画像(顔画像データ)に基づいてユーザの属性(年齢及び性別)を判定する(S82)。次に制御部21は、図8中のステップS14と同様の処理を行い、ステップS81で取得した顔画像に対してヘモグロビンに対応する色素成分を抽出する分離処理を行ってヘモグロビン画像を生成する(S83)。そして、制御部21は、生成したヘモグロビン画像に基づいて、ユーザのヘモグロビン色素濃度(ヘモグロビン濃度)を算出する(S84)。例えば制御部21は、ヘモグロビン画像においてユーザの顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、算出した値に対応するヘモグロビン色素濃度を特定する。なお、ヘモグロビン画像における平均画素値と、平均画素値に対応するヘモグロビン色素濃度とを対応付けて記憶部22に記憶しておくことにより、制御部21は、ヘモグロビン画像の平均画素値からユーザのヘモグロビン色素濃度を特定できる。 The control unit 21 performs the same process as step S13 in FIG. 8 and determines the user's attributes (age and sex) based on the acquired face image (face image data) (S82). Next, the control unit 21 performs the same process as step S14 in FIG. 8 and performs a separation process for extracting a pigment component corresponding to hemoglobin on the face image acquired in step S81 to generate a hemoglobin image ( S83). Then, the control unit 21 calculates the hemoglobin pigment concentration (hemoglobin concentration) of the user based on the generated hemoglobin image (S84). For example, the control unit 21 calculates the average value (average pixel value) of the pixel values (the component amount of the hemoglobin component) of each pixel in the face area of the user in the hemoglobin image, and specifies the hemoglobin pigment concentration corresponding to the calculated value. To do. By storing the average pixel value in the hemoglobin image and the hemoglobin pigment concentration corresponding to the average pixel value in the storage unit 22 in association with each other, the control unit 21 controls the average pixel value of the hemoglobin image from the user's hemoglobin. The dye concentration can be specified.

制御部21は、算出したヘモグロビン色素濃度が所定範囲内であるか否かを判断し(S85)、所定範囲内でないと判断した場合(S85:NO)、ユーザの健康状態がよくない可能性があることを通知する(S86)。例えば制御部21は、健康状態がよくない可能性があることを示すメッセージを表示部24に表示して通知する。なお、端末装置20がランプを有する場合、ランプを点灯又は点滅させることによって通知してもよく、端末装置20がスピーカ又はブザーを有する場合、スピーカによる音声出力又はブザーの鳴動によって通知してもよい。ヘモグロビン色素濃度が所定範囲内であると判断した場合(S85:YES)、制御部21は、ステップS86の処理をスキップして処理を終了する。 The control unit 21 determines whether the calculated hemoglobin pigment concentration is within the predetermined range (S85), and when it is determined that the calculated hemoglobin dye concentration is not within the predetermined range (S85: NO), the user's health may not be good. It is notified that there is (S86). For example, the control unit 21 displays a message indicating that there is a possibility that the health condition is not good, and notifies the display unit 24 of the message. In addition, when the terminal device 20 has a lamp, the notification may be performed by lighting or blinking the lamp, and when the terminal device 20 has a speaker or a buzzer, the notification may be performed by audio output from the speaker or ringing of the buzzer. .. When determining that the hemoglobin dye concentration is within the predetermined range (S85: YES), the control unit 21 skips the process of step S86 and ends the process.

上述した処理により、ユーザの顔画像に基づいてユーザの健康状態を判定することができ、健康状態がよくない可能性がある場合に通知することができる。よって、ユーザは端末装置20を使用(操作)しているだけで意識することなく、健康状態の判定を行うことができる。例えば体内の水分量が低下すると血液中のヘモグロビン濃度が上昇するので、ヘモグロビン濃度によって熱中症を発症する気配があるか否かの判断が行われている。本実施形態では、ユーザの顔画像からユーザのヘモグロビン濃度を検出するので、血液検査を行うことなく、熱中症を発症する気配があるか否かの判断が可能となる。よって、熱中症の可能性がある場合に、水分補給の提案及び日陰への誘導等を行うことにより、早期の処置が可能となる。また、例えば建設現場又は工事現場等で作業中の作業者が用いるタブレット端末を端末装置20としてもよい。この場合、タブレット端末を操作する作業者の顔画像を撮影することによって、顔画像から作業者の健康状態を判定できる。また、例えば観光地等の屋外に長時間いる観光客に観光ガイドアプリを提供する場合に、観光ガイドアプリに、本実施形態のような健康状態を判定する機能を追加して提供してもよい。この場合、観光ガイドアプリは利用者に観光ガイドを提供すると共に、利用者の健康状態を判定し、健康状態がよくない可能性がある場合には通知することができる。 By the above-described processing, the health condition of the user can be determined based on the face image of the user, and when there is a possibility that the health condition is not good, it can be notified. Therefore, the user can judge the health condition without being aware of the fact that the user is using (operating) the terminal device 20. For example, since the hemoglobin concentration in blood increases when the amount of water in the body decreases, it is determined whether or not there is a sign of developing heat stroke depending on the hemoglobin concentration. In the present embodiment, since the user's hemoglobin concentration is detected from the user's face image, it is possible to determine whether there is a sign of developing heat stroke without performing a blood test. Therefore, when there is a possibility of heat stroke, an early treatment becomes possible by proposing hydration and guiding to the shade. Further, for example, a tablet terminal used by a worker who is working at a construction site or a construction site may be used as the terminal device 20. In this case, the health condition of the worker can be determined from the face image by capturing the face image of the worker who operates the tablet terminal. In addition, for example, when a tourist guide application is provided to tourists who are outdoors for a long time in a tourist area or the like, the tourist guide application may be additionally provided with a function for determining a health condition as in the present embodiment. .. In this case, the tourist guide application can provide the user with a tourist guide, determine the user's health condition, and notify the user if the health condition may not be good.

本実施形態では、ヘモグロビン画像に基づいてユーザの健康状態を判定するが、例えば、ヘモグロビン画像に基づいてユーザの心拍を示す心拍データを生成し、心拍データも考慮してユーザの健康状態を判定してもよい。この場合、ヘモグロビン濃度の変化だけでなく、心拍の変動に基づいて不整脈等の健康状態をチェックできる。また、本実施形態の構成は、上述した実施形態1〜3の感情分析システムにも適用できる。実施形態1−2の感情分析システムに適用した場合、端末装置20において、各種のコンテンツをユーザに提供しつつ、ユーザの顔画像に基づいて健康状態を判定できる。また実施形態3の感情分析システムに適用した場合、美術館等で貸し出される端末装置20において、展示品の解説コンテンツをユーザ(入館者)に提供しつつ、ユーザの顔画像に基づいて健康状態を判定できる。 In the present embodiment, the health condition of the user is determined based on the hemoglobin image.For example, heartbeat data indicating the heartbeat of the user is generated based on the hemoglobin image, and the health condition of the user is determined in consideration of the heartbeat data. May be. In this case, not only changes in hemoglobin concentration but also health conditions such as arrhythmia can be checked based on fluctuations in heartbeat. The configuration of the present embodiment can also be applied to the emotion analysis system of the above-described first to third embodiments. When applied to the emotion analysis system of the embodiment 1-2, the terminal device 20 can determine the health condition based on the face image of the user while providing various contents to the user. When applied to the emotion analysis system of the third embodiment, the terminal device 20 rented out at an art museum or the like provides the user (entry person) with the commentary content of the exhibit and determines the health condition based on the face image of the user. it can.

上述した各実施形態において、端末装置20は、例えばスマートフォンに所定のアプリケーションプログラムをインストールすることによって実現されてもよい。なお、カメラを有するスマートフォンでは、カメラによる撮影が行われた場合に、取得された撮影画像に対してホワイトバランス処理等の画質を補正する処理(画質補正処理)が自動的に行われるように構成されている場合がある。このような画質補正機能を有するスマートフォンを用いて端末装置20を実現する場合、制御部21は、カメラ26で顔画像データを取得した場合に、顔画像データに対して画質補正処理を行う補正部として機能する。このような構成においては、制御部(禁止部)21は、視聴者の顔画像に基づいて視聴者の感情分析を行う場合には、カメラ26で撮影した視聴者の顔画像に対する画質補正処理の実行を禁止するように構成される。自動的に実行される画質補正処理を行わないことにより、視聴者の顔画像を忠実に取得でき、このような顔画像に基づいて視聴者の感情を精度よく分析できる。 In each of the above-described embodiments, the terminal device 20 may be realized by installing a predetermined application program on a smartphone, for example. Note that smartphones with cameras are configured to automatically perform image quality correction processing (image quality correction processing) such as white balance processing on the acquired captured image when the image is captured by the camera. It may have been. When realizing the terminal device 20 using a smartphone having such an image quality correction function, the control unit 21 performs the image quality correction process on the face image data when the camera 26 acquires the face image data. Function as. In such a configuration, the control unit (prohibition unit) 21 performs image quality correction processing on the face image of the viewer captured by the camera 26 when performing the emotion analysis of the viewer based on the face image of the viewer. Configured to prohibit execution. By not performing the image quality correction process that is automatically executed, the face image of the viewer can be faithfully acquired, and the emotion of the viewer can be accurately analyzed based on such a face image.

今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are exemplifications in all points and not restrictive. The scope of the present invention is shown not by the above meaning but by the scope of the claims, and is intended to include meanings equivalent to the scope of the claims and all modifications within the scope.

10 サーバ(情報処理装置)
11 制御部
12 記憶部
20 端末装置
21 制御部
22 記憶部
24 表示部
26 カメラ
101 心拍変動データ取得部
103 感情分析部
104 レポート生成部
202 撮影部
204 ヘモグロビン画像生成部
205 心拍データ生成部
206 心拍変動データ生成部
207 出力部
10 server (information processing device)
11 control unit 12 storage unit 20 terminal device 21 control unit 22 storage unit 24 display unit 26 camera 101 heartbeat variability data acquisition unit 103 emotion analysis unit 104 report generation unit 202 imaging unit 204 hemoglobin image generation unit 205 heartbeat data generation unit 206 heartbeat variability Data generation unit 207 Output unit

Claims (15)

コンテンツを表示部に表示し、
表示されるコンテンツを視認するユーザの顔の顔画像データを取得し、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成し、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成し、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成し、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する
処理をコンピュータが実行する情報処理方法。
Display the content on the display,
Acquire face image data of the face of the user who visually recognizes the displayed content,
To generate hemoglobin image data by extracting a pigment component corresponding to hemoglobin from the face image data,
Generate heartbeat data indicating the heartbeat of the user based on the hemoglobin image data,
Frequency conversion is performed on the heartbeat data to generate heartbeat variability data indicating the heartbeat variability of the user,
An information processing method in which a computer executes a process of analyzing the emotion of the user based on the heart rate variability data and generating emotion data indicating the emotion of the user.
複数の前記ユーザの感情データに基づいて、前記コンテンツに対する感情レポートを生成する
処理を前記コンピュータが実行する請求項1に記載の情報処理方法。
The information processing method according to claim 1, wherein the computer executes a process of generating an emotion report for the content based on emotion data of a plurality of the users.
動画である前記コンテンツの再生開始からの各時点における複数の感情パラメータに対する分析値を示す感情レポートを生成する
処理を前記コンピュータが実行する請求項2に記載の情報処理方法。
The information processing method according to claim 2, wherein the computer executes a process of generating an emotion report indicating analysis values for a plurality of emotion parameters at each time point from the start of reproduction of the content that is a moving image.
前記感情レポートに基づく前記複数の感情パラメータに対する分析値と、前記コンテンツとを、前記コンテンツの再生開始からの経過時間に同期して表示するための表示データを出力する
処理を前記コンピュータが実行する請求項3に記載の情報処理方法。
The computer executes a process of outputting display data for displaying analysis values for the plurality of emotional parameters based on the emotional report and the content in synchronization with an elapsed time from the start of reproduction of the content. The information processing method according to item 3.
動画である前記コンテンツに対して、複数の感情パラメータに対する分析値が最大値となった時点における再生開始からの時間を示す感情レポートを生成する
処理を前記コンピュータが実行する請求項2から4までのいずれかひとつに記載の情報処理方法。
The computer according to claim 2, wherein the computer executes a process of generating an emotion report indicating the time from the start of reproduction at the time when the analysis values for a plurality of emotion parameters become maximum values for the content that is a moving image. The information processing method described in any one.
前記コンテンツは、複数の質問を有するアンケートを含み、
前記複数の質問のそれぞれに回答するユーザの顔画像データに基づいて、それぞれの質問に対する前記ユーザの感情データを生成する
処理を前記コンピュータが実行する請求項1から5までのいずれかひとつに記載の情報処理方法。
The content includes a questionnaire having a plurality of questions,
6. The computer according to claim 1, wherein the computer executes a process of generating emotional data of the user for each question based on face image data of a user who answers each of the plurality of questions. Information processing method.
前記コンテンツは、ストレスチェックに係る質問を含み、
前記質問に対する回答を受け付け、
前記質問に回答するユーザの顔画像データに基づいて前記質問に対する前記ユーザの感情データを生成し、
受け付けた回答と生成した前記感情データとを対応付けて出力する
処理を前記コンピュータが実行する請求項1から6までのいずれかひとつに記載の情報処理方法。
The content includes a question regarding stress check,
Accept the answers to the above questions,
Generating emotional data of the user for the question based on face image data of a user who answers the question,
The information processing method according to any one of claims 1 to 6, wherein the computer executes a process of outputting the received answer and the generated emotion data in association with each other.
前記感情データに基づいて、前記コンテンツから、前記ユーザが所定の感情を抱いた箇所を抽出し、
抽出した箇所に対応するデータを用いてアルバムデータを生成する
処理を前記コンピュータが実行する請求項1から7までのいずれかひとつに記載の情報処理方法。
From the content, based on the emotion data, extract a portion where the user has a predetermined emotion,
The information processing method according to any one of claims 1 to 7, wherein the computer executes a process of generating album data using data corresponding to the extracted portion.
前記ユーザに割り当てられた識別子に対応付けて、生成された前記アルバムデータを記憶部に記憶し、
前記識別子に基づいて前記アルバムデータを要求された場合に、前記アルバムデータを出力する
処理を前記コンピュータが実行する請求項8に記載の情報処理方法。
Storing the generated album data in a storage unit in association with the identifier assigned to the user,
The information processing method according to claim 8, wherein the computer executes a process of outputting the album data when the album data is requested based on the identifier.
コンテンツを表示する表示部と、
前記表示部に表示されるコンテンツを視認するユーザの顔の顔画像データを取得する取得部と、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成する抽出部と、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成する心拍データ生成部と、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成する心拍変動データ生成部と、
前記心拍変動データを前記コンテンツに係るコンテンツ情報と共に出力する出力部と
を備える端末装置。
A display section for displaying content,
An acquisition unit that acquires face image data of the face of the user who visually recognizes the content displayed on the display unit;
An extraction unit that extracts hemoglobin image data by extracting a pigment component corresponding to hemoglobin from the face image data,
A heartbeat data generation unit that generates heartbeat data indicating the user's heartbeat based on the hemoglobin image data;
A heart rate variability data generation unit that performs frequency conversion on the heart rate data to generate heart rate variability data indicating the heart rate variability of the user,
An output unit that outputs the heartbeat variability data together with content information related to the content.
前記取得部が取得した顔画像データ、及び前記抽出部が生成したヘモグロビン画像データの少なくとも一方を記憶する記憶部と、
前記出力部が前記心拍変動データ及びコンテンツ情報を出力した後に、前記記憶部に記憶された前記顔画像データ又は前記ヘモグロビン画像データを前記記憶部から消去する消去部と
を備える請求項10に記載の端末装置。
A face image data acquired by the acquisition unit, and a storage unit that stores at least one of the hemoglobin image data generated by the extraction unit,
The erasing unit that erases the face image data or the hemoglobin image data stored in the storage unit from the storage unit after the output unit outputs the heartbeat variability data and the content information. Terminal device.
前記取得部が顔画像データを取得した場合に、前記顔画像データに対して画質補正処理を行う補正部と、
前記顔画像データに基づいて前記心拍変動データを生成する場合、前記補正部による画質補正処理の実行を禁止する禁止部と
を更に備える請求項10又は11に記載の端末装置。
A correction unit that performs image quality correction processing on the face image data when the acquisition unit acquires face image data;
The terminal device according to claim 10 or 11, further comprising: a prohibition unit that prohibits execution of the image quality correction process by the correction unit when the heartbeat variation data is generated based on the face image data.
表示されるコンテンツを視認するユーザの顔の顔画像データに基づいて生成された前記ユーザの心拍変動を示す心拍変動データを取得するデータ取得部と、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する感情分析部と、
複数の前記心拍変動データに基づいて生成した複数の前記ユーザの感情データに基づいて、前記コンテンツに対する感情レポートを生成するレポート生成部と
を備える情報処理装置。
A data acquisition unit that acquires heartbeat variability data indicating heartbeat variability of the user generated based on face image data of the face of the user who visually recognizes the displayed content;
An emotion analysis unit that analyzes emotions of the user based on the heart rate variability data and generates emotion data indicating the emotions of the user;
An information processing device, comprising: a report generation unit that generates an emotion report for the content based on a plurality of emotion data of the users generated based on a plurality of heart rate variability data.
前記データ取得部は、請求項10から12までのいずれかひとつに記載の端末装置が出力した前記心拍変動データ及びコンテンツ情報を取得する
請求項13に記載の情報処理装置。
The information processing device according to claim 13, wherein the data acquisition unit acquires the heartbeat variability data and the content information output by the terminal device according to any one of claims 10 to 12.
前記ユーザの感情データに基づいて、前記コンテンツから、前記ユーザが所定の感情を抱いた箇所を抽出する箇所抽出部と、
抽出した箇所に対応するデータを用いてアルバムデータを生成するアルバム生成部と
を備える請求項13又は14に記載の情報処理装置。
A location extraction unit that extracts a location where the user has a predetermined emotion from the content based on the emotion data of the user;
The information processing apparatus according to claim 13 or 14, further comprising: an album generation unit that generates album data using data corresponding to the extracted location.
JP2020010943A 2019-01-31 2020-01-27 Information processing method, terminal device, information processing device, and information processing system Active JP7440020B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019015075 2019-01-31
JP2019015075 2019-01-31

Publications (2)

Publication Number Publication Date
JP2020126645A true JP2020126645A (en) 2020-08-20
JP7440020B2 JP7440020B2 (en) 2024-02-28

Family

ID=72084961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010943A Active JP7440020B2 (en) 2019-01-31 2020-01-27 Information processing method, terminal device, information processing device, and information processing system

Country Status (1)

Country Link
JP (1) JP7440020B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7024136B1 (en) 2021-11-05 2022-02-22 ポーラ化成工業株式会社 Analytical system
CN114205270A (en) * 2020-09-17 2022-03-18 北京三快在线科技有限公司 Equipment state determination method and device, storage medium and electronic equipment
WO2022065446A1 (en) * 2020-09-24 2022-03-31 シチズン時計株式会社 Feeling determination device, feeling determination method, and feeling determination program
JP7061714B1 (en) * 2020-12-03 2022-04-28 ポーラ化成工業株式会社 Solution provision system and mobile terminal
JP7069390B1 (en) 2021-07-29 2022-05-17 ポーラ化成工業株式会社 Mobile terminal
JP7069389B1 (en) 2021-07-29 2022-05-17 ポーラ化成工業株式会社 Solution provision system and mobile terminal
WO2022230440A1 (en) * 2021-04-27 2022-11-03 オムロン株式会社 Content evaluation device, content evaluation method, and content evaluation program
WO2023074589A1 (en) * 2021-10-28 2023-05-04 株式会社センシング Information processing device, information processing system, and program
WO2023135632A1 (en) * 2022-01-11 2023-07-20 日本電気株式会社 Stress estimation device, stress estimation method, and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150796A (en) 2003-11-11 2005-06-09 Matsushita Electric Ind Co Ltd Output apparatus and program thereof
JP2009005094A (en) 2007-06-21 2009-01-08 Mitsubishi Electric Corp Mobile terminal
JP5113796B2 (en) 2009-04-15 2013-01-09 ヤフー株式会社 Emotion matching device, emotion matching method, and program
JP2014081913A (en) 2012-09-27 2014-05-08 Dainippon Printing Co Ltd Questionnaire analysis device, questionnaire analysis system, questionnaire analysis method and program
GB201314636D0 (en) 2013-08-15 2013-10-02 Realeyes Data Services Ltd Method of collecting computer user data
JP2015082691A (en) 2013-10-21 2015-04-27 日本電信電話株式会社 Video editing device, video editing method, and video editing program
JP6504959B2 (en) 2015-07-30 2019-04-24 国立大学法人千葉大学 Image processing method and program for stress monitoring
JP2017146733A (en) 2016-02-16 2017-08-24 株式会社リコー Extraction support system, extraction support server, extraction support program, and extraction support method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114205270A (en) * 2020-09-17 2022-03-18 北京三快在线科技有限公司 Equipment state determination method and device, storage medium and electronic equipment
CN114205270B (en) * 2020-09-17 2023-09-22 北京三快在线科技有限公司 Device state determining method and device, storage medium and electronic device
WO2022065446A1 (en) * 2020-09-24 2022-03-31 シチズン時計株式会社 Feeling determination device, feeling determination method, and feeling determination program
JP7061714B1 (en) * 2020-12-03 2022-04-28 ポーラ化成工業株式会社 Solution provision system and mobile terminal
WO2022230440A1 (en) * 2021-04-27 2022-11-03 オムロン株式会社 Content evaluation device, content evaluation method, and content evaluation program
TWI815391B (en) * 2021-04-27 2023-09-11 日商歐姆龍股份有限公司 Content evaluation device, content evaluation method and content evaluation program
JP2022089144A (en) * 2021-07-29 2022-06-15 ポーラ化成工業株式会社 Solution provision system and mobile terminal
JP2022089145A (en) * 2021-07-29 2022-06-15 ポーラ化成工業株式会社 Portable terminal
JP7069389B1 (en) 2021-07-29 2022-05-17 ポーラ化成工業株式会社 Solution provision system and mobile terminal
JP7069390B1 (en) 2021-07-29 2022-05-17 ポーラ化成工業株式会社 Mobile terminal
WO2023074589A1 (en) * 2021-10-28 2023-05-04 株式会社センシング Information processing device, information processing system, and program
JP7024136B1 (en) 2021-11-05 2022-02-22 ポーラ化成工業株式会社 Analytical system
JP2023069103A (en) * 2021-11-05 2023-05-18 ポーラ化成工業株式会社 Analysis system
WO2023135632A1 (en) * 2022-01-11 2023-07-20 日本電気株式会社 Stress estimation device, stress estimation method, and storage medium

Also Published As

Publication number Publication date
JP7440020B2 (en) 2024-02-28

Similar Documents

Publication Publication Date Title
JP7440020B2 (en) Information processing method, terminal device, information processing device, and information processing system
US10079993B2 (en) System for juxtaposition of separately recorded videos
JP6424357B2 (en) Visual target efficiency measurement device
JP2009140010A (en) Information processing device, information processing terminal, information processing method, and program
KR101815203B1 (en) Contents service method
JP6236875B2 (en) Content providing program, content providing method, and content providing apparatus
JP7234930B2 (en) Information processing device, information processing method, and information processing system
CN103686344A (en) Enhanced video system and method
CN107320114A (en) Shooting processing method, system and its equipment detected based on brain wave
KR101670824B1 (en) Method for Intermediating Advertisement Director and Advertiser
JP6649005B2 (en) Robot imaging system and image management method
JP2013157984A (en) Method for providing ui and video receiving apparatus using the same
CN109461334A (en) One kind being based on the online audio-video Question Log share system of interconnection architecture and method
Vermeulen et al. Heartefacts: augmenting mobile video sharing using wrist-worn heart rate sensors
CN113038185B (en) Bullet screen processing method and device
US20130052621A1 (en) Mental state analysis of voters
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
Keib et al. Picture perfect: How photographs influence emotion attention and selection in social media news posts
JP2014060642A (en) Display device and display system
US20210365505A1 (en) Aggregation of live performances on an aggregate site on a network
JP6567461B2 (en) Recognition device, video content presentation system, program
JP2019082982A (en) Cooking support device, cooking information generation device, cooking support system, cooking support method, and program
Chen Using an eye tracker to investigate the effect of sticker on LINE APP for older adults
KR20090116325A (en) System and method for training interview
JP2022153255A (en) Online video distribution support method and online video distribution support apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221101

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7440020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150