JP7440020B2 - Information processing method, terminal device, information processing device, and information processing system - Google Patents

Information processing method, terminal device, information processing device, and information processing system Download PDF

Info

Publication number
JP7440020B2
JP7440020B2 JP2020010943A JP2020010943A JP7440020B2 JP 7440020 B2 JP7440020 B2 JP 7440020B2 JP 2020010943 A JP2020010943 A JP 2020010943A JP 2020010943 A JP2020010943 A JP 2020010943A JP 7440020 B2 JP7440020 B2 JP 7440020B2
Authority
JP
Japan
Prior art keywords
data
emotion
content
heart rate
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020010943A
Other languages
Japanese (ja)
Other versions
JP2020126645A (en
Inventor
徳道 津村
一石 金
陽一 武川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SENSING CO., LTD
Chiba University NUC
Original Assignee
SENSING CO., LTD
Chiba University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SENSING CO., LTD, Chiba University NUC filed Critical SENSING CO., LTD
Publication of JP2020126645A publication Critical patent/JP2020126645A/en
Application granted granted Critical
Publication of JP7440020B2 publication Critical patent/JP7440020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本開示は、情報処理方法、端末装置情報処理装置、及び情報処理システムに関する。 The present disclosure relates to an information processing method, a terminal device , an information processing device , and an information processing system .

近年、人の顔を撮影して得られた撮影画像から被写体の人の感情を判定する技術が開発されている。特許文献1には、RGBカメラを用いて撮影した顔画像に基づいて、被写体の人の心拍変動を示す心拍変動スペクトログラムを作成し、心拍変動スペクトログラムに基づいて被写体の人のストレス状態を判定する技術が提案されている。特許文献1に開示された技術では、顔画像から色素成分分離によってヘモグロビン画像が作成され、ヘモグロビン画像に基づいて心拍変動スペクトログラムが作成される。 2. Description of the Related Art In recent years, technology has been developed to determine the emotions of a photographed subject from an image obtained by photographing a person's face. Patent Document 1 discloses a technology that creates a heart rate variability spectrogram showing the heart rate fluctuations of a subject based on a face image photographed using an RGB camera, and determines the stress state of the subject based on the heart rate variability spectrogram. is proposed. In the technique disclosed in Patent Document 1, a hemoglobin image is created from a face image by separating pigment components, and a heart rate variability spectrogram is created based on the hemoglobin image.

特開2017-29318号公報JP2017-29318A

特許文献1に開示された技術によって作成される心拍変動スペクトログラムは、被写体の人のストレス状態の判定だけでなく、人の感情の判定にも利用することができる。よって、特許文献1に開示された技術は、人の感情を判定した結果を用いて種々の処理を行う様々なシステムに利用されることが期待される。 The heart rate variability spectrogram created by the technique disclosed in Patent Document 1 can be used not only to determine the stress state of the subject but also to determine the emotion of the person. Therefore, the technology disclosed in Patent Document 1 is expected to be used in various systems that perform various processes using the results of determining human emotions.

本開示はこのような事情に鑑みてなされたものであり、その目的は、コンテンツに対する視聴者の感情を分析することを支援することが可能な情報処理方法等を提供することにある。 The present disclosure has been made in view of these circumstances, and the purpose thereof is to provide an information processing method and the like that can support analysis of viewers' emotions toward content .

本開示の一態様に係る情報処理方法は、コンテンツを表示部に表示し、表示されるコンテンツを視認するユーザの顔の顔画像データを取得し、前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成し、前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成し、前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成し、前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する処理をコンピュータが実行する。 An information processing method according to an aspect of the present disclosure displays content on a display unit, acquires facial image data of a user's face viewing the displayed content, and extracts a pigment component corresponding to hemoglobin from the facial image data. extracting hemoglobin image data to generate hemoglobin image data, generate heartbeat data indicating the user's heartbeat based on the hemoglobin image data, perform frequency conversion on the heartbeat data, and generate heartbeat variability indicating the user's heartbeat variability. A computer executes a process of generating data, analyzing the user's emotion based on the heart rate variation data, and generating emotion data indicating the user's emotion.

本開示の一態様にあっては、コンテンツを視認(視聴)するユーザの顔画像に基づいて、視認中のユーザの感情を逐次分析できるので、コンテンツの再生タイミング毎のユーザの感情を取得できる。また、複数のユーザの感情の分析結果に基づいて、コンテンツに対する視認者(視聴者)の感情レポートを生成できる。よって、視認者の感情レポートをコンテンツの作成者に提供することができ、また、視認者の感情レポートに基づいてコンテンツに対する評価を行うことができる。 In one aspect of the present disclosure, the emotions of the user viewing (viewing) the content can be sequentially analyzed based on the facial image of the user viewing (listening to) the content, so the emotions of the user at each content reproduction timing can be acquired. Furthermore, it is possible to generate a viewer's (viewer's) emotion report regarding the content based on the analysis results of the emotions of a plurality of users. Therefore, the viewer's emotional report can be provided to the content creator, and the content can be evaluated based on the viewer's emotional report.

感情分析システムの構成例を示す模式図である。FIG. 1 is a schematic diagram showing a configuration example of an emotion analysis system. 感情分析システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of a sentiment analysis system. サーバ及び端末装置に記憶されるDBの構成例を示す模式図である。FIG. 2 is a schematic diagram showing a configuration example of a DB stored in a server and a terminal device. 端末装置の制御部によって実現される機能を示すブロック図である。FIG. 2 is a block diagram showing functions realized by a control unit of the terminal device. 端末装置による処理の説明図である。It is an explanatory diagram of processing by a terminal device. サーバの制御部によって実現される機能を示すブロック図である。FIG. 3 is a block diagram showing functions realized by a control unit of the server. 画面例を示す模式図である。It is a schematic diagram showing an example of a screen. 端末装置による心拍変動データの取得処理の手順を示すフローチャートである。3 is a flowchart illustrating a procedure for acquiring heart rate variability data by a terminal device. サーバによる感情分析処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of emotion analysis processing by a server. 実施形態2の感情分析システムの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an emotion analysis system according to a second embodiment. 実施形態2の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。12 is a flowchart illustrating a procedure for acquiring heart rate variability data by the terminal device according to the second embodiment. 実施形態3の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。12 is a flowchart illustrating a procedure for acquiring heart rate variability data by the terminal device according to the third embodiment. 実施形態3の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。12 is a flowchart illustrating a procedure for acquiring heart rate variability data by the terminal device according to the third embodiment. 画面例を示す模式図である。It is a schematic diagram showing an example of a screen. 実施形態3のサーバによる感情分析処理の手順を示すフローチャートである。12 is a flowchart illustrating the procedure of emotion analysis processing by the server of Embodiment 3. 実施形態4の端末装置による健康状態判定処理の手順を示すフローチャートである。12 is a flowchart showing the procedure of health condition determination processing by the terminal device of Embodiment 4.

以下に、本開示の情報処理方法、端末装置及び情報処理装置について、コンテンツを視認(視聴)するユーザの感情を分析する感情分析システムに適用した実施形態を示す図面に基づいて具体的に説明する。以下の実施形態では、コンテンツは画像のみを含むコンテンツであってもよく、画像及び音声を含むコンテンツであってもよい。よって、以下では、コンテンツを視聴する場合には、画像及び音声を含むコンテンツを見る場合だけでなく、画像のみのコンテンツを視認する場合も含まれる。また、視聴者は、画像及び音声を含むコンテンツを視聴するユーザだけでなく、画像のみのコンテンツを視認するユーザ(視認者)も含まれる。 Below, the information processing method, terminal device, and information processing device of the present disclosure will be specifically described based on drawings showing an embodiment applied to an emotion analysis system that analyzes the emotions of a user who views (views) content. . In the following embodiments, the content may be content that includes only images, or may be content that includes images and audio. Therefore, in the following, viewing content includes not only viewing content that includes images and audio, but also viewing content that includes only images. Furthermore, viewers include not only users who view content that includes images and audio, but also users (viewers) who view content that only includes images.

(実施形態1)
図1は、感情分析システムの構成例を示す模式図である。本実施形態の感情分析システムは、サーバ(情報処理装置)10及び複数の端末装置20を含み、サーバ10及び各端末装置20は、インターネット又はLAN(Local Area Network)等のネットワークNを介して情報の送受信を行う。サーバ10は、サーバコンピュータ又はパーソナルコンピュータ等であり、複数台設けられてもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。サーバ10は、コンテンツの視聴中のユーザ(視聴者)の心拍変動に関するデータを各端末装置20から取得して蓄積する処理、蓄積したデータに基づいて各視聴者の感情を分析する処理、分析した結果に基づいて各コンテンツに対する感情レポートを生成する処理等、種々の情報処理を行う。端末装置20は、タブレット端末、パーソナルコンピュータ等であり、感情分析システムに用いられる専用端末であることが好ましい。端末装置20は、コンテンツの再生処理(表示処理)、再生中のコンテンツを視聴するユーザ(視聴者)の心拍変動に関するデータを収集する処理等、種々の情報処理を行う。端末装置20は例えば、ショッピングモール等に設けられたフードコート内の飲食店で料理を注文したユーザに貸し出され、注文した料理が出来上がったことを通知する通知端末を、注文した料理が出来上がるまでの間コンテンツを再生させるように構成した装置を用いることができる。また端末装置20は、美術館や博物館等で入館者に貸し出され、展示作品に対する解説コンテンツを再生する端末を用いることができる。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of an emotion analysis system. The emotion analysis system of this embodiment includes a server (information processing device) 10 and a plurality of terminal devices 20, and the server 10 and each terminal device 20 receive information via a network N such as the Internet or a LAN (Local Area Network). Send and receive. The server 10 is a server computer, a personal computer, etc., and may be provided in plural units, may be realized by a plurality of virtual machines provided in one server device, or may be realized using a cloud server. may be done. The server 10 performs a process of acquiring and accumulating data regarding heart rate fluctuations of users (viewers) while viewing content from each terminal device 20, and a process of analyzing the emotions of each viewer based on the accumulated data. Performs various information processing such as processing to generate an emotion report for each content based on the results. The terminal device 20 is a tablet terminal, a personal computer, etc., and is preferably a dedicated terminal used in an emotion analysis system. The terminal device 20 performs various information processing such as content playback processing (display processing) and processing to collect data regarding heart rate fluctuations of a user (viewer) who views the content being played back. For example, the terminal device 20 is lent to a user who orders food at a restaurant in a food court located in a shopping mall, etc., and the terminal device 20 is lent to a user who orders food at a restaurant in a food court located in a shopping mall. A device configured to play back intermittent content can be used. Furthermore, the terminal device 20 can be a terminal that is lent to visitors at an art museum, museum, etc., and that reproduces explanatory content for exhibited works.

図2は、感情分析システムの構成例を示すブロック図である。端末装置20は、制御部21、記憶部22、通信部23、表示部24、入力部25、カメラ26等を含み、これらの各部はバスを介して相互に接続されている。制御部21は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部21は、記憶部22に記憶してある制御プログラム22Pを適宜実行することにより、端末装置20が行うべき種々の情報処理、制御処理等を行う。 FIG. 2 is a block diagram showing an example of the configuration of the sentiment analysis system. The terminal device 20 includes a control section 21, a storage section 22, a communication section 23, a display section 24, an input section 25, a camera 26, etc., and these sections are interconnected via a bus. The control unit 21 includes one or more processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), or a GPU (Graphics Processing Unit). The control unit 21 performs various information processing, control processing, etc. that should be performed by the terminal device 20 by appropriately executing the control program 22P stored in the storage unit 22.

記憶部22は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部22は、制御部21が実行する制御プログラム22P及び制御プログラム22Pの実行に必要な各種のデータ等を予め記憶している。また記憶部22は、制御部21が制御プログラム22Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部22には、後述するコンテンツDB(データベース)22a及び心拍変動DB22bが記憶される。コンテンツDB22a及び心拍変動DB22bは、端末装置20に接続された外部の記憶装置に記憶されてもよく、ネットワークNを介して端末装置20と通信可能な記憶装置に記憶されてもよい。 The storage unit 22 includes a RAM (Random Access Memory), a flash memory, a hard disk, an SSD (Solid State Drive), and the like. The storage unit 22 stores in advance a control program 22P executed by the control unit 21 and various data necessary for executing the control program 22P. The storage unit 22 also temporarily stores data generated when the control unit 21 executes the control program 22P. Furthermore, the storage unit 22 stores a content DB (database) 22a and a heart rate variation DB 22b, which will be described later. The content DB 22a and the heart rate variation DB 22b may be stored in an external storage device connected to the terminal device 20, or may be stored in a storage device that can communicate with the terminal device 20 via the network N.

通信部23は、例えば無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。なお、通信部23は、有線通信によってネットワークNに接続される構成でもよい。表示部24は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部21からの指示に従って各種の情報を表示する。入力部25は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部21へ送出する。表示部24及び入力部25は一体として構成されたタッチパネルであってもよい。 The communication unit 23 is an interface for connecting to the network N by, for example, wireless communication, and transmits and receives information to and from an external device via the network N. Note that the communication unit 23 may be configured to be connected to the network N through wired communication. The display unit 24 is a liquid crystal display, an organic EL display, or the like, and displays various information according to instructions from the control unit 21. The input unit 25 accepts operation input by the user, and sends a control signal corresponding to the operation content to the control unit 21. The display section 24 and the input section 25 may be a touch panel configured as one unit.

カメラ26は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して入射した光を、R(赤)、G(緑)、B(青)の各色に対応する撮像素子にて光電変換してRGBのカラー画像データを取得する。カメラ26は、制御部21からの指示に従って撮影を行い、取得した画像データ(撮影画像)を逐次記憶部22へ送出して記憶する。なお、カメラ26及び表示部24は、図1に示すように、カメラ26の撮影方向が表示部24の表示画面側となるように端末装置20に設けられており、表示部24の表示画面を視認するユーザの顔をカメラ26で撮影できるように配置されている。 The camera 26 is an imaging device having a lens, an image sensor, etc., and the light incident through the lens is photoelectrically converted by the image sensor corresponding to each color of R (red), G (green), and B (blue). to obtain RGB color image data. The camera 26 performs photography according to instructions from the control unit 21, and sequentially sends the acquired image data (photographed images) to the storage unit 22 for storage. Note that, as shown in FIG. 1, the camera 26 and the display section 24 are provided in the terminal device 20 so that the photographing direction of the camera 26 is on the display screen side of the display section 24, and the display screen of the display section 24 is The camera 26 is arranged so that the face of the user who is viewing it can be photographed.

端末装置20において、記憶部22に予め記憶される制御プログラム及びデータは、制御部21が通信部23を介してネットワークN経由で外部装置からダウンロードして記憶部22に記憶してもよい。また、端末装置20が可搬型記憶媒体に記憶された情報を読み取る読み取り部を有する場合、記憶部22に予め記憶される制御プログラム及びデータは、制御部21が読み取り部を介して可搬型記憶媒体から読み取って記憶部22に記憶してもよい。 In the terminal device 20 , the control program and data stored in advance in the storage unit 22 may be downloaded by the control unit 21 from an external device via the network N via the communication unit 23 and stored in the storage unit 22 . In addition, when the terminal device 20 has a reading unit that reads information stored in a portable storage medium, the control program and data stored in advance in the storage unit 22 are transferred to the portable storage medium by the control unit 21 through the reading unit. It may also be read from and stored in the storage unit 22.

サーバ10は、制御部11、記憶部12、通信部13、入力部14、表示部15、読み取り部16等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU、MPU又はGPU等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理、制御処理等をサーバ10に行わせる。 The server 10 includes a control section 11, a storage section 12, a communication section 13, an input section 14, a display section 15, a reading section 16, etc., and these sections are interconnected via a bus. The control unit 11 includes one or more processors such as a CPU, MPU, or GPU. The control unit 11 causes the server 10 to perform various information processing, control processing, etc. that should be performed by the information processing apparatus of the present disclosure by appropriately executing the control program 12P stored in the storage unit 12.

記憶部12は、RAM、フラッシュメモリ、ハードディスク、SSD等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部12には、後述するコンテンツDB12a、心拍変動DB12b及び感情DB12cが記憶される。コンテンツDB12a、心拍変動DB12b及び感情DB12cは、サーバ10に接続された外部の記憶装置に記憶されてもよく、ネットワークNを介してサーバ10と通信可能な記憶装置に記憶されてもよい。 The storage unit 12 includes a RAM, a flash memory, a hard disk, an SSD, and the like. The storage unit 12 stores in advance a control program 12P executed by the control unit 11 and various data necessary for executing the control program 12P. The storage unit 12 also temporarily stores data and the like generated when the control unit 11 executes the control program 12P. Furthermore, the storage unit 12 stores a content DB 12a, a heart rate fluctuation DB 12b, and an emotion DB 12c, which will be described later. The content DB 12a, heart rate variation DB 12b, and emotion DB 12c may be stored in an external storage device connected to the server 10, or may be stored in a storage device that can communicate with the server 10 via the network N.

通信部13は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。入力部14は、マウス及びキーボード等を含み、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。 The communication unit 13 is an interface for connecting to the network N by wired communication or wireless communication, and transmits and receives information to and from an external device via the network N. The input unit 14 includes a mouse, a keyboard, etc., receives operation input from the user, and sends a control signal corresponding to the operation content to the control unit 11. The display unit 15 is a liquid crystal display, an organic EL display, or the like, and displays various information according to instructions from the control unit 11.

読み取り部16は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM又はUSB(Universal Serial Bus)メモリを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に予め記憶される制御プログラム及びデータは、制御部11が読み取り部16を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に予め記憶される制御プログラム及びデータは、制御部11が通信部13を介してネットワークN経由で外部装置からダウンロードして記憶部12に記憶してもよい。更に、半導体メモリ1bから、制御部11が制御プログラム及びデータを読み出してもよい。 The reading unit 16 reads information stored in a portable storage medium 1a including a CD (Compact Disc)-ROM, a DVD (Digital Versatile Disc)-ROM, or a USB (Universal Serial Bus) memory. The control program and data stored in the storage unit 12 in advance may be read by the control unit 11 from the portable storage medium 1a via the reading unit 16 and stored in the storage unit 12. Further, the control program and data stored in advance in the storage section 12 may be downloaded by the control section 11 from an external device via the network N via the communication section 13 and stored in the storage section 12 . Furthermore, the control unit 11 may read the control program and data from the semiconductor memory 1b.

図3は、サーバ10に記憶されるDB12a~12c及び端末装置20に記憶されるDB22a~22bの構成例を示す模式図である。サーバ10に記憶されるコンテンツDB12a及び端末装置20に記憶されるコンテンツDB22aは同様の構成を有しており、図3AはコンテンツDB12a,22aを示す。またサーバ10に記憶される心拍変動DB12b及び端末装置20に記憶される心拍変動DB22bは同様の構成を有しており、図3Bは心拍変動DB12b,22bを示す。図3Cは感情DB12cを示す。 FIG. 3 is a schematic diagram showing a configuration example of the DBs 12a to 12c stored in the server 10 and the DBs 22a to 22b stored in the terminal device 20. The content DB 12a stored in the server 10 and the content DB 22a stored in the terminal device 20 have similar configurations, and FIG. 3A shows the content DBs 12a and 22a. Furthermore, the heart rate variability DB 12b stored in the server 10 and the heart rate variability DB 22b stored in the terminal device 20 have similar configurations, and FIG. 3B shows the heart rate variability DBs 12b and 22b. FIG. 3C shows the emotion DB 12c.

コンテンツDB12a,22aは、端末装置20によって再生されるコンテンツを記憶している。図3Aに示すコンテンツDB12a,22aは、コンテンツID列、コンテンツデータ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶する。コンテンツデータ列は、各コンテンツの再生用データを記憶する。コンテンツは動画コンテンツであってもよく静止画コンテンツであってもよく、再生用データはコンテンツに係る画像を表示するための表示用データである。なお、再生用データはコンテンツに係る音声を出力するための音声出力用データを含んでいてもよい。コンテンツの再生用データは、コンテンツDB12a,22aに記憶されるほかに、記憶部12,22の所定領域又は外部の記憶装置に記憶されてもよく、この場合、コンテンツデータ列は、コンテンツの再生用データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。サーバ10のコンテンツDB12aの記憶内容は、通信部13又は入力部14を介して追加、変更又は削除の指示を取得する都度、制御部11によって追加、変更又は削除される。端末装置20のコンテンツDB22aの記憶内容は、例えばネットワークN経由でサーバ10から更新用のデータを受信した場合に、制御部21によって更新される。コンテンツDB12a,22aの記憶内容は図3Aに示す例に限定されず、例えばコンテンツに付されたコンテンツ名、コンテンツの再生時間等が記憶されていてもよい。また、コンテンツDB12a,22aは異なる構成であってもよく、例えば端末装置20のコンテンツDB22aに、各コンテンツの再生順序が登録されていてもよい。 The content DBs 12a and 22a store content played by the terminal device 20. The content DBs 12a and 22a shown in FIG. 3A include a content ID string, a content data string, and the like. The content ID column stores identification information assigned in advance to each content. The content data string stores playback data for each content. The content may be video content or still image content, and the playback data is display data for displaying images related to the content. Note that the reproduction data may include audio output data for outputting audio related to the content. In addition to being stored in the content DBs 12a and 22a, content playback data may be stored in a predetermined area of the storage units 12 and 22 or in an external storage device.In this case, the content data string is Stores information for reading data (for example, a file name indicating the storage location of data). The storage contents of the content DB 12a of the server 10 are added, changed, or deleted by the control unit 11 each time an instruction for addition, change, or deletion is obtained via the communication unit 13 or the input unit 14. The storage contents of the content DB 22a of the terminal device 20 are updated by the control unit 21 when update data is received from the server 10 via the network N, for example. The content stored in the content DBs 12a and 22a is not limited to the example shown in FIG. 3A, and may also store, for example, the content name given to the content, the playback time of the content, etc. Furthermore, the content DBs 12a and 22a may have different configurations; for example, the playback order of each content may be registered in the content DB 22a of the terminal device 20.

心拍変動DB12b,22bは、端末装置20を用いてコンテンツを視聴した視聴者の情報を記憶する。図3Bに示す心拍変動DB12b,22bは、コンテンツID列、視聴ID列、年齢列、性別列、心拍変動データ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶する。視聴ID列は、各コンテンツに対する視聴処理(再生処理)毎に割り当てられた識別情報を記憶する。なお、視聴IDは、例えば各コンテンツの視聴処理(視聴者)毎に割り当てられる。年齢列及び性別列はそれぞれ、それぞれの視聴処理を行った視聴者の年齢及び性別を記憶する。心拍変動データ列は、コンテンツの視聴処理中における視聴者の心拍変動を示すデータを記憶する。心拍変動を示すデータは、心拍変動DB12b,22bに記憶されるほかに、記憶部12,22の所定領域又は外部の記憶装置に記憶されてもよく、この場合、心拍変動データ列は、心拍変動を示すデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。 The heart rate variation DBs 12b and 22b store information about viewers who have viewed content using the terminal device 20. The heart rate variation DBs 12b and 22b shown in FIG. 3B include a content ID column, a viewing ID column, an age column, a gender column, a heart rate variation data column, and the like. The content ID column stores identification information assigned in advance to each content. The viewing ID column stores identification information assigned to each viewing process (playback process) for each content. Note that the viewing ID is assigned, for example, to each viewing process (viewer) of each content. The age column and gender column each store the age and gender of the viewer who performed the respective viewing process. The heart rate variation data string stores data indicating the viewer's heart rate variation during content viewing processing. In addition to being stored in the heart rate variability DBs 12b and 22b, the data indicating heart rate variability may be stored in a predetermined area of the storage units 12 and 22 or in an external storage device. In this case, the heart rate variability data string is Stores information for reading data indicating the data (for example, a file name indicating the storage location of the data).

端末装置20の心拍変動DB22bに記憶されるコンテンツID及び視聴IDは、制御部21がコンテンツの再生処理を開始した場合に、制御部21によって記憶される。また端末装置20の心拍変動DB22bに記憶される年齢、性別及び心拍変動データは、コンテンツの再生処理中に制御部21が検出する都度、制御部21によって記憶される。端末装置20は、心拍変動DB22bに記憶した各データを、例えばコンテンツ毎又は視聴処理毎にまとめてサーバ10へ送信する。サーバ10の心拍変動DB12bの記憶内容は、制御部11が例えばネットワークN経由で端末装置20から各データを取得する都度、制御部11によって記憶される。心拍変動DB12b,22bの記憶内容は図3Bに示す例に限定されず、また、心拍変動DB12b,22bは異なる構成であってもよい。例えばサーバ10の心拍変動DB12bに、データの送信元の端末装置20の識別情報が登録されていてもよい。なお、心拍変動DB12b,22bには、コンテンツを視聴した視聴者個人を特定できない形式のデータが記憶されることが好ましい。 The content ID and viewing ID stored in the heart rate variation DB 22b of the terminal device 20 are stored by the control unit 21 when the control unit 21 starts content reproduction processing. Furthermore, the age, gender, and heart rate variation data stored in the heart rate variation DB 22b of the terminal device 20 are stored by the control unit 21 each time the control unit 21 detects the data during content playback processing. The terminal device 20 collectively transmits each data stored in the heart rate variation DB 22b to the server 10, for example, for each content or for each viewing process. The stored contents of the heart rate variation DB 12b of the server 10 are stored by the control unit 11 each time the control unit 11 acquires each data from the terminal device 20 via the network N, for example. The stored contents of the heart rate variation DBs 12b and 22b are not limited to the example shown in FIG. 3B, and the heart rate variation DBs 12b and 22b may have different configurations. For example, the heart rate variation DB 12b of the server 10 may register the identification information of the terminal device 20 that is the source of the data. Note that it is preferable that the heart rate variation DBs 12b and 22b store data in a format that does not allow identification of individual viewers who have viewed the content.

感情DB12cは、端末装置20を用いてコンテンツを視聴した視聴者の感情に関する情報を記憶する。図3Cに示す感情DB12cは、コンテンツID列、視聴ID列、年齢列、性別列、感情データ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶し、視聴ID列は、各視聴処理(再生処理)に割り当てられた識別情報を記憶し、年齢列及び性別列はそれぞれ、それぞれの視聴処理を行った視聴者の年齢及び性別を記憶する。感情データ列は、コンテンツの視聴中における視聴者の感情を示すデータを記憶し、具体的には喜び列、怒り列、悲しみ列、驚き列、嫌悪列、リラックス列等を含む。喜び列、怒り列、悲しみ列、驚き列、嫌悪列、リラックス列はそれぞれ、コンテンツの視聴中に視聴者が喜び、怒り、悲しみ、驚き、嫌悪、リラックスのそれぞれの感情について感じた可能性を示す数値を記憶する。各感情の数値は、例えばコンテンツの再生開始からの経過時間(再生時間)に対応付けて時系列的に記憶されており、コンテンツの視聴中における視聴者の感情の変化を示す。各感情を示す数値は、心拍変動DB12bに記憶された各コンテンツの視聴処理における視聴者の心拍変動データを分析して算出される。感情DB12cに記憶される感情データ以外の各データは、制御部11が、心拍変動DB12bに記憶された心拍変動データに基づいて視聴者の感情分析処理を開始した場合に、制御部11によって記憶される。また感情DB12cに記憶される感情データは、制御部11が感情分析処理によって各感情の数値を取得する都度、制御部11によって記憶される。感情DB12cの記憶内容は図3Cに示す例に限定されず、例えば各視聴処理を行った端末装置20(心拍変動データを収集した端末装置20)の識別情報が登録されていてもよい。また、感情DB12cに記憶される各感情は、図3Cに示す例に限定されない。 The emotion DB 12c stores information regarding the emotions of viewers who viewed content using the terminal device 20. The emotion DB 12c shown in FIG. 3C includes a content ID column, a viewing ID column, an age column, a gender column, an emotion data column, and the like. The content ID column stores identification information assigned in advance to each content, the viewing ID column stores identification information assigned to each viewing process (playback process), and the age column and gender column each store identification information assigned to each content. The age and gender of the viewer who performed the viewing process is stored. The emotion data sequence stores data indicating the viewer's emotions while viewing the content, and specifically includes a joy sequence, an anger sequence, a sadness sequence, a surprise sequence, a disgust sequence, a relaxation sequence, and the like. The Joy column, Anger column, Sadness column, Surprise column, Disgust column, and Relaxation column indicate the likelihood that the viewer felt each of the following emotions while watching the content: joy, anger, sadness, surprise, disgust, and relaxation. Memorize numbers. The numerical value of each emotion is stored chronologically in association with, for example, the elapsed time (playback time) from the start of content playback, and indicates changes in the viewer's emotions while viewing the content. Numerical values indicating each emotion are calculated by analyzing the viewer's heart rate variability data in the viewing process of each content stored in the heart rate variability DB 12b. Each data other than the emotion data stored in the emotion DB 12c is stored by the control unit 11 when the control unit 11 starts viewer emotion analysis processing based on the heart rate variability data stored in the heart rate variability DB 12b. Ru. Further, the emotion data stored in the emotion DB 12c is stored by the control unit 11 each time the control unit 11 acquires a numerical value of each emotion through emotion analysis processing. The memory contents of the emotion DB 12c are not limited to the example shown in FIG. 3C, and for example, identification information of the terminal device 20 that performed each viewing process (the terminal device 20 that collected the heart rate variability data) may be registered. Furthermore, each emotion stored in the emotion DB 12c is not limited to the example shown in FIG. 3C.

次に、端末装置20の制御部21が制御プログラム22Pを実行することによって実現される機能について説明する。図4は、端末装置20の制御部21によって実現される機能を示すブロック図、図5は、端末装置20による処理の説明図である。端末装置20の制御部21は、記憶部22に記憶してある制御プログラム22Pを実行した場合、コンテンツ再生部201、撮影部202、属性判定部203、ヘモグロビン画像生成部204、心拍データ生成部205、心拍変動データ生成部206、出力部207の各機能を実現する。なお、本実施形態では、これらの各機能を制御部21が制御プログラム22Pを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。 Next, functions realized by the control unit 21 of the terminal device 20 executing the control program 22P will be described. FIG. 4 is a block diagram showing functions realized by the control unit 21 of the terminal device 20, and FIG. 5 is an explanatory diagram of processing by the terminal device 20. When the control unit 21 of the terminal device 20 executes the control program 22P stored in the storage unit 22, the content playback unit 201, the photography unit 202, the attribute determination unit 203, the hemoglobin image generation unit 204, and the heartbeat data generation unit 205 , heart rate variability data generation section 206, and output section 207. In this embodiment, each of these functions is realized by the control unit 21 executing the control program 22P, but some of these functions may be realized by a dedicated hardware circuit.

端末装置20において記憶部22には、図3Aに示すようなコンテンツDB22aと、図3Bに示す構成においてコンテンツIDのみが記憶された心拍変動DB22bとが格納されているものとする。なお、心拍変動DB22bは、コンテンツIDも記憶されていない状態であってもよい。 It is assumed that the storage unit 22 of the terminal device 20 stores a content DB 22a as shown in FIG. 3A and a heart rate variation DB 22b in which only content IDs are stored in the configuration shown in FIG. 3B. Note that the heart rate variation DB 22b may be in a state in which no content ID is stored.

コンテンツ再生部201は、コンテンツDB22aに記憶されているコンテンツの再生用データに基づいてコンテンツを再生する(コンテンツに係る画像を表示部24に表示する)。なお、再生用データにコンテンツに係る音声を出力するための音声出力用データが含まれる場合、コンテンツ再生部201は、音声出力用データに基づいてコンテンツに係る音声をスピーカ(図示せず)から出力する。コンテンツ再生部201は、コンテンツDB22aに記憶されている順に各コンテンツを再生してもよいし、コンテンツDB22aに再生順序が登録されている場合には、登録された再生順序で各コンテンツを再生してもよい。コンテンツ再生部201は、コンテンツの再生処理を開始した場合、このコンテンツのコンテンツIDに対応付けて、視聴IDを心拍変動DB22bに記憶する。なお、視聴IDは、各コンテンツにおいてそれぞれの視聴処理間で重複しないIDであればどのような情報でもよい。 The content playback unit 201 plays back content based on content playback data stored in the content DB 22a (displays images related to the content on the display unit 24). Note that when the playback data includes audio output data for outputting audio related to the content, the content playback unit 201 outputs the audio related to the content from a speaker (not shown) based on the audio output data. do. The content reproduction unit 201 may reproduce each content in the order stored in the content DB 22a, or if the reproduction order is registered in the content DB 22a, the content reproduction unit 201 may reproduce each content in the registered reproduction order. Good too. When the content playback unit 201 starts content playback processing, it stores the viewing ID in the heart rate variation DB 22b in association with the content ID of this content. Note that the viewing ID may be any information as long as it is an ID that does not overlap between viewing processes for each content.

撮影部(取得部)202は、コンテンツ再生部201がコンテンツの再生処理を開始した場合、カメラ26による撮影を開始し、表示部24に表示されるコンテンツを視聴する視聴者の顔の顔画像(カラーの顔画像データ)を取得する。撮影部202は、例えば1秒間に30枚(30フレーム)の顔画像を取得し、取得した顔画像を例えば記憶部22に順次記憶しておく。 When the content playback unit 201 starts content playback processing, the shooting unit (acquisition unit) 202 starts shooting with the camera 26 and captures a facial image (of the face of the viewer viewing the content displayed on the display unit 24). (color facial image data). The photographing unit 202 acquires, for example, 30 facial images (30 frames) per second, and sequentially stores the acquired facial images in the storage unit 22, for example.

属性判定部203は、撮影部202が取得した顔画像(顔画像データ)に基づいて、この顔画像の被写体である人の属性を判定する。属性判定部203は例えばテンプレートマッチング技術によって顔画像中の被写体の属性を判定する。具体的には、年齢(年齢層)及び性別を含む人の属性毎に、各属性の人の一般的な顔又は顔の各器官の画像に基づくテンプレートを予め記憶部22に記憶しておき、属性判定部203は、顔画像にいずれかのテンプレートに一致する領域があるか否かを検知し、一致する領域を検知した場合、一致したテンプレートに対応付けられた属性を、ここでの被写体の属性に判定する。属性判定部203は、被写体の属性を判定した場合、再生中のコンテンツのコンテンツIDと実行中の再生処理(視聴処理)の視聴IDとに対応付けて、判定した属性(年齢及び性別)を心拍変動DB22bに記憶する。 The attribute determining unit 203 determines the attributes of the person who is the subject of the facial image, based on the facial image (facial image data) acquired by the photographing unit 202. The attribute determination unit 203 determines the attributes of the subject in the face image using, for example, template matching technology. Specifically, for each attribute of a person including age (age group) and gender, a template based on an image of a general face or each facial organ of a person of each attribute is stored in advance in the storage unit 22, The attribute determination unit 203 detects whether or not there is a region matching any template in the face image, and when a matching region is detected, the attribute determination unit 203 sets the attribute associated with the matching template to that of the subject. Determine the attribute. When determining the attributes of the subject, the attribute determining unit 203 associates the determined attributes (age and gender) with the content ID of the content being played and the viewing ID of the currently executing playback process (viewing process), and calculates the determined attributes (age and gender). It is stored in the fluctuation DB 22b.

ヘモグロビン画像生成部(抽出部)204は、撮影部202が取得した顔画像(顔画像データ)に対して色素成分分離処理を行い、ヘモグロビンに対応する色素成分を抽出してヘモグロビン画像(ヘモグロビン成分の顔画像データ)を生成する。なお、ヘモグロビン画像生成部204は、撮影部202が取得した顔画像から被写体の顔領域を検出し、検出した顔領域に対してのみ色素成分分離を行ってヘモグロビン画像を生成すればよい。この場合、ヘモグロビン画像生成部204は、例えば顔領域以外の領域(背景領域)における各画素の画素値を全て0にしてもよい。 The hemoglobin image generation unit (extraction unit) 204 performs pigment component separation processing on the facial image (facial image data) acquired by the imaging unit 202, extracts the pigment component corresponding to hemoglobin, and extracts the pigment component corresponding to hemoglobin to form a hemoglobin image (hemoglobin component facial image data). Note that the hemoglobin image generation unit 204 may detect the face area of the subject from the face image acquired by the imaging unit 202, perform pigment component separation only on the detected face area, and generate a hemoglobin image. In this case, the hemoglobin image generation unit 204 may set all pixel values of pixels in a region other than the face region (background region) to 0, for example.

心拍データ生成部205は、ヘモグロビン画像生成部204が生成したヘモグロビン画像に基づいて、被写体の人の心拍を示す心拍データ(脈波データ)を生成する。具体的には、心拍データ生成部205は、順次生成されるヘモグロビン画像において、被写体の顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、それぞれのヘモグロビン画像における平均画素値の時間変化を心拍データとして生成する。なお、ヘモグロビン成分の成分量は血流量を表すので、ヘモグロビン成分の成分量に基づいて心拍を推定できる。図5Aは心拍データの一例を示し、図5Aに示す心拍データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸をヘモグロビン画像における平均画素値として示されている。心拍データ生成部205は、ヘモグロビン画像において被写体の顔領域に含まれる全画素の平均画素値の代わりに、顔領域の一部に含まれる画素の平均画素値を算出して心拍データを生成してもよい。例えば、制御部21は、撮影部202が取得した顔画像に基づいて、被写体の人の目、鼻、口等の器官を検出し、例えば額、頬、口の回り等の所定領域を特定する。そして、心拍データ生成部205は、ヘモグロビン画像において、特定された額、頬、口の回り等の所定領域に含まれる画素の平均画素値を算出して心拍データを生成してもよい。このように、顔領域の全体における平均画素値の代わりに、所定領域における平均画素値を用いることにより、撮影条件の影響を抑制して精度の高い心拍データを生成できる。 The heartbeat data generation unit 205 generates heartbeat data (pulse wave data) indicating the heartbeat of the human subject based on the hemoglobin image generated by the hemoglobin image generation unit 204. Specifically, the heart rate data generation unit 205 calculates the average value (average pixel value) of the pixel value (component amount of hemoglobin component) of each pixel in the face area of the subject in the sequentially generated hemoglobin images, The time change of the average pixel value in each hemoglobin image is generated as heartbeat data. Note that since the amount of the hemoglobin component represents the blood flow rate, the heartbeat can be estimated based on the amount of the hemoglobin component. FIG. 5A shows an example of heartbeat data, and the heartbeat data shown in FIG. 5A is shown with the horizontal axis representing the elapsed time from the start of content reproduction, and the vertical axis representing the average pixel value in the hemoglobin image. The heartbeat data generation unit 205 generates heartbeat data by calculating the average pixel value of pixels included in a part of the face area of the subject in the hemoglobin image instead of the average pixel value of all pixels included in the face area of the subject. Good too. For example, the control unit 21 detects organs such as the eyes, nose, and mouth of the subject based on the facial image acquired by the imaging unit 202, and specifies predetermined areas such as the forehead, cheeks, and around the mouth. . Then, the heartbeat data generation unit 205 may generate heartbeat data by calculating the average pixel value of pixels included in the identified predetermined area such as the forehead, cheeks, and around the mouth in the hemoglobin image. In this way, by using the average pixel value in a predetermined area instead of the average pixel value in the entire face area, it is possible to suppress the influence of imaging conditions and generate highly accurate heartbeat data.

心拍データ生成部205は、図5Aに示すような心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対してフィルタ処理を行い、図5Bに示すような心拍データを生成する。図5Bに示す心拍データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸をフィルタ処理後の平均画素値として示されている。心拍データ生成部205は、例えば傾き除去処理及びバンドパスフィルタ処理等のフィルタ処理を行うが、これらの処理に限定されない。心拍データ生成部205は、後段の心拍変動データ生成部206が精度の高い心拍変動データを生成できるような心拍データが得られる各種処理を行えばよい。 The heartbeat data generation unit 205 performs filter processing on heartbeat data (temporal change in average pixel value in a hemoglobin image) as shown in FIG. 5A, and generates heartbeat data as shown in FIG. 5B. The heartbeat data shown in FIG. 5B is shown with the horizontal axis representing the elapsed time from the start of content reproduction, and the vertical axis representing the average pixel value after filter processing. The heartbeat data generation unit 205 performs filter processing such as slope removal processing and band-pass filter processing, but is not limited to these processings. The heart rate data generation unit 205 may perform various processes to obtain heart rate data that allows the subsequent heart rate variation data generation unit 206 to generate highly accurate heart rate variation data.

心拍変動データ生成部206は、心拍データ生成部205が生成した心拍データに対して周波数変換処理を行い、被写体の人の心拍変動を示す心拍変動データを生成する。心拍変動データ生成部206は、時系列の心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対して、例えばフーリエパワースペクトル変換を行うことによって周波数領域の心拍変動スペクトログラムデータを生成する。なお、心拍変動スペクトログラムデータは、例えば心拍変動周波数の時間変化を示すデータであり、図5Cは心拍変動スペクトログラムデータの一例を示す。図5Cに示す心拍変動データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸を変動周波数として示されている。フーリエパワースペクトル変換においては、0.75Hz~3Hz(心拍数が45bpm~180bpm)における最大のパワースペクトルを脈拍と判断する。心拍変動データ生成部206は、生成した心拍変動データ(心拍変動スぺクトログラムデータ)を、再生中のコンテンツのコンテンツID及び実行中の視聴処理の視聴IDに対応付けて心拍変動DB22bに記憶する。 The heart rate variability data generation unit 206 performs frequency conversion processing on the heart rate data generated by the heart rate data generation unit 205, and generates heart rate variability data indicating the heart rate variability of the subject. The heart rate variability data generation unit 206 generates frequency domain heart rate variability spectrogram data by performing, for example, Fourier power spectrum transform on time-series heart rate data (temporal changes in average pixel values in a hemoglobin image). Note that the heart rate variability spectrogram data is, for example, data indicating a temporal change in the heart rate variability frequency, and FIG. 5C shows an example of the heart rate variability spectrogram data. The heart rate variation data shown in FIG. 5C is shown with the horizontal axis representing the elapsed time from the start of content reproduction, and the vertical axis representing the fluctuation frequency. In Fourier power spectrum transformation, the maximum power spectrum between 0.75 Hz and 3 Hz (heart rate between 45 bpm and 180 bpm) is determined to be a pulse. The heart rate variability data generation unit 206 stores the generated heart rate variability data (heart rate variability spectrogram data) in the heart rate variability DB 22b in association with the content ID of the content being played and the viewing ID of the viewing process being executed. .

ヘモグロビン画像生成部204、心拍データ生成部205及び心拍変動データ生成部206は、撮影部202が被写体(視聴者)の顔画像データを取得する都度、取得した顔画像データに対して上述した各処理を行う。よって、コンテンツ再生部201が1つのコンテンツの再生処理を1回行った場合に、再生されたコンテンツに対応する心拍変動データが生成されて心拍変動DB22bに記憶される。 Each time the imaging unit 202 acquires facial image data of a subject (viewer), the hemoglobin image generating unit 204, heart rate data generating unit 205, and heart rate variability data generating unit 206 perform the above-mentioned processing on the acquired facial image data. I do. Therefore, when the content reproduction unit 201 performs reproduction processing of one content once, heart rate variation data corresponding to the reproduced content is generated and stored in the heart rate variation DB 22b.

出力部207は、心拍変動DB22bに蓄積された各コンテンツに対応する心拍変動データを通信部23からサーバ10へ送信する。具体的には、出力部207は、各コンテンツの1回の再生処理毎に、再生されたコンテンツのコンテンツID、実行された再生処理(視聴処理)の視聴ID、視聴者の年齢、性別及び心拍変動データを心拍変動DB22bから読み出し、まとめてサーバ10へ送信する。なお、出力部207は、例えばサーバ10から心拍変動データの出力要求を受け付けた場合に、それまでに心拍変動DB22bに蓄積した各コンテンツの心拍変動データをサーバ10へ送信する。サーバ10は、出力部207が送信したコンテンツID、視聴ID、年齢、性別及び心拍変動データを受信し、それぞれを対応付けて心拍変動DB12bに記憶する。これにより、端末装置20で取得された視聴者の心拍変動データがサーバ10に蓄積される。なお、出力部207は、コンテンツを特定するための情報(コンテンツ情報)と、視聴者の属性に関する情報と共に心拍変動データをサーバ10へ送信すればよい。 The output unit 207 transmits heart rate variation data corresponding to each content stored in the heart rate variation DB 22b from the communication unit 23 to the server 10. Specifically, for each reproduction process of each content, the output unit 207 outputs the content ID of the reproduced content, the viewing ID of the executed reproduction process (viewing process), the age, gender, and heart rate of the viewer. The fluctuation data is read from the heart rate fluctuation DB 22b and sent to the server 10 all at once. Note that, for example, when the output unit 207 receives a request to output heart rate variability data from the server 10, it transmits the heart rate variability data of each content that has been accumulated in the heart rate variability DB 22b to the server 10. The server 10 receives the content ID, viewing ID, age, gender, and heart rate variation data transmitted by the output unit 207, and stores them in the heart rate variation DB 12b in association with each other. Thereby, the viewer's heart rate variability data acquired by the terminal device 20 is accumulated in the server 10. Note that the output unit 207 may transmit the heart rate variability data to the server 10 together with information for specifying the content (content information) and information regarding the viewer's attributes.

本実施形態の端末装置20では、撮影部202は、取得した顔画像データを逐次記憶部22に記憶し、ヘモグロビン画像生成部204は、記憶部22に記憶された顔画像データを読み出してヘモグロビン画像の生成処理を行う。ヘモグロビン画像が生成された顔画像データは以降の処理では必要ないので、制御部(消去部)21は、ヘモグロビン画像生成部204がヘモグロビン画像を生成した後、顔画像データを記憶部22から消去(削除)してもよい。なお、制御部21は、例えば出力部207が心拍変動データをサーバ10へ送信した後に、この心拍変動データを生成する際に用いた顔画像データを記憶部22から消去する構成でもよい。このように視聴者個人を特定できる顔画像データを記憶部22から消去することによって、端末装置20に個人情報が残ることを防止できる。 In the terminal device 20 of this embodiment, the photographing unit 202 sequentially stores the acquired face image data in the storage unit 22, and the hemoglobin image generation unit 204 reads out the face image data stored in the storage unit 22 and generates a hemoglobin image. Performs the generation process. Since the facial image data for which the hemoglobin image has been generated is not needed in subsequent processing, the control unit (erasing unit) 21 erases the facial image data from the storage unit 22 after the hemoglobin image generating unit 204 generates the hemoglobin image. (deletion). Note that the control unit 21 may be configured to delete, from the storage unit 22, the facial image data used when generating the heart rate variation data, for example, after the output unit 207 transmits the heart rate variation data to the server 10. By deleting facial image data that can identify individual viewers from the storage unit 22 in this way, it is possible to prevent personal information from remaining on the terminal device 20.

次に、サーバ10の制御部11が制御プログラム12Pを実行することによって実現される機能について説明する。図6は、サーバ10の制御部11によって実現される機能を示すブロック図、図7は、画面例を示す模式図である。サーバ10の制御部11は、記憶部12に記憶してある制御プログラム12Pを実行した場合、心拍変動データ取得部101、心拍変動データ記憶部102、感情分析部103、レポート生成部104、出力部105の各機能を実現する。なお、これらの各機能の一部を専用のハードウェア回路で実現してもよい。 Next, functions realized by the control unit 11 of the server 10 executing the control program 12P will be described. FIG. 6 is a block diagram showing functions realized by the control unit 11 of the server 10, and FIG. 7 is a schematic diagram showing an example of a screen. When the control unit 11 of the server 10 executes the control program 12P stored in the storage unit 12, the control unit 11 executes the control program 12P stored in the storage unit 12. 105 functions are realized. Note that a part of each of these functions may be realized by a dedicated hardware circuit.

心拍変動データ取得部(データ取得部)101は、端末装置20(出力部207)が送信した心拍変動データを通信部13にて取得する。具体的には、心拍変動データ取得部101は、端末装置20から各コンテンツの1回の再生処理毎に、再生されたコンテンツのコンテンツID、実行された再生処理の視聴ID、視聴者の年齢、性別及び心拍変動データをまとめて取得する。心拍変動データ記憶部102は、心拍変動データ取得部101が取得したコンテンツID、視聴ID、年齢、性別及び心拍変動データを対応付けて心拍変動DB12bに記憶する。心拍変動データ記憶部102は、心拍変動データ取得部101がいずれかの端末装置20から心拍変動データを取得する都度、取得した心拍変動データを心拍変動DB12bに記憶する。これにより、複数の端末装置20のそれぞれにおいてコンテンツの再生中に取得(収集)された視聴者の心拍変動データをサーバ10に蓄積することができる。 The heart rate variability data acquisition unit (data acquisition unit) 101 acquires heart rate variability data transmitted by the terminal device 20 (output unit 207) through the communication unit 13. Specifically, the heart rate variability data acquisition unit 101 receives the content ID of the reproduced content, the viewing ID of the executed reproduction process, the age of the viewer, Obtain gender and heart rate variability data all at once. The heart rate variability data storage section 102 associates the content ID, viewing ID, age, gender, and heart rate variability data acquired by the heart rate variability data acquisition section 101 and stores them in the heart rate variability DB 12b. The heart rate variability data storage unit 102 stores the acquired heart rate variability data in the heart rate variability DB 12b each time the heart rate variability data acquisition unit 101 acquires heart rate variability data from any of the terminal devices 20. Thereby, the viewer's heart rate variability data acquired (collected) during the reproduction of the content on each of the plurality of terminal devices 20 can be stored in the server 10.

感情分析部103は、心拍変動DB12bに記憶した心拍変動データに基づいて、各視聴者の感情を分析し、各視聴者の感情を示す感情データを生成する。感情分析部103は例えば、喜び、怒り、悲しみ、驚き、嫌悪、リラックスの各感情(感情パラメータ)について、それぞれの程度を示す数値(スコア、分析値)を、例えば10点満点で取得(算出)する。なお、各感情の程度が高い程大きい値とする。感情分析部103は、心拍変動データにおいて、例えばコンテンツの再生開始から所定時間(例えば1/30秒)毎における変動周波数に基づいて対応する各感情の数値を決定し、コンテンツの視聴中の各感情の時間変化を示す感情データを生成する。具体的には、例えば変動周波数における各周波数帯毎に各感情の程度を示す数値を予め設定しておき、感情分析部103は、心拍変動データにおいて、コンテンツの再生開始から所定時間毎の変動周波数の値に対応する周波数帯に設定された各感情の数値を、この時点での感情の程度を示す数値に決定する。例えばリラックスの感情について、0.05Hz~0.15Hzの周波数帯に、リラックスの程度が低いことを示す数値(例えば0に近い値)が設定され、0.15Hz~0.4Hzの周波数帯に、リラックスの程度が高いことを示す数値(例えば10に近い値)が設定されてもよい。なお、それぞれの周波数帯において、段階的に増減する数値が設定されてもよい。また、感情毎に各感情の程度を示す数値に対応する周波数帯を設定しておいても、感情分析部103は同様に、コンテンツの再生開始から所定時間毎の変動周波数に対応する各感情の程度を示す数値を特定できる。 The emotion analysis unit 103 analyzes the emotions of each viewer based on the heart rate fluctuation data stored in the heart rate fluctuation DB 12b, and generates emotion data indicating the emotions of each viewer. For example, the emotion analysis unit 103 acquires (calculates) numerical values (scores, analysis values) indicating the degree of each emotion (emotion parameter), such as joy, anger, sadness, surprise, disgust, and relaxation, on a scale of 10 points, for example. do. Note that the higher the degree of each emotion, the larger the value. The emotion analysis unit 103 determines the numerical value of each emotion in the heart rate variation data based on the frequency of fluctuation at every predetermined time (for example, 1/30 seconds) from the start of content playback, and determines the numerical value of each emotion while viewing the content. Generate emotional data that shows changes over time. Specifically, for example, a numerical value indicating the degree of each emotion is set in advance for each frequency band in the fluctuation frequency, and the emotion analysis unit 103 calculates the fluctuation frequency every predetermined time from the start of content playback in the heart rate fluctuation data. The numerical value of each emotion set in the frequency band corresponding to the value of is determined to be a numerical value indicating the degree of emotion at this point. For example, regarding the feeling of relaxation, a value indicating a low degree of relaxation (for example, a value close to 0) is set in the frequency band of 0.05Hz to 0.15Hz, and a value indicating a low degree of relaxation is set in the frequency band of 0.15Hz to 0.4Hz. A numerical value indicating a high degree of relaxation (for example, a value close to 10) may be set. Note that a numerical value that increases or decreases in steps may be set for each frequency band. Furthermore, even if a frequency band corresponding to a numerical value indicating the degree of each emotion is set for each emotion, the emotion analysis unit 103 similarly performs a frequency band corresponding to a numerical value indicating the degree of each emotion. You can specify the numerical value that indicates the degree.

感情分析部103は、感情の分析処理を行う場合、心拍変動DB12bからコンテンツID、視聴ID、年齢、性別及び心拍変動データを読み出し、読み出したコンテンツID、視聴ID、年齢及び性別を対応付けて感情DB12cに記憶する。そして、感情分析部103は、心拍変動データに基づいてコンテンツの再生開始から所定時間毎の感情の分析を行い、分析の結果得られた各感情の感情データを、先に記憶したコンテンツID、視聴ID、年齢及び性別に対応付けて感情DB12cに記憶する。これにより、コンテンツの再生中(視聴中)における視聴者の各感情の時間変化を示す感情データが生成されて感情DB12cに記憶される。なお、感情分析部103は、逆変換処理によって心拍変動データから心拍データ(脈波データ)を生成し、心拍データに基づいて視聴者の感情を分析し、視聴者の感情を示す感情データを生成してもよい。例えば感情分析部103は、心拍データにおいて心拍数のピーク値やピーク間の時間等を検出し、これらの検出結果に基づいて各感情の程度を判定してもよい。この場合にも、心拍データにおける心拍数のピーク値やピーク間の時間等に各感情の程度を示す数値を予め設定しておくことにより、感情分析部103は、コンテンツの再生開始から所定時間毎における心拍数のピーク値やピーク間の時間等に対応する各感情の数値を特定できる。また、感情毎に各感情の程度を示す数値に対応付けて、一般的な心拍数のピーク値やピーク間の時間等を予め設定しておくことにより、感情分析部103は、コンテンツの再生開始から所定時間毎における心拍数のピーク値やピーク間の時間等に対応する各感情の程度を示す数値を特定できる。 When performing emotion analysis processing, the emotion analysis unit 103 reads the content ID, viewing ID, age, gender, and heart rate variability data from the heart rate fluctuation DB 12b, associates the read content ID, viewing ID, age, and gender, and calculates the emotion. Store in DB12c. Then, the emotion analysis unit 103 analyzes emotions at predetermined time intervals from the start of content playback based on the heart rate variation data, and uses the previously stored content ID, viewing and listening emotion data for each emotion obtained as a result of the analysis. It is stored in the emotion DB 12c in association with the ID, age, and gender. As a result, emotion data indicating temporal changes in each emotion of the viewer during reproduction (viewing) of the content is generated and stored in the emotion DB 12c. Note that the emotion analysis unit 103 generates heart rate data (pulse wave data) from heart rate variation data through inverse conversion processing, analyzes the viewer's emotions based on the heart rate data, and generates emotional data indicating the viewer's emotions. You may. For example, the emotion analysis unit 103 may detect the peak value of heart rate, the time between peaks, etc. in heart rate data, and determine the degree of each emotion based on these detection results. In this case as well, by presetting numerical values indicating the degree of each emotion in the peak value of the heart rate, the time between peaks, etc. in the heart rate data, the emotion analysis unit 103 can analyze the emotion at predetermined intervals from the start of content playback. It is possible to specify the numerical value of each emotion corresponding to the peak value of heart rate, the time between peaks, etc. Furthermore, by presetting general heart rate peak values, time between peaks, etc. in association with numerical values indicating the degree of each emotion, the emotion analysis unit 103 can start playing the content. From this, it is possible to specify numerical values indicating the degree of each emotion corresponding to the peak value of the heart rate at each predetermined time, the time between peaks, etc.

レポート生成部104は、感情DB12cに蓄積された感情データに基づいて、各コンテンツに対する視聴者の感情レポートを生成する。例えばレポート生成部104は、感情レポートを生成すべきコンテンツのコンテンツID及びコンテンツデータ(再生用データ)をコンテンツDB12aから読み出し、このコンテンツに対する全ての感情データを感情DB12cから読み出す。レポート生成部104は、DB12a,12cから読み出した各情報に基づいて、図7A,Bに示すような感情レポートを表示するための表示データを生成する。図7A,Bはそれぞれ、感情レポートに基づく表示画面の例を示す。図7Aに示す画面は、分析対象のコンテンツのコンテンツID、コンテンツ名及び再生時間を表示する。コンテンツ名及び再生時間は、例えばコンテンツDB12aに記憶されており、レポート生成部104がコンテンツDB12aから読み出す。また図7Aに示す画面は、コンテンツ領域R1、ボタン領域R2及びレポート領域R3を有し、コンテンツ領域R1には、コンテンツDB12aから読み出したコンテンツデータが再生(表示)される。ボタン領域R2には、コンテンツ領域R1で再生されるコンテンツに対して再生指示、停止指示、早送り指示、早戻し指示等の操作を受け付けるボタンが表示される。またボタン領域R2には、コンテンツ領域R1に表示中の画像(場面)におけるコンテンツの再生開始からの経過時間を示すインジケータが表示されており、インジケータの下部には、表示中の場面における再生開始からの経過時間が表示されている。なお、インジケータは、コンテンツ領域R1で再生が開始(再開)される時点として、コンテンツの再生開始から再生終了までの間の任意の時点を受け付けることができ、インジケータが任意の時点を受け付けた場合、コンテンツ領域R1には、インジケータが受け付けた時点からコンテンツが再生される。 The report generation unit 104 generates a viewer's emotion report for each content based on the emotion data accumulated in the emotion DB 12c. For example, the report generation unit 104 reads the content ID and content data (data for reproduction) of the content for which an emotion report is to be generated from the content DB 12a, and reads all emotion data for this content from the emotion DB 12c. The report generation unit 104 generates display data for displaying emotion reports as shown in FIGS. 7A and 7B based on each piece of information read from the DBs 12a and 12c. FIGS. 7A and 7B each show examples of display screens based on emotion reports. The screen shown in FIG. 7A displays the content ID, content name, and playback time of the content to be analyzed. The content name and playback time are stored, for example, in the content DB 12a, and the report generation unit 104 reads them from the content DB 12a. Further, the screen shown in FIG. 7A has a content area R1, a button area R2, and a report area R3, and content data read from the content DB 12a is reproduced (displayed) in the content area R1. In the button area R2, buttons are displayed that accept operations such as a playback instruction, a stop instruction, a fast-forward instruction, and a fast-reverse instruction for the content being played in the content area R1. In addition, an indicator indicating the elapsed time since the start of playback of the content in the image (scene) currently being displayed in the content area R1 is displayed in the button area R2, and an indicator at the bottom of the indicator indicates the elapsed time since the start of playback in the scene currently being displayed. The elapsed time is displayed. Note that the indicator can accept any point in time between the start of playback and the end of playback of the content as the point in time when playback starts (resumes) in the content area R1, and when the indicator accepts any point in time, Content is reproduced in the content area R1 from the time when the indicator is received.

レポート領域R3には、コンテンツ領域R1で再生されるコンテンツに対する各感情のレポートが表示される。図7Aに示す感情レポートを生成する場合、レポート生成部104は、感情DB12cから読み出したコンテンツに対する全ての感情データに基づいて、コンテンツの再生開始から所定時間毎の各感情の数値の平均値を算出し、各感情について、コンテンツを視聴した視聴者の平均値(平均的な度合)の時間変化(分析値)を示す感情レポートを生成する。図7Aに示す感情レポートは、それぞれの感情の程度を縦長の矩形による感情ゲージで示しており、感情ゲージの下端は最低値を示し、上端は最高値を示し、下端からの色領域(図7Aではハッチング領域)の大きさによって感情の程度を示す。図7Aに示す画面は例えば、コンテンツ領域R1で再生されるコンテンツの再生タイミング(再生開始からの経過時間)と、レポート領域R3に表示される各感情の出現タイミング(視聴者が各感情を抱いたタイミング)とを同期して表示する。即ち、各感情に対する分析値とコンテンツとが、コンテンツの再生開始からの経過時間に同期して表示される。よって、コンテンツの再生タイミングのそれぞれにおける各感情の程度を容易に把握できる。即ち、コンテンツの各場面における視聴者の感情及び感情の変化を容易に把握できる。なお、レポート生成部104は、感情DB12cから読み出した全ての視聴者の感情データ(各感情の数値)の平均値に基づいて各感情の感情レポートを生成するほかに、各感情について視聴者の属性(年齢及び性別)毎の感情レポートを生成してもよい。この場合、レポート生成部104は、所定の属性の視聴者の感情データを感情DB12cから読み出し、読み出した感情データ(各感情の数値)の平均値に基づいて各感情の感情レポートを生成する。 In the report area R3, a report of each emotion regarding the content played in the content area R1 is displayed. When generating the emotion report shown in FIG. 7A, the report generation unit 104 calculates the average value of the numerical value of each emotion at every predetermined time from the start of content playback, based on all the emotion data for the content read from the emotion DB 12c. Then, for each emotion, an emotion report is generated that shows the time change (analytical value) of the average value (average degree) of the viewers who viewed the content. The emotion report shown in FIG. 7A shows the degree of each emotion using an emotion gauge made of vertically long rectangles. The degree of emotion is indicated by the size of the hatched area. The screen shown in FIG. 7A shows, for example, the playback timing (elapsed time from the start of playback) of the content played in the content area R1 and the appearance timing of each emotion displayed in the report area R3 (when the viewer feels each emotion). timing). That is, the analysis value for each emotion and the content are displayed in synchronization with the elapsed time from the start of reproduction of the content. Therefore, the degree of each emotion at each content reproduction timing can be easily grasped. That is, it is possible to easily grasp the viewer's emotions and changes in emotions in each scene of the content. Note that the report generation unit 104 generates an emotion report for each emotion based on the average value of the emotion data (numerical values for each emotion) of all viewers read from the emotion DB 12c, and also generates an emotion report for each emotion based on the viewer's attributes for each emotion. Emotion reports for each (age and gender) may be generated. In this case, the report generation unit 104 reads emotion data of the viewer with a predetermined attribute from the emotion DB 12c, and generates an emotion report for each emotion based on the average value of the read emotion data (numerical values for each emotion).

図7Bに示す画面は、分析対象のコンテンツのコンテンツID、コンテンツ名及び再生時間と、コンテンツに対する各感情について属性(年齢及び性別)毎の感情レポートを表示する。図7Bに示す感情レポートを生成する場合、レポート生成部104は、感情DB12cに蓄積してあるコンテンツに対する感情データを、属性毎に読み出す。属性は、例えば10代の男女を示すT層、20歳~34歳の男性を示すM1層、35歳~49歳の男性を示すM2層、50歳以上の男性を示すM3層、20歳~34歳の女性を示すF1層、35歳~49歳の女性を示すF2層、50歳以上の女性を示すF3層に区分できるが、これらの区分に限定されない。レポート生成部104は、属性毎に各属性の視聴者の感情データを感情DB12cから読み出す。レポート生成部104は、属性毎に読み出した感情データから、それぞれの属性について各感情の最大値を抽出する。レポート生成部104は、各感情について、属性毎に抽出した最大値を、それぞれの属性に対応付けて表示するグラフ(感情レポート)を生成する。図7Bに示す感情レポートでは、例えば実線は喜びの感情について属性毎の最大値を示しており、破線は悲しみの感情について属性毎の最大値を示している。 The screen shown in FIG. 7B displays the content ID, content name, and playback time of the content to be analyzed, and an emotion report for each attribute (age and gender) for each emotion regarding the content. When generating the emotion report shown in FIG. 7B, the report generation unit 104 reads emotion data for the content stored in the emotion DB 12c for each attribute. The attributes are, for example, the T stratum representing men and women in their teens, the M1 stratum representing men between the ages of 20 and 34, the M2 stratum representing men between the ages of 35 and 49, the M3 stratum representing men over the age of 50, and the M3 stratum representing men between the ages of 20 and 34. It can be divided into the F1 group, which represents women aged 34, the F2 group, which represents women between 35 and 49 years old, and the F3 group, which represents women aged 50 and older, but is not limited to these classifications. The report generation unit 104 reads emotional data of viewers of each attribute from the emotion DB 12c. The report generation unit 104 extracts the maximum value of each emotion for each attribute from the emotion data read for each attribute. The report generation unit 104 generates a graph (emotion report) that displays the maximum value extracted for each attribute for each emotion in association with each attribute. In the emotion report shown in FIG. 7B, for example, the solid line indicates the maximum value for each attribute for the emotion of joy, and the broken line indicates the maximum value for each attribute for the emotion of sadness.

なお、レポート生成部104は、各感情について属性毎の最大値を示す感情レポートを生成するほかに、各感情について属性毎の平均値を示す感情レポートを生成してもよい。この場合、レポート生成部104は、属性毎に読み出した感情データに基づいて、例えばそれぞれの視聴者における各感情の数値の平均値を算出し、更に全ての視聴者における各感情の数値の平均値を算出する。これにより、それぞれの属性について、コンテンツに対する各感情における全視聴者の平均値(平均的な度合)が得られる。レポート生成部104は、各感情について属性毎に算出した平均値をそれぞれの属性に対応付けて表示するグラフ(感情レポート)を生成する。この場合にも、図7Bに示すようなグラフで属性毎の各感情の平均値を表示できる。また、図7Bに示す画面において、コンテンツ全体における感情の最大値や平均値を示す感情レポートの代わりに、コンテンツの再生開始からの経過時間帯毎における感情の最大値や平均値を示す感情レポートを表示してもよい。更に、図7Bに示す画面に、図7Aと同様に、コンテンツが再生されるコンテンツ領域や、再生されるコンテンツに対して再生指示、停止指示、早送り指示、早戻し指示等の操作を受け付けるボタンが表示されるボタン領域等を設けてもよい。 Note that, in addition to generating an emotion report indicating the maximum value for each attribute for each emotion, the report generation unit 104 may also generate an emotion report indicating the average value for each attribute for each emotion. In this case, the report generation unit 104 calculates, for example, the average numerical value of each emotion for each viewer based on the emotional data read out for each attribute, and further calculates the average value of the numerical value of each emotion for all viewers. Calculate. As a result, for each attribute, the average value (average degree) of all viewers regarding each emotion toward the content is obtained. The report generation unit 104 generates a graph (emotion report) that displays the average value calculated for each attribute for each emotion in association with each attribute. In this case as well, the average value of each emotion for each attribute can be displayed in a graph as shown in FIG. 7B. In addition, on the screen shown in FIG. 7B, instead of an emotion report showing the maximum value and average value of emotions in the entire content, an emotion report showing the maximum value and average value of emotions for each elapsed time period from the start of playback of the content is displayed. May be displayed. Further, on the screen shown in FIG. 7B, as in FIG. 7A, there are buttons that accept operations such as a content area in which content is played, and operations such as a playback instruction, stop instruction, fast forward instruction, and fast rewind instruction for the content being played. A button area or the like to be displayed may be provided.

レポート生成部104は、図7Aに示す感情レポートと図7Bに示す感情レポートとを各別に生成してもよいし、図7Aに示す感情レポートと図7Bに示す感情レポートとを1つの画面で表示するための表示データを生成してもよい。上述した感情レポートのほかに、レポート生成部104は例えば、各感情について最大値となった時点の再生開始からの経過時間を示す感情レポート、各感情について所定値以上の値となった時点の再生開始からの経過時間を示す感情レポート等を生成してもよい。またレポート生成部104は例えば、各感情について所定値以上の値となった時間の合計や、所定値未満の値となった時間の合計等を示す感情レポートを生成してもよい。これらの感情レポートも属性毎に生成されてもよい。 The report generation unit 104 may separately generate the emotional report shown in FIG. 7A and the emotional report shown in FIG. 7B, or display the emotional report shown in FIG. 7A and the emotional report shown in FIG. 7B on one screen. You may also generate display data for this purpose. In addition to the above-mentioned emotion report, the report generation unit 104 generates, for example, an emotion report indicating the elapsed time from the start of playback when each emotion reaches its maximum value, and a playback when each emotion reaches a predetermined value or higher. An emotion report or the like indicating the elapsed time from the start may be generated. Further, the report generation unit 104 may generate an emotion report indicating, for example, the total time for each emotion to have a value equal to or greater than a predetermined value, the total time for each emotion to have a value less than a predetermined value, or the like. These emotion reports may also be generated for each attribute.

出力部105は、レポート生成部104が生成した感情レポート(表示データ)を通信部13から所定の装置へ送信する。なお、例えばサーバ10が外部装置からあるコンテンツに対する感情レポートの生成要求を受信した場合に、レポート生成部104は、要求されたコンテンツに対する感情レポートを生成し、出力部105は、要求してきた外部装置に感情レポートを出力する。また、レポート生成部104は、所定のタイミングで各コンテンツに対する感情レポートを生成して記憶部12に記憶しておき、サーバ10が外部装置からあるコンテンツに対する感情レポートを要求された場合に、出力部105は、要求された感情レポートを記憶部12から読み出し、要求してきた外部装置に出力してもよい。出力部105が出力した感情レポートを受信した外部装置は、受信した感情レポートに基づいて図7A,Bに示すような画面を表示部に表示する。これにより、各コンテンツに対する視聴者の感情の変化を通知できる。 The output unit 105 transmits the emotion report (display data) generated by the report generation unit 104 from the communication unit 13 to a predetermined device. Note that, for example, when the server 10 receives a request to generate an emotion report for a certain content from an external device, the report generation unit 104 generates an emotion report for the requested content, and the output unit 105 generates an emotion report for the requested content. Output an emotion report. Further, the report generation unit 104 generates an emotion report for each content at a predetermined timing and stores it in the storage unit 12, and when the server 10 is requested from an external device to generate an emotion report for a certain content, the report generation unit 104 outputs an emotion report for each content. 105 may read the requested emotion report from the storage unit 12 and output it to the external device that has requested it. The external device that has received the emotion report output by the output unit 105 displays screens as shown in FIGS. 7A and 7B on the display unit based on the received emotion report. This makes it possible to notify viewers of changes in their emotions regarding each content.

以下に、上述した構成の感情分析システムにおいて各装置が行う処理について説明する。図8は、端末装置20による心拍変動データの取得処理の手順を示すフローチャートである。以下の処理は、端末装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部21によって実行される。 The processing performed by each device in the emotion analysis system configured as described above will be described below. FIG. 8 is a flowchart illustrating a procedure for acquiring heart rate variability data by the terminal device 20. The following processing is executed by the control unit 21 according to the control program 22P stored in the storage unit 22 of the terminal device 20.

端末装置20の制御部21は、コンテンツDB22aに記憶されているコンテンツの再生用データに基づいてコンテンツの再生処理を開始する(S11)。なお、コンテンツの再生を開始するタイミングは、例えば入力部25を介して再生指示が入力された場合や、通信部23を介して外部装置から再生指示を取得した場合等である。制御部21は、再生を開始したコンテンツのコンテンツIDと、この再生処理(視聴処理)に対して発行した視聴IDとを対応付けて心拍変動DB22bに記憶しておく。 The control unit 21 of the terminal device 20 starts content playback processing based on the content playback data stored in the content DB 22a (S11). Note that the timing to start playing the content is, for example, when a playback instruction is input via the input unit 25 or when a playback instruction is acquired from an external device via the communication unit 23. The control unit 21 associates the content ID of the content that has started playing with the viewing ID issued for this playing process (viewing process) and stores it in the heart rate variation DB 22b.

制御部21は、カメラ26による撮影を開始し、再生中のコンテンツを視聴する視聴者の顔画像を取得する(S12)。ここでは、制御部21は1枚の静止画である顔画像を取得する。制御部21は、取得した顔画像(顔画像データ)に基づいて、顔画像中の被写体である視聴者の属性(年齢及び性別)を判定する(S13)。制御部21は例えばテンプレートマッチング技術によって被写体の属性を判定し、判定した属性を、再生中のコンテンツのコンテンツID及び実行中の再生処理の視聴IDに対応付けて心拍変動DB22bに記憶しておく。 The control unit 21 starts photographing with the camera 26 and acquires a facial image of a viewer viewing the content being played back (S12). Here, the control unit 21 acquires a face image that is one still image. The control unit 21 determines the attributes (age and gender) of the viewer who is the subject in the face image based on the acquired face image (face image data) (S13). The control unit 21 determines the attributes of the subject using, for example, template matching technology, and stores the determined attributes in the heart rate variation DB 22b in association with the content ID of the content being played back and the viewing ID of the playback process being executed.

制御部21は、ステップS12で取得した顔画像に対してヘモグロビンに対応する色素成分を抽出する分離処理を行ってヘモグロビン画像を生成し(S14)、ヘモグロビン画像に基づいて、被写体(視聴者)の心拍を示す心拍データを生成する(S15)。ここでは、制御部21は、ヘモグロビン画像において被写体の顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、心拍データとして、この顔画像を撮影した時点における再生開始からの経過時間(再生タイミング)に対応付けて記憶部22に記憶する。なお、制御部21は、コンテンツの再生開始後、顔画像を取得した場合、取得時点におけるコンテンツの再生開始からの経過時間を特定しておく。 The control unit 21 generates a hemoglobin image by performing a separation process on the face image acquired in step S12 to extract a pigment component corresponding to hemoglobin (S14), and based on the hemoglobin image, identifies the subject (viewer). Heartbeat data indicating heartbeat is generated (S15). Here, the control unit 21 calculates the average value (average pixel value) of the pixel value (component amount of hemoglobin component) of each pixel in the face area of the subject in the hemoglobin image, and captures this face image as heartbeat data. The data is stored in the storage unit 22 in association with the elapsed time (playback timing) from the start of playback at the time when the playback is started. Note that when the control unit 21 acquires a face image after the start of reproduction of the content, the control unit 21 specifies the elapsed time from the start of reproduction of the content at the time of acquisition.

制御部21は、コンテンツを最後まで再生することによってコンテンツの再生処理を終了したか否かを判断しており(S16)、終了していないと判断した場合(S16:NO)、ステップS12で顔画像を取得してから所定時間が経過したか否かを判断する(S17)。制御部21は例えば1秒間に30枚の顔画像を取得する場合、1/30秒が経過したか否かを判断する。所定時間が経過していないと判断した場合(S17:NO)、制御部21は、ステップS16~S17の処理を繰り返し、所定時間が経過したと判断した場合(S17:YES)、ステップS12の処理に戻る。そして、制御部21は、視聴者の顔画像を取得し(S12)、取得した顔画像に基づいてステップS13~S15の処理を繰り返す。これにより、コンテンツの再生中に所定時間毎に取得した視聴者の顔画像に基づいて、所定時間毎の視聴者の心拍を示す心拍データが生成されて記憶部22に記憶される。 The control unit 21 determines whether or not the content reproduction process has been completed by reproducing the content to the end (S16), and if it is determined that the content has not been completed (S16: NO), the face It is determined whether a predetermined time has elapsed since the image was acquired (S17). For example, when acquiring 30 facial images per second, the control unit 21 determines whether 1/30 second has elapsed. If it is determined that the predetermined time has not elapsed (S17: NO), the control unit 21 repeats the processing of steps S16 to S17, and if it is determined that the predetermined time has elapsed (S17: YES), the control unit 21 repeats the processing of step S12. Return to Then, the control unit 21 acquires a facial image of the viewer (S12), and repeats the processing of steps S13 to S15 based on the acquired facial image. As a result, heartbeat data indicating the viewer's heartbeat at each predetermined time period is generated based on the viewer's face image acquired at predetermined time intervals during reproduction of the content, and is stored in the storage unit 22 .

コンテンツの再生処理を終了したと判断した場合(S16:YES)、制御部21は、上述した処理によって生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対してフィルタ処理を行う(S18)。そして制御部21は、フィルタ処理後の心拍データに対して周波数変換処理を行い(S19)、心拍変動データ(周波数領域の心拍変動スペクトログラム)を生成し、生成した心拍変動データをコンテンツID及び視聴IDに対応付けて心拍変動DB22bに記憶する(S20)。これにより、コンテンツの視聴中における視聴者の心拍変動を示す心拍変動データが生成されて心拍変動DB22bに記憶される。なお、制御部21は、異なるコンテンツの再生処理を連続して行う場合、1つのコンテンツの再生処理を終了した後、このコンテンツに対してステップS18~S20の処理を行いつつ、次のコンテンツに対してステップS11以降の処理を実行する。 If it is determined that the content playback process has ended (S16: YES), the control unit 21 performs filter processing on the heartbeat data (temporal change in average pixel value in the hemoglobin image) generated by the above-described process (S18). ). The control unit 21 then performs frequency conversion processing on the heart rate data after the filter processing (S19), generates heart rate variability data (heart rate variability spectrogram in the frequency domain), and assigns the generated heart rate variability data to the content ID and viewing ID. is stored in the heart rate variation DB 22b in association with (S20). As a result, heart rate variability data indicating heart rate fluctuations of the viewer while viewing the content is generated and stored in the heart rate variability DB 22b. Note that when the control unit 21 performs the playback processing of different contents consecutively, after finishing the playback processing of one content, the control unit 21 performs the processing of steps S18 to S20 on this content, and then performs the processing on the next content. Then, the process from step S11 onwards is executed.

図9は、サーバ10による感情分析処理の手順を示すフローチャートである。以下の処理は、サーバ10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。サーバ10の制御部11は、端末装置20が送信した心拍変動データを通信部13にて取得し(S31)、取得した心拍変動データを心拍変動DB12bに記憶する(S32)。なお、制御部11は、端末装置20から、各コンテンツの1回の再生処理毎に、コンテンツID、視聴ID、年齢、性別及び心拍変動データをまとめて取得する。端末装置20からサーバ10へ心拍変動データを送信するタイミングは、例えば1日に1回の所定時刻、1週間に1回の所定時刻、コンテンツに設定された再生可能期間の満了後等とすることができる。また、端末装置20は、送信タイミングが到来した場合に、心拍変動データをサーバ10へ送信してもよいし、サーバ10からの送信要求に応じて送信してもよい。 FIG. 9 is a flowchart showing the procedure of emotion analysis processing by the server 10. The following processing is executed by the control unit 11 according to the control program 12P stored in the storage unit 12 of the server 10. The control unit 11 of the server 10 uses the communication unit 13 to acquire the heart rate variability data transmitted by the terminal device 20 (S31), and stores the acquired heart rate variability data in the heart rate variability DB 12b (S32). Note that the control unit 11 collectively acquires the content ID, viewing ID, age, gender, and heart rate fluctuation data from the terminal device 20 for each reproduction process of each content. The timing for transmitting the heart rate variability data from the terminal device 20 to the server 10 may be, for example, once a day at a predetermined time, once a week at a predetermined time, or after the playback period set for the content has expired. I can do it. Further, the terminal device 20 may transmit the heart rate variability data to the server 10 when the transmission timing has arrived, or may transmit the heart rate variability data in response to a transmission request from the server 10.

制御部11は、心拍変動DB12bに記憶した各コンテンツに対する心拍変動データに基づいて、各コンテンツに対するそれぞれの視聴者の感情を分析する(S33)。例えば制御部11は、心拍変動データ(心拍変動スぺクトログラム)における各変動周波数の値に応じて、喜び、怒り、悲しみ、驚き、嫌悪、リラックス等のそれぞれの感情パラメータに対して、それぞれの程度を示す数値(分析値)を決定する。制御部11は、各感情について、コンテンツの再生開始からの逐次タイミング(例えば1/30秒毎)での数値を決定することにより、コンテンツの再生開始から再生終了までの間における視聴者の各感情の時間変化を示す感情データを生成する。制御部11は、心拍変動DB12bから読み出したコンテンツID、視聴ID、年齢及び性別に対応付けて、生成した各感情の感情データを感情DB12cに記憶する(S34)。 The control unit 11 analyzes the emotions of each viewer regarding each content based on the heart rate variation data for each content stored in the heart rate variation DB 12b (S33). For example, the control unit 11 adjusts the degree of each emotional parameter such as joy, anger, sadness, surprise, disgust, relaxation, etc. according to the value of each fluctuation frequency in heart rate fluctuation data (heart rate fluctuation spectrogram). Determine the numerical value (analytical value) that indicates the The control unit 11 determines the numerical value of each emotion at sequential timings (for example, every 1/30 seconds) from the start of content playback, thereby determining each emotion of the viewer from the start of playback of the content to the end of playback. Generate emotional data that shows changes over time. The control unit 11 stores the generated emotion data of each emotion in the emotion DB 12c in association with the content ID, viewing ID, age, and gender read from the heart rate variation DB 12b (S34).

制御部11は、各コンテンツに対して感情DB12cに記憶した感情データに基づいて、各コンテンツに対する複数の視聴者の感情を総合的に評価した感情レポートを生成する(S35)。制御部11は、感情レポートを生成すべきコンテンツに対する全ての感情データを感情DB12cから読み出し、読み出した感情データに基づいて、図7Aや図7Bに示すような感情レポートを生成する。なお、制御部11が生成する感情レポートは、例えばコンテンツの再生開始から再生終了までの間において各感情について、複数の視聴者の平均値の時間変化、所定の時間帯毎又は属性毎の平均値の時間変化、複数の視聴者における最大値や平均値、所定の時間帯毎又は属性毎の最大値や平均値等、コンテンツに対する視聴者の感情を評価できるレポートを通知する。制御部11は、生成した感情レポートを、例えばコンテンツIDに対応付けて記憶部12に記憶しておき、例えば外部装置から所定のコンテンツに対する感情レポートの要求を受け付けた場合に、要求された感情レポートを要求元の外部装置へ提供する。 The control unit 11 generates an emotion report that comprehensively evaluates the emotions of a plurality of viewers regarding each content based on the emotion data stored in the emotion DB 12c for each content (S35). The control unit 11 reads all emotion data for the content for which an emotion report should be generated from the emotion DB 12c, and generates an emotion report as shown in FIGS. 7A and 7B based on the read emotion data. Note that the emotion report generated by the control unit 11 includes, for example, changes in the average value of multiple viewers over time, the average value for each predetermined time period, or for each attribute, for each emotion from the start of content playback to the end of playback. Reports that can evaluate viewers' emotions toward the content, such as changes over time, maximum values and average values for multiple viewers, maximum values and average values for each predetermined time period or each attribute, are notified. The control unit 11 stores the generated emotion report in the storage unit 12 in association with, for example, a content ID, and, for example, when receiving a request for an emotion report for a predetermined content from an external device, the control unit 11 stores the generated emotion report in association with a content ID. is provided to the requesting external device.

本実施形態では、コンテンツを視聴する視聴者の顔画像から、視聴者の視聴中の感情の変化(時間変化)を取得することができる。よって、視聴者の感情の時間変化に基づいて、コンテンツの再生開始からの各時点における視聴者の感情を把握できる。また本実施形態では、端末装置20がサーバ10へ心拍変動データを送信することにより、端末装置20及びサーバ10間で、視聴者個人を特定できない情報(心拍変動データ)のみが送受信される。即ち、例えば顔画像のように視聴者個人を特定できるデータを送受信しないことにより、個人情報の漏洩を防止できる。なお、周波数変換を行う前の心拍データを送受信してもよく、この場合、心拍データを受信したサーバ10が、心拍データから心拍変動データを生成する処理を行う。また、端末装置20において、視聴者個人を特定できる顔画像等のデータを、不要となった後に記憶部22から消去しておくことにより、端末装置20に個人情報が残ることを防止できる。なお、顔画像データだけでなくヘモグロビン画像データについても、生成された後に一旦記憶部22に記憶される場合、不要となった後に記憶部22から消去しておいてもよい。また、端末装置20は、収集(蓄積)した心拍変動データを直接サーバ10へ送信するように構成してもよく、この場合、端末装置20及びサーバ10間の通信は有線通信であっても無線通信であってもよい。 In this embodiment, it is possible to obtain changes (time changes) in the emotions of the viewer while viewing the content from the facial images of the viewer while viewing the content. Therefore, it is possible to understand the viewer's emotions at each point in time from the start of content reproduction based on the temporal changes in the viewer's emotions. Further, in the present embodiment, the terminal device 20 transmits heart rate variability data to the server 10, so that only information (heart rate variability data) that cannot identify the individual viewer is transmitted and received between the terminal device 20 and the server 10. In other words, leakage of personal information can be prevented by not transmitting or receiving data that can identify an individual viewer, such as a face image. Note that the heartbeat data before frequency conversion may be transmitted and received, and in this case, the server 10 that has received the heartbeat data performs a process of generating heartbeat variability data from the heartbeat data. Further, in the terminal device 20, personal information can be prevented from remaining in the terminal device 20 by erasing data such as a facial image that can identify an individual viewer from the storage unit 22 after it becomes unnecessary. Note that when not only the face image data but also the hemoglobin image data is once stored in the storage unit 22 after being generated, it may be deleted from the storage unit 22 after it becomes unnecessary. Further, the terminal device 20 may be configured to directly transmit the collected (accumulated) heart rate variability data to the server 10. In this case, the communication between the terminal device 20 and the server 10 may be wired or wireless. It may be communication.

(実施形態2)
ショッピングモール等に設けられたフードコート内の飲食店で料理を注文したユーザに端末装置が貸し出され、注文した料理が出来上がったことを端末装置によって通知する通知システムに適用した感情分析システムについて説明する。図10は、実施形態2の感情分析システムの構成例を示すブロック図である。本実施形態の感情分析システムは、サーバ10及び端末装置20のほかに通知装置30を含み、通知装置30は複数の端末装置20のそれぞれと無線通信を行うように構成されている。本実施形態では、通知装置30とそれぞれの端末装置20とは直接通信を行う構成とするが、ネットワークN経由で通信を行う構成でもよい。本実施形態では、例えば各店舗に1つの通知装置30及び複数の端末装置20が用意され、各店舗に設けられた通知装置30は、各店舗用に用意された複数の端末装置20との間で通信を行う。本実施形態のサーバ10は実施形態1と同じ構成を有し、同様の処理を行う。
(Embodiment 2)
We will explain an emotion analysis system applied to a notification system in which a terminal device is lent to a user who orders food at a restaurant in a food court set up in a shopping mall, etc., and the terminal device notifies the user that the ordered food is ready. . FIG. 10 is a block diagram illustrating a configuration example of a sentiment analysis system according to the second embodiment. The emotion analysis system of this embodiment includes a notification device 30 in addition to the server 10 and the terminal device 20, and the notification device 30 is configured to perform wireless communication with each of the plurality of terminal devices 20. In this embodiment, the notification device 30 and each terminal device 20 are configured to communicate directly, but they may also be configured to communicate via the network N. In this embodiment, for example, one notification device 30 and a plurality of terminal devices 20 are prepared in each store, and the notification device 30 provided in each store is connected to the plurality of terminal devices 20 prepared for each store. to communicate. The server 10 of this embodiment has the same configuration as that of Embodiment 1, and performs similar processing.

端末装置20は、実施形態1と同じ構成のほかに、無線通信部27及び通知部28を有する。無線通信部27は、例えば特定小電力無線によって外部装置と通信するためのインタフェースであり、本実施形態では通知装置30との通信を行う。なお、無線通信部27は、Bluetooth(登録商標)やWi-Fi等の無線通信を行う構成でもよい。通知部28は、例えばバイブレータ、ランプ、ブザー等を含み、制御部21からの指示に従って、バイブレータによる振動、ランプの点灯又は点滅、ブザーの鳴動等を行うことにより、端末装置20を貸し出されたユーザに所定の状況(注文した料理が出来上がったこと)を通知する。なお、通知部28は、スピーカによって所定のメッセージを音声出力することにより通知する構成でもよい。また、通知部28の代わりに表示部24に所定のメッセージを表示することにより通知する構成でもよい。 The terminal device 20 has the same configuration as the first embodiment, and also includes a wireless communication section 27 and a notification section 28. The wireless communication unit 27 is an interface for communicating with an external device using, for example, specified low-power radio, and in this embodiment, communicates with the notification device 30. Note that the wireless communication unit 27 may be configured to perform wireless communication such as Bluetooth (registered trademark) or Wi-Fi. The notification unit 28 includes, for example, a vibrator, a lamp, a buzzer, etc., and in accordance with instructions from the control unit 21, vibrates with the vibrator, lights or blinks a lamp, sounds a buzzer, etc. to notify the user who has lent the terminal device 20. Notify the user of a predetermined status (that the ordered dish has been completed). Note that the notification unit 28 may be configured to notify by audio outputting a predetermined message using a speaker. Further, instead of the notification unit 28, a configuration may be adopted in which notification is performed by displaying a predetermined message on the display unit 24.

通知装置30は、制御部31、記憶部32、入力部33、表示部34、無線通信部35等を含み、これらの各部はバスを介して相互に接続されている。通知装置30の各部は端末装置20の各部と同様の構成を有しており、同様の構成については詳細な説明を省略する。通知装置30の無線通信部35は端末装置20の無線通信部27との間で通信を行う。また、通知装置30の記憶部32には端末DB32aが記憶されている。端末DB32aには、通知装置30が通信を行う複数の端末装置20のそれぞれを識別するための識別情報(例えば端末ID)と、それぞれの端末装置20との間で無線通信を行うための宛先情報とが対応付けて記憶してある。なお、通知装置30は、上述した構成のほかに、ネットワークNに接続するためのインタフェース等が設けられていてもよい。 The notification device 30 includes a control section 31, a storage section 32, an input section 33, a display section 34, a wireless communication section 35, etc., and these sections are interconnected via a bus. Each part of the notification device 30 has the same configuration as each part of the terminal device 20, and a detailed description of the similar configuration will be omitted. The wireless communication unit 35 of the notification device 30 communicates with the wireless communication unit 27 of the terminal device 20. Furthermore, the storage unit 32 of the notification device 30 stores a terminal DB 32a. The terminal DB 32a includes identification information (for example, terminal ID) for identifying each of the plurality of terminal devices 20 with which the notification device 30 communicates, and destination information for performing wireless communication with each terminal device 20. are stored in association with each other. Note that the notification device 30 may be provided with an interface for connecting to the network N, etc. in addition to the above-described configuration.

図11は、実施形態2の端末装置20による心拍変動データの取得処理の手順を示すフローチャートである。図11に示す処理は、図8に示す処理においてステップS16の代わりにステップS51を追加し、ステップS18の前にステップS52,S53を追加し、通知装置30が行う処理としてステップS41,S42を追加したものである。図8と同様のステップについては説明を省略する。 FIG. 11 is a flowchart showing a procedure for acquiring heart rate variability data by the terminal device 20 of the second embodiment. The process shown in FIG. 11 adds step S51 instead of step S16 in the process shown in FIG. 8, adds steps S52 and S53 before step S18, and adds steps S41 and S42 as the process performed by the notification device 30. This is what I did. Description of steps similar to those in FIG. 8 will be omitted.

本実施形態において、例えば飲食店の従業員は、料理が注文されて料金の支払いが完了したユーザに対して1つの端末装置20を貸し出す。そして従業員は、料理が出来上がった場合、この料理を注文したユーザに貸し出した端末装置20に通知処理を行わせるために、この端末装置20の端末IDを通知装置30の入力部33にて入力する。通知装置30の制御部31は、入力部33を介して端末IDを受け付けたか否かを判断しており(S41)、受け付けていないと判断する場合(S41:NO)、受け付けるまで待機する。制御部31は、端末IDを受け付けたと判断した場合(S41:YES)、受け付けた端末IDに対応する宛先情報を端末DB32aから読み出し、読み出した宛先情報に基づいて無線通信部35によって通知信号を送信する(S42)。通知装置30の制御部31は、端末IDを受け付ける都度、受け付けた端末IDの端末装置20に通知信号を送信する。 In this embodiment, for example, an employee of a restaurant lends one terminal device 20 to a user who has ordered food and completed payment of the fee. Then, when the food is completed, the employee inputs the terminal ID of the terminal device 20 into the input section 33 of the notification device 30 in order to have the terminal device 20 lent to the user who ordered the food perform a notification process. do. The control unit 31 of the notification device 30 determines whether or not the terminal ID has been received via the input unit 33 (S41), and if it is determined that the terminal ID has not been received (S41: NO), it waits until the terminal ID is received. When the control unit 31 determines that the terminal ID has been accepted (S41: YES), the control unit 31 reads destination information corresponding to the accepted terminal ID from the terminal DB 32a, and transmits a notification signal by the wireless communication unit 35 based on the read destination information. (S42). Each time the control unit 31 of the notification device 30 receives a terminal ID, it transmits a notification signal to the terminal device 20 of the received terminal ID.

端末装置20の制御部21は、実施形態1と同様にステップS11~S15の処理を行いつつ、通知装置30から通知信号を受信したか否かを判断しており(S51)、受信していないと判断した場合(S51:NO)、ステップS17の処理に移行する。このような処理により、制御部21は、コンテンツを視聴中の視聴者の顔画像に基づいて視聴者の心拍データを生成して記憶部22に記憶する。通知装置30から通知信号を受信したと判断した場合(S51:YES)、制御部21は通知部28による通知処理を行う(S52)。通知部28は例えばバイブレータによる振動、ランプの点灯又は点滅、ブザーの鳴動等を開始し、注文した料理が出来上がったことをユーザに通知する。そして制御部21は、コンテンツの再生処理を終了し(S53)、上述した処理によって生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対して、ステップS18~S20の処理を行う。 The control unit 21 of the terminal device 20 determines whether or not a notification signal has been received from the notification device 30 (S51) while performing the processing in steps S11 to S15 as in the first embodiment, and determines that the notification signal has not been received. If it is determined that (S51: NO), the process moves to step S17. Through such processing, the control unit 21 generates heartbeat data of the viewer based on the face image of the viewer who is viewing the content, and stores it in the storage unit 22 . If it is determined that a notification signal has been received from the notification device 30 (S51: YES), the control unit 21 causes the notification unit 28 to perform notification processing (S52). The notification unit 28 starts, for example, vibrating with a vibrator, lighting or blinking a lamp, sounding a buzzer, etc., to notify the user that the ordered food is ready. The control unit 21 then ends the content playback process (S53) and performs the processes of steps S18 to S20 on the heartbeat data (temporal change in average pixel value in the hemoglobin image) generated by the above-described process.

上述した処理により、注文した料理が出来上がるまでの待ち時間において、ユーザはコンテンツを視聴して楽しむことができると共に、ユーザのコンテンツ視聴中の心拍変動を示す心拍変動データを収集できる。上述した処理において、制御部21は、料理が出来上がったことを通知する通知処理を行った場合、例えば入力部25を介して通知処理の終了指示を受け付けた後に、コンテンツの再生処理を終了してもよい。例えばバイブレータによる振動の停止指示、ランプの消灯指示、ブザーの消音指示等の操作が入力部25を介して行われた場合に、コンテンツの再生処理を終了してもよい。また、通知処理の終了指示とは別にコンテンツ再生の終了指示が入力部25を介して行われた場合に、コンテンツの再生処理を終了するようにしてもよい。この場合、コンテンツを視聴中のユーザは、見たい場面までコンテンツを視聴でき、コンテンツの視聴時間が長くなることが期待できる。 Through the above-described processing, the user can watch and enjoy the content while waiting for the ordered food to be prepared, and heart rate variability data indicating heart rate variability while the user is viewing the content can be collected. In the above-described process, when the control unit 21 performs the notification process to notify that the food is completed, the control unit 21 ends the content playback process after receiving an instruction to end the notification process via the input unit 25, for example. Good too. For example, when an operation such as an instruction to stop vibration by a vibrator, an instruction to turn off a lamp, an instruction to mute a buzzer, etc. is performed via the input unit 25, the content reproduction process may be terminated. Furthermore, the content reproduction process may be terminated when an instruction to terminate the content reproduction is issued via the input unit 25 in addition to the instruction to terminate the notification process. In this case, the user who is viewing the content can view the content up to the desired scene, and can expect a longer content viewing time.

本実施形態において、サーバ10は図9に示す処理と同様の処理を行い、複数の端末装置20から収集した多数の視聴者の心拍変動データに基づいて、各コンテンツに対する感情レポートを生成できる。本実施形態では、実施形態1と同様の効果が得られる。即ち、コンテンツを視聴する視聴者の顔画像から、視聴者の視聴中の感情の変化(時間変化)を取得でき、複数の視聴者の感情の時間変化に基づいて、コンテンツに対する視聴者の感情レポートを提供できる。また本実施形態では、例えばフードコートの飲食店等で料理を注文したユーザが、料理が出来上がるまでの待ち時間にコンテンツを視聴することにより、待ち時間を楽しむことができる。なお、本実施形態の端末装置20で再生されるコンテンツは、例えばフードコートが設けられたショッピングモール内の店舗の広告、イベント、キャンペーン、クーポン等の情報を通知するためのコンテンツ、ショッピングモールや店舗に対するアンケートの回答やクレーム等を受け付けるためのコンテンツ等を用いることができる。なお、端末装置20は入力部25を介してアンケートの回答やクレームの入力等を受け付けることができる。 In this embodiment, the server 10 performs a process similar to the process shown in FIG. 9, and can generate an emotional report for each content based on heart rate variation data of a large number of viewers collected from a plurality of terminal devices 20. In this embodiment, the same effects as in the first embodiment can be obtained. In other words, it is possible to obtain changes in the emotions of viewers while viewing the content (time changes) from the facial images of the viewers viewing the content, and based on the temporal changes in the emotions of multiple viewers, a report of the viewers' emotions toward the content can be obtained. can be provided. Further, in this embodiment, a user who has ordered food at a restaurant in a food court, for example, can enjoy the waiting time by viewing content while waiting for the food to be prepared. Note that the content played on the terminal device 20 of the present embodiment includes, for example, content for notifying information such as advertisements, events, campaigns, coupons, etc. of stores in a shopping mall with a food court, and shopping malls and stores. It is possible to use content, etc. for receiving responses to questionnaires, complaints, etc. Note that the terminal device 20 can receive responses to a questionnaire, input of complaints, etc. via the input unit 25.

上述した感情分析システムは、例えば、美術館や博物館等で入館者に端末装置が貸し出され、展示作品に対する解説コンテンツを端末装置で再生することによって展示作品の解説等を行うシステムにも適用できる。このようなシステムに適用した場合、端末装置20によって展示作品の解説を行えるだけでなく、解説コンテンツを視聴する入館者の感情を分析することにより、展示作品や展示作品に関する解説に対して入館者の関心の有無等を把握できる。 The above-mentioned sentiment analysis system can also be applied to, for example, a system in which a terminal device is lent to a visitor at an art museum or a museum, and the terminal device plays back explanatory content for the exhibited work to provide an explanation of the exhibited work. When applied to such a system, not only can the terminal device 20 provide explanations of the exhibited works, but also the emotions of visitors viewing the explanatory content can be analyzed, so that visitors can respond to the exhibited works and explanations about the exhibited works. It is possible to understand whether or not there is an interest in the subject.

実施形態1,2の感情分析システムにおいて、端末装置20で再生されるコンテンツはどのようなコンテンツでもよく、どのようなコンテンツ対しても視聴中の視聴者の感情レポートを生成できる。例えば動画コンテンツに限らず、入力部25を操作することによってページ送りができる電子書籍であってもよい。この場合、ユーザが読書中のページ番号に対応付けてユーザの感情を分析することにより、各ページに対するユーザの感情レポートを生成できる。また、複数の選択肢のいずれかを選択するクイズ、ゲーム、アンケート等のコンテンツを用いてもよい。この場合、端末装置20は入力部25を介して選択肢に対する選択を受け付けることができ、それぞれの選択肢を受け付けた際のユーザの感情を分析できる。またアンケートが複数の質問を有する場合に、各質問に回答する回答者(ユーザ)の顔画像データに基づいて、各質問に対する回答者の感情を分析でき、各質問に対する感情データを生成できる。また、複数の回答者の感情データを用いることにより、各質問に対する回答者全体の感情レポートを生成できる。 In the emotion analysis system of the first and second embodiments, any content may be played on the terminal device 20, and an emotion report of the viewer who is viewing the content can be generated for any content. For example, the content is not limited to video content, but may be an electronic book whose pages can be turned by operating the input unit 25. In this case, by analyzing the user's emotions in association with the page number that the user is reading, a report on the user's emotions for each page can be generated. Further, content such as quizzes, games, questionnaires, etc. in which one of a plurality of options is selected may be used. In this case, the terminal device 20 can accept selections for the options via the input unit 25, and can analyze the user's emotions upon accepting each option. Furthermore, when a questionnaire has a plurality of questions, the emotions of the respondents to each question can be analyzed based on the facial image data of the respondents (users) who answer each question, and the emotion data for each question can be generated. Furthermore, by using emotion data of multiple respondents, it is possible to generate an emotion report of all respondents for each question.

また、例えば従業員の満足度アンケート、ストレスチェック、360度評価調査等の従業員アンケートをコンテンツとして用いることができる。例えばアンケートがストレスチェックに関する質問を含む場合、端末装置20の制御部21は、各質問を表示部24に表示し、各質問に対する回答者の回答を入力部25にて受け付けると共に、回答者の顔画像に基づいて回答時の感情を分析して感情データを生成する。この場合、端末装置20は、質問に対して回答者が意図して回答した内容と、回答者が意図せずに顔画像から分析された質問回答時の感情とを取得できる。よって、端末装置20は、回答者の意識下での回答内容と、回答者が意図しない感情から読み取れる回答者の真意とを取得することができ、これらの情報に基づいて、回答者が回答した内容に対する真偽を客観的に判定することができ、回答者に対するストレスチェックを正確に行うことができる。また、端末装置20は、回答者の意識下での回答内容と、回答者が意図しない真意とを対応付けて所定装置へ出力することができる。ここでの所定装置は例えばストレスチェックの回答情報を収集する装置等である。このように各質問について、回答者による回答内容だけでなく、回答者が回答時に意図しない真意(感情)を収集できるので、回答者の真意に基づいて、今後の働き方の改善方法を検討でき、働き方改革を進めることが可能となる。 Furthermore, for example, employee questionnaires such as employee satisfaction questionnaires, stress checks, and 360-degree evaluation surveys can be used as content. For example, when the questionnaire includes questions regarding stress check, the control unit 21 of the terminal device 20 displays each question on the display unit 24, receives the answer from the respondent to each question through the input unit 25, and also displays the respondent's face. Emotion data is generated by analyzing the emotion at the time of answer based on the image. In this case, the terminal device 20 can acquire the content of the respondent's intended response to the question and the respondent's unintentional emotion at the time of answering the question, which was analyzed from the facial image. Therefore, the terminal device 20 can acquire the respondent's conscious response content and the respondent's true intentions that can be read from the respondent's unintended emotions, and based on this information, the respondent's answer It is possible to objectively determine the truth or falsity of content, and it is possible to accurately conduct stress checks on respondents. Further, the terminal device 20 can output the answer contents that the answerer is aware of and the true intention that the answerer does not intend, in association with each other, to a predetermined device. The predetermined device here is, for example, a device that collects stress check response information. In this way, for each question, we can collect not only the answers given by the respondents, but also the true intentions (emotions) that the respondents did not intend when answering, so we can consider ways to improve future work styles based on the respondents' true intentions. , it will be possible to advance work style reform.

実施形態1,2の感情分析システムにおいて、端末装置20が行う処理を、店舗等に設置されたデジタルサイネージが行うように構成してもよい。例えばデジタルサイネージに、店舗又は商品等に関する広告コンテンツを表示し、広告コンテンツを視聴しているユーザの顔画像からユーザの感情の変化(感情レポート)を取得するように構成することができる。このような構成により、表示中の商品等に対するユーザの関心度を測定できる。よって、ユーザの関心度に応じて、表示する広告コンテンツを切り替えることにより、ユーザが興味のある商品等の広告を表示することができ、商品の宣伝を効率良く行うことができる。また、デジタルサイネージ及び端末装置20に、例えば商品名又は商品のパッケージ画像等を表示し、視聴するユーザの感情を取得することにより、表示中の商品に対するユーザの認知度を測定することもできる。この場合には、複数のユーザの認知度を集計することにより、商品の認知度又は広告による宣伝効果を測定できる。 In the emotion analysis systems of the first and second embodiments, the processing performed by the terminal device 20 may be configured to be performed by a digital signage installed in a store or the like. For example, digital signage can be configured to display advertising content related to stores, products, etc., and to obtain changes in the user's emotions (emotion report) from the facial images of the users who are viewing the advertising content. With such a configuration, it is possible to measure the user's degree of interest in the product or the like being displayed. Therefore, by switching the advertisement content to be displayed according to the user's degree of interest, advertisements for products and the like that the user is interested in can be displayed, and products can be advertised efficiently. Furthermore, by displaying, for example, a product name or a package image of the product on the digital signage and the terminal device 20, and obtaining the emotions of the viewing user, it is also possible to measure the user's awareness of the product being displayed. In this case, the degree of recognition of the product or the effectiveness of advertising can be measured by aggregating the degree of recognition of a plurality of users.

実施形態1,2の感情分析システムにおいて、端末装置20で再生されるコンテンツは、映画、ドラマ、アニメ等の動画コンテンツのほかに、ゲームコンテンツであってもよい。この場合、ゲーム中のステージ、レベル、コース、シーン等の各単位に対応付けてユーザの感情を分析することにより、各単位に対するユーザの感情レポートを生成できる。また、ゲームの開始時点、チュートリアルの再生時点、ゲーム内の各イベントの発生時点、課金時点、終了時点等の各タイミングに対応付けてユーザの感情を分析することにより、各タイミングでのユーザの感情レポートを生成できる。このようにゲーム中のユーザの感情の変化を分析することにより、ユーザがゲームを楽しんでいるタイミング及びゲーム中の箇所、並びに、ユーザがゲームを楽しんでいない又はゲームを終了するタイミング及びゲーム中の箇所を判定できる。よって、ユーザがゲームを終了する理由を分析することができ、分析結果を用いることにより、ユーザが飽きないゲームを製作することが可能となる。 In the emotion analysis systems of the first and second embodiments, the content played on the terminal device 20 may be game content in addition to video content such as movies, dramas, and anime. In this case, by analyzing the user's emotions in association with each unit such as stage, level, course, scene, etc. in the game, a user's emotion report for each unit can be generated. In addition, by analyzing the user's emotions in relation to each timing such as the start of the game, the time of playing the tutorial, the time of occurrence of each event in the game, the time of payment, and the time of ending, we can analyze the user's emotions at each timing. Can generate reports. By analyzing changes in the user's emotions during the game, we can determine when the user is enjoying the game and where in the game, as well as when the user is not enjoying the game or when the user quits the game, and at what points during the game. You can judge the location. Therefore, it is possible to analyze the reason why the user quits the game, and by using the analysis results, it is possible to create a game that the user will not get bored with.

(実施形態3)
美術館や博物館等で入館者に端末装置が貸し出され、展示作品に対する解説コンテンツを端末装置で再生することによって展示作品の解説等を行うシステムに適用した感情分析システムについて説明する。本実施形態の感情分析システムは、実施形態1の各装置と同様の装置によって実現できるので、構成については説明を省略する。
(Embodiment 3)
We will explain an emotion analysis system applied to a system in which terminal devices are lent to visitors at art museums, museums, etc., and commentary on the exhibited works is performed by playing explanatory content for the exhibited works on the terminal device. The emotion analysis system of this embodiment can be realized by the same devices as those of the first embodiment, so the description of the configuration will be omitted.

図12及び図13は、実施形態3の端末装置20による心拍変動データの取得処理の手順を示すフローチャート、図14は画面例を示す模式図である。図12及び図13に示す処理は、図8に示す処理においてステップS11の前にステップS61~S62を追加し、ステップS16の代わりにステップS63~S65を追加し、ステップS20の後にステップS66を追加したものである。図8と同様のステップについては説明を省略する。 12 and 13 are flowcharts illustrating the procedure for acquiring heart rate variability data by the terminal device 20 of the third embodiment, and FIG. 14 is a schematic diagram illustrating an example screen. The processing shown in FIGS. 12 and 13 is the processing shown in FIG. 8 by adding steps S61 to S62 before step S11, adding steps S63 to S65 instead of step S16, and adding step S66 after step S20. This is what I did. Description of steps similar to those in FIG. 8 will be omitted.

本実施形態では、例えば美術館の入館者が入館する際に、端末装置20を借り受ける。端末装置20は、美術館内に展示されている展示品のそれぞれに対する解説コンテンツをコンテンツDB22aに記憶しており、表示部24に図14Aに示すようなコンテンツ一覧を表示している。なお、本実施形態におけるコンテンツIDは、解説コンテンツに割り当てられた識別情報であり、即ち、各展示品に割り当てられた識別情報である。コンテンツ一覧は、美術館内の各展示品のサムネイル画像を表示しており、それぞれのサムネイル画像に対応付けて、各展示品に関する解説コンテンツの再生指示を受け付けるための「解説を再生」ボタンが設けられている。よって、入館者は、解説を聴きたい展示品がある場合、展示品のサムネイル画像に対応する「解説を再生」ボタンを操作することにより、解説コンテンツの再生を指示する。 In this embodiment, for example, a visitor to an art museum borrows the terminal device 20 when entering the museum. The terminal device 20 stores explanatory content for each of the exhibits displayed in the museum in the content DB 22a, and displays a content list as shown in FIG. 14A on the display unit 24. Note that the content ID in this embodiment is identification information assigned to explanatory content, that is, identification information assigned to each exhibit. The content list displays thumbnail images of each exhibit in the museum, and a "play commentary" button is provided in association with each thumbnail image to accept instructions for playing explanatory content regarding each exhibit. ing. Therefore, if there is an exhibit for which the visitor would like to hear an explanation, the visitor instructs the reproduction of the explanation content by operating the "play explanation" button corresponding to the thumbnail image of the exhibit.

よって、本実施形態において、端末装置20の制御部21は、美術館内の展示品のサムネイル画像を含むコンテンツ一覧を表示しており(S61)、コンテンツ一覧を介して、いずれかの解説コンテンツの再生指示を受け付けたか否かを判断する(S62)。再生指示を受け付けていないと判断した場合(S62:NO)、制御部21は、受け付けるまで待機する。いずれかの解説コンテンツの再生指示を受け付けたと判断した場合(S62:YES)、制御部21は、再生指示を受け付けた解説コンテンツの再生処理を開始する(S11)。具体的には、制御部21は、再生指示された解説コンテンツの再生用データをコンテンツDB22aから読み出し、読み出した再生用データに基づく再生処理を行う。図14Bは解説コンテンツの再生画面例を示しており、再生画面は、展示品に関する解説を表示する。なお、解説コンテンツは動画データであっても静止画データであってもよく、音声データが含まれていてもよい。また、図14Bに示す再生画面には、展示品に関する感想を入力するための入力欄と、展示品が気に入ったことを通知するためのいいねボタンと、表示中の解説コンテンツの表示終了を指示するための終了ボタンとが設けられている。なお、解説コンテンツに音声データが含まれる場合、制御部21は、スピーカ(図示せず)を介して音声データの再生処理も行う。制御部21は、解説コンテンツの再生処理を開始した場合、再生を開始した解説コンテンツのコンテンツIDと、この再生処理に対して発行した視聴IDとを対応付けて心拍変動DB22bに記憶しておく。 Therefore, in the present embodiment, the control unit 21 of the terminal device 20 displays a content list including thumbnail images of exhibits in the museum (S61), and allows playback of any commentary content via the content list. It is determined whether the instruction has been accepted (S62). If it is determined that the reproduction instruction has not been received (S62: NO), the control unit 21 waits until the reproduction instruction is received. If it is determined that a playback instruction for any of the commentary contents has been received (S62: YES), the control unit 21 starts the playback process for the commentary content for which the playback instruction has been received (S11). Specifically, the control unit 21 reads the playback data of the commentary content for which playback has been instructed from the content DB 22a, and performs playback processing based on the read playback data. FIG. 14B shows an example of a playback screen of commentary content, and the playback screen displays commentary regarding the exhibit. Note that the commentary content may be video data or still image data, and may also include audio data. The playback screen shown in Figure 14B also includes an input field for inputting impressions regarding the exhibit, a Like button for notifying that the exhibit is liked, and an instruction to end the display of the explanatory content being displayed. An end button is provided for Note that if the commentary content includes audio data, the control unit 21 also performs a process of reproducing the audio data via a speaker (not shown). When the control unit 21 starts the reproduction process of the commentary content, the control unit 21 stores the content ID of the commentary content whose reproduction has started and the viewing ID issued for this reproduction process in association with each other in the heart rate variation DB 22b.

その後、制御部21は、図8中のステップS12~S15と同様の処理を行い、再生中の解説コンテンツを視聴するユーザ(視聴者)の顔画像に基づいて、ユーザの属性(年齢及び性別)を判定し、ユーザの心拍を示す心拍データを生成する。なお、ユーザは、再生画面によって展示品の解説を視聴し、必要に応じて入力部25を介して入力欄に感想を入力し、展示品が気に入った場合には入力部25を介していいねボタンを操作する。制御部21は、図14Bに示すような再生画面において、ユーザによるいいねボタンの操作又は入力欄への感想の入力を受け付けたか否かを判断する(S63)。いいねボタンの操作又は感想の入力のいずれかを受け付けたと判断した場合(S63:YES)、制御部21は、再生中の解説コンテンツのコンテンツIDに対応付けて、いいねボタンが操作されたことを示す情報、又は受け付けた感想を記憶部22に記憶する(S64)。なお、制御部21は、コンテンツIDに対応付けて、いいねボタンが操作されたことを示す情報、又は受け付けた感想を心拍変動DB22bに記憶するように構成されていてもよい。 After that, the control unit 21 performs the same processing as steps S12 to S15 in FIG. and generates heartbeat data indicating the user's heartbeat. In addition, the user can watch the explanation of the exhibit on the playback screen, enter his/her impressions in the input field via the input section 25 if necessary, and if he/she likes the exhibit, click "Like" via the input section 25. Operate the button. The control unit 21 determines whether or not the user's operation of the like button or input of impressions into the input field is accepted on the playback screen as shown in FIG. 14B (S63). If it is determined that either the operation of the Like button or the input of impressions has been accepted (S63: YES), the control unit 21 determines that the Like button has been operated in association with the content ID of the commentary content being played. or the received impressions are stored in the storage unit 22 (S64). Note that the control unit 21 may be configured to store information indicating that the like button has been operated or received impressions in the heart rate variation DB 22b in association with the content ID.

制御部21は、いいねボタンの操作及び感想の入力のいずれも受け付けていないと判断した場合(S63:NO)、ステップS64の処理をスキップし、ステップS65の処理に移行する。制御部21は、図14Bに示すような再生画面において、ユーザが終了ボタンを操作することにより、再生中の解説コンテンツの再生終了の指示を受け付けたか否かを判断する(S65)。制御部21は、再生終了の指示を受け付けていないと判断した場合(S65:NO)、ステップS17の処理に移行し、再生終了の指示を受け付けたと判断した場合(S65:YES)、ステップS18の処理に移行する。これにより、各展示品の解説コンテンツの再生中に所定時間毎に取得したユーザの顔画像に基づいて、所定時間毎のユーザの心拍を示す心拍データが生成されて記憶部22に記憶される。また制御部21は、図8中のステップS18~S20の処理を行うことにより、生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に基づいて、解説コンテンツの視聴中におけるユーザの心拍変動を示す心拍変動データが生成されて心拍変動DB22bに記憶される。 When the control unit 21 determines that neither the operation of the like button nor the input of comments has been accepted (S63: NO), the control unit 21 skips the process of step S64 and proceeds to the process of step S65. The control unit 21 determines whether or not the user operates the end button on the playback screen as shown in FIG. 14B to receive an instruction to end the playback of the commentary content being played (S65). If the control unit 21 determines that the instruction to end playback has not been received (S65: NO), the process proceeds to step S17, and if it determines that the instruction to end playback has been received (S65: YES), the process proceeds to step S18. Move to processing. As a result, heartbeat data indicating the user's heartbeat at predetermined time intervals is generated and stored in the storage unit 22 based on the user's face image acquired at predetermined time intervals during playback of the explanatory content of each exhibit. In addition, by performing the processing in steps S18 to S20 in FIG. 8, the control unit 21 determines the heart rate fluctuation of the user while viewing the commentary content based on the generated heart rate data (temporal change in the average pixel value in the hemoglobin image). Heart rate variation data indicating the heart rate variation is generated and stored in the heart rate variation DB 22b.

ステップS20の処理後、制御部21は、入力部25を介した操作に応じて、解説コンテンツの再生処理の終了指示を受け付けたか否かを判断する(S66)。例えば図14Aに示すコンテンツ一覧又は図14Bに示す再生画面中に、端末装置20の動作終了(解説処理の終了)を指示するための終了ボタンを設けておき、終了ボタンが操作された場合に、再生処理の終了指示を受け付けるように構成されていてもよい。なお、このような終了ボタンは、ユーザが端末装置20の利用を終了する際に操作してもよく、端末装置20が美術館に返却された後に美術館のスタッフ等によって操作されてもよい。制御部21は、再生処理の終了指示を受け付けていないと判断した場合(S66:NO)、ステップS61の処理に戻り、図14Aに示すようなコンテンツ一覧の表示に戻り、終了指示を受け付けたと判断した場合(S66:YES)、処理を終了する。上述した処理により、ユーザは美術館等の展示品に関する解説を受けることができると共に、ユーザのコンテンツ視聴中の心拍変動を示す心拍変動データを収集できる。 After the processing in step S20, the control unit 21 determines whether or not an instruction to end the explanation content reproduction process has been received in response to an operation via the input unit 25 (S66). For example, an end button for instructing the end of the operation of the terminal device 20 (end of the explanation process) is provided in the content list shown in FIG. 14A or the playback screen shown in FIG. 14B, and when the end button is operated, It may be configured to receive an instruction to end the playback process. Note that such an end button may be operated by the user when ending use of the terminal device 20, or may be operated by museum staff or the like after the terminal device 20 is returned to the museum. If the control unit 21 determines that the instruction to end the playback process has not been received (S66: NO), the control unit 21 returns to the process of step S61, returns to displaying the content list as shown in FIG. 14A, and determines that the instruction to end the playback process has been received. If so (S66: YES), the process ends. Through the above-described processing, the user can receive explanations about exhibits at museums, etc., and can collect heart rate variability data indicating heart rate fluctuations while the user is viewing content.

図15は、実施形態3のサーバ10による感情分析処理の手順を示すフローチャートである。図15に示す処理は、図9に示す処理においてステップS35の代わりにステップS71~S73を追加したものである。図9と同様のステップについては説明を省略する。本実施形態において、サーバ10の制御部11は、図9中のステップS31~S34と同様の処理を行う。これにより、サーバ10は、端末装置20が送信した心拍変動データを受信し、受信した心拍変動データに基づいて、各解説コンテンツ(解説コンテンツに対応する展示品)に対するユーザの感情を分析し、ユーザの各感情の時間変化を示す感情データを生成する。なお、本実施形態では、端末装置20が心拍変動データをサーバ10へ送信するタイミングは、ユーザが端末装置20の利用を終了したタイミングとしてもよい。また、本実施形態では、端末装置20は、端末装置20に割り当てられた識別子(例えば端末ID)又はユーザに割り当てられた識別子(例えばユーザID)に対応付けて心拍変動データをサーバ10へ送信する。よって、サーバ10は、端末ID又はユーザIDに対応付けて心拍変動データを例えば心拍変動DB12bに記憶し、ステップS34で生成した各感情の感情データを、端末ID又はユーザIDに対応付けて感情DB12cに記憶する。 FIG. 15 is a flowchart showing the procedure of emotion analysis processing by the server 10 of the third embodiment. The process shown in FIG. 15 is the process shown in FIG. 9 with steps S71 to S73 added instead of step S35. Description of steps similar to those in FIG. 9 will be omitted. In this embodiment, the control unit 11 of the server 10 performs the same processing as steps S31 to S34 in FIG. Thereby, the server 10 receives the heart rate variability data transmitted by the terminal device 20, analyzes the user's feelings toward each commentary content (exhibit corresponding to the commentary content) based on the received heart rate variability data, and Emotion data showing the temporal change of each emotion is generated. In this embodiment, the timing at which the terminal device 20 transmits the heart rate variability data to the server 10 may be the timing at which the user finishes using the terminal device 20. Furthermore, in the present embodiment, the terminal device 20 transmits heart rate variability data to the server 10 in association with an identifier assigned to the terminal device 20 (for example, terminal ID) or an identifier assigned to the user (for example, user ID). . Therefore, the server 10 stores the heart rate variation data in, for example, the heart rate variation DB 12b in association with the terminal ID or user ID, and stores the emotion data of each emotion generated in step S34 in the emotion DB 12c in association with the terminal ID or user ID. to be memorized.

ステップS34の処理後、制御部11(箇所抽出部)は、端末ID又はユーザIDに対応付けて感情DB12cに記憶した各解説コンテンツに対する感情データに基づいて、ユーザが所定の感情を抱いた箇所を抽出する(S71)。例えば制御部11は、各解説コンテンツに対する感情データに基づいて、例えば喜びの感情パラメータのスコアが所定値以上であった解説コンテンツを特定し、特定した解説コンテンツに対応するコンテンツIDを抽出する。そして制御部11(アルバム生成部)は、抽出したコンテンツIDに対応する解説コンテンツ又は展示品のサムネイル画像等を用いてアルバムデータを生成する(S72)。これにより、ユーザが所定の感情を抱いたコンテンツ又は展示品をまとめて閲覧できるアルバムを生成できる。制御部11は、生成したアルバムデータを端末ID又はユーザIDに対応付けて記憶部12に記憶し(S73)、処理を終了する。 After the process in step S34, the control unit 11 (location extraction unit) identifies locations where the user feels a predetermined emotion based on the emotion data for each commentary content stored in the emotion DB 12c in association with the terminal ID or user ID. Extract (S71). For example, the control unit 11 specifies, for example, the commentary content whose score of the emotional parameter of joy is equal to or higher than a predetermined value based on the emotional data for each commentary content, and extracts the content ID corresponding to the identified commentary content. Then, the control unit 11 (album generation unit) generates album data using the explanatory content or the thumbnail image of the exhibit item corresponding to the extracted content ID (S72). This makes it possible to generate an album in which the user can view all the contents or exhibits that make him or her feel a certain emotion. The control unit 11 stores the generated album data in the storage unit 12 in association with the terminal ID or user ID (S73), and ends the process.

上述した処理により、解説コンテンツ及び展示品を見たユーザの感情に応じたアルバムデータを生成できるので、ユーザが無意識に所定の感情を抱いた解説コンテンツ又は展示品をまとめて閲覧できるアルバムを提供できる。なお、アルバムデータを生成する感情は、例えば喜び、怒り、悲しみ、驚き、嫌悪、リラックス等の感情パラメータのいずれかが予め設定されていてもよく、また、ユーザからの選択によって変更できるように構成されていてもよい。また、サーバ10は、端末ID又はユーザIDに対応付けて記憶部12に記憶したアルバムデータを、例えばユーザが所有するユーザ端末(図示せず)に提供できるように構成されている。サーバ10は、例えばユーザ端末から、端末ID又はユーザIDを指定してアルバムデータの要求を受け付けた場合、要求されたアルバムデータを要求元のユーザ端末へ送信してもよい。これにより、ユーザは、自身のユーザ端末においてアルバムを閲覧できるので、美術館での展示品の鑑賞だけでなく、美術館での鑑賞後にアルバムによって展示品又は解説コンテンツを振り返ることができる。 Through the above-described processing, it is possible to generate album data that corresponds to the emotions of the user who viewed the explanatory content and exhibits, so it is possible to provide an album that allows the user to view explanatory contents or exhibits that make the user unconsciously have a predetermined emotion. . Note that the emotion for generating album data may be one of the emotion parameters set in advance, such as joy, anger, sadness, surprise, disgust, relaxation, etc., and may be configured to be changeable according to the user's selection. may have been done. Further, the server 10 is configured to be able to provide album data stored in the storage unit 12 in association with a terminal ID or user ID to, for example, a user terminal (not shown) owned by the user. For example, when the server 10 receives a request for album data from a user terminal by specifying a terminal ID or user ID, the server 10 may transmit the requested album data to the requesting user terminal. As a result, the user can view the album on his or her own user terminal, so that the user can not only view the exhibits at the museum, but also look back on the exhibits or explanatory content using the album after viewing the museum.

なお、サーバ10がアルバムデータをユーザ端末へ送信する場合、例えばサーバ10が、端末ID又はユーザIDに応じたQRコード(登録商標)を発行し、発行したQRコードをユーザ端末へ送信してもよい。この場合、ユーザ端末は、QRコードを読み取って得られた宛先情報(例えばURL(Uniform Resource Locator))に基づいてアルバムデータを要求し、サーバ10からアルバムデータを取得することができる。また、例えばサーバ10がユーザIDに対応付けてアルバムデータを記憶する構成において、端末装置20を用いてネットワークN経由でユーザIDに基づいてアルバムデータをサーバ10からダウンロードできるように構成してもよい。この場合、同じ美術館又は他の美術館で貸し出された端末装置20において、前回鑑賞した際に生成されたアルバムを見ながら展示品を鑑賞することができる。 Note that when the server 10 transmits album data to the user terminal, for example, the server 10 may issue a QR code (registered trademark) according to the terminal ID or user ID, and transmit the issued QR code to the user terminal. good. In this case, the user terminal can request album data based on destination information (for example, URL (Uniform Resource Locator)) obtained by reading the QR code, and can acquire the album data from the server 10. Furthermore, for example, in a configuration in which the server 10 stores album data in association with a user ID, the configuration may be such that the album data can be downloaded from the server 10 using the terminal device 20 via the network N based on the user ID. . In this case, it is possible to view the exhibit while viewing the album that was generated the last time the exhibit was viewed, using the terminal device 20 lent to the same museum or another museum.

本実施形態において、サーバ10は、端末装置20から受信した心拍変動データに基づいてアルバムデータを生成するか否かを、ユーザからの要求に応じて切り替えてもよい。例えば、サーバ10は、端末装置20又はユーザのユーザ端末からアルバムデータの要求を受け付けた後に、アルバムデータの生成処理を行い、端末装置20又はユーザ端末へ送信してもよい。このような構成とすることにより、アルバムデータの生成処理を不用意に行うことなく、処理負荷の増加を抑制できる。なお、本実施形態においても、サーバ10の制御部11は、図9中のステップS35の処理を行い、複数の端末装置20から収集した多数の視聴者の心拍変動データに基づいて、各コンテンツに対する感情レポートを生成してもよい。この場合、展示品を鑑賞する入館者の感情を分析し、各展示品について入館者の関心の有無等を把握できる。 In the present embodiment, the server 10 may switch whether or not to generate album data based on heart rate variability data received from the terminal device 20 in response to a request from the user. For example, after receiving a request for album data from the terminal device 20 or the user's user terminal, the server 10 may perform album data generation processing and transmit the generated album data to the terminal device 20 or the user terminal. With such a configuration, an increase in processing load can be suppressed without performing album data generation processing carelessly. In this embodiment as well, the control unit 11 of the server 10 performs the process of step S35 in FIG. A sentiment report may also be generated. In this case, the emotions of visitors viewing the exhibits can be analyzed to determine whether or not they are interested in each exhibit.

本実施形態において、端末装置20で再生されるコンテンツは美術館等の展示品に対する解説コンテンツのほかに、観光地及び観光スポット等を解説又は案内するためのコンテンツであってもよく、映画、アニメ及びドラマ等のようにそれ自体が鑑賞対象である電子データ(コンテンツ)であってもよい。観光案内用のコンテンツを用いる場合、ユーザの心拍変動データに基づいて、ユーザが所定の感情を抱いた箇所(観光地又は観光スポット)を抽出し、抽出した箇所の写真又は解説等をまとめたアルバムデータを生成することができる。また、映画、アニメ及びドラマ等の映像コンテンツを用いる場合、ユーザの心拍変動データに基づいて、ユーザが所定の感情を抱いた箇所(シーン)を抽出し、例えばユーザが気に入ったシーンをまとめたアルバムデータを生成することができる。 In the present embodiment, the content played on the terminal device 20 may be content for explaining or guiding tourist spots, tourist spots, etc., in addition to commentary content for exhibits in museums, etc., such as movies, animation, etc. It may also be electronic data (content) that is itself an object to be viewed, such as a drama or the like. When using content for tourist information, an album is created that extracts locations (tourist spots or sightseeing spots) where the user feels a certain emotion based on the user's heart rate fluctuation data, and compiles photos or explanations of the extracted locations. Data can be generated. Furthermore, when using video content such as movies, anime, dramas, etc., based on the user's heart rate fluctuation data, parts (scenes) where the user feels a certain emotion are extracted, and for example, an album is created that compiles the scenes that the user likes. Data can be generated.

(実施形態4)
ユーザが自身のユーザ端末(端末装置20)を使用している場合に、ユーザの顔画像に基づいてユーザの健康状態を判定する分析システムについて説明する。本実施形態の分析システムは、実施形態1の各装置と同様の装置によって実現できるので、構成については説明を省略する。なお、本実施形態では、端末装置20はユーザが所有するユーザ端末である。
(Embodiment 4)
An analysis system that determines the user's health condition based on the user's facial image when the user is using his or her own user terminal (terminal device 20) will be described. The analysis system of this embodiment can be realized by the same devices as those of the first embodiment, so a description of the configuration will be omitted. Note that in this embodiment, the terminal device 20 is a user terminal owned by a user.

図16は、実施形態4の端末装置20による健康状態判定処理の手順を示すフローチャートである。以下の処理は、端末装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部21によって実行される。本実施形態において、例えばユーザが端末装置20を用いてテレビ電話中、又は、電子メール、LINE(登録商標)、SNS(Social Networking Service )に関する操作中の場合、端末装置20の制御部21は、カメラ26による撮影を開始し、操作中のユーザの顔画像を取得する(S81)。ここでは、制御部21は、図8中のステップS12と同様の処理を行う。 FIG. 16 is a flowchart showing the procedure of health condition determination processing by the terminal device 20 of the fourth embodiment. The following processing is executed by the control unit 21 according to the control program 22P stored in the storage unit 22 of the terminal device 20. In this embodiment, for example, when the user is using the terminal device 20 to make a video call or to operate an e-mail, LINE (registered trademark), or SNS (Social Networking Service), the control unit 21 of the terminal device 20 Photographing by the camera 26 is started, and a face image of the user who is operating is acquired (S81). Here, the control unit 21 performs the same process as step S12 in FIG.

制御部21は、図8中のステップS13と同様の処理を行い、取得した顔画像(顔画像データ)に基づいてユーザの属性(年齢及び性別)を判定する(S82)。次に制御部21は、図8中のステップS14と同様の処理を行い、ステップS81で取得した顔画像に対してヘモグロビンに対応する色素成分を抽出する分離処理を行ってヘモグロビン画像を生成する(S83)。そして、制御部21は、生成したヘモグロビン画像に基づいて、ユーザのヘモグロビン色素濃度(ヘモグロビン濃度)を算出する(S84)。例えば制御部21は、ヘモグロビン画像においてユーザの顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、算出した値に対応するヘモグロビン色素濃度を特定する。なお、ヘモグロビン画像における平均画素値と、平均画素値に対応するヘモグロビン色素濃度とを対応付けて記憶部22に記憶しておくことにより、制御部21は、ヘモグロビン画像の平均画素値からユーザのヘモグロビン色素濃度を特定できる。 The control unit 21 performs the same process as step S13 in FIG. 8, and determines the user's attributes (age and gender) based on the acquired face image (face image data) (S82). Next, the control unit 21 performs a process similar to step S14 in FIG. 8, and performs a separation process to extract a pigment component corresponding to hemoglobin from the face image acquired in step S81 to generate a hemoglobin image ( S83). Then, the control unit 21 calculates the user's hemoglobin pigment concentration (hemoglobin concentration) based on the generated hemoglobin image (S84). For example, the control unit 21 calculates the average value (average pixel value) of the pixel value (component amount of hemoglobin component) of each pixel in the user's face area in the hemoglobin image, and specifies the hemoglobin pigment concentration corresponding to the calculated value. do. Note that by storing the average pixel value in the hemoglobin image and the hemoglobin pigment concentration corresponding to the average pixel value in the storage unit 22, the control unit 21 can calculate the user's hemoglobin from the average pixel value of the hemoglobin image. Dye concentration can be determined.

制御部21は、算出したヘモグロビン色素濃度が所定範囲内であるか否かを判断し(S85)、所定範囲内でないと判断した場合(S85:NO)、ユーザの健康状態がよくない可能性があることを通知する(S86)。例えば制御部21は、健康状態がよくない可能性があることを示すメッセージを表示部24に表示して通知する。なお、端末装置20がランプを有する場合、ランプを点灯又は点滅させることによって通知してもよく、端末装置20がスピーカ又はブザーを有する場合、スピーカによる音声出力又はブザーの鳴動によって通知してもよい。ヘモグロビン色素濃度が所定範囲内であると判断した場合(S85:YES)、制御部21は、ステップS86の処理をスキップして処理を終了する。 The control unit 21 determines whether the calculated hemoglobin pigment concentration is within a predetermined range (S85), and if it is determined that it is not within the predetermined range (S85: NO), there is a possibility that the user's health condition is not good. Notify that there is something (S86). For example, the control unit 21 displays a message on the display unit 24 to notify the user that the health condition may be poor. Note that if the terminal device 20 has a lamp, the notification may be made by lighting or blinking the lamp, and if the terminal device 20 has a speaker or a buzzer, the notification may be made by audio output from the speaker or sounding the buzzer. . If it is determined that the hemoglobin pigment concentration is within the predetermined range (S85: YES), the control unit 21 skips the process of step S86 and ends the process.

上述した処理により、ユーザの顔画像に基づいてユーザの健康状態を判定することができ、健康状態がよくない可能性がある場合に通知することができる。よって、ユーザは端末装置20を使用(操作)しているだけで意識することなく、健康状態の判定を行うことができる。例えば体内の水分量が低下すると血液中のヘモグロビン濃度が上昇するので、ヘモグロビン濃度によって熱中症を発症する気配があるか否かの判断が行われている。本実施形態では、ユーザの顔画像からユーザのヘモグロビン濃度を検出するので、血液検査を行うことなく、熱中症を発症する気配があるか否かの判断が可能となる。よって、熱中症の可能性がある場合に、水分補給の提案及び日陰への誘導等を行うことにより、早期の処置が可能となる。また、例えば建設現場又は工事現場等で作業中の作業者が用いるタブレット端末を端末装置20としてもよい。この場合、タブレット端末を操作する作業者の顔画像を撮影することによって、顔画像から作業者の健康状態を判定できる。また、例えば観光地等の屋外に長時間いる観光客に観光ガイドアプリを提供する場合に、観光ガイドアプリに、本実施形態のような健康状態を判定する機能を追加して提供してもよい。この場合、観光ガイドアプリは利用者に観光ガイドを提供すると共に、利用者の健康状態を判定し、健康状態がよくない可能性がある場合には通知することができる。 Through the above-described processing, it is possible to determine the user's health condition based on the user's face image, and it is possible to notify the user when there is a possibility that the user's health condition is not good. Therefore, the user can determine his/her health condition without being aware of it just by using (operating) the terminal device 20. For example, when the amount of water in the body decreases, the hemoglobin concentration in the blood increases, so it is determined whether there is a sign of developing heat stroke based on the hemoglobin concentration. In this embodiment, since the hemoglobin concentration of the user is detected from the user's face image, it is possible to determine whether or not there is a sign of developing heat stroke without performing a blood test. Therefore, if there is a possibility of heat stroke, early treatment can be taken by suggesting hydration and guiding the patient to the shade. Further, the terminal device 20 may be a tablet terminal used by a worker working at a construction site or a construction site, for example. In this case, by photographing a facial image of the worker operating the tablet terminal, the health condition of the worker can be determined from the facial image. Furthermore, for example, when providing a tourist guide app to tourists who spend a long time outdoors at a tourist spot, etc., the tourist guide app may be provided with an additional function for determining health status as in this embodiment. . In this case, the tourist guide app can provide the user with a tourist guide, determine the health condition of the user, and notify the user if there is a possibility that the user's health condition is not good.

本実施形態では、ヘモグロビン画像に基づいてユーザの健康状態を判定するが、例えば、ヘモグロビン画像に基づいてユーザの心拍を示す心拍データを生成し、心拍データも考慮してユーザの健康状態を判定してもよい。この場合、ヘモグロビン濃度の変化だけでなく、心拍の変動に基づいて不整脈等の健康状態をチェックできる。また、本実施形態の構成は、上述した実施形態1~3の感情分析システムにも適用できる。実施形態1-2の感情分析システムに適用した場合、端末装置20において、各種のコンテンツをユーザに提供しつつ、ユーザの顔画像に基づいて健康状態を判定できる。また実施形態3の感情分析システムに適用した場合、美術館等で貸し出される端末装置20において、展示品の解説コンテンツをユーザ(入館者)に提供しつつ、ユーザの顔画像に基づいて健康状態を判定できる。 In this embodiment, the user's health condition is determined based on the hemoglobin image. For example, heart rate data indicating the user's heart rate is generated based on the hemoglobin image, and the user's health condition is determined by also considering the heart rate data. It's okay. In this case, health conditions such as arrhythmia can be checked based not only on changes in hemoglobin concentration but also on heart rate fluctuations. Furthermore, the configuration of this embodiment can also be applied to the emotion analysis systems of Embodiments 1 to 3 described above. When applied to the emotion analysis system of Embodiment 1-2, the terminal device 20 can determine the user's health condition based on the user's facial image while providing the user with various contents. Furthermore, when applied to the emotion analysis system of Embodiment 3, the terminal device 20 rented out at an art museum, etc., provides explanatory content of exhibits to the user (visitor) and determines the user's health condition based on the user's facial image. can.

上述した各実施形態において、端末装置20は、例えばスマートフォンに所定のアプリケーションプログラムをインストールすることによって実現されてもよい。なお、カメラを有するスマートフォンでは、カメラによる撮影が行われた場合に、取得された撮影画像に対してホワイトバランス処理等の画質を補正する処理(画質補正処理)が自動的に行われるように構成されている場合がある。このような画質補正機能を有するスマートフォンを用いて端末装置20を実現する場合、制御部21は、カメラ26で顔画像データを取得した場合に、顔画像データに対して画質補正処理を行う補正部として機能する。このような構成においては、制御部(禁止部)21は、視聴者の顔画像に基づいて視聴者の感情分析を行う場合には、カメラ26で撮影した視聴者の顔画像に対する画質補正処理の実行を禁止するように構成される。自動的に実行される画質補正処理を行わないことにより、視聴者の顔画像を忠実に取得でき、このような顔画像に基づいて視聴者の感情を精度よく分析できる。 In each of the embodiments described above, the terminal device 20 may be realized, for example, by installing a predetermined application program on a smartphone. Note that smartphones equipped with a camera are configured so that when a photograph is taken with the camera, image quality correction processing (image quality correction processing) such as white balance processing is automatically performed on the captured image. It may have been done. When implementing the terminal device 20 using a smartphone having such an image quality correction function, the control unit 21 includes a correction unit that performs image quality correction processing on the face image data when the camera 26 acquires the face image data. functions as In such a configuration, the control unit (inhibition unit) 21 performs image quality correction processing on the viewer's face image captured by the camera 26 when performing emotional analysis of the viewer based on the viewer's face image. Configured to prohibit execution. By not performing automatically executed image quality correction processing, a facial image of the viewer can be faithfully obtained, and the emotions of the viewer can be accurately analyzed based on such a facial image.

今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the claims, not the above-mentioned meaning, and is intended to include meanings equivalent to the claims and all changes within the scope.

10 サーバ(情報処理装置)
11 制御部
12 記憶部
20 端末装置
21 制御部
22 記憶部
24 表示部
26 カメラ
101 心拍変動データ取得部
103 感情分析部
104 レポート生成部
202 撮影部
204 ヘモグロビン画像生成部
205 心拍データ生成部
206 心拍変動データ生成部
207 出力部
10 Server (information processing device)
11 Control unit 12 Storage unit 20 Terminal device 21 Control unit 22 Storage unit 24 Display unit 26 Camera 101 Heart rate variation data acquisition unit 103 Emotion analysis unit 104 Report generation unit 202 Photography unit 204 Hemoglobin image generation unit 205 Heart rate data generation unit 206 Heart rate variation Data generation section 207 Output section

Claims (13)

第1装置が、
コンテンツを表示部に表示し、
表示されるコンテンツを視認するユーザの顔の顔画像データを取得し、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成し、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成し、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成し、
第2装置が、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成し、
複数の前記ユーザの感情データに基づいて、動画である前記コンテンツに対して、複数の感情パラメータに対する分析値が最大値となった時点における再生開始からの時間を示す感情レポートを生成する
報処理方法。
The first device is
Display the content on the display section,
Obtain facial image data of the user's face viewing the displayed content,
extracting a pigment component corresponding to hemoglobin from the face image data to generate hemoglobin image data;
generating heartbeat data indicating the user's heartbeat based on the hemoglobin image data;
Performing frequency conversion on the heart rate data to generate heart rate variability data indicating heart rate variability of the user;
The second device is
analyzing the user's emotion based on the heart rate variability data and generating emotion data indicating the user's emotion;
An emotion report is generated for the content, which is a video, based on the emotion data of the plurality of users, indicating the time from the start of playback at the time when the analysis value for the plurality of emotion parameters reaches a maximum value.
Information processing method.
前記第2装置が、
動画である前記コンテンツの再生開始からの各時点における複数の感情パラメータに対する分析値を示す感情レポートを生成する
求項に記載の情報処理方法。
The second device is
Generating an emotion report showing analysis values for multiple emotion parameters at each point in time from the start of playback of the content, which is a video.
The information processing method according to claim 1 .
前記第2装置が、
前記感情レポートに基づく前記複数の感情パラメータに対する分析値と、前記コンテンツとを、前記コンテンツの再生開始からの経過時間に同期して表示するための表示データを出力する
求項に記載の情報処理方法。
The second device is
outputting display data for displaying analysis values for the plurality of emotion parameters based on the emotion report and the content in synchronization with elapsed time from the start of reproduction of the content;
The information processing method according to claim 2 .
前記コンテンツは、複数の質問を有するアンケートを含み、
前記第2装置が、
前記複数の質問のそれぞれに回答するユーザの顔画像データから生成された前記ユーザの心拍変動データに基づいて、それぞれの質問に対する前記ユーザの感情データを生成する
求項1からまでのいずれかひとつに記載の情報処理方法。
The content includes a survey having multiple questions;
The second device is
Generate emotion data of the user in response to each question based on heart rate variability data of the user generated from facial image data of the user who answers each of the plurality of questions.
The information processing method according to any one of claims 1 to 3 .
前記コンテンツは、ストレスチェックに係る質問を含み、
前記第1装置が、
前記質問に対する回答を受け付け、
前記質問に回答するユーザの顔画像データに基づいて前記質問に回答する前記ユーザの心拍変動データを生成し、
前記第2装置が、
前記質問に回答する前記ユーザの心拍変動データに基づいて前記質問に対する前記ユーザの感情データを生成し、
前記質問に対する回答と生成した前記感情データとを対応付けて出力する
求項1からまでのいずれかひとつに記載の情報処理方法。
The content includes questions related to stress check,
The first device is
Accepting answers to the above questions,
Generating heart rate variability data of the user who answers the question based on facial image data of the user who answers the question;
The second device is
generating emotion data of the user in response to the question based on heart rate variability data of the user responding to the question;
Correlating and outputting the answer to the question with the generated emotion data
The information processing method according to any one of claims 1 to 4 .
第1装置が、
コンテンツを表示部に表示し、
表示されるコンテンツを視認するユーザの顔の顔画像データを取得し、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成し、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成し、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成し、
第2装置が、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成し、
前記感情データに基づいて、前記コンテンツから、前記ユーザが所定の感情を抱いた箇所を抽出し、
抽出した箇所に対応するデータを用いてアルバムデータを生成し、
前記ユーザに割り当てられた識別子に対応付けて、生成された前記アルバムデータを記憶部に記憶し、
前記識別子に基づいて前記アルバムデータを要求された場合に、前記アルバムデータを出力する
報処理方法。
The first device is
Display the content on the display section,
Obtain facial image data of the user's face viewing the displayed content,
extracting a pigment component corresponding to hemoglobin from the face image data to generate hemoglobin image data;
generating heartbeat data indicating the user's heartbeat based on the hemoglobin image data;
Performing frequency conversion on the heart rate data to generate heart rate variability data indicating heart rate variability of the user;
The second device is
analyzing the user's emotion based on the heart rate variability data and generating emotion data indicating the user's emotion;
extracting a portion where the user feels a predetermined emotion from the content based on the emotion data;
Generate album data using data corresponding to the extracted locations,
storing the generated album data in a storage unit in association with an identifier assigned to the user;
Output the album data when the album data is requested based on the identifier.
Information processing method.
コンテンツを表示する表示部と、
前記表示部に表示されるコンテンツを視認するユーザの顔の顔画像データを取得する取得部と、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成する抽出部と、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成する心拍データ生成部と、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成する心拍変動データ生成部と、
前記心拍変動データを前記コンテンツに係るコンテンツ情報と共に出力する出力部と
を備える端末装置。
a display section that displays content;
an acquisition unit that acquires facial image data of a user's face viewing content displayed on the display unit;
an extraction unit that extracts a pigment component corresponding to hemoglobin from the face image data to generate hemoglobin image data;
a heartbeat data generation unit that generates heartbeat data indicating the user's heartbeat based on the hemoglobin image data;
a heart rate variability data generation unit that performs frequency conversion on the heart rate data to generate heart rate variability data indicating heart rate variability of the user;
A terminal device comprising: an output unit that outputs the heart rate variability data together with content information related to the content.
前記取得部が取得した顔画像データ、及び前記抽出部が生成したヘモグロビン画像データの少なくとも一方を記憶する記憶部と、
前記出力部が前記心拍変動データ及びコンテンツ情報を出力した後に、前記記憶部に記憶された前記顔画像データ又は前記ヘモグロビン画像データを前記記憶部から消去する消去部と
を備える請求項に記載の端末装置。
a storage unit that stores at least one of the face image data acquired by the acquisition unit and the hemoglobin image data generated by the extraction unit;
and an erasing section that erases the face image data or the hemoglobin image data stored in the storage section from the storage section after the output section outputs the heart rate variability data and content information . Terminal device.
前記取得部が顔画像データを取得した場合に、前記顔画像データに対して画質補正処理を行う補正部と、
前記顔画像データを前記ユーザの感情分析に用いる場合、前記補正部による画質補正処理の実行を禁止する禁止部と
を更に備える請求項又はに記載の端末装置。
a correction unit that performs image quality correction processing on the facial image data when the acquisition unit acquires the facial image data;
The terminal device according to claim 7 or 8 , further comprising: a prohibition unit that prohibits execution of image quality correction processing by the correction unit when the face image data is used for emotion analysis of the user .
表示されるコンテンツを視認するユーザの顔の顔画像データに基づいて生成された前記ユーザの心拍変動を示す心拍変動データを取得するデータ取得部と、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する感情分析部と、
複数の前記心拍変動データに基づいて生成した複数の前記ユーザの感情データに基づいて、前記コンテンツに対する感情レポートを生成するレポート生成部と
を備え
前記レポート生成部は、複数の前記ユーザの感情データに基づいて、動画である前記コンテンツに対して、複数の感情パラメータに対する分析値が最大値となった時点における再生開始からの時間を示す感情レポートを生成する
情報処理装置。
a data acquisition unit that acquires heart rate variability data indicating the heart rate variability of the user generated based on facial image data of the user's face viewing the displayed content;
an emotion analysis unit that analyzes the user's emotion based on the heart rate variation data and generates emotion data indicating the user's emotion;
a report generation unit that generates an emotion report for the content based on the emotion data of the plurality of users generated based on the plurality of heart rate variation data ;
The report generation unit generates an emotion report for the content, which is a video, based on the emotion data of the plurality of users, indicating the time from the start of playback at the time when the analysis value for the plurality of emotion parameters reaches the maximum value. generate
Information processing device.
表示されるコンテンツを視認するユーザの顔の顔画像データに基づいて生成された前記ユーザの心拍変動を示す心拍変動データを取得するデータ取得部と、 a data acquisition unit that acquires heart rate variability data indicating the heart rate variability of the user generated based on facial image data of the user's face viewing the displayed content;
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する感情分析部と、 an emotion analysis unit that analyzes the user's emotion based on the heart rate variation data and generates emotion data indicating the user's emotion;
前記感情データに基づいて、前記コンテンツから、前記ユーザが所定の感情を抱いた箇所を抽出する箇所抽出部と、 a location extraction unit that extracts a location where the user feels a predetermined emotion from the content based on the emotion data;
抽出した箇所に対応するデータを用いてアルバムデータを生成するアルバム生成部と、 an album generation unit that generates album data using data corresponding to the extracted locations;
前記ユーザに割り当てられた識別子に対応付けて、生成した前記アルバムデータを記憶する記憶部と、 a storage unit that stores the generated album data in association with an identifier assigned to the user;
前記識別子に基づいて前記アルバムデータを要求された場合に、前記アルバムデータを出力する出力部と an output unit that outputs the album data when the album data is requested based on the identifier;
を備える情報処理装置。 An information processing device comprising:
前記データ取得部は、請求項からまでのいずれかひとつに記載の端末装置が出力した前記心拍変動データ及びコンテンツ情報を取得する
請求項10又は11に記載の情報処理装置。
The information processing device according to claim 10 or 11 , wherein the data acquisition unit acquires the heart rate variability data and content information output by the terminal device according to any one of claims 7 to 9 .
コンテンツを表示する表示部を備える端末装置と、前記端末装置と通信可能な情報処理装置とを有する情報処理システムであって、 An information processing system comprising a terminal device including a display unit that displays content, and an information processing device capable of communicating with the terminal device,
前記端末装置は、 The terminal device is
前記表示部に表示されるコンテンツを視認するユーザの顔の顔画像データを取得する取得部と、 an acquisition unit that acquires facial image data of a user's face viewing content displayed on the display unit;
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成する抽出部と、 an extraction unit that extracts a pigment component corresponding to hemoglobin from the face image data to generate hemoglobin image data;
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成する心拍データ生成部と、 a heartbeat data generation unit that generates heartbeat data indicating the user's heartbeat based on the hemoglobin image data;
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成する心拍変動データ生成部と、 a heart rate variability data generation unit that performs frequency conversion on the heart rate data to generate heart rate variability data indicating heart rate variability of the user;
前記心拍変動データを前記コンテンツに係るコンテンツ情報と共に出力する出力部とを備え、 an output unit that outputs the heart rate variability data together with content information related to the content,
前記情報処理装置は、 The information processing device includes:
前記端末装置が出力した前記心拍変動データ及びコンテンツ情報を取得するデータ取得部と、 a data acquisition unit that acquires the heart rate variability data and content information output by the terminal device;
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する感情分析部と、 an emotion analysis unit that analyzes the user's emotion based on the heart rate variation data and generates emotion data indicating the user's emotion;
複数の前記心拍変動データに基づいて生成した複数の前記ユーザの感情データに基づいて、前記コンテンツに対する感情レポートを生成するレポート生成部とを備える and a report generation unit that generates an emotion report for the content based on the plurality of emotional data of the users generated based on the plurality of heart rate variation data.
情報処理システム。 Information processing system.
JP2020010943A 2019-01-31 2020-01-27 Information processing method, terminal device, information processing device, and information processing system Active JP7440020B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019015075 2019-01-31
JP2019015075 2019-01-31

Publications (2)

Publication Number Publication Date
JP2020126645A JP2020126645A (en) 2020-08-20
JP7440020B2 true JP7440020B2 (en) 2024-02-28

Family

ID=72084961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010943A Active JP7440020B2 (en) 2019-01-31 2020-01-27 Information processing method, terminal device, information processing device, and information processing system

Country Status (1)

Country Link
JP (1) JP7440020B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114205270B (en) * 2020-09-17 2023-09-22 北京三快在线科技有限公司 Device state determining method and device, storage medium and electronic device
US20230363680A1 (en) * 2020-09-24 2023-11-16 Citizen Watch Co., Ltd. Emotion assessment apparatus, emotion assessment method and emotion assessment program
JP7061714B1 (en) * 2020-12-03 2022-04-28 ポーラ化成工業株式会社 Solution provision system and mobile terminal
JP7024136B1 (en) 2021-11-05 2022-02-22 ポーラ化成工業株式会社 Analytical system
JP2022169224A (en) * 2021-04-27 2022-11-09 オムロン株式会社 Content evaluation device, content evaluation method, and content evaluation program
JP7069389B1 (en) 2021-07-29 2022-05-17 ポーラ化成工業株式会社 Solution provision system and mobile terminal
JP7069390B1 (en) 2021-07-29 2022-05-17 ポーラ化成工業株式会社 Mobile terminal
WO2023074589A1 (en) * 2021-10-28 2023-05-04 株式会社センシング Information processing device, information processing system, and program
WO2023135632A1 (en) * 2022-01-11 2023-07-20 日本電気株式会社 Stress estimation device, stress estimation method, and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150796A (en) 2003-11-11 2005-06-09 Matsushita Electric Ind Co Ltd Output apparatus and program thereof
JP2009005094A (en) 2007-06-21 2009-01-08 Mitsubishi Electric Corp Mobile terminal
JP2010250528A (en) 2009-04-15 2010-11-04 Yahoo Japan Corp Feeling matching device, feeling matching method, and program
JP2014081913A (en) 2012-09-27 2014-05-08 Dainippon Printing Co Ltd Questionnaire analysis device, questionnaire analysis system, questionnaire analysis method and program
JP2015082691A (en) 2013-10-21 2015-04-27 日本電信電話株式会社 Video editing device, video editing method, and video editing program
JP2016535347A (en) 2013-08-15 2016-11-10 リアルアイズ・オーウー Methods in support of video impression analysis, including interactive collection of computer user data
JP2017029318A (en) 2015-07-30 2017-02-09 国立大学法人 千葉大学 Method for processing image for stress-monitoring and program of the same
JP2017146733A (en) 2016-02-16 2017-08-24 株式会社リコー Extraction support system, extraction support server, extraction support program, and extraction support method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150796A (en) 2003-11-11 2005-06-09 Matsushita Electric Ind Co Ltd Output apparatus and program thereof
JP2009005094A (en) 2007-06-21 2009-01-08 Mitsubishi Electric Corp Mobile terminal
JP2010250528A (en) 2009-04-15 2010-11-04 Yahoo Japan Corp Feeling matching device, feeling matching method, and program
JP2014081913A (en) 2012-09-27 2014-05-08 Dainippon Printing Co Ltd Questionnaire analysis device, questionnaire analysis system, questionnaire analysis method and program
JP2016535347A (en) 2013-08-15 2016-11-10 リアルアイズ・オーウー Methods in support of video impression analysis, including interactive collection of computer user data
JP2015082691A (en) 2013-10-21 2015-04-27 日本電信電話株式会社 Video editing device, video editing method, and video editing program
JP2017029318A (en) 2015-07-30 2017-02-09 国立大学法人 千葉大学 Method for processing image for stress-monitoring and program of the same
JP2017146733A (en) 2016-02-16 2017-08-24 株式会社リコー Extraction support system, extraction support server, extraction support program, and extraction support method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
安丸 昌輝,顔映像の脈波測定を活用した感情推定,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2018年05月31日,Vol.118 No.73,p.39-42
津村 徳道,顔画像のヘモグロビン色素分離による非接触心拍変動計測とストレスモニタリング,[online],2016年12月13日,[検索日 2023.08.29], インターネット<URL:https://shingi.jst.go.jp/pdf/2016/2016_cictokyoB_6.pdf>
第2章 潜在意識編 進化するニューロリサーチ、一方で手軽な潜在意識調査も,日経XTREND,日経BP社,2018年09月14日,p.26-29

Also Published As

Publication number Publication date
JP2020126645A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP7440020B2 (en) Information processing method, terminal device, information processing device, and information processing system
US11200964B2 (en) Short imagery task (SIT) research method
US20130151333A1 (en) Affect based evaluation of advertisement effectiveness
CN105339969B (en) Linked advertisements
JP6424357B2 (en) Visual target efficiency measurement device
US20130115582A1 (en) Affect based concept testing
JP6807389B2 (en) Methods and equipment for immediate prediction of media content performance
WO2010123770A2 (en) Method and system for measuring user experience for interactive activities
US20130102854A1 (en) Mental state evaluation learning for advertising
JP6236875B2 (en) Content providing program, content providing method, and content providing apparatus
JP4631014B2 (en) Electronic teaching material learning support device, electronic teaching material learning support system, electronic teaching material learning support method, and electronic learning support program
JP7234930B2 (en) Information processing device, information processing method, and information processing system
US20140058828A1 (en) Optimizing media based on mental state analysis
KR102106517B1 (en) Apparatus for analyzing emotion of examinee, method thereof and computer recordable medium storing program to perform the method
Vermeulen et al. Heartefacts: augmenting mobile video sharing using wrist-worn heart rate sensors
US20130052621A1 (en) Mental state analysis of voters
KR20150034925A (en) Method for searching image and recording-medium recorded program thereof
US10880602B2 (en) Method of objectively utilizing user facial expressions when viewing media presentations for evaluating a marketing campaign
JP6567461B2 (en) Recognition device, video content presentation system, program
JP7031812B1 (en) Programs, methods, and systems
JP2014060642A (en) Display device and display system
Chen Using an eye tracker to investigate the effect of sticker on LINE APP for older adults
KR102642350B1 (en) Device customer interaction-based advertising effect measurement and real-time reflection signage solution
WO2014105266A1 (en) Optimizing media based on mental state analysis
US20230049225A1 (en) Emotion tag assigning system, method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221101

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7440020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150