JP6450408B2 - Information acquisition system, information acquisition method, and computer program - Google Patents

Information acquisition system, information acquisition method, and computer program Download PDF

Info

Publication number
JP6450408B2
JP6450408B2 JP2017031403A JP2017031403A JP6450408B2 JP 6450408 B2 JP6450408 B2 JP 6450408B2 JP 2017031403 A JP2017031403 A JP 2017031403A JP 2017031403 A JP2017031403 A JP 2017031403A JP 6450408 B2 JP6450408 B2 JP 6450408B2
Authority
JP
Japan
Prior art keywords
information
user
content
biometric information
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017031403A
Other languages
Japanese (ja)
Other versions
JP2017127002A (en
Inventor
裕子 紺家
裕子 紺家
宏信 柴田
宏信 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2017031403A priority Critical patent/JP6450408B2/en
Publication of JP2017127002A publication Critical patent/JP2017127002A/en
Application granted granted Critical
Publication of JP6450408B2 publication Critical patent/JP6450408B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、コンテンツを視聴しているユーザに対して付加的サービスを提供する技術に関する。   The present invention relates to a technique for providing an additional service to a user who is viewing content.

従来、コンテンツを視聴しているユーザ同士で、SNS(Social Networking Service)等のツールを用いることによって感想を共有することが行われている(例えば特許文献1参照)。このようなツールでは、ユーザがテキストや絵文字を用いて自身の感想を入力することで、他者との感想の共有が実現される。   2. Description of the Related Art Conventionally, users who view content share an impression by using a tool such as SNS (Social Networking Service) (see, for example, Patent Document 1). In such a tool, the user can share his / her impressions with others by inputting his / her own impressions using text and pictograms.

特開2004−350092号公報JP 2004-350092 A

しかしながら、ユーザは、コンテンツの視聴と感想の入力とを並行して行う必要があった。そのため、ユーザはコンテンツの視聴に集中することが困難であった。
上記事情に鑑み、本発明は、より容易にコンテンツの視聴に関する情動の共有を可能にする技術の提供を目的としている。
However, the user has to perform content viewing and input of impressions in parallel. For this reason, it is difficult for the user to concentrate on viewing the content.
In view of the circumstances described above, an object of the present invention is to provide a technique that makes it easier to share emotions related to content viewing.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得部と、前記取得部によって取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析部と、を備える情報取得システムである。   One aspect of the present invention is an acquisition unit that acquires biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired by the acquisition unit. An information acquisition system comprising: an analysis unit that acquires emotional information by analyzing biological information of a plurality of users who are viewing the same content.

本発明の一態様は、上記の情報取得システムであって、前記解析部は、第1のユーザの前記生体情報と、第2のユーザの前記生体情報と、の変化の類似性を表す情報を前記情動情報として取得する。   One aspect of the present invention is the above-described information acquisition system, in which the analysis unit includes information indicating similarity of changes between the biological information of the first user and the biological information of the second user. Obtained as the emotion information.

本発明の一態様は、上記の情報取得システムであって、前記解析部は、前記複数のユーザの生体情報の統計情報を前記情動情報として取得する。
本発明の一態様は、上記の情報取得システムであって、前記解析部によって取得された情動情報を表示する端末装置に対して、前記情動情報が表示可能となるように前記情動情報を送信する送信部、をさらに備える。
本発明の一態様は、上記の情報取得システムであって、前記解析部は、第1のユーザの前記生体情報と、第2のユーザの前記生体情報と、を用いて解析する場合に、前記第1のユーザの前記生体情報の取得タイミングと、前記第2のユーザの前記生体情報の取得タイミングとを、前記第1のユーザが前記コンテンツを視聴したタイミング及び前記第2のユーザが前記コンテンツを視聴したタイミングに応じて補正する。
One aspect of the present invention is the above information acquisition system, wherein the analysis unit acquires statistical information of biological information of the plurality of users as the emotion information.
One aspect of the present invention is the above-described information acquisition system, wherein the emotion information is transmitted to a terminal device that displays the emotion information acquired by the analysis unit so that the emotion information can be displayed. A transmission unit;
One aspect of the present invention is the above-described information acquisition system, wherein the analysis unit performs analysis using the biological information of the first user and the biological information of the second user. The acquisition timing of the biometric information of the first user and the acquisition timing of the biometric information of the second user, the timing when the first user views the content, and the second user Correct according to the viewing timing.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得ステップと、前記取得ステップにおいて取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析ステップと、を有する情報取得方法である。   One aspect of the present invention is an acquisition step of acquiring biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired in the acquisition step. And an analysis step of acquiring emotional information by analyzing biological information of a plurality of users who are viewing the same content.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得ステップと、前記取得ステップにおいて取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析ステップと、をコンピュータに実行させるためのコンピュータプログラムである。   One aspect of the present invention is an acquisition step of acquiring biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired in the acquisition step. A computer program for causing a computer to execute an analysis step of acquiring emotion information by analyzing biological information of a plurality of users who are viewing the same content.

本発明の一態様は、さらに以下のような構成であってもよい。   One embodiment of the present invention may further have the following configuration.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得部と、前記取得部によって取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析部と、を備え、前記解析部は、前記複数のユーザの生体情報の統計情報を前記情動情報として取得する情報取得システムである。   One aspect of the present invention is an acquisition unit that acquires biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired by the acquisition unit. An analysis unit that acquires emotional information by analyzing biometric information of a plurality of users who are viewing the same content, and the analysis unit obtains statistical information on the biometric information of the plurality of users. This is an information acquisition system for acquiring emotion information.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得部と、前記取得部によって取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析部と、を備え、前記解析部は、前記コンテンツの出演者の生体情報を前記情動情報として取得する情報取得システムである。   One aspect of the present invention is an acquisition unit that acquires biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired by the acquisition unit. An analysis unit that acquires emotional information by analyzing biometric information of a plurality of users who are viewing the same content, and the analysis unit converts the biometric information of performers of the content into the emotional information As an information acquisition system.

本発明の一態様は、上記の情報取得システムであって、前記解析部は、前記コンテンツの出演者の生体情報を前記情動情報としてさらに取得する。   One aspect of the present invention is the above information acquisition system, wherein the analysis unit further acquires biometric information of a performer of the content as the emotion information.

本発明の一態様は、上記の情報取得システムであって、前記ユーザに対してコンテンツを視聴可能に出力している出力装置又は前記ユーザの前記生体情報を前記取得部へ送信する端末装置を宛先として、前記情動情報を送信する送信制御部をさらに備える。   One aspect of the present invention is the above-described information acquisition system, in which an output device that outputs content to the user so as to be viewable or a terminal device that transmits the biometric information of the user to the acquisition unit A transmission control unit for transmitting the emotion information.

本発明の一態様は、上記の情報取得システムであって、前記出力装置又は前記端末装置は、前記情動情報を示す画像を画面に表示する。   One aspect of the present invention is the information acquisition system, wherein the output device or the terminal device displays an image indicating the emotion information on a screen.

本発明の一態様は、上記の情報取得システムであって、前記出力装置又は前記端末装置は、前記ユーザの生体情報を示す画像を画面に表示する。   One aspect of the present invention is the above-described information acquisition system, wherein the output device or the terminal device displays an image indicating the biometric information of the user on a screen.

本発明の一態様は、上記の情報取得システムであって、前記送信制御部は、前記解析部によって解析された生体情報のコンテンツと同一のコンテンツを視聴しているユーザの出力装置又は端末装置を宛先として、前記情動情報を送信する。   One aspect of the present invention is the above-described information acquisition system, in which the transmission control unit includes an output device or a terminal device of a user who is viewing the same content as the content of the biological information analyzed by the analysis unit. The emotion information is transmitted as a destination.

本発明の一態様は、上記の情報取得システムであって、前記解析部は、第1のユーザの前記生体情報と、第2のユーザの前記生体情報と、の変化の類似性を表す情報を前記情動情報として取得する。   One aspect of the present invention is the above-described information acquisition system, in which the analysis unit includes information indicating similarity of changes between the biological information of the first user and the biological information of the second user. Obtained as the emotion information.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得ステップと、前記取得ステップにおいて取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析ステップと、を有し、前記解析ステップにおいて、前記複数のユーザの生体情報の統計情報を前記情動情報として取得する情報取得方法である。   One aspect of the present invention is an acquisition step of acquiring biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired in the acquisition step. Analyzing the biological information of a plurality of users who are viewing the same content, thereby obtaining emotion information, and in the analyzing step, statistical information of the biological information of the plurality of users is obtained. It is the information acquisition method acquired as the emotion information.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得ステップと、前記取得ステップにおいて取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析ステップと、を有し、前記解析ステップにおいて、前記コンテンツの出演者の生体情報を前記情動情報として取得する情報取得方法である。   One aspect of the present invention is an acquisition step of acquiring biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired in the acquisition step. Analyzing the biometric information of a plurality of users who are viewing the same content, thereby obtaining emotion information, and in the analysis step, the biometric information of the performer of the content is converted into the emotion information. It is an information acquisition method acquired as information.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得部と、前記取得部によって取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析部と、を備え、前記解析部は、前記複数のユーザの生体情報の統計情報を前記情動情報として取得する情報取得システム、としてコンピュータを機能させるためのコンピュータプログラムである。   One aspect of the present invention is an acquisition unit that acquires biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired by the acquisition unit. An analysis unit that acquires emotional information by analyzing biometric information of a plurality of users who are viewing the same content, and the analysis unit obtains statistical information on the biometric information of the plurality of users. A computer program for causing a computer to function as an information acquisition system for acquiring emotion information.

本発明の一態様は、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得部と、前記取得部によって取得された前記生体情報のうち、同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって、情動情報を取得する解析部と、を備え、前記解析部は、前記コンテンツの出演者の生体情報を前記情動情報として取得する情報取得システム、としてコンピュータを機能させるためのコンピュータプログラムである。   One aspect of the present invention is an acquisition unit that acquires biometric information of a user who is viewing content in association with the content being viewed by the user, and the biometric information acquired by the acquisition unit. An analysis unit that acquires emotional information by analyzing biometric information of a plurality of users who are viewing the same content, and the analysis unit converts the biometric information of performers of the content into the emotional information As a computer program for causing a computer to function as an information acquisition system.

本発明により、より容易にコンテンツの視聴に関する情動の共有が可能となる。   According to the present invention, it is possible to more easily share emotions related to content viewing.

情報取得システム1のシステム構成を表すシステム構成図である。1 is a system configuration diagram illustrating a system configuration of an information acquisition system 1. FIG. センササーバ50の機能を表す概略ブロック図である。3 is a schematic block diagram showing functions of a sensor server 50. FIG. センサデータ記憶部503に記憶されている生体情報テーブルの具体例を示す図である。It is a figure which shows the specific example of the biometric information table memorize | stored in the sensor data storage part.

図1は、情報取得システム1のシステム構成を表すシステム構成図である。情報取得システム1は、端末装置10、生体情報センサ20、テレビ受像機30、ネットワーク40及びセンササーバ50を備える。端末装置10、テレビ受像機30及びセンササーバ50は、ネットワーク40に接続されている。   FIG. 1 is a system configuration diagram illustrating a system configuration of the information acquisition system 1. The information acquisition system 1 includes a terminal device 10, a biological information sensor 20, a television receiver 30, a network 40, and a sensor server 50. The terminal device 10, the television receiver 30, and the sensor server 50 are connected to the network 40.

端末装置10は、ネットワーク40を介して通信可能な情報処理装置である。端末装置10は、例えば携帯電話機、スマートフォン、タブレット、電話機、パーソナルコンピュータ、ゲーム機器、セットトップボックス等を用いて構成される。端末装置10は、生体情報から無線通信又は有線通信によって生体情報を取得する。端末装置10は、生体情報センサ20によって生体情報が取得されているユーザが視聴しているコンテンツの識別情報(コンテンツID)と、生体情報が取得された日時と、生体情報と、をセンササーバ50に送信する。また、端末装置10は、センササーバ50から情動情報を受信すると、受信された情動情報を画面に出力する。   The terminal device 10 is an information processing device that can communicate via the network 40. The terminal device 10 is configured using, for example, a mobile phone, a smartphone, a tablet, a phone, a personal computer, a game device, a set top box, or the like. The terminal device 10 acquires biological information from the biological information by wireless communication or wired communication. The terminal device 10 receives the identification information (content ID) of the content viewed by the user whose biometric information has been acquired by the biometric information sensor 20, the date and time when the biometric information was acquired, and the biometric information. Send to. Further, when the terminal device 10 receives the emotion information from the sensor server 50, the terminal device 10 outputs the received emotion information to the screen.

なお、端末装置10は、生体情報センサ20によって生体情報が取得されているユーザが視聴しているコンテンツの識別情報(コンテンツID)をどのような処理によって取得してもよい。例えば、ユーザが端末装置10を操作することによってコンテンツIDを端末装置10に入力してもよい。例えば、テレビ受像機30から、テレビ受像機30において再生中のコンテンツのコンテンツIDを無線通信又は有線通信によって取得してもよい。例えば、コンテンツが端末装置10において再生されている場合には、コンテンツを再生するアプリケーションから再生中のコンテンツのコンテンツIDを取得してもよい。   The terminal device 10 may acquire the identification information (content ID) of the content viewed by the user whose biometric information has been acquired by the biometric information sensor 20 by any process. For example, the content ID may be input to the terminal device 10 by the user operating the terminal device 10. For example, the content ID of the content being played back on the television receiver 30 may be acquired from the television receiver 30 by wireless communication or wired communication. For example, when content is being played back on the terminal device 10, the content ID of the content being played back may be acquired from an application that plays back the content.

生体情報センサ20は、ユーザの生体情報を取得する。生体情報は、例えば心拍数、体温、音声の出力レベル、血圧等の値である。生体情報センサ20によって取得された生体情報は、ネットワーク40を介してセンササーバ50に送信される。本実施形態では、生体情報センサ20は、ユーザの心拍数を生体情報として取得する。生体情報センサ20は、取得された生体情報と、生体情報が取得された日時と、を無線通信又は有線通信によって端末装置10に送信する。   The biometric information sensor 20 acquires a user's biometric information. The biological information is, for example, values such as heart rate, body temperature, audio output level, and blood pressure. The biological information acquired by the biological information sensor 20 is transmitted to the sensor server 50 via the network 40. In the present embodiment, the biological information sensor 20 acquires the user's heart rate as biological information. The biological information sensor 20 transmits the acquired biological information and the date and time when the biological information is acquired to the terminal device 10 by wireless communication or wired communication.

テレビ受像機30は、テレビ放送信号を受信する。テレビ受像機30は、受信されたテレビ放送信号に基づいて映像を生成し画面に表示する。
ネットワーク40は、データを伝送する通信路である。ネットワーク40は、例えばインターネットを用いて構成されてもよいし、NGN(Next Generation Network)を用いて構成されてもよいし、他の態様で構成されてもよい。
The television receiver 30 receives a television broadcast signal. The television receiver 30 generates a video based on the received television broadcast signal and displays it on the screen.
The network 40 is a communication path for transmitting data. The network 40 may be configured using, for example, the Internet, may be configured using NGN (Next Generation Network), or may be configured in another manner.

センササーバ50は、生体情報センサ20によって取得された生体情報を蓄積する。センササーバ50は、蓄積された生体情報に基づいて、映像を視聴しているユーザの情動に関する情報(以下、「情動情報」という。)を取得する。センササーバ50は、取得された情動情報を端末装置10に送信する。   The sensor server 50 accumulates the biological information acquired by the biological information sensor 20. The sensor server 50 acquires information (hereinafter referred to as “emotional information”) related to the emotion of the user who is viewing the video, based on the accumulated biological information. The sensor server 50 transmits the acquired emotion information to the terminal device 10.

情報取得システム1では、テレビ放送信号に応じたテレビ映像がテレビ受像機30に表示される。その際に、生体情報センサ20は、テレビ受像機30のテレビ映像を視聴しているユーザの生体情報を取得する。ユーザの生体情報は、ネットワーク40を介してセンササーバ50に送信される。センササーバ50は、ユーザの生体情報に基づいて、情動情報を取得する。センササーバ50によって取得された情動情報は、端末装置10又はテレビ受像機30によって表示される。このような構成により、ユーザはより容易にコンテンツの視聴に関する情動の情報を他者と共有することが可能となる。
以下、情報取得システム1について詳細に説明する。
In the information acquisition system 1, a television image corresponding to the television broadcast signal is displayed on the television receiver 30. At that time, the biological information sensor 20 acquires the biological information of the user who is viewing the television image of the television receiver 30. The user's biological information is transmitted to the sensor server 50 via the network 40. The sensor server 50 acquires emotion information based on the user's biological information. The emotion information acquired by the sensor server 50 is displayed by the terminal device 10 or the television receiver 30. With this configuration, the user can more easily share emotion information related to content viewing with others.
Hereinafter, the information acquisition system 1 will be described in detail.

図2は、センササーバ50の機能を表す概略ブロック図である。センササーバ50は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備える。センササーバ50は、生体情報解析プログラムを実行することによって、通信部501、データ蓄積制御部502、センサデータ記憶部503、解析部504及び送信制御部505を備える装置として機能する。なお、センササーバ50の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。生体情報解析プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。生体情報解析プログラムは、電気通信回線を介して送信されてもよい。   FIG. 2 is a schematic block diagram showing functions of the sensor server 50. The sensor server 50 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus. The sensor server 50 functions as a device including a communication unit 501, a data accumulation control unit 502, a sensor data storage unit 503, an analysis unit 504, and a transmission control unit 505 by executing a biological information analysis program. All or some of the functions of the sensor server 50 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The biological information analysis program may be recorded on a computer-readable recording medium. The computer-readable recording medium is a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, a semiconductor storage device (for example, SSD: Solid State Drive), a hard disk built in a computer system, or a semiconductor storage. A storage device such as a device. The biological information analysis program may be transmitted via a telecommunication line.

通信部501は、ネットワークインタフェースを用いて構成される。通信部501は、ネットワーク40を介して他の通信装置(例えば端末装置10)との間でデータを送受信する。   The communication unit 501 is configured using a network interface. The communication unit 501 transmits and receives data to and from other communication devices (for example, the terminal device 10) via the network 40.

データ蓄積制御部502は、通信部501によって受信されたデータから生体情報を取得する。データ蓄積制御部502は、取得された生体情報をセンサデータ記憶部503に書き込む。
センサデータ記憶部503は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。センサデータ記憶部503は、生体情報テーブルを記憶する。生体情報テーブルは、データ蓄積制御部502によって取得された生体情報を含むレコード(以下、「生体情報レコード」という。)によって構成される。
The data accumulation control unit 502 acquires biological information from the data received by the communication unit 501. The data accumulation control unit 502 writes the acquired biological information in the sensor data storage unit 503.
The sensor data storage unit 503 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The sensor data storage unit 503 stores a biological information table. The biometric information table is configured by a record including biometric information acquired by the data accumulation control unit 502 (hereinafter referred to as “biometric information record”).

図3は、センサデータ記憶部503に記憶されている生体情報テーブルの具体例を示す図である。生体情報テーブルは、複数の生体情報レコード91を有する。生体情報レコード91は、ユーザID、コンテンツID、取得日時及び生体情報の各値を有する。ユーザIDは、生体情報が取得されたユーザの識別情報である。コンテンツIDは、生体情報が取得された際にユーザが視聴していたコンテンツの識別情報である。取得日時は、生体情報が取得された日時である。生体情報は、生体情報センサ20によって取得された生体情報である。   FIG. 3 is a diagram illustrating a specific example of a biological information table stored in the sensor data storage unit 503. The biometric information table has a plurality of biometric information records 91. The biometric information record 91 has each value of user ID, content ID, acquisition date and biometric information. The user ID is identification information of the user whose biometric information has been acquired. The content ID is identification information of the content that the user was viewing when the biometric information was acquired. The acquisition date / time is the date / time when the biological information is acquired. The biological information is biological information acquired by the biological information sensor 20.

解析部504は、センサデータ記憶部503に記憶されている生体情報を解析することによって情動情報を取得する。
送信制御部505は、解析部504によって取得された情動情報に関して、送信先となる装置を判定する。送信制御部505は、判定結果に応じた送信先の情報を情動情報に付与する。送信先の情報が付与された情動情報は、通信部501によって送送信される。
次に、解析部504による解析処理の具体例について説明する。
The analysis unit 504 acquires emotion information by analyzing the biological information stored in the sensor data storage unit 503.
The transmission control unit 505 determines a device that is a transmission destination regarding the emotion information acquired by the analysis unit 504. The transmission control unit 505 adds information on the transmission destination according to the determination result to the emotion information. The emotion information to which the destination information is attached is transmitted and transmitted by the communication unit 501.
Next, a specific example of analysis processing by the analysis unit 504 will be described.

[第1の例]
解析部504は、同一のコンテンツID及び略同一の取得日時のレコード91に含まれる生体情報の統計値を情動情報として取得する。統計値とは、例えば最大値、最小値、平均値、最頻値などの値である。解析部504は、例えば現在時刻から所定時刻までの間の統計値の時系列を情動情報として取得してもよい。
送信制御部505は、各コンテンツIDに対応する統計値(情動情報)の送信先として、そのコンテンツIDによって表されるコンテンツを視聴しているユーザの端末装置10又はテレビ受像機30を選択する。端末装置10及びテレビ受像機30は、情動情報を受信すると、画面に情動情報を表示することによってユーザに情動情報を提供する。端末装置10及びテレビ受像機30は、受信された情動情報とともにユーザの生体情報を画面に表示してもよい。
[First example]
The analysis unit 504 acquires the statistical value of the biological information included in the record 91 having the same content ID and substantially the same acquisition date and time as emotion information. The statistical value is a value such as a maximum value, a minimum value, an average value, or a mode value. For example, the analysis unit 504 may acquire a time series of statistical values from the current time to a predetermined time as emotion information.
The transmission control unit 505 selects the terminal device 10 or the television receiver 30 of the user who is viewing the content represented by the content ID as a transmission destination of the statistical value (emotional information) corresponding to each content ID. Upon receiving the emotion information, the terminal device 10 and the television receiver 30 provide the emotion information to the user by displaying the emotion information on the screen. The terminal device 10 and the television receiver 30 may display the biometric information of the user on the screen together with the received emotion information.

このように解析処理が行われることにより、ユーザは、自身と同一のコンテンツを視聴している他者の情動情報を他者と共有することができる。そのため、例えば自身が驚いたタイミングで他者も同様に驚いているか否かを確認することが可能であり、他者と共感することが可能となる。   By performing the analysis process in this manner, the user can share the emotion information of the other person who is viewing the same content as the other person with the other person. Therefore, for example, it is possible to confirm whether or not the other person is also surprised at the timing when he / she is surprised, and it is possible to sympathize with the other person.

[第2の例]
解析部504は、同一のコンテンツIDのレコード91に含まれる生体情報のうち、1又は複数のユーザの生体情報を情動情報として取得してもよい。例えば、コンテンツの出演者の生体情報が情動情報として取得されてもよい。解析部504は、1又は複数のユーザの生体情報の時系列を情動情報として取得してもよい。
送信制御部505は、各コンテンツIDに対応する情動情報の送信先として、そのコンテンツIDによって表されるコンテンツを視聴しているユーザの端末装置10又はテレビ受像機30を選択する。端末装置10及びテレビ受像機30は、情動情報を受信すると、画面に情動情報を表示することによってユーザに情動情報を提供する。端末装置10及びテレビ受像機30は、受信された情動情報とともにユーザの生体情報を画面に表示してもよい。
[Second example]
The analysis unit 504 may acquire biometric information of one or more users as emotion information among the biometric information included in the record 91 having the same content ID. For example, biometric information of a performer of content may be acquired as emotion information. The analysis unit 504 may acquire a time series of biological information of one or more users as emotion information.
The transmission control unit 505 selects the terminal device 10 or the television receiver 30 of the user who is viewing the content represented by the content ID as the transmission destination of the emotion information corresponding to each content ID. Upon receiving the emotion information, the terminal device 10 and the television receiver 30 provide the emotion information to the user by displaying the emotion information on the screen. The terminal device 10 and the television receiver 30 may display the biometric information of the user on the screen together with the received emotion information.

このように解析処理が行われることにより、ユーザは、自身と同一のコンテンツを視聴している他者の情動情報を取得することができる。特に出演者の生体情報が取得される場合には、自身と同一のコンテンツを視聴している他者と、出演者の生体情報を共有することができる。そのため、例えば自身が驚いたタイミングで他者(例えば出演者)も同様に驚いているか否かを確認することが可能であり、他者と共感することが可能となる。   By performing the analysis process in this way, the user can acquire the emotion information of others who are viewing the same content as the user. In particular, when the performer's biometric information is acquired, the performer's biometric information can be shared with others who are viewing the same content as the performer. Therefore, for example, it is possible to confirm whether or not another person (for example, a performer) is also surprised at the timing when he / she is surprised, and can empathize with the other person.

[第3の例]
解析部504は、同一のコンテンツIDのレコード91に含まれる生体情報に基づいて、第1ユーザと第2ユーザとのシンクロ度を算出する。解析部504は、算出されたシンクロ度の値を情動情報として扱う。
シンクロ度は、第1ユーザにおける生体情報(以下、「第1生体情報」という。)の時間変化と、第2ユーザにおける生体情報(以下、「第2生体情報」という。)の時間変化とが類似する程度を表す値である。シンクロ度が高いほど、第1生体情報の時間変化と第2生体情報の時間変化とが類似している。シンクロ度が低いほど、第1生体情報の時間変化と第2生体情報の時間変化とが異なっている。
[Third example]
The analysis unit 504 calculates the degree of synchronization between the first user and the second user based on the biometric information included in the record 91 having the same content ID. The analysis unit 504 handles the calculated value of the degree of synchronization as emotion information.
The degree of synchronization includes a time change of biological information (hereinafter referred to as “first biological information”) for the first user and a time change of biological information (hereinafter referred to as “second biological information”) for the second user. It is a value representing the degree of similarity. As the degree of synchronization is higher, the time change of the first biological information and the time change of the second biological information are more similar. As the degree of synchronization is lower, the time change of the first biological information and the time change of the second biological information are different.

以下、シンクロ度の算出方法の具体例について説明する。解析部504は、第1タイミング(例えば、最新の生体情報が取得された時刻)における第1生体情報と、第2タイミング(例えば、最新の一つ前の生体情報が取得された時刻)における第1生体情報との差分を算出する。また、解析部504は、第1タイミングにおける第2生体情報と、第2タイミングにおける第2生体情報との差分を算出する。そして、解析部504は、算出された二つの差分の差が小さいほど、シンクロ度が高いと判定する。一方、解析部504は、算出された二つの差分の差が大きいほど、シンクロ度が低いと判定する。解析部504は、所定の閾値を用いてシンクロ度を判定してもよい。例えば、二つの差分の差が閾値未満である場合には、解析部504は、第1ユーザ及び第2ユーザがシンクロしていると判定してもよい。二つの差分の差が閾値以上である場合には、解析部504は、第1ユーザ及び第2ユーザがシンクロしていいないと判定してもよい。   Hereinafter, a specific example of a method for calculating the degree of synchronization will be described. The analysis unit 504 includes the first biological information at the first timing (for example, the time when the latest biological information is acquired) and the second timing (for example, the time when the latest previous biological information is acquired). The difference with 1 biological information is calculated. The analysis unit 504 calculates a difference between the second biological information at the first timing and the second biological information at the second timing. Then, the analysis unit 504 determines that the degree of synchronization is higher as the difference between the two calculated differences is smaller. On the other hand, the analysis unit 504 determines that the degree of synchronization is lower as the difference between the two calculated differences is larger. The analysis unit 504 may determine the degree of synchronization using a predetermined threshold. For example, when the difference between the two differences is less than the threshold, the analysis unit 504 may determine that the first user and the second user are synchronized. When the difference between the two differences is equal to or greater than the threshold, the analysis unit 504 may determine that the first user and the second user are not synchronized.

送信制御部505は、各コンテンツIDに対応するシンクロ度(情動情報)の送信先として、そのシンクロ度を算出する際に生体情報が使用されたユーザの端末装置10又はテレビ受像機30を選択する。端末装置10及びテレビ受像機30は、情動情報を受信すると、画面に情動情報を表示することによってユーザに情動情報を提供する。端末装置10及びテレビ受像機30は、受信された情動情報とともにユーザの生体情報を画面に表示してもよい。   The transmission control unit 505 selects the terminal device 10 or the television receiver 30 of the user whose biometric information is used when calculating the degree of synchronization as a transmission destination of the degree of synchronization (emotional information) corresponding to each content ID. . Upon receiving the emotion information, the terminal device 10 and the television receiver 30 provide the emotion information to the user by displaying the emotion information on the screen. The terminal device 10 and the television receiver 30 may display the biometric information of the user on the screen together with the received emotion information.

このように解析処理が行われることにより、ユーザは、自身と同一のコンテンツを視聴している他者との間で情動情報を共有することができる。そのため、例えば自身が驚いたタイミングで他者も同様に驚いているか否かを確認することが可能であり、他者と共感することが可能となる。また、生体情報の絶対値ではなく、差分に基づいてシンクロ度が判定されることにより、生体情報の個人差の影響を低く抑えてより精度良くシンクロ度を判定することが可能となる。   By performing the analysis process in this way, the user can share emotion information with others who are viewing the same content as the user. Therefore, for example, it is possible to confirm whether or not the other person is also surprised at the timing when he / she is surprised, and it is possible to sympathize with the other person. Further, by determining the degree of synchronization based on the difference instead of the absolute value of the biological information, it is possible to determine the degree of synchronization more accurately while suppressing the influence of individual differences in the biological information.

[第4の例]
解析部504は、複数の連続するタイミング毎に、第3の例の解析処理と同様に第1ユーザと第2ユーザとがシンクロしているか否か判定する。シンクロしているとの判定結果が所定の時間以上継続して得られた場合に、解析部504は、情動情報としてシンクロしているとの判定結果(シンクロ判定結果)を出力する。
送信制御部505は、各コンテンツIDに対応するシンクロ判定結果(情動情報)の送信先として、そのシンクロ度を算出する際に生体情報が使用されたユーザの端末装置10又はテレビ受像機30を選択する。端末装置10及びテレビ受像機30は、情動情報を受信すると、画面に情動情報を表示することによってユーザに情動情報を提供する。端末装置10及びテレビ受像機30は、受信された情動情報とともにユーザの生体情報を画面に表示してもよい。
[Fourth example]
The analysis unit 504 determines whether the first user and the second user are synchronized at a plurality of consecutive timings, as in the analysis process of the third example. When the determination result that the synchronization is performed is continuously obtained for a predetermined time or longer, the analysis unit 504 outputs the determination result that the synchronization is performed (synchronization determination result) as emotion information.
The transmission control unit 505 selects, as the transmission destination of the synchronization determination result (emotion information) corresponding to each content ID, the user terminal device 10 or the television receiver 30 whose biometric information is used when calculating the degree of synchronization. To do. Upon receiving the emotion information, the terminal device 10 and the television receiver 30 provide the emotion information to the user by displaying the emotion information on the screen. The terminal device 10 and the television receiver 30 may display the biometric information of the user on the screen together with the received emotion information.

このように解析処理が行われることにより、ユーザは、自身と同一のコンテンツを視聴している他者との間で情動情報を共有することができる。そのため、例えば自身の感情の変化と他者の感情の変化とが似ているか否かを確認することが可能であり、他者と共感することが可能となる。   By performing the analysis process in this way, the user can share emotion information with others who are viewing the same content as the user. Therefore, for example, it is possible to confirm whether or not the change in one's own emotion is similar to the change in another's emotion, and it is possible to sympathize with the other person.

[第5の例]
解析部504は、同一のコンテンツIDのレコード91に含まれる生体情報に基づいて、第1ユーザと第2ユーザとのシンクロ度を算出する。解析部504は、算出されたシンクロ度の値を情動情報として扱う。
解析部504は、第1ユーザ及び第2ユーザそれぞれの生体情報の時間変化を表すグラフを生成する。解析部504は、パターンマッチング処理を行う事によって、第1ユーザの生体情報のグラフと、第2ユーザの生体情報のグラフとの類似度を算出する。類似度の算出にはどのようなアルゴリズムが用いられてもよい。例えば、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross-Correlation)などが用いられてもよい。
送信制御部505は、各コンテンツIDに対応するシンクロ判定結果(情動情報)の送信先として、そのシンクロ度を算出する際に生体情報が使用されたユーザの端末装置10又はテレビ受像機30を選択する。端末装置10及びテレビ受像機30は、情動情報を受信すると、画面に情動情報を表示することによってユーザに情動情報を提供する。端末装置10及びテレビ受像機30は、受信された情動情報とともにユーザの生体情報を画面に表示してもよい。
[Fifth Example]
The analysis unit 504 calculates the degree of synchronization between the first user and the second user based on the biometric information included in the record 91 having the same content ID. The analysis unit 504 handles the calculated value of the degree of synchronization as emotion information.
The analysis unit 504 generates a graph representing temporal changes in the biological information of the first user and the second user. The analysis unit 504 calculates the similarity between the graph of the biometric information of the first user and the graph of the biometric information of the second user by performing pattern matching processing. Any algorithm may be used to calculate the similarity. For example, SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), NCC (Normalized Cross-Correlation), or the like may be used.
The transmission control unit 505 selects, as the transmission destination of the synchronization determination result (emotion information) corresponding to each content ID, the user terminal device 10 or the television receiver 30 whose biometric information is used when calculating the degree of synchronization. To do. Upon receiving the emotion information, the terminal device 10 and the television receiver 30 provide the emotion information to the user by displaying the emotion information on the screen. The terminal device 10 and the television receiver 30 may display the biometric information of the user on the screen together with the received emotion information.

このように解析処理が行われることにより、ユーザは、自身と同一のコンテンツを視聴している他者との間で情動情報を共有することができる。そのため、例えば自身の感情の変化と他者の感情の変化とが似ているか否かを確認することが可能であり、他者と共感することが可能となる。   By performing the analysis process in this way, the user can share emotion information with others who are viewing the same content as the user. Therefore, for example, it is possible to confirm whether or not the change in one's own emotion is similar to the change in another's emotion, and it is possible to sympathize with the other person.

[第6の例]
解析部504は、同一のコンテンツIDのレコード91に含まれる生体情報に基づいて、第1ユーザと第2ユーザとのシンクロ度を算出する。解析部504は、算出されたシンクロ度の値を情動情報として扱う。
解析部504は、第1ユーザ及び第2ユーザそれぞれの生体情報の時間変化を表すグラフを生成する。解析部504は、第1ユーザのグラフと第2ユーザのグラフとが交差する回数(以下、「交差回数」という。)を計数する。解析部504は、交差回数が多いほどシンクロ度が高いと判定する。解析部504は、交差回数が少ないほどシンクロ度が低いと判定する。
送信制御部505は、各コンテンツIDに対応するシンクロ度(情動情報)の送信先として、そのシンクロ度を算出する際に生体情報が使用されたユーザの端末装置10又はテレビ受像機30を選択する。端末装置10及びテレビ受像機30は、情動情報を受信すると、画面に情動情報を表示することによってユーザに情動情報を提供する。端末装置10及びテレビ受像機30は、受信された情動情報とともにユーザの生体情報を画面に表示してもよい。
[Sixth example]
The analysis unit 504 calculates the degree of synchronization between the first user and the second user based on the biometric information included in the record 91 having the same content ID. The analysis unit 504 handles the calculated value of the degree of synchronization as emotion information.
The analysis unit 504 generates a graph representing temporal changes in the biological information of the first user and the second user. The analysis unit 504 counts the number of times that the graph of the first user and the graph of the second user intersect (hereinafter referred to as “number of times of intersection”). The analysis unit 504 determines that the greater the number of crossings, the higher the degree of synchronization. The analysis unit 504 determines that the degree of synchronization is lower as the number of crossings is smaller.
The transmission control unit 505 selects the terminal device 10 or the television receiver 30 of the user whose biometric information is used when calculating the degree of synchronization as a transmission destination of the degree of synchronization (emotional information) corresponding to each content ID. . Upon receiving the emotion information, the terminal device 10 and the television receiver 30 provide the emotion information to the user by displaying the emotion information on the screen. The terminal device 10 and the television receiver 30 may display the biometric information of the user on the screen together with the received emotion information.

このように解析処理が行われることにより、ユーザは、自身と同一のコンテンツを視聴している他者との間で情動情報を共有することができる。そのため、例えば自身の感情の変化と他者の感情の変化とが似ているか否かを確認することが可能であり、他者と共感することが可能となる。   By performing the analysis process in this way, the user can share emotion information with others who are viewing the same content as the user. Therefore, for example, it is possible to confirm whether or not the change in one's own emotion is similar to the change in another's emotion, and it is possible to sympathize with the other person.

なお、上述した第1の例から第6の例は、いずれも解析処理の具体例に過ぎない。したがって、第1の例から第6の例とは異なる処理によって解析処理が行われてもよい。また、解析処理が行われるタイミングは、所定の時刻であってもよいし、所定の時間間隔であってもよいし、コンテンツ毎に決められた所定のタイミングであってもよい。   The first to sixth examples described above are only specific examples of analysis processing. Therefore, the analysis process may be performed by a process different from the first example to the sixth example. The timing at which the analysis process is performed may be a predetermined time, a predetermined time interval, or a predetermined timing determined for each content.

以上のように、情報取得システム1では、端末装置10又はテレビ受像機30によって、ユーザが視聴中のコンテンツに関する情動情報が出力される。そのため、ユーザは他者(例えば出演者、友人、同じコンテンツを視聴している他人)と共感できているか否かを知ることができる。そのため、他者とともに気分を盛り上げることができ、より一層コンテンツを楽しむことが可能となる。また、出演者に対する親近感や興味関心をユーザに喚起することが可能となる。また、コンテンツに対する愛着度を増大させることが可能となる。また、特に解析処理としてシンクロ度の判定が行われる場合には、シンクロの有無やシンクロ度の高低に基づいたゲームを提供することが可能となる。また、センササーバ50のセンサデータ記憶部503に記憶されているデータを用いることによって、コンテンツ毎に演出の効果を判定することが可能となる。また、上記データを用いて分析することによって、より精度の高いマーケティングを行う事が可能となる。   As described above, in the information acquisition system 1, the emotion information related to the content being viewed by the user is output by the terminal device 10 or the television receiver 30. Therefore, the user can know whether or not he / she can sympathize with others (for example, performers, friends, and others who are viewing the same content). Therefore, it is possible to raise the mood together with others and to enjoy the content even more. In addition, it is possible to call the user a sense of familiarity and interest in the performers. In addition, the degree of attachment to the content can be increased. In particular, when determination of the degree of synchronization is performed as analysis processing, it is possible to provide a game based on the presence or absence of synchronization and the level of synchronization. Further, by using the data stored in the sensor data storage unit 503 of the sensor server 50, it is possible to determine the effect of the effect for each content. Moreover, it becomes possible to perform more accurate marketing by analyzing using the said data.

<変形例>
(1.生体情報センサ20について)
生体情報センサ20は、圧力計を用いて構成されてもよい。この場合、生体情報センサ20は、ユーザの手に握られることによって生じる圧力を生体情報として取得してもよい。
生体情報センサ20は、距離を測定するセンサを用いて構成されてもよい。この場合、生体情報センサ20は、ユーザの前面と床面や机上面等との間の距離を測定することによって、ユーザが前のめりになっている程度に関する情報を生体情報として取得してもよい。
<Modification>
(1. Regarding the biological information sensor 20)
The biological information sensor 20 may be configured using a pressure gauge. In this case, the biological information sensor 20 may acquire pressure generated by being held by the user's hand as biological information.
The biological information sensor 20 may be configured using a sensor that measures a distance. In this case, the biological information sensor 20 may acquire information regarding the degree to which the user is facing forward as biological information by measuring the distance between the front surface of the user and the floor surface, the desk surface, or the like.

生体情報センサ20は、湿度センサを用いて構成されてもよい。この場合、生体情報センサ20は、ユーザの手に握られることによって、手のひらにかいている汗の量に関する情報として湿度を取得してもよい。この場合、湿度が生体情報である。
生体情報センサ20は、カメラ及び表情認識装置を用いて構成されてもよい。この場合、生体情報センサ20は、カメラによって撮像されたユーザの顔を解析することによって、笑顔の程度に関する情報を生体情報として取得してもよい。
The biological information sensor 20 may be configured using a humidity sensor. In this case, the biological information sensor 20 may acquire humidity as information regarding the amount of sweat on the palm by being held by the user's hand. In this case, humidity is biological information.
The biological information sensor 20 may be configured using a camera and a facial expression recognition device. In this case, the biological information sensor 20 may acquire information regarding the degree of smile as the biological information by analyzing the face of the user imaged by the camera.

生体情報センサ20は、加速度センサを用いて構成されてもよい。この場合、生体情報センサ20は、ユーザの体に装着されることによって、ユーザの体の動きの程度に関する情報として加速度を取得してもよい。例えば、加速度センサは、腕の動きにより生じる加速度を測定することにより、ユーザの興奮度を生体情報として取得できる。   The biological information sensor 20 may be configured using an acceleration sensor. In this case, the biological information sensor 20 may acquire acceleration as information on the degree of movement of the user's body by being attached to the user's body. For example, the acceleration sensor can acquire the user's excitement level as biological information by measuring the acceleration caused by the movement of the arm.

(2.取得日時の補正について)
データ蓄積制御部502は、受信された生体情報をセンサデータ記憶部503に記録する際に、ユーザ環境に応じて取得日時を補正してもよい。例えば、ユーザがワンセグチューナーを利用してテレビ放送を視聴している場合、テレビ受像機30を利用してテレビ放送を視聴している場合に比べて、表示される映像に遅延が生じる。データ蓄積制御部502が取得日時を補正することにより、上述した遅延を解消し、同じ場面を視聴している際に取得される生体情報に基づいて解析処理を行う事が可能となる。
(2. Correction of acquisition date and time)
The data accumulation control unit 502 may correct the acquisition date and time according to the user environment when recording the received biological information in the sensor data storage unit 503. For example, when the user is watching a television broadcast using a one-segment tuner, the displayed video is delayed compared to when the user is watching a television broadcast using the television receiver 30. By correcting the acquisition date and time by the data storage control unit 502, it is possible to eliminate the above-described delay and perform analysis processing based on biological information acquired when viewing the same scene.

このような取得日時の補正は、データ蓄積制御部502ではなく、解析部504によって行われてもよい。すなわち、取得日時の補正を行う補正部は、データ蓄積制御部502に備えられてもよいし、解析部504に備えられてもよい。例えば、第1ユーザの生体情報の時系列と第2ユーザの生体情報の時系列とを用いて解析処理を行う際に、解析部504は、二つの時系列の波形の位相を合わせることによって補正を行ってもよい。この補正の際には、二つの波形は時間軸方向へシフトされる。具体的には、解析部504は、二つの時系列の波形の頂点(例えば極大値及び極小値)の位置を一致させることによって補正を行ってもよいし、二つの波形の差が最小となるようにシフトすることによって補正を行ってもよい。   Such correction of the acquisition date / time may be performed by the analysis unit 504 instead of the data accumulation control unit 502. That is, the correction unit that corrects the acquisition date and time may be provided in the data accumulation control unit 502 or may be provided in the analysis unit 504. For example, when the analysis process is performed using the time series of the biological information of the first user and the time series of the biological information of the second user, the analysis unit 504 performs correction by matching the phases of the two time series waveforms. May be performed. During this correction, the two waveforms are shifted in the time axis direction. Specifically, the analysis unit 504 may perform correction by matching the positions of the vertices (for example, the maximum value and the minimum value) of two time-series waveforms, and the difference between the two waveforms is minimized. Correction may be performed by shifting in this manner.

(3.映像サーバについて)
情報取得システム1は、映像サーバをさらに備えてもよい。映像サーバは、複数の映像データを記憶する。映像サーバ60は、ユーザの要求に応じて、ネットワーク40を介して映像データを配信する。端末装置10及びテレビ受像機30は、ネットワーク40を介して映像サーバ60から映像データを受信する。端末装置10及びテレビ受像機30は、受信された映像データに基づいて映像を生成し画面に表示する。
(3. About the video server)
The information acquisition system 1 may further include a video server. The video server stores a plurality of video data. The video server 60 distributes video data via the network 40 in response to a user request. The terminal device 10 and the television receiver 30 receive video data from the video server 60 via the network 40. The terminal device 10 and the television receiver 30 generate a video based on the received video data and display it on the screen.

このように構成された場合、端末装置10は、生体情報に関する情報として、生体情報が取得された時点での映像データの再生時間(再生が開始されてからの経過時間)を取得する。端末装置10は、センササーバ50に生体情報を送信する際に、再生時間も送信する。解析部504は、取得日時ではなく、再生時間に基づいて解析処理を行う。例えば、第1の例においては、解析部504は、例えば再生開始時点(再生時間=0)から所定の再生時間(例えば再生時間=20分)までの間の統計値の時系列を情動情報として取得してもよい。このように構成されることにより、ビデオオンデマンドのように映像の再生タイミングが人によって異なる場合であっても、コンテンツの視聴に関する情動の共有が可能となる。   When comprised in this way, the terminal device 10 acquires the reproduction | regeneration time (elapsed time after reproduction | regeneration start) of the video data at the time of biometric information being acquired as information regarding biometric information. When the terminal apparatus 10 transmits the biological information to the sensor server 50, the terminal apparatus 10 also transmits the reproduction time. The analysis unit 504 performs an analysis process based on the reproduction time, not the acquisition date and time. For example, in the first example, the analysis unit 504 uses, for example, a time series of statistical values from a playback start time (playback time = 0) to a predetermined playback time (for example, playback time = 20 minutes) as emotion information. You may get it. With this configuration, it is possible to share emotions related to content viewing even when the video playback timing varies from person to person as in video on demand.

(4.表示方法について)
情動情報は、テレビ受像機30の画面において、コンテンツの映像の上にかぶせられたブラウザレイヤに表示されてもよい。
情動情報は、端末装置10の画面において表示されてもよい。
情動情報は、時系列情報としてグラフ形式で表示されてもよい。
情動情報は、その他の態様で表示されてもよい。
(4. Display method)
The emotion information may be displayed on a browser layer overlaid on the content video on the screen of the television receiver 30.
The emotion information may be displayed on the screen of the terminal device 10.
The emotion information may be displayed in a graph format as time series information.
Emotion information may be displayed in other manners.

(5.コンテンツについて)
テレビ受像機30は、IPマルチキャストやIPv6を用いたIPマルチキャスト放送サービスの映像データを受信してもよい。テレビ受像機30は、ストリーミングによって伝送される映像データを受信してもよい。
また、テレビ受像機30以外の装置によってコンテンツが再生されてもよい。例えば、コンテンツは、デジタルサイネージにおいて再生されるコンテンツであってもよい。この場合、テレビ受像機30に代えてデジタルサイネージの表示装置が用いられてもよい。
コンテンツは、コンサートなどのライブ会場における生の演奏、生の演劇、生の演芸、生の対談、生のパネルディスカッション、生のコントなどであってもよい。
(5. Contents)
The television receiver 30 may receive video data of an IP multicast broadcast service using IP multicast or IPv6. The television receiver 30 may receive video data transmitted by streaming.
Further, the content may be played back by a device other than the television receiver 30. For example, the content may be content that is played back on digital signage. In this case, a digital signage display device may be used instead of the television receiver 30.
The content may be a live performance at a live venue such as a concert, a live theater, a live performance, a live talk, a live panel discussion, a live conte.

(6.解析部504が備えられる装置について)
上述した情報取得システム1では、解析部504はセンササーバ50に備えられている。しかしながら、解析部504は他の装置に備えられてもよい。
(6. Apparatus provided with analysis unit 504)
In the information acquisition system 1 described above, the analysis unit 504 is provided in the sensor server 50. However, the analysis unit 504 may be provided in another device.

例えば、解析部504は、端末装置10に備えられてもよい。この場合、端末装置10は、解析処理に必要となる生体情報レコードをセンササーバ50に要求する。センササーバ50の送信制御部505は、要求された生体情報レコードをセンサデータ記憶部503から読み出し、要求元(端末装置10)に生体情報レコードを送信する。端末装置10の解析部504は、センササーバ50から取得した生体情報レコードを用いて解析処理を行う。   For example, the analysis unit 504 may be included in the terminal device 10. In this case, the terminal device 10 requests the sensor server 50 for a biometric information record necessary for the analysis process. The transmission control unit 505 of the sensor server 50 reads out the requested biological information record from the sensor data storage unit 503 and transmits the biological information record to the request source (terminal device 10). The analysis unit 504 of the terminal device 10 performs analysis processing using the biological information record acquired from the sensor server 50.

例えば、解析部504は、テレビ受像機30に備えられてもよい。この場合、テレビ受像機30は、解析処理に必要となる生体情報レコードをセンササーバ50に要求する。センササーバ50の送信制御部505は、要求された生体情報レコードをセンサデータ記憶部503から読み出し、要求元(テレビ受像機30)に生体情報レコードを送信する。テレビ受像機30の解析部504は、センササーバ50から取得した生体情報レコードを用いて解析処理を行う。   For example, the analysis unit 504 may be provided in the television receiver 30. In this case, the television receiver 30 requests the sensor server 50 for a biometric information record necessary for the analysis process. The transmission control unit 505 of the sensor server 50 reads out the requested biometric information record from the sensor data storage unit 503 and transmits the biometric information record to the request source (the television receiver 30). The analysis unit 504 of the television receiver 30 performs analysis processing using the biological information record acquired from the sensor server 50.

上述した実施形態における機能をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
You may make it implement | achieve the function in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…情報取得システム, 10…端末装置(出力部), 20…生体情報センサ, 30…テレビ受像機, 40…ネットワーク, 50…センササーバ, 501…通信部(送信部), 502…データ蓄積制御部(取得部), 503…センサデータ記憶部, 504…解析部(解析部), 505…送信制御部 DESCRIPTION OF SYMBOLS 1 ... Information acquisition system, 10 ... Terminal device (output part), 20 ... Biometric information sensor, 30 ... Television receiver, 40 ... Network, 50 ... Sensor server, 501 ... Communication part (transmission part), 502 ... Data accumulation control Unit (acquisition unit), 503... Sensor data storage unit, 504... Analysis unit (analysis unit), 505.

Claims (6)

コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得部と、
前記コンテンツの出演者の生体情報を取得し、さらに、前記取得部によって取得された前記生体情報のうち同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって情動情報を取得する解析部と、
前記ユーザに対してコンテンツを視聴可能に出力している出力装置又は前記ユーザの前記生体情報を前記取得部へ送信する端末装置を宛先として、前記情動情報を送信する送信制御部と、
を備え、
前記解析部は、前記ユーザの生体情報の時間変化と前記出演者の生体情報の時間変化とが類似する程度を表す値であるシンクロ度を、前記情動情報として取得し、
前記出力装置又は前記端末装置は、前記情動情報を示す画像を画面に表示する、情報取得システム。
An acquisition unit that acquires biometric information of a user viewing content in association with the content being viewed by the user;
The biometric information of the performer of the content is acquired, and the emotion information is acquired by analyzing the biometric information of a plurality of users who are viewing the same content among the biometric information acquired by the acquisition unit. An analysis unit;
A transmission control unit that transmits the emotion information to an output device that outputs content to the user so as to be viewable or a terminal device that transmits the biometric information of the user to the acquisition unit;
With
The analysis unit acquires , as the emotion information, a degree of synchronization that is a value representing a degree of similarity between the temporal change of the user's biological information and the temporal change of the performer's biological information ,
The information acquisition system , wherein the output device or the terminal device displays an image indicating the emotion information on a screen .
前記出力装置又は前記端末装置は、前記ユーザの生体情報を示す画像を画面に表示する、請求項に記載の情報取得システム。 The information acquisition system according to claim 1 , wherein the output device or the terminal device displays an image indicating the biometric information of the user on a screen. 前記送信制御部は、前記解析部によって解析された生体情報のコンテンツと同一のコンテンツを視聴しているユーザの出力装置又は端末装置を宛先として、前記情動情報を送信する請求項1又は2に記載の情報取得システム。 The transmission control unit, the output device or the terminal device of the user viewing the same content and the content of the biological information analyzed by the analysis unit as a destination, according to claim 1 or 2 transmits the emotional information Information acquisition system. 前記解析部は、第1のユーザの前記生体情報と、第2のユーザの前記生体情報と、の変化の類似性を表す情報を前記情動情報として取得する、請求項1からのいずれか一項に記載の情報取得システム。 The analyzing section includes: the biometric information of the first user, to obtain the the biological information of the second user, information indicating the similarity of changes as the emotional information, any one of claims 1 to 3 single Information acquisition system according to item. コンピュータが、コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得し、取得された前記生体情報を記憶装置に記録する取得ステップと、
コンピュータが、前記コンテンツの出演者の生体情報を取得し、さらに、前記取得ステップにおいて取得された前記生体情報のうち同一のコンテンツを視聴している複数のユーザの生体情報を前記記憶装置から読み出して解析することによって情動情報を取得する解析ステップと、
コンピュータが、前記ユーザに対してコンテンツを視聴可能に出力している出力装置又は前記ユーザの前記生体情報を送信する端末装置を宛先として、前記情動情報を送信する送信制御ステップと、
を有し、
コンピュータは、前記解析ステップにおいて、前記ユーザの生体情報の時間変化と前記出演者の生体情報の時間変化とが類似する程度を表す値であるシンクロ度を、前記情動情報として取得し、
前記出力装置又は前記端末装置は、前記情動情報を示す画像を画面に表示する、情報取得方法。
An acquisition step in which a computer acquires biometric information of a user who is viewing content in association with the content being viewed by the user, and records the acquired biometric information in a storage device;
The computer acquires biometric information of the performer of the content, and further reads biometric information of a plurality of users who are viewing the same content among the biometric information acquired in the acquiring step from the storage device. An analysis step for obtaining emotional information by analyzing;
A transmission control step in which the computer transmits the emotion information to an output device that outputs the content so that the user can view the content or a terminal device that transmits the biometric information of the user;
Have
In the analysis step, the computer acquires , as the emotion information, a degree of synchronization that is a value representing a degree of similarity between the temporal change of the user's biological information and the temporal change of the performer's biological information ,
The information acquisition method , wherein the output device or the terminal device displays an image indicating the emotion information on a screen .
コンテンツを視聴しているユーザの生体情報を、前記ユーザに視聴されている前記コンテンツに対応付けて取得する取得部と、  An acquisition unit that acquires biometric information of a user viewing content in association with the content being viewed by the user;
前記コンテンツの出演者の生体情報を取得し、さらに、前記取得部によって取得された前記生体情報のうち同一のコンテンツを視聴している複数のユーザの生体情報を解析することによって情動情報を取得する解析部と、  The biometric information of the performer of the content is acquired, and the emotion information is acquired by analyzing the biometric information of a plurality of users who are viewing the same content among the biometric information acquired by the acquisition unit. An analysis unit;
前記ユーザに対してコンテンツを視聴可能に出力している出力装置又は前記ユーザの前記生体情報を前記取得部へ送信する端末装置を宛先として、前記情動情報を送信する送信制御部と、  A transmission control unit that transmits the emotion information to an output device that outputs content to the user so as to be viewable or a terminal device that transmits the biometric information of the user to the acquisition unit;
を備え、With
前記解析部は、前記ユーザの生体情報の時間変化と前記出演者の生体情報の時間変化とが類似する程度を表す値であるシンクロ度を、前記情動情報として取得し、  The analysis unit acquires, as the emotion information, a degree of synchronization that is a value representing a degree of similarity between the time change of the user's biometric information and the time change of the performer's biometric information,
前記出力装置又は前記端末装置は、前記情動情報を示す画像を画面に表示する、情報取得システム、としてコンピュータを機能させるためのコンピュータプログラム。  A computer program for causing a computer to function as an information acquisition system, wherein the output device or the terminal device displays an image indicating the emotion information on a screen.
JP2017031403A 2017-02-22 2017-02-22 Information acquisition system, information acquisition method, and computer program Active JP6450408B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017031403A JP6450408B2 (en) 2017-02-22 2017-02-22 Information acquisition system, information acquisition method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017031403A JP6450408B2 (en) 2017-02-22 2017-02-22 Information acquisition system, information acquisition method, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013200634A Division JP6100659B2 (en) 2013-09-26 2013-09-26 Information acquisition system, information acquisition method, and computer program

Publications (2)

Publication Number Publication Date
JP2017127002A JP2017127002A (en) 2017-07-20
JP6450408B2 true JP6450408B2 (en) 2019-01-09

Family

ID=59365295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017031403A Active JP6450408B2 (en) 2017-02-22 2017-02-22 Information acquisition system, information acquisition method, and computer program

Country Status (1)

Country Link
JP (1) JP6450408B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150795A (en) * 2003-11-11 2005-06-09 Matsushita Electric Ind Co Ltd Transmission apparatus and reception apparatus
JP4215256B2 (en) * 2004-04-13 2009-01-28 日本電信電話株式会社 Communication system that conveys a sense of unity
JP5181640B2 (en) * 2007-12-03 2013-04-10 ソニー株式会社 Information processing apparatus, information processing terminal, information processing method, and program
JP2012104037A (en) * 2010-11-12 2012-05-31 Renesas Electronics Corp Content reproduction system, server, content reproduction method, and program

Also Published As

Publication number Publication date
JP2017127002A (en) 2017-07-20

Similar Documents

Publication Publication Date Title
US10674220B2 (en) Display control device and display control method
US10593167B2 (en) Crowd-based haptics
JP6369462B2 (en) Client device, control method, system, and program
JP6607968B2 (en) Method, server and terminal for inserting push information into live video streaming
US20120072936A1 (en) Automatic Customized Advertisement Generation System
US11386681B2 (en) Information processing apparatus, information processing method, and program
JP6550522B1 (en) Video distribution system, video distribution method and video distribution program
JP6100659B2 (en) Information acquisition system, information acquisition method, and computer program
US20240004859A1 (en) Data handling method, system and computer program
JP6431264B2 (en) Information acquisition system, information acquisition method, and computer program
JP6450408B2 (en) Information acquisition system, information acquisition method, and computer program
JP5020838B2 (en) Viewing response sharing system, viewing response management server, and viewing response sharing method
JP6715524B2 (en) Information processing apparatus, method, and program for generating composite image for user
US10762913B2 (en) Image-based techniques for audio content
JP5388032B2 (en) Remote communication system, control device, control method and program
JP7052453B2 (en) Servers, methods, programs and systems
US20210232279A1 (en) Virtual Group Laughing Experience
EP2779636A2 (en) Display apparatus, server and control method thereof
JP2016063524A (en) Video display device, viewing control device and viewing control program
CN114788295A (en) Information processing apparatus, information processing method, and information processing program
KR101380963B1 (en) System and method for providing relevant information
JP2018093350A (en) Attention degree evaluation system
TW201215140A (en) Video playing device and playing control method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180910

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181207

R150 Certificate of patent or registration of utility model

Ref document number: 6450408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250