JP2021087034A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2021087034A
JP2021087034A JP2019212549A JP2019212549A JP2021087034A JP 2021087034 A JP2021087034 A JP 2021087034A JP 2019212549 A JP2019212549 A JP 2019212549A JP 2019212549 A JP2019212549 A JP 2019212549A JP 2021087034 A JP2021087034 A JP 2021087034A
Authority
JP
Japan
Prior art keywords
moving image
reaction
information
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019212549A
Other languages
Japanese (ja)
Other versions
JP6745393B1 (en
Inventor
信之 冨岡
Nobuyuki Tomioka
信之 冨岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gmo Nikko
Gmo Nikko Inc
Original Assignee
Gmo Nikko
Gmo Nikko Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gmo Nikko, Gmo Nikko Inc filed Critical Gmo Nikko
Priority to JP2019212549A priority Critical patent/JP6745393B1/en
Application granted granted Critical
Publication of JP6745393B1 publication Critical patent/JP6745393B1/en
Publication of JP2021087034A publication Critical patent/JP2021087034A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To allow the transition of a response of a user who views a moving image to be simply verified.SOLUTION: An information processing device 10 includes: a moving image acquisition unit 130 that acquires moving image data; a giving unit 120 that gives a moving image an image to acquire a response of a user who views a moving image based on the moving image data; a reproduction unit 130 that causes a communication terminal 30 of the user to reproduce the moving image together with the image; an information acquisition unit 140 that acquires information on operation and a reproduction time of the moving image based on operation of the user for the image while the moving image is being reproduced; and a generation unit 150 that generates display data for displaying the information on the operation in association with the reproduction time of the moving image.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method and a program.

近年では、携帯用の通信端末機などを用いて、ユーザは様々な動画を視聴することができる。ユーザが動画を視聴している際には、ユーザは視聴している動画に対して感情を持ったり、理性的な判断を行ったりすることがある。人の感情を推定する技術としては、例えば、特許文献1に、ユーザが感情を反映する行動を行ったときに、ユーザの手が接触する接触部材の接触状態に関する接触データに基づいて、ユーザの感情を推定する技術が記載されている。 In recent years, users can watch various moving images by using a portable communication terminal or the like. When the user is watching a video, the user may have emotions or make rational judgments about the video being watched. As a technique for estimating a person's emotion, for example, in Patent Document 1, when the user performs an action reflecting the emotion, the user's hand is based on the contact data regarding the contact state of the contact member with which the user's hand comes into contact. Techniques for estimating emotions are described.

特開2009−26125号公報Japanese Unexamined Patent Publication No. 2009-26125

動画を視聴するユーザのこのような反応がどのように推移しているのかを知ることは、動画を評価する上で必要となると考えられる。しかしながら、特許文献1に記載の技術では、ユーザの感情を推定するために、振動モータや光源などが設けられた接触部材を用意する負担が生じていた。動画を視聴するユーザの反応を検証する際には、このような負担が生じないことが望ましいと考えられる。 It is considered necessary to know how such a reaction of a user who watches a video is changing in order to evaluate the video. However, in the technique described in Patent Document 1, in order to estimate the emotion of the user, there is a burden of preparing a contact member provided with a vibration motor, a light source, or the like. When verifying the reaction of the user who watches the moving image, it is desirable that such a burden does not occur.

そこで、本発明は、動画を視聴するユーザの反応の推移を簡便に検証可能とする情報処理装置、情報処理方法及びプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing device, an information processing method, and a program that can easily verify the transition of the reaction of a user who watches a moving image.

本発明の一態様に係る情報処理装置は、動画データを取得する動画取得部と、動画データに基づく動画を視聴するユーザの反応を取得するための画像を、動画に対して付与する付与部と、画像と共に動画をユーザの通信端末に再生させる再生部と、動画が再生されている際における画像に対するユーザの操作に基づき、操作に関すると動画の再生時間に関する情報とを取得する情報取得部と、操作に関する情報を、動画の再生時間と関連付けて表示するための表示データを生成する生成部と、を備える。 The information processing device according to one aspect of the present invention includes a moving image acquisition unit that acquires moving image data, and an giving unit that assigns an image for acquiring a reaction of a user who views a moving image based on the moving image data to the moving image. , A playback unit that causes the user's communication terminal to play the video together with the image, and an information acquisition unit that acquires information on the operation and the playback time of the video based on the user's operation on the image while the video is being played. It includes a generation unit that generates display data for displaying information related to the operation in association with the playback time of the moving image.

この態様によれば、動画が再生されている間におけるユーザの反応の推移を表示装置に表示させることが可能になる。当該表示を閲覧することで、動画が再生されている間におけるユーザの反応の推移が簡便に検証可能となる。 According to this aspect, it is possible to display the transition of the user's reaction while the moving image is being played on the display device. By viewing the display, it is possible to easily verify the transition of the user's reaction while the moving image is being played.

上記態様において、操作に関する情報に基づき、反応に関する指数の統計的な数値を算出する算出部、をさらに備えてもよい。 In the above aspect, a calculation unit for calculating a statistical value of an index related to a reaction based on information on an operation may be further provided.

この態様によれば、ユーザの反応の特徴を表す数値が算出される。当該数値を用いることで、より正確に動画に対して生じるユーザの反応を検証することが可能になる。 According to this aspect, a numerical value representing the characteristics of the user's reaction is calculated. By using this numerical value, it becomes possible to more accurately verify the user's reaction to the moving image.

上記態様において、統計的な数値は、単位時間当たりの反応に関数する指数の最大値と平均値との差分であってもよい。 In the above aspect, the statistical value may be the difference between the maximum value and the average value of the exponent that functions on the reaction per unit time.

この態様によれば、最大値と平均値との差分を用いることで、動画が再生されている間におけるユーザの反応について、起伏の大きさを推定することができる。このため、より正確に動画を視聴するユーザの反応を検証することができる。 According to this aspect, by using the difference between the maximum value and the average value, it is possible to estimate the magnitude of the undulations of the user's reaction while the moving image is being played. Therefore, it is possible to more accurately verify the reaction of the user who watches the moving image.

上記態様において、統計的な数値は、単位時間当たりの反応に関する指数の平均値であってもよい。 In the above embodiment, the statistical value may be the average value of the index for the reaction per unit time.

この態様によれば、単位時間当たりの反応に関する指数の平均値を用いることで、動画が再生されている間におけるユーザの反応の平均的な大きさを推測できる。このため、より詳細に動画を視聴するユーザの反応を検証することができる。 According to this aspect, by using the average value of the index regarding the reaction per unit time, it is possible to estimate the average magnitude of the user's reaction while the moving image is being played. Therefore, it is possible to verify the reaction of the user who watches the moving image in more detail.

上記態様において、情報取得部は、ユーザを識別可能な情報と対応付けられた反応に関する指数を取得してもよい。 In the above aspect, the information acquisition unit may acquire an index related to the reaction associated with the information that can identify the user.

この態様によれば、反応に関する指数と特定のユーザとを対応付けることが可能になる。これにより、動画を視聴するユーザの反応の推移をより詳細に検証することが可能になる。 According to this aspect, it is possible to associate the index related to the reaction with a specific user. This makes it possible to verify in more detail the transition of the reaction of the user who watches the moving image.

本発明の他の態様に係る情報処理方法は、動画データを取得することと、前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画に対して付与することと、前記画像と共に前記動画を前記ユーザの通信端末に再生させることと、前記動画が再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得することと、前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成することと、を含む。 The information processing method according to another aspect of the present invention includes acquiring moving image data and adding an image for acquiring a reaction of a user who watches a moving image based on the moving image data to the moving image. , Information on the operation and information on the playback time of the moving image based on the user's operation on the image while the moving image is being played, and playing the moving image together with the image on the user's communication terminal. And to generate display data for displaying the information related to the operation in association with the playback time of the moving image.

この態様によれば、動画が再生されている間におけるユーザの反応の推移を表示装置に表示させることが可能になる。当該表示を閲覧することで、動画が再生されている間におけるユーザの反応の推移を簡便に検証可能となる。 According to this aspect, it is possible to display the transition of the user's reaction while the moving image is being played on the display device. By viewing the display, it is possible to easily verify the transition of the user's reaction while the moving image is being played.

本発明の他の態様に係るプログラムは、コンピュータに、動画データを取得することと、前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画に対して付与することと、前記画像と共に前記動画を前記ユーザの通信端末に再生させることと、前記動画が再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得することと、前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成することと、を実行させる。 In the program according to another aspect of the present invention, the computer is provided with an image for acquiring moving image data and an image for acquiring a reaction of a user who watches a moving image based on the moving image data. And, based on the user's operation of playing the moving image together with the image on the user's communication terminal and the user's operation on the image when the moving image is being played, information on the operation and information on the playback time of the moving image. And to generate display data for displaying the information related to the operation in association with the playback time of the moving image.

この態様によれば、動画が再生されている間におけるユーザの反応の推移を表示装置に表示させることが可能になる。当該表示を閲覧することで、動画が再生されている間におけるユーザの反応の推移を簡便に検証可能となる。 According to this aspect, it is possible to display the transition of the user's reaction while the moving image is being played on the display device. By viewing the display, it is possible to easily verify the transition of the user's reaction while the moving image is being played.

本発明によれば、動画を視聴するユーザの反応の推移を簡便に検証可能とする情報処理装置、情報処理方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide an information processing device, an information processing method, and a program that can easily verify the transition of the reaction of a user who watches a moving image.

本発明の一実施形態に係る情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system which concerns on one Embodiment of this invention. 同実施形態に係るサーバの構成例を示す図である。It is a figure which shows the configuration example of the server which concerns on the same embodiment. 動画と共に反応画像が表示された表示画面の一例を示す図である。It is a figure which shows an example of the display screen which displayed the reaction image together with the moving image. 動画再生時間に対する反応指数が示された図である。It is a figure which showed the reaction index with respect to the moving image play time. 本発明の一実施形態に係る管理端末の構成例を示す図である。It is a figure which shows the structural example of the management terminal which concerns on one Embodiment of this invention. 同実施形態に係るサーバ、管理端末及びユーザ端末のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the server, the management terminal and the user terminal which concerns on this embodiment. 管理端末がサーバにアクセスしてからサーバがユーザ端末に動画データを送信するまでにおける、同実施形態に係る情報処理システムの処理を示すフローチャートである。It is a flowchart which shows the process of the information processing system which concerns on the embodiment from the time when a management terminal accesses a server to the time when a server transmits moving image data to a user terminal. ユーザ端末において動画が再生されてから管理端末において検証結果が表示されるまでにおける、同実施形態に係る情報処理システムの処理を示すフローチャートである。It is a flowchart which shows the process of the information processing system which concerns on the embodiment from the time when the moving image is reproduced on the user terminal to the time when the verification result is displayed on the management terminal. 調査対象者のセグメントの選択を可能とする表示画面の一例を示す図である。It is a figure which shows an example of the display screen which enables selection of the segment of the survey subject. 評価対象となる動画における一部の画像を時系列で並べた図である。It is a figure which arranged some images in the moving image to be evaluated in chronological order. 動画の視聴率及び反応指数の推移を示す図である。It is a figure which shows the transition of the audience rating and the reaction index of a moving image. 評価対象となる動画において一部のシーンが入れ替えられることで新たに作成された動画における一部の画像を時系列で並べた図である。It is a figure which arranged some images in a newly created moving image in chronological order by exchanging a part of scenes in the moving image to be evaluated. 元の動画における視聴率の推移と、新たに作成された動画において期待される視聴率の推移を示す図である。It is a figure which shows the transition of the audience rating in the original video, and the transition of the audience rating expected in the newly created video.

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Preferred embodiments of the present invention will be described with reference to the accompanying drawings. In each figure, those having the same reference numerals have the same or similar configurations.

図1に示すように、本発明の一実施形態に係る情報処理システム1は、サーバ10(情報処理装置)、管理端末20、ユーザ端末30及びネットワーク35を備える。サーバ10、管理端末20及びユーザ端末30は、互いにネットワーク35を介して、必要に応じて情報を送受信できるように接続されている。なお、図1には、サーバ10、管理端末20及びユーザ端末30は、それぞれ1つずつ示されているが、情報処理システム1は、サーバ10、管理端末20又はユーザ端末30を複数備えていてもよい。 As shown in FIG. 1, the information processing system 1 according to the embodiment of the present invention includes a server 10 (information processing device), a management terminal 20, a user terminal 30, and a network 35. The server 10, the management terminal 20, and the user terminal 30 are connected to each other via the network 35 so that information can be transmitted and received as needed. Although FIG. 1 shows one server 10, one management terminal 20, and one user terminal 30, the information processing system 1 includes a plurality of servers 10, a management terminal 20, or a user terminal 30. May be good.

サーバ10は、管理端末20から動画データを取得し、所定の画像を動画データに付与した上で、当該動画データをユーザ端末30に送信する。また、サーバ10は、ユーザ端末30のユーザによる所定の操作に基づき、動画を視聴するユーザによる操作に関する情報(以下、「操作情報」とも称する。)と動画の再生時間に関する情報とを取得する。さらに、サーバ10は、操作情報を動画の再生時間と関連付けて表示するための表示データを管理端末20に出力する。 The server 10 acquires video data from the management terminal 20, attaches a predetermined image to the video data, and then transmits the video data to the user terminal 30. Further, the server 10 acquires information on the operation by the user who views the moving image (hereinafter, also referred to as "operation information") and information on the playback time of the moving image based on the predetermined operation by the user of the user terminal 30. Further, the server 10 outputs display data for displaying the operation information in association with the playback time of the moving image to the management terminal 20.

管理端末20は、管理者によって管理されている通信端末である。本実施形態では、管理者は、広告用の動画を作成しており、作成した動画を視聴するユーザの反応を調査することを目的としているものとする。管理者は、管理端末20を用いて、評価対象となる動画データをサーバ10に送信し、動画を視聴するユーザの反応に関する情報を示す表示データをサーバ10から取得し、表示データに基づく画像を閲覧できる。これにより、管理者は、動画に対するユーザの反応を知ることができる。 The management terminal 20 is a communication terminal managed by an administrator. In the present embodiment, it is assumed that the administrator creates a moving image for advertisement and investigates the reaction of the user who watches the created moving image. The administrator uses the management terminal 20 to transmit video data to be evaluated to the server 10, acquire display data indicating information on the reaction of the user who watches the video from the server 10, and obtain an image based on the display data. Can be viewed. This allows the administrator to know the user's reaction to the video.

ユーザ端末30は、ユーザにより使用されている通信端末である。本実施形態では、ユーザは、ユーザ端末30を用いて、サーバ10からユーザ端末30に送信された動画データに基づいて、動画を視聴することができる。さらに、ユーザは、動画が再生されている際に所定の操作を行うことで、当該操作に関する情報をサーバ10に送信することができる。本実施形態では、ユーザ及びユーザ端末30は、複数存在しており、複数のユーザに関わる各種の情報は、予めサーバ10に登録されているものとする。 The user terminal 30 is a communication terminal used by the user. In the present embodiment, the user can use the user terminal 30 to watch a moving image based on the moving image data transmitted from the server 10 to the user terminal 30. Further, the user can transmit information about the operation to the server 10 by performing a predetermined operation while the moving image is being played. In the present embodiment, it is assumed that a plurality of users and user terminals 30 exist, and various information related to the plurality of users is registered in the server 10 in advance.

図2を参照して、本実施形態に係るサーバ10の構成について説明する。図2に示すように、本実施形態に係るサーバ10は、動画DB110、付与部120、通信部130、指数取得部140、生成部150及び算出部160を備える。 The configuration of the server 10 according to the present embodiment will be described with reference to FIG. As shown in FIG. 2, the server 10 according to the present embodiment includes a moving image DB 110, a granting unit 120, a communication unit 130, an index acquisition unit 140, a generation unit 150, and a calculation unit 160.

動画DB110は、各種の動画データを記憶している。動画データは、画像のみを表示するためのデータであってもよいし、画像とともに音声を出力するためのデータであってもよい。また、動画データは、連続的に変化する画像を表示するためのデータであってもよいし、紙芝居のように非連続的に変化する画像を表示するためのデータであってもよい。動画DB110は、通信部130から動画データを受け取って、記憶してもよい。動画DB110が記憶している動画データは、必要に応じて付与部120により参照される。 The moving image DB 110 stores various types of moving image data. The moving image data may be data for displaying only an image, or may be data for outputting sound together with an image. Further, the moving image data may be data for displaying a continuously changing image, or may be data for displaying a discontinuously changing image such as a picture-story show. The moving image DB 110 may receive the moving image data from the communication unit 130 and store the moving image data. The moving image data stored in the moving image DB 110 is referred to by the giving unit 120 as necessary.

付与部120は、動画データに基づく動画を視聴するユーザの反応を取得するための画像(以下、「反応画像」と称する。)を、動画データに対して付与する機能を有する。本明細書において、ユーザの反応とは、ユーザの内面に生じている状態であり、例えば、感情的な反応又は理性的な反応などであってよい。感情的な反応は、例えば、好き、嫌悪、納得、悲しみ、怒り、安心、感謝、驚愕、冷静、幸福、緊張、尊敬、満足、恥、及び嫉妬等の各種の感情が生じていることであってよい。また、理性的な反応は、例えば、納得又は正誤など、動画の内容に対して判断を行うことであってよい。付与部120が反応画像を付与する方法は特に限定されないが、例えば、JavaScript(登録商標)などの各種の公知のプログラミング言語を用いた方法であってもよい。 The giving unit 120 has a function of giving an image (hereinafter, referred to as “reaction image”) for acquiring a reaction of a user who views a moving image based on the moving image data to the moving image data. In the present specification, the reaction of the user is a state occurring inside the user, and may be, for example, an emotional reaction or a rational reaction. Emotional reactions are, for example, the occurrence of various emotions such as like, disgust, conviction, sadness, anger, peace of mind, gratitude, startle, calm, happiness, tension, respect, satisfaction, shame, and jealousy. You can. In addition, the rational reaction may be to make a judgment on the content of the moving image, for example, convincing or correctness. The method of imparting the reaction image by the imparting unit 120 is not particularly limited, and for example, a method using various known programming languages such as Javascript (registered trademark) may be used.

反応画像は、動画が再生される際に、当該動画とともに表示される。図3は、反応画像が動画と共に表示される表示画面400の一例を示す図である。図3には、動画402と共に表示された2つの反応画像を表示する表示画面400を示されている。図3に示す表示画面400は、例えば、ユーザ端末30に表示されてもよい。 The reaction image is displayed together with the moving image when the moving image is played back. FIG. 3 is a diagram showing an example of a display screen 400 in which a reaction image is displayed together with a moving image. FIG. 3 shows a display screen 400 that displays two reaction images displayed together with the moving image 402. The display screen 400 shown in FIG. 3 may be displayed on the user terminal 30, for example.

図3には、動画402の下側に2つの反応画像(第1反応画像404及び第2反応画像406)が示されている。第1反応画像404及び第2反応画像406には、長方形の図形の中に「納得」又は「好き」という感情を示す文字が表示されている。ユーザは、これらの反応画像に対して、動画402が再生されている際に、所定の操作を行うことができる。所定の操作は、例えば、反応画像をクリックする操作であってもよい。ユーザ端末30がタッチパネルを有し、動画及び反応画像が当該タッチパネルに表示される場合には、所定の操作は当該反応画像をタッチする操作であってもよい。なお、図3には、2つの反応画像が示されているが、表示される反応画像の数は、1つであってもよいし、3つ以上であってもよい。また、図3では、反応画像が動画の下側に示されているが、反応画像が表示される位置は、動画402の左側、右側又は上側であってもよいし、反応画像は動画402に重ねて表示されてもよい。 In FIG. 3, two reaction images (first reaction image 404 and second reaction image 406) are shown below the moving image 402. In the first reaction image 404 and the second reaction image 406, characters indicating the feelings of "convinced" or "like" are displayed in the rectangular figure. The user can perform a predetermined operation on these reaction images while the moving image 402 is being played. The predetermined operation may be, for example, an operation of clicking the reaction image. When the user terminal 30 has a touch panel and a moving image and a reaction image are displayed on the touch panel, the predetermined operation may be an operation of touching the reaction image. Although two reaction images are shown in FIG. 3, the number of reaction images displayed may be one or three or more. Further, in FIG. 3, the reaction image is shown on the lower side of the moving image, but the position where the reaction image is displayed may be the left side, the right side, or the upper side of the moving image 402, and the reaction image is shown on the moving image 402. It may be displayed in an overlapping manner.

図2に戻って、サーバ10の構成について説明する。通信部130は、各種の情報を送受信する機能を有する。通信部130は、例えば、動画データを管理端末20から受信することで、動画データを取得できる。このように、本実施形態では、通信部130は、動画取得部としての機能を有する。通信部130は、取得した表示データを動画DB110に伝達する。 Returning to FIG. 2, the configuration of the server 10 will be described. The communication unit 130 has a function of transmitting and receiving various types of information. The communication unit 130 can acquire the moving image data by receiving the moving image data from the management terminal 20, for example. As described above, in the present embodiment, the communication unit 130 has a function as a moving image acquisition unit. The communication unit 130 transmits the acquired display data to the moving image DB 110.

また、通信部130は、反応画像が付与された動画データを付与部120から取得し、例えばユーザ端末30に送信することができる。これにより、ユーザ端末30には、反応画像と共に動画が再生される。このように、通信部130は、反応画像と共に動画をユーザ端末30に再生させることが可能な、再生部としての機能も有する。 Further, the communication unit 130 can acquire the moving image data to which the reaction image is added from the addition unit 120 and transmit it to, for example, the user terminal 30. As a result, the moving image is reproduced on the user terminal 30 together with the reaction image. As described above, the communication unit 130 also has a function as a reproduction unit capable of causing the user terminal 30 to reproduce the moving image together with the reaction image.

また、本実施形態では、ユーザ端末30において反応画像と共に動画が再生されている際に、ユーザにより所定の操作が行われる。通信部130は、当該所定の操作に関する情報と動画の再生時間に関する情報をユーザ端末30から受信することができる。通信部130は、受信した操作情報と動画の再生時間に関する情報を指数取得部140に伝達する。動画の再生時間に関する情報は、例えば、ユーザにより所定の操作が行われたタイミングにおける、ユーザが視聴している動画の再生時間などであってもよい。 Further, in the present embodiment, when the moving image is being reproduced together with the reaction image on the user terminal 30, a predetermined operation is performed by the user. The communication unit 130 can receive information on the predetermined operation and information on the reproduction time of the moving image from the user terminal 30. The communication unit 130 transmits the received operation information and information on the playback time of the moving image to the index acquisition unit 140. The information regarding the playback time of the moving image may be, for example, the playing time of the moving image being viewed by the user at the timing when a predetermined operation is performed by the user.

指数取得部140は、操作情報と当該動画の再生時間に関する情報(以下、「時間情報」とも称する。)を取得することができる。このように、本実施形態では、指数取得部140は、情報取得部としての機能も有する。操作情報は、動画が再生されている際に、所定の単位時間においてユーザにより所定の操作が行われた回数を表す情報であってもよい。また、時間情報は、例えば、ユーザ端末30において再生される動画の再生時間における特定の期間を表す情報であってよい。従って、指数取得部140は、再生される動画における特定の期間において、所定の単位時間あたり所定の操作が何回行われたのかを表す情報を取得することができる。指数取得部140は、所定の操作が行われた回数をユーザの反応に関する指数(以下、「反応指数」とも称する。)として取得することができる。指数取得部140は、例えば、感情的な反応に基づく所定の操作が行われた回数に応じた反応指数を感情指数として取得してもよいし、理性的な反応に基づく所定の操作が行われた回数に応じた反応指数を理性指数として取得してもよい。また、指数取得部140は、所定の時間毎の感情指数又は理性指数を取得することもできる。 The index acquisition unit 140 can acquire operation information and information regarding the playback time of the moving image (hereinafter, also referred to as “time information”). As described above, in the present embodiment, the index acquisition unit 140 also has a function as an information acquisition unit. The operation information may be information indicating the number of times a predetermined operation is performed by the user in a predetermined unit time while the moving image is being played. Further, the time information may be, for example, information representing a specific period in the playback time of the moving image played on the user terminal 30. Therefore, the index acquisition unit 140 can acquire information indicating how many times a predetermined operation has been performed per a predetermined unit time in a specific period of the reproduced moving image. The index acquisition unit 140 can acquire the number of times a predetermined operation is performed as an index related to the user's reaction (hereinafter, also referred to as "reaction index"). For example, the index acquisition unit 140 may acquire a reaction index according to the number of times a predetermined operation based on an emotional reaction is performed as an emotional index, or a predetermined operation based on a rational reaction is performed. The reaction index according to the number of times may be acquired as the reason index. In addition, the index acquisition unit 140 can also acquire an emotion index or a reason index for each predetermined time.

指数取得部140が取得する反応指数は、ユーザを識別可能な情報(以下、単に「識別情報」とも称する。)と対応付けられていてもよい。指数取得部140は、予め登録されているユーザのセグメント情報を保持しているものとする。ユーザのセグメント情報とは、例えば、ユーザの性別、年齢、居住地域、婚歴、子供の有無、世帯年収又は職業などを表す情報であってもよい。ユーザのセグメント情報と識別情報とは対応付けられており、指数取得部140は、登録されたセグメント情報と、識別情報とを照らし合わせることで、取得した反応指数とセグメント情報とを関連付けることができる。指数取得部140は、取得した反応指数を生成部150又は算出部160に伝達する。 The reaction index acquired by the index acquisition unit 140 may be associated with information that can identify the user (hereinafter, also simply referred to as “identification information”). It is assumed that the index acquisition unit 140 holds the segment information of the user registered in advance. The user segment information may be, for example, information indicating the user's gender, age, residential area, marital status, presence / absence of children, annual household income, occupation, and the like. The user's segment information and identification information are associated with each other, and the index acquisition unit 140 can associate the acquired reaction index with the segment information by comparing the registered segment information with the identification information. .. The index acquisition unit 140 transmits the acquired reaction index to the generation unit 150 or the calculation unit 160.

生成部150は、操作情報を動画の再生時間情報と関連付けて表示するための表示データを生成する機能を有する。図4を参照して、表示データに基づき表示される画像の一例について説明する。図4は、反応指数の推移を時系列で示す画像の一例である。このような画像は、例えば、管理端末20の表示画面に表示されてもよい。横軸は、動画の再生が開始されてから経過した時間(動画再生時間)であり、縦軸は、反応指数を示している。 The generation unit 150 has a function of generating display data for displaying the operation information in association with the playback time information of the moving image. An example of an image displayed based on the display data will be described with reference to FIG. FIG. 4 is an example of an image showing the transition of the reaction index in chronological order. Such an image may be displayed on the display screen of the management terminal 20, for example. The horizontal axis represents the time elapsed since the start of playback of the moving image (video playing time), and the vertical axis represents the reaction index.

図4には、感情指数及び理性指数の推移が棒グラフで示されている。具体的には、23秒間の動画において、単位時間1秒あたりの感情指数及び理性指数の推移が示されている。斜線が付された部分は理性指数を示し、斜線が付されていない部分は感情指数を示している。このようなグラフを参照することで、管理者は、動画の再生時におけるユーザの反応の推移を検証することができる。なお、図4に示す例では、1種類ずつの感情指数及び理性指数を表すグラフが示されているが、グラフには、感情指数のみが示されてもよいし、理性指数のみが示されてもよい。また、グラフには、1種類のみの感情指数又は理性指数が示されてもよいし、3種類以上の感情指数又は理性指数が示されてもよい。また、表示される反応指数は、複数のユーザによる反応指数が合算されることで生成された反応指数であってもよいし、1人のユーザによる反応指数であってもよい。反応指数を集計する単位時間は、1秒以外の時間であってもよい。 In FIG. 4, the transition of the emotion index and the reason index is shown as a bar graph. Specifically, in the 23-second moving image, the transition of the emotion index and the reason index per second per unit time is shown. The shaded area indicates the rational index, and the unshaded area indicates the emotional index. By referring to such a graph, the administrator can verify the transition of the user's reaction at the time of playing the moving image. In the example shown in FIG. 4, a graph showing each type of emotion index and reason index is shown, but the graph may show only the emotion index or only the reason index. May be good. Further, the graph may show only one kind of emotional index or rational index, or may show three or more kinds of emotional index or rational index. Further, the displayed reaction index may be a reaction index generated by adding up the reaction indexes by a plurality of users, or may be a reaction index by one user. The unit time for totaling the reaction index may be a time other than 1 second.

図2に戻って、サーバ10の構成について説明する。算出部160は、取得された複数の反応指数の統計的な数値を算出する機能を有する。当該数値により、管理者は、より正確に動画を検証することが可能になる。 Returning to FIG. 2, the configuration of the server 10 will be described. The calculation unit 160 has a function of calculating statistical numerical values of a plurality of acquired reaction indexes. The numerical value enables the administrator to verify the video more accurately.

統計的な数値は、例えば、複数の反応指数のうちの最大値と反応指数の平均値の差分であってもよい。上で説明した図4を参照して、最大値と反応指数の平均値の差分について説明する。図4に示す例では、1秒から23秒までの動画再生時間における反応指数の中で、19秒の動画再生時間における反応指数が最大値の37となっている。また、1秒から23秒の動画再生時間における反応指数の平均値は、15である。このため、算出部160は、最大値の37から平均値の15を差し引いた22を差分として算出することができる。当該差分が大きいほど、動画を視聴するユーザに大きな反応の起伏を生じさせることができると推定できる。 The statistical value may be, for example, the difference between the maximum value of the plurality of reaction indexes and the average value of the reaction indexes. The difference between the maximum value and the average value of the reaction index will be described with reference to FIG. 4 described above. In the example shown in FIG. 4, among the reaction indexes in the moving image reproduction time from 1 second to 23 seconds, the reaction index in the moving image reproduction time of 19 seconds is 37, which is the maximum value. The average value of the reaction index in the moving image reproduction time of 1 second to 23 seconds is 15. Therefore, the calculation unit 160 can calculate 22 as the difference, which is obtained by subtracting the average value of 15 from the maximum value of 37. It can be estimated that the larger the difference, the greater the undulations of the reaction of the user who watches the moving image.

また、統計的な数値は、単位時間当たりの反応指数であってもよい。より具体的には、当該統計的な数値は、所定の動画再生期間における単位時間当たりの反応指数の平均値であってよい。図4に示す例では、例えば、統計的な数値は、23秒間の動画再生期間における1秒ごとの反応指数の平均値であってよい。単位時間当たりの反応指数が大きいほど、動画に対するユーザの感情の盛り上がりが大きいと推定できる。このように、単位時間当たりの反応指数を用いることで、より適切に動画を評価することが可能になる。 In addition, the statistical value may be a reaction index per unit time. More specifically, the statistical value may be the average value of the reaction index per unit time in a predetermined moving image reproduction period. In the example shown in FIG. 4, for example, the statistical value may be the average value of the reaction index per second in the moving image reproduction period of 23 seconds. It can be estimated that the larger the reaction index per unit time, the greater the excitement of the user's emotions toward the moving image. In this way, by using the reaction index per unit time, it becomes possible to evaluate the moving image more appropriately.

算出部160は、算出結果を生成部150に伝達する。これにより、生成部150は、算出結果を含む表示データを生成することができる。 The calculation unit 160 transmits the calculation result to the generation unit 150. As a result, the generation unit 150 can generate display data including the calculation result.

図5を参照して、管理端末20の構成について説明する。図5に示すように、管理端末20は、入力部210、通信部220及び表示部230を備える。 The configuration of the management terminal 20 will be described with reference to FIG. As shown in FIG. 5, the management terminal 20 includes an input unit 210, a communication unit 220, and a display unit 230.

入力部210は、ユーザの操作を受け付け、当該操作に応じた入力情報を生成する機能を有する。入力部210は、マウス、キーボード又はタッチパネルなどであってもよい。生成された入力情報は、通信部220に伝達される。 The input unit 210 has a function of accepting a user's operation and generating input information according to the operation. The input unit 210 may be a mouse, a keyboard, a touch panel, or the like. The generated input information is transmitted to the communication unit 220.

通信部220は、各種の情報を送受信する機能を有する。通信部220は、例えば、管理端末20が有する動画データ又は入力部210により生成された入力情報をサーバ10に送信することができる。また、通信部220は、サーバ10により送信された表示データなどを受信し、表示部230に伝達してもよい。 The communication unit 220 has a function of transmitting and receiving various types of information. The communication unit 220 can transmit, for example, the moving image data of the management terminal 20 or the input information generated by the input unit 210 to the server 10. Further, the communication unit 220 may receive the display data or the like transmitted by the server 10 and transmit it to the display unit 230.

表示部230は、各種の情報を表示する機能を有する。表示部230は、例えば、液晶ディスプレイなどであってもよい。表示部230は、サーバ10から送信された表示データに基づき、反応指数又は算出結果などの各種の情報を表示することができる。 The display unit 230 has a function of displaying various types of information. The display unit 230 may be, for example, a liquid crystal display or the like. The display unit 230 can display various information such as a reaction index or a calculation result based on the display data transmitted from the server 10.

次いで、ユーザ端末30の構成について説明する。ユーザ端末30の構成は、管理端末20の構成と実質的に同一であるため、ユーザ端末30の図示は省略する。ここでは、ユーザ端末30における動作と管理端末20における動作との違いについて説明する。 Next, the configuration of the user terminal 30 will be described. Since the configuration of the user terminal 30 is substantially the same as the configuration of the management terminal 20, the illustration of the user terminal 30 is omitted. Here, the difference between the operation in the user terminal 30 and the operation in the management terminal 20 will be described.

ユーザ端末30の通信部は、サーバ10から反応画像の表示と共に動画を再生するための動画データを受信し、表示部に伝達することができる。表示部は、当該動画データに基づき、反応画像を表示するとともに、動画を再生することができる。 The communication unit of the user terminal 30 can receive the moving image data for reproducing the moving image together with the display of the reaction image from the server 10 and transmit the moving image data to the display unit. The display unit can display the reaction image and play the moving image based on the moving image data.

ユーザ端末30の入力部は、動画が再生されている際に、反応画像のクリック又はタッチなどの所定の操作を受け付け、当該操作に応じた入力情報を生成し、通信部220に伝達することができる。また、ユーザ端末30の通信部は、当該入力情報をサーバ10に送信することができる。当該入力情報は、反応指数の生成などに用いられる。 The input unit of the user terminal 30 may accept a predetermined operation such as clicking or touching a reaction image when the moving image is being played, generate input information corresponding to the operation, and transmit the input information to the communication unit 220. it can. Further, the communication unit of the user terminal 30 can transmit the input information to the server 10. The input information is used for generating a reaction index and the like.

図6を参照して、上述したサーバ10、管理端末20及びユーザ端末30のハードウェア構成の一例について説明する。サーバ10、管理端末20及びユーザ端末30は、CPU、GPU(Graphical Processing Unit)等のプロセッサ11、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置12、有線又は無線通信を行う通信IF(Interface)13、入力操作を受け付ける入力デバイス14、及び情報の出力を行う出力デバイス15を有する。入力デバイス14は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス15は、例えば、ディスプレイ及び/又はスピーカ等である。 An example of the hardware configuration of the server 10, the management terminal 20, and the user terminal 30 described above will be described with reference to FIG. The server 10, the management terminal 20, and the user terminal 30 are a CPU, a processor 11 such as a GPU (Graphical Processing Unit), a memory, a storage device 12 such as an HDD (Hard Disk Drive) and / or an SSD (Solid State Drive), wired or It has a communication IF (Interface) 13 that performs wireless communication, an input device 14 that accepts input operations, and an output device 15 that outputs information. The input device 14 is, for example, a keyboard, a touch panel, a mouse and / or a microphone. The output device 15 is, for example, a display and / or a speaker.

プロセッサ11は、記憶装置12に記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。サーバ10では、プロセッサ11がプログラムを実行することにより、図2を用いて説明した様々な動作が実現される。 The processor 11 is a control unit that controls execution of a program stored in the storage device 12, calculates data, and processes data. In the server 10, the processor 11 executes the program to realize various operations described with reference to FIG.

図7及び図8を参照して、本実施形態に係るサーバ10、管理端末20及びユーザ端末30による処理の一例について説明する。図7は、管理端末20がサーバ10にアクセスしてから、サーバ10がユーザ端末30に評価対象の動画データを送信するまでの処理を示すフローチャートである。また、図8は、ユーザ端末30が動画の再生を開始してから、管理端末20により検証結果が表示されるまでの処理を示すフローチャートである。以下、図7及び図8に沿って、サーバ10、管理端末20及びユーザ端末30による処理について説明する。 An example of processing by the server 10, the management terminal 20, and the user terminal 30 according to the present embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 is a flowchart showing a process from the time when the management terminal 20 accesses the server 10 until the server 10 transmits the moving image data to be evaluated to the user terminal 30. Further, FIG. 8 is a flowchart showing a process from the start of playback of the moving image by the user terminal 30 to the display of the verification result by the management terminal 20. Hereinafter, processing by the server 10, the management terminal 20, and the user terminal 30 will be described with reference to FIGS. 7 and 8.

まず、管理端末20の通信部220は、例えば管理者による入力部210への操作に応じて、サーバ10に対して管理サイトへのアクセスを要求する(ステップS101)。次いで、サーバ10の通信部130は、管理端末20による要求に応じて、管理画面データを送信する(ステップS103)。これに応じて、管理端末20の通信部220は、管理画面データを受信し、表示部230に伝達する。すると、表示部230に、管理画面が表示される(ステップS105)。管理画面には、動画データのアップロードなどを受け付けるための画像などの各種の画像が表示される。 First, the communication unit 220 of the management terminal 20 requests the server 10 to access the management site, for example, in response to an operation on the input unit 210 by the administrator (step S101). Next, the communication unit 130 of the server 10 transmits the management screen data in response to the request from the management terminal 20 (step S103). In response to this, the communication unit 220 of the management terminal 20 receives the management screen data and transmits it to the display unit 230. Then, the management screen is displayed on the display unit 230 (step S105). Various images such as images for accepting uploads of video data are displayed on the management screen.

次いで、管理端末20は、動画データをサーバ10に送信する(ステップS107)。管理端末20は、例えば、管理者の操作に基づき、記憶している動画データを通信部220により管理端末20に送信してもよい。次いで、サーバ10は、管理端末20に、セグメント情報を取得するための入力画面データを送信する(ステップS109)。入力画面データの送信に応じて、管理端末20の表示部230に、セグメント入力画面が表示される(ステップS111)。 Next, the management terminal 20 transmits the moving image data to the server 10 (step S107). For example, the management terminal 20 may transmit the stored moving image data to the management terminal 20 by the communication unit 220 based on the operation of the administrator. Next, the server 10 transmits the input screen data for acquiring the segment information to the management terminal 20 (step S109). The segment input screen is displayed on the display unit 230 of the management terminal 20 in response to the transmission of the input screen data (step S111).

図9は、セグメント入力画面が表示された表示画面410の一例を示す図である。図9に示す表示画面410には、動画412及びセグメント情報を入力するための画像が表示されている。図9には、性別(男、女)及び年齢(20歳未満、20代、30代)を選択するためのテキストが表示されている。管理者は、各テキストの左側に表示されたチェックボックス414をクリック等することにより、調査対象者のセグメントを選択することができる。なお、セグメント入力画面には、図9に示すセグメント以外の情報が表示されてもよい。 FIG. 9 is a diagram showing an example of the display screen 410 on which the segment input screen is displayed. On the display screen 410 shown in FIG. 9, a moving image 412 and an image for inputting segment information are displayed. In FIG. 9, texts for selecting gender (male, female) and age (under 20 years old, 20s, 30s) are displayed. The administrator can select the segment of the surveyed person by clicking the check box 414 displayed on the left side of each text. Information other than the segment shown in FIG. 9 may be displayed on the segment input screen.

管理者の操作に基づき、検証の対象となるユーザのセグメントが選択されると、管理端末20は、セグメント情報をサーバ10に送信する(ステップS113)。サーバ10の通信部130がセグメント情報を受信すると、付与部120は、ステップS107において送信された動画データに反応画像を付与する(ステップS115)。反応画像が付与された動画データは、通信部130により、選択されたセグメントに合致するユーザのユーザ端末30に送信される(ステップS117)。男性、20代というセグメントが選択されている場合には、サーバ10は、20代の男性として登録されているユーザからのアクセスに応答して、ユーザ端末30に動画データを送信する。これにより、動画データを送信されたユーザ端末30のユーザは、動画データに基づく動画を視聴可能になる。 When the segment of the user to be verified is selected based on the operation of the administrator, the management terminal 20 transmits the segment information to the server 10 (step S113). When the communication unit 130 of the server 10 receives the segment information, the adding unit 120 adds a reaction image to the moving image data transmitted in step S107 (step S115). The moving image data to which the reaction image is added is transmitted by the communication unit 130 to the user terminal 30 of the user matching the selected segment (step S117). When the segment of male and 20's is selected, the server 10 transmits the moving image data to the user terminal 30 in response to the access from the user registered as the male in his 20's. As a result, the user of the user terminal 30 to which the moving image data is transmitted can watch the moving image based on the moving image data.

次いで、図8を参照して、動画データがユーザ端末30の送信された後における情報処理システム1の処理について説明する。ユーザ端末30は、動画データに基づく動画を再生しつつ、ユーザによる入力を受け付ける(ステップS201)。このとき、ユーザ端末30の表示部に、動画が再生されつつ、反応画像が表示されている。動画が再生されている際に、ユーザは反応画像のクリックなど、所定の操作を行うことにより、入力を行うことができる。ユーザ端末30において、例えば「納得」を表す反応画像がクリックされると、当該反応画像がクリックされたことに基づく操作情報が入力情報として生成される。このとき、動画の再生時間に関わる情報も併せて入力情報として生成される。これらの入力情報は、所定の操作が行われる度に生成される。 Next, with reference to FIG. 8, the processing of the information processing system 1 after the moving image data is transmitted by the user terminal 30 will be described. The user terminal 30 accepts input by the user while playing a moving image based on the moving image data (step S201). At this time, the reaction image is displayed on the display unit of the user terminal 30 while the moving image is being played back. While the moving image is being played, the user can input by performing a predetermined operation such as clicking the reaction image. When, for example, a reaction image representing "convinced" is clicked on the user terminal 30, operation information based on the click of the reaction image is generated as input information. At this time, information related to the playback time of the moving image is also generated as input information. These input information are generated each time a predetermined operation is performed.

次いで、ユーザ端末30は、入力情報をサーバ10に送信する(ステップS203)。ユーザ端末30は、所定の操作が行われる度に入力情報をサーバ10に送信してもよいし、例えば動画の再生が終了する際に、動画が再生されてから終了するまでに生成された入力情報をまとめてサーバ10に送信してもよい。所定の操作が行われる度に入力情報をサーバ10に送信する場合は、動画の再生時間に関わる情報をサーバ10側で生成してもよい。また、ユーザ端末30は、ユーザを識別可能な情報と共に入力情報をサーバ10に送信してもよい。入力情報がサーバ10に送信されると、サーバ10の通信部130は、入力情報を受信し、指数取得部140に伝達する。 Next, the user terminal 30 transmits the input information to the server 10 (step S203). The user terminal 30 may transmit the input information to the server 10 each time a predetermined operation is performed. For example, when the playback of the moving image is finished, the input generated from the playback of the moving image to the end is completed. The information may be collectively transmitted to the server 10. When the input information is transmitted to the server 10 each time a predetermined operation is performed, the information related to the playback time of the moving image may be generated on the server 10 side. Further, the user terminal 30 may transmit the input information to the server 10 together with the information that can identify the user. When the input information is transmitted to the server 10, the communication unit 130 of the server 10 receives the input information and transmits it to the index acquisition unit 140.

次いで、指数取得部140は、反応指数を取得する(ステップS205)。具体的には、指数取得部140は、入力情報に含まれる操作情報に基づき、反応指数を生成する。例えば、指数取得部140は、検証の対象となっている動画データにおける動画再生時間の所定の期間について、単位時間当たりの反応画像がクリックされた回数をカウントする。このようにして、指数取得部140は、当該期間における単位時間当たりの反応指数を取得できる。また、指数取得部140は、1人又は複数の調査対象者による反応指数を集計し、集計した結果を用いることもできる。 Next, the index acquisition unit 140 acquires the reaction index (step S205). Specifically, the index acquisition unit 140 generates a reaction index based on the operation information included in the input information. For example, the index acquisition unit 140 counts the number of times the reaction image is clicked per unit time for a predetermined period of the moving image reproduction time in the moving image data to be verified. In this way, the index acquisition unit 140 can acquire the reaction index per unit time in the period. In addition, the index acquisition unit 140 may aggregate the reaction indexes of one or a plurality of survey subjects and use the aggregated results.

このとき、指数取得部140は、ユーザを識別可能な情報と対応付けられた入力情報に基づき、反応指数を取得できる。これにより、指数取得部140は、どのようなユーザの反応指数であるかを認識することができる。本実施形態では、指数取得部140は、反応指数とセグメント情報とを対応付けることができる。このため、特定のセグメントのユーザと、当該ユーザが動画に対して示す反応とを対応付けることが可能になる。 At this time, the index acquisition unit 140 can acquire the reaction index based on the input information associated with the information that can identify the user. As a result, the index acquisition unit 140 can recognize what kind of user's reaction index is. In the present embodiment, the index acquisition unit 140 can associate the reaction index with the segment information. Therefore, it is possible to associate a user in a specific segment with a reaction that the user shows to a moving image.

次いで、管理端末20は、管理者による入力に応じて、サーバ10に反応指数の集計結果を要求する(ステップS207)。サーバ10の生成部150は、管理端末20からの要求に応じて、反応指数に基づく情報を表示するための表示データを生成する(ステップS209)。具体的には、生成部150は、時間情報と反応指数とを関連付けて表示するための表示データを生成する。生成部150は、例えば、図4を参照して説明したような画像を表示するための表示データを生成してもよい。生成された表示データは、通信部130に伝達される。 Next, the management terminal 20 requests the server 10 for the aggregation result of the reaction index in response to the input by the administrator (step S207). The generation unit 150 of the server 10 generates display data for displaying information based on the reaction index in response to a request from the management terminal 20 (step S209). Specifically, the generation unit 150 generates display data for displaying the time information and the reaction index in association with each other. The generation unit 150 may generate display data for displaying an image as described with reference to FIG. 4, for example. The generated display data is transmitted to the communication unit 130.

サーバ10の通信部130は、表示データを管理端末20に送信する(ステップS211)。管理端末20の通信部220が表示データを受信すると、表示部230は、表示データに基づき、集計結果を表示する(ステップS213)。これにより、管理者は、評価対象となっている動画データについて、動画が再生されている間において検査対象者に生じる反応の推移を検証可能となる。 The communication unit 130 of the server 10 transmits the display data to the management terminal 20 (step S211). When the communication unit 220 of the management terminal 20 receives the display data, the display unit 230 displays the aggregation result based on the display data (step S213). As a result, the administrator can verify the transition of the reaction that occurs in the inspection target person while the moving image is being played with respect to the moving image data to be evaluated.

ここで、ステップS213における処理が実施された後、評価対象となっている動画データに関する反応指数の集計が終了したものとする。管理端末20が検証結果をサーバ10に要求する(ステップS215)。すると、サーバ10の通信部130は、当該要求を表す情報を受信し、算出部160に当該情報を伝達する。 Here, it is assumed that after the processing in step S213 is performed, the aggregation of the reaction index for the moving image data to be evaluated is completed. The management terminal 20 requests the verification result from the server 10 (step S215). Then, the communication unit 130 of the server 10 receives the information representing the request and transmits the information to the calculation unit 160.

すると、算出部160は、指数取得部140により取得された反応指数の統計的な数値を算出する(ステップS217)。ここでは、算出部160は、評価対象となっている動画について取得された複数の反応指数に基づき、統計的な数値を算出する。例えば、算出部160は、単位時間当たりの反応指数の最大値と平均値の差分又は単位時間当たりの反応指数の平均値などの統計的な数値を算出する。算出部160は、算出結果を生成部150に伝達する。 Then, the calculation unit 160 calculates the statistical value of the reaction index acquired by the index acquisition unit 140 (step S217). Here, the calculation unit 160 calculates a statistical numerical value based on a plurality of reaction indexes acquired for the moving image to be evaluated. For example, the calculation unit 160 calculates a statistical value such as the difference between the maximum value and the average value of the reaction index per unit time or the average value of the reaction index per unit time. The calculation unit 160 transmits the calculation result to the generation unit 150.

次いで、生成部150は、算出結果を含む表示データを生成する(ステップS219)。具体的には、生成部150は、図4に示したような、動画の再生時間に対する反応指数を示すグラフに加えて、算出部160の算出結果を併せて表示するための表示データを生成する。また、生成部150は、複数の動画データが評価対象となっている場合には、これらの複数の動画データの各々のグラフ及び算出結果を示す表示データを生成してもよい。生成部150は、生成した表示データを通信部130に伝達する。 Next, the generation unit 150 generates display data including the calculation result (step S219). Specifically, the generation unit 150 generates display data for displaying the calculation result of the calculation unit 160 in addition to the graph showing the reaction index with respect to the playback time of the moving image as shown in FIG. .. In addition, when a plurality of moving image data are evaluated, the generation unit 150 may generate display data showing graphs and calculation results of each of the plurality of moving image data. The generation unit 150 transmits the generated display data to the communication unit 130.

サーバ10の通信部130は、ステップS219において生成された表示データを管理端末20に送信する(ステップS221)。管理端末20の通信部220は、表示データを受信すると、当該表示データを表示部230に伝達する。すると、表示部230は、表示データに基づき、調査結果を示す表示画面を表示する(ステップS223)。表示画面には、例えば、2つ評価対象となっている動画の各々のグラフ及び算出結果が表示される。これにより、管理者は、2つの動画について、調査対象者に生じる感情の推移を比較することができる。なお、表示データには3つ以上の評価対象となっている動画に関するグラフ及び算出結果が含まれ、これらのグラフ及び算出結果が表示部230に表示されてもよい。 The communication unit 130 of the server 10 transmits the display data generated in step S219 to the management terminal 20 (step S221). When the communication unit 220 of the management terminal 20 receives the display data, the communication unit 220 transmits the display data to the display unit 230. Then, the display unit 230 displays a display screen showing the survey result based on the display data (step S223). On the display screen, for example, a graph and a calculation result of each of the two moving images to be evaluated are displayed. This allows the administrator to compare the emotional transitions that occur in the surveyed person for the two videos. The display data includes graphs and calculation results relating to three or more moving images to be evaluated, and these graphs and calculation results may be displayed on the display unit 230.

以上、本実施形態に係る情報処理システム1による処理について説明した。本実施形態に係る情報処理システム1によれば、管理者は、反応指数と時間情報との関係を認識することができる。このため、管理者は、視聴者が動画を視聴している際に、どのように反応が推移するのかを簡便に検証することができる。 The processing by the information processing system 1 according to the present embodiment has been described above. According to the information processing system 1 according to the present embodiment, the manager can recognize the relationship between the reaction index and the time information. Therefore, the administrator can easily verify how the reaction changes when the viewer is watching the moving image.

従来の動画に対する視聴者の反応を調査する方法には、動画を視聴した視聴者に対して動画の感想などについてアンケートを取る手法があった。しかしながら、このような調査では、動画の視聴後に実施されるため、動画のどの時点でどのような感情が生じたのかを知ることが困難であった。本実施形態に係る情報処理システム1によれば、動画が再生されている際に、どのタイミングでどのような反応が視聴者にあったのかを知ることが可能になる。 As a conventional method of investigating the reaction of viewers to videos, there is a method of taking a questionnaire about the impressions of the videos to the viewers who watched the videos. However, since such a survey is conducted after watching the video, it is difficult to know what kind of emotion occurred at what time in the video. According to the information processing system 1 according to the present embodiment, it is possible to know what kind of reaction was given to the viewer at what timing when the moving image is being played back.

以下では、上記のようにして得られる調査結果の用途について説明する。具体的には、調査結果を動画の編集に用いる方法について説明する。 In the following, the uses of the survey results obtained as described above will be described. Specifically, a method of using the survey results for editing a moving image will be described.

ここでは、広告として用いられる動画(以下、単に「広告動画」とも称する。)が作成されるものとする。まず、広告動画が作成される前に、作成される広告動画の概略を示す絵コンテの動画が作成されるものとする。絵コンテの動画には、作成される広告動画におけるいくつかの場面を切り取った複数の画像及び音声が含まれる。絵コンテの動画が再生されると、表示される画像が所定の時間(例えば数秒)おきに切り替わるとともに、音声が出力される。 Here, it is assumed that a moving image used as an advertisement (hereinafter, also simply referred to as “advertising moving image”) is created. First, before the advertisement video is created, it is assumed that a video of a storyboard showing the outline of the advertisement video to be created is created. The storyboard video includes a plurality of images and sounds obtained by cutting out some scenes in the created advertisement video. When the moving image of the storyboard is played back, the displayed image is switched at predetermined time (for example, several seconds), and the sound is output.

広告動画の作成者は、再生された絵コンテの動画に対する視聴者の反応に基づき、広告動画を作成する。具体的には、動画作成者は、上述した情報処理システム1を用いて、複数の動画を評価することができる。ここでは、動画作成者は、3つの動画(第1〜第3動画)を評価するものとする。例えば、これらの3つの動画は、記者会見に関する動画であるものとする。これらの動画では、例えば、記者会見を行っている人物が泣いている又は泣いていない等の違いがあるものとする。 The creator of the advertising video creates the advertising video based on the viewer's reaction to the played storyboard video. Specifically, the moving image creator can evaluate a plurality of moving images by using the information processing system 1 described above. Here, it is assumed that the moving image creator evaluates three moving images (first to third moving images). For example, these three videos are assumed to be videos related to a press conference. In these videos, it is assumed that there is a difference, for example, that the person holding the press conference is crying or not crying.

ここで、3つの動画のそれぞれについて、情報処理システム1を用いて所定数のユーザに視聴してもらい、サーバ10の算出部160により、単位時間当たりの反応指数の平均値(以下、「平均反応指数」とも称する。)が算出され、第1動画の平均反応指数は15.4、第2動画の平均反応指数は13.9、第3動画の平均反応指数は16.7であるものとする。動画作成者は、これらの平均反応指数に基づき、これらの3つの動画の中で第3動画が最も視聴者の感情に大きな影響を与えると推測することができる。例えば、第3動画が、記者会見を行っている人物が泣いている様子を表示する動画である場合には、当該人物が泣いている方が、当該人物が泣いていない場合よりも、視聴者の感情に訴えたり、納得を得られたりすることができると推測することができる。このような推測の下、動画作成者は、第3動画を用いることで、より視聴者の反応を得られる広告動画を作成することができる。 Here, each of the three moving images is viewed by a predetermined number of users using the information processing system 1, and the calculation unit 160 of the server 10 determines the average value of the reaction index per unit time (hereinafter, "average reaction"). (Also referred to as "index") is calculated, and it is assumed that the average reaction index of the first moving image is 15.4, the average reaction index of the second moving image is 13.9, and the average reaction index of the third moving image is 16.7. .. Based on these average reaction indexes, the video creator can infer that the third video has the greatest influence on the viewer's emotions among these three videos. For example, if the third video is a video showing a person holding a press conference crying, the viewer is crying when the person is crying than when the person is not crying. It can be inferred that it is possible to appeal to the emotions of the person and to be convinced. Based on such a guess, the moving image creator can create an advertising moving image that can obtain a more viewer reaction by using the third moving image.

一般的に、1つの広告動画を作成するためには、非常に高いコストがかかる。このため、コストに見合った広告動画を作成することが求められている。本実施形態に係る情報処理システム1を用いることで、広告動画を作成する前に絵コンテの動画を評価し、評価結果に応じて広告動画を作成できる。このため、本実施形態に係る情報処理システム1を用いることで、高いコストに見合った、質の良い広告動画を作成することが可能になる。 Generally, it costs a lot to create one advertising video. For this reason, it is required to create an advertising video that is commensurate with the cost. By using the information processing system 1 according to the present embodiment, it is possible to evaluate the moving image of the storyboard before creating the advertising moving image and create the advertising moving image according to the evaluation result. Therefore, by using the information processing system 1 according to the present embodiment, it is possible to create a high-quality advertising video that is commensurate with the high cost.

また、従来では、上述のような3つの絵コンテの動画を評価する際には、特定の人物が動画を視聴し、当該特定の人物の主観に基づき広告動画が作成されることが多かった。本実施形態に係る情報処理システム1によれば、多数の調査対象者の反応の推移に基づき、絵コンテの動画を評価することができるため、より適切な動画を作成することが可能になる。 Further, conventionally, when evaluating a moving image of three storyboards as described above, a specific person often watches the moving image and an advertising moving image is created based on the subjectivity of the specific person. According to the information processing system 1 according to the present embodiment, it is possible to evaluate the moving image of the storyboard based on the transition of the reactions of a large number of survey subjects, so that it is possible to create a more appropriate moving image.

また、ここで説明したような絵コンテの動画による評価にかかる費用は、広告動画を作成するために必要な費用よりもずっと低く、例えば、広告動画の作成費用の1%程度であり得る。このため、低いコストで動画の質を上げることができるため、動画作成の費用対効果を高めることが可能になる。 In addition, the cost of evaluating a storyboard video as described here is much lower than the cost required to create an advertising video, and can be, for example, about 1% of the cost of creating an advertising video. Therefore, the quality of the moving image can be improved at a low cost, and the cost effectiveness of the moving image creation can be improved.

以上、本実施形態に係る情報処理システム1を用いて、広告動画を作成する前に絵コンテの動画を評価し、動画を作成する方法について説明した。次に、本実施形態に係る情報処理システム1を用いて、既に作成された広告動画を評価する方法について説明する。 As described above, the method of evaluating the moving image of the storyboard and creating the moving image has been described using the information processing system 1 according to the present embodiment before creating the advertising moving image. Next, a method of evaluating the already created advertising video using the information processing system 1 according to the present embodiment will be described.

図10には、既に作成された広告動画に用いられている画像の一部が示されている。図10に示す例では、先に表示される画像から順番に、第1画像500、第2画像502、第3画像504及び第4画像506が示されている。ここでは、作成された広告動画には、4つのシーンが含まれており、図10に示す4つの画像は、これらの4つのシーンを代表する画像であるものとする。ここで、動画作成者は、ユーザが所定のサイトにアクセスすることで、作成した広告動画を視聴できるようにし、当該動画の視聴率を調査する。また、動画作成者は、上述した情報処理システム1を用いて、作成した広告動画を評価する。 FIG. 10 shows a part of the image used in the already created advertising video. In the example shown in FIG. 10, the first image 500, the second image 502, the third image 504, and the fourth image 506 are shown in order from the image displayed first. Here, it is assumed that the created advertising video includes four scenes, and the four images shown in FIG. 10 are images representing these four scenes. Here, the video creator enables the user to view the created advertising video by accessing a predetermined site, and investigates the audience rating of the video. Further, the moving image creator evaluates the created advertising moving image by using the information processing system 1 described above.

図11は、動画作成者により作成された広告動画の視聴率及び反応指数の動画再生時間に対する推移を示す図である。ここで、視聴率とは、動画を再生した視聴者のうち、その時間まで離脱することなく動画を再生している視聴者の割合を示す数値である。図11に示すように、作成された広告動画の視聴率は、動画再生時間が経過すると急速に減少している。つまり、再生された広告動画は、多くの視聴者により途中で再生が停止されてしまっていることがいえる。 FIG. 11 is a diagram showing changes in the audience rating and reaction index of the advertising video created by the video creator with respect to the video playback time. Here, the audience rating is a numerical value indicating the percentage of viewers who have played the moving image without leaving until that time. As shown in FIG. 11, the audience rating of the created advertising video rapidly decreases as the video playback time elapses. That is, it can be said that the reproduced advertising video has been stopped in the middle by many viewers.

図11には、視聴率に併せて、作成された広告動画の感情指数の推移も示されている。ここでは、電球の形状で示された理性指数510と、ハートマークで示された感情指数512とが示されている。ここで、理性指数510は「納得」という理性的な判断に関わる理性指数であり、感情指数512は、「好き」の感情に関わる感情指数である。これらの反応指数は、上述した動画再生時間の4つのタイミングに対応しているものとする。図11に示すように、動画の再生が開始されてから2番目のタイミングの反応指数は、理性指数510と感情指数512と足し合わせて7であり、他のタイミングの反応指数と比べて高い。すなわち、図10に示した第2画像502に対応するシーンにおいて、視聴者の感情が大きく揺さぶられていることが言える。一方、第1画像500に対応するシーンの反応指数は、他のシーンの反応指数と比べて低い。このため、動画作成者は、第1画像500のシーンが初めに表示されることで、視聴率が急速に低下すると推測することができる。 FIG. 11 also shows the transition of the emotion index of the created advertising video along with the audience rating. Here, a reason index 510 indicated by the shape of a light bulb and an emotion index 512 indicated by a heart symbol are shown. Here, the reason index 510 is a reason index related to the rational judgment of "convinced", and the emotion index 512 is an emotion index related to the feeling of "like". It is assumed that these reaction indexes correspond to the above-mentioned four timings of the moving image reproduction time. As shown in FIG. 11, the reaction index at the second timing after the start of playback of the moving image is 7, which is the sum of the rational index 510 and the emotion index 512, which is higher than the reaction indexes at other timings. That is, it can be said that the viewer's emotions are greatly shaken in the scene corresponding to the second image 502 shown in FIG. On the other hand, the reaction index of the scene corresponding to the first image 500 is lower than the reaction index of the other scenes. Therefore, the moving image creator can presume that the audience rating drops rapidly when the scene of the first image 500 is displayed first.

そこで、動画作成者は、第1画像500に対応するシーンと、第2画像502に対応するシーンとを入れ替えて、図12に示すような、新たな動画を作成することができる。これにより、視聴者の感情を揺さぶることが可能なシーンを動画の初めに表示させることができ、視聴率の低下を抑制することができると考えられる。 Therefore, the moving image creator can create a new moving image as shown in FIG. 12 by exchanging the scene corresponding to the first image 500 and the scene corresponding to the second image 502. As a result, it is possible to display a scene that can shake the viewer's emotions at the beginning of the moving image, and it is considered that a decrease in the audience rating can be suppressed.

図13は、元の作成された広告動画の視聴率の推移と、新たに作成された広告動画において期待される視聴率の推移とを示す図である。図13には、元の作成された広告動画の視聴率が破線、新たに作成された広告動画において期待される視聴率が実線で示されている。図13に示すように、新たに作成された広告動画では、視聴者の感情を揺さぶるシーンが初めに表示されるため、視聴率が下がりにくくなり、広告動画が最後まで視聴される確率が高まることが期待できる。 FIG. 13 is a diagram showing a transition of the audience rating of the originally created advertising video and a transition of the audience rating expected in the newly created advertising video. In FIG. 13, the audience rating of the originally created advertising video is shown by a broken line, and the audience rating expected of the newly created advertising video is shown by a solid line. As shown in FIG. 13, in the newly created advertising video, the scene that shakes the viewer's emotions is displayed first, so that the audience rating is less likely to decrease and the probability that the advertising video is viewed to the end increases. Can be expected.

一般的に、Web上の広告動画は、一度再生された場合であっても、最後まで視聴されるとは限らない。例えば、30秒の広告動画が、15秒程度しか視聴されない場合も多い。このため、本実施形態の情報処理システム1をWeb上の広告動画の作成に適用することで、より大きな効果が発揮されると考えられる。 In general, an advertising video on the Web is not always viewed to the end even if it is played once. For example, a 30-second advertising video is often viewed for only about 15 seconds. Therefore, it is considered that a greater effect can be exhibited by applying the information processing system 1 of the present embodiment to the creation of an advertisement moving image on the Web.

また、本実施形態に係る情報処理システム1によれば、既に作成された動画を評価し、当該動画に基づいて、新たな動画を作成することができる。このため、一から新たな動画を作成しなくとも、既存の動画を用いて視聴率の高い動画を作成することが可能になる。 Further, according to the information processing system 1 according to the present embodiment, it is possible to evaluate an already created moving image and create a new moving image based on the moving image. Therefore, it is possible to create a video with a high audience rating using an existing video without creating a new video from scratch.

また、広告動画の視聴者は、広告動画を視聴することで刺激を受け、広告の商品を購入したりするといった行動を行う。このとき、視聴者が刺激を受けると、当該刺激に基づく反応(広告動画に生じる感情など)に応じて、視聴者が上述のような行動を行っている。従来の技術では、視聴者に刺激については視聴率、視聴者の行動については広告動画に関連するサイトへのアクセス回数等、に基づき調査することが可能であった。視聴者への刺激と視聴者の行動との間には、広告動画への視聴者の反応がある。従来では、当該反応を調査する方法として、特定のブランドの広告に触れたことがある人と触れたことのない人とで、当該ブランドに対する感情を調査するブランドリフト調査があった。本発明に係る情報処理システム1によれば、広告動画の視聴による刺激に基づく視聴者の反応の推移を、に検証できるようになる。また、視聴者の反応に基づき、上述のように広告動画を修正することで、より広告動画の視聴率が向上し、広告動画の効果を高めることが可能になる。 In addition, the viewer of the advertising video is stimulated by watching the advertising video and takes actions such as purchasing the product of the advertisement. At this time, when the viewer receives a stimulus, the viewer takes the above-mentioned action according to the reaction (emotion generated in the advertising video, etc.) based on the stimulus. With the conventional technology, it has been possible to investigate the viewer's stimulus based on the audience rating, the viewer's behavior based on the number of visits to the site related to the advertising video, and the like. There is a viewer's reaction to the advertising video between the viewer's stimulus and the viewer's behavior. Conventionally, as a method of investigating the reaction, there has been a brand lift survey that investigates the feelings toward the brand between those who have touched the advertisement of a specific brand and those who have not. According to the information processing system 1 according to the present invention, it becomes possible to verify the transition of the reaction of the viewer based on the stimulus by viewing the advertisement moving image. Further, by modifying the advertisement video as described above based on the reaction of the viewer, the audience rating of the advertisement video can be further improved, and the effect of the advertisement video can be enhanced.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are for facilitating the understanding of the present invention, and are not for limiting and interpreting the present invention. Each element included in the embodiment and its arrangement, material, condition, shape, size, etc. are not limited to those exemplified, and can be changed as appropriate. In addition, the configurations shown in different embodiments can be partially replaced or combined.

図7及び図8に示したフローチャートにおける各処理は、これらのフローチャートに示した順番で実施されなくてもよい。各処理は、矛盾のない範囲で適宜入れ替えた順番で実施されてもよいし、あるいは、並列的に実施されてもよい。例えば、図7に示す処理において、ステップS115における動画データに反応画像を付与する処理は、動画データがサーバ10に送信される処理(すなわち、ステップS107における処理)が行われてから、動画データがユーザ端末30に送信される処理(すなわち、ステップS117における処理)が行われるまでのいずれのタイミングで実施されてもよい。例えば、動画データに反応画像を付与する処理は、ステップS107の処理が行われた直後に、サーバ10において実施されてもよい。 The processes in the flowcharts shown in FIGS. 7 and 8 may not be performed in the order shown in these flowcharts. Each process may be carried out in an order in which they are appropriately replaced within a consistent range, or may be carried out in parallel. For example, in the process shown in FIG. 7, in the process of adding the reaction image to the moving image data in step S115, after the process of transmitting the moving image data to the server 10 (that is, the process in step S107) is performed, the moving image data is generated. It may be executed at any timing until the process transmitted to the user terminal 30 (that is, the process in step S117) is performed. For example, the process of adding the reaction image to the moving image data may be performed on the server 10 immediately after the process of step S107 is performed.

1…情報処理システム、10…サーバ、11…プロセッサ、12…記憶装置、14…入力デバイス、15…出力デバイス、20…管理端末、30…ユーザ端末、35…ネットワーク、120…付与部、130…通信部、140…指数取得部、150…生成部、160…算出部、210…入力部、220…通信部、230…表示部、400…表示画面、402…動画、404…第1反応画像、406…第2反応画像、410…表示画面、412…動画、500…第1画像、502…第2画像、504…第3画像、506…第4画像、510…理性指数、512…感情指数 1 ... Information processing system, 10 ... Server, 11 ... Processor, 12 ... Storage device, 14 ... Input device, 15 ... Output device, 20 ... Management terminal, 30 ... User terminal, 35 ... Network, 120 ... Grant unit, 130 ... Communication unit, 140 ... Index acquisition unit, 150 ... Generation unit, 160 ... Calculation unit, 210 ... Input unit, 220 ... Communication unit, 230 ... Display unit, 400 ... Display screen, 402 ... Movie, 404 ... First reaction image, 406 ... 2nd reaction image, 410 ... Display screen, 412 ... Movie, 500 ... 1st image, 502 ... 2nd image, 504 ... 3rd image, 506 ... 4th image, 510 ... Reason index, 512 ... Emotion index

Claims (7)

動画データを取得する動画取得部と、
前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画に対して付与する付与部と、
前記画像と共に前記動画を前記ユーザの通信端末に再生させる再生部と、
前記動画が再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得する情報取得部と、
前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成する生成部と、
を備える、情報処理装置。
The video acquisition department that acquires video data and
An giving unit that gives an image for acquiring the reaction of a user who watches a moving image based on the moving image data to the moving image, and
A playback unit that causes the user's communication terminal to play the moving image together with the image,
An information acquisition unit that acquires information on the operation and information on the playback time of the moving image based on the user's operation on the image when the moving image is being played.
A generation unit that generates display data for displaying information related to the operation in association with the playback time of the moving image.
Information processing device.
前記操作に関する情報に基づき、前記反応に関する指数の統計的な数値を算出する算出部、をさらに備える、
請求項1に記載の情報処理装置。
A calculation unit for calculating a statistical value of an index related to the reaction based on the information related to the operation is further provided.
The information processing device according to claim 1.
前記統計的な数値は、単位時間当たりの前記反応に関する指数の最大値と平均値との差分である、
請求項2に記載の情報処理装置。
The statistical value is the difference between the maximum value and the average value of the index related to the reaction per unit time.
The information processing device according to claim 2.
前記統計的な数値は、単位時間当たりの前記反応に関する指数の平均値である、
請求項2に記載の情報処理装置。
The statistical value is the average value of the index for the reaction per unit time.
The information processing device according to claim 2.
前記情報取得部は、前記ユーザを識別可能な情報と対応付けられた前記反応に関する情報を取得する、
請求項1〜4のいずれか1項に記載の情報処理装置。
The information acquisition unit acquires information on the reaction associated with information that can identify the user.
The information processing device according to any one of claims 1 to 4.
動画データを取得することと、
前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画に対して付与することと、
前記画像と共に前記動画を前記ユーザの通信端末に再生させることと、
前記動画が再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得することと、
前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成することと、
を含む、情報処理方法。
Acquiring video data and
An image for acquiring the reaction of a user who watches a video based on the video data is added to the video, and
Playing the moving image together with the image on the communication terminal of the user,
Acquiring information on the operation and information on the playback time of the moving image based on the user's operation on the image while the moving image is being played.
To generate display data for displaying information related to the operation in association with the playback time of the moving image.
Information processing methods, including.
コンピュータに、
動画データを取得することと、
前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画に対して付与することと、
前記画像と共に前記動画を前記ユーザの通信端末に再生させることと、
前記動画が再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得することと、
前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成することと、
を実行させるためのプログラム。
On the computer
Acquiring video data and
An image for acquiring the reaction of a user who watches a video based on the video data is added to the video, and
Playing the moving image together with the image on the communication terminal of the user,
Acquiring information on the operation and information on the playback time of the moving image based on the user's operation on the image while the moving image is being played.
To generate display data for displaying information related to the operation in association with the playback time of the moving image.
A program to execute.
JP2019212549A 2019-11-25 2019-11-25 Information processing apparatus, information processing method, and program Active JP6745393B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019212549A JP6745393B1 (en) 2019-11-25 2019-11-25 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212549A JP6745393B1 (en) 2019-11-25 2019-11-25 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP6745393B1 JP6745393B1 (en) 2020-08-26
JP2021087034A true JP2021087034A (en) 2021-06-03

Family

ID=72146280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212549A Active JP6745393B1 (en) 2019-11-25 2019-11-25 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6745393B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024028943A1 (en) * 2022-08-01 2024-02-08 楽天モバイル株式会社 Live distribution aggregating behavior of viewers viewing video

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030105A (en) * 2001-07-11 2003-01-31 Sony Corp System, device, method, and program for contents evaluation, and contents evaluating program storage medium
JP2005295266A (en) * 2004-03-31 2005-10-20 Victor Co Of Japan Ltd Receiver
JP2007151057A (en) * 2005-10-25 2007-06-14 Dainippon Printing Co Ltd Video content browsing system using evaluation comment information
WO2008050613A1 (en) * 2006-10-25 2008-05-02 Sharp Kabushiki Kaisha Content reproducing device, content reproducing method, server, content reproducing system, content reproducing program, and recording medium
WO2008090859A1 (en) * 2007-01-22 2008-07-31 Sony Corporation Information processing device and method, and program
JP2009038420A (en) * 2007-07-31 2009-02-19 G Mode:Kk Content evaluation software and service providing system
JP2015073175A (en) * 2013-10-02 2015-04-16 日本写真印刷株式会社 Moving image stamp system, terminal device for moving image stamp system, stamp server for moving image stamp system, and program for moving image stamp system
JP2017028676A (en) * 2015-03-31 2017-02-02 株式会社トライグループ Portable terminal device and program
JP2018191065A (en) * 2017-04-28 2018-11-29 株式会社コナミデジタルエンタテインメント Server device and computer program used for the same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030105A (en) * 2001-07-11 2003-01-31 Sony Corp System, device, method, and program for contents evaluation, and contents evaluating program storage medium
JP2005295266A (en) * 2004-03-31 2005-10-20 Victor Co Of Japan Ltd Receiver
JP2007151057A (en) * 2005-10-25 2007-06-14 Dainippon Printing Co Ltd Video content browsing system using evaluation comment information
WO2008050613A1 (en) * 2006-10-25 2008-05-02 Sharp Kabushiki Kaisha Content reproducing device, content reproducing method, server, content reproducing system, content reproducing program, and recording medium
WO2008090859A1 (en) * 2007-01-22 2008-07-31 Sony Corporation Information processing device and method, and program
JP2009038420A (en) * 2007-07-31 2009-02-19 G Mode:Kk Content evaluation software and service providing system
JP2015073175A (en) * 2013-10-02 2015-04-16 日本写真印刷株式会社 Moving image stamp system, terminal device for moving image stamp system, stamp server for moving image stamp system, and program for moving image stamp system
JP2017028676A (en) * 2015-03-31 2017-02-02 株式会社トライグループ Portable terminal device and program
JP2018191065A (en) * 2017-04-28 2018-11-29 株式会社コナミデジタルエンタテインメント Server device and computer program used for the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024028943A1 (en) * 2022-08-01 2024-02-08 楽天モバイル株式会社 Live distribution aggregating behavior of viewers viewing video

Also Published As

Publication number Publication date
JP6745393B1 (en) 2020-08-26

Similar Documents

Publication Publication Date Title
US20190321726A1 (en) Data mining, influencing viewer selections, and user interfaces
Stappen et al. The multimodal sentiment analysis in car reviews (muse-car) dataset: Collection, insights and improvements
US20190098371A1 (en) Media narrative presentation systems and methods with interactive and autonomous content selection
JP6199177B2 (en) System and method for generating and sharing video clips of cloud-supplied games
US10860345B2 (en) System for user sentiment tracking
US9268866B2 (en) System and method for providing rewards based on annotations
US20140325557A1 (en) System and method for providing annotations received during presentations of a content item
US11343595B2 (en) User interface elements for content selection in media narrative presentation
US20130204667A1 (en) Social networks games configured to elicit market research data as part of game play
Zhu et al. Measuring individual video qoe: A survey, and proposal for future directions using social media
US20130035981A1 (en) Social networks games configured to elicit research data as part of game play
CN104918067A (en) Method and system for performing curve processing on video hot degree
US20130215279A1 (en) System and Method for Creating and Displaying Points of Interest in Video Test Results
JP2013080459A (en) Self service platform for building engagement advertisements
US9223830B1 (en) Content presentation analysis
US11812105B2 (en) System and method for collecting data to assess effectiveness of displayed content
US12003814B2 (en) System for audience sentiment feedback and analysis
US11137886B1 (en) Providing content for broadcast by a messaging platform
Evin et al. Cine-AI: Generating video game cutscenes in the style of human directors
Vázquez-Herrero Enhanced experiences in interactive nonfiction: an experimental study on the effects of nonlinearity and interactivity
JP6745393B1 (en) Information processing apparatus, information processing method, and program
US11023664B2 (en) Persisting annotations applied to an electronic hosted whiteboard
JP2019511139A (en) System and method for presenting video and related documents and tracking their viewing
JP2017199058A (en) Recognition device, image content presentation system, program
KR20090025609A (en) Method for exposing advertisement of user interface and system thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R150 Certificate of patent or registration of utility model

Ref document number: 6745393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250