JP6905133B1 - Information processing equipment, information processing methods and programs - Google Patents

Information processing equipment, information processing methods and programs Download PDF

Info

Publication number
JP6905133B1
JP6905133B1 JP2020144153A JP2020144153A JP6905133B1 JP 6905133 B1 JP6905133 B1 JP 6905133B1 JP 2020144153 A JP2020144153 A JP 2020144153A JP 2020144153 A JP2020144153 A JP 2020144153A JP 6905133 B1 JP6905133 B1 JP 6905133B1
Authority
JP
Japan
Prior art keywords
moving image
image data
user
information
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020144153A
Other languages
Japanese (ja)
Other versions
JP2022039230A (en
Inventor
純一 鶴見
純一 鶴見
隆一郎 林
隆一郎 林
政明 厚地
政明 厚地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020144153A priority Critical patent/JP6905133B1/en
Application granted granted Critical
Publication of JP6905133B1 publication Critical patent/JP6905133B1/en
Publication of JP2022039230A publication Critical patent/JP2022039230A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザの複数の動画の視聴状況に基づいてユーザの属性を分析できるようにする。【解決手段】情報処理装置は、第1及び第2の動画像データが同時に表示されるユーザ端末2のユーザを識別するためのユーザ識別情報と、当該ユーザが第1及び第2の動画像データの少なくともいずれかを評価したことを示す評価情報とを取得する取得部132と、取得部132が取得した評価情報と第1及び第2の動画像データの内容とに基づき、ユーザ識別情報に対応するユーザの属性を示す属性情報を生成する生成部134と、を有する。【選択図】図4PROBLEM TO BE SOLVED: To analyze an attribute of a user based on a viewing situation of a plurality of moving images of the user. An information processing device includes user identification information for identifying a user of a user terminal 2 on which first and second moving image data are displayed at the same time, and first and second moving image data by the user. Corresponds to the user identification information based on the acquisition unit 132 that acquires the evaluation information indicating that at least one of the above is evaluated, the evaluation information acquired by the acquisition unit 132, and the contents of the first and second moving image data. It has a generation unit 134 that generates attribute information indicating the attributes of the user to be processed. [Selection diagram] Fig. 4

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method and a program.

従来、画像を表示できる端末に、複数のカメラで撮像された複数の動画を配信し、端末に複数の動画を表示する技術が知られている(例えば、特許文献1を参照)。 Conventionally, there is known a technique of delivering a plurality of moving images captured by a plurality of cameras to a terminal capable of displaying an image and displaying the plurality of moving images on the terminal (see, for example, Patent Document 1).

特開平11−289531号公報Japanese Unexamined Patent Publication No. 11-289531

動画を視聴しているユーザに適切な情報又は特典等をユーザに提供するために、ユーザの属性を特定することが求められている。 In order to provide the user with appropriate information or benefits to the user who is watching the video, it is required to specify the attribute of the user.

そこで、本発明はこれらの点に鑑みてなされたものであり、ユーザの複数の動画の視聴状況に基づいてユーザの属性を分析できるようにすることを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to enable analysis of user attributes based on the viewing status of a plurality of videos of the user.

本発明の第1の態様に係る情報処理装置は、第1及び第2の動画像データが同時に表示される端末のユーザを識別するためのユーザ識別情報と、前記ユーザが前記第1及び第2の動画像データの少なくともいずれかを評価したことを示す評価情報とを取得する取得部と、前記取得部が取得した前記評価情報と前記第1及び第2の動画像データの内容とに基づき、前記ユーザ識別情報に対応するユーザの属性を示す属性情報を生成する生成部と、を有する。 The information processing device according to the first aspect of the present invention includes user identification information for identifying a user of a terminal on which the first and second moving image data are displayed at the same time, and the user using the first and second moving image data. Based on the acquisition unit that acquires the evaluation information indicating that at least one of the moving image data of the above is evaluated, the evaluation information acquired by the acquisition unit, and the contents of the first and second moving image data. It has a generation unit that generates attribute information indicating user attributes corresponding to the user identification information.

本発明の第2の態様に係る情報処理方法は、コンピュータが実行する、第1及び第2の動画像データが同時に表示される端末のユーザを識別するためのユーザ識別情報と、前記ユーザが前記第1及び第2の動画像データの少なくともいずれかを評価したことを示す評価情報とを取得するステップと、取得された前記評価情報と前記第1及び第2の動画像データの内容とに基づき、前記ユーザ識別情報に対応するユーザの属性を示す属性情報を生成するステップと、を有する。 The information processing method according to the second aspect of the present invention includes user identification information executed by a computer for identifying a user of a terminal on which first and second moving image data are displayed at the same time, and the user using the user. Based on the step of acquiring the evaluation information indicating that at least one of the first and second moving image data has been evaluated, and the acquired evaluation information and the contents of the first and second moving image data. , A step of generating attribute information indicating a user's attribute corresponding to the user identification information.

本発明の第3の態様に係るプログラムは、コンピュータを、第1及び第2の動画像データが同時に表示される端末のユーザを識別するためのユーザ識別情報と、前記ユーザが前記第1及び第2の動画像データの少なくともいずれかを評価したことを示す評価情報とを取得する取得部、及び、前記取得部が取得した前記評価情報と前記第1及び第2の動画像データの内容とに基づき、前記ユーザ識別情報に対応するユーザの属性を示す属性情報を生成する生成部、として機能させる。 In the program according to the third aspect of the present invention, the computer is provided with user identification information for identifying a user of a terminal on which first and second moving image data are displayed at the same time, and the user is the first and first. The acquisition unit that acquires the evaluation information indicating that at least one of the two moving image data has been evaluated, and the evaluation information acquired by the acquiring unit and the contents of the first and second moving image data. Based on this, it functions as a generation unit that generates attribute information indicating the attributes of the user corresponding to the user identification information.

本発明によれば、ユーザの複数の動画の視聴状況に基づいてユーザの属性を分析できるという効果を奏する。 According to the present invention, there is an effect that the attributes of the user can be analyzed based on the viewing status of a plurality of moving images of the user.

複数のカメラが競技場に設置されている状態を示す模式図である。It is a schematic diagram which shows the state which a plurality of cameras are installed in a stadium. 複数のカメラが作成した複数の動画像データに基づく画像がディスプレイに表示された状態を示す図である。It is a figure which shows the state which the image based on a plurality of moving image data created by a plurality of cameras is displayed on a display. 画像処理システムのシステム構成図である。It is a system block diagram of an image processing system. サーバの構成を示す図である。It is a figure which shows the configuration of a server. ユーザ端末の構成を示す図である。It is a figure which shows the structure of a user terminal. 評価履歴情報の一例を示す図である。It is a figure which shows an example of the evaluation history information. 生成部が生成したユーザ属性情報の一例を示す図である。It is a figure which shows an example of the user attribute information generated by the generation part. 画像処理システムの動作シーケンス図である。It is an operation sequence diagram of an image processing system.

[配信システムSの概要]
図1及び図2は配信システムSの概要を説明するための図である。配信システムSは、それぞれ異なるアングルから所定の領域を撮影する複数の撮像装置であるカメラC(図1においてはC1〜C5)が出力した複数の動画像データを一つの画面に表示するように、動画像を見る人(以下、「ユーザ」という)が使用するユーザ端末に配信するシステムである。カメラCは、例えば競技が開催されている競技場、又はイベントが開催されているイベント会場に設置されており、所定の領域は、それぞれのカメラCが撮影可能な領域である。本明細書において、複数のカメラC1〜C5のそれぞれを区別する必要がない場合、カメラCと称することがある。
[Overview of distribution system S]
1 and 2 are diagrams for explaining the outline of the distribution system S. The distribution system S displays a plurality of moving image data output by cameras C (C1 to C5 in FIG. 1), which are a plurality of imaging devices for photographing a predetermined area from different angles, on one screen. It is a system that distributes to user terminals used by people who view moving images (hereinafter referred to as "users"). The camera C is installed in, for example, a stadium where a competition is held or an event venue where an event is held, and a predetermined area is an area where each camera C can take a picture. In the present specification, when it is not necessary to distinguish each of the plurality of cameras C1 to C5, it may be referred to as camera C.

図1は、複数のカメラC1〜C5が競技場に設置されている状態を示す模式図である。図2は、複数のカメラC1〜C5が作成した複数の動画像データに基づく動画像がユーザ端末に表示された状態を示す図である。 FIG. 1 is a schematic view showing a state in which a plurality of cameras C1 to C5 are installed in a stadium. FIG. 2 is a diagram showing a state in which a moving image based on a plurality of moving image data created by a plurality of cameras C1 to C5 is displayed on a user terminal.

配信システムSは、複数の動画像データをユーザ端末に配信する。ユーザ端末は、複数のカメラCが所定の領域を異なる方向から撮影することにより生成した複数の動画像データを一つの画面に同時に表示する。図2は、ユーザ端末のディスプレイにおける複数の領域R1〜R5のそれぞれに、カメラC1〜C5で撮影された動画像が表示されている状態を示している。図2においては、カメラC1で撮影された画像が、最も大きい領域R1に表示されており、他の画像は、領域R1よりも小さな領域R2〜R5に表示されている。また、複数の領域R1〜R5には、動画像を評価するための評価ボタンiが表示されている。評価ボタンiを押下することによりユーザ端末のユーザは動画像を評価することができる。 The distribution system S distributes a plurality of moving image data to the user terminal. The user terminal simultaneously displays a plurality of moving image data generated by a plurality of cameras C shooting a predetermined area from different directions on one screen. FIG. 2 shows a state in which moving images taken by the cameras C1 to C5 are displayed in each of the plurality of areas R1 to R5 on the display of the user terminal. In FIG. 2, the image taken by the camera C1 is displayed in the largest area R1, and the other images are displayed in the areas R2 to R5 smaller than the area R1. Further, evaluation buttons i for evaluating moving images are displayed in the plurality of areas R1 to R5. By pressing the evaluation button i, the user of the user terminal can evaluate the moving image.

配信システムSは、複数の動画像データを一つの画面に表示しているユーザ端末において、当該動画像データに対して過去に与えられた評価に基づいて、ユーザの属性を生成することができるという特徴を有する。例えば、カメラC3で撮像された動画像に相対的に良い評価が与えられており、当該動画像の内容がXチームを示しているとともに当該動画像とは異なる動画像の内容がYチームを示している場合、ユーザの属性として、YチームよりもXチームに興味があることを示す属性情報を生成する。このようにすることで、配信システムSは、ユーザの複数の動画の視聴状況に基づいてユーザの属性を分析することができる。 The distribution system S is said to be able to generate user attributes based on evaluations given in the past for the moving image data on a user terminal displaying a plurality of moving image data on one screen. It has characteristics. For example, a moving image captured by the camera C3 is given a relatively good evaluation, and the content of the moving image indicates the X team and the content of the moving image different from the moving image indicates the Y team. If so, as a user attribute, attribute information indicating that the X team is more interested than the Y team is generated. By doing so, the distribution system S can analyze the attributes of the user based on the viewing status of the plurality of moving images of the user.

[配信システムSの構成]
以下、配信システムSの構成を説明する。図3は、配信システムSのシステム構成図である。配信システムSは、複数のカメラC(C1〜C5)と、情報処理装置としてのサーバ1と、ユーザ端末2とを有する。複数のカメラC、サーバ1及びユーザ端末2は、ネットワークNを介して各種のデータを送受信する。ネットワークNは、インターネット又は携帯電話網等を含む。
[Configuration of distribution system S]
Hereinafter, the configuration of the distribution system S will be described. FIG. 3 is a system configuration diagram of the distribution system S. The distribution system S includes a plurality of cameras C (C1 to C5), a server 1 as an information processing device, and a user terminal 2. The plurality of cameras C, the server 1, and the user terminal 2 transmit and receive various data via the network N. The network N includes the Internet, a mobile phone network, and the like.

[サーバ1の構成]
図4は、サーバ1の構成を示す図である。サーバ1は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、配信部131、取得部132、特定部133、生成部134、特典付与部135、位置情報取得部136及び分析部137を有する。
[Configuration of server 1]
FIG. 4 is a diagram showing the configuration of the server 1. The server 1 has a communication unit 11, a storage unit 12, and a control unit 13. The control unit 13 includes a distribution unit 131, an acquisition unit 132, a specific unit 133, a generation unit 134, a privilege giving unit 135, a position information acquisition unit 136, and an analysis unit 137.

通信部11は、ネットワークNを介して複数のカメラC及びユーザ端末2との間でデータを送受信するための通信インターフェースを有する。通信部11は、複数のカメラCから受信した複数の動画像データを取得部132に入力する。 The communication unit 11 has a communication interface for transmitting and receiving data between the plurality of cameras C and the user terminal 2 via the network N. The communication unit 11 inputs a plurality of moving image data received from the plurality of cameras C to the acquisition unit 132.

また、通信部11は、配信部131から入力された配信用の動画像データを、ネットワークNを介してユーザ端末2へと送信する。また、通信部11は、ユーザに付与する特典を示す特典付与情報を、ネットワークNを介してユーザ端末2へと送信する。 Further, the communication unit 11 transmits the moving image data for distribution input from the distribution unit 131 to the user terminal 2 via the network N. Further, the communication unit 11 transmits the privilege grant information indicating the privilege to be granted to the user to the user terminal 2 via the network N.

記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶している。 The storage unit 12 has a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The storage unit 12 stores a program executed by the control unit 13.

また、記憶部12は、通信部11が受信した動画像データを記憶する。具体的には、記憶部12は、一つの画面に表示させる複数の動画像データと、当該動画像データの動画像IDと、当該一つの画面に対応するコンテンツを識別するコンテンツIDとを関連付けて、コンテンツ情報として記憶させる。 Further, the storage unit 12 stores the moving image data received by the communication unit 11. Specifically, the storage unit 12 associates a plurality of moving image data to be displayed on one screen, a moving image ID of the moving image data, and a content ID for identifying the content corresponding to the one screen. , Store as content information.

制御部13は、例えばCPU(Central Processing Unit)を有しており、記憶部12に記憶されたプログラムを実行することにより、配信部131、取得部132、特定部133、生成部134、特典付与部135、位置情報取得部136及び分析部137として機能する。制御部13の各部の動作の詳細については後述する。 The control unit 13 has, for example, a CPU (Central Processing Unit), and by executing the program stored in the storage unit 12, the distribution unit 131, the acquisition unit 132, the specific unit 133, the generation unit 134, and the privilege granting. It functions as a unit 135, a position information acquisition unit 136, and an analysis unit 137. Details of the operation of each unit of the control unit 13 will be described later.

[ユーザ端末2の構成]
図5は、ユーザ端末2の構成を示す図である。ユーザ端末2は、操作部21と、表示部22と、通信部23と、記憶部24と、制御部25とを有する。制御部25は、動画像データ取得部251と、特典情報取得部252と、表示制御部253と、評価情報送信部254とを有する。
[Configuration of user terminal 2]
FIG. 5 is a diagram showing the configuration of the user terminal 2. The user terminal 2 has an operation unit 21, a display unit 22, a communication unit 23, a storage unit 24, and a control unit 25. The control unit 25 includes a moving image data acquisition unit 251, a privilege information acquisition unit 252, a display control unit 253, and an evaluation information transmission unit 254.

操作部21は、ユーザの操作を受け付ける操作デバイスであり、例えば表示部22の表面に設けられたタッチパネルである。操作部21は、ユーザがタッチした位置を示す信号を制御部25に通知する。表示部22は、各種の情報を表示するディスプレイである。 The operation unit 21 is an operation device that accepts user operations, and is, for example, a touch panel provided on the surface of the display unit 22. The operation unit 21 notifies the control unit 25 of a signal indicating the position touched by the user. The display unit 22 is a display that displays various types of information.

通信部23は、ネットワークNを介してサーバ1との間でデータを送受信するための通信インターフェースを有する。通信部23は、サーバ1から受信した動画像データを動画像データ取得部251に入力する。また、通信部23は、サーバ1から受信した特典情報を特典情報取得部252に入力する。 The communication unit 23 has a communication interface for transmitting and receiving data to and from the server 1 via the network N. The communication unit 23 inputs the moving image data received from the server 1 to the moving image data acquisition unit 251. Further, the communication unit 23 inputs the privilege information received from the server 1 into the privilege information acquisition unit 252.

記憶部24は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を有する。記憶部24は、制御部25が実行するプログラムを記憶している。また、記憶部24は、サーバ1が配信する動画像を視聴するための動画像視聴アプリケーションを記憶する。 The storage unit 24 has a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The storage unit 24 stores a program executed by the control unit 25. In addition, the storage unit 24 stores a moving image viewing application for viewing the moving image delivered by the server 1.

制御部25は、例えばCPU(Central Processing Unit)を有しており、記憶部24に記憶されたプログラムを実行することにより、動画像データ取得部251、特典情報取得部252、表示制御部253、及び評価情報送信部254として機能する。 The control unit 25 has, for example, a CPU (Central Processing Unit), and by executing a program stored in the storage unit 24, the moving image data acquisition unit 251 and the privilege information acquisition unit 252, the display control unit 253, And functions as an evaluation information transmission unit 254.

動画像データ取得部251は、通信部23を介して一つの画面に表示させる複数の動画像データをサーバ1から取得する。動画像データ取得部251は、サーバ1が配信する動画像データを視聴するための動画像視聴アプリケーションが実行されている状態で、操作部21を介してユーザが視聴する競技やイベント等のコンテンツの選択を受け付ける。動画像データ取得部251は、選択されたコンテンツを識別するためのコンテンツIDを含み、当該コンテンツの取得要求をサーバ1に送信する。動画像データ取得部251は、サーバ1から送信された、選択されたコンテンツに対応する複数の動画像データを取得する。
特典情報取得部252は、通信部23を介して、ユーザ端末2のユーザに付与された特典を示す特典情報をサーバ1から取得する。
The moving image data acquisition unit 251 acquires a plurality of moving image data to be displayed on one screen via the communication unit 23 from the server 1. The moving image data acquisition unit 251 is a state in which the moving image viewing application for viewing the moving image data distributed by the server 1 is being executed, and the video content such as a competition or an event to be viewed by the user via the operation unit 21 is executed. Accept your choice. The moving image data acquisition unit 251 includes a content ID for identifying the selected content, and transmits an acquisition request for the content to the server 1. The moving image data acquisition unit 251 acquires a plurality of moving image data corresponding to the selected contents transmitted from the server 1.
The privilege information acquisition unit 252 acquires privilege information indicating the privilege given to the user of the user terminal 2 from the server 1 via the communication unit 23.

表示制御部253は、動画像データ取得部251が取得した複数の動画像データを表示部22に表示させる。表示制御部253は、複数の動画像データのそれぞれが示す動画像を図2に示すように一つの画面に集約し、当該画面を表示部22に表示させる。一つの画面に含まれる複数の動画像データのそれぞれの領域には、ユーザが動画像に対して良い評価を行うための評価ボタンが表示される。また、表示制御部253は、操作部21を介したユーザの操作に応じて、最も大きく表示させる動画像データを切り替える。 The display control unit 253 causes the display unit 22 to display a plurality of moving image data acquired by the moving image data acquisition unit 251. The display control unit 253 aggregates the moving images shown by each of the plurality of moving image data on one screen as shown in FIG. 2, and causes the display unit 22 to display the screen. In each area of a plurality of moving image data included in one screen, an evaluation button for a user to perform a good evaluation on the moving image is displayed. Further, the display control unit 253 switches the moving image data to be displayed in the largest size according to the user's operation via the operation unit 21.

表示制御部253は、特典情報取得部252が特典情報を取得すると、当該特典情報を表示部22に表示させることにより、特典情報が示す特典が付与されたことをユーザ端末2のユーザに通知する。なお、本実施形態では、表示制御部253が特典情報を表示部22に表示させることにより特典を付与されたことをユーザに通知したが、これに限らない。例えば、ユーザ端末2に設けられたスピーカ(不図示)に特典情報が付与されたことを示す音声を通知することにより、特典を付与されたことをユーザに通知してもよい。 When the privilege information acquisition unit 252 acquires the privilege information, the display control unit 253 notifies the user of the user terminal 2 that the privilege indicated by the privilege information has been granted by displaying the privilege information on the display unit 22. .. In the present embodiment, the display control unit 253 notifies the user that the privilege has been granted by displaying the privilege information on the display unit 22, but the present invention is not limited to this. For example, the user may be notified that the privilege has been granted by notifying the speaker (not shown) provided in the user terminal 2 with a voice indicating that the privilege information has been granted.

評価情報送信部254は、ユーザが評価ボタンを押下したことに応じて、押下された評価ボタンに対応する動画像の評価が行われたことを示す評価情報をサーバ1に送信する。評価情報には、評価を行ったユーザを識別するためのユーザIDと、評価が行われた動画像データであって、複数のカメラCが所定の領域を撮影することにより生成された動画像データを識別するための動画像識別情報としての動画像IDとが含まれている。 The evaluation information transmission unit 254 transmits to the server 1 evaluation information indicating that the moving image corresponding to the pressed evaluation button has been evaluated in response to the user pressing the evaluation button. The evaluation information includes a user ID for identifying the user who performed the evaluation, and moving image data for which the evaluation was performed, and the moving image data generated by a plurality of cameras C taking a picture of a predetermined area. The moving image ID as the moving image identification information for identifying the moving image ID is included.

[制御部13の各部の動作]
続いて、制御部13の各部の動作について説明する。
配信部131は、ユーザ端末2からコンテンツの取得要求を取得すると、記憶部12に記憶されているコンテンツ情報を参照し、コンテンツの取得要求に含まれているコンテンツIDに関連付けられている複数の動画像データを特定する。配信部131は、特定した複数の動画像データを一つの画面に表示するように、ユーザ端末2にストリーミング配信する。配信部131は、ユーザ端末2に配信している複数の動画像データの表示開始時刻からの経過時間を計時する。配信部131は、経過時間として、動画像データの再生時間(再生位置)を特定してもよい。
[Operation of each part of control unit 13]
Subsequently, the operation of each unit of the control unit 13 will be described.
When the distribution unit 131 acquires the content acquisition request from the user terminal 2, the distribution unit 131 refers to the content information stored in the storage unit 12, and a plurality of moving images associated with the content ID included in the content acquisition request. Identify the image data. The distribution unit 131 streams and distributes the specified plurality of moving image data to the user terminal 2 so as to display them on one screen. The distribution unit 131 measures the elapsed time from the display start time of the plurality of moving image data distributed to the user terminal 2. The distribution unit 131 may specify the reproduction time (reproduction position) of the moving image data as the elapsed time.

取得部132は、第1及び第2の動画像データを含む複数の動画像データが同時に表示されるユーザ端末2のユーザを識別するためのユーザIDと、当該ユーザが複数の動画像データの少なくともいずれかを評価したことを示す評価情報とを取得する。取得部132は、動画像データを識別するための動画像IDに関連付けられた、ユーザにより所定の評価が与えられたことを示す評価情報をユーザ端末2から取得する。 The acquisition unit 132 has a user ID for identifying a user of the user terminal 2 on which a plurality of moving image data including the first and second moving image data are displayed at the same time, and at least the user ID of the user and the plurality of moving image data. Acquire the evaluation information indicating that one of them has been evaluated. The acquisition unit 132 acquires evaluation information from the user terminal 2 indicating that a predetermined evaluation has been given by the user, which is associated with the moving image ID for identifying the moving image data.

具体的には、取得部132は、一つの画面に複数の動画像データを表示している一以上のユーザ端末2のそれぞれから評価情報を受信することにより、評価情報に含まれる動画像ID及びユーザIDを取得する。また、取得部132は、ユーザ端末2から評価情報を受信した時刻を評価付与時刻として取得する。評価付与時刻は、例えば、動画像データがユーザ端末2に配信された時刻からの経過時間を示すものとする。評価付与時刻は、配信された時刻からの経過時間に限らず、動画像データの再生時間(再生位置)であってもよい。 Specifically, the acquisition unit 132 receives the evaluation information from each of the one or more user terminals 2 displaying the plurality of moving image data on one screen, so that the moving image ID included in the evaluation information and the moving image ID Get the user ID. Further, the acquisition unit 132 acquires the time when the evaluation information is received from the user terminal 2 as the evaluation grant time. The evaluation grant time is, for example, the elapsed time from the time when the moving image data is delivered to the user terminal 2. The evaluation grant time is not limited to the elapsed time from the delivered time, and may be the reproduction time (reproduction position) of the moving image data.

取得部132は、取得したユーザIDと、動画像IDと、当該動画像IDに対応するコンテンツIDと、評価付与時刻とを関連付けて評価履歴情報として記憶部12に記憶させる。図6は、評価履歴情報の一例を示す図である。図6に示すように、ユーザIDと、コンテンツIDと、動画像IDと、評価付与時刻とが関連付けられていることが確認できる。 The acquisition unit 132 stores the acquired user ID, the moving image ID, the content ID corresponding to the moving image ID, and the evaluation granting time in the storage unit 12 as evaluation history information in association with each other. FIG. 6 is a diagram showing an example of evaluation history information. As shown in FIG. 6, it can be confirmed that the user ID, the content ID, the moving image ID, and the evaluation grant time are associated with each other.

なお、取得部132は、一つの画面に複数の動画像データを表示しているユーザ端末2において、動画像データが表示されているタイミングで評価情報を取得することとしたが、これに限らない。取得部132は、動画像データの表示が完了してから、複数の動画像データのいずれかを評価したことを示す評価情報を取得してもよい。 The acquisition unit 132 has decided to acquire the evaluation information at the timing when the moving image data is displayed on the user terminal 2 displaying a plurality of moving image data on one screen, but the present invention is not limited to this. .. The acquisition unit 132 may acquire evaluation information indicating that any one of the plurality of moving image data has been evaluated after the display of the moving image data is completed.

また、取得部132は、ユーザ端末2において評価ボタンが押下されたことに応じてユーザ端末2から送信された情報を評価情報として取得したが、評価情報はこれに限らない。取得部132は、第1及び第2の動画像データの少なくともいずれかに対応する動画像IDと関連付けられ、ユーザが定めた当該動画像データのユーザ端末2における表示領域の大きさを示す情報を、評価情報として取得してもよい。 Further, the acquisition unit 132 acquires the information transmitted from the user terminal 2 as the evaluation information in response to the pressing of the evaluation button on the user terminal 2, but the evaluation information is not limited to this. The acquisition unit 132 is associated with a moving image ID corresponding to at least one of the first and second moving image data, and provides information indicating the size of the display area of the moving image data determined by the user on the user terminal 2. , May be acquired as evaluation information.

例えば、取得部132は、複数の動画像データを表示する一つの画面における、複数の表示領域それぞれの大きさを示す表示領域情報と、複数の表示領域のそれぞれに表示されている動画像データの動画像IDと、ユーザIDとを関連付けた情報を評価情報としてユーザ端末2から取得してもよい。また、取得部132は、ユーザ端末2において最も大きい表示領域に表示されている動画像データの動画像IDと、ユーザIDとを関連付けた情報を評価情報として取得してもよい。 For example, the acquisition unit 132 receives display area information indicating the size of each of the plurality of display areas on one screen for displaying a plurality of moving image data, and moving image data displayed in each of the plurality of display areas. Information associated with the moving image ID and the user ID may be acquired from the user terminal 2 as evaluation information. Further, the acquisition unit 132 may acquire information as evaluation information in which the moving image ID of the moving image data displayed in the largest display area of the user terminal 2 and the user ID are associated with each other.

相対的に大きい表示領域に表示されている動画像データは、他の動画像データに比べてユーザに評価されている可能性が高い。したがって、サーバ1は、表示領域情報と動画像IDとユーザIDとを関連付けた情報を評価情報として取得することにより、ユーザが評価している可能性が高い動画像データを特定することができる。 The moving image data displayed in a relatively large display area is more likely to be evaluated by the user than other moving image data. Therefore, the server 1 can identify the moving image data that is likely to be evaluated by the user by acquiring the information in which the display area information, the moving image ID, and the user ID are associated with each other as the evaluation information.

また、取得部132は、所定の動画像データがユーザ端末2において相対的に大きい表示領域に所定時間以上表示された場合に、当該動画像データの動画像IDと関連付けられ、当該動画像データが相対的に大きい表示領域に所定時間以上表示されたことを示す情報を評価情報として取得してもよい。この場合、ユーザ端末2の評価情報送信部254は、所定の動画像データがユーザ端末2において相対的に大きい表示領域に所定時間以上表示された場合に、当該動画像データの動画像IDと、ユーザIDとを含み、相対的に大きい表示領域に表示されている動画像データを通知する通知情報をサーバ1に送信する。サーバ1の取得部132は、当該通知情報を評価情報として取得する。このようにすることで、サーバ1は、長時間にわたって相対的に大きい表示領域に表示されている動画像データをユーザに評価されている動画像データとして特定することができる。 Further, when the predetermined moving image data is displayed on the user terminal 2 in a relatively large display area for a predetermined time or longer, the acquisition unit 132 is associated with the moving image ID of the moving image data, and the moving image data is generated. Information indicating that the data has been displayed in a relatively large display area for a predetermined time or longer may be acquired as evaluation information. In this case, the evaluation information transmission unit 254 of the user terminal 2 determines the moving image ID of the moving image data and the moving image ID of the moving image data when the predetermined moving image data is displayed in the relatively large display area of the user terminal 2 for a predetermined time or longer. Notification information including the user ID and notifying the moving image data displayed in a relatively large display area is transmitted to the server 1. The acquisition unit 132 of the server 1 acquires the notification information as evaluation information. By doing so, the server 1 can identify the moving image data displayed in the relatively large display area for a long time as the moving image data evaluated by the user.

特定部133は、ユーザが評価を与えた時刻にユーザ端末2に同時に表示されていた第1及び第2の動画像データの内容を特定する。具体的にはまず、特定部133は、評価履歴情報を参照し、評価付与時刻を特定する。続いて、特定部133は、特定した評価付与時刻においてユーザ端末2に同時に表示されていた第1の動画像データが示す画像である第1画像と、第2の動画像データが示す画像である第2画像との画像認識処理を行うことにより、第1の動画像データの内容と、第2の動画像データの内容とを特定する。 The identification unit 133 specifies the contents of the first and second moving image data that are simultaneously displayed on the user terminal 2 at the time when the user gives an evaluation. Specifically, first, the specifying unit 133 refers to the evaluation history information and specifies the evaluation granting time. Subsequently, the specific unit 133 is a first image which is an image indicated by the first moving image data simultaneously displayed on the user terminal 2 at the specified evaluation granting time, and an image indicated by the second moving image data. By performing the image recognition process with the second image, the content of the first moving image data and the content of the second moving image data are specified.

動画像データが競技を撮影したものである場合、動画像データの内容は、例えば、競技チーム、競技チームのユニフォーム、選手である。また、動画像データがコンサート等のイベントを撮影したものである場合、動画像データの内容は、例えば、イベントの出演者である。特定部133は、動画像データが示す画像を解析することにより、選手や出演者の表情の特徴量を特定してもよい。また、複数の動画像データに対してメタ情報が付されている場合、特定部133は、動画像データに付されているメタ情報に基づいて動画像データの内容を特定してもよい。 When the moving image data is a photograph of a competition, the content of the moving image data is, for example, a competition team, a uniform of a competition team, or a player. When the moving image data is a photograph of an event such as a concert, the content of the moving image data is, for example, a performer of the event. The specific unit 133 may specify the feature amount of the facial expressions of the athlete or the performer by analyzing the image indicated by the moving image data. Further, when meta information is attached to a plurality of moving image data, the specific unit 133 may specify the content of the moving image data based on the meta information attached to the moving image data.

生成部134は、取得部132が取得した評価情報と、特定部133が特定した第1及び第2の動画像データの内容とに基づき、ユーザIDに対応するユーザの属性を示す属性情報を生成する。具体的には、生成部134は、取得部132が取得した評価情報に関連付けられている動画像IDに基づいて特定される第1の動画像データと第2の動画像データの内容に基づき属性情報を生成する。 The generation unit 134 generates attribute information indicating the user's attribute corresponding to the user ID based on the evaluation information acquired by the acquisition unit 132 and the contents of the first and second moving image data specified by the specific unit 133. do. Specifically, the generation unit 134 has attributes based on the contents of the first moving image data and the second moving image data specified based on the moving image ID associated with the evaluation information acquired by the acquiring unit 132. Generate information.

生成部134は、複数の動画像データのうち、第1の動画像データに対するユーザによる評価が、第2の動画像データに対するユーザによる評価よりも高いことを評価情報が示す場合に、特定部133が特定した第1の動画像データの内容が、特定部133が特定した第2の動画像データの内容に比べてユーザの関心が高いものとして属性情報を生成する。 The generation unit 134 is the specific unit 133 when the evaluation information indicates that the evaluation of the first moving image data by the user is higher than the evaluation of the second moving image data by the user among the plurality of moving image data. Attribute information is generated assuming that the content of the first moving image data specified by the user is of higher interest to the user than the content of the second moving image data specified by the specific unit 133.

具体的には、生成部134は、評価情報に対応して記憶部12に記憶されている評価履歴情報を参照し、評価付与時刻に関連付けられている動画像IDが示す動画像データを、ユーザから所定の評価が与えられた第1の動画像データとして特定する。また、生成部134は、第1の動画像データと同じ経過時間にユーザ端末2に表示されていた他の動画像データに対して特定部133が特定した動画像データの内容を、第2の動画像データの内容とする。 Specifically, the generation unit 134 refers to the evaluation history information stored in the storage unit 12 in response to the evaluation information, and the user obtains the moving image data indicated by the moving image ID associated with the evaluation giving time. It is specified as the first moving image data given a predetermined evaluation from. In addition, the generation unit 134 secondly obtains the content of the moving image data specified by the specific unit 133 with respect to the other moving image data displayed on the user terminal 2 at the same elapsed time as the first moving image data. It is the content of the moving image data.

ここで、生成部134は、特定した第1の動画像データと同じ経過時間にユーザ端末2に表示されていた他の動画像データのうち、第1の動画像データの内容と対応関係にある内容を有する他の動画像データを第2の動画像データとしてもよい。例えば、コンテンツが競技に関する動画像データである場合において、特定した第1の動画像データの内容がXチームのa選手を示しているものとする。この場合、生成部134は、Aのチームの他の選手であるb選手を示している動画像データを第2の動画像データとしたり、Xチームの対戦相手のYチームのz選手を示している動画像データを第2の動画像データとしたりしてもよい。 Here, the generation unit 134 has a correspondence relationship with the content of the first moving image data among the other moving image data displayed on the user terminal 2 at the same elapsed time as the specified first moving image data. Other moving image data having contents may be used as the second moving image data. For example, when the content is moving image data related to the competition, it is assumed that the content of the specified first moving image data indicates the a player of the X team. In this case, the generation unit 134 uses the moving image data indicating the b player, which is another player of the A team, as the second moving image data, or indicates the z player of the Y team, which is the opponent of the X team. The moving image data may be used as the second moving image data.

例えば、特定した第1の動画像データの内容がAチーム、第2の動画像データの内容がBチームを示している場合、生成部134は、ユーザが、BチームよりもAチームに関心が高いことを示す属性情報を生成する。 For example, when the content of the specified first moving image data indicates team A and the content of the second moving image data indicates team B, the generation unit 134 is more interested in team A than team B by the user. Generate attribute information indicating that it is high.

生成部134は、評価履歴情報を参照し、所定数以上の評価情報のそれぞれにおいて、第1の動画像データに対するユーザによる評価が、第2の動画像データに対するユーザによる評価よりも高いことを評価情報が示す場合に、特定部133が特定した第1の動画像データの内容が、特定部133が特定した第2の動画像データの内容に比べてユーザの関心が高いものとして属性情報を生成してもよい。例えば、生成部134は、所定数以上の評価情報それぞれに対して特定した第1の動画像データの内容がAチーム、第2の動画像データの内容がBチームを示している場合、ユーザが、BチームよりもAチームに関心が高いことを示す属性情報を生成してもよい。 The generation unit 134 refers to the evaluation history information and evaluates that the evaluation by the user for the first moving image data is higher than the evaluation by the user for the second moving image data in each of the predetermined number or more of the evaluation information. When the information indicates, the attribute information is generated assuming that the content of the first moving image data specified by the specific unit 133 is of higher interest to the user than the content of the second moving image data specified by the specific unit 133. You may. For example, in the generation unit 134, when the content of the first moving image data specified for each of a predetermined number or more of the evaluation information indicates the team A and the content of the second moving image data indicates the team B, the user , Attribute information indicating that the A team is more interested than the B team may be generated.

なお、生成部134は、ユーザIDと、ユーザの個人情報とを関連付けたユーザ情報を参照し、ユーザIDに関連付けられている個人情報にさらに基づいて属性情報を生成してもよい。個人情報は、例えば、携帯事業者が管理するユーザ端末2の契約情報であり、ユーザの氏名、年齢、性別、住所、契約年数等が含まれる。また、生成部134は、ユーザIDと、ユーザがユーザ端末2を用いた電子決済サービスにおける商品又はサービスの購入履歴とを関連付けた購入履歴情報を参照し、属性情報を生成してもよい。 The generation unit 134 may refer to the user information associated with the user ID and the personal information of the user, and further generate the attribute information based on the personal information associated with the user ID. The personal information is, for example, contract information of the user terminal 2 managed by the mobile operator, and includes a user's name, age, gender, address, contract years, and the like. Further, the generation unit 134 may generate attribute information by referring to the purchase history information in which the user ID is associated with the purchase history of the product or service in the electronic payment service in which the user uses the user terminal 2.

生成部134は、属性情報を生成すると、ユーザIDと、生成した属性情報とを関連付けてユーザ属性情報として記憶部12に記憶させる。図7は、生成部134が生成したユーザ属性情報の一例を示す図である。図7に示すように、ユーザIDと、属性とが関連付けられていることが確認できる。また、図7に示すように、生成部134が生成した属性が、ユーザがチームの比較結果、選手の比較結果を示す属性であることが確認できる。なお、生成部134は、携帯事業者が管理するユーザ端末2の契約情報等のユーザ情報に生成した属性情報を関連付けて記憶させるようにしてもよい。 When the generation unit 134 generates the attribute information, the user ID and the generated attribute information are associated with each other and stored in the storage unit 12 as the user attribute information. FIG. 7 is a diagram showing an example of user attribute information generated by the generation unit 134. As shown in FIG. 7, it can be confirmed that the user ID and the attribute are associated with each other. Further, as shown in FIG. 7, it can be confirmed that the attribute generated by the generation unit 134 is an attribute indicating the comparison result of the team and the comparison result of the players by the user. The generation unit 134 may store the generated attribute information in association with the user information such as the contract information of the user terminal 2 managed by the mobile operator.

特典付与部135は、生成部134が生成した属性情報に基づいてユーザに特典を付与する。特典付与部135は、記憶部12に記憶されているユーザ属性情報を参照し、ユーザIDに関連付けられている属性に対応する競技やイベント等の観戦チケット等の割引クーポン等を特典として決定する。特典付与部135は、当該ユーザIDに対応するユーザ端末2に、決定した特典を示す特典情報を送信する。 The privilege giving unit 135 grants a privilege to the user based on the attribute information generated by the generation unit 134. The privilege giving unit 135 refers to the user attribute information stored in the storage unit 12, and determines as a privilege a discount coupon or the like for watching a game or event corresponding to the attribute associated with the user ID. The privilege granting unit 135 transmits privilege information indicating the determined privilege to the user terminal 2 corresponding to the user ID.

位置情報取得部136は、ユーザ端末2の位置を示す端末位置情報を取得する。この場合、例えばユーザ端末2の動画像視聴アプリケーションは、アプリケーションの実行中にユーザ端末2の位置を示す端末位置情報を取得し、ユーザIDと関連付けてサーバ1に送信する。位置情報取得部136は、ユーザ端末2から送信されたユーザIDと、端末位置情報とを取得する。位置情報取得部136は、取得したユーザIDと、端末位置情報とを関連付けて記憶部12に記憶させる。 The position information acquisition unit 136 acquires terminal position information indicating the position of the user terminal 2. In this case, for example, the moving image viewing application of the user terminal 2 acquires the terminal position information indicating the position of the user terminal 2 during the execution of the application, associates it with the user ID, and transmits it to the server 1. The position information acquisition unit 136 acquires the user ID transmitted from the user terminal 2 and the terminal position information. The position information acquisition unit 136 stores the acquired user ID and the terminal position information in the storage unit 12 in association with each other.

分析部137は、生成部134が生成した属性情報と、位置情報取得部136が取得して記憶部12に記憶した端末位置情報とに基づいて、当該属性情報が示す属性と、当該属性を有するユーザの位置との関係を分析する。具体的には、分析部137は、記憶部12に記憶されているユーザ属性情報を参照し、同じ属性を有する複数のユーザを特定する。分析部137は、特定した複数のユーザそれぞれに対応する端末位置情報に基づいて、複数のユーザが所在する傾向が高い地域を特定する。分析部137は、属性と、特定した地域とを関連付けた情報を記憶部12に記憶させる。 The analysis unit 137 has the attribute indicated by the attribute information and the attribute based on the attribute information generated by the generation unit 134 and the terminal position information acquired by the position information acquisition unit 136 and stored in the storage unit 12. Analyze the relationship with the user's position. Specifically, the analysis unit 137 refers to the user attribute information stored in the storage unit 12 and identifies a plurality of users having the same attribute. The analysis unit 137 identifies an area where a plurality of users are likely to be located, based on the terminal position information corresponding to each of the specified plurality of users. The analysis unit 137 stores the information associated with the attribute and the specified area in the storage unit 12.

[配信システムSにおける動作シーケンス]
図8は、配信システムSの動作シーケンス図である。図8に示す例では、ユーザ端末2のユーザの属性を生成し、生成した属性に基づいてユーザ端末2に特典情報を送信するまでの処理の流れを説明する。
[Operation sequence in distribution system S]
FIG. 8 is an operation sequence diagram of the distribution system S. In the example shown in FIG. 8, the flow of processing from generating the user attribute of the user terminal 2 to transmitting the privilege information to the user terminal 2 based on the generated attribute will be described.

まず、サーバ1の配信部131は、ユーザ端末2に、複数の動画像データを一つの画面に表示するように配信する(S1)。
ユーザ端末2の動画像データ取得部251は、サーバ1から配信された複数の動画像データを取得する。複数のユーザ端末2の表示制御部253は、取得された複数の動画像データを一つの画面に表示させる(S2)。ユーザ端末2の表示制御部253は、複数の動画像データを表示する一つの画面において、複数の動画像データのそれぞれの表示領域にユーザが動画像データの評価を行うための評価ボタンを表示させる。
First, the distribution unit 131 of the server 1 distributes a plurality of moving image data to the user terminal 2 so as to be displayed on one screen (S1).
The moving image data acquisition unit 251 of the user terminal 2 acquires a plurality of moving image data distributed from the server 1. The display control unit 253 of the plurality of user terminals 2 displays the acquired plurality of moving image data on one screen (S2). The display control unit 253 of the user terminal 2 causes the user to display an evaluation button for evaluating the moving image data in each display area of the plurality of moving image data on one screen for displaying the plurality of moving image data. ..

ユーザ端末2の評価情報送信部254は、ユーザが評価ボタンを押下したことに応じて、押下された評価ボタンに対応する動画像の評価が行われたことを示す評価情報をサーバ1に送信する(S3)。 The evaluation information transmission unit 254 of the user terminal 2 transmits evaluation information indicating that the moving image corresponding to the pressed evaluation button has been evaluated in response to the user pressing the evaluation button to the server 1. (S3).

サーバ1の取得部132は、ユーザ端末2から評価情報を受信することにより、評価情報に含まれる動画像IDを取得する。また、取得部132は、ユーザ端末2から評価情報を受信した時刻を評価付与時刻として取得する。取得部132は、評価情報に含まれるユーザIDと、動画像IDと、評価付与時刻とを関連付けて評価履歴情報として記憶部12に記憶させる(S4)。 The acquisition unit 132 of the server 1 acquires the moving image ID included in the evaluation information by receiving the evaluation information from the user terminal 2. Further, the acquisition unit 132 acquires the time when the evaluation information is received from the user terminal 2 as the evaluation grant time. The acquisition unit 132 stores the user ID included in the evaluation information, the moving image ID, and the evaluation grant time in the storage unit 12 as evaluation history information in association with each other (S4).

続いて、サーバ1の特定部133は、評価履歴情報を参照し、評価付与時刻に対応する動画像データの内容を特定する(S5)。生成部134は、評価情報に基づく評価が与えられた動画像データの内容と、当該動画像データとは異なる動画像データの内容とに基づき、ユーザの属性を示す属性情報を生成する(S6)。特典付与部135は、生成された属性情報に対応する特典情報をユーザ端末2に送信する(S7)。 Subsequently, the identification unit 133 of the server 1 refers to the evaluation history information and specifies the content of the moving image data corresponding to the evaluation grant time (S5). The generation unit 134 generates attribute information indicating the user's attribute based on the content of the moving image data to which the evaluation based on the evaluation information is given and the content of the moving image data different from the moving image data (S6). .. The privilege giving unit 135 transmits the privilege information corresponding to the generated attribute information to the user terminal 2 (S7).

[配信システムSによる効果]
以上説明したように、本実施形態に係るサーバ1は、第1及び第2の動画像データが表示されるユーザ端末2のユーザを識別するためのユーザIDと、当該ユーザが第1及び第2の動画像データの少なくともいずれかを評価したことを示す評価情報とを取得し、取得した評価情報と第1及び第2の動画像データの内容とに基づき、ユーザIDに対応するユーザの属性を示す属性情報を生成する。このようにすることで、サーバ1は、ユーザの複数の動画の視聴状況に基づいてユーザの属性を分析することができる。
[Effect of distribution system S]
As described above, the server 1 according to the present embodiment has a user ID for identifying a user of the user terminal 2 on which the first and second moving image data are displayed, and the first and second users. The evaluation information indicating that at least one of the moving image data of the above is evaluated is acquired, and the attribute of the user corresponding to the user ID is determined based on the acquired evaluation information and the contents of the first and second moving image data. Generate the attribute information to be shown. By doing so, the server 1 can analyze the attributes of the user based on the viewing status of the plurality of moving images of the user.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. be. For example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination also has the effect of the original embodiment.

1 サーバ
2 ユーザ端末
11 通信部
12 記憶部
13 制御部
21 操作部
22 表示部
23 通信部
24 記憶部
25 制御部
131 配信部
132 取得部
133 特定部
134 生成部
135 特典付与部
136 位置情報取得部
137 分析部
251 動画像データ取得部
252 特典情報取得部
253 表示制御部
254 評価情報送信部
S 配信システム
1 Server 2 User terminal 11 Communication unit 12 Storage unit 13 Control unit 21 Operation unit 22 Display unit 23 Communication unit 24 Storage unit 25 Control unit 131 Distribution unit 132 Acquisition unit 133 Specific unit 134 Generation unit 135 Privilege granting unit 136 Position information acquisition unit 137 Analysis unit 251 Video data acquisition unit 252 Benefit information acquisition unit 253 Display control unit 254 Evaluation information transmission unit S Distribution system

Claims (14)

第1の動画像データ及び第2の動画像データが同時に表示される端末のユーザを識別するためのユーザ識別情報と、前記ユーザが前記第1の動画像データ及び第2の動画像データを評価したことを示す評価情報とを取得する取得部と、
前記取得部が取得した前記評価情報が、前記第1の動画像データに対するユーザによる評価が前記第2の動画像データに対する前記ユーザによる評価よりも高いことを示す場合に、前記第1の動画像データの内容が前記第2の動画像データの内容に比べて前記ユーザの関心が高いということを示す、前記ユーザ識別情報に対応するユーザの属性を示す属性情報を生成する生成部と、
を有する情報処理装置。
User identification information for identifying a user of a terminal on which the first moving image data and the second moving image data are displayed at the same time, and the user evaluates the first moving image data and the second moving image data. An acquisition unit that acquires evaluation information indicating that it has been done, and
When the evaluation information acquired by the acquisition unit indicates that the user's evaluation of the first moving image data is higher than the user's evaluation of the second moving image data, the first moving image A generation unit that generates attribute information indicating user attributes corresponding to the user identification information, which indicates that the content of the data is of higher interest to the user than the content of the second moving image data.
Information processing device with.
前記ユーザが前記評価を与えた時刻に前記端末に同時に表示されていた前記第1の動画像データ及び第2の動画像データの内容を特定する特定部をさらに有し、
前記生成部は、前記取得部が取得した前記評価情報と前記特定部が特定した前記第1の動画像データ及び第2の動画像データの内容とに基づき、前記属性情報を生成する、
請求項1に記載の情報処理装置。
Further having a specific unit for specifying the contents of the first moving image data and the second moving image data that were simultaneously displayed on the terminal at the time when the user gave the evaluation.
The generation unit generates the attribute information based on the evaluation information acquired by the acquisition unit and the contents of the first moving image data and the second moving image data specified by the specific unit.
The information processing device according to claim 1.
前記特定部は、前記第1の動画像データが示す画像である第1画像と、前記第2の動画像データが示す画像である第2画像との画像認識処理を行うことにより、前記第1の動画像データの内容と、前記第2の動画像データの内容とを特定する、
請求項2に記載の情報処理装置。
The specific unit performs image recognition processing of a first image which is an image indicated by the first moving image data and a second image which is an image indicated by the second moving image data, thereby performing the first image recognition process. The content of the moving image data of the above and the content of the second moving image data are specified.
The information processing device according to claim 2.
前記取得部は、第1の動画像データ及び第2の動画像データが同時に表示されている前記端末のユーザの前記ユーザ識別情報と、前記評価情報とを取得する、
請求項1から3のいずれか一項に記載の情報処理装置。
The acquisition unit acquires the user identification information and the evaluation information of the user of the terminal on which the first moving image data and the second moving image data are displayed at the same time.
The information processing device according to any one of claims 1 to 3.
前記取得部は、第1の動画像データ及び第2の動画像データのそれぞれを識別するための動画像識別情報に関連付けられた、前記ユーザにより所定の評価が与えられたことを示す前記評価情報を取得し、
前記生成部は、前記取得部が取得した前記評価情報に関連付けられている前記動画像識別情報に基づいて特定される前記第1の動画像データと前記第2の動画像データの内容に基づき前記属性情報を生成する、
請求項1から4のいずれか一項に記載の情報処理装置。
The acquisition unit indicates that the user has given a predetermined evaluation, which is associated with the moving image identification information for identifying each of the first moving image data and the second moving image data. To get and
The generation unit is based on the contents of the first moving image data and the second moving image data specified based on the moving image identification information associated with the evaluation information acquired by the acquisition unit. Generate attribute information,
The information processing device according to any one of claims 1 to 4.
前記取得部は、前記第1の動画像データ及び第2の動画像データの少なくともいずれかに対応する、第1の動画像データ及び第2の動画像データのそれぞれを識別するための動画像識別情報と関連付けられ、前記ユーザが定めた第1の動画像データ及び第2の動画像データのそれぞれの前記端末における表示領域の大きさを示す情報を、前記評価情報として取得する、
請求項1又は2に記載の情報処理装置。
The acquisition unit identifies moving images for identifying each of the first moving image data and the second moving image data, which correspond to at least one of the first moving image data and the second moving image data. Information indicating the size of the display area of the first moving image data and the second moving image data determined by the user in the terminal, which is associated with the information, is acquired as the evaluation information.
The information processing device according to claim 1 or 2.
前記取得部は、前記動画像識別情報で識別される動画像データが前記端末において相対的に大きい前記表示領域に所定時間以上表示された場合に、当該動画像データが相対的に大きい前記表示領域に所定時間以上表示されたことを示す情報を前記評価情報として取得する、
請求項6に記載の情報処理装置。
When the moving image data identified by the moving image identification information is displayed in the display area that is relatively large in the terminal for a predetermined time or longer, the acquisition unit has the display area in which the moving image data is relatively large. The information indicating that the information has been displayed for a predetermined time or longer is acquired as the evaluation information.
The information processing device according to claim 6.
前記生成部は、前記第1の動画像データに対する前記ユーザによる評価が前記第2の動画像データに対する前記ユーザによる評価よりも高いことを前記評価情報が示す場合に、前記第1の動画像データの内容が、前記第2の動画像データの内容に比べて前記ユーザの関心が高いものとして前記属性情報を生成する、
請求項1から7のいずれか一項に記載の情報処理装置。
When the evaluation information indicates that the evaluation of the first moving image data by the user is higher than the evaluation of the second moving image data by the user, the generation unit determines the first moving image data. Generates the attribute information assuming that the content of is of higher interest to the user than the content of the second moving image data.
The information processing device according to any one of claims 1 to 7.
前記生成部は、前記ユーザ識別情報と、前記ユーザの個人情報とを関連付けたユーザ情報を参照し、前記ユーザ識別情報に関連付けられている前記個人情報にさらに基づいて前記属性情報を生成する、
請求項1から6のいずれか一項に記載の情報処理装置。
The generation unit refers to the user information associated with the user identification information and the personal information of the user, and further generates the attribute information based on the personal information associated with the user identification information.
The information processing device according to any one of claims 1 to 6.
前記生成部が生成した前記属性情報に基づいて前記ユーザに特典を付与する特典付与部をさらに有する、
請求項1から7のいずれか一項に記載の情報処理装置。
Further having a privilege giving unit that grants a privilege to the user based on the attribute information generated by the generation unit.
The information processing device according to any one of claims 1 to 7.
前記取得部は、複数の撮像装置が所定の領域を異なる方向から撮影することにより生成した前記第1の動画像データ及び前記第2の動画像データが表示されている端末のユーザに対応する前記ユーザ識別情報と、前記評価情報とを取得する、
請求項1から10のいずれか一項に記載の情報処理装置。
The acquisition unit corresponds to a user of a terminal on which the first moving image data and the second moving image data generated by a plurality of imaging devices taking pictures of a predetermined area from different directions. Acquire the user identification information and the evaluation information.
The information processing device according to any one of claims 1 to 10.
前記端末の位置を示す端末位置情報を取得する位置情報取得部と、
前記生成部が生成した前記属性情報と、前記端末位置情報とに基づいて前記属性情報が示す属性と、前記属性を有するユーザの位置との関係を分析する分析部と、
をさらに有する、
請求項1から11のいずれか一項に記載の情報処理装置。
A position information acquisition unit that acquires terminal position information indicating the position of the terminal, and
An analysis unit that analyzes the relationship between the attribute information generated by the generation unit, the attribute indicated by the attribute information based on the terminal position information, and the position of a user having the attribute.
Have more,
The information processing device according to any one of claims 1 to 11.
コンピュータが実行する、
第1の動画像データ及び第2の動画像データが同時に表示される端末のユーザを識別するためのユーザ識別情報と、前記ユーザが前記第1の動画像データ及び第2の動画像データを評価したことを示す評価情報とを取得するステップと、
取得された前記評価情報が、前記第1の動画像データに対するユーザによる評価が前記第2の動画像データに対する前記ユーザによる評価よりも高いことを示す場合に、前記第1の動画像データの内容が前記第2の動画像データの内容に比べて前記ユーザの関心が高いということを示す、前記ユーザ識別情報に対応するユーザの属性を示す属性情報を生成するステップと、
を有する情報処理方法。
Computer runs,
User identification information for identifying a user of a terminal on which the first moving image data and the second moving image data are displayed at the same time, and the user evaluates the first moving image data and the second moving image data. Steps to get evaluation information indicating that you have done
The content of the first moving image data when the acquired evaluation information indicates that the evaluation by the user for the first moving image data is higher than the evaluation by the user for the second moving image data. Is a step of generating attribute information indicating a user's attribute corresponding to the user identification information, which indicates that the user's interest is higher than the content of the second moving image data.
Information processing method having.
コンピュータを、
第1の動画像データ及び第2の動画像データが同時に表示される端末のユーザを識別するためのユーザ識別情報と、前記ユーザが前記第1の動画像データ及び第2の動画像データを評価したことを示す評価情報とを取得する取得部、及び、
前記取得部が取得した前記評価情報が、前記第1の動画像データに対するユーザによる評価が前記第2の動画像データに対する前記ユーザによる評価よりも高いことを示す場合に、前記第1の動画像データの内容が前記第2の動画像データの内容に比べて前記ユーザの関心が高いということを示す、前記ユーザ識別情報に対応するユーザの属性を示す属性情報を生成する生成部、
として機能させるプログラム。
Computer,
User identification information for identifying a user of a terminal on which the first moving image data and the second moving image data are displayed at the same time, and the user evaluates the first moving image data and the second moving image data. The acquisition department that acquires the evaluation information indicating that it has been done, and
When the evaluation information acquired by the acquisition unit indicates that the user's evaluation of the first moving image data is higher than the user's evaluation of the second moving image data, the first moving image A generator that generates attribute information indicating user attributes corresponding to the user identification information, indicating that the content of the data is of higher interest to the user than the content of the second moving image data.
A program that functions as.
JP2020144153A 2020-08-28 2020-08-28 Information processing equipment, information processing methods and programs Active JP6905133B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020144153A JP6905133B1 (en) 2020-08-28 2020-08-28 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020144153A JP6905133B1 (en) 2020-08-28 2020-08-28 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP6905133B1 true JP6905133B1 (en) 2021-07-21
JP2022039230A JP2022039230A (en) 2022-03-10

Family

ID=76918342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020144153A Active JP6905133B1 (en) 2020-08-28 2020-08-28 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6905133B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220763A (en) * 2016-06-06 2017-12-14 ヤフー株式会社 Distribution device, distribution method, distribution program, and terminal program
JP2020017871A (en) * 2018-07-25 2020-01-30 株式会社ミクシィ Information processing apparatus, moving image distribution method, and moving image distribution program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220763A (en) * 2016-06-06 2017-12-14 ヤフー株式会社 Distribution device, distribution method, distribution program, and terminal program
JP2020017871A (en) * 2018-07-25 2020-01-30 株式会社ミクシィ Information processing apparatus, moving image distribution method, and moving image distribution program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
秦 淑彦: "カメラメタファによる多視点映像の検索", 情報処理学会論文誌, vol. Vo.42 No.SIG4(TOD9), JPN6021005490, 15 March 2001 (2001-03-15), pages 14 - 26, ISSN: 0004510651 *

Also Published As

Publication number Publication date
JP2022039230A (en) 2022-03-10

Similar Documents

Publication Publication Date Title
JP6293269B2 (en) Content viewing confirmation apparatus and method
US11399212B2 (en) Terminal device application program, terminal device control method, terminal device, and live broadcast distribution server program providing questionnaire creation by terminal device
CN110297975B (en) Recommendation strategy evaluation method and device, electronic equipment and storage medium
US20170185365A1 (en) System and method for screen sharing
CN113992934A (en) Multimedia information processing method, device, electronic equipment and storage medium
JP2018181310A (en) Application program for terminal equipment, control method for terminal equipment, terminal equipment, and program for live broadcast distribution server
JP6714306B1 (en) Distribution system, live distribution device, live distribution method and program
CN107220846A (en) Member card sharing method and device, computer equipment and storage medium
JP2022058643A (en) System, method and program for distributing video
JP6905133B1 (en) Information processing equipment, information processing methods and programs
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
WO2023011300A1 (en) Method and apparatus for recording facial expression of video viewer
JP6934098B1 (en) Information processing equipment, information processing methods and programs
CN107734396A (en) A kind of multimedia resource player method, device and storage medium
JP5931257B1 (en) Movie playback apparatus and program
JP6871470B1 (en) Information processing equipment, information processing methods and programs
JP6955067B1 (en) Display control device, display control method and display control program
JP2021149732A (en) Content creation system, content creation method, and program
JP7367258B1 (en) Information processing system, information processing method, information processing program, and distributor terminal
US20230388587A1 (en) Program, terminal device, and method
JP2020071519A (en) Guide device and guide system
JP6853910B1 (en) Image processing equipment, image processing methods and programs
JP5728141B1 (en) Server, program and method for distributing content
WO2023090565A1 (en) Platform album service providing method and apparatus
US20240137599A1 (en) Terminal and non-transitory computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200917

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210624

R150 Certificate of patent or registration of utility model

Ref document number: 6905133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150