JP7268547B2 - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP7268547B2
JP7268547B2 JP2019160444A JP2019160444A JP7268547B2 JP 7268547 B2 JP7268547 B2 JP 7268547B2 JP 2019160444 A JP2019160444 A JP 2019160444A JP 2019160444 A JP2019160444 A JP 2019160444A JP 7268547 B2 JP7268547 B2 JP 7268547B2
Authority
JP
Japan
Prior art keywords
content
user
information
reaction
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019160444A
Other languages
Japanese (ja)
Other versions
JP2021039541A (en
Inventor
一郎 宍戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019160444A priority Critical patent/JP7268547B2/en
Publication of JP2021039541A publication Critical patent/JP2021039541A/en
Application granted granted Critical
Publication of JP7268547B2 publication Critical patent/JP7268547B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and program.

特許文献1には、コンテンツ再生中のユーザの生体情報(生体反応)を複数のユーザについて収集し、ターゲットユーザの生体反応と類似する生体反応を示したユーザを類似ユーザとして特定し、類似ユーザが高く評価したコンテンツをターゲットユーザに推薦する技術が開示されている。 In Patent Literature 1, biometric information (biological reactions) of users during content reproduction is collected for a plurality of users, and users who exhibit biometric reactions similar to those of a target user are identified as similar users. Techniques for recommending highly rated content to target users have been disclosed.

特開2009-134669号公報JP 2009-134669 A

特許文献1では、血液中に含まれるヘモグロビンの量、血流量、汗の量又は脈拍などを生体情報として用いているが、これらは様々な要因で変動し易い物理量(波形データ)である。特許文献1では、このような波形データを直接比較してユーザ間の類似性を判定しているため、ユーザ間の類似性(類似度)を精度よく求めることができなかった。例えば、2人のユーザの波形データの形状や大きさが多少異なっている場合、十分な精度で類似性を判定することができなかった。このため、類似ユーザを精度よく特定することができず、その結果、コンテンツの推薦情報の精度が十分でない場合があった。 In Patent Document 1, the amount of hemoglobin contained in blood, the amount of blood flow, the amount of sweat, or the pulse rate is used as biological information, but these are physical quantities (waveform data) that easily change due to various factors. In Patent Literature 1, since similarity between users is determined by directly comparing such waveform data, similarity (similarity) between users cannot be obtained with high accuracy. For example, if the waveform data of two users are slightly different in shape or size, similarity cannot be determined with sufficient accuracy. For this reason, similar users cannot be specified with high accuracy, and as a result, the accuracy of content recommendation information may not be sufficient.

本開示は、このような問題を解決するためになされたものであり、コンテンツ再生時のユーザの自然な(例えば、無意識な)反応をもとに、推薦情報を精度よく作成するための情報処理装置及びプログラムを提供することを目的とする。 The present disclosure has been made in order to solve such a problem. The purpose is to provide a device and a program.

本開示の一態様に係る情報処理装置は、
コンテンツ再生時に測定されたユーザの生体情報を、ユーザとコンテンツに対応させて記憶する記憶部と、
前記生体情報をもとに、コンテンツに対するユーザの反応の種類を示す反応カテゴリを1つ以上含むカテゴリデータを生成する生成部と、
前記カテゴリデータと、反応カテゴリ同士の関連度合いを示すカテゴリ関連データとに基づいて、ユーザ同士の類似性、又は、コンテンツ同士の類似性のいずれかを示す類似度を算出する算出部と、
前記類似度に基づいて、推薦情報を作成する作成部と、
を備える。
An information processing device according to an aspect of the present disclosure includes:
a storage unit that stores user's biological information measured during content reproduction in association with the user and the content;
a generation unit that generates category data including one or more reaction categories indicating the type of user reaction to content based on the biometric information;
a calculation unit that calculates a degree of similarity indicating either similarity between users or similarity between contents based on the category data and category related data indicating the degree of relatedness between reaction categories;
a creation unit that creates recommendation information based on the similarity;
Prepare.

本開示の一態様に係るプログラムは、
コンテンツ再生時に測定されたユーザの生体情報を、ユーザ及とコンテンツに対応させて記憶する処理と、
前記生体情報をもとに、コンテンツに対するユーザの反応の種類を示す反応カテゴリを1つ以上含むカテゴリデータを生成する処理と、
前記カテゴリデータと、反応カテゴリ同士の関連度合いを示すカテゴリ関連データとに基づいて、ユーザ同士の類似性、又は、コンテンツ同士の類似性のいずれかを示す類似度を算出する処理と、
前記類似度に基づいて、推薦情報を作成する処理と、
をコンピュータに実行させる。
A program according to an aspect of the present disclosure is
a process of storing the user's biometric information measured during content reproduction in association with the user and the content;
a process of generating category data including one or more reaction categories indicating the type of reaction of the user to the content based on the biometric information;
a process of calculating a degree of similarity indicating either similarity between users or similarity between contents based on the category data and category related data indicating the degree of relatedness between reaction categories;
a process of creating recommendation information based on the similarity;
run on the computer.

本開示によれば、コンテンツ再生時のユーザの自然な反応をもとに、推薦情報を精度よく作成するための情報処理装置及び推薦プログラムを提供することができる。 According to the present disclosure, it is possible to provide an information processing device and a recommendation program for accurately creating recommendation information based on a user's natural reaction during content reproduction.

実施例1にかかるシステムの全体構成を示すブロック図である。1 is a block diagram showing the overall configuration of a system according to Example 1; FIG. 実施例1にかかる端末装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a terminal device according to Example 1; FIG. 実施例1にかかるヘッドホンを装着したユーザの頭部と座標系の例を示す図である。4 is a diagram illustrating an example of a user's head wearing headphones and a coordinate system according to the first embodiment; FIG. 実施例1にかかる生体センサの出力情報の例を示す図である。4 is a diagram illustrating an example of output information of a biosensor according to Example 1; FIG. 実施例1にかかる推薦装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a recommendation device according to Example 1; FIG. 実施例1にかかる生体情報DBのデータ構成の例を示す図である。4 is a diagram illustrating an example of a data configuration of a biometric information DB according to Example 1; FIG. 実施例1にかかる推薦情報作成処理の流れを示すフローチャートである。6 is a flow chart showing the flow of recommendation information creation processing according to the first embodiment; 実施例1にかかる第1のカテゴリデータ生成処理の流れを示すフローチャートである。6 is a flow chart showing the flow of first category data generation processing according to the first embodiment; 実施例1にかかる区間情報DBのデータ構成の例を示す図である。4 is a diagram illustrating an example of a data configuration of a section information DB according to Example 1; FIG. 実施例1にかかるルールデータの例を示す図である。FIG. 5 is a diagram showing an example of rule data according to the first embodiment; FIG. 実施例1にかかるユーザ反応DBのデータ構成の例を示す図である。4 is a diagram illustrating an example of a data configuration of a user reaction DB according to Example 1; FIG. 実施例1にかかる第2のカテゴリデータ生成処理の流れを示すフローチャートである。7 is a flow chart showing the flow of second category data generation processing according to the first embodiment; 実施例1にかかるユーザ反応ベクトルの例を示す図である。FIG. 5 is a diagram showing an example of user reaction vectors according to Example 1; 実施例1にかかるカテゴリ関連データの例を示す図である。4 is a diagram showing an example of category-related data according to Example 1; FIG. 実施例1にかかるユーザによりカスタマイズされたルールデータの例を示す図である。FIG. 10 is a diagram showing an example of rule data customized by a user according to the first embodiment; FIG. 実施例1にかかる推薦情報を表示する画面の例を示す図である。FIG. 10 is a diagram illustrating an example of a screen displaying recommendation information according to the first embodiment; FIG. 実施例1にかかるターゲットユーザがコンテンツ条件を指定した場合の推薦情報を表示する画面の例を示す図である。FIG. 7 is a diagram showing an example of a screen displaying recommendation information when a target user specifies content conditions according to the first embodiment; 変形例1-1にかかる推薦コンテンツと共に非推薦コンテンツを表示する画面の例を示す図である。FIG. 11 is a diagram showing an example of a screen displaying non-recommended content together with recommended content according to modification 1-1; 実施例2にかかる推薦情報作成処理の流れを示すフローチャートである。10 is a flow chart showing the flow of recommendation information creation processing according to the second embodiment; 実施例2にかかるコンテンツベクトルの例を示す図である。FIG. 11 is a diagram showing an example of a content vector according to Example 2; FIG. 実施例2にかかる推薦情報を表示する画面の例を示す図である。FIG. 11 is a diagram showing an example of a screen displaying recommendation information according to the second embodiment; FIG. 実施例3にかかる推薦情報を表示する画面の例を示す図である。FIG. 11 is a diagram illustrating an example of a screen displaying recommendation information according to Example 3; 実施例4にかかる推薦装置の構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of a recommendation device according to Example 4; 実施例4にかかる楽曲情報DBのデータ構成の例を示す図である。FIG. 14 is a diagram showing an example of the data configuration of a music information DB according to Example 4; 実施例5にかかる処理対象区間の周波数成分の例を示す図である。FIG. 15 is a diagram illustrating an example of frequency components of a section to be processed according to Example 5; 実施例5にかかるルールデータの例を示す図である。FIG. 13 is a diagram showing an example of rule data according to Example 5; 実施例6にかかる再生時と非再生時の周波数成分の例を示す図である。FIG. 11 is a diagram showing an example of frequency components during reproduction and non-reproduction according to Example 6; 実施例7にかかるルールデータの例を示す図である。FIG. 12 is a diagram showing an example of rule data according to Example 7;

以下では、本開示の具体的な実施形態の各実施例について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。 Examples of specific embodiments of the present disclosure are described in detail below with reference to the drawings. In each drawing, the same elements are denoted by the same reference numerals, and redundant description will be omitted as necessary for clarity of description.

<実施例1>
本開示のシステム全体の構成図を図1に示す。推薦装置5、コンテンツ配信サーバ4、基地局装置31及び32がネットワーク80を介して接続されている。推薦装置5は情報処理装置とも呼ばれる。基地局装置31及び32は、例えば4G(Generation)、5G等の携帯電話網による無線通信を端末装置11等および他の装置に対して提供する。
<Example 1>
FIG. 1 shows a configuration diagram of the entire system of the present disclosure. A recommendation device 5 , a content distribution server 4 , and base station devices 31 and 32 are connected via a network 80 . The recommendation device 5 is also called an information processing device. The base station devices 31 and 32 provide wireless communication by mobile phone networks such as 4G (Generation) and 5G to the terminal device 11 and other devices.

端末装置11~14は、例えば、スマートフォン、タブレット端末、スマートウォッチ、パソコン等である。図1の例では、ユーザu1が生体センサ21を装着して端末装置11を操作し、ユーザu2が生体センサ22を装着して端末装置12を操作し、ユーザu3が生体センサ23が内蔵されている端末装置13を操作し、ユーザu4が生体センサ24を装着して端末装置14を操作する場合を示す。また、端末装置11及び12並びに生体センサ22は、基地局装置31の配下で通信可能であり、生体センサ21は端末装置11と通信可能である場合を示す。また、端末装置13及び14は、基地局装置32の配下で通信可能であり、生体センサ24は端末装置14と通信可能である場合を示す。但し、当該システムはこれらの構成に限定されない。 The terminal devices 11 to 14 are, for example, smart phones, tablet terminals, smart watches, personal computers, and the like. In the example of FIG. 1, the user u1 wears the biosensor 21 and operates the terminal device 11, the user u2 wears the biosensor 22 and operates the terminal device 12, and the user u3 has the biosensor 23 built-in. A case is shown in which the terminal device 13 is operated by the user u4 and the user u4 wears the biosensor 24 and operates the terminal device 14 . Also, the terminal devices 11 and 12 and the biosensor 22 are under the control of the base station device 31 and can communicate with each other, and the biosensor 21 can communicate with the terminal device 11 . Also, the terminal devices 13 and 14 are under the control of the base station device 32 and can communicate with each other, and the biosensor 24 can communicate with the terminal device 14 . However, the system is not limited to these configurations.

コンテンツ配信サーバ4は、ネットワーク80経由で、端末装置11等のそれぞれからの要求に対して、対応する複数のコンテンツのいずれかを提供する。端末装置11等はコンテンツ配信サーバ4から受信したコンテンツ、または端末装置11等に記憶されているコンテンツを再生する。端末装置11~14のユーザu1~u4のそれぞれは、再生されたコンテンツを鑑賞(視聴)する。本実施例1において、コンテンツは典型的には音楽(楽曲)であるが、映画、テレビ番組、ミュージックビデオ等の映像コンテンツであってもよい。 The content distribution server 4 provides one of a plurality of corresponding contents in response to a request from each of the terminal devices 11 and the like via the network 80 . The terminal device 11 or the like reproduces the content received from the content distribution server 4 or the content stored in the terminal device 11 or the like. Each of the users u1 to u4 of the terminal devices 11 to 14 views (views) the reproduced content. In the first embodiment, the content is typically music (songs), but may be video content such as movies, TV programs, music videos, and the like.

図2は、端末装置11の機能構成を示す図である。尚、端末装置12及び14についても端末装置11と同等であり、端末装置13は端末装置11と一部の構成が異なるだけであるため、図示及び詳細な説明を省略する。
端末装置11は、第1通信部110と、第2通信部120と、制御部130と、記憶部140と、表示部150と、操作部160と、音声出力部170とを備えている。第1通信部110は、4G、5G等の携帯電話網又は無線LAN(Local Area Network)等に接続されており、コンテンツ配信サーバ4および推薦装置5と通信する。第2通信部120はブルートゥース(登録商標)等の近距離無線通信機能であり、生体センサ21やヘッドホン(不図示)との通信を行う。制御部130は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等で構成されており、各部の制御をおこなう。表示部150は液晶、有機EL等のディスプレイである。表示部150はユーザu1が操作を行うために必要な情報を表示する他、コンテンツが映像である場合にはコンテンツを表示する。操作部160は、ユーザからの操作(入力)を受け付ける。なお、タッチパネルを用いて表示部150と操作部160を一体的に構成してもよい。音声出力部170はスピーカ等であり、コンテンツの音楽や音声を出力する。なお、音声出力先がヘッドホンやイヤホンに指定された場合には、音声出力部170からは音声を出力しない。記憶部140は、必要に応じて、生体センサ21により測定されたデータやコンテンツのデータを記憶する。また、記憶部140は、端末装置11を動作させるためのプログラムを記憶する。制御部130は、記憶部140からプログラムを読み出して実行する。
FIG. 2 is a diagram showing the functional configuration of the terminal device 11. As shown in FIG. The terminal devices 12 and 14 are the same as the terminal device 11, and the terminal device 13 is only partially different from the terminal device 11 in configuration, so illustration and detailed description thereof will be omitted.
The terminal device 11 includes a first communication section 110 , a second communication section 120 , a control section 130 , a storage section 140 , a display section 150 , an operation section 160 and an audio output section 170 . The first communication unit 110 is connected to a mobile phone network such as 4G or 5G, a wireless LAN (Local Area Network), or the like, and communicates with the content distribution server 4 and the recommendation device 5 . The second communication unit 120 has a short-range wireless communication function such as Bluetooth (registered trademark), and communicates with the biosensor 21 and headphones (not shown). The control unit 130 includes a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), etc., and controls each unit. The display unit 150 is a liquid crystal display, an organic EL display, or the like. The display unit 150 displays information necessary for the user u1 to perform an operation, and also displays the content if the content is video. The operation unit 160 receives an operation (input) from the user. Note that the display unit 150 and the operation unit 160 may be configured integrally using a touch panel. The audio output unit 170 is a speaker or the like, and outputs music and audio of content. Note that when headphones or earphones are designated as the audio output destination, the audio output unit 170 does not output audio. The storage unit 140 stores data measured by the biosensor 21 and content data as needed. The storage unit 140 also stores programs for operating the terminal device 11 . Control unit 130 reads a program from storage unit 140 and executes it.

図1の説明に戻る。生体センサ21~24は、コンテンツ再生中のユーザの姿勢、動き、変位、速度、加速度などを検出するデバイスである。その他に血流、脈拍、心拍数、呼吸、脳波などを検出する機能を備えていてもよい。例えば、生体センサ21は、加速度センサや角速度センサを内蔵したイヤホン、ヘッドホンである。あるいは、生体センサ21は、加速度センサや角速度センサを内蔵したスマートウォッチ、指輪型デバイス、メガネ型ディスプレイ、その他のウェアラブルデバイスであってもよい。生体センサ21等は、ユーザから生体情報を測定し、生体情報を出力する。 Returning to the description of FIG. The biosensors 21 to 24 are devices that detect the user's posture, movement, displacement, speed, acceleration, etc. during content reproduction. In addition, it may have a function of detecting blood flow, pulse, heart rate, respiration, electroencephalogram, and the like. For example, the biosensor 21 is an earphone or headphone incorporating an acceleration sensor or an angular velocity sensor. Alternatively, the biosensor 21 may be a smart watch, a ring-type device, a glasses-type display, or other wearable device that incorporates an acceleration sensor or an angular velocity sensor. The biosensor 21 or the like measures biometric information from the user and outputs the biometric information.

なお、端末装置13は、生体センサ23(例えば加速度センサ)を内蔵している。このように端末装置が生体センサを内蔵してもよい。ユーザu3は端末装置13を手で持ったり、ポケット等に入れて人体に密着させた状態で使用する。この場合、生体センサ23は、端末装置13の一構成要素となり、生体センサ23により測定されたユーザu3の生体情報は、端末装置13内の第1通信部110により基地局装置32及びネットワーク80を介して推薦装置5へ送信される。生体センサ21及び24は、それぞれブルートゥース(登録商標)等のインタフェースを備えており、端末装置11及び14のそれぞれと通信可能である。例えば、生体センサ21で計測されたユーザの生体情報は、端末装置11、基地局装置31及びネットワーク80を経由して、推薦装置5に送信される。また、生体センサ22は、4G、5G等の通信機能を備えており、基地局装置31と直接通信できる。この場合には、生体センサ22は、端末装置11を介した通信が不要である。また、生体センサ22等がコンテンツ再生機能をもっている場合、例えば、4G、5G等の通信機能を備えたヘッドホンやメガネ型ディスプレイである場合は、端末装置を省略することもできる。すなわち、端末装置と生体センサは一体であっても、別体であってもよい。 The terminal device 13 incorporates a biosensor 23 (for example, an acceleration sensor). In this way, the terminal device may incorporate the biosensor. The user u3 holds the terminal device 13 in his/her hand or puts it in a pocket or the like and uses it in close contact with the human body. In this case, the biosensor 23 is one component of the terminal device 13, and the biometric information of the user u3 measured by the biosensor 23 is sent to the base station device 32 and the network 80 by the first communication unit 110 in the terminal device 13. is sent to the recommendation device 5 via the The biosensors 21 and 24 each have an interface such as Bluetooth (registered trademark), and can communicate with the terminal devices 11 and 14, respectively. For example, the user's biological information measured by the biological sensor 21 is transmitted to the recommendation device 5 via the terminal device 11 , the base station device 31 and the network 80 . Moreover, the biosensor 22 has communication functions such as 4G and 5G, and can directly communicate with the base station device 31 . In this case, the biosensor 22 does not need communication via the terminal device 11 . Also, if the biosensor 22 or the like has a content reproduction function, for example, if it is a headphone or glasses-type display equipped with a communication function such as 4G or 5G, the terminal device can be omitted. That is, the terminal device and the biosensor may be integrated or separated.

以下の説明では、特に断らない限り、生体センサとして、加速度センサ付きのヘッドホンを用いる。またヘッドホンは角速度センサ(ジャイロセンサ)を備えていてもよい。このヘッドホンは、ブルートゥース(登録商標)を介して端末装置と通信する。以下の説明では、ユーザu1が生体センサ21を装着し、端末装置11を操作してコンテンツの再生やリクエストを行う例を用いるが、他のユーザ、生体センサ及び端末装置の組み合わせであっても同様であることはもちろんである。また、推薦装置5がコンテンツを推薦する対象のユーザを「ターゲットユーザ」と呼ぶ。以下の例では、特に断らない限り、ユーザu1がターゲットユーザである。 In the following description, headphones with an acceleration sensor are used as biosensors unless otherwise specified. The headphones may also include an angular velocity sensor (gyro sensor). This headphone communicates with the terminal device via Bluetooth (registered trademark). In the following description, an example in which the user u1 wears the biosensor 21 and operates the terminal device 11 to reproduce content or make a request is used, but the same applies to combinations of other users, biosensors, and terminal devices. Of course it is. A user to whom the recommendation device 5 recommends content is called a “target user”. In the following examples, user u1 is the target user unless otherwise stated.

ユーザu1は、端末装置11を操作することにより、端末装置11は、コンテンツ配信サーバ4にリクエストを送り、所望のコンテンツをストリーミング再生する。ユーザu1はヘッドホンを装着してコンテンツを聴くが、コンテンツ再生中のユーザu1の人体の動きが生体情報データとして生体センサ21によって出力され、端末装置11は第2通信部120を介してそれを取得する。さらに端末装置11は、その生体情報データを第1通信部110を介して、推薦装置5に送信する。尚、生体情報データを、単に「生体情報」と呼ぶこともある。 The user u1 operates the terminal device 11 so that the terminal device 11 sends a request to the content distribution server 4 and streams the desired content. The user u1 wears headphones and listens to the content, and the movement of the human body of the user u1 during content reproduction is output as biometric information data by the biometric sensor 21, and the terminal device 11 acquires it via the second communication unit 120. do. Further, the terminal device 11 transmits the biometric information data to the recommendation device 5 via the first communication unit 110 . Incidentally, biometric information data may be simply referred to as "biometric information".

図3は、ヘッドホンを装着したユーザの頭部と、座標系を説明する図である。図3では、両耳を結ぶ方向をx軸、両耳を結ぶ中点から鼻先に向かう方向y軸、両耳を結ぶ中点から頭頂に向かう方向をz軸にしている。この座標系はあくまでも一例で、これに限定されるものではない。 FIG. 3 is a diagram illustrating the head of a user wearing headphones and a coordinate system. In FIG. 3, the direction connecting both ears is the x-axis, the direction from the midpoint connecting the ears to the tip of the nose is the y-axis, and the direction from the midpoint connecting the ears to the top of the head is the z-axis. This coordinate system is merely an example, and is not limited to this.

ヘッドホンには加速度センサが内蔵されており、3軸(x、y、z方向)の加速度を検出することができる。また、適切な前提条件を設定することにより、加速度と速度と変位とは、相互に変換可能である。これらは、ユーザu1の体の動きを示すデータであるといえる。本実施例1では、説明を簡潔にするため、各生体センサは、人体の所定の箇所(例えば、鼻先や頭頂)の変位に関するデータを出力するものとする。 The headphone incorporates an acceleration sensor and can detect acceleration in three axes (x, y, z directions). Acceleration, velocity, and displacement can also be converted to each other by setting appropriate preconditions. These can be said to be data indicating the body movements of the user u1. In the first embodiment, to simplify the explanation, each biosensor outputs data related to the displacement of a predetermined part of the human body (for example, the tip of the nose or the top of the head).

図4に生体センサ21の出力例を示す。横軸tは、ある楽曲(楽曲A)の先頭からの経過時間である。3つのグラフは、x、y、z方向の人体の変位を示している。以下の説明では、x軸の変位の振幅(絶対値)をAx、y軸の変位の振幅(絶対値)をAy(又はAy’)、z軸の変位の振幅(絶対値)をAzとする。図4に示す例では、楽曲Aの開始(t=0)からT1時間(例えば、30秒)が経過するまでの区間は、Axが最も大きく、次にAyが大きく、Azが最も小さい。また、出力変化の周期は、比較的長い。この出力信号から、ユーザは主にxy平面上でゆったりと頭部を動かしていることが分かる。このような頭部の動きは、いわゆる「横ノリ」と呼ばれる反応である。ここで、「ノリ」とは、ユーザが楽曲に合わせて体を周期的に動かす反応のことである。 FIG. 4 shows an output example of the biosensor 21. As shown in FIG. The horizontal axis t is the elapsed time from the beginning of a song (song A). The three graphs show the displacement of the human body in the x, y and z directions. In the following description, the amplitude (absolute value) of x-axis displacement is Ax, the amplitude (absolute value) of y-axis displacement is Ay (or Ay'), and the amplitude (absolute value) of z-axis displacement is Az. . In the example shown in FIG. 4, Ax is the largest, Ay is the second largest, and Az is the smallest in the section from the start of music A (t=0) to the passage of T1 time (for example, 30 seconds). Also, the period of output change is relatively long. From this output signal, it can be seen that the user mainly moves his head slowly on the xy plane. Such head movement is a so-called "horizontal glue" reaction. As used herein, the term "groove" refers to a reaction in which the user periodically moves his or her body to music.

一方、楽曲の開始からT1が経過すると、Axが小さくなり、Ay’とAzが非常に大きくなる。また、出力変化の周期が短くなる。このため、ユーザは主にyz平面において、頭部を小刻みに速く激しく動かしていることが分かる。このような頭部の動きは、いわゆる「縦ノリ」と呼ばれる反応である。 On the other hand, when T1 has passed from the start of the music, Ax becomes small and Ay' and Az become very large. In addition, the period of output change is shortened. Therefore, it can be seen that the user is moving the head rapidly and violently, mainly in the yz plane. Such movement of the head is a so-called "vertical glue" reaction.

例えば、楽曲Aは、開始からT1までが、ゆったりしたイントロ部分(パート)であり、T1において曲の調子が急激に変わり、T1以降は速いテンポのノリの良い「Aメロ」部分(パート)であるとすると、図4に示すデータから、ユーザは概ね楽曲の各パートの特徴に合せて、体を動かしていたことが分かる。 For example, song A has a slow intro part (part) from the beginning to T1, a sudden change in the tone of the song at T1, and a fast-paced "A melody" part (part) after T1. If so, it can be seen from the data shown in FIG. 4 that the user generally moved his/her body in accordance with the characteristics of each part of the music.

端末装置11は、ユーザID(ユーザ識別子)と、コンテンツ配信サーバ4から受信して再生したコンテンツの情報(コンテンツID、コンテンツ名、アーティスト名、制作者名など)と、センサ出力情報である生体情報とを関連付けて推薦装置5に対して送信する。あるいは、端末装置11が、ユーザIDと生体情報と生体情報を計測した日時とを推薦装置5に送信するとともに、コンテンツ配信サーバ4が、コンテンツID、配信先のユーザID、配信日時などの情報を推薦装置5に送信してもよい。この場合、推薦装置5は端末装置11から受信したデータと、コンテンツ配信サーバ4から受信データを照合することにより、誰がいつ何のコンテンツを視聴して、どんな反応をしたかを把握できる。なお、本実施例1では、ユーザを識別するユーザIDを用いて説明するが、端末装置を識別する端末IDを用いてもよい。例えば、スマートフォンのように基本的に1つの端末装置を1人のユーザが使用する環境では、端末IDを用いてもよい。つまり、ユーザIDと端末IDはともにコンテンツを利用する主体(利用主体)を識別するものであり、これらを総称して利用主体ID(利用主体識別子)と呼ぶ場合もある。なお、生体センサあるいは端末装置は、図4に示すようなセンサ出力(波形データ)をそのまま推薦装置5に出力してもよいし、ある程度の加工(信号処理)を行ってから出力してもよい。 The terminal device 11 receives a user ID (user identifier), information on the content received from the content distribution server 4 and reproduced (content ID, content name, artist name, producer name, etc.), and biometric information that is sensor output information. are associated with each other and transmitted to the recommendation device 5 . Alternatively, the terminal device 11 transmits the user ID, the biological information, and the date and time when the biological information was measured to the recommendation device 5, and the content distribution server 4 transmits information such as the content ID, the user ID of the distribution destination, and the distribution date and time. It may be transmitted to the recommendation device 5 . In this case, the recommendation device 5 compares the data received from the terminal device 11 with the data received from the content distribution server 4, so that it is possible to grasp who viewed what content when and how they reacted. Note that, in the first embodiment, a description is given using a user ID that identifies a user, but a terminal ID that identifies a terminal device may also be used. For example, a terminal ID may be used in an environment where basically one terminal device is used by one user, such as a smartphone. In other words, both the user ID and the terminal ID identify a subject (user subject) who uses the content, and they are sometimes collectively called a user subject ID (user subject identifier). The biosensor or the terminal device may output the sensor output (waveform data) as shown in FIG. .

推薦装置5の構成を図5に示す。推薦装置5は、通信部510、処理部520、記憶部530とで構成されている。また、推薦装置5には、管理者が操作を行うための入力装置540(キーボード、マウス等)と、管理者に情報を提供するための表示装置550(液晶ディスプレイ等)が接続されている。通信部510は、推薦装置5の外部と通信を行うインタフェース回路である。処理部520は、推薦装置5の各構成を制御するプロセッサつまり制御装置である。処理部520は、後述するカテゴリ情報(カテゴリデータ)を生成する生成部521と、ユーザ間の類似度を算出する算出部522と、推薦情報を作成する作成部523とを含む。このため以下の説明では、生成部521、算出部522、作成部523のいずれかが処理を実行する場合に、まとめて「処理部520が実行する」と記述する場合もある。また「生成部」を「カテゴリ生成部」、「算出部」を「類似度算出部」、「作成部」を「推薦情報作成部」と呼ぶ場合もある。 The configuration of the recommendation device 5 is shown in FIG. The recommendation device 5 is composed of a communication section 510 , a processing section 520 and a storage section 530 . The recommendation device 5 is connected to an input device 540 (keyboard, mouse, etc.) for operation by the administrator, and a display device 550 (liquid crystal display, etc.) for providing information to the administrator. The communication unit 510 is an interface circuit that communicates with the outside of the recommendation device 5 . The processing unit 520 is a processor that controls each component of the recommendation device 5, that is, a control device. The processing unit 520 includes a generation unit 521 that generates category information (category data), a calculation unit 522 that calculates similarity between users, and a creation unit 523 that creates recommendation information. For this reason, in the following description, when any one of the generating unit 521, the calculating unit 522, and the creating unit 523 executes a process, it may be collectively described as "performed by the processing unit 520". Also, the “generating unit” may be called the “category generating unit”, the “calculating unit” may be called the “similarity calculating unit”, and the “creating unit” may be called the “recommendation information creating unit”.

記憶部530は、生体情報DB531(センサ情報DB)、ユーザ反応DB532、区間情報DB533、カテゴリ関連データ534、ルールデータ535及びプログラム536を記憶する記憶装置である。そして、推薦装置5は、端末装置11等から受信したセンサ出力情報(生体情報)を複数のコンテンツそれぞれに対応させて記憶部530の生体情報DB531に記憶する。なお、本実施例において生体情報DB531が記憶する生体情報は、コンテンツ再生時におけるユーザの生体情報である。コンテンツ再生時の生体情報を「第1の生体情報」とも呼ぶ。 The storage unit 530 is a storage device that stores a biological information DB 531 (sensor information DB), a user reaction DB 532, a section information DB 533, category-related data 534, rule data 535, and programs 536. FIG. Then, the recommendation device 5 stores the sensor output information (biological information) received from the terminal device 11 or the like in the biological information DB 531 of the storage unit 530 in association with each of the plurality of contents. Note that the biometric information stored in the biometric information DB 531 in this embodiment is the biometric information of the user at the time of content reproduction. The biometric information at the time of content reproduction is also called "first biometric information".

生体情報DB531のデータ構成の一例を図6に示す。ユーザID、コンテンツID、再生開始日時、再生位置、上述した3軸方向の変位もしくは加速度であるx出力、y出力、z出力が関連付けて格納される。再生位置は、コンテンツの先頭からの経過時間であり、生体情報のサンプリング周期(本図に示す例では30ミリ秒)ごとに(x出力、y出力、z出力)記録される。図示のごとく、複数のユーザがそれぞれコンテンツを再生したときのセンサ出力が格納される。生体情報DB531に格納されたデータは、生体情報の波形データに相当する。 An example of the data configuration of the biometric information DB 531 is shown in FIG. The user ID, content ID, playback start date and time, playback position, and x output, y output, and z output, which are displacement or acceleration in the three axial directions, are associated and stored. The playback position is the elapsed time from the beginning of the content, and is recorded (x output, y output, z output) at each biometric information sampling period (30 milliseconds in the example shown in this figure). As shown in the figure, sensor outputs are stored when each of a plurality of users reproduces content. The data stored in the biometric information DB 531 corresponds to waveform data of biometric information.

3軸方向の変位(加速度)データ(x出力、y出力、z出力)は、それぞれ独立したデータであり、3つの生体情報、すなわち3種類の生体情報、であるといえる。本実施例では3方向の変位データをもとに推薦情報を作成する例を説明するが、2方向の変位データを用いてもよい。すなわち、複数種類(2種類以上)の生体情報をもとに、推薦情報を作成してもよい。また、1種類の生体情報(例えば、x出力のみ)をもとに推薦情報を作成してもよい。ただし、複数種類の生体情報を用いると、後述する反応カテゴリの種類を増やすことができるため、コンテンツに対するユーザの多様な反応をより精度よくカテゴリデータに反映することができる。生体情報DB531は、ユーザID、コンテンツID及び再生開始日時の3つのフィールドの組み合せがテーブルの主キーとなっている。つまり、ユーザID、コンテンツID及び再生開始日時を指定することで、1つのデータ(1つのデータ単位)を特定することができる。図6の例に示すように、あるユーザ(User1)があるコンテンツ(C1)を2回再生すると、2つのデータが記録される。 The displacement (acceleration) data (x output, y output, z output) in the three axial directions are independent data, and can be said to be three pieces of biological information, that is, three types of biological information. In this embodiment, an example in which recommendation information is created based on displacement data in three directions will be described, but displacement data in two directions may also be used. That is, recommendation information may be created based on multiple types (two or more types) of biometric information. Also, recommendation information may be created based on one type of biometric information (for example, x output only). However, by using multiple types of biometric information, it is possible to increase the types of reaction categories, which will be described later, so that the user's various reactions to the content can be reflected in the category data with higher accuracy. In the biometric information DB 531, a combination of three fields, user ID, content ID, and playback start date/time, is the main key of the table. That is, one data (one data unit) can be specified by specifying the user ID, content ID, and playback start date and time. As shown in the example of FIG. 6, when a certain user (User1) reproduces a certain content (C1) twice, two data are recorded.

図5に戻る。プログラム536は、本実施例1にかかる推薦情報作成処理(推薦方法)が実装されたコンピュータプログラムである。ここで、処理部520は、プログラム536をメモリ(不図示)に読み込ませ、プログラム536を実行する。これにより、処理部520は、生成部521、算出部522及び作成部523の機能を実現する。 Return to FIG. The program 536 is a computer program in which the recommendation information creation process (recommendation method) according to the first embodiment is implemented. Here, the processing unit 520 loads the program 536 into a memory (not shown) and executes the program 536 . Thereby, the processing unit 520 realizes the functions of the generation unit 521 , the calculation unit 522 and the creation unit 523 .

ユーザ反応DB532は、カテゴリデータの一例であり、ユーザ及びコンテンツの区間ごとの反応カテゴリを示す情報である。カテゴリデータは、1つ以上の反応カテゴリを含む。ここで、反応カテゴリとは、コンテンツに対するユーザの反応に関するカテゴリ(分類、種類、類型)である。実施例1にかかる反応カテゴリは、ユーザの反応の種類及び強度の組み合わせを含むが、これに限定されない。区間情報DB533は、コンテンツを時間軸において複数に分割した区間を定義した情報である。カテゴリ関連データ534は、反応カテゴリ同士の関連度合いを示す情報である。ルールデータ535は、生体情報から反応カテゴリを生成するためのルール(規則)を示す情報である。また、ユーザ反応DB532、区間情報DB533、カテゴリ関連データ534及びルールデータ535については、後述する。 The user reaction DB 532 is an example of category data, and is information indicating a reaction category for each section of users and content. Category data includes one or more reaction categories. Here, the reaction category is a category (classification, type, type) related to user's reaction to the content. The reaction categories according to the first embodiment include, but are not limited to, combinations of types and strengths of user reactions. The section information DB 533 is information defining a plurality of sections obtained by dividing the content along the time axis. The category related data 534 is information indicating the degree of relatedness between reaction categories. The rule data 535 is information indicating rules for generating reaction categories from biometric information. User reaction DB 532, section information DB 533, category related data 534, and rule data 535 will be described later.

生成部521は、生体情報を複数の反応カテゴリのいずれかに対応させたカテゴリデータを生成する。すなわち、生成部521は、生体情報をもとに、反応カテゴリを1以上含むカテゴリデータを生成する。本実施例における生成部521は、2つ以上の方向に対する(関する)ユーザの体の動きを示す生体情報をもとに、データを2つ以上の方向に区別する所定の反応カテゴリを用いて、カテゴリデータを生成する。つまり、複数種類の生体情報をもとに、多様な反応カテゴリを用いて、カテゴリデータを生成する。特に、生成部521は、区間ごとに反応カテゴリを生成し、区間順に並べられた反応カテゴリを含むカテゴリデータを生成する。 The generation unit 521 generates category data in which biometric information is associated with one of a plurality of reaction categories. That is, the generation unit 521 generates category data including one or more reaction categories based on biometric information. The generation unit 521 in this embodiment uses a predetermined reaction category that distinguishes data in two or more directions based on biological information that indicates the movement of the user's body in (related to) two or more directions, Generate categorical data. That is, category data is generated using various reaction categories based on multiple types of biological information. In particular, the generation unit 521 generates a reaction category for each section, and generates category data including the reaction categories arranged in order of section.

算出部522は、生成部521により生成されたカテゴリデータと、カテゴリ関連データ534とに基づいて、ユーザ同士の類似性を示す類似度を算出する。特に、算出部522は、反応カテゴリの種類が一致する場合に、一致しない場合と比べて類似度が高くなるように算出する。 The calculation unit 522 calculates a degree of similarity indicating similarity between users based on the category data generated by the generation unit 521 and the category-related data 534 . In particular, the calculation unit 522 calculates such that when the types of reaction categories match, the degree of similarity is higher than when they do not match.

作成部523は、類似度に基づいて、推薦情報を作成する。本実施例にかかる作成部523は、複数のコンテンツの中から、類似度に基づいて推薦コンテンツを選択し、当該選択された推薦コンテンツに関する情報を含めて推薦情報を作成し、ターゲットユーザに対して推薦情報を提示する。例えば、作成部523は、複数のユーザの中から、ターゲットユーザとの類似度が相対的に高い他のユーザである「類似ユーザ」を特定し、当該類似ユーザが再生済みのコンテンツの中からターゲットユーザが未再生のコンテンツを推薦コンテンツとして選択する。 The creation unit 523 creates recommendation information based on the degree of similarity. The creating unit 523 according to the present embodiment selects recommended content based on the degree of similarity from among a plurality of pieces of content, creates recommended information including information about the selected recommended content, and sends it to the target user. Present recommendation information. For example, the creating unit 523 identifies, from among a plurality of users, a “similar user” that is another user having a relatively high degree of similarity to the target user, and selects a target user from the content that has already been reproduced by the similar user. The user selects unreproduced content as recommended content.

または、作成部523は、複数のコンテンツの中から、類似度に基づいて複数の推薦候補コンテンツを選択してもよい。その場合、例えば、作成部523は、複数の推薦候補コンテンツの中から、ターゲットユーザが過去に示した反応カテゴリに合致する(同じ反応カテゴリを有する)コンテンツを推薦コンテンツとして選択する。また、作成部523は、複数の推薦候補コンテンツの中から、類似ユーザが所定の反応カテゴリを示したコンテンツを推薦コンテンツとして選択する。また、作成部523は、複数の推薦候補コンテンツの中から、ターゲットユーザにより指定されたカテゴリに合致するコンテンツを推薦コンテンツとして選択する。 Alternatively, the creating unit 523 may select a plurality of recommended candidate contents based on the degree of similarity from among the plurality of contents. In this case, for example, the creation unit 523 selects, as recommended content, content that matches (has the same reaction category) the reaction category indicated by the target user in the past, from among the plurality of recommended content. Further, the creation unit 523 selects, as recommended content, content for which a similar user has indicated a predetermined reaction category, from among the plurality of recommended content. Also, the creation unit 523 selects, as recommended content, content matching the category specified by the target user from among the plurality of recommended content.

推薦装置5における推薦情報作成処理の流れを図7のフローチャートに示す。この処理は、所定のタイミングで実行される。具体的には、推薦装置5がこの処理を所定の周期(例えば、1時間毎など)でバッチ処理的に実行したり、端末装置のユーザが推薦情報をリクエストしたタイミングで実行する。 The flow of recommendation information creation processing in the recommendation device 5 is shown in the flowchart of FIG. This process is executed at a predetermined timing. Specifically, the recommendation device 5 executes this process in a batch process at a predetermined cycle (for example, every hour), or executes it at the timing when the user of the terminal device requests the recommendation information.

まず、端末装置11から推薦装置5に対して任意のタイミングで推薦情報を要求するリクエスト(推薦リクエストあるいは推薦情報リクエストとも呼ぶ)が送信される。例えば、ユーザu1が端末装置11を操作してあるサイトにログインした場合や、ユーザu1が端末装置11を用いて推薦情報を表示するための操作を行った場合に、端末装置11は、推薦装置5に対して推薦リクエストを送信する。推薦リクエストには、端末装置を使用するユーザ(推薦情報を要求するユーザ)のユーザIDまたは端末IDが含まれる。なお、推薦情報を要求するユーザをターゲットユーザとも呼ぶ。ターゲットユーザが指定した場合には、推薦リクエストには、さらにターゲットユーザが所望するコンテンツの条件(コンテンツ条件、あるいはコンテンツ絞込条件とも呼ぶ)が含まれる。 First, a request requesting recommendation information (also called a recommendation request or a recommendation information request) is transmitted from the terminal device 11 to the recommendation device 5 at an arbitrary timing. For example, when the user u1 logs in to a site by operating the terminal device 11, or when the user u1 performs an operation for displaying recommended information using the terminal device 11, the terminal device 11 operates as a recommendation device. Send a recommendation request to 5. The recommendation request includes the user ID or terminal ID of the user who uses the terminal device (the user who requests the recommendation information). A user who requests recommendation information is also called a target user. If specified by the target user, the recommendation request further includes conditions for the content desired by the target user (also called content conditions or content narrowing conditions).

推薦リクエストを受信した推薦装置5は、バッチ処理等により既にターゲットユーザに対する推薦情報が作成済みであるか否かを判定する。具体的には、処理部520が記憶部530にターゲットユーザのユーザIDに関連付けられた推薦情報(推薦コンテンツのコンテンツID等)が存在するか否かを判定する。ターゲットユーザの推薦情報が存在する場合は、処理部520は記憶部530からそれを読み出し、通信部510を介して、端末装置11に推薦情報を送信する。ターゲットユーザの推薦情報が存在しない場合には、推薦装置5は、図7のフローチャートの処理を実行し、推薦情報を作成する。 Upon receiving the recommendation request, the recommendation device 5 determines whether recommendation information for the target user has already been created by batch processing or the like. Specifically, the processing unit 520 determines whether or not the storage unit 530 has recommendation information (content ID of recommended content, etc.) associated with the user ID of the target user. If the target user's recommendation information exists, the processing unit 520 reads it from the storage unit 530 and transmits the recommendation information to the terminal device 11 via the communication unit 510 . If the target user's recommendation information does not exist, the recommendation device 5 executes the process of the flowchart in FIG. 7 to create recommendation information.

ステップS100において、生成部521(処理部520)は、記憶部530の生体情報DB531から処理対象の生体情報データを取得する。具体的には、生成部521は、生体情報DB531に格納されたデータの中から、未処理のデータを処理対象として取得する。なお、記憶部530の生体情報DB531は、端末装置11~14から受信(取得)したデータを記憶しており、生成部521は記憶部530からデータを取得するため、生成部521は端末装置11~14から生体情報データを取得するともいえる。 In step S<b>100 , the generation unit 521 (processing unit 520 ) acquires biometric information data to be processed from the biometric information DB 531 of the storage unit 530 . Specifically, the generation unit 521 acquires unprocessed data as a processing target from the data stored in the biometric information DB 531 . Note that the biological information DB 531 of the storage unit 530 stores data received (acquired) from the terminal devices 11 to 14, and the generation unit 521 acquires data from the storage unit 530. It can also be said that biometric information data is acquired from 14.

ステップS110において、生成部521は、生体情報データをもとに、以下のいずれかの方法でカテゴリデータを生成する。生成部521は、生体情報データをカテゴリデータに変換するともいえる。生成部521は生成したカテゴリデータを記憶部530のユーザ反応DB532に格納する。 In step S110, the generation unit 521 generates category data by one of the following methods based on biometric information data. It can be said that the generation unit 521 converts the biometric information data into category data. The generation unit 521 stores the generated category data in the user reaction DB 532 of the storage unit 530 .

(A1:第1のカテゴリデータ生成方法)
図8は、ステップS110における第1のカテゴリデータ生成方法の詳細を示すフローチャートである。図8は、ステップS100で処理対象となった生体情報データのうち、ある1つのデータ(ある1人のユーザがあるコンテンツを1回視聴した際のデータ)に関するカテゴリデータを作成する処理を示している。複数のデータが処理対象である場合には、これらの処理を繰り返し実行すればよい。
(A1: First category data generation method)
FIG. 8 is a flow chart showing details of the first category data generation method in step S110. FIG. 8 shows the process of creating category data relating to one of the biometric information data processed in step S100 (data obtained when a certain user viewed certain content once). there is When a plurality of data are to be processed, these processes may be repeatedly executed.

ステップS200において、生成部521は、処理対象のコンテンツに関して区間が作成済みであるか否かを判定する。過去に処理対象になったコンテンツであれば既に区間が作成されており、区間情報DB533に登録されている。今まで処理対象になったことがない新規のコンテンツは、区間が作成されておらず、区間情報DB533に登録されていない。つまり、生成部521は、処理対象のコンテンツが記憶部530の区間情報DB533に登録されているか否かを判定する。区間が作成済みであれば(S200:Yes)、ステップS220に進み、区間が作成済みでなければ(S200:No)、ステップS210に進む。 In step S200, the generation unit 521 determines whether or not a section has been created for the content to be processed. Sections have already been created for content that has been processed in the past, and are registered in the section information DB 533 . A new content that has never been processed until now has no section created and is not registered in the section information DB 533 . That is, the generation unit 521 determines whether or not the content to be processed is registered in the section information DB 533 of the storage unit 530 . If the section has been created (S200: Yes), the process proceeds to step S220, and if the section has not been created (S200: No), the process proceeds to step S210.

ステップS210において、生成部521は、処理対象のコンテンツの区間を作成する。区間とは、1つのコンテンツを時間方向に複数に分割したものである。例えば、200秒の長さのコンテンツを4秒ごとに区間に分割すると、50個の区間が作成される。生成部521は、作成した区間の情報を記憶部530の区間情報DB533に格納する。図9は、区間情報DB533のデータ構成の一例を示す図である。区間情報DB533は、コンテンツID、区間番号(区間ID)、開始点、終了点の各フィールドを含んでいる。開始点および終了点は、コンテンツの先頭からの経過時間であり、図9の例では秒単位である。例えば、コンテンツID「C1」の区間「2」は、コンテンツの先頭を基点として「4」秒後から「8」秒後までであることを示している。なお、秒単位よりもさらに細かい単位(ミリ秒単位等)を用いてもよい。本実施例では、説明を簡潔にするため、各区間の長さは同じであるものとするが、区間ごとに長さが異なっていてもよい。また、コンテンツごとに区間の長さが異なっていてもよい。区間の長さは、同じようなユーザ反応が継続すると想定される時間に設定することが望ましい。例えば、コンテンツがテンポ120の楽曲である場合、1拍の長さは0.5秒(500ミリ秒)に相当する。ユーザが楽曲を聴きながら体を動かす場合、一般的に4拍~8拍程度の時間は、同じパターンで体を動かすと想定されるため、この例では2秒~4秒間は、同じようなユーザ反応が継続すると想定される。もちろん、楽曲ごとにテンポは異なっているが、ユーザはある程度の回数同じ動作を繰り返す傾向が強いため、数秒間は同じ体の動きになる可能性が高い。このため、1つの区間の長さを数秒~10秒程度に設定すればよい。このようにユーザ反応がある程度持続すると想定される時間(区間長)は、元の生体情報のサンプリング時間(周期)に比べてかなり長い。このため、1つの区間はかなり多数の生体情報データ(サンプルデータ、波形データ)を含む。本実施例では、1つの区間に含まれる多数(すなわち複数)の生体情報データをもとに、後述する方法で反応カテゴリを生成する。図9に示す例では、コンテンツ「C1」は「M1」個の区間を有しており、コンテンツ「C2」は「M2」個の区間を有している。一般的には、コンテンツごとに区間の数は異なるが、全てのコンテンツで区間の数を同じにしてもよい。 In step S210, the generation unit 521 creates a section of content to be processed. A section is obtained by dividing one content into a plurality of sections in the time direction. For example, dividing a 200-second long content into sections every 4 seconds creates 50 sections. The generation unit 521 stores the created section information in the section information DB 533 of the storage unit 530 . FIG. 9 is a diagram showing an example of the data configuration of the section information DB 533. As shown in FIG. The section information DB 533 includes fields for content ID, section number (section ID), start point, and end point. The start point and end point are the elapsed time from the beginning of the content, and are in seconds in the example of FIG. For example, the section "2" of the content ID "C1" indicates that it is from "4" seconds to "8" seconds after the beginning of the content. Note that units smaller than seconds (such as milliseconds) may be used. In this embodiment, to simplify the explanation, each section has the same length, but each section may have a different length. Also, the length of the section may be different for each content. It is desirable to set the length of the section to a time during which similar user reactions are expected to continue. For example, if the content is a piece of music with a tempo of 120, the length of one beat corresponds to 0.5 seconds (500 milliseconds). When a user moves their body while listening to music, it is generally assumed that they move their body in the same pattern for about 4 to 8 beats. It is assumed that the reaction will continue. Of course, the tempo is different for each piece of music, but since users tend to repeat the same motions a certain number of times, there is a high possibility that the body motions will be the same for several seconds. Therefore, the length of one section should be set to about several seconds to ten seconds. The time (interval length) in which the user reaction is expected to continue to some extent is considerably longer than the sampling time (cycle) of the original biometric information. Therefore, one section contains a large number of biological information data (sample data, waveform data). In this embodiment, reaction categories are generated by a method described later based on a large number (that is, plural) of biometric information data included in one section. In the example shown in FIG. 9, the content "C1" has "M1" sections, and the content "C2" has "M2" sections. Generally, the number of sections differs for each content, but the number of sections may be the same for all contents.

ステップS220において、生成部521は、未処理の区間を1つ選択し、処理対象の区間とする。通常は、区間番号の小さい順に1つずつ処理対象の区間を選択すればよい。 In step S220, the generation unit 521 selects one unprocessed section as a section to be processed. Normally, the sections to be processed may be selected one by one in ascending order of section numbers.

ステップS230において、生成部521は、処理対象の区間の生体情報データをもとに、その区間のカテゴリ(反応カテゴリ)を生成する。具体的には、以下のいずれかの方法で反応カテゴリを作成する。 In step S230, the generation unit 521 generates a category (reaction category) of the section based on the biometric information data of the section to be processed. Specifically, reaction categories are created by one of the following methods.

(A11)ルールベースの方法
第1の方法は、予め設定したルール(規則)に基づいて反応カテゴリを作成する方法である。具体的には、推薦装置5の管理者等がルールを設定し、それを記憶部530のルールデータ535に記憶する。図10に第1の方法におけるルールデータ535の一例を示す。ルールデータ535は、カテゴリID、カテゴリ名称、生体情報の条件の各フィールドで構成されている。この第1の方法におけるルールデータ535を「ルールテーブル」と呼ぶ場合もある。
(A11) Rule-Based Method The first method is a method of creating reaction categories based on preset rules. Specifically, an administrator or the like of the recommendation device 5 sets rules and stores them in the rule data 535 of the storage unit 530 . FIG. 10 shows an example of rule data 535 in the first method. The rule data 535 is composed of fields of category ID, category name, and biological information condition. The rule data 535 in this first method may be called a "rule table".

図10において、カテゴリID「0」から「11」までの12種類の反応カテゴリが定義されている。本図の例に示す反応カテゴリは、「横ノリ」、「縦ノリ」、「回転ノリ」という3種類の大きなカテゴリ(大カテゴリ、最上位のカテゴリ)で構成されている。これらは、ユーザの体の動きの方向性が異なる反応であり、いわゆる「音楽に対するノリのタイプ」である。また、「横ノリ」、「縦ノリ」、「回転ノリ」それぞれについて、反応の強さに応じて、「弱」、「中」、「強」の3つのカテゴリが定義されている。例えば、「横ノリ」を大カテゴリあるいは大分類と呼ぶ場合、それに対応するカテゴリID「1」から「3」の反応カテゴリを中カテゴリ、中分類、サブカテゴリなどと呼ぶ場合もある。ここで「横ノリ」とは、体の横方向の動き(図3のx軸方向)が最も大きい反応である。ユーザがポップス、ロック、ジャズなどのジャンルの音楽を鑑賞したときに比較的よく表われる反応である。「縦ノリ」とは、体の縦方向(図3のz軸方向)または前後方向(図3のy軸方向)の動きが大きい反応である。体の横方向の動き(図3のx軸方向)が最も小さい反応であるともいえる。ユーザがパンクロック、ヘビーメタル、ハードコアなどのジャンルの音楽を鑑賞したときに比較的よく表われる反応である。「回転ノリ」とは、図3のxy平面において円弧を描くような動きを示す反応である。カテゴリID「0」の「無反応」は、体の動きが非常に小さい状態である。カテゴリID「10」の「ノリ強」は、方向性は特定できないが、体が激しく動いている反応を示すカテゴリである。カテゴリID「11」の「その他」は、上記のカテゴリのいずれにも該当しない反応を示すカテゴリである。 In FIG. 10, 12 types of response categories with category IDs "0" to "11" are defined. The reaction categories shown in the example of this figure are composed of three large categories (large category, top category) of "horizontal glue", "vertical glue", and "rotary glue". These are reactions that differ in the directionality of the user's body movement, and are so-called "types of grooves to music." Further, three categories of "weak," "medium," and "strong" are defined for each of "horizontal lamination," "vertical lamination," and "rotational lamination," depending on the strength of the reaction. For example, when "horizontal glue" is called a major category or major category, the corresponding reaction categories with category IDs "1" to "3" may be called medium categories, medium categories, subcategories, and the like. Here, the "horizontal glue" is a response that causes the largest lateral movement of the body (the x-axis direction in FIG. 3). This is a reaction that appears relatively often when users listen to music in genres such as pops, rock, and jazz. "Vertical glue" is a response that involves a large amount of body movement in the vertical direction (the z-axis direction in FIG. 3) or the front-back direction (the y-axis direction in FIG. 3). It can be said that the lateral movement of the body (the x-axis direction in FIG. 3) is the smallest response. This reaction is relatively common when users listen to music in genres such as punk rock, heavy metal, and hardcore. "Rotating glue" is a reaction indicating a movement that draws an arc in the xy plane of FIG. "No reaction" of category ID "0" is a state in which body movement is very small. The category ID “10” of “strong paste” is a category indicating a reaction of the body moving violently, although the direction cannot be specified. "Others" of category ID "11" is a category indicating reactions that do not fall under any of the above categories.

尚、図10において、Axはx軸方向の変位の振幅であり、Ayはy軸方向の変位の振幅であり、Azはz軸方向の変位の振幅である。また、θ1~θ3は、所定のしきい値であり、θ1<θ2<θ3を満たす。また、Fyはy軸方向の振動の周波数であり、Fzはz軸方向の振動の周波数である。また、γは所定のしきい値である。また、φxはx軸方向の振動の位相であり、φyはy軸方向の振動の位相である。また「∩」はAND条件を示す。 In FIG. 10, Ax is the amplitude of displacement in the x-axis direction, Ay is the amplitude of displacement in the y-axis direction, and Az is the amplitude of displacement in the z-axis direction. θ1 to θ3 are predetermined threshold values and satisfy θ1<θ2<θ3. Fy is the frequency of vibration in the y-axis direction, and Fz is the frequency of vibration in the z-axis direction. Also, γ is a predetermined threshold. φx is the phase of vibration in the x-axis direction, and φy is the phase of vibration in the y-axis direction. Also, "∩" indicates an AND condition.

例えば、カテゴリID「0」の条件「Ax<θ1 ∩ Ay<θ1 ∩ Az<θ1」は、「Axがθ1未満、かつAyがθ1未満、かつAzがθ1未満」であることを示す。また、カテゴリID「1」の条件「θ1≦Ax<θ2 ∩ Ax>Ay ∩ Ay>Az」は、「Axがθ1以上かつθ2未満、かつAxがAyより大きく、AyがAzより大きい」ことを示す。つまり、「横ノリ」と判定するルールとして、Ax、Ay、Azの大小関係を用いている。 For example, the condition “Ax<θ1∩Ay<θ1∩Az<θ1” for the category ID “0” indicates that “Ax is less than θ1, Ay is less than θ1, and Az is less than θ1”. In addition, the condition “θ1≦Ax<θ2 ∩ Ax>Ay ∩ Ay>Az” for the category ID “1” indicates that “Ax is greater than or equal to θ1 and less than θ2, and Ax is greater than Ay and Ay is greater than Az”. show. That is, as a rule for judging "horizontal glue", the magnitude relation among Ax, Ay, and Az is used.

また例えば、カテゴリID「4」の条件「θ1≦(Ay、Az)<θ2 ∩ Ax<Ay ∩ Ax<Az ∩(Fy、Fz)>γ」は、「AyおよびAzがθ1以上かつθ2未満、かつAxがAyより小さく、かつAxがAzより小さく、かつFyおよびFzがγより大きい」ことを示す。つまり、「縦ノリ」と判定するルールとして、Ax、Ay、Azの大小関係の他に、y軸方向およびz軸方向の振動の周波数がしきい値よりも高いことを用いている。 Further, for example, the condition “θ1≦(Ay, Az)<θ2∩Ax<Ay∩Ax<Az∩(Fy,Fz)>γ” for the category ID “4” is “Ay and Az are greater than or equal to θ1 and less than θ2, and Ax is less than Ay, Ax is less than Az, and Fy and Fz are greater than γ'. In other words, as a rule for judging "longitudinal glue", in addition to the magnitude relationship of Ax, Ay, and Az, the frequency of vibration in the y-axis direction and z-axis direction is higher than a threshold value.

また例えば、カテゴリID「7」の条件「θ1≦(Ax、Ay)<θ2 ∩ Ay>Az ∩ |φx-φy|≒π/2」は、「AxおよびAyがθ1以上かつθ2未満、かつAzがAyより小さく、かつx軸方向の振動の位相とy軸方向の振動の位相との差(絶対値)がπ/2(90度)に近い」ことを示す。例えば、位相差がπ/2(90度)を中心に所定の範囲(例えば、70度から110度の範囲)にあればよい。つまり、「回転ノリ」と判定するルールとして、Ax、Ay、Azの大小関係の他に、x軸方向の振動の位相とy軸方向の振動の位相との差を用いている。 Further, for example, the condition ``θ1≦(Ax, Ay)<θ2 ∩ Ay>Az ∩ |φx-φy| is smaller than Ay, and the difference (absolute value) between the phase of vibration in the x-axis direction and the phase of vibration in the y-axis direction is close to π/2 (90 degrees). For example, the phase difference may be within a predetermined range (for example, a range of 70 degrees to 110 degrees) around π/2 (90 degrees). That is, as a rule for judging "rotation glide", the difference between the phase of vibration in the x-axis direction and the phase of vibration in the y-axis direction is used in addition to the magnitude relationship of Ax, Ay, and Az.

生成部521は、生体情報DB531と区間情報DB533を参照しながら、処理対象の区間内の(x出力、y出力、z出力)、すなわち複数(複数種類)の生体情報から、Ax、Ay、Az、Fy、Fz、φx、φyなどの特徴量を算出する。例えば、生成部521は、処理対象の区間においてx出力の最大値もしくは代表値(平均値、中央値など)を算出し、Axとする。また、生成部521は、フーリエ解析等の手法を用いて、y出力の周波数成分を抽出し、その中の基本周波数(最も強い周波数、または最も低いピーク周波数)をFyとする。また、生成部521は、x出力とy出力をそれぞれ正弦波で近似した場合の位相差を(φx-φy)とする。そして、生成部521は、算出した特徴量と、図10に示すルールデータ535の条件部とを上から順に照合し、合致する行のカテゴリIDを処理対象区間の反応カテゴリとする。なお、カテゴリIDの数(反応カテゴリの種類)は、図10に示す12個に限らず任意の数にしてよいが、数個~数十個程度にすることが望ましい。この程度の種類の反応カテゴリであれば、ユーザは比較的容易に覚える(記憶する)ことができる。このため、後述するように、ユーザがコンテンツ条件やユーザ条件を指定する際に、反応カテゴリを示す文字列(記号)を容易に指定(入力)することができる。また、数個~数十個程度の反応カテゴリがあれば、コンテンツに対するユーザの多様な反応をカテゴリデータに十分反映させて、ユーザ間の類所度を精度よく算出することができる。このように本実施例では、コンテンツ条件やユーザ条件を指定する際のユーザの操作性と、ユーザ間の類似度の精度とを両立できるように、適度な数(適度な種類)の反応カテゴリを用いている。 While referring to the biometric information DB 531 and the section information DB 533, the generation unit 521 generates Ax, Ay, Az , Fy, Fz, φx, and φy are calculated. For example, the generation unit 521 calculates the maximum value or representative value (average value, median value, etc.) of the x output in the section to be processed, and sets it as Ax. The generation unit 521 also extracts the frequency components of the y output using a method such as Fourier analysis, and sets the fundamental frequency (the strongest frequency or the lowest peak frequency) among them to Fy. The generation unit 521 also sets the phase difference (φx−φy) when the x output and the y output are each approximated by a sine wave. Then, the generating unit 521 collates the calculated feature quantity with the condition part of the rule data 535 shown in FIG. Note that the number of category IDs (types of reaction categories) is not limited to 12 shown in FIG. A user can memorize (memorize) these types of response categories relatively easily. Therefore, as will be described later, the user can easily specify (input) a character string (symbol) indicating a reaction category when specifying a content condition or a user condition. Also, if there are several to several tens of reaction categories, it is possible to sufficiently reflect various reactions of users to content in the category data, and to accurately calculate the degree of similarity between users. As described above, in this embodiment, a moderate number (moderate type) of reaction categories are set so as to achieve both user operability when designating content conditions and user conditions and accuracy of similarity between users. I am using

また図10に示す例では、(x出力、y出力、z出力)といった3種類の生体情報に関する条件をルールデータ535に定義しているが、ルールデータ535で用いる生体情報の種類の数は任意であり、3種類よりも多くてもよいし、少なくてもよい。例えば、ルールデータ535に用いる生体情報をx出力のみ(1種類のみ)とし、x出力の振幅Axとx出力の基本周波数Fxに関する条件を用いて、反応カテゴリを生成することも可能である。この場合、「横ノリ」や「縦ノリ」といったユーザの体の動きの方向性を区別する反応カテゴリを生成することはできないが、「ノリ弱」、「ノリ中」、「ノリ強」といった反応の強さに応じた分類は可能である。また、「小刻みなノリ」、「ゆったりしたノリ」などユーザの体の動きの周期(周波数)を区別する反応カテゴリを生成することも可能である。生体情報の条件に用いる周波数としては、基本周波数に限らず、その他の比較的優勢な周波数成分(高調波の成分など)の情報を用いてもよい。また、同一区間で一定の動きパターンが持続している場合には「一定で持続的なノリ」とし、同一区間に様々な動きパターンが混在している場合には「変化の激しいノリ」とするなど、体の動きの持続性や規則性や間欠性や多様性などを区別する反応カテゴリを生成することも可能である。また、同一区間に限らず、近傍の区間(時間的に隣接する区間等)との比較を行って、体の動きの持続性を判定し、それに応じて反応カテゴリを生成してもよい。このように、1種類の生体情報からカテゴリデータを生成してもよい。 Also, in the example shown in FIG. 10, the rule data 535 defines conditions related to three types of biometric information such as (x output, y output, and z output), but the number of types of biometric information used in the rule data 535 is arbitrary. and may be more or less than three types. For example, it is possible to use only x output (only one type) as the biometric information used in the rule data 535, and generate a reaction category using conditions relating to the amplitude Ax of the x output and the fundamental frequency Fx of the x output. In this case, it is not possible to generate reaction categories such as "horizontal glue" and "vertical glue" that distinguish the directionality of the user's body movement. It is possible to classify according to the strength of It is also possible to generate reaction categories that distinguish the period (frequency) of the user's body movement, such as "quick glide" and "slow glide". The frequency used for the condition of the biological information is not limited to the fundamental frequency, and information on other relatively dominant frequency components (harmonic components, etc.) may be used. In addition, when a certain movement pattern continues in the same section, it is regarded as "constant and sustained glue", and when various movement patterns are mixed in the same section, it is regarded as "rapid change". It is also possible to generate reaction categories that distinguish the continuity, regularity, intermittence, diversity, etc. of body movements. In addition, not only the same section but also neighboring sections (temporally adjacent sections, etc.) may be compared to determine the persistence of the body movement, and reaction categories may be generated accordingly. In this way, category data may be generated from one type of biometric information.

(A12)機械学習を用いる方法
第2の方法は、機械学習を用いる方法である。第2の方法を用いる場合、カテゴリ判定を行う前に学習用の生体情報データ(学習用データ)を記憶部530に記憶しておき、事前に(ステップS110を実行する前の任意のタイミングで)、処理部520は、公知の機械学習の手法を用いて反応カテゴリを判定するパラメータ(分類器)を生成(学習)する。機械学習の手法としては、ニューラルネットワーク、深層学習、決定木、サポートベクターマシン、ベイズ分類器など種々の手法を用いることができる。例えば、区間長を4秒とし、30ミリ秒ごとに(x出力、y出力、z出力)を収集する場合、1つの区間に約133(4000÷30)個のサンプルデータ(波形データ)が含まれる。そして、1つのサンプルデータは3種類のデータを含むため、サンプルデータを直接分類器に入力する場合、分類器の入力(入力ベクトル)は、4000÷30×3=400次元となる。また、分類器の出力(出力ベクトル)は、図10のルールデータ535に示す反応カテゴリの数と同じ「12」になる。つまり、生成したい反応カテゴリの数だけ分類器の出力を用意し、入力データがその反応カテゴリに該当する確率を出力するように分類器を学習(トレーニング)すればよい。例えば、各反応カテゴリについて1万個ずつ、12種類の反応カテゴリで合計12万個のデータを学習用に用意し、各々のデータについて、正解の反応カテゴリ(教師データ)を付与した上で、分類器を学習する。分類器の学習が終了した後、処理部520は、学習済みの分類器(学習済みモデル(不図示))をルールデータ535に記憶する。具体的には、分類器のパラメータ(例えば、ニューラルネットワークのネットワーク構成や重み係数)などをルールデータ535に記憶する。そして、ステップS230において、生成部521は、ルールデータ535から学習済みの分類器を読み出して、処理対象の区間の生体情報をその分類器に入力する。そして、生成部521は、各反応カテゴリに対応する分類器の出力のうち、出力値が最も大きい反応カテゴリを処理対象区間の反応カテゴリと判定すればよい。あるいは、「その他(カテゴリID「11」)」を除く11個の反応カテゴリに対応する分類器の出力を用意して学習し、ステップS230において、11個の出力のうちの最大値が所定値未満である場合に、「その他」の反応カテゴリと判定してもよい。
(A12) Method using machine learning The second method is a method using machine learning. When using the second method, learning biological information data (learning data) is stored in the storage unit 530 before category determination is performed, and in advance (at an arbitrary timing before step S110 is executed) , the processing unit 520 generates (learns) parameters (classifiers) for determining reaction categories using a known machine learning technique. Various techniques such as neural networks, deep learning, decision trees, support vector machines, and Bayesian classifiers can be used as machine learning techniques. For example, if the section length is 4 seconds and (x output, y output, z output) are collected every 30 milliseconds, one section contains about 133 (4000/30) sample data (waveform data). be Since one piece of sample data includes three kinds of data, when the sample data is directly input to the classifier, the input (input vector) of the classifier has 4000/30×3=400 dimensions. Also, the output (output vector) of the classifier is "12", which is the same as the number of reaction categories shown in the rule data 535 of FIG. In other words, it suffices to prepare the outputs of classifiers for the number of response categories to be generated, and to learn (train) the classifier so as to output the probability that the input data corresponds to the response category. For example, a total of 120,000 pieces of data for 12 kinds of reaction categories, 10,000 pieces for each reaction category, are prepared for learning, and each data is given a correct reaction category (teaching data), and then classified. Learn instruments. After completing the learning of the classifier, the processing unit 520 stores the learned classifier (learned model (not shown)) in the rule data 535 . Specifically, classifier parameters (for example, the network configuration and weighting coefficients of the neural network) are stored in the rule data 535 . Then, in step S230, the generation unit 521 reads the learned classifier from the rule data 535 and inputs the biometric information of the section to be processed to the classifier. Then, the generation unit 521 may determine the reaction category with the largest output value among the outputs of the classifiers corresponding to each reaction category as the reaction category of the section to be processed. Alternatively, classifier outputs corresponding to 11 reaction categories excluding "others (category ID "11")" are prepared and learned, and in step S230, the maximum value among the 11 outputs is less than a predetermined value. , the reaction category may be determined as "other".

次にステップS240において、生成部521は、コンテンツの全区間の処理が終了したか否かを判定する。全区間の処理が終了した場合(S240:Yes)、ステップS250に進む。全区間の処理が終了していない場合(S240:No)、ステップS220に戻って処理を繰り返す。 Next, in step S240, the generation unit 521 determines whether or not the processing of all sections of the content has been completed. If the processing for all sections has been completed (S240: Yes), the process proceeds to step S250. If the processing of all sections has not been completed (S240: No), the process returns to step S220 and repeats the processing.

ステップS250において、生成部521は、区間番号と生成した反応カテゴリ(カテゴリID)とを対応させてユーザ反応DB532に格納する。例えば、あるコンテンツの区間数が「50」である場合、S240までの処理により、50個の反応カテゴリが生成され、区間順(時間順)に並んでいる(時系列に並んでいる)ため、(A1)第1のカテゴリデータ生成方法で生成されたデータは、カテゴリ時系列データとも呼ばれる。 In step S<b>250 , the generation unit 521 associates the section number with the generated reaction category (category ID) and stores them in the user reaction DB 532 . For example, if the number of sections of a certain content is "50", 50 reaction categories are generated by the processing up to S240 and arranged in the order of sections (time order) (arranged in chronological order). (A1) The data generated by the first category data generation method is also called category time-series data.

ユーザ反応DB532のデータ構成の一例を図11に示す。ユーザID、コンテンツID、再生開始日時、区間番号、反応カテゴリを関連付けて格納する。ユーザID、コンテンツID、再生開始日時については、図6の生体情報DB531と同様である。ユーザ反応DB532においても、生体情報DB531と同様に、ユーザID、コンテンツID及び再生開始日時の3つのフィールドの組み合せがテーブルの主キーとなる。上述したように、区間番号は、1つのコンテンツを複数の区間(時間軸上の区間)に分割した際の各区間を識別する番号である。区間番号が小さいほど、そのコンテンツの先頭からの経過時間が短い区間であることを示す。反応カテゴリとは、上述のカテゴリIDである。つまり、生体情報をもとに、コンテンツ再生時のユーザの反応を所定のカテゴリ(種類)のいずれかに対応させた情報である。図11の例に示すように、あるユーザ(User1)があるコンテンツ(C1)を2回再生している場合、2つのデータが記録される。同一ユーザであっても、コンテンツを再生するごとにユーザの反応は異なることが多いため、一般的には再生回ごとにカテゴリデータはある程度異なったものになる。 An example of the data configuration of the user reaction DB 532 is shown in FIG. The user ID, content ID, playback start date/time, section number, and reaction category are associated and stored. The user ID, content ID, and reproduction start date and time are the same as in the biometric information DB 531 of FIG. In the user reaction DB 532, similarly to the biometric information DB 531, a combination of the three fields of the user ID, the content ID, and the reproduction start date and time serves as the primary key of the table. As described above, the section number is a number that identifies each section when one content is divided into a plurality of sections (sections on the time axis). The smaller the section number, the shorter the elapsed time from the beginning of the content. A reaction category is the category ID described above. That is, based on the biometric information, the user's reaction during content reproduction is associated with one of predetermined categories (types). As shown in the example of FIG. 11, when a certain user (User1) reproduces a certain content (C1) twice, two pieces of data are recorded. Even for the same user, the reaction of the user often differs each time the content is reproduced, so generally the category data will differ to some extent each time the content is reproduced.

ここで、(A1)第1のカテゴリデータ生成方法では、1つのコンテンツについて複数の区間が作成され、区間ごとにカテゴリデータが生成される。このため、ユーザの感性や嗜好を精度よくデータに落とし込む(表現する)ことができる。例えば、ユーザの反応がコンテンツの途中で大きく変化するような場合においても、その情報をデータに忠実に反映させることができる。 Here, (A1) In the first category data generation method, a plurality of sections are created for one content, and category data is generated for each section. Therefore, it is possible to accurately incorporate (express) the user's sensibility and taste into the data. For example, even if the user's reaction changes significantly in the middle of the content, that information can be faithfully reflected in the data.

(A2:第2のカテゴリデータ生成方法)
第2のカテゴリデータ生成方法では、1つのコンテンツについて1つの区間(代表区間)が作成され、その1つの区間についてカテゴリデータが生成される。第2の方法の処理を図12のフローチャートに示す。
(A2: Second category data generation method)
In the second category data generation method, one section (representative section) is created for one content, and category data is generated for that one section. The processing of the second method is shown in the flow chart of FIG.

ステップS400において、生成部521は、1つのコンテンツについて1つの代表区間を以下のいずれかの方法で作成する。
(A21)コンテンツ全体を代表区間とする方法
第1の代表区間作成方法は、コンテンツ全体を代表区間とする方法である。つまり、3分間の長さのコンテンツであれば、代表区間の長さは3分間になる。この方法は、コンテンツ全体に渡って、ほぼ一定のユーザの反応が持続すると想定される場合に適する。
(A22)ユーザの反応が最も顕著な区間を代表区間とする方法
第2の代表区間作成方法は、コンテンツにおいてユーザの反応が最も顕著な(強い)部分を特定し、それを代表区間とする方法である。この場合、生成部521は、コンテンツの区間ごとに、同一区間内の複数の生体情報を総合した指標を算出し、当該指標に基づきコンテンツにおける複数の区間の中から代表区間を選出し、当該代表区間における生体情報に基づきカテゴリデータを生成する。具体的には、生成部521は、まず代表区間の長さを設定する。例えば、コンテンツ再生中にユーザの体の動きが持続されると想定される時間を代表区間の長さとすればよい。例えば、平均的な楽曲のテンポを120と想定し、ユーザは8拍~16拍程度の期間はほぼ同一パターンの反応を示すと想定すると、代表区間の長さを4秒~8秒間程度に設定すればよい。以下では、代表区間の長さ(代表区間長)を8秒間にした例を説明する。
In step S400, the generation unit 521 creates one representative section for one content by one of the following methods.
(A21) Method of using the entire content as a representative section The first representative section creation method is a method of using the entire content as a representative section. In other words, if the content is 3 minutes long, the length of the representative section will be 3 minutes. This method is suitable when it is assumed that a substantially constant user response will persist throughout the content.
(A22) A method of setting a section where the user's reaction is most prominent as a representative section A second representative section creation method is a method of identifying a portion of the content where the user's reaction is most prominent (strong) and using it as a representative section. is. In this case, the generation unit 521 calculates, for each section of the content, an index that integrates a plurality of pieces of biometric information within the same section, selects a representative section from the plurality of sections in the content based on the index, and selects the representative section. Category data is generated based on the biometric information in the section. Specifically, the generation unit 521 first sets the length of the representative section. For example, the length of the representative section may be the length of time during which the user's body movement is assumed to continue during content reproduction. For example, assuming that the average tempo of a song is 120, and assuming that the user reacts in almost the same pattern during a period of about 8 to 16 beats, the length of the representative section is set to about 4 to 8 seconds. do it. An example in which the length of the representative section (representative section length) is eight seconds will be described below.

次に生成部521は、代表区間長をもつ区間でコンテンツを分割し、区間ごとにユーザの反応の大きさを示す指標Rを算出する。区間分割の方法としては、コンテンツの先頭から0秒~8秒を区間1、8秒~16秒を区間2、16秒~24秒を区間3とすればよい。あるいは、区間同士をオーバーラップさせて、0秒~8秒を区間1、4秒~12秒を区間2、8秒~16秒を区間3としてもよい。指標Rは、3軸方向の振幅Ax、Ay、Azをもとに、数式(1)または数式(2)に従って算出する。Ax、Ay、Azは、その区間の振幅の最大値であってもよいし、振幅の平均値であってもよい。数式(2)におけるmax関数は、引数のうちの最大値を返す関数である。

R=Ax+Ay+Az ・・・数式(1)

R=max(Ax,Ay,Az) ・・・数式(2)
Next, the generating unit 521 divides the content into sections having representative section lengths, and calculates an index R indicating the magnitude of the user's reaction for each section. As a method of dividing the content into sections, it is sufficient to set 0 to 8 seconds from the beginning of the content as section 1, 8 to 16 seconds as section 2, and 16 to 24 seconds as section 3. Alternatively, the intervals may be overlapped so that 0 to 8 seconds is interval 1, 4 to 12 seconds is interval 2, and 8 to 16 seconds is interval 3. The index R is calculated according to Equation (1) or Equation (2) based on amplitudes Ax, Ay, and Az in the three axial directions. Ax, Ay, and Az may be the maximum value of the amplitude in that section or the average value of the amplitude. The max function in Equation (2) is a function that returns the maximum value of its arguments.

R=Ax+Ay+Az Formula (1)

R=max(Ax, Ay, Az) Formula (2)

そして生成部521は、指標Rが最も大きい区間を代表区間として選出する。あるユーザがあるコンテンツを複数回再生した場合、再生回ごとに代表区間が変わる可能性がある。また、同じコンテンツに対して、ユーザごとに代表区間が異なる可能性もある。(A22)第2の代表区間作成方法は、ユーザがコンテンツの一部分に対して短時間反応するような場合に適している。一般的にユーザはコンテンツ全体に対して反応するとは限らず、むしろその一部分に対して反応することの方が多い(自然である)。第2の代表区間作成方法は、このようなユーザの自然な反応をカテゴリデータに精度よく反映できる。またこの方法は、ユーザがコンテンツのどの区間(位置)で反応したかを重視せずに、短時間であってもどのような反応をしたかを重視する考え方に基づく方法である。 The generation unit 521 then selects the section with the largest index R as the representative section. When a certain user reproduces certain content multiple times, the representative section may change for each reproduction. Also, for the same content, the representative section may be different for each user. (A22) The second representative segment creation method is suitable for cases where the user reacts to a portion of the content for a short period of time. In general, users do not always react to the entire content, but rather to a portion of the content (naturally). The second representative segment creation method can accurately reflect such a user's natural reactions in the category data. In addition, this method is based on the concept of emphasizing how the user reacts, even if it is for a short time, without emphasizing in which section (position) of the content the user reacts.

ステップS410において、生成部521は、ステップS230と同様な方法で、代表区間の反応カテゴリを生成する。具体的には、ステップS400で(A21)第1の代表区間作成方法を用いた場合には、(A11)ルールベースの方法を用いるとよい。この場合、代表区間(コンテンツ全体)における最大振幅または平均振幅を各軸ごとに算出し、それらを(Ax、Ay、Az)とし、図10に示したルールと比較すればよい。また、代表区間における最も優勢な周波数成分を(Fx、Fy、Fz)とすればよい。また、その周波数成分の正弦波で生体情報を近似した場合の各軸同士の位相差を算出して用いればよい。あるいは、ステップS400で(A21)第1の代表区間作成方法を用いた場合に、(Ax、Ay、Az)、(Fx、Fy、Fz)などの(x出力、y出力、z出力)を集約した値を用いて分類器を学習すれば、(A12)機械学習を用いる方法を適用することもできる。ステップS400で(A22)第2の代表区間作成方法を用いた場合には、(A11)ルールベースの方法と(A12)機械学習を用いる方法のどちらを用いてもよい。 In step S410, the generation unit 521 generates a reaction category for the representative section in the same manner as in step S230. Specifically, when (A21) the first representative section creation method is used in step S400, (A11) the rule-based method may be used. In this case, the maximum amplitude or average amplitude in the representative section (whole content) is calculated for each axis, and these are set as (Ax, Ay, Az) and compared with the rule shown in FIG. Also, the most dominant frequency component in the representative section should be (Fx, Fy, Fz). Also, the phase difference between the axes when the biological information is approximated by the sine wave of the frequency component may be calculated and used. Alternatively, in step S400 (A21) when using the first representative interval creation method, aggregate (x output, y output, z output) such as (Ax, Ay, Az), (Fx, Fy, Fz) If a classifier is trained using the obtained values, (A12) a method using machine learning can also be applied. If (A22) the second representative interval creation method is used in step S400, either (A11) the rule-based method or (A12) the method using machine learning may be used.

ステップS420において、生成部521は、ステップS410で生成した反応カテゴリをユーザ反応DB532に格納する。ユーザ反応DB532は図11と同様な形式で格納されるが、この場合、全てのコンテンツの区間数は「1」となる。(A2)第2のカテゴリデータ生成方法では、コンテンツの区間数が必ず「1」になるため、処理量が少なくて済み、記憶容量を節約することができる。以上が第2のカテゴリデータ生成方法の説明である。 In step S<b>420 , the generation unit 521 stores the reaction category generated in step S<b>410 in the user reaction DB 532 . The user reaction DB 532 is stored in the same format as in FIG. 11, but in this case, the number of sections of all content is "1". (A2) In the second category data generation method, since the number of sections of content is always "1", the amount of processing can be reduced and the storage capacity can be saved. The above is the description of the second category data generation method.

図7のフローチャートの説明に戻る。ステップS120において、生成部521は、ユーザ反応DB532、つまりカテゴリデータをもとに、ユーザごとにユーザ反応ベクトルを作成する。ユーザ反応ベクトルの一例を図13に示す。ユーザ反応DB532に格納された全コンテンツ数をNとすると、ユーザ反応ベクトルには、コンテンツ1~Nのデータが順に並べられる。各コンテンツのデータはさらに各区間に対する反応カテゴリで構成される。 Returning to the description of the flowchart in FIG. In step S120, the generator 521 creates a user reaction vector for each user based on the user reaction DB 532, that is, category data. An example of a user reaction vector is shown in FIG. Assuming that the total number of contents stored in the user reaction DB 532 is N, data of contents 1 to N are arranged in order in the user reaction vector. The data of each content is further composed of reaction categories for each section.

図13では、(A1)第1の方法でカテゴリデータが生成された例(カテゴリ時系列データ)を示している。コンテンツ1は「M1」個の区間で構成されており、区間1~M1における反応カテゴリが記録される。ただし、ユーザが再生していない区間、あるいは反応データを取得できなかった区間については、「無効」を示す「-1」あるいは「NULL」などの値を記録する。(A1)第1の方法で生成した場合、一般的にはコンテンツごとに区間の数は異なっており、例えば、コンテンツ2の区間数は「M2」、コンテンツ3の区間数は「M3」となっている。(A2)第2の方法で生成した場合、区間数は全て「1」になるため、「M1=1」、「M2=1」、「M3=1」となる。 FIG. 13 shows an example (category time-series data) in which category data is generated by the (A1) first method. Content 1 is composed of “M1” sections, and reaction categories in sections 1 to M1 are recorded. However, a value such as "-1" or "NULL" indicating "invalid" is recorded for a section in which the user has not reproduced or a section in which reaction data could not be obtained. (A1) When generated by the first method, the number of sections is generally different for each content. For example, the number of sections for content 2 is "M2" and the number of sections for content 3 is "M3". ing. (A2) When generated by the second method, the number of sections is all "1", so "M1=1", "M2=1", and "M3=1".

コンテンツ1~Nの各々の区間数の合計をQとする。上記の例では、Q=M1+M2+M3…+MNである。ユーザ反応ベクトルは、Q次元のベクトルになる。つまり、あるユーザのユーザ反応ベクトルは、V[j](j=1~Q)と表現される。生成部521は、ユーザ反応DB532に格納された各ユーザについて、このようなユーザ反応ベクトルを作成する。以下では、ユーザ反応DB532に格納されたユーザの数をPとする。生成部521は、P人分のユーザ反応ベクトルを作成するため、これらをまとめてユーザ反応行列A[i][j](i=1~P、j=1~Q)とも呼ぶ。 Let Q be the total number of sections for each of the contents 1 to N. In the above example, Q=M1+M2+M3...+MN. The user reaction vector becomes a Q-dimensional vector. That is, a user's reaction vector is expressed as V[j] (j=1 to Q). The generator 521 creates such a user reaction vector for each user stored in the user reaction DB 532 . Let P be the number of users stored in the user reaction DB 532 below. Since the generation unit 521 generates user reaction vectors for P persons, they are collectively referred to as a user reaction matrix A[i][j] (i=1 to P, j=1 to Q).

上述したように、あるユーザが同じコンテンツを複数回再生した場合、再生した回数の分だけ複数のカテゴリデータが生成される。このような場合、以下のいずれかの方法でユーザ反応ベクトルを作成する。 As described above, when a certain user reproduces the same content multiple times, a plurality of category data are generated for the number of times the content has been reproduced. In such a case, create a user reaction vector by one of the following methods.

(B1)ユーザが最も強く反応したときのデータを用いる方法
第1の方法は、ユーザが最も強く反応したときのデータを1つ選出し、それをユーザ反応ベクトルにする方法である。(A2)第2のカテゴリデータ生成方法を用いた場合(区間が1つである場合)には、数式(1)または数式(2)による指標Rが最も大きいデータを採用してもよい。また、1回目の再生で「横ノリ強」、2回目の再生「縦ノリ強」、3回目の再生で「回転ノリ強」、4回目の再生「ノリ強」で示したような場合、つまりタイプの異なる反応カテゴリが混在している場合、タイプの異なる反応カテゴリに対して、所定のルールで優先順位をつけ、優先順位の最も高い反応カテゴリをユーザ反応ベクトルに採用すればよい。例えば、図10に示すルールデータ535において、反応の程度について「強>中>弱」という順位付けを行う。ここで「>」は、記号の左側の反応カテゴリの順位が右側の反応カテゴリの順位よりも高いことを示す。例えば、「横ノリ強」は「横ノリ中」や「縦ノリ中」よりも優先順位が高い。また、反応の程度が同じ反応カテゴリについては、「ノリ強>回転ノリ>縦ノリ>横ノリ」といった順位付けを行う。この結果、図10に示す12種類の反応カテゴリのカテゴリIDと、データが存在しないことを示す「NULL」とを合せて、「10>9>6>3>8>5>2>7>4>1>11>0>NULL」という優先順位付けがなされる。つまり、複数の再生回のデータから、優先順位が最も高い反応カテゴリを示した再生時のデータをユーザ反応ベクトルに採用する。(A1)第1のカテゴリデータ生成方法を用いた場合(複数の区間がある場合)、優先順位の高い反応カテゴリをより多く含むデータをユーザ反応ベクトルに採用する。例えば、上記の優先順位が高いほど大きな値(ポイント)を設定し、コンテンツの各区間の反応カテゴリに相当するポイントを合計し、ポイントの合計値が最も大きいデータをユーザ反応ベクトルに採用すればよい。
(B1) Method of Using Data When the User Reacts Most Strongly The first method is a method of selecting one piece of data when the user reacts the strongest and making it a user reaction vector. (A2) When the second category data generation method is used (the number of sections is one), data with the largest index R according to formula (1) or formula (2) may be adopted. Also, in the case shown by "strong horizontal glue" in the first playback, "strong vertical glue" in the second playback, "strong rotary glue" in the third playback, and "strong glue" in the fourth playback, that is, When reaction categories of different types are mixed, the reaction categories of different types are prioritized according to a predetermined rule, and the reaction category with the highest priority is adopted as the user reaction vector. For example, in the rule data 535 shown in FIG. 10, the degree of reaction is ranked as "strong>medium>weak". Here, ">" indicates that the rank of the reaction category on the left side of the symbol is higher than the rank of the reaction category on the right side. For example, "horizontal glue strong" has a higher priority than "horizontal glue medium" and "vertical glue medium". Further, reaction categories having the same degree of reaction are ranked according to "strong glue>rotation glue>vertical glue>horizontal glue". As a result, the category IDs of the 12 types of reaction categories shown in FIG. >1>11>0>NULL”. In other words, from the data of a plurality of times of reproduction, the data at the time of reproduction indicating the reaction category with the highest priority is adopted as the user reaction vector. (A1) When the first category data generation method is used (when there are multiple sections), data containing more reaction categories with higher priority is adopted as the user reaction vector. For example, the higher the priority above, the higher the value (point) is set, the points corresponding to the reaction category of each section of the content are totaled, and the data with the highest total point value can be adopted as the user reaction vector. .

(B2)区間ごとにデータを選ぶ方法
第2の方法は、複数の再生回のデータから区間ごとにデータを選ぶ方法である。(A1)第1のカテゴリデータ生成方法を用いた場合、例えば、「ユーザA」が「コンテンツA」を1回目に再生した際に区間1において「無反応:0」を示し、2回目に再生した際に区間1において「横ノリ弱:1」を示した場合、上記の反応カテゴリの優先順位を参照し、より優先順位の高い「横ノリ弱:1」をユーザ反応ベクトルにおける区間1の反応カテゴリとする。区間2以降についても同様な処理を行う。つまり、各区間について、ユーザの複数回の反応カテゴリの中から、最も優先順位の高い反応カテゴリを選出し、そのカテゴリをユーザ反応ベクトルに採用する。(A2)第2のカテゴリデータ生成方法を用いた場合は、(B1)ユーザが最も強く反応したときのデータを用いる方法と同じ結果になる。
(B2) Method of Selecting Data for Each Section The second method is a method of selecting data for each section from data of a plurality of reproduction times. (A1) When the first category data generation method is used, for example, when "user A" reproduces "content A" for the first time, "no response: 0" is indicated in section 1, and the second reproduction is performed. If "weak horizontal glue: 1" is indicated in section 1 when the user reaction vector is "weak horizontal glue: 1", refer to the above-mentioned priority of the reaction category, and "weak horizontal glue: 1" with higher priority is displayed as the reaction of section 1 in the user reaction vector Category. The same processing is performed for section 2 and subsequent sections. That is, for each section, the reaction category with the highest priority is selected from among the user's multiple reaction categories, and that category is adopted as the user reaction vector. (A2) When the second category data generation method is used, the same result as the method of (B1) using the data when the user reacts most strongly is obtained.

図7の説明に戻る。ステップS130において、算出部522は、ユーザ反応ベクトルをもとに、ユーザ間の類似度(ユーザ同士の類似性を示す類似度)を算出する。例えば、数式(3)または数式(4)に従って、任意の2人のユーザ(u、v)の類似度S[u][v](u=1~P,v=1~P,u≠v)を算出する。

Figure 0007268547000001

Figure 0007268547000002

ここでFは、2つのカテゴリ(反応カテゴリ)間の類似度を算出する所定の関数である。関数Fは、2つの反応カテゴリを引数(入力)とし、その2つの反応カテゴリの類似度を出力する関数である。例えば、少なくとも一方の入力(引数)が無効を示す「-1」である場合は「0」を返す。また、2つの入力が共に有効である場合、あらかじめ定義された反応カテゴリ間の類似度を返す。数式(4)のKは、2つのユーザ反応ベクトルの両方が有効な区間の数である。つまり、2人のユーザが共通に視聴し、反応カテゴリが生成された区間の数である。 Returning to the description of FIG. In step S130, the calculation unit 522 calculates the degree of similarity between users (the degree of similarity indicating similarity between users) based on the user reaction vector. For example, according to Equation (3) or Equation (4), the similarity S[u][v] (u=1 to P, v=1 to P, u≠v of any two users (u, v) ) is calculated.

Figure 0007268547000001

Figure 0007268547000002

Here, F is a predetermined function that calculates the degree of similarity between two categories (response categories). Function F is a function that takes two reaction categories as arguments (inputs) and outputs the degree of similarity between the two reaction categories. For example, if at least one input (argument) is "-1" indicating invalidity, "0" is returned. It also returns the similarity between predefined response categories if both inputs are valid. K in Equation (4) is the number of intervals in which both of the two user reaction vectors are valid. In other words, it is the number of sections in which two users viewed and viewed in common and reaction categories were generated.

関数Fの一例を図14に示す。関数Fは、反応カテゴリ同士の関連性を示すため、関数Fを「カテゴリ関連データ」あるいは「カテゴリ関連性データ」と呼ぶ場合もある。記憶部530のカテゴリ関連データ534は、図14に示すようなテーブル形式で、関数Fの特性、すなわちカテゴリ同士の関連性の情報(定義)を記憶する。ここでは、2つの反応カテゴリ間の関連性(類似性)が高いほど、類似度の数値が大きくなっている。例えば、あるコンテンツのある区間において、2人のユーザが同じ反応カテゴリの反応を示した場合、その区間における類似度は「1」となっている。また、「横ノリ」、「縦ノリ」、「回転ノリ」といった大分類(タイプ)が同じであり、同一タイプ内で、反応の強さが異なる場合には、比較的類似度が高くなる。また、2人のユーザが大きく異なる反応を示した場合、類似度は小さな値となり、マイナスの値になる場合もある。また、タイプが異なり、かつ反応の強さが異なる場合には、類似度は大きなマイナス値となる。例えば、同じコンテンツを視聴して、あるユーザが「横ノリ弱」で反応し、別のユーザが「縦ノリ強」で反応した場合、この2人のユーザの感性やセンスは大きく異なるといえる。このため、「横ノリ弱」と「縦ノリ強」との類似度は、非常に似ていないことを示す「-0.9」となっている。このように、単にユーザがノリ(反応)を示したかではなく、どのような種類のノリをどの程度の強さで示したかを詳細に分類しているため、ユーザ間の類似度を精度よく算出することができる。なお、図14に示す例では、「無反応」同士および「その他」同士の類似度を「1」としているが、これらの類似度を「0.5」などの値にしてもよい。つまり、通常よりも低い値にしてもよい。その理由は、「無反応」および「その他」の反応カテゴリは、それ以外の反応カテゴリに比べて、ユーザの反応に関する情報量が少ない(あいまい性が大きい)ためである。つまり、2人のユーザが同じ「無反応」や「その他」の反応カテゴリを示していても、その2人のユーザの類似性は必ずしも高いとはいえないためである。 An example of the function F is shown in FIG. Since the function F indicates the relationship between reaction categories, the function F is sometimes called "category related data" or "category related data". The category-related data 534 of the storage unit 530 stores the characteristics of the function F, that is, the information (definition) of the relationship between categories in a table format as shown in FIG. Here, the higher the relevance (similarity) between the two reaction categories, the higher the numerical value of the similarity. For example, if two users show reactions in the same reaction category in a certain section of certain content, the degree of similarity in that section is "1". Further, when the major classification (type) such as "horizontal lamination", "vertical lamination", and "rotational lamination" is the same, and the strength of reaction differs within the same type, the degree of similarity is relatively high. Also, if two users show significantly different reactions, the similarity will be a small value, and may even be a negative value. Also, if the types are different and the strength of the reaction is different, the degree of similarity will be a large negative value. For example, when viewing the same content, if one user reacts with "weak horizontal movement" and another user reacts with "strong vertical movement," it can be said that the sensibilities and senses of these two users are significantly different. Therefore, the degree of similarity between "weak horizontal glue" and "strong vertical glue" is "-0.9", which indicates that they are not very similar. In this way, the similarity between users can be accurately calculated by classifying in detail not only the type of glue (reaction) that the user showed, but also the type of glue and the strength of the reaction. can do. In the example shown in FIG. 14, the similarity between "no reaction" and between "others" is set to "1", but these similarities may be set to values such as "0.5". That is, the value may be lower than usual. The reason for this is that the "no reaction" and "other" reaction categories contain less information (higher ambiguity) regarding the user's reaction than the other reaction categories. In other words, even if two users indicate the same response category of "no reaction" or "others", the similarity between the two users is not necessarily high.

また、関数Fの特性を個々のユーザが自由に設定できるようにしてもよい。例えば、推薦装置5から端末装置11に対して標準的な関数Fの情報を送信する。そして端末装置11の表示部150に関数Fの特性、つまり図14に示す表を表示する。なお、表形式に限らず3次元グラフ等を用いて表示してもよい。端末装置11のユーザu1は操作部160を操作して、関数Fの特性を適宜修正し、端末装置11の記憶部140に記憶する。端末装置11は適当なタイミングで記憶部140から、ユーザu1が指定した関数Fの情報を読み出し、ユーザIDと対応付けて推薦装置5に対して送信する。推薦装置5は、ユーザIDと関数Fとを対応付けて記憶部530のカテゴリ関連データ534に記憶する。すなわち、推薦装置5は、カテゴリ関連データ534を更新する。そしてターゲットユーザに対する推薦情報を作成する際に、ターゲットユーザが指定した関数Fを用いて、ユーザ間の類似度(ターゲットユーザと他のユーザとの間の類似度)を算出する。このような処理を行うと、ユーザ(ターゲットユーザ)の感性や好みをより正確に反映してユーザ間類似度を算出できるため、推薦情報の精度をより高くすることができる。 Also, the characteristics of the function F may be freely set by individual users. For example, information on the standard function F is transmitted from the recommendation device 5 to the terminal device 11 . Then, the characteristics of the function F, that is, the table shown in FIG. Note that the display is not limited to the tabular form, and may be displayed using a three-dimensional graph or the like. The user u1 of the terminal device 11 operates the operation unit 160 to modify the characteristics of the function F as appropriate, and stores them in the storage unit 140 of the terminal device 11. FIG. The terminal device 11 reads the information of the function F specified by the user u1 from the storage unit 140 at an appropriate timing, associates it with the user ID, and transmits it to the recommendation device 5 . The recommendation device 5 stores the user ID and the function F in the category related data 534 of the storage unit 530 in association with each other. That is, the recommendation device 5 updates the category-related data 534 . Then, when creating recommendation information for the target user, a function F specified by the target user is used to calculate the degree of similarity between users (the degree of similarity between the target user and other users). When such processing is performed, the user-to-user similarity can be calculated by more accurately reflecting the user's (target user's) sensibility and taste, so that the accuracy of the recommendation information can be increased.

ユーザによって指定された関数Fの一例を図15に示す。図14に示す標準的な関数Fと比べて、図15の領域ssの部分が異なっている。このユーザは、「回転ノリ」に強いこだわりを持っており、「回転ノリ」同士の類似度を標準よりも高く(大きな値に)設定している。例えば、「自分が回転ノリで反応することが多く、回転ノリを示す他のユーザとは相性が非常に良い」と考えてこのような設定を行っている。このため、このユーザと他のユーザがある区間で回転ノリを示した場合、その区間の類似度は非常に高くなる。図15に示すように、反応カテゴリ同士の類似度を「1」より大きな値に設定してもよい。
上述したように本実施例では、端末装置11の表示部150がカテゴリ関連データ(関数F)の情報を表示し、ターゲットユーザがそれを閲覧することができる。このため、ターゲットユーザは、推薦装置5が類似ユーザを決定した理由や、推薦情報を作成した理由をより容易に理解することができる。従って、ターゲットユーザが推薦情報に納得し、それを受容する可能性を高めることができる。また、ターゲットユーザはカテゴリ関連データを自分の好みにカスタマイズすることができる。推薦装置5は、カスタマイズされたカテゴリ関連データに基づいて推薦情報を作成するため、ターゲットユーザが推薦情報を受容する可能性をさらに高めることができる。つまり、ターゲットユーザが推薦情報に納得し、それに従って、推薦コンテンツを再生したり、購入する可能性を向上させることができる。
An example of the function F specified by the user is shown in FIG. 15 differs from the standard function F shown in FIG. This user has a strong preference for "rotation glue", and sets the degree of similarity between "rotation glues" higher than the standard (to a large value). For example, he makes such a setting because he thinks that ``I often react with a spinning glide, and is very compatible with other users who show a spinning glide.'' For this reason, when this user and another user show a turning knot in a certain section, the similarity of that section becomes very high. As shown in FIG. 15, the degree of similarity between reaction categories may be set to a value greater than "1".
As described above, in this embodiment, the display unit 150 of the terminal device 11 displays the information of the category-related data (function F), and the target user can browse it. Therefore, the target user can more easily understand why the recommendation device 5 has determined the similar users and why the recommendation information has been created. Therefore, it is possible to increase the possibility that the target user will be satisfied with the recommendation information and accept it. Also, the target user can customize the category-related data to their liking. Since the recommendation device 5 creates recommendation information based on the customized category-related data, it is possible to further increase the possibility that the target user will accept the recommendation information. In other words, it is possible to increase the likelihood that the target user will be satisfied with the recommendation information and will reproduce or purchase the recommended content accordingly.

図7の説明に戻る。ステップS140において、作成部523は、推薦情報を提供するユーザ(ターゲットユーザu1)に対して、所定の条件を満たすユーザを選出(特定)する。本実施例1では、所定の条件を満たすユーザとして、類似度Sの高いユーザを選出(特定)する。ここで選出した類似度が相対的に高いユーザを「類似ユーザ」と呼び、類似ユーザの集合を類似ユーザ集合あるいは類似グループと呼ぶ。具体的には、作成部523は、S[u1][v](v=1~P、v≠u1)が所定のしきい値α以上のユーザvを選択し、ターゲットユーザu1に対する類似ユーザとする。あるいは、S[u1][v]の高い順に所定数(例えば、100人)のユーザを選出し、類似ユーザにしてもよい。なお、最も類似度の高い1人のユーザを類似ユーザとして選択してもよい。つまり、類似ユーザは1人であっても複数人であってもよい。類似ユーザは、ターゲットユーザと共通するコンテンツを多く視聴し、かつ、同じコンテンツの同じ区間において、近しい反応(ノリ)を示す傾向の高いユーザであるといえる。従って、類似ユーザは、ターゲットユーザと感性や嗜好が近いユーザである可能性が高い。 Returning to the description of FIG. In step S140, the creating unit 523 selects (identifies) a user who satisfies a predetermined condition from among the users (target user u1) to whom the recommendation information is provided. In the first embodiment, a user with a high degree of similarity S is selected (specified) as a user who satisfies a predetermined condition. A user having a relatively high degree of similarity selected here is called a "similar user", and a group of similar users is called a similar user group or a similar group. Specifically, the creating unit 523 selects a user v whose S[u1][v] (v=1 to P, v≠u1) is equal to or greater than a predetermined threshold value α, and selects a user v similar to the target user u1. do. Alternatively, a predetermined number (for example, 100) of users may be selected in descending order of S[u1][v] and used as similar users. In addition, you may select one user with the highest degree of similarity as a similar user. In other words, there may be one or more similar users. A similar user can be said to be a user who watches a lot of content that is common to the target user and who tends to show a similar response to the same section of the same content. Therefore, the similar users are highly likely to be users whose sensibilities and tastes are similar to those of the target user.

ステップS150において、作成部523は、類似ユーザをもとに推薦情報を作成する。主な推薦情報は、推薦するコンテンツに関する情報である。具体的にはまず、作成部523は、推薦候補コンテンツを抽出する。例えば、作成部523は、類似ユーザが既に視聴したコンテンツの中から、ターゲットユーザがまだ視聴していないコンテンツを推薦候補コンテンツとして抽出する。例えば、類似ユーザが100人いる場合、その100人のうちの少なくとも1人のユーザが視聴し、かつターゲットユーザが視聴していないコンテンツが抽出される。基本的には、推薦候補コンテンツは、ターゲットユーザが未視聴のコンテンツに限定するが、必ずしも限定しなくてもよい。つまり、ターゲットユーザが視聴したコンテンツを推薦候補コンテンツに含めてもよい。また、ターゲットユーザの視聴回数が所定回数以下のコンテンツを推薦候補コンテンツに含めてもよい。また、推薦候補コンテンツをターゲットユーザがその存在を知らないと推測できるコンテンツのみに限定してもよい。また、ユーザがコンテンツに対して「好き」、「嫌い」等の評価を行うシステム(サービス)では、類似ユーザが高く評価(「非常に好き」、「好き」などの評価)したコンテンツを推薦候補コンテンツとして抽出してもよい。次に、作成部523は、推薦候補コンテンツから推薦コンテンツを選出する。ターゲットユーザがコンテンツ条件として何を指定したかに応じて、以下のいずれかの処理を行う。 In step S150, the creation unit 523 creates recommendation information based on similar users. The main recommendation information is information related to recommended content. Specifically, first, the creation unit 523 extracts recommendation candidate content. For example, the creation unit 523 extracts content that the target user has not yet viewed from among the content that the similar user has already viewed as the recommended candidate content. For example, if there are 100 similar users, content viewed by at least one of the 100 users and not viewed by the target user is extracted. Basically, recommended candidate content is limited to content that has not been viewed by the target user, but it is not necessarily limited. That is, the content viewed by the target user may be included in the recommended content. In addition, content that has been viewed by the target user a predetermined number of times or less may be included in the recommendation candidate content. In addition, the recommended candidate content may be limited to only content whose existence the target user is not aware of. In a system (service) in which a user evaluates content by “like” or “dislike”, etc., content highly rated by similar users (e.g. “very like” or “like”) is recommended. It may be extracted as content. Next, the creation unit 523 selects recommended content from the recommended content. One of the following processes is performed according to what the target user specified as the content condition.

(C1)ターゲットユーザがコンテンツ条件として何も指定していない場合は、推薦候補コンテンツを推薦コンテンツとする。また、推薦候補コンテンツの数が所定数より多い場合、さらに、その中から類似ユーザがより強く反応したコンテンツを選択する。例えば、類似ユーザのユーザ反応ベクトルにおいて、コンテンツごとに所定の反応カテゴリに該当する区間の数をカウントし、カウント数の多い順にコンテンツを所定数だけ選択する。例えば、図10に示す反応カテゴリのうち、所定の反応カテゴリとして、「横ノリ強」、「縦ノリ強」、「回転ノリ強」、「ノリ強」などの「強い反応」に対応する反応カテゴリを用いる。ここで選択したコンテンツが推薦コンテンツとなる。ターゲットユーザと感性や嗜好が近いユーザが強く反応したコンテンツは、ターゲットユーザも強く反応する可能性が高いといえる。つまり、ターゲットユーザが気に入る可能性が高いコンテンツであるといえる。 (C1) If the target user does not specify anything as a content condition, the recommended content is set as the recommended content. Further, when the number of recommended candidate contents is larger than a predetermined number, the contents to which the similar users reacted more strongly are selected from among them. For example, in the user reaction vector of similar users, the number of sections corresponding to a predetermined reaction category is counted for each content, and a predetermined number of contents are selected in descending order of the count. For example, of the reaction categories shown in FIG. 10, reaction categories corresponding to "strong reactions" such as "strong horizontal glue", "strong vertical glue", "strong rotary glue", "strong glue", etc. Use The content selected here becomes the recommended content. It can be said that there is a high possibility that the target user will also strongly respond to content that has been strongly responded to by a user whose sensibility and preferences are similar to those of the target user. In other words, it can be said that the content is highly likely to be liked by the target user.

また、作成部523は、推薦候補コンテンツの数が所定数より多い場合、さらに、その中からターゲットユーザが過去に示した反応カテゴリに合致するコンテンツを推薦コンテンツとして選択してもよい。具体的には、作成部523は、まずターゲットユーザのユーザ反応ベクトルを対象にして、反応カテゴリごとに区関数あるいはコンテンツ数を集計する。そして、作成部523は、集計した数の多い順に所定数(例えば3つ)の反応カテゴリを特定する。つまり、作成部523は、ターゲットユーザが過去に比較的多く示した反応カテゴリを特定する。次に、作成部523は、ユーザ反応DB532またはユーザ反応行列を参照し、推薦候補コンテンツの中から、特定した反応カテゴリに合致する区間を有するコンテンツを推薦コンテンツとして選択する。なおここで、ユーザ反応DB532に格納されたユーザIDが類似ユーザに一致するデータを対象に処理を行ってもよいし、類似ユーザに限定せずにターゲット以外の全ユーザのデータを対象に処理を行ってもよい。条件に合うコンテンツが多い場合には、作成部523は、特定した反応カテゴリに合致する区間の数が多い順に所定数のコンテンツを選択する。 Further, when the number of recommended candidate contents is larger than a predetermined number, the creation unit 523 may further select, as recommended contents, contents that match the reaction category indicated by the target user in the past. Specifically, the creating unit 523 first aggregates the division function or the number of contents for each reaction category with respect to the user reaction vector of the target user. Then, the creation unit 523 identifies a predetermined number (for example, three) of reaction categories in descending order of the aggregated number. That is, the creating unit 523 identifies reaction categories that the target user has indicated relatively often in the past. Next, the creating unit 523 refers to the user reaction DB 532 or the user reaction matrix, and selects, as recommended content, content having a section that matches the identified reaction category from among the recommended candidate content. Here, the processing may be performed on the data whose user ID matches the similar user stored in the user reaction DB 532, or the processing may be performed on the data of all users other than the target without limiting to similar users. you can go When there are many pieces of content that match the conditions, the creation unit 523 selects a predetermined number of pieces of content in descending order of the number of sections that match the specified reaction category.

(C2)ターゲットユーザがコンテンツ条件として、反応カテゴリに関する条件を指定した場合、推薦候補コンテンツの中から、コンテンツ条件に合致するコンテンツを選択(選出)し、推薦コンテンツとする。ターゲットユーザは、コンテンツ条件として、例えば反応カテゴリに関する条件を指定する。
作成部523は、ユーザ反応DB532またはユーザ反応行列を参照し、推薦候補コンテンツを対象にして、指定された反応カテゴリ(指定カテゴリ)に合致する区間の数を算出する。そして、合致する区間の数が多い順に所定数のコンテンツを選出し、推薦コンテンツとする。例えば、ターゲットユーザが「縦ノリ強」または「縦ノリ中」の反応が多いコンテンツを推薦コンテンツとして所望した場合、コンテンツ条件として「縦ノリ強 OR 縦ノリ中」といった条件を指定する。作成部523は、推薦候補コンテンツのカテゴリデータを対象にして、各コンテンツごとに「縦ノリ強」または「縦ノリ中」である区間の数を算出する。そして、算出した区間数が多い順に、所定数(例えば、30個)のコンテンツを選択する。
(C2) When the target user specifies a reaction category condition as the content condition, the content that matches the content condition is selected (selected) from among the recommended candidate contents, and made the recommended content. A target user specifies, for example, a reaction category condition as a content condition.
The creation unit 523 refers to the user reaction DB 532 or the user reaction matrix, and calculates the number of sections that match the designated reaction category (designated category) for the recommended candidate content. Then, a predetermined number of pieces of content are selected in descending order of the number of matching sections, and are used as recommended content. For example, when the target user desires content with many reactions of "strong vertical glue" or "medium vertical glue" as recommended content, he/she designates a condition such as "strong vertical glue OR medium glue" as the content condition. The creation unit 523 targets the category data of the recommendation candidate contents and calculates the number of sections with "strong vertical glue" or "medium vertical glue" for each content. Then, a predetermined number (for example, 30) of contents are selected in descending order of the calculated number of sections.

作成部523は、ターゲットユーザのユーザIDと、推薦コンテンツのコンテンツIDとを関連付けて記憶部530に記憶する。このデータは、別のタイミングでユーザが推薦情報をリクエストした場合に、推薦情報の作成が必要か否かを判定するために使われる。なお、推薦情報を作成した日時を記憶してもよい。そして、推薦リクエストを受信した日時と、推薦情報を作成した日時との時間差が所定値以上である場合に、推薦情報を再作成(更新)してもよい。 The creating unit 523 associates the user ID of the target user with the content ID of the recommended content and stores them in the storage unit 530 . This data is used to determine whether or not it is necessary to create recommended information when the user requests recommended information at another timing. Note that the date and time when the recommendation information is created may be stored. Then, when the time difference between the date and time when the recommendation request is received and the date and time when the recommendation information is created is equal to or greater than a predetermined value, the recommendation information may be recreated (updated).

また、作成部523は、選択された推薦コンテンツに加えて以下の情報を推薦情報に含めて作成してもよい。そのために、作成部523は、推薦コンテンツを選択する際に、ユーザが強く反応した箇所(区間)を特定し、その情報(区間番号など)を記憶部530に記憶する。ここで対象とするユーザは、類似ユーザに限定しても、類似ユーザ以外のユーザを含めてもよい(例えば全ユーザにしてもよい)。例えば、推薦コンテンツの全ての区間の中から、類似ユーザもしくは全ユーザの反応が多い順に所定数(例えば1つ)の区間を特定し、その区間番号を記憶部530に記憶する。あるいは、所定の反応カテゴリ(例えば、「横ノリ強」と「横ノリ中」と「回転ノリ強」と「回転ノリ中」)に限定し、所定の反応カテゴリを示したユーザ数や反応数が多い順に所定数の区間を特定してもよい。この特定した区間は、端末装置においてコンテンツをダイジェスト再生するために使用される。なお、ターゲットユーザの反応カテゴリに応じて、特定する区間を変えてもよい。例えば、ターゲットユーザが他のユーザに比べて相対的に「横ノリ強」の反応を示す頻度が高い場合、推薦コンテンツにおいて、ユーザの「横ノリ強」の反応が多い順に区間を特定してもよい。ここで特定した区間を「推薦区間」と呼ぶ場合もある。つまり、作成部523は、ユーザ反応DB532またはユーザ反応行列を参照し、コンテンツの各区間それぞれについて、所定の反応カテゴリを示したユーザの数または反応数を算出し、その数に応じて推薦区間を特定し、推薦区間を含めた推薦情報を作成してもよい。さらに、この推薦区間を用いて、端末装置11の表示部150に推薦コンテンツを推薦区間から再生させるための再生指示の受付欄(GUI部品などの操作手段)を表示させる推薦情報を作成してもよい。 In addition, the creating unit 523 may include the following information in the recommendation information in addition to the selected recommended content. Therefore, when selecting recommended content, the creating unit 523 identifies a location (segment) to which the user strongly reacted, and stores the information (segment number, etc.) in the storage unit 530 . The target users here may be limited to similar users, or may include users other than similar users (for example, all users may be included). For example, from all the sections of the recommended content, a predetermined number (for example, one) of sections are specified in descending order of reaction from similar users or all users, and the section numbers are stored in the storage unit 530 . Alternatively, it is possible to limit the reaction categories to predetermined reaction categories (for example, "strong horizontal glue", "medium horizontal glue", "strong horizontal glue", and "medium rotary glue"), and determine the number of users showing the predetermined reaction category or the number of reactions. A predetermined number of sections may be identified in descending order. This specified section is used for digest reproduction of the content in the terminal device. Note that the segment to be specified may be changed according to the reaction category of the target user. For example, if the target user has a relatively high frequency of showing a reaction of "strong horizontal glue" compared to other users, it is possible to specify sections in the recommended content in descending order of the user's reaction of "strong horizontal glue". good. The section identified here may be called a "recommended section". That is, the creation unit 523 refers to the user reaction DB 532 or the user reaction matrix, calculates the number of users who indicated a predetermined reaction category or the number of reactions for each section of the content, and selects a recommended section according to the number. It is also possible to specify and create recommendation information including recommended sections. Furthermore, by using this recommended section, recommendation information may be created for displaying a reception column (operating means such as a GUI component) for receiving a reproduction instruction for reproducing the recommended content from the recommended section on the display unit 150 of the terminal device 11. good.

また、作成部523は、ユーザ反応DB532またはユーザ反応行列を参照し、推薦コンテンツごとに、所定の反応カテゴリの反応を示したユーザの数を算出する。例えば、コンテンツAに対して、類似ユーザもしくは全ユーザを対象にして、「横ノリ強」、「縦ノリ強」、「回転ノリ強」、「ノリ強」のいずれかを示したユーザの数を算出する。つまり、コンテンツAに対して、強いノリの反応を示したユーザの数を算出する。あるいは、ターゲットユーザが「横ノリ弱」の反応を示す頻度が高い場合、コンテンツAに対して、「横ノリ弱」の反応を示したユーザの数を算出してもよい。つまり、ターゲットユーザが比較的高い頻度で示す反応カテゴリと同じ反応を示したユーザの数を算出してもよい。 In addition, the creation unit 523 refers to the user reaction DB 532 or the user reaction matrix, and calculates the number of users who have responded in a predetermined reaction category for each recommended content. For example, with respect to content A, the number of users who indicate any of "strong horizontal glue", "strong vertical glue", "strong rotary glue", and "strong glue" among similar users or all users is calculated. calculate. That is, the number of users who showed a strong reaction to the content A is calculated. Alternatively, if the frequency of the target users showing a reaction of "weak horizontal movement" is high, the number of users who showed a reaction of "weak horizontal movement" to the content A may be calculated. In other words, the number of users who have responded in the same way as the target user's reaction category with relatively high frequency may be calculated.

また作成部523は、推薦コンテンツごとに、主な反応カテゴリを算出(集計)する。例えば、コンテンツAについて、反応カテゴリごとに反応数やユーザ数を集計し、集計数が多い順に所定数(例えば上位3個)の反応カテゴリを選択し、主な反応カテゴリ(主要反応カテゴリ)とする。主要反応カテゴリとは、推薦コンテンツに対してより多くのユーザによって反応が示された反応カテゴリといえる。また、反応数やユーザ数が所定数以上の反応カテゴリを対象として、集計数が多い順に所定数の反応カテゴリを選択し、主要反応カテゴリとしてもよい。この場合、反応数やユーザ数が少ないコンテンツでは、主要反応カテゴリが「該当なし」となる場合もある。また、上述の所定の反応カテゴリを示したユーザ数として、主要反応カテゴリを示したユーザの数を算出してもよい。例えば、主要反応カテゴリが「横ノリ弱」である場合、「横ノリ弱」を示したユーザの数を算出する。 The creation unit 523 also calculates (aggregates) a main reaction category for each recommended content. For example, for content A, the number of responses and the number of users are counted for each response category, and a predetermined number (for example, the top three) of response categories are selected in descending order of the number of totals, and set as the main response category (main response category). . The main response category can be said to be a response category in which more users have responded to the recommended content. Further, a predetermined number of reaction categories may be selected in descending order of the number of totals from response categories with a predetermined number of responses or a predetermined number or more of users, and may be used as main response categories. In this case, the main response category may be "not applicable" for content with a small number of responses or a small number of users. Further, the number of users who indicated the main reaction category may be calculated as the number of users who indicated the predetermined reaction category. For example, when the main reaction category is "weak horizontal glue", the number of users showing "weak horizontal glue" is calculated.

このように、作成部523は、推薦コンテンツ情報と、推薦区間の情報と、所定の反応カテゴリを示したユーザ数の情報と、主要反応カテゴリの情報とを推薦情報として作成する。ただし、推薦コンテンツ情報以外の情報の作成を省略してもよい。 In this way, the creating unit 523 creates recommended content information, recommended section information, information on the number of users who indicated a predetermined reaction category, and information on a main reaction category as recommendation information. However, the creation of information other than the recommended content information may be omitted.

ステップS160において、処理部520は、通信部510を制御して、ステップS150で作成した推薦情報をターゲットユーザu1の使用する端末装置11に送信(出力)する。例えば、処理部520は、推薦情報に含まれる推薦コンテンツ情報としてコンテンツの名称、アーティスト名、ジャンル、制作年、視聴のリンク先、などの情報(コンテンツのメタデータ)を端末装置に送信する。この際に、推薦装置5は、コンテンツIDをキーにしてコンテンツ配信サーバ4からメタデータを取得し、それを端末装置11に送信してもよい。あるいは、メタデータを推薦装置5の記憶部530に記憶しておいてもよい。また、推薦装置5がコンテンツ配信サーバ4に対して、推薦コンテンツのコンテンツIDとターゲットの端末装置11を利用するユーザu1のユーザIDを通知し、それを受信したコンテンツ配信サーバ4が、ターゲットの端末装置11に対して、推薦コンテンツのメタデータを送信してもよい。 In step S160, the processing unit 520 controls the communication unit 510 to transmit (output) the recommendation information created in step S150 to the terminal device 11 used by the target user u1. For example, the processing unit 520 transmits information (content metadata) such as the content name, artist name, genre, production year, viewing link destination, etc., as recommended content information included in the recommendation information to the terminal device. At this time, the recommendation device 5 may acquire metadata from the content distribution server 4 using the content ID as a key and transmit it to the terminal device 11 . Alternatively, metadata may be stored in the storage unit 530 of the recommendation device 5 . In addition, the recommendation device 5 notifies the content distribution server 4 of the content ID of the recommended content and the user ID of the user u1 who uses the target terminal device 11, and the content distribution server 4 that has received this notifies the content distribution server 4 of the target terminal device. Metadata of the recommended content may be transmitted to the device 11 .

また、処理部520は、ステップS150で特定した推薦コンテンツの推薦区間に関する情報、所定の反応カテゴリを示したユーザ数に関する情報、および主要反応カテゴリに関する情報などを端末装置11に送信する。推薦装置5は、ステップS160を実行した後、推薦情報作成処理を終了する。 In addition, the processing unit 520 transmits to the terminal device 11 information about the recommended section of the recommended content identified in step S150, information about the number of users who indicated a predetermined reaction category, information about the main reaction category, and the like. After executing step S160, the recommendation device 5 ends the recommendation information creation process.

端末装置11は、推薦装置5から推薦情報を受信すると、それを表示部150に表示する。図16に推薦情報を表示する画面61の一例を示す。この画面61は、ターゲットユーザu1が(C1)コンテンツ条件を指定しない場合の推薦情報の表示例である。図16に示すように、ターゲットユーザu1(表示例では「ユーザA」)に対して、推薦コンテンツのコンテンツ名、アーティスト名、ジャンル、制作年等の推薦コンテンツ情報611が表示される。さらに、上述した所定の反応カテゴリを示したユーザの数612、および主要反応カテゴリ613が表示される。ターゲットユーザu1はこのような情報を見て、推薦コンテンツの性質(特徴)を推定することができる。ターゲットユーザu1は、ジャンルや制作年などの情報から、コンテンツの性質をある程度は推定することができるが、これらは大まかな情報であり、コンテンツの詳細な性質を推定することが難しい。例えば、コンテンツが楽曲である場合、楽曲のジャンルが「ロック」であるという情報が得られても、「ロック」というジャンルは、かなり多様な音楽性の楽曲を含むため、ユーザがその楽曲の性質を予想することは難しい。また、ジャンルなどの情報は、コンテンツの提供者(事業者)が付与するものであり、既にコンテンツに付与されている情報が再利用されることも多く、コンテンツの実態を表していない場合も多い。一方、所定の反応カテゴリを示したユーザ数612の情報と、主要反応カテゴリ613の情報は、コンテンツを実際に視聴したユーザ(消費者)のリアルな反応をコンパクトにまとめた(集約した)情報であるため、ユーザ視点でのコンテンツの実態をより正確に表しているといえる。このためターゲットユーザu1は、推薦コンテンツの性質をより詳細かつ容易に把握(判定)することができる。 Upon receiving the recommendation information from the recommendation device 5 , the terminal device 11 displays it on the display unit 150 . FIG. 16 shows an example of a screen 61 displaying recommended information. This screen 61 is a display example of recommendation information when the target user u1 does not specify (C1) content conditions. As shown in FIG. 16, recommended content information 611 such as the content name, artist name, genre, production year, etc. of the recommended content is displayed for the target user u1 (“user A” in the display example). In addition, the number of users 612 who indicated the given reaction category described above and the dominant reaction category 613 are displayed. The target user u1 can see such information and estimate the properties (features) of the recommended content. The target user u1 can infer the properties of the content to some extent from information such as the genre and year of production, but this is rough information and it is difficult to estimate the detailed properties of the content. For example, if the content is a song, even if the information that the genre of the song is "rock" is obtained, the "rock" genre includes songs with a wide variety of musical characteristics. is difficult to predict. In addition, information such as genre is given by the provider (operator) of the content, and information already given to the content is often reused, and in many cases it does not represent the actual state of the content. . On the other hand, the information on the number of users 612 indicating a predetermined reaction category and the information on the main reaction category 613 are information compactly summarizing (consolidating) real reactions of users (consumers) who actually viewed the content. Therefore, it can be said that the actual state of the content from the user's point of view is more accurately represented. Therefore, the target user u1 can grasp (determine) the properties of the recommended content in more detail and easily.

図16に示す画面では、さらにコンテンツを再生するための2種類のボタンが表示されている。「先頭から再生」ボタン615は、通常の再生ボタンであり、コンテンツの先頭から再生される。一方、「推薦区間から再生」ボタン614は、上述した推薦区間からコンテンツを再生するためのボタンである。ターゲットユーザu1が「推薦区間から再生」ボタン614を押すと、推薦区間の情報が端末装置11からコンテンツ配信サーバ4に送信され、その区間からコンテンツがストリーミング再生される。ここで、ボタン614は、推薦区間から再生させるための再生指示の受付欄(GUI部品などの操作手段)の一例である。その区間は、そのコンテンツの特徴が良くあらわれている箇所であり、ターゲットユーザu1が気に入る可能性が高い箇所である。このような箇所を再生することにより、ターゲットユーザu1はそのコンテンツの良し悪し、つまりコンテンツが自分の好みに合うか否かを短時間で効率的に判断することができる。 The screen shown in FIG. 16 further displays two types of buttons for reproducing content. A “play from beginning” button 615 is a normal playback button, and the content is played back from the beginning. On the other hand, the “playback from recommended section” button 614 is a button for playing back the content from the above-described recommended section. When the target user u1 presses the "reproduce from recommended section" button 614, the information of the recommended section is transmitted from the terminal device 11 to the content distribution server 4, and the content is streamed and reproduced from that section. Here, the button 614 is an example of a field for receiving a reproduction instruction (operation means such as a GUI component) for reproducing from the recommended section. The section is a section where the feature of the content is well expressed, and is a section that is highly likely to be liked by the target user u1. By reproducing such a part, the target user u1 can efficiently determine in a short time whether the content is good or bad, that is, whether the content suits his taste.

ターゲットユーザu1が、(C2)コンテンツ条件を指定した場合の推薦情報の表示画面62の一例を図17に示す。画面62の上部には、ターゲットユーザu1(図17の表示例では、「ユーザA」)が所望のコンテンツ条件を指定するためのGUI(Graphical User Interface)であるテキストフィールド621と、コンテンツ条件を送信(更新)するためのボタン622が表示されている。図17の例では、ユーザAが「横ノリ強 OR 横ノリ中 OR 回転ノリ中」という反応カテゴリに関するコンテンツ条件を指定し、送信ボタン622を押した後の状態を示している。ターゲットユーザu1がユーザ条件送信ボタン622を押すと、端末装置11から推薦装置5に推薦リクエストが送信され、その応答として、推薦装置5から端末装置11に推薦情報が送信される。この場合、推薦コンテンツは、コンテンツ条件に合致するコンテンツに限定される。図17に示す例では、「横ノリ強」、「横ノリ中」、「回転ノリ中」のうちの少なくとも1つが主要反応カテゴリに含まれるコンテンツに限定されている。画面中の他の要素については、図16で説明したものと同じである。 FIG. 17 shows an example of the recommendation information display screen 62 when the target user u1 specifies (C2) the content condition. At the top of the screen 62, a text field 621, which is a GUI (Graphical User Interface) for the target user u1 ("user A" in the display example of FIG. 17) to specify desired content conditions, and a content condition transmission A button 622 for (update) is displayed. The example of FIG. 17 shows the state after user A designates a content condition related to the reaction category of “strong horizontal glue OR moderate horizontal glue OR spinning” and presses the send button 622 . When the target user u1 presses the user condition transmission button 622, a recommendation request is transmitted from the terminal device 11 to the recommendation device 5, and recommendation information is transmitted from the recommendation device 5 to the terminal device 11 as a response. In this case, the recommended content is limited to content that matches the content condition. In the example shown in FIG. 17, the content is limited to the main reaction categories including at least one of "strong horizontal movement", "moderate horizontal movement", and "during turning movement". Other elements on the screen are the same as those described in FIG.

本実施例によれば、ユーザ同士の生体情報(波形データ)を直接比較して類似ユーザを特定するのではなく、生体情報をもとにカテゴリデータ(反応カテゴリ)を生成し、カテゴリデータとカテゴリ関連データとをもとにユーザ間の類似度を算出するため、類似ユーザを精度よく特定することができる。従来技術においては、例えば、2人のユーザが実質的に同じ反応を示していても、波形データの形状や大きさが多少異なっていると、ユーザ間の類似性が実際よりも低く判定される場合があった。このため、類似ユーザを精度よく特定できない場合があった。つまり、波形データの細かな違いは、コンテンツに対するユーザの感性や嗜好とはほとんど関係ないにも関わらず、従来技術では必要以上に大きな違いとして判定する場合があった。一方、本実施例では、波形データを所定の反応カテゴリのいずれかに対応させるため、2人の波形データの形状や大きさが多少異なっていてもその影響を受け難い。このため、類似ユーザを精度よく特定することができる。このため、推薦情報を精度よく作成することができる。また本実施例によれば、複数種類の生体情報をもとに、多様な反応カテゴリを生成するため、コンテンツに対するユーザの多様な反応を精度よくカテゴリデータに反映することができる。このため、類似ユーザを精度よく特定することができ、推薦情報を精度よく作成することができる。また本実施例によれば、コンテンツを時間軸において複数に分割した区間ごとに反応カテゴリを生成するため、ユーザがコンテンツのどこでどのような反応をしたかを反映させてユーザ間の類似度を精度よく算出できる。このため、類似ユーザを精度よく特定し、推薦情報を精度よく作成することができる。特に、本実施例では区間の長さを、同じようなユーザの反応がある程度持続すると想定され、かつ波形データのサンプリング周期よりも長い時間に設定する。このため、2人のユーザが実質的に同じ反応を示していて、反応のタイミングが多少異なる場合であっても、その影響を受けずにユーザ間の類似度を精度よく算出できる。 According to this embodiment, instead of directly comparing biometric information (waveform data) between users to identify similar users, category data (reaction categories) is generated based on biometric information, and category data and category data are generated. Since the degree of similarity between users is calculated based on related data, similar users can be specified with high accuracy. In the prior art, for example, even if two users show substantially the same reaction, if the shape and size of the waveform data are slightly different, the similarity between the users is judged to be lower than it actually is. there was a case. For this reason, there were cases where similar users could not be specified with high accuracy. In other words, in the conventional technology, there are cases in which fine differences in waveform data are judged to be unnecessarily large differences even though they have little to do with the user's sensibilities and tastes with respect to content. On the other hand, in the present embodiment, since the waveform data corresponds to one of the predetermined reaction categories, even if the shape and size of the waveform data of two people are slightly different, they are less likely to be affected. Therefore, similar users can be specified with high accuracy. Therefore, recommendation information can be created with high accuracy. Moreover, according to the present embodiment, various reaction categories are generated based on multiple types of biometric information, so that the user's various reactions to the content can be accurately reflected in the category data. Therefore, similar users can be specified with high accuracy, and recommendation information can be created with high accuracy. In addition, according to the present embodiment, since a reaction category is generated for each section into which the content is divided along the time axis, the degree of similarity between users can be accurately calculated by reflecting where and how the user reacted to the content. well calculated. Therefore, similar users can be specified with high accuracy, and recommendation information can be created with high accuracy. In particular, in the present embodiment, the length of the section is set to a length of time that is assumed to be similar to the user's reaction and is longer than the sampling period of the waveform data. For this reason, even if two users show substantially the same reaction, but the reaction timing is slightly different, the similarity between the users can be accurately calculated without being affected by the difference.

また本実施例によれば、元の生体情報のデータ量に比べてカテゴリデータのデータ量を少なくすることができるため、ユーザ間の類似度を少ない計算量で効率よく計算することができる。特に、類似度計算の対象となるユーザの数が多い場合には、非常に効率よく計算することができる。そのため、ユーザの感性や嗜好に適合するコンテンツを精度よく、かつ効率的に推薦できる。また本実施例によれば、カテゴリ関連データの情報をユーザに提示することができるため、ユーザは推薦情報や類似ユーザに関する情報が作成された理由を容易に理解できる。これにより、ユーザが推薦情報を受容する可能性を高めることができる。また本実施例によれば、ユーザがカテゴリ関連データを変更(調整)できるため、ユーザは自分の感性や好みをユーザ間の類似度計算に容易に反映することができる。 Further, according to the present embodiment, the amount of data of category data can be reduced compared to the amount of data of original biometric information, so the degree of similarity between users can be efficiently calculated with a small amount of calculation. In particular, when there are a large number of users for whom similarity calculation is to be performed, the calculation can be performed very efficiently. Therefore, it is possible to accurately and efficiently recommend content that matches the user's sensibility and taste. Further, according to the present embodiment, the information of the category-related data can be presented to the user, so that the user can easily understand the reason why the recommended information and the information on similar users are created. This makes it possible to increase the possibility that the user will accept the recommended information. Further, according to this embodiment, since the user can change (adjust) the category-related data, the user can easily reflect his or her sensitivity and taste in the similarity calculation between users.

また本実施例によれば、生体情報をもとに反応カテゴリを生成するため、ユーザは反応カテゴリを用いてコンテンツ条件を容易に指定することができる。例えば、生体情報(波形データ)の特徴をユーザが指定することは難しいが、反応カテゴリはカテゴリ化(類型化)されているため、文字列(記号)を使って、コンテンツに対するユーザの反応を容易に指定することができる。特に、適度な数(適度な種類)の反応カテゴリを生成するため、ユーザはコンテンツ条件を容易に指定することができる。そのため、ユーザは従来不可能であった観点で所望のコンテンツを指定することができる。また本実施例によれば、他のユーザが特徴的な反応を示したコンテンツの区間(推薦区間)を特定し、その区間をユーザに再生させることができるため、ユーザはコンテンツの特徴を短時間で容易に把握することができる。また本実施例によれば、コンテンツに対して所定の反応を示したユーザの人数や多くのユーザによって示された主要な反応カテゴリに関する情報を推薦情報に含めるため、ユーザはコンテンツ提供者により付与された情報(画一的な情報)だけでなく、他のユーザのリアルな反応に基づくコンテンツのリアルな特徴を容易に把握することができる。また本実施例によれば、ユーザは推薦情報を得るために特別な操作をする必要がなく、普通に(自然に)コンテンツを視聴すればよいので、ユーザの負担が少ない。 Moreover, according to this embodiment, since reaction categories are generated based on biometric information, the user can easily designate content conditions using reaction categories. For example, although it is difficult for the user to specify the characteristics of biological information (waveform data), since reaction categories are categorized (typified), character strings (symbols) can be used to facilitate the user's reaction to the content. can be specified. In particular, since a moderate number (moderate type) of response categories are generated, the user can easily specify content conditions. Therefore, the user can designate desired content from a point of view that has been impossible conventionally. Further, according to the present embodiment, since it is possible to specify a section (recommended section) of content in which another user has given a characteristic reaction, and cause the user to reproduce that section, the user can recognize the feature of the content for a short period of time. can be easily grasped. Further, according to the present embodiment, since the recommendation information includes information about the number of users who have given a predetermined reaction to the content and the main reaction categories indicated by many users, users are provided by the content provider. It is possible to easily comprehend the real features of the content based on not only the information (uniform information) but also the real reactions of other users. Moreover, according to the present embodiment, the user does not need to perform a special operation to obtain the recommended information, and can simply view the content normally (naturally), thereby reducing the burden on the user.

<実施例1の変形例1-1>
実施例1では、ターゲットユーザに対応する類似ユーザを特定し、類似ユーザが視聴したコンテンツをもとにターゲットユーザに提供する情報を作成した。実施例1の変形例1-1では、ターゲットユーザに対応する非類似ユーザを特定し、非類似ユーザが視聴したコンテンツをもとにターゲットユーザに提供する情報を作成する。ここで非類似ユーザとは、ターゲットユーザとの類似度が相対的に低いユーザのことである。つまり、本変形例1-1における作成部523は、複数のユーザの中から、ターゲットユーザにおけるユーザ同士の類似性を示す類似度がより低い非類似ユーザをさらに特定する。そして、作成部523は、当該非類似ユーザが多く視聴したコンテンツを非推薦情報としてさらに作成する。その後、作成部523は、推薦情報と非推薦情報とを併せて、ターゲットユーザに対して提示する。以下では実施例1との差異を説明する。
<Modification 1-1 of Embodiment 1>
In Example 1, a similar user corresponding to the target user is identified, and information to be provided to the target user is created based on the content viewed by the similar user. In Modified Example 1-1 of Example 1, a dissimilar user corresponding to the target user is specified, and information to be provided to the target user is created based on the content viewed by the dissimilar user. Here, a dissimilar user is a user whose degree of similarity to the target user is relatively low. In other words, the creation unit 523 in Modification 1-1 further identifies dissimilar users having a lower degree of similarity indicating similarity between users to the target user from among the plurality of users. Then, the creating unit 523 further creates the content that the dissimilar user has viewed many times as non-recommended information. After that, the creating unit 523 presents the recommended information and the non-recommended information together to the target user. Differences from the first embodiment will be described below.

本変形例1-1における推薦装置5の処理は、図7に示す実施例1の処理と一部が異なる。S100~S130までは実施例1と同じである。ステップS140に対応するステップS140A(図示せず)において、作成部523は、所定条件として、「類似度が高い」という条件の他に、「類似度が低い」という条件を用いる。つまり、類似度の高い類似ユーザを選出(特定)する他に、類似度の低い「非類似ユーザ」を選出(特定)する。具体的には、処理部520は、ターゲットユーザu1に対して、類似度S[u1][v](v=1~P、v≠u1)が所定のしきい値β未満のユーザvを選出し非類似ユーザとする。しきい値βは、通常は上述のしきい値αよりも低い値(小さな値)であるが、しきい値αとしきい値βを同じ値にしてもよい。あるいは、S[u1][v]の低い順に所定数(例えば、50人)のユーザを選出し、非類似ユーザにしてもよい。なお、最も類似度の低い1人のユーザを非類似ユーザとして選択してもよい。つまり、非類似ユーザは1人であっても複数人であってもよい。 The processing of the recommendation device 5 in this modified example 1-1 is partially different from the processing of the first embodiment shown in FIG. S100 to S130 are the same as in the first embodiment. In step S140A (not shown) corresponding to step S140, the creation unit 523 uses the condition "similarity is low" as the predetermined condition in addition to the condition "similarity is high". That is, in addition to selecting (identifying) similar users with high similarity, "dissimilar users" with low similarity are selected (identified). Specifically, the processing unit 520 selects a user v whose similarity S[u1][v] (v=1 to P, v≠u1) is less than a predetermined threshold value β with respect to the target user u1. and dissimilar users. The threshold value β is normally a value lower (smaller value) than the threshold value α described above, but the threshold value α and the threshold value β may be the same value. Alternatively, a predetermined number (for example, 50) of users may be selected in descending order of S[u1][v] to be dissimilar users. Note that one user with the lowest degree of similarity may be selected as the dissimilar user. In other words, there may be one or more dissimilar users.

ステップS150に対応するステップS150A(図示せず)において、作成部523は、S150で説明した推薦情報の他に、非類似ユーザに基づいて、ターゲットユーザu1の嗜好に合わないと予想されるコンテンツ(非推薦コンテンツとも呼ぶ)を選択する。例えば、ターゲットユーザu1が視聴しておらず、かつ非類似ユーザが多く視聴したコンテンツを非推薦コンテンツとして選択する。そして、非推薦コンテンツに関する情報も含めてターゲットユーザu1に提供する推薦情報を作成する。 In step S150A (not shown) corresponding to step S150, the creating unit 523 generates content (not shown) that is expected not to suit the taste of the target user u1 based on the dissimilar users, in addition to the recommendation information described in S150. (also called non-recommended content). For example, content that has not been viewed by the target user u1 and has been viewed by many dissimilar users is selected as non-recommended content. Then, recommended information to be provided to the target user u1 is created, including information about the non-recommended content.

ターゲットユーザu1が視聴したコンテンツに対して、あるユーザがターゲットユーザu1とは大きく異なる反応(ノリ)を示した場合に、そのユーザは非類似ユーザとなり易い。例えば、一方のユーザが「無反応」であり、他方のユーザが「縦ノリ強」の場合、この2人のユーザの感性や嗜好は大きく異なるといえるが、このような場合、図14の関数Fの特性例に示すように、当該区間の2人の類似度は小さな値(マイナスの値)になる。つまり、非類似ユーザは、ターゲットユーザの感性や嗜好と大きく異なるユーザである可能性が高いため、非類似ユーザが視聴したコンテンツは、ターゲットユーザが好まない可能性が高い。 If a certain user reacts (sounds) to the content viewed by the target user u1 very differently from that of the target user u1, that user is likely to be a dissimilar user. For example, if one user is "no reaction" and the other user is "strong vertical glue", it can be said that the sensibilities and preferences of these two users are significantly different. In such a case, the function As shown in the characteristic example of F, the similarity between the two persons in the section becomes a small value (negative value). In other words, the dissimilar user is highly likely to be a user who is significantly different from the target user in terms of sensibility and taste, and therefore the content viewed by the dissimilar user is highly likely not to be liked by the target user.

推薦情報として、推薦コンテンツの情報の他に、非推薦コンテンツの情報を提供する理由は、推薦装置5の推薦能力(情報選択能力)をターゲットユーザに知らしめる(ターゲットユーザに納得させる)ためである。推薦装置5は、膨大なコンテンツ(例えば1000万種類)の中から、ターゲットユーザの感性や嗜好に合うと予想されるごく少数のコンテンツ(例えば10個)を選択して推薦コンテンツとして提示する。ターゲットユーザは、一般的に、提示された推薦コンテンツのみを認識し、その背後に存在する膨大なコンテンツを認識しない(実感できない)。このため、ターゲットユーザは、推薦装置5の情報選択能力を評価することが難しく、推薦装置5の有用性や価値を実感し難い場合がある。 The reason why information on non-recommended content is provided as recommendation information in addition to information on recommended content is to inform the target user of the recommendation capability (information selection capability) of the recommendation device 5 (convince the target user). . The recommendation device 5 selects a very small number of contents (for example, 10) that are expected to match the sensibility and taste of the target user from a huge amount of contents (for example, 10 million types) and presents them as recommended contents. A target user generally recognizes only the presented recommended content and does not recognize (cannot feel) the vast amount of content that exists behind it. For this reason, it is difficult for the target user to evaluate the information selection ability of the recommendation device 5 and it may be difficult for the target user to realize the usefulness and value of the recommendation device 5 .

一方、推薦コンテンツの情報と、非推薦コンテンツの情報の両方を提示すると、ターゲットユーザは、2種類の情報を比較することにより、推薦装置5の情報選択能力を容易に評価することができる。例えば、ターゲットユーザから見て推薦コンテンツと非推薦コンテンツが大きく異なっており、推薦コンテンツの大半が自分の嗜好に合い、非推薦コンテンツの大半が自分の嗜好に合わない場合、ターゲットユーザは「推薦装置の情報選択能力が優れている」と容易に評価できる。逆に、推薦コンテンツと非推薦コンテンツの違いが分かり難く、自分の嗜好に合うコンテンツの割合が、推薦コンテンツと非推薦コンテンツで大差ない場合には、ターゲットユーザは「推薦装置の情報選択能力が優れていない(劣っている)」と容易に評価できる。 On the other hand, if both recommended content information and non-recommended content information are presented, the target user can easily evaluate the information selection capability of the recommendation device 5 by comparing the two types of information. For example, when the recommended content and the non-recommended content are greatly different from the target user's point of view, and most of the recommended content matches his/her taste and most of the non-recommended content does not match his/her taste, the target user may use the "recommending device It can be easily evaluated that the information selection ability of On the other hand, if it is difficult to distinguish between recommended content and non-recommended content, and the proportion of content that matches the user's taste is not significantly different between recommended content and non-recommended content, the target user may think that the recommendation device has excellent information selection ability. It can be easily evaluated as “not (inferior)”.

ステップS160に対応するステップS160A(図示せず)において、処理部520は、通信部510を制御して、ステップS150Aで作成した推薦情報をターゲットユーザu1の使用する端末装置11に送信(出力)する。端末装置11は受信した情報を表示部150に表示する。 In step S160A (not shown) corresponding to step S160, the processing unit 520 controls the communication unit 510 to transmit (output) the recommendation information created in step S150A to the terminal device 11 used by the target user u1. . The terminal device 11 displays the received information on the display section 150 .

本変形例1-1における推薦情報の表示画面63の一例を図18に示す。図18に示すように、画面63の上部には、ターゲットユーザにお薦めするコンテンツ(推薦コンテンツ)の情報(推薦情報631)が表示される。この部分は、図16に示す画面表示と同様である。また画面63の下部には、ターゲットユーザにお薦めしないコンテンツ(非推薦コンテンツ)の情報(非推薦情報632)が表示される。ターゲットユーザは、推薦コンテンツと非推薦コンテンツを見比べることにより、推薦装置5の情報選択能力を容易に評価することができる。また、非推薦コンテンツについても、他のユーザの反応カテゴリをもとに、推薦区間(試聴に適する区間)を再生するための操作ボタン633が表示される。ここでは、非類似ユーザが多く反応を示した区間も便宜上「推薦区間」と呼ぶ。上述したように、他のユーザが多く反応した区間は、そのコンテンツの性質(特徴)がよくあらわれている区間である可能性が高いため、ターゲットユーザはそのコンテンツの性質を短時間で容易に判定することができる。 FIG. 18 shows an example of the display screen 63 of the recommended information in the modified example 1-1. As shown in FIG. 18, information (recommendation information 631) of content (recommended content) recommended to the target user is displayed in the upper portion of the screen 63 . This part is the same as the screen display shown in FIG. Information (non-recommended information 632) of content (non-recommended content) not recommended to the target user is displayed at the bottom of the screen 63 . The target user can easily evaluate the information selection capability of the recommendation device 5 by comparing the recommended content and the non-recommended content. Also, for non-recommended content, an operation button 633 is displayed for reproducing a recommended segment (a segment suitable for trial listening) based on reaction categories of other users. Here, a section in which many dissimilar users have responded is also referred to as a "recommended section" for the sake of convenience. As mentioned above, it is highly probable that the section where other users reacted a lot is the section where the nature (feature) of the content is well represented, so the target user can easily determine the nature of the content in a short time. can do.

本変形例1-1では、推薦コンテンツの情報だけでなく、さらに非推薦コンテンツの情報をユーザに提供するため、ユーザは推薦装置5の情報選択能力を容易に評価することができる。特に、推薦コンテンツと非推薦コンテンツとを対比させて端末装置の表示部に表示させるための推薦情報を作成するため、ユーザは推薦装置5の情報選択能力を容易に把握できる。推薦装置5の情報選択能力が高いとユーザが感じた場合、ユーザは推薦装置5に対してある種の信頼感をもつため、その後、推薦装置5が提示する情報を受容し易くなる。このため、コンテンツの利用(視聴)が促進される効果が得られる。コンテンツ配信サービス事業者や推薦装置5の事業者にとっては、サービス利用促進に伴う売り上げ増などの効果が期待できる。 In this modified example 1-1, the user can easily evaluate the information selection capability of the recommendation device 5 because not only the recommended content information but also the non-recommended content information is provided to the user. In particular, since recommended content and non-recommended content are compared to create recommended information to be displayed on the display unit of the terminal device, the user can easily grasp the information selection capability of the recommendation device 5 . If the user feels that the recommendation device 5 has a high information selection capability, the user will have a certain sense of trust in the recommendation device 5, and will easily accept the information presented by the recommendation device 5 thereafter. Therefore, the effect of promoting the use (viewing) of the content is obtained. The contents distribution service provider and the provider of the recommendation device 5 can expect an effect such as an increase in sales accompanying the promotion of use of the service.

<実施例1の変形例1-2>
実施例1の変形例1-2では、類似ユーザが視聴したコンテンツあるいは高く評価したコンテンツに限定せずに、全コンテンツを対象にして、ターゲットユーザが指定したコンテンツ条件に合致するコンテンツを選出して推薦コンテンツとする。本変形例では、ステップS100~S120を実行した後、ステップS130およびS140を省略する。つまり、本変形例では、ユーザ間の類似度を算出しない。つまり、推薦装置5の算出部522を省略することができる。
<Modification 1-2 of Embodiment 1>
In the modified example 1-2 of the first embodiment, all contents are selected without being limited to the contents viewed or highly evaluated by the similar users, and the contents matching the contents condition specified by the target user are selected. Recommended content. In this modification, steps S130 and S140 are omitted after steps S100 to S120 are executed. That is, in this modified example, the degree of similarity between users is not calculated. That is, the calculator 522 of the recommendation device 5 can be omitted.

ステップS150に対応するS150B(図示せず)において、作成部523は、ターゲットユーザに推薦するコンテンツ(推薦コンテンツ)に関する推薦情報を作成する。本変形例1-2では、ターゲットユーザがコンテンツ条件として、カテゴリ条件(反応カテゴリに関する条件)を指定する。作成部523は、類似ユーザが視聴したコンテンツあるいは高く評価したコンテンツではなく、全コンテンツを対象にして、「(C2)ターゲットユーザがコンテンツ条件として、反応カテゴリに関する条件を指定した場合」と同様な処理を行う。 In S150B (not shown) corresponding to step S150, the creating unit 523 creates recommendation information about content (recommended content) to be recommended to the target user. In this modified example 1-2, the target user designates category conditions (reaction category conditions) as content conditions. The creation unit 523 performs the same processing as "(C2) When the target user specifies a reaction category condition as a content condition" for all contents instead of the contents viewed or highly evaluated by similar users. I do.

ステップS160に対応するS160B(図示せず)は、実施例1のステップS160と同じである。つまり、処理部520は、通信部510を制御して、ステップS150Bで作成した推薦情報をターゲットユーザu1の使用する端末装置11に送信(出力)する。推薦情報を受信した端末装置11は、図17と同様な画面を表示する。 S160B (not shown) corresponding to step S160 is the same as step S160 of the first embodiment. That is, the processing unit 520 controls the communication unit 510 to transmit (output) the recommendation information created in step S150B to the terminal device 11 used by the target user u1. The terminal device 11 that has received the recommendation information displays a screen similar to that shown in FIG.

本変形例1-2によれば、類似ユーザが視聴したコンテンツあるいは高く評価したコンテンツに限らず、コンテンツ条件に合致する、より幅広いコンテンツの情報をターゲットユーザに提供することができる。また本変形例では実施例1と同様に、生体情報をもとに反応カテゴリを生成するため、ユーザは文字列(記号)を用いてコンテンツ条件を容易に指定することができる。 According to this modified example 1-2, it is possible to provide the target user with information on a wider range of content that matches the content conditions, not limited to the content that the similar user has viewed or highly rated. Further, in this modified example, as in the first embodiment, reaction categories are generated based on biometric information, so the user can easily specify content conditions using character strings (symbols).

<実施例2>
実施例1では、ユーザ間の類似度を算出し、それをもとに推薦情報を作成した。実施例2では、コンテンツ間の類似度を算出し、それをもとに推薦情報を作成する。具体的には、算出部522は、生成部521により生成されたカテゴリデータと、カテゴリ関連データ534とに基づいて、コンテンツ同士の類似性を示す類似度を算出する。また、作成部523は、ターゲットユーザからコンテンツの指定を受け付けた場合、複数のコンテンツの中から、指定されたコンテンツにおけるコンテンツ同士の類似性を示す類似度がより高いコンテンツを推薦コンテンツとして選択する。以下では実施例1との差異を中心に説明する。
本実施例における推薦装置5の構成は、図4に示す実施例1のものと同様である。
<Example 2>
In Example 1, the degree of similarity between users is calculated, and recommendation information is created based thereon. In the second embodiment, the degree of similarity between contents is calculated, and recommendation information is created based thereon. Specifically, the calculation unit 522 calculates a degree of similarity indicating similarity between contents based on the category data generated by the generation unit 521 and the category-related data 534 . In addition, when the content specification is received from the target user, the creation unit 523 selects content having a higher degree of similarity indicating similarity between the specified contents as recommended content from among the plurality of contents. Differences from the first embodiment will be mainly described below.
The configuration of the recommendation device 5 in this embodiment is the same as that in the first embodiment shown in FIG.

ユーザ(ターゲットユーザ)u1が推薦情報を表示するための操作を行うと、端末装置11から推薦装置5に推薦リクエストが送信される。実施例2の推薦リクエストには、推薦の基準となるコンテンツ(ベースコンテンツ)のコンテンツIDが含まれる。例えば、「コンテンツAを視聴したユーザは、コンテンツBも視聴しています」といった推薦情報を端末装置11に表示する場合、コンテンツAがベースコンテンツとなる。また推薦リクエストに、端末装置11を使用するユーザ(ターゲットユーザ)u1のユーザIDを含めてもよい。この場合、さらにターゲットユーザに特化(パーソナライズ)した推薦情報を作成することができる。また、実施例1で述べたように、推薦リクエストにコンテンツ条件を含めてもよい。推薦装置5は、推薦リクエストを受信すると、バッチ処理等により既にベースコンテンツに対する推薦情報が作成済みであるか否かを判定する。具体的には、処理部520は記憶部530にベースコンテンツのコンテンツIDに関連付けられた推薦情報(推薦コンテンツのコンテンツID等)が存在するか否かを判定する。ベースコンテンツの推薦情報が存在する場合は、処理部520は記憶部530からそれを読み出し、通信部510を介して、端末装置11に送信する。ベースコンテンツに対応する推薦情報が存在しない場合には、処理部520は、図19に示す処理を実行し、推薦情報を作成し、それを端末装置11に送信する。処理部520は、推薦情報を新たに作成した際には、ベースコンテンツのコンテンツIDと関連付けて記憶部530に記憶する。 When the user (target user) u1 performs an operation for displaying recommendation information, a recommendation request is transmitted from the terminal device 11 to the recommendation device 5 . The recommendation request of the second embodiment includes the content ID of the content (base content) that serves as a reference for recommendation. For example, when the terminal device 11 displays recommendation information such as "a user who viewed content A also viewed content B", content A is the base content. Also, the user ID of the user (target user) u1 who uses the terminal device 11 may be included in the recommendation request. In this case, it is possible to create recommendation information that is further specialized (personalized) for the target user. Also, as described in the first embodiment, the content condition may be included in the recommendation request. Upon receiving the recommendation request, the recommendation device 5 determines whether recommendation information for the base content has already been created by batch processing or the like. Specifically, the processing unit 520 determines whether or not the storage unit 530 has recommendation information (such as the content ID of the recommended content) associated with the content ID of the base content. If the base content recommendation information exists, the processing unit 520 reads it from the storage unit 530 and transmits it to the terminal device 11 via the communication unit 510 . If there is no recommendation information corresponding to the base content, the processing unit 520 executes the process shown in FIG. 19 to create recommendation information and transmit it to the terminal device 11. FIG. When newly creating recommendation information, the processing unit 520 stores it in the storage unit 530 in association with the content ID of the base content.

ステップS300は、ステップS100と同じである。
ステップS310は、ステップS110と同様である。ただし、本実施例2では、(A1)第1のカテゴリデータ生成方法を用いる場合、全てのコンテンツについて、区間の数(区間数)を同じにする。具体的には、ステップS210においてコンテンツの区間を作成する際に、全てのコンテンツについて、区間数Maを同じにする。例えば、区間数Maを「50」にする場合、200秒の長さのコンテンツでは1つの区間の長さが4秒となり、400秒の長さのコンテンツでは1つの区間の長さが8秒になる。(A2)第2のカテゴリデータ生成方法を用いる場合は、実施例1と同様であり、区間数Maは「1」になる。
Step S300 is the same as step S100.
Step S310 is similar to step S110. However, in the second embodiment, when (A1) the first category data generation method is used, the number of sections (the number of sections) is the same for all contents. Specifically, when creating content sections in step S210, the number of sections Ma is made the same for all content. For example, when the number of sections Ma is set to "50", the length of one section is 4 seconds for content with a length of 200 seconds, and the length of one section is 8 seconds for content with a length of 400 seconds. Become. (A2) When the second category data generation method is used, the same as in the first embodiment, the number of sections Ma is "1".

ステップS320において、生成部521は、ユーザ反応DB532、つまりカテゴリデータをもとに、コンテンツごとにコンテンツベクトルを作成する。コンテンツベクトルの一例を図20に示す。ユーザ反応DB532に格納された全ユーザの数をPとすると、1つのコンテンツのコンテンツには、ユーザ1~Pのデータが順に並べられる。各ユーザのデータはさらに区間1~Maに対する反応カテゴリで構成される。なお、ユーザ反応DB532に格納された全ユーザのデータを用いるのではなく、一部のユーザのデータを用いて、コンテンツベクトルを作成してもよい。例えば、所定数以上のコンテンツを視聴したユーザを対象にして(コンテンツ視聴回数の少ないユーザを無視して)、コンテンツベクトルを作成してもよい。その場合、処理対象のユーザの数をPとすればよい。 In step S320, the generation unit 521 creates a content vector for each content based on the user reaction DB 532, that is, category data. An example of a content vector is shown in FIG. Assuming that the number of all users stored in the user reaction DB 532 is P, the data of users 1 to P are arranged in order in the content of one content. Each user's data is further composed of reaction categories for the section 1 to Ma. Instead of using data of all users stored in the user reaction DB 532, data of some users may be used to create a content vector. For example, a content vector may be generated targeting users who have viewed a predetermined number of times or more of content (ignoring users who have viewed less content). In that case, the number of users to be processed should be P.

図20の例では、コンテンツ1のユーザ1の部分は「Ma」個の区間で構成されており、区間1~Maにおける反応カテゴリが記録される。ただし、ユーザが再生していない区間、あるいは反応データを取得できなかった区間については、「無効」を示す「-1」あるいは「NULL」などの値を記録する。ユーザ2の部分についても同様に「Ma」個の区間で構成されており、ユーザ3についても同様である。つまり、コンテンツ1のコンテンツベクトルは、Q=P×Ma個の反応カテゴリで構成されている。コンテンツ2および他のコンテンツについても同様であり、それぞれQ=P×Ma個の反応カテゴリで構成されている。 In the example of FIG. 20, the user 1 portion of content 1 is composed of “Ma” sections, and reaction categories in sections 1 to Ma are recorded. However, a value such as "-1" or "NULL" indicating "invalid" is recorded for a section in which the user has not reproduced or a section in which reaction data could not be obtained. Similarly, the section for user 2 is composed of "Ma" sections, and the section for user 3 is the same. That is, the content vector of content 1 is composed of Q=P×Ma reaction categories. The content 2 and the other content are the same, and each consists of Q=P×Ma reaction categories.

ユーザ反応DB532に格納された各コンテンツについて、このようなコンテンツベクトルを作成する。DBに格納されたコンテンツの数をNとすると、生成部521は、N個のコンテンツベクトルを作成するため、これらをまとめてコンテンツ行列B[i][j](i=1~N、j=1~Q)とも呼ぶ。 Such a content vector is created for each content stored in the user reaction DB 532 . Assuming that the number of contents stored in the DB is N, the generation unit 521 creates N content vectors. 1 to Q).

ステップS330において、算出部522は、コンテンツベクトル(コンテンツ行列B)をもとに、コンテンツ間の類似度(コンテンツ同士の類似性を示す類似度)を算出する。例えば、数式(5)または数式(6)に従って、任意の2つのコンテンツ(u、v)の類似度S[u][v](u=1~N,v=1~N,u≠v)を算出する。

Figure 0007268547000003

Figure 0007268547000004

ここで関数Fは、実施例1で説明した関数と同様である。数式(6)のLは、コンテンツuが有効であり、かつコンテンツvが有効であるベクトル要素(区間)の数である。つまり、2つのコンテンツがともに有効である区間の数である。 In step S330, the calculation unit 522 calculates similarity between contents (similarity indicating similarity between contents) based on the content vector (content matrix B). For example, according to Equation (5) or Equation (6), the similarity S[u][v] (u=1 to N, v=1 to N, u≠v) of any two contents (u, v) Calculate

Figure 0007268547000003

Figure 0007268547000004

Here, the function F is the same as the function explained in the first embodiment. L in Expression (6) is the number of vector elements (sections) in which the content u is valid and the content v is valid. In other words, it is the number of sections in which both two contents are valid.

ステップS340において、作成部523は、推薦情報を提供する基準となるコンテンツ(ベースコンテンツCa)に対して、類似度Sが高い他のコンテンツを選出(特定)する。ここで特定した類似度が相対的に高いコンテンツを類似コンテンツと呼び、類似コンテンツの集合を類似コンテンツ集合と呼ぶ。具体的には、作成部523は、S[Ca][v](v=1~N、v≠Ca)が所定のしきい値α以上のコンテンツvを選択し、ベースコンテンツCaに対する類似コンテンツとする。あるいは、S[Ca][v]の高い順に所定数(例えば、30個)のコンテンツvを選択し、類似コンテンツにしてもよい。なお、最も類似度の高い1つのコンテンツを類似コンテンツとして選択してもよい。つまり、類似コンテンツは1つであっても複数であってもよい。類似コンテンツは、ベースコンテンツを視聴したユーザが多く視聴しており、かつ、同じユーザが似たような反応(ノリ)を示したコンテンツであるといえる。従って、ユーザから見て、類似コンテンツは、ベースコンテンツと性質や印象が近いコンテンツである可能性が高い。 In step S340, the creation unit 523 selects (identifies) other content having a high degree of similarity S with respect to the content (base content Ca) serving as a reference for providing recommendation information. Contents having a relatively high degree of similarity identified here are referred to as similar contents, and a set of similar contents is referred to as a similar content set. Specifically, the creating unit 523 selects content v whose S[Ca][v] (v=1 to N, v≠Ca) is equal to or greater than a predetermined threshold α, and selects content v as similar content to the base content Ca. do. Alternatively, a predetermined number (for example, 30) of contents v may be selected in descending order of S[Ca][v] and made similar contents. In addition, you may select one content with the highest degree of similarity as similar content. In other words, there may be one or more similar contents. It can be said that similar content is content that many users who viewed the base content have viewed, and that the same users have shown similar reactions (nori). Therefore, from the user's point of view, similar content is highly likely to be content similar in nature and impression to the base content.

ステップS350において、作成部523は、類似コンテンツをもとに推薦情報を作成する。主な推薦情報は、推薦するコンテンツに関する情報である。類似コンテンツをそのまま推薦コンテンツにしてもよい。あるいは、類似コンテンツの中から、ユーザの視聴回数が多いものを優先的に選択して推薦コンテンツにしてもよい。さらに、推薦リクエストにユーザu1のユーザIDが含まれている場合には、類似コンテンツの中から、ユーザu1が視聴していないコンテンツを優先的に選択して推薦コンテンツにしてもよい。 In step S350, the creation unit 523 creates recommendation information based on the similar content. The main recommendation information is information related to recommended content. The similar content may be used as the recommended content as it is. Alternatively, from among the similar contents, those that have been viewed by the user more often may be preferentially selected as recommended contents. Furthermore, when the user ID of the user u1 is included in the recommendation request, the content that the user u1 has not viewed may be preferentially selected from the similar content as the recommended content.

作成部523は、推薦コンテンツについて、多くのユーザが反応した箇所(区間)を特定し、その情報(区間情報)を記憶部530に記憶する。この特定した区間は、端末装置においてコンテンツをダイジェスト再生するために使用される。ここで特定した区間を推薦区間と呼ぶ場合もある。 The creation unit 523 identifies a portion (section) of the recommended content that many users reacted to, and stores the information (section information) in the storage unit 530 . This specified section is used for digest reproduction of the content in the terminal device. The section specified here may be called a recommended section.

また、作成部523は、推薦コンテンツごとに、所定の反応カテゴリの反応を示したユーザの数を算出する。例えば、コンテンツAに対して、全ユーザを対象にして、「横ノリ強」、「縦ノリ強」、「回転ノリ強」、「ノリ強」のいずれかを示したユーザの数を算出する。つまり、コンテンツAに対して、強いノリの反応を示したユーザの数を算出する。 The creating unit 523 also calculates the number of users who have responded in a predetermined response category for each recommended content. For example, for content A, the number of users indicating any one of "strong horizontal glue", "strong vertical glue", "strong rotary glue", and "strong glue" is calculated. That is, the number of users who showed a strong reaction to the content A is calculated.

また、作成部523は、推薦コンテンツごとに、主な反応カテゴリを算出(集計)する。例えば、コンテンツAについて、反応カテゴリごとに反応数やユーザ数を集計し、集計数が多い順に所定数(例えば上位3個)の反応カテゴリを選択し、主な反応カテゴリ(主要反応カテゴリ)とする。また、反応数やユーザ数が所定数以上の反応カテゴリを対象として、集計数が多い順に所定数の反応カテゴリを選択し、主要反応カテゴリとしてもよい。この場合、反応数やユーザ数が少ないコンテンツでは、主要反応カテゴリが「該当なし」となる場合もある。また、上述の所定の反応カテゴリを示したユーザ数として、主要反応カテゴリを示したユーザの数を算出してもよい。例えば、主要反応カテゴリが「横ノリ弱」である場合、「横ノリ弱」を示したユーザの数を算出する。 In addition, the creating unit 523 calculates (aggregates) a main reaction category for each recommended content. For example, for content A, the number of responses and the number of users are counted for each response category, and a predetermined number (for example, the top three) of response categories are selected in descending order of the number of totals, and set as the main response category (main response category). . Further, a predetermined number of reaction categories may be selected in descending order of the number of totals from response categories with a predetermined number of responses or a predetermined number or more of users, and may be used as main response categories. In this case, the main response category may be "not applicable" for content with a small number of responses or a small number of users. Further, the number of users who indicated the main reaction category may be calculated as the number of users who indicated the predetermined reaction category. For example, when the main reaction category is "weak horizontal glue", the number of users showing "weak horizontal glue" is calculated.

このように、推薦コンテンツ情報と、推薦区間の情報と、所定の反応カテゴリを示したユーザ数の情報と、主要反応カテゴリの情報とを推薦情報として作成する。ただし、推薦コンテンツ情報以外の情報の作成を省略してもよい。 In this way, recommended content information, information on recommended sections, information on the number of users who indicated a predetermined reaction category, and information on main reaction categories are created as recommendation information. However, the creation of information other than the recommended content information may be omitted.

ステップS360において、処理部520は、通信部510を制御して、ステップS350で作成した推薦情報を要求する端末装置11に送信(出力)する。
端末装置は、推薦装置5から推薦情報を受信すると、それを表示部150に表示する。図21に推薦情報を表示する画面64の一例を示す。図21は、端末装置を使用するユーザが、あるコンテンツ(ベースコンテンツ、本図の例では「コンテンツA」)を視聴した後に、そのコンテンツに関連するコンテンツ(関連コンテンツ)の情報を表示させた場合の例である。「推薦区間から再生」ボタン641は、推薦区間から再生させるための再生指示の受付欄の一例である。図21に示すその他の各情報は、図16で説明した情報と同様である。
In step S360, the processing unit 520 controls the communication unit 510 to transmit (output) the recommendation information created in step S350 to the terminal device 11 that requests it.
Upon receiving the recommendation information from the recommendation device 5 , the terminal device displays it on the display unit 150 . FIG. 21 shows an example of a screen 64 displaying recommended information. FIG. 21 shows a case where a user using a terminal device displays information on content related to the content (related content) after viewing certain content (base content, "content A" in the example of this figure). is an example of A “reproduce from recommended section” button 641 is an example of a field for receiving a reproduction instruction for reproducing from a recommended section. Other information shown in FIG. 21 is the same as the information described in FIG.

本実施例では、カテゴリデータをもとに、コンテンツ間の類似度を精度よく算出し、それをもとに特定のコンテンツ(ベースコンテンツ)に関連する他のコンテンツに関する推薦情報を精度よく作成できる。このため、ユーザが特定のコンテンツに関連する他のコンテンツの情報を得たい場合に適用できる。コンテンツ再生時のユーザの生体情報をもとに、コンテンツ間の類似度を精度よく算出できるため、推薦コンテンツを精度よく選択することができる。また、実施例1と同様に、推薦区間の情報、所定の反応カテゴリを示したユーザ数の情報、主要反応カテゴリの情報などを推薦情報として提供するため、ユーザはコンテンツの性質を容易に把握することができる。また実施例1と同様に、推薦区間をユーザに再生させるための操作手段(GUI部品)を端末装置に表示させる推薦情報を提供するため、ユーザはコンテンツの特徴を短時間で容易に把握することができる。 In this embodiment, based on the category data, the degree of similarity between contents can be calculated with high accuracy, and based on this, recommendation information regarding other contents related to a specific content (base content) can be created with high accuracy. Therefore, it can be applied when the user wants to obtain information on other content related to specific content. Since the degree of similarity between contents can be accurately calculated based on the biometric information of the user when the contents are reproduced, the recommended contents can be selected with high accuracy. In addition, as in the first embodiment, information on the recommended section, information on the number of users who indicated a predetermined reaction category, information on the main reaction category, etc. are provided as recommendation information, so that the user can easily grasp the nature of the content. be able to. In addition, as in the first embodiment, the user can easily grasp the features of the content in a short time in order to provide the recommendation information for displaying the operation means (GUI component) for the user to reproduce the recommended section on the terminal device. can be done.

<実施例3>
これまでの実施例では、推薦情報として、コンテンツに関する情報を作成した。実施例3では、推薦情報として、ユーザ(他のユーザ)に関する情報を作成する。すなわち、実施例3にかかる作成部523は、複数のユーザの中から、ターゲットユーザとの類似度が相対的に高い類似ユーザを特定する。そして、作成部523は、当該類似ユーザをもとに推薦ユーザを特定し、推薦ユーザに関する情報を推薦情報として作成し、ターゲットユーザに対して推薦情報を提示する。さらに、作成部523は、ターゲットユーザから所望の推薦ユーザに関するユーザ条件を受け付けた場合、指定されたユーザ条件をさらに加味して、推薦ユーザを特定することが望ましい。ターゲットユーザは、ユーザ条件として、類似ユーザが任意のコンテンツに対して示した反応カテゴリ、または類似ユーザが所定のコンテンツ(ターゲットユーザが指定するコンテンツ)に対して示した反応カテゴリに関する条件を指定することができる。作成部523は、ターゲットユーザと他のユーザとの類似度と、他のユーザがユーザ条件に合致する度合いとを総合的に示す指標を算出し、その指標をもとに推薦ユーザを特定してもよい。作成部523は、推薦ユーザが相対的に高い頻度で示す反応カテゴリの情報を推薦情報に含めてもよい。作成部523は、推薦ユーザが所定の反応(特徴的な反応)を示したコンテンツの情報や区間の情報を推薦情報に含めてもよい。さらに、作成部523は、推薦ユーザが所定の反応を示したコンテンツ、または推薦ユーザが所定の反応を示した区間をターゲットユーザに再生されるための受付欄(GUI部品などの操作手段)を端末装置11の表示部150に表示させる推薦情報を作成するとよい。以下では実施例1との差異を中心に説明する。
<Example 3>
In the examples so far, information about content is created as recommendation information. In Example 3, information about a user (other users) is created as recommendation information. That is, the creating unit 523 according to the third embodiment identifies similar users having relatively high similarity to the target user from among the plurality of users. Then, the creating unit 523 identifies a recommended user based on the similar users, creates information about the recommended user as recommended information, and presents the recommended information to the target user. Furthermore, when receiving a user condition related to a desired recommended user from a target user, the creating unit 523 preferably further considers the specified user condition to specify the recommended user. The target user specifies, as a user condition, a reaction category that a similar user has given to arbitrary content, or a condition related to a reaction category that a similar user has given to predetermined content (content specified by the target user). can be done. The creation unit 523 calculates an index that comprehensively indicates the degree of similarity between the target user and the other users and the degree to which the other users match the user conditions, and specifies the recommended users based on the index. good too. The creating unit 523 may include in the recommendation information information about the reaction category indicated by the recommending user with relatively high frequency. The creation unit 523 may include in the recommendation information information about the content and information about the section for which the recommending user has given a predetermined reaction (characteristic reaction). Furthermore, the creating unit 523 creates a reception field (operation means such as GUI components) for the target user to reproduce the content to which the recommending user has given a predetermined reaction or the section to which the recommending user has given a given reaction. Recommended information to be displayed on the display unit 150 of the device 11 may be created. Differences from the first embodiment will be mainly described below.

本実施例3では、ターゲットユーザu1が使用する端末装置11から推薦装置5に対して推薦情報を要求するリクエスト(推薦リクエスト)が送信された場合に、推薦装置5は図7のフローチャートに相当する処理を実行する。推薦リクエストには、ターゲットユーザu1のユーザIDが含まれており、さらにターゲットユーザu1が所望するユーザの条件(ユーザ条件、あるいはユーザ絞込条件とも呼ぶ)が含まれる場合がある。推薦装置5は、図7のフローチャートの各ステップのうち、S100~S140については、実施例1と同様に実行する。 In the third embodiment, when a request (recommendation request) requesting recommendation information is transmitted from the terminal device 11 used by the target user u1 to the recommendation device 5, the recommendation device 5 corresponds to the flowchart of FIG. Execute the process. The recommendation request includes the user ID of the target user u1, and may further include user conditions desired by the target user u1 (also referred to as user conditions or user narrowing conditions). The recommendation device 5 executes steps S100 to S140 in the flowchart of FIG. 7 in the same manner as in the first embodiment.

ステップS150に対応するS150C(図示せず)において、作成部523は、ターゲットユーザu1に推薦するユーザ(推薦ユーザ)に関する推薦情報を作成する。ここで、作成部523は、ターゲットユーザu1によるユーザ条件の指定有無や指定内容に応じて以下のように、推薦情報を作成する。
(D1)ターゲットユーザu1がユーザ条件として何も指定していない場合は、ステップS140で選出した類似ユーザをターゲットユーザu1に対する推薦ユーザとする。あるいは、類似ユーザの中からさらにターゲットユーザu1との類似度の高いユーザを絞り込んでもよい。
(D2)ターゲットユーザu1がユーザ条件として推薦ユーザの数Haを指定した場合は、ターゲットユーザu1との類似度S[u1][v]の高い順にHa人のユーザを推薦ユーザとして選出する。
(D3)ターゲットユーザu1がユーザ条件として、反応カテゴリに関する条件を指定した場合、ステップS140で選出した類似ユーザを対象にして、指定されたユーザ条件に合致するユーザを選出し、推薦ユーザとする。さらに、作成部523は、ユーザ条件におけるコンテンツの指定の有無に応じて以下のように推薦ユーザを選出するとよい。
In S150C (not shown) corresponding to step S150, the creating unit 523 creates recommendation information about users (recommended users) to be recommended to the target user u1. Here, the creation unit 523 creates recommendation information as follows, depending on whether or not a user condition is specified by the target user u1 and the specified content.
(D1) If the target user u1 does not specify anything as a user condition, the similar users selected in step S140 are set as recommended users for the target user u1. Alternatively, users with a high degree of similarity to the target user u1 may be further narrowed down from the similar users.
(D2) When the target user u1 specifies the number Ha of recommended users as a user condition, Ha users are selected as recommended users in descending order of similarity S[u1][v] with the target user u1.
(D3) If the target user u1 specifies a reaction category condition as a user condition, the similar users selected in step S140 are targeted, and users who match the specified user condition are selected as recommended users. Furthermore, the creating unit 523 may select recommended users as follows depending on whether content is specified in the user conditions.

(D3-A)ターゲットユーザu1がコンテンツを指定せずに、反応カテゴリを指定した場合、作成部523は、類似ユーザのユーザ反応ベクトルを対象にして、指定された反応カテゴリ(指定カテゴリ)に合致する区間の数を算出する。そして、合致する区間の数が多い順に所定数のユーザを選出し、推薦ユーザとする。例えば、ターゲットユーザu1が「縦ノリ強」または「縦ノリ中」の反応をよく示すユーザを推薦ユーザとしたい場合、ユーザ条件として「縦ノリ強 OR 縦ノリ中」といった条件を指定する。作成部523は、類似ユーザのユーザ反応ベクトルを対象にして、各ユーザごとに「縦ノリ強」または「縦ノリ中」である区間の数を算出する。そして、算出した区間数が多い順に、所定数(例えば、20人)のユーザを選出する。 (D3-A) When the target user u1 specifies a reaction category without specifying content, the creation unit 523 targets the user reaction vectors of similar users and matches the specified reaction category (specified category). Calculate the number of intervals. Then, a predetermined number of users are selected in descending order of the number of matching sections, and are designated as recommended users. For example, if the target user u1 wants to select a user who often responds to "strong vertical movement" or "medium vertical movement" as a recommended user, a condition such as "strong vertical movement OR moderate vertical movement" is specified as a user condition. The creation unit 523 calculates the number of sections with “strong vertical glue” or “moderate vertical glue” for each user, targeting the user reaction vectors of similar users. Then, a predetermined number (for example, 20) of users are selected in descending order of the calculated number of sections.

(D3-B)ターゲットユーザu1がコンテンツと反応ベクトルを指定した場合、作成部523は、類似ユーザのユーザ反応ベクトルを対象にして、指定されたコンテンツに合致し、かつ指定された反応カテゴリ(指定カテゴリ)に合致する区間の数を算出する。そして、合致する区間の数が多い順に所定数のユーザを選出し、推薦ユーザとする。例えば、ターゲットユーザu1が、コンテンツAで「横ノリ強」を示し、かつコンテンツBで「回転ノリ中」を示したユーザを推薦ユーザとしたい場合、ユーザ条件として「コンテンツA=横ノリ強 AND コンテンツB=回転ノリ中」といった条件を指定する。作成部523は、類似ユーザのユーザ反応ベクトルを対象にして、各ユーザごとに指定されたユーザ条件に合致する区間の数を算出する。 (D3-B) When the target user u1 specifies the content and the reaction vector, the creating unit 523 targets the user reaction vectors of the similar users to match the specified content and the specified reaction category (specified reaction category). category) is calculated. Then, a predetermined number of users are selected in descending order of the number of matching sections, and are designated as recommended users. For example, if the target user u1 wants to recommend a user who indicated "strong horizontal glue" in content A and "during spinning" in content B, the user condition is "content A = strong horizontal glue AND content A condition such as B=during rotation" is specified. The creation unit 523 calculates the number of sections that match user conditions specified for each user, targeting the user reaction vectors of similar users.

また、ターゲットユーザu1は、さらにコンテンツの特定の区間をユーザ条件に指定してもよい。この場合、推薦装置5から端末装置11に対して、各コンテンツの各区間の情報を予め通知した上で、ターゲットユーザu1にコンテンツと区間を指定させる。例えば、ターゲットユーザu1は、コンテンツAの区間3~5の3つの区間全てにおいて「横ノリ強」を示し、かつコンテンツBの区間4~7の4つの区間のいずれかで「回転ノリ中」を示したユーザを推薦ユーザとしたい場合、ユーザ条件として「コンテンツA:ALL3~5=横ノリ強 AND コンテンツB:ANY4~7=回転ノリ中」といった条件を指定する。作成部523は、類似ユーザのユーザ反応ベクトルを対象にして、各ユーザごとに指定されたユーザ条件に合致する区間の数を算出する。そして、区間数の多いユーザを優先的に選出する。 Moreover, the target user u1 may further designate a specific section of the content as a user condition. In this case, the recommendation device 5 notifies the terminal device 11 of information on each section of each content in advance, and then makes the target user u1 specify the content and the section. For example, the target user u1 indicates “strong horizontal glue” in all three sections 3 to 5 of content A, and indicates “during rolling” in any one of four sections 4 to 7 of content B. If the indicated user is desired to be a recommended user, a user condition such as "content A: ALL 3-5=strong lateral movement AND content B: ANY 4-7=medium rotation" is specified. The creation unit 523 calculates the number of sections that match user conditions specified for each user, targeting the user reaction vectors of similar users. Then, users with a large number of sections are preferentially selected.

また、ユーザ間の類似度と、ユーザ条件に合致する区間数とを総合的に考慮してユーザを選出してもよい。例えば、「コンテンツA:2=横ノリ強」(コンテンツAの区間2で横ノリ強を示したユーザ)というように、ユーザ条件に1つの区間のみが指定された場合、このユーザ条件に合致する区間数は高々「1」となる。このユーザ条件に合致するユーザが必要な数(必要な推薦ユーザ数)以上存在する場合、その中からユーザ間の類似度の高い順に必要な数のユーザを選出すればよい。 Further, users may be selected by comprehensively considering the degree of similarity between users and the number of sections that match user conditions. For example, if only one section is specified in the user condition, such as "content A: 2 = strong horizontal glue" (user who indicated strong horizontal glue in section 2 of content A), this user condition is met. The number of sections is at most "1". If there are more than the required number of users (required number of recommended users) who match this user condition, the required number of users may be selected in descending order of similarity between users.

また、ユーザv(vは各類似ユーザを示す添え字)のユーザ条件に合致する区間数またはコンテンツ数であるNa[v]と、ターゲットユーザu1との類似度S[u1][v]をもとに、数式(7)または数式(8)に従って、各ユーザごとに指標W(W[v])を算出し、指標Wの高い(大きい)ユーザを優先的に推薦ユーザにしてもよい。例えば、全ユーザ(ターゲットユーザ以外のユーザ)もしくは類似ユーザを対象にして指標Wを算出し、指標Wの高い順に所定数のユーザを選出して推薦ユーザとしてもよい。数式(7)においてη1、η2は、それぞれ正の所定値(重み係数)である。また数式(8)において、λ1、λ2はそれぞれ正の所定数である。数式(7)または数式(8)によれば、ユーザ条件に合致する区間数(コンテンツ数)が多いほど高い値となり、かつユーザ間類似度が高いほど高い値となる指標Wを算出することができる。

Figure 0007268547000005

Figure 0007268547000006
Also, Na[v], which is the number of sections or the number of contents that match the user condition of user v (v is a suffix indicating each similar user), and similarity S[u1][v] with target user u1. In addition, an index W (W[v]) may be calculated for each user according to Equation (7) or Equation (8), and users with a high (large) index W may be preferentially recommended users. For example, the index W may be calculated for all users (users other than the target user) or similar users, and a predetermined number of users may be selected in descending order of the index W to be recommended users. In Equation (7), η1 and η2 are positive predetermined values (weighting factors). Also, in Equation (8), λ1 and λ2 are positive predetermined numbers. According to formula (7) or formula (8), it is possible to calculate an index W that has a higher value as the number of sections (number of contents) that match the user condition increases, and a higher value as the degree of similarity between users increases. can.

Figure 0007268547000005

Figure 0007268547000006

本実施例3では、記憶部530にユーザの属性情報が記憶されている。具体的には、ユーザIDに関連付けて、ユーザ名(実名またはニックネーム)、年齢、性別、連絡先(メールアドレス、電話番号等)、自己紹介メッセージ等を記憶部530が記憶している。作成部523は、選出した推薦ユーザについて、記憶部530からユーザ属性情報を読み出し、ユーザ属性情報を用いて推薦情報を作成する。 In the third embodiment, user attribute information is stored in the storage unit 530 . Specifically, the storage unit 530 stores a user name (real name or nickname), age, gender, contact information (mail address, phone number, etc.), self-introduction message, etc. in association with the user ID. The creation unit 523 reads user attribute information from the storage unit 530 for the selected recommended user, and creates recommendation information using the user attribute information.

また作成部523は、推薦ユーザのユーザ反応ベクトルを参照し、ユーザごとに反応カテゴリ別の反応数(区間数)を集計する。そして、ユーザが高い頻度で示す反応カテゴリ(主要反応カテゴリ)の情報を推薦情報に入れる。例えば、「ユーザAは横ノリ弱を示すことが多い」、「ユーザBは縦ノリ強と縦ノリ中を示すことが多い」といった情報を推薦情報に入れる。
また作成部523は、推薦ユーザのユーザ反応ベクトルを参照し、ユーザが特徴的な反応を示したコンテンツやコンテンツの区間の情報(主要反応コンテンツ)を推薦情報に入れる。例えば、「ユーザAはコンテンツAで横ノリ強を示した」、「ユーザBはコンテンツBの区間10~11で縦ノリ中を示し、コンテンツBの区間15~20で縦ノリ強を示した」といった情報を推薦情報に入れる。
The creating unit 523 also refers to the user reaction vector of the recommended user, and aggregates the number of reactions (number of sections) for each reaction category for each user. Then, the information of the reaction category (main reaction category) frequently indicated by the user is included in the recommendation information. For example, information such as "user A often shows weak horizontal movement" and "user B often shows strong vertical movement and medium vertical movement" is included in the recommendation information.
The creating unit 523 also refers to the user reaction vector of the recommending user, and inserts information (main reaction content) about the content and the section of the content for which the user has given a characteristic reaction into the recommendation information. For example, "user A indicated strong horizontal glue in content A", "user B indicated medium vertical glue in section 10-11 of content B, and strong vertical glue in section 15-20 of content B". Such information is included in the recommendation information.

ステップS150Cに続くステップS160C(図示せず)は、実施例1のステップS160と同様である。つまり、ステップS160Cにおいて、処理部520は、通信部510を制御して、ステップS150Cで作成した推薦情報をターゲットユーザu1の使用する端末装置11に送信(出力)する。 Step S160C (not shown) following step S150C is the same as step S160 of the first embodiment. That is, in step S160C, the processing unit 520 controls the communication unit 510 to transmit (output) the recommendation information created in step S150C to the terminal device 11 used by the target user u1.

実施例1と同様に、端末装置11は、推薦装置5から推薦情報を受信すると、それを表示部150に表示する。図22に推薦情報を表示する画面65の一例を示す。画面の上部には、ターゲットユーザ(図22の例では、ユーザA)が所望のユーザ条件を指定するためのGUIであるテキストフィールド651と、ユーザ条件を送信(更新)するためのボタン652が表示されている。図22の例では、ユーザAが「横ノリ強 OR 横ノリ中 OR 回転ノリ中」というユーザ条件を指定し、送信ボタン652を押した後の状態を示している。ユーザがユーザ条件送信ボタン652を押すと、端末装置11から推薦装置5に推薦リクエストが送信され、その応答として、推薦装置5から端末装置11に推薦情報が送信される。 As in the first embodiment, when receiving the recommendation information from the recommendation device 5 , the terminal device 11 displays it on the display unit 150 . FIG. 22 shows an example of a screen 65 displaying recommended information. At the top of the screen, a text field 651, which is a GUI for the target user (user A in the example of FIG. 22) to specify desired user conditions, and a button 652 for sending (updating) the user conditions are displayed. It is The example of FIG. 22 shows the state after the user A has specified the user condition of "strong horizontal glue OR medium horizontal glue OR rotating medium" and pressed the send button 652 . When the user presses the user condition transmission button 652 , the terminal device 11 transmits a recommendation request to the recommendation device 5 , and as a response thereto, recommendation information is transmitted from the recommendation device 5 to the terminal device 11 .

図22では、ユーザ条件の下に、ターゲットユーザ(本図の例では「ユーザA」)に対する推薦情報が表示される。つまり、端末装置11は、ユーザが指定したユーザ条件に関連付けて、推薦情報を表示する。具体的には、推薦ユーザのユーザ名、年齢、性別、連絡先、自己紹介メッセージ等のユーザ属性情報653が表示される。ここで表示されるユーザ属性情報653は、対象となるユーザが予め許諾した情報に限られる。ユーザが公開を希望しない属性情報については、「非公開」と表示される。 In FIG. 22, recommendation information for the target user ("user A" in the example of this figure) is displayed under the user condition. That is, the terminal device 11 displays the recommended information in association with the user condition specified by the user. Specifically, user attribute information 653 such as the recommended user's user name, age, gender, contact information, and self-introduction message is displayed. The user attribute information 653 displayed here is limited to information previously approved by the target user. "Private" is displayed for attribute information that the user does not want to disclose.

さらに、上述した主要反応カテゴリの情報654および主要反応コンテンツの情報655が表示される。図22に示す例では、例えば、ユーザ1の主要反応カテゴリは「(1)横ノリ強 (2)横ノリ中」であり、ユーザ1は最も高い頻度で「横ノリ強」を示し、2番目に高い頻度で「横ノリ中」を示すことを表している。また、ユーザ1の主要反応コンテンツは「(1)コンテンツ1 (2)コンテンツ2:3~9」となっている。これは、「ユーザ1がコンテンツ1およびコンテンツ2の区間3~9において、主要反応カテゴリの反応を示した」ことを表している。 In addition, the key response category information 654 and key response content information 655 described above are displayed. In the example shown in FIG. 22, for example, the main reaction category of user 1 is "(1) strong horizontal glue (2) moderate horizontal glue", and user 1 most frequently indicates "strong horizontal glue", and the second is "strong horizontal glue". It indicates that "inside horizontal glue" is shown at a high frequency. Also, the main reaction content of user 1 is "(1) content 1 (2) content 2:3-9". This represents that "user 1 showed a reaction of the main reaction category in sections 3 to 9 of content 1 and content 2".

ターゲットユーザはこのような情報を見て、推薦ユーザの特徴(感性や嗜好)を容易に推定することができる。ターゲットユーザは、年齢、性別、自己紹介メッセージ等のユーザ属性情報653から推薦ユーザの特徴を大まかには推定できるが、これらはあまり精度の高い情報とは言えない。例えば、年齢・性別が同じでユーザであっても感性や嗜好は様々である。また、このような情報は、あくまでもユーザが自己申告した情報であり、正確でない場合もある。つまり、一般的なユーザ属性情報653からユーザの感性や嗜好を正確に知ることは難しい。一方、主要反応カテゴリ654および主要反応コンテンツ655は、コンテンツ視聴時のユーザの自然な反応をもとに作成された情報である。ユーザが無意識にコンテンツに反応することも多い。主要反応カテゴリ654および主要反応カテゴリ655は、コンテンツを実際に視聴したユーザ(消費者)のリアルな反応をコンパクトにまとめた(集約した)情報であるため、ユーザの実際の特徴(素の特徴)をより正確に表しているといえる。このためターゲットユーザは、推薦ユーザの特徴(感性や嗜好)をより詳細かつ容易に把握することができる。 The target user can see such information and easily estimate the characteristics (sensitivity and taste) of the recommended user. The target user can roughly estimate the features of the recommended user from the user attribute information 653 such as age, gender, self-introduction message, etc., but these are not highly accurate information. For example, even users of the same age and gender have different sensitivities and tastes. Moreover, such information is information self-reported by the user, and may not be accurate. In other words, it is difficult to accurately know the user's sensibility and preferences from general user attribute information 653 . On the other hand, the main reaction category 654 and the main reaction content 655 are information created based on the user's natural reaction when viewing the content. Users often react to content unconsciously. Since the main reaction category 654 and the main reaction category 655 are information compactly summarizing (aggregating) real reactions of users (consumers) who actually viewed the content, they are actual characteristics of users (raw characteristics). It can be said that it expresses more accurately. As a result, the target user can easily grasp the characteristics (sensibility and taste) of the recommended user in more detail.

図22に示す画面例では、さらに主要反応コンテンツを再生するための再生ボタン656が推薦ユーザごとに表示される。例えば、ユーザ1に対応する再生ボタン656を押すと、ユーザ1の主要反応コンテンツである「コンテンツ1およびコンテンツ2」が順次再生される。次のコンテンツを再生するための早送りボタンや、前のコンテンツを再生するための早戻しボタンを適宜表示してもよい。また、「コンテンツ2:3~9」といったように特定の区間が示されている場合、再生ボタン656を押した際に、コンテンツ2の区間3から区間9までを再生し、その後次のコンテンツを再生してもよい。つまり、他のユーザが特徴的な反応した区間(推薦区間)を再生してもよい。 In the screen example shown in FIG. 22, a play button 656 for playing back main reaction content is also displayed for each recommended user. For example, when the play button 656 corresponding to user 1 is pressed, "content 1 and content 2", which are the main reaction contents of user 1, are played back in sequence. A fast-forward button for reproducing the next content and a fast-reverse button for reproducing the previous content may be displayed as appropriate. Further, when a specific section such as "Content 2: 3 to 9" is indicated, when the play button 656 is pressed, section 3 to section 9 of content 2 are reproduced, and then the next content is played. may be played. That is, a section (recommended section) in which another user reacts in a characteristic manner may be reproduced.

また、図22に示す画面例では、特定のユーザにメッセージを送信するためのボタン657が表示されている。例えば、ターゲットユーザがユーザ1に対応する送信ボタン657を押すと、メッセージを入力するためのテキストフィールド等が表示され、ユーザ1に対するメッセージを記入することができる。そのメッセージはユーザ1に通知される。また、ユーザ1がそのメッセージに返信した場合には、ターゲットユーザに通知される。このため、推薦ユーザが連絡先を公開していない場合であっても、ターゲットユーザは推薦ユーザとコミュニケーションすることができる。つまり、ユーザは自分の個人情報をむやみに公開することなく、感性や嗜好の合いそうな他のユーザと容易にコミュニケーションを図ることができる。ユーザ間のメッセージ制御(メッセージ送受信や通知などの処理)は、推薦装置5が行っても他の装置が行ってもよい。 Also, in the screen example shown in FIG. 22, a button 657 for sending a message to a specific user is displayed. For example, when the target user presses the send button 657 corresponding to user 1, a text field or the like for entering a message is displayed, and a message for user 1 can be entered. The message is notified to User1. Also, if User 1 replies to the message, the target user is notified. Therefore, the target user can communicate with the recommending user even if the recommending user does not disclose the contact information. In other words, the user can easily communicate with other users who seem to have the same sensibilities and tastes without disclosing his/her own personal information. Message control between users (processing such as message transmission/reception and notification) may be performed by the recommendation device 5 or by another device.

上述の説明では、ターゲットユーザとの類似度が相対的に高い類似ユーザを特定したが、さらに、実施例1の変形例1-1で説明した方法により、ターゲットユーザとの類似度が相対的に低い非類似ユーザを特定してもよい。そして、類似ユーザをもとに推薦ユーザを特定するのと同様に、非類似ユーザをもとに非推薦ユーザを特定してもよい。そして、図22に示す画面65と同様に非推薦ユーザについても、ユーザ属性情報、主要反応カテゴリの情報、主要反応コンテンツ、主要反応コンテンツを再生するためのボタン、メッセージを送信するためのボタンなどを画面に表示させてもよい。また、図18と同様に、推薦ユーザの情報と、非推薦ユーザの情報とを対比させて画面に表示してもよい。ターゲットユーザは、例えば、推薦ユーザの主要反応コンテンツと、非推薦ユーザの主要反応コンテンツとを比較することにより、推薦装置5の情報選択能力を容易に判定することができる。 In the above description, similar users with a relatively high degree of similarity to the target user are specified. Low dissimilar users may be identified. Then, in the same way as identifying recommended users based on similar users, non-recommended users may be identified based on dissimilar users. As with the screen 65 shown in FIG. 22, for non-recommended users, user attribute information, main reaction category information, main reaction content, a button for reproducing the main reaction content, a button for sending a message, and the like are displayed. It can be displayed on the screen. Also, similar to FIG. 18, the recommended user information and the non-recommended user information may be displayed on the screen in contrast. The target user can easily determine the information selection capability of the recommendation device 5 by, for example, comparing the main reaction content of the recommending user and the main reaction content of the non-recommending user.

本実施例によれば、カテゴリデータとカテゴリ関連データとをもとにユーザ間の類似度を算出するため、ユーザ(ターゲットユーザ)の感性や嗜好に適合する他のユーザを精度よく、かつ効率的に推薦できる。また本実施例によれば、生体情報をもとに反応カテゴリを生成するため、ユーザは反応カテゴリを用いてユーザ条件を容易に指定することができる。例えば、生体情報(波形データ)の特徴をユーザが指定することは難しいが、反応カテゴリはカテゴリ化(類型化)されているため、文字列(記号)を使って、所望のユーザに関するユーザ条件を容易に指定することができる。また本実施例によれば、推薦ユーザに関する主要反応カテゴリおよび主要反応カテゴリを推薦情報に含めることができる。これらの情報は、コンテンツを実際に視聴したユーザ(消費者)のリアルな反応をコンパクトにまとめた(集約した)情報であるため、ユーザが自己申告したユーザ属性情報に比べて、ユーザの実際の特徴(素の特徴)をより正確に表しているといえる。このためユーザ(ターゲットユーザ)は、推薦ユーザの特徴(感性や嗜好)をより詳細かつ容易に把握することができる。 According to this embodiment, since the degree of similarity between users is calculated based on category data and category-related data, it is possible to accurately and efficiently identify other users who match the sensitivity and taste of the user (target user). can be recommended to Further, according to this embodiment, since reaction categories are generated based on biometric information, the user can easily designate user conditions using the reaction categories. For example, although it is difficult for a user to specify characteristics of biological information (waveform data), since reaction categories are categorized (typed), character strings (symbols) can be used to specify user conditions for a desired user. can be easily specified. Further, according to this embodiment, the recommendation information can include the main reaction category and the main reaction category regarding the recommending user. Since this information is information that compactly summarizes (aggregates) the real reactions of users (consumers) who have actually viewed the content, compared to the user attribute information self-reported by the user, the user's actual It can be said that the feature (original feature) is represented more accurately. Therefore, the user (target user) can grasp the characteristics (sensitivity and preference) of the recommended user in more detail and easily.

<実施例3の変形例3-1>
実施例3の変形例3-1では、類似ユーザに限定せずに、全ユーザを対象にして、ターゲットユーザが指定したユーザ条件に合致するユーザを選出して推薦ユーザとする。本変形例3-1では、ステップS100~S120を実行した後、ステップS130およびS140を省略する。つまり、本変形例3-1では、ユーザ間の類似度を算出しない。つまり、推薦装置5の算出部522を省略することができる。
<Modification 3-1 of Embodiment 3>
In the modified example 3-1 of the third embodiment, all users, not limited to similar users, are selected as recommended users by selecting users who match user conditions specified by the target user. In this modified example 3-1, steps S130 and S140 are omitted after steps S100 to S120 are executed. In other words, in Modification 3-1, the degree of similarity between users is not calculated. That is, the calculator 522 of the recommendation device 5 can be omitted.

ステップS150に対応するS150D(図示せず)において、作成部523は、ターゲットユーザに推薦するユーザ(推薦ユーザ)に関する推薦情報を作成する。本変形例3-1では、ターゲットユーザがユーザ条件として、(D3)反応カテゴリに関する条件(カテゴリ条件)を指定する。作成部523は、類似ユーザではなく、全ユーザ(ターゲットユーザ以外の全ユーザ)を対象にして、実施例3の(D3)と同様な処理を行う。 In S150D (not shown) corresponding to step S150, the creating unit 523 creates recommendation information about users (recommended users) to be recommended to the target user. In this modified example 3-1, the target user designates (D3) a condition (category condition) related to the reaction category as the user condition. The creation unit 523 performs the same processing as (D3) of the third embodiment, targeting not similar users but all users (all users other than the target user).

ステップS160に対応するS160D(図示せず)は、実施例3のステップS160Cと同じである。つまり、処理部520は、通信部510を制御して、ステップS150Dで作成した推薦情報をターゲットユーザの使用する端末装置11に送信(出力)する。推薦情報を受信した端末装置11は、図22と同様な画面を表示する。本変形例3-1によれば、類似ユーザに限らず、ユーザ条件に合致する、より幅広いユーザの情報をターゲットユーザに提供することができる。また本変形例によれば、実施例3と同様に、生体情報をもとに反応カテゴリを生成するため、ユーザは反応カテゴリを用いて所望のユーザ条件を容易に指定することができる。 S160D (not shown) corresponding to step S160 is the same as step S160C of the third embodiment. That is, the processing unit 520 controls the communication unit 510 to transmit (output) the recommendation information created in step S150D to the terminal device 11 used by the target user. The terminal device 11 that has received the recommendation information displays a screen similar to that shown in FIG. According to this modified example 3-1, it is possible to provide the target user with information on a wider range of users who match the user conditions, not limited to similar users. Further, according to this modification, as in the case of the third embodiment, reaction categories are generated based on biological information, so that the user can easily specify desired user conditions using the reaction categories.

<実施例4>
実施例4におけるコンテンツは音楽(楽曲)であり、実施例4では、音楽に特有な性質を用いて、カテゴリデータをより精度よく作成する。以下では実施例1との差異を中心に説明する。本実施例4の推薦装置5の構成を図23に示す。図23では、実施例1と比べて、記憶部530に楽曲情報DB537(音楽情報DB)が格納されている。
<Example 4>
The content in Example 4 is music (songs), and in Example 4, category data is created with higher accuracy using properties unique to music. Differences from the first embodiment will be mainly described below. FIG. 23 shows the configuration of the recommendation device 5 of the fourth embodiment. In FIG. 23, a music information DB 537 (music information DB) is stored in the storage unit 530 as compared with the first embodiment.

楽曲情報DB537のデータ構成の一例を図24に示す。楽曲IDに対応させて、楽曲名、アーティスト名、ジャンル、年代などの楽曲属性情報を格納する。さらに楽曲ごとに、各小節の開始時間(楽曲の先頭からの経過時間)が記録されている。また、各小節ごとにテンポ(楽曲の速さを示す情報)と、ビート種類が記録されている。図24に示す例では、ビート種類は、「強」、「中」、「弱」など、楽曲のビート(拍)の強さを示す情報である。ただし、ビートの強さを示す情報に限らず、「16ビート」、「8ビート」、「4ビート」、「2ビート」、「3連符系」などリズムパターンを示す情報であってもよい。なお、図24に示す小節の情報の代わりに、拍(ビート)の情報を楽曲情報DB537に格納してもよい。例えば、1拍ごとの時間(楽曲の先頭からの経過時間)を記憶してもよい。楽曲情報DB537に格納する情報は、推薦装置5が他の装置(音楽情報データベース等)から取得してもよい。あるいは、推薦装置5が楽曲の音響信号を解析して、拍、テンポ、小節、ビート種類などの情報を作成してもよい。 An example of the data configuration of the music information DB 537 is shown in FIG. Music attribute information such as music name, artist name, genre, age, etc. is stored in association with the music ID. Furthermore, the start time of each measure (elapsed time from the beginning of the song) is recorded for each song. Also, the tempo (information indicating the speed of the music) and beat type are recorded for each measure. In the example shown in FIG. 24, the beat type is information indicating the strength of the beat of the music, such as "strong", "medium", and "weak". However, the information is not limited to the information indicating the strength of the beat, and may be information indicating a rhythm pattern such as "16 beats", "8 beats", "4 beats", "2 beats", and "triplets". . Note that beat information may be stored in the music information DB 537 instead of bar information shown in FIG. 24 . For example, the time for each beat (elapsed time from the beginning of the music) may be stored. The information stored in the music information DB 537 may be obtained by the recommendation device 5 from another device (music information database, etc.). Alternatively, the recommendation device 5 may analyze the sound signal of the music and create information such as the beat, tempo, measure, and beat type.

推薦装置5は図7のフローチャートと同様な流れで、推薦情報作成処理を実行する。ただし、以下の点で実施例1の処理とは異なる。ステップS110に対応するステップS110E(図示せず)において、生成部521は、生体情報DB531および楽曲情報DB537をもとに、カテゴリデータを生成する。本実施例では、実施例1で説明した(A1)第1のカテゴリデータ生成方法を用いる。つまり、生成部521は、コンテンツを複数の区間に分割し、各区間ごとに反応カテゴリを生成する。 The recommendation device 5 executes recommendation information creation processing in a flow similar to that of the flow chart of FIG. However, it differs from the processing of the first embodiment in the following points. In step S110E (not shown) corresponding to step S110, the generation unit 521 generates category data based on the biometric information DB 531 and the music information DB 537. FIG. In this embodiment, the (A1) first category data generating method described in the first embodiment is used. That is, the generation unit 521 divides the content into a plurality of sections and generates a reaction category for each section.

ステップS210に対応するステップS210E(図示せず)において、生成部521は処理対象のコンテンツの区間を作成する。この際に、楽曲情報DB537に格納された小節情報または拍情報を用いて区間を生成する。小節情報を用いる場合、1つ以上の小節を1つの区間に対応させる。例えば、小節1~2を区間1とし、小節3~4を区間2とし、小節5~6を区間3とする等、2つの小節を1つの区間に対応させる。1つの区間に対応させる小節の数は、1~4程度が望ましい。これは、通常の楽曲は1~4小節程度は、同じようなビートやリズムパターンが持続する可能性が高いという知見に基づく処理である。拍情報を用いる場合、複数の拍を1つの区間に対応させる。例えば、拍1~8を区間1とし、拍9~16を区間2とし、拍17~24を区間3とする等、8つの拍を1つの区間に対応させる。1つの区間に対応させる拍の数は、4~16程度が望ましい。これは、一般的に1小節が4つの拍で構成されている4拍子系の楽曲が多く、また1~4小節程度は、同じようなビートやリズムパターンが持続する可能性が高いという知見に基づく処理である。なお、楽曲情報DB537に拍子の情報が含まれている場合、その情報をもとに区間を作成してもよい。例えば、4拍子系の楽曲であれば、4拍、8拍、16拍などを1つの区間に対応させる。また、3拍子系の楽曲であれば、3拍、6拍、9拍などを1つの区間に対応させる。つまり、生成部521は、楽曲の拍又は小節の長さの所定数倍の長さでコンテンツを時間軸において分割して複数の区間を作成するとよい。 In step S210E (not shown) corresponding to step S210, the generation unit 521 creates a section of the content to be processed. At this time, sections are generated using bar information or beat information stored in the music information DB 537 . When bar information is used, one or more bars are associated with one section. For example, measures 1 and 2 are defined as section 1, measures 3 and 4 are defined as section 2, and measures 5 and 6 are defined as section 3, and two measures are associated with one section. It is desirable that the number of bars corresponding to one section is about 1 to 4. This process is based on the knowledge that a normal song has a high probability of continuing similar beats and rhythm patterns for about 1 to 4 measures. When beat information is used, a plurality of beats are associated with one section. For example, beats 1 to 8 are section 1, beats 9 to 16 are section 2, beats 17 to 24 are section 3, and eight beats correspond to one section. It is desirable that the number of beats corresponding to one section is about 4 to 16. This is based on the knowledge that, in general, there are many songs in the quadruple time system, in which one measure is composed of four beats, and that there is a high possibility that similar beats and rhythm patterns will continue in measures 1 to 4. It is a process based on If the music information DB 537 contains beat information, the section may be created based on that information. For example, in the case of a piece of music in quadruple time, 4 beats, 8 beats, 16 beats, etc. are associated with one section. In the case of a piece of music in triple time, 3 beats, 6 beats, 9 beats, etc. are associated with one interval. In other words, the generation unit 521 preferably divides the content on the time axis by a predetermined multiple times the length of the beat or bar of the music to create a plurality of sections.

また、生成部521は、テンポ情報をもとに区間を作成してもよい。例えば、楽曲情報DB537に小節ごとのテンポが格納されている場合、テンポがある程度以上変化した箇所は、異なる区間に割り当てる。例えば、前の小節のテンポと比べて所定値(例えば、10)以上テンポが変化した小節は、前の小節とは異なる区間になるように割り当てる。あるいは前の小節のテンポと比べて所定比率(例えば、5%)以上テンポが変化した小節を、前の小節とは異なる区間にしてもよい。 Also, the generation unit 521 may create a section based on tempo information. For example, when the music information DB 537 stores the tempo for each bar, a portion where the tempo changes more than a certain amount is assigned to a different section. For example, a bar whose tempo has changed by a predetermined value (for example, 10) or more compared to the tempo of the previous bar is assigned to a section different from that of the previous bar. Alternatively, a bar in which the tempo has changed by a predetermined ratio (eg, 5%) or more compared to the tempo of the previous bar may be set as a section different from the previous bar.

また、ビート種類をもとに区間を作成してもよい。例えば、ビート種類が変化した箇所を隣接する2つの区間の境界とする。図24に示した例では、楽曲ID「1」の小節1~4のビート種類が「中」であり、小節5以降はビート種類が「強」であるため、小節4までと小節5以降は異なる区間になる。 Alternatively, the section may be created based on the beat type. For example, the point where the beat type changes is taken as the boundary between two adjacent sections. In the example shown in FIG. 24, the beat type of bars 1 to 4 of the song ID "1" is "medium", and the beat type from bar 5 onwards is "strong". be a different segment.

推薦装置5は、ステップS210Eの後に、実施例1と同様に、ステップS220~S250を実行する。また、ステップS110Eの後に、実施例1と同様にステップS120~S160を実行する。本実施例では、音楽情報をもとに区間を作成するため、1つの区間の中に音楽的に異なる要素が混在する可能性を低減できる。つまり、1つの区間内で、同じようなリズムパターンやビートパターンが持続する可能性を向上できる。従って、1つの区間内で、異なる種類のユーザの反応(異なる種類の体の動き)が混在することを低減できる。このため、カテゴリデータをより精度よく生成することができ、推薦情報をより精度よく作成することができる。 After step S210E, the recommendation device 5 executes steps S220 to S250 in the same manner as in the first embodiment. Also, after step S110E, steps S120 to S160 are executed in the same manner as in the first embodiment. In this embodiment, since the sections are created based on the music information, it is possible to reduce the possibility that musically different elements are mixed in one section. In other words, it is possible to improve the possibility that a similar rhythm pattern or beat pattern will continue within one section. Therefore, it is possible to reduce the mixture of different types of user reactions (different types of body movements) within one section. Therefore, category data can be generated with higher accuracy, and recommendation information can be created with higher accuracy.

<実施例5>
実施例5では、実施例4と同様に、音楽に特有な性質を用いて、カテゴリデータをより精度よく作成する。実施例5では、実施例4の処理に加えて、さらに別の処理を実行する。本実施例の推薦装置5の構成は、実施例4と同じ図23に示す構成である。つまり、記憶部530は楽曲情報DB537を格納している。実施例5にかかる生成部521は、生体情報から解析された周波数成分のうち、楽曲の拍又は速さに基づく周波数成分と所定の関係にある周波数成分を優先的に抽出し、当該抽出した周波数成分に基づきカテゴリデータを生成する。
<Example 5>
In Example 5, similar to Example 4, the characteristic properties of music are used to create category data with higher accuracy. In Example 5, in addition to the process of Example 4, another process is performed. The configuration of the recommendation device 5 of the present embodiment is the configuration shown in FIG. 23, which is the same as that of the fourth embodiment. In other words, the storage section 530 stores the music information DB 537 . The generating unit 521 according to the fifth embodiment preferentially extracts frequency components having a predetermined relationship with frequency components based on the beat or speed of music among the frequency components analyzed from the biological information, and generates the extracted frequency components. Generate categorical data based on the components.

ステップS110に対応するステップS110F(図示せず)において、生成部521は、生体情報DB531および楽曲情報DB537をもとに、カテゴリデータを生成する。ステップS110Fの処理の流れは図8のフローチャートと同様であり、S200、S220、S240、S250は実施例1と同じである。またS210に対応するS210Fは、実施例4のS210Eと同じである。 In step S110F (not shown) corresponding to step S110, the generation unit 521 generates category data based on the biometric information DB 531 and the music information DB 537. FIG. The flow of processing in step S110F is the same as in the flowchart of FIG. 8, and S200, S220, S240, and S250 are the same as in the first embodiment. Also, S210F corresponding to S210 is the same as S210E of the fourth embodiment.

ステップS230に対応するS230Fにおいて、生成部521は、楽曲の拍あるいはテンポの情報を用いて、処理対象の区間のカテゴリデータを生成する。具体的には、生成部521は、フーリエ解析等の手法を用いて、処理対象の区間の生体情報データの主要な周波数成分を抽出する。この際に、楽曲のテンポと所定の関係にある周波数成分を抽出し、それ以外の周波数成分を抽出しないようにする。楽曲を鑑賞中のユーザの生体情報データ(ユーザの体の動き)は、楽曲のテンポと同期している可能性が高い。ただし、ユーザは1拍ごとに体を動かすとは限らず、2拍あるいは4拍ごとに体を動かすことも多い。例えば、4拍子系のロックやポップスの音楽では、2拍目と4拍目にドラム(スネアドラムなど)が演奏されることが多く、ユーザはスネアドラムの演奏のタイミングで体を動かすことも多い。この場合、生体情報データは、2拍に相当する周波数成分が多く含まれることになる。また、1/2拍や1/4拍の周期でドラム(ハイハットなど)が演奏されることが多く、ユーザはハイハットの演奏のタイミングで体(指や腕など)を動かすことも多い。この場合、生体情報データは、1/2拍や1/4拍に相当する周波数成分が多く含まれることになる。このため、生体情報データの中から、拍の周波数と所定の関係にある周波数を抽出する。ここで、所定の関係とは、1/4倍、1/2倍、1倍、2倍、4倍などの関係である。3拍子系や3連符を多用した楽曲の場合、1/3倍や3倍の周波数を抽出した方がよい場合がある。つまり、典型的には基準となる周波数(拍の周波数)に対して、整数分の1倍および整数倍の周波数を抽出する。ただし、場合によっては、基準周波数の2/3倍や3/2倍など、単純な整数比で示される周波数を抽出してもよい。つまり、基準周波数と単純な整数比の関係にある周波数を優先的に抽出してもよい。 In S230F corresponding to step S230, the generation unit 521 generates category data for the section to be processed using the beat or tempo information of the music. Specifically, the generation unit 521 uses a technique such as Fourier analysis to extract main frequency components of the biometric information data in the section to be processed. At this time, frequency components having a predetermined relationship with the tempo of the music are extracted, and other frequency components are not extracted. The user's biometric information data (the user's body movements) while listening to music is highly likely to be synchronized with the tempo of the music. However, the user does not always move his/her body every beat, and often moves his/her body every two or four beats. For example, in rock and pop music with a quadruple time signature, drums (such as a snare drum) are often played on the second and fourth beats, and users often move their bodies at the timing of the snare drum performance. . In this case, the biological information data contains many frequency components corresponding to two beats. In addition, drums (such as hi-hats) are often played with a period of 1/2 beat or 1/4 beat, and users often move their bodies (such as fingers and arms) at the timing of playing the hi-hat. In this case, the biological information data contains many frequency components corresponding to 1/2 beat and 1/4 beat. Therefore, a frequency having a predetermined relationship with the beat frequency is extracted from the biological information data. Here, the predetermined relationship is a relationship such as 1/4 times, 1/2 times, 1 time, 2 times, and 4 times. In the case of a piece of music that frequently uses triple time or triplets, it may be better to extract 1/3 or 3 times the frequency. That is, typically, frequencies that are a fraction of an integer and an integer multiple of the reference frequency (beat frequency) are extracted. However, in some cases, a frequency represented by a simple integer ratio, such as 2/3 times or 3/2 times the reference frequency, may be extracted. In other words, frequencies having a simple integer ratio relationship with the reference frequency may be preferentially extracted.

例えば、ある楽曲のテンポが「120」(1分間に120拍)である場合、1拍の周波数は「2Hz」に相当する。2拍に相当する周波数は「1Hz」であり、1/2拍に相当する周波数は「4Hz」、1/4拍に相当する周波数は「8Hz」になる。拍の周波数と関連する周波数成分を抽出する処理の概要を図25に示す。図25は、処理対象の区間を周波数解析し、周波数成分を抽出した様子を示す図である。ここでは、基準周波数(拍の周波数)をf0とし、1/2f0、f0、2f0を抽出するものとする。図25では、5つの周波数ピークp1からp5が存在するが、このうち「○」印を付けた3つのピークp1、p3及びp5は、基準周波数と所定の関係にあるため、抽出対象となる。一方、「×」を付けた2つのピークp2及びp4は、基準周波数と所定の関係にないため、抽出対象とならない。 For example, if the tempo of a piece of music is "120" (120 beats per minute), the frequency of one beat corresponds to "2 Hz". The frequency corresponding to 2 beats is "1 Hz", the frequency corresponding to 1/2 beat is "4 Hz", and the frequency corresponding to 1/4 beat is "8 Hz". FIG. 25 shows an overview of the process of extracting frequency components related to beat frequencies. FIG. 25 is a diagram showing how frequency analysis is performed on the section to be processed and frequency components are extracted. Here, it is assumed that f0 is the reference frequency (beat frequency) and 1/2f0, f0, and 2f0 are extracted. In FIG. 25, there are five frequency peaks p1 to p5. Of these, the three peaks p1, p3 and p5 marked with "o" have a predetermined relationship with the reference frequency and are thus extracted. On the other hand, the two peaks p2 and p4 marked with "x" are not subject to extraction because they do not have a predetermined relationship with the reference frequency.

生成部521は、抽出対象となる周波数成分を抽出した後、以下のいずれかの方法でカテゴリデータを生成する。
(E1)周波数成分から信号波形を合成する方法
第1の方法は、フーリエ逆変換等の手法を用いて、抽出した周波数成分をもとに信号波形(時間領域のデータ)を合成する方法である。生体情報データが3方向の変位データであれば、x、y及びzそれぞれの信号波形を合成する。そして、合成した信号波形を用いて、実施例1と同様な処理を行って、カテゴリデータを生成する。
(E2)周波数成分から直接カテゴリデータを生成する方法
第2の方法は、周波数成分から直接カテゴリデータを生成する方法である。具体的には、(A11)において抽出対象の周波数成分(周波数成分の強度)を用いたルールを定義しておく。例えば、x軸のf0の周波数成分をDx、y軸のf0の周波数成分をDy、z軸のf0の周波数成分をDzとし、「θ3≦Dx ∩ Dx>Dy ∩ Dz<θ2」という条件が成立した場合、「横ノリ強」と判定する。もちろん、基準周波数以外の周波数に関するルールを用いてもよい。あるいは、(A12)において、各周波数成分の強度を入力とする分類器を学習し、その分類器を用いて反応カテゴリを判定してもよい。
After extracting the frequency component to be extracted, the generation unit 521 generates category data by one of the following methods.
(E1) A method of synthesizing signal waveforms from frequency components The first method is a method of synthesizing signal waveforms (time domain data) based on extracted frequency components using a technique such as inverse Fourier transform. . If the biological information data is displacement data in three directions, the signal waveforms of x, y and z are synthesized. Then, using the synthesized signal waveforms, the same processing as in the first embodiment is performed to generate category data.
(E2) Method of Generating Category Data Directly from Frequency Components The second method is a method of directly generating category data from frequency components. Specifically, in (A11), a rule using the frequency component (intensity of the frequency component) to be extracted is defined. For example, let Dx be the frequency component of f0 on the x-axis, Dy be the frequency component of f0 on the y-axis, and Dz be the frequency component of f0 on the z-axis. If it does, it is determined as "strong horizontal glue". Of course, rules regarding frequencies other than the reference frequency may be used. Alternatively, in (A12), a classifier whose input is the intensity of each frequency component may be learned, and the reaction category may be determined using that classifier.

また、生成部521は、拍の情報をもとに、実施例1よりもさらに多様な反応カテゴリを生成してもよい。具体的には、小節や拍のタイミングと、ユーザの体の変位(加速度)がピークとなるタイミングとの時間差をもとに、反応カテゴリを生成する。例えば、拍のタイミングを基準にして、(F1)ユーザの体の動き(変位のピーク)が所定時間以上早い(前にある)場合と、(F2)両者の時間差の絶対値が所定時間未満である場合と、(F3)ユーザの体の動きが所定時間以上遅い(後にある)場合とを区別して反応カテゴリを生成する。このような反応カテゴリの一例を図26に示す。図26は、図10に示す「横ノリ弱」の反応カテゴリ(中カテゴリ)をさらに細分化した3つの反応カテゴリ(小カテゴリ、小分類、サブカテゴリ)を示している。説明を簡潔にするため、その他の反応カテゴリは省略しているが、「横ノリ中」、「横ノリ強」などの他の反応カテゴリについても、それぞれ3つに細分化した反応カテゴリ(小カテゴリ、小分類、サブカテゴリ)が定義されている。図26に示すように拍のタイミングと、ユーザの生体情報(体の動き)のピークのタイミングとの時間差に応じて、3つの反応カテゴリが生成される。なお、説明を簡潔にするため、「1-1」、「1-2」、「1-3」といった枝番号をカテゴリIDに示しているが、もちろん「1」、「2」、「3」といった連番や任意の文字列をカテゴリIDに用いてもよい。 Further, the generating unit 521 may generate more diverse reaction categories than in the first embodiment based on beat information. Specifically, reaction categories are generated based on the time difference between the timing of bars and beats and the timing of peak displacement (acceleration) of the user's body. For example, with reference to the timing of the beat, (F1) the user's body movement (displacement peak) is earlier than a predetermined time (before), and (F2) the absolute value of the time difference between the two is less than the predetermined time. A reaction category is generated by distinguishing between (F3) the case where the user's body movement is slow (later) than a predetermined time. An example of such reaction categories is shown in FIG. FIG. 26 shows three reaction categories (small category, small category, and subcategory) obtained by further subdividing the reaction category (middle category) of "weak horizontal glue" shown in FIG. For the sake of brevity, other reaction categories are omitted. , subcategories, subcategories) are defined. As shown in FIG. 26, three response categories are generated according to the time difference between the timing of the beat and the peak timing of the user's biological information (body movement). To simplify the explanation, branch numbers such as "1-1", "1-2" and "1-3" are shown as category IDs, but of course "1", "2" and "3" A serial number or an arbitrary character string may be used as the category ID.

本実施例5では、生体情報データから楽曲の拍と関連する周波数成分を抽出し、拍と関連しない周波数成分を除外するため、楽曲(コンテンツ)と関係のない生体情報がカテゴリデータに与える影響を低減できる。例えば、ユーザが楽曲と無関係に頭を動かした場合であっても、その動作がカテゴリデータに及ぶ影響を低減できる。従って、ユーザ間の類似度あるいはコンテンツ間の類似度を精度よく算出することができる。このため、推薦情報を精度よく作成することができる。 In the fifth embodiment, the frequency components related to the beats of the music are extracted from the biometric information data, and the frequency components unrelated to the beats are excluded. can be reduced. For example, even if the user moves his/her head unrelated to the music, the influence of the motion on the category data can be reduced. Therefore, it is possible to accurately calculate the degree of similarity between users or the degree of similarity between contents. Therefore, recommendation information can be created with high accuracy.

また本実施例によれば、生体情報データに加えて音楽情報データを用いることにより、さらに多様なカテゴリデータを生成することができる。従って、ユーザ毎の反応の違いをより詳細にカテゴリデータで表現することができる。このため、ユーザ間の類似度あるいはコンテンツ間の類似度を精度よく算出することができる。また、ターゲットユーザは、所望のコンテンツや所望のユーザをより細かく指定することができる。
なお、本実施例を実施例4とは独立に実施することも可能である。つまり、実施例1と同様に楽曲情報DBを用いずにコンテンツの区間を作成した上で、楽曲情報DBを用いて、楽曲の拍や速さと所定の関係にある周波数成分を生体情報から優先的に抽出してもよい。
Further, according to this embodiment, by using the music information data in addition to the biological information data, it is possible to generate more diverse category data. Therefore, it is possible to express the difference in reaction for each user in more detail with the category data. Therefore, it is possible to accurately calculate the degree of similarity between users or the degree of similarity between contents. Also, the target user can specify desired contents and desired users in more detail.
It is also possible to implement this embodiment independently of the fourth embodiment. In other words, after creating a content section without using the music information DB in the same manner as in the first embodiment, the music information DB is used to preferentially select frequency components having a predetermined relationship with the beat and speed of the music from the biometric information. can be extracted to

上述の説明では、小節および拍の情報をもとにカテゴリデータを生成したが、これに限らず他の楽曲情報(音楽情報)を用いてもよい。具体的には、カラオケ等に用いられるMIDI(Musical Instrument Digital Interface)データ(楽器演奏データ)を用いてもよい。例えば、ドラムの演奏データがある場合、ドラムを構成する各打楽器(ハイハット、シンバル、スネアドラム、バスドラム等)の演奏タイミングと生体情報データのタイミング(ピークのタイミング)との一致度を算出したり、時間差を算出してもよい。もちろん、ドラムに限らず、ギター、ベース、キーボード、ボーカル等任意の楽器や歌唱の演奏データを用いてもよい。また、楽器演奏のタイミングと一致する生体情報データを有効なデータとし、楽器演奏のタイミングと一致しない生体情報データを無効とする(除去する)等の処理を行ってもよい。 In the above description, the category data is generated based on the bar and beat information. However, other music information (music information) may be used instead. Specifically, MIDI (Musical Instrument Digital Interface) data (musical instrument performance data) used for karaoke or the like may be used. For example, if you have drum performance data, you can calculate the degree of matching between the performance timing of each percussion instrument that makes up the drum (hi-hat, cymbal, snare drum, bass drum, etc.) and the timing of biological information data (peak timing). , the time difference may be calculated. Of course, it is not limited to drums, and performance data of any musical instrument such as guitar, bass, keyboard, vocals, or singing may be used. Alternatively, processing such as validating biometric information data that matches the timing of playing a musical instrument and invalidating (removing) biometric information data that does not match the timing of playing a musical instrument may be performed.

また、楽器の種類を反応カテゴリに反映させてもよい。具体的には、ユーザの体の動きが、どの楽器の演奏タイミングと一致する確率が高いかを算出し、一致する楽器の名称を反応カテゴリに含める。また楽器の種類だけでなく、演奏スタイルや音楽的な内容を反応カテゴリにしてもよい。例えば、「ハイハットに反応」、「シンバルに反応」、「スネアドラムに反応」「バスドラムに反応」、「ドラム連打に反応」、「ギターに反応」、「ギターのチョーキングに反応」、「高音女声コーラスに反応」、「2オクターブ以上の音程移動に反応」などである。本実施例によれば、詳細な楽曲情報を用いることにより、反応カテゴリの種類を増やすことができ、ユーザの多様な反応をより詳細にかつ精度よくカテゴリデータに反映することができる。 Also, the type of musical instrument may be reflected in the reaction category. Specifically, it is calculated which musical instrument has a high probability that the movement of the user's body matches the playing timing of the musical instrument, and the name of the musical instrument that matches is included in the reaction category. In addition to the type of musical instrument, the performance style and musical content may be set as response categories. For example, "Respond to hi-hat", "Respond to cymbals", "Respond to snare drum", "Respond to bass drum", "Respond to drum pounding", "Respond to guitar", "Respond to guitar bending", "Response to treble" "Respond to female chorus", "Respond to pitch shift of two octaves or more", and so on. According to the present embodiment, by using detailed music information, it is possible to increase the types of reaction categories, and reflect various user reactions in more detail and with high accuracy in the category data.

<実施例6>
実施例6では、コンテンツ再生前の生体情報データと、コンテンツ再生中の生体情報データとの違いを用いて、さらに精度よくカテゴリデータを作成する。本実施例の推薦装置5の構成は、実施例1と同じ図4に示す構成である。
本実施例では、ユーザがコンテンツを再生する前または再生した後の生体情報データ、すなわちコンテンツ非再生時の生体情報データを生体情報DB531に格納する。このコンテンツ非再生時の生体情報を「第2の生体情報」とも呼ぶ。この際に、コンテンツ再生時の第1の生体情報データと、コンテンツ非再生時の第2の生体情報データを区別可能なように生体情報DB531に格納する。そして、生成部は、第1の生体情報から解析された周波数成分のうち、第2の生体情報から解析された周波数成分とは異なる周波数成分を優先的に抽出し、当該抽出した周波数成分に基づきカテゴリデータを生成する。その詳細を以下に説明する。
<Example 6>
In the sixth embodiment, the difference between the biometric information data before content reproduction and the biometric information data during content reproduction is used to create category data with higher accuracy. The configuration of the recommendation device 5 of the present embodiment is the configuration shown in FIG. 4, which is the same as that of the first embodiment.
In this embodiment, the biometric information data before or after the user reproduces the content, that is, the biometric information data when the content is not reproduced is stored in the biometric information DB 531 . This biometric information when content is not reproduced is also called "second biometric information". At this time, the first biometric information data when the content is reproduced and the second biometric information data when the content is not reproduced are stored in the biometric information DB 531 so as to be distinguishable. Then, the generation unit preferentially extracts frequency components different from the frequency components analyzed from the second biological information among the frequency components analyzed from the first biological information, and based on the extracted frequency components Generate categorical data. The details are described below.

ステップS110に対応するステップS110G(図示せず)において、生成部521は、生体情報DB531および楽曲情報DB537を参照し、カテゴリデータを生成する。具体的には、まずフーリエ解析等の手法を用いて、非再生時の生体情報データから主要な周波数成分を抽出する。次に、ステップS230に対応するステップS230G(図示せず)において、生成部521は、再生時の生体情報データから、非再生時の周波数成分以外の周波数成分を優先的に抽出する。 In step S110G (not shown) corresponding to step S110, the generation unit 521 refers to the biometric information DB 531 and the music information DB 537 to generate category data. Specifically, first, using a technique such as Fourier analysis, main frequency components are extracted from the biological information data during non-reproduction. Next, in step S230G (not shown) corresponding to step S230, the generation unit 521 preferentially extracts frequency components other than the frequency components during non-reproduction from the biological information data during reproduction.

再生時の周波数成分と非再生時の周波数成分とを用いて、カテゴリデータを生成する処理の概要を図27に示す。図27において、実線は再生時の生体情報データの周波数成分であり、破線は非再生時の生体情報データの周波数成分である。再生時の周波数成分は、周波数f1であるピークp11、周波数f2であるピークp12、周波数f3であるピークp13の3つのピークをもつ。また、非再生時の周波数成分は、周波数f4であるピークp21、周波数f5であるピークp22、周波数f6であるピークp23の3つのピークをもつ。生成部521は、再生時の周波数成分のピーク周波数と、最も近い非再生時の周波数成分のピーク周波数とを比較する。そして、再生時の周波数成分のピーク周波数と、非再生時の周波数成分のピーク周波数との差を算出する。生成部521は、周波数の差が所定値以上であれば、再生時の周波数成分を抽出対象とし、周波数の差が所定値未満であれば、再生時の周波数成分を抽出対象としない。図27に示す例では、f1とf4が比較対象になり、両者の差が所定値以上であるため、f1は抽出対象となる。また、f2とf5が比較対象になり、両者の差が所定値未満であるため、f2は抽出対象とならない。また、f3とf6が比較対象になり、両者の差が所定値以上であるため、f3は抽出対象となる。また、再生時の周波数ピークの近傍に非再生時の周波数ピークが存在しない場合や、再生時の周波数ピークの近傍における非再生時の周波数成分の強度が低い場合は、再生時の周波数成分は抽出対象になる。生成部521は、抽出対象となる周波数成分を抽出した後、実施例5で説明したのと同様な方法で、カテゴリデータを生成する。 FIG. 27 shows an outline of processing for generating category data using frequency components during reproduction and frequency components during non-reproduction. In FIG. 27, the solid line is the frequency component of the biological information data during reproduction, and the broken line is the frequency component of the biological information data during non-reproduction. The frequency component at the time of reproduction has three peaks: peak p11 at frequency f1, peak p12 at frequency f2, and peak p13 at frequency f3. Also, the frequency component during non-playback has three peaks: peak p21 at frequency f4, peak p22 at frequency f5, and peak p23 at frequency f6. The generation unit 521 compares the peak frequency of the frequency component during reproduction with the nearest peak frequency of the frequency component during non-reproduction. Then, the difference between the peak frequency of the frequency component during reproduction and the peak frequency of the frequency component during non-reproduction is calculated. If the difference in frequency is equal to or greater than a predetermined value, the generation unit 521 extracts the frequency component during reproduction, and if the difference in frequency is less than the predetermined value, does not extract the frequency component during reproduction. In the example shown in FIG. 27, f1 and f4 are to be compared, and f1 is to be extracted because the difference between them is equal to or greater than the predetermined value. Also, f2 and f5 are to be compared, and since the difference between them is less than the predetermined value, f2 is not to be extracted. Also, f3 and f6 are to be compared, and since the difference between them is equal to or greater than the predetermined value, f3 is to be extracted. If there is no non-playback frequency peak near the playback frequency peak, or if the strength of the non-playback frequency component near the playback frequency peak is low, the playback frequency component is extracted. be targeted. After extracting the frequency component to be extracted, the generation unit 521 generates category data by the same method as described in the fifth embodiment.

本実施例では、非再生時の生体情報データをもとに、再生時の生体情報データの中からコンテンツ視聴とは無関係な成分を除去してカテゴリデータを生成するため、より高い精度でカテゴリデータを生成できる。例えば、ユーザが歩行中にコンテンツを再生した場合、歩行による体の変位が生体情報データに含まれるが、このような成分を低減することができる。このため、カテゴリデータをより高い精度で作成することができ、推薦情報をより高い精度で作成することができる。 In the present embodiment, category data is generated by removing components irrelevant to content viewing from biometric information data during playback based on biometric information data during non-playback. can generate For example, when content is played back while the user is walking, body displacement due to walking is included in biometric information data, and such components can be reduced. Therefore, category data can be created with higher accuracy, and recommendation information can be created with higher accuracy.

<実施例7>
これまでの実施例では、生体情報データとして、ユーザの体の動きを示すデータを用いて、カテゴリデータを生成した。実施例7では、ユーザの体の動きを示すデータに加えて、ユーザの脈拍、脈波、心拍数、呼吸、血圧などの生体情報を用いて、カテゴリデータを生成する。説明を簡潔にするため、以下では、脈拍の情報を用いる例を説明するが、呼吸数などの呼吸に関する情報や血圧に関する情報を用いても同様の処理が可能である。
本実施例における生体センサの一例は、スマートウォッチ等の脈拍を測定できるデバイスである。1つの生体センサでユーザの体の動きと脈拍の両方を計測してもよい。あるいは、ユーザの体の動きをヘッドホンで計測し、ユーザの脈拍をスマートウォッチで計測する等、複数のセンサで1人のユーザの生体情報を計測してもよい。生体情報DB531は、ユーザの体の動きを示すデータの他に、脈拍の情報を格納する。
<Example 7>
In the embodiments so far, category data is generated using data indicating the movement of the user's body as biometric information data. In Example 7, category data is generated using biological information such as the user's pulse, pulse wave, heart rate, respiration, blood pressure, etc., in addition to the data indicating the movement of the user's body. In order to simplify the explanation, an example using pulse information will be described below, but similar processing can be performed using information on respiration such as respiration rate or information on blood pressure.
An example of the biosensor in this embodiment is a device capable of measuring a pulse, such as a smart watch. A single biosensor may measure both the user's body movement and pulse. Alternatively, biometric information of one user may be measured with a plurality of sensors, such as measuring the movement of the user's body with a headphone and measuring the user's pulse with a smart watch. The biometric information DB 531 stores pulse information as well as data indicating the movement of the user's body.

本実施例における推薦情報作成処理の流れは、図7のフローチャートと同様である。ステップS110に相当するステップS110H(図示せず)において、生成部521は、体の動きを示すデータと、脈拍のデータとをもとに、カテゴリデータを生成する。具体的には、ステップS230に相当するステップS230Hにおいて、図28に示すルールデータ535を用いて反応カテゴリを生成する。図28は、図10に示す「横ノリ弱」の反応カテゴリをさらに細分化した3つの反応カテゴリ(「クール」、「ノーマル」、「ホット」)示している。説明を簡潔にするため、その他の反応カテゴリは省略しているが、「横ノリ中」、「横ノリ強」などの他の反応カテゴリについても、それぞれ3つに細分化した反応カテゴリ(小カテゴリ、小分類、サブカテゴリ)が定義されている。図28に示すように、脈拍が所定の基準よりも遅いか、所定の基準範囲内にあるか、所定の基準よりも速いかに応じて、3つの反応カテゴリが生成される。なお、説明を簡潔にするため、「1-1」、「1-2」、「1-3」といった枝番号をカテゴリIDに示しているが、もちろん「1」、「2」、「3」といった連番や任意の文字列をカテゴリIDに用いてもよい。 The flow of recommendation information creation processing in this embodiment is the same as the flow chart in FIG. In step S110H (not shown) corresponding to step S110, the generation unit 521 generates category data based on the data indicating body movement and the pulse data. Specifically, in step S230H corresponding to step S230, reaction categories are generated using the rule data 535 shown in FIG. FIG. 28 shows three reaction categories (“cool,” “normal,” and “hot”) that are further subdivided from the “weak horizontal glue” reaction category shown in FIG. For the sake of brevity, other reaction categories are omitted. , subcategories, subcategories) are defined. As shown in FIG. 28, three reaction categories are generated depending on whether the pulse is slower than a predetermined criterion, within a predetermined criterion range, or faster than a predetermined criterion. To simplify the explanation, branch numbers such as "1-1", "1-2" and "1-3" are shown as category IDs, but of course "1", "2" and "3" A serial number or an arbitrary character string may be used as the category ID.

ここで所定の基準としては、以下のいずれかである。
(G1)所定のしきい値による基準
例えば、脈拍数が「60以上かつ80未満」の範囲にあれば所定の基準内と判定する。脈拍が「60」未満であれば遅いと判定し、脈拍が「80」以上であれば速いと判定する。
(G2)ユーザの通常時の値による基準
例えば、ユーザの日常生活における通常の脈拍数(基準脈拍)を算出しておき、それを基準とする。また、時間帯別や活動状況別に基準脈拍を算出してもよい。また、実施例6における考え方と同様に、非再生時(コンテンツ再生前など)の脈拍を基準脈拍にしてもよい。そして、基準脈拍よりも所定値(例えば、10)以上少ない場合は「遅い」と判定し、基準脈拍よりも所定値以上多い場合は「速い」と判定する。あるいは、基準脈拍よりも所定率(例えば、10%)以上少ない場合は「遅い」と判定し、基準脈拍よりも所定率以上多い場合は「速い」と判定してもよい。
Here, the predetermined criteria are any of the following.
(G1) Criteria Based on a Predetermined Threshold For example, if the pulse rate is within the range of "60 or more and less than 80", it is determined that it is within the predetermined criteria. If the pulse is less than "60", it is determined to be slow, and if the pulse is "80" or more, it is determined to be fast.
(G2) Reference based on user's normal value For example, the user's normal pulse rate (reference pulse) in daily life is calculated and used as a reference. Also, the reference pulse rate may be calculated for each time period or activity status. Further, similarly to the concept in the sixth embodiment, the pulse during non-playback (before content playback, etc.) may be used as the reference pulse. If the pulse is less than the reference pulse by a predetermined value (for example, 10) or more, it is determined to be "slow", and if it is greater than the reference pulse by a predetermined value or more, it is determined to be "fast". Alternatively, if the pulse rate is less than the reference pulse rate by a predetermined rate (for example, 10%) or more, it may be determined to be "slow", and if it is greater than the reference pulse rate by a predetermined rate or more, it may be determined to be "fast".

図28に示す例では、コンテンツ再生時の脈拍が所定の基準よりも遅ければ、「クール(横ノリ弱クール)」という反応カテゴリが生成され、コンテンツ再生時の脈拍が所定の基準範囲内であれば、「ノーマル(横ノリ弱ノーマル)」という反応カテゴリが生成され、コンテンツ再生時の脈拍が所定の基準よりも速ければ、「ホット(横ノリ弱ホット)」という反応カテゴリが生成される。脈拍が速い場合、ユーザの状況として、「全身を動かしている」、「ジョギング等の運動をしている」、「非常に興奮している」等が想定される。一方、脈拍が遅い場合、ユーザの状況として、「安静にしている」、「横になっている」、「非常に落ち着いている」等が想定される。例えば、同じコンテンツをジョギングをしながら鑑賞しているユーザAと、ベッドに横になって鑑賞しているユーザBとでは、やはり感性、趣味、嗜好、価値観等が異なっている可能性が高い。本実施例によれば、これまでの実施例に比べて、さらに多くの種類の生体情報(多様な生体情報)をもとに、カテゴリデータを生成するため、コンテンツ再生中のユーザの多様な反応をより細かく(精度よく)カテゴリデータに反映させることができる。また、生体情報データをより多くの種類の反応カテゴリに対応させることができる。このため、カテゴリデータをもとに、ユーザ間の類似度やコンテンツ間の類似度をより精度良く算出することができる。このため、コンテンツに対するユーザの多様な反応をカテゴリデータに精度よく反映することができ、推薦情報をより精度良く作成できる。 In the example shown in FIG. 28, if the pulse during content playback is slower than a predetermined standard, a response category of "cool (weakly cool)" is generated, and if the pulse during content playback is within the predetermined standard range, For example, a reaction category of "normal (horizontal movement is weak, normal)" is generated, and if the pulse during content reproduction is faster than a predetermined standard, a reaction category of "hot (horizontal movement is weak and hot)" is generated. When the pulse is fast, the user's situation is assumed to be "exercising the whole body", "exercising such as jogging", "extremely excited", and the like. On the other hand, when the pulse is slow, the user's situation is assumed to be "quiet", "lying down", "very calm", and the like. For example, there is a high possibility that user A, who is viewing the same content while jogging, and user B, who is lying on the bed and viewing the same content, have different sensibilities, hobbies, tastes, values, etc. . According to the present embodiment, category data is generated based on more types of biometric information (various biometric information) than in the previous embodiments, so that various reactions of the user during content reproduction can be achieved. can be reflected in the category data more finely (with high accuracy). Also, biometric information data can be made to correspond to more types of reaction categories. Therefore, based on the category data, the degree of similarity between users and the degree of similarity between contents can be calculated with higher accuracy. Therefore, it is possible to accurately reflect various user reactions to the content in the category data, and to create recommendation information with higher accuracy.

<他の実施形態>
尚、<実施例1>~<実施例7>を任意に組み合せることも、もちろん可能である。例えば、<実施例2>と<実施例4>と<実施例5>と<実施例6>とを組み合せてもよい。
以上、本開示を上記実施の形態に即して説明したが、本開示は上記実施の形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。
<Other embodiments>
It is of course possible to arbitrarily combine <Example 1> to <Example 7>. For example, <Example 2>, <Example 4>, <Example 5>, and <Example 6> may be combined.
As described above, the present disclosure has been described in accordance with the above embodiments, but the present disclosure is not limited only to the configurations of the above embodiments, and is applicable within the scope of the invention of the claims of the present application. Needless to say, it includes various modifications, modifications, and combinations that can be made by a trader.

また、上述の推薦装置(情報処理装置)及び端末装置の任意の処理は、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Further, arbitrary processing of the recommendation device (information processing device) and the terminal device described above can be realized by causing a CPU (Central Processing Unit) to execute a computer program. In this case, the computer program can be stored and provided to the computer using various types of non-transitory computer readable medium. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible discs, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, Includes CD-R/W, semiconductor memory (eg mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)). The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.

また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合だけでなく、このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本開示の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本開示の実施の形態に含まれる。 In addition to the case where the functions of the above-described embodiments are realized by a computer executing a program that realizes the functions of the above-described embodiments, this program can be executed by an OS (OS) running on the computer. Operating System) or application software to realize the functions of the above-described embodiments are also included in the embodiments of the present disclosure. Furthermore, even if all or part of the processing of this program is performed by a function expansion board inserted into the computer or a function expansion unit connected to the computer, and the functions of the above-described embodiments are realized, the present disclosure included in the embodiment of

u1~u4 ユーザ
11~14 端末装置
21~24 生体センサ
31、32 基地局装置
4 コンテンツ配信サーバ
5 推薦装置
80 ネットワーク
510 通信部
520 処理部
521 生成部
522 算出部
523 作成部
530 記憶部
531 生体情報DB
532 ユーザ反応DB
533 区間情報DB
534 カテゴリ関連データ
535 ルールデータ
536 プログラム
540 入力装置
550 表示装置
u1 to u4 users 11 to 14 terminal devices 21 to 24 biosensors 31, 32 base station device 4 content distribution server 5 recommendation device 80 network 510 communication unit 520 processing unit 521 generation unit 522 calculation unit 523 creation unit 530 storage unit 531 biometric information database
532 User Response DB
533 section information DB
534 category-related data 535 rule data 536 program 540 input device 550 display device

Claims (10)

コンテンツ再生時に測定されたユーザの生体情報を、ユーザとコンテンツに対応させて記憶する記憶部と、
前記生体情報をもとに、コンテンツに対するユーザの反応の種類を示す反応カテゴリを1つ以上含むカテゴリデータを生成する生成部と、
前記カテゴリデータと、反応カテゴリ同士の関連度合いを示すカテゴリ関連データとに基づいて、ユーザ同士の類似性、又は、コンテンツ同士の類似性のいずれかを示す類似度を算出する算出部と、
前記類似度に基づいて、推薦情報を作成する作成部と、
を備える情報処理装置。
a storage unit that stores user's biological information measured during content reproduction in association with the user and the content;
a generation unit that generates category data including one or more reaction categories indicating the type of user reaction to content based on the biometric information;
a calculation unit that calculates a degree of similarity indicating either similarity between users or similarity between contents based on the category data and category related data indicating the degree of relatedness between reaction categories;
a creation unit that creates recommendation information based on the similarity;
Information processing device.
前記生体情報は、2つ以上の方向に対するユーザの体の動きを示すデータを含み、
前記生成部は、前記データを2つ以上の方向に区別する所定の反応カテゴリを用いて、前記カテゴリデータを生成する、
請求項1に記載の情報処理装置。
The biometric information includes data indicating body movements of the user in two or more directions,
The generation unit generates the category data using a predetermined reaction category that distinguishes the data in two or more directions.
The information processing device according to claim 1 .
前記生成部は、コンテンツを時間軸において複数に分割した区間ごとに反応カテゴリを生成し、区間順に並べられた反応カテゴリを含む前記カテゴリデータを生成する、
請求項1又は2に記載の情報処理装置。
The generating unit generates a reaction category for each section into which the content is divided along the time axis, and generates the category data including the reaction categories arranged in the order of the sections.
The information processing apparatus according to claim 1 or 2.
前記コンテンツは楽曲であり、
前記生成部は、前記楽曲の拍又は小節の長さの所定数倍の長さで、前記コンテンツを時間軸において分割し、複数の区間を作成する、
請求項3に記載の情報処理装置。
the content is a song,
The generation unit divides the content on the time axis by a predetermined number of times the length of the beat or bar of the music piece, and creates a plurality of sections.
The information processing apparatus according to claim 3.
前記作成部は、
コンテンツの複数の区間それぞれについて、所定の反応カテゴリを示したユーザの数または反応数を算出し、算出した数に応じて推薦区間を特定し、前記推薦区間を含めた前記推薦情報を作成する、
請求項3又は4に記載の情報処理装置。
The creation unit
calculating the number of users who indicated a predetermined reaction category or the number of reactions for each of a plurality of sections of content, identifying a recommended section according to the calculated number, and creating the recommendation information including the recommended section;
The information processing apparatus according to claim 3 or 4.
前記コンテンツは楽曲であり、
前記生成部は、前記生体情報から解析された周波数成分のうち、前記楽曲の拍又は速さに基づく周波数成分と所定の関係にある周波数成分を優先的に抽出し、当該抽出した周波数成分に基づき前記カテゴリデータを生成する、
請求項1乃至5のいずれか1項に記載の情報処理装置。
the content is a song,
The generating unit preferentially extracts, from among the frequency components analyzed from the biological information, frequency components having a predetermined relationship with frequency components based on the beat or speed of the music, and based on the extracted frequency components generating the categorical data;
The information processing apparatus according to any one of claims 1 to 5.
前記作成部は、
コンテンツに対して所定の反応カテゴリの反応を示したユーザ数、及び、コンテンツに対してユーザによって示された主要な反応カテゴリの少なくとも一方を含めて前記推薦情報を作成する、
請求項1乃至6のいずれか1項に記載の情報処理装置。
The creation unit
creating the recommendation information including at least one of the number of users who have responded to the content in a predetermined response category and the major response categories indicated by the users to the content;
The information processing apparatus according to any one of claims 1 to 6.
前記記憶部は、コンテンツ非再生時において測定されたユーザの生体情報をさらに記憶し、
前記生成部は、コンテンツ再生時の生体情報から抽出された周波数成分のうち、コンテンツ非再生時の生体情報から抽出された周波数成分とは異なる周波数成分を優先的に抽出し、当該抽出した周波数成分に基づき前記カテゴリデータを生成する
請求項1乃至7のいずれか1項に記載の情報処理装置。
The storage unit further stores the user's biological information measured while the content is not reproduced,
The generating unit preferentially extracts frequency components different from frequency components extracted from the biological information during non-reproduction of the content among the frequency components extracted from the biological information during content reproduction, and extracts the extracted frequency components. The information processing apparatus according to any one of claims 1 to 7, wherein the category data is generated based on.
前記作成部は、
前記類似度に基づいて複数の推薦候補コンテンツを選択し、
前記複数の推薦候補コンテンツの中から、ターゲットユーザとの間の前記類似度が相対的に高い他のユーザが所定の反応カテゴリを示したコンテンツ、ターゲットユーザが過去に示した反応カテゴリに合致するコンテンツ、又は、ターゲットユーザにより指定された反応カテゴリに合致するコンテンツを推薦コンテンツとして選択し、前記推薦コンテンツに関する情報をターゲットユーザに対する前記推薦情報に含める、
請求項1乃至8のいずれか1項に記載の情報処理装置。
The creation unit
selecting a plurality of recommended candidate contents based on the similarity;
Among the plurality of recommended candidate contents, content for which another user having a relatively high degree of similarity with the target user indicated a predetermined reaction category, and content matching the reaction category indicated by the target user in the past. Alternatively, content that matches a reaction category specified by the target user is selected as recommended content, and information about the recommended content is included in the recommended information for the target user;
The information processing apparatus according to any one of claims 1 to 8.
コンテンツ再生時に測定されたユーザの生体情報を、ユーザとコンテンツに対応させて記憶する処理と、
前記生体情報をもとに、コンテンツに対するユーザの反応の種類を示す反応カテゴリを1つ以上含むカテゴリデータを生成する処理と、
前記カテゴリデータと、反応カテゴリ同士の関連度合いを示すカテゴリ関連データとに基づいて、ユーザ同士の類似性、又は、コンテンツ同士の類似性のいずれかを示す類似度を算出する処理と、
前記類似度に基づいて、推薦情報を作成する処理と、
をコンピュータに実行させるプログラム。
a process of storing the user's biometric information measured during content reproduction in association with the user and the content;
a process of generating category data including one or more reaction categories indicating the type of reaction of the user to the content based on the biometric information;
a process of calculating a degree of similarity indicating either similarity between users or similarity between contents based on the category data and category related data indicating the degree of relatedness between reaction categories;
a process of creating recommendation information based on the similarity;
A program that makes a computer run
JP2019160444A 2019-09-03 2019-09-03 Information processing device and program Active JP7268547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019160444A JP7268547B2 (en) 2019-09-03 2019-09-03 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019160444A JP7268547B2 (en) 2019-09-03 2019-09-03 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2021039541A JP2021039541A (en) 2021-03-11
JP7268547B2 true JP7268547B2 (en) 2023-05-08

Family

ID=74847122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019160444A Active JP7268547B2 (en) 2019-09-03 2019-09-03 Information processing device and program

Country Status (1)

Country Link
JP (1) JP7268547B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7466585B2 (en) * 2022-04-25 2024-04-12 株式会社Zozo Information processing device, information processing method, and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250528A (en) 2009-04-15 2010-11-04 Yahoo Japan Corp Feeling matching device, feeling matching method, and program
WO2017094327A1 (en) 2015-11-30 2017-06-08 ソニー株式会社 Information processing device, information processing system, information processing method, and program
US20190132646A1 (en) 2017-10-26 2019-05-02 International Business Machines Corporation Real-time movie viewer analysis system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4403415B2 (en) * 2005-09-20 2010-01-27 ソニー株式会社 Content reproduction method and content reproduction apparatus
JP6217228B2 (en) * 2013-08-12 2017-10-25 大日本印刷株式会社 Information providing apparatus, program, and information providing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250528A (en) 2009-04-15 2010-11-04 Yahoo Japan Corp Feeling matching device, feeling matching method, and program
WO2017094327A1 (en) 2015-11-30 2017-06-08 ソニー株式会社 Information processing device, information processing system, information processing method, and program
US20190132646A1 (en) 2017-10-26 2019-05-02 International Business Machines Corporation Real-time movie viewer analysis system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
奥 健太,楽曲推薦システム ープレイリスト,コンテキスト,インタラクションー,人工知能 第34巻 第3号,日本,(一社)人工知能学会 JSAI,2019年05月01日,第34巻, 第3号,pp.300-308

Also Published As

Publication number Publication date
JP2021039541A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
US11342062B2 (en) Method and system for analysing sound
EP3047478B1 (en) Combining audio samples by automatically adjusting sample characteristics
US9280313B2 (en) Automatically expanding sets of audio samples
US20200286505A1 (en) Method and system for categorizing musical sound according to emotions
US8642872B2 (en) Music steering with automatically detected musical attributes
US12032620B2 (en) Identifying media content
WO2017165823A1 (en) Media content items sequencing
WO2015042083A1 (en) Recommending audio sample combinations
US20160070702A1 (en) Method and system to enable user related content preferences intelligently on a headphone
Knees et al. Introduction to music similarity and retrieval
KR20120101233A (en) Method for providing sentiment information and method and system for providing contents recommendation using sentiment information
US20210034688A1 (en) Systems and methods for recommending collaborative content
US20190083886A1 (en) Dynamic Modification of Audio Playback in Games
WO2017094327A1 (en) Information processing device, information processing system, information processing method, and program
JP7268547B2 (en) Information processing device and program
JP2008268507A (en) Music piece information attachment server, terminal and music piece information attachment system
WO2019208391A1 (en) Method for presenting musicality information, musicality information presenting device, and musicality information presenting system
CN116745761A (en) Identification of media items for a target group
Griffiths et al. A self-report study that gauges perceived and induced emotion with music
JP5742472B2 (en) Data retrieval apparatus and program
Sakore et al. Music Recommender System Using ChatBot
Kooi Beating Spotify's algorithm: towards an improved emotion label for Billboard songs
Rossi SCHuBERT: a real-time end-to-end model for piano music emotion recognition
Hu et al. Design of Music Signal Spectrum Visualization System Based on Collaborative Filtering Algorithm
Koçer Implementing Mood-Based Music Recommendations through Spectral Feature Analysis and Instrument Separation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7268547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150