JP2022034117A - Evaluation device and display device - Google Patents

Evaluation device and display device Download PDF

Info

Publication number
JP2022034117A
JP2022034117A JP2020137750A JP2020137750A JP2022034117A JP 2022034117 A JP2022034117 A JP 2022034117A JP 2020137750 A JP2020137750 A JP 2020137750A JP 2020137750 A JP2020137750 A JP 2020137750A JP 2022034117 A JP2022034117 A JP 2022034117A
Authority
JP
Japan
Prior art keywords
unit
evaluation
user
content
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020137750A
Other languages
Japanese (ja)
Inventor
麗子 下澤
Reiko Shimozawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020137750A priority Critical patent/JP2022034117A/en
Publication of JP2022034117A publication Critical patent/JP2022034117A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To easily find content that a user wants to watch again from the content that the user has watched once.SOLUTION: An evaluation device 1 includes a control unit 10 that can store content in a storage unit 20 and displays the content on a display unit 72, an information evaluation unit 50 that evaluates data representing the user's emotions on the basis of at least one of an image and a sound of a user viewing content acquired as external information by the information acquisition unit 30, and stores the evaluation result in the storage unit 20 in association with the content, and an evaluation result output unit 60 that displays a content list 62 including the content on the display unit 72 on the basis of the result stored in the storage unit 20.SELECTED DRAWING: Figure 1

Description

本開示は、評価装置および表示装置に関する。 The present disclosure relates to an evaluation device and a display device.

テレビ放送番組等のコンテンツを録画して、後でそのコンテンツを再生して視聴することは、従来から行われている。近年は、多チャンネルの放送を同時に録画できる録画再生装置が普及したことにより、一日で多数のコンテンツを録画することも多い。録画されたコンテンツの視聴をユーザに促す技術として、例えば特許文献1にはテレビ放送視聴録画システムが開示されている。このテレビ放送視聴録画システムは、録画操作が行われると、そのときカメラにより撮像された画像データに基づいて録画操作を行ったユーザを判別し、当該ユーザの情報とともに録画コンテンツを記憶する。その後、ユーザが電源をオンする等の所定の操作を行ったときに、カメラにより撮像された画像データに基づいて所定の操作を行ったユーザを判別し、当該ユーザが操作して録画されたコンテンツであって未視聴のものを抽出して、当該ユーザが確認できるように抽出した録画コンテンツを表示する。 It has been conventionally practiced to record content such as a television broadcast program and then play and watch the content later. In recent years, with the widespread use of recording / playback devices capable of simultaneously recording multi-channel broadcasts, it is often the case that a large number of contents are recorded in one day. As a technique for encouraging users to view recorded contents, for example, Patent Document 1 discloses a television broadcast viewing / recording system. When the recording operation is performed, the television broadcast viewing / recording system determines the user who performed the recording operation based on the image data captured by the camera at that time, and stores the recorded content together with the information of the user. After that, when the user performs a predetermined operation such as turning on the power, the user who has performed the predetermined operation is determined based on the image data captured by the camera, and the content recorded by the user. However, unviewed content is extracted and the extracted recorded content is displayed so that the user can check it.

特開2007-214663号公報(段落0026-0033)JP-A-2007-214663 (paragraph 0026-0033)

上述のように、従来、録画したコンテンツのうち未視聴のものの視聴をユーザに促す技術は知られている。しかし、ユーザが一度視聴したコンテンツの中から再度視聴したいと思うコンテンツを簡単に探したいという要望があり、上述した技術ではこのような要望に対応できなかった。 As described above, conventionally, a technique for encouraging a user to watch an unviewed content among recorded contents is known. However, there is a request that the user wants to easily search for the content that the user wants to watch again from the contents that have been watched once, and the above-mentioned technology cannot meet such a request.

本開示は、上記のような課題を解決するためになされたもので、ユーザが一度視聴したコンテンツの中から再度視聴したいと思うコンテンツを簡単に探すことが可能な評価装置および表示装置を得るものである。 This disclosure is made to solve the above-mentioned problems, and obtains an evaluation device and a display device capable of easily searching for the content that the user wants to watch again from the contents that the user has watched once. Is.

本開示に係る評価装置は、コンテンツを記憶部に保存させることが可能であり、コンテンツを表示部に表示させる制御部と、情報取得部により外部情報として取得された、コンテンツを視聴するユーザの画像と音声との少なくとも一方に基づいて、ユーザの感情を表すデータを評価し、評価した結果をコンテンツに対応付けて記憶部に保存させる情報評価部と、記憶部に保存された結果に基づいて、コンテンツを含むコンテンツリストを表示部に表示させる評価結果出力部と、を備えるものである。 The evaluation device according to the present disclosure can store the content in the storage unit, and has a control unit for displaying the content on the display unit and an image of a user who views the content acquired as external information by the information acquisition unit. Based on at least one of the information and the voice, the information evaluation unit that evaluates the data representing the user's emotion and stores the evaluation result in the storage unit in association with the content, and the information evaluation unit that stores the evaluation result in the storage unit, and based on the result stored in the storage unit. It is provided with an evaluation result output unit for displaying a content list including content on the display unit.

また、本開示に係る表示装置は、上述した評価装置と、コンテンツを表示する表示部と、を備えるものである。 Further, the display device according to the present disclosure includes the above-mentioned evaluation device and a display unit for displaying contents.

本開示によれば、ユーザが一度視聴したコンテンツの中から再度視聴したいと思うコンテンツを簡単に探すことができる。 According to the present disclosure, it is possible to easily search for the content that the user wants to watch again from the contents that have been watched once.

実施の形態1を示す評価装置の構成を示すブロック図である。It is a block diagram which shows the structure of the evaluation apparatus which shows Embodiment 1. FIG. 実施の形態1を示す評価装置の評価結果出力部で作成されるコンテンツリストの一例である。This is an example of a content list created by the evaluation result output unit of the evaluation device showing the first embodiment. 実施の形態1を示す評価装置において音声に基づいてコンテンツを評価する動作のフローチャートである。It is a flowchart of the operation which evaluates content based on voice in the evaluation apparatus which shows Embodiment 1. FIG. 実施の形態1を示す評価装置において画像に基づいてコンテンツを評価する動作のフローチャートである。It is a flowchart of the operation which evaluates a content based on an image in the evaluation apparatus which shows Embodiment 1. 実施の形態2を示す評価装置の評価結果出力部で作成されるコンテンツリストの一例である。This is an example of a content list created by the evaluation result output unit of the evaluation device showing the second embodiment.

以下、添付図面を参照しながら、実施の形態について説明する。各図において同一または相当する部分には同一の符号を付している。 Hereinafter, embodiments will be described with reference to the accompanying drawings. In each figure, the same or corresponding parts are designated by the same reference numerals.

実施の形態1.
図1は、実施の形態1における評価装置1の構成を示すブロック図である。評価装置1は、制御部10と、情報評価部50と、評価結果出力部60と、を備えている。さらに、本実施の形態では、図1に示すように、評価装置1は、操作入力部12と、映像音声入力部14と、映像処理部16と、音声処理部18と、記憶部20と、情報取得部30と、情報判定部40と、を備えている。また、評価装置1には、表示装置70が接続されている。
Embodiment 1.
FIG. 1 is a block diagram showing the configuration of the evaluation device 1 according to the first embodiment. The evaluation device 1 includes a control unit 10, an information evaluation unit 50, and an evaluation result output unit 60. Further, in the present embodiment, as shown in FIG. 1, the evaluation device 1 includes an operation input unit 12, a video / audio input unit 14, a video processing unit 16, an audio processing unit 18, and a storage unit 20. It includes an information acquisition unit 30 and an information determination unit 40. Further, a display device 70 is connected to the evaluation device 1.

本実施の形態では、評価装置1は、テレビ放送番組等のコンテンツの録画機能および再生機能を有している。また、評価装置1は、コンテンツの評価機能を有している。以下では、まず、評価装置1においてコンテンツの録画機能および再生機能に関係する構成について説明する。 In the present embodiment, the evaluation device 1 has a recording function and a reproduction function of contents such as a television broadcast program. Further, the evaluation device 1 has a content evaluation function. In the following, first, the configuration related to the content recording function and the content recording function in the evaluation device 1 will be described.

操作入力部12は、ユーザの操作に基づいて操作入力信号が入力され、その操作入力信号を制御部10に出力する。操作入力部12には、操作入力信号を操作入力部12に入力するための操作部13が通信可能に接続されている。操作部13は、評価装置1に対するユーザの操作を受け付けるユーザインタフェイスである。例えば、操作部13は、評価装置1を遠隔操作するリモートコントローラであり、ユーザによってこのリモートコントローラが操作される毎にユーザの操作に応じた操作入力信号が操作入力部12に入力される。また、例えば、操作部13は、評価装置1の本体に設けられたスイッチであってもよい。 The operation input unit 12 inputs an operation input signal based on the user's operation, and outputs the operation input signal to the control unit 10. An operation unit 13 for inputting an operation input signal to the operation input unit 12 is communicably connected to the operation input unit 12. The operation unit 13 is a user interface that accepts a user's operation on the evaluation device 1. For example, the operation unit 13 is a remote controller that remotely controls the evaluation device 1, and every time the remote controller is operated by the user, an operation input signal corresponding to the user's operation is input to the operation input unit 12. Further, for example, the operation unit 13 may be a switch provided in the main body of the evaluation device 1.

映像音声入力部14は、外部からの信号入力を受け取る機能を有しており、入力された信号を処理し、制御部10に出力する。映像音声入力部14は、例えば、外部のアンテナ(不図示)と接続されており、アンテナで受信したデジタル放送信号を含むRF(Radio Frequency)信号に対して各種処理を行い、制御部10に出力する。また、例えば、映像音声入力部14は、ブルーレイディスクプレーヤ等の外部機器(不図示)と接続されており、外部機器から入力された映像音声入力信号を処理し、制御部10に出力してもよい。さらに、映像音声入力部14は、インターネット等の外部ネットワーク(不図示)に接続されており、外部ネットワークを介して映像データ等の信号入力を受け取ってもよい。 The video / audio input unit 14 has a function of receiving a signal input from the outside, processes the input signal, and outputs the input signal to the control unit 10. The video / audio input unit 14 is connected to, for example, an external antenna (not shown), performs various processing on an RF (Radio Frequency) signal including a digital broadcast signal received by the antenna, and outputs the RF (Radio Frequency) signal to the control unit 10. do. Further, for example, the video / audio input unit 14 is connected to an external device (not shown) such as a Blu-ray disc player, and even if the video / audio input signal input from the external device is processed and output to the control unit 10. good. Further, the video / audio input unit 14 is connected to an external network (not shown) such as the Internet, and may receive signal input such as video data via the external network.

記憶部20は、各種データを保存する。記憶部20が保存するデータは、例えば、制御部10を制御するためのプログラムや予め設定されているパラメータ、録画されたコンテンツのデータ等である。コンテンツのデータには、音声データや映像データ等が含まれる。記憶部20は、例えば、ハードディスクドライブや、揮発性メモリ、不揮発性メモリ等である。本実施の形態では、記憶部20は、評価装置1に内蔵されている。 The storage unit 20 stores various data. The data stored by the storage unit 20 is, for example, a program for controlling the control unit 10, preset parameters, data of recorded contents, and the like. Content data includes audio data, video data, and the like. The storage unit 20 is, for example, a hard disk drive, a volatile memory, a non-volatile memory, or the like. In the present embodiment, the storage unit 20 is built in the evaluation device 1.

制御部10は、評価装置1の全体の制御を行う。また、制御部10は、操作入力部12から出力された操作入力信号に基づいて、評価装置1の動作を制御する。本実施の形態では、制御部10は、録画機能および再生機能を制御する。例えば、操作入力部12から出力された操作入力信号がコンテンツの録画を示す場合、制御部10は、映像音声入力部14から出力された信号に各種処理を施し、コンテンツのデータとして記憶部20に保存する。また、操作入力部12から出力された操作入力信号がコンテンツの再生を示す場合、制御部10は、記憶部20に保存されているコンテンツのデータを記憶部20から読み込み、読み込んだデータに処理を施して映像データと音声データとを取得し、映像データを映像処理部16に、音声データを音声処理部18にそれぞれ出力する。 The control unit 10 controls the entire evaluation device 1. Further, the control unit 10 controls the operation of the evaluation device 1 based on the operation input signal output from the operation input unit 12. In the present embodiment, the control unit 10 controls the recording function and the reproduction function. For example, when the operation input signal output from the operation input unit 12 indicates recording of content, the control unit 10 performs various processes on the signal output from the video / audio input unit 14 and stores the content as data in the storage unit 20. save. Further, when the operation input signal output from the operation input unit 12 indicates the reproduction of the content, the control unit 10 reads the data of the content stored in the storage unit 20 from the storage unit 20 and processes the read data. The video data and the audio data are acquired, and the video data is output to the video processing unit 16 and the audio data is output to the audio processing unit 18.

映像処理部16は、制御部10から出力された映像データを映像出力信号に変換する。音声処理部18は、制御部10から出力された音声データを音声出力信号に変換する。映像出力信号および音声出力信号は、表示装置70に入力される。 The video processing unit 16 converts the video data output from the control unit 10 into a video output signal. The voice processing unit 18 converts the voice data output from the control unit 10 into a voice output signal. The video output signal and the audio output signal are input to the display device 70.

表示装置70は、表示部72と、音声出力部74と、を備えている。映像処理部16から出力された映像出力信号は、表示部72に入力され、映像出力信号に応じた映像が、表示部72に表示される。音声処理部18から出力された音声出力信号は、音声出力部74に入力され、音声出力信号に応じた音声が音声出力部74から出力される。表示装置70は、例えば、テレビやディスプレイ装置等である。 The display device 70 includes a display unit 72 and an audio output unit 74. The video output signal output from the video processing unit 16 is input to the display unit 72, and the video corresponding to the video output signal is displayed on the display unit 72. The voice output signal output from the voice processing unit 18 is input to the voice output unit 74, and the voice corresponding to the voice output signal is output from the voice output unit 74. The display device 70 is, for example, a television, a display device, or the like.

次に、評価装置1においてコンテンツの評価機能に関係する構成について説明する。 Next, the configuration related to the content evaluation function in the evaluation device 1 will be described.

情報取得部30は、評価装置1によって再生されるコンテンツを視聴するユーザの画像と音声との少なくとも一方を外部情報として取得する。本実施の形態では、情報取得部30として、音声取得部32と、画像取得部34と、が設けられており、情報取得部30は、ユーザの画像と音声との両方を外部情報として取得する。また、情報取得部30は、取得した外部情報を情報判定部40に出力する。 The information acquisition unit 30 acquires at least one of the image and the sound of the user who views the content reproduced by the evaluation device 1 as external information. In the present embodiment, the information acquisition unit 30 is provided with a voice acquisition unit 32 and an image acquisition unit 34, and the information acquisition unit 30 acquires both the user's image and voice as external information. .. Further, the information acquisition unit 30 outputs the acquired external information to the information determination unit 40.

音声取得部32は、コンテンツを視聴するユーザの音声を取得する。音声取得部32は、例えばマイクである。本実施の形態では、音声取得部32は、評価装置1に内蔵されており、評価装置1および表示装置70の前方にいるユーザから発せられる音声を検出できるように配置されている。音声取得部32は、検出した音声をデジタル音声データに変換する。音声取得部32は、変換した音声データを情報判定部40の音声判定部42に出力する。 The audio acquisition unit 32 acquires the audio of the user who views the content. The voice acquisition unit 32 is, for example, a microphone. In the present embodiment, the voice acquisition unit 32 is built in the evaluation device 1 and is arranged so as to be able to detect the voice emitted from the user in front of the evaluation device 1 and the display device 70. The voice acquisition unit 32 converts the detected voice into digital voice data. The voice acquisition unit 32 outputs the converted voice data to the voice determination unit 42 of the information determination unit 40.

画像取得部34は、コンテンツを視聴するユーザの画像を取得する。取得する画像は、動画像および静画像のいずれであってもよい。画像取得部34は、例えばカメラであり、CCD(Charge Coupled Device)イメージセンサ等の撮像素子を有している。本実施の形態では、画像取得部34は、評価装置1に内蔵されており、評価装置1および表示装置70の前方の予め設定された範囲を撮像できるように配置されている。画像取得部34は、撮像して取得した画像データを情報判定部40の画像判定部44に出力する。 The image acquisition unit 34 acquires an image of a user who views the content. The image to be acquired may be either a moving image or a still image. The image acquisition unit 34 is, for example, a camera, and has an image pickup device such as a CCD (Challge Coupled Device) image sensor. In the present embodiment, the image acquisition unit 34 is built in the evaluation device 1 and is arranged so that a preset range in front of the evaluation device 1 and the display device 70 can be imaged. The image acquisition unit 34 outputs the image data acquired by imaging to the image determination unit 44 of the information determination unit 40.

情報判定部40は、情報取得部30によって取得された外部情報にユーザの感情を表すデータが含まれているか否かを判定する。本実施の形態では、情報判定部40として、音声判定部42と、画像判定部44と、が設けられている。また、情報判定部40は、外部情報にユーザの感情を表すデータが含まれていると判定した場合、その情報を情報評価部50に出力する。 The information determination unit 40 determines whether or not the external information acquired by the information acquisition unit 30 includes data representing the user's emotions. In the present embodiment, the information determination unit 40 is provided with a voice determination unit 42 and an image determination unit 44. Further, when the information determination unit 40 determines that the external information includes data expressing the user's emotion, the information determination unit 40 outputs the information to the information evaluation unit 50.

音声判定部42は、情報取得部30の音声取得部32によって取得された音声データにユーザの感情を表す音声データが含まれているか否かを判定する。より具体的には、音声判定部42は、音声取得部32から出力された音声データが入力されると、この音声データにコンテンツを視聴するユーザの感情を表す音声データが含まれているか否かを判定する。ユーザの感情を表す音声データとしては、例えば、笑い声や泣き声、驚きの声、歓声、拍手の音等の音声データである。 The voice determination unit 42 determines whether or not the voice data acquired by the voice acquisition unit 32 of the information acquisition unit 30 includes voice data representing the user's emotions. More specifically, when the voice data output from the voice acquisition unit 32 is input, the voice determination unit 42 determines whether or not the voice data includes voice data representing the emotions of the user who views the content. To judge. The voice data representing the user's emotion is, for example, voice data such as laughter, crying, surprised voice, cheers, and applause.

画像判定部44は、情報取得部30の画像取得部34によって取得された画像データにユーザの感情を表す画像データが含まれているか否かを判定する。より具体的には、画像判定部44は、画像取得部34から出力された画像データが入力されると、この画像データからコンテンツを視聴しているユーザを識別し、画像データ中のユーザの顔つきや姿勢にユーザの感情を表す表情や動作が含まれているか否かを判定する。ユーザの感情を表す表情としては、例えば、笑っている顔や泣いている顔、驚いている顔等であり、ユーザの感情を表す動作としては、例えば、手をたたく動作等である。 The image determination unit 44 determines whether or not the image data acquired by the image acquisition unit 34 of the information acquisition unit 30 includes image data representing the user's emotions. More specifically, when the image data output from the image acquisition unit 34 is input, the image determination unit 44 identifies the user who is viewing the content from the image data, and the face of the user in the image data. It is determined whether or not the or posture includes an expression or action expressing the user's emotion. The facial expression expressing the user's emotion is, for example, a laughing face, a crying face, a surprised face, or the like, and the action expressing the user's emotion is, for example, a clap of a hand.

情報評価部50は、情報判定部40によって外部情報にユーザの感情を表すデータが含まれていると判定された場合に、ユーザの感情を表すデータを評価する。本実施の形態では、情報評価部50として、音声評価部52と、画像評価部54と、が設けられている。また、情報評価部50は、評価した結果を、ユーザが視聴したコンテンツ、すなわち再生されたコンテンツに対応付けて記憶部20に保存する。 The information evaluation unit 50 evaluates the data representing the user's emotion when it is determined by the information determination unit 40 that the external information includes the data representing the user's emotion. In the present embodiment, the information evaluation unit 50 is provided with a voice evaluation unit 52 and an image evaluation unit 54. Further, the information evaluation unit 50 stores the evaluation result in the storage unit 20 in association with the content viewed by the user, that is, the reproduced content.

音声評価部52は、音声取得部32によって取得された音声データにユーザの感情を表す音声データが含まれていると判定された場合に、ユーザの感情を表す音声データを評価する。ユーザの感情を表す音声データの評価方法として、例えば、感情の強さに応じて評価値をつける方法がある。評価値としては、例えば、百点満点とした場合の点数や、A、B、C等の等級による値等がある。音声の評価については、例えば、音量が大きいほど感情が強く、また音が長く続くほど感情が強いと考えられる。一例として面白さで評価する場合、笑い声の大きさが大きいほど高い点数をつけたり、笑い声が長く続くほど高い点数をつけたりする。また、音声評価部52は、評価した結果を再生されたコンテンツに対応付けて記憶部20に保存する。 The voice evaluation unit 52 evaluates the voice data representing the user's emotion when it is determined that the voice data acquired by the voice acquisition unit 32 includes the voice data representing the user's emotion. As a method of evaluating voice data expressing a user's emotion, for example, there is a method of assigning an evaluation value according to the strength of the emotion. The evaluation value includes, for example, a score when a maximum of 100 points is given, a value according to a grade such as A, B, or C, or the like. Regarding the evaluation of voice, for example, it is considered that the louder the volume, the stronger the emotion, and the longer the sound lasts, the stronger the emotion. As an example, when evaluating by fun, the larger the loudness of the laughter, the higher the score, and the longer the laughter lasts, the higher the score. Further, the voice evaluation unit 52 stores the evaluation result in the storage unit 20 in association with the reproduced content.

画像評価部54は、画像取得部34によって取得された画像データにユーザの感情を表す画像データが含まれていると判定された場合に、ユーザの感情を表す画像データを評価する。ユーザの感情を表す音声データの評価方法としては、音声評価部52と同様に、例えば、感情の強さに応じて評価値をつける方法がある。画像の評価については、例えば、顔の表情の変化が大きいほど感情が強いと考えられる。一例として面白さで評価する場合、ユーザの笑っている顔において、口の開いている大きさが大きいほど高い点数をつけたり、口角が上がるほど高い点数をつけたりする。また、画像評価部54は、評価した結果を再生されたコンテンツに対応付けて記憶部20に保存する。 The image evaluation unit 54 evaluates the image data representing the user's emotion when it is determined that the image data acquired by the image acquisition unit 34 includes the image data representing the user's emotion. As a method of evaluating voice data expressing a user's emotion, for example, there is a method of assigning an evaluation value according to the strength of emotion, as in the voice evaluation unit 52. Regarding the evaluation of the image, for example, it is considered that the larger the change in the facial expression, the stronger the emotion. As an example, when evaluating by fun, the larger the open mouth of the user, the higher the score, and the higher the corner of the mouth, the higher the score. Further, the image evaluation unit 54 stores the evaluation result in the storage unit 20 in association with the reproduced content.

ユーザの感情を表すデータの評価においては、面白いや悲しい、恐ろしいといった感情毎に分類してもよいし、それぞれの感情毎に点数をつけて評価してもよいし、これらの感情を総合的に評価してもよい。また、音声評価部52は、音声取得部32によって取得された音声データにユーザの感情を表す音声データが含まれていると音声判定部42が判定した場合にユーザの感情を表す音声データの評価を行うので、コンテンツの再生が終了するまでに何回も評価を行う。よって、音声評価部52は、一例として面白さで評価する場合、笑い声が含まれている音声データが取得された回数が多いほど、高い点数をつけるようにしてもよい。同様に、画像評価部54も、コンテンツの再生が終了するまでに何回も評価を行うので、一例として面白さで評価する場合、ユーザの笑っている顔が含まれている画像データが取得された回数が多いほど、高い点数をつけるようにしてもよい。 In the evaluation of data representing user's emotions, they may be classified by emotions such as funny, sad, and scary, or they may be evaluated by giving a score to each emotion, and these emotions may be comprehensively evaluated. You may evaluate it. Further, the voice evaluation unit 52 evaluates the voice data representing the user's emotion when the voice determination unit 42 determines that the voice data acquired by the voice acquisition unit 32 includes the voice data representing the user's emotion. Therefore, the evaluation is performed many times until the playback of the content is completed. Therefore, when the voice evaluation unit 52 evaluates by fun as an example, the higher the number of times the voice data including the laughter is acquired, the higher the score may be given. Similarly, the image evaluation unit 54 also evaluates the content many times until the playback of the content is completed. Therefore, when evaluating with fun as an example, image data including the smiling face of the user is acquired. The higher the number of times, the higher the score may be.

評価結果出力部60は、記憶部20に保存された評価結果に基づいて、情報評価部50によって評価されたコンテンツを含むコンテンツリスト62を表示装置70の表示部72に表示させる。より具体的には、記憶部20に保存されているコンテンツの一覧表示を行うための操作入力信号が操作入力部12から制御部10に入力された場合に、制御部10は、コンテンツの一覧表示を行うための制御信号を評価結果出力部60に出力する。この制御信号が評価結果出力部60に入力されると、評価結果出力部60は、記憶部20に保存されている情報評価部50によって評価された結果に基づいて、コンテンツを一覧表示するコンテンツリスト62の映像データを作成し、作成した映像データを映像処理部16に出力する。映像処理部16は、評価結果出力部60から出力された映像データを映像出力信号に変換し、表示装置70の表示部72に出力する。表示部72は、映像処理部16から出力された映像出力信号に基づいて、コンテンツリスト62を表示する。 The evaluation result output unit 60 causes the display unit 72 of the display device 70 to display the content list 62 including the content evaluated by the information evaluation unit 50 based on the evaluation result stored in the storage unit 20. More specifically, when an operation input signal for displaying a list of contents stored in the storage unit 20 is input from the operation input unit 12 to the control unit 10, the control unit 10 displays a list of contents. The control signal for performing the above is output to the evaluation result output unit 60. When this control signal is input to the evaluation result output unit 60, the evaluation result output unit 60 displays a list of contents based on the result evaluated by the information evaluation unit 50 stored in the storage unit 20. The video data of 62 is created, and the created video data is output to the video processing unit 16. The video processing unit 16 converts the video data output from the evaluation result output unit 60 into a video output signal and outputs the video data to the display unit 72 of the display device 70. The display unit 72 displays the content list 62 based on the video output signal output from the video processing unit 16.

評価結果出力部60が作成するコンテンツリスト62の表示の仕方としては、記憶部20に保存されている評価結果に基づいて、評価の高い順または低い順に、記憶部20に保存されているコンテンツを並べて表示する方法がある。例えば、ユーザの感情を表すデータの評価として感情の強さに応じて点数をつけた場合、この点数の高い順または低い順に記憶部20に保存されているコンテンツを並べて表示する。コンテンツリスト62は、コンテンツのタイトルの他、コンテンツの説明やコンテンツの放送日時等の情報を表示していてもよい。また、コンテンツリスト62は、記憶部20に保存されているコンテンツの評価結果を、コンテンツのタイトル等の情報とともに表示していてもよい。図2は、評価結果出力部60で作成され、表示部72に表示されるコンテンツリスト62の一例である。図2に示すコンテンツリスト62では、感情の強さに応じてつけられた点数およびコンテンツのタイトルが表示されており、点数の高い順に上から並べられている。 As a method of displaying the content list 62 created by the evaluation result output unit 60, the contents stored in the storage unit 20 are stored in the order of high evaluation or low evaluation based on the evaluation results stored in the storage unit 20. There is a way to display them side by side. For example, when a score is given according to the strength of emotion as an evaluation of data representing a user's emotion, the contents stored in the storage unit 20 are displayed side by side in descending order of the score. In addition to the title of the content, the content list 62 may display information such as a description of the content and the broadcast date and time of the content. Further, the content list 62 may display the evaluation result of the content stored in the storage unit 20 together with information such as the title of the content. FIG. 2 is an example of a content list 62 created by the evaluation result output unit 60 and displayed on the display unit 72. In the content list 62 shown in FIG. 2, the score and the title of the content given according to the strength of the emotion are displayed, and are arranged from the top in descending order of the score.

表示部72にコンテンツリスト62が表示されると、ユーザは、評価結果に基づいて表示されたコンテンツリスト62を見ることにより、以前視聴したコンテンツの中で面白かったコンテンツや感動したコンテンツ、興奮したコンテンツ等の感情を強く動かされたコンテンツを確認することができる。このようにして、ユーザが再生するコンテンツを選択する際の参考情報としてコンテンツリスト62を活用することができる。 When the content list 62 is displayed on the display unit 72, the user sees the content list 62 displayed based on the evaluation result, and the user sees the content that was interesting, the content that was impressed, or the content that was excited among the contents that were previously viewed. It is possible to confirm the content that is strongly moved by emotions such as. In this way, the content list 62 can be utilized as reference information when the user selects the content to be played.

次に、評価装置1においてコンテンツを評価する動作について説明する。まず、外部情報としてユーザの音声が取得された場合に、ユーザの音声に基づいてコンテンツを評価する動作について説明する。図3は、評価装置1において音声に基づいてコンテンツを評価する動作のフローチャートである。 Next, the operation of evaluating the content in the evaluation device 1 will be described. First, when the user's voice is acquired as external information, the operation of evaluating the content based on the user's voice will be described. FIG. 3 is a flowchart of an operation in which the evaluation device 1 evaluates the content based on the voice.

図3に示すように、まず、ユーザの操作等によって、記憶部20に保存されているコンテンツを再生させるための操作入力信号が制御部10に入力されると、制御部10は、指定されたコンテンツの再生を開始し、表示装置70の表示部72にコンテンツの映像を表示させ、音声出力部74からコンテンツの音声を出力させる(ステップST1)。 As shown in FIG. 3, first, when an operation input signal for reproducing the content stored in the storage unit 20 is input to the control unit 10 by a user operation or the like, the control unit 10 is designated. Playback of the content is started, the video of the content is displayed on the display unit 72 of the display device 70, and the audio of the content is output from the audio output unit 74 (step ST1).

コンテンツの再生が開始されると、音声取得部32は、再生されているコンテンツを視聴するユーザの音声を取得する(ステップST2)。音声の取得は、例えば、予め設定された時間が経過する間実施される。音声取得部32は、取得した音声データを音声判定部42に出力する。 When the reproduction of the content is started, the voice acquisition unit 32 acquires the voice of the user who views the reproduced content (step ST2). The acquisition of voice is performed, for example, while a preset time elapses. The voice acquisition unit 32 outputs the acquired voice data to the voice determination unit 42.

音声取得部32から音声データが音声判定部42に入力されると、音声判定部42は、音声取得部32によって取得された音声データにユーザの感情を表す音声データが含まれているか否かを判定する(ステップST3)。音声判定部42がユーザの感情を表す音声データが含まれていると判定した場合、ステップST4に進む(ステップST3:YES)。音声判定部42がユーザの感情を表す音声データが含まれていないと判定した場合、ステップST6に進む(ステップST3:NO)。 When voice data is input to the voice determination unit 42 from the voice acquisition unit 32, the voice determination unit 42 determines whether or not the voice data acquired by the voice acquisition unit 32 includes voice data expressing the user's emotions. Determination (step ST3). When the voice determination unit 42 determines that the voice data representing the user's emotion is included, the process proceeds to step ST4 (step ST3: YES). If the voice determination unit 42 determines that the voice data representing the user's emotion is not included, the process proceeds to step ST6 (step ST3: NO).

音声取得部32によって取得された音声データにユーザの感情を表す音声データが含まれていると判定された場合、音声評価部52は、ユーザの感情を表す音声データを評価する(ステップST4)。そして、音声評価部52は、評価した結果を記憶部20に保存し(ステップST5)、ステップST6に進む。 When it is determined that the voice data acquired by the voice acquisition unit 32 includes voice data representing the user's emotion, the voice evaluation unit 52 evaluates the voice data representing the user's emotion (step ST4). Then, the voice evaluation unit 52 saves the evaluation result in the storage unit 20 (step ST5), and proceeds to step ST6.

ステップST6では、制御部10は、コンテンツの再生が終了したか否かを判定する。コンテンツの再生が終了したと判定された場合、コンテンツを評価する動作を終了する(ステップST6:YES)。コンテンツの再生が終了していないと判定された場合、ステップST2に戻り、コンテンツを評価する動作を引き続き行う(ステップST6:NO)。 In step ST6, the control unit 10 determines whether or not the reproduction of the content is completed. When it is determined that the reproduction of the content is completed, the operation of evaluating the content is terminated (step ST6: YES). If it is determined that the playback of the content has not been completed, the process returns to step ST2 and the operation of evaluating the content is continued (step ST6: NO).

続いて、外部情報としてユーザの画像が取得された場合に、ユーザの画像に基づいてコンテンツを評価する動作について説明する。図4は、評価装置1において画像に基づいてコンテンツを評価する動作のフローチャートである。 Subsequently, an operation of evaluating the content based on the user's image when the user's image is acquired as external information will be described. FIG. 4 is a flowchart of an operation in which the evaluation device 1 evaluates the content based on the image.

まず、図3に示すフローチャートと同様に、コンテンツの再生が開始される(ステップST1)。コンテンツの再生が開始されると、画像取得部34は、再生されているコンテンツを視聴するユーザの画像を取得する(ステップST12)。画像の取得は、例えば、静画像の場合は予め設定された時間間隔毎に実施され、動画像の場合は予め設定された時間が経過する間実施される。画像取得部34は、取得した画像データを画像判定部44に出力する。 First, playback of the content is started in the same manner as the flowchart shown in FIG. 3 (step ST1). When the reproduction of the content is started, the image acquisition unit 34 acquires the image of the user who views the reproduced content (step ST12). For example, in the case of a still image, the image acquisition is performed at preset time intervals, and in the case of a moving image, the image acquisition is performed while the preset time elapses. The image acquisition unit 34 outputs the acquired image data to the image determination unit 44.

画像取得部34から画像データが画像判定部44に入力されると、画像判定部44は、画像取得部34によって取得された画像データにユーザの感情を表す画像データが含まれているか否かを判定する(ステップST13)。画像判定部44がユーザの感情を表す画像データが含まれていると判定した場合、ステップST14に進む(ステップST13:YES)。画像判定部44がユーザの感情を表す画像データが含まれていないと判定した場合、ステップST6に進む(ステップST13:NO)。 When the image data is input from the image acquisition unit 34 to the image determination unit 44, the image determination unit 44 determines whether or not the image data acquired by the image acquisition unit 34 includes image data representing the user's emotions. Determination (step ST13). When the image determination unit 44 determines that the image data representing the user's emotion is included, the process proceeds to step ST14 (step ST13: YES). If the image determination unit 44 determines that the image data representing the user's emotion is not included, the process proceeds to step ST6 (step ST13: NO).

画像取得部34によって取得された画像データにユーザの感情を表す画像データが含まれていると判定された場合、画像評価部54は、ユーザの感情を表す画像データを評価する(ステップST14)。そして、画像評価部54は、評価した結果を記憶部20に保存し(ステップST15)、ステップST6に進む。 When it is determined that the image data acquired by the image acquisition unit 34 contains the image data representing the user's emotion, the image evaluation unit 54 evaluates the image data representing the user's emotion (step ST14). Then, the image evaluation unit 54 stores the evaluation result in the storage unit 20 (step ST15), and proceeds to step ST6.

図3に示すフローチャートと同様に、ステップST6では、制御部10は、コンテンツの再生が終了したか否かを判定する。コンテンツの再生が終了したと判定された場合、コンテンツを評価する動作を終了する(ステップST6:YES)。コンテンツの再生が終了していないと判定された場合、ステップST12に戻り、コンテンツを評価する動作を引き続き行う(ステップST6:NO)。 Similar to the flowchart shown in FIG. 3, in step ST6, the control unit 10 determines whether or not the reproduction of the content is completed. When it is determined that the reproduction of the content is completed, the operation of evaluating the content is terminated (step ST6: YES). If it is determined that the playback of the content has not been completed, the process returns to step ST12, and the operation of evaluating the content is continued (step ST6: NO).

以上に説明したように、本実施の形態に係る評価装置1は、コンテンツを記憶部20に保存させることが可能であり、コンテンツを表示部72に表示させる制御部10と、情報取得部30により外部情報として取得された、コンテンツを視聴するユーザの画像と音声との少なくとも一方に基づいて、ユーザの感情を表すデータを評価し、評価した結果をコンテンツに対応付けて記憶部20に保存させる情報評価部50と、記憶部20に保存された結果に基づいて、コンテンツを含むコンテンツリスト62を表示部72に表示させる評価結果出力部60と、を備えるものである。 As described above, the evaluation device 1 according to the present embodiment can store the content in the storage unit 20, and the control unit 10 for displaying the content on the display unit 72 and the information acquisition unit 30. Information that evaluates data representing the user's emotions based on at least one of the image and sound of the user viewing the content acquired as external information, and stores the evaluation result in association with the content in the storage unit 20. It includes an evaluation unit 50 and an evaluation result output unit 60 for displaying a content list 62 including contents on a display unit 72 based on the results stored in the storage unit 20.

このような構成によって、コンテンツを視聴するユーザの画像と音声との少なくとも一方を含んでいる外部情報に基づいて、そのユーザの感情を表すデータを評価するので、コンテンツに対するユーザの評価を客観的に行うことができるとともに、ユーザが一度視聴した結果に基づいた評価となるので、ユーザ自身の好みに合った評価とすることができる。また、評価結果に基づいてコンテンツリスト62が表示部72に表示されるので、ユーザはこのコンテンツリスト62を確認することで、一度視聴したコンテンツの中から再度視聴したいと思うコンテンツを簡単に探すことができる。 With such a configuration, data representing the user's emotions is evaluated based on external information including at least one of the image and the sound of the user who views the content, so that the user's evaluation of the content is objectively evaluated. Since the evaluation can be performed and the evaluation is based on the result of the user's viewing once, the evaluation can be made according to the user's own preference. Further, since the content list 62 is displayed on the display unit 72 based on the evaluation result, the user can easily search for the content that he / she wants to watch again from the contents that have been watched once by checking the content list 62. Can be done.

また、情報評価部50は、ユーザの感情を表すデータを感情の強さに応じて評価し、感情の強さに応じた評価値をつけ、コンテンツリスト62には、コンテンツが評価値の順に並べられている。このように、コンテンツリスト62において、コンテンツが感情の強さに応じた評価値の順に並べられているので、ユーザは、感情を強く動かされたコンテンツを容易に探すことができる。 Further, the information evaluation unit 50 evaluates data representing the user's emotions according to the strength of the emotions, assigns evaluation values according to the strength of the emotions, and arranges the contents in the content list 62 in the order of the evaluation values. Has been done. As described above, in the content list 62, the contents are arranged in the order of the evaluation values according to the strength of the emotions, so that the user can easily search for the contents that are strongly moved by the emotions.

評価装置1は、情報取得部30により取得された外部情報にユーザの感情を表すデータが含まれているか否かを判定する情報判定部40をさらに備え、情報評価部50は、情報判定部40により外部情報にユーザの感情を表すデータが含まれていると判定された場合に、ユーザの感情を表すデータを評価する。このように、情報判定部40が外部情報にユーザの感情を表すデータが含まれているか否かを判定し、ユーザの感情を表すデータが含まれていると判定された場合に情報評価部50が評価を行うので、コンテンツを視聴するユーザが特に声を出したり表情を変えたりしていない場合のように、外部情報にユーザの感情を表すデータが含まれていない場合には、情報評価部50による評価を行わないようにすることができる。これにより、情報評価部50の負荷を低減することができる。 The evaluation device 1 further includes an information determination unit 40 that determines whether or not the external information acquired by the information acquisition unit 30 contains data expressing the user's emotions, and the information evaluation unit 50 further includes an information determination unit 40. When it is determined that the external information includes data representing the user's emotions, the data representing the user's emotions is evaluated. In this way, the information determination unit 40 determines whether or not the external information includes data representing the user's emotions, and when it is determined that the information indicating the user's emotions is included, the information evaluation unit 50 Does the evaluation, so if the external information does not contain data that expresses the user's emotions, such as when the user viewing the content does not speak out or change his / her facial expression, the information evaluation unit It is possible to avoid the evaluation by 50. As a result, the load on the information evaluation unit 50 can be reduced.

情報判定部40は、外部情報として音声取得部32により取得されたユーザの音声データに、ユーザの感情を表す音声データが含まれているか否かを判定する音声判定部42を有し、情報評価部50は、音声判定部42により外部情報にユーザの感情を表す音声データが含まれていると判定された場合に、ユーザの感情を表す音声データを評価し、評価した結果をコンテンツに対応付けて記憶部20に保存させる音声評価部52を有する。このように、音声に基づいてユーザの感情を判定、評価するので、ユーザの笑い声等の感情が外形的に表れる声に基づいて客観的な評価を行うことができる。 The information determination unit 40 has a voice determination unit 42 for determining whether or not the voice data of the user acquired by the voice acquisition unit 32 as external information includes voice data expressing the user's emotions, and the information evaluation unit 40 has information evaluation. When the voice determination unit 42 determines that the external information includes voice data representing the user's emotions, the unit 50 evaluates the voice data representing the user's emotions and associates the evaluated result with the content. It has a voice evaluation unit 52 to be stored in the storage unit 20. In this way, since the user's emotion is determined and evaluated based on the voice, it is possible to perform an objective evaluation based on the voice in which the emotion such as the user's laughter appears externally.

情報判定部40は、外部情報として画像取得部34により取得されたユーザの画像データに、ユーザの感情を表す画像データが含まれているか否かを判定する画像判定部44を有し、情報評価部50は、画像判定部44により外部情報にユーザの感情を表す画像データが含まれていると判定された場合に、ユーザの感情を表す画像データを評価し、評価した結果をコンテンツに対応付けて記憶部20に保存させる画像評価部54を有する。このように、画像に基づいてユーザの感情を判定、評価するので、ユーザの感情が外形的に表れる表情や動作に基づいて客観的な評価を行うことができる。また、画像と音声との両方のデータに基づいてユーザの感情を判定、評価することで、より正確な評価を行うことができる。 The information determination unit 40 has an image determination unit 44 that determines whether or not the image data of the user acquired by the image acquisition unit 34 as external information includes image data representing the user's emotions, and the information evaluation unit 40 has an image determination unit 44. When the image determination unit 44 determines that the external information includes image data representing the user's emotion, the unit 50 evaluates the image data representing the user's emotion and associates the evaluated result with the content. It has an image evaluation unit 54 to be stored in the storage unit 20. In this way, since the user's emotion is determined and evaluated based on the image, it is possible to perform an objective evaluation based on the facial expression or motion in which the user's emotion appears externally. Further, by determining and evaluating the user's emotions based on both image and voice data, more accurate evaluation can be performed.

なお、本実施の形態では、記憶部20は、評価装置1に内蔵されているとしたが、これに限らない。記憶部20は、評価装置1とは独立して構成され、評価装置1に接続されたハードディスクドライブ等であってもよい。また、記憶部20として評価装置1とは独立して構成されたハードディスクドライブ等は、ホームネットワーク等を介して評価装置1に接続されていてもよい。さらに、記憶部20は、評価装置1に内蔵されたハードディスクドライブ等と、評価装置1とは独立したハードディスクドライブ等と、から構成されていてもよい。 In the present embodiment, the storage unit 20 is built in the evaluation device 1, but the present invention is not limited to this. The storage unit 20 may be a hard disk drive or the like that is configured independently of the evaluation device 1 and is connected to the evaluation device 1. Further, a hard disk drive or the like configured independently of the evaluation device 1 as the storage unit 20 may be connected to the evaluation device 1 via a home network or the like. Further, the storage unit 20 may be composed of a hard disk drive or the like built in the evaluation device 1 and a hard disk drive or the like independent of the evaluation device 1.

また、表示装置70は、表示部72と音声出力部74とを備えているとしたが、これに限らない。音声出力部74は、表示装置70とは独立したスピーカ等であってもよい。また、表示装置70は、評価装置1とは独立して構成されていたが、表示装置70と評価装置1とを一体的に構成して、コンテンツの評価機能を有する表示装置としてもよい。例えば、表示装置が、評価装置1と、コンテンツを表示する表示部72と、を備えていてもよい。このように表示装置が評価装置1を備えていることで、表示部72を視認できる範囲に合わせてユーザの画像や音声を取得するように設定することができ、より正確にユーザの感情を判定、評価することができる。 Further, the display device 70 is said to include a display unit 72 and an audio output unit 74, but the present invention is not limited to this. The audio output unit 74 may be a speaker or the like independent of the display device 70. Further, although the display device 70 is configured independently of the evaluation device 1, the display device 70 and the evaluation device 1 may be integrally configured as a display device having a content evaluation function. For example, the display device may include an evaluation device 1 and a display unit 72 for displaying contents. Since the display device includes the evaluation device 1 in this way, the display unit 72 can be set to acquire the user's image and sound according to the visible range, and the user's emotion can be determined more accurately. , Can be evaluated.

音声取得部32および画像取得部34はそれぞれ評価装置1に内蔵されているとしたが、これに限らない。音声取得部32および画像取得部34はそれぞれ、評価装置1とは独立して構成されて、評価装置1に接続されていてもよい。また、音声取得部32および画像取得部34はそれぞれ、表示装置70と一体的に構成されていてもよい。 It is said that the voice acquisition unit 32 and the image acquisition unit 34 are each built in the evaluation device 1, but the present invention is not limited to this. The voice acquisition unit 32 and the image acquisition unit 34 may be configured independently of the evaluation device 1 and connected to the evaluation device 1. Further, the voice acquisition unit 32 and the image acquisition unit 34 may be integrally configured with the display device 70, respectively.

また、評価装置1には、音声取得部32と画像取得部34との両方が設けられているが、音声取得部32と画像取得部34とのいずれか一方のみが設けられていてもよい。音声取得部32のみが設けられている場合は、当然、画像判定部44および画像評価部54は設けられていなくてよく、画像取得部34のみが設けられている場合は、音声判定部42および音声評価部52は設けられていなくてよい。 Further, although the evaluation device 1 is provided with both the voice acquisition unit 32 and the image acquisition unit 34, only one of the voice acquisition unit 32 and the image acquisition unit 34 may be provided. Of course, when only the voice acquisition unit 32 is provided, the image determination unit 44 and the image evaluation unit 54 do not have to be provided, and when only the image acquisition unit 34 is provided, the voice determination unit 42 and The voice evaluation unit 52 may not be provided.

図2に示すコンテンツリスト62は表形式で表示されているが、これに限らない。コンテンツリスト62の形式は、記憶部20に保存されているコンテンツについてユーザが複数のコンテンツを一度に確認できる態様であれば特に限定されない。 The content list 62 shown in FIG. 2 is displayed in a table format, but the content list 62 is not limited to this. The format of the content list 62 is not particularly limited as long as the user can confirm a plurality of contents at once for the contents stored in the storage unit 20.

コンテンツを評価する動作において、図3および図4のステップST1では、コンテンツの再生の開始に合わせてコンテンツを評価する動作を開始していたが、これに限らない。例えば、ユーザが放送番組等のコンテンツをリアルタイムで視聴している場合において、ユーザの操作によって、そのコンテンツの録画を開始するための操作入力信号が制御部10に入力された場合に、コンテンツを評価する動作を開始してもよい。また、この場合には、図3および図4のステップST6に対応する動作として、制御部10は、コンテンツの録画が終了したか否かを判定し、コンテンツの録画が終了したと判定された場合、コンテンツを評価する動作を終了し、コンテンツの録画が終了していないと判定された場合、ステップST2に戻り、コンテンツを評価する動作を引き続き行うようにすればよい。 In the operation of evaluating the content, in step ST1 of FIGS. 3 and 4, the operation of evaluating the content is started at the start of the reproduction of the content, but the operation is not limited to this. For example, when a user is viewing content such as a broadcast program in real time, the content is evaluated when an operation input signal for starting recording of the content is input to the control unit 10 by the user's operation. You may start the operation to do. Further, in this case, as an operation corresponding to step ST6 of FIGS. 3 and 4, the control unit 10 determines whether or not the recording of the content is completed, and when it is determined that the recording of the content is completed. If it is determined that the operation of evaluating the content is finished and the recording of the content is not finished, the process returns to step ST2 and the operation of evaluating the content may be continued.

図3のステップST3において、音声判定部42は、音声取得部32によって取得された音声データにユーザの感情を表す音声データが含まれているか否かを判定していたが、この構成は必須ではない。例えば、ステップST2においてユーザの音声を取得した後にステップST4に進み、ステップST4において音声データを評価する際に、音声評価部52は、音声取得部32によって取得された音声データにユーザの感情を表す音声データが含まれているか否かを含めて評価をしてもよい。また、図4のステップST13において、画像判定部44は、画像取得部34によって取得された画像データにユーザの感情を表す画像データが含まれているか否かを判定していたが、この構成は必須ではない。例えば、ステップST12においてユーザの画像を取得した後にステップST14に進み、ステップST14において画像データを評価する際に、画像評価部54は、画像取得部34によって取得された画像データにユーザの感情を表す画像データが含まれているか否かを含めて評価をしてもよい。 In step ST3 of FIG. 3, the voice determination unit 42 determines whether or not the voice data acquired by the voice acquisition unit 32 includes voice data expressing the user's emotion, but this configuration is not essential. do not have. For example, when the voice of the user is acquired in step ST2 and then the process proceeds to step ST4 to evaluate the voice data in step ST4, the voice evaluation unit 52 expresses the user's feelings in the voice data acquired by the voice acquisition unit 32. The evaluation may include whether or not voice data is included. Further, in step ST13 of FIG. 4, the image determination unit 44 has determined whether or not the image data acquired by the image acquisition unit 34 includes image data representing the user's emotions, but this configuration is based on this configuration. Not required. For example, when the image of the user is acquired in step ST12 and then the process proceeds to step ST14 and the image data is evaluated in step ST14, the image evaluation unit 54 expresses the user's feelings in the image data acquired by the image acquisition unit 34. The evaluation may include whether or not the image data is included.

実施の形態2.
次に、実施の形態2について、図5を参照して説明する。図5は、本実施の形態における評価装置1の評価結果出力部60で作成され、表示部72に表示されるコンテンツリスト162の一例である。なお、本実施の形態のうち、実施の形態1と同様の部分の説明は省略する。
Embodiment 2.
Next, the second embodiment will be described with reference to FIG. FIG. 5 is an example of a content list 162 created by the evaluation result output unit 60 of the evaluation device 1 in the present embodiment and displayed on the display unit 72. It should be noted that the description of the part of the present embodiment similar to that of the first embodiment will be omitted.

実施の形態1の変形例として、本実施の形態では、情報評価部50は、ユーザの感情を表すデータを感情の種類に分けて評価し、感情の種類のそれぞれに対応して評価値をつけ、コンテンツリスト162には、コンテンツが感情の種類のうちの1つに対応する評価値の順に並べられている。具体的には、情報評価部50として、例えば音声評価部52において、音声取得部32によって取得された音声データに含まれるユーザの感情を表す音声データを評価する場合に、音声評価部52は、ユーザの感情を表すデータを面白いや悲しい、恐ろしいといった感情毎に分類し、それぞれの感情毎に感情の強さに応じて点数をつけ、その結果を記憶部20に保存する。その後、評価結果出力部60がコンテンツリスト162の映像データを作成し、表示部72に表示させる場合に、例えばユーザから面白さ(笑い)の点数の降順で表示する指示が操作部13を介して入力された場合、図5に示すコンテンツリスト162のように、笑いの点数が高い順に、コンテンツのタイトルが上から並べられる。なお、コンテンツリスト162では、笑い、泣き、恐怖のそれぞれの感情の点数が表示されているが、並び順に関係する感情の点数だけ表示されていてもよい。 As a modification of the first embodiment, in the present embodiment, the information evaluation unit 50 evaluates the data representing the user's emotions by dividing them into emotion types, and assigns evaluation values corresponding to each of the emotion types. In the content list 162, the contents are arranged in the order of evaluation values corresponding to one of the emotion types. Specifically, when the information evaluation unit 50 evaluates the voice data representing the user's emotion included in the voice data acquired by the voice acquisition unit 32, for example, in the voice evaluation unit 52, the voice evaluation unit 52 uses the voice evaluation unit 52. Data representing the user's emotions is classified into emotions such as funny, sad, and scary, points are given to each emotion according to the strength of the emotion, and the result is stored in the storage unit 20. After that, when the evaluation result output unit 60 creates the video data of the content list 162 and displays it on the display unit 72, for example, the user gives an instruction via the operation unit 13 to display the video data in descending order of the points of fun (laughter). When input, as in the content list 162 shown in FIG. 5, the titles of the contents are arranged from the top in descending order of the score of laughter. In the content list 162, the scores of the emotions of laughter, crying, and fear are displayed, but only the scores of the emotions related to the order may be displayed.

このように、コンテンツリスト162では、コンテンツが、笑い、泣き、恐怖といった感情の種類毎の評価値の順に並べられるので、ユーザは、自身の感情や気分に合わせて再度視聴したいと思うコンテンツを簡単に探すことができる。 In this way, in the content list 162, the contents are arranged in the order of the evaluation values for each type of emotions such as laughter, crying, and fear, so that the user can easily view the contents that he / she wants to watch again according to his / her feelings and moods. You can look for it in.

また、更なる変形例として、コンテンツリスト162において、所定値以上の点数が付与された感情の種類だけがコンテンツのタイトルと合わせて表示されるようにしてもよいし、所定の感情の種類に関して所定値以上の点数が付与されたコンテンツのタイトルだけが表示されるようにしてもよい。なお、所定の感情の種類は、ユーザが指定してもよいし、評価結果出力部60が当該ユーザの年齢や性別、指向、過去の視聴履歴等から当該ユーザに適切なものを選択してもよい。 Further, as a further modification, in the content list 162, only the types of emotions given a score equal to or higher than a predetermined value may be displayed together with the title of the content, or the predetermined emotion types may be displayed. Only the titles of the contents given a score equal to or higher than the value may be displayed. The predetermined emotion type may be specified by the user, or the evaluation result output unit 60 may select an appropriate emotion for the user from the age, gender, orientation, past viewing history, and the like of the user. good.

なお、各実施の形態を、適宜、組み合わせたり、変形や省略したりすることも、実施の形態で示された技術的思想の範囲に含まれる。 In addition, it is included in the scope of the technical idea shown in the embodiment that each embodiment is appropriately combined, modified or omitted.

1 評価装置、10 制御部、12 操作入力部、13 操作部、14 映像音声入力部、16 映像処理部、18 音声処理部、20 記憶部、30 情報取得部、32 音声取得部、34 画像取得部、40 情報判定部、42 音声判定部、44 画像判定部、50 情報評価部、52 音声評価部、54 画像評価部、60 評価結果出力部、62、162 コンテンツリスト、70 表示装置、72 表示部、74 音声出力部。 1 Evaluation device, 10 Control unit, 12 Operation input unit, 13 Operation unit, 14 Video / audio input unit, 16 Video processing unit, 18 Audio processing unit, 20 Storage unit, 30 Information acquisition unit, 32 Audio acquisition unit, 34 Image acquisition Unit, 40 information judgment unit, 42 voice judgment unit, 44 image judgment unit, 50 information evaluation unit, 52 voice evaluation unit, 54 image evaluation unit, 60 evaluation result output unit, 62, 162 content list, 70 display device, 72 display Part, 74 Audio output part.

Claims (7)

コンテンツを記憶部に保存させることが可能であり、前記コンテンツを表示部に表示させる制御部と、
情報取得部により外部情報として取得された、前記コンテンツを視聴するユーザの画像と音声との少なくとも一方に基づいて、前記ユーザの感情を表すデータを評価し、該評価した結果を前記コンテンツに対応付けて前記記憶部に保存させる情報評価部と、
前記記憶部に保存された前記結果に基づいて、前記コンテンツを含むコンテンツリストを前記表示部に表示させる評価結果出力部と、
を備える評価装置。
It is possible to store the content in the storage unit, and the control unit that displays the content on the display unit and
Data representing the emotion of the user is evaluated based on at least one of the image and the sound of the user viewing the content acquired as external information by the information acquisition unit, and the evaluation result is associated with the content. The information evaluation unit to be stored in the storage unit and
An evaluation result output unit for displaying a content list including the content on the display unit based on the result stored in the storage unit.
An evaluation device equipped with.
前記情報評価部は、前記ユーザの感情を表すデータを感情の強さに応じて評価し、前記感情の強さに応じた評価値をつけ、
前記コンテンツリストには、前記コンテンツが前記評価値の順に並べられている請求項1に記載の評価装置。
The information evaluation unit evaluates data representing the user's emotions according to the emotional strength, and assigns an evaluation value according to the emotional strength.
The evaluation device according to claim 1, wherein the contents are arranged in the order of the evaluation values in the content list.
前記情報評価部は、前記ユーザの感情を表すデータを感情の種類に分けて評価し、前記感情の種類のそれぞれに対応して前記評価値をつけ、
前記コンテンツリストには、前記コンテンツが前記感情の種類のうちの1つに対応する前記評価値の順に並べられている請求項2に記載の評価装置。
The information evaluation unit evaluates the data representing the emotions of the user by dividing them into emotion types, and assigns the evaluation values corresponding to each of the emotion types.
The evaluation device according to claim 2, wherein the content is arranged in the order of the evaluation values corresponding to one of the emotion types in the content list.
前記情報取得部により取得された前記外部情報に前記ユーザの感情を表すデータが含まれているか否かを判定する情報判定部をさらに備え、
前記情報評価部は、前記情報判定部により前記外部情報に前記ユーザの感情を表すデータが含まれていると判定された場合に、前記ユーザの感情を表すデータを評価する請求項1から請求項3のいずれか1項に記載の評価装置。
Further, an information determination unit for determining whether or not the external information acquired by the information acquisition unit includes data representing the emotion of the user is provided.
The information evaluation unit evaluates the data representing the user's emotion when the information determination unit determines that the external information includes data representing the user's emotion. The evaluation device according to any one of 3.
前記情報判定部は、前記外部情報として音声取得部により取得された前記ユーザの音声データに、前記ユーザの感情を表す音声データが含まれているか否かを判定する音声判定部を有し、
前記情報評価部は、前記音声判定部により前記外部情報に前記ユーザの感情を表す音声データが含まれていると判定された場合に、前記ユーザの感情を表す音声データを評価し、該評価した結果を前記コンテンツに対応付けて前記記憶部に保存させる音声評価部を有する請求項4に記載の評価装置。
The information determination unit has a voice determination unit that determines whether or not the voice data of the user acquired by the voice acquisition unit as the external information includes voice data representing the emotion of the user.
When the voice determination unit determines that the external information includes voice data representing the user's emotion, the information evaluation unit evaluates the voice data representing the user's emotion and evaluates the evaluation. The evaluation device according to claim 4, further comprising a voice evaluation unit that associates the result with the content and stores the result in the storage unit.
前記情報判定部は、前記外部情報として画像取得部により取得された前記ユーザの画像データに、前記ユーザの感情を表す画像データが含まれているか否かを判定する画像判定部を有し、
前記情報評価部は、前記画像判定部により前記外部情報に前記ユーザの感情を表す画像データが含まれていると判定された場合に、前記ユーザの感情を表す画像データを評価し、該評価した結果を前記コンテンツに対応付けて前記記憶部に保存させる画像評価部を有する請求項4または請求項5に記載の評価装置。
The information determination unit has an image determination unit that determines whether or not the image data of the user acquired by the image acquisition unit as the external information includes image data representing the emotion of the user.
When the image determination unit determines that the external information includes image data representing the user's emotions, the information evaluation unit evaluates the image data representing the user's emotions and evaluates the image data. The evaluation device according to claim 4 or 5, further comprising an image evaluation unit that associates the result with the content and stores the result in the storage unit.
請求項1から請求項6のいずれか一項に記載の評価装置と、
前記コンテンツを表示する前記表示部と、
を備える表示装置。
The evaluation device according to any one of claims 1 to 6, and the evaluation device.
The display unit that displays the content and
Display device.
JP2020137750A 2020-08-18 2020-08-18 Evaluation device and display device Pending JP2022034117A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020137750A JP2022034117A (en) 2020-08-18 2020-08-18 Evaluation device and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020137750A JP2022034117A (en) 2020-08-18 2020-08-18 Evaluation device and display device

Publications (1)

Publication Number Publication Date
JP2022034117A true JP2022034117A (en) 2022-03-03

Family

ID=80441955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020137750A Pending JP2022034117A (en) 2020-08-18 2020-08-18 Evaluation device and display device

Country Status (1)

Country Link
JP (1) JP2022034117A (en)

Similar Documents

Publication Publication Date Title
JP4482829B2 (en) Preference extraction device, preference extraction method, and preference extraction program
JP4736586B2 (en) Information processing apparatus, information processing method, and program
JP3615195B2 (en) Content recording / playback apparatus and content editing method
JP2006174291A (en) Information processor and information processing method
JP2010288015A (en) Information processing device, information processing method, and information processing program
JP2008294584A (en) Digest reproducing apparatus and method
KR20100055458A (en) Contents reproducing device, and contents reproducing method
JPWO2007029489A1 (en) Content replay device, content playback device, content replay method, content playback method, program, and recording medium
JP2001134613A (en) Audio retrieval processing method, audio information retrieving device, audio information storing method, audio information storage device and audio video retrieval processing method, audio video information retrieving device, and method and device for storing audio video information
JP4735413B2 (en) Content playback apparatus and content playback method
JP2013016903A (en) Information processor and information processing method
JP2022034117A (en) Evaluation device and display device
JP2003037796A (en) Information recording and reproducing device
JP2002354406A (en) Dynamic image reproducing equipment
JP2002262228A (en) Digest producing device
JP5310682B2 (en) Karaoke equipment
WO2020038290A1 (en) Bookmark display method and device
JP4230402B2 (en) Thumbnail image extraction method, apparatus, and program
US7742686B2 (en) Signal processor
JP4026441B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, REPRODUCTION DEVICE PROGRAM, AND RECORDING MEDIUM CONTAINING REPRODUCTION DEVICE PROGRAM
JP3923918B2 (en) Program video editing apparatus, program video editing method, and program
JP2007081899A (en) Advertising information processor
JP2011248202A (en) Recording and playback apparatus
JP2003032581A (en) Image recording and reproducing device and computer program therefor
WO2022209648A1 (en) Information processing device, information processing method, and non-transitory computer-readable medium