JP2024041262A - Moving image playing back apparatus and program - Google Patents

Moving image playing back apparatus and program Download PDF

Info

Publication number
JP2024041262A
JP2024041262A JP2022145971A JP2022145971A JP2024041262A JP 2024041262 A JP2024041262 A JP 2024041262A JP 2022145971 A JP2022145971 A JP 2022145971A JP 2022145971 A JP2022145971 A JP 2022145971A JP 2024041262 A JP2024041262 A JP 2024041262A
Authority
JP
Japan
Prior art keywords
video
unit
playback device
video playback
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022145971A
Other languages
Japanese (ja)
Inventor
彩花 西出
Ayaka Nishide
敏 西村
Satoshi Nishimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2022145971A priority Critical patent/JP2024041262A/en
Publication of JP2024041262A publication Critical patent/JP2024041262A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To present a playing back section in which a viewer does not concentrate on a moving image.
SOLUTION: A moving image playing back apparatus comprises: a moving image playing back section which displays a moving image on a display device; a biological information acquisition section which acquires biological information on viewers viewing the moving image; a concentration determination section which determines whether or not the viewers concentrate on the moving image on the basis of the biological information; a result recording section which records a playing back section in which the moving image is divided by a time base and a determination result by the concentration determination section in association with each other; and a result display section which displays a viewing result expressing the playing back section indicating the determination result indicating that the viewers do not concentrate on the moving image on the display device after finishing the reproduction of the moving image.
SELECTED DRAWING: Figure 4
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、動画再生装置及びプログラムに関する。 The present invention relates to a video playback device and a program.

インターネット等の通信ネットワークを通じて動画コンテンツをストリーミング配信する動画配信サービスが利用されている。動画配信サービスでは、専用のサーバにより専用のプロトコルを用いてストリーミング配信する方式から、汎用的なサーバにより汎用的なプロトコルを用いてストリーミング配信する方式への移行が進んでいる。 Video distribution services that stream video content through communication networks such as the Internet are used. In video distribution services, there is a shift from a method of streaming distribution using a dedicated server using a dedicated protocol to a method of streaming distribution using a general-purpose server using a general-purpose protocol.

例えば、非特許文献1には、国際標準規格であるMPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP, ISO/IEC 23009-1)が開示されている。MPEG-DASHは、ストリーミング配信方式を統一することを意図して策定されている。MPEG-DASHでは、汎用的なウェブサーバによりHTTP(Hypertext Transfer Protocol)プロトコルを用いてストリーミング配信が行われる。 For example, Non-Patent Document 1 discloses the international standard MPEG-DASH (Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP, ISO/IEC 23009-1). MPEG-DASH was formulated with the intention of unifying streaming distribution methods. In MPEG-DASH, streaming is distributed by a general-purpose web server using the HTTP (Hypertext Transfer Protocol).

平林光浩, "次世代動画配信技術「MPEG-DASH」技術概要と標準化・関連技術動向", 映像情報メディア学会誌, Vol. 67, No. 2, pp. 109-115, 2013.Mitsuhiro Hirabayashi, "Next generation video distribution technology "MPEG-DASH" technology overview, standardization and related technology trends", Journal of the Institute of Image Information and Television Engineers, Vol. 67, No. 2, pp. 109-115, 2013.

しかしながら、従来技術では、視聴者が動画に集中していなかった再生区間があっても視聴が終了した後に再視聴することは困難であるという課題がある。例えば、汎用的なプロトコルでストリーミング配信することで、様々な環境で動画を視聴することが可能になっているが、同時に動画視聴への集中を妨げる事象が周囲で発生することも多くなっている。視聴者が動画に集中していなかった再生区間があると、動画の内容に対する理解が十分でない場合がある。 However, the conventional technology has a problem in that even if there is a playback section in which the viewer was not concentrating on the video, it is difficult to re-watch the video after the viewer has finished viewing the video. For example, by streaming video using a general-purpose protocol, it is now possible to watch videos in a variety of environments, but at the same time, events are increasingly occurring in the surroundings that impede concentration on video viewing. . If there is a playback section in which the viewer was not concentrating on the video, the viewer may not be able to fully understand the content of the video.

本発明の一態様は、上記のような技術的課題に鑑みて、視聴者が動画に集中していなかった再生区間を提示することを目的とする。 In view of the above technical problems, one aspect of the present invention aims to present a playback section in which the viewer was not concentrating on the video.

上記の課題を解決するために、本発明の一態様の動画再生装置は、動画を表示装置に表示する動画再生部と、動画を視聴する視聴者の生体情報を取得する生体情報取得部と、生体情報に基づいて、視聴者が動画に集中しているか否かを判定する集中判定部と、動画を時間軸で分割した再生区間と集中判定部による判定結果とを関連付けて記録する結果記録部と、動画の再生が終了した後、判定結果が動画に集中していないことを示す再生区間を表す視聴結果を表示装置に表示する結果表示部と、を備える。 In order to solve the above problems, a video playback device according to one embodiment of the present invention includes: a video playback unit that displays a video on a display device; a biometric information acquisition unit that acquires biometric information of a viewer who views the video; A concentration determination unit that determines whether the viewer is concentrating on a video based on biological information; and a result recording unit that associates and records the playback section obtained by dividing the video along the time axis and the determination result by the concentration determination unit. and a result display unit that displays, on a display device, a viewing result representing a playback section in which the determination result indicates that the video is not concentrated after the video has been played.

本発明の一態様によれば、視聴者が動画に集中していなかった再生区間を提示することができる。 According to one aspect of the present invention, it is possible to present playback sections in which the viewer was not concentrating on the video.

ストリーミング配信方式の一例を示す概念図である。FIG. 2 is a conceptual diagram showing an example of a streaming distribution method. 動画配信システムの全体構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the overall configuration of a video distribution system. コンピュータのハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the hardware configuration of a computer. 動画配信システムの機能構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a functional configuration of a video distribution system. 動画再生方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of a video reproduction method. 制御情報の一例を示す概念図である。FIG. 3 is a conceptual diagram showing an example of control information. 判定結果の一例を示す概念図である。It is a conceptual diagram which shows an example of a determination result. 視聴結果の一例を示す概念図である。It is a conceptual diagram which shows an example of a viewing result.

以下、本発明の各実施形態について添付の図面を参照しながら説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals and redundant explanation will be omitted.

[実施形態]
<概要>
近年、インターネットにおける動画コンテンツのストリーミング配信では、専用のサーバによる専用のプロトコルを用いた方式から、汎用的なウェブサーバによるHTTPプロトコルを用いた方式への移行が進んでいる。汎用的なプロトコルを用いてストリーミング配信することで、様々なデバイスに向けて動画コンテンツを配信することが可能となっている。
[Embodiment]
<Summary>
In recent years, in streaming distribution of video content on the Internet, there has been a shift from a method using a dedicated protocol using a dedicated server to a method using the HTTP protocol using a general-purpose web server. By streaming distribution using a general-purpose protocol, it is possible to distribute video content to a variety of devices.

HTTPプロトコルを用いてネットワークの通信状態に応じた最適な品質でストリーミング配信する方式は、アダプティブストリーミングと呼ばれる。アダプティブストリーミングでは、IT(Information Technology)ベンダによる独自技術が普及している一方で、ストリーミング配信方式の統一を意図した国際標準規格であるMPEG-DASHが策定されている。いずれの配信技術も基本的なコンセプトは同様であり、以下のようにして動画コンテンツをストリーミング配信する。 A method of streaming distribution using the HTTP protocol with optimal quality depending on the communication state of the network is called adaptive streaming. In adaptive streaming, proprietary technologies by IT (Information Technology) vendors are becoming widespread, while MPEG-DASH, an international standard intended to unify streaming distribution methods, has been established. The basic concept of both distribution technologies is the same, and video content is streamed as follows.

ウェブサーバは、動画コンテンツを構成するセグメントと、マニフェストファイルを用意する。セグメントは、動画コンテンツを1以上の品質(例えば、画面サイズやビットレート等)でエンコードし、それぞれ数秒から数十秒程度の電子ファイルに分割した動画データである。マニフェストファイルは、各セグメントの属性情報や位置情報が記述された電子ファイルである。 The web server prepares segments that make up video content and a manifest file. A segment is video data obtained by encoding video content with one or more qualities (for example, screen size, bit rate, etc.) and dividing it into electronic files each having a length of several seconds to several tens of seconds. The manifest file is an electronic file in which attribute information and position information of each segment are described.

受信端末は、表示装置の画面サイズやネットワークの受信帯域の状態等を考慮して、マニフェストファイルから最適な品質を適時選択し、その品質でエンコードされたセグメントを順次受信する。受信端末は、ウェブサーバから受信したセグメントをデコードし、1本の動画コンテンツに繋ぎ合わせて表示装置等で再生する。 The receiving terminal selects the optimal quality from the manifest file in a timely manner, taking into consideration the screen size of the display device, the status of the network reception band, etc., and sequentially receives segments encoded with that quality. The receiving terminal decodes the segments received from the web server, joins them together into a single video content, and plays the video content on a display device or the like.

図1は、ストリーミング配信方式の一例を示す概念図である。図1に示されているように、まず、エンコーダが、動画コンテンツを複数の品質でエンコードし、品質毎に数秒から数十秒単位で分割したセグメントを生成する。図1の例では、エンコーダが、低品質でエンコードしたセグメント1~4・・・、中品質でエンコードしたセグメント1'~4' ・・・、高品質でエンコードしたセグメント1"~4" ・・・を生成している。マニフェストファイルには、各セグメントのURL(Uniform Resource Locator)等の位置情報や、各品質のビットレート及び画像サイズ等の属性情報が記述されている。エンコーダにより生成されたセグメント及びマニフェストファイルは、ウェブサーバに供給される。 FIG. 1 is a conceptual diagram showing an example of a streaming distribution method. As shown in FIG. 1, an encoder first encodes video content in multiple qualities, and generates segments divided by several seconds to several tens of seconds for each quality. In the example of Figure 1, the encoder encodes segments 1 to 4 with low quality..., segments 1' to 4' encoded with medium quality, segments 1'' to 4'' encoded with high quality...・is generated. The manifest file describes positional information such as URL (Uniform Resource Locator) of each segment, and attribute information such as bit rate and image size of each quality. The segments and manifest files generated by the encoder are provided to a web server.

受信端末は、ウェブサーバからマニフェストファイルを受信し、マニフェストファイルに基づいてセグメントの構成や各品質の属性情報を把握する。次に、受信端末は、表示装置の画面サイズやネットワークの受信帯域の状態に基づいてセグメント単位で品質を選択し、HTTPプロトコルによりセグメントを受信する。続いて、受信端末は、受信したセグメントをマニフェストファイルに従って順番通りに接続し、表示装置で再生する。このようにして、受信端末は、1本の動画コンテンツを構成する一連のセグメントを受信し、再生を継続することができる。 The receiving terminal receives the manifest file from the web server, and grasps the segment configuration and attribute information of each quality based on the manifest file. Next, the receiving terminal selects quality for each segment based on the screen size of the display device and the status of the network reception band, and receives the segment using the HTTP protocol. Subsequently, the receiving terminal connects the received segments in order according to the manifest file and plays them on the display device. In this way, the receiving terminal can receive and continue playing a series of segments constituting one piece of video content.

アダプティブストリーミングにおける品質の選択手法は、規格には定められていない。例えば、ネットワークの受信帯域の状態や受信端末が備えるバッファの残量等に基づいて、品質を選択する手法が知られている(例えば、参考文献1参照)。また、例えば、受信端末が、セグメントを受信するたびに現在の伝送速度を決定し、期待される将来の伝送速度に関係する統計情報を現在の伝送速度の関数として取得し、その統計情報から導出した目標伝送速度に従って、後続のセグメントを受信する手法が知られている(例えば、参考文献2参照)。 The quality selection method in adaptive streaming is not defined in the standard. For example, a method is known in which quality is selected based on the state of the network reception band, the remaining amount of buffer provided in the reception terminal, etc. (see, for example, Reference 1). Also, for example, each time a receiving terminal receives a segment, it determines the current transmission rate, obtains statistical information related to the expected future transmission rate as a function of the current transmission rate, and derives it from the statistical information. A method is known in which subsequent segments are received according to a set target transmission rate (for example, see Reference 2).

〔参考文献1〕Hongzi Mao, Ravi Netravali, Mohammad Alizadeh, "Neural Adaptive Video Streaming with Pensieve", SIGCOMM, pp. 197-210, Aug. 2017.
〔参考文献2〕特表2016-506644号公報
[Reference 1] Hongzi Mao, Ravi Netravali, Mohammad Alizadeh, "Neural Adaptive Video Streaming with Pensieve", SIGCOMM, pp. 197-210, Aug. 2017.
[Reference 2] Special Publication No. 2016-506644

近年、様々な環境で動画コンテンツを視聴することが可能となり、動画視聴への集中を妨げる事象が周囲で発生することが多くなっている。例えば、動画視聴と関係のない刺激(例えば、SNS(Social Networking Service)の通知等)を受けたり、体調が悪かったりすると、動画視聴に集中できず、動画コンテンツを視聴していても内容を十分に理解していないことがある。このような場合、表面上の視聴率は向上するが、視聴者の理解は促進されておらず、実質的に動画が視聴されているとは言えない。 In recent years, it has become possible to view video content in various environments, and events that prevent people from concentrating on video viewing are increasingly occurring in their surroundings. For example, if you receive stimuli unrelated to video viewing (e.g. notifications from SNS (Social Networking Service), etc.) or if you are not feeling well, you may be unable to concentrate on watching videos, and even if you are watching video content, you may not be able to fully understand the content. There are some things I don't understand. In such cases, the viewing rate may improve on the surface, but the viewer's understanding is not being promoted, and it cannot be said that the video is actually being viewed.

本発明の一実施形態は、通信ネットワークを通じて動画コンテンツを配信する動画配信システムにおいて、視聴されている動画コンテンツの実質的な理解を促進することを目的とする。本発明の一実施形態では、脳波又は顔画像等の生体情報に基づいて視聴者が動画視聴に集中していないと判定された再生区間を記録し、動画視聴が終了した後に提示する。これにより、視聴者は動画視聴に集中していなかった再生区間を把握することができ、その再生区間を再視聴することで、動画の内容に対する理解を促進することができる。 An embodiment of the present invention aims to facilitate substantial understanding of video content being viewed in a video distribution system that distributes video content over a communication network. In one embodiment of the present invention, a playback section in which it is determined that the viewer is not concentrating on video viewing based on brain waves or biological information such as a facial image is recorded and presented after the video viewing is finished. This allows the viewer to understand the playback section in which they were not concentrating on viewing the video, and by rewatching the playback section, it is possible to promote understanding of the content of the video.

集中度を推定可能な生体情報としては、例えば脳波又は顔画像が知られている。集中度は、例えば、瞬きの回数や表情から推定できることが知られている(例えば、参考文献3参照)。また、例えば、顔画像から視線を検出することで、集中の対象を推定できる。感情は、例えば、脳波や表情から推定できることが知られている(例えば、参考文献4参照)。 As biological information from which the degree of concentration can be estimated, for example, brain waves or facial images are known. It is known that the degree of concentration can be estimated from, for example, the number of blinks or facial expressions (for example, see Reference 3). Further, for example, by detecting line of sight from a face image, the target of concentration can be estimated. It is known that emotions can be estimated from, for example, brain waves and facial expressions (for example, see Reference 4).

〔参考文献3〕特開2021-170315号公報
〔参考文献4〕夏目季代久, "「飽き」の指標となる脳波はあるか?", 科学研究助成事業研究成果報告書, 課題番号22650205, 2011年
[Reference 3] Unexamined Japanese Patent Publication No. 2021-170315 [Reference 4] Kiyohisa Natsume, “Is there a brain wave that can be used as an indicator of boredom? ", Scientific research grant project research results report, issue number 22650205, 2011

従来、脳波の測定は、測定行為による視聴者へのストレスが大きいことが課題となっていた。例えば、測定機器が大きいこと、測定時に動きが制約されること、又は測定に長時間を要すること等がストレスの原因として挙げられる。近年では、イヤホン型の脳波測定器が開発される等、視聴者に心理的な負荷をかけることなく脳波を測定することが可能になっている(例えば、参考文献5参照)。 Conventionally, the problem with measuring brain waves has been that the act of measuring causes a lot of stress on the viewer. For example, causes of stress include the large size of the measuring device, restrictions on movement during measurement, and the fact that measurement takes a long time. In recent years, with the development of earphone-type electroencephalogram measuring devices, it has become possible to measure electroencephalograms without placing a psychological burden on viewers (for example, see Reference 5).

〔参考文献5〕凸版印刷株式会社, "凸版印刷、イヤホン型脳波デバイス「b-tone」の販売開始", [online],[令和4年8月3日検索],インターネット<URL: https://www.toppan.co.jp/news/2021/09/newsrelease210907_1.html> [Reference 5] Toppan Printing Co., Ltd., "Toppan Printing begins sales of earphone-type brain wave device "b-tone"", [online], [searched on August 3, 2020], Internet <URL: https: //www.toppan.co.jp/news/2021/09/newsrelease210907_1.html>

<動画配信システムの全体構成>
本実施形態における動画配信システムの全体構成を、図2を参照しながら説明する。図2は、本実施形態における動画配信システムの全体構成の一例を示すブロック図である。
<Overall configuration of video distribution system>
The overall configuration of the video distribution system in this embodiment will be described with reference to FIG. 2. FIG. 2 is a block diagram showing an example of the overall configuration of the video distribution system in this embodiment.

図2に示されているように、本実施形態における動画配信システム1は、動画配信サーバ10及び1台以上の動画再生装置20を含む。動画配信サーバ10及び動画再生装置20は、LAN(Local Area Network)又はインターネット等の通信ネットワークN1を介してデータ通信可能に接続されている。 As shown in FIG. 2, the video distribution system 1 in this embodiment includes a video distribution server 10 and one or more video playback devices 20. The video distribution server 10 and the video playback device 20 are connected to enable data communication via a communication network N1 such as a LAN (Local Area Network) or the Internet.

動画配信サーバ10は、通信ネットワークN1を介して動画コンテンツを配信するパーソナルコンピュータ、ワークステーション、サーバ等の情報処理装置である。動画配信サーバ10は、動画再生装置20からの要求に応じて、動画コンテンツを動画再生装置20に送信する。 The video distribution server 10 is an information processing device such as a personal computer, workstation, or server that distributes video content via the communication network N1. The video distribution server 10 transmits video content to the video playback device 20 in response to a request from the video playback device 20.

動画再生装置20は、視聴者が動画コンテンツを視聴するテレビ受像機、セットトップボックス、パーソナルコンピュータ、スマートフォン等の電子機器である。動画再生装置20は、視聴者の操作に応じて動画コンテンツの配信を動画配信サーバ10に要求し、動画配信サーバ10から受信した動画コンテンツを表示装置で再生する。 The video playback device 20 is an electronic device, such as a television receiver, set-top box, personal computer, or smartphone, on which a viewer views video content. The video playback device 20 requests the video distribution server 10 to distribute video content in response to a viewer's operation, and plays the video content received from the video distribution server 10 on the display device.

なお、図2に示した動画配信システム1の全体構成は一例であって、用途や目的に応じて様々なシステム構成例があり得る。例えば、動画配信サーバ10は、複数台のコンピュータにより実現してもよいし、クラウドコンピューティングのサービスとして実現してもよい。 Note that the overall configuration of the video distribution system 1 shown in FIG. 2 is one example, and there may be various system configuration examples depending on the usage and purpose. For example, the video distribution server 10 may be realized by a plurality of computers, or may be realized as a cloud computing service.

<動画配信システムのハードウェア構成>
本実施形態における動画配信システム1のハードウェア構成を、図3を参照しながら説明する。
<Hardware configuration of video distribution system>
The hardware configuration of the video distribution system 1 in this embodiment will be described with reference to FIG.

≪コンピュータのハードウェア構成≫
本実施形態における動画配信サーバ10及び動画再生装置20は、例えばコンピュータにより実現される。図3は、本実施形態におけるコンピュータのハードウェア構成の一例を示すブロック図である。
≪Computer hardware configuration≫
The video distribution server 10 and the video playback device 20 in this embodiment are realized by, for example, a computer. FIG. 3 is a block diagram showing an example of the hardware configuration of the computer in this embodiment.

図3に示されているように、本実施形態におけるコンピュータ500は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HDD(Hard Disk Drive)504、入力装置505、表示装置506、通信I/F(Interface)507及び外部I/F508を有する。CPU501、ROM502及びRAM503は、いわゆるコンピュータを形成する。コンピュータ500の各ハードウェアは、バスライン509を介して相互に接続されている。なお、入力装置505及び表示装置506は外部I/F508に接続して利用する形態であってもよい。 As shown in FIG. 3, the computer 500 in this embodiment includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an HDD (Hard Disk Drive) 504, It has an input device 505, a display device 506, a communication I/F (Interface) 507, and an external I/F 508. CPU501, ROM502, and RAM503 form what is called a computer. Each piece of hardware in the computer 500 is interconnected via a bus line 509. Note that the input device 505 and the display device 506 may be connected to an external I/F 508 for use.

CPU501は、ROM502又はHDD504等の記憶装置からプログラムやデータをRAM503上に読み出し、処理を実行することで、コンピュータ500全体の制御や機能を実現する演算装置である。 The CPU 501 is a computing device that reads programs and data from a storage device such as the ROM 502 or the HDD 504 onto the RAM 503 and executes processing to realize the overall control and functions of the computer 500.

ROM502は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM502は、HDD504にインストールされている各種プログラムをCPU501が実行するために必要な各種プログラム、データ等を格納する主記憶装置として機能する。具体的には、ROM502には、コンピュータ500の起動時に実行されるBIOS(Basic Input/Output System)、EFI(Extensible Firmware Interface)等のブートプログラムや、OS(Operating System)設定、ネットワーク設定等のデータが格納されている。 The ROM 502 is an example of a nonvolatile semiconductor memory (storage device) that can retain programs and data even when the power is turned off. The ROM 502 functions as a main storage device that stores various programs, data, etc. necessary for the CPU 501 to execute various programs installed on the HDD 504 . Specifically, the ROM 502 stores data such as boot programs such as BIOS (Basic Input/Output System) and EFI (Extensible Firmware Interface) that are executed when the computer 500 is started, OS (Operating System) settings, and network settings. is stored.

RAM503は、電源を切るとプログラムやデータが消去される揮発性の半導体メモリ(記憶装置)の一例である。RAM503は、例えば、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等である。RAM503は、HDD504にインストールされている各種プログラムがCPU501によって実行される際に展開される作業領域を提供する。 The RAM 503 is an example of a volatile semiconductor memory (storage device) whose programs and data are erased when the power is turned off. The RAM 503 is, for example, DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory). The RAM 503 provides a work area where various programs installed on the HDD 504 are expanded when the CPU 501 executes them.

HDD504は、プログラムやデータを格納している不揮発性の記憶装置の一例である。HDD504に格納されるプログラムやデータには、コンピュータ500全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーション等がある。なお、コンピュータ500はHDD504に替えて、記憶媒体としてフラッシュメモリを用いる記憶装置(例えばSSD:Solid State Drive等)を利用するものであってもよい。 The HDD 504 is an example of a non-volatile storage device that stores programs and data. The programs and data stored in the HDD 504 include an OS, which is basic software that controls the entire computer 500, and applications that provide various functions on the OS. Note that instead of the HDD 504, the computer 500 may use a storage device that uses flash memory as a storage medium (e.g., an SSD: Solid State Drive, etc.).

入力装置505は、ユーザが各種信号を入力するために用いるタッチパネル、操作キーやボタン、キーボードやマウス、音声等の音データを入力するマイクロホン等である。 The input device 505 is a touch panel used by the user to input various signals, operation keys or buttons, a keyboard or mouse, a microphone used to input sound data such as voice, or the like.

表示装置506は、画面を表示する液晶や有機EL(Electro-Luminescence)等のディスプレイ、音声等の音データを出力するスピーカ等で構成されている。 The display device 506 includes a display such as a liquid crystal or organic EL (Electro-Luminescence) that displays a screen, a speaker that outputs sound data such as audio, and the like.

通信I/F507は、通信ネットワークに接続し、コンピュータ500がデータ通信を行うためのインタフェースである。 The communication I/F 507 is an interface that connects to a communication network and enables the computer 500 to perform data communication.

外部I/F508は、外部装置とのインタフェースである。外部装置には、ドライブ装置510等がある。 The external I/F 508 is an interface with external devices. Examples of external devices include a drive device 510.

ドライブ装置510は、記録媒体511をセットするためのデバイスである。ここでいう記録媒体511には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体511には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。これにより、コンピュータ500は外部I/F508を介して記録媒体511の読み取り及び/又は書き込みを行うことができる。 The drive device 510 is a device for setting the recording medium 511. The recording medium 511 here includes media that record information optically, electrically, or magnetically, such as CD-ROMs, flexible disks, and magneto-optical disks. The recording medium 511 may also include semiconductor memory that records information electrically, such as ROM and flash memory. This allows the computer 500 to read and/or write to the recording medium 511 via the external I/F 508.

なお、HDD504にインストールされる各種プログラムは、例えば、配布された記録媒体511が外部I/F508に接続されたドライブ装置510にセットされ、記録媒体511に記録された各種プログラムがドライブ装置510により読み出されることでインストールされる。あるいは、HDD504にインストールされる各種プログラムは、通信I/F507を介して、通信ネットワークとは異なる他のネットワークよりダウンロードされることでインストールされてもよい。 Note that the various programs installed on the HDD 504 are, for example, when the distributed recording medium 511 is set in the drive device 510 connected to the external I/F 508, and the various programs recorded on the recording medium 511 are read by the drive device 510. It is installed by Alternatively, various programs to be installed on the HDD 504 may be installed by being downloaded from a network different from the communication network via the communication I/F 507.

<動画配信システムの機能構成>
本実施形態における動画配信システムの機能構成を、図4を参照しながら説明する。図4は、本実施形態における動画配信システム1の機能構成の一例を示すブロック図である。
<Functional configuration of video distribution system>
The functional configuration of the video distribution system in this embodiment will be described with reference to FIG. 4. FIG. 4 is a block diagram showing an example of the functional configuration of the video distribution system 1 in this embodiment.

≪動画配信サーバの機能構成≫
図4に示されているように、本実施形態における動画配信サーバ10は、動画配信部101、制御情報配信部102、動画記憶部111及び制御情報記憶部112を備える。
<Video distribution server functional configuration>
As shown in FIG. 4, the moving image distribution server 10 in this embodiment includes a moving image distribution unit 101, a control information distribution unit 102, a moving image storage unit 111, and a control information storage unit 112.

動画配信部101及び制御情報配信部102は、例えば、図3に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。動画記憶部111及び制御情報記憶部112は、例えば、図3に示されているHDD504を用いて実現される。 The video distribution unit 101 and the control information distribution unit 102 are realized, for example, by a process executed by the CPU 501 of a program loaded onto the RAM 503 from the HDD 504 shown in FIG. 3. The video storage unit 111 and the control information storage unit 112 are realized, for example, by using the HDD 504 shown in FIG. 3.

動画記憶部111には、動画再生装置20に配信する動画コンテンツが記憶されている。本実施形態における動画コンテンツは、1つの動画データを予め定めた複数の品質毎にエンコードし、時間軸で複数の再生区間に分割したセグメントの集合である。 The video storage unit 111 stores video content to be distributed to the video playback device 20. The video content in this embodiment is a set of segments obtained by encoding one video data for each of a plurality of predetermined qualities and dividing it into a plurality of playback sections along the time axis.

制御情報記憶部112には、動画記憶部111に記憶されている動画コンテンツを再生するために用いる制御情報が記憶されている。本実施形態における制御情報は、再生時刻、セグメントの位置情報、及び感情の期待値を関連付けた情報である。本実施形態における制御情報の一例は、マニフェストファイルである。 The control information storage unit 112 stores control information used to reproduce the video content stored in the video storage unit 111. The control information in this embodiment is information that associates playback time, segment position information, and expected emotional value. An example of control information in this embodiment is a manifest file.

セグメントの位置情報は、例えば、セグメントに対応する電子ファイルの位置を示すURLである。感情の期待値は、当該セグメントを視聴したときに生じることが期待される感情を表す情報である。感情の期待値は、動画コンテンツの制作者等が予め設定すればよい。 The segment location information is, for example, a URL indicating the location of the electronic file corresponding to the segment. The expected emotion value is information representing the emotion that is expected to occur when viewing the segment. The expected value of emotion may be set in advance by a video content producer or the like.

制御情報記憶部112には、動画再生装置20に配信したセグメントに関する情報を記録した配信済みリストがさらに記憶されている。配信済みリストは、動画再生装置20それぞれについて記憶される。 The control information storage unit 112 further stores a distributed list in which information regarding segments distributed to the video playback device 20 is recorded. The distributed list is stored for each video playback device 20.

動画配信部101は、動画再生装置20から受信したセグメント取得要求に応じて、動画記憶部111に記憶されているセグメントを動画再生装置20に送信する。動画配信部101は、動画再生装置20に送信したセグメントに関する情報を、制御情報記憶部112に記憶されている配信済みリストに記録する。 The video distribution unit 101 transmits the segments stored in the video storage unit 111 to the video playback device 20 in response to the segment acquisition request received from the video playback device 20. The video distribution unit 101 records information regarding the segment transmitted to the video playback device 20 in the distributed list stored in the control information storage unit 112.

制御情報配信部102は、動画再生装置20から受信した制御情報取得要求に応じて、制御情報記憶部112に記憶されている制御情報を動画再生装置20に送信する。 The control information distribution unit 102 transmits the control information stored in the control information storage unit 112 to the video playback device 20 in response to the control information acquisition request received from the video playback device 20.

≪動画再生装置の機能構成≫
図4に示されているように、本実施形態における動画再生装置20は、制御情報取得部201、動画取得部202、バッファ部203、動画再生部204、生体情報取得部205、集中判定部206、結果記録部207、結果表示部208、制御情報記憶部211及び判定結果記憶部212を備える。
≪Functional configuration of video playback device≫
As shown in FIG. 4, the video playback device 20 in this embodiment includes a control information acquisition section 201, a video acquisition section 202, a buffer section 203, a video playback section 204, a biological information acquisition section 205, and a concentration determination section 206. , a result recording section 207, a result display section 208, a control information storage section 211, and a determination result storage section 212.

制御情報取得部201、動画取得部202、バッファ部203、動画再生部204、生体情報取得部205、集中判定部206、結果記録部207及び結果表示部208は、例えば、図3に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。制御情報記憶部211及び判定結果記憶部212は、例えば、図3に示されているHDD504を用いて実現される。 For example, the control information acquisition unit 201, the video acquisition unit 202, the buffer unit 203, the video playback unit 204, the biological information acquisition unit 205, the concentration determination unit 206, the result recording unit 207, and the result display unit 208 are shown in FIG. This is realized by the process of causing the CPU 501 to execute a program loaded onto the RAM 503 from the HDD 504. The control information storage unit 211 and the determination result storage unit 212 are realized using, for example, the HDD 504 shown in FIG. 3.

制御情報記憶部211には、動画配信サーバ10から受信した制御情報が記憶される。制御情報記憶部211には、動画コンテンツを再生する都度、当該動画コンテンツに関する制御情報が記憶される。 The control information storage unit 211 stores control information received from the video distribution server 10. The control information storage unit 211 stores control information regarding the video content each time the video content is played back.

判定結果記憶部212には、集中判定部206により判定された判定結果を記録した判定結果リストが記憶される。判定結果リストは、動画コンテンツを再生するたびに生成される、セグメントと判定結果とを関連付けて記録したリストである。 The determination result storage unit 212 stores a determination result list in which the determination results determined by the centralized determination unit 206 are recorded. The determination result list is a list that is generated every time video content is played back and records segments and determination results in association with each other.

制御情報取得部201は、視聴者による動画再生操作に応じて、制御情報取得要求を動画配信サーバ10に送信する。制御情報取得部201は、動画配信サーバ10から受信した制御情報を制御情報記憶部211に記憶する。 The control information acquisition unit 201 transmits a control information acquisition request to the video distribution server 10 in response to a video playback operation by the viewer. The control information acquisition unit 201 stores the control information received from the video distribution server 10 in the control information storage unit 211.

動画取得部202は、制御情報記憶部211に記憶されている制御情報に従って、セグメント取得要求を動画配信サーバ10に送信する。動画取得部202は、動画配信サーバ10から受信したセグメントをバッファ部203に記憶する。 The video acquisition unit 202 transmits a segment acquisition request to the video distribution server 10 according to the control information stored in the control information storage unit 211. The video acquisition unit 202 stores the segments received from the video distribution server 10 in the buffer unit 203.

バッファ部203は、動画配信サーバ10から受信したセグメントを、再生開始時刻及び再生継続時間(セグメント長)と関連付けて記憶する。バッファ部203は、再生開始時刻に従ってセグメントを読み出し、動画再生部204に順次出力する。 The buffer unit 203 stores the segments received from the video distribution server 10 in association with a playback start time and a playback duration time (segment length). The buffer unit 203 reads the segments according to the playback start time and sequentially outputs them to the video playback unit 204.

動画再生部204は、バッファ部203から次に再生するセグメントを取得する。動画再生部204は、制御情報記憶部211に記憶されている制御情報に従って、取得したセグメントをメディア形式(映像、音声、又はテキスト等)に従ってデコードする。動画再生部204は、デコードしたセグメントを表示装置506で再生する。 The video playback unit 204 obtains a segment to be played next from the buffer unit 203. The video playback unit 204 decodes the acquired segment according to the media format (video, audio, text, etc.) according to the control information stored in the control information storage unit 211. The video playback unit 204 plays back the decoded segments on the display device 506.

生体情報取得部205は、視聴者の生体情報を取得する。本実施形態における生体情報は、視聴者の脳波又は顔画像等である。 The biometric information acquisition unit 205 obtains biometric information of the viewer. The biological information in this embodiment is the viewer's brain waves, facial image, or the like.

集中判定部206は、生体情報取得部205により取得された生体情報に基づいて、視聴者の集中度又は感情を推定する。集中判定部206は、推定された集中度又は感情に基づいて、視聴者が動画に集中しているか否かを判定する。 The concentration determination unit 206 estimates the viewer's concentration level or emotion based on the biometric information acquired by the biometric information acquisition unit 205. The concentration determining unit 206 determines whether the viewer is concentrating on the video based on the estimated concentration level or emotion.

結果記録部207は、集中判定部206により判定された判定結果を、判定時に再生していたセグメントと関連付けて、判定結果記憶部212に記憶された判定結果リストに記録する。結果記録部207は、例えば、セグメントを識別する識別情報と判定結果とを組にすることで、セグメントと判定結果とを関連付ける。 The result recording unit 207 records the determination result determined by the intensive determination unit 206 in the determination result list stored in the determination result storage unit 212 in association with the segment that was being reproduced at the time of determination. The result recording unit 207 associates the segment and the determination result by, for example, pairing the identification information that identifies the segment with the determination result.

結果表示部208は、動画再生部204により動画コンテンツの再生が終了した後、判定結果記憶部212に記憶されている判定結果リストに基づいて、視聴結果を生成する。視聴結果は、視聴者が動画に集中していなかった再生区間を示す情報である。結果表示部208は、生成した視聴結果を判定結果記憶部212に記憶し、表示装置506に表示する。 After the video playback unit 204 finishes playing the video content, the result display unit 208 generates a viewing result based on the determination result list stored in the determination result storage unit 212. The viewing result is information indicating a playback section in which the viewer was not concentrating on the video. The result display unit 208 stores the generated viewing results in the determination result storage unit 212 and displays them on the display device 506.

<動画配信システムの処理手順>
本実施形態における動画配信システム1が実行する動画配信方法の処理手順を、図5を参照しながら説明する。図5は、本実施形態における動画配信方法の処理手順の一例を示すフローチャートである。
<Processing procedure of video distribution system>
The processing procedure of the video distribution method executed by the video distribution system 1 in this embodiment will be explained with reference to FIG. 5. FIG. 5 is a flowchart illustrating an example of the processing procedure of the video distribution method in this embodiment.

ステップS1において、動画再生装置20が備える動画再生部204は、視聴者による動画再生操作を受け付ける。動画再生操作は、再生する動画コンテンツを指定して行われる。動画再生操作は、例えば、動画再生装置20が表示装置506に表示するメニュー画面等で再生可能な動画コンテンツから所望の動画コンテンツを選択する操作である。 In step S1, the video playback unit 204 included in the video playback device 20 receives a video playback operation from the viewer. A video playback operation is performed by specifying video content to be played. The video playback operation is, for example, an operation of selecting desired video content from playable video content on a menu screen or the like displayed by the video playback device 20 on the display device 506.

ステップS2において、動画再生装置20が備える制御情報取得部201は、制御情報取得要求を動画配信サーバ10に送信する。制御情報取得要求には、動画再生操作において指定された動画コンテンツを識別する識別情報(以下、「動画ID」とも呼ぶ)が含まれる。 In step S2, the control information acquisition unit 201 included in the video playback device 20 transmits a control information acquisition request to the video distribution server 10. The control information acquisition request includes identification information (hereinafter also referred to as "video ID") that identifies the video content specified in the video playback operation.

ステップS3において、動画配信サーバ10が備える制御情報配信部102は、動画再生装置20から制御情報取得要求を受信する。次に、制御情報配信部102は、制御情報取得要求に含まれる動画IDに基づいて、制御情報記憶部112から制御情報を読み出す。続いて、制御情報配信部102は、読み出した制御情報を動画再生装置20に送信する。 In step S3, the control information distribution unit 102 included in the video distribution server 10 receives a control information acquisition request from the video playback device 20. Next, the control information distribution unit 102 reads control information from the control information storage unit 112 based on the video ID included in the control information acquisition request. Subsequently, the control information distribution unit 102 transmits the read control information to the video playback device 20.

ステップS4において、動画再生装置20が備える制御情報取得部201は、制御情報を動画配信サーバ10から受信する。次に、制御情報取得部201は、受信した制御情報を制御情報記憶部211に記憶する。続いて、動画再生部204が、動画コンテンツの再生を開始する。 In step S4, the control information acquisition unit 201 included in the video playback device 20 receives control information from the video distribution server 10. Next, the control information acquisition unit 201 stores the received control information in the control information storage unit 211. Subsequently, the video playback unit 204 starts playing back the video content.

図6は、本実施形態における制御情報の一例を示す概念図である。図6に示されているように、本実施形態における制御情報は、品質毎に、時間、セグメントURL及び知覚IDが関連付けられた情報である。品質は、動画コンテンツをエンコードした品質である。例えば、動画コンテンツが高品質、中品質及び低品質でエンコードしたセグメントを含む場合、高品質、中品質及び低品質それぞれについて、制御情報が存在する。 FIG. 6 is a conceptual diagram showing an example of control information in this embodiment. As shown in FIG. 6, the control information in this embodiment is information in which time, segment URL, and perception ID are associated for each quality. The quality is the quality of encoded video content. For example, if video content includes segments encoded in high quality, medium quality, and low quality, control information exists for each of high quality, medium quality, and low quality.

時間は、そのセグメントの再生開始時刻である。再生開始時刻は、動画コンテンツの再生を開始した時刻からの経過時間である。セグメントURLは、そのセグメントに対応する動画データの位置情報である。 The time is the playback start time of the segment. The playback start time is the time elapsed from the time playback of the video content started. The segment URL is the location information of the video data corresponding to the segment.

知覚IDは、感情の期待値を表す。本実施形態では、エクマンの理論に従って知覚IDを設定するものとする。エクマンの理論では、人間の感情を6つの基本感情で定義する。知覚IDは、例えば、(1)喜び、(2)悲しみ、(3)嫌悪、(4)怒り、(5)恐怖、(6)驚きのいずれかとする。知覚IDは、動画コンテンツの制作者等が予め設定すればよい。 Perception ID represents the expected value of emotion. In this embodiment, it is assumed that the perceptual ID is set according to Ekman's theory. Ekman's theory defines human emotions in terms of six basic emotions. The perception ID is, for example, one of (1) joy, (2) sadness, (3) disgust, (4) anger, (5) fear, and (6) surprise. The perceptual ID may be set in advance by a video content producer or the like.

図5に戻って説明する。ステップS5において、動画再生装置20が備える動画取得部202は、表示装置506の画面サイズ又は通信ネットワークN1の状態に応じて、品質を決定する。次に、動画取得部202は、制御情報記憶部211に記憶されている制御情報に従って、セグメント取得要求を動画配信サーバ10に送信する。セグメント取得要求には、決定した品質に対応するセグメントURLが含まれる。 The explanation will be returned to FIG. 5. In step S5, the video acquisition unit 202 included in the video playback device 20 determines the quality depending on the screen size of the display device 506 or the state of the communication network N1. Next, the video acquisition unit 202 transmits a segment acquisition request to the video distribution server 10 according to the control information stored in the control information storage unit 211. The segment acquisition request includes a segment URL corresponding to the determined quality.

ステップS6において、動画配信サーバ10が備える動画配信部101は、セグメント取得要求を動画再生装置20から受信する。次に、動画配信部101は、セグメント取得要求に含まれるセグメントURLに基づいて、動画記憶部111からセグメントを読み出す。続いて、動画配信部101は、読み出したセグメントを動画再生装置20に送信する。同時に、動画配信部101は、読み出したセグメントに関する情報を、制御情報記憶部112に記憶されている配信済みリストに記録する。 In step S6, the video distribution unit 101 included in the video distribution server 10 receives a segment acquisition request from the video playback device 20. Next, the video distribution unit 101 reads the segment from the video storage unit 111 based on the segment URL included in the segment acquisition request. Subsequently, the video distribution unit 101 transmits the read segment to the video playback device 20. At the same time, the video distribution unit 101 records information regarding the read segment in the distributed list stored in the control information storage unit 112.

ステップS7において、動画再生装置20が備える動画取得部202は、セグメントを動画配信サーバ10から受信する。次に、動画取得部202は、受信したセグメントを、再生開始時刻及び再生継続時間と関連付けてバッファ部203に記憶する。 In step S7, the video acquisition unit 202 included in the video playback device 20 receives the segment from the video distribution server 10. Next, the video acquisition unit 202 stores the received segment in the buffer unit 203 in association with the playback start time and playback duration time.

動画再生部204は、バッファ部203からセグメントを取得する。当該要求には、次のセグメントの再生開始時刻が含まれる。次のセグメントの再生開始時刻は、現在再生中のセグメントの再生開始時刻に再生継続時間を加算した時刻である。バッファ部203は、要求された再生開始時刻に対応するセグメントを読み出し、動画再生部204に出力する。 The video playback unit 204 acquires segments from the buffer unit 203. The request includes the playback start time of the next segment. The reproduction start time of the next segment is the time obtained by adding the reproduction duration time to the reproduction start time of the segment currently being reproduced. The buffer unit 203 reads out the segment corresponding to the requested playback start time and outputs it to the video playback unit 204.

動画再生部204は、制御情報記憶部211に記憶されている制御情報に従って、バッファ部203から出力されたセグメントをメディア形式に従ってデコードする。動画再生部204は、デコードしたセグメントをメディア形式に従って表示装置506から出力する。 The video playback unit 204 decodes the segments output from the buffer unit 203 in accordance with the media format, in accordance with the control information stored in the control information storage unit 211. The video playback unit 204 outputs the decoded segments from the display device 506 in accordance with the media format.

ステップS8において、動画再生装置20が備える生体情報取得部205は、視聴者の生体情報を取得する。次に、生体情報取得部205は、取得した視聴者の生体情報を集中判定部206に送る。 In step S8, the biometric information acquisition unit 205 included in the video playback device 20 acquires biometric information of the viewer. Next, the biological information acquisition unit 205 sends the acquired biological information of the viewer to the centralized determination unit 206 .

生体情報取得部205は、生体情報として脳波を取得する場合、視聴者に装着された脳波測定装置と有線又は無線のインタフェースで接続し、脳波測定装置が出力する信号を受信する。生体情報取得部205は、生体情報として顔画像を取得する場合、動画再生装置20に接続されたカメラ等の撮影部を制御し、視聴者の顔画像を撮影する。 When acquiring brain waves as biological information, the biological information acquisition unit 205 connects to an electroencephalogram measurement device worn by the viewer via a wired or wireless interface, and receives a signal output from the electroencephalogram measurement device. When acquiring a facial image as biological information, the biological information acquisition unit 205 controls a photographing unit such as a camera connected to the video playback device 20 to photograph a facial image of the viewer.

ステップS9において、動画再生装置20が備える集中判定部206は、視聴者の生体情報を生体情報取得部205から受け取る。次に、集中判定部206は、視聴者の生体情報に基づいて、視聴者の集中度又は感情を推定する。続いて、集中判定部206は、推定された集中度又は感情に基づいて、視聴者が動画に集中しているか否かを判定する。そして、集中判定部206は、判定結果を結果記録部207に送る。 In step S9, the centralized determination unit 206 included in the video playback device 20 receives biometric information of the viewer from the biometric information acquisition unit 205. Next, the concentration determination unit 206 estimates the viewer's concentration level or emotion based on the viewer's biological information. Next, the concentration determining unit 206 determines whether the viewer is concentrating on the video based on the estimated concentration level or emotion. Then, the centralized determination unit 206 sends the determination result to the result recording unit 207.

集中判定部206は、視聴者の感情を推定した場合、ネガティブな知覚の変化が発生したか否かを判定する。ネガティブな知覚の変化とは、前回推定した感情がポジティブな感情又は無感情であったとき、今回推定した感情がネガティブな感情に変化したことを表す。ポジティブな感情とは、例えば、(1)喜び、(6)驚きである。ネガティブな感情とは、例えば、(2)悲しみ、(3)嫌悪、(4)怒り、(5)恐怖である。 When the viewer's emotion is estimated, the concentration determining unit 206 determines whether a negative change in perception has occurred. A change in negative perception indicates that when the previously estimated emotion was a positive emotion or no emotion, the currently estimated emotion has changed to a negative emotion. Examples of positive emotions are (1) joy and (6) surprise. Examples of negative emotions are (2) sadness, (3) disgust, (4) anger, and (5) fear.

ネガティブな知覚の変化が発生した場合、集中判定部206は、今回推定した感情(以下、「感情の推定値」とも呼ぶ)を制御情報に含まれる感情の期待値と比較する。感情の推定値が感情の期待値と異なる場合、集中判定部206は、視聴者が動画に集中していないと判定する。 When a negative change in perception occurs, the concentration determination unit 206 compares the currently estimated emotion (hereinafter also referred to as "estimated emotion value") with the expected emotion value included in the control information. If the estimated value of emotion is different from the expected value of emotion, the concentration determining unit 206 determines that the viewer is not concentrating on the video.

集中判定部206は、その他の場合、視聴者が動画に集中していると判定する。すなわち、ネガティブな知覚の変化が発生していない場合、又は、感情の推定値が感情の期待値と同一である場合、集中判定部206は、視聴者が動画に集中していると判定する。 In other cases, the concentration determining unit 206 determines that the viewer is concentrating on the video. That is, if a negative change in perception has not occurred, or if the estimated value of emotion is the same as the expected value of emotion, the concentration determining unit 206 determines that the viewer is concentrating on the video.

集中判定部206は、視聴者の集中度を推定した場合、推定した集中度(以下、「集中度の推定値」とも呼ぶ)を所定の閾値と比較する。集中度の推定値が閾値以上である場合、集中判定部206は、視聴者が動画に集中していると判定する。一方、集中度の推定値が閾値未満である場合、集中判定部206は、視聴者が動画に集中していないと判定する。 When the concentration determination unit 206 estimates the viewer's concentration level, it compares the estimated concentration level (hereinafter also referred to as "estimated concentration value") with a predetermined threshold. When the estimated value of the degree of concentration is equal to or greater than the threshold, the concentration determining unit 206 determines that the viewer is concentrating on the video. On the other hand, if the estimated value of the degree of concentration is less than the threshold, the concentration determining unit 206 determines that the viewer is not concentrating on the video.

ステップS10において、動画再生装置20が備える結果記録部207は、判定結果を集中判定部206から受け取る。結果記録部207は、受け取った判定結果と、判定時に再生していたセグメントを識別する識別情報とを組にして、判定結果記憶部212に記憶された判定結果リストに記録する。 In step S10, the result recording unit 207 included in the video playback device 20 receives the determination result from the centralized determination unit 206. The result recording unit 207 records the received determination result and identification information for identifying the segment that was being reproduced at the time of determination as a set in the determination result list stored in the determination result storage unit 212 .

図7は、本実施形態における判定結果リストの一例を示す概念図である。図7に示されているように、本実施形態における判定結果リストは、時間、セグメントURL及び非集中フラグが関連付けられた情報である。 FIG. 7 is a conceptual diagram showing an example of a determination result list in this embodiment. As shown in FIG. 7, the determination result list in this embodiment is information in which time, segment URL, and non-concentration flag are associated.

時間は、そのセグメントの再生開始時刻である。セグメントURLは、各時間に対応するセグメントで取得した動画データの位置情報である。 The time is the time when the segment starts playing. The segment URL is position information of video data acquired in a segment corresponding to each time.

非集中フラグは、視聴者が動画に集中していない場合には真、視聴者が動画に集中している場合には偽となる真理値である。非集中フラグは、そのセグメントにおいて集中判定部206により判定された判定結果に基づいて設定される。 The non-concentration flag has a truth value that is true when the viewer is not concentrating on the video, and is false when the viewer is concentrating on the video. The non-concentration flag is set based on the determination result determined by the concentration determination unit 206 in that segment.

図5に戻って説明する。ステップS11において、動画再生装置20が備える動画再生部204は、動画コンテンツの再生が終了したか否かを判定する。動画再生部204は、例えば、動画コンテンツにおける最後のセグメントを再生した場合、又は、ユーザによる再生終了操作が行われた場合、再生が終了したと判定する。一方、動画再生部204は、その他の場合(例えば、次に再生するセグメントが存在する場合、かつ、ユーザによる再生終了操作が行われていない場合)、再生が終了していないと判定する。 The explanation will be returned to FIG. 5. In step S11, the video playback unit 204 included in the video playback device 20 determines whether the playback of the video content has ended. The video playback unit 204 determines that playback has ended, for example, when the last segment of the video content is played back, or when the user performs a playback end operation. On the other hand, in other cases (for example, when there is a segment to be played next and the user has not performed an operation to end the playback), the video playback unit 204 determines that the playback has not ended.

動画再生部204は、再生が終了したと判定した場合(YES)、ステップS12に処理を進める。一方、動画再生部204は、再生が終了していないと判定した場合(NO)、ステップS5に処理を戻す。 When the video playback unit 204 determines that playback has ended (YES), the process proceeds to step S12. On the other hand, if the video playback unit 204 determines that the playback has not ended (NO), the process returns to step S5.

ステップS12において、動画再生装置20が備える結果表示部208は、判定結果記憶部212に記憶されている判定結果リストに基づいて、視聴結果を生成する。次に、結果表示部208は、生成した視聴結果を判定結果記憶部212に記憶する。続いて、結果表示部208は、生成した視聴結果を表示装置506に表示する。 In step S12, the result display unit 208 included in the video playback device 20 generates viewing results based on the determination result list stored in the determination result storage unit 212. Next, the result display unit 208 stores the generated viewing results in the determination result storage unit 212. Subsequently, the result display unit 208 displays the generated viewing results on the display device 506.

図8は、本実施形態における視聴結果の一例を示す概念図である。図8に示されているように、本実施形態における視聴結果は、再生開始時刻、再生継続時間及びセグメントURLが関連付けられた情報である。視聴結果は、図7に示した判定結果リストにおいて、非集中フラグが真に設定された(すなわち、視聴者が動画に集中していなかった)セグメントを抽出した結果である。 FIG. 8 is a conceptual diagram showing an example of viewing results in this embodiment. As shown in FIG. 8, the viewing result in this embodiment is information in which a playback start time, a playback duration time, and a segment URL are associated. The viewing results are the results of extracting segments in which the non-concentration flag was set to true (that is, the viewer was not concentrating on the video) in the determination result list shown in FIG.

再生開始時刻は、非集中フラグが真に設定されたセグメントの再生開始時刻である。非集中フラグが設定されたセグメントが複数連続している場合、それらのセグメントのうち最も再生開始時刻が早いセグメントの再生開始時刻を表示する。 The playback start time is the playback start time of the segment for which the non-concentration flag is set to true. If there are a plurality of consecutive segments with the non-concentration flag set, the reproduction start time of the segment with the earliest reproduction start time among those segments is displayed.

再生継続時間は、非集中フラグが真に設定されたセグメントの再生継続時間である。非集中フラグが設定されたセグメントが複数連続している場合、それらのセグメントの再生継続時間の総和を表示する。 The playback duration is the playback duration of the segment for which the non-concentration flag is set to true. If there are multiple consecutive segments with the non-concentration flag set, the total playback duration of these segments is displayed.

セグメントURLは、非集中フラグが真に設定されたセグメントのセグメントURLである。非集中フラグが設定されたセグメントが複数連続している場合、それらのセグメントのうち最も再生開始時刻が早いセグメントのセグメントURLを表示する。 The segment URL is the segment URL of the segment whose decentralized flag is set to true. If there are a plurality of consecutive segments with the non-concentration flag set, the segment URL of the segment with the earliest playback start time among those segments is displayed.

図8の例では、非集中フラグが設定されたセグメントが複数連続している場合、それらを連続した再生区間として視聴結果を表示する例を示したが、視聴結果の表示形態はこれらに限定されない。例えば、非集中フラグが設定されたセグメントに関する情報を個別に列挙する視聴結果を表示してもよい。また、例えば、動画コンテンツが複数のチャプターを含む場合、非集中フラグが設定されたセグメントを含むチャプターに関する情報を列挙する視聴結果を表示してもよい。 In the example of FIG. 8, when there are multiple consecutive segments with the non-concentration flag set, the viewing results are displayed as continuous playback sections, but the display format of the viewing results is not limited to this. . For example, viewing results may be displayed that individually list information regarding segments for which the non-concentration flag has been set. Furthermore, for example, when the video content includes a plurality of chapters, viewing results may be displayed that list information regarding chapters that include segments with non-concentration flags set.

結果表示部208は、動画コンテンツの再生を終了した後であれば、任意のタイミングで視聴結果を表示してもよい。例えば、結果表示部208は、動画コンテンツの再生が終了した直後に視聴結果を表示してもよい。また、例えば、結果表示部208は、一度動画コンテンツの再生が終了した後に、再度同じ動画コンテンツを指定した動画再生操作が行われたときに、その動画コンテンツに関する前回の視聴結果を表示してもよい。 The result display unit 208 may display the viewing results at any timing after the video content has finished playing. For example, the result display unit 208 may display the viewing results immediately after the playback of the video content ends. Furthermore, for example, when a video playback operation that specifies the same video content is performed again after the video content has finished playing, the result display unit 208 may display the previous viewing results regarding that video content. good.

ステップS13において、動画再生装置20が備える結果表示部208は、動画コンテンツを再視聴するか否かを判定する。結果表示部208は、ユーザによる再視聴操作が行われた場合、再視聴すると判定する。再視聴操作は、例えば、視聴結果から所望の再生区間を選択する操作である。一方、結果表示部208は、ユーザにより再視聴操作以外の操作が行われた場合、再視聴しないと判定する。再視聴操作以外の操作は、例えば、視聴終了操作である。視聴終了操作は、例えば、視聴結果を閉じる操作である。 In step S13, the result display unit 208 included in the video playback device 20 determines whether to rewatch the video content. If the user performs a re-viewing operation, the result display unit 208 determines to re-view the video. The re-viewing operation is, for example, an operation of selecting a desired playback section from the viewing results. On the other hand, if the user performs an operation other than the re-viewing operation, the result display unit 208 determines not to re-view the video. The operation other than the re-viewing operation is, for example, a viewing end operation. The viewing end operation is, for example, an operation to close the viewing results.

結果表示部208は、再視聴すると判定した場合(YES)、選択された再生区間の再生開始時刻を特定し、ステップS5に処理を戻す。一方、結果表示部208は、再視聴しないと判定した場合(NO)、動画再生方法の処理を終了する。 When the result display unit 208 determines to rewatch the video (YES), the result display unit 208 specifies the playback start time of the selected playback section, and returns the process to step S5. On the other hand, if the result display unit 208 determines that the video is not to be viewed again (NO), it ends the process of the video playback method.

ステップS5に処理が戻ると、動画取得部202が、制御情報記憶部211に記憶されている制御情報に従って、特定された再生開始時刻に対応するセグメントURLを含むセグメント取得要求を動画配信サーバ10に送信する。これにより、動画再生装置20は、ユーザにより選択された再生区間の再生を開始する。 When the process returns to step S5, the video acquisition unit 202 sends a segment acquisition request including the segment URL corresponding to the specified playback start time to the video distribution server 10 according to the control information stored in the control information storage unit 211. Send. Thereby, the video playback device 20 starts playing the playback section selected by the user.

図8に示した視聴結果のように、連続する複数のセグメントを集約して表示している場合、動画再生装置20は、再視聴操作で特定された再生区間に含まれる複数のセグメントを連続して再生する。なお、特定された再生区間の再生が終了した後は、動画コンテンツの再生を終了してもよいし、引き続き動画コンテンツの再生を継続してもよい。 When a plurality of consecutive segments are aggregated and displayed as in the viewing results shown in FIG. to play. Note that after the playback of the specified playback section is finished, the playback of the video content may be ended, or the playback of the video content may be continued.

<実施形態の効果>
本実施形態における動画再生装置は、動画を視聴する視聴者から取得した生体情報に基づいて視聴者が動画に集中しているか否かを判定し、動画の視聴が終了した後に視聴者が動画に集中していなかった再生区間を示す視聴結果を表示する。したがって、本実施形態における動画再生装置によれば、視聴者が動画に集中していなかった再生区間を提示することができる。
<Effects of embodiment>
The video playback device in this embodiment determines whether the viewer is concentrating on the video based on the biometric information acquired from the viewer while watching the video, and after the viewer finishes viewing the video, the video playback device determines whether the viewer is concentrating on the video or not. Viewing results showing the playback section where the user was not concentrating are displayed. Therefore, according to the video playback device of this embodiment, it is possible to present a playback section in which the viewer was not concentrating on the video.

本実施形態における動画再生装置は、視聴者から取得した脳波又は顔画像に基づいて推定される集中度又は感情に基づいて、視聴者が動画に集中しているか否かを判定する。したがって、本実施形態における動画再生装置によれば、客観的な指標に基づいて視聴者が動画に集中しているか否かを判定することができる。 The video playback device in this embodiment determines whether the viewer is concentrating on the video based on the degree of concentration or emotion estimated based on the brain waves or facial images acquired from the viewer. Therefore, according to the video playback device in this embodiment, it is possible to determine whether viewers are concentrating on the video based on an objective index.

本実施形態における動画再生装置は、視聴者から取得した生体情報により推定される感情が、動画の再生区間毎に設定された感情の期待値と異なるとき、視聴者が動画に集中していないと判定する。すなわち、視聴者の生体情報から推定される感情がネガティブな感情であっても動画の内容により意図された感情であれば、視聴者は動画に集中していると判定する。したがって、本実施形態における動画再生装置によれば、動画の内容に応じて精度良く視聴者が動画に集中しているか否かを判定することができる。 The video playback device in this embodiment determines that the viewer is not concentrating on the video when the emotion estimated from the biometric information acquired from the viewer differs from the expected emotion value set for each playback section of the video. judge. That is, even if the emotion estimated from the viewer's biological information is a negative emotion, if the emotion is intended by the content of the video, it is determined that the viewer is concentrating on the video. Therefore, according to the video playback device of this embodiment, it is possible to accurately determine whether viewers are concentrating on the video depending on the content of the video.

本実施形態における動画再生装置は、視聴者により視聴結果から再生区間が選択されたとき、当該再生区間を再度再生する。したがって、本実施形態における動画再生装置によれば、視聴者は動画に集中できる状況が整ったときに集中していなかった再生区間を重点的に再視聴することができる。すなわち、本実施形態における動画再生装置によれば、動画の内容に対する理解を促進することができる。 The video playback device in this embodiment plays back the playback section when the viewer selects the playback section from the viewing results. Therefore, according to the video playback device according to the present embodiment, when the viewer is able to concentrate on the video, he or she can concentrate on rewatching the playback section that the viewer was not concentrating on. That is, according to the video playback device in this embodiment, it is possible to promote understanding of the content of the video.

[変形例]
上記実施形態では、動画再生装置20は、動画配信サーバ10からストリーミング配信される動画を再生する例を説明した。動画再生装置20は、記録媒体に記録されている動画データを再生してもよい。この場合、記録媒体には、再生時刻と感情の期待値とが関連付けられた制御情報が記録されてもよい。制御情報は、動画データを再生する前に、外部の記憶装置から取得してもよい。
[Modification]
In the above embodiment, an example has been described in which the video playback device 20 plays video streamed from the video distribution server 10. The video playback device 20 may play video data recorded on a recording medium. In this case, control information in which a playback time is associated with an expected emotion value may be recorded on the recording medium. The control information may be obtained from an external storage device before playing the video data.

本変形例における動画再生装置は、通信ネットワークを通じてストリーミング配信される動画コンテンツに加えて、記録媒体に記録されている動画データを再生することができる。したがって、本変形例における動画再生装置によれば、動画コンテンツの配信媒体に関わらず、視聴者が動画に集中していなかった再生区間を提示することができる。 The video playback device in this modification can play back video data recorded on a recording medium in addition to video content streamed through a communication network. Therefore, according to the video playback device in this modification, it is possible to present a playback section in which the viewer was not concentrating on the video, regardless of the distribution medium of the video content.

[補足]
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等の機器を含むものとする。
[supplement]
Each function of the embodiments described above can be realized by one or more processing circuits. Here, the term "processing circuit" as used herein refers to a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function explained above. This includes devices such as ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), FPGAs (Field Programmable Gate Arrays), and conventional circuit modules.

以上、本発明の実施の形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications or variations can be made within the scope of the gist of the present invention as described in the claims. Changes are possible.

1 動画配信システム
10 動画配信サーバ
101 動画配信部
102 制御情報配信部
111 動画記憶部
112 制御情報記憶部
20 動画再生装置
201 制御情報取得部
202 動画取得部
203 バッファ部
204 動画再生部
205 生体情報取得部
206 集中判定部
207 結果記録部
208 結果表示部
211 制御情報記憶部
212 判定結果記憶部
1 Video distribution system 10 Video distribution server 101 Video distribution unit 102 Control information distribution unit 111 Video storage unit 112 Control information storage unit 20 Video playback device 201 Control information acquisition unit 202 Video acquisition unit 203 Buffer unit 204 Video playback unit 205 Biometric information acquisition Section 206 Concentrated judgment section 207 Result recording section 208 Result display section 211 Control information storage section 212 Judgment result storage section

Claims (9)

動画を表示装置に表示する動画再生部と、
前記動画を視聴する視聴者の生体情報を取得する生体情報取得部と、
前記生体情報に基づいて、前記視聴者が前記動画に集中しているか否かを判定する集中判定部と、
前記動画を時間軸で分割した再生区間と前記集中判定部による判定結果とを関連付けて記録する結果記録部と、
前記動画の再生が終了した後、前記判定結果が前記動画に集中していないことを示す前記再生区間を表す視聴結果を前記表示装置に表示する結果表示部と、
を備える動画再生装置。
a video playback unit that displays the video on a display device;
a biometric information acquisition unit that obtains biometric information of a viewer who views the video;
a concentration determination unit that determines whether the viewer is concentrating on the video based on the biological information;
a result recording unit that associates and records a playback section obtained by dividing the video on a time axis and a determination result by the intensive determination unit;
a result display unit that displays, on the display device, a viewing result representing the playback section in which the determination result indicates that the video is not concentrated after the video has been played;
A video playback device equipped with.
請求項1に記載の動画再生装置であって、
前記集中判定部は、前記生体情報から推定される集中度を所定の閾値と比較することで、前記視聴者が前記動画に集中しているか否かを判定する、
動画再生装置。
The video playback device according to claim 1,
The concentration determining unit determines whether the viewer is concentrating on the video by comparing the degree of concentration estimated from the biological information with a predetermined threshold.
Video playback device.
請求項2に記載の動画再生装置であって、
前記生体情報取得部は、前記視聴者の顔画像を前記生体情報として取得し、
前記集中判定部は、前記顔画像に基づいて前記集中度を推定する、
動画再生装置。
The video playback device according to claim 2,
The biological information acquisition unit acquires a facial image of the viewer as the biological information,
The concentration determination unit estimates the degree of concentration based on the face image.
Video playback device.
請求項1に記載の動画再生装置であって、
前記再生区間毎に感情の期待値を設定した制御情報を記憶する記憶部をさらに備え、
前記集中判定部は、前記生体情報から推定される感情が前記制御情報に設定された前記期待値と異なるとき、前記視聴者が前記動画に集中していないと判定する、
動画再生装置。
The video playback device according to claim 1,
further comprising a storage unit that stores control information in which an expected value of emotion is set for each reproduction section,
The concentration determining unit determines that the viewer is not concentrating on the video when the emotion estimated from the biological information is different from the expected value set in the control information.
Video playback device.
請求項4に記載の動画再生装置であって、
前記生体情報取得部は、前記視聴者の脳波又は前記視聴者の顔画像を前記生体情報として取得し、
前記集中判定部は、前記脳波又は前記顔画像に基づいて前記感情を推定する、
動画再生装置。
5. The video playback device according to claim 4,
the biometric information acquisition unit acquires an electroencephalogram or a facial image of the viewer as the biometric information,
The concentration determination unit estimates the emotion based on the electroencephalogram or the facial image.
Video playback device.
請求項1に記載の動画再生装置であって、
前記動画再生部は、前記視聴者により前記視聴結果から選択された前記再生区間に対応する前記動画を前記表示装置に表示する、
動画再生装置。
The video playback device according to claim 1,
The video playback unit displays the video corresponding to the playback section selected from the viewing results by the viewer on the display device.
Video playback device.
請求項6に記載の動画再生装置であって、
前記結果表示部は、前記動画に関する前記視聴結果が存在するとき、前記動画の再生を開始する前に前記視聴結果を表示する、
動画再生装置。
The video playback device according to claim 6,
The result display section displays the viewing results before starting playback of the video when the viewing results regarding the video exist.
Video playback device.
請求項1に記載の動画再生装置であって、
前記動画再生部は、通信ネットワークを通じてストリーミング配信される動画コンテンツ、又は記録媒体に記録されている動画データを再生する、
動画再生装置。
The video playback device according to claim 1,
The video playback unit plays back video content streamed through a communication network or video data recorded on a recording medium.
Video playback device.
コンピュータを請求項1から8のいずれかに記載の動画再生装置として機能させるためのプログラム。 A program for causing a computer to function as the video playback device according to any one of claims 1 to 8.
JP2022145971A 2022-09-14 2022-09-14 Moving image playing back apparatus and program Pending JP2024041262A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022145971A JP2024041262A (en) 2022-09-14 2022-09-14 Moving image playing back apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022145971A JP2024041262A (en) 2022-09-14 2022-09-14 Moving image playing back apparatus and program

Publications (1)

Publication Number Publication Date
JP2024041262A true JP2024041262A (en) 2024-03-27

Family

ID=90417068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022145971A Pending JP2024041262A (en) 2022-09-14 2022-09-14 Moving image playing back apparatus and program

Country Status (1)

Country Link
JP (1) JP2024041262A (en)

Similar Documents

Publication Publication Date Title
US10698952B2 (en) Using digital fingerprints to associate data with a work
US9473548B1 (en) Latency reduction in streamed content consumption
US20210211476A1 (en) Methods, systems, and media for recommending content based on network conditions
EP3533227B1 (en) Anchors for live streams
US11574654B2 (en) Automatic generation of video playback effects
US8737820B2 (en) Systems and methods for recording content within digital video
US10951902B2 (en) Systems and methods for multiple bit rate content encoding
US20230379531A1 (en) Systems, apparatus and methods for rendering digital content
WO2019246333A1 (en) System and method for video encoding optimization and broadcasting
JP5043711B2 (en) Video evaluation apparatus and method
US20220312079A1 (en) Systems and methods to provide adaptive play settings
JP2024041262A (en) Moving image playing back apparatus and program
US20210345003A1 (en) Systems and methods for providing timeline of content items on a user interface
JP2024038690A (en) Moving image reproduction apparatus and program
EP3970381A1 (en) Methods and systems for providing a user with an image content
US20230319346A1 (en) Systems and methods for automatically generating content items from identified events
US11490148B2 (en) Systems and methods to determine when to rejoin a live media broadcast after an interruption
AU2018263287A1 (en) Devices, systems and methodologies configured to enable generation, capture, processing, and/or management of digital media data
US11924479B2 (en) Systems and methods for generating metadata for a live media stream
US20220394323A1 (en) Supplmental audio generation system in an audio-only mode
JP2018056811A (en) Terminal device, content reproduction system, content reproduction method, and program