JP2024041262A - Moving image playing back apparatus and program - Google Patents
Moving image playing back apparatus and program Download PDFInfo
- Publication number
- JP2024041262A JP2024041262A JP2022145971A JP2022145971A JP2024041262A JP 2024041262 A JP2024041262 A JP 2024041262A JP 2022145971 A JP2022145971 A JP 2022145971A JP 2022145971 A JP2022145971 A JP 2022145971A JP 2024041262 A JP2024041262 A JP 2024041262A
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- playback device
- video playback
- viewer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 claims description 36
- 238000004891 communication Methods 0.000 claims description 15
- 230000001815 facial effect Effects 0.000 claims description 9
- 239000012141 concentrate Substances 0.000 abstract description 6
- 238000000034 method Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 14
- 210000004556 brain Anatomy 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、動画再生装置及びプログラムに関する。 The present invention relates to a video playback device and a program.
インターネット等の通信ネットワークを通じて動画コンテンツをストリーミング配信する動画配信サービスが利用されている。動画配信サービスでは、専用のサーバにより専用のプロトコルを用いてストリーミング配信する方式から、汎用的なサーバにより汎用的なプロトコルを用いてストリーミング配信する方式への移行が進んでいる。 Video distribution services that stream video content through communication networks such as the Internet are used. In video distribution services, there is a shift from a method of streaming distribution using a dedicated server using a dedicated protocol to a method of streaming distribution using a general-purpose server using a general-purpose protocol.
例えば、非特許文献1には、国際標準規格であるMPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP, ISO/IEC 23009-1)が開示されている。MPEG-DASHは、ストリーミング配信方式を統一することを意図して策定されている。MPEG-DASHでは、汎用的なウェブサーバによりHTTP(Hypertext Transfer Protocol)プロトコルを用いてストリーミング配信が行われる。
For example, Non-Patent
しかしながら、従来技術では、視聴者が動画に集中していなかった再生区間があっても視聴が終了した後に再視聴することは困難であるという課題がある。例えば、汎用的なプロトコルでストリーミング配信することで、様々な環境で動画を視聴することが可能になっているが、同時に動画視聴への集中を妨げる事象が周囲で発生することも多くなっている。視聴者が動画に集中していなかった再生区間があると、動画の内容に対する理解が十分でない場合がある。 However, the conventional technology has a problem in that even if there is a playback section in which the viewer was not concentrating on the video, it is difficult to re-watch the video after the viewer has finished viewing the video. For example, by streaming video using a general-purpose protocol, it is now possible to watch videos in a variety of environments, but at the same time, events are increasingly occurring in the surroundings that impede concentration on video viewing. . If there is a playback section in which the viewer was not concentrating on the video, the viewer may not be able to fully understand the content of the video.
本発明の一態様は、上記のような技術的課題に鑑みて、視聴者が動画に集中していなかった再生区間を提示することを目的とする。 In view of the above technical problems, one aspect of the present invention aims to present a playback section in which the viewer was not concentrating on the video.
上記の課題を解決するために、本発明の一態様の動画再生装置は、動画を表示装置に表示する動画再生部と、動画を視聴する視聴者の生体情報を取得する生体情報取得部と、生体情報に基づいて、視聴者が動画に集中しているか否かを判定する集中判定部と、動画を時間軸で分割した再生区間と集中判定部による判定結果とを関連付けて記録する結果記録部と、動画の再生が終了した後、判定結果が動画に集中していないことを示す再生区間を表す視聴結果を表示装置に表示する結果表示部と、を備える。 In order to solve the above problems, a video playback device according to one embodiment of the present invention includes: a video playback unit that displays a video on a display device; a biometric information acquisition unit that acquires biometric information of a viewer who views the video; A concentration determination unit that determines whether the viewer is concentrating on a video based on biological information; and a result recording unit that associates and records the playback section obtained by dividing the video along the time axis and the determination result by the concentration determination unit. and a result display unit that displays, on a display device, a viewing result representing a playback section in which the determination result indicates that the video is not concentrated after the video has been played.
本発明の一態様によれば、視聴者が動画に集中していなかった再生区間を提示することができる。 According to one aspect of the present invention, it is possible to present playback sections in which the viewer was not concentrating on the video.
以下、本発明の各実施形態について添付の図面を参照しながら説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals and redundant explanation will be omitted.
[実施形態]
<概要>
近年、インターネットにおける動画コンテンツのストリーミング配信では、専用のサーバによる専用のプロトコルを用いた方式から、汎用的なウェブサーバによるHTTPプロトコルを用いた方式への移行が進んでいる。汎用的なプロトコルを用いてストリーミング配信することで、様々なデバイスに向けて動画コンテンツを配信することが可能となっている。
[Embodiment]
<Summary>
In recent years, in streaming distribution of video content on the Internet, there has been a shift from a method using a dedicated protocol using a dedicated server to a method using the HTTP protocol using a general-purpose web server. By streaming distribution using a general-purpose protocol, it is possible to distribute video content to a variety of devices.
HTTPプロトコルを用いてネットワークの通信状態に応じた最適な品質でストリーミング配信する方式は、アダプティブストリーミングと呼ばれる。アダプティブストリーミングでは、IT(Information Technology)ベンダによる独自技術が普及している一方で、ストリーミング配信方式の統一を意図した国際標準規格であるMPEG-DASHが策定されている。いずれの配信技術も基本的なコンセプトは同様であり、以下のようにして動画コンテンツをストリーミング配信する。 A method of streaming distribution using the HTTP protocol with optimal quality depending on the communication state of the network is called adaptive streaming. In adaptive streaming, proprietary technologies by IT (Information Technology) vendors are becoming widespread, while MPEG-DASH, an international standard intended to unify streaming distribution methods, has been established. The basic concept of both distribution technologies is the same, and video content is streamed as follows.
ウェブサーバは、動画コンテンツを構成するセグメントと、マニフェストファイルを用意する。セグメントは、動画コンテンツを1以上の品質(例えば、画面サイズやビットレート等)でエンコードし、それぞれ数秒から数十秒程度の電子ファイルに分割した動画データである。マニフェストファイルは、各セグメントの属性情報や位置情報が記述された電子ファイルである。 The web server prepares segments that make up video content and a manifest file. A segment is video data obtained by encoding video content with one or more qualities (for example, screen size, bit rate, etc.) and dividing it into electronic files each having a length of several seconds to several tens of seconds. The manifest file is an electronic file in which attribute information and position information of each segment are described.
受信端末は、表示装置の画面サイズやネットワークの受信帯域の状態等を考慮して、マニフェストファイルから最適な品質を適時選択し、その品質でエンコードされたセグメントを順次受信する。受信端末は、ウェブサーバから受信したセグメントをデコードし、1本の動画コンテンツに繋ぎ合わせて表示装置等で再生する。 The receiving terminal selects the optimal quality from the manifest file in a timely manner, taking into consideration the screen size of the display device, the status of the network reception band, etc., and sequentially receives segments encoded with that quality. The receiving terminal decodes the segments received from the web server, joins them together into a single video content, and plays the video content on a display device or the like.
図1は、ストリーミング配信方式の一例を示す概念図である。図1に示されているように、まず、エンコーダが、動画コンテンツを複数の品質でエンコードし、品質毎に数秒から数十秒単位で分割したセグメントを生成する。図1の例では、エンコーダが、低品質でエンコードしたセグメント1~4・・・、中品質でエンコードしたセグメント1'~4' ・・・、高品質でエンコードしたセグメント1"~4" ・・・を生成している。マニフェストファイルには、各セグメントのURL(Uniform Resource Locator)等の位置情報や、各品質のビットレート及び画像サイズ等の属性情報が記述されている。エンコーダにより生成されたセグメント及びマニフェストファイルは、ウェブサーバに供給される。
FIG. 1 is a conceptual diagram showing an example of a streaming distribution method. As shown in FIG. 1, an encoder first encodes video content in multiple qualities, and generates segments divided by several seconds to several tens of seconds for each quality. In the example of Figure 1, the encoder encodes
受信端末は、ウェブサーバからマニフェストファイルを受信し、マニフェストファイルに基づいてセグメントの構成や各品質の属性情報を把握する。次に、受信端末は、表示装置の画面サイズやネットワークの受信帯域の状態に基づいてセグメント単位で品質を選択し、HTTPプロトコルによりセグメントを受信する。続いて、受信端末は、受信したセグメントをマニフェストファイルに従って順番通りに接続し、表示装置で再生する。このようにして、受信端末は、1本の動画コンテンツを構成する一連のセグメントを受信し、再生を継続することができる。 The receiving terminal receives the manifest file from the web server, and grasps the segment configuration and attribute information of each quality based on the manifest file. Next, the receiving terminal selects quality for each segment based on the screen size of the display device and the status of the network reception band, and receives the segment using the HTTP protocol. Subsequently, the receiving terminal connects the received segments in order according to the manifest file and plays them on the display device. In this way, the receiving terminal can receive and continue playing a series of segments constituting one piece of video content.
アダプティブストリーミングにおける品質の選択手法は、規格には定められていない。例えば、ネットワークの受信帯域の状態や受信端末が備えるバッファの残量等に基づいて、品質を選択する手法が知られている(例えば、参考文献1参照)。また、例えば、受信端末が、セグメントを受信するたびに現在の伝送速度を決定し、期待される将来の伝送速度に関係する統計情報を現在の伝送速度の関数として取得し、その統計情報から導出した目標伝送速度に従って、後続のセグメントを受信する手法が知られている(例えば、参考文献2参照)。 The quality selection method in adaptive streaming is not defined in the standard. For example, a method is known in which quality is selected based on the state of the network reception band, the remaining amount of buffer provided in the reception terminal, etc. (see, for example, Reference 1). Also, for example, each time a receiving terminal receives a segment, it determines the current transmission rate, obtains statistical information related to the expected future transmission rate as a function of the current transmission rate, and derives it from the statistical information. A method is known in which subsequent segments are received according to a set target transmission rate (for example, see Reference 2).
〔参考文献1〕Hongzi Mao, Ravi Netravali, Mohammad Alizadeh, "Neural Adaptive Video Streaming with Pensieve", SIGCOMM, pp. 197-210, Aug. 2017.
〔参考文献2〕特表2016-506644号公報
[Reference 1] Hongzi Mao, Ravi Netravali, Mohammad Alizadeh, "Neural Adaptive Video Streaming with Pensieve", SIGCOMM, pp. 197-210, Aug. 2017.
[Reference 2] Special Publication No. 2016-506644
近年、様々な環境で動画コンテンツを視聴することが可能となり、動画視聴への集中を妨げる事象が周囲で発生することが多くなっている。例えば、動画視聴と関係のない刺激(例えば、SNS(Social Networking Service)の通知等)を受けたり、体調が悪かったりすると、動画視聴に集中できず、動画コンテンツを視聴していても内容を十分に理解していないことがある。このような場合、表面上の視聴率は向上するが、視聴者の理解は促進されておらず、実質的に動画が視聴されているとは言えない。 In recent years, it has become possible to view video content in various environments, and events that prevent people from concentrating on video viewing are increasingly occurring in their surroundings. For example, if you receive stimuli unrelated to video viewing (e.g. notifications from SNS (Social Networking Service), etc.) or if you are not feeling well, you may be unable to concentrate on watching videos, and even if you are watching video content, you may not be able to fully understand the content. There are some things I don't understand. In such cases, the viewing rate may improve on the surface, but the viewer's understanding is not being promoted, and it cannot be said that the video is actually being viewed.
本発明の一実施形態は、通信ネットワークを通じて動画コンテンツを配信する動画配信システムにおいて、視聴されている動画コンテンツの実質的な理解を促進することを目的とする。本発明の一実施形態では、脳波又は顔画像等の生体情報に基づいて視聴者が動画視聴に集中していないと判定された再生区間を記録し、動画視聴が終了した後に提示する。これにより、視聴者は動画視聴に集中していなかった再生区間を把握することができ、その再生区間を再視聴することで、動画の内容に対する理解を促進することができる。 An embodiment of the present invention aims to facilitate substantial understanding of video content being viewed in a video distribution system that distributes video content over a communication network. In one embodiment of the present invention, a playback section in which it is determined that the viewer is not concentrating on video viewing based on brain waves or biological information such as a facial image is recorded and presented after the video viewing is finished. This allows the viewer to understand the playback section in which they were not concentrating on viewing the video, and by rewatching the playback section, it is possible to promote understanding of the content of the video.
集中度を推定可能な生体情報としては、例えば脳波又は顔画像が知られている。集中度は、例えば、瞬きの回数や表情から推定できることが知られている(例えば、参考文献3参照)。また、例えば、顔画像から視線を検出することで、集中の対象を推定できる。感情は、例えば、脳波や表情から推定できることが知られている(例えば、参考文献4参照)。 As biological information from which the degree of concentration can be estimated, for example, brain waves or facial images are known. It is known that the degree of concentration can be estimated from, for example, the number of blinks or facial expressions (for example, see Reference 3). Further, for example, by detecting line of sight from a face image, the target of concentration can be estimated. It is known that emotions can be estimated from, for example, brain waves and facial expressions (for example, see Reference 4).
〔参考文献3〕特開2021-170315号公報
〔参考文献4〕夏目季代久, "「飽き」の指標となる脳波はあるか?", 科学研究助成事業研究成果報告書, 課題番号22650205, 2011年
[Reference 3] Unexamined Japanese Patent Publication No. 2021-170315 [Reference 4] Kiyohisa Natsume, “Is there a brain wave that can be used as an indicator of boredom? ", Scientific research grant project research results report, issue number 22650205, 2011
従来、脳波の測定は、測定行為による視聴者へのストレスが大きいことが課題となっていた。例えば、測定機器が大きいこと、測定時に動きが制約されること、又は測定に長時間を要すること等がストレスの原因として挙げられる。近年では、イヤホン型の脳波測定器が開発される等、視聴者に心理的な負荷をかけることなく脳波を測定することが可能になっている(例えば、参考文献5参照)。 Conventionally, the problem with measuring brain waves has been that the act of measuring causes a lot of stress on the viewer. For example, causes of stress include the large size of the measuring device, restrictions on movement during measurement, and the fact that measurement takes a long time. In recent years, with the development of earphone-type electroencephalogram measuring devices, it has become possible to measure electroencephalograms without placing a psychological burden on viewers (for example, see Reference 5).
〔参考文献5〕凸版印刷株式会社, "凸版印刷、イヤホン型脳波デバイス「b-tone」の販売開始", [online],[令和4年8月3日検索],インターネット<URL: https://www.toppan.co.jp/news/2021/09/newsrelease210907_1.html> [Reference 5] Toppan Printing Co., Ltd., "Toppan Printing begins sales of earphone-type brain wave device "b-tone"", [online], [searched on August 3, 2020], Internet <URL: https: //www.toppan.co.jp/news/2021/09/newsrelease210907_1.html>
<動画配信システムの全体構成>
本実施形態における動画配信システムの全体構成を、図2を参照しながら説明する。図2は、本実施形態における動画配信システムの全体構成の一例を示すブロック図である。
<Overall configuration of video distribution system>
The overall configuration of the video distribution system in this embodiment will be described with reference to FIG. 2. FIG. 2 is a block diagram showing an example of the overall configuration of the video distribution system in this embodiment.
図2に示されているように、本実施形態における動画配信システム1は、動画配信サーバ10及び1台以上の動画再生装置20を含む。動画配信サーバ10及び動画再生装置20は、LAN(Local Area Network)又はインターネット等の通信ネットワークN1を介してデータ通信可能に接続されている。
As shown in FIG. 2, the
動画配信サーバ10は、通信ネットワークN1を介して動画コンテンツを配信するパーソナルコンピュータ、ワークステーション、サーバ等の情報処理装置である。動画配信サーバ10は、動画再生装置20からの要求に応じて、動画コンテンツを動画再生装置20に送信する。
The
動画再生装置20は、視聴者が動画コンテンツを視聴するテレビ受像機、セットトップボックス、パーソナルコンピュータ、スマートフォン等の電子機器である。動画再生装置20は、視聴者の操作に応じて動画コンテンツの配信を動画配信サーバ10に要求し、動画配信サーバ10から受信した動画コンテンツを表示装置で再生する。
The
なお、図2に示した動画配信システム1の全体構成は一例であって、用途や目的に応じて様々なシステム構成例があり得る。例えば、動画配信サーバ10は、複数台のコンピュータにより実現してもよいし、クラウドコンピューティングのサービスとして実現してもよい。
Note that the overall configuration of the
<動画配信システムのハードウェア構成>
本実施形態における動画配信システム1のハードウェア構成を、図3を参照しながら説明する。
<Hardware configuration of video distribution system>
The hardware configuration of the
≪コンピュータのハードウェア構成≫
本実施形態における動画配信サーバ10及び動画再生装置20は、例えばコンピュータにより実現される。図3は、本実施形態におけるコンピュータのハードウェア構成の一例を示すブロック図である。
≪Computer hardware configuration≫
The
図3に示されているように、本実施形態におけるコンピュータ500は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HDD(Hard Disk Drive)504、入力装置505、表示装置506、通信I/F(Interface)507及び外部I/F508を有する。CPU501、ROM502及びRAM503は、いわゆるコンピュータを形成する。コンピュータ500の各ハードウェアは、バスライン509を介して相互に接続されている。なお、入力装置505及び表示装置506は外部I/F508に接続して利用する形態であってもよい。
As shown in FIG. 3, the
CPU501は、ROM502又はHDD504等の記憶装置からプログラムやデータをRAM503上に読み出し、処理を実行することで、コンピュータ500全体の制御や機能を実現する演算装置である。
The
ROM502は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM502は、HDD504にインストールされている各種プログラムをCPU501が実行するために必要な各種プログラム、データ等を格納する主記憶装置として機能する。具体的には、ROM502には、コンピュータ500の起動時に実行されるBIOS(Basic Input/Output System)、EFI(Extensible Firmware Interface)等のブートプログラムや、OS(Operating System)設定、ネットワーク設定等のデータが格納されている。
The
RAM503は、電源を切るとプログラムやデータが消去される揮発性の半導体メモリ(記憶装置)の一例である。RAM503は、例えば、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等である。RAM503は、HDD504にインストールされている各種プログラムがCPU501によって実行される際に展開される作業領域を提供する。
The
HDD504は、プログラムやデータを格納している不揮発性の記憶装置の一例である。HDD504に格納されるプログラムやデータには、コンピュータ500全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーション等がある。なお、コンピュータ500はHDD504に替えて、記憶媒体としてフラッシュメモリを用いる記憶装置(例えばSSD:Solid State Drive等)を利用するものであってもよい。
The
入力装置505は、ユーザが各種信号を入力するために用いるタッチパネル、操作キーやボタン、キーボードやマウス、音声等の音データを入力するマイクロホン等である。
The
表示装置506は、画面を表示する液晶や有機EL(Electro-Luminescence)等のディスプレイ、音声等の音データを出力するスピーカ等で構成されている。
The
通信I/F507は、通信ネットワークに接続し、コンピュータ500がデータ通信を行うためのインタフェースである。
The communication I/
外部I/F508は、外部装置とのインタフェースである。外部装置には、ドライブ装置510等がある。
The external I/
ドライブ装置510は、記録媒体511をセットするためのデバイスである。ここでいう記録媒体511には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体511には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。これにより、コンピュータ500は外部I/F508を介して記録媒体511の読み取り及び/又は書き込みを行うことができる。
The
なお、HDD504にインストールされる各種プログラムは、例えば、配布された記録媒体511が外部I/F508に接続されたドライブ装置510にセットされ、記録媒体511に記録された各種プログラムがドライブ装置510により読み出されることでインストールされる。あるいは、HDD504にインストールされる各種プログラムは、通信I/F507を介して、通信ネットワークとは異なる他のネットワークよりダウンロードされることでインストールされてもよい。
Note that the various programs installed on the
<動画配信システムの機能構成>
本実施形態における動画配信システムの機能構成を、図4を参照しながら説明する。図4は、本実施形態における動画配信システム1の機能構成の一例を示すブロック図である。
<Functional configuration of video distribution system>
The functional configuration of the video distribution system in this embodiment will be described with reference to FIG. 4. FIG. 4 is a block diagram showing an example of the functional configuration of the
≪動画配信サーバの機能構成≫
図4に示されているように、本実施形態における動画配信サーバ10は、動画配信部101、制御情報配信部102、動画記憶部111及び制御情報記憶部112を備える。
<Video distribution server functional configuration>
As shown in FIG. 4, the moving
動画配信部101及び制御情報配信部102は、例えば、図3に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。動画記憶部111及び制御情報記憶部112は、例えば、図3に示されているHDD504を用いて実現される。
The
動画記憶部111には、動画再生装置20に配信する動画コンテンツが記憶されている。本実施形態における動画コンテンツは、1つの動画データを予め定めた複数の品質毎にエンコードし、時間軸で複数の再生区間に分割したセグメントの集合である。
The
制御情報記憶部112には、動画記憶部111に記憶されている動画コンテンツを再生するために用いる制御情報が記憶されている。本実施形態における制御情報は、再生時刻、セグメントの位置情報、及び感情の期待値を関連付けた情報である。本実施形態における制御情報の一例は、マニフェストファイルである。
The control
セグメントの位置情報は、例えば、セグメントに対応する電子ファイルの位置を示すURLである。感情の期待値は、当該セグメントを視聴したときに生じることが期待される感情を表す情報である。感情の期待値は、動画コンテンツの制作者等が予め設定すればよい。 The segment location information is, for example, a URL indicating the location of the electronic file corresponding to the segment. The expected emotion value is information representing the emotion that is expected to occur when viewing the segment. The expected value of emotion may be set in advance by a video content producer or the like.
制御情報記憶部112には、動画再生装置20に配信したセグメントに関する情報を記録した配信済みリストがさらに記憶されている。配信済みリストは、動画再生装置20それぞれについて記憶される。
The control
動画配信部101は、動画再生装置20から受信したセグメント取得要求に応じて、動画記憶部111に記憶されているセグメントを動画再生装置20に送信する。動画配信部101は、動画再生装置20に送信したセグメントに関する情報を、制御情報記憶部112に記憶されている配信済みリストに記録する。
The
制御情報配信部102は、動画再生装置20から受信した制御情報取得要求に応じて、制御情報記憶部112に記憶されている制御情報を動画再生装置20に送信する。
The control
≪動画再生装置の機能構成≫
図4に示されているように、本実施形態における動画再生装置20は、制御情報取得部201、動画取得部202、バッファ部203、動画再生部204、生体情報取得部205、集中判定部206、結果記録部207、結果表示部208、制御情報記憶部211及び判定結果記憶部212を備える。
≪Functional configuration of video playback device≫
As shown in FIG. 4, the
制御情報取得部201、動画取得部202、バッファ部203、動画再生部204、生体情報取得部205、集中判定部206、結果記録部207及び結果表示部208は、例えば、図3に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。制御情報記憶部211及び判定結果記憶部212は、例えば、図3に示されているHDD504を用いて実現される。
For example, the control
制御情報記憶部211には、動画配信サーバ10から受信した制御情報が記憶される。制御情報記憶部211には、動画コンテンツを再生する都度、当該動画コンテンツに関する制御情報が記憶される。
The control
判定結果記憶部212には、集中判定部206により判定された判定結果を記録した判定結果リストが記憶される。判定結果リストは、動画コンテンツを再生するたびに生成される、セグメントと判定結果とを関連付けて記録したリストである。
The determination
制御情報取得部201は、視聴者による動画再生操作に応じて、制御情報取得要求を動画配信サーバ10に送信する。制御情報取得部201は、動画配信サーバ10から受信した制御情報を制御情報記憶部211に記憶する。
The control
動画取得部202は、制御情報記憶部211に記憶されている制御情報に従って、セグメント取得要求を動画配信サーバ10に送信する。動画取得部202は、動画配信サーバ10から受信したセグメントをバッファ部203に記憶する。
The
バッファ部203は、動画配信サーバ10から受信したセグメントを、再生開始時刻及び再生継続時間(セグメント長)と関連付けて記憶する。バッファ部203は、再生開始時刻に従ってセグメントを読み出し、動画再生部204に順次出力する。
The
動画再生部204は、バッファ部203から次に再生するセグメントを取得する。動画再生部204は、制御情報記憶部211に記憶されている制御情報に従って、取得したセグメントをメディア形式(映像、音声、又はテキスト等)に従ってデコードする。動画再生部204は、デコードしたセグメントを表示装置506で再生する。
The
生体情報取得部205は、視聴者の生体情報を取得する。本実施形態における生体情報は、視聴者の脳波又は顔画像等である。
The biometric
集中判定部206は、生体情報取得部205により取得された生体情報に基づいて、視聴者の集中度又は感情を推定する。集中判定部206は、推定された集中度又は感情に基づいて、視聴者が動画に集中しているか否かを判定する。
The
結果記録部207は、集中判定部206により判定された判定結果を、判定時に再生していたセグメントと関連付けて、判定結果記憶部212に記憶された判定結果リストに記録する。結果記録部207は、例えば、セグメントを識別する識別情報と判定結果とを組にすることで、セグメントと判定結果とを関連付ける。
The
結果表示部208は、動画再生部204により動画コンテンツの再生が終了した後、判定結果記憶部212に記憶されている判定結果リストに基づいて、視聴結果を生成する。視聴結果は、視聴者が動画に集中していなかった再生区間を示す情報である。結果表示部208は、生成した視聴結果を判定結果記憶部212に記憶し、表示装置506に表示する。
After the
<動画配信システムの処理手順>
本実施形態における動画配信システム1が実行する動画配信方法の処理手順を、図5を参照しながら説明する。図5は、本実施形態における動画配信方法の処理手順の一例を示すフローチャートである。
<Processing procedure of video distribution system>
The processing procedure of the video distribution method executed by the
ステップS1において、動画再生装置20が備える動画再生部204は、視聴者による動画再生操作を受け付ける。動画再生操作は、再生する動画コンテンツを指定して行われる。動画再生操作は、例えば、動画再生装置20が表示装置506に表示するメニュー画面等で再生可能な動画コンテンツから所望の動画コンテンツを選択する操作である。
In step S1, the
ステップS2において、動画再生装置20が備える制御情報取得部201は、制御情報取得要求を動画配信サーバ10に送信する。制御情報取得要求には、動画再生操作において指定された動画コンテンツを識別する識別情報(以下、「動画ID」とも呼ぶ)が含まれる。
In step S2, the control
ステップS3において、動画配信サーバ10が備える制御情報配信部102は、動画再生装置20から制御情報取得要求を受信する。次に、制御情報配信部102は、制御情報取得要求に含まれる動画IDに基づいて、制御情報記憶部112から制御情報を読み出す。続いて、制御情報配信部102は、読み出した制御情報を動画再生装置20に送信する。
In step S3, the control
ステップS4において、動画再生装置20が備える制御情報取得部201は、制御情報を動画配信サーバ10から受信する。次に、制御情報取得部201は、受信した制御情報を制御情報記憶部211に記憶する。続いて、動画再生部204が、動画コンテンツの再生を開始する。
In step S4, the control
図6は、本実施形態における制御情報の一例を示す概念図である。図6に示されているように、本実施形態における制御情報は、品質毎に、時間、セグメントURL及び知覚IDが関連付けられた情報である。品質は、動画コンテンツをエンコードした品質である。例えば、動画コンテンツが高品質、中品質及び低品質でエンコードしたセグメントを含む場合、高品質、中品質及び低品質それぞれについて、制御情報が存在する。 FIG. 6 is a conceptual diagram showing an example of control information in this embodiment. As shown in FIG. 6, the control information in this embodiment is information in which time, segment URL, and perception ID are associated for each quality. The quality is the quality of encoded video content. For example, if video content includes segments encoded in high quality, medium quality, and low quality, control information exists for each of high quality, medium quality, and low quality.
時間は、そのセグメントの再生開始時刻である。再生開始時刻は、動画コンテンツの再生を開始した時刻からの経過時間である。セグメントURLは、そのセグメントに対応する動画データの位置情報である。 The time is the playback start time of the segment. The playback start time is the time elapsed from the time playback of the video content started. The segment URL is the location information of the video data corresponding to the segment.
知覚IDは、感情の期待値を表す。本実施形態では、エクマンの理論に従って知覚IDを設定するものとする。エクマンの理論では、人間の感情を6つの基本感情で定義する。知覚IDは、例えば、(1)喜び、(2)悲しみ、(3)嫌悪、(4)怒り、(5)恐怖、(6)驚きのいずれかとする。知覚IDは、動画コンテンツの制作者等が予め設定すればよい。 Perception ID represents the expected value of emotion. In this embodiment, it is assumed that the perceptual ID is set according to Ekman's theory. Ekman's theory defines human emotions in terms of six basic emotions. The perception ID is, for example, one of (1) joy, (2) sadness, (3) disgust, (4) anger, (5) fear, and (6) surprise. The perceptual ID may be set in advance by a video content producer or the like.
図5に戻って説明する。ステップS5において、動画再生装置20が備える動画取得部202は、表示装置506の画面サイズ又は通信ネットワークN1の状態に応じて、品質を決定する。次に、動画取得部202は、制御情報記憶部211に記憶されている制御情報に従って、セグメント取得要求を動画配信サーバ10に送信する。セグメント取得要求には、決定した品質に対応するセグメントURLが含まれる。
The explanation will be returned to FIG. 5. In step S5, the
ステップS6において、動画配信サーバ10が備える動画配信部101は、セグメント取得要求を動画再生装置20から受信する。次に、動画配信部101は、セグメント取得要求に含まれるセグメントURLに基づいて、動画記憶部111からセグメントを読み出す。続いて、動画配信部101は、読み出したセグメントを動画再生装置20に送信する。同時に、動画配信部101は、読み出したセグメントに関する情報を、制御情報記憶部112に記憶されている配信済みリストに記録する。
In step S6, the
ステップS7において、動画再生装置20が備える動画取得部202は、セグメントを動画配信サーバ10から受信する。次に、動画取得部202は、受信したセグメントを、再生開始時刻及び再生継続時間と関連付けてバッファ部203に記憶する。
In step S7, the
動画再生部204は、バッファ部203からセグメントを取得する。当該要求には、次のセグメントの再生開始時刻が含まれる。次のセグメントの再生開始時刻は、現在再生中のセグメントの再生開始時刻に再生継続時間を加算した時刻である。バッファ部203は、要求された再生開始時刻に対応するセグメントを読み出し、動画再生部204に出力する。
The
動画再生部204は、制御情報記憶部211に記憶されている制御情報に従って、バッファ部203から出力されたセグメントをメディア形式に従ってデコードする。動画再生部204は、デコードしたセグメントをメディア形式に従って表示装置506から出力する。
The
ステップS8において、動画再生装置20が備える生体情報取得部205は、視聴者の生体情報を取得する。次に、生体情報取得部205は、取得した視聴者の生体情報を集中判定部206に送る。
In step S8, the biometric
生体情報取得部205は、生体情報として脳波を取得する場合、視聴者に装着された脳波測定装置と有線又は無線のインタフェースで接続し、脳波測定装置が出力する信号を受信する。生体情報取得部205は、生体情報として顔画像を取得する場合、動画再生装置20に接続されたカメラ等の撮影部を制御し、視聴者の顔画像を撮影する。
When acquiring brain waves as biological information, the biological
ステップS9において、動画再生装置20が備える集中判定部206は、視聴者の生体情報を生体情報取得部205から受け取る。次に、集中判定部206は、視聴者の生体情報に基づいて、視聴者の集中度又は感情を推定する。続いて、集中判定部206は、推定された集中度又は感情に基づいて、視聴者が動画に集中しているか否かを判定する。そして、集中判定部206は、判定結果を結果記録部207に送る。
In step S9, the
集中判定部206は、視聴者の感情を推定した場合、ネガティブな知覚の変化が発生したか否かを判定する。ネガティブな知覚の変化とは、前回推定した感情がポジティブな感情又は無感情であったとき、今回推定した感情がネガティブな感情に変化したことを表す。ポジティブな感情とは、例えば、(1)喜び、(6)驚きである。ネガティブな感情とは、例えば、(2)悲しみ、(3)嫌悪、(4)怒り、(5)恐怖である。
When the viewer's emotion is estimated, the
ネガティブな知覚の変化が発生した場合、集中判定部206は、今回推定した感情(以下、「感情の推定値」とも呼ぶ)を制御情報に含まれる感情の期待値と比較する。感情の推定値が感情の期待値と異なる場合、集中判定部206は、視聴者が動画に集中していないと判定する。
When a negative change in perception occurs, the
集中判定部206は、その他の場合、視聴者が動画に集中していると判定する。すなわち、ネガティブな知覚の変化が発生していない場合、又は、感情の推定値が感情の期待値と同一である場合、集中判定部206は、視聴者が動画に集中していると判定する。
In other cases, the
集中判定部206は、視聴者の集中度を推定した場合、推定した集中度(以下、「集中度の推定値」とも呼ぶ)を所定の閾値と比較する。集中度の推定値が閾値以上である場合、集中判定部206は、視聴者が動画に集中していると判定する。一方、集中度の推定値が閾値未満である場合、集中判定部206は、視聴者が動画に集中していないと判定する。
When the
ステップS10において、動画再生装置20が備える結果記録部207は、判定結果を集中判定部206から受け取る。結果記録部207は、受け取った判定結果と、判定時に再生していたセグメントを識別する識別情報とを組にして、判定結果記憶部212に記憶された判定結果リストに記録する。
In step S10, the
図7は、本実施形態における判定結果リストの一例を示す概念図である。図7に示されているように、本実施形態における判定結果リストは、時間、セグメントURL及び非集中フラグが関連付けられた情報である。 FIG. 7 is a conceptual diagram showing an example of a determination result list in this embodiment. As shown in FIG. 7, the determination result list in this embodiment is information in which time, segment URL, and non-concentration flag are associated.
時間は、そのセグメントの再生開始時刻である。セグメントURLは、各時間に対応するセグメントで取得した動画データの位置情報である。 The time is the time when the segment starts playing. The segment URL is position information of video data acquired in a segment corresponding to each time.
非集中フラグは、視聴者が動画に集中していない場合には真、視聴者が動画に集中している場合には偽となる真理値である。非集中フラグは、そのセグメントにおいて集中判定部206により判定された判定結果に基づいて設定される。
The non-concentration flag has a truth value that is true when the viewer is not concentrating on the video, and is false when the viewer is concentrating on the video. The non-concentration flag is set based on the determination result determined by the
図5に戻って説明する。ステップS11において、動画再生装置20が備える動画再生部204は、動画コンテンツの再生が終了したか否かを判定する。動画再生部204は、例えば、動画コンテンツにおける最後のセグメントを再生した場合、又は、ユーザによる再生終了操作が行われた場合、再生が終了したと判定する。一方、動画再生部204は、その他の場合(例えば、次に再生するセグメントが存在する場合、かつ、ユーザによる再生終了操作が行われていない場合)、再生が終了していないと判定する。
The explanation will be returned to FIG. 5. In step S11, the
動画再生部204は、再生が終了したと判定した場合(YES)、ステップS12に処理を進める。一方、動画再生部204は、再生が終了していないと判定した場合(NO)、ステップS5に処理を戻す。
When the
ステップS12において、動画再生装置20が備える結果表示部208は、判定結果記憶部212に記憶されている判定結果リストに基づいて、視聴結果を生成する。次に、結果表示部208は、生成した視聴結果を判定結果記憶部212に記憶する。続いて、結果表示部208は、生成した視聴結果を表示装置506に表示する。
In step S12, the
図8は、本実施形態における視聴結果の一例を示す概念図である。図8に示されているように、本実施形態における視聴結果は、再生開始時刻、再生継続時間及びセグメントURLが関連付けられた情報である。視聴結果は、図7に示した判定結果リストにおいて、非集中フラグが真に設定された(すなわち、視聴者が動画に集中していなかった)セグメントを抽出した結果である。 FIG. 8 is a conceptual diagram showing an example of viewing results in this embodiment. As shown in FIG. 8, the viewing result in this embodiment is information in which a playback start time, a playback duration time, and a segment URL are associated. The viewing results are the results of extracting segments in which the non-concentration flag was set to true (that is, the viewer was not concentrating on the video) in the determination result list shown in FIG.
再生開始時刻は、非集中フラグが真に設定されたセグメントの再生開始時刻である。非集中フラグが設定されたセグメントが複数連続している場合、それらのセグメントのうち最も再生開始時刻が早いセグメントの再生開始時刻を表示する。 The playback start time is the playback start time of the segment for which the non-concentration flag is set to true. If there are a plurality of consecutive segments with the non-concentration flag set, the reproduction start time of the segment with the earliest reproduction start time among those segments is displayed.
再生継続時間は、非集中フラグが真に設定されたセグメントの再生継続時間である。非集中フラグが設定されたセグメントが複数連続している場合、それらのセグメントの再生継続時間の総和を表示する。 The playback duration is the playback duration of the segment for which the non-concentration flag is set to true. If there are multiple consecutive segments with the non-concentration flag set, the total playback duration of these segments is displayed.
セグメントURLは、非集中フラグが真に設定されたセグメントのセグメントURLである。非集中フラグが設定されたセグメントが複数連続している場合、それらのセグメントのうち最も再生開始時刻が早いセグメントのセグメントURLを表示する。 The segment URL is the segment URL of the segment whose decentralized flag is set to true. If there are a plurality of consecutive segments with the non-concentration flag set, the segment URL of the segment with the earliest playback start time among those segments is displayed.
図8の例では、非集中フラグが設定されたセグメントが複数連続している場合、それらを連続した再生区間として視聴結果を表示する例を示したが、視聴結果の表示形態はこれらに限定されない。例えば、非集中フラグが設定されたセグメントに関する情報を個別に列挙する視聴結果を表示してもよい。また、例えば、動画コンテンツが複数のチャプターを含む場合、非集中フラグが設定されたセグメントを含むチャプターに関する情報を列挙する視聴結果を表示してもよい。 In the example of FIG. 8, when there are multiple consecutive segments with the non-concentration flag set, the viewing results are displayed as continuous playback sections, but the display format of the viewing results is not limited to this. . For example, viewing results may be displayed that individually list information regarding segments for which the non-concentration flag has been set. Furthermore, for example, when the video content includes a plurality of chapters, viewing results may be displayed that list information regarding chapters that include segments with non-concentration flags set.
結果表示部208は、動画コンテンツの再生を終了した後であれば、任意のタイミングで視聴結果を表示してもよい。例えば、結果表示部208は、動画コンテンツの再生が終了した直後に視聴結果を表示してもよい。また、例えば、結果表示部208は、一度動画コンテンツの再生が終了した後に、再度同じ動画コンテンツを指定した動画再生操作が行われたときに、その動画コンテンツに関する前回の視聴結果を表示してもよい。
The
ステップS13において、動画再生装置20が備える結果表示部208は、動画コンテンツを再視聴するか否かを判定する。結果表示部208は、ユーザによる再視聴操作が行われた場合、再視聴すると判定する。再視聴操作は、例えば、視聴結果から所望の再生区間を選択する操作である。一方、結果表示部208は、ユーザにより再視聴操作以外の操作が行われた場合、再視聴しないと判定する。再視聴操作以外の操作は、例えば、視聴終了操作である。視聴終了操作は、例えば、視聴結果を閉じる操作である。
In step S13, the
結果表示部208は、再視聴すると判定した場合(YES)、選択された再生区間の再生開始時刻を特定し、ステップS5に処理を戻す。一方、結果表示部208は、再視聴しないと判定した場合(NO)、動画再生方法の処理を終了する。
When the
ステップS5に処理が戻ると、動画取得部202が、制御情報記憶部211に記憶されている制御情報に従って、特定された再生開始時刻に対応するセグメントURLを含むセグメント取得要求を動画配信サーバ10に送信する。これにより、動画再生装置20は、ユーザにより選択された再生区間の再生を開始する。
When the process returns to step S5, the
図8に示した視聴結果のように、連続する複数のセグメントを集約して表示している場合、動画再生装置20は、再視聴操作で特定された再生区間に含まれる複数のセグメントを連続して再生する。なお、特定された再生区間の再生が終了した後は、動画コンテンツの再生を終了してもよいし、引き続き動画コンテンツの再生を継続してもよい。 When a plurality of consecutive segments are aggregated and displayed as in the viewing results shown in FIG. to play. Note that after the playback of the specified playback section is finished, the playback of the video content may be ended, or the playback of the video content may be continued.
<実施形態の効果>
本実施形態における動画再生装置は、動画を視聴する視聴者から取得した生体情報に基づいて視聴者が動画に集中しているか否かを判定し、動画の視聴が終了した後に視聴者が動画に集中していなかった再生区間を示す視聴結果を表示する。したがって、本実施形態における動画再生装置によれば、視聴者が動画に集中していなかった再生区間を提示することができる。
<Effects of embodiment>
The video playback device in this embodiment determines whether the viewer is concentrating on the video based on the biometric information acquired from the viewer while watching the video, and after the viewer finishes viewing the video, the video playback device determines whether the viewer is concentrating on the video or not. Viewing results showing the playback section where the user was not concentrating are displayed. Therefore, according to the video playback device of this embodiment, it is possible to present a playback section in which the viewer was not concentrating on the video.
本実施形態における動画再生装置は、視聴者から取得した脳波又は顔画像に基づいて推定される集中度又は感情に基づいて、視聴者が動画に集中しているか否かを判定する。したがって、本実施形態における動画再生装置によれば、客観的な指標に基づいて視聴者が動画に集中しているか否かを判定することができる。 The video playback device in this embodiment determines whether the viewer is concentrating on the video based on the degree of concentration or emotion estimated based on the brain waves or facial images acquired from the viewer. Therefore, according to the video playback device in this embodiment, it is possible to determine whether viewers are concentrating on the video based on an objective index.
本実施形態における動画再生装置は、視聴者から取得した生体情報により推定される感情が、動画の再生区間毎に設定された感情の期待値と異なるとき、視聴者が動画に集中していないと判定する。すなわち、視聴者の生体情報から推定される感情がネガティブな感情であっても動画の内容により意図された感情であれば、視聴者は動画に集中していると判定する。したがって、本実施形態における動画再生装置によれば、動画の内容に応じて精度良く視聴者が動画に集中しているか否かを判定することができる。 The video playback device in this embodiment determines that the viewer is not concentrating on the video when the emotion estimated from the biometric information acquired from the viewer differs from the expected emotion value set for each playback section of the video. judge. That is, even if the emotion estimated from the viewer's biological information is a negative emotion, if the emotion is intended by the content of the video, it is determined that the viewer is concentrating on the video. Therefore, according to the video playback device of this embodiment, it is possible to accurately determine whether viewers are concentrating on the video depending on the content of the video.
本実施形態における動画再生装置は、視聴者により視聴結果から再生区間が選択されたとき、当該再生区間を再度再生する。したがって、本実施形態における動画再生装置によれば、視聴者は動画に集中できる状況が整ったときに集中していなかった再生区間を重点的に再視聴することができる。すなわち、本実施形態における動画再生装置によれば、動画の内容に対する理解を促進することができる。 The video playback device in this embodiment plays back the playback section when the viewer selects the playback section from the viewing results. Therefore, according to the video playback device according to the present embodiment, when the viewer is able to concentrate on the video, he or she can concentrate on rewatching the playback section that the viewer was not concentrating on. That is, according to the video playback device in this embodiment, it is possible to promote understanding of the content of the video.
[変形例]
上記実施形態では、動画再生装置20は、動画配信サーバ10からストリーミング配信される動画を再生する例を説明した。動画再生装置20は、記録媒体に記録されている動画データを再生してもよい。この場合、記録媒体には、再生時刻と感情の期待値とが関連付けられた制御情報が記録されてもよい。制御情報は、動画データを再生する前に、外部の記憶装置から取得してもよい。
[Modification]
In the above embodiment, an example has been described in which the
本変形例における動画再生装置は、通信ネットワークを通じてストリーミング配信される動画コンテンツに加えて、記録媒体に記録されている動画データを再生することができる。したがって、本変形例における動画再生装置によれば、動画コンテンツの配信媒体に関わらず、視聴者が動画に集中していなかった再生区間を提示することができる。 The video playback device in this modification can play back video data recorded on a recording medium in addition to video content streamed through a communication network. Therefore, according to the video playback device in this modification, it is possible to present a playback section in which the viewer was not concentrating on the video, regardless of the distribution medium of the video content.
[補足]
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等の機器を含むものとする。
[supplement]
Each function of the embodiments described above can be realized by one or more processing circuits. Here, the term "processing circuit" as used herein refers to a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function explained above. This includes devices such as ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), FPGAs (Field Programmable Gate Arrays), and conventional circuit modules.
以上、本発明の実施の形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications or variations can be made within the scope of the gist of the present invention as described in the claims. Changes are possible.
1 動画配信システム
10 動画配信サーバ
101 動画配信部
102 制御情報配信部
111 動画記憶部
112 制御情報記憶部
20 動画再生装置
201 制御情報取得部
202 動画取得部
203 バッファ部
204 動画再生部
205 生体情報取得部
206 集中判定部
207 結果記録部
208 結果表示部
211 制御情報記憶部
212 判定結果記憶部
1
Claims (9)
前記動画を視聴する視聴者の生体情報を取得する生体情報取得部と、
前記生体情報に基づいて、前記視聴者が前記動画に集中しているか否かを判定する集中判定部と、
前記動画を時間軸で分割した再生区間と前記集中判定部による判定結果とを関連付けて記録する結果記録部と、
前記動画の再生が終了した後、前記判定結果が前記動画に集中していないことを示す前記再生区間を表す視聴結果を前記表示装置に表示する結果表示部と、
を備える動画再生装置。 a video playback unit that displays the video on a display device;
a biometric information acquisition unit that obtains biometric information of a viewer who views the video;
a concentration determination unit that determines whether the viewer is concentrating on the video based on the biological information;
a result recording unit that associates and records a playback section obtained by dividing the video on a time axis and a determination result by the intensive determination unit;
a result display unit that displays, on the display device, a viewing result representing the playback section in which the determination result indicates that the video is not concentrated after the video has been played;
A video playback device equipped with.
前記集中判定部は、前記生体情報から推定される集中度を所定の閾値と比較することで、前記視聴者が前記動画に集中しているか否かを判定する、
動画再生装置。 The video playback device according to claim 1,
The concentration determining unit determines whether the viewer is concentrating on the video by comparing the degree of concentration estimated from the biological information with a predetermined threshold.
Video playback device.
前記生体情報取得部は、前記視聴者の顔画像を前記生体情報として取得し、
前記集中判定部は、前記顔画像に基づいて前記集中度を推定する、
動画再生装置。 The video playback device according to claim 2,
The biological information acquisition unit acquires a facial image of the viewer as the biological information,
The concentration determination unit estimates the degree of concentration based on the face image.
Video playback device.
前記再生区間毎に感情の期待値を設定した制御情報を記憶する記憶部をさらに備え、
前記集中判定部は、前記生体情報から推定される感情が前記制御情報に設定された前記期待値と異なるとき、前記視聴者が前記動画に集中していないと判定する、
動画再生装置。 The video playback device according to claim 1,
further comprising a storage unit that stores control information in which an expected value of emotion is set for each reproduction section,
The concentration determining unit determines that the viewer is not concentrating on the video when the emotion estimated from the biological information is different from the expected value set in the control information.
Video playback device.
前記生体情報取得部は、前記視聴者の脳波又は前記視聴者の顔画像を前記生体情報として取得し、
前記集中判定部は、前記脳波又は前記顔画像に基づいて前記感情を推定する、
動画再生装置。 5. The video playback device according to claim 4,
the biometric information acquisition unit acquires an electroencephalogram or a facial image of the viewer as the biometric information,
The concentration determination unit estimates the emotion based on the electroencephalogram or the facial image.
Video playback device.
前記動画再生部は、前記視聴者により前記視聴結果から選択された前記再生区間に対応する前記動画を前記表示装置に表示する、
動画再生装置。 The video playback device according to claim 1,
The video playback unit displays the video corresponding to the playback section selected from the viewing results by the viewer on the display device.
Video playback device.
前記結果表示部は、前記動画に関する前記視聴結果が存在するとき、前記動画の再生を開始する前に前記視聴結果を表示する、
動画再生装置。 The video playback device according to claim 6,
The result display section displays the viewing results before starting playback of the video when the viewing results regarding the video exist.
Video playback device.
前記動画再生部は、通信ネットワークを通じてストリーミング配信される動画コンテンツ、又は記録媒体に記録されている動画データを再生する、
動画再生装置。 The video playback device according to claim 1,
The video playback unit plays back video content streamed through a communication network or video data recorded on a recording medium.
Video playback device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022145971A JP2024041262A (en) | 2022-09-14 | 2022-09-14 | Moving image playing back apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022145971A JP2024041262A (en) | 2022-09-14 | 2022-09-14 | Moving image playing back apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024041262A true JP2024041262A (en) | 2024-03-27 |
Family
ID=90417068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022145971A Pending JP2024041262A (en) | 2022-09-14 | 2022-09-14 | Moving image playing back apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024041262A (en) |
-
2022
- 2022-09-14 JP JP2022145971A patent/JP2024041262A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10698952B2 (en) | Using digital fingerprints to associate data with a work | |
US9473548B1 (en) | Latency reduction in streamed content consumption | |
US20210211476A1 (en) | Methods, systems, and media for recommending content based on network conditions | |
EP3533227B1 (en) | Anchors for live streams | |
US11574654B2 (en) | Automatic generation of video playback effects | |
US8737820B2 (en) | Systems and methods for recording content within digital video | |
US10951902B2 (en) | Systems and methods for multiple bit rate content encoding | |
US20230379531A1 (en) | Systems, apparatus and methods for rendering digital content | |
WO2019246333A1 (en) | System and method for video encoding optimization and broadcasting | |
JP5043711B2 (en) | Video evaluation apparatus and method | |
US20220312079A1 (en) | Systems and methods to provide adaptive play settings | |
JP2024041262A (en) | Moving image playing back apparatus and program | |
US20210345003A1 (en) | Systems and methods for providing timeline of content items on a user interface | |
JP2024038690A (en) | Moving image reproduction apparatus and program | |
EP3970381A1 (en) | Methods and systems for providing a user with an image content | |
US20230319346A1 (en) | Systems and methods for automatically generating content items from identified events | |
US11490148B2 (en) | Systems and methods to determine when to rejoin a live media broadcast after an interruption | |
AU2018263287A1 (en) | Devices, systems and methodologies configured to enable generation, capture, processing, and/or management of digital media data | |
US11924479B2 (en) | Systems and methods for generating metadata for a live media stream | |
US20220394323A1 (en) | Supplmental audio generation system in an audio-only mode | |
JP2018056811A (en) | Terminal device, content reproduction system, content reproduction method, and program |