JP2016063524A - Video display device, viewing control device and viewing control program - Google Patents

Video display device, viewing control device and viewing control program Download PDF

Info

Publication number
JP2016063524A
JP2016063524A JP2014192741A JP2014192741A JP2016063524A JP 2016063524 A JP2016063524 A JP 2016063524A JP 2014192741 A JP2014192741 A JP 2014192741A JP 2014192741 A JP2014192741 A JP 2014192741A JP 2016063524 A JP2016063524 A JP 2016063524A
Authority
JP
Japan
Prior art keywords
video
viewing
unit
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014192741A
Other languages
Japanese (ja)
Inventor
保孝 若林
Yasutaka Wakabayashi
保孝 若林
田中 誠一
Seiichi Tanaka
誠一 田中
ジェーン 加藤
Jane Kato
ジェーン 加藤
或 王
Huo Wang
或 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014192741A priority Critical patent/JP2016063524A/en
Publication of JP2016063524A publication Critical patent/JP2016063524A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video display device, a viewing control device and a viewing control program that actualize more detailed viewing limitations corresponding to a viewer.SOLUTION: A display part 101 displays video content, a video imaging part 105 picks up a video, and a video information analysis part 108 acquires video analytic information representing a kind of each scene of the video content. A viewing history analysis part 107 analyzes a viewing history including video content and scenes that a viewer views, and a display control part 102 controls whether to display video content to be displayed at the display part 101 on the basis of the viewing history and video analytic information.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置を使用するユーザ毎に、映像コンテンツの視聴制限が可能である映像表示装置、視聴制御装置及び視聴制御プログラムに関する。   The present invention relates to a video display device, a viewing control device, and a viewing control program capable of restricting viewing of video content for each user who uses the display device.

従来から、テレビジョン受信装置、等の映像表示装置で映像コンテンツを視聴する未成年者に対して、有害コンテンツの視聴を制限することが求められている。有害コンテンツとは、情動や人格の形成に有害なシーン、例えば、暴力を示す暴力シーンや残酷な事物を示す残酷シーンなど、を含む映像コンテンツである。
有害コンテンツの視聴を制限する為に、例えば、映画等ではコンテンツに応じてレーティング(rating)情報が付与され、予めどのような年齢層の視聴者に向けたものであるかが明示されているものがある。また、テレビジョン放送では、いわゆるVチップ機能を用いた視聴制限が従来から知られている。この視聴制限では、送信機側で暴力シーンや残酷シーン等が含まれるかを示すレーティング情報が放送番組の映像信号に重畳及び伝送される。受信機側では、受信した番組の映像信号からレーティング情報が読み出され、視聴者によって予め設定されているレーティングレベルと比較し、読み出されたレーティング情報が、前記受信機にあらかじめ設定されているレーティングレベルを超えた場合に映像の表示をブロックする。
近年では、インターネットの普及により、インターネットに接続された各種の機器から多様な映像コンテンツが取得でき、誰でも簡単に利用することができる。このようなインターネット上の映像コンテンツにおいても視聴制限することが求められている。
2. Description of the Related Art Conventionally, it has been required to limit viewing of harmful content to minors who view video content on a video display device such as a television receiver. Harmful content is video content including scenes that are harmful to the formation of emotions and personalities, such as violent scenes that show violence and cruel scenes that show cruel things.
To restrict the viewing of harmful content, for example, in the movie or the like rating (rating) information according to the content is granted, which either is directed to the audience in advance what age is clearly There is. In television broadcasting, viewing restriction using a so-called V-chip function is conventionally known. In this viewing restriction, rating information indicating whether a violent scene or a cruel scene is included on the transmitter side is superimposed and transmitted on the video signal of the broadcast program. On the receiver side, rating information is read from the video signal of the received program and compared with the rating level preset by the viewer, and the read rating information is preset in the receiver. Block video display when rating level is exceeded.
In recent years, with the spread of the Internet, various video contents can be obtained from various devices connected to the Internet, and anyone can easily use them. It is also required to restrict viewing of such video content on the Internet.

多様な映像コンテンツに関する視聴制限の方法として、特許文献1において、インターネット接続機能及びペアレンタルコントロール機能を有した、インターネット上のコンテンツの視聴制限が可能な電子機器が開示されている。この電子機器は、インターネット接続機能及びペアレンタルコントロール機能を有しており、記憶部に記憶されているインターネット上のコンテンツに関するレーティング情報を利用して、視聴制限部によりインターネット上のコンテンツの視聴制限を行う。また、この電子機器は、付加されたレーティング情報の変更通知に基づいてレーティング情報を書き換えることができる。   As a method for restricting viewing related to various video contents, Patent Document 1 discloses an electronic device having an Internet connection function and a parental control function and capable of restricting viewing of contents on the Internet. This electronic device has an Internet connection function and a parental control function, and uses the rating information on the Internet content stored in the storage unit to restrict viewing of the content on the Internet by the viewing restriction unit. Do. Also, the electronic device can rewrite the rating information based on the added notification of the rating information.

また、特許文献2には、映像ショットの切り替わりで映像を構造化するショット検出手段により検出されたショット情報を用いて識別対象となる画像候補を選択し、選択された画像候補から特徴量を算出することでコンテンツの識別を行うコンテンツ識別方法及び装置が開示されている。この方法及び装置は、任意の未知コンテンツにおいても、映像コンテンツが青少年に有害な画像であるか否かを識別することができる。   Also, in Patent Document 2, an image candidate to be identified is selected using shot information detected by shot detection means for structuring a video by switching video shots, and a feature amount is calculated from the selected image candidate A content identification method and apparatus for identifying content by doing so are disclosed. This method and apparatus can identify whether video content is an image harmful to adolescents even in arbitrary unknown content.

また、特許文献3には、ユーザにより設定される視聴制限基準情報と、受信中の映像コンテンツデータに番組又はシーン毎に予め付加された前記コンテンツ視聴制限情報とを比較して、視聴制限を設定するか否かを判断する映像コンテンツ記録再生装置について記載されている。この装置は、視聴制限を設定すると判断されたシーンを有する映像コンテンツデータの全体を再生区間として再生プロテクトを設定した実体プレイリストを生成するとともに、視聴制限を設定しないと判断されたシーンが再生区間となるように設定した仮想プレイリストを生成する。実体プレイリストに基づいて再生するか、仮想プレイリストに基づいて再生するかを判断する事により、映像コンテンツのシーンごとに設定された視聴制限に応じてコンテンツの再生を制御することが可能になる。   Patent Document 3 sets viewing restrictions by comparing viewing restriction reference information set by the user with the content viewing restriction information previously added to the video content data being received for each program or scene. A video content recording / reproducing apparatus for determining whether or not to perform is described. This apparatus generates an actual playlist in which playback protection is set with the entire video content data having a scene determined to set viewing restrictions as a playback section, and a scene determined not to set viewing restrictions is played back in the playback section. A virtual playlist set so as to be generated is generated. By determining whether to play based on the actual playlist or to play based on the virtual playlist, it becomes possible to control the playback of the content according to the viewing restrictions set for each scene of the video content. .

特開2012−48443号公報JP 2012-48443 A 特開2010−186343号公報JP 2010-186343 A 特開2008−104137号公報JP 2008-104137 A

他方、未成年者でも視聴可能なレーティングを有する映像コンテンツであっても、暴力シーン等の有害シーンを含む場合があり、保護者等の管理者がシーンに応じて視聴を許す否かを判断したいという要望や、視聴を許す場合でも繰り返し視聴することを防ぎたいという要望がある。
しかしながら、特許文献1には、インターネット上で利用可能なコンテンツの各件について視聴制限を行うことができる電子機器について記載されているが、この電子機器は、シーンごとの視聴制限を行うものではない。特許文献2には、レーティング情報が付されていない未知のコンテンツに対して、シーンごとに有害か否かを識別するコンテンツ識別方法について記載されているが、識別結果を用いて視聴制限を行うことについては開示されていない。
特許文献3には、コンテンツのシーンごとに設定された視聴制限に応じて映像コンテンツの再生を制御する映像コンテンツ再生装置について記載されているが、この装置はシーンの種別や視聴状況に応じた制御を行うものではない。
On the other hand, even video content with a rating that can be viewed even by minors may contain harmful scenes such as violent scenes, and administrators such as parents want to determine whether to allow viewing according to the scene There is a desire to prevent repeated viewing even when viewing is permitted.
However, Patent Document 1 describes an electronic device that can perform viewing restriction for each content that can be used on the Internet. However, this electronic device does not perform viewing restriction for each scene. . Patent Document 2 describes a content identification method for identifying whether or not an unknown content with no rating information is harmful for each scene. However, viewing restriction is performed using the identification result. Is not disclosed.
Patent Document 3 describes a video content playback device that controls playback of video content according to viewing restrictions set for each scene of the content. This device is controlled according to the type of scene and the viewing situation. Is not something to do.

本発明は、以上のような課題を解決するためになされたものであって、視聴者に応じてより詳細な視聴制限を実現する映像表示装置、視聴制御装置及び視聴制御プログラムを提供する。   The present invention has been made to solve the above-described problems, and provides a video display device, a viewing control device, and a viewing control program that realize more detailed viewing restrictions according to viewers.

本発明は、上記の課題を解決するためになされたものであり、本発明の一態様は、映像コンテンツを表示する表示部と、映像を撮影する映像撮影部と、前記映像撮影部が撮影した撮影映像に基づいて使用者を判別する使用者判別部と、前記映像コンテンツにおけるシーン毎の種別を示す映像解析情報を取得する映像情報解析部と、前記使用者が視聴した映像コンテンツとシーンとを含む視聴履歴を解析する視聴履歴解析部と、前記視聴履歴及び前記映像解析情報に基づいて、前記表示部に表示する映像コンテンツを表示するか否かを制御する表示制御部と、を備える映像表示装置である。   The present invention has been made in order to solve the above-described problems, and one aspect of the present invention is a display unit that displays video content, a video shooting unit that captures video, and the video shooting unit. A user discriminating unit that discriminates a user based on a captured video; a video information analyzing unit that acquires video analysis information indicating a type of each scene in the video content; and video content and a scene viewed by the user. A video display comprising: a viewing history analysis unit that analyzes a viewing history including: a display control unit that controls whether or not to display video content to be displayed on the display unit based on the viewing history and the video analysis information Device.

本発明によれば、視聴者に応じたより詳細な視聴制限が可能になる。   According to the present invention, more detailed viewing restriction according to the viewer is possible.

第1の実施形態に係る映像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video display apparatus which concerns on 1st Embodiment. 第1の実施形態に係る映像表示装置の利用シーンの一例を示す概念図である。It is a conceptual diagram which shows an example of the utilization scene of the video display apparatus which concerns on 1st Embodiment. 撮影映像の一例を示す図である。It is a figure which shows an example of a picked-up image. 視聴履歴情報の一例を示す図である。It is a figure which shows an example of viewing history information. 映像解析情報の一例を示す図である。It is a figure which shows an example of video analysis information. 第1の実施形態に係る視聴制御処理を示すフローチャートである。It is a flowchart which shows the viewing-and-listening control process which concerns on 1st Embodiment. 第2の実施形態に係る映像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video display apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る映像表示装置の利用シーンの一例を示す概念図である。It is a conceptual diagram which shows an example of the utilization scene of the video display apparatus which concerns on 2nd Embodiment. 撮影映像の一例を示す図である。It is a figure which shows an example of a picked-up image. 第2の実施形態に係る視聴制御処理を示すフローチャートである。It is a flowchart which shows the viewing-and-listening control process which concerns on 2nd Embodiment. 第3の実施形態に係る映像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video display apparatus which concerns on 3rd Embodiment. 管理者が使用する映像表示装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the video display apparatus which an administrator uses.

(第1の実施形態)
本発明の第1実施形態について、図面を参照しながら説明する。なお、各図面における各部の大きさ等は、図面を見やすくするために大小関係を誇張しており、実際の大きさとは異なることがある。
(First embodiment)
A first embodiment of the present invention will be described with reference to the drawings. It should be noted that the size of each part in each drawing is exaggerated in magnitude so as to make the drawing easy to see, and may be different from the actual size.

図1は、本実施形態に係る映像表示装置100の構成を示すブロック図である。
映像表示装置100は、映像データに基づいて映像を表示する機能を有する電子機器である。映像表示装置100は、例えば、タブレット端末装置、多機能携帯電話機(いわゆるスマートフォンを含む)、PC(Personal Computer)、テレビジョン受像機、等である。
FIG. 1 is a block diagram illustrating a configuration of a video display apparatus 100 according to the present embodiment.
The video display device 100 is an electronic device having a function of displaying video based on video data. The video display device 100 is, for example, a tablet terminal device, a multi-function mobile phone (including a so-called smartphone), a PC (Personal Computer), a television receiver, or the like.

映像表示装置100は、CPU(Central Processing Unit)及び記憶装置を備える。記憶装置は、例えば、HDD(Hard−disk Drive)、フラッシュメモリ、ROM(Read−only Memory)、RAM(Random Access Memory)、又はそれらの組み合わせである。記憶装置には、CPUで実行される各種のプログラム、CPUで実行される処理に用いられる各種のデータ、CPUで実行された処理により生成されたデータを記憶する。
CPUは、記憶装置に記憶されているプログラムを実行することにより、表示部101、表示制御部102、入力情報制御部103、機能制御部104、映像撮影部105、使用者判別部106、視聴履歴解析部107、映像情報解析部108及び通信制御部109の一部又は全部の機能を実現する。記憶部110は、上述した記憶装置により構成される。
The video display device 100 includes a CPU (Central Processing Unit) and a storage device. The storage device is, for example, a HDD (Hard-disk Drive), a flash memory, a ROM (Read-only Memory), a RAM (Random Access Memory), or a combination thereof. The storage device stores various programs executed by the CPU, various data used for processing executed by the CPU, and data generated by processing executed by the CPU.
The CPU executes a program stored in the storage device to display the display unit 101, the display control unit 102, the input information control unit 103, the function control unit 104, the video photographing unit 105, the user determination unit 106, the viewing history. A part or all of the functions of the analysis unit 107, the video information analysis unit 108, and the communication control unit 109 are realized. The storage unit 110 includes the storage device described above.

表示部101は、表示制御部102から入力された映像データが示す映像を表示するディスプレイを含んで構成される。表示部101は、例えば、ディスプレイとタッチセンサとを一体に構成したタッチパネルである。ディスプレイは、有機EL(Electroluminescence)ディスプレイ、液晶ディスプレイ(LCD:Liquid Crystal Display)等である。タッチセンサは、利用者の指等の操作物が接触した位置を検出し、検出した位置を示す入力情報を入力情報制御部103に出力する操作入力部である。タッチセンサは、例えば、静電容量型タッチセンサである。なお、表示部101において、ディスプレイは、タッチセンサと別体であってもよい。   The display unit 101 includes a display that displays the video indicated by the video data input from the display control unit 102. The display unit 101 is, for example, a touch panel that integrally configures a display and a touch sensor. The display is an organic EL (Electroluminescence) display, a liquid crystal display (LCD), or the like. The touch sensor is an operation input unit that detects a position where an operation object such as a user's finger contacts, and outputs input information indicating the detected position to the input information control unit 103. The touch sensor is, for example, a capacitive touch sensor. In the display unit 101, the display may be a separate body from the touch sensor.

表示制御部102は、表示部101の表示制御を行うものであり、視聴履歴解析部107から視聴履歴解析情報が入力され、映像情報解析部108から映像データと、その映像データに係る映像解析情報とが入力され、機能制御部104から機能制御情報が入力される。入力された視聴履歴解析情報と映像解析情報に基づいて、映像データを形成するシーン毎に映像の表示を制限するか否かを判定する。制限しないと判定した場合、表示制御部102は、映像データを表示部101に出力して、その映像を表示させる。制限すると判定した場合、表示制御部102は、映像データの表示部101への出力を停止して、その映像の表示を停止する。   The display control unit 102 performs display control of the display unit 101, and viewing history analysis information is input from the viewing history analysis unit 107, and video data and video analysis information related to the video data are received from the video information analysis unit 108. And the function control information is input from the function control unit 104. Based on the input viewing history analysis information and video analysis information, it is determined whether or not to limit video display for each scene that forms video data. If it is determined that there is no restriction, the display control unit 102 outputs the video data to the display unit 101 to display the video. If it is determined to be restricted, the display control unit 102 stops outputting the video data to the display unit 101 and stops displaying the video.

表示制御部102が上記の判断を行って映像データを出力する期間は、機能制御部104から映像の表示開始を示す機能制御情報が入力された後、映像の表示停止を示す機能制御情報が入力されるまでの間である。表示制御部102が行う表示制御については、後述する。
なお、表示制御部102は、表示部101に表示させた映像コンテンツのコンテンツ識別情報、表示させた時間を示す視聴時間情報、及び視聴した使用者を示す使用者情報を含み、これらを対応付けて記憶部110に記憶する。これにより、記憶部110には、視聴履歴情報(視聴ログ)が形成される。
During the period in which the display control unit 102 makes the above determination and outputs video data, the function control information indicating the video display stop is input after the function control information indicating the video display start is input from the function control unit 104. Until it is done. Display control performed by the display control unit 102 will be described later.
The display control unit 102 includes content identification information of the video content displayed on the display unit 101, viewing time information indicating the displayed time, and user information indicating the user who has viewed the video content. Store in the storage unit 110. Thereby, viewing history information (viewing log) is formed in the storage unit 110.

なお、「コンテンツ」とは、ある情報を表す映像、音声、文字列、等のセット、例えば、映画、アニメーション、放送番組等、人間の創造的活動により生み出されたものである。コンテンツを表すデータを「コンテンツデータ」と呼ぶ。ここでは、特に映像を含むコンテンツを映像コンテンツと呼ぶことがある。映像コンテンツには、音声が含まれていても含まれていなくてもよい。以下の説明では、コンテンツが、主にインターネットに接続可能なサーバー装置から利用可能な映像コンテンツである場合を例にする。
また、「シーン」とは、1件の映像コンテンツを時間的に細分化した区間であって、一定の場所における動作または状況など、所定の条件によって区切られたものを指す。シーンは、場面とも呼ばれる。また、ここでのシーンとは、切れ目なしに連続して撮影された映像の1つの区間であるショットであってもよい。
Note that “content” is a set of video, audio, character strings, and the like representing certain information, such as movies, animations, broadcast programs, and the like, which are created by human creative activities. Data representing content is referred to as “content data”. Here, in particular, content including video may be referred to as video content. Video content may or may not include audio. In the following description, an example is given in which the content is video content that can be used mainly from a server device that can be connected to the Internet.
A “scene” refers to a section obtained by subdividing a piece of video content in terms of time, which is divided by a predetermined condition such as an operation or a situation in a certain place. A scene is also called a scene. In addition, the scene here may be a shot that is one section of a video continuously shot without a break.

入力情報制御部103は、表示部101のタッチパネルから入力された入力情報に基づいて、映像表示装置100で実行する機能を特定する機能情報を生成する。入力情報制御部103は、例えば、入力情報が示す位置が、表示部101に表示された開始ボタン(図示せず)の領域内に含まれる場合(開始ボタンが押下)、映像の表示開始を示す機能情報を生成する。入力情報が示す位置が、表示部101に表示された停止ボタン(図示せず)の領域内に含まれる場合(停止ボタンが押下)であれば、映像コンテンツの表示停止を示す機能情報を生成する。入力情報制御部103は、入力情報が示す位置が表示部101に表示されたコンテンツリスト(図示せず)に含まれるコンテンツ名の表示領域内に含まれる場合(コンテンツ名が押下)、その映像コンテンツを示す機能情報を生成する。入力情報制御部103は、生成した機能情報を機能制御部104に出力する。   The input information control unit 103 generates function information for specifying a function to be executed by the video display device 100 based on the input information input from the touch panel of the display unit 101. For example, when the position indicated by the input information is included in the area of the start button (not shown) displayed on the display unit 101 (the start button is pressed), the input information control unit 103 indicates the start of video display. Generate function information. If the position indicated by the input information is included in the area of a stop button (not shown) displayed on the display unit 101 (the stop button is pressed), function information indicating video content display stop is generated. . When the position indicated by the input information is included in the content name display area included in the content list (not shown) displayed on the display unit 101 (the content name is pressed), the input information control unit 103 displays the video content. The function information indicating is generated. The input information control unit 103 outputs the generated function information to the function control unit 104.

機能制御部104は、入力情報制御部103から入力された機能情報に基づいて映像表示装置100の各部に対し、各部を制御するための機能制御情報を送り、各部の動作を制御する。例えば、機能情報が映像コンテンツの表示開始を示す情報である場合、表示制御部102に機能制御情報を送り、映像コンテンツの表示を開始させる。また、機能制御部104は、その機能制御情報を映像撮影部105に出力することにより、映像表示装置100の周囲の映像の撮影を開始させる。機能制御情報が映像コンテンツの表示停止を示す情報である場合、その機能制御情報を表示制御部102に出力することにより映像コンテンツの表示を停止する。機能制御情報が映像コンテンツを示す情報である場合、その機能制御情報を通信制御部109に出力することにより、その映像コンテンツの映像データを取得させる。   The function control unit 104 sends function control information for controlling each unit to each unit of the video display device 100 based on the function information input from the input information control unit 103, and controls the operation of each unit. For example, when the function information is information indicating the start of display of video content, the function control information is sent to the display control unit 102 to start display of the video content. In addition, the function control unit 104 outputs the function control information to the video shooting unit 105 to start shooting a video around the video display device 100. When the function control information is information indicating display stop of the video content, the display of the video content is stopped by outputting the function control information to the display control unit 102. When the function control information is information indicating video content, the function control information is output to the communication control unit 109 to acquire video data of the video content.

映像撮影部105は、機能制御部104から映像の表示開始を示す機能制御情報が入力された場合、周囲の映像を撮影し、撮影した映像を示す撮影映像データを使用者判別部106に出力する。映像撮影部105は、例えば、CCD(Charge−coupled Device)カメラを含んで構成される。   When the function control information indicating the start of video display is input from the function control unit 104, the video shooting unit 105 captures surrounding video and outputs captured video data indicating the captured video to the user determination unit 106. . The video photographing unit 105 includes, for example, a CCD (Charge-coupled Device) camera.

使用者判別部106は、記憶部110に予め記憶したリファレンスデータを参照して、映像撮影部105から入力された撮影映像データについて公知の画像処理技術を用いて映像表示装置100の使用者を判別する。使用者判別部106は、判別した使用者を示す使用者情報を視聴履歴解析部107に出力する。使用者の判別処理については、後述する。   The user discriminating unit 106 discriminates the user of the video display device 100 by using a known image processing technique for the captured video data input from the video imaging unit 105 with reference to the reference data stored in the storage unit 110 in advance. To do. The user determination unit 106 outputs user information indicating the determined user to the viewing history analysis unit 107. The user discrimination process will be described later.

視聴履歴解析部107は、記憶部110に予め使用者情報と対応付けて記憶した視聴履歴(視聴ログ)から、使用者判別部106から入力された使用者情報に対応する視聴履歴を読み取る。視聴履歴は、その使用者に対してその時点までに表示した映像コンテンツの表示時間(視聴時間)の履歴を示す情報である。表示時間は、表示を開始した開始時刻から表示を停止した停止時刻で指定される。開始時刻、停止時刻は、その映像コンテンツの冒頭の時刻を基準とした相対的な時刻であってもよいし、その時点における絶対的な時刻(現在時刻)であってもよい。視聴履歴解析部107は、読み取った視聴履歴に基づいて視聴履歴情報を生成する。視聴履歴解析部107は、例えば、その使用者に対して表示した映像コンテンツに含まれるシーンのシーン種別毎の視聴時間と視聴頻度を算出し、算出したこれらの情報を含む視聴履歴情報を生成する。視聴履歴解析部107は、生成した視聴履歴情報を表示制御部102に出力する。視聴履歴情報の例については、後述する。   The viewing history analysis unit 107 reads the viewing history corresponding to the user information input from the user determination unit 106 from the viewing history (viewing log) stored in the storage unit 110 in association with the user information in advance. The viewing history is information indicating the history of the display time (viewing time) of the video content displayed up to that point for the user. The display time is specified by the stop time when the display is stopped from the start time when the display is started. The start time and stop time may be a relative time based on the beginning time of the video content, or may be an absolute time (current time) at that time. The viewing history analysis unit 107 generates viewing history information based on the read viewing history. For example, the viewing history analysis unit 107 calculates the viewing time and the viewing frequency for each scene type of the scene included in the video content displayed to the user, and generates viewing history information including the calculated information. . The viewing history analysis unit 107 outputs the generated viewing history information to the display control unit 102. An example of viewing history information will be described later.

映像情報解析部108は、記憶部110から映像データを読み出し、読み出した映像データのヘッダ部を解析することにより予め付加されている映像解析情報を抽出する。映像解析情報は、映像データが示す映像コンテンツを形成するシーン毎のシーン種別と時間(開始時刻、終了時刻)を示す情報である。映像情報解析部108は、抽出した映像解析情報と映像データを表示制御部102に出力する。映像解析情報の例については、後述する。   The video information analysis unit 108 reads video data from the storage unit 110 and extracts video analysis information added in advance by analyzing the header portion of the read video data. The video analysis information is information indicating the scene type and time (start time, end time) for each scene forming the video content indicated by the video data. The video information analysis unit 108 outputs the extracted video analysis information and video data to the display control unit 102. An example of the video analysis information will be described later.

通信制御部109は、外部機器とのネットワークを介して行われる通信を制御する。例えば、通信制御部109は、機能制御部104から入力された機能制御情報が示す映像コンテンツの要求信号を、その映像コンテンツを格納するコンテンツサーバ装置(図示せず)に送信する。通信制御部109は、コンテンツサーバ装置から、その映像コンテンツデータを受信し、受信したデータを記憶部110に記憶する。   The communication control unit 109 controls communication performed via a network with an external device. For example, the communication control unit 109 transmits a video content request signal indicated by the function control information input from the function control unit 104 to a content server apparatus (not shown) that stores the video content. The communication control unit 109 receives the video content data from the content server device and stores the received data in the storage unit 110.

記憶部110は、上述したように、各部が生成したデータを記憶し、各部における処理に用いるデータを記憶する。   As described above, the storage unit 110 stores data generated by each unit and stores data used for processing in each unit.

次に、本実施形態に係る映像表示装置100の利用状況について説明する。
図2は、本実施形態に係る映像表示装置100の利用状況の一例を示す概念図である。
図2に示す例では、映像表示装置100は、扁平でその主面の形状が矩形であるタブレット端末である。映像表示装置100は、使用者I111が手で保持できる大きさを有する。使用者I111は、表示部101とカメラである映像撮影部105が配置されている面を自身の顔に向けて、映像表示装置100を手で保持しながら表示部101のタッチパネルを操作する。なお、使用者I111、等の符号「I」は、映像、映像の被写体、処理対象等を示し、映像表示装置100の構成と区別するための符号である。使用者I111が操作により視聴を希望する映像コンテンツを指示したことに応じて、通信制御部109(図1)は、指示された映像コンテンツの映像データを、コンテンツサーバ装置(図示せず)からネットワークを介して取得する。また、使用者I111が操作により映像コンテンツの再生開始を指示したことに応じて、表示制御部102(図1)は、取得された映像コンテンツについて、その表示を制限するか否かを判定する。表示制御部102が、表示を制限しないと判定したとき、表示部101は指示された映像コンテンツを表示する。表示制御部102が、表示を制限すると判定したとき、表示部101は指示された映像コンテンツを表示しない。1件の映像コンテンツが複数のシーンから形成され、シーン毎にレーティング(視聴制限の基準)が異なる場合がある。その場合には、表示制御部102は、シーン毎に表示を制限するか否かを判定する。
Next, the usage status of the video display apparatus 100 according to the present embodiment will be described.
FIG. 2 is a conceptual diagram showing an example of the usage status of the video display apparatus 100 according to the present embodiment.
In the example illustrated in FIG. 2, the video display device 100 is a tablet terminal that is flat and has a rectangular main surface. The video display device 100 has a size that can be held by the user I111 by hand. The user I111 operates the touch panel of the display unit 101 while holding the video display device 100 with his / her face facing the face on which the display unit 101 and the video photographing unit 105 as a camera are arranged. The symbol “I” of the user I 111, etc. indicates a video, a video subject, a processing target, and the like, and is a code for distinguishing from the configuration of the video display device 100. In response to the user I111 instructing the video content desired to be viewed by operation, the communication control unit 109 (FIG. 1) transmits the video data of the instructed video content from the content server device (not shown) to the network. To get through. Further, in response to the user I111 instructing the start of reproduction of video content by an operation, the display control unit 102 (FIG. 1) determines whether or not to limit the display of the acquired video content. When the display control unit 102 determines that the display is not limited, the display unit 101 displays the instructed video content. When the display control unit 102 determines to limit the display, the display unit 101 does not display the instructed video content. One video content is formed from a plurality of scenes, and ratings (references for viewing restrictions) may be different for each scene. In that case, the display control unit 102 determines whether to limit the display for each scene.

次に、映像撮影部105が撮影した撮影映像の例と、使用者判別部106が実行する使用者の判別処理の例について説明する。映像撮影部105は、図2に示す使用者I111の姿を撮影し、使用者判別部106は、上述したように映像撮影部105が撮影した撮影映像に表された使用者を判別する。
図3は、表示部101のディスプレイが表示する撮影映像の一例(撮影映像I112)を示す図である。
撮影映像I112は、使用者I111の姿を表す映像である。破線で示す矩形の領域I113は、使用者I111の顔を表す顔領域である。使用者判別部106は、次に説明する処理を行って顔領域を検出する。
Next, an example of a captured image captured by the image capturing unit 105 and an example of a user discrimination process executed by the user discrimination unit 106 will be described. The video imaging unit 105 captures the appearance of the user I111 shown in FIG. 2, and the user discrimination unit 106 discriminates the user represented in the video captured by the video imaging unit 105 as described above.
FIG. 3 is a diagram illustrating an example of a captured image (captured image I112) displayed on the display unit 101.
The captured image I112 is an image representing the appearance of the user I111. A rectangular area I113 indicated by a broken line is a face area representing the face of the user I111. The user discriminating unit 106 performs a process described below to detect a face area.

使用者判別部106は、記憶部110に記憶されたリファレンスデータを読み取る。リファレンスデータは、使用者の判別処理において参照されるデータである。リファレンスデータは、使用者を示す使用者情報(ID、氏名、等)と、その使用者の顔画像を表す顔画像データ、あるいは、その使用者の顔の特徴量を示す特徴データを含み、使用者情報と画像データ、あるいは特徴データが対応付けて形成されるデータである。リファレンスデータの取得タイミングとしては、映像表示装置100の初回使用時に使用者に対して登録を促す情報を提示し、使用者による操作入力に応じて生成する、あるいは、映像表示装置100の管理者や使用者が適宜登録操作入力を行い、受け付けられた操作入力に応じて生成するなどがありうる。また、使用者が判別できなかった場合(当該使用者のリファレンスデータが登録されていなかった場合)に、以降使用者を判別するための情報としてリファレンスデータに追加して記憶させるよう、登録操作をするようにしてもよい。なお、ここでの特徴データとは、例えば、顔の各器官(左右の目、鼻、口、等)の特徴(位置、等)を示す特徴点の相対的な位置関係を示すデータである。   The user determination unit 106 reads reference data stored in the storage unit 110. Reference data is data that is referred to in the determination process of the user. The reference data includes user information (ID, name, etc.) indicating the user and face image data representing the face image of the user, or feature data indicating the feature amount of the user's face. This is data formed by associating person information with image data or feature data. As reference data acquisition timing, information that prompts the user to register when the video display device 100 is used for the first time is presented and generated in response to an operation input by the user, or the administrator of the video display device 100 It is possible that the user performs registration operation input as appropriate, and generates according to the received operation input. In addition, if the user cannot be identified (when the reference data of the user has not been registered), a registration operation is performed so as to be added and stored in the reference data as information for identifying the user thereafter. You may make it do. The feature data here is, for example, data indicating the relative positional relationship of feature points indicating the features (positions, etc.) of the organs of the face (left and right eyes, nose, mouth, etc.).

ここで、使用者判別部106は、撮影映像I112から公知の画像処理技術、例えば、Viola−Jones法を用いて顔領域検出処理を行う。即ち、使用者判別部106は、撮影映像において、所定の大きさ(例えば、水平方向32画素×垂直方向32画素)の探索窓(判定領域)を撮影映像の左上端から右下端にかけてラスタスキャン順に順番に移動させ、顔である事を示す情報を持つ領域を特定する事で、顔領域I113の検出を行う。前記の特徴点を有すると判定された領域により顔領域I113が形成される。   Here, the user discriminating unit 106 performs a face area detection process using a known image processing technique such as the Viola-Jones method from the captured video I112. That is, the user determination unit 106 sets a search window (determination area) of a predetermined size (for example, 32 pixels in the horizontal direction × 32 pixels in the vertical direction) from the upper left end to the lower right end of the captured image in the raster scan order. The face area I113 is detected by moving in order and specifying an area having information indicating that it is a face. A face region I113 is formed by the region determined to have the feature point.

次に、使用者判別部106は、検出した顔領域I113に対して検出した特徴点の相対位置関係と、記憶部110からそれぞれ読み取った使用者毎のリファレンスデータが示す特徴点の相対位置関係とを照合し、一致度を算出する。算出した一致度が、予め定めた一度の閾値よりも高いリファレンスデータに係る使用者I111を判別する。なお、使用者判別部106は、1個の映像に複数名分の顔領域を検出した場合には、それぞれの顔領域について使用者を判別してもよい。また、使用者判別部106は、顔領域を検出することができても使用者を特定できない場合がある。
なお、一致度の閾値は、予め定めた値であってもよいし、映像表示装置100の使用者又は管理者の操作に応じて設定可能であってもよい。また、撮影映像から顔領域を検出することができれば、Viola−Jones法に限らず、使用者判別部106は、いかなる処理方法を用いてもよい。
Next, the user discriminating unit 106 detects the relative position relationship of the detected feature points with respect to the detected face area I113, and the relative position relationship of the feature points indicated by the reference data for each user read from the storage unit 110, respectively. Are matched, and the degree of coincidence is calculated. The user I111 related to the reference data whose calculated degree of matching is higher than a predetermined threshold value is determined. Note that the user determining unit 106 may determine the user for each face area when detecting face areas for a plurality of persons in one video. Further, the user determination unit 106 may not be able to identify the user even if the face area can be detected.
Note that the threshold value of the degree of coincidence may be a predetermined value, or may be set according to the operation of the user or administrator of the video display device 100. Further, as long as the face area can be detected from the captured video, the user determination unit 106 may use any processing method without being limited to the Viola-Jones method.

次に、視聴履歴解析部107によって解析を行う視聴履歴情報の例と、視聴履歴解析部107が実行する視聴履歴解析処理の例について説明する。
図4は、視聴履歴情報の一例を示す図である。
図4は、使用者P1、P2をはじめとする各使用者の視聴履歴情報を示す。各使用者の視聴履歴情報は、シーン種別、視聴時間、視聴頻度、レーティング情報を含み、これらが対応付けられて形成される。シーン種別とは、各シーン内容を示す分類である。図4に示す例では、シーン種別は、視聴制限をかけるべきものとして暴力に関するシーンを細分化した分類であり、「暴力シーン」、「ホラーシーン」、「わいせつシーン」の3種類がある。視聴時間は、該当するシーン種別のシーンの1ヶ月当たりの累積視聴時間である。なお、視聴時間は、1ヶ月当たりの平均でも、最近1ヶ月以内の累積視聴時間であってもよい。
Next, an example of viewing history information analyzed by the viewing history analysis unit 107 and an example of viewing history analysis processing executed by the viewing history analysis unit 107 will be described.
FIG. 4 is a diagram illustrating an example of viewing history information.
FIG. 4 shows viewing history information of each user including the users P1 and P2. Each user's viewing history information includes a scene type, viewing time, viewing frequency, and rating information, and these are associated with each other. The scene type is a classification indicating the contents of each scene. In the example shown in FIG. 4, scene types are classifications of scenes related to violence that should be subject to viewing restrictions, and there are three types: “violent scenes”, “horror scenes”, and “obscene scenes”. The viewing time is the cumulative viewing time per month of the scene of the corresponding scene type. The viewing time may be an average per month or a cumulative viewing time within the last month.

視聴頻度は、該当するシーン種別のシーンを1ヶ月当たり再生した回数である。視聴頻度は、1ヶ月当たりの平均回数でも、現在までの最近1ヶ月以内の視聴回数であってもよい。レーティング情報は、そのシーン種別についての視聴制限の度合いを示す情報である。図4に示す例では、レーティング情報は、「◎」、「○」、「×」の3段階のいずれかを示す情報である。「×」は、完全に視聴できない状態を示し、「○」は、制限付きの許可が下りている状態を示し、「◎」は、完全な視聴許可が下りている状態を示す。制限付きの許可は、例えば、視聴時間が30分以下、かつ、視聴頻度が5回以下であれば、視聴が許可されることである。
レーティング情報は、視聴制限を行うか否か、行う場合の条件や程度を示す情報であり、例えば、保護者等、視聴制限を管理する管理者の操作により設定可能であってもよい。
The viewing frequency is the number of times a scene of the corresponding scene type is reproduced per month. The viewing frequency may be the average number of times per month or the number of times of viewing within the last month until now. The rating information is information indicating the degree of viewing restriction for the scene type. In the example illustrated in FIG. 4, the rating information is information indicating any one of three stages “◎”, “◯”, and “×”. “X” indicates a state where viewing is not possible, “O” indicates a state where restricted permission is granted, and “◎” indicates a state where complete viewing permission is given. The restricted permission is that, for example, if the viewing time is 30 minutes or less and the viewing frequency is 5 times or less, viewing is permitted.
The rating information is information indicating whether or not viewing restriction is performed and the conditions and degree of the viewing restriction. For example, the rating information may be set by an operation of an administrator who manages the viewing restriction such as a guardian.

図4に示す例では、使用者情報P1については、暴力シーンについてレーティング情報は完全な視聴許可(◎)を示し、視聴制限がかからない。他方、ホラーシーン、わいせつシーンについてレーティング情報は制限付きの許可(〇)を示す。前述のように、視聴時間が30分以下、かつ、視聴頻度が5回以下であれば視聴許可されるとすると、ホラーシーンについては、視聴時間が20分であって30分の制限を下回り、視聴頻度が3回であって5回の制限に達していない。そのため、ホラーシーンについては、まだ視聴制限がかからない。他方、わいせつシーンについては、視聴時間が1時間であって30分の制限を超え、視聴頻度が5回であって5回の制限と等しい。そのため、わいせつシーンについて視聴制限がかかり、表示部101において該当する映像が表示されない。使用者情報P2については、暴力シーン、ホラーシーンについて制限付きの許可(〇)を示す。わいせつシーンについては、完全に視聴できない状態(×)を示す。暴力シーンについては、視聴時間が30分であって30分の制限と等しく、視聴頻度が3回であって5回の制限よりも少ないので、視聴制限がかからない。ホラーシーンについては、視聴時間が10分であって30分の制限を下回り、視聴頻度が2回であって5回の制限に達していないので、視聴制限がかからない。他方、わいせつシーンについては、完全に視聴できない状態(×)を示すので、表示部101において該当する映像が表示されない。   In the example shown in FIG. 4, for the user information P1, the rating information for the violent scene indicates complete viewing permission (許可), and viewing restriction is not applied. On the other hand, for horror scenes and obscene scenes, the rating information indicates limited permission (O). As described above, if the viewing time is 30 minutes or less and the viewing frequency is 5 times or less, viewing is permitted. For a horror scene, the viewing time is 20 minutes, which is less than the 30 minute limit. The viewing frequency is 3 times and the limit of 5 times is not reached. Therefore, viewing restrictions are not yet applied to horror scenes. On the other hand, for an obscene scene, the viewing time is 1 hour, which exceeds the limit of 30 minutes, and the viewing frequency is 5 times, which is equal to the limit of 5 times. Therefore, viewing restrictions are imposed on the obscene scene, and the corresponding video is not displayed on the display unit 101. For the user information P2, a restricted permission (◯) is shown for the violence scene and the horror scene. For obscene scenes, a state (x) in which it cannot be completely viewed is shown. Regarding the violent scene, the viewing time is 30 minutes, which is equal to the limit of 30 minutes, and the viewing frequency is 3 times, which is less than the limit of 5 times. For the horror scene, the viewing time is 10 minutes, which is less than the limit of 30 minutes, and the viewing frequency is 2 times and does not reach the limit of 5 times. On the other hand, since the obscene scene shows a state (x) that cannot be completely viewed, the corresponding image is not displayed on the display unit 101.

視聴履歴解析部107による視聴履歴解析処理は、使用者判別部106から入力された使用者情報に対応する視聴履歴を読み取り、視聴時間と視聴頻度、レーティング情報を元に、各シーンにおいて視聴制限をかけるかどうかを判別し、その判別結果を視聴履歴解析情報として表示制御部102へ送る。使用者がP1の場合、前段の通りわいせつシーンのみに視聴制限をかけ表示を制限する事となる。   The viewing history analysis processing by the viewing history analysis unit 107 reads the viewing history corresponding to the user information input from the user determination unit 106, and restricts viewing in each scene based on the viewing time, viewing frequency, and rating information. It is determined whether or not to apply, and the determination result is sent to the display control unit 102 as viewing history analysis information. When the user is P1, as shown in the previous stage, viewing is restricted only to the obscene scene and the display is restricted.

次に、映像情報解析部108が抽出した映像解析情報の例について説明する。
図5は、映像解析情報の一例を示す図である。
映像解析情報は、前述のように映像のヘッダ情報の一部として記録されているものとし、ある映像コンテンツの映像データを形成するシーン毎に、そのシーンのシーン種別、開始時刻、及び終了時刻を含み、それらが対応付けられて形成された情報である。開始時刻、終了時刻は、映像コンテンツの特定の位置を基準とした時刻であり、ここでは、映像コンテンツの冒頭(00:00:00)を基準とする各シーンを形成する時刻である。
図5に示す例では、その映像データは、3個の制限シーンであるシーンA−Cを含み、シーンA、B、Cは、それぞれ冒頭から8、15、19分後に開始され、それぞれ2、4、2分継続する。シーンA、B、Cのシーン種別は、それぞれ「暴力シーン」、「ホラーシーン」、「わいせつシーン」である。
Next, an example of video analysis information extracted by the video information analysis unit 108 will be described.
FIG. 5 is a diagram illustrating an example of video analysis information.
As described above, the video analysis information is recorded as a part of the video header information. For each scene forming the video data of a video content, the scene type, start time, and end time of the scene are set. Information formed by associating them with each other. The start time and end time are times based on a specific position of the video content, and here are times when each scene is formed based on the beginning (00:00:00) of the video content.
In the example shown in FIG. 5, the video data includes scenes A to C, which are three restricted scenes, and scenes A, B, and C are started after 8, 15, and 19 minutes from the beginning, respectively, Continue for 4 or 2 minutes. The scene types of scenes A, B, and C are “violence scene”, “horror scene”, and “obscene scene”, respectively.

次に、図4に示す視聴履歴情報を基に、視聴履歴解析部107によって解析された現在の使用者に関する視聴履歴解析情報と、図5に示す映像解析情報に基づいて、表示制御部102が行う表示制御について、視聴者が使用者情報P1に係る使用者である場合を例にして説明する。
表示制御部102は、図5に示す映像解析情報から映像データが3個の制限シーンであるシーンA−Cを含み、シーンA−Cのシーン種別が、それぞれ暴力シーン、ホラーシーン、わいせつシーンであることを特定する。また、表示制御部102は、図4に示す視聴履歴情報を元に解析された視聴履歴解析情報を元に、わいせつシーンには視聴制限を行い、それ以外には視聴制限を行わない。従って、表示制御部102は、シーンAについて映像データを表示部101に出力する。
Next, based on the viewing history information shown in FIG. 4, the display control unit 102 performs the viewing history analysis information on the current user analyzed by the viewing history analysis unit 107 and the video analysis information shown in FIG. The display control to be performed will be described by taking as an example a case where the viewer is a user related to the user information P1.
The display control unit 102 includes scenes A to C whose video data is three restricted scenes from the video analysis information shown in FIG. 5, and the scene types of the scenes A to C are a violent scene, a horror scene, and an obscene scene, respectively. Identify that there is. In addition, the display control unit 102 performs viewing restriction on the obscene scene based on the viewing history analysis information analyzed based on the viewing history information illustrated in FIG. 4, and does not perform viewing restriction otherwise. Accordingly, the display control unit 102 outputs video data for the scene A to the display unit 101.

次に、本実施形態に係る視聴制御処理についてフローチャートを元に説明する。
図6は、本実施形態に係る視聴制御処理を示すフローチャートである。
(ステップS10)表示部101は、入力情報制御部103により所定の映像コンテンツを示す画像(例えば、アイコン)を表示する。表示部101は、使用者によるタッチセンサへの操作入力を受け付け、受け付けた位置を示す入力情報を入力情報制御部103に出力する。入力情報制御部103は、表示部101から入力された入力情報が示す位置が、表示部101に表示させた画像の表示領域に含まれるとき、その画像に対応する映像コンテンツや、その表示開始を示す機能制御情報を機能制御部104に出力する。その後、ステップS11に進む。
Next, viewing control processing according to the present embodiment will be described based on a flowchart.
FIG. 6 is a flowchart showing viewing control processing according to the present embodiment.
(Step S10) The display unit 101 causes the input information control unit 103 to display an image (for example, an icon) indicating predetermined video content. The display unit 101 receives an operation input to the touch sensor by the user, and outputs input information indicating the received position to the input information control unit 103. When the position indicated by the input information input from the display unit 101 is included in the display area of the image displayed on the display unit 101, the input information control unit 103 displays video content corresponding to the image and display start thereof. The function control information shown is output to the function control unit 104. Then, it progresses to step S11.

(ステップS11)入力情報制御部103から入力された機能制御情報が映像コンテンツの取得であった場合、機能制御部104は、通信制御部109を制御してコンテンツを取得する。これにより、通信制御部109は、ネットワークを介して機能制御情報で指示された映像コンテンツの映像データの取得を開始し、取得した映像データを記憶部110に記憶する。その後、ステップS12に進む。 (Step S11) When the function control information input from the input information control unit 103 is acquisition of video content, the function control unit 104 controls the communication control unit 109 to acquire the content. Thereby, the communication control unit 109 starts acquiring the video data of the video content instructed by the function control information via the network, and stores the acquired video data in the storage unit 110. Thereafter, the process proceeds to step S12.

(ステップS12)機能制御部104は、機能制御情報を映像撮影部105と表示制御部102に出力する。映像撮影部105は、機能制御部104から機能制御情報が入力されたとき、周囲の映像を撮影し、撮影した映像を示す撮影映像データを使用者判別部106に出力する。その後、ステップS13に進む。
(ステップS13)使用者判別部106は、記憶部110に予め記憶したリファレンスデータを参照して、映像撮影部105から入力された撮影映像データについて公知の画像処理技術を用いて撮影映像に表された使用者を判別する。その後、ステップS14に進む。
(ステップS14)使用者判別部106は、判別により使用者が特定されたか否かを判定し、使用者が特定された場合(ステップS14 YES)、使用者判別部106は、判別した使用者を示す使用者情報を視聴履歴解析部107に出力し、ステップS15に進む。使用者が特定できなかった場合(ステップS14 NO)、表示制御部102は、記憶部110から読み出された映像データを表示部101に出力し、ステップS17に進む。
(Step S12) The function control unit 104 outputs the function control information to the video photographing unit 105 and the display control unit 102. When the function control information is input from the function control unit 104, the image capturing unit 105 captures a surrounding image and outputs captured image data indicating the captured image to the user determination unit 106. Thereafter, the process proceeds to step S13.
(Step S13) The user determination unit 106 refers to the reference data stored in advance in the storage unit 110 and displays the captured video data input from the video imaging unit 105 in a captured video using a known image processing technique. Determine the user. Thereafter, the process proceeds to step S14.
(Step S14) The user determination unit 106 determines whether or not the user has been specified by the determination. If the user has been specified (YES in step S14), the user determination unit 106 determines the determined user. The user information shown is output to the viewing history analysis unit 107, and the process proceeds to step S15. When the user cannot be identified (NO in step S14), the display control unit 102 outputs the video data read from the storage unit 110 to the display unit 101, and proceeds to step S17.

(ステップS15)視聴履歴解析部107は、使用者判別部106から入力された使用者情報に対応する視聴履歴を、記憶部110から読み取る。視聴履歴解析部107は、読み取った視聴履歴について上述した視聴履歴解析処理を行い、視聴履歴解析情報を生成する。視聴履歴解析部107は、生成した視聴履歴情報を表示制御部102に出力する。その後、ステップS16に進む。 (Step S <b> 15) The viewing history analysis unit 107 reads the viewing history corresponding to the user information input from the user determination unit 106 from the storage unit 110. The viewing history analysis unit 107 performs the above-described viewing history analysis processing for the read viewing history, and generates viewing history analysis information. The viewing history analysis unit 107 outputs the generated viewing history information to the display control unit 102. Thereafter, the process proceeds to step S16.

(ステップS16)映像情報解析部108は、記憶部110から映像データを読み出し、読み出した映像データのヘッダ部に予め付加された映像解析情報を抽出する。
表示制御部102は、上述したように視聴履歴解析部107から入力された視聴履歴解析情報と、映像情報解析部108が抽出した映像解析情報に基づいて、記憶部110から読み出された映像データを形成するシーン毎に映像の表示を制限するか否かを判定する。制限しないと判定した場合、表示制御部102は、映像データを表示部101に出力する。制限すると判定した場合、表示制御部102は、映像データの表示部101への出力を停止する。その後、ステップS17に進む。
(ステップS17)表示部101は、表示制御部102から入力された映像データに基づく映像を表示する。その後、図6に示す処理を終了する。
(Step S16) The video information analysis unit 108 reads the video data from the storage unit 110, and extracts video analysis information added in advance to the header portion of the read video data.
As described above, the display control unit 102 reads the video data read from the storage unit 110 based on the viewing history analysis information input from the viewing history analysis unit 107 and the video analysis information extracted by the video information analysis unit 108. It is determined whether or not to limit the display of the video for each scene forming the image. If it is determined that there is no restriction, the display control unit 102 outputs the video data to the display unit 101. If it is determined to be limited, the display control unit 102 stops outputting the video data to the display unit 101. Thereafter, the process proceeds to step S17.
(Step S <b> 17) The display unit 101 displays a video based on the video data input from the display control unit 102. Thereafter, the process shown in FIG.

なお、上述では、通信制御部109がネットワークを経由して、機能制御情報により指示された映像データを取得する場合を例にしたが、これには限られない。記憶部110に予め記憶した映像データが機能制御情報により指示されてもよい。
また、上述では、有害シーンのシーン種別が、暴力シーン、ホラーシーン、わいせつシーンの3種類である場合を例にしたが、それ以外の種別のシーンが含まれてもよく、それぞれのシーンの名称もこれには限られない。有害シーンは、さらに詳細な分類に細分化されたものであってもよいし、視聴制限の対象となりうるシーンであれば、いかなる種類のものであってもよい。
In the above description, the communication control unit 109 obtains video data instructed by the function control information via the network. However, the present invention is not limited to this. Video data stored in advance in the storage unit 110 may be instructed by function control information.
In addition, in the above description, the case where the scene type of the harmful scene is the violent scene, the horror scene, and the obscene scene is taken as an example, but other types of scenes may be included. Is not limited to this. The harmful scene may be subdivided into more detailed classifications, or may be any kind of scene as long as it can be subject to viewing restrictions.

また、上述では、各1つのシーンについて1つのシーン種別が定められている場合を例にしたが、これには限られない。1つのシーンについて、複数のシーン種別が定められてもよい。表示制御部102は、それぞれのシーン種別について視聴制限の要否を判定し、視聴制限が必要と判定とされたシーン種別が1つでもある場合には、視聴制限を行う。
また、視聴履歴解析部107が視聴時間、視聴頻度を算出する際に、視聴時間、視聴頻度を累積するための期間が1ヶ月である場合を例にしたが、これよりも長くても、短くてもよい。この期間は、例えば、30分間でもよいし、期間の定めがなくてもよい。また、レーティング情報が、制限付き許可「○」である場合の許容範囲は、必ずしも視聴時間30分、視聴頻度5回に限られない。その視聴時間、視聴頻度は、使用者の状況、例えば、使用者の年齢や、過去の視聴履歴に応じて異なってもよい。例えば、使用者が未成年に達しない場合、年齢が低いほど許容範囲に係る視聴時間、視聴頻度は少なくてもよい。また、使用者の年齢が所定の年齢の閾値よりも低い場合には、レーティング情報は、完全に視聴できない状態(×)であってもよい。また、過去の視聴時間が多いほど、例えば、許容範囲に係る視聴時間、視聴頻度が少なくてもよい。また、使用者の視聴時間が所定の視聴時間の閾値よりも少ない場合、又は使用者の視聴頻度が所定の視聴頻度の閾値よりも少ない場合には、レーティング情報は、完全に視聴できない状態(×)であってもよい。これにより、使用者に応じて適切な制限条件とする事で、使用者に応じた視聴制限の管理をすることが可能となる。
In the above description, the case where one scene type is determined for each scene is described as an example. However, the present invention is not limited to this. A plurality of scene types may be defined for one scene. The display control unit 102 determines whether or not viewing restriction is necessary for each scene type, and performs viewing restriction when there is at least one scene type determined to require viewing restriction.
In addition, when the viewing history analysis unit 107 calculates the viewing time and the viewing frequency, an example is given in which the period for accumulating the viewing time and the viewing frequency is one month. May be. This period may be, for example, 30 minutes, or there may be no period. In addition, the allowable range when the rating information is limited permission “◯” is not necessarily limited to the viewing time of 30 minutes and the viewing frequency of 5 times. The viewing time and viewing frequency may differ according to the user's situation, for example, the age of the user and past viewing history. For example, when the user does not reach a minor, the viewing time and the viewing frequency related to the allowable range may be smaller as the age is lower. In addition, when the age of the user is lower than a predetermined age threshold, the rating information may be in a state where it cannot be completely viewed (x). In addition, as the past viewing time is larger, for example, the viewing time and the viewing frequency related to the allowable range may be smaller. If the viewing time of the user is less than a predetermined viewing time threshold, or if the viewing frequency of the user is less than the predetermined viewing frequency threshold, the rating information cannot be completely viewed (× ). Thereby, it becomes possible to manage viewing restrictions according to the user by setting appropriate restriction conditions according to the user.

また、上述では、レーティング情報が、制限付き許可「○」である場合、表示制御部102は、視聴時間又は視聴頻度が予め定めた許容範囲を超える場合に、その許容範囲を超えたことを示す情報を表示部101に表示させてもよい。また、表示制御部102は、その許容範囲を超えた場合、視聴履歴解析情報を、通信制御部109を介して予め設定した管理者の端末装置(図示せず)に送信してもよい。端末装置は、表示制御部102から通信制御部109を介して受信した視聴履歴解析情報を表示し、管理者の操作入力を受け付け、視聴を制限するか否かを示す機能制御情報を表示制御部102に送信する。そして、表示制御部102は、端末装置から受信した機能制御情報が視聴を制限しないことを示す場合、映像データを表示部101に出力し、機能制御情報が視聴を制限することを示す場合、映像データの出力を停止してもよい。これにより、管理者に視聴時間、視聴頻度が、許容範囲を超えたことが通知され、管理者が視聴履歴解析情報を参照して視聴を制限するか否かを判定することができる。端末装置への通知は、電子メール、専用のアプリケーションによる所定の形式のメッセージの送信でもよい。これにより、管理者は、使用者の過去の視聴履歴情報に基づいて、より詳細かつ柔軟に視聴制限の要否を的確に判断することができる。   In the above description, when the rating information is limited permission “◯”, the display control unit 102 indicates that the allowable range is exceeded when the viewing time or the viewing frequency exceeds the predetermined allowable range. Information may be displayed on the display unit 101. Further, when the allowable range is exceeded, the display control unit 102 may transmit the viewing history analysis information to a preset administrator terminal device (not shown) via the communication control unit 109. The terminal device displays the viewing history analysis information received from the display control unit 102 via the communication control unit 109, receives the operation input of the administrator, and displays the function control information indicating whether or not to limit the viewing. 102. When the function control information received from the terminal device indicates that viewing is not restricted, the display control unit 102 outputs video data to the display unit 101, and when the function control information indicates that viewing is restricted, Data output may be stopped. As a result, the administrator is notified that the viewing time and viewing frequency have exceeded the allowable range, and the administrator can determine whether or not to limit viewing by referring to the viewing history analysis information. The notification to the terminal device may be e-mail or transmission of a message in a predetermined format by a dedicated application. Thus, the administrator can accurately determine whether or not the viewing restriction is necessary in more detail and flexibly based on the user's past viewing history information.

また、上述では、映像解析情報が映像データのヘッダ部に予め格納されている場合を例にしたが、これには限られない。映像解析情報は、映像データと対応付けられていれば、記憶部110内で別個に配置されてもよい。また、映像情報解析部108が、記憶部110から読み出した映像データを解析して、シーンを判別してもよい。映像データの解析において、映像情報解析部108は、例えば、特許文献2に記載のショット検出を用いてもよい。   In the above description, the case where the video analysis information is stored in advance in the header portion of the video data is taken as an example, but the present invention is not limited to this. The video analysis information may be separately arranged in the storage unit 110 as long as it is associated with the video data. Further, the video information analysis unit 108 may analyze the video data read from the storage unit 110 to determine the scene. In the analysis of video data, the video information analysis unit 108 may use shot detection described in Patent Document 2, for example.

以上、説明したように、本実施形態に係る映像表示装置100は、映像コンテンツを表示する表示部101と、撮影映像を入力する映像撮影部105と、撮影映像に基づいて使用者を判別する使用者判別部106を備える。また、映像表示装置100は、使用者が視聴した映像コンテンツと区間とを含む視聴履歴及び映像コンテンツに含まれるシーン毎の種別に基づいて、前記使用者が指示した映像コンテンツを、当該映像コンテンツを形成する部分(例えば、シーン)毎に表示するか否かを制御する。
この構成により、使用者の過去の視聴履歴を参照する事により、視聴履歴に応じてより詳細な視聴制限に係る制御を行うことができる。例えば、映像全体としては視聴が許可された映像コンテンツであっても、その一部の有害なシーンの視聴を制限し、その他のシーンの視聴を許可することができる。ひいては、視聴制限を行うべき使用者に対して影響を与えるおそれがあるシーンに偏った視聴、例えば、特定の有害なシーンを繰り返し視聴する、といったことを制限する事が可能となる。
As described above, the video display device 100 according to the present embodiment uses the display unit 101 that displays video content, the video shooting unit 105 that inputs captured video, and the use for determining the user based on the captured video. A person determination unit 106 is provided. Further, the video display device 100 converts the video content instructed by the user into the video content based on the viewing history including the video content viewed by the user and the section and the type of each scene included in the video content. Whether or not to display for each part (for example, scene) to be formed is controlled.
With this configuration, by referring to the user's past viewing history, it is possible to perform control related to more detailed viewing restrictions according to the viewing history. For example, even if the video content is permitted to be viewed as a whole video, viewing of some harmful scenes can be restricted and viewing of other scenes can be permitted. As a result, it is possible to limit viewing that is biased to scenes that may affect the user to whom viewing is to be restricted, such as repeatedly viewing specific harmful scenes.

(第2の実施形態)
次に、本発明の第2の実施形態について、図面を参照しながら説明する。上述した実施形態と同一の構成については、同一の符号を付して説明を援用する。
図7は、本実施形態に係る映像表示装置200の構成を示すブロック図である。
映像表示装置200は、映像データに基づいて映像を表示する機能を有する電子機器(例えば、タブレット端末装置)である。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to the drawings. About the same structure as embodiment mentioned above, the same code | symbol is attached | subjected and description is used.
FIG. 7 is a block diagram showing a configuration of the video display apparatus 200 according to the present embodiment.
The video display device 200 is an electronic device (for example, a tablet terminal device) having a function of displaying video based on video data.

映像表示装置200は、CPU及び記憶装置を備え、CPUは、記憶装置に記憶されているプログラムを実行することにより、表示部101、表示制御部203、入力情報制御部103、機能制御部104、映像撮影部105、使用者判別部201、視聴状況解析部202、視聴履歴解析部107、映像情報解析部108、及び通信制御部109の一部又は全部の機能を実現する。記憶部110は、上述した記憶装置により構成される。   The video display device 200 includes a CPU and a storage device. The CPU executes a program stored in the storage device, whereby the display unit 101, the display control unit 203, the input information control unit 103, the function control unit 104, A part or all of the functions of the video photographing unit 105, the user discriminating unit 201, the viewing state analyzing unit 202, the viewing history analyzing unit 107, the video information analyzing unit 108, and the communication control unit 109 are realized. The storage unit 110 includes the storage device described above.

使用者判別部201は、使用者判別部106(図1)と同様に映像撮影部105から入力された撮影映像データが表す顔領域を検出し、検出した顔領域に表される使用者を判別する。使用者判別部201は、判別した使用者を示す使用者情報を視聴履歴解析部107へ出力する。また、使用者判別部201は、映像撮影部105から入力された撮影映像データと、使用者情報と検出した顔領域ごとの特徴量データを視聴状況解析部202に出力する。   The user discriminating unit 201 detects the face area represented by the captured video data input from the video imaging unit 105 in the same manner as the user discriminating unit 106 (FIG. 1), and discriminates the user represented by the detected face area. To do. The user determination unit 201 outputs user information indicating the determined user to the viewing history analysis unit 107. In addition, the user determination unit 201 outputs the captured video data input from the video imaging unit 105, user information, and feature amount data for each detected face area to the viewing state analysis unit 202.

視聴状況解析部202は、使用者判別部201から入力された撮影映像データと使用者情報と検出した顔領域ごとに特徴量データに基づいて視聴状況を解析する。視聴状況とは、例えば、映像表示装置200の使用者や使用者の周囲に使用者以外の人物の有無、使用者や使用者以外の人物の属性(年齢等)、各時点において使用者や使用者以外の人物が表示部101に表示された映像を視聴しているか否かである。視聴状況解析部202は、解析した視聴状況を示す視聴状況情報を表示制御部203に出力する。視聴状況解析処理については、後述する。   The viewing status analysis unit 202 analyzes the viewing status based on the feature data for each of the captured video data and user information input from the user determination unit 201 and each detected face area. The viewing status refers to, for example, the presence or absence of a person other than the user around the user of the video display device 200 or the user, the attributes (such as age) of the person other than the user or the user, and the user or use at each time point. Whether or not a person other than the user is viewing the video displayed on the display unit 101. The viewing status analysis unit 202 outputs viewing status information indicating the analyzed viewing status to the display control unit 203. The viewing situation analysis process will be described later.

表示制御部203には、視聴履歴解析部107から視聴履歴解析情報が入力され、映像情報解析部108から映像解析情報及び映像データが入力され、視聴状況解析部202から視聴状況情報が入力され、機能制御部104から機能制御情報が入力される。表示制御部203は、視聴履歴情報と、映像情報解析情報と、さらに視聴状況情報に基づいて、映像データを形成するシーン毎に映像の表示を制限するか否かを判定する。例えば、視聴状況情報が、主たる使用者(以下、単に「使用者」と呼ぶことがある)以外の他の使用者(以下、単に「人物」と呼ぶことがある)が存在し、その人物の年齢が所定の年齢制限(例えば、18歳未満)に該当する場合、表示制御部203は、映像の表示を制限すると判定する。   Viewing history analysis information is input to the display control unit 203 from the viewing history analysis unit 107, video analysis information and video data are input from the video information analysis unit 108, and viewing status information is input from the viewing status analysis unit 202. Function control information is input from the function control unit 104. The display control unit 203 determines whether to limit the display of the video for each scene forming the video data based on the viewing history information, the video information analysis information, and the viewing status information. For example, there is a user other than the main user (hereinafter sometimes simply referred to as “user”) in the viewing status information, and the person's When the age corresponds to a predetermined age limit (for example, less than 18 years old), the display control unit 203 determines to limit the display of the video.

制限しないと判定した場合、表示制御部203は、映像データを表示部101に出力して、その映像を表示させる。制限すると判定した場合、表示制御部203は、映像データの表示部101への出力を停止することにより、その映像の表示を停止する。
表示制御部203は、視聴状況解析部202から入力された視聴状況情報とコンテンツ識別情報を視聴履歴保存部204に出力する。コンテンツ識別情報は、表示部101に表示させた映像コンテンツ、つまり、その映像データを一意に識別する情報である。表示制御部203が行う表示制御については、後述する。
If it is determined that there is no restriction, the display control unit 203 outputs the video data to the display unit 101 to display the video. If it is determined to be limited, the display control unit 203 stops the display of the video by stopping the output of the video data to the display unit 101.
The display control unit 203 outputs the viewing status information and content identification information input from the viewing status analysis unit 202 to the viewing history storage unit 204. The content identification information is information for uniquely identifying the video content displayed on the display unit 101, that is, the video data. The display control performed by the display control unit 203 will be described later.

視聴履歴保存部204は、表示制御部203から視聴状況情報及びコンテンツ識別情報が入力される。視聴履歴保存部204は、視聴状況情報によって使用者、あるいはそれ以外の人物のうち、使用者判別部201によって人物が特定できた場合、すなわち使用者情報が判別できた場合に、使用者情報毎に視聴時間とコンテンツ識別情報を対応付けて視聴履歴情報を生成、あるいは既に存在している視聴履歴情報を更新する。視聴履歴保存部204は、視聴履歴情報を記憶部110に記憶する。これにより、使用者情報として人物が特定できた場合、その人物が現実に映像を視聴していた視聴時間を示す視聴履歴情報が取得されるので、より実態に即した視聴時間、視聴頻度を得ることができるので、的確な視聴制限を行うことができる。   The viewing history storage unit 204 receives viewing status information and content identification information from the display control unit 203. The viewing history storage unit 204 determines each user information when the user or other person can be identified by the user discrimination unit 201 based on the viewing status information, that is, when the user information can be identified. The viewing history information is generated by associating the viewing time with the content identification information, or the existing viewing history information is updated. The viewing history storage unit 204 stores the viewing history information in the storage unit 110. As a result, when a person can be specified as user information, viewing history information indicating the viewing time during which the person has actually watched the video is acquired. Therefore, viewing time and viewing frequency that are more realistic are obtained. Therefore, accurate viewing restriction can be performed.

次に、本実施形態に係る映像表示装置200の利用状況について説明する。
図8は、本実施形態に係る映像表示装置200の利用状況の一例を示す概念図である。
図8に示す例では、映像表示装置200は、タブレット端末であり、使用者I111の手で保持されている。使用者I111は、表示部101に表示される映像を注視し、使用者I111の顔の中心部は、表示部101の中心部に対向した位置にある。また、使用者I111に対して右後方には、人物I205が映像撮影部105の画角内に所在し、表示部101に表示される映像を注視している。
Next, the usage status of the video display apparatus 200 according to the present embodiment will be described.
FIG. 8 is a conceptual diagram showing an example of the usage status of the video display apparatus 200 according to the present embodiment.
In the example shown in FIG. 8, the video display device 200 is a tablet terminal and is held by the user I111. The user I111 gazes at the video displayed on the display unit 101, and the center of the face of the user I111 is at a position facing the center of the display unit 101. Further, on the right rear side with respect to the user I111, the person I205 is located within the angle of view of the video photographing unit 105, and the video displayed on the display unit 101 is watched.

次に、図8に示す利用シーンにおいて、映像撮影部105が取得した撮影映像の例と、視聴状況解析部202による視聴状況解析処理の例について説明する。
図9は、撮影映像の一例(撮影映像I206)を示す図である。
撮影映像I206は、使用者I111、人物I205の正面の姿を表す映像である。破線で示す矩形の領域I207は、使用者判別部201により検出された顔領域である。
使用者判別部201(図7)は、顔領域の検出処理によって、撮影映像I206から顔領域I113、I207を検出する。使用者判別部201は、検出した顔領域I113、I207のうち大きい方であって、かつ、より中心部に近接した顔領域I113に表されている顔の人物が、使用者であり、その他の顔領域I207に表されている顔の人物が、使用者以外の人物であると判別してもよい。使用者は、通例、手で映像表示装置200を、自身に向けながら所持するので、使用者の顔が映像表示装置200から最も近く、最も中心部に表されるためである。
Next, in the usage scene illustrated in FIG. 8, an example of a captured video acquired by the video capturing unit 105 and an example of a viewing situation analysis process by the viewing situation analysis unit 202 will be described.
FIG. 9 is a diagram illustrating an example of a captured video (captured video I206).
The captured video I206 is a video representing the front view of the user I111 and the person I205. A rectangular area I207 indicated by a broken line is a face area detected by the user determination unit 201.
The user discriminating unit 201 (FIG. 7) detects the face areas I113 and I207 from the captured video I206 by the face area detection process. The user discriminating unit 201 is a person whose face is represented by the face area I113 which is the larger one of the detected face areas I113 and I207 and is closer to the center. It may be determined that the person of the face represented in the face area I207 is a person other than the user. This is because the user usually holds the video display device 200 by hand while facing the user, so that the user's face is closest to the video display device 200 and is represented most centrally.

次に、視聴状況解析部202が行う視聴状況解析処理について説明する。
視聴状況解析部202は、使用者判別部201から入力された使用者情報が示す使用者以外の人物が存在することを示す場合、その人物の顔を示す顔領域内の映像データについて、公知の画像処理技術を用いてその人物の年齢を推定する。
例えば、記憶部110には、各顔器官の特徴点の位置関係を示す特徴データにおいて、年齢毎に傾向を分類したリファレンスデータを予め記憶させておく。視聴状況解析部202は、顔領域内の映像データから各顔器官の特徴点を検出し、検出された特徴点の位置関係と、年齢毎の特徴データが示す特徴点の位置関係との一致度を算出し、一致度が最も高い年齢を定める。なお、ここでは顔器官の特徴データを使用するとしたが、これに限定する物ではなく顔サイズや肌など、これ以外の情報を利用して判別してもよい。
Next, viewing state analysis processing performed by the viewing state analysis unit 202 will be described.
When the viewing situation analysis unit 202 indicates that there is a person other than the user indicated by the user information input from the user determination unit 201, the viewing state analysis unit 202 performs publicly known video data in the face area indicating the face of the person. Estimate the age of the person using image processing techniques.
For example, in the storage unit 110, reference data in which trends are classified for each age in the feature data indicating the positional relationship between the feature points of each facial organ is stored in advance. The viewing situation analysis unit 202 detects the feature points of each facial organ from the video data in the face area, and the degree of coincidence between the positional relationship of the detected feature points and the positional relationship of the feature points indicated by the feature data for each age To determine the age with the highest degree of matching. Although the feature data of the facial organ is used here, it is not limited to this, and it may be determined using other information such as the face size and skin.

また、視聴状況解析部202は、公知の画像処理技術を用いて、顔領域内の映像データから検出した各顔器官の特徴点を利用し、検出された特徴点の位置関係に基づいて顔の向きを算出する。視聴状況解析部202は、算出した方向と表示部101の画像表示面の法線方向とのなす角度が、予め定めた角度の閾値よりも小さいとき、映像を注視していると判定し、そのなす角度が、予め定めた角度の閾値以上のとき、映像を注視していないと判定する。
図9に示す例では、視聴状況解析部202は、視聴状況として、使用者I111の周囲近傍に人物I205がいること、人物I205の年齢、使用者I111、人物I205のそれぞれが映像を注視しているか否かを示す視聴状況情報を生成する。視聴状況解析部202は、生成した視聴状況情報を表示制御部203に出力する。
Also, the viewing state analysis unit 202 uses the feature points of each facial organ detected from the video data in the face region using a known image processing technique, and based on the positional relationship between the detected feature points, Calculate the orientation. When the angle between the calculated direction and the normal direction of the image display surface of the display unit 101 is smaller than a predetermined angle threshold, the viewing state analysis unit 202 determines that the video is being watched, and When the angle formed is equal to or greater than a predetermined angle threshold, it is determined that the video is not being watched.
In the example illustrated in FIG. 9, the viewing state analysis unit 202 indicates that the person I205 is in the vicinity of the user I111 as the viewing state, the age of the person I205, the user I111, and the person I205 gaze at the video. Viewing status information indicating whether or not there is is generated. The viewing status analysis unit 202 outputs the generated viewing status information to the display control unit 203.

次に、表示制御部203における映像の表示の制御例について説明する。
例えば、図9に示す使用者I111が、図4に示す使用者P1であって、視聴状況情報が使用者I111以外の人物が検出されていないことを示すとき、表示しようとする映像データのシーンが暴力シーンであれば、映像の表示を制限しないと判定する。
また、上述において、視聴状況情報が、人物I205が検出され、人物I205の年齢が所定の年齢の閾値(例えば、18歳)よりも低く、かつ、人物I205が映像を注視していることを示すとき、映像の表示を制限すると判定する。
また、上述において、視聴状況情報が、人物I205が検出され、人物I205の年齢が所定の年齢の閾値よりも低く、かつ、人物I205が映像を注視していないことを示すとき、映像の表示を制限しないと判定する。
Next, an example of video display control in the display control unit 203 will be described.
For example, when the user I111 shown in FIG. 9 is the user P1 shown in FIG. 4 and the viewing status information indicates that no person other than the user I111 is detected, the scene of the video data to be displayed is displayed. If is a violent scene, it is determined that the display of the video is not restricted.
In the above description, the viewing status information indicates that the person I205 is detected, the age of the person I205 is lower than a predetermined age threshold (for example, 18 years old), and the person I205 is watching the video. It is determined that the display of the video is restricted.
In the above description, when the viewing status information indicates that the person I205 is detected, the age of the person I205 is lower than a predetermined age threshold, and the person I205 is not gazing at the video, the video display is performed. Judge that there is no limit.

なお、映像の表示を制限するか否かを判定する際の、使用者以外の人物の年齢の閾値は、管理者や使用者の操作入力に応じて任意に設定可能であってよい。
このように、表示制御部203は、使用者以外の人物に関する情報である、使用者の周囲の人物の有無、その人物に対して推定される年齢や映像を注視しているか否かに応じて、映像の表示を制限するか否かを判定する。これにより、使用者以外の人物が存在し、使用者情報が特定できず、視聴履歴やレーティング情報が不明な場合であっても、その人物が制限シーンを含む映像の視聴を制限すべき年齢か否か、映像表示装置200を注視しているか否かにより、その映像の表示に制限をかけるか否かを制御することが可能となる。
Note that the age threshold of a person other than the user when determining whether or not to limit the display of the video may be arbitrarily set according to an operation input by the administrator or the user.
As described above, the display control unit 203 is information related to a person other than the user, depending on whether or not there is a person around the user, whether the person is watching the estimated age or video for the person. Then, it is determined whether or not to restrict the display of the video. As a result, even if there is a person other than the user, the user information cannot be specified, and even if the viewing history and rating information are unknown, the person should be at an age at which viewing of the video including the restricted scene should be restricted. Whether or not to limit the display of the video can be controlled depending on whether or not the video display device 200 is being watched.

次に、 本実施形態に係る視聴制御処理について説明する。
図10は、本実施形態に係る視聴制御処理を示すフローチャートである。
但し、ステップS20、S21、S22、S25、S28は、ステップS10、S11、S12、S15、S17(図6)と、それぞれ同様であるため、説明を割愛する。
ステップS20〜S22の処理が終了した後、ステップS23に進む。
Next, viewing control processing according to the present embodiment will be described.
FIG. 10 is a flowchart showing viewing control processing according to the present embodiment.
However, Steps S20, S21, S22, S25, and S28 are the same as Steps S10, S11, S12, S15, and S17 (FIG. 6), respectively, and will not be described.
After the processing of steps S20 to S22 is completed, the process proceeds to step S23.

(ステップS23)使用者判別部201は、使用者判別部106(図1)と同様に映像撮影部105から入力された映像データが表す顔領域を検出し、検出した顔領域に表される使用者を判別する。使用者判別部201は、複数の顔領域を検出した場合、検出した顔領域のうち最も映像の中心部に近く、最も大きい顔領域に係る人物を使用者と判定し、それ以外の顔領域に係る人物を使用者以外の人物と判定する。使用者判別部201は、判別した使用者と使用者以外の人物(判別できた場合のみ)を示す使用者情報を視聴履歴解析部107と視聴状況解析部202に出力する。また、使用者判別部201は、映像撮影部105から入力された映像データを視聴状況解析部202に出力する。その後、ステップS24に進む。 (Step S23) Similar to the user determination unit 106 (FIG. 1), the user determination unit 201 detects the face area represented by the video data input from the video photographing unit 105, and the use represented in the detected face area. Determine who is. When a plurality of face areas are detected, the user determination unit 201 determines that the person in the detected face area closest to the center of the video and that has the largest face area is the user, and sets other face areas as the other face areas. The person concerned is determined to be a person other than the user. The user determination unit 201 outputs user information indicating the determined user and a person other than the user (only when it is determined) to the viewing history analysis unit 107 and the viewing state analysis unit 202. In addition, the user determination unit 201 outputs the video data input from the video shooting unit 105 to the viewing state analysis unit 202. Thereafter, the process proceeds to step S24.

(ステップS24)使用者判別部201は、使用者が特定された場合(ステップS24 YES)、使用者情報を視聴履歴解析部107に出力し、ステップS25、S26に進む。ステップS25、S26の処理は、並列に実行されてもよい。使用者が特定できなかった場合(ステップS24 NO)、表示制御部203は、記憶部110から読み出された映像データを表示部101に出力し、ステップS28に進む。
(ステップS26)視聴状況解析部202は、使用者判別部201から入力された映像データと使用者情報に基づいて視聴状況を解析する。視聴状況解析部202は、解析した視聴状況を示す視聴状況情報を表示制御部203に出力する。ステップS25、S26の処理がいずれも終了した後、ステップS27に進む。
(Step S24) When the user is specified (YES in Step S24), the user determination unit 201 outputs the user information to the viewing history analysis unit 107, and proceeds to Steps S25 and S26. The processes of steps S25 and S26 may be executed in parallel. When the user cannot be specified (NO in step S24), the display control unit 203 outputs the video data read from the storage unit 110 to the display unit 101, and proceeds to step S28.
(Step S <b> 26) The viewing situation analysis unit 202 analyzes the viewing situation based on the video data and user information input from the user determination unit 201. The viewing status analysis unit 202 outputs viewing status information indicating the analyzed viewing status to the display control unit 203. After the processes of steps S25 and S26 are completed, the process proceeds to step S27.

(ステップS27)表示制御部203は、視聴履歴解析部107からの視聴履歴情報と、映像情報解析部108からの映像情報解析情報と、さらに視聴状況解析部202から視聴状況情報に基づいて、映像データを形成するシーン毎に映像の表示を制限するか否かを判定する。制限しないと判定した場合、表示制御部203は、映像データを表示部101に出力して、その映像を表示させる。制限すると判定した場合、表示制御部203は、映像データの表示部101への出力を停止することにより、その映像の表示を停止する。その後、ステップS28に進み、ステップS28の処理が終了した後、ステップS29に進む。 (Step S27) The display control unit 203 performs video based on the viewing history information from the viewing history analysis unit 107, the video information analysis information from the video information analysis unit 108, and the viewing status information from the viewing status analysis unit 202. It is determined whether or not video display is restricted for each scene that forms data. If it is determined that there is no restriction, the display control unit 203 outputs the video data to the display unit 101 to display the video. If it is determined to be limited, the display control unit 203 stops the display of the video by stopping the output of the video data to the display unit 101. Then, it progresses to step S28, and after the process of step S28 is complete | finished, it progresses to step S29.

(ステップS29)視聴履歴保存部204は、表示制御部203から視聴状況情報及びコンテンツ識別情報が入力される。視聴履歴保存部204は、視聴状況情報が示す使用者、あるいは、それ以外の人物のうち、使用者判別部201によって特定できた場合に、使用者情報毎に視聴時間とコンテンツ識別情報を対応付けて視聴履歴情報を生成、あるいは既に存在している視聴履歴情報を更新する。視聴履歴保存部204は、生成した視聴履歴情報を使用者情報と対応付けて記憶部110に記憶する。その後、図10に示す処理を終了する。 (Step S29) The viewing history storage unit 204 receives viewing status information and content identification information from the display control unit 203. The viewing history storage unit 204 associates the viewing time with the content identification information for each user information when the user identified by the viewing status information or the other person can be identified by the user discrimination unit 201. The viewing history information is generated or the existing viewing history information is updated. The viewing history storage unit 204 stores the generated viewing history information in the storage unit 110 in association with user information. Then, the process shown in FIG. 10 is complete | finished.

なお、視聴状況解析部202は、視聴状況として使用者以外の人物の年齢を推定する他、その人物の顔領域に対して公知の画像処理技術を用いてその人物を識別してもよい。表示制御部203は、その人物についての視聴履歴情報から解析された視聴履歴解析情報に基づいて映像の表示の有無を制御してもよい。
視聴状況解析部202は、認識した顔の大きさに応じて、その人物までの距離を算出してもよいし、赤外線センサ、その他のセンサを備え、センサが検出した人物の距離を計測してもよい。視聴状況解析部202は、計測した距離を視聴状況情報に含め、表示制御部203は、その人物の距離が所定の距離よりも大きいか否かにより、映像の表示の有無を制御してもよい。これにより、映像表示装置200に近接した人物によっては、その年齢その他の条件により視聴制限をかけることができ、映像表示装置200から離れた人物によって視聴制限が行われない。そのため、表示されている映像コンテンツを視認できない遠距離の人物により視聴制限の有無が左右される事がなくなるため、主たる使用者は、映像の視聴を快適に行うことができる。
Note that the viewing state analysis unit 202 may estimate the age of a person other than the user as the viewing state, and may identify the person using a known image processing technique for the face area of the person. The display control unit 203 may control the presence / absence of video display based on viewing history analysis information analyzed from viewing history information about the person.
The viewing state analysis unit 202 may calculate the distance to the person according to the recognized face size, or may include an infrared sensor and other sensors to measure the distance of the person detected by the sensor. Also good. The viewing status analysis unit 202 includes the measured distance in the viewing status information, and the display control unit 203 may control whether or not to display a video depending on whether or not the distance of the person is greater than a predetermined distance. . Thereby, depending on the person in the vicinity of the video display device 200, viewing restrictions can be imposed depending on the age and other conditions, and viewing restrictions are not performed by a person away from the video display device 200. Therefore, the presence or absence of the viewing restriction is not affected by a long-distance person who cannot visually recognize the displayed video content, so that the main user can comfortably view the video.

また、視聴状況解析部202は、識別した人物の顔の向きに代え、視線の方向に基づいて、その人物が表示されている映像を注視しているか否かを判定してもよい。視聴状況解析部202は、視線の方向を検出する手法として、映像撮影部105により撮影した可視光の映像から使用者の目頭と虹彩と位置関係を解析する手法、赤外線照射部を用いて使用者に赤外線を照射し、映像撮影部105により取得した画像に表された瞳孔及び眼球の表面に現れた光源の像(プルキニエ像)との位置関係を利用する手法、使用者に装着した専用の機器(例えば、眼電位センサを備えたデバイス)により視線検出を行う手法、等を用いてもよい。   Also, the viewing state analysis unit 202 may determine whether or not the video displaying the person is being watched based on the direction of the line of sight instead of the orientation of the face of the identified person. The viewing state analysis unit 202 detects the direction of the line of sight as a method of analyzing the positional relationship between the user's eye and iris from the visible light image captured by the image capturing unit 105, and the user using the infrared irradiation unit. Infrared rays are irradiated, and a method using the positional relationship between the pupil shown in the image acquired by the video photographing unit 105 and the image of the light source (Purkinje image) appearing on the surface of the eyeball, a dedicated device attached to the user For example, a method of detecting a line of sight using a device including an electrooculogram sensor may be used.

上述したように、本実施形態に係る映像表示装置200は、さらに撮影映像に基づいて判別された使用者による自装置(映像表示装置200)の視聴状況を解析する視聴状況解析部202を備える。また、表示制御部203は、さらに視聴状況に基づいて表示の要否を制御する。この構成により、使用者の視聴状況に応じて、映像コンテンツの視聴制限を制御することができる。
また、視聴状況は、使用者判別部が判別した一使用者とは異なる他使用者に関する視聴状況を含む。この構成により、映像コンテンツを視聴している一使用者とは異なる他使用者の視聴状況もさらに考慮して、映像コンテンツの視聴制限を制御することができる。
As described above, the video display device 200 according to the present embodiment further includes the viewing status analysis unit 202 that analyzes the viewing status of the user's own device (video display device 200) determined based on the captured video. Further, the display control unit 203 further controls whether display is necessary based on the viewing situation. With this configuration, viewing restrictions on video content can be controlled according to the viewing situation of the user.
The viewing situation includes a viewing situation related to another user different from the one user determined by the user determination unit. With this configuration, it is possible to control the viewing restriction of the video content in consideration of the viewing situation of another user who is different from the one user who is viewing the video content.

例えば、成人である一使用者が、未成年者に対して視聴制限が付されている映像コンテンツを視聴している場合であって、未成年者である他の使用者が、映像表示装置200の近傍で向いているとき、表示制御部203は、その映像コンテンツの表示を停止する。他の使用者が、映像表示装置200から離れているときや、映像表示装置200に向いていない場合には、表示制御部203は、その映像コンテンツの表示を維持する。よって、他の使用者がその映像コンテンツを視聴していない限り、映像コンテンツの表示が維持され、一使用者による映像コンテンツの視聴に対する妨害が軽減される。従って、一使用者は、より快適に映像コンテンツを視聴することができる。   For example, when a user who is an adult is viewing video content with viewing restrictions on minors, another user who is a minor can view the video display device 200. The display control unit 203 stops displaying the video content. When another user is away from the video display device 200 or is not suitable for the video display device 200, the display control unit 203 maintains the display of the video content. Therefore, as long as other users are not viewing the video content, the display of the video content is maintained, and interference with viewing of the video content by one user is reduced. Therefore, one user can view the video content more comfortably.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。上述した実施形態と同一の構成については、同一の符号を付して説明を援用する。
図11は、本実施形態に係る映像表示装置300の構成を示すブロック図である。
映像表示装置300は、映像データに基づいて映像を表示する機能を有する電子機器(例えば、スマートフォン)である。
(Third embodiment)
Next, a third embodiment of the present invention will be described. About the same structure as embodiment mentioned above, the same code | symbol is attached | subjected and description is used.
FIG. 11 is a block diagram illustrating a configuration of the video display apparatus 300 according to the present embodiment.
The video display device 300 is an electronic device (for example, a smartphone) having a function of displaying video based on video data.

映像表示装置300は、CPU及び記憶装置を備え、CPUは、記憶装置に記憶されているプログラムを実行することにより、表示部101、表示制御部102、入力情報制御部103、機能制御部104、映像撮影部105、使用者判別部301、視聴履歴解析部107、映像情報解析部302及び通信制御部109の一部又は全部の機能を実現する。記憶部110は、上述した記憶装置により構成される。   The video display device 300 includes a CPU and a storage device, and the CPU executes a program stored in the storage device, whereby the display unit 101, the display control unit 102, the input information control unit 103, the function control unit 104, A part or all of the functions of the video photographing unit 105, the user discriminating unit 301, the viewing history analyzing unit 107, the video information analyzing unit 302, and the communication control unit 109 are realized. The storage unit 110 includes the storage device described above.

映像情報解析部302は、記憶部110から、通信制御部109によって新たに記憶された映像データを読み出し、読み出した映像データを解析して映像コンテンツ全体を細分化した区間であるシーンを判別する。映像情報解析部302は、映像データの解析において、例えば、特許文献2に記載のショット検出を行い、検出したショットのそれぞれをシーンと定めてもよい。   The video information analysis unit 302 reads the video data newly stored by the communication control unit 109 from the storage unit 110, analyzes the read video data, and determines a scene that is a section obtained by subdividing the entire video content. In the analysis of video data, the video information analysis unit 302 may perform shot detection described in Patent Document 2, for example, and determine each detected shot as a scene.

映像情報解析部302は、各シーンを形成する映像データから代表画像を定める。代表画像は、そのシーンを形成する画像のうち代表的な画像、例えば、そのシーンの開始時刻と終了時刻との中間の時刻におけるフレーム画像である。映像情報解析部302は、解析した各シーンを示す映像解析情報と、各シーンの代表画像を示す代表画像信号を、その映像データに対応づけて記憶部110に記憶する。
なお、映像データに各シーンを示す映像解析情報が予め含まれている場合には、映像情報解析部302は、映像データを解析する処理を省略してもよい。
The video information analysis unit 302 determines a representative image from video data forming each scene. The representative image is a representative image among images forming the scene, for example, a frame image at a time intermediate between the start time and the end time of the scene. The video information analysis unit 302 stores video analysis information indicating each analyzed scene and a representative image signal indicating a representative image of each scene in the storage unit 110 in association with the video data.
Note that if the video data includes video analysis information indicating each scene in advance, the video information analysis unit 302 may omit the process of analyzing the video data.

使用者判別部301は、使用者判別部106(図1)と同様に映像撮影部105から入力された撮影映像データが表す顔領域を検出し、検出した顔領域に表される使用者を判別する。使用者判別部301は、判別した使用者を示す使用者情報を視聴履歴解析部107に出力し、記憶部110に記憶する。   The user discriminating unit 301 detects the face area represented by the captured video data input from the video imaging unit 105 in the same manner as the user discriminating unit 106 (FIG. 1), and discriminates the user represented by the detected face area. To do. The user determination unit 301 outputs user information indicating the determined user to the viewing history analysis unit 107 and stores it in the storage unit 110.

通信制御部109は、使用者判別部301により記憶された使用者情報、映像情報解析部302により記憶された映像解析情報及び各シーンの代表画像信号を記憶部110から読み取り、読み取った使用者情報、映像解析情報及び代表画像信号を管理者が使用する機器(管理者機器、図示せず)に送信する。通信制御部109は、さらに、その使用者情報に対応する視聴履歴解析情報、その使用者の顔画像を示す撮影映像データを管理者機器に送信してもよい。   The communication control unit 109 reads the user information stored by the user determination unit 301, the video analysis information stored by the video information analysis unit 302, and the representative image signal of each scene from the storage unit 110, and the read user information. The video analysis information and the representative image signal are transmitted to a device used by the administrator (administrator device, not shown). The communication control unit 109 may further transmit viewing history analysis information corresponding to the user information and captured video data indicating the face image of the user to the administrator device.

管理者とは、使用者毎の視聴制限に係るレーティング情報を管理する人物である。例えば、視聴制限の対象となる使用者が未成年者である場合には、管理者は、その使用者の保護者である。管理者機器は、例えば、管理者自身が所持または主に使用する機器である。管理者機器は、映像表示装置300との間でデータの送受信を行う通信制御部と、受信した使用者情報、映像解析情報及び代表画像信号が示す代表画像を表示する表示部と、管理者からの操作入力を受け付ける操作入力部を少なくとも備える電子機器、例えば、スマートフォン、タブレット端末装置、等である。管理者機器は、映像表示装置300と同様な構成であってもよい。以下、後段で説明する管理者機器である映像表示装置303が、映像表示装置300と同様の構成である場合を例にして説明する。   An administrator is a person who manages rating information related to viewing restrictions for each user. For example, when the user who is subject to viewing restrictions is a minor, the administrator is the guardian of the user. The administrator device is, for example, a device possessed by or mainly used by the administrator. The administrator device includes a communication control unit that transmits and receives data to and from the video display device 300, a display unit that displays the received user information, video analysis information, and the representative image indicated by the representative image signal, and the administrator An electronic device including at least an operation input unit that accepts the operation input, such as a smartphone or a tablet terminal device. The administrator device may have the same configuration as the video display device 300. Hereinafter, a case where the video display device 303 which is an administrator device described later will have the same configuration as the video display device 300 will be described as an example.

映像表示装置300における記憶部110には、個々の使用者の使用者情報と、管理者が利用する映像表示装置303に係る機器情報とを含み、これらを対応付けて形成された管理者データを予め記憶させておく。機器情報は、各種のデータの送受信先として映像表示装置303を一意に特定することができるアドレス、例えば、メールアドレスであってもよい。通信制御部109は、管理者データを参照して、使用者情報に対応する映像表示装置303を送信先として特定することができる。   The storage unit 110 in the video display device 300 includes user information of individual users and device information related to the video display device 303 used by the administrator, and administrator data formed by associating them with each other. Store in advance. The device information may be an address that can uniquely identify the video display device 303 as a transmission / reception destination of various data, for example, an e-mail address. The communication control unit 109 can specify the video display device 303 corresponding to the user information as a transmission destination with reference to the administrator data.

図12は、管理者が使用する映像表示装置303の表示画面の一例を示す図である。
表示画面は、映像表示装置300の使用者の顔画像を示す撮影画像の表示領域304、使用者のシーン種別毎のレーティング情報を含む視聴履歴情報の表示領域305、各シーンの代表画像の表示領域306、視聴の許可を指示する際に押下するボタン(許可ボタン)の表示領域307、視聴の制限を指示する際に押下するボタン(制限ボタン)の表示領域308を含む。
管理者は、表示領域306に表示された代表画像を確認して、表示領域307または308を押下することによって、その使用者に対して該当シーンについて視聴を許可するか否かを指示することができる。
FIG. 12 is a diagram illustrating an example of a display screen of the video display device 303 used by the administrator.
The display screen includes a display area 304 for a captured image showing a face image of the user of the video display device 300, a display area 305 for viewing history information including rating information for each scene type of the user, and a display area for a representative image of each scene. 306 includes a display area 307 for a button (permitted button) to be pressed when instructing viewing permission, and a display area 308 for a button (restricted button) to be pressed when instructing viewing restriction.
The administrator confirms the representative image displayed in the display area 306 and presses the display area 307 or 308 to instruct the user whether to permit viewing of the corresponding scene. it can.

例えば、該当シーンのレーティング情報が制限付き許可(○)である場合であって、管理者による操作入力により表示領域307が指示されたとき(許可ボタンの押下)、映像表示装置303の入力情報制御部103は、このレーティングでの視聴制限条件の緩和を示す機能情報を生成する。映像表示装置303の構成が、映像表示装置300と同様の構成であるとすると、入力情報制御部103は、通信制御部109を介して映像表示装置300に視聴制限条件の緩和を示す機能情報を送信する。映像表示装置300の機能制御部104は、通信制御部109を介して映像表示装置303から機能情報を受信する。機能制御部104は、受信した機能情報が示すレーティングに対応した視聴制限条件として視聴時間、視聴頻度の一方又は両者の制限を緩和(値を増加)するため、記憶部110に対して情報を更新する機能制御情報を生成する。なお、この場合、映像表示装置300の機能制御部104は、表示制御部102に視聴(表示)の許可を示す機能制御情報を生成してもよい。   For example, when the rating information of the corresponding scene is limited permission (◯) and the display area 307 is instructed by an operation input by the administrator (pressing the permission button), the input information control of the video display device 303 is performed. Unit 103 generates function information indicating relaxation of the viewing restriction condition with this rating. If the configuration of the video display device 303 is the same as that of the video display device 300, the input information control unit 103 sends function information indicating relaxation of viewing restriction conditions to the video display device 300 via the communication control unit 109. Send. The function control unit 104 of the video display device 300 receives function information from the video display device 303 via the communication control unit 109. The function control unit 104 updates the information to the storage unit 110 in order to relax (increase the value of) one or both of the viewing time and the viewing frequency as a viewing restriction condition corresponding to the rating indicated by the received function information. Function control information to be generated. In this case, the function control unit 104 of the video display device 300 may generate function control information indicating permission for viewing (display) in the display control unit 102.

また、該当シーンのレーティング情報が制限付き許可(○)である場合であって、管理者による操作入力により表示領域308が指示されたとき(制限ボタンの押下)、映像表示装置303の入力情報制御部103は、このレーティングでの視聴制限条件の強化を示す機能情報を生成する。映像表示装置303における入力情報制御部103は、通信制御部109を介して映像表示装置300に送信する。映像表示装置300の機能制御部104は、通信制御部109を介して映像表示装置303から機能情報を受信する。映像表示装置300の機能制御部104は、受信した機能情報が示すレーティングに対応した視聴制限条件として視聴時間、視聴頻度の一方又は両者の制限を強化(値を減少)し、厳格化した視聴時間、視聴頻度の制限を示す機能制御情報を生成する。なお、この場合、映像表示装置300の機能制御部104は、表示制御部102に視聴の制限を示す機能制御情報を生成してもよい。
映像表示装置300の機能制御部104は、生成した機能制御情報を視聴履歴解析部107に出力する。視聴履歴解析部107は、機能制御部104から入力された機能制御情報に基づいて、シーン毎に視聴制限の要否を判定するために用いる視聴制限条件を変更する。
Further, when the rating information of the corresponding scene is restricted permission (◯) and the display area 308 is instructed by an operation input by the administrator (pressing the restriction button), the input information control of the video display device 303 is performed. Unit 103 generates function information indicating the strengthening of the viewing restriction condition with this rating. The input information control unit 103 in the video display device 303 transmits to the video display device 300 via the communication control unit 109. The function control unit 104 of the video display device 300 receives function information from the video display device 303 via the communication control unit 109. The function control unit 104 of the video display device 300 tightens (decreases) one or both of the viewing time and the viewing frequency as viewing restriction conditions corresponding to the rating indicated by the received function information, and tightens the viewing time. Then, function control information indicating the restriction of viewing frequency is generated. Note that in this case, the function control unit 104 of the video display device 300 may generate function control information indicating viewing restrictions on the display control unit 102.
The function control unit 104 of the video display device 300 outputs the generated function control information to the viewing history analysis unit 107. Based on the function control information input from the function control unit 104, the viewing history analysis unit 107 changes the viewing restriction condition used for determining whether viewing restriction is necessary for each scene.

例えば、使用者が図4の使用者がP1であって、レーティング情報が制限付き許可(○)であって、視聴時間、視聴頻度の制限が、それぞれ30分以内、5回以内に設定された場合を仮定する。使用者がわいせつシーンを既に1時間視聴したところ、第1の実施形態によれば、わいせつシーンが含まれる映像については視聴制限を受ける。しかしながら、管理者が表示領域304、305、306にそれぞれ表示された顔画像、シーン種別毎のレーティング情報、代表画像を確認して、視聴を許可してもよいと判断する場合、表示領域307を押下する。この場合、映像表示装置300の視聴履歴解析部107は、視聴時間、視聴頻度の制限をそれぞれ、2時間、10回に変更する。映像表示装置300の表示制御部102は、変更後の視聴時間、視聴頻度の制限に基づいて映像データを表示部101に出力するか否かを制御するので、その映像が表示される。使用者P1は、その映像を視聴できるようになる。上述したように、管理者がシーンの内容を確認することにより、操作入力に応じて映像コンテンツの視聴制限を管理することができる。   For example, the user in FIG. 4 is P1, the rating information is restricted permission (O), and the viewing time and viewing frequency restrictions are set within 30 minutes and 5 times respectively. Assume a case. When the user has already viewed the obscene scene for one hour, according to the first embodiment, the video including the obscene scene is subject to viewing restrictions. However, when the administrator confirms the face image displayed in the display areas 304, 305, and 306, the rating information for each scene type, and the representative image, and determines that the viewing may be permitted, the display area 307 is displayed. Press. In this case, the viewing history analysis unit 107 of the video display device 300 changes the viewing time limit and the viewing frequency limit to 2 hours and 10 times, respectively. The display control unit 102 of the video display device 300 controls whether to output video data to the display unit 101 based on the changed viewing time and viewing frequency limit, so that the video is displayed. The user P1 can view the video. As described above, the administrator can manage viewing restrictions on video content in accordance with an operation input by confirming the contents of the scene.

なお、本実施形態で示したように、使用者情報ごとに管理者機器が対応づけられていてもよいし、使用する端末ごと、すなわち映像表示装置300に対して管理者機器が対応づけられ、機器情報が記憶部110に記憶されていてもよい。また、記憶される情報は必ずしも機器情報である必要はない。管理者機器は、例えば、映像表示装置300に管理者情報が記憶され、通信制御部109を通じて図示しないサーバー装置に管理者情報を送り、サーバー装置上で保存されている情報を元に管理者の機器情報を特定するような仕組みを有していてもよく、映像表示装置300との間で対応づけることができる仕組みを有していればよい。   Note that, as shown in the present embodiment, an administrator device may be associated with each user information, or an administrator device is associated with each terminal to be used, that is, with the video display device 300. Device information may be stored in the storage unit 110. In addition, the stored information is not necessarily device information. For example, the administrator device stores administrator information in the video display device 300, sends the administrator information to a server device (not shown) through the communication control unit 109, and stores the administrator information based on the information stored on the server device. It may have a mechanism for specifying device information, and may have a mechanism that can be associated with the video display device 300.

なお、映像表示装置300から管理者機器へと送られる映像解析情報や代表画像信号について、解析前の情報が管理者機器に送られ、管理者装置が解析前の情報を解析して映像解析情報や代表画像信号を生成してもよい。また、映像表示装置300から直接送られるのではなく、該当する映像解析情報や代表画像信号が別途設置するサーバー装置などにある場合には、サーバー装置上の情報にアクセスするための情報が管理者機器に送られる形であってもよく、これらを含めて映像解析情報や代表画像信号の管理者機器への送信としてもよい。   For video analysis information and representative image signals sent from the video display device 300 to the administrator device, information before analysis is sent to the administrator device, and the administrator device analyzes the information before analysis to analyze the video analysis information. Alternatively, a representative image signal may be generated. In addition, when the video analysis information and the representative image signal are not sent directly from the video display device 300 but are in a separately installed server device or the like, information for accessing the information on the server device is the administrator. It may be sent to the device, and the video analysis information and the representative image signal including these may be transmitted to the manager device.

なお、上述した映像表示装置300(図11)は、映像表示装置100(図1)において、使用者判別部106、映像情報解析部108に代えて、使用者判別部301、映像情報解析部302を備える場合を例にしたが、これには限られない。映像表示装置300は、映像表示装置200(図7)において映像情報解析部108に代えて映像情報解析部302を備えて構成してもよい。この場合、使用者判別部201は、判別した使用者を示す使用者情報を視聴履歴解析部107に出力し、記憶部110に記憶する。   Note that the video display device 300 (FIG. 11) described above replaces the user determination unit 106 and the video information analysis unit 108 in the video display device 100 (FIG. 1), and a user determination unit 301 and a video information analysis unit 302. However, the present invention is not limited to this. The video display device 300 may include a video information analysis unit 302 instead of the video information analysis unit 108 in the video display device 200 (FIG. 7). In this case, the user determination unit 201 outputs user information indicating the determined user to the viewing history analysis unit 107 and stores it in the storage unit 110.

なお、上述では、映像情報解析部302が、代表画像として、あるシーンの開始時刻と終了時刻との中間の時刻におけるフレーム画像を選択する場合を例にしたが、これには限られない。映像情報解析部302は、そのシーンを構成するそれぞれのフレーム画像から所定の特徴量を算出し、算出した特徴量が、そのシーン種別の典型的な特徴を示す特徴量のうち最も近似する特徴量を与えるフレーム画像を選択してもよい。例えば、映像情報解析部302は、わいせつシーンを構成するフレーム画像のうち、色彩が肌色であることを示す画素値を有する部分の、フレーム全体の割合が所定の割合に最も近似するフレーム画像を代表画像として選択してもよい。   In the above description, the video information analysis unit 302 selects a frame image at a time intermediate between a start time and an end time of a scene as a representative image. However, the present invention is not limited to this. The video information analysis unit 302 calculates a predetermined feature amount from each frame image constituting the scene, and the calculated feature amount is the closest approximate feature amount among the feature amounts indicating typical features of the scene type. May be selected. For example, the video information analysis unit 302 represents the frame image in which the ratio of the entire frame is the closest to the predetermined ratio of the portion having the pixel value indicating that the color is skin color among the frame images constituting the obscene scene. You may select as an image.

また、映像表示装置303の画面表示は、図12に示したものに限られず、少なくとも、使用者が視聴しようとする映像コンテンツが表す情報の一部を通知し、その映像コンテンツに対する視聴制限を制御することができれば、いかなるレイアウト、通知方法であってもよい。例えば、映像表示装置303は、使用者が視聴しようとする映像コンテンツに付される視聴制限は、その映像コンテンツを視覚により認識できない形式で表示してもよい。視覚により認識できない形式は、例えば、原映像コンテンツよりも解像度が低いモザイク映像、原映像コンテンツとは別個の代替コンテンツの重畳、等である。映像表示装置303は、それらの事項を示すテキスト情報について、公知のテキスト音声合成技術を用いて音声信号に変換し、変換した音声信号に基づく音声を再生する音声再生部を備えてもよい。   Further, the screen display of the video display device 303 is not limited to that shown in FIG. 12, and at least a part of the information represented by the video content that the user wants to view is notified, and viewing restrictions on the video content are controlled. Any layout and notification method may be used as long as it can be performed. For example, the video display device 303 may display the viewing restriction attached to the video content that the user wants to view in a format that cannot visually recognize the video content. The formats that cannot be recognized visually are, for example, mosaic video having a lower resolution than the original video content, superposition of alternative content separate from the original video content, and the like. The video display device 303 may include an audio reproduction unit that converts text information indicating these items into an audio signal using a known text-to-speech synthesis technique and reproduces audio based on the converted audio signal.

上述したように、本実施形態に係る映像表示装置300は、映像コンテンツが表す情報の少なくとも一部(例えば、代表画像)を、使用者に対応づけられた機器(例えば、映像表示装置303)に送信し、当該機器から映像コンテンツの表示の要否に係る機能情報を受信する通信制御部109を備える。また、表示制御部102は機能情報に基づいて表示の要否を制御する。この構成により、その機器を使用する管理者は、映像コンテンツが表す情報を確認しながら、その映像コンテンツの視聴制限を制御することができる。   As described above, the video display device 300 according to the present embodiment transfers at least part of information (for example, the representative image) represented by the video content to a device (for example, the video display device 303) associated with the user. The communication control unit 109 transmits and receives function information regarding whether or not video content needs to be displayed. Further, the display control unit 102 controls the necessity of display based on the function information. With this configuration, an administrator who uses the device can control viewing restrictions on the video content while confirming information represented by the video content.

なお、本発明は上述した各実施形態に限定されるものではなく、特許請求の範囲に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的構成を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope indicated in the claims, and the technical configurations disclosed in different embodiments are appropriately combined. The obtained embodiment is also included in the technical scope of the present invention.
Each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention.

例えば、上述したコンテンツは、インターネットに接続可能なサーバー装置から利用可能な映像コンテンツに限らず、予め記憶媒体に記憶された映像コンテンツ、放送伝送路によって放送される放送番組であってもよい。
なお、表示部101、通信制御部109、及び映像撮影部105の一部又は全部は、映像表示装置100、200、300、303との間で、データを送受信できるように有線又は無線で接続されていれば、必ずしも一体である必要はなく、別体であってもよい。例えば、映像表示装置100、200、300、303は、表示部101が省略された視聴制御装置として実施されてもよい。
For example, the content described above is not limited to video content that can be used from a server device that can be connected to the Internet, but may be video content stored in a storage medium in advance or a broadcast program broadcast on a broadcast transmission path.
Part or all of the display unit 101, the communication control unit 109, and the video photographing unit 105 are connected to the video display devices 100, 200, 300, and 303 by wire or wireless so that data can be transmitted and received. If it is, it does not necessarily need to be integral and may be a separate body. For example, the video display devices 100, 200, 300, and 303 may be implemented as viewing control devices in which the display unit 101 is omitted.

また、上述した実施形態における映像表示装置100、200、300、303の一部、例えば表示制御部102、203、入力情報制御部103、機能制御部104、使用者判別部106、201、301、視聴履歴解析部107、映像情報解析部108、302、視聴状況解析部202、視聴履歴保存部204、をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、認識データ伝送装置に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における認識データ伝送装置の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。認識データ伝送装置の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
In addition, some of the video display devices 100, 200, 300, and 303 in the above-described embodiment, for example, the display control units 102 and 203, the input information control unit 103, the function control unit 104, and the user determination units 106, 201, 301, The viewing history analysis unit 107, the video information analysis units 108 and 302, the viewing state analysis unit 202, and the viewing history storage unit 204 may be realized by a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. Here, the “computer system” is a computer system built in the recognition data transmission apparatus, and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included, and the one holding a program for a certain period of time may be included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
In addition, part or all of the recognition data transmission apparatus in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the recognition data transmission apparatus may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

なお、本発明は次の態様でも実施することができる。
(1)映像コンテンツを表示する表示部と、映像を撮影する映像撮影部と、前記映像撮影部が撮影した撮影映像に基づいて使用者を判別する使用者判別部と、前記映像コンテンツにおけるシーン毎の種別を示す映像解析情報を取得する映像情報解析部と、前記使用者が視聴した映像コンテンツとシーンとを含む視聴履歴を解析する視聴履歴解析部と、前記視聴履歴及び前記映像解析情報に基づいて、前記表示部に表示する映像コンテンツを表示するか否かを制御する表示制御部と、を備える映像表示装置。
In addition, this invention can be implemented also in the following aspect.
(1) A display unit for displaying video content, a video shooting unit for shooting video, a user determination unit for determining a user based on a shot video shot by the video shooting unit, and each scene in the video content A video information analysis unit that acquires video analysis information indicating the type of video, a viewing history analysis unit that analyzes a viewing history including video content and scenes viewed by the user, and based on the viewing history and the video analysis information And a display control unit that controls whether to display the video content to be displayed on the display unit.

(2)前記撮影映像に基づいて前記映像コンテンツの視聴状況を解析する視聴状況解析部を備え、前記表示制御部は、さらに前記視聴状況に基づいて映像コンテンツを表示するか否かを制御することを特徴とする(1)の映像表示装置。 (2) A viewing status analysis unit that analyzes the viewing status of the video content based on the captured video is provided, and the display control unit further controls whether to display the video content based on the viewing status. (1) The video display apparatus characterized by these.

(3)前記視聴状況は、前記使用者判別部が判別した一使用者とは異なる他使用者に関する視聴状況を含む(2)の映像表示装置。 (3) The video display device according to (2), wherein the viewing status includes a viewing status related to another user different from the one user determined by the user determination unit.

(4)前記映像表示装置における機能制御情報を生成する機能制御部を備え、前記機能制御部は前記視聴履歴及び前記映像解析情報を、前記映像表示装置に登録された管理者機器に送信するとともに、前記管理者機器より前記映像コンテンツの表示の要否に係る機能情報を取得することを特徴とする(1)から(3)のいずれかの映像表示装置。 (4) A function control unit that generates function control information in the video display device is provided, and the function control unit transmits the viewing history and the video analysis information to an administrator device registered in the video display device. The video display device according to any one of (1) to (3), wherein functional information related to necessity of display of the video content is acquired from the administrator device.

(5)映像撮像部で撮影された撮影映像に基づいて使用者を判別する使用者判別部と、映像コンテンツにおけるシーン毎の種別を示す映像解析情報を取得する映像情報解析部と、前記使用者が視聴した映像コンテンツとシーンとを含む視聴履歴を解析する視聴履歴解析部と、前記視聴履歴及び前記映像解析情報に基づいて、表示部に表示する映像コンテンツを表示するか否かを制御する表示制御部と、を備える視聴制御装置。 (5) A user discriminating unit that discriminates a user based on a captured video imaged by the video imaging unit, a video information analyzing unit that acquires video analysis information indicating a type of each scene in the video content, and the user A viewing history analysis unit that analyzes a viewing history including video content and scenes viewed by the user, and a display that controls whether to display the video content to be displayed on the display unit based on the viewing history and the video analysis information A viewing control apparatus comprising: a control unit;

(6)映像撮像部で撮像された撮影映像を入力する撮影映像入力ステップと、前記撮影映像に基づいて使用者を判別する使用者判別ステップと、映像コンテンツにおけるシーン毎の種別を示す映像解析情報を取得する映像情報解析ステップと、前記使用者が視聴した映像コンテンツとシーンとを含む視聴履歴を解析する視聴履歴解析ステップと、前記視聴履歴及び前記映像解析情報に基づいて、表示部に表示する映像コンテンツを表示するか否かを制御する表示制御ステップと、を有する視聴制御方法。 (6) A captured video input step for inputting a captured video captured by the video imaging unit, a user determination step for determining a user based on the captured video, and video analysis information indicating the type of each scene in the video content A video information analyzing step for acquiring the video content, a viewing history analyzing step for analyzing the video content and scenes viewed by the user, and a display based on the video history and the video analysis information. And a display control step for controlling whether to display video content.

(7)視聴制御装置のコンピュータに、映像撮像部で撮像された撮影映像を入力する撮影映像入力ステップと、前記撮影映像に基づいて使用者を判別する使用者判別ステップと、映像コンテンツにおけるシーン毎の種別を示す映像解析情報を取得する映像情報解析ステップと、前記使用者が視聴した映像コンテンツとシーンとを含む視聴履歴を解析する視聴履歴解析ステップと、前記視聴履歴及び前記映像解析情報に基づいて、表示部に表示する映像コンテンツを表示するか否かを制御する表示制御ステップと、を実行させるための視聴制御プログラム。 (7) A photographic video input step for inputting a photographic video imaged by the video imaging unit to a computer of the viewing control apparatus, a user discrimination step for discriminating a user based on the photographic video image, and for each scene in the video content Based on the video information analysis step of acquiring video analysis information indicating the type of the video, the viewing history analysis step of analyzing the viewing history including the video content and the scene viewed by the user, the viewing history and the video analysis information And a display control step for controlling whether or not to display the video content to be displayed on the display unit.

100、200、300、303…映像表示装置、
101…表示部、102、203…表示制御部、103…入力情報制御部、
104…機能制御部、105…映像撮影部、
106、201、301…使用者判別部、
107…視聴履歴解析部、108、302…映像情報解析部、109…通信制御部、
110…記憶部、202…視聴状況解析部、204…視聴履歴保存部
100, 200, 300, 303 ... video display device,
101 ... Display unit, 102, 203 ... Display control unit, 103 ... Input information control unit,
104 ... Function control unit, 105 ... Video shooting unit,
106, 201, 301 ... user discrimination unit,
107: viewing history analysis unit, 108, 302 ... video information analysis unit, 109 ... communication control unit,
110: Storage unit, 202: Viewing state analysis unit, 204: Viewing history storage unit

Claims (5)

映像コンテンツを表示する表示部と、
映像を撮影する映像撮影部と、
前記映像撮影部が撮影した撮影映像に基づいて使用者を判別する使用者判別部と、
前記映像コンテンツにおけるシーン毎の種別を示す映像解析情報を取得する映像情報解析部と、
前記使用者が視聴した映像コンテンツとシーンとを含む視聴履歴を解析する視聴履歴解析部と、
前記視聴履歴及び前記映像解析情報に基づいて、前記表示部に表示する映像コンテンツを表示するか否かを制御する表示制御部と、
を備える映像表示装置。
A display for displaying video content;
A video shooting unit for shooting video;
A user discriminating unit for discriminating a user on the basis of a photographed video taken by the video photographing unit;
A video information analysis unit that acquires video analysis information indicating a type of each scene in the video content;
A viewing history analysis unit for analyzing a viewing history including video content and scenes viewed by the user;
A display control unit that controls whether to display video content to be displayed on the display unit based on the viewing history and the video analysis information;
A video display device comprising:
前記撮影映像に基づいて前記映像コンテンツの視聴状況を解析する視聴状況解析部を備え、
前記表示制御部は、さらに前記視聴状況に基づいて映像コンテンツを表示するか否かを制御することを特徴とする請求項1に記載の映像表示装置。
A viewing status analysis unit that analyzes the viewing status of the video content based on the captured video;
The video display apparatus according to claim 1, wherein the display control unit further controls whether to display video content based on the viewing situation.
前記映像表示装置における機能制御情報を生成する機能制御部を備え、
前記機能制御部は前記視聴履歴及び前記映像解析情報を、前記映像表示装置に登録された管理者機器に送信するとともに、
前記管理者機器より前記映像コンテンツの表示の要否に係る機能情報を取得すること
を特徴とする請求項1または請求項2に記載の映像表示装置。
A function control unit for generating function control information in the video display device;
The function control unit transmits the viewing history and the video analysis information to an administrator device registered in the video display device, and
The video display device according to claim 1, wherein functional information related to necessity of display of the video content is acquired from the administrator device.
映像撮像部で撮影された撮影映像に基づいて使用者を判別する使用者判別部と、
映像コンテンツにおけるシーン毎の種別を示す映像解析情報を取得する映像情報解析部と、
前記使用者が視聴した映像コンテンツとシーンとを含む視聴履歴を解析する視聴履歴解析部と、
前記視聴履歴及び前記映像解析情報に基づいて、表示部に表示する映像コンテンツを表示するか否かを制御する表示制御部と、
を備える視聴制御装置。
A user discriminating unit for discriminating a user based on a captured video taken by the video imaging unit;
A video information analysis unit that acquires video analysis information indicating the type of each scene in the video content;
A viewing history analysis unit for analyzing a viewing history including video content and scenes viewed by the user;
A display control unit that controls whether to display video content to be displayed on a display unit based on the viewing history and the video analysis information;
A viewing control apparatus comprising:
視聴制御装置のコンピュータに、
映像撮像部で撮像された撮影映像を入力する撮影映像入力ステップと、
前記撮影映像に基づいて使用者を判別する使用者判別ステップと、
映像コンテンツにおけるシーン毎の種別を示す映像解析情報を取得する映像情報解析ステップと、
前記使用者が視聴した映像コンテンツとシーンとを含む視聴履歴を解析する視聴履歴解析ステップと、
前記視聴履歴及び前記映像解析情報に基づいて、表示部に表示する映像コンテンツを表示するか否かを制御する表示制御ステップと、
を実行させるための視聴制御プログラム。
In the computer of the viewing control device,
A photographic video input step for inputting a photographic video imaged by the video imaging unit;
A user discriminating step for discriminating a user based on the captured video;
A video information analysis step of acquiring video analysis information indicating a type of each scene in the video content;
A viewing history analysis step of analyzing a viewing history including video content and scenes viewed by the user;
A display control step for controlling whether to display video content to be displayed on the display unit based on the viewing history and the video analysis information;
A viewing control program for executing.
JP2014192741A 2014-09-22 2014-09-22 Video display device, viewing control device and viewing control program Pending JP2016063524A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014192741A JP2016063524A (en) 2014-09-22 2014-09-22 Video display device, viewing control device and viewing control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014192741A JP2016063524A (en) 2014-09-22 2014-09-22 Video display device, viewing control device and viewing control program

Publications (1)

Publication Number Publication Date
JP2016063524A true JP2016063524A (en) 2016-04-25

Family

ID=55796239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014192741A Pending JP2016063524A (en) 2014-09-22 2014-09-22 Video display device, viewing control device and viewing control program

Country Status (1)

Country Link
JP (1) JP2016063524A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114125562A (en) * 2020-08-28 2022-03-01 瑞昱半导体股份有限公司 Program playing device and program shielding method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114125562A (en) * 2020-08-28 2022-03-01 瑞昱半导体股份有限公司 Program playing device and program shielding method thereof

Similar Documents

Publication Publication Date Title
US11009945B2 (en) Method for operating an eye tracking device for multi-user eye tracking and eye tracking device
US10026381B2 (en) Method and device for adjusting and displaying image
KR102271854B1 (en) Control method for playing contents and contents playing apparatus for performing the same
JP6117446B2 (en) Real-time video providing method, real-time video providing device, server, terminal device, program, and recording medium
CN106941624B (en) Processing method and device for network video trial viewing
US20170178289A1 (en) Method, device and computer-readable storage medium for video display
JP4902795B2 (en) Display device, television receiver, display device control method, program, and recording medium
WO2015037177A1 (en) Information processing apparatus method and program combining voice recognition with gaze detection
US11641493B2 (en) Method and electronic device for displaying bullet screens
US9075431B2 (en) Display apparatus and control method thereof
JPWO2015056742A1 (en) Visualization target effect measurement device
US20070092220A1 (en) System for reproducing video
US11553157B2 (en) Device and method of displaying images
US20180035170A1 (en) Method and device for controlling playing state
WO2018064952A1 (en) Method and device for pushing media file
KR20170048555A (en) Iris image acquisition method and apparatus, and iris recognition device
KR20130088493A (en) Method for providing user interface and video receving apparatus thereof
WO2011118836A1 (en) Display apparatus, television receiver, method of controlling display apparatus, remote control device, method of controlling remote control device, control program, and computer readable recording medium with control program stored therein
US20180366089A1 (en) Head mounted display cooperative display system, system including dispay apparatus and head mounted display, and display apparatus thereof
US9046921B2 (en) Display apparatus and control method thereof
JP2015005809A (en) Information processing device, information processing method, and program
CN113794934A (en) Anti-addiction guiding method, television and computer-readable storage medium
KR101665988B1 (en) Image generation method
JP2016063525A (en) Video display device and viewing control device
KR20140010673A (en) Display apparatus and control method of the same