JP5918098B2 - 視聴領域推定装置、視聴領域推定方法、及びプログラム - Google Patents
視聴領域推定装置、視聴領域推定方法、及びプログラム Download PDFInfo
- Publication number
- JP5918098B2 JP5918098B2 JP2012219350A JP2012219350A JP5918098B2 JP 5918098 B2 JP5918098 B2 JP 5918098B2 JP 2012219350 A JP2012219350 A JP 2012219350A JP 2012219350 A JP2012219350 A JP 2012219350A JP 5918098 B2 JP5918098 B2 JP 5918098B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- viewing area
- user
- viewing
- operation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
これにより、他のユーザがまだ視聴していない映像を視聴する場合であっても、ユーザが視聴領域を指定することなく、該ユーザが視聴する映像に応じた視聴領域を取得することができる。
本発明に係る実施形態について説明する前に、本発明の視聴領域推定装置に関連する技術における映像視聴装置について説明する。
図1は、本発明の関連技術における映像視聴システム100の構成例を示す概略ブロック図である。映像視聴システム100は、ユーザによる操作を受け付けて、蓄積されている映像のうち特定の領域の映像を表示する。映像視聴システム100は、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、及び、制御部106を具備している。
なお、ユーザが視聴したい視聴領域を示す情報として、他のユーザの映像操作情報を指定する情報が視聴情報に含まれていてもよい。この場合、制御部106は、ユーザが指定した他のユーザの操作履歴情報を映像操作記憶装置102から読み出し、読み出した操作履歴情報が示す視聴領域の映像を選択し、選択した領域の映像を視聴インタフェース部104に出力する。
以下、上述の関連技術における映像視聴システム100に基づいて、本発明に係る各実施形態における視聴領域推定装置を図面を参照して説明する。
図2は、本発明の第1の実施形態における視聴領域推定装置10を含む映像視聴システム1の構成例を示す概略ブロック図である。映像視聴システム1は、視聴領域推定装置10、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、及び、制御部106を具備している。本実施形態の映像視聴システム1は、関連技術において示した映像視聴システム100(図1)の構成に加えて、視聴領域推定装置10を更に具備している。視聴領域推定装置10は、視聴領域特徴学習部11、視聴領域推定ルール記憶装置12、及び、視聴領域推定部13を備えることを特徴としている。
なお、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、制御部106それぞれの構成及び動作は、関連技術において説明した構成及び動作と同じであるので、その説明を省略する。
視聴領域特徴学習部11は、学習の処理を開始すると、視聴領域特徴の学習対象となる各ユーザの映像操作情報を映像操作記憶装置102から検出して読み出し、読み出した映像操作情報に対応する映像を映像記憶装置101から読み出す(ステップS101)。
視聴領域特徴学習部11は、読み出した映像操作情報に含まれる視聴領域以外の領域をランダムに選択し、選択した領域の画像を当該映像操作情報に対応する映像から取得し、取得した領域の画像を負例にする(ステップS103)。すなわち、各映像においてユーザに視聴されなかった領域が負例となる。視聴領域特徴学習部11は、正例と同様に、読み出した各映像における時刻ごとに負例を定める。
視聴領域特徴学習部11は、分割した正例の各ブロックについて平均色RGBを算出する(ステップS105)。
視聴領域特徴学習部11は、算出したすべての正例のブロックの平均色RGBを並べたものを正例の特徴ベクトルにする(ステップS106)。
視聴領域特徴学習部11は、分割した負例の各ブロックについて平均色RGBを算出する(ステップS108)。
視聴領域特徴学習部11は、算出したすべての負例のブロックの平均色RGBを並べたものを負例の特徴ベクトルにする(ステップS109)。
視聴領域特徴学習部11は、ステップS110における学習により得られた学習結果を視聴領域推定ルールとして視聴領域推定ルール記憶装置12に記憶させる(ステップS111)。
なお、図6に示されたフローチャートでは、特徴としてRGB色空間での平均色を用いた場合を例にして説明したが、特徴はRGB空間での平均色に限ることなく、他のものであってもよい。例えば、ブロックの色ヒストグラムを利用してもよいし、RGB色空間ではなくHSV色空間で特徴を算出するようにしてもよい。また、色以外の特徴として、部分領域の画像においてエッジ抽出を行い、エッジの量や方向等を特徴量とするようにしてもよい。また、これらを単独で利用するのではなく、組み合わせて一つの特徴量とするようにしてもよい。また、これら以外の特徴量を用いるようにしてもよい。視聴領域特徴学習部11では、さまざまな特徴が学習において特徴選択され、状況に応じて重み付けされて利用されることを想定している。
視聴領域推定部13は、推定の処理を開始すると、視聴領域の推定対象となるユーザが視聴する映像を映像記憶装置101から読み出す(ステップS121)。
視聴領域推定部13は、視聴領域の推定対象となるユーザに対応する視聴領域推定ルールを視聴領域推定ルール記憶装置12から読み出す(ステップS122)。
視聴領域推定部13は、映像の時刻i(i=1,2,…,Max(j))における画像の各部分領域の特徴抽出を行う(ステップS123)。ここで、部分領域は、例えば、画像内の空間的な一部の領域であって予め定められた大きさの領域であり、画像をラスタスキャン(左上から右下にかけて水平方向に順に走査)することにより得られる領域である。また、部分領域の特徴抽出は、視聴領域特徴学習部11が視聴領域特徴を学習する際に用いた特徴(例えば、RGB色空間での平均色)を算出することである。
視聴領域推定部13は、視聴領域の推定結果、すなわち視聴領域と推定した部分領域を示す情報を制御部106に出力する(ステップS126)。
図8は、第2の実施形態における視聴領域推定装置20を含む映像視聴システム2の構成例を示す概略ブロック図である。映像視聴システム2は、視聴領域推定装置20、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、及び、制御部106を具備している。視聴領域推定装置20は、視聴領域特徴学習部21、視聴領域推定ルール記憶装置12、及び、視聴領域推定部13を備えている。本実施形態の映像視聴システム2は、第1の実施形態において示した映像視聴システム1における視聴領域特徴学習部11を視聴領域特徴学習部21に代えた構成となっている。視聴領域特徴学習部21は、学習対象選択部211、及び、学習部212を有することを特徴としている。
なお、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、制御部106、視聴領域推定ルール記憶装置12、視聴領域推定部13それぞれの構成及び動作は、関連技術又は第1の実施形態において説明した構成及び動作と同じであるので、その説明を省略する。
学習部212は、学習対象選択部211が選択した映像操作情報と、映像記憶装置101に記憶されている映像であって当該映像操作情報に対応する映像とに基づいて、ユーザが視聴している領域の映像特徴(視聴領域特徴)を学習する。学習部212の動作は、第1の実施形態における視聴領域特徴学習部11の動作と同様である。
図9は、第3の実施形態における視聴領域推定装置30を含む映像視聴システム3の構成を示す概略ブロック図である。映像視聴システム3は、視聴領域推定装置30、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、及び、制御部106を具備している。視聴領域推定装置30は、視聴領域特徴学習部31、視聴領域推定ルール記憶装置12、視聴領域推定部13、及び、ユーザ情報記憶装置35を備えている。本実施形態の映像視聴システム3は、第2の実施形態において示した映像視聴システム2における視聴領域特徴学習部21を視聴領域特徴学習部31に代え、ユーザ情報記憶装置35を加えた構成となっている。視聴領域特徴学習部31は、学習対象選択部311、及び、学習部212を有することを特徴としている。
なお、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、制御部106、視聴領域推定ルール記憶装置12、視聴領域推定部13、学習部212それぞれの構成及び動作は、関連技術や第1又は第2の実施形態において説明した構成及び動作と同じであるので、その説明を省略する。
学習対象選択部311は、ユーザ情報記憶装置35に記憶されている各ユーザの視聴映像リストに基づいてユーザ間の類似度を算出し、算出した類似度に従って、映像操作記憶装置102に記憶されている映像操作情報のうち、学習対象にする映像操作情報を選択する。
学習対象選択部311は、映像操作情報の選択を開始すると、視聴領域特徴の学習対象となるユーザの視聴映像リストをユーザ情報記憶装置35から読み出す(ステップS301)。
学習対象選択部311は、ステップS301で読み出した視聴映像リストと、ユーザ情報記憶装置35に記憶されている他のユーザそれぞれの視聴映像リストとの重複度合いを算出し、算出した重複度合いを類似度とする(ステップS302)。重複度合いを表す値としてはF値などを利用することができる。
ユーザmの視聴映像リスト「5,l,k,M」と、ユーザ1の視聴映像リスト「1,2,5,l,k」との重複度合いを求める。ユーザmの視聴映像リストに含まれる4つのコンテンツIDのうち3つのコンテンツIDがユーザ1の視聴映像リストに含まれるコンテンツIDと重複する。一方、ユーザ1の視聴映像リストに含まれる5つのコンテンツIDのうち3つのコンテンツIDがユーザmの視聴映像リストに含まれるコンテンツIDと重複する。この場合、重複度合いF値=2×(3/4)×(3/5)÷(3/4+3/5)=2/3となる。
また、ユーザmの視聴映像リストと、ユーザMの視聴映像リストとの重複度合いF値は、同様に求められる。ユーザmの映像視聴リストに含まれる4つのコンテンツIDのうち3つのコンテンツIDがユーザMの映像視聴リストに含まれるコンテンツIDと重複する。一方、ユーザMの映像視聴リストに含まれる12のコンテンツIDのうち3つのコンテンツIDがユーザmの映像視聴リストに含まれるコンテンツIDと重複する。すなわち、この場、F値=2×(3/4)×(3/12)÷(3/4+3/12)=3/8となる。
学習対象選択部311は、ステップS303において決定したユーザの映像操作情報を映像操作記憶装置102から読み出し、読み出した映像操作情報を学習部212に出力する(ステップS304)。
同様な志向を持つユーザ同士の視聴領域は互いに類似する可能性が高いので、同様の志向を持つユーザの映像操作情報に基づいて映像視聴特徴を学習し、視聴領域を推定することにより、より高精度な視聴領域の推定が可能となる。
図12は、第4の実施形態における視聴領域推定装置40を含む映像視聴システム4の構成を示す概略ブロック図である。映像視聴システム4は、視聴領域推定装置40、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、及び、制御部106を具備している。視聴領域推定装置40は、視聴領域特徴学習部41、視聴領域推定ルール記憶装置12、視聴領域推定部13、ユーザ情報記憶装置35、及び、映像情報記憶装置46を備えている。本実施形態の映像視聴システム4は、第3の実施形態において示した映像視聴システム3における視聴領域特徴学習部31を視聴領域特徴学習部41に代え、映像情報記憶装置46を加えた構成となっている。視聴領域特徴学習部41は、学習対象選択部411、及び、学習部212を有することを特徴としている。
なお、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、制御部106、視聴領域推定ルール記憶装置12、視聴領域推定部13、学習部212、ユーザ情報記憶装置35それぞれの構成及び動作は、関連技術や第1〜第3の実施形態において説明した構成及び動作と同じであるので、その説明を省略する。
学習対象選択部411は、ユーザ情報記憶装置35に記憶されている各ユーザの視聴映像リストと、映像情報記憶装置46に記憶されている各映像の映像情報とに基づいて、映像操作記憶装置102に記憶されている映像操作情報のうち学習対象にする映像操作情報を選択する。
学習対象選択部411は、映像操作情報の選択を開始すると、視聴領域特徴の学習対象となるユーザの視聴映像リストをユーザ情報記憶装置35から読み出す(ステップS401)。
学習対象選択部411は、ステップS401で読み出した視聴映像リストと、ユーザ情報記憶装置35に記憶されている他のユーザそれぞれの視聴映像リストとの重複度合いを算出し、算出した重複度合いを類似度とする(ステップS402)。学習対象選択部411が重複度合いを算出する手順は、第3の実施形態における学習対象選択部311が重複度合いを算出する手順と同様である。
学習対象選択部411は、選択したユーザの視聴映像リストに含まれる映像のジャンルを映像情報記憶装置46から読み出し、視聴領域特徴の学習対象となるユーザがこれから視聴する映像のジャンルと同じ又は類似するジャンルの映像を選択する。学習対象選択部411は、選択した映像に対応する映像操作情報を映像操作記憶装置102から読み出し、読み出した映像操作情報を学習対象の映像操作情報に決定する(ステップS404)。
学習対象選択部411は、ステップS404において決定した映像操作情報を学習部212に出力する(ステップS405)。
同様な志向を持つユーザ同士の視聴領域は互いに類似する可能性が高く、更に同一ジャンルの映像では視聴領域が類似するので、上述のようにして選択した映像操作情報及び当該映像操作情報に対応する映像に基づいた学習により、視聴領域の推定の精度を更に高精度にすることが可能となる。
図15は、第5の実施形態における視聴領域推定装置50を含む映像視聴システム5の構成を示す概略ブロック図である。映像視聴システム5は、視聴領域推定装置50、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、及び、制御部106を具備している。視聴領域推定装置50は、視聴領域特徴学習部11、視聴領域推定ルール記憶装置12、視聴領域推定部53、及び、視聴領域事前確率分布予測部57を備えている。本実施形態の映像視聴システム5は、第1の実施形態において示した映像視聴システム1における視聴領域推定部13を視聴領域推定部53に代え、視聴領域事前確率分布予測部57を加えた構成となっている。視聴領域推定装置50は、視聴領域推定部53、及び、視聴領域事前確率分布予測部57を備えることを特徴としている。
なお、映像記憶装置101、映像操作記憶装置102、操作入力部103、視聴インタフェース部104、表示部105、制御部106、視聴領域特徴学習部11、視聴領域推定ルール記憶装置12それぞれの構成及び動作は、関連技術や第1の実施形態において説明した構成及び動作と同じであるので、その説明を省略する。
そこで、本実施形態の映像視聴システム5では、視聴領域事前確率分布予測部57を設け、視聴領域事前確率分布予測部57がパーティクルフィルタを用いて視聴領域の位置及びサイズに対する確率分布を算出する。
視聴領域推定部53は、視聴領域推定ルール記憶装置12に記憶される視聴領域推定ルールと、映像記憶装置101に記憶されている映像であってユーザが視聴する映像と、視聴領域事前確率分布予測部57が算出する確率分布に基づいて、ユーザの視聴領域を推定する。具体的には、視聴領域推定部53は、各部分領域の視聴領域らしさに対する重み付け平均により視聴領域を推定する。
視聴領域推定部53は、推定の処理を開始すると、視聴領域の推定対象となるユーザが視聴する映像を映像記憶装置101から読み出す(ステップS501)。
視聴領域推定部53は、視聴領域の推定対象となるユーザに対応する視聴領域推定ルールを視聴領域推定ルール記憶装置12から読み出す(ステップS502)。
視聴領域事前確率分布予測部57は、次の時刻において視聴される視聴領域の位置及びサイズ(画角又は焦点距離)を予測する(ステップS503)。視聴領域の位置及びサイズのダイナミクスが既知の場合には、視聴領域事前確率分布予測部57は当該ダイナミクスに従って、視聴領域の位置及びサイズを予測する。ダイナミクスが不明である場合には、ランダムウォークモデルに従った状態遷移に基づいて、視聴領域の位置及びサイズを予測する。パーティクルフィルタでは、パーティクルと呼ばれる状態仮説の密度により確率分布を表現する。したがって、ステップS503では視聴領域事前確率分布予測部57が複数の状態仮説を生成することになる。
視聴領域推定部53は、ステップS501において読み出した映像と現在の視聴位置とに基づいて、状態仮説に対応する視聴領域候補の画像を取得する(ステップS504)。
視聴領域推定部53は、取得した各画像について特徴抽出を行い、ステップS502において読み出した視聴領域推定ルールに基づいて視聴領域らしさを算出する(ステップS505)。本実施形態における特徴抽出は、第1の実施形態において説明した特徴抽出と同様の処理である。
視聴領域推定部53は、算出した視聴領域を制御部106に出力する(ステップS507)。
なお、上述の第2から第4の実施形態における視聴領域推定装置に対して、第5の実施形態における視聴領域推定装置50が有する視聴領域事前確率分布予測部57を設けるようにしてもよい。
10、20、30、40、50…視聴領域推定装置
11、21、31、41…視聴領域特徴学習部
12…視聴領域推定ルール記憶装置
13、53…視聴領域推定部
35…ユーザ情報記憶装置
46…映像情報記憶装置
57…視聴領域事前確率分布予測部
101…映像記憶装置
102…映像操作記憶装置
103…操作入力部
104…視聴インタフェース部
105…表示部
106…制御部
211、311、411…学習対象選択部
212…学習部
Claims (7)
- ユーザが視聴可能な映像を予め記憶している映像記憶装置と、前記映像を視聴した際にユーザが選択した視聴領域を示す映像操作情報を映像ごとに予め記憶している映像操作記憶装置と、ユーザが前記映像を視聴する際の視聴領域を推定する視聴領域推定装置とを具備する映像視聴システムにおける視聴領域推定装置であって、
前記映像操作情報と該映像操作情報に対応する前記映像とに基づいて、前記映像内の視聴領域における画像の特徴を学習し、学習結果を示す視聴領域推定ルールを生成する視聴領域特徴学習部と、
ユーザがこれから視聴する映像内の各部分領域の画像の特徴と前記視聴領域推定ルールとに基づいて、該ユーザが視聴する該映像における視聴領域を推定する視聴領域推定部と、
前記映像操作記憶装置に記憶されている映像操作情報のうち、これから前記映像を視聴するユーザと志向が類似するユーザに対応する映像操作情報、又は、これから視聴する前記映像と類似する映像に対応する映像操作情報を選択する学習対象選択部と、
を備え、
前記視聴領域特徴学習部は、
前記学習対象選択部が選択した映像操作情報と該映像操作情報に対応する映像とに基づいて、前記映像内の視聴領域における画像の特徴を学習する、
ことを特徴とする視聴領域推定装置。 - ユーザが視聴可能な映像を予め記憶している映像記憶装置と、前記映像を視聴した際にユーザが選択した視聴領域を示す映像操作情報を映像ごとに予め記憶している映像操作記憶装置と、ユーザが前記映像を視聴する際の視聴領域を推定する視聴領域推定装置とを具備する映像視聴システムにおける視聴領域推定装置であって、
前記映像操作情報と該映像操作情報に対応する前記映像とに基づいて、前記映像内の視聴領域における画像の特徴を学習し、学習結果を示す視聴領域推定ルールを生成する視聴領域特徴学習部と、
ユーザがこれから視聴する映像内の各部分領域の画像の特徴と前記視聴領域推定ルールとに基づいて、該ユーザが視聴する該映像における視聴領域を推定する視聴領域推定部と、
パーティクルフィルタを用いて映像内における視聴領域に対する確率分布を算出する視聴領域事前確率分布予測部と、
を備え、
前記視聴領域推定部は、
ユーザがこれから視聴する前記映像内の各部分領域の画像の特徴と、前記視聴領域推定ルールと、前記視聴領域事前確率分布予測部が算出した確率分布とに基づいて、該ユーザが視聴する該映像における視聴領域を推定する、
ことを特徴とする視聴領域推定装置。 - 請求項1に記載の視聴領域推定装置であって、
前記映像記憶装置に記憶されている映像のうち視聴した映像のリストをユーザごとに予め記憶しているユーザ情報記憶装置を更に備え、
前記学習対象選択部は、
これから映像を視聴するユーザが既に視聴した映像と重複する映像を視聴した他のユーザの映像操作情報を選択する
ことを特徴とする視聴領域推定装置。 - 請求項3に記載の視聴領域推定装置であって、
前記映像記憶装置に記憶されている映像ごとにそれぞれのジャンルを予め記憶している映像情報記憶装置を更に備え、
前記学習対象選択部は、
これから映像を視聴するユーザが既に視聴した映像と重複する映像を視聴した他のユーザの映像操作情報のうち、これから視聴する映像に類似した映像に対応する映像操作情報を選択する
ことを特徴とする視聴領域推定装置。 - ユーザが視聴可能な映像を予め記憶している映像記憶装置と、前記映像を視聴した際にユーザが選択した視聴領域を示す映像操作情報を映像ごとに予め記憶している映像操作記憶装置と、ユーザが前記映像を視聴する際の視聴領域を推定する視聴領域推定装置とを具備する映像視聴システムにおける視聴領域推定装置が行う視聴領域推定方法であって、
前記映像操作情報と該映像操作情報に対応する前記映像とに基づいて、前記映像内の視聴領域における画像の特徴を学習し、学習結果を示す視聴領域推定ルールを生成する視聴領域特徴学習ステップと、
ユーザがこれから視聴する映像内の各部分領域の画像の特徴と前記視聴領域推定ルールとに基づいて、該ユーザが視聴する該映像における視聴領域を推定する視聴領域推定ステップと、
前記映像操作記憶装置に記憶されている映像操作情報のうち、これから前記映像を視聴するユーザと志向が類似するユーザに対応する映像操作情報、又は、これから視聴する前記映像と類似する映像に対応する映像操作情報を選択する学習対象選択ステップと、
を有し、
前記視聴領域特徴学習ステップでは、
前記学習対象選択ステップにおいて選択された映像操作情報と該映像操作情報に対応する映像とに基づいて、前記映像内の視聴領域における画像の特徴を学習する、
ことを特徴とする視聴領域推定方法。 - ユーザが視聴可能な映像を予め記憶している映像記憶装置と、前記映像を視聴した際にユーザが選択した視聴領域を示す映像操作情報を映像ごとに予め記憶している映像操作記憶装置と、ユーザが前記映像を視聴する際の視聴領域を推定する視聴領域推定装置とを具備する映像視聴システムにおける視聴領域推定装置が行う視聴領域推定方法であって、
前記映像操作情報と該映像操作情報に対応する前記映像とに基づいて、前記映像内の視聴領域における画像の特徴を学習し、学習結果を示す視聴領域推定ルールを生成する視聴領域特徴学習ステップと、
ユーザがこれから視聴する映像内の各部分領域の画像の特徴と前記視聴領域推定ルールとに基づいて、該ユーザが視聴する該映像における視聴領域を推定する視聴領域推定ステップと、
パーティクルフィルタを用いて映像内における視聴領域に対する確率分布を算出する視聴領域事前確率分布予測ステップと、
を有し、
前記視聴領域推定ステップでは、
ユーザがこれから視聴する前記映像内の各部分領域の画像の特徴と、前記視聴領域推定ルールと、前記視聴領域事前確率分布予測ステップにおいて算出された確率分布とに基づいて、該ユーザが視聴する該映像における視聴領域を推定する、
ことを特徴とする視聴領域推定方法。 - 請求項1から請求項4のいずれか一項に記載の視聴領域推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012219350A JP5918098B2 (ja) | 2012-10-01 | 2012-10-01 | 視聴領域推定装置、視聴領域推定方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012219350A JP5918098B2 (ja) | 2012-10-01 | 2012-10-01 | 視聴領域推定装置、視聴領域推定方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014072826A JP2014072826A (ja) | 2014-04-21 |
JP5918098B2 true JP5918098B2 (ja) | 2016-05-18 |
Family
ID=50747618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012219350A Expired - Fee Related JP5918098B2 (ja) | 2012-10-01 | 2012-10-01 | 視聴領域推定装置、視聴領域推定方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5918098B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102054947B1 (ko) * | 2017-04-21 | 2019-12-11 | 삼성전자주식회사 | 영상 표시 장치 및 영상 표시 방법 |
WO2023009114A1 (en) | 2021-07-28 | 2023-02-02 | Google Llc | Determining watch time loss regions in media content items |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3793142B2 (ja) * | 2002-11-15 | 2006-07-05 | 株式会社東芝 | 動画像加工方法及び装置 |
JP2012088787A (ja) * | 2010-10-15 | 2012-05-10 | Canon Inc | 画像処理装置、画像処理方法 |
-
2012
- 2012-10-01 JP JP2012219350A patent/JP5918098B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014072826A (ja) | 2014-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8064656B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
US20110202523A1 (en) | Image searching apparatus and image searching method | |
JP2010141849A (ja) | 主顔選択装置、その制御方法、撮像装置及びプログラム | |
US10936877B2 (en) | Methods, systems, and media for detecting two-dimensional videos placed on a sphere in abusive spherical video content by tiling the sphere | |
JP2010503006A5 (ja) | ||
TW201143367A (en) | System and method for combining 3D text with 3D content | |
WO2022199441A1 (zh) | 全景视频的播放方法、装置、计算机设备和存储介质 | |
US11076140B2 (en) | Information processing apparatus and method of controlling the same | |
US10701434B1 (en) | Extracting session information from video content to facilitate seeking | |
JP2016046642A (ja) | 情報処理システム、情報処理方法及びプログラム | |
KR101690366B1 (ko) | 컨텐츠에 대한 사용자 반응을 고려한 컨텐츠 추천 방법 | |
JP2020513705A (ja) | ビデオフレームの複数の部分のフィンガープリントを生成することによって立体ビデオを検出するための方法、システム、および媒体 | |
JP6424339B2 (ja) | 表示制御装置、および表示制御方法 | |
JP2017229061A (ja) | 画像処理装置およびその制御方法、ならびに撮像装置 | |
JP5918098B2 (ja) | 視聴領域推定装置、視聴領域推定方法、及びプログラム | |
JP4617883B2 (ja) | 画像処理装置および方法、プログラム並びに記録媒体 | |
JP2014110020A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP2009271697A (ja) | 表示制御装置、表示制御システム、表示制御方法 | |
JP5070179B2 (ja) | シーン類似判定装置、そのプログラム及びサマリ映像生成システム | |
JP6632134B2 (ja) | 画像処理装置、画像処理方法およびコンピュータプログラム | |
CN112752110A (zh) | 视频呈现方法及装置、计算设备、存储介质 | |
JP6623905B2 (ja) | サーバ装置、情報処理方法およびプログラム | |
KR102161705B1 (ko) | 섹션 정보 생성 장치 및 이를 이용하여 섹션 정보를 생성하는 방법 | |
EP3752956B1 (en) | Methods, systems, and media for detecting two-dimensional videos placed on a sphere in abusive spherical video content | |
JP5159654B2 (ja) | 映像処理装置および映像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160407 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5918098 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |