JP5111627B2 - 映像処理装置及び映像処理方法 - Google Patents

映像処理装置及び映像処理方法 Download PDF

Info

Publication number
JP5111627B2
JP5111627B2 JP2011013263A JP2011013263A JP5111627B2 JP 5111627 B2 JP5111627 B2 JP 5111627B2 JP 2011013263 A JP2011013263 A JP 2011013263A JP 2011013263 A JP2011013263 A JP 2011013263A JP 5111627 B2 JP5111627 B2 JP 5111627B2
Authority
JP
Japan
Prior art keywords
frame
display
evaluation
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011013263A
Other languages
English (en)
Other versions
JP2011234343A (ja
Inventor
裕尚 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011013263A priority Critical patent/JP5111627B2/ja
Priority to US13/073,280 priority patent/US8654131B2/en
Publication of JP2011234343A publication Critical patent/JP2011234343A/ja
Application granted granted Critical
Publication of JP5111627B2 publication Critical patent/JP5111627B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像コンテンツとメタデータを受信してコンテンツ視聴のための処理を行う映像処理装置及び映像処理方法に関する。
現在放送波等で送信されるコンテンツには、映像や音声のデータだけでなく、付加情報として様々なメタデータが付加されている。またDVD等の記録媒体に記録されたコンテンツデータについても、様々な付加情報の利用形態が検討されており、今後、さらに詳細な付加情報の使用が予想され、利便性の向上が期待される。
付加情報の応用方法は多々考えられるが、ユーザに付加情報を提示することで、コンテンツの情報内容や登場人物等の把握を容易にし、視聴を支援する各種技術が提案されている。以下では、映像を構成する要素、例えば登場人物等のキャラクタや、椅子や建物等のアイテムをオブジェクトと呼ぶ。
映像音声コンテンツと、該コンテンツの再生時間と対応付けられた関連情報を含んだメタデータを受信して、映像音声コンテンツを再生すると共に、再生時間に対応した関連情報を表示する技術が知られている(特許文献1参照)。
特開2009−65712号公報
従来技術では、受信機が指定されたタイミングで、番組やシーンに関連した関連情報を視聴者に提示する。しかしながら、従来は映像に登場するオブジェクトの表示状態に基づき、オブジェクトの関連情報を提示するタイミングを制御するようなことはしていなかった。
例えば、対象となる登場人物が画面に小さく表示されている場合や、他の登場人物が多数表示されている場合、視聴者に対して登場人物の関連情報を適切なタイミングで提示する必要がある。そうしないと、視聴者は提示された関連情報がどの人物に関するものであるかが分かり難いといった事態が起こり得る。
そこで、本発明は映像に登場するオブジェクトの表示状態に基づき、適切なタイミングでオブジェクトの関連情報を提示可能な映像処理装置及び映像処理方法の提供を目的とする。
上記課題を解決するために本発明に係る装置は、映像データに含まれるオブジェクトの関連情報の表示制御を行う映像処理装置であって、前記映像データを構成する各フレームに表示されるオブジェクトの表示状態を示すフレームデータを取得し、各フレームに表示されるオブジェクトの表示特徴情報を算出する表示特徴情報算出手段と、前記表示特徴情報算出手段が算出した前記表示特徴情報を取得して、各フレームについて前記表示特徴情報がオブジェクトの注目度に係わる評価基準を満たすか否かを判定することでフレーム評価を行うフレーム評価手段と、前記フレーム評価手段によるフレーム評価の結果、前記評価基準を満たすフレームの数が閾値以上に亘って連続する場合に、前記オブジェクトの関連情報の表示を開始するフレームを決定する表示タイミング決定手段と、を備える。
本発明によれば、映像内でのオブジェクトの注目度に係わる評価基準に基づくフレーム評価結果に従ってオブジェクトの関連情報の表示制御を行うことができ、ユーザの利便性が向上する。
本発明の一実施形態に係る装置の概略構成を例示するブロック図である。 図3乃至7と併せて本発明の第1実施形態を説明するために、オブジェクトデータ(A)と、フレームデータ(B)を例示した図である。 オブジェクトの関連情報のグラフィックスデータを例示する説明図である。 オブジェクトの関連情報の表示タイミング決定処理例を示すフローチャートである。 フレームデータや映像信号に基づいて算出される表示特徴情報の一例を示す図である。 関連情報の表示開始判断処理の流れを例示したフローチャートである。 フレームカウント管理情報の一例を示す図である。 図9と併せて本発明の第2実施形態を説明するために、オブジェクトの関連情報の表示タイミング決定処理の流れを例示したフローチャートである。 フレームデータ(A)、表示特徴情報(B)を例示した図である。 図11乃至13と併せて本発明の第3実施形態を説明するために、装置の概略構成を例示するブロック図である。 関連情報の表示開始および表示終了の判断処理の流れを例示したフローチャートである。 フレーム評価項目ごとの評価値と、フレーム総合評価値の一例(A)と、フレーム総合評価値に応じた表示フレーム数の決定テーブルの一例(B)を例示した図である。 フレーム総合評価値とオブジェクト表示フレーム数との関係を表すタイムラインを(A)乃至(C)に例示した図である。 図15乃至17と併せて本発明の第4実施形態を説明するために、装置の概略構成を例示するブロック図である。 関連情報の表示サイズ決定処理について説明するフローチャートである。 文字サイズを決定する場合の決定テーブル(A)、文字数を決定する場合の決定テーブル(B)、情報項目を決定する場合の決定テーブル(C)を例示した図である。 オブジェクトによって関連情報の表示サイズおよび表示内容が変わる場合の表示画面例を示す図である。
本発明に係る映像処理装置は映像データとその付加情報を処理する。映像を構成する各オブジェクトの関連情報の表示制御については、該装置が表示部を備えた実施形態と、装置が映像信号を出力して外部の表示装置に映像を表示させる形態が挙げられる。
[第1実施形態]
以下、本発明の第1実施形態について説明する。第1実施形態に係る映像処理装置では、コンテンツ再生中に関連情報を付加されたオブジェクトが登場した場合、その関連情報の表示タイミングを制御する。
図1は、映像処理装置10としてコンテンツ受信装置の構成例を示すブロック図である。
コンテンツ受信部101は、外部インタフェース100よりコンテンツデータを受信する。外部インタフェース100は、コンテンツデータを伝送路から受信するためのインタフェースであればよく、例えばデジタル放送受信アンテナ、インターネット接続ルータ等が使用可能である。また、コンテンツデータは映像音声信号に付加情報を付加できれば、形式の如何を問わないが、本実施形態ではMPEG2−TSを例に説明する。MPEG2−TS(トランスポートストリーム)形式では、映像と音声の多重化方式を定義しており、MPEGは“Moving Picture Experts Group”の略号である。コンテンツ受信部101は受信したMPEG2−TSデータから付加情報を分離して付加情報取得部106に出力する。またコンテンツ受信部101は映像音声信号を復号化し、データバッファ部102に出力する。
データ蓄積用のデータバッファ部102は、コンテンツ受信部101から受信した映像音声信号を、一定時間(所定のフレーム数に相当する時間)に亘って保持した後、音声信号をスピーカ103に出力し、映像信号を合成部104に出力する。データバッファ部102が蓄積して保持するフレームの数については表示タイミング決定部109から指示される。スピーカ103はデータバッファ部102からの音声信号に従って音声を出力する。
合成部104は、後述の表示データ作成部110から取得したグラフィックスデータとデータバッファ部102から取得した映像データを合成し、合成後の映像信号を表示部105に出力する。表示部105は合成部104からの映像信号に従って映像を表示する。付加情報取得部106は、コンテンツ受信部101から付加情報を取得し、オブジェクトデータとフレームデータを抽出する。オブジェクトデータはコンテンツに登場するオブジェクトの関連情報を示し、フレームデータは、映像データを構成する各フレームにてオブジェクトが表示される状態を示す。付加情報取得部106は、表示特徴情報算出部107に対し、抽出したフレームデータを出力する。また付加情報取得部106は、表示データ作成部110の指示を受けて、対応するオブジェクトデータを表示データ作成部110に出力する。
図2(A)にオブジェクトデータの一例を示し、図2(B)にフレームデータの一例を示す。本例に示すオブジェクトデータは、オブジェクト固有のID番号(オブジェクトID)と、オブジェクトに関する各種情報を含む。例えばドラマの出演者等の場合、オブジェクトに関する情報には、名前、役名、主な出演作等が挙げられる。また、フレームデータは映像の各フレームにおいて、映像に含まれるオブジェクトのオブジェクトIDとその位置や大きさ等の情報を含む。図2(B)に例示するフレームデータにおいて、フレームIDは各映像フレームに固有のIDである。また、オブジェクトIDは、対応するフレームIDの映像に現れるオブジェクトの識別情報(オブジェクトID)である。Z深度は、複数のオブジェクトが重なっている場合の表示順を示す。その値がゼロの場合にオブジェクトが視聴者から見て一番手前に表示され、数値の増加に従ってより背後に表示される。x座標、y座標は、オブジェクトの表示位置に関して、その左上に位置する点の位置座標を示す。幅、高さはオブジェクトの幅、高さをそれぞれ示す。なお、x軸及びy軸の2次元直交座標系は表示画面の所定位置を原点として、例えばx軸が水平軸、y軸が垂直軸として設定される。
オブジェクトの関連情報の表示タイミングを制御する表示制御部は、表示特徴情報算出部107と、後述するフレーム評価部108や表示タイミング決定部109によって構成される。表示特徴情報算出部107は付加情報取得部106からフレームデータを取得し、コンテンツ受信部101から映像信号を取得して、フレームごとに表示特徴情報を算出する。算出した表示特徴情報は、フレーム評価部108に送信される。ここで、表示特徴情報は、対象となるオブジェクトの映像フレーム内での表示状態の特徴量を示し、例えばフレーム内でのオブジェクトの表示サイズ等の情報を含む。その詳細は後述する。
フレーム評価部108は、表示特徴情報算出部107から表示特徴情報を取得し、映像フレーム内において、オブジェクトが注目されているか否かを判定し、判定結果に基づいてフレーム評価を行う。評価結果は表示タイミング決定部109に出力される。映像内でのオブジェクトの注目度に関する判定処理については後述する。
表示タイミング決定部109はフレーム評価部108から評価結果を受け取る。表示タイミング決定部109は、オブジェクトの関連情報の表示を開始するタイミングを決定し、合成部104に対して合成開始を指示する。また表示タイミング決定部109は、表示タイミングを決定するために必要なフレーム数に基づいて、データバッファ部102に対し、保持すべきフレーム数を指示する。
表示データ作成部110は、付加情報取得部106からオブジェクトデータを取得し、表示するオブジェクトデータのグラフィックス(user interface)データを作成する。図3はグラフィックスデータの一例を示す。グラフィックスデータは、オブジェクトデータから取得したオブジェクトの名前や役名等を表示するデータである。なお、図1の画像解析部902や、符号10、106乃至108の横の括弧内に示す数字の意味については、後述の第2実施形態で説明する。
次に図4のフローチャートを用いて、オブジェクトの関連情報について表示タイミング決定処理の流れを説明する。
S501でコンテンツ受信部101は、受信したコンテンツデータから付加情報を分離して付加情報取得部106に送信する。またコンテンツ受信部101は映像音声データを復号化し、処理後のデータにフレームIDを付加した上でデータバッファ部102に出力する。データバッファ部102は表示タイミング決定部109から、データを保持すべきフレーム数の指示を受けて、該フレーム数分のデータを保持し、映像信号をフレームIDと共に合成部104に出力し、音声信号をスピーカ103に出力する。
S502で付加情報取得部106はコンテンツ受信部101からの付加情報を受け取り、オブジェクトデータとフレームデータを抽出する。付加情報取得部106はフレームデータを表示特徴情報算出部107に送信する。S503で表示特徴情報算出部107は、フレームデータと映像信号に基づいて表示特徴情報を算出し、算出結果をフレーム評価部108に出力する。なお表示特徴情報の算出処理の詳細については後述する。S504でフレーム評価部108は、表示特徴情報算出部107から取得した表示特徴情報を用いて、オブジェクトごとにフレーム評価を行う。表示特徴情報を参照した結果、オブジェクトが映像フレーム内にて注目される状態で表示されていると判定された場合、該フレームは該オブジェクトにとって関連情報の表示に適したフレームであると評価される。フレーム評価結果としての表示の適否について、以下では、関連情報の表示に適したフレームの場合に「OK」、不適のフレームの場合に「NG」で表記する。フレーム評価処理の詳細については後述する。なおフレームIDがXのフレームを「フレームX」と呼び、オブジェクトIDがYのオブジェクトを「オブジェクトY」と呼ぶことにする。X,Yは自然数を表す。
S505で表示タイミング決定部109は、オブジェクトごとのフレーム評価結果を取得し、S506に進む。ここで表示タイミング決定部109は、オブジェクトごとのフレーム評価結果に基づいて、オブジェクトごとに関連情報の表示を開始するか否かを判断する。フレーム評価結果が「OK」を示すフレームが、予め決められたフレーム数以上に亘って連続していた場合、表示タイミング決定部109はオブジェクトの関連情報の表示開始を判断する。この場合、図3に示すようにグラフィックスデータが表示画面に表示されることになる。なおオブジェクトの関連情報の表示開始についての判断処理の詳細は後述する。
以下、表示特徴情報の算出処理を説明する。図2に示すオブジェクトデータ及びフレームデータを用いて、フレーム1の表示特徴情報を算出する方法について具体的に説明する。図5は、算出されたフレームID1の表示特徴情報を例示する。表示特徴情報算出部107はオブジェクトごとに表示特徴情報を算出する。本例の表示特徴情報は、オブジェクトサイズ、画面中心からの距離、動き量、重なり領域サイズ、明度、被写体の顔の向きを示す各項目である。
オブジェクトサイズは、表示画面におけるオブジェクトのサイズであり、具体的にはフレームデータの幅及び高さの情報を用いて算出される面積である。また画面中心からの距離(r)は、表示画面の中心座標とオブジェクトの中心座標との距離である。動き量は画面上でのオブジェクトの位置変化を表し、フレーム間、すなわち前回のフレームと今回のフレームとの間でのオブジェクトの変位量である。重なり領域サイズは、オブジェクトの表示領域の手前に他のオブジェクトが重なって表示されている場合、重なり合った領域の大きさを示す。Z深度がゼロの場合、そのオブジェクトは映像の一番手前に映っているため、重なり領域サイズはゼロとなる。Z深度が1以上の場合には、各オブジェクトのx座標及びy座標、幅、高さから、手前に表示されているオブジェクトと重なっている領域の面積が算出される。この面積が重なり領域サイズとなる。例えば図2及び図5に示すオブジェクト3の場合、フレームID1においてZ深度が1であり、オブジェクト2と重なっているため、重なり領域サイズが6000となる。
明度については、全映像域からオブジェクトが表示されている領域を切り出し、切り出した領域内における画像の各ピクセルの明度について平均値を計算することにより算出される。また被写体の顔の向きについては、全映像域からオブジェクトが表示されている領域を切り出し、この切り出した領域内の画像から、顔が正面を向いているか否かを表示特徴情報算出部107が判定する。顔が正面を向いていると判定された場合、判定結果を示す数値は「1」となり、それ以外の場合(顔領域が存在しないか、または正面を向いていない)はゼロとなる。なお顔方向の判定については、公知の技術によって可能である。例えば、顔が写っている顔領域の周辺に複数の顔向き検出領域を設定し、顔向き検出領域ごとに特徴量を取得して比較することにより、顔の向きを検出できる。
本例では、合計6つの表示特徴情報を算出する処理について説明したが、選択的にいくつかの表示特徴情報を算出してもよく、表示特徴情報の種類を限定するものではない。オブジェクトの映像フレーム内での表示状態を示す情報であれば、さらに別の種類の情報を用いても構わない。
次に、フレーム評価処理について説明する。本処理では、フレーム評価部108が、取得した表示特徴情報に基づいて評価する。フレーム評価結果は、評価対象となるオブジェクトが映像フレームにおいて注目される状態で表示されているか否かを示す指標である。以下、図5の表示特徴情報を用いて、具体的にフレーム評価方法を説明する。
下記の評価基準1乃至8に示す判定条件が全て満たされた場合、フレーム評価部108は、評価対象フレームが、評価対象であるオブジェクトの関連情報を表示するのに適していると判定し、フレーム評価結果を「OK」とする。
1.オブジェクトサイズが予め設定された範囲内であること(許容範囲を100000〜1500000とし、上限閾値と下限閾値を含む)。
2.画面中心からの距離が閾値未満であること(閾値を700とする)。
3.動き量が閾値未満であること(閾値を3とする)。
4.重なり領域サイズがオブジェクトサイズに対して占める割合は、判定基準である百分率x%以下であること(x=50とする)。
5.明度が閾値以上であること(閾値を100とする)。
6.顔の向きが正面であること(判定結果の数値が1であること)。
7.同一フレームに存在する他のオブジェクトの数が閾値以下であること(閾値を3とする)。
8.評価対象であるオブジェクトのサイズが、同一フレームに存在するほかのオブジェクトのサイズよりも大きいこと。
なお、括弧内に示す数値は本実施形態での基準値を例示的に示す。
図5に示す表示特徴情報を例にして、フレーム1について各オブジェクトの判定処理を説明すると、以下のようになる。まずオブジェクト1に関しては、前記評価基準1乃至8を全て満たしている。フレーム評価部108は、フレーム1がオブジェクト1の関連情報を表示するのに適していると判定する(判定結果「OK」)。オブジェクト2に関しては、前記評価基準1、2、8を満たしていない。よってフレーム評価部108は、フレーム1がオブジェクト2の関連情報の表示に適していないと判定する(判定結果「NG」)。オブジェクト3に関しては、前記評価基準1、2、4、6、8を満たしていないため、フレーム1はオブジェクト3の関連情報の表示に適していないと判定される(判定結果「NG」)。
本実施形態では、フレーム内でのオブジェクトの注目度に係わる所定の評価基準1乃至8による判定条件を用いてフレーム評価を行ったが、これに限らず、各評価基準を選択的に利用してもよい。また評価基準8では、同一フレーム内で評価対象となる第1のオブジェクトと、それ以外の他の第2のオブジェクトとの相対的なサイズについて判定しているが、前記した具体例以外の表示特徴情報に係る評価基準を用いてもよく、評価方法を限定するものではない。
次に図5のS506に示した処理(オブジェクトごとの表示開始判断処理)について、図6のフローチャートに従って説明する。
各ステップの説明に先立ち、表示開始判断処理で使用するフレームカウント管理情報(以下、FC管理情報という)について説明する。図7は、オブジェクトごとのFC管理情報を例示する。オブジェクトIDは、対象となるオブジェクトのオブジェクトIDを示す。フレームカウント開始フレームIDは、フレーム評価がNGからOKに変化し、フレームカウントが開始されたフレームのフレームIDである(以下、単に開始フレームIDという)。フレームカウント値は、フレームカウントが開始されたフレームから、連続してフレーム評価結果が「OK」であったフレームの数である。表示履歴は、対象となるオブジェクトの関連情報を前回表示したときのフレームのフレームIDを示す。
図6のS701で表示タイミング決定部109は、FC管理情報にて対象となるオブジェクトの表示履歴を参照し、過去に該オブジェクトの関連情報を表示したフレームから、一定数のフレームに相当する時間が経過しているか否かを判定する。一定数のフレームに相当する時間は予め設定されており、該時間が経過していない場合、処理を終了する。これにより、オブジェクトの関連情報が一旦表示された後では、一定時間の経過後に再度、関連情報の表示が可能となる。
S701で前回の表示時点から一定数のフレームに相当する時間が経過している場合、または、対象とするオブジェクトの関連情報が一度も表示されていない場合、S702に進む。ここで表示タイミング決定部109は、オブジェクトのフレーム評価結果が「OK」であるか、又は「NG」であるかを判定する。フレーム評価結果が「OK」の場合、S703に進み、表示タイミング決定部109は、対象とするオブジェクトのフレームカウント値を加算する。また、該フレームからフレームカウントが開始された場合(つまり、フレームカウント値が1の場合)、表示タイミング決定部109は、開始フレームIDの情報として、フレームカウントの加算が開始された現時点でのフレームIDを保存する。一方、フレーム評価結果が「NG」の場合、S704に進む。ここで表示タイミング決定部109は、FC管理情報における対象オブジェクトのフレームカウント値及び開始フレームIDをリセットし、処理を終了する。
S703に続くS705で表示タイミング決定部109は、FC管理情報を参照し、対象となるオブジェクトのフレームカウント値が閾値以上であるか否かを判定する。閾値としては、例えば、300フレーム(60フレーム/秒のコンテンツならば5秒分)とする。フレームカウント値が閾値未満の場合、処理は終了するが、閾値以上の場合、S706に進む。ここで表示タイミング決定部109は、表示データ作成部110に対して、対象となるオブジェクトの関連情報に係る表示データの作成を指示する。表示データ作成部110は、付加情報取得部106から、対象とするオブジェクトに係るオブジェクトデータを取得し、グラフィックスデータを作成する。
S707で表示タイミング決定部109は合成部104に対して、オブジェクトIDと合成開始フレームIDを通知する。ここで、合成開始フレームIDは、前記したフレームカウントの開始フレームIDである。合成部104は、表示データ作成部110から、通知されたオブジェクトIDに対応するグラフィックスデータを取得する。通知された合成開始フレームIDと同じフレームIDの映像を表示するタイミングで、取得済みのグラフィックスデータが映像データに合成されて表示される。
S708で表示タイミング決定部109はFC管理情報を更新する。FC管理情報のうち、対象となるオブジェクトの表示履歴に、オブジェクトの関連情報の表示開始を要求した時点を示す合成開始フレームIDが保存される。S704やS708の後、又はS701若しくはS705での判断結果がNOの場合、前記した一連の処理が終了する。
第1実施形態によれば、オブジェクトの関連情報の表示に適した状態でオブジェクトが画面に表示されているか否かを判断し、判断結果に基づいてオブジェクトの関連情報を表示することができる。つまり、映像に登場するオブジェクトの表示状態に基づき、映像内のオブジェクトが注目されているタイミングでオブジェクトの関連情報が表示される。視聴者は、適切なタイミングでオブジェクトの関連情報を見ることができるため、オブジェクトとその関連情報を容易に把握できる。
[第2実施形態]
次に本発明の第2実施形態について説明する。第2実施形態に係る映像処理装置20は、取得したコンテンツデータに対して装置自身が付加情報として関連情報をオブジェクトに付加し、関連情報を付加されたオブジェクトが登場した場合、関連情報を表示するタイミングを制御する。例えば、ユーザが撮影した個人的なコンテンツデータに対して、人物名などの関連情報をユーザが装置に設定する場合などが想定される。第1実施形態に係る装置との相違点は、図1に示す画像解析部902と該解析部に関係する構成部の動作である。よって、これらについて説明し、第1実施形態の場合と同様の構成要素については、既に付した符号を用いることにより、詳細な説明を省略する。
コンテンツ受信部901は、受信したコンテンツデータから映像音声信号を分離して復号化し、画像解析部902とデータバッファ部102に出力する。またコンテンツ受信部901は、受信したコンテンツデータにオブジェクトデータやフレームデータが付加されているか否かを判定する。コンテンツデータにオブジェクトデータやフレームデータが付加されていた場合、分離した付加情報は付加情報取得部903に出力され、映像音声信号はデータバッファ部102に出力される。コンテンツデータにオブジェクトデータやフレームデータが付加されていなかった場合、映像信号は画像解析部902に出力される。コンテンツデータは映像音声情報を含み、例えば、MPEG2−TSや、AVCHD規格によるファイルフォーマットのデータ等が挙げられる。AVCHDは“Advanced Video Codec High Definition”の略号である。
画像解析部902は、コンテンツ受信部901からコンテンツの映像音声信号を受信して画像解析を行い、コンテンツのオブジェクトデータ、フレームデータを生成する。これらのデータは付加情報取得部903に送られる。また、映像音声信号はフレームIDと対応付けてから、データバッファ部102に出力される。
付加情報取得部903は、コンテンツ受信部901から付加情報を受け取り、オブジェクトデータ、フレームデータを抽出する。あるいは付加情報取得部903は、画像解析部902からオブジェクトデータ、フレームデータを取得する。そして付加情報取得部903は、表示特徴情報算出部904にフレームデータを出力し、表示データ作成部110にオブジェクトデータを出力する。
表示特徴情報算出部904は、付加情報取得部903から取得したフレームデータに基づき、表示特徴情報を算出する。フレーム評価部905には、算出後の表示特徴情報が送られる。表示特徴情報の算出処理では、フレームデータに含まれる情報に従って、算出可能な表示特徴情報のみが算出される。
フレーム評価部905は表示特徴情報算出部904から表示特徴情報を取得し、映像フレーム内でオブジェクトが注目されているか否かを判定する。判定結果に基づいてフレーム評価が行われ、フレーム評価結果は表示タイミング決定部109に出力される。フレーム評価部905は、取得した表示特徴情報に応じて、フレーム評価基準を選択する。
次に、図8のフローチャートに従って、オブジェクトの関連情報を表示するタイミングの決定処理について説明する。以下、図4と相違するS1001乃至1010の処理を説明する。
S1001にてコンテンツ受信部901はコンテンツデータを受信する。S1002でコンテンツ受信部901は、受信したコンテンツデータを解析し、オブジェクトデータ及びフレームデータが付加されているか否かを判定する。オブジェクトデータ及びフレームデータが付加されている場合、S1003に進むが、これらのデータが付加されていない場合、S1006に進む。
S1003でコンテンツ受信部901は映像音声データを復号化し、これにフレームIDを付加した上でデータバッファ部102に出力する。S1004でコンテンツ受信部901は付加情報取得部903に付加情報を出力する。S1005で付加情報取得部903は、取得した付加情報からオブジェクトデータとフレームデータを抽出し、フレームデータを表示特徴情報算出部904に出力する。
S1006でコンテンツ受信部901は、映像音声信号を画像解析部902に出力する。S1007で画像解析部902は、コンテンツ受信部901からコンテンツの映像音声信号を受信して画像解析を行い、コンテンツのオブジェクトデータ、フレームデータを生成する。また画像解析部902は、映像音声信号にフレームIDを付加した上で、データバッファ部102に出力する。S1008で画像解析部902は、オブジェクトデータとフレームデータを付加情報取得部903に出力する。付加情報取得部903は、取得したフレームデータを表示特徴情報算出部904に出力する。
S1009で表示特徴情報算出部904は、付加情報取得部903からフレームデータを取得し、またコンテンツ受信部901から映像信号を取得する。表示特徴情報算出部904は、取得済みのフレームデータと映像信号を用いて表示特徴情報を算出する。表示特徴情報の算出処理については後述する。
S1010でフレーム評価部905は、表示特徴情報算出部904から取得した表示特徴情報を用いてオブジェクトごとにフレーム評価を行う。表示特徴情報に基づいて、評価基準を選択した上でフレーム評価処理が行われる。フレーム評価処理の詳細については後述する。そして、S505、S506へと進む。
次に、表示特徴情報の算出処理について説明する。表示特徴情報の算出方法は、第1実施形態の場合と同様であるが、表示特徴情報算出部904は、付加情報取得部903から取得したフレームデータに基づいて、算出可能な表示特徴情報のみを算出する。具体的には、第1実施形態にて列挙した表示特徴情報である、オブジェクトサイズ、画面中心からの距離、動き量、重なり領域サイズ、明度、顔の向きのうち、算出可能な情報だけが処理対象とされる。
図9(A)はフレームデータの一例を示し、図9(B)は表示特徴情報算出部904が算出した、フレームID1に係る表示特徴情報の一例を示す。図9(A)において、フレーム1にはZ深度情報が存在しない。よって、表示特徴情報算出部904は、重なり領域サイズを無効値として算出する。また、映像信号から顔の向きを算出する処理において、顔の向きを判定できなかった場合、その情報は無効値として算出される。図9(B)に示すフレーム1に係る表示特徴情報では、重なり領域サイズと顔の向きの各情報が無効値(「−」参照)となっている。
このように、フレームデータや映像信号から算出できない表示特徴情報については無効値とすれば、フレームデータの構成が異なる場合においても、表示特徴情報を算出することができる。例えば、放送波に付加されるフレームデータと映像処理装置での解析によって得られたフレームデータとで構成が異なる場合や、付加されているフレームデータの構成がフレームによって異なるコンテンツを受信する場合等が挙げられる。
次に、フレーム評価処理について説明する。フレーム評価方法は第1実施形態の場合と同様であるが、フレーム評価部905は、表示特徴情報算出部904から取得した表示特徴情報に基づいて、フレーム評価基準をフレームごとに選択する。
以下、図9(B)の表示特徴情報を用いて、フレーム評価方法について具体的に説明する。フレーム1では、表示特徴情報のうち、重なり領域サイズと顔の向きが無効値となっている。また、フレーム1ではオブジェクトが1つしか存在しない。そこで、フレーム評価部905は、前述の評価基準4、6、8を除外した残りの評価基準を全て満たすか否かを判定してフレーム評価を行う。このように、表示特徴情報に基づいて、フレーム評価基準をフレームごとに変更することで、フレームによって表示特徴情報の内容が異なる場合においても、フレーム評価を行える。
本例では、映像処理装置20に画像解析部902を設けて付加情報を生成したが、例えばネットワークで接続された外部サーバ等から付加情報の全部又は一部を取得するインタフェース部を設けることで、前記と同様の処理を実現できる。
第2実施形態によれば、受信したコンテンツに付加情報が付加されていなくても、装置内で付加情報を生成する。そして、映像内で対象となるオブジェクトが注目される状態で表示されていることが所定の評価基準に従って判定された場合、該オブジェクトの関連情報が表示される。
[第3実施形態]
次に本発明の第3実施形態について説明する。図10は第3実施形態に係る映像処理装置30の構成例を示す。該装置は、第1実施形態で説明したオブジェクトの関連情報の表示開始タイミングだけではなく、表示終了タイミングも制御する。第1実施形態に係る映像処理装置10との主な相違点は、図10に示す表示タイミング決定部301、フレーム評価部302、合成部303の動作である。よって、これらについて説明し、第1実施形態と同様の構成要素については、既に付した符号を用いることにより、詳細な説明を省略する。
表示タイミング決定部301は、第1実施形態で説明した動作に加え、決定した表示開始フレームのID番号(表示開始フレーム番号)をフレーム評価部302と合成部303に通知する。フレーム評価部302は、通知された表示開始フレームから予め設定された複数フレーム分のフレーム評価値を表示タイミング決定部301に送信する。表示タイミング決定部301は、フレーム評価部302から送信されたフレーム評価値に応じて、前記オブジェクトの関連情報の表示フレーム数を決定し、合成部303に通知する。合成部303は、表示タイミング決定部301から通知された表示開始フレーム番号と表示フレーム数に従い、前記オブジェクトの関連情報の合成処理の開始および停止を行う。
以下、図11のフローチャートに従い、表示タイミング決定部301による表示フレーム数の決定処理について説明する。ここでは、第1実施形態にて説明した図6の処理と異なるS1101乃至1103の処理を説明する。
S706に続くS1101で表示タイミング決定部301は、表示開始フレーム番号をフレーム評価部302に通知する。フレーム評価部302は通知された表示開始フレームから、1200フレーム(例えば60フレーム/秒のコンテンツならば20秒分)のフレーム評価値を表示タイミング決定部301に送信する。表示タイミング決定部301は、フレーム評価値に応じて表示フレーム数を決定し、合成部303に表示フレーム数を通知する。表示フレーム数の決定方法の詳細は後述する。さらに合成部303は、表示タイミング決定部301から通知された表示開始フレーム番号と表示フレーム数から、表示終了フレーム番号を算出する。例えば、表示開始フレーム番号が2000、表示フレーム数が300の場合、表示終了フレーム番号は、2000+300=2300となる。S1101の後でS707に進む。
S704、S708の後や、S701、S705での判定結果がNOの場合、S1102に進む。S1102で合成部303は、現在の表示フレーム番号が、前記S1101で算出した表示終了フレーム番号と一致するか否かを判定する。不一致の場合、次の表示フレームにおいて、S1102の判定を繰り返し実行する。前記フレーム番号が一致する場合、S1103に進み、合成部303はオブジェクトの関連情報に係る表示データの合成処理を停止する。
次に、フレーム評価値に応じた表示フレーム数の決定方法について詳細に説明する。フレーム評価部302は、下記5項目によってフレーム総合評価を行う。ここでは、第1実施形態で説明した項目のうち、表示フレーム数の決定に適した評価項目を抽出して使用する。
1.オブジェクトのサイズ(サイズが大きいほど評価値を高くする)。
2.オブジェクトの画面中心からの距離(距離が小さいほど評価値を高くする)。
3.オブジェクトの動き量(動き量が小さいほど評価値を高くする)。
4.オブジェクトの明度(明度値が中間の場合に、最も高い評価値とする)。
5.対象オブジェクトと同一フレームに存在する他のオブジェクトの数(オブジェクトが少ないほど評価値を高くする)。
フレーム評価部302は、上記5項目の平均値を算出してフレームの総合評価値を決定する。
図12(A)は、フレーム評価部302が算出する前記フレーム評価項目ごとの評価値と、フレーム総合評価値を例示する。本例ではフレーム評価項目を前記5項目に設定し、フレーム総合評価値を前記5項目の平均値で決定している。この算出方法は一例であり、第1実施形態で説明した評価項目を含めて、選択的に評価項目を利用してもよい。また、フレーム総合評価値の算出において、単純な平均値を用いたが、特定の項目に重みづけをした上で平均してもよく、評価値算出方法を限定するものではない。
表示タイミング決定部301は、フレーム評価部302が算出したフレーム総合評価値に応じて、オブジェクトの関連情報の表示フレーム数を決定し、合成部303に通知する。図12(B)は、フレーム総合評価値に応じた表示フレーム数の決定テーブルを例示する。フレーム総合評価値が高いほどオブジェクトの関連情報の表示フレーム数が多くなる。また、表示タイミング決定部301は、オブジェクトの関連情報の表示期間内にて、フレーム総合評価値を設定閾値と比較する。フレーム総合評価値が設定閾値よりも小さいフレームが存在する場合、表示タイミング決定部301はオブジェクトの関連情報の表示を当該フレームで停止すべきと判断し、該フレームまでのフレーム数を算出して合成部303に通知する。
図13(A)乃至(C)は、フレーム総合評価値と、オブジェクトの表示フレーム数との関係を表すタイムライン図である。縦軸はフレーム総合評価値(0乃至10)、横軸はコンテンツの再生時間(単位:秒)を示す。また、グラフの下側に示す帯状の表示部分のうち、白色で示す期間(時刻t1乃至t2参照)はオブジェクトの関連情報が表示される期間である。また、斜線で示す期間(時刻t0乃至t1と、時刻t2乃至t3参照)はオブジェクトの関連情報が表示されない期間である。図13(A)は、フレーム総合評価値が平均的に高いため、オブジェクトの関連情報の表示フレーム数が多い例を示す。図13(B)は、フレーム総合評価値が平均的に低いため、オブジェクトの関連情報の表示フレーム数が少ない例であり、時刻t1乃至t2に示す表示期間の長さが短い。図13(C)は、フレーム総合評価値が閾値より低くなったフレームの時点でオブジェクトの関連情報の表示が停止した例である。
以上、第3実施形態によれば、オブジェクトの関連情報の表示開始タイミング制御に加え、オブジェクトの表示状態の評価値に応じて表示終了タイミングを適切に制御することができる。
[第4実施形態]
次に本発明の第4実施形態を説明する。図14は第4実施形態に係る映像処理装置40の構成例を示す。該装置は、第1実施形態で説明したオブジェクトの関連情報の表示開始タイミング制御に加え、表示サイズや表示情報量を制御する。第1実施形態に係る映像処理装置10との相違点は、図14に示す表示タイミング決定部401、フレーム評価部402、表示サイズ決定部403、表示データ作成部404の動作である。よって、これらについて説明し、第1実施形態と同様の構成要素については、既に付した符号を用いることにより、詳細な説明を省略する。
表示タイミング決定部401は、表示開始フレーム番号をフレーム評価部402に通知する。フレーム評価部402は、通知された表示開始フレームから複数のフレームに亘るフレーム評価値を表示サイズ決定部403に送信する。表示サイズ決定部403は、フレーム評価部402から送信されたフレーム評価値に応じて、前記オブジェクトの関連情報の表示サイズ(表示文字サイズおよび表示情報量)を決定し、表示サイズ情報を表示データ作成部404に通知する。表示データ作成部404は、通知された表示サイズ情報に応じて、オブジェクトの関連情報の表示データを作成して合成部104に送信する。
次に、図15のフローチャートに従い、表示サイズ決定部403による、表示サイズ決定処理について説明する。ここでは、第1実施形態において説明した図6の処理と異なるS1401およびS1402の処理を説明する。
S705(判定結果YES)に続くS1401において、フレーム評価部402は、表示開始フレームから複数フレーム分のフレーム評価値を表示サイズ決定部403に送信する。表示サイズ決定部403は、フレーム評価値に応じて表示サイズを決定し、表示サイズ情報を表示データ作成部404に通知する。S1402で表示データ作成部404は、通知された表示サイズ情報に基づいて、オブジェクトの関連情報の表示データを作成して合成部104に送信する。そしてS707に進む。
次に、フレーム評価値に応じた表示サイズの決定方法を詳細に説明する。フレーム評価部402は、第3実施形態で説明した方法と同様にフレーム評価値を算出し、表示サイズ決定部403に対して、表示開始フレームから予め設定された複数フレーム分のフレーム総合評価値を送信する。総合評価に利用する項目は、第3実施形態で説明した項目と同様とする。なお、算出方法は一例にすぎず、第1実施形態で説明した評価項目を含めて、選択的に評価項目を利用してもよい。また、フレーム総合評価値の算出において、単純な平均値を用いたが、特定の項目に重みづけをした上で平均してもよく、評価値算出方法を限定するものではない。
表示サイズ決定部403は、複数フレームに亘るフレーム総合評価値を用いて、表示サイズを決定する。表示サイズの決定処理は、下記の4種類の基準で行う。
1.フレーム総合評価値の平均値が高いほど、文字サイズを大きくすること。
2.フレーム総合評価値の平均値が高いほど、文字数を多くすること。
3.フレーム総合評価値の平均値が高いほど、情報項目を多くすること。
4.前記1、2、3の基準を組み合わせて、文字サイズ、文字数、情報量を決定すること。
図16(A)は文字サイズの決定に用いる参照テーブルを例示し、図16(B)は文字数の決定に用いる参照テーブルを例示する。図16(C)には情報項目の決定に用いるテーブル例を示す。
また、図17には、オブジェクトに応じてその関連情報の表示サイズおよび表示内容が変更される場合の表示画面例を示す。本例では、画面中央に位置する人物のオブジェクトについてはフレーム総合評価値の平均値が高いため、関連情報の文字サイズが大きく、かつ項目数が多くなっている。一方、画面端寄りの人物のオブジェクトについてはフレーム総合評価値の平均値が低いため、関連情報の文字サイズが小さく、かつ項目数も少なくなっている。
以上、第4実施形態によれば、オブジェクトのフレーム総合評価値に従って表示データのサイズや情報量を変化させることができ、オブジェクトの重要度に応じて、適切な情報を表示できる。
なお、本実施形態では表示サイズ決定部403が表示サイズおよび表示情報量を制御するが、これに限らず、表示サイズ決定部と表示情報量決定部を別個に設けた構成でもよい。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
10,20,30,40 映像処理装置
106,903 付加情報取得部
107,904 表示特徴情報算出部
108,302,402,905 フレーム評価部
109,301,401 表示タイミング決定部
110,404 表示データ作成部
403 表示サイズ決定部
902 画像解析部

Claims (9)

  1. 映像データに含まれるオブジェクトの関連情報の表示制御を行う映像処理装置であって、
    前記映像データを構成する各フレームに表示されるオブジェクトの表示状態を示すフレームデータを取得し、各フレームに表示されるオブジェクトの表示特徴情報を算出する表示特徴情報算出手段と、
    前記表示特徴情報算出手段が算出した前記表示特徴情報を取得して、各フレームについて前記表示特徴情報がオブジェクトの注目度に係わる評価基準を満たすか否かを判定することでフレーム評価を行うフレーム評価手段と、
    前記フレーム評価手段によるフレーム評価の結果、前記評価基準を満たすフレームの数が閾値以上に亘って連続する場合に、前記オブジェクトの関連情報の表示を開始するフレームを決定する表示タイミング決定手段と、を備えることを特徴とする映像処理装置。
  2. 前記表示タイミング決定手段が決定したフレームの映像において、前記オブジェクトの関連情報を表示するためのデータを作成するデータ作成手段をさらに備えることを特徴とする請求項1記載の映像処理装置。
  3. 前記表示特徴情報算出手段は、前記表示特徴情報として、対象となるオブジェクトの映像内におけるサイズ、表示位置、フレーム間の動き量、明度、被写体の顔の向きのうち、いずれか1つ以上を算出することを特徴とする請求項1又は2に記載の映像処理装置。
  4. 前記フレーム評価手段は、同一フレーム内に表示されるオブジェクトの数を前記評価基準として、該オブジェクトの数が閾値以下であるか否かを判定することを特徴とする請求項1から3のいずれか1項記載の映像処理装置。
  5. 前記フレーム評価手段は、評価対象となる第1のオブジェクトと、他の第2のオブジェクトとの相対的なサイズを前記評価基準として、同一フレーム内における前記第1のオブジェクトのサイズが前記第2のオブジェクトのサイズよりも大きいか否かを判定することを特徴とする請求項1から4のいずれか1項記載の映像処理装置。
  6. 前記表示タイミング決定手段は、前記フレーム評価手段によるフレーム評価の結果を取得して、前記オブジェクトの関連情報の表示を終了するフレームを決定することを特徴とする請求項1から5のいずれか1項記載の映像処理装置。
  7. 前記フレーム評価手段によるフレーム評価の結果を取得して、前記オブジェクトの関連情報の表示サイズを決定する表示サイズ決定手段をさらに備えることを特徴とする請求項1から6のいずれか1項記載の映像処理装置。
  8. 前記フレーム評価手段によるフレーム評価の結果を取得して、前記オブジェクトの関連情報の表示情報量を決定する表示情報量決定手段をさらに備えることを特徴とする請求項1から6のいずれか1項記載の映像処理装置。
  9. 映像データに含まれるオブジェクトの関連情報の表示制御を行う映像処理装置にて実行される映像処理方法であって、
    前記映像データを構成する各フレームに表示されるオブジェクトの表示状態を示すフレームデータを取得し、各フレームに表示されるオブジェクトの表示特徴情報を算出する表示特徴情報算出ステップと、
    前記表示特徴情報算出ステップで算出した前記表示特徴情報を取得して、各フレームについて前記表示特徴情報がオブジェクトの注目度に係わる評価基準を満たすか否かを判定することでフレーム評価を行うフレーム評価ステップと、
    前記フレーム評価ステップでのフレーム評価の結果、前記評価基準を満たすフレームの数が閾値以上に亘って連続する場合に、前記オブジェクトの関連情報の表示を開始するフレームを決定する表示タイミング決定ステップと、を有することを特徴とする映像処理方法。
JP2011013263A 2010-04-06 2011-01-25 映像処理装置及び映像処理方法 Expired - Fee Related JP5111627B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011013263A JP5111627B2 (ja) 2010-04-06 2011-01-25 映像処理装置及び映像処理方法
US13/073,280 US8654131B2 (en) 2010-04-06 2011-03-28 Video image processing apparatus and video image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010087850 2010-04-06
JP2010087850 2010-04-06
JP2011013263A JP5111627B2 (ja) 2010-04-06 2011-01-25 映像処理装置及び映像処理方法

Publications (2)

Publication Number Publication Date
JP2011234343A JP2011234343A (ja) 2011-11-17
JP5111627B2 true JP5111627B2 (ja) 2013-01-09

Family

ID=44709767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011013263A Expired - Fee Related JP5111627B2 (ja) 2010-04-06 2011-01-25 映像処理装置及び映像処理方法

Country Status (2)

Country Link
US (1) US8654131B2 (ja)
JP (1) JP5111627B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013088604A1 (ja) * 2011-12-15 2015-04-27 パナソニックIpマネジメント株式会社 情報表示装置、情報表示方法、及び、情報表示システム
US8866943B2 (en) 2012-03-09 2014-10-21 Apple Inc. Video camera providing a composite video sequence
JP6056319B2 (ja) * 2012-09-21 2017-01-11 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
EP3026922B1 (en) 2013-07-26 2021-01-06 Panasonic Intellectual Property Management Co., Ltd. Video receiving device, appended information display method, and appended information display system
EP3029944B1 (en) * 2013-07-30 2019-03-06 Panasonic Intellectual Property Management Co., Ltd. Video reception device, added-information display method, and added-information display system
JP6240899B2 (ja) 2013-09-04 2017-12-06 パナソニックIpマネジメント株式会社 映像受信装置、映像認識方法および付加情報表示システム
WO2015033500A1 (ja) 2013-09-04 2015-03-12 パナソニックIpマネジメント株式会社 映像受信装置、映像認識方法および付加情報表示システム
US10194216B2 (en) 2014-03-26 2019-01-29 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and additional information display system
US9774924B2 (en) 2014-03-26 2017-09-26 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method and additional information display system
US10616613B2 (en) 2014-07-17 2020-04-07 Panasonic Intellectual Property Management Co., Ltd. Recognition data generation device, image recognition device, and recognition data generation method
CN106233746B (zh) 2014-08-21 2019-07-09 松下知识产权经营株式会社 内容辨识装置、内容辨识方法以及记录介质
JP7285045B2 (ja) * 2018-05-09 2023-06-01 日本テレビ放送網株式会社 画像合成装置、画像合成方法及びプログラム
CN110913141B (zh) * 2019-11-29 2021-09-21 维沃移动通信有限公司 一种视频显示方法、电子设备以及介质
CN112637615B (zh) * 2020-12-02 2023-04-28 北京影谱科技股份有限公司 一种直播场景下智能标签平滑显示的方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3025173B2 (ja) * 1995-04-13 2000-03-27 シャープ株式会社 データベース検索システム
JP3472667B2 (ja) * 1996-08-30 2003-12-02 株式会社日立製作所 ビデオデータ処理装置およびビデオデータ表示装置
KR100415266B1 (ko) * 2000-05-11 2004-01-16 가부시끼가이샤 도시바 물체영역정보 기술방법과 물체영역정보 생성장치 및 기록매체
US7386170B2 (en) * 2000-06-30 2008-06-10 Texas Instruments Incorporated Image object ranking
JP4103652B2 (ja) * 2003-03-27 2008-06-18 日本電気株式会社 情報重畳表示装置、情報重畳表示方法、および、情報重畳表示プログラム
JP2004312567A (ja) * 2003-04-10 2004-11-04 Hitachi Ltd 動画要約機能付き閲覧装置
US20050116821A1 (en) * 2003-12-01 2005-06-02 Clifton Labs, Inc. Optical asset tracking system
JP4353083B2 (ja) * 2004-11-30 2009-10-28 日本電信電話株式会社 視聴者間コミュニケーション方法及び装置及びプログラム
JP2008283230A (ja) * 2007-05-08 2008-11-20 Hitachi Kokusai Electric Inc 画像処理システム
JP2008283486A (ja) * 2007-05-10 2008-11-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2009077187A (ja) * 2007-09-21 2009-04-09 Hitachi Ltd 映像並行視聴方法および映像表示装置
JP4780733B2 (ja) 2008-12-08 2011-09-28 日本放送協会 デジタル放送受信装置及び関連情報提示プログラム

Also Published As

Publication number Publication date
JP2011234343A (ja) 2011-11-17
US20110243474A1 (en) 2011-10-06
US8654131B2 (en) 2014-02-18

Similar Documents

Publication Publication Date Title
JP5111627B2 (ja) 映像処理装置及び映像処理方法
JP7139515B2 (ja) 動画撮像方法、動画撮像装置、電子機器、およびコンピューター読取可能な記憶媒体
US20230402067A1 (en) Integration of audio into a multi-view interactive digital media representation
US20180204381A1 (en) Image processing apparatus for generating virtual viewpoint image and method therefor
WO2020253096A1 (zh) 视频合成的方法、装置、终端及存储介质
JP7017175B2 (ja) 情報処理装置、情報処理方法、プログラム
US20180160194A1 (en) Methods, systems, and media for enhancing two-dimensional video content items with spherical video content
US20130182012A1 (en) Method of providing augmented reality and terminal supporting the same
JP2011086283A (ja) 動的レンダリング用3次元ビデオキャプチャ・ワークフロー用のシステム及び方法
EP2816564A1 (en) Method and apparatus for smart video rendering
JP6126271B1 (ja) 仮想空間を提供する方法、プログラム及び記録媒体
JP6610535B2 (ja) 画像処理装置および画像処理方法
KR102332739B1 (ko) 음향 처리 장치 및 방법, 그리고 프로그램
JP2020197688A (ja) 画像伝送システム、伝送制御装置及び伝送制御方法
JP4504452B1 (ja) 映像視聴装置及び映像再生制御方法及び記録再生用プログラム
JP6126272B1 (ja) 仮想空間を提供する方法、プログラム及び記録媒体
WO2016167160A1 (ja) データ生成装置および再生装置
JP2006099058A (ja) 表示装置、表示方法、およびプログラム
JP5818322B2 (ja) 映像生成装置、映像生成方法及びコンピュータプログラム
JP2017208808A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
JP2017147697A (ja) 情報処理装置、情報処理方法およびプログラム
JP4656199B2 (ja) 画像処理装置、サムネイル動画作成方法及びサムネイル動画作成プログラム
US8873939B2 (en) Electronic apparatus, control method of electronic apparatus, and computer-readable storage medium
JP6114345B2 (ja) 出現位置補間装置、出現位置補間方法及び出現位置補間プログラム
KR20190030565A (ko) 전자 장치 및 그 동작방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121009

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5111627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees