JP4587871B2 - コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体 - Google Patents

コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体 Download PDF

Info

Publication number
JP4587871B2
JP4587871B2 JP2005138134A JP2005138134A JP4587871B2 JP 4587871 B2 JP4587871 B2 JP 4587871B2 JP 2005138134 A JP2005138134 A JP 2005138134A JP 2005138134 A JP2005138134 A JP 2005138134A JP 4587871 B2 JP4587871 B2 JP 4587871B2
Authority
JP
Japan
Prior art keywords
video data
video
auxiliary
display
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005138134A
Other languages
English (en)
Other versions
JP2006319507A (ja
Inventor
理朗 向井
健一郎 山本
琢也 岩波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005138134A priority Critical patent/JP4587871B2/ja
Publication of JP2006319507A publication Critical patent/JP2006319507A/ja
Application granted granted Critical
Publication of JP4587871B2 publication Critical patent/JP4587871B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体に関し、主映像に伴う補助映像を表示することにより臨場感の高い映像表示を行う技術に関する。
図11は、人間の視野の分類を説明するための図で、水平方向及び垂直方向の人間の視野において、視野の機能に基づく分類をその視野の角度とともに示すものである。このような人間の視野に関する分類は、例えば非特許文献1に記載されている。これによれば、人間の視野は視機能の働きに応じて、弁別視野101、有効視野102、誘導視野103、及び補助視野104に分類される。弁別視野101は、図形識別など高密度な情報を人間が正確に受容できる範囲である。また有効視野102は、弁別視野101より弁別能力が低下するが、人間の眼球運動のみで自然な情報受容ができる範囲である。また誘導視野103は、人間が表示刺激の存在を認識したり簡単な識別ができる程度の認識能力しか得られないが、全体的な外界情報を判断する際に影響を持つ範囲である。また補助視野104は、人間が刺激の存在のみを判別できる範囲である。
例えばハイビジョン放送では、上記のうち有効視野102を覆う範囲に映像を提示するよう設計されている。つまりハイビジョン放送では、誘導視野103や補助視野104に映像を表示することを前提としていない。一方、例えばバーチャルリアリティシステムにおいては、前述の全ての視野を対象としたコンテンツを作成して表示することで、コンテンツに対して実世界と同等の臨場感を付与することを可能としている。ここで有効視野102を覆う範囲の映像を、本願明細書では有効視野映像と呼ぶ。
畑田豊彦,坂田晴夫,日下秀夫,:"画面サイズによる方向感覚誘導効果‐大画面による臨場感の基礎実験‐",テレビジョン学会誌,Vol.33,No.5,pp.407―413(1979)
上記のように人間は、誘導視野103や補助視野104においても刺激の存在を知覚することができる。しかしながら、テレビシステムでは、これら人間の誘導視野103や補助視野104を対象とした映像データが送信されないため、これらの視野に映像を表示することができない。
しかしながら上述のバーチャルリアリティシステムのように、人間の誘導視野103や補助視野104に的確な刺激を与えることで、より人間が感じる臨場感を高めることが期待できる。
本発明は、人間の視覚における誘導視野や補助視野に映像を表示することにより、臨場感のあるコンテンツ映像を表示可能とするコンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体を提供することを目的とするものである。
第1の技術手段は、入力されたコンテンツデータが映像処理され出力された映像データを、第1の表示部に主映像として表示するコンテンツ表示方法において、第1の表示部に表示する動きをもつオブジェクトに基づいて映像データを補助する補助映像データを生成し、生成した補助映像データを、視聴者の有効視野外に設置した第2の表示部に表示するステップを有し、補助映像データを第2の表示部に表示するステップは、主映像の映像データを解析して動きベクトルを検出し、検出した動きベクトルから同等の動きベクトルを有する隣接画素群をオブジェクトの画素群としてグルーピングし、グルーピングした画素群の動きベクトルの向きと大きさから、補助映像データを生成し、補助映像データは、画素群の動きベクトルの向きと大きさから、オブジェクトが主映像からフレームアウトした後のオブジェクトの動きを予測し、フレームアウトしたオブジェクトに連続する動きをオブジェクトがフレームアウトした後に表現する表示を行う映像データであるか、または画素群の動きベクトルの向きと大きさから、オブジェクトがフレームインする前のオブジェクトの動きを予測し、フレームインするオブジェクトに連続する動きを表現する表示をフレームインよりも前に行う映像データであることを特徴としたものである。
の技術手段は、第1の技術手段において、映像データを撮影したカメラのシーケンスが変更された点が映像データから検出された場合、補助映像データの生成を停止することを特徴としたものである。
の技術手段は、第1または第2の技術手段において、映像処理部から出力された映像データを所定時間遅延させ、補助映像データを生成する間、第1の表示部に対する映像データの表示を遅延させることを特徴としたものである。
の技術手段は、第1ないし第のいずれか1の技術手段において、視聴者の有効視野外に設置した第2の表示部を複数用意し、複数の第2の表示部のそれぞれに異なる補助映像データを表示させることを特徴としたものである。
の技術手段は、入力されたコンテンツデータを映像処理し表示すべき映像データを出力する映像処理部と、映像処理部から出力された映像データを主映像として表示する第1の表示部と、第1の表示部に表示する動きをもつオブジェクトに基づいて映像データを補助する補助映像データを生成する補助映像生成部と、補助映像生成部で生成された補助映像データを表示する第2の表示部とを有し、映像処理部は、主映像の主映像の映像データを解析して動きベクトルを検出し、検出した動きベクトルから同等の動きベクトルを有する隣接画素群をオブジェクトの画素群としてグルーピングし、グルーピングした画素群の動きベクトルの向きと大きさから、補助映像データを生成し、補助映像データは、画素群の動きベクトルの向きと大きさから、オブジェクトが主映像からフレームアウトした後のオブジェクトの動きを予測し、フレームアウトしたオブジェクトに連続する動きをオブジェクトがフレームアウトした後に表現する表示を行う映像データであるか、または画素群の動きベクトルの向きと大きさから、オブジェクトがフレームインする前のオブジェクトの動きを予測し、フレームインするオブジェクトに連続する動きを表現する表示をフレームインよりも前に行う映像データであることを特徴としたものである。
の技術手段は、第の技術手段において、補助映像生成部が、映像データを撮影したカメラのシーケンスが変更された点が映像データから検出された場合、補助映像データの生成を停止することを特徴としたものである。
の技術手段は、第5または第6の技術手段において、映像処理部から出力された映像データを所定時間遅延させる遅延処理部を有し、補助映像生成部が補助映像データを生成する間、遅延処理部により第1の表示部に対する映像データの表示を遅延させることを特徴としたものである。
の技術手段は、第ないし第のいずれか1の技術手段において、第2の表示部を複数備え、補助映像生成部は、複数の第2の表示部のそれぞれに異なる補助映像データを表示させることを特徴としたものである。
の技術手段は、第ないし第のいずれか1の技術手段であって、第2の表示部は、輝度及び色味の少なくとも1つを調整可能な照明装置で構成されていることを特徴としたものである。
第1の技術手段は、第1ないし第のいずれか1の技術手段を実行するためプログラムである。
第1の技術手段は、第1の技術手段を記録したコンピュータ読み取り可能な記録媒体である。
本発明によれば、人間の視野における誘導視野や補助視野に映像を表示することで視聴者の誘導視野や補助視野に刺激を与えることにより、視聴者はより臨場感の高いコンテンツを視聴できるようになるという優れた効果を奏し得る。
以下、本発明の実施形態を添付された図面を参照して具体的に説明する。なお、実施形態を説明する図において、同一の要素には同じ符号を付け、その繰り返しの説明は省略する。
本発明の実施形態の特徴は、コンテンツを表示するコンテンツ表示装置において、入力したコンテンツ情報に含まれる有効視野映像から、誘導視野103や補助視野104に表示する映像を生成するようにした点にある。以下、本願明細書では上記弁別視野101や有効視野102に表示する映像を主映像と呼び、上記誘導視野103や補助視野104に表示する映像を補助映像と呼ぶものとする。
(第1の実施形態)
図1は、本発明を実施可能なコンテンツ表示装置の構成例を説明するためのブロック図である。コンテンツ表示装置において、アンテナ1で受信された放送データは、映像処理装置10のチューナー2に入力し、視聴者が所望するチャンネルのコンテンツ情報が抽出される。抽出されたコンテンツ情報には、音声、映像、字幕データ、及び番組情報などが多重化されている。
映像処理装置10の多重化データ分離処理部3では、多重化されたコンテンツ情報が、音声、映像、字幕データ、番組情報など個別のデータに分離される。分離された各データは、各々のデコード部4によりデコードされる。デコードされた映像データは、第1の表示部5に表示される。第1の表示部5では、従来の主映像を表示する。
さらに上記デコード部4でデコードされた映像データは、補助映像生成部7に入力される。そして補助映像生成部7では補助映像が生成され、第1の表示部5とは異なる第2の表示部6に表示される。
次に上記補助映像生成部7における補助映像の生成処理について説明する。図11で説明したように、人間の視野は、弁別視野101、有効視野102、誘導視野103、及び補助視野104の4つに分類される。そして人間の視野として有効に機能する有効視野102は、水平方向では左右各15度ずつ、垂直方向では上方向8度で下方向12度の範囲に存在するにすぎない。しかしながらその有効視野の外側の誘導視野103、及びさらに外側の補助視野104においても、低レベルでの知覚は行われる。
図2は、視聴者の視野の範囲を説明するための図で、表示部の表示映像を視聴する視聴者がいる部屋の一例を模式的に示すものである。図2において、20は部屋、21は視聴者、22〜24は視聴者の視野の分類に基づく視野範囲である。部屋20にいる視聴者21は、主映像を表示する第1の表示部5が有効視野102内に入るようにして、第1の表示部5の表示映像を視聴しているものとする。
このときに、上記図11に示す視野の分類及びその角度に従って図2の視聴者の視野を図示すると、第1の視野範囲22が視聴者の有効視野102に相当し、第2の視野範囲23が視聴者の誘導視野103に相当し、第3の視野範囲24が視聴者の補助視野104に相当する。すなわち、視聴者21が第1の視野範囲22に入るように第1の表示部5の表示映像を視聴しているときに、第2または第3の視野範囲23,24に第2の表示部6を設置する。図2においては、第1の表示部5の右隣やや奥に第2の表示部6を設置しているが、これに限ることなく、視聴者の誘導視野103または補助視野104に相当する視野範囲に第2の表示部6を設置することで、視聴者21に臨場感を与える映像を表示することができる。
視聴者21は、第2の表示部6に表示される情報を低レベルでしか知覚することができない。従って第2の表示部6に表示する補助映像は、非常に解像度の低い情報で十分である。第2の表示部6は映像を映すものでなくても、影のような情報を調光可能な照明装置等で表現するものでも同様の効果が得られると考えられる。
次に上記補助映像の生成方法について説明する。補助映像は、第1の表示部5に表示する映像に含まれるオブジェクト(物体)の動き情報を利用することによって生成することができる。
図3は、補助映像の生成処理について説明するための図で、図3(A)は移動するオブジェクトを表示した表示画面、図3(B)は図3(A)のオブジェクトが移動してフレームアウトしようとするときの表示画面を示すものである。図3において、30は表示画面、31はオブジェクトである。図3(A)のように主映像に表示されるオブジェクト31(ここでは人間)は、画面中央から右方向に移動していき、図3(B)の状態を経てフレームアウトするものとする。またここでは、第1の表示部5の右側に第2の表示部6を配置し、第1の表示部5に主映像を表示して、第2の表示部6に補助映像を表示するものとする。
コンテンツ表示装置の補助映像生成部7は、第2の表示部6に表示する補助映像を生成する。ここでは、第2の表示部6の左側に第1の表示部5が配置され、主映像のオブジェクト31が画面の中央から右側に向かって移動してフレームアウトすることから、補助映像としては、画面左側から右側に向かって動く映像を生成する。上記の所定の幅とは、この場合動いている主映像のオブジェクト31の大きさをもとに決定する。また補助映像のオブジェクトが移動する速さは、主映像のオブジェクト31の移動速度を元に決定する。また生成する補助映像の解像度は、第2の表示部6の性能により決定すればよい。
主映像のオブジェクトがフレームアウトした後に、補助映像ではオブジェクトが連続的に移動しているような映像を表示する。このような補助映像を第2の表示部6に表示させることにより、これら二つの表示部5,6を視聴する視聴者は、臨場感のある映像として主映像のコンテンツを視聴することができるようになる。
図4は、補助映像を生成するときの処理の一例を説明するためのフローチャートである。補助映像生成部7は、デコード部4でデコードされた映像データから、まず連続する2フレーム分の映像データを取得する。すなわちiを0と設定し(ステップS1)、i番目のフレームの映像データを取得して(ステップS2)、さらにi+1番目のフレームの映像データを取得する(ステップS3)。そして次に、これら取得した2フレーム分の映像データから動きベクトルを抽出する(ステップS4)。
そしてその動きベクトルに基づいて、その動きベクトルがフレームアウトするまでのnフレーム後の補助映像フレームを生成する(ステップS5)。そしてiをインクリメントしてi=i+1とし(ステップS6)、終了であるかどうかを判別して(ステップS7)、終了でなければ上記ステップS3へ戻ってi+1番目のフレームの映像を取得する。
上記ステップS5の処理についてさらに詳しく説明する。ステップS4で2フレーム映像から動きベクトルを抽出した後、隣接する画素ごとに同じ動きベクトルをもつものをグルーピングする。なおここでは同じ動きベクトルを持つ隣接画素をグルーピングすることとしたが、動きベクトルはまったく同じ向き、大きさである必要はない。2つのベクトルの向き、大きさが共に所定の閾値以下の誤差しかない場合には、同じ動きベクトルとして扱ってよい。
そしてグルーピングされた動きベクトルの向きと大きさから、その動きベクトルがフレームアウトするまでのフレーム数を算出する。ここではnフレーム後にフレームアウトすると仮定する。そしてグルーピングされた画素群の幅、高さを用いてnフレーム後の補助映像を生成する。補助映像は、ユーザからは詳細には認知できないものであるため、たとえば白色背景に上記のグルーピングされた画素群の幅、高さの矩形を表示するものであっても十分である。また補助映像の背景は、補助映像を表示する第2の表示部6と、主映像を表示する第1の表示部5との位置関係から、主映像のグルーピング画素群に隣接する画素領域の色と同一または類似の色としてもよい。
以上のようにして、nフレーム後の補助映像が生成される。第2の表示部6に表示するための補助映像用の映像データは、常に数フレーム分先まで蓄えておき、現在第1の表示部5に表示されている主映像に合致する補助映像を第2の表示部6に表示する。
上記の例では、1つのオブジェクトについて補助映像を生成する処理例を説明したが、一般的に映像には、1方向の動きベクトルしか存在しない場合は少ない。例えば図3に示した画像において、オブジェクト(人間)が移動するシーンの背後で、自動車が別方向に動いているような映像があることはいうまでもない。上述の処理例では動きベクトルの向きと大きさから第2の表示部6に表示する補助映像を生成するが、たとえ2つ以上の動きベクトルが存在する場合でも、それぞれの動きベクトルの向きと大きさを利用して第2の表示部6に表示すべき補助映像を生成すればよい。
次に、カット点検出結果を利用した補助映像の生成処理について説明する。
映像を解析すると、映像表現の一手法として同一のカメラシーケンスから別のカメラシーケンスへ変わる点が存在することがわかる。このような切り替わり点を一般にカット点と呼んでいる。カット点を検出する手法としては、例えば特開平9−65287号公報など多くの文献が開示されている。またワイプと呼ばれる特殊効果を抽出する方法が特開平11−252501号公報等に開示されている。
ここではすでに公知となっているこれらの手法を用いて、検出されたカット点を用いてより臨場感を得られるよう、第2の表示部6に表示する補助映像を生成する処理例を述べる。上述の処理により映像の動きベクトルを利用して第2の表示部6に表示する補助映像を生成する場合、カメラワークが変わっているにもかかわらず、その前のカメラシーケンスから生成された補助映像を第2の表示部6に表示した場合には矛盾が生じることになる。すなわち、主映像では、シーンが切り替わって異なるシーンが表示されているのに対し、補助映像では前のシーンに関する映像が表示されることになる。このような主映像と補助映像との不整合を回避するために、主映像においてカット点が検出された時点で補助映像の生成を終了するとよい。このような処理により、視聴者が違和感を感じることを防ぐことができる。
図5は、複数の第2の表示部により補助映像を表示させる例を説明するための図で、図中、6a〜6hは第2の表示部で、上述の実施形態の第2の表示部6と同様の機能を有するものである。図5に示すように、複数の第2の表示部6a〜6hが存在してもよい。この場合、各々の第2の表示部6a〜6hの設置位置が把握できるように、例えばコンテンツ表示装置に設置位置記録部を設け、各々の第2の表示部6a〜6hを識別できるようにしておけばよい。そして第1の表示部5と各第2の表示部6a〜6hとの位置関係、及び映像の動きベクトルから、各第2の表示部6a〜6h用の補助映像を生成する。
図5に示すように、複数の第2の表示部6a〜6hを配置したとき、図3のようにオブジェクト31が画面中央から右側へ移動した後のフレームでは、まず第2の表示部6eに表示すべき映像を変化させる。すなわち、第2の表示部6eにオブジェクトが左から右に向かって移動する補助映像を表示させる。
さらに第2の表示部6eの右端までオブジェクトが移動した後は、第2の表示部6fに表示すべき映像を変化させるようにする。このようにすれば視聴者の有効視野内から有効視野外へオブジェクトが移動していく補助映像を生成することができる。
(第2の実施形態)
図6は、本発明を実施可能なコンテンツ表示装置の他の構成例を説明するためのブロック図である。図6のコンテンツ表示装置は、図1と比較し、デコード部4と第1の表示部5の間に遅延処理部8を設けた点が異なる。上記第1の実施形態では、フレームアウトしていくオブジェクトの例を示したが、上記第1の実施形態の方法ではフレームインしてくるオブジェクトについてフレームインする前に第2の表示部6に補助映像を表示することはできない。
そこで本実施形態では、コンテンツ表示装置に遅延処理部8を設け、第1の表示部5に映像を表示するタイミングを遅延させ、所定のフレーム分の処理を行う。ここでは所定のフレーム分先の映像(第1の表示部5に所定の時間後に表示される映像)を解析し、第1の表示部5の画面における周辺部分から中央部分への動きベクトルを検出する。そして検出した動きベクトルの大きさ、向きから第2の表示部6に表示する補助映像を生成する。
またこの場合も、カット点を基準に処理を施す必要がある。カット点で分割される映像シーケンスのうち、時間的に早い映像を第1の主映像、カット点の後ろの映像を第2の主映像とするとき、第1の主映像を表示中に第2の主映像に基づく補助映像を表示することになり、矛盾が生じる場合がある。そこでカット点検出後からオブジェクトがフレームインしてくるまでの間の補助映像を生成すればよい。
このような補助映像の生成手法は上述の第1の実施形態と同様であるが、本実施形態は、未来の主映像から現在の補助映像を生成する部分が異なる。また未来の主映像を解析する必要が生じるため、一定時間主映像の表示を遅延させる。すなわち補助映像生成部7において先読みするために所定の時間が必要となるため、遅延処理部8を設ける必要がある。
以上のようにしてフレームインしてくるオブジェクトに対する補助映像を生成することができる。
(第3の実施形態)
図7は、本発明を実施可能なコンテンツ表示装置の更に他の構成例を説明するためのブロック図である。図7のコンテンツ表示装置は、図1と比較し、アンテナが記録媒体11に変更され、チューナーがデータ読み出し部9に変更された点が異なる。この場合、全てのデータを記録媒体11から映像処理装置10に読み込むことができるため、表示している映像よりも先の映像(未来に表示されるべき映像)を利用することができる。
またデータ読み出し部9を2つ設け、主映像を表示するためのデータ読み出し部と補助映像を生成するためのデータ読み出し部とに分けてもよい。このようにすれば前述の遅延処理部を持たなくても未来の主映像を解析することが可能となるので、第1の表示部5に主映像を表示しながら、第2の表示部6に生成した補助映像を表示することができるようになる。
また、年々記録媒体からのデータ読み出し速度も向上しているので、1つのデータ読み出し部9をタイムシェアリングし、2つ以上のデータを読み出すようにすれば同等の処理が行えるようになることはいうまでもない。
(第4の実施形態)
本実施形態では、第2の表示部6が色度や輝度などを調整可能な照明装置として構成されている。近年ではLED照明など、色度や輝度を調整可能な照明設備が普及しつつある。このような照明設備を使用し、第2の表示部6に表示する補助映像をその照明設備により表現しても上述の各実施形態と同等の効果を得ることができる。
図8は、LED照明装置を模式的に示した図で、図中、40はLED照明装置、41は単体のLEDである。LED照明装置40では、単体のLED41の輝度が十分ではないため、通常複数のLED41を組み合わせて使われる。またLED照明装置40は、点灯・消灯を高速に切り替えることができたり、任意の輝度に調節できる等の特徴がある。
図9は、LED照明装置の一部領域を消灯した例を示す図で、図10は、図9の消灯制御に対応した補助映像の状態を模式的に示す図である。
上述のような複数のLED41を組み合わせたLED照明装置40において、図9のようにLED41の一部を消灯し、残りのLED41を点灯させるようにすると、補助映像として図10のように影を表現することができる。そして、図9(A)〜図9(C)のように点灯・消灯を行うLED41を切り替えていくことにより、図10(A)〜図 10(Cのように影の部分を移動させることができる。
また逆にLED41の一部を点灯し、残りを消灯させると、例えば車のヘッドライトの光が移動していくようなシーンを表現することができる。
さらにLED41として淡色ではなく、例えばRGBの3色で1組となるようなLEDを用い、「カラーLED照明」を構成した場合には、上記のような影だけではなく、移動オブジェクトの色を再現することができ、あたかもオブジェクトが移動していくのがわかるかのような効果を得ることができる。
一般に照明は、部屋の中で天井部分に1つ以上設置されている。上述の各実施形態では、補助映像を生成するに際し、グルーピングされた画素群の幅、高さなどから画素群を包含する矩形で補助映像を生成する方法を説明した。ここで本実施形態のように第2の表示部6が、LED照明装置40で構成される場合には、LED41に消灯/点灯によって高さの異なる矩形を表現することができないので、画素群の幅(LED41の消灯/点灯幅)で表現する。
また上記のような色度や輝度を調整可能な照明装置と、いわゆるディスプレイなどの表示装置とが混在した表示部であっても、上記各実施形態同様の効果を得ることができる。
本発明のコンテンツ表示方法を実行するプログラムは、本発明を実行できるようにCPU等を制御するプログラム(コンピュータを機能させるプログラム)である。このプログラムは、装置をユーザが使用する際に容易となるように、表示装置用のグラフィカルユーザインタフェース(GUI)を備えるようにするとよい。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAMに蓄積され、その後、各種ROMやHDDに格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。
プログラムを格納する記録媒体としては、半導体媒体(例えば、ROM、不揮発性メモリカード等)、光記録媒体(例えば、DVD,MO、MD、CD、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等のいずれであってもよい。
また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。
また市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送することができる。この場合、サーバコンピュータの記憶装置も本発明の記録媒体に含まれる。
本発明を実施可能なコンテンツ表示装置の構成例を説明するためのブロック図である。 視聴者の視野の範囲を説明するための図である。 補助映像の生成処理について説明するための図である。 補助映像を生成するときの処理の一例を説明するためのフローチャートである。 複数の第2の表示部により補助映像を表示させる例を説明するための図である。 本発明を実施可能なコンテンツ表示装置の他の構成例を説明するためのブロック図である。 本発明を実施可能なコンテンツ表示装置の更に他の構成例を説明するためのブロック図である。 LED照明装置を模式的に示した図である。 LED照明装置の一部領域を消灯した例を示す図である。 図9の消灯制御に対応した補助映像の状態を模式的に示す図である。 人間の視野の分類を説明するための図である。
符号の説明
1…アンテナ、2…チューナー、3…多重化データ分離処理部、4…デコード部、5…第1の表示部、6,6a〜6h…第2の表示部、7…補助映像生成部、8…遅延処理部、9…データ読み出し部、10…映像処理装置、20…部屋、21…視聴者、22,23,24…視野範囲、30…表示画面、31…オブジェクト、101…弁別視野、102…有効視野、103…誘導視野、104…補助視野。

Claims (11)

  1. 入力されたコンテンツデータが映像処理され出力された映像データを、第1の表示部に主映像として表示するコンテンツ表示方法において、前記第1の表示部に表示する動きをもつオブジェクトに基づいて前記映像データを補助する補助映像データを生成し、該生成した補助映像データを、視聴者の有効視野外に設置した第2の表示部に表示するステップを有し、
    補助映像データを第2の表示部に表示するステップは、前記主映像の映像データを解析して動きベクトルを検出し、該検出した動きベクトルから同等の動きベクトルを有する隣接画素群を前記オブジェクトの画素群としてグルーピングし、該グルーピングした画素群の動きベクトルの向きと大きさから、前記補助映像データを生成し、
    該補助映像データは、前記画素群の動きベクトルの向きと大きさから、前記オブジェクトが前記主映像からフレームアウトした後の前記オブジェクトの動きを予測し、前記フレームアウトしたオブジェクトに連続する動きを前記オブジェクトがフレームアウトした後に表現する表示を行う映像データであるか、または前記画素群の動きベクトルの向きと大きさから、前記オブジェクトがフレームインする前の前記オブジェクトの動きを予測し、前記フレームインするオブジェクトに連続する動きを表現する表示を前記フレームインよりも前に行う映像データであることを特徴とするコンテンツ表示方法。
  2. 請求項1に記載のコンテンツ表示方法において、映像データを撮影したカメラのシーケンスが変更された点が前記映像データから検出された場合、前記補助映像データの生成を停止することを特徴とするコンテンツ表示方法。
  3. 請求項1または2に記載のコンテンツ表示方法において、前記映像処理部から出力された映像データを所定時間遅延させ、前記補助映像データを生成する間、前記第1の表示部に対する映像データの表示を遅延させることを特徴とするコンテンツ表示方法。
  4. 請求項1ないしのいずれか1に記載のコンテンツ表示方法において、視聴者の有効視野外に設置した第2の表示部を複数用意し、該複数の第2の表示部のそれぞれに異なる補助映像データを表示させることを特徴とするコンテンツ表示方法。
  5. 入力されたコンテンツデータを映像処理し表示すべき映像データを出力する映像処理部と、該映像処理部から出力された映像データを主映像として表示する第1の表示部と、該第1の表示部に表示する動きをもつオブジェクトに基づいて前記映像データを補助する補助映像データを生成する補助映像生成部と、該補助映像生成部で生成された補助映像データを表示する第2の表示部とを有し、
    前記映像処理部は、前記主映像の前記主映像の映像データを解析して動きベクトルを検出し、該検出した動きベクトルから同等の動きベクトルを有する隣接画素群を前記オブジェクトの画素群としてグルーピングし、該グルーピングした画素群の動きベクトルの向きと大きさから、前記補助映像データを生成し、
    該補助映像データは、前記画素群の動きベクトルの向きと大きさから、前記オブジェクトが前記主映像からフレームアウトした後の前記オブジェクトの動きを予測し、前記フレームアウトしたオブジェクトに連続する動きを前記オブジェクトがフレームアウトした後に表現する表示を行う映像データであるか、または前記画素群の動きベクトルの向きと大きさから、前記オブジェクトがフレームインする前の前記オブジェクトの動きを予測し、前記フレームインするオブジェクトに連続する動きを表現する表示を前記フレームインよりも前に行う映像データであることを特徴とするコンテンツ表示装置。
  6. 請求項に記載のコンテンツ表示装置において、前記補助映像生成部は、映像データを撮影したカメラのシーケンスが変更された点が前記映像データから検出された場合、前記補助映像データの生成を停止することを特徴とするコンテンツ表示装置。
  7. 請求項5または6に記載のコンテンツ表示装置において、前記映像処理部から出力された映像データを所定時間遅延させる遅延処理部を有し、前記補助映像生成部が前記補助映像データを生成する間、前記遅延処理部により前記第1の表示部に対する映像データの表示を遅延させることを特徴とするコンテンツ表示装置。
  8. 請求項ないしのいずれか1に記載のコンテンツ表示装置において、前記第2の表示部を複数備え、前記補助映像生成部は、前記複数の第2の表示部のそれぞれに異なる補助映像データを表示させることを特徴とするコンテンツ表示装置。
  9. 請求項ないしのいずれか1に記載のコンテンツ表示装置であって、前記第2の表示部は、輝度及び色味の少なくとも1つを調整可能な照明装置で構成されていることを特徴とするコンテンツ表示装置。
  10. 請求項1ないしのいずれか1に記載のコンテンツ表示方法を実行するためプログラム。
  11. 請求項1に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2005138134A 2005-05-11 2005-05-11 コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体 Expired - Fee Related JP4587871B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005138134A JP4587871B2 (ja) 2005-05-11 2005-05-11 コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005138134A JP4587871B2 (ja) 2005-05-11 2005-05-11 コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2006319507A JP2006319507A (ja) 2006-11-24
JP4587871B2 true JP4587871B2 (ja) 2010-11-24

Family

ID=37539801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005138134A Expired - Fee Related JP4587871B2 (ja) 2005-05-11 2005-05-11 コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体

Country Status (1)

Country Link
JP (1) JP4587871B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2005732A1 (en) * 2006-03-31 2008-12-24 Koninklijke Philips Electronics N.V. Adaptive rendering of video content based on additional frames of content
JP2010531079A (ja) * 2007-05-29 2010-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ信号のオブジェクトの視覚化
JP2014026093A (ja) * 2012-07-26 2014-02-06 Panasonic Corp 照明装置及び表示装置
JP2014026094A (ja) * 2012-07-26 2014-02-06 Panasonic Corp 照明装置及び表示装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179930A (ja) * 2001-12-10 2003-06-27 Nippon Hoso Kyokai <Nhk> 動オブジェクト抽出方法及び抽出装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179930A (ja) * 2001-12-10 2003-06-27 Nippon Hoso Kyokai <Nhk> 動オブジェクト抽出方法及び抽出装置

Also Published As

Publication number Publication date
JP2006319507A (ja) 2006-11-24

Similar Documents

Publication Publication Date Title
US7148930B2 (en) Selectively overlaying a user interface atop a video signal
KR101465459B1 (ko) 콘텐트의 부가적인 프레임들을 기반으로 한 비디오 콘텐트의 적응형 렌더링
JP4420056B2 (ja) 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
KR101411962B1 (ko) 모션 적응형 환경광
US12002436B2 (en) Methods, systems, and media for modifying user interface colors in connection with the presentation of a video
KR20180051202A (ko) 디스플레이장치 및 그 제어방법
KR102257132B1 (ko) 몰입형 비디오 컨텐츠를 생성 및 렌더링하기 위한 방법들, 시스템들 및 매체들
RU2517266C1 (ru) Устройство составления изображений
JP4587871B2 (ja) コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体
EP4030766A1 (en) Methods, systems, and media for color palette extraction for video content item
CN107430841B (zh) 信息处理设备、信息处理方法、程序以及图像显示系统
JP4769122B2 (ja) 映像呈示システム
JP2016119552A (ja) 映像コンテンツ処理装置、映像コンテンツ処理方法及びプログラム
US11051376B2 (en) Lighting method and system to improve the perspective colour perception of an image observed by a user
CN110121032B (zh) 一种显示动画特效的方法、装置、设备及存储介质
WO2020051496A1 (en) Multi-panel display
JP2006235523A (ja) 表示装置
US11385850B2 (en) Content reproduction device, picture data output device, content creation device, content reproduction method, picture data output method, and content creation method
KR102239877B1 (ko) 3차원 vr 콘텐츠 제작 시스템
JP2006050483A (ja) 映像解析装置、映像解析方法およびコンテンツ作成装置、並びに、プログラムおよび記録媒体
JP2022038060A (ja) デジタルサイネージ再生装置、デジタルサイネージ再生表示装置、及び、デジタルサイネージ再生方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060919

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100907

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees