JP4709897B2 - Viewing environment control system, viewing environment control device, viewing environment lighting control system, and viewing environment control method - Google Patents

Viewing environment control system, viewing environment control device, viewing environment lighting control system, and viewing environment control method Download PDF

Info

Publication number
JP4709897B2
JP4709897B2 JP2008513135A JP2008513135A JP4709897B2 JP 4709897 B2 JP4709897 B2 JP 4709897B2 JP 2008513135 A JP2008513135 A JP 2008513135A JP 2008513135 A JP2008513135 A JP 2008513135A JP 4709897 B2 JP4709897 B2 JP 4709897B2
Authority
JP
Japan
Prior art keywords
viewing environment
video
environment control
frame
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008513135A
Other languages
Japanese (ja)
Other versions
JPWO2007125755A1 (en
Inventor
琢也 岩波
健一郎 山本
育弘 吉田
隆司 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008513135A priority Critical patent/JP4709897B2/en
Publication of JPWO2007125755A1 publication Critical patent/JPWO2007125755A1/en
Application granted granted Critical
Publication of JP4709897B2 publication Critical patent/JP4709897B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams

Description

【技術分野】
【0001】
本発明は、映像表示装置に映像を表示する際に、その映像の撮影シーンの雰囲気や場面設定に適応させて、映像表示装置の周囲の照明光を制御することが可能な視聴環境制御システム、視聴環境制御装置、視聴環境照明制御システム、及び視聴環境制御方法に関するものである。
【0002】
例えば、テレビジョン受像機のような映像表示装置により映像表示を行う場合や、プロジェクタ装置を用いて映像を投影表示させるような場合に、その周囲の照明光を表示映像に合わせて調整することにより臨場感を高めるなどの視聴演出効果を付与するようにした技術が知られている。
【0003】
例えば、特開平2−158094号公報には、カラーテレビの表示映像の色信号(RGB)と輝度信号(Y)とから、フレーム毎に光源の三原色の混光照度比を算出し、映像と連動させて調光制御を行うようにした光色可変形照明装置が開示されている。この光色可変形照明装置は、カラーテレビの表示映像から色信号(RGB)と輝度信号(Y)とを取り出し、その色信号と輝度信号とから、光源に使用する三色光(赤色光,緑色光,青色光)の適正調光照度比を算出し、その照度比に従って三色光の照度を設定し、三色光を混光して照明光として出力している。
【0004】
また、例えば特開平2−253503号公報には、テレビの映像を複数に分割し、対応する分割部の平均的な色相を検出することによって、分割部の周囲の照明制御を行う映像演出照明装置が開示されている。この映像演出照明装置は、カラーテレビの設置場所の周囲を照明する照明手段を備えていて、カラーテレビに表示される映像を複数に分割し、照明手段によって照明される部分に対応する映像の分割部の平均的な色相を検出し、その検出した色相に基づいて照明手段を制御している。
【0005】
さらに、例えば特開平3−184203号公報には、単に画像表示装置の画面全体の平均色度及び平均輝度を求めるのではなく、画像表示装置の画面に映し出された画像から人の顔などの肌色部分の画素を取り除いた残りの部分を背景部と考え、その背景部の各画素のRGB信号及び輝度信号だけを取り出して平均色度及び平均輝度を求めて、画像表示装置の背面の壁面の色度及び輝度が、画面全体、或いは人の肌色を除く背景部の平均色度及び平均輝度と同一になるように、照明を制御する方法が開示されている。
【発明の開示】
【発明が解決しようとする課題】
【0006】
上述した従来の視聴環境制御装置では、表示すべき映像信号における1フレーム(画面)毎の特徴量(色信号及び輝度信号)を検出し、照明光を制御しているため、表示映像内容によっては該映像の場(雰囲気)に即した照明光を生成することが困難である。例えば、映像信号に含まれる被写体人物の服装や被写体の背景にある人工物などの影響を受けて、不適切な色の照明光を周囲に照射してしまうと、シーン毎の雰囲気を再現したり、シーン毎の臨場感を維持することができない。すなわち、映像シーンの撮影時における照明状況から大きく逸脱した視聴環境照明は却って臨場感を損なうことになる。
【0007】
上記特開平3−184203号公報のものは、肌色部分の画素を取り除いた残りの部分を背景部として、この背景部の各画素の特徴量(色信号及び輝度信号)に基づき、視聴環境空間の照明光を制御しているが、例えば背景部に地面や建築物が多く占める映像の場合、この影響を受けて不適切な色の照明光を周囲に照射してしまうことになるので、却って臨場感や雰囲気を損なってしまうことになる。すなわち、表示映像の撮影時における照明状況(雰囲気)を映像信号から推定するには、肌色部分の画素を取り除くだけでは不十分であり、撮影時における照明状況(雰囲気)を表わす背景画素のみを適切に抽出して用いる必要がある。
【0008】
また、上記従来の技術においては、映像信号の輝度や色相のフレーム毎の変化に応じて照明光の状態が変化してしまい、特にフレーム間における輝度や色相の変化の度合いが大きい場合などでは照明光が煩雑に変化し、視聴者がフリッカーによる違和感を感じるという問題が生じる。さらに、撮影時の照明状況に変化のない1つのシーンの表示中に、フレーム毎の輝度や色相の変化に応じて照明光が変動することは、シーン毎の雰囲気を逆に阻害して好ましくない。
【0009】
図1は、上記従来の技術による照明制御の問題点の一例を説明するための図であり、連続する動画像の一部を示すものである。図1の(A)に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークによる撮影によって得られた映像からなる。この例では、カメラの上方からカメラ近傍に向かってスキーヤーが滑降してくる映像が撮影されている。スキーヤーは赤い服を着ており、空は晴天である。
【0010】
すなわち、この映像シーンは、図1の(B)に示すように、カメラポジション(a)、アングル(b)、被写体の数(d)、カメラの動き(e)、カメラレンズ種別(f)のそれぞれは、ローポジション、ローアングル、ワンショット(1S)、フィックス、標準レンズという一定のカメラワーク状況により撮影されたものである。
【0011】
そして、このシーンの映像は、その初期のフレーム(フレームA)では背景の青空の領域が大きく、スキーヤーが滑り降りてカメラに近づくに従ってスキーヤーの赤い服の領域が徐々に大きくなってくる。つまりシーン内の映像の進行に伴って、各フレームを構成する色の比率が変化してくる。すなわち、被写体サイズ(c)は、フレームA〜Dがログショットで、フレームEがフルフィギュアとなっている。
【0012】
このような場合、各フレーム毎の色度や輝度を使用して照明光を制御すると、青色が強い照明光から赤い照明光に変化していくことになる。すなわち、一定の自然光照明の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。
【0013】
図2は、上記従来の技術による照明制御の問題点の他の例を説明するための図である。図2の(A)に示す例では、月夜の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラワークが異なる3つのショット(1,2,3)により構成されている。ショット1では、対象である亡霊をカメラがロングショットで撮影している。そしてショット2に切り替わると、その亡霊がバストショットで撮影されている。ショット3では、再度ショット1のカメラ位置に戻っている。これらのショットは、カメラワークは異なっていても、一つの雰囲気が連続する一区切りのシーンとして意図されて構成されている。
【0014】
すなわち、このシーンの撮影に用いられているカメラワーク状況は、図2の(B)に示すように、カメラポジション(a)、アングル(b)、カメラの動き(e)、カメラレンズ種別(f)のそれぞれが、目高、水平アングル、フィックス、標準レンズで、被写体のサイズ(c)、被写体の数(d)が、フレームA〜B(ショット1)及びフレームE〜F(ショット3)はロングショット、ツーショット(2S)、フレームC〜D(ショット2)はバストショット、ワンショット(1S)である。
【0015】
このような場合、ショット1では、月夜の比較的暗い映像が連続しているので、これらの映像の各フレームの輝度や色度に従って照明光を制御すると比較的暗い照明光となる。そしてショット1がショット2に切り替わると、バストショットで撮影された亡霊は比較的明るい映像となる。このときに上記従来の技術によりフレーム毎に照明光を制御すると、ショットの切替時に照明光の制御が大きく切り替わって明るい照明光となる。そしてまたショット3に切り替わると、ショット1と同様の暗い照明光に戻る。
【0016】
すなわち、一定の照明状況の下で撮影された一連の映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光が暗くなったり明るくなったりすると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。
【0017】
図3は、上記従来の技術による照明制御の問題点の他の例を説明するための図である。図3の(A)に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークによる撮影によって得られた映像からなるが、ズーム撮影により被写体(前景)である茶色い犬がロングショットからアップショットへ序々に変化している。
【0018】
すなわち、このシーンの撮影に用いられているカメラワーク状況は、図3の(B)に示すように、カメラポジション(a)、アングル(b)、被写体の数(d)、カメラの動き(e)のそれぞれが、ハイポジション、ハイアングル、ワンショット(1S)、ズームで、被写体サイズ(c)が、フレームA〜Bはロングショット、フレームCはフルフィギュア、フレームDはバストショット、フレームEはアップショット、カメラレンズ種別(f)が、フレームAは標準レンズ、フレームB〜Eは望遠レンズである。
【0019】
これらの映像の各フレームの輝度や色度に従って照明光を制御すると、緑色が強い照明光から茶色い照明光に変化していくことになる。すなわち、一定の自然光照明の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。
【0020】
図4は、上記従来の技術による照明制御の問題点の他の例を説明するための図である。図4の(A)に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークによる撮影によって得られた映像からなるが、ズーム撮影により被写体(前景)である桃色の服を着た人物がロングショット(フレームA)からバストショット(フレームE)へ徐々に変化している。
【0021】
すなわち、このシーンの撮影に用いられているカメラワーク状況は、図4の(B)に示すように、カメラポジション(a)、アングル(b)、被写体の数(d)、カメラの動き(e)のそれぞれが、目高、水平アングル、ワンショット(1S)、ズームで、被写体サイズ(c)が、フレームA〜Bはロングショット、フレームCはフルフィギュア、フレームDはウエストショット、フレームEはバストショット、カメラレンズ種別(f)が、フレームAは標準レンズ、フレームB以降は望遠レンズである。
【0022】
これらの映像の各フレームの輝度や色度に従って照明光を制御すると、青色が強い照明光から桃色の照明光に変化していくことになる。すなわち、一定の自然光照明の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。
[0023]
図5は、上記従来の技術による照明制御の問題点の他の例を説明するための図である。図5の(A)に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークによる撮影によって得られた映像からなるが、カメラレンズを切り替えて撮影することにより、被写体(前景)である桃色の服を着た人物がロングショットからバストショットに変化している。
[0024]
すなわち、このシーンの撮影に用いられているカメラワーク状況は、図5の(B)に示すように、カメラポジション(a)、アングル(b)、被写体の数(d)、カメラの動き(e)のそれぞれが、目高、水平アングル、ワンショット(1S)、フィックスで、被写体サイズ(c)が、フレームA〜Cはロングショット、フレームD〜Eはバストショット、カメラレンズ種別(f)が、フレームA〜Cは標準レンズ、フレームD以降は望遠レンズである。
[0025]
これらの映像の各フレームの輝度や色度に従って照明光を制御すると、青色が強い照明光から突然、桃色の照明光に変化することになる。すなわち、一定の自然光照明の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。
【0026】
本発明は、上記課題に鑑みてなされたものであり、表示映像の撮影時カメラワーク状況に応じた、最適な視聴環境の照明制御を実現することが可能な視聴環境制御システム、視聴環境制御装置、視聴環境照明制御システム、及び視聴環境制御方法を提供することを目的とする。
【0027】
本願の第1の発明は、映像データを構成する各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを、前記映像データに付加して送信するデータ送信装置と、前記データ送信装置からのカメラワークデータを受信する受信手段と、前記カメラワークデータに基づき前記映像データの映像特徴量を検出する対象の映像フレームもしくは画面領域を制限し、該制限された映像フレームもしくは画面領域における前記映像データの前記映像特徴量を検出し、該検出された映像特徴量に基づき照明装置の照明光を制御する制御手段とを有する視聴環境制御装置と、を備えたことを特徴とする。
[0028]
本願の第2の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラポジションを表わす情報を含むことを特徴とする。
[0029]
本願の第3の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラアングルを表わす情報を含むことを特徴とする。
[0030]
本願の第4の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時における被写体のサイズを表わす情報を含むことを特徴とする。
[0031]
本願の第5の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時における被写体の数を表わす情報を含むことを特徴とする。
[0032]
本願の第6の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラの動きを表わす情報を含むことを特徴とする。
[0033]
本願の第7の発明は、前記カメラワークデータが、少なくとも各フレームの撮影に用いられたカメラレンズの種別を表わす情報を含むことを特徴とする。
【0034】
本願の第8の発明は、外部からの要求を受けて、映像データを構成する各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを、前記映像データを構成する各フレームの開始タイミングとともに送信するデータ送信装置と、前記カメラワークデータを受信する受信手段と、前記カメラワークデータに基づき前記映像データの映像特徴量を検出する対象の映像フレームもしくは画面領域を制限し、該制限された映像フレームもしくは画面領域における前記映像特徴量を検出し、該検出された映像特徴量に基づき照明装置の照明光を制御する制御手段とを有する視聴環境制御装置と、を備えたことを特徴とする。
[0035]
本願の第9の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラポジションを表わす情報を含むことを特徴とする。
[0036]
本願の第10の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラアングルを表わす情報を含むことを特徴とする。
[0037]
本願の第11の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時における被写体のサイズを表わす情報を含むことを特徴とする。
[0038]
本願の第12の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時における被写体の数を表わす情報を含むことを特徴とする。
[0039]
本願の第13の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラの動きを表わす情報を含むことを特徴とする。
[0040]
本願の第14の発明は、前記カメラワークデータが、少なくとも各フレームの撮影に用いられたカメラレンズの種別を表わす情報を含むことを特徴とする。
【0041】
本願の第15の発明は、表示装置に表示すべき映像データの映像特徴量に基づいて、照明装置の照明光を制御する視聴環境制御装置であって、前記映像データを構成する各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを受信する受信手段と、前記カメラワークデータに基づき前記映像データの映像特徴量を検出する対象の映像フレームもしくは画面領域を制限し、該制限された映像フレームもしくは画面領域における前記映像特徴量を検出し、該検出された映像特徴量に基づき前記照明装置の照明光を制御する制御手段とを備えたことを特徴とする。
[0042]
本願の第16の発明は、前記制御手段が、前記映像データを構成するシーン単位で前記照明装置の照明光を切替制御することを特徴とする。
[0043]
本願の第17の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラポジションを表わす情報を含むことを特徴とする。
[0044]
本願の第18の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラアングルを表わす情報を含むことを特徴とする。
[0045]
本願の第19の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時における被写体のサイズを表わす情報を含むことを特徴とする。
[0046]
本願の第20の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時における被写体の数を表わす情報を含むことを特徴とする。
[0047]
本願の第21の発明は、前記カメラワークデータが、少なくとも各フレームの撮影時におけるカメラの動きを表わす情報を含むことを特徴とする。
[0048]
本願の第22の発明は、前記カメラワークデータが、少なくとも各フレームの撮影に用いられたカメラレンズの種別を表わす情報を含むことを特徴とする。
【0051】
本願の第23の発明は、上述の視聴環境制御装置と、該視聴環境制御装置によって視聴環境照明光を制御される照明装置とを備えた視聴環境照明制御システムでることを特徴とする。
【0054】
本願の第24の発明は、表示装置に表示すべき映像データの映像特徴量に基づいて、照明装置の照明光を制御する視聴環境制御方法であって、前記映像データを構成する各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを受信し、前記カメラワークデータに基づき前記映像データの映像特徴量を検出する対象の映像フレームもしくは画面領域を制限し、前記制限された映像フレームもしくは画面領域における前記映像特徴量を検出し、前記検出された映像特徴量に基づき前記表示装置の周辺に設置された前記照明装置の照明光を制御することを特徴とする。
【発明の効果】
[0055]
本発明によれば、映像の撮影時における場(雰囲気)に応じた最適な視聴環境を実現することが可能となる。
【図面の簡単な説明】
[0056]
[図1]従来技術による照明変動の問題点の一例を説明するための図である。
[図2]従来技術による照明変動の問題点の他の例を説明するための図である。
[図3]従来技術による照明変動の問題点の他の例を説明するための図である。
[図4]従来技術による照明変動の問題点の他の例を説明するための図である。
[図5]従来技術による照明変動の問題点の他の例を説明するための図である。
[図6]本発明の第1実施形態に係る視聴環境制御システムにおける映像送信装置の要部概略構成を示すブロック図である。
[図7]本発明の第1実施形態に係る視聴環境制御システムにおける映像送信装置の出力ビットストリームの例を示す説明図である。
[図8]本発明の第1実施形態に係る視聴環境制御システムにおけるカメラワークデータの一例を示す説明図である。
[図9]カメラポジション及びカメラアングルを説明するための説明図である。
[図10]被写体サイズ(画面サイズ)を説明するための説明図である。
【図11】被写体数を説明するための説明図である。
【図12】映像の構成要素を説明するための説明図である。
【図13】本発明の第1実施形態に係る視聴環境制御システムにおける映像受信装置の要部概略構成を示すブロック図である。
【図14】本発明の第1実施形態に係る視聴環境制御システムにおける照明制御データ生成部の構成を示すブロック図である。
【図15】本発明の第1実施形態に係る視聴環境制御システムにおけるポジション及びアングルによって決まる場(雰囲気)推定対象領域の一例を示す説明図である。
【図16】本発明の第1実施形態に係る視聴環境制御システムにおける被写体サイズ及び被写体数によって決まる場(雰囲気)推定対象領域の一例を示す説明図である。
【図17】本発明の第1実施形態に係る視聴環境制御システムにおける照明制御データ生成部の動作を示すフローチャートである。
【図18】本発明の第2実施形態に係る視聴環境制御システムにおける外部サーバ装置の要部概略構成を示すブロック図である。
【図19】本発明の第2実施形態に係る視聴環境制御システムにおけるカメラワークデータ格納テーブルの一例を示す説明図である。
【図20】本発明の第2実施形態に係る視聴環境制御システムにおける映像受信装置の要部概略構成を示すブロック図である。
【符号の説明】
【0057】
1…データ多重部、2…送信部、21,51…受信部、22,52…データ分離部、23,53…CPU、24…照明制御データ生成部、25…映像表示装置、26…音声再生装置、27…照明装置、28,29…ディレイ発生部、31…シーン区間検出部、32…場(雰囲気)推定部、41…受信部、42…データ格納部、43…送信部、54…送信部、55…受信部。
【発明を実施するための最良の形態】
【0058】
図6は、本発明の一実施形態に係る視聴環境制御システムにおける映像送信装置の要部概略構成を示すブロック図で、本実施形態における映像送信装置(データ送信装置)は、図6に示すように、映像データ、音声データ、付加情報として供給されたカメラワークデータのそれぞれをトランスポートストリームパケット(Transport Stream packet;TSP)形式に分割して多重するデータ多重部1と、データ多重部1の出力データに対して誤り訂正符号を付加する等した上で変調を施し、放送データとして伝送路に送出する送信部2とを備えている。
【0059】
図7は、MPEG2(Moving Picture Experts Group 2)−Systemsで規定されたトランスポートストリームパケット(TSP)の構成の概略を示す説明図であり、11はTSPのデータ内容その他のMPEG2−Systemsで規定された情報が記述されたヘッダ、12は拡張ヘッダ(アダプテーション・フィールド)であって送信者が決めた情報を記述できる部分、13は映像、音声などのデータから構成されるペイロードである。本実施形態では、例えば、映像データ及び音声データをペイロード13で伝送し、付加的な情報であるカメラワークデータなどを拡張ヘッダ(アダプテーション・フィールド)12で伝送することが可能に構成されている。なお、映像データ、音声データ、カメラワークデータのそれぞれの異なるデータストリームを多重して伝送するようにしてもよい。
【0060】
図8は、映像データの各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを説明するための図である。図8に示す本実施形態では、カメラワークデータとして、各フレームの撮影時におけるカメラポジションを表わすポジション情報(a)、各フレームの撮影時におけるカメラアングルを表わすアングル情報(b)、各フレームの撮影時における被写体のサイズを表わす被写体サイズ情報(c)、各フレームの撮影時における被写体の数を表わす被写体数情報(d)、各フレームの撮影時におけるカメラの動きを表わすカメラの動き情報(e)、各フレームの撮影に用いられたカメラレンズの種別を表わすレンズ種別情報(f)を有している。これらの情報はいずれも、各フレームの撮影時における照明環境を推定し、各シーンの雰囲気や臨場感を照明光によって演出するために有用な情報である。以下、それぞれの情報について説明する。
【0061】
まず、映像撮影時のカメラのポジション(a)として、(a1)ハイポジション、(a2)目高、(a3)ローポジションに分類される。図9の(A)に示すように、ハイポジション(a1)は、後述するロングショットに活用されることが多いポジションで、広大な広がりを表現したり、人垣越しなどで用いられる高い位置である。目高(a2)は、通常のポジションであり、被写体(O)の目の高さの位置である。ローポジション(a3)は、子供の目線などの低い位置である。
【0062】
屋外撮影の場合、撮影画面内における水平線(地平線)の高さは、ハイポジションでは低く、ローポジションでは高い位置になる傾向があるため、映像撮影時におけるカメラポジションに適応して、映像特徴量を検出する画面領域を制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、ポジション情報として、各映像フレームの撮影時におけるカメラポジションが、ハイポジション/目高/ローポジションのいずれに属するかを示す2ビットの記述を、カメラワークデータの中に含有している。
【0063】
また、映像撮影時のカメラのアングル(b)として、(b1)ハイアングル(俯瞰)、(b2)水平アングル(目線)、(b3)ローアングル(あおり)に分類される。図9の(B)に示すように、ハイアングル(b1)は、下方を見下ろす角度での撮影方法であり、全体の客観的な状況説明などで用いられる。水平アングル(b2)は、カメラを水平方向に向けた、自然で標準的なアングルである。ローアングル(b3)は、上方を見上げる角度での撮影方法であり、威圧的、優位、勝利などを表現する際に用いられる。
【0064】
屋外撮影の場合、撮影画面内における水平線(地平線)の高さは、ハイアングルでは高く、ローアングルでは低い位置になる傾向があるため、映像撮影時におけるカメラアングルに適応して、映像特徴量を検出する画面領域を制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、アングル情報として、各映像フレームの撮影時におけるカメラアングルが、ハイアングル(俯瞰)/水平アングル(目線)/ローアングル(あおり)のいずれに属するかを示す2ビットの記述を、カメラワークデータの中に含有している。
【0065】
さらに、映像撮影時の被写体(画面)サイズ(c)として、ロングショット(c1)、フルフィギュア(c2)、ニーショット(c3)、ウエストショット(c4)、バストショット(c5)、アップショット(c6)、クローズアップショット(c7)、ビッグクローズアップショット(c8)に分類される。図10に示すように、ロングショット(L.S.:c1)は、スタジオ風景や野外の広角ショットであり、全体の位置関係や、ストーリーの始まりと終わりに用いられることが多い。フルフィギュア(F.F.:c2)は、撮影画面内に被写体の全身(立ったときの足先から頭までの全身像、座ったときの全身像)を納めたサイズとなる。ニーショット(K.S.:c3)は、撮影画面内に被写体の膝上から頭までを入れたサイズとなる。
【0066】
ウエストショット(W.S.:c4)は、撮影画面内に被写体の腰か腰上から頭までを入れた半身像のサイズとなり、ニュース、話し手の基本的ショットに用いられ、テロップを入れ易いのが特徴である。バストショット(B.S.:c5)は、撮影画面内に被写体の胸か胸上から頭までを入れた上半身のサイズとなり、これは人物像で最も多く使われるサイズである。アップショット(U.S.:c6)は、被写体の表情、盛り上げを表現するショットである。クローズアップショット(C.U.:c7)は、アップを強調するショットであり、被写体の頭(髪の毛)が切れる程度のサイズとなる。ビッグクローズアップショット(B.C.U.:c8)は、クローズアップを強調する際に用いられる。
【0067】
このように、映像撮影時の被写体サイズ(画面サイズ)によって、背景の領域面積は変わるので、映像撮影時における被写体サイズ(画面サイズ)に適応して、映像特徴量を検出するフレームを制限したり、映像特徴量を検出する画面領域を制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、被写体サイズ情報として、各映像フレームの撮影時における被写体のサイズが、ロングショット/フルフィギュア/ニーショット/ウエストショット/バストショット/アップショット/クローズアップショット/ビッグクローズアップショットのいずれに属するかを示す3ビットの記述を、カメラワークデータの中に含有している。
【0068】
また、映像撮影時の被写体の数(d)として、ワンショット(1S:d1)、ツーショット(2S:d2)、スリーショット(3S:d3)、グループショット(GS:d4)、風景(背景)のみ(d5)に分類される。図11に示すように、ワンショット(d1)は前景となる被写体が1人(1つ)のみ、ツーショット(d2)は前景となる被写体が2人(2つ)、スリーショット(d3)は前景となる被写体が3人(3つ)、グループショット(d4)は前景となる被写体が4以上の多数である場合のショットである。
【0069】
このように、映像撮影時の被写体数によって、背景の領域面積は変わるので、映像撮影時における被写体数に適応して、映像特徴量を検出する画面領域を制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、被写体数情報として、各映像フレームの撮影時における被写体の数が、ワンショット(1S)/ツーショット(2S)/スリーショット(3S)/グループショット(GS)/風景(背景)のみのいずれに属するかを示す3ビットの記述を、カメラワークデータの中に含有している。
【0070】
さらに、映像撮影時のカメラの動き(e)として、フィックス(e1)、パン(e2)、チルト(e3)、ロール(e4)、ズーム(e5)、ドリー(e6)、フォロー(e7)に分類される。フィックス(e1)は、画角を変えるズーム操作などは行わないで、カメラ位置も動かさない撮影方法である。パン(e2)は、カメラを水平方向に振って、周囲を見せる撮影方法であり、状況説明や左右のものの位置関係を見せたいときなどに使用される。チルト(e3)は、カメラを垂直方向に振る撮影方法であり、下から上(上から下)に向かって撮ったり、木の幹に沿って上に振っていき、枝や葉を撮るようなときに利用される。
【0071】
ロール(e4)は、カメラを回転させる撮影方法、ズーム(e5)は、ズームレンズによって大写しや広いサイズにする撮影方法である。ドリー(e6)は、カメラ自体が動きながら撮影する手法、フォロー(e7)は、走る人や乗り物など移動する被写体を撮る場合に、被写体の動きを追いかけながら撮影する手法である。
【0072】
このように、映像撮影時のカメラの動きによって、急激に背景の領域面積や特徴量が変わるので、映像撮影時におけるカメラの動きに適応して、映像特徴量を検出するフレームを制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、カメラの動き情報として、各映像フレームの撮影時におけるカメラの動きが、フィックス/パン/チルト/ロール/ズーム/ドリー/フォローのいずれに属するかを示す3ビットの記述を、カメラワークデータの中に含有している。
【0073】
また、映像撮影時に用いられるレンズワーク(レンズ種別情報;f)として、標準レンズ(f1)、広角レンズ(f2)、望遠レンズ(f3)、マクロレンズ(f4)に分類される。標準レンズ(f1)は、人間の視野に近く、自然な遠近感の撮影が可能なレンズである。広角レンズ(f2)は、画角が広く、広い範囲を撮影することが可能なレンズであり、風景や集合写真の撮影などによく利用される。望遠レンズ(f3)は、遠くの被写体を引き寄せて大きく撮影することが可能なレンズであり、実際に近づけないスポーツのワンシーン、ポートレイトの撮影などによく利用される。マクロレンズ(f4)は、接近撮影が可能なレンズであり、草花や昆虫のクローズアップ撮影に適している。
【0074】
このように、映像撮影時のレンズワークによって、背景の領域面積が変わるので、映像撮影時におけるカメラの動きに適応して、映像特徴量を検出するフレームを制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、レンズ種別情報として、各映像フレームの撮影時に用いられたカメラレンズの種別が、標準レンズ/広角レンズ/望遠レンズ/マクロレンズのいずれに属するかを示す2ビットの記述を、カメラワークデータの中に含有している。
【0075】
なお、カメラワークデータに含まれる各種情報は上述したものに限定されず、もっと詳細な情報を追加するなどしてもよいことは明らかである。また、上述したカメラワークデータは、台本(シナリオもしくは脚本とも呼ぶ)に基づいて作成され、映像撮影現場で用いられるカメラワークプログラムなどを利用して生成することができ、この場合、新たにカメラワークデータを作成する作業を省くことが可能となる。
【0076】
ところで、シーンやショットを含む映像の構成について、図12を参照して説明する。連続する動画像を構成する映像データは、図12に示すように、3層(レイヤ)構成に分けて考えることができる。映像(Video)を構成する第1レイヤ(#1)は、フレーム(Frame)である。フレームは物理的なレイヤであり、単一の2次元画像を指す。フレームは、通常、毎秒30フレームのレートで得られる。第2レイヤ(#2)はショット(Shot)である。ショットは単一のカメラにより撮影されたフレーム列である。そして、第3レイヤ(#3)がシーン(Scene)である。シーンはストーリー的なつながりを有するショット列である。
【0077】
ここでは、映像データのフレーム単位で、上述したカメラワークデータを付加することとしているが、全てのフレームに対して上述のカメラワークデータを付加する以外にも、撮影時のカメラワーク状況に変化があるフレームに対してのみ、上述のカメラワークデータを付加するようにしてもよい。これによっても、映像データの各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを、前記映像データに付加することが可能となる。
【0078】
次に、上記映像送信装置より送出された放送データを受信して、映像・音声を表示・再生するとともに、そのときの視聴環境照明を制御する映像受信装置(データ受信装置)について説明する。
【0079】
本実施形態における映像受信装置は、図13に示すように、伝送路より入力された放送データを受信して復調するとともに、誤り訂正を行う受信部21と、受信部21の出力データから、映像表示装置25に出力する映像データとTC(タイムコード)、音声再生装置26に出力する音声データとTC(タイムコード)、付加情報としてのカメラワークデータのそれぞれを分離・抽出するデータ分離部22と、データ分離部22で分離されたカメラワークデータを受けて、照明制御データ生成部24に対する制御データを出力するCPU23と、CPU23からの制御データに応じて、前記映像データ/音声データの特徴量を検出し、この検出結果に基づいた照明制御データ(RGBデータ)を、視聴環境空間を照明する照明装置27に出力する照明制御データ生成部24と、照明制御データ生成部24における処理時間分だけ映像データ、音声データを遅延して出力するディレイ発生部28,29とを備えている。
【0080】
ここで、本実施形態のCPU23は、カメラワークデータに基づき、照明制御データ生成部24にて映像データの特徴量を検出する対象の映像フレーム及び画面領域を制御する制御データを出力する。
【0081】
なお、タイムコード(TC)は、映像データ、音声データそれぞれの再生時間情報を示すために付加された情報であり、例えば、映像データの時間(h):分(m):秒(s):フレーム(f)を示す情報により構成されている。
【0082】
また、照明装置27は、映像表示装置25の周囲に設置されて、所定の色相をもった例えばRGBの三原色の光を発光するLEDにより構成することができる。ただし、照明装置27は、映像表示装置25の周囲環境の照明色及び明るさを制御できるような構成であればよく、上記のような所定色を発光するLEDの組み合わせに限ることなく、白色LEDと色フィルタとによって構成してもよく、あるいは白色電球や蛍光管とカラーフィルタとの組み合わせやカラーランプ等を適用することもできる。また、照明装置27は1個以上設置されていればよい。
【0083】
次に、本実施形態における照明制御データ生成部24の具体的構成について、図14とともに説明する。図14において、31は映像データ及び音声データからシーン区間の開始点TC、終了点TCを検出するシーン区間検出部であり、シーン変化点の検出方法は、公知のものをはじめとする各種の技術を用いることができる。なお、ここでは、シーン区間の検出のために映像データの特徴量に加えて、音声データの特徴量も用いているが、これはシーン変化点の検出精度をより向上させるためであり、映像データの特徴量のみからシーン区間を検出するようにしてもよい。また、シーン変化点を示す情報が放送データに付加されている場合、これを利用するようにしてもよい。
【0084】
32は、映像データ及び音声データから撮影現場の照明状態や場面設定(雰囲気)を推定し、その推定結果に従って照明装置27を制御するための照明制御データを出力する場(雰囲気)推定部であり、撮影時の周囲光の状態の推定方法は、公知のものをはじめとする各種の技術を用いることができる。なお、ここでも、撮影時の場(雰囲気)の推定のために映像データの特徴量に加えて、音声データの特徴量も用いているが、これは場(雰囲気)の推定精度をより向上させるためであり、映像データの特徴量のみから撮影シーンの場(雰囲気)を推定するようにしてもよい。
【0085】
また、映像データの特徴量としては、例えば上述した従来例のように、画面の所定領域における色信号、輝度信号をそのまま用いることもできるし、これらから映像撮影時における周囲光の色温度を求めて用いてもよい。さらに、これらを映像データの特徴量として切替出力可能に構成してもよい。また、音声データの特徴量としては、音量、音声周波数などを用いることができる。
【0086】
さらに、本実施形態では、同一シーンの中では視聴環境照明光の色及び強度を略一定に保持するため、場(雰囲気)推定部32は、シーン区間検出部31によりシーン変化点(開始点)が検出された時点から、所定数N(Nは予め設定された任意の自然数であり、例えばN=100)のフレームにおける映像特徴量及び音声特徴量を検出し、この特徴量に応じた照明制御データ(RGBデータ)を、次のシーンに切り替わるまで出力するように構成している。
【0087】
ここで、上記シーン変化点(開始点)が検出された時点から連続する所定数Nのフレームの中で、映像データの特徴量を検出する際に用いるフレーム及びその画面領域は、CPU23からの制御データによって決められる。例えば、被写体サイズがバストショット、アップショット、クローズアップショット、ビッグクローズアップショットのいずれかであるフレームは、被写体(前景部)が画面内の多くの領域面積を占めるため、映像特徴量の検出には用いないようにする。また、レンズ種別が望遠レンズ、マクロレンズのいずれかであるフレームも、被写体(前景部)が画面内の多くの領域面積を占めるため、映像特徴量の検出には用いないようにする。
【0088】
さらに、カメラの動きがパン、チルト、ロール、ズーム、ドリー、フォローのいずれかであるフレームは、一連のカメラの動きに伴って背景の様子が極端に変化する可能性が高いことから、最初のフレーム以外は映像特徴量の検出に用いないこととする。例えば、カメラの動きがパンであるフレームが2以上連続した場合、2枚目以降のフレームは映像特徴量の検出に用いない。なお、上述のカメラの動きのフレームが連続した場合、予め定められた最初の数フレームのみを映像特徴量の検出に用いるようにしてもよい。
【0089】
そしてまた、映像特徴量の検出に用いるフレームであっても、映像特徴量の検出対象とすべき画面領域は、映像撮影時のカメラワークによって異なる。例えば、図15に示すように、当該フレームの撮影時におけるカメラポジションとアングルとによって、撮影時の周囲光の色、明るさを推定するのに適した画面領域(図15中、斜線部分で示す)が決まる。すなわち、撮影時の周囲光の色、明るさを推定するのに適した画面領域は通常、画面上部の領域であるが、この画面上部の領域の大きさを規定する水平ラインがカメラポジションとアングルとによって決められる。
【0090】
また、図16に示すように、当該フレームの撮影時における被写体サイズと数とによっても、撮影時の周囲光の色、明るさを推定するのに適した画面領域(図16中、斜線部分で示す)が決まる。すなわち、撮影時の周囲光の色、明るさを推定するのに適した画面領域は、前景となる被写体を除いた領域が望ましく、この被写体が位置する可能性が高く、映像特徴量の検出対象領域から除外すべき領域が、被写体サイズと数とによって決められる。なお、被写体の数が背景のみの場合は、全画面領域を映像特徴量の検出対象とする。
【0091】
従って、本実施形態では、ポジション、アングル、被写体サイズ、被写体数の各カメラワーク情報に基づいて、映像特徴量を検出する対象領域を制限している。具体的には、ポジション及びアングルによって決まる図15の斜線領域と、被写体サイズ及び被写体数によって決まる図16の斜線領域との論理積によって求められる画面領域の映像データのみを用いて、映像特徴量を検出することとしている。
【0092】
このように、カメラワークデータを用いて、映像シーンの場(雰囲気)推定に適したフレーム及び画面領域のみを制限・抽出し、抽出されたフレーム及び画面領域における映像特徴量を検出することで、場(雰囲気)の推定精度を向上させることができる。これによって、場(雰囲気)の推定誤りによって、臨場感や雰囲気を阻害するような照明制御がなされることを防止し、常に最適な視聴環境を実現することが可能となる。
【0093】
さらに、本実施形態の照明制御データ生成部24の動作について、図17のフローチャートとともに説明する。まず、シーン区間検出部31は、新しく入力されたフレームを読み込み(ステップS1)、そのフレームの映像特徴量や音声特徴量から当該フレームがシーン開始点(変化点)か否かを検出する(ステップS2)。シーン開始フレームが検出されない場合は、ステップS1に戻って次のフレームを読み込む。シーン開始フレームが検出された場合、場(雰囲気)推定部32は、該シーン開始フレームから連続するNフレーム分の映像データ及び音声データを読み込む(ステップS3)。
【0094】
そして、カメラワークデータの被写体サイズ情報、カメラの動き情報、レンズ種別情報に基づいて、上記読み込んだNフレームの中から、場(雰囲気)推定に用いる推定対象フレームを判定・抽出する(ステップS4)。ここで、上記読み込んだNフレームの中に、場(雰囲気)推定対象フレームが存在するか否かを判別し(ステップS5)、場(雰囲気)推定対象フレームが存在する場合は、推定対象フレームを1フレーム読み込む(ステップS6)。そして、カメラワークデータのポジション情報、アングル情報、被写体サイズ情報、被写体数情報に基づいて、この読み込んだ推定対象フレームにおける場(雰囲気)推定に用いる推定対象画面領域を判定・抽出し(ステップS7)、場(雰囲気)推定対象領域の映像データ特徴量を検出して、場(雰囲気)推定を行う(ステップS8)。
【0095】
次に、場(雰囲気)推定対象フレームの全てについて、上述の場(雰囲気)推定処理が完了したか否かを判断し(ステップS9)、全ての場(雰囲気)推定対象フレームについて、場(雰囲気)推定処理が完了した場合、場(雰囲気)推定結果の1フレーム当たりの平均値を算出し(ステップS10)、これに応じた照明制御データ(RGBデータ)を生成・出力する(ステップS11)。なお、音声データ特徴量の検出は、上述のNフレーム期間にわたって行われ、上記のようにして算出された映像データ特徴量と併せて、場(雰囲気)の推定処理に利用される。
【0096】
また、上記ステップS5において、上記ステップS3で読み込んだNフレームの中に、場(雰囲気)推定対象フレームが存在しないと判別された場合は、予め用意されたデフォルト値に基づく照明制御データを生成・出力する(ステップS11)。ここでは、場(雰囲気)推定対象フレームが存在しない場合、例えばやや弱い白色の照明光を視聴環境空間に照明するようにしているが、これに限らず、直前のシーンに係る照明制御データをそのまま継続して出力し、視聴環境照明光の色、強度を保持するようにしてもよい。
【0097】
そして、処理が終了であるか否かを判別し(ステップS13)、例えば映像データが終了した場合や、視聴環境照明制御の停止が指示された場合は、シーン区間検出及び場(雰囲気)推定の処理を終了し、それ以外の場合は、ステップS1に戻って新しいフレームを取得する。
【0098】
本実施形態においては、上述のとおり、シーン開始点からNフレーム内に含まれる映像データ及び音声データの特徴量に基づいて照明制御データを生成し、この照明制御データを次にシーン変化が検出されるまで出力するので、シーン単位で視聴環境照明光の色、強度を切り替えて、同一シーン内では視聴環境照明光の色、強度を略一定に保持することができる。
【0099】
また、上記データ分離部22で分離された映像データ、音声データは、上記場(雰囲気)推定部32での推定処理にかかる時間分だけ、ディレイ発生部28,29で遅延された上で、映像表示装置25、音声再生装置26により再生されるので、映像/音声の再生タイミングに合わせて、視聴環境照明光の色、強度を適切に制御することができる。
【0100】
さらに、図1乃至図5に示した各映像シーン例に対する場(雰囲気)推定処理について説明する。図1に示した映像シーンにおいて、フレームA〜E−1(フレームEの直前のフレーム)に対しては、図15(g)の斜線で示した領域と図16(a)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。また、フレームE以降に対しては、図15(g)の斜線で示した領域と図16(e)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。これによって、背景部の映像特徴量のみを用いた照明制御データを生成することができ、本シーン撮影時の照明状況を反映した適切な視聴環境照明光を、このシーンの表示再生期間にわたって照射することが可能となる。
【0101】
図2に示した映像シーンにおいて、フレームC〜E−1に対しては、被写体サイズがバストショットであるので、映像データ特徴量の検出は行わない。そして、フレームA〜C−1(フレームCの直前のフレーム)、フレームE以降に対しては、図15(e)の斜線で示した領域と図16(b)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。これによって、背景部の映像特徴量のみを用いた照明制御データを生成することができ、本シーン撮影時の照明状況を反映した適切な視聴環境照明光を照射することが可能となる。
【0102】
図3に示した映像シーンにおいては、ズーム撮影が行われていることから、フレームAに対してのみ、映像データ特徴量の検出は行う。ここで、フレームAに対しては、図15(c)の斜線で示した領域と図16(a)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。これによって、背景部の映像特徴量のみを用いた照明制御データを生成することができ、このシーン撮影時の照明状況を反映した適切な視聴環境照明光を、このシーンの表示再生期間にわたって照射することが可能となる。
【0103】
図4に示した映像シーンにおいては、同じくズーム撮影が行われていることから、フレームAに対してのみ、映像データ特徴量の検出は行う。ここで、フレームAに対しては、図15(e)の斜線で示した領域と図16(a)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。これによって、背景部の映像特徴量のみを用いた照明制御データを生成することができ、このシーン撮影時の照明状況を反映した適切な視聴環境照明光を、このシーンの表示再生期間にわたって照射することが可能となる。
【0104】
図5に示した映像シーンにおいては、望遠レンズに切り換えられ、バストショットとなったフレームD以降に対する映像データ特徴量の検出を行わず、フレームA〜D−1(フレームDの直前のフレーム)に対してのみ、映像データ特徴量の検出を行う。ここで、フレームA〜D−1に対しては、図15(e)の斜線で示した領域と図16(a)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。これによって、背景部の映像特徴量のみを用いた照明制御データを生成することができ、このシーン撮影時の照明状況を反映した適切な視聴環境照明光を、このシーンの表示再生期間にわたって照射することが可能となる。
【0105】
上記のように、本実施形態においては、映像データとともにカメラワークデータとして入力された各種情報内容を利用して、各シーンの撮影時における照明状況(雰囲気)を適切に再現すべく照明制御データを求め、照明装置27の照明光を制御することが可能である。従って、前景部(被写体)などの映像内容の影響を受けることなく、自然で違和感のない視聴環境照明を実現することができ、映像視聴時の臨場感を増大させることが可能となる。また、シーン単位で照明制御データを切替制御する構成としているので、同じシーン内で視聴環境照明が激しく変化して臨場感を損なってしまうことを防止することができる。
【0106】
なお、図15,図16に示した画面領域パターンは適宜設定することができる。また、この画面領域パターンから求められた場(雰囲気)推定画面領域内における映像データのヒストグラム分布(度数分布)を検出し、分布割合の高い映像データのみから映像特徴量を検出して場(雰囲気)推定を行うことにより、場(雰囲気)推定の精度をさらに向上することが可能となる。
【0107】
また、本実施形態においては、各フレームの撮影時におけるカメラワーク状況に関するカメラワークデータを送受信するようにしているので、このカメラワークデータを用いて所望のフレームを検索したり編集するなど、視聴環境照明の制御以外にも様々な機能を実現することが可能となる。
【0108】
例えば、カメラポジションが目高、アングルが水平アングル、被写体サイズ(画面サイズ)がロングショット、カメラの動きがフィックス、レンズ種別が標準レンズを用いて撮影されたフレームを選択・抽出することにより、代表的な映像場面(キーフレーム、キーショット)を集めたインデックスを作成することが可能となる。
【0109】
さらに、上記本発明の第1の実施形態においては、カメラワークデータが放送データに多重付加されて送信される場合について説明したが、放送データにカメラワークデータが付加されていない場合、表示する映像データに対応するカメラワークデータを外部サーバ装置等より送受信することによって、映像の撮影時照明状況に応じた最適な視聴環境を実現することが可能となる。これについて、以下に説明する。
【0110】
図18は、本実施形態の視聴環境制御システムにおける外部サーバ装置の要部概略構成を示すブロック図で、本実施形態における外部サーバ装置(データ送信装置)は、図18に示すように、映像受信装置(データ受信装置)側から特定の映像データ(コンテンツ)に関するカメラワークデータの送信要求を受信する受信部41と、映像データ(コンテンツ)毎のカメラワークデータを格納しているデータ格納部42と、送信要求を受けたカメラワークデータを要求元の映像受信装置(データ受信装置)へ送信する送信部43とを備えている。
【0111】
ここで、本実施形態のデータ格納部42に格納されているカメラワークデータは、図19に示すように、撮影時のカメラワーク状況に変化があるフレームの開始タイムコード(TC)に対応付けてテーブル形式に記述されており、送信要求を受けた映像データ(番組コンテンツ)に対応するカメラワークデータ(a)〜(f)を、映像撮影時のカメラワーク状況に変化のあるフレームを示すTC(タイムコード)とともに、送信部43より要求元の映像受信装置へ送信する。
【0112】
なお、ここで、映像データを構成する全てのフレームについてカメラワークデータを記述するようにしてもよいが、図19に示すように、撮影時のカメラワーク状況に変化があるフレームのみについてカメラワークデータを記述するようにすることで、データ格納部42に格納するデータ量を削減することができる。
【0113】
次に、上記外部サーバ装置より送出されたカメラワークデータを受けて、視聴環境照明を制御する映像受信装置(データ受信装置)について説明する。本実施形態における映像受信装置は、図20に示すように、伝送路より入力された放送データを受信して復調するとともに、誤り訂正を行う受信部51と、受信部51の出力データから、映像表示装置25に出力する映像データ、音声再生装置26に出力する音声データのそれぞれを分離・抽出するデータ分離部52と、表示する映像データ(コンテンツ)に対応したカメラワークデータの送信要求を、通信ネットワークを介して外部サーバ装置(データ送信装置)に送出する送信部54と、前記送信要求したカメラワークデータを、通信ネットワークを介して外部サーバ装置より受信する受信部55とを備えている。
【0114】
また、前記受信部55で受信したカメラワークデータを記憶し、映像データのTC(タイムコード)に同期して、対応するフレームのカメラワークデータから求められた制御データを出力するCPU53と、CPU53からの出力制御データに応じて決められるフレーム及び画面領域の映像特徴量に応じた照明制御データ(RGBデータ)を、視聴環境空間を照明する照明装置27に出力する照明制御データ生成部24とを備えている。
【0115】
すなわち、CPU53は、外部サーバ装置より受信して内部に記憶しているカメラワークデータ格納テーブルの各フレームの開始タイムコードと、データ分離部52で分離された映像データのタイムコードとを比較し、これらが一致した時に対応するカメラワークデータを読み出し、このカメラワークデータから表示映像シーンの場(雰囲気)推定に適応したフレーム及び画面領域を制限するための制御データを生成し、出力することができる。
【0116】
これによって、放送データにカメラワークデータが付加されていない場合であっても、表示映像データ(番組コンテンツ)に対応するカメラワークデータを外部サーバ装置より入手し、このカメラワークデータを用いて照明制御データを生成することでき、しかも簡単な構成で映像シーンの表示切替わりタイミングと視聴環境照明の切替えタイミングとを同期させることができるので、映像の撮影時照明状況に応じた最適な視聴環境を実現することが可能となる。
【0117】
なお、本発明の視聴環境制御装置、方法、及び視聴環境制御システムは、上述した本発明の主旨を逸脱しない範囲で、様々な実施形態により実現することが可能である。例えば、視聴環境制御装置は映像表示装置内に設けられてもよく、入力映像データに含まれる種々の情報に基づいて、外部の照明機器を制御することができるような構成としてもよいことは言うまでもない。
【0118】
また、上述したカメラワークデータは、放送データから分離・取得する場合や、外部サーバ装置から取得する場合に限られず、例えば、外部機器(DVD再生機やブルーレイディスク再生機など)で再生された映像情報を表示する場合、メディア媒体内に付加されたカメラワークデータを読み出して、これを用いるようにしてもよい。
【Technical field】
[0001]
The present invention can control the illumination light around the video display device when the video is displayed on the video display device in accordance with the atmosphere and scene setting of the shooting scene of the video. Viewing environment control system, Viewing environment control device, viewing environment illumination The present invention relates to a control system and a viewing environment control method.
[0002]
For example, when displaying an image with an image display device such as a television receiver, or when projecting and displaying an image using a projector device, the surrounding illumination light is adjusted according to the display image. There is known a technique for providing a viewing effect such as enhancing the sense of presence.
[0003]
For example, in Japanese Patent Laid-Open No. 2-158094, a mixed light illuminance ratio of the three primary colors of a light source is calculated for each frame from a color signal (RGB) and a luminance signal (Y) of a color television display image, and linked to the image. Thus, there is disclosed a light color variable illumination device that performs dimming control. This variable-light-color illuminating device extracts a color signal (RGB) and a luminance signal (Y) from a display image of a color television, and uses the three color lights (red light, green) used as a light source from the color signal and the luminance signal. Light, blue light) is calculated, the illuminance of the three-color light is set according to the illuminance ratio, and the three-color light is mixed and output as illumination light.
[0004]
Also, for example, in Japanese Patent Laid-Open No. 2-253503, a video effect lighting apparatus that performs illumination control around a dividing unit by dividing a television image into a plurality of portions and detecting an average hue of the corresponding dividing unit. Is disclosed. This video effect lighting device includes illumination means for illuminating the surroundings of the installation location of the color television, divides the video displayed on the color television into a plurality of parts, and divides the video corresponding to the portion illuminated by the illumination means The average hue of the part is detected, and the illumination means is controlled based on the detected hue.
[0005]
Further, for example, in Japanese Patent Laid-Open No. 3-184203, the skin color of a human face or the like is not obtained from an image displayed on the screen of the image display device, but merely by calculating the average chromaticity and average luminance of the entire screen of the image display device. The remaining portion after removing the pixels of the portion is considered as the background portion, and only the RGB signal and luminance signal of each pixel in the background portion are taken out to obtain the average chromaticity and average luminance, and the color of the wall surface on the back of the image display device There is disclosed a method for controlling illumination so that the brightness and brightness are the same as the average chromaticity and average brightness of the entire screen or the background portion excluding human skin color.
DISCLOSURE OF THE INVENTION
[Problems to be solved by the invention]
[0006]
In the conventional viewing environment control apparatus described above, the feature amount (color signal and luminance signal) for each frame (screen) in the video signal to be displayed is detected and the illumination light is controlled. It is difficult to generate illumination light that matches the field (atmosphere) of the image. For example, if you illuminate the surrounding area with improper color illumination light due to the influence of the clothes of the subject person included in the video signal or artifacts in the background of the subject, the atmosphere of each scene can be reproduced. , Can not maintain the sense of reality for each scene. In other words, viewing environment lighting that deviates significantly from the lighting situation at the time of shooting a video scene, on the contrary, impairs the sense of reality.
[0007]
In the above-mentioned Japanese Patent Laid-Open No. 3-184203, the remaining portion of the skin color portion is removed as a background portion, and the viewing environment space is based on the feature amount (color signal and luminance signal) of each pixel in the background portion. Although the illumination light is controlled, for example, in the case of an image in which the ground and buildings occupy a lot in the background, the illumination light of an inappropriate color will be irradiated to the surroundings. The feeling and atmosphere will be impaired. That is, in order to estimate the lighting condition (atmosphere) at the time of shooting the display image from the video signal, it is not sufficient to remove the skin-colored pixels, and only the background pixels representing the lighting condition (atmosphere) at the time of shooting are appropriate. It is necessary to extract and use.
[0008]
In the above-described conventional technology, the illumination light state changes according to the change of the luminance and hue of the video signal for each frame, and particularly when the degree of change in luminance and hue between frames is large. The problem is that the light changes complicatedly and the viewer feels uncomfortable with the flicker. Furthermore, it is not preferable that the illumination light fluctuates in accordance with changes in luminance and hue for each frame during the display of one scene in which the illumination state at the time of shooting does not change, which adversely inhibits the atmosphere for each scene. .
[0009]
FIG. 1 is a diagram for explaining an example of the problem of illumination control according to the above-described conventional technique, and shows a part of continuous moving images. In the example shown in FIG. 1 (A), a scene of an image shot with a scene setting of outdoors in a sunny day is created. This scene consists of a video obtained by a series of camera work shooting without switching the camera. In this example, an image of a skier sliding down from above the camera toward the vicinity of the camera is taken. Skiers are dressed in red and the sky is clear.
[0010]
That is, as shown in FIG. 1B, this video scene includes the camera position (a), angle (b), number of subjects (d), camera movement (e), and camera lens type (f). Each was taken in a certain camera work situation of low position, low angle, one shot (1S), fixed, and standard lens.
[0011]
The video of this scene has a large blue sky area in the initial frame (frame A), and the skier's red clothing area gradually increases as the skier slides down and approaches the camera. That is, as the video in the scene progresses, the ratio of the colors constituting each frame changes. That is, regarding the subject size (c), the frames A to D are log shots, and the frame E is a full figure.
[0012]
In such a case, when the illumination light is controlled using the chromaticity and luminance for each frame, the blue light changes from strong illumination light to red illumination light. In other words, even though the video was shot under constant natural light illumination, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.
[0013]
FIG. 2 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 2A, a scene of an image shot with a scene setting of moonlight night is created. This scene is composed of three shots (1, 2, 3) with different camera work. In Shot 1, the camera takes a long shot of the target ghost. Then, when switching to shot 2, the ghost is shot with a bust shot. In shot 3, the camera returns to the camera position of shot 1 again. These shots are intended and configured as a segment of a scene in which one atmosphere continues even though the camera work is different.
[0014]
That is, as shown in FIG. 2B, the camera work situation used for shooting this scene includes the camera position (a), the angle (b), the camera movement (e), and the camera lens type (f ) Are eye height, horizontal angle, fixed, standard lens, subject size (c), number of subjects (d) are frames A to B (shot 1) and frames E to F (shot 3). Long shot, two shot (2S), and frames C to D (shot 2) are bust shot and one shot (1S).
[0015]
In such a case, since relatively dark images of moonlight night are continuous in Shot 1, if the illumination light is controlled according to the luminance and chromaticity of each frame of these images, the illumination light becomes relatively dark. Then, when shot 1 is switched to shot 2, the ghost photographed by the bust shot becomes a relatively bright image. At this time, if the illumination light is controlled for each frame according to the above-described conventional technique, the illumination light control is largely switched at the time of switching shots, resulting in bright illumination light. When switching to shot 3 again, it returns to the dark illumination light similar to shot 1.
[0016]
In other words, even though it is a series of images shot under a certain lighting condition, illumination light that does not take into account the lighting condition at the time of shooting is generated and irradiated, so the atmosphere of the scene is disturbed on the contrary. This will make the viewer feel uncomfortable. Also, if the illumination light becomes darker or brighter in a single segment where a single scene setting (atmosphere) is continuous, the atmosphere of the scene is also hindered and the viewer feels uncomfortable.
[0017]
FIG. 3 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 3A, a scene of a video shot with a scene setting of outdoors in a sunny day is created. This scene is made up of images obtained by a series of camera work shootings without switching the camera, but the brown dog that is the subject (foreground) is gradually changing from a long shot to an up shot by zoom shooting.
[0018]
That is, as shown in FIG. 3B, the camera work situation used for shooting this scene includes the camera position (a), the angle (b), the number of subjects (d), and the camera movement (e ) Are high position, high angle, one shot (1S), zoom, subject size (c), frames A to B are long shots, frame C is full figure, frame D is bust shot, frame E is In the up shot, camera lens type (f), the frame A is a standard lens, and the frames B to E are telephoto lenses.
[0019]
When the illumination light is controlled according to the luminance and chromaticity of each frame of these images, the green light changes from strong illumination light to brown illumination light. In other words, even though the video was shot under constant natural light illumination, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.
[0020]
FIG. 4 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 4A, a scene of a video shot with a scene setting of outdoors in a sunny day is created. This scene consists of images obtained by a series of camera work shooting without switching the camera, but a person wearing pink clothes as the subject (foreground) by zoom shooting is taken from a long shot (frame A) to a bust shot. It gradually changes to (Frame E).
[0021]
That is, as shown in FIG. 4B, the camera work situation used for shooting this scene includes the camera position (a), the angle (b), the number of subjects (d), and the camera movement (e ) Are eye height, horizontal angle, one shot (1S), zoom, subject size (c) is a long shot for frames A to B, full figure for frame C, waist shot for frame D, and frame E for frame E. In the bust shot and camera lens type (f), the frame A is a standard lens, and the frames B and thereafter are telephoto lenses.
[0022]
When the illumination light is controlled according to the luminance and chromaticity of each frame of these images, the blue light changes from strong illumination light to pink illumination light. In other words, even though the video was shot under constant natural light illumination, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.
[0023]
FIG. 5 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 5 (A), a scene of an image shot with a scene setting of outdoors in a sunny day is created. This scene consists of images obtained by a series of camera work shooting without switching the camera, but by switching the camera lens and shooting, a person wearing pink clothes as the subject (foreground) is a long shot Has changed from a bust shot to a bust shot.
[0024]
That is, as shown in FIG. 5B, the camera work situation used for shooting this scene includes the camera position (a), the angle (b), the number of subjects (d), and the camera movement (e ) Are eye height, horizontal angle, one shot (1S), and fix, subject size (c) is long shot in frames A to C, bust shot is in frames D to E, and camera lens type (f) is Frames A to C are standard lenses, and frames D and after are telephoto lenses.
[0025]
When the illumination light is controlled in accordance with the luminance and chromaticity of each frame of these images, the blue light suddenly changes to pink illumination light. In other words, even though the video was shot under constant natural light illumination, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.
[0026]
The present invention has been made in view of the above problems, and can realize illumination control in an optimal viewing environment according to the camera work situation at the time of shooting a display image. Glance Listening environment control system, Viewing environment control device, viewing environment lighting control system, It is another object of the present invention to provide a viewing environment control method.
[0027]
The first invention of the present application is , Movie Image data Shows the camera work situation at the time of shooting each frame that composes Add camera work data to the video data and send De Data transmitter And receiving means for receiving camera work data from the data transmitting device; and restricting a video frame or a screen area for detecting a video feature amount of the video data based on the camera work data; A viewing environment control device having control means for detecting the video feature amount of the video data in a frame or a screen area and controlling illumination light of the lighting device based on the detected video feature amount. It is characterized by that.
[0028]
The second invention of the present application is characterized in that the camera work data includes at least information indicating a camera position at the time of photographing each frame.
[0029]
The third invention of the present application is characterized in that the camera work data includes at least information representing a camera angle at the time of photographing each frame.
[0030]
The fourth invention of the present application is characterized in that the camera work data includes at least information indicating a size of a subject at the time of photographing each frame.
[0031]
The fifth invention of the present application is characterized in that the camera work data includes at least information indicating the number of subjects at the time of photographing each frame.
[0032]
The sixth invention of the present application is characterized in that the camera work data includes at least information indicating the movement of the camera at the time of photographing each frame.
[0033]
The seventh invention of the present application is characterized in that the camera work data includes at least information indicating a type of a camera lens used for photographing each frame.
[0034]
According to an eighth aspect of the present application, in response to an external request, video data Shows the camera work situation at the time of shooting each frame that composes The camera work data is transmitted together with the start timing of each frame constituting the video data. De Data transmitter And receiving means for receiving the camera work data; and restricting a video frame or a screen area to be detected based on the camera work data for a video feature amount of the video data; and in the restricted video frame or screen area A viewing environment control device including a control unit that detects the video feature amount and controls illumination light of the lighting device based on the detected video feature amount. It is characterized by that.
[0035]
According to a ninth aspect of the present invention, the camera work data includes at least information representing a camera position at the time of photographing each frame.
[0036]
According to a tenth aspect of the present invention, the camera work data includes information representing at least a camera angle at the time of photographing each frame.
[0037]
The eleventh invention of the present application is characterized in that the camera work data includes at least information indicating a size of a subject at the time of photographing each frame.
[0038]
In a twelfth aspect of the present invention, the camera work data includes at least information representing the number of subjects at the time of photographing each frame.
[0039]
The thirteenth invention of the present application is characterized in that the camera work data includes at least information indicating the movement of the camera at the time of photographing each frame.
[0040]
In a fourteenth aspect of the present invention, the camera work data includes at least information indicating a type of a camera lens used for photographing each frame.
[0041]
According to a fifteenth aspect of the present invention, video data to be displayed on a display device Video A viewing environment control device for controlling illumination light of a lighting device based on a feature amount, wherein the video data Shows the camera work situation at the time of shooting each frame that composes Receiving means for receiving camera work data; and Based on the detected video feature quantity, the video frame or screen area to be detected is limited based on the video data, and the video feature quantity in the limited video frame or screen area is detected. And a control means for controlling the illumination light of the illumination device.
[0042]
A sixteenth aspect of the present invention is characterized in that the control means switches and controls the illumination light of the illumination device in units of scenes constituting the video data.
[0043]
According to a seventeenth aspect of the present invention, the camera work data includes at least information representing a camera position at the time of photographing each frame.
[0044]
The eighteenth invention of the present application is characterized in that the camera work data includes at least information indicating a camera angle at the time of photographing each frame.
[0045]
According to a nineteenth aspect of the present invention, the camera work data includes at least information indicating the size of the subject at the time of photographing each frame.
[0046]
The twentieth invention of the present application is characterized in that the camera work data includes at least information indicating the number of subjects at the time of photographing each frame.
[0047]
According to a twenty-first aspect of the present invention, the camera work data includes at least information representing the movement of the camera at the time of photographing each frame.
[0048]
In a twenty-second aspect of the present invention, the camera work data includes at least information indicating a type of a camera lens used for photographing each frame.
[0051]
No. of this application 23 A viewing environment comprising the above-described viewing environment control device and a lighting device whose viewing environment illumination light is controlled by the viewing environment control device. illumination It is a control system.
[0054]
No. of this application 24 The video data to be displayed on the display device The viewing environment control method for controlling the illumination light of the illumination device based on the video feature amount, Video data Shows the camera work situation at the time of shooting each frame that composes Camera work day T Receive Based on the camera work data, the target video frame or screen area for detecting the video feature quantity of the video data is limited, the video feature quantity in the limited video frame or screen area is detected, and the detected video Based on features Installed around the display device Said The illumination light of the illumination device is controlled.
【The invention's effect】
[0055]
ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to implement | achieve the optimal viewing-and-listening environment according to the place (atmosphere) at the time of imaging | photography of an image | video.
[Brief description of the drawings]
[0056]
FIG. 1 is a diagram for explaining an example of a problem of illumination variation according to the prior art.
FIG. 2 is a diagram for explaining another example of the problem of illumination variation according to the prior art.
FIG. 3 is a diagram for explaining another example of the problem of illumination variation according to the prior art.
FIG. 4 is a diagram for explaining another example of the problem of illumination variation according to the prior art.
FIG. 5 is a diagram for explaining another example of the problem of illumination variation according to the prior art.
FIG. 6 is a block diagram showing a schematic configuration of a main part of a video transmission device in the viewing environment control system according to the first embodiment of the present invention.
FIG. 7 is an explanatory diagram showing an example of an output bit stream of the video transmission device in the viewing environment control system according to the first embodiment of the present invention.
FIG. 8 is an explanatory diagram showing an example of camera work data in the viewing environment control system according to the first embodiment of the present invention.
[FIG. 9] It is explanatory drawing for demonstrating a camera position and a camera angle.
FIG. 10 is an explanatory diagram for explaining a subject size (screen size).
FIG. 11 is an explanatory diagram for explaining the number of subjects.
FIG. 12 is an explanatory diagram for explaining components of a video.
FIG. 13 is a block diagram showing a schematic configuration of a main part of a video reception device in the viewing environment control system according to the first embodiment of the present invention.
FIG. 14 is a block diagram showing a configuration of a lighting control data generation unit in the viewing environment control system according to the first embodiment of the present invention.
FIG. 15 is an explanatory diagram showing an example of a field (atmosphere) estimation target region determined by a position and an angle in the viewing environment control system according to the first embodiment of the present invention.
FIG. 16 is an explanatory diagram showing an example of a field (atmosphere) estimation target region determined by the subject size and the number of subjects in the viewing environment control system according to the first embodiment of the present invention.
FIG. 17 is a flowchart showing an operation of a lighting control data generation unit in the viewing environment control system according to the first embodiment of the present invention.
FIG. 18 is a block diagram illustrating a schematic configuration of main parts of an external server device in a viewing environment control system according to a second embodiment of the present invention.
FIG. 19 is an explanatory diagram showing an example of a camera work data storage table in the viewing environment control system according to the second embodiment of the present invention.
FIG. 20 is a block diagram illustrating a schematic configuration of a main part of a video reception device in a viewing environment control system according to a second embodiment of the present invention.
[Explanation of symbols]
[0057]
DESCRIPTION OF SYMBOLS 1 ... Data multiplexing part, 2 ... Transmitting part, 21, 51 ... Reception part, 22, 52 ... Data separation part, 23, 53 ... CPU, 24 ... Illumination control data generation part, 25 ... Video display apparatus, 26 ... Sound reproduction Device: 27 ... Lighting device, 28, 29 ... Delay generation unit, 31 ... Scene section detection unit, 32 ... Field (atmosphere) estimation unit, 41 ... Reception unit, 42 ... Data storage unit, 43 ... Transmission unit, 54 ... Transmission 55, a receiving unit.
BEST MODE FOR CARRYING OUT THE INVENTION
[0058]
FIG. 6 is a block diagram showing a schematic configuration of a main part of the video transmission device in the viewing environment control system according to the embodiment of the present invention. The video transmission device (data transmission device) in the present embodiment is as shown in FIG. And a data multiplexing unit 1 that divides and multiplexes each of video data, audio data, and camera work data supplied as additional information into a transport stream packet (TSP) format, and an output of the data multiplexing unit 1 A transmission unit 2 is provided that modulates the data after adding an error correction code and sends the data to the transmission line as broadcast data.
[0059]
FIG. 7 is an explanatory diagram showing an outline of the structure of a transport stream packet (TSP) defined by MPEG-2 (Moving Picture Experts Group 2) -Systems, and 11 is the data content of TSP and others defined by MPEG2-Systems. A header in which information is described, 12 is an extension header (adaptation field) that can describe information determined by the sender, and 13 is a payload composed of data such as video and audio. In the present embodiment, for example, video data and audio data are transmitted by the payload 13, and camera work data as additional information can be transmitted by the extension header (adaptation field) 12. Note that different data streams of video data, audio data, and camera work data may be multiplexed and transmitted.
[0060]
FIG. 8 is a diagram for explaining camera work data indicating a camera work situation at the time of shooting each frame of the video data. In the present embodiment shown in FIG. 8, as camera work data, position information (a) representing the camera position at the time of photographing each frame, angle information (b) representing the camera angle at the time of photographing each frame, and photographing of each frame. Subject size information (c) representing the size of the subject at the time, subject number information (d) representing the number of subjects at the time of photographing each frame, camera motion information (e) representing the movement of the camera at the time of photographing each frame And lens type information (f) indicating the type of camera lens used for photographing each frame. All of these pieces of information are useful information for estimating the lighting environment at the time of shooting each frame and producing the atmosphere and the realistic sensation of each scene with illumination light. Hereinafter, each information is demonstrated.
[0061]
First, the camera position (a) at the time of video shooting is classified into (a1) high position, (a2) eye height, and (a3) low position. As shown in FIG. 9A, the high position (a1) is a position that is often used for a long shot, which will be described later, and is a high position that expresses a vast expanse or is used for crossing a fence. . The eye height (a2) is a normal position and is the eye height position of the subject (O). The low position (a3) is a low position such as the eyes of a child.
[0062]
For outdoor shooting, the height of the horizontal line (horizon line) in the shooting screen tends to be low at the high position and high at the low position. The presence of the display video scene can be improved by limiting the screen area to be detected and controlling the viewing environment illumination described later. Therefore, in the present embodiment, as the position information, a 2-bit description indicating whether the camera position at the time of shooting each video frame belongs to high position / eye height / low position is included in the camera work data. is doing.
[0063]
The camera angle (b) at the time of video shooting is classified into (b1) high angle (overhead view), (b2) horizontal angle (line of sight), and (b3) low angle (tilt). As shown in FIG. 9B, the high angle (b1) is a photographing method at an angle looking down, and is used for an overall objective situation description. The horizontal angle (b2) is a natural and standard angle in which the camera is directed in the horizontal direction. The low angle (b3) is a shooting method at an angle looking upward, and is used when expressing intimidation, superiority, victory, and the like.
[0064]
For outdoor shooting, the horizontal line (horizon) in the shooting screen tends to be high at high angles and low at low angles. The presence of the display video scene can be improved by limiting the screen area to be detected and controlling the viewing environment illumination described later. Therefore, in the present embodiment, as the angle information, a 2-bit description indicating whether the camera angle at the time of shooting each video frame belongs to high angle (overhead view), horizontal angle (line of sight), or low angle (tilt). Are included in the camera work data.
[0065]
Further, as the subject (screen) size (c) at the time of video shooting, long shot (c1), full figure (c2), knee shot (c3), waist shot (c4), bust shot (c5), upshot (c6) ), Close-up shot (c7), and big close-up shot (c8). As shown in FIG. 10, a long shot (LS: c1) is a studio landscape or a wide-angle shot in the outdoors, and is often used for the overall positional relationship and the beginning and end of a story. The full figure (F.F .: c2) has a size in which the entire body of the subject (a whole body image from the toes to the head when standing, a whole body image when sitting) is included in the shooting screen. The knee shot (K.S .: c3) has a size in which the area from the knee to the head of the subject is included in the shooting screen.
[0066]
The waist shot (WS: c4) is the size of a half-body image with the subject's waist or hips to the head in the shooting screen, and is used for basic shots of news and speakers. Is a feature. The bust shot (B.S.:c5) is the size of the subject's chest or upper body with the subject's chest or the top of the chest up to the head, which is the most commonly used size for human images. The up shot (US: c6) is a shot that expresses the expression and excitement of the subject. The close-up shot (C.U .: c7) is a shot that emphasizes up, and has a size enough to cut the head (hair) of the subject. The big close-up shot (B.C.U .: c8) is used to emphasize close-up.
[0067]
In this way, the area of the background changes depending on the subject size (screen size) at the time of video shooting, so the frames for detecting video feature values can be limited according to the subject size (screen size) at the time of video shooting. By limiting the screen area for detecting the video feature amount and controlling the viewing environment illumination described later, it is possible to improve the realism of the display video scene. Therefore, in the present embodiment, as subject size information, the subject size at the time of shooting each video frame is long shot / full figure / knee shot / waist shot / bust shot / up shot / close up shot / big close up shot. Is included in the camera work data.
[0068]
As the number of subjects (d) at the time of video shooting, only one shot (1S: d1), two shot (2S: d2), three shot (3S: d3), group shot (GS: d4), and landscape (background) only (d5) As shown in FIG. 11, one shot (d1) has only one subject (one) as the foreground, two shots (d2) have two subjects (two) as the foreground, and three shots (d3) have the foreground. There are three subjects (three), and the group shot (d4) is a shot when there are four or more subjects as foregrounds.
[0069]
In this way, the area of the background changes depending on the number of subjects at the time of video shooting. Therefore, the screen area for detecting video feature values is limited to control the viewing environment illumination described later according to the number of subjects at the time of video shooting. By doing so, the presence of the displayed video scene can be improved. Therefore, in this embodiment, as the number-of-subjects information, the number of subjects at the time of shooting each video frame is one-shot (1S) / two-shot (2S) / three-shot (3S) / group shot (GS) / landscape (background). ) Includes only 3 bits in the camera work data.
[0070]
Further, the camera movement (e) during video shooting is classified into fix (e1), pan (e2), tilt (e3), roll (e4), zoom (e5), dolly (e6), and follow (e7). Is done. The fix (e1) is a shooting method that does not move the camera position without performing a zoom operation for changing the angle of view. Pan (e2) is a photographing method in which the camera is shaken in the horizontal direction to show the surroundings, and is used for explaining the situation and showing the positional relationship between the left and right objects. Tilt (e3) is a shooting method in which the camera is shaken vertically, such as shooting from bottom to top (from top to bottom), or swinging up along the trunk of a tree to shoot branches and leaves. Sometimes used.
[0071]
The roll (e4) is a photographing method for rotating the camera, and the zoom (e5) is a photographing method for making a large image or a wide size with a zoom lens. The dolly (e6) is a technique for shooting while the camera itself moves, and the follow (e7) is a technique for shooting while following the movement of the subject when shooting a moving subject such as a running person or a vehicle.
[0072]
In this way, the background area and feature amount change abruptly depending on the movement of the camera at the time of video shooting, so the frames for detecting the video feature amount are limited in accordance with the movement of the camera at the time of video shooting. By controlling the viewing environment illumination to be performed, it is possible to improve the presence of the displayed video scene. Therefore, in this embodiment, the camera motion information includes a 3-bit description indicating whether the camera motion at the time of shooting each video frame belongs to fix / pan / tilt / roll / zoom / dolly / follow. , Contained in camera work data.
[0073]
Further, the lens work (lens type information; f) used at the time of video shooting is classified into a standard lens (f1), a wide-angle lens (f2), a telephoto lens (f3), and a macro lens (f4). The standard lens (f1) is a lens that is close to the human visual field and capable of capturing a natural perspective. The wide-angle lens (f2) is a lens having a wide angle of view and capable of photographing a wide range, and is often used for taking a landscape or a group photo. The telephoto lens (f3) is a lens that can shoot a large subject by attracting a far object, and is often used for sports scenes that cannot be approached actually, portrait photography, and the like. The macro lens (f4) is a lens that allows close-up photography, and is suitable for close-up photography of flowers and insects.
[0074]
In this way, the area of the background changes depending on the lens work at the time of video shooting, so the frames for detecting video feature quantities are limited to control the viewing environment illumination described later, adapting to the movement of the camera at the time of video shooting By doing so, the presence of the displayed video scene can be improved. Therefore, in this embodiment, as the lens type information, a 2-bit description indicating whether the type of the camera lens used at the time of shooting each video frame belongs to a standard lens / a wide-angle lens / a telephoto lens / a macro lens. , Contained in camera work data.
[0075]
It should be noted that various types of information included in the camera work data are not limited to those described above, and it is obvious that more detailed information may be added. The camera work data described above is created based on a script (also referred to as a scenario or a script) and can be generated using a camera work program or the like used in a video shooting site. It becomes possible to omit the work of creating data.
[0076]
By the way, the configuration of a video including scenes and shots will be described with reference to FIG. Video data constituting a continuous moving image can be divided into three layers (layers) as shown in FIG. The first layer (# 1) constituting the video (Video) is a frame. A frame is a physical layer and refers to a single two-dimensional image. Frames are usually obtained at a rate of 30 frames per second. The second layer (# 2) is a shot. A shot is a sequence of frames taken by a single camera. The third layer (# 3) is a scene. A scene is a sequence of shots having a story-like connection.
[0077]
Here, the above-mentioned camera work data is added in units of video data frames. However, in addition to adding the above-mentioned camera work data to all frames, there is a change in the camera work status at the time of shooting. The above camera work data may be added only to a certain frame. This also makes it possible to add camera work data indicating the camera work status at the time of shooting each frame of the video data to the video data.
[0078]
Next, a video reception device (data reception device) that receives broadcast data transmitted from the video transmission device, displays and reproduces video and audio, and controls the viewing environment illumination at that time will be described.
[0079]
As shown in FIG. 13, the video receiving apparatus according to the present embodiment receives and demodulates broadcast data input from a transmission path, performs error correction, and outputs video from the output data of the receiving unit 21. A data separation unit 22 for separating / extracting each of video data and TC (time code) output to the display device 25, audio data and TC (time code) output to the audio reproduction device 26, and camera work data as additional information; The CPU 23 receives the camera work data separated by the data separation unit 22 and outputs control data to the illumination control data generation unit 24. The feature amount of the video data / audio data is determined according to the control data from the CPU 23. Detecting and outputting illumination control data (RGB data) based on the detection result to the illumination device 27 that illuminates the viewing environment space That an illumination control data generating unit 24, the video data by processing time in the illumination control data generating unit 24, and a delay generating unit 28, 29 and outputting the delayed audio data.
[0080]
Here, based on the camera work data, the CPU 23 of the present embodiment outputs control data for controlling a video frame and a screen area to be detected by the illumination control data generation unit 24 for detecting a feature amount of the video data.
[0081]
The time code (TC) is information added to indicate the reproduction time information of each of the video data and the audio data. For example, the time (h): minute (m): second (s) of the video data: It consists of information indicating the frame (f).
[0082]
The illumination device 27 can be configured by an LED that is installed around the video display device 25 and emits light of, for example, three primary colors of RGB having a predetermined hue. However, the illumination device 27 may be configured to be able to control the illumination color and brightness of the surrounding environment of the video display device 25, and is not limited to the combination of LEDs that emit a predetermined color as described above, and is a white LED. And a color filter, or a combination of a white light bulb, a fluorescent tube and a color filter, a color lamp, or the like can be applied. Further, it is sufficient that one or more lighting devices 27 are installed.
[0083]
Next, a specific configuration of the illumination control data generation unit 24 in the present embodiment will be described with reference to FIG. In FIG. 14, reference numeral 31 denotes a scene section detection unit that detects a start point TC and an end point TC of a scene section from video data and audio data. Various methods including a known one are used as a method for detecting a scene change point. Can be used. Note that here, in addition to the feature amount of the video data, the feature amount of the audio data is also used for the detection of the scene section. This is to further improve the detection accuracy of the scene change point. The scene section may be detected from only the feature amount. Further, when information indicating a scene change point is added to the broadcast data, this may be used.
[0084]
Reference numeral 32 denotes a field (atmosphere) estimation unit that estimates illumination conditions and scene settings (atmosphere) at the shooting site from video data and audio data, and outputs illumination control data for controlling the illumination device 27 according to the estimation results. As a method for estimating the state of ambient light at the time of shooting, various techniques including known ones can be used. Here, in addition to the feature amount of the video data, the feature amount of the audio data is also used for estimating the place (atmosphere) at the time of shooting, but this further improves the accuracy of estimating the place (atmosphere). Therefore, the field (atmosphere) of the shooting scene may be estimated from only the feature amount of the video data.
[0085]
As the feature amount of the video data, for example, as in the conventional example described above, the color signal and luminance signal in a predetermined area of the screen can be used as they are, and the color temperature of ambient light at the time of video shooting is obtained from these. May be used. Furthermore, these may be configured to be switchable and output as feature amounts of video data. Further, as the feature amount of the audio data, a volume, an audio frequency, or the like can be used.
[0086]
Furthermore, in this embodiment, in order to keep the color and intensity of the viewing environment illumination light substantially constant in the same scene, the field (atmosphere) estimation unit 32 uses the scene section detection unit 31 to change the scene (starting point). Is detected, video feature amounts and audio feature amounts are detected in a predetermined number N (N is an arbitrary natural number set in advance, for example, N = 100), and illumination control is performed in accordance with the feature amounts. Data (RGB data) is configured to be output until switching to the next scene.
[0087]
Here, among the predetermined number N of frames that are continuous from the time point when the scene change point (start point) is detected, the frame used for detecting the feature amount of the video data and its screen area are controlled by the CPU 23. Determined by data. For example, in a frame whose subject size is one of bust shot, up shot, close-up shot, and big close-up shot, the subject (foreground part) occupies a lot of area in the screen, so it can be used for video feature detection. Should not be used. Also, a frame whose lens type is either a telephoto lens or a macro lens is not used for detecting the video feature amount because the subject (foreground part) occupies a large area in the screen.
[0088]
In addition, frames with camera movements of pan, tilt, roll, zoom, dolly, and follow are likely to change the background to the extreme with a series of camera movements. Other than the frame, it is not used for the detection of the video feature amount. For example, when two or more frames in which the camera motion is pan are consecutive, the second and subsequent frames are not used for detecting the video feature amount. If the above-mentioned camera motion frames are continuous, only the first few predetermined frames may be used for detecting the video feature amount.
[0089]
In addition, even for a frame used for video feature amount detection, the screen area to be detected for video feature amount differs depending on the camera work at the time of video shooting. For example, as shown in FIG. 15, a screen region suitable for estimating the color and brightness of ambient light at the time of shooting based on the camera position and angle at the time of shooting the frame (shown by hatched portions in FIG. 15). ) Is decided. In other words, the screen area suitable for estimating the color and brightness of ambient light at the time of shooting is usually the area at the top of the screen, but the horizontal line that defines the size of the area at the top of the screen shows the camera position and angle. It is decided by.
[0090]
In addition, as shown in FIG. 16, the screen area suitable for estimating the color and brightness of the ambient light at the time of shooting (in the shaded portion in FIG. 16) also depending on the subject size and number at the time of shooting of the frame. Determined). In other words, the screen area suitable for estimating the color and brightness of the ambient light at the time of shooting is desirably an area excluding the foreground subject, and this subject is highly likely to be located. The area to be excluded from the area is determined by the subject size and the number. When the number of subjects is only the background, the entire screen area is set as a video feature amount detection target.
[0091]
Therefore, in the present embodiment, the target region for detecting the video feature amount is limited based on the camera work information of the position, angle, subject size, and number of subjects. Specifically, the video feature amount is calculated using only the video data of the screen area obtained by the logical product of the hatched area in FIG. 15 determined by the position and angle and the hatched area in FIG. 16 determined by the subject size and the number of subjects. Trying to detect.
[0092]
In this way, by using camera work data, by limiting and extracting only the frames and screen areas suitable for video scene field (atmosphere) estimation, and detecting the video feature quantities in the extracted frames and screen areas, The estimation accuracy of the place (atmosphere) can be improved. As a result, it is possible to prevent an illumination control that impairs the sense of presence or the atmosphere due to an estimation error of the place (atmosphere), and to always realize an optimal viewing environment.
[0093]
Furthermore, operation | movement of the illumination control data generation part 24 of this embodiment is demonstrated with the flowchart of FIG. First, the scene section detection unit 31 reads a newly input frame (step S1), and detects whether or not the frame is a scene start point (change point) from the video feature amount and audio feature amount of the frame (step S1). S2). If no scene start frame is detected, the process returns to step S1 to read the next frame. When a scene start frame is detected, the field (atmosphere) estimation unit 32 reads video data and audio data for N frames continuous from the scene start frame (step S3).
[0094]
Based on the subject size information, camera motion information, and lens type information of the camera work data, an estimation target frame used for field (atmosphere) estimation is determined and extracted from the read N frames (step S4). . Here, it is determined whether or not a field (atmosphere) estimation target frame exists in the read N frame (step S5). One frame is read (step S6). Then, based on the position information, the angle information, the subject size information, and the subject number information of the camera work data, an estimation target screen region used for field (atmosphere) estimation in the read estimation target frame is determined and extracted (step S7). Then, the video (data) feature amount of the field (atmosphere) estimation target area is detected and the field (atmosphere) is estimated (step S8).
[0095]
Next, it is determined whether or not the above-described field (atmosphere) estimation process has been completed for all of the field (atmosphere) estimation target frames (step S9). ) When the estimation process is completed, an average value per frame of the field (atmosphere) estimation result is calculated (step S10), and illumination control data (RGB data) corresponding to this is generated and output (step S11). The detection of the audio data feature amount is performed over the above-described N frame period, and is used for the place (atmosphere) estimation process together with the video data feature amount calculated as described above.
[0096]
If it is determined in step S5 that the field (atmosphere) estimation target frame does not exist in the N frames read in step S3, illumination control data based on a default value prepared in advance is generated. Output (step S11). Here, when the field (atmosphere) estimation target frame does not exist, for example, a slightly weak white illumination light is illuminated in the viewing environment space. However, the present invention is not limited to this, and the illumination control data related to the immediately preceding scene is used as it is. It may be outputted continuously to maintain the color and intensity of the viewing environment illumination light.
[0097]
Then, it is determined whether or not the process is finished (step S13). For example, when video data is finished or when stop of viewing environment lighting control is instructed, scene segment detection and field (atmosphere) estimation are performed. The process ends, otherwise, the process returns to step S1 to acquire a new frame.
[0098]
In the present embodiment, as described above, illumination control data is generated based on the feature amounts of video data and audio data included in N frames from the scene start point, and a scene change is then detected from the illumination control data. Therefore, the color and intensity of the viewing environment illumination light can be switched in units of scenes, and the color and intensity of the viewing environment illumination light can be kept substantially constant in the same scene.
[0099]
The video data and audio data separated by the data separation unit 22 are delayed by the delay generation units 28 and 29 by the time required for the estimation process by the field (atmosphere) estimation unit 32, and then the video data Since it is reproduced by the display device 25 and the audio reproduction device 26, the color and intensity of the viewing environment illumination light can be appropriately controlled in accordance with the reproduction timing of the video / audio.
[0100]
Further, a field (atmosphere) estimation process for each of the video scene examples shown in FIGS. 1 to 5 will be described. In the video scene shown in FIG. 1, the frames A to E-1 (the frame immediately before the frame E) are indicated by the hatched area in FIG. 15G and the hatched line in FIG. A video feature amount is detected using video data in a screen area that overlaps the area. For frame E and subsequent frames, the video feature amount is detected using video data in a screen area where the area shown by the oblique lines in FIG. 15G and the area shown by the oblique lines in FIG. To do. As a result, it is possible to generate illumination control data using only the video feature amount of the background portion, and irradiate the appropriate viewing environment illumination light reflecting the illumination state at the time of photographing the scene over the display reproduction period of this scene. It becomes possible.
[0101]
In the video scene shown in FIG. 2, since the subject size is a bust shot for frames C to E-1, the video data feature quantity is not detected. Then, for the frames A to C-1 (the frame immediately before the frame C) and the frames E and thereafter, there are a hatched area in FIG. 15 (e) and a hatched area in FIG. 16 (b). A video feature amount is detected using video data in the overlapping screen area. Accordingly, it is possible to generate illumination control data using only the video feature amount of the background portion, and it is possible to irradiate appropriate viewing environment illumination light reflecting the illumination state at the time of photographing the scene.
[0102]
In the video scene shown in FIG. 3, since zoom photography is performed, the video data feature quantity is detected only for the frame A. Here, for the frame A, the video feature amount is detected by using the video data of the screen area where the area shown by the oblique lines in FIG. 15C and the area shown by the oblique lines in FIG. To do. As a result, it is possible to generate illumination control data using only the video feature amount of the background portion, and irradiate the appropriate viewing environment illumination light reflecting the illumination state at the time of shooting the scene over the display reproduction period of this scene. It becomes possible.
[0103]
In the video scene shown in FIG. 4, since zoom photography is also performed, the video data feature quantity is detected only for the frame A. Here, for the frame A, the video feature amount is detected by using the video data of the screen area where the area shown by the oblique line in FIG. 15E and the area shown by the oblique line in FIG. To do. As a result, it is possible to generate illumination control data using only the video feature amount of the background portion, and irradiate the appropriate viewing environment illumination light reflecting the illumination state at the time of shooting the scene over the display reproduction period of this scene. It becomes possible.
[0104]
In the video scene shown in FIG. 5, the video data feature amount is not detected for frames after the frame D which is switched to the telephoto lens and becomes a bust shot, and the frames A to D-1 (frames immediately before the frame D) are detected. Only for this, the video data feature quantity is detected. Here, for the frames A to D-1, the video data of the screen area where the area shown by the oblique lines in FIG. 15E and the area shown by the oblique lines in FIG. Detect feature values. As a result, it is possible to generate illumination control data using only the video feature amount of the background portion, and irradiate the appropriate viewing environment illumination light reflecting the illumination state at the time of shooting the scene over the display reproduction period of this scene. It becomes possible.
[0105]
As described above, in the present embodiment, the illumination control data is used to appropriately reproduce the lighting situation (atmosphere) at the time of shooting each scene by using various information contents input as camera work data together with video data. Thus, it is possible to control the illumination light of the illumination device 27. Therefore, it is possible to realize a natural and uncomfortable viewing environment illumination without being affected by the video content of the foreground part (subject) and the like, and it is possible to increase a sense of reality when viewing the video. In addition, since the lighting control data is switched and controlled in units of scenes, it is possible to prevent the viewing environment lighting from changing drastically in the same scene and impairing the sense of reality.
[0106]
The screen area patterns shown in FIGS. 15 and 16 can be set as appropriate. In addition, the histogram (frequency distribution) of the video data in the field (atmosphere) estimation screen area obtained from this screen area pattern is detected, and the video feature quantity is detected only from the video data with a high distribution ratio. ) By performing the estimation, it is possible to further improve the accuracy of the field (atmosphere) estimation.
[0107]
In the present embodiment, camera work data relating to the camera work status at the time of shooting each frame is transmitted and received, so that a viewing environment such as searching for or editing a desired frame using this camera work data. Various functions can be realized in addition to the illumination control.
[0108]
For example, by selecting and extracting a frame where the camera position is eye height, the angle is horizontal angle, the subject size (screen size) is a long shot, the camera motion is fixed, and the lens type is taken using a standard lens An index that collects typical video scenes (key frames, key shots) can be created.
[0109]
Furthermore, in the first embodiment of the present invention, the case where camera work data is transmitted while being multiplexed with broadcast data has been described. However, when camera work data is not added to broadcast data, a video to be displayed is displayed. By transmitting and receiving camera work data corresponding to the data from an external server device or the like, it is possible to realize an optimal viewing environment according to the lighting situation at the time of shooting the video. This will be described below.
[0110]
FIG. 18 is a block diagram showing a schematic configuration of a main part of the external server device in the viewing environment control system of the present embodiment. The external server device (data transmission device) in the present embodiment receives video as shown in FIG. A receiving unit 41 that receives a request for transmission of camera work data relating to specific video data (content) from the device (data receiving device) side; and a data storage unit 42 that stores camera work data for each video data (content) A transmission unit 43 that transmits the camera work data that has received the transmission request to the requesting video reception device (data reception device).
[0111]
Here, as shown in FIG. 19, the camera work data stored in the data storage unit 42 of the present embodiment is associated with the start time code (TC) of the frame in which the camera work situation at the time of shooting changes. The camera work data (a) to (f) described in the table format and corresponding to the video data (program content) for which a transmission request has been received is represented by a TC (frame indicating a change in the camera work status at the time of video shooting. The time code) is transmitted from the transmitter 43 to the requesting video receiver.
[0112]
Here, the camera work data may be described for all the frames constituting the video data. However, as shown in FIG. 19, the camera work data is used only for the frames in which the camera work status at the time of shooting changes. Thus, the amount of data stored in the data storage unit 42 can be reduced.
[0113]
Next, a video receiving device (data receiving device) that receives the camera work data sent from the external server device and controls the viewing environment illumination will be described. As shown in FIG. 20, the video receiving apparatus in the present embodiment receives and demodulates broadcast data input from a transmission path, performs error correction, and outputs video from the output data of the receiving unit 51. A data separation unit 52 that separates and extracts each of the video data output to the display device 25 and the audio data output to the audio reproduction device 26, and a transmission request for camera work data corresponding to the video data (content) to be displayed A transmission unit 54 that transmits to an external server device (data transmission device) via a network, and a reception unit 55 that receives the camera work data requested for transmission from the external server device via a communication network are provided.
[0114]
The CPU 53 stores the camera work data received by the receiving unit 55 and outputs control data obtained from the camera work data of the corresponding frame in synchronization with the TC (time code) of the video data. A lighting control data generation unit 24 that outputs lighting control data (RGB data) corresponding to the video feature amount of the frame and the screen area determined according to the output control data to the lighting device 27 that illuminates the viewing environment space. ing.
[0115]
That is, the CPU 53 compares the start time code of each frame of the camera work data storage table received from the external server device and stored therein with the time code of the video data separated by the data separation unit 52, The camera work data corresponding to the coincidence can be read out, and the control data for limiting the frame and the screen area adapted to the field (atmosphere) estimation of the display video scene can be generated and output from the camera work data. .
[0116]
Thereby, even if camera work data is not added to the broadcast data, camera work data corresponding to the display video data (program content) is obtained from the external server device, and illumination control is performed using this camera work data. Data can be generated, and the display switching timing of the video scene and the switching timing of the viewing environment lighting can be synchronized with a simple configuration, thus realizing an optimal viewing environment according to the lighting conditions during video shooting It becomes possible to do.
[0117]
Note that the viewing environment control apparatus, method, and viewing environment control system of the present invention can be realized by various embodiments without departing from the gist of the present invention described above. For example, the viewing environment control device may be provided in the video display device, and it is needless to say that an external lighting device may be controlled based on various information included in the input video data. Yes.
[0118]
In addition, the camera work data described above is not limited to the case where the camera work data is separated / acquired from broadcast data or the case where it is acquired from an external server device. When displaying information, the camera work data added in the media medium may be read out and used.

Claims (24)

像データを構成する各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを、前記映像データに付加して送信するデータ送信装置と、
前記データ送信装置からのカメラワークデータを受信する受信手段と、
前記カメラワークデータに基づき前記映像データの映像特徴量を検出する対象の映像フレームもしくは画面領域を制限し、該制限された映像フレームもしくは画面領域における前記映像データの前記映像特徴量を検出し、該検出された映像特徴量に基づき照明装置の照明光を制御する制御手段とを有する視聴環境制御装置と、
を備えたことを特徴とする視聴環境制御システム。
The camerawork data indicating the camera work condition at the time of shooting of each frame constituting the movies image data, and Lud over data transmission device to transmit in addition to the video data,
Receiving means for receiving camera work data from the data transmitting device;
Limiting a target video frame or screen area for detecting video feature quantity of the video data based on the camera work data, detecting the video feature quantity of the video data in the limited video frame or screen area, and A viewing environment control device having control means for controlling the illumination light of the lighting device based on the detected video feature amount;
A viewing environment control system characterized by comprising:
前記請求項1に記載のデータ視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラポジションを表わす情報を含むことを特徴とする視聴環境制御システム
In the data viewing environment control system according to claim 1,
The viewing environment control system , wherein the camera work data includes at least information indicating a camera position at the time of photographing each frame.
前記請求項1又は2に記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラアングルを表わす情報を含むことを特徴とする視聴環境制御システム
In the viewing environment control system according to claim 1 or 2,
The viewing environment control system , wherein the camera work data includes at least information representing a camera angle at the time of photographing each frame.
前記請求項1乃至3のいずれかに記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時における被写体のサイズを表わす情報を含むことを特徴とする視聴環境制御システム
In the viewing environment control system according to any one of claims 1 to 3,
The viewing environment control system , wherein the camera work data includes at least information indicating a size of a subject at the time of photographing each frame.
前記請求項1乃至4のいずれかに記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時における被写体の数を表わす情報を含むことを特徴とする視聴環境制御システム
In the viewing environment control system according to any one of claims 1 to 4,
The viewing environment control system , wherein the camera work data includes at least information indicating the number of subjects at the time of photographing each frame.
前記請求項1乃至5のいずれかに記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラの動きを表わす情報を含むことを特徴とする視聴環境制御システム
In the audio-visual environment control system according to any one of claims 1 to 5,
The viewing environment control system , wherein the camera work data includes at least information representing a camera movement at the time of photographing each frame.
前記請求項1乃至6のいずれかに記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影に用いられたカメラレンズの種別を表わす情報を含むことを特徴とする視聴環境制御システム
In the viewing environment control system according to any one of claims 1 to 6,
The camerawork data, audio-visual environment control system characterized in that it contains data indicating the type of the camera lens used for shooting of at least the frame.
外部からの要求を受けて、映像データを構成する各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを、前記映像データを構成する各フレームの開始タイミングとともに送信するデータ送信装置と、
前記カメラワークデータを受信する受信手段と、
前記カメラワークデータに基づき前記映像データの映像特徴量を検出する対象の映像フレームもしくは画面領域を制限し、該制限された映像フレームもしくは画面領域における前記映像特徴量を検出し、該検出された映像特徴量に基づき照明装置の照明光を制御する制御手段とを有する視聴環境制御装置と、
を備えたことを特徴とする視聴環境制御システム。
Receiving a request from outside, the camera work data showing the camera work condition at the time of shooting of each frame constituting the video data, and transmitting to Lud over data transmission device with the start timing of each frame constituting the video data ,
Receiving means for receiving the camera work data;
Based on the camera work data, the target video frame or screen area for detecting the video feature quantity of the video data is limited, the video feature quantity in the limited video frame or screen area is detected, and the detected video A viewing environment control device having control means for controlling the illumination light of the lighting device based on the feature amount;
A viewing environment control system characterized by comprising:
前記請求項8に記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラポジションを表わす情報を含むことを特徴とする視聴環境制御システム
In the viewing environment control system according to claim 8,
The viewing environment control system , wherein the camera work data includes at least information indicating a camera position at the time of photographing each frame.
前記請求項8又は9に記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラアングルを表わす情報を含むことを特徴とする視聴環境制御システム
In the viewing environment control system according to claim 8 or 9,
The viewing environment control system , wherein the camera work data includes at least information representing a camera angle at the time of photographing each frame.
前記請求項8乃至10のいずれかに記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時における被写体のサイズを表わす情報を含むことを特徴とする視聴環境制御システム
The viewing environment control system according to any one of claims 8 to 10,
The viewing environment control system , wherein the camera work data includes at least information indicating a size of a subject at the time of photographing each frame.
前記請求項8乃至11のいずれかに記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時における被写体の数を表わす情報を含むことを特徴とする視聴環境制御システム
The viewing environment control system according to any one of claims 8 to 11,
The viewing environment control system , wherein the camera work data includes at least information indicating the number of subjects at the time of photographing each frame.
前記請求項8乃至12のいずれかに記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラの動きを表わす情報を含むことを特徴とする視聴環境制御システム
The viewing environment control system according to any one of claims 8 to 12,
The viewing environment control system , wherein the camera work data includes at least information representing a camera movement at the time of photographing each frame.
前記請求項8乃至13のいずれかに記載の視聴環境制御システムにおいて、
前記カメラワークデータは、少なくとも各フレームの撮影に用いられたカメラレンズの種別を表わす情報を含むことを特徴とする視聴環境制御システム
The viewing environment control system according to any one of claims 8 to 13,
The camerawork data, audio-visual environment control system characterized in that it contains data indicating the type of the camera lens used for shooting of at least the frame.
表示装置に表示すべき映像データの映像特徴量に基づいて、照明装置の照明光を制御する視聴環境制御装置であって、
前記映像データを構成する各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを受信する受信手段と、
前記カメラワークデータに基づき前記映像データの映像特徴量を検出する対象の映像フレームもしくは画面領域を制限し、該制限された映像フレームもしくは画面領域における前記映像特徴量を検出し、該検出された映像特徴量に基づき前記照明装置の照明光を制御する制御手段とを備えたことを特徴とする視聴環境制御装置。
A viewing environment control device that controls illumination light of a lighting device based on a video feature amount of video data to be displayed on a display device,
Receiving means for receiving camera work data indicating a camera work situation at the time of photographing each frame constituting the video data;
Based on the camera work data, the target video frame or screen area for detecting the video feature quantity of the video data is limited, the video feature quantity in the limited video frame or screen area is detected, and the detected video A viewing environment control device, comprising: a control unit that controls illumination light of the illumination device based on a feature amount .
前記請求項15に記載の視聴環境制御装置において、
前記制御手段は、前記映像データを構成するシーン単位で前記照明装置の照明光を切替制御することを特徴とする視聴環境制御装置。
In the viewing environment control device according to claim 15,
The viewing environment control apparatus, wherein the control means performs switching control of illumination light of the illumination apparatus for each scene constituting the video data.
前記請求項15又は16のいずれかに記載の視聴環境制御装置において、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラポジションを表わす情報を含むことを特徴とする視聴環境制御装置。
In the viewing environment control device according to any one of claims 15 and 16,
The viewing environment control apparatus, wherein the camera work data includes at least information indicating a camera position at the time of photographing each frame.
前記請求項15乃至17のいずれかに記載の視聴環境制御装置において、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラアングルを表わす情報を含むことを特徴とする視聴環境制御装置。
The viewing environment control device according to any one of claims 15 to 17,
The viewing environment control apparatus, wherein the camera work data includes at least information representing a camera angle at the time of photographing each frame.
前記請求項15乃至18に記載の視聴環境制御装置において、
前記カメラワークデータは、少なくとも各フレームの撮影時における被写体のサイズを表わす情報を含むことを特徴とする視聴環境制御装置。
The viewing environment control device according to any one of claims 15 to 18,
The viewing environment control apparatus, wherein the camera work data includes at least information indicating a size of a subject at the time of photographing each frame.
前記請求項15乃至19のいずれかに記載の視聴環境制御装置において、
前記カメラワークデータは、少なくとも各フレームの撮影時における被写体の数を表わす情報を含むことを特徴とする視聴環境制御装置。
The viewing environment control device according to any one of claims 15 to 19,
The viewing environment control apparatus, wherein the camera work data includes at least information indicating the number of subjects at the time of photographing each frame.
前記請求項15乃至20のいずれかに記載の視聴環境制御装置において、
前記カメラワークデータは、少なくとも各フレームの撮影時におけるカメラの動きを表わす情報を含むことを特徴とする視聴環境制御装置。
The viewing environment control device according to any one of claims 15 to 20,
The viewing environment control apparatus according to claim 1, wherein the camera work data includes at least information representing a camera movement at the time of photographing each frame.
前記請求項15乃至21のいずれかに記載の視聴環境制御装置において、
前記カメラワークデータは、少なくとも各フレームの撮影に用いられたカメラレンズの種別を表わす情報を含むことを特徴とする視聴環境制御装置。
The viewing environment control device according to any one of claims 15 to 21,
The viewing environment control apparatus, wherein the camera work data includes at least information indicating a type of a camera lens used for photographing each frame.
前記請求項15乃至22のいずれかに記載の視聴環境制御装置と、該視聴環境制御装置によって視聴環境照明光を制御される照明装置とを備えることを特徴とする視聴環境照明制御システム。Wherein the viewing environment control device according to any one of claims 15 to 22, the audio-visual environment illumination control system characterized in that it comprises a lighting device being controlled viewing environment illumination light by the audio-visual environment control device. 表示装置に表示すべき映像データの映像特徴量に基づいて、照明装置の照明光を制御する視聴環境制御方法であって、
前記映像データを構成する各フレームの撮影時におけるカメラワーク状況を示すカメラワークデータを受信し、
前記カメラワークデータに基づき前記映像データの映像特徴量を検出する対象の映像フレームもしくは画面領域を制限し、
前記制限された映像フレームもしくは画面領域における前記映像特徴量を検出し、
前記検出された映像特徴量に基づき前記表示装置の周辺に設置された前記照明装置の照明光を制御することを特徴とする視聴環境制御方法。
A viewing environment control method for controlling illumination light of a lighting device based on a video feature amount of video data to be displayed on a display device ,
Receiving a camera work data showing the camera work condition at the time of shooting of each frame constituting the video data,
Limiting the video frame or screen area to be detected based on the camera work data, the video feature amount of the video data,
Detecting the video feature in the restricted video frame or screen area;
A viewing environment control method, comprising: controlling illumination light of the illumination device installed around the display device based on the detected video feature amount .
JP2008513135A 2006-04-28 2007-04-12 Viewing environment control system, viewing environment control device, viewing environment lighting control system, and viewing environment control method Expired - Fee Related JP4709897B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008513135A JP4709897B2 (en) 2006-04-28 2007-04-12 Viewing environment control system, viewing environment control device, viewing environment lighting control system, and viewing environment control method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006124547 2006-04-28
JP2006124547 2006-04-28
JP2008513135A JP4709897B2 (en) 2006-04-28 2007-04-12 Viewing environment control system, viewing environment control device, viewing environment lighting control system, and viewing environment control method
PCT/JP2007/058035 WO2007125755A1 (en) 2006-04-28 2007-04-12 Data transmission device, data transmission method, audio visual environment control device, audio-visual environment control system, a nd audio-visual environment control method

Publications (2)

Publication Number Publication Date
JPWO2007125755A1 JPWO2007125755A1 (en) 2009-09-10
JP4709897B2 true JP4709897B2 (en) 2011-06-29

Family

ID=38655288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008513135A Expired - Fee Related JP4709897B2 (en) 2006-04-28 2007-04-12 Viewing environment control system, viewing environment control device, viewing environment lighting control system, and viewing environment control method

Country Status (2)

Country Link
JP (1) JP4709897B2 (en)
WO (1) WO2007125755A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04315875A (en) * 1991-04-15 1992-11-06 Sony Corp Vtr
JPH09205607A (en) * 1996-01-25 1997-08-05 Sony Corp Video recording device and reproducing device
JP2005286378A (en) * 2004-03-26 2005-10-13 Fuji Photo Film Co Ltd Moving picture reproduction system and moving picture reproduction method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111838A (en) * 1994-10-07 1996-04-30 Hitachi Ltd Video recording and reproducing system
JP2002354327A (en) * 2001-05-30 2002-12-06 Minolta Co Ltd Image-photographing device, operation device and image- photographing system thereof
JP2003214888A (en) * 2002-01-22 2003-07-30 Matsushita Electric Ind Co Ltd System for guiding visually handicapped person, radio portable terminal used for the same, and communication apparatus
JP2006020293A (en) * 2004-06-01 2006-01-19 Matsushita Electric Ind Co Ltd Program rendering device, receiving device, program rendering program, and computer-readable recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04315875A (en) * 1991-04-15 1992-11-06 Sony Corp Vtr
JPH09205607A (en) * 1996-01-25 1997-08-05 Sony Corp Video recording device and reproducing device
JP2005286378A (en) * 2004-03-26 2005-10-13 Fuji Photo Film Co Ltd Moving picture reproduction system and moving picture reproduction method

Also Published As

Publication number Publication date
WO2007125755A1 (en) 2007-11-08
JPWO2007125755A1 (en) 2009-09-10

Similar Documents

Publication Publication Date Title
JP4950988B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
JP4950990B2 (en) Video transmission apparatus and method, viewing environment control apparatus and method
JP5058157B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
US5737031A (en) System for producing a shadow of an object in a chroma key environment
KR20110042311A (en) Video processing and telepresence system and method
WO2007052395A1 (en) View environment control system
JP4889731B2 (en) Viewing environment control device, viewing environment control system, and viewing environment control method
CN102934449A (en) Three-dimensional recording and display system using near- and distal-focused images
US20150138395A1 (en) Display System Using Metadata to Adjust Area of Interest and Method
CA2244467C (en) Chroma keying studio system
JP2009081822A (en) Data transmission device and method, and view environment control apparatus, system and method
JP4709897B2 (en) Viewing environment control system, viewing environment control device, viewing environment lighting control system, and viewing environment control method
JP2023038275A (en) Image capture apparatus, electronic apparatus, and chroma suppression program
JP4789592B2 (en) Viewing environment control device and viewing environment control method
JP2009060542A (en) Data transmission apparatus, data transmission method, audiovisual environment control device, audiovisual environment control system, and audiovisual environment control method
JP2009081482A (en) Data transmitter, data transmission method, and unit, system, and method for controlling viewing environment
US20210125535A1 (en) Video lighting apparatus with full spectrum white color
Jaksic et al. Analysis of the Effects of Front and Back Lights in Chroma Key Effects During Implementation in Virtual TV Studio
CN105468250B (en) A kind of information processing method and portable electronic device
JPH08102970A (en) Three-dimension image pickup device
KR20140114940A (en) 3D virtual studio system, and 3D virtual studio image synthesis method
CN115442941A (en) Method, device, camera, equipment and storage medium for controlling lamplight

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110318

LAPS Cancellation because of no payment of annual fees