JP2009081822A - Data transmission device and method, and view environment control apparatus, system and method - Google Patents

Data transmission device and method, and view environment control apparatus, system and method Download PDF

Info

Publication number
JP2009081822A
JP2009081822A JP2007271108A JP2007271108A JP2009081822A JP 2009081822 A JP2009081822 A JP 2009081822A JP 2007271108 A JP2007271108 A JP 2007271108A JP 2007271108 A JP2007271108 A JP 2007271108A JP 2009081822 A JP2009081822 A JP 2009081822A
Authority
JP
Japan
Prior art keywords
illumination
information
segment
video
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007271108A
Other languages
Japanese (ja)
Inventor
Takuya Iwanami
琢也 岩波
Hisao Kumai
久雄 熊井
Yasuhiro Oki
康寛 大木
Norio Ito
典男 伊藤
Yasuhiro Yoshida
育弘 吉田
Takashi Yoshii
隆司 吉井
Manabu Ishikawa
学 石河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007271108A priority Critical patent/JP2009081822A/en
Publication of JP2009081822A publication Critical patent/JP2009081822A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a view environment control system capable of achieving illumination control in an optimal view environment corresponding to a camera work, illumination situation and scene setting situation when photographing a display video image. <P>SOLUTION: A data transmitting device divides video data into segments each constituted of one or more frames of an arbitrary number, adds segment division information indicating the starting time and/or the section of each segment, and at least any one of camera work information in photographing the video data, photographing illumination information, and scene setting information to video data in the unit of a segment and transmits the video data. On the other hand, a data receiving device separates from the video data at least any one of the segment division information, camera work situation, the photographing illumination information and the scene setting information and produces illumination control data for controlling illumination light of an illuminator 38 using these pieces of information. Thus, illumination light in a view environment can be appropriately controlled while being adapted to contents of a display video image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、映像表示装置に映像を表示する際に、その映像の撮影シーンの雰囲気や場面設定に適応させて、映像表示装置の周囲の照明光を制御することが可能なデータ送信装置、データ送信方法、視聴環境制御装置、視聴環境制御システム、及び視聴環境制御方法に関するものである。   The present invention relates to a data transmission apparatus and data capable of controlling illumination light around a video display device in accordance with the atmosphere and scene setting of the video shooting scene when the video is displayed on the video display device. The present invention relates to a transmission method, a viewing environment control device, a viewing environment control system, and a viewing environment control method.

例えば、テレビジョン受像機のような映像表示装置により映像表示を行う場合や、プロジェクタ装置を用いて映像を投影表示させるような場合に、その周囲の照明光を表示映像に合わせて調整することにより臨場感を高めるなどの視聴演出効果を付与するようにした技術が知られている。   For example, when displaying an image with an image display device such as a television receiver, or when projecting and displaying an image using a projector device, the surrounding illumination light is adjusted according to the display image. There is known a technique for providing a viewing effect such as enhancing the sense of presence.

例えば特許文献1には、カラーテレビの表示映像の色信号(RGB)と輝度信号(Y)とから、フレーム毎に光源の三原色の混光照度比を算出し、映像と連動させて調光制御を行うようにした光色可変形照明装置が開示されている。この光色可変形照明装置は、カラーテレビの表示映像から色信号(RGB)と輝度信号(Y)とを取り出し、その色信号と輝度信号とから、光源に使用する三色光(赤色光,緑色光,青色光)の適正調光照度比を算出し、その照度比に従って三色光の照度を設定し、三色光を混光して照明光として出力している。   For example, Patent Document 1 calculates the mixed light intensity ratio of the three primary colors of the light source for each frame from the color signal (RGB) and luminance signal (Y) of the display image of a color television, and performs dimming control in conjunction with the image. A light color variable illumination device is disclosed. This variable-light-color illuminating device extracts a color signal (RGB) and a luminance signal (Y) from a display image of a color television, and uses the three color lights (red light, green) used as a light source from the color signal and the luminance signal. Light, blue light) is calculated, the illuminance of the three-color light is set according to the illuminance ratio, and the three-color light is mixed and output as illumination light.

また、例えば特許文献2には、テレビの映像を複数に分割し、対応する分割部の平均的な色相を検出することによって、分割部の周囲の照明制御を行う映像演出照明装置が開示されている。この映像演出照明装置は、カラーテレビの設置場所の周囲を照明する照明手段を備えていて、カラーテレビに表示される映像を複数に分割し、照明手段によって照明される部分に対応する映像の分割部の平均的な色相を検出し、その検出した色相に基づいて照明手段を制御している。   Further, for example, Patent Document 2 discloses a video effect lighting apparatus that performs illumination control around a division unit by dividing a television image into a plurality of portions and detecting an average hue of the corresponding division unit. Yes. This video effect lighting device includes illumination means for illuminating the surroundings of the installation location of the color television, divides the video displayed on the color television into a plurality of parts, and divides the video corresponding to the portion illuminated by the illumination means The average hue of the part is detected, and the illumination means is controlled based on the detected hue.

さらに、例えば特許文献3には、単に画像表示装置の画面全体の平均色度及び平均輝度を求めるのではなく、画像表示装置の画面に映し出された画像から人の顔などの肌色部分の画素を取り除いた残りの部分を背景部と考え、その背景部の各画素のRGB信号及び輝度信号だけを取り出して平均色度及び平均輝度を求めて、画像表示装置の背面の壁面の色度及び輝度が、画面全体、或いは人の肌色を除く背景部の平均色度及び平均輝度と同一になるように、照明を制御する方法が開示されている。
特開平2−158094号公報 特開平2−253503号公報 特開平3−184203号公報
Furthermore, for example, Patent Document 3 does not simply calculate the average chromaticity and average luminance of the entire screen of the image display device, but instead of pixels of skin color portions such as human faces from the image displayed on the screen of the image display device. The remaining portion is considered as the background portion, and only the RGB signal and luminance signal of each pixel in the background portion are taken out to obtain the average chromaticity and average luminance, and the chromaticity and luminance of the back wall of the image display device are A method of controlling illumination so as to be the same as the average chromaticity and average luminance of the entire screen or the background portion excluding human skin color is disclosed.
Japanese Patent Laid-Open No. 2-158094 JP-A-2-253503 JP-A-3-184203

上述した従来の視聴環境制御装置では、表示すべき映像信号における1フレーム(画面)毎の特徴量(色信号及び輝度信号)を検出し、照明光を制御しているため、表示映像内容によっては該映像の場(雰囲気)に即した照明光を生成することが困難である。例えば、映像信号に含まれる被写体人物の服装や被写体の背景にある人工物などの影響を受けて、不適切な色の照明光を周囲に照射してしまうと、シーン毎の雰囲気を再現したり、シーン毎の臨場感を維持することができない。すなわち、映像シーンの撮影時における照明状況から大きく逸脱した視聴環境照明は却って臨場感を損なうことになる。   In the conventional viewing environment control apparatus described above, the feature amount (color signal and luminance signal) for each frame (screen) in the video signal to be displayed is detected and the illumination light is controlled. It is difficult to generate illumination light that matches the field (atmosphere) of the image. For example, if you illuminate the surrounding area with improper color illumination light due to the influence of the clothes of the subject person included in the video signal or artifacts in the background of the subject, the atmosphere of each scene can be reproduced. , Can not maintain the sense of reality for each scene. In other words, viewing environment lighting that deviates significantly from the lighting situation at the time of shooting a video scene, on the contrary, impairs the sense of reality.

上記特許文献3のものは、肌色部分の画素を取り除いた残りの部分を背景部として、この背景部の各画素の特徴量(色信号及び輝度信号)に基づき、視聴環境空間の照明光を制御しているが、例えば背景部に地面や建築物が多く占める映像の場合、この影響を受けて不適切な色の照明光を周囲に照射してしまうことになるので、却って臨場感や雰囲気を損なってしまうことになる。すなわち、表示映像の撮影時における照明状況(雰囲気)を映像信号から推定するには、肌色部分の画素を取り除くだけでは不十分であり、撮影時における照明状況(雰囲気)を表わす背景画素のみを適切に抽出して用いる必要がある。   The above-mentioned Patent Document 3 controls the illumination light in the viewing environment space based on the feature amount (color signal and luminance signal) of each pixel in the background portion with the remaining portion from which the skin color portion pixels are removed as the background portion. However, for example, in the case of an image where the ground and buildings occupy a lot in the background part, it will irradiate surroundings with illumination light of an inappropriate color due to this influence, so on the contrary, the presence and atmosphere Will be lost. That is, in order to estimate the lighting condition (atmosphere) at the time of shooting the display image from the video signal, it is not sufficient to remove the skin-colored pixels, and only the background pixels representing the lighting condition (atmosphere) at the time of shooting are appropriate. It is necessary to extract and use.

また、上記従来の技術においては、映像信号の輝度や色相のフレーム毎の変化に応じて照明光の状態が変化してしまい、特にフレーム間における輝度や色相の変化の度合いが大きい場合などでは照明光が煩雑に変化し、視聴者がフリッカーによる違和感を感じるという問題が生じる。さらに、撮影時の照明状況に変化のない1つのシーンの表示中に、フレーム毎の輝度や色相の変化に応じて照明光が変動することは、シーン毎の雰囲気を逆に阻害して好ましくない。   In the above-described conventional technology, the illumination light state changes according to the change of the luminance and hue of the video signal for each frame, and particularly when the degree of change in luminance and hue between frames is large. The problem is that the light changes complicatedly and the viewer feels uncomfortable with the flicker. Furthermore, it is not preferable that the illumination light fluctuates in accordance with changes in luminance and hue for each frame during the display of one scene in which the illumination state at the time of shooting does not change, which adversely inhibits the atmosphere for each scene. .

図37は上記従来の技術による照明制御の問題点の一例を説明するための図であり、連続する動画像の一部を示すものである。図37に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークによる撮影によって得られた映像からなる。この例では、カメラの上方からカメラ近傍に向かってスキーヤーが滑降してくる映像が撮影されている。スキーヤーは赤い服を着ており、空は晴天である。   FIG. 37 is a diagram for explaining an example of the problem of the illumination control according to the conventional technique, and shows a part of continuous moving images. In the example shown in FIG. 37, a scene of a video shot with a scene setting of outdoors in a sunny day is created. This scene consists of a video obtained by a series of camera work shooting without switching the camera. In this example, an image of a skier sliding down from above the camera toward the vicinity of the camera is taken. Skiers are dressed in red and the sky is clear.

すなわち、この映像シーンは、カメラポジション、アングル、被写体の数、カメラの動き、カメラレンズ種別のそれぞれは、ローポジ、ローアングル、ワンショット(1S)、フィックス、標準レンズという一定のカメラワーク状況により撮影されたものである。   In other words, this video scene was shot under certain camera work conditions such as camera position, angle, number of subjects, camera movement, and camera lens type: low positive, low angle, one shot (1S), fixed, standard lens. It has been done.

そして、このシーンの映像は、その初期のフレームでは背景の青空の領域が大きく、スキーヤーが滑り降りてカメラに近づくに従ってスキーヤーの赤い服の領域が徐々に大きくなってくる。つまりシーン内の映像の進行に伴って、各フレームを構成する色の比率が変化してくる。すなわち、被写体サイズは、フレームA〜Dがログショットで、フレームEがフルフィギュアとなっている。   The video of this scene has a large blue sky area in the initial frame, and the skier's red clothing area gradually increases as the skier slides down and approaches the camera. That is, as the video in the scene progresses, the ratio of the colors constituting each frame changes. That is, the subject size is that the frames A to D are log shots and the frame E is a full figure.

このような場合、各フレーム毎の色度や輝度を使用して照明光を制御すると、青色が強い照明光から赤い照明光に変化していくことになる。すなわち、一定の自然光照明の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   In such a case, when the illumination light is controlled using the chromaticity and luminance for each frame, the blue light changes from strong illumination light to red illumination light. In other words, even though the video was shot under constant natural light illumination, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.

図38は上記従来の技術による照明制御の問題点の他の例を説明するための図である。図38に示す例では、月夜の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラワークが異なる3つのショット(1,2,3)により構成されている。ショット1では、対象である亡霊をカメラがロングショットで撮影している。そしてショット2に切り替わると、その亡霊がバストショットで撮影されている。ショット3では、再度ショット1のカメラ位置に戻っている。これらのショットは、カメラワークは異なっていても、一つの雰囲気が連続する一区切りのシーンとして意図されて構成されている。   FIG. 38 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 38, a scene of an image shot with a scene setting of “moonlit night outdoors” is created. This scene is composed of three shots (1, 2, 3) with different camera work. In Shot 1, the camera takes a long shot of the target ghost. Then, when switching to shot 2, the ghost is shot with a bust shot. In shot 3, the camera returns to the camera position of shot 1 again. These shots are intended and configured as a segment of a scene in which one atmosphere continues even though the camera work is different.

すなわち、このシーンの撮影に用いられているカメラワーク状況は、カメラポジション、アングル、カメラの動き、カメラレンズ種別のそれぞれが、目高、水平アングル、フィックス、標準レンズで、被写体のサイズ、数が、フレームA〜B(ショット1)及びフレームE〜F(ショット3)はロングショット、ツーショット(2S)、フレームC〜D(ショット2)はバストショット、ワンショット(1S)である。   In other words, the camera work situation used for shooting this scene is that the camera position, angle, camera movement, and camera lens type are eye height, horizontal angle, fixed, standard lens, and the size and number of subjects. Frames A to B (shot 1) and frames E to F (shot 3) are long shots, two shots (2S), and frames C to D (shot 2) are bust shots and one shot (1S).

このような場合、ショット1では、月夜の比較的暗い映像が連続しているので、これらの映像の各フレームの輝度や色度に従って照明光を制御すると比較的暗い照明光となる。そしてショット1がショット2に切り替わると、バストショットで撮影された亡霊は比較的明るい映像となる。このときに上記従来の技術によりフレーム毎に照明光を制御すると、ショットの切替時に照明光の制御が大きく切り替わって明るい照明光となる。そしてまたショット3に切り替わると、ショット1と同様の暗い照明光に戻る。   In such a case, since relatively dark images of moonlight night are continuous in Shot 1, if the illumination light is controlled according to the luminance and chromaticity of each frame of these images, the illumination light becomes relatively dark. Then, when shot 1 is switched to shot 2, the ghost photographed by the bust shot becomes a relatively bright image. At this time, if the illumination light is controlled for each frame according to the above-described conventional technique, the illumination light control is largely switched at the time of switching shots, resulting in bright illumination light. When switching to shot 3 again, it returns to the dark illumination light similar to shot 1.

すなわち、一定の照明状況の下で撮影された一連の映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光が暗くなったり明るくなったりすると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   In other words, even though it is a series of images shot under a certain lighting condition, illumination light that does not take into account the lighting condition at the time of shooting is generated and irradiated, so the atmosphere of the scene is disturbed on the contrary. This will make the viewer feel uncomfortable. Also, if the illumination light becomes darker or brighter in a single segment where a single scene setting (atmosphere) is continuous, the atmosphere of the scene is also hindered and the viewer feels uncomfortable.

図39は上記従来の技術による照明制御の問題点の他の例を説明するための図である。図37に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークによる撮影によって得られた映像からなるが、ズーム撮影により被写体(前景)である茶色い犬がロングジョットからアップショットへ序々に変化している。   FIG. 39 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 37, a scene of a video shot with a scene setting of outdoors in a sunny day is created. This scene is made up of images obtained by a series of camera work shootings without switching the camera, but the brown dog that is the subject (foreground) is gradually changing from a long jot to an up shot by zoom shooting.

すなわち、このシーンの撮影に用いられているカメラワーク状況は、カメラポジション、アングル、被写体の数、カメラの動きのそれぞれが、ハイポジ、ハイアングル、ワンショット(1S)、ズームで、被写体サイズが、フレームA〜Bはロングショット、フレームCはフルフィギュア、フレームDはバストショット、フレームEはアップショット、カメラレンズ種別が、フレームAは標準レンズ、フレームB以降は望遠レンズである。   In other words, the camera work situation used for shooting this scene is that the camera position, angle, number of subjects, camera movement are high positive, high angle, one shot (1S), zoom, subject size is Frames A to B are long shots, frame C is a full figure, frame D is a bust shot, frame E is an up shot, camera lens type is frame A is a standard lens, and frames B and thereafter are telephoto lenses.

これらの映像の各フレームの輝度や色度に従って照明光を制御すると、緑色が強い照明光から茶色い照明光に変化していくことになる。すなわち、一定の自然光照明の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   When the illumination light is controlled according to the luminance and chromaticity of each frame of these images, the green light changes from strong illumination light to brown illumination light. In other words, even though the video was shot under constant natural light illumination, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.

図40は上記従来の技術による照明制御の問題点の他の例を説明するための図である。図38に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークによる撮影によって得られた映像からなるが、ズーム撮影により被写体(前景)である桃色の服を着た人物がロングジョットからバストショットへ序々に変化している。   FIG. 40 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 38, a scene of a video shot with a scene setting of outdoors in a sunny day is created. This scene consists of images obtained by a series of camera work shooting without switching the camera, but the person wearing pink clothes as the subject (foreground) gradually changes from long jot to bust shot by zoom shooting. is doing.

すなわち、このシーンの撮影に用いられているカメラワーク状況は、カメラポジション、アングル、被写体の数、カメラの動きのそれぞれが、目高、水平アングル、ワンショット(1S)、ズームで、被写体サイズが、フレームA〜Bはロングショット、フレームCはフルフィギュア、フレームDはウエストショット、フレームEはアップショット、カメラレンズ種別が、フレームAは標準レンズ、フレームB以降は望遠レンズである。   In other words, the camera work situation used for shooting this scene is that the camera position, angle, number of subjects, camera movement are eye height, horizontal angle, one shot (1S), zoom, subject size is The frames A to B are long shots, the frame C is a full figure, the frame D is a waist shot, the frame E is an upshot, the camera lens type is a standard lens, and the frames B and thereafter are telephoto lenses.

これらの映像の各フレームの輝度や色度に従って照明光を制御すると、青色が強い照明光から桃色の照明光に変化していくことになる。すなわち、一定の自然光照明の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   When the illumination light is controlled according to the luminance and chromaticity of each frame of these images, the blue light changes from strong illumination light to pink illumination light. In other words, even though the video was shot under constant natural light illumination, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.

図41は上記従来の技術による照明制御の問題点の他の例を説明するための図である。図41に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークによる撮影によって得られた映像からなるが、カメラレンズを切替えて撮影することにより、被写体(前景)である桃色の服を着た人物がロングジョットからバストショットに変化している。   FIG. 41 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 41, a scene of an image shot with a scene setting of outdoors in a sunny day is created. This scene consists of images obtained by a series of camera work shooting without switching the camera. By switching the camera lens and shooting, a person wearing pink clothes as the subject (foreground) is a long jot. Has changed from a bust shot to a bust shot.

すなわち、このシーンの撮影に用いられているカメラワーク状況は、カメラポジション、アングル、被写体の数、カメラの動きのそれぞれが、目高、水平アングル、ワンショット(1S)、フィックスで、被写体サイズが、フレームA〜Cはロングショット、フレームD〜Eはバストショット、カメラレンズ種別が、フレームA〜Cは標準レンズ、フレームD以降は望遠レンズである。   In other words, the camera work situation used for shooting this scene is that the camera position, angle, number of subjects, camera movements are eye height, horizontal angle, one shot (1S), fix, subject size is The frames A to C are long shots, the frames D to E are bust shots, and the camera lens type is a standard lens, the frames A to C are telephoto lenses, and the telephoto lenses after the frame D.

これらの映像の各フレームの輝度や色度に従って照明光を制御すると、青色が強い照明光から突然、桃色の照明光に変化することになる。すなわち、一定の自然光照明の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   When the illumination light is controlled in accordance with the luminance and chromaticity of each frame of these images, the blue light suddenly changes to pink illumination light. In other words, even though the video was shot under constant natural light illumination, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.

また、通常、映像のシーンは例えば映像制作者(脚本家や演出家など)の意図により、一連の場面設定に基づく一区切りの映像として、適切に設定された照明状況の下で撮影されて作成される。従って、映像視聴時の臨場感や雰囲気を増大させるには、表示映像のシーン撮影時における照明状況に応じた照明光を視聴空間に照射することが望ましい。   Also, video scenes are usually created by shooting under appropriately set lighting conditions as a segment of video based on a series of scene settings, for example, for the purpose of video producers (screenwriters, directors, etc.) The Therefore, in order to increase the presence and the atmosphere when viewing the video, it is desirable to irradiate the viewing space with illumination light according to the illumination status at the time of scene shooting of the displayed video.

しかしながら、上述した従来の視聴環境制御装置では、表示すべき映像信号における1フレーム(画面)毎の特徴量(色信号及び輝度信号)を検出し、照明光を制御しているため、表示映像内容によっては該映像のシーン状況に即した照明光を生成することが困難である。例えば、映像信号に含まれる被写体人物の服装や被写体の背景にある人工物などの影響を受けて、不適切な色の照明光を周囲に照射してしまうと、シーン毎の雰囲気を再現したり、シーン毎の臨場感を維持することができない。すなわち、各シーンの撮影時に用いられた照明状況から大きく逸脱した視聴環境照明は却って臨場感を損なうことになる。   However, the above-described conventional viewing environment control apparatus detects the feature amount (color signal and luminance signal) for each frame (screen) in the video signal to be displayed, and controls the illumination light. Depending on the situation, it may be difficult to generate illumination light according to the scene situation of the video. For example, if you illuminate the surrounding area with improper color illumination light due to the influence of the clothes of the subject person included in the video signal or artifacts in the background of the subject, the atmosphere of each scene can be reproduced. , Can not maintain the sense of reality for each scene. In other words, viewing environment lighting that deviates significantly from the lighting conditions used at the time of photographing each scene is detrimental to reality.

また、上記従来の技術においては、映像信号の輝度や色相のフレーム毎の変化に応じて照明光の状態が変化してしまい、特にフレーム間における輝度や色相の変化の度合いが大きい場合などでは照明光が煩雑に変化し、視聴者がフリッカーによる違和感を感じるという問題が生じる。さらに、撮影時の照明状況に変化のない1つのシーンの表示中に、フレーム毎の輝度や色相の変化に応じて照明光が変動することは、シーン毎の雰囲気を逆に阻害して好ましくない。   In the above-described conventional technology, the illumination light state changes according to the change of the luminance and hue of the video signal for each frame, and particularly when the degree of change in luminance and hue between frames is large. The problem is that the light changes complicatedly and the viewer feels uncomfortable with the flicker. Furthermore, it is not preferable that the illumination light fluctuates in accordance with changes in luminance and hue for each frame during the display of one scene in which the illumination state at the time of shooting does not change, which adversely inhibits the atmosphere for each scene. .

図37は上記従来の技術による照明制御の問題点の一例を説明するための図であり、連続する動画像の一部を示すものである。図37に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークにより撮影によって得られた映像からなる。この例では、カメラの上方からカメラ近傍に向かってスキーヤーが滑降してくる映像が撮影されている。スキーヤーは赤い服を着ており、空は晴天である。   FIG. 37 is a diagram for explaining an example of the problem of the illumination control according to the conventional technique, and shows a part of continuous moving images. In the example shown in FIG. 37, a scene of a video shot with a scene setting of outdoors in a sunny day is created. This scene is made up of images obtained by shooting through a series of camera work without switching the camera. In this example, an image of a skier sliding down from above the camera toward the vicinity of the camera is taken. Skiers are dressed in red and the sky is clear.

すなわち、この映像シーンは、冬の日中晴天時の太陽光(自然光)の下で撮影されており、この太陽光がキーライトであり、このキーライトの照明光源の性質はスポットライト(点光源)、水平方向の照明光の入射方向は順光、垂直方向の照明光の入射方向がトップライト、照明強度は強く、照明色温度は約6000Kという照明状況で撮影されたものである。   In other words, this video scene was shot under sunlight (natural light) during sunny days in winter, and this sunlight is a key light. The nature of the illumination light source of this key light is a spotlight (point light source). ), The incident direction of the horizontal illumination light is forward light, the incident direction of the vertical illumination light is top light, the illumination intensity is strong, and the illumination color temperature is about 6000K.

そして、このシーンの映像は、その初期のフレームでは背景の青空の領域が大きく、スキーヤーが滑り降りてカメラに近づくに従ってスキーヤーの赤い服の領域が徐々に大きくなってくる。つまりシーン内の映像の進行に伴って、各フレームを構成する色の比率が変化してくる。   The video of this scene has a large blue sky area in the initial frame, and the skier's red clothing area gradually increases as the skier slides down and approaches the camera. That is, as the video in the scene progresses, the ratio of the colors constituting each frame changes.

このような場合、各フレーム毎の色度や輝度を使用して照明光を制御すると、青色が強い照明光から赤い照明光に変化していくことになる。すなわち、上述した照明状況の下で撮影された映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   In such a case, when the illumination light is controlled using the chromaticity and luminance for each frame, the blue light changes from strong illumination light to red illumination light. In other words, even though the video was shot under the lighting conditions described above, illumination light that does not take into account the lighting conditions at the time of shooting is generated / irradiated. Will give a sense of incongruity. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.

図38は上記従来の技術による照明制御の問題点の他の例を説明するための図である。図38に示す例では、月夜の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラワークが異なる3つのショット(1,2,3)により構成されている。ショット1では、対象である亡霊をカメラがロングショットで撮影している。そしてショット2に切り替わると、その亡霊がアップショットで撮影されている。ショット3では、再度ショット1のカメラ位置に戻っている。これらのショットは、カメラワークは異なっていても、一つの雰囲気が連続する一区切りのシーンとして意図されて構成されている。   FIG. 38 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 38, a scene of an image shot with a scene setting of “moonlit night outdoors” is created. This scene is composed of three shots (1, 2, 3) with different camera work. In Shot 1, the camera takes a long shot of the target ghost. Then, when switching to shot 2, the ghost is shot in an up shot. In shot 3, the camera returns to the camera position of shot 1 again. These shots are intended and configured as a segment of a scene in which one atmosphere continues even though the camera work is different.

このシーンの撮影においては、照明光源の性質がフラッドライト(面光源)、水平方向の照明光の入射方向が順光、垂直方向の照明光の入射方向がトップライト、照明強度が普通、照明色温度が約7000Kであるキーライトと、照明光源の性質がフラッドライト(面光源)、水平方向の光の入射方向がレンブラントライト(左)、垂直方向の光の入射方向があおり、照明強度が弱く、照明色温度が約7000Kであるフィルライトと、照明光源の性質がスポットライト(点光源)、水平方向の光の入射方向が側光(右)、垂直方向の光の入射方向が順光、照明強度がやや弱く、照明色温度が約5000Kであるタッチライトとが用いられている。   When shooting this scene, the illumination light source is flood light (surface light source), the horizontal illumination light incident direction is forward light, the vertical illumination light incident direction is top light, the illumination intensity is normal, the illumination color Key light with a temperature of about 7000K, illumination light source is flood light (surface light source), horizontal light incident direction is Rembrandt light (left), vertical light incident direction, and the illumination intensity is weak Fill light with an illumination color temperature of about 7000K, the nature of the illumination light source is spotlight (point light source), the incident direction of horizontal light is side light (right), the incident direction of vertical light is forward light, A touch light having a slightly weak illumination intensity and an illumination color temperature of about 5000K is used.

このような場合、ショット1では、月夜の比較的暗い映像が連続しているので、これらの映像の各フレームの輝度や色度に従って照明光を制御すると比較的暗い照明光となる。そしてショット1がショット2に切り替わると、アップショットで撮影された亡霊は比較的明るい映像となる。このときに上記従来の技術によりフレーム毎に照明光を制御すると、ショットの切替時に照明光の制御が大きく切り替わって明るい照明光となる。そしてまたショット3に切り替わると、ショット1と同様の暗い照明光に戻る。   In such a case, since relatively dark images of moonlight night are continuous in Shot 1, if the illumination light is controlled according to the luminance and chromaticity of each frame of these images, the illumination light becomes relatively dark. When shot 1 is switched to shot 2, the ghost captured in the up shot becomes a relatively bright image. At this time, if the illumination light is controlled for each frame according to the above-described conventional technique, the illumination light control is largely switched at the time of switching shots, resulting in bright illumination light. When switching to shot 3 again, it returns to the dark illumination light similar to shot 1.

すなわち、上述した照明状況の下で撮影された一連の映像であるにもかかわらず、この撮影時の照明状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光が暗くなったり明るくなったりすると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   In other words, although it is a series of images shot under the lighting conditions described above, illumination light that does not take into account the lighting conditions at the time of shooting is generated and irradiated, so that the atmosphere of the scene is disturbed on the contrary. This will make the viewer feel uncomfortable. Also, if the illumination light becomes darker or brighter in a single segment where a single scene setting (atmosphere) is continuous, the atmosphere of the scene is also hindered and the viewer feels uncomfortable.

さらに、通常、映像のシーンは例えば映像制作者(脚本家や演出家など)の意図により、一連の場面設定に基づく一区切りの映像として作成される。従って、映像視聴時の臨場感や雰囲気を増大させるには、表示映像のシーン状況(ストーリー上の場面設定状況)に応じた照明光を視聴空間に照射することが望ましい。   Furthermore, a video scene is usually created as a segmented video based on a series of scene settings, for example, by the intention of a video producer (screenwriter, director, etc.). Therefore, in order to increase the presence and atmosphere when viewing the video, it is desirable to irradiate the viewing space with illumination light according to the scene status of the display video (scene setting status on the story).

しかしながら、上述した従来の視聴環境制御装置では、表示すべき映像信号における1フレーム(画面)毎の特徴量(色信号及び輝度信号)を検出し、照明光を制御しているため、表示映像内容によっては該映像のシーン状況に即した照明光を生成することが困難である。例えば、映像信号に含まれる被写体人物の服装や被写体の背景にある人工物などの影響を受けて、不適切な色の照明光を周囲に照射してしまうと、シーン毎の雰囲気を再現したり、シーン毎の臨場感を維持することができない。   However, the above-described conventional viewing environment control apparatus detects the feature amount (color signal and luminance signal) for each frame (screen) in the video signal to be displayed, and controls the illumination light. Depending on the situation, it may be difficult to generate illumination light according to the scene situation of the video. For example, if you illuminate the surrounding area with improper color illumination light due to the influence of the clothes of the subject person included in the video signal or artifacts in the background of the subject, the atmosphere of each scene can be reproduced. , Can not maintain the sense of reality for each scene.

すなわち、一般的に各シーン毎にその場面設定に基づく撮影時の照明が特徴付けられるにも関わらず、このシーンの特徴から大きく逸脱した視聴環境照明は却って臨場感を損なうことになる。   That is, although the illumination at the time of shooting based on the scene setting is generally characterized for each scene, the viewing environment illumination greatly deviating from the feature of this scene is rather detrimental to reality.

また、上記従来の技術においては、映像信号の輝度や色相のフレーム毎の変化に応じて照明光の状態が変化してしまい、特にフレーム間における輝度や色相の変化の度合いが大きい場合などでは照明光が煩雑に変化し、視聴者がフリッカーによる違和感を感じるという問題が生じる。さらに、場面設定に変化のない1つのシーンの表示中に、フレーム毎の輝度や色相の変化に応じて照明光が変動することは、シーン毎の雰囲気を逆に阻害して好ましくない。   In the above-described conventional technology, the illumination light state changes according to the change of the luminance and hue of the video signal for each frame, and particularly when the degree of change in luminance and hue between frames is large. The problem is that the light changes complicatedly and the viewer feels uncomfortable with the flicker. Furthermore, it is not preferable that the illumination light fluctuates in accordance with changes in luminance and hue for each frame during the display of one scene with no change in scene setting, which adversely inhibits the atmosphere for each scene.

図37は上記従来の技術による照明制御の問題点の一例を説明するための図であり、連続する動画像の一部を示すものである。図37に示す例では、晴天の日中の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラが切り替わることなく一連のカメラワークにより撮影によって得られた映像からなる。この例では、カメラの上方からカメラ近傍に向かってスキーヤーが滑降してくる映像が撮影されている。スキーヤーは赤い服を着ており、空は晴天である。   FIG. 37 is a diagram for explaining an example of the problem of the illumination control according to the conventional technique, and shows a part of continuous moving images. In the example shown in FIG. 37, a scene of a video shot with a scene setting of outdoors in a sunny day is created. This scene is made up of images obtained by shooting through a series of camera work without switching the camera. In this example, an image of a skier sliding down from above the camera toward the vicinity of the camera is taken. Skiers are dressed in red and the sky is clear.

このシーンの映像は、その初期のフレームでは背景の青空の領域が大きく、スキーヤーが滑り降りてカメラに近づくに従ってスキーヤーの赤い服の領域が徐々に大きくなってくる。つまりシーン内の映像の進行に伴って、各フレームを構成する色の比率が変化してくる。   The video of this scene has a large blue sky background in the initial frame, and the skier's red clothing area gradually increases as the skier slides down and approaches the camera. That is, as the video in the scene progresses, the ratio of the colors constituting each frame changes.

このような場合、各フレーム毎の色度や輝度を使用して照明光を制御すると、青色が強い照明光から赤い照明光に変化していくことになる。すなわち、冬の日中晴天時の太陽光の下という一連のシーン状況であるにもかかわらず、このシーン状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光の色味が変化すると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   In such a case, when the illumination light is controlled using the chromaticity and luminance for each frame, the blue light changes from strong illumination light to red illumination light. In other words, even though it is a series of scene situations under sunlight during winter daylight, illumination light that does not take this scene situation into consideration is generated and irradiated, so the atmosphere of the scene is disturbed on the contrary. This will make the viewer feel uncomfortable. In addition, if the color of the illumination light changes in a single segment of scenes in which one scene setting (atmosphere) is continuous, the atmosphere of the scene is still disturbed and the viewer feels uncomfortable.

図38は上記従来の技術による照明制御の問題点の他の例を説明するための図である。図38に示す例では、月夜の屋外という場面設定で撮影された映像のシーンが作成されている。このシーンは、カメラワークが異なる3つのショット(1,2,3)により構成されている。ショット1では、対象である亡霊をカメラがロングショットで撮影している。そしてショット2に切り替わると、その亡霊がアップショットで撮影されている。ショット3では、再度ショット1のカメラ位置に戻っている。これらのショットは、カメラワークは異なっていても、一つの雰囲気が連続する一区切りのシーンとして意図されて構成されている。   FIG. 38 is a diagram for explaining another example of the problem of the illumination control according to the conventional technique. In the example shown in FIG. 38, a scene of an image shot with a scene setting of “moonlit night outdoors” is created. This scene is composed of three shots (1, 2, 3) with different camera work. In Shot 1, the camera takes a long shot of the target ghost. Then, when switching to shot 2, the ghost is shot in an up shot. In shot 3, the camera returns to the camera position of shot 1 again. These shots are intended and configured as a segment of a scene in which one atmosphere continues even though the camera work is different.

このような場合、ショット1では、月夜の比較的暗い映像が連続している。これらの映像の各フレームの輝度や色度に従って照明光を制御すると比較的暗い照明光となる。そしてショット1がショット2に切り替わると、アップショットで撮影された亡霊は比較的明るい映像となる。このときに上記従来の技術によりフレーム毎に照明光を制御すると、ショットの切替時に照明光の制御が大きく切り替わって明るい照明光となる。そしてまたショット3に切り替わると、ショット1と同様の暗い照明光に戻る。   In such a case, in shot 1, a relatively dark image of moonlight night is continuous. When the illumination light is controlled according to the luminance and chromaticity of each frame of these images, the illumination light becomes relatively dark. When shot 1 is switched to shot 2, the ghost captured in the up shot becomes a relatively bright image. At this time, if the illumination light is controlled for each frame according to the above-described conventional technique, the illumination light control is largely switched at the time of switching shots, resulting in bright illumination light. When switching to shot 3 again, it returns to the dark illumination light similar to shot 1.

すなわち、時代劇の夜更けの月光の下という一連のシーン状況であるにもかかわらず、このシーン状況が考慮されない照明光が生成・照射されるため、却ってそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。また、一つの場面設定(雰囲気)が連続する一区切りのシーン内で照明光が暗くなったり明るくなったりすると、やはりそのシーンの雰囲気を阻害して視聴者に違和感を与えることになる。   In other words, even though it is a series of scene situations under the moonlight in the late night of the historical drama, illumination light that does not take this scene situation into consideration is generated and irradiated, so the atmosphere of the scene is disturbed and viewers are disturbed It will give you a sense of incongruity. Also, if the illumination light becomes darker or brighter in a single segment where a single scene setting (atmosphere) is continuous, the atmosphere of the scene is also hindered and the viewer feels uncomfortable.

本発明は、上記課題に鑑みてなされたものであり、表示映像の内容に応じた、最適な視聴環境の照明制御を実現することが可能なデータ送信装置、データ送信方法、視聴環境制御装置、視聴環境制御システム及び視聴環境制御方法を提供することを目的とする。   The present invention has been made in view of the above-described problems, and is a data transmission device, a data transmission method, a viewing environment control device, which can realize optimal viewing environment lighting control according to the content of a display video, An object is to provide a viewing environment control system and a viewing environment control method.

本願の第1の発明は、1以上のフレームから構成される映像データを送信するデータ送信装置において、前記映像データを1以上の任意の数のフレームから構成されるセグメントに分割し、各セグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを、前記セグメント単位で映像データに付加することを特徴とする。   According to a first aspect of the present invention, in a data transmitting apparatus that transmits video data composed of one or more frames, the video data is divided into segments composed of an arbitrary number of one or more frames. Adding segment delimiter information indicating a start time and / or section and at least one of camera work information, shooting illumination information, and scene setting information at the time of shooting of the video data to the video data in units of segments. Features.

本願の第2の発明は、前記カメラワーク情報が、少なくとも各セグメントの撮影時におけるカメラポジションを表わす情報を含むことを特徴とする。   The second invention of the present application is characterized in that the camera work information includes at least information representing a camera position at the time of photographing each segment.

本願の第3の発明は、前記カメラワーク情報が、少なくとも各セグメントの撮影時におけるカメラアングルを表わす情報を含むことを特徴とする。   The third invention of the present application is characterized in that the camera work information includes at least information representing a camera angle at the time of photographing each segment.

本願の第4の発明は、前記カメラワーク情報が、少なくとも各セグメントの撮影時における被写体のサイズを表わす情報を含むことを特徴とする。   The fourth invention of the present application is characterized in that the camera work information includes at least information indicating a size of a subject at the time of photographing each segment.

本願の第5の発明は、前記カメラワーク情報が、少なくとも各セグメントの撮影時における被写体の数を表わす情報を含むことを特徴とする。   The fifth invention of the present application is characterized in that the camera work information includes at least information indicating the number of subjects at the time of photographing each segment.

本願の第6の発明は、前記カメラワーク情報が、少なくとも各セグメントの撮影時におけるカメラの動きを表わす情報を含むことを特徴とする。   The sixth invention of the present application is characterized in that the camera work information includes at least information indicating the movement of the camera at the time of photographing each segment.

本願の第7の発明は、前記カメラワーク情報が、少なくとも各セグメントの撮影に用いられたカメラレンズの種別を表わす情報を含むことを特徴とする。   The seventh invention of the present application is characterized in that the camera work information includes at least information indicating a type of a camera lens used for photographing each segment.

本願の第8の発明は、前記撮影照明情報が、少なくとも各セグメントの撮影に用いられた照明のライティング種別を表わす情報を含むことを特徴とする。   The eighth invention of the present application is characterized in that the photographing illumination information includes at least information indicating a lighting type of illumination used for photographing each segment.

本願の第9の発明は、前記撮影照明情報が、少なくとも各セグメントの撮影に用いられた照明の性質を表わす情報を含むことを特徴とする。   The ninth invention of the present application is characterized in that the photographing illumination information includes at least information indicating the nature of the illumination used for photographing each segment.

本願の第10の発明は、前記撮影照明情報が、少なくとも各セグメントの撮影に用いられた照明の光の方向を表わす情報を含むことを特徴とする。   The tenth invention of the present application is characterized in that the photographing illumination information includes at least information indicating the direction of illumination light used for photographing each segment.

本願の第11の発明は、前記撮影照明情報が、少なくとも各セグメントの撮影に用いられた照明の光の強度を表わす情報を含むことを特徴とする。   The eleventh invention of the present application is characterized in that the photographic illumination information includes at least information indicating the intensity of illumination light used for photographing each segment.

本願の第12の発明は、前記撮影照明情報が、少なくとも各セグメントの撮影に用いられた照明の光の色温度を表わす情報を含むことを特徴とする。   In a twelfth aspect of the present invention, the photographing illumination information includes at least information indicating the color temperature of the illumination light used for photographing each segment.

本願の第13の発明は、前記シーン設定情報が、少なくとも各セグメントのストーリー上における季節を表わす情報を含むことを特徴とする。   The thirteenth invention of the present application is characterized in that the scene setting information includes at least information representing a season on a story of each segment.

本願の第14の発明は、前記シーン設定情報が、少なくとも各セグメントのストーリー上における時刻を表わす情報を含むことを特徴とする。   A fourteenth invention of the present application is characterized in that the scene setting information includes at least information indicating a time on a story of each segment.

本願の第15の発明は、前記シーン設定情報が、少なくとも各シーンのストーリー上における場所を表わす情報を含むことを特徴とする。   The fifteenth aspect of the present invention is characterized in that the scene setting information includes at least information indicating a place on the story of each scene.

本願の第16の発明は、前記シーン設定情報が、少なくとも各セグメントのストーリー上における時代を表わす情報を含むことを特徴とする。   The sixteenth invention of the present application is characterized in that the scene setting information includes at least information representing an age on a story of each segment.

本願の第17の発明は、前記シーン設定情報が、少なくとも各セグメントのストーリー上における天候を表わす情報を含むことを特徴とする。   The seventeenth invention of the present application is characterized in that the scene setting information includes at least information indicating the weather on the story of each segment.

本願の第18の発明は、前記シーン設定情報が、少なくとも各セグメントのストーリー上における地域を表わす情報を含むことを特徴とする。   According to an eighteenth aspect of the present invention, the scene setting information includes at least information representing a region on a story of each segment.

本願の第19の発明は、外部からの要求を受けて、映像データを1以上の任意の数のフレームで分割したセグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを、前記セグメント単位で送信することを特徴とする。   According to a nineteenth aspect of the present application, in response to an external request, segment delimiter information indicating the start time and / or section of a segment obtained by dividing video data into one or more arbitrary numbers of frames, and imaging of the video data At least one of camera work information, photographing illumination information, and scene setting information at the time is transmitted in the segment unit.

本願の第20の発明は、表示装置に表示すべき映像データと、該映像データを1以上の任意の数のフレームで分割したセグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記セグメント単位で前記映像データに対応付けられた、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを受信する受信手段と、前記セグメント区切り情報と、前記映像データ及び/又はカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとに基づいて、前記表示装置の周辺に設置された照明装置の照明光を制御する制御手段とを備えたことを特徴とする。   According to a twentieth aspect of the present invention, video data to be displayed on a display device, segment delimiter information indicating a start time and / or a section of a segment obtained by dividing the video data into one or more arbitrary numbers of frames, and the segment Receiving means for receiving at least one of camera work information, shooting illumination information, and scene setting information at the time of shooting of the video data, which is associated with the video data in units; the segment delimiter information; and the video Control means for controlling the illumination light of the illumination device installed around the display device based on at least one of data and / or camera work information, photographing illumination information, and scene setting information. Features.

本願の第21の発明は、前記制御手段が、前記照明装置の照明光を、前記セグメント単位で切替え制御することを特徴とする。   A twenty-first invention of the present application is characterized in that the control means switches and controls the illumination light of the illumination device in units of segments.

本願の第22の発明は、前記映像データの特徴量を用いて、少なくとも前記映像データの特徴量を用いて、前記照明装置の照明光を制御する映像参照モードと、前記映像データの特徴量を用いることなく、前記撮影照明情報、シーン設定情報の少なくともいずれかのみを用いて、前記照明装置の照明光を制御する付加情報参照モードとを備えたことを特徴とする。   According to a twenty-second aspect of the present application, a video reference mode for controlling illumination light of the lighting device using at least a feature amount of the video data, and a feature amount of the video data are used. And an additional information reference mode for controlling illumination light of the illumination device by using at least one of the photographic illumination information and scene setting information without using it.

本願の第23の発明は、前記映像参照モードが設定されているとき、前記制御手段が、前記カメラワーク情報に応じて、前記映像データの特徴量を検出する画面領域を制限することを特徴とする。   A twenty-third invention of the present application is characterized in that, when the video reference mode is set, the control means limits a screen area for detecting a feature amount of the video data according to the camera work information. To do.

本願の第24の発明は、前記映像参照モードが設定されているとき、前記制御手段は、前記映像データの特徴量に基づいて求めた照明推定値と、前記撮影照明情報、シーン設定情報の少なくともいずれかに基づいて求めた照明推定値とを用いて、前記照明装置の照明光を制御することを特徴とする視聴環境制御装置。   In a twenty-fourth aspect of the present application, when the video reference mode is set, the control means includes at least an estimated illumination value obtained based on a feature amount of the video data, the photographic illumination information, and the scene setting information. A viewing environment control apparatus that controls illumination light of the illumination apparatus using an estimated illumination value obtained based on any of the above.

本願の第25の発明は、前記視聴環境制御装置と、該視聴環境制御装置によって視聴環境照明光を制御される照明装置とを備えることを特徴とする。   A twenty-fifth aspect of the present invention includes the viewing environment control device and a lighting device whose viewing environment illumination light is controlled by the viewing environment control device.

本願の第26の発明は、1以上のフレームから構成される映像データを送信するデータ送信方法において、前記映像データを1以上の任意の数のフレームから構成されるセグメントに分割し、各セグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを、前記セグメント単位で前記映像データに付加して送信することを特徴とする。   According to a twenty-sixth aspect of the present invention, in a data transmission method for transmitting video data composed of one or more frames, the video data is divided into segments composed of an arbitrary number of one or more frames. Segment segment information indicating a start time and / or section and at least one of camera work information, shooting illumination information, and scene setting information at the time of shooting the video data are added to the video data in units of segments. It is characterized by transmitting.

本願の第27の発明は、外部からの要求を受けて、映像データを1以上の任意の数のフレームで分割したセグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを、前記セグメント単位で送信することを特徴とする。   According to a twenty-seventh aspect of the present application, in response to an external request, segment delimiter information indicating the start time and / or section of a segment obtained by dividing video data into one or more arbitrary numbers of frames, and imaging of the video data At least one of camera work information, photographing illumination information, and scene setting information at the time is transmitted in the segment unit.

本願の第28の発明は、表示装置に表示すべき映像データと、該映像データを1以上の任意の数のフレームで分割したセグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記セグメント単位で前記映像データに対応付けられた、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを受信し、前記セグメント区切り情報と、前記映像データ及び/又はカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとに基づいて、前記表示装置の周辺に設置された照明装置の照明光を制御することを特徴とする。   According to a twenty-eighth aspect of the present invention, video data to be displayed on a display device, segment delimiter information indicating a start time and / or a section of a segment obtained by dividing the video data by one or more arbitrary frames, and the segment Receiving at least one of camera work information, shooting illumination information, and scene setting information at the time of shooting of the video data, which is associated with the video data in units, and receives the segment delimiter information, the video data, and / or Or the illumination light of the illuminating device installed around the said display apparatus is controlled based on at least any one of camera work information, imaging | photography illumination information, and scene setting information.

本発明によれば、映像の撮影時における場(雰囲気)に応じた最適な視聴環境を実現することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to implement | achieve the optimal viewing-and-listening environment according to the place (atmosphere) at the time of imaging | photography of an image | video.

<第1の実施形態>
以下、本発明の視聴環境制御システムの第1実施形態について、図1乃至図34とともに詳細に説明する。ここで、図1は本実施形態の視聴環境制御システムにおける映像送信装置の要部概略構成を示すブロック図、図2は本実施形態の視聴環境制御システムにおける映像送信装置の出力ビットストリーム例を示す説明図、図3は本実施形態の視聴環境制御システムにおける付加データのデータ構造の一例を説明するための図、図4は映像の構成要素を説明するための説明図、図5は本実施形態の視聴環境制御システムにおけるシーン区切り情報の一例を示す説明図である。
<First Embodiment>
Hereinafter, a first embodiment of the viewing environment control system of the present invention will be described in detail with reference to FIGS. Here, FIG. 1 is a block diagram showing a schematic configuration of a main part of a video transmission apparatus in the viewing environment control system of the present embodiment, and FIG. 2 shows an example of an output bit stream of the video transmission apparatus in the viewing environment control system of the present embodiment. FIG. 3 is a diagram for explaining an example of the data structure of additional data in the viewing environment control system of the present embodiment, FIG. 4 is a diagram for explaining the components of the video, and FIG. 5 is the present embodiment. It is explanatory drawing which shows an example of the scene delimiter information in the viewing-and-listening environment control system.

図6は本実施形態の視聴環境制御システムにおけるカメラワーク情報の一例を示す説明図、図7はカメラポジション及びカメラアングルを説明するための図、図8は被写体サイズを説明するための図、図9は被写体数を説明するための図、図10は本実施形態の視聴環境制御システムにおける撮影照明情報の一例を示す説明図、図11は撮影照明光の水平方向及び垂直方向の区分を説明するための説明図、図12は本実施形態の視聴環境制御システムにおけるシーン設定情報の一例を示す説明図である。   6 is an explanatory diagram showing an example of camera work information in the viewing environment control system of the present embodiment, FIG. 7 is a diagram for explaining the camera position and camera angle, and FIG. 8 is a diagram for explaining the subject size. 9 is a diagram for explaining the number of subjects, FIG. 10 is an explanatory diagram showing an example of photographing illumination information in the viewing environment control system of the present embodiment, and FIG. 11 is a diagram for explaining division of photographing illumination light in the horizontal direction and the vertical direction. FIG. 12 is an explanatory diagram showing an example of scene setting information in the viewing environment control system of the present embodiment.

また、図13は本実施形態の視聴環境制御システムにおける映像受信装置の要部概略構成を示すブロック図、図14は図13における照明制御データ生成部の構成を示すブロック図、図15は本実施形態の視聴環境制御システムにおける仮想視聴環境空間を示す説明図、図16は本実施形態の視聴環境制御システムにおける映像参照モード時の照明推定処理を示すフローチャート、図17は本実施形態の視聴環境制御システムにおける付加情報参照モード時の照明推定処理を示すフローチャートである。   FIG. 13 is a block diagram showing a schematic configuration of the main part of the video receiving apparatus in the viewing environment control system of this embodiment, FIG. 14 is a block diagram showing the configuration of the illumination control data generation unit in FIG. 13, and FIG. FIG. 16 is a flowchart showing the illumination estimation processing in the video reference mode in the viewing environment control system of this embodiment, and FIG. 17 is the viewing environment control of this embodiment. It is a flowchart which shows the illumination estimation process at the time of the additional information reference mode in a system.

図18は本実施形態の視聴環境制御システムにおけるカメラワーク情報を用いた照明推定処理を示すフローチャート、図19は本実施形態の視聴環境制御システムにおけるカメラポジション及びカメラアングルによって決まる場(雰囲気)推定対象領域例を示す説明図、図20は本実施形態の視聴環境制御システムにおけるカメラポジションによって決まる場(雰囲気)推定対象領域例を示す説明図、図21は本実施形態の視聴環境制御システムにおけるカメラアングルによって決まる場(雰囲気)推定対象領域例を示す説明図である。   FIG. 18 is a flowchart showing illumination estimation processing using camera work information in the viewing environment control system of this embodiment, and FIG. 19 is a place (atmosphere) estimation target determined by the camera position and camera angle in the viewing environment control system of this embodiment. FIG. 20 is an explanatory diagram showing an example of a field (atmosphere) estimation target area determined by the camera position in the viewing environment control system of the present embodiment, and FIG. 21 is a camera angle in the viewing environment control system of the present embodiment. It is explanatory drawing which shows the example of a field (atmosphere) estimation object area | region decided by.

図22は本実施形態の視聴環境制御システムにおける被写体サイズ及び被写体数によって決まる場(雰囲気)推定対象領域例を示す説明図、図23は本実施形態の視聴環境制御システムにおける被写体サイズによって決まる場(雰囲気)推定対象領域例を示す説明図、図24は本実施形態の視聴環境制御システムにおける被写体数によって決まる場(雰囲気)推定対象領域例を示す説明図、図25は本実施形態の視聴環境制御システムにおける画面特徴量検出領域を示す図である。   FIG. 22 is an explanatory view showing an example of a field (atmosphere) estimation target area determined by the subject size and the number of subjects in the viewing environment control system of the present embodiment, and FIG. 23 is a field (depending on the subject size in the viewing environment control system of the present embodiment ( FIG. 24 is an explanatory diagram illustrating an example of a field (atmosphere) estimation target area determined by the number of subjects in the viewing environment control system of the present embodiment. FIG. 25 is a viewing environment control of the present embodiment. It is a figure which shows the screen feature-value detection area | region in a system.

さらに、図26は本実施形態の視聴環境制御システムにおける撮影照明情報を用いた照明推定処理を示すフローチャート、図27は本実施形態の視聴環境制御システムにおける制御データの一例を示す説明図、図28は本実施形態の視聴環境制御システムにおける照明方向情報と対応する照明装置IDとの関係例を示す説明図、図29は図37に示した映像シーンに対応した撮影照明情報の例を示す説明図、図30は本実施形態の視聴環境制御システムにおける照明光の色再現範囲を表す説明図、図31は図38に示した映像シーンに対応した撮影照明情報を示す説明図である。   Further, FIG. 26 is a flowchart showing illumination estimation processing using the photographic illumination information in the viewing environment control system of the present embodiment, FIG. 27 is an explanatory diagram showing an example of control data in the viewing environment control system of the present embodiment, and FIG. Is an explanatory diagram showing an example of the relationship between the illumination direction information and the corresponding illumination device ID in the viewing environment control system of the present embodiment, and FIG. 29 is an explanatory diagram showing an example of the photographic illumination information corresponding to the video scene shown in FIG. 30 is an explanatory diagram showing the color reproduction range of illumination light in the viewing environment control system of the present embodiment, and FIG. 31 is an explanatory diagram showing photographing illumination information corresponding to the video scene shown in FIG.

図32は本実施形態の視聴環境制御システムにおけるシーン設定情報を用いた照明推定処理を示すフローチャート、図33は本実施形態の視聴環境制御システムにおけるシーン設定情報と制御データとの関係例を示す説明図、図34は本実施形態の視聴環境制御システムにおける照明光の色再現範囲を表す別の説明図である。   FIG. 32 is a flowchart showing illumination estimation processing using scene setting information in the viewing environment control system of this embodiment, and FIG. 33 is an explanation showing an example of the relationship between scene setting information and control data in the viewing environment control system of this embodiment. FIG. 34 and FIG. 34 are other explanatory views showing the color reproduction range of illumination light in the viewing environment control system of the present embodiment.

本実施形態における映像送信装置(データ送信装置)は、図1に示すように、映像データ、音声データ、付加データとして供給されたセグメント区切りデータと、シーン設定情報、撮影照明情報、カメラワーク情報のいずれか少なくとも1つとをトランスポートストリームパケット(Transport Stream packet;TSP)形式に分割して多重するデータ多重部1と、データ多重部1の出力データに対して誤り訂正符号を付加する等した上で変調を施し、放送データとして伝送路に送出する送信部2とを備えている。   As shown in FIG. 1, the video transmission apparatus (data transmission apparatus) in this embodiment includes segment data supplied as video data, audio data, and additional data, scene setting information, photographing illumination information, and camera work information. A data multiplexer 1 that divides and multiplexes at least one of them into a transport stream packet (TSP) format, and an error correction code is added to the output data of the data multiplexer 1. And a transmission unit 2 that performs modulation and sends the data as broadcast data to a transmission line.

図2はMPEG2(Moving Picture Experts Group 2)−Systemsで規定されたトランスポートストリームパケット(TSP)の構成の概略を示す説明図であり、11はTSPのデータ内容その他のMPEG2−Systemsで規定された情報が記述されたヘッダ、12は拡張ヘッダ(アダプテーション・フィールド)であって送信者が決めた情報を記述できる部分、13は映像、音声などのデータから構成されるペイロードである。   FIG. 2 is an explanatory diagram showing an outline of the structure of a transport stream packet (TSP) defined by MPEG2 (Moving Picture Experts Group 2) -Systems, and 11 is the data content of TSP and other data defined by MPEG2-Systems. A header in which information is described, 12 is an extension header (adaptation field) that can describe information determined by the sender, and 13 is a payload composed of data such as video and audio.

本実施形態では、例えば映像データ及び音声データをペイロード13で伝送し、付加データを拡張ヘッダ(アダプテーション・フィールド)12で伝送することが可能に構成されている。尚、映像データ、音声データ、付加データのそれぞれの異なるデータストリームを多重して伝送するようにしてもよい。さらに、この付加データは、テキスト形式で記述されてもよいし、符号化されてバイナリ形式で記述されてもよい。   In the present embodiment, for example, video data and audio data can be transmitted using the payload 13, and additional data can be transmitted using the extension header (adaptation field) 12. Note that different data streams of video data, audio data, and additional data may be multiplexed and transmitted. Further, the additional data may be described in a text format, or may be encoded and described in a binary format.

図3は付加データのデータ構造の一例を説明するための図である。本実施形態においては、映像データを1以上の任意の数のフレームから構成されるセグメントに分割し、各セグメントに関する各種付加情報がセグメント単位で記述されている。   FIG. 3 is a diagram for explaining an example of the data structure of the additional data. In the present embodiment, video data is divided into segments each composed of an arbitrary number of one or more frames, and various additional information related to each segment is described in segment units.

ここで、セグメントとは、映像コンテンツの構成を時間方向に任意の長さで区切ったものとして定義され、例えばシーン、ショット、フレームなどに対応して区切られたものである。例えば、セグメントがシーンに対応する場合、ショット単位で存在する情報はセグメント内にまとめて記述する。セグメントがショットに対応する場合、シーン単位に存在する情報は、対応するセグメント全てで同じものを繰り返し記述する。また、セグメントがフレームに対応する場合、シーン単位やショット単位で存在する情報は、対応するセグメント全てで同じものを繰り返し記述する。   Here, the segment is defined as a configuration in which video content is divided by an arbitrary length in the time direction. For example, the segment is a segment corresponding to a scene, a shot, a frame, or the like. For example, when a segment corresponds to a scene, information existing in shot units is collectively described in the segment. When a segment corresponds to a shot, the same information is repeatedly described in all the corresponding segments as information existing in a scene unit. In addition, when a segment corresponds to a frame, the same information is repeatedly described in all the corresponding segments as information existing in scene units and shot units.

尚、視聴環境照明の制御においては、主に場面の状況が一定となるシーン単位での制御が多いが、撮影の状況が一定となるショット単位で制御することも少なからずある。また、時にはフレーム単位でのきめ細やかな制御が望ましい場合も存在することから、表示データの内容によって視聴環境照明を一定に制御すべきことが多い単位でセグメントを区切ることにより、付加するデータ量の増加を抑制して、効率的に付加データを記述することができる。   Note that the viewing environment illumination is mainly controlled in units of scenes in which the situation of the scene is constant, but is often controlled in units of shots in which the situation of shooting is constant. In some cases, fine-grained control in units of frames is sometimes desirable, so the amount of data to be added can be reduced by dividing the segments into units that often require the viewing environment lighting to be controlled to be constant depending on the content of the display data. The additional data can be described efficiently while suppressing the increase.

次に、シーンやショットを含む映像の構成について、図4を参照して説明する。連続する動画像を構成する映像データは、図4に示すように、3層(レイヤ)構成に分けて考えることができる。映像(Video)を構成する第1レイヤは、フレーム(Frame)である。フレームは物理的なレイヤであり、単一の2次元画像を指す。フレームは、通常、毎秒30フレームのレートで得られる。第2レイヤはショット(Shot)である。ショットは単一のカメラにより撮影されたフレーム列である。そして、第3レイヤがシーン(Scene)である。シーンはストーリー的なつながりを有するショット列である。   Next, the configuration of a video including scenes and shots will be described with reference to FIG. Video data constituting a continuous moving image can be considered in a three-layer structure as shown in FIG. The 1st layer which comprises an image | video (Video) is a flame | frame (Frame). A frame is a physical layer and refers to a single two-dimensional image. Frames are usually obtained at a rate of 30 frames per second. The second layer is a shot. A shot is a sequence of frames taken by a single camera. The third layer is a scene. A scene is a sequence of shots having a story-like connection.

セグメント区切り情報は、図5に示すように、セグメント番号、開始時刻、区間情報により構成されている。セグメント開始時刻は、映像データ、音声データそれぞれの再生時間情報を示すために付加されたタイムコードにより指定されており、例えば図5に示すように、映像データの時間(h):分(m):秒(s):フレーム(f)を示す情報により構成されている。セグメント区間は、当該セグメントの開始タイムコードを示す時間から次のセグメントの開始タイムコードとの期間を示す時間(h):分(m):秒(s):フレーム(f)を示す情報により構成されている。   As shown in FIG. 5, the segment delimiter information is composed of a segment number, a start time, and section information. The segment start time is specified by a time code added to indicate playback time information of each of the video data and audio data. For example, as shown in FIG. 5, the time (h): minute (m) of the video data : Second (s): It is composed of information indicating a frame (f). The segment section is composed of information indicating a time (h): minute (m): second (s): frame (f) indicating a period from the time indicating the start time code of the segment to the start time code of the next segment. Has been.

次に、映像データの撮影時におけるカメラワーク状況を示すカメラワーク情報について、図6とともに詳細に説明する。本実施形態では、カメラワーク情報として、映像撮影時におけるカメラポジションを表わすポジション情報、映像撮影時におけるカメラアングルを表わすアングル情報、映像撮影時における被写体のサイズを表わす被写体サイズ情報、映像撮影時における被写体の数を表わす被写体数情報、映像撮影時におけるカメラの動きを表わすカメラの動き情報、映像撮影に用いられたカメラレンズの種別を表わすレンズ種別情報を有している。これらの情報はいずれも、映像データの撮影時における照明環境を推定し、各セグメントの雰囲気や臨場感を照明光によって演出するために有用な情報である。以下、それぞれの情報について説明する。   Next, camera work information indicating the camera work status at the time of shooting video data will be described in detail with reference to FIG. In this embodiment, as camera work information, position information indicating the camera position at the time of video shooting, angle information indicating the camera angle at the time of video shooting, subject size information indicating the size of the subject at the time of video shooting, subject at the time of video shooting Information on the number of subjects, camera motion information representing the movement of the camera during video shooting, and lens type information representing the type of camera lens used for video shooting. All of these pieces of information are useful information for estimating the illumination environment at the time of shooting video data and producing the atmosphere and presence of each segment with illumination light. Hereinafter, each information is demonstrated.

まず、映像撮影時のカメラのポジションとして、ハイポジション(ハイポジ)、目高、ローポジション(ローポジ)に分類される。図7(a)に示すように、ハイポジは、後述するロングショットに活用されることが多いポジションで、広大な広がりを表現したり、人垣越しなどで用いられる高い位置である。目高は、通常のポジションであり、被写体の目の高さの位置である。ローポジは、子供の目線などの低い位置である。   First, camera positions at the time of video shooting are classified into high position (high positive), eye height, and low position (low positive). As shown in FIG. 7A, the high positive is a position that is often used for a long shot, which will be described later, and is a high position that expresses a vast expanse or is used for crossing a crowd. The eye height is a normal position and the eye height position of the subject. The low positive is a low position such as a child's eyes.

屋外撮影の場合、撮影画面内における水平線(地平線)の高さは、ハイポジでは低く、ローポジでは高い位置になる傾向があるため、映像撮影時におけるカメラポジションに適応して、映像特徴量を検出する画面領域を制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、ポジション情報として、各セグメントの映像撮影時におけるカメラポジションが、ハイポジ/目高/ローポジのいずれに属するかを示す2ビットの記述を、カメラワーク情報の中に含有している。   In the case of outdoor shooting, the height of the horizontal line (horizon line) in the shooting screen tends to be low at the high positive position and high at the low positive position. Therefore, the video feature amount is detected according to the camera position at the time of video shooting. By limiting the screen area and controlling the viewing environment illumination described later, the realistic sensation of the display video scene can be improved. Therefore, in the present embodiment, as the position information, a 2-bit description indicating whether the camera position at the time of video shooting of each segment belongs to high positive / eye height / low positive is included in the camera work information. Yes.

また、映像撮影時のカメラのアングルとして、ハイアングル(俯瞰)、水平アングル(目線)、ローアングル(あおり)に分類される。図7(b)に示すように、ハイアングルは、下方を見下ろす角度での撮影方法であり、全体の客観的な状況説明などで用いられる。水平アングルは、カメラを水平方向に向けた、自然で標準的なアングルである。ローアングルは、上方を見上げる角度での撮影方法であり、威圧的、優位、勝利などを表現する際に用いられる。   Further, the camera angle at the time of video shooting is classified into a high angle (overhead view), a horizontal angle (line of sight), and a low angle (tilt). As shown in FIG. 7B, the high angle is a method of photographing at an angle looking down, and is used for an overall objective situation description. The horizontal angle is a natural and standard angle in which the camera is directed horizontally. Low angle is a method of shooting at an angle looking upward, and is used to express intimidation, superiority, victory, and the like.

屋外撮影の場合、撮影画面内における水平線(地平線)の高さは、ハイアングルでは高く、ローアングルでは低い位置になる傾向があるため、映像撮影時におけるカメラアングルに適応して、映像特徴量を検出する画面領域を制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、アングル情報として、各セグメントの映像撮影時におけるカメラアングルが、ハイアングル(俯瞰)/水平アングル(目線)/ローアングル(あおり)のいずれに属するかを示す2ビットの記述を、カメラワーク情報の中に含有している。   For outdoor shooting, the horizontal line (horizon) in the shooting screen tends to be high at high angles and low at low angles. The presence of the display video scene can be improved by limiting the screen area to be detected and controlling the viewing environment illumination described later. Therefore, in this embodiment, as the angle information, a 2-bit description indicating whether the camera angle at the time of video shooting of each segment belongs to high angle (overhead view), horizontal angle (line of sight), or low angle (tilt). Is included in the camera work information.

さらに、映像撮影時の被写体サイズ(画面サイズとも称す)として、ロングショット、フルフィギュア、ニーショット、ウエストショット、バストショット、アップショット、クローズアップショット、ビッグクローズアップショットに分類される。図8に示すように、ロングショット(L.S.)は、スタジオ風景や野外の広角ショットであり、全体の位置関係や、ストーリーの始まりと終わりに用いられることが多い。フルフィギュア(F.F.)は、撮影画面内に被写体の全身(立ったときの足先から頭までの全身像、座ったときの全身像)を納めたサイズとなる。ニーショット(K.S.)は、撮影画面内に被写体の膝上から頭までを入れたサイズとなる。   Furthermore, the subject size (also referred to as screen size) at the time of video shooting is classified into a long shot, a full figure, a knee shot, a waist shot, a bust shot, an up shot, a close-up shot, and a big close-up shot. As shown in FIG. 8, a long shot (LS) is a studio landscape or an outdoor wide-angle shot, and is often used for the overall positional relationship or the beginning and end of a story. The full figure (F.F.) has a size in which the whole body of the subject (a whole body image from the toes to the head when standing, a whole body image when sitting) is included in the shooting screen. The knee shot (K.S.) is a size in which the subject is placed from above the knee to the head in the shooting screen.

ウエストショット(W.S.)は、撮影画面内に被写体の腰か腰上から頭までを入れた半身像のサイズとなり、ニュース、話し手の基本的ショットに用いられ、テロップを入れ易いのが特徴である。バストショット(B.S.)は、撮影画面内に被写体の胸か胸上から頭までを入れた上半身のサイズとなり、これは人物像で最も多く使われるサイズである。アップショット(U.S.)は、被写体の表情、盛り上げを表現するショットである。クローズアップショット(C.U.)は、アップを強調するショットであり、被写体の頭(髪の毛)が切れる程度のサイズとなる。ビッグクローズアップショット(B.C.U.)は、クローズアップを強調する際に用いられる。   Waist shot (WS) is the size of a half-body image with the subject's waist or hips up to the head in the shooting screen, and is used for basic news and talker shots, making it easy to insert telops. It is. The bust shot (B.S.) is the size of the upper body with the subject's chest or the top of the chest up to the head in the shooting screen, and this is the size most often used for human images. The up shot (US) is a shot that expresses the expression and excitement of the subject. The close-up shot (C.U.) is a shot that emphasizes up, and has a size that can cut the head (hair) of the subject. A big close-up shot (B.C.U.) is used to emphasize close-up.

このように、映像撮影時の被写体サイズ(画面サイズ)によって、背景の領域面積は変わるので、映像撮影時における被写体サイズ(画面サイズ)に適応して、映像特徴量を検出するセグメントを制限したり、映像特徴量を検出する画面領域を制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、被写体サイズ情報として、各セグメントの映像撮影時における被写体のサイズが、ロングショット/フルフィギュア/ニーショット/ウエストショット/バストショット/アップショット/クローズアップショット/ビッグクローズアップショットのいずれに属するかを示す3ビットの記述を、カメラワーク情報の中に含有している。   In this way, the area of the background changes depending on the subject size (screen size) at the time of video shooting, so the segments for detecting video feature values can be limited according to the subject size (screen size) at the time of video shooting. By limiting the screen area for detecting the video feature amount and controlling the viewing environment illumination described later, it is possible to improve the realism of the display video scene. Therefore, in the present embodiment, as subject size information, the subject size at the time of video shooting of each segment is long shot / full figure / knee shot / waist shot / bust shot / up shot / close up shot / big close up shot. Is included in the camera work information.

また、映像撮影時の被写体の数として、ワンショット(1S)、ツーショット(2S)、スリーショット(3S)、グループショット(GS)、風景(背景)のみに分類される。図9に示すように、ワンショットは前景となる被写体が1人(1つ)のみ、ツーショットは前景となる被写体が2人(2つ)、スリーショットは前景となる被写体が3人(3つ)、グループショットは前景となる被写体が4以上の多数である場合のショットである。   Further, the number of subjects at the time of video shooting is classified into only one shot (1S), two shot (2S), three shot (3S), group shot (GS), and landscape (background). As shown in FIG. 9, one shot has only one (1) foreground subject, two shots have two (2) foreground subjects, and three shots have three foreground subjects (three). ), A group shot is a shot when there are four or more subjects as foregrounds.

このように、映像撮影時の被写体数によって、背景の領域面積は変わるので、映像撮影時における被写体数に適応して、映像特徴量を検出する画面領域を制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、被写体数情報として、各セグメントの映像撮影時における被写体の数が、ワンショット(1S)/ツーショット(2S)/スリーショット(3S)/グループショット(GS)/風景(背景)のみのいずれに属するかを示す3ビットの記述を、カメラワーク情報の中に含有している。   In this way, the area of the background changes depending on the number of subjects at the time of video shooting. Therefore, the screen area for detecting video feature values is limited to control the viewing environment illumination described later according to the number of subjects at the time of video shooting. By doing so, the presence of the displayed video scene can be improved. Therefore, in this embodiment, as the number-of-subjects information, the number of subjects at the time of video shooting of each segment is one shot (1S) / two shot (2S) / three shot (3S) / group shot (GS) / landscape (background). ) Only includes a 3-bit description indicating that it belongs to the camera work information.

さらに、映像撮影時のカメラの動きとして、フィックス、パン、チルト(ティルト)、ロール、ズーム、ドリー、フォローに分類される。フィックスは、画角を変えるズーム操作などは行わないで、カメラ位置も動かさない撮影方法である。パンは、カメラを水平方向に振って、周囲を見せる撮影方法であり、状況説明や左右のものの位置関係を見せたいときなどに使用される。チルト(ティルト)は、カメラを垂直方向に振る撮影方法であり、下から上(上から下)に向かって撮ったり、木の幹に沿って上に振っていき、枝や葉を撮るようなときに利用される。   Furthermore, the movement of the camera at the time of video recording is classified into fix, pan, tilt (tilt), roll, zoom, dolly, and follow. Fix is a shooting method that does not move the camera position without zooming to change the angle of view. Pan is a shooting method that shows the surroundings by shaking the camera in the horizontal direction, and is used when it is desired to explain the situation or show the positional relationship between the left and right objects. Tilt is a shooting method that shakes the camera vertically, such as shooting from the bottom to the top (from top to bottom) or swinging up along the trunk of a tree to shoot branches and leaves. Sometimes used.

ロールは、カメラを回転させる撮影方法、ズームは、ズームレンズによって大写しや広いサイズにする撮影方法である。ドリーは、カメラ自体が動きながら撮影する手法、フォローは、走る人や乗り物など移動する被写体を撮る場合に、被写体の動きを追いかけながら撮影する手法である。   The roll is a photographing method for rotating the camera, and the zoom is a photographing method for making a large image or a wide size with a zoom lens. Dolly is a technique for shooting while the camera itself moves, and follow is a technique for shooting while following the movement of the subject when shooting a moving subject such as a running person or a vehicle.

このように、映像撮影時のカメラの動きによって、背景の領域面積や特徴量が変わるので、映像撮影時におけるカメラの動きに適応して、映像特徴量を検出するセグメントを制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、カメラの動き情報として、各セグメントの映像撮影時におけるカメラの動きが、フィックス/パン/チルト(ティルト)/ロール/ズーム/ドリー/フォローのいずれに属するかを示す3ビットの記述を、カメラワーク情報の中に含有している。   As described above, the area of the background and the feature amount change depending on the movement of the camera at the time of video shooting. Therefore, the segment for detecting the video feature amount is limited according to the movement of the camera at the time of video shooting, and the viewing described later. By controlling the environmental lighting, it is possible to improve the presence of the displayed video scene. Therefore, in this embodiment, as the camera motion information, 3 bits indicating whether the camera motion at the time of video shooting of each segment belongs to fix / pan / tilt (tilt) / roll / zoom / dolly / follow. Is included in the camera work information.

また、映像撮影時に用いられるレンズワークとして、標準レンズ、広角レンズ、望遠レンズ、マクロレンズに分類される。標準レンズは、人間の視野に近く、自然な遠近感の撮影が可能なレンズである。広角レンズは、画角が広く、広い範囲を撮影することが可能なレンズであり、風景や集合写真の撮影などによく利用される。望遠レンズは、遠くの被写体を引き寄せて大きく撮影することが可能なレンズであり、実際に近づけないスポーツのワンシーン、ポートレイトの撮影などによく利用される。マクロレンズは、接近撮影が可能なレンズであり、草花や昆虫のクローズアップ撮影に適している。   Further, the lens work used at the time of video shooting is classified into a standard lens, a wide-angle lens, a telephoto lens, and a macro lens. The standard lens is a lens that is close to the human visual field and capable of capturing a natural perspective. The wide-angle lens has a wide angle of view and can shoot a wide range, and is often used for taking a landscape or a group photo. A telephoto lens is a lens that can shoot a large subject by attracting a far-off subject, and is often used for one scene of a sport that cannot be actually approached, portrait photography, and the like. The macro lens is a close-up lens that is suitable for close-up photography of flowers and insects.

このように、映像撮影時のレンズワークによって、背景の領域面積が変わるので、映像撮影時におけるカメラの動きに適応して、映像特徴量を検出するセグメントを制限し、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、レンズ種別情報として、各セグメントの映像撮影時に用いられたカメラレンズの種別が、標準レンズ/広角レンズ/望遠レンズ/マクロレンズのいずれに属するかを示す2ビットの記述を、カメラワーク情報の中に含有している。   In this way, the area of the background changes depending on the lens work at the time of video shooting, so the segment for detecting video feature values is limited to control the viewing environment illumination described later, adapting to the movement of the camera at the time of video shooting By doing so, the presence of the displayed video scene can be improved. Therefore, in the present embodiment, as the lens type information, a 2-bit description indicating whether the type of the camera lens used at the time of shooting the image of each segment belongs to a standard lens / a wide-angle lens / a telephoto lens / a macro lens. , Contained in camera work information.

尚、カメラワーク情報に含まれる各種情報は上述したものに限定されず、もっと詳細な情報を追加するなどしてもよいことは明らかである。また、上述したカメラワーク情報は、台本(シナリオもしくは脚本とも呼ぶ)に基づいて作成され、映像撮影現場で用いられるカメラワークプログラムなどを利用して生成することができ、この場合、新たにカメラワーク情報を作成する作業を省くことが可能となる。また、このカメラワーク情報は、ショット単位で変化することが多いため、セグメントをショットに合わせて区切ることにより、カメラワーク情報をセグメント単位で効率良く記述することができる。   It should be noted that various information included in the camera work information is not limited to the above-described information, and it is obvious that more detailed information may be added. Further, the camera work information described above is created based on a script (also called a scenario or a script) and can be generated using a camera work program or the like used in a video shooting site. It becomes possible to omit the work of creating information. Further, since this camera work information often changes in units of shots, the camera work information can be efficiently described in units of segments by dividing the segments in accordance with the shots.

次に、映像データの撮影時における照明状況を示す撮影照明情報について、図10とともに詳細に説明する。本実施形態では、撮影照明情報として、映像撮影時に用いられた照明のライティング種別を表わすライティング種別情報、映像撮影時に用いられた照明光源の性質を表わす照明性質情報、映像撮影時に用いられた照明の光の入射方向(水平方向)を表わす照明光方向(水平方向)情報、の映像撮影時に用いられた照明の光の入射方向(垂直方向)を表わす照明光方向(垂直方向)情報、の映像撮影時に用いられた照明の光の強度を表わす照明強度情報、映像撮影時に用いられた照明の光の色温度を表わす照明色温度情報を有している。これらの情報はいずれも、映像データの撮影時における照明環境を推定し、各セグメントの雰囲気や臨場感を照明光によって演出するために有用な情報である。以下、それぞれの情報について説明する。   Next, photographing illumination information indicating a lighting state at the time of photographing video data will be described in detail with reference to FIG. In the present embodiment, as shooting illumination information, lighting type information indicating the lighting type of the illumination used at the time of video shooting, lighting property information indicating the characteristics of the illumination light source used at the time of video shooting, and the illumination used at the time of video shooting Video shooting of illumination light direction (horizontal direction) information representing the incident direction (horizontal direction) of light, and illumination light direction (vertical direction) information representing the incident direction (vertical direction) of the illumination light used during video shooting Illumination intensity information representing the intensity of the illumination light used at times, and illumination color temperature information representing the color temperature of the illumination light used at the time of video shooting. All of these pieces of information are useful information for estimating the illumination environment at the time of shooting video data and producing the atmosphere and presence of each segment with illumination light. Hereinafter, each information is demonstrated.

まず、一般的によく用いられる撮影照明のライティング種別として、キーライト、フィルライト(おさえ)、タッチライト、ベースライトが知られている。キーライトは、主光源によるものであって、その場面の設定上の光、中心となる光であり、例えば昼間の室外のロケーションでは普通太陽光線に相当する。フィルライト(おさえ)は、補助光源によるものであって、影などを消し、被写体を明るくしたりツヤをつけたりする光であり、例えば昼間の室外のロケーションでレフ板により太陽光を反射し、暗い所に当てているのがこの光である。   First, keylights, filllights, touchlights, and baselights are known as commonly used lighting types for photographing illumination. The key light is generated by the main light source, and is light on the setting of the scene, which is a central light. For example, in a location outside the room during the daytime, the key light corresponds to ordinary sunlight. Fill light is an auxiliary light source that erases shadows and brightens or shines the subject. For example, it reflects sunlight by a reflector at an outdoor location in the daytime and is dark. It is this light that hits the place.

また、タッチライトは、被写体を背景と分離したり、立体感を与えたりするための光であり、また、暗さを表現するために斜め後ろから照射して有効な光である。ベースライトは、全体を平均的に明るくしたり、強いコントラストを和らげるために用いる光である。   The touch light is light for separating the subject from the background or giving a three-dimensional effect, and is light that is effective by being irradiated obliquely from behind to express darkness. Base light is light used to brighten the entire image on average or to relieve strong contrast.

通常は、1以上のライティングを組み合わせて用いた撮影が行われるため、各ライティング種別毎の照明状況に適応して、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。従って、本実施形態では、ライティング種別情報として、各セグメントの映像撮影時における照明光が、キーライト/フィルライト(おさえ)/タッチライト/ベースライトのいずれに属するかを示す2ビットの記述を、撮影照明情報の中に含有している。   Usually, shooting is performed using a combination of one or more lightings. Therefore, the realism of the display video scene is improved by controlling the viewing environment lighting described later in accordance with the lighting conditions for each lighting type. be able to. Therefore, in the present embodiment, as the lighting type information, a 2-bit description indicating whether the illumination light at the time of video shooting of each segment belongs to key light / fill light (holding) / touch light / base light, It is included in the shooting lighting information.

また、各ライティング種別毎に用いられる照明光源の性質が決められる。一般的な撮影時の照明光源の性質として、スポットライト(点光源)と、フラッドライト(面光源)とが挙げられる。スポットライト(点光源)は、光の方向性がはっきりしている照明であり、影がくっきりと出る照明である。一方、フラッドライト(面光源)は、空間全体にわたって均一な明るさを得るために用いる照明であり、影がぼやけて濃淡が強く出ない照明である。   Moreover, the property of the illumination light source used for each lighting type is determined. Typical properties of an illumination light source at the time of photographing include a spotlight (point light source) and a floodlight (surface light source). A spotlight (point light source) is illumination in which the directivity of light is clear, and is an illumination in which shadows appear clearly. On the other hand, floodlight (surface light source) is illumination used to obtain uniform brightness over the entire space, and is a illumination in which shadows are blurred and shades do not appear strongly.

通常は、各ライティング種別毎に照明光源の性質が決められるため、この照明光源の性質に適応して、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。例えば、スポットライト(点光源)による照明光を再現する場合は、視聴環境照明装置による照明範囲を狭くし、フラッドライト(面光源)による照明光を再現する場合は、視聴環境照明装置による照明範囲を広くするようなことが可能となる。   Usually, since the nature of the illumination light source is determined for each lighting type, the realism of the display video scene can be improved by controlling the viewing environment illumination described later in accordance with the nature of the illumination light source. . For example, when reproducing illumination light by a spotlight (point light source), the illumination range by the viewing environment illumination device is narrowed, and when reproducing illumination light by a floodlight (surface light source), the illumination range by the viewing environment illumination device Can be widened.

従って、本実施形態では、照明性質情報として、各セグメントの映像撮影時に用いられた照明光源の性質が、スポットライト(点光源)/フラッドライト(面光源)のいずれに属するかを示す1ビットの記述を、撮影照明情報の中に含有している。   Therefore, in the present embodiment, as the illumination property information, 1-bit indicating whether the property of the illumination light source used at the time of video shooting of each segment belongs to spotlight (point light source) or flood light (surface light source). A description is included in the photographic lighting information.

さらに、各ライティング種別毎に照明光の方向が決められるため、この照明光の方向に適応して、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。すなわち、映像表示装置の上下左右に配置された複数の照明装置を独立制御することにより、映像撮影時における撮影照明環境をきめ細かく再現することが可能となる。   Furthermore, since the direction of the illumination light is determined for each lighting type, the realism of the display video scene can be improved by controlling the viewing environment illumination described later in accordance with the direction of the illumination light. In other words, by independently controlling a plurality of lighting devices arranged on the top, bottom, left, and right of the video display device, it is possible to finely reproduce the shooting lighting environment during video shooting.

ここで、照明光の水平方向の区分としては、図11(a)に示すように、順光、側光(左、右)、逆光、リムライト(左、右)、レンブラントライト(左、右)に分けられる。順光は、最も効率的に明るさが得られる正面からの光である。側光は、立体感を強調することができるが、陰影が強く現れ、強いコントラストで強烈な印象が得られる光である。逆光は、輪郭を浮かび上がらすシルエット効果をつくることができ、幻想的効果をもたらす後方からの光である。リムライトは、立体感の強調や髪の毛のディテイルを出すために用いられる半逆光的な方向の光である。レンブラントライトは、顔の特徴を最も良く表現し美しく見せることができる45度方向の光である。   Here, as shown in FIG. 11A, the illumination light is divided into the following directions: forward light, side light (left, right), backlight, rim light (left, right), Rembrandt light (left, right). It is divided into. Forward light is light from the front where brightness can be obtained most efficiently. The side light is a light that can enhance the three-dimensional effect, but has a strong shadow and a strong impression with a strong contrast. Backlight is light from the back that can create a silhouette effect that raises the outline and produces a fantastic effect. Rimlight is light in a semi-backlit direction used for emphasizing three-dimensional effects and producing hair details. Rembrandt light is a 45-degree light that best expresses facial features and makes them look beautiful.

また、照明光の垂直方向の区分としては、図11(b)に示すように、順光、逆光、トップライト、あおり、レンブラントライトに分けられる。順光は、最も効率的に明るさが得られる正面からの光である。逆光は、輪郭を浮かび上がらすシルエット効果をつくることができ、幻想的効果をもたらす後方からの光である。トップライトは、人物を綺麗に見せるというより、特徴的な映像表現などのために用いられる被写体のほぼ真上からの光である。あおりは、特殊な効果の目的として用いられる被写体の前方下からの光である。レンブラントライトは、顔の特徴を最も良く表現し美しく見せることができる45度方向の光である。   Further, as shown in FIG. 11B, the illumination light is divided into a normal light, a back light, a top light, a tilt light, and a Rembrandt light. Forward light is light from the front where brightness can be obtained most efficiently. Backlight is light from the back that can create a silhouette effect that raises the outline and produces a fantastic effect. The top light is light from almost right above the subject that is used for characteristic image expression rather than showing a person beautifully. Aori is light from the lower front of the subject used for the purpose of special effects. Rembrandt light is a 45-degree light that best expresses facial features and makes them look beautiful.

従って、本実施形態では、照明光方向(水平方向)情報として、各映像シーンの撮影時における照明の光の入射方向(水平方向)が、順光/側光(左)/側光(右)/逆光/リムライト(左)/リムライト(右)/レンブラントライト(左)/レンブラントライト(右)のいずれに属するかを示す3ビットの記述を、撮影照明情報の中に含有している。また、照明光方向(垂直方向)情報として、各セグメントの映像撮影時における照明の光の入射方向(垂直方向)が、順光/逆光/トップライト/あおり/レンブラントライトのいずれに属するかを示す3ビットの記述を、撮影照明情報の中に含有している。   Therefore, in this embodiment, as the illumination light direction (horizontal direction) information, the incident direction (horizontal direction) of the illumination light at the time of shooting each video scene is the following light / side light (left) / side light (right). In the photographing illumination information, there is included a 3-bit description indicating whether it belongs to: / backlight / rim light (left) / rim light (right) / Rembrandt light (left) / Rembrandt light (right). In addition, as illumination light direction (vertical direction) information, it indicates whether the incident direction (vertical direction) of illumination light at the time of video shooting of each segment belongs to the following light / backlight / top light / tilt / rembrandt light. A 3-bit description is included in the photographic lighting information.

また、各ライティング種別毎に照明光の強度及び色温度が決められるため、この照明光の強度及び色温度に適応して、後述する視聴環境照明を制御することにより、表示映像シーンの臨場感を向上させることができる。ここでは、照明強度情報として、各映像シーンの撮影時における照明の光の強度が、非常に弱い/弱い/やや弱い/普通/やや強い/強い/非常に強いのいずれに属するかを示す3ビットの記述を、撮影照明情報の中に含有している。また、照明色温度情報として、各映像シーンの撮影時における照明の光の色温度(K)が、1000/2000/3000/4000/5000/6000/7000/8000/9000/10000/11000/12000/13000/14000/15000/25000のいずれに属するかを示す4ビットの記述を、撮影照明情報の中に含有している。   In addition, since the intensity and color temperature of the illumination light are determined for each lighting type, by controlling the viewing environment illumination, which will be described later, in accordance with the intensity and color temperature of the illumination light, the realism of the display video scene is increased. Can be improved. Here, as the illumination intensity information, 3 bits indicating whether the intensity of the illumination light at the time of shooting each video scene belongs to very weak / weak / somewhat weak / normal / somewhat strong / strong / very strong Is included in the photographic lighting information. As the illumination color temperature information, the color temperature (K) of the illumination light at the time of shooting each video scene is 1000/2000/3000/4000/5000/6000/7000/8000/9000/10000/11000/12000 / The photographic lighting information includes a 4-bit description indicating which of 13000/14000/15000/25000 belongs.

尚、撮影照明情報に含まれる各種情報は上述したものに限定されないことは言うまでもない。例えば、撮影照明光の色温度を直接表わす照明色温度情報の代わりに、照明器具種別(ナトリウム灯/水銀灯/LED/蛍光灯/蝋燭/・・・/メタルハライドランプなど)情報や色変換フィルター(コンバージョンフィルター)種別情報などを記述しておき、これから撮影時における照明光の色温度を求めるようにしても良い。   Needless to say, various types of information included in the photographic illumination information are not limited to those described above. For example, instead of illumination color temperature information directly representing the color temperature of the photographic illumination light, information on the type of lighting fixture (sodium lamp / mercury lamp / LED / fluorescent lamp / candle /.../ metal halide lamp, etc.) and color conversion filter (conversion) Filter) type information and the like may be described, and the color temperature of the illumination light at the time of photographing may be obtained from this.

また、上述した撮影照明情報は、台本に基づいて作成され、映像撮影現場で用いられるライティングプランなどを利用して生成することができ、この場合、新たに撮影照明情報を作成する作業を省くことが可能となる。尚、この撮影照明情報は、ショット単位又はシーン単位で変化することが多いため、セグメントをショット、シーンに合わせて区切ることにより、撮影照明情報をセグメント単位で効率良く記述することができる。   In addition, the above-described shooting illumination information can be generated based on a script and can be generated using a lighting plan or the like used in a video shooting site, and in this case, the work of creating new shooting illumination information can be omitted. Is possible. In addition, since the photographing illumination information often changes in shot units or scene units, the photographing illumination information can be efficiently described in segment units by dividing the segments according to shots and scenes.

さらに、映像データの各シーンの場面設定状況を示すシーン設定情報について、図12とともに詳細に説明する。本実施形態では、シーン設定情報として、各シーンのストーリー上の季節を表わす季節情報、各シーンのストーリー上の時刻を表わす時刻情報、各シーンのストーリー上の場所を表わす場所情報、各シーンのストーリー上の時代を表わす時代情報、各シーンのストーリー上の天候を表わす天候情報、各シーンのストーリー上の地域を表わす地域情報を有している。これらの情報はいずれも、各シーンの場面設定に係る特徴的な照明環境を推定することが可能なものであり、各シーンの雰囲気や臨場感を照明光によって演出するために有用な情報である。   Furthermore, scene setting information indicating the scene setting status of each scene of the video data will be described in detail with reference to FIG. In the present embodiment, as the scene setting information, the season information indicating the season on the story of each scene, the time information indicating the time on the story of each scene, the location information indicating the place on the story of each scene, the story of each scene It includes period information representing the above period, weather information representing the weather on the story of each scene, and area information representing the area on the story of each scene. Each of these pieces of information can be used to estimate a characteristic lighting environment related to the scene setting of each scene, and is useful information for directing the atmosphere and presence of each scene with illumination light. .

まず、季節によって自然光(太陽光)の強度及び色温度は変化するため、ストーリー上設定された季節に適応して、後述する視聴環境照明を制御することにより、屋外シーンの臨場感を向上させることができる。すなわち、例えば春〜秋の昼間の太陽光の色温度は約6000Kであるが、冬は昼間であっても太陽光の色温度を約7000Kに上げることで、寒さを表現することが可能となる。また、夏の太陽光の強度は強いが、春・秋はやや強く、冬は普通である。従って、本実施形態では、季節情報として、各セグメントの映像シーンの場面設定が春/夏/秋/冬のいずれに属するかを示す2ビットの記述を、シーン設定情報の中に含有している。   First, because the intensity and color temperature of natural light (sunlight) change depending on the season, the realism of outdoor scenes can be improved by controlling the viewing environment lighting described later in accordance with the season set in the story. Can do. That is, for example, the color temperature of sunlight during spring to autumn is about 6000K, but even in the daytime in winter, it is possible to express cold by raising the color temperature of sunlight to about 7000K. . Moreover, although the intensity of sunlight in summer is strong, it is a little stronger in spring and autumn and normal in winter. Therefore, in this embodiment, as the seasonal information, a 2-bit description indicating whether the scene setting of the video scene of each segment belongs to spring / summer / autumn / winter is included in the scene setting information. .

また、自然光(太陽光)の強度及び色温度は1日の中の時刻によっても変化するため、ストーリー上設定された時刻に適応して、後述する視聴環境照明を制御することにより、屋外シーンの臨場感を向上させることができる。すなわち、例えば早朝の太陽光の色温度は約2000K、朝は約4000K、午前は約5000K、正午は約6000K、午後は約5000K、夕方は約3000K、薄暮れは約4000K、夜は約7000Kである。また、早朝の太陽光の強度はやや弱いが、朝は普通、午前はやや強く、正午は強くなり、午後はやや強く、夕方は普通、薄暮れはやや弱く、夜は非常に弱くなる。従って、本実施形態では、時刻情報として、各セグメントの映像シーンの場面設定が早朝/朝/午前/正午/午後/夕方/薄暮れ/夜のいずれに属するかを示す3ビットの記述を、シーン設定情報の中に含有している。   In addition, since the intensity and color temperature of natural light (sunlight) also change depending on the time of day, by adjusting the viewing environment lighting described later in accordance with the time set on the story, The presence can be improved. That is, for example, the color temperature of sunlight in the early morning is about 2000K, about 4000K in the morning, about 5000K in the morning, about 6000K in the noon, about 5000K in the afternoon, about 3000K in the evening, about 4000K at dusk, about 7000K at night is there. Also, although the intensity of sunlight in the early morning is somewhat weak, it is normal in the morning, slightly strong in the morning, strong in the noon, slightly strong in the afternoon, normal in the evening, slightly weak in the dusk, and very weak in the night. Therefore, in this embodiment, the time information includes a 3-bit description indicating whether the scene setting of the video scene of each segment belongs to early morning / morning / am / noon / afternoon / evening / dusk / night. It is contained in the setting information.

また、場所によって自然光や人工光の強度及び色温度は変化するため、ストーリー上設定された場所に適応して、後述する視聴環境照明を制御することにより、屋内・屋外シーンの臨場感を向上させることができる。すなわち、例えば一般的に夜間の場合は屋外では月光や街頭照明によるやや弱い強度の光しか存在しないが、屋内においては夜間であっても室内照明が点灯するためやや強い強度の光が存在する。また、スタジオの照明光の強度は昼夜を問わず強いし、昼間の屋外であっても日陰であれば、光の強度は普通になる。従って、本実施形態では、場所情報として、各セグメントの映像シーンの場所設定が屋内/スタジオ/屋外/屋外日陰のいずれに属するかを示す2ビットの記述を、シーン設定情報の中に含有している。   In addition, since the intensity and color temperature of natural light and artificial light change depending on the location, the realism of indoor and outdoor scenes can be improved by controlling the viewing environment lighting described later in accordance with the location set in the story. be able to. That is, for example, generally at night, there is only light of a slightly weak intensity outdoors due to moonlight or street lighting, but there is a slightly high intensity of light indoors because the interior lighting is lit even at night. In addition, the intensity of the illumination light in the studio is strong day and night, and the intensity of the light becomes normal if it is shaded even outdoors in the daytime. Therefore, in the present embodiment, as the location information, a 2-bit description indicating whether the location setting of the video scene of each segment belongs to indoor / studio / outdoor / outdoor shade is included in the scene setting information. Yes.

さらに、時代によって自然光や人工光の強度及び色温度は変化するため、ストーリー上設定された時代に適応して、後述する視聴環境照明を制御することにより、現代・時代劇の各シーンの臨場感を向上させることができる。すなわち、例えば現代ドラマの中で一般的に用いられる照明機器の光の色温度は、蛍光灯(昼白色)が約5000K、蛍光灯(昼光色)が約6700K、白熱電球が約2800Kである。これに対して、時代劇の中で夜間の光源としてよく用いられる蝋燭の炎の色温度は約1800〜2500Kである。また、現代劇では照明強度が強く、時代劇においては照明強度が弱い傾向にある。従って、本実施形態では、時代情報として、各セグメントの映像シーンの時代設定が現代/時代劇のいずれに属するかを示す1ビットの記述を、シーン設定情報の中に含有している。   Furthermore, since the intensity and color temperature of natural light and artificial light change depending on the times, the realism of each scene of contemporary and historical plays can be adjusted by controlling the viewing environment lighting described below in accordance with the times set in the story. Can be improved. That is, for example, the color temperature of light of a lighting device generally used in a modern drama is about 5000K for a fluorescent lamp (daylight), about 6700K for a fluorescent lamp (daylight color), and about 2800K for an incandescent lamp. On the other hand, the color temperature of the candle flame often used as a light source at night in historical drama is about 1800-2500K. In addition, lighting intensity tends to be high in modern plays and low lighting intensity in historical plays. Therefore, in the present embodiment, as the period information, the scene setting information includes a 1-bit description indicating whether the period setting of the video scene of each segment belongs to modern / period drama.

また、天候によっても自然光(太陽光)の強度及び色温度は変化するため、ストーリー上設定された天候に適応して、後述する視聴環境照明を制御することにより、屋外シーンの臨場感を向上させることができる。すなわち、例えば晴天昼光の色温度は約6000K、雨天時の昼光は8000〜9000K、曇天時の昼光は約6500〜8000Kである。また、自然光の強度は、快晴時が最も強く、雪(晴れの日)、晴、曇、霧・もや・かすみ・雷、雨の順に弱くなる。従って、本実施形態では、天候情報として、各セグメントの映像シーンの天候設定が快晴/晴/曇/霧・もや・かすみ・雷/雨/雪(晴れの日)のいずれに属するかを示す3ビットの記述を、シーン設定情報の中に含有している。   In addition, since the intensity and color temperature of natural light (sunlight) change depending on the weather, the realism of the outdoor scene is improved by controlling the viewing environment lighting described later in accordance with the weather set in the story. be able to. That is, for example, the color temperature of sunny daylight is about 6000K, the daylight in the rainy day is 8000 to 9000K, and the daylight in the cloudy day is about 6500 to 8000K. In addition, the intensity of natural light is strongest when it is clear, and decreases in the order of snow (clear day), clear, cloudy, fog, haze, haze, thunder, and rain. Therefore, in this embodiment, as weather information, it indicates whether the weather setting of the video scene of each segment belongs to clear / sunny / cloudy / fog / haze / haze / thunder / rain / snow (sunny day). A 3-bit description is included in the scene setting information.

そしてまた、地域によっても自然光(太陽光)の強度及び色温度は変化するため、ストーリー上設定された地域に適応して、後述する視聴環境照明を制御することにより、屋外シーンの臨場感を向上させることができる。すなわち、例えば熱帯(昼)の太陽光の色温度は約5000K、寒帯(昼)では約7000K、乾燥帯、温帯、亜寒帯(昼)においては約6000Kである。また、太陽光の強度は熱帯では非常に強く、乾燥帯、温帯、亜寒帯、寒帯の順に弱くなる傾向がある。従って、本実施形態では、地域情報として、各セグメントの映像シーンの地域設定が熱帯/乾燥帯/温帯/亜寒帯/寒帯のいずれかに属するかを示す3ビットの記述を、シーン設定情報の中に含有している。   And since the intensity and color temperature of natural light (sunlight) change depending on the region, the realism of the outdoor scene is improved by controlling the viewing environment lighting described later in accordance with the region set in the story. Can be made. That is, for example, the color temperature of sunlight in the tropics (daytime) is about 5000K, about 7000K in the cold zone (daytime), and about 6000K in the dry zone, the temperate zone, and the subarctic zone (daytime). In addition, the intensity of sunlight is very strong in the tropics, and tends to decrease in the order of dry zone, temperate zone, subarctic zone, and cold zone. Therefore, in the present embodiment, as the area information, a 3-bit description indicating whether the area setting of the video scene of each segment belongs to one of the tropical / dry zone / temperate zone / subarctic zone / cold zone is included in the scene setting information. Contains.

尚、シーン設定情報に含まれる各種情報は上述したものに限定されないことは言うまでもない。例えば、上記季節情報及び時刻情報は、各シーンのストーリー上設定された月日及び時刻を表わす日時情報として、シーン設定情報の中に記述されていてもよいし、上記地域情報は、各シーンのストーリー上設定された地域の緯度、経度を表わす緯度、経度情報として、シーン設定情報の中に記述されていてもよい。   Needless to say, various types of information included in the scene setting information are not limited to those described above. For example, the season information and time information may be described in the scene setting information as date and time information representing the date and time set on the story of each scene, and the region information may be The latitude and longitude information representing the latitude and longitude of the area set on the story may be described in the scene setting information.

さらに、上述したシーン設定情報内の各種情報は、番組付加情報として放送データに含まれるシナリオ情報内のシーン設定状況情報や、編集・検索のために用意されたシーン設定状況情報等を兼用することができる。また、このシーン設定情報は、シーン単位で変化するものであるため、セグメントをシーンに合わせて区切ることにより、シーン設定情報をセグメント単位で効率良く記述することができる。   Furthermore, the various information in the scene setting information described above also serves as scene setting status information in scenario information included in broadcast data as program additional information, scene setting status information prepared for editing / searching, and the like. Can do. Further, since this scene setting information changes in units of scenes, the scene setting information can be efficiently described in units of segments by dividing the segments in accordance with the scenes.

次に、上記映像送信装置より送出された放送データを受信して、映像・音声を表示・再生するとともに、そのときの視聴環境照明を制御する映像受信装置(データ受信装置)について説明する。   Next, a video reception device (data reception device) that receives broadcast data transmitted from the video transmission device, displays and reproduces video and audio, and controls the viewing environment illumination at that time will be described.

本実施形態における映像受信装置は、図13に示すように、伝送路より入力された放送データを受信して復調するとともに、誤り訂正を行う受信部21と、受信部21の出力データから、映像表示装置25に出力する映像データ、TC(タイムコード)、音声再生装置26に出力する音声データ、TC(タイムコード)、付加データのそれぞれを分離・抽出するデータ分離部22と、データ分離部22で分離された付加データ及び/又は前記映像データ/音声データの特徴量に基づいて求めた照明制御データ(RGBデータ)を、視聴環境空間を照明する照明装置27に出力する照明制御データ生成部24と、照明制御データ生成部24における処理時間分だけ映像データ、音声データを遅延して出力するディレイ発生部28,29とを備えている。   As shown in FIG. 13, the video receiving apparatus according to the present embodiment receives and demodulates broadcast data input from a transmission path, performs error correction, and outputs video from the output data of the receiving unit 21. A data separation unit 22 for separating / extracting each of video data, TC (time code) output to the display device 25, audio data, TC (time code) output to the audio reproduction device 26, and additional data, and a data separation unit 22 The illumination control data generator 24 outputs the illumination control data (RGB data) obtained based on the additional data and / or the feature amount of the video data / audio data separated to the illumination device 27 that illuminates the viewing environment space. And delay generators 28 and 29 for delaying and outputting video data and audio data by the processing time in the illumination control data generator 24. There.

尚、タイムコードは、映像データ、音声データそれぞれの再生時間情報を示すために付加された情報であり、例えば、映像データの時間(h):分(m):秒(s):フレーム(f)を示す情報により構成されている。   The time code is information added to indicate the reproduction time information of each of the video data and the audio data. For example, the time (h): minute (m): second (s): frame (f) of the video data ).

また、照明装置27は、映像表示装置25の周囲に設置されて、所定の色相をもった例えばRGBの三原色の光を発光するLEDにより構成することができる。ただし、照明装置27は、映像表示装置25の周囲環境の照明色及び明るさを制御できるような構成であればよく、上記のような所定色を発光するLEDの組み合わせに限ることなく、白色LEDと色フィルタとによって構成してもよく、あるいは白色電球や蛍光管とカラーフィルタとの組み合わせやカラーランプ等を適用することもできる。また、照明装置27は1個以上設置されていればよい。   The illumination device 27 can be configured by an LED that is installed around the video display device 25 and emits light of, for example, three primary colors of RGB having a predetermined hue. However, the illumination device 27 may be configured to be able to control the illumination color and brightness of the surrounding environment of the video display device 25, and is not limited to the combination of LEDs that emit a predetermined color as described above, and is a white LED. And a color filter, or a combination of a white light bulb, a fluorescent tube and a color filter, a color lamp, or the like can be applied. Further, it is sufficient that one or more lighting devices 27 are installed.

本実施形態の照明制御データ生成部24は、図14に示すように、データ分離部22で分離された付加データを解析する付加データ解析部351と、該付加データ解析部351により抽出されたセグメント区切り情報と、映像データ、TC、音声データ、TC、或いは、シーン設定情報及び/又は撮影照明情報及び/又はカメラワーク情報とに基づいて、仮想の視聴環境空間における8つの頂点に対応する照明制御データ推定値(R,G,B)を算出する照明制御データ推定部352と、前記照明制御データ推定値を実際の視聴環境空間内に設置された1以上の照明装置27を制御する照明制御データ(R,G,B)に変換して出力する照明制御部354とを備えている。   As illustrated in FIG. 14, the illumination control data generation unit 24 of the present embodiment includes an additional data analysis unit 351 that analyzes additional data separated by the data separation unit 22, and a segment extracted by the additional data analysis unit 351. Lighting control corresponding to eight vertices in the virtual viewing environment space based on the delimiter information and the video data, TC, audio data, TC, or scene setting information and / or shooting lighting information and / or camera work information Lighting control data estimation unit 352 that calculates data estimation values (R, G, B), and lighting control data that controls the lighting control data estimation values for one or more lighting devices 27 installed in an actual viewing environment space And an illumination control unit 354 that converts and outputs (R, G, B).

本実施形態では、図15に示すように、映像表示装置を含む仮想の視聴環境空間(例えば、標準的な部屋のサイズである4500mm×3600mm×2400mmからなる空間)の各頂点V1〜V8に、それぞれが独立制御可能であり、固有のID1〜8が付与された8個の照明装置が設けられているものとし、映像特徴量/音声特徴量、及び/又は、付加データに基づいて、8個の照明装置ID1〜8のそれぞれに対応する照明制御データ推定値(R,G,B)を求めることとする。尚、ここでは、仮想の視聴環境空間を表す座標軸の原点は、映像表示装置の画面中心とし、xz平面は映像表示装置の画面に平行な面としている。 In this embodiment, as shown in FIG. 15, each vertex V 1 to V 8 of a virtual viewing environment space including a video display device (for example, a space consisting of 4500 mm × 3600 mm × 2400 mm which is a standard room size). Each of which can be independently controlled and is provided with eight lighting devices to which unique IDs 1 to 8 are assigned, and based on video feature amount / audio feature amount and / or additional data, Suppose that the illumination control data estimated value (R, G, B) corresponding to each of the eight illumination devices ID1 to 8 is obtained. Here, the origin of the coordinate axes representing the virtual viewing environment space is the screen center of the video display device, and the xz plane is a plane parallel to the screen of the video display device.

また、仮想の視聴環境空間を構成する各平面を4つに等分割し、同一の頂点を共有する3面からなる領域を照明単位(照射範囲)と定義する。8個の照明装置ID1〜8はそれぞれ対応する8つの照明単位(照射範囲)を照射するものとし、従って、各照明単位を照射すべき照明光の明るさ、色を示す照明制御データ推定値(R,G,B)が、8個の照明装置ID1〜8毎に求められることとなる。図15では、一例として照明装置ID6に対応した照明単位(照射領域)を網掛けで示している。   In addition, each plane constituting the virtual viewing environment space is equally divided into four, and an area composed of three planes sharing the same vertex is defined as an illumination unit (irradiation range). The eight illumination devices ID1 to 8 each irradiate eight corresponding illumination units (irradiation ranges), and accordingly, illumination control data estimated values (brightness and color of illumination light that should irradiate each illumination unit) ( R, G, B) is obtained for each of the eight lighting devices ID1 to 8. In FIG. 15, as an example, the illumination unit (irradiation area) corresponding to the illumination device ID 6 is shaded.

次に、実際に視聴を行う空間環境(部屋の大きさ、形状、照明装置の数、位置)は、ユーザによって千差万別であり、上述した仮想の視聴環境空間と同一ではないため、実際の視聴環境空間に設置された照明装置27に出力する照明制御データ(R,G,B)は、仮想の視聴環境空間から実際の視聴環境空間へのマッピング処理を行って求める必要がある。   Next, the space environment (the size of the room, the shape, the number of lighting devices, and the position) for actual viewing varies from user to user and is not the same as the virtual viewing environment space described above. It is necessary to obtain the illumination control data (R, G, B) to be output to the illumination device 27 installed in the viewing environment space by performing mapping processing from the virtual viewing environment space to the actual viewing environment space.

照明制御部354には、実際の視聴環境を示す情報が与えられており、この情報を用いて、仮想の視聴環境空間における8個の照明装置ID1〜8に対応した照明制御データ推定値(R,G,B)から、実際の視聴環境空間に設置された照明装置27に出力すべき照明制御データ(R,G,B)を算出する。   Information indicating the actual viewing environment is given to the lighting control unit 354, and using this information, the lighting control data estimated values (R) corresponding to the eight lighting devices ID1 to 8 in the virtual viewing environment space are used. , G, B), the lighting control data (R, G, B) to be output to the lighting device 27 installed in the actual viewing environment space is calculated.

尚、実際の視聴環境を示す情報は、少なくとも映像表示装置25に対する照明装置27の相対位置を表す情報を直接的又は間接的に含んでおればよく、映像受信装置は、ユーザによって映像表示装置25に対する照明装置27の相対位置を表す情報が入力される構成としてもよいし、センサーやカメラなどを用いて自動的に照明装置27の相対位置を表す情報を検出する構成としてもよい。   Note that the information indicating the actual viewing environment may include at least information indicating the relative position of the illumination device 27 with respect to the video display device 25, either directly or indirectly. The information indicating the relative position of the illumination device 27 may be input, or the information indicating the relative position of the illumination device 27 may be automatically detected using a sensor or a camera.

ここで、実際の視聴環境空間に設置された照明装置27に出力すべき照明制御データの算出方法の一例について説明する。まず、双方の視聴環境空間を同一座標系に変換した上でその大きさが一致するか否かを判断する。双方の視聴環境空間の大きさが一致する場合、実際の視聴環境空間内に設置された照明装置27による照明範囲と、仮想の視聴環境空間における8個の照明装置ID1〜8に対応する照明単位(照明範囲)との重なりを判定する。   Here, an example of a method for calculating illumination control data to be output to the illumination device 27 installed in the actual viewing environment space will be described. First, after converting both viewing environment spaces into the same coordinate system, it is determined whether or not their sizes match. When both viewing environment spaces have the same size, the illumination range by the lighting device 27 installed in the actual viewing environment space and the lighting units corresponding to the eight lighting devices ID1 to 8 in the virtual viewing environment space The overlap with (illumination range) is determined.

実際の視聴環境空間内に設置された照明装置27による照明範囲が、仮想の視聴環境空間におけるいずれかの照明装置ID1〜8に対応する照明単位(照明範囲)に含まれる場合、該照明装置27に対する照明制御データは、該照明装置27による照明範囲を含む照明単位に対応する照明装置ID1〜8のいずれかに対する照明制御データ推定値とする。   When the illumination range by the illumination device 27 installed in the actual viewing environment space is included in the illumination unit (illumination range) corresponding to any of the illumination devices ID1 to 8 in the virtual viewing environment space, the illumination device 27 The illumination control data for is an illumination control data estimated value for any one of the illumination devices ID1 to 8 corresponding to the illumination unit including the illumination range by the illumination device 27.

例えば、実際の視聴環境空間内に設置された照明装置27による照明範囲が、仮想の視聴環境空間における照明装置ID6に対応する照明単位(照明範囲)に含まれる場合、該照明装置27に対する照明制御データは、仮想の視聴環境空間における照明装置ID6に対して求められた照明制御データ推定値とする。   For example, when the illumination range by the illumination device 27 installed in the actual viewing environment space is included in the illumination unit (illumination range) corresponding to the illumination device ID 6 in the virtual viewing environment space, the illumination control for the illumination device 27 is performed. The data is the illumination control data estimated value obtained for the illumination device ID 6 in the virtual viewing environment space.

一方、実際の視聴環境空間内に設置された照明装置27による照明範囲が、仮想の視聴環境空間における複数の照明装置ID1〜8に対応する照明単位(照明範囲)にまたがる場合、該照明装置27による照明範囲と重なる複数の照明単位に対応する照明装置ID1〜8の照明制御データ推定値を、該照明装置27による照明範囲と重なる領域の面積比率に応じて加重平均することにより、該照明装置27に対する照明制御データを算出する。   On the other hand, when the illumination range by the illumination device 27 installed in the actual viewing environment space spans the illumination units (illumination ranges) corresponding to the plurality of illumination devices ID1 to 8 in the virtual viewing environment space, the illumination device 27 The illumination control data estimated values of the illumination devices ID1 to ID8 corresponding to a plurality of illumination units overlapping with the illumination range by the weighted average according to the area ratio of the region overlapping with the illumination range by the illumination device 27 are obtained. Illumination control data for 27 is calculated.

例えば、実際の視聴環境空間内に設置された照明装置27による照明範囲が、仮想の視聴環境空間における照明装置ID2、ID4、ID6、ID8に対応する照明単位(照明範囲)と重なる場合、仮想の視聴環境空間における照明装置ID2、ID4、ID6、ID8に対して求められた照明制御データ推定値を、該照明装置ID2、ID4、ID6、ID8に対応する照明単位と上記照明装置27による照明範囲とが重なる領域の面積比率に応じて加重平均し、該照明装置27に対する照明制御データとする。   For example, when the illumination range by the illumination device 27 installed in the actual viewing environment space overlaps with the illumination units (illumination ranges) corresponding to the illumination devices ID2, ID4, ID6, and ID8 in the virtual viewing environment space, Illumination control data estimated values obtained for the illumination devices ID2, ID4, ID6, and ID8 in the viewing environment space are represented by the illumination units corresponding to the illumination devices ID2, ID4, ID6, and ID8 and the illumination range by the illumination device 27. Is weighted average according to the area ratio of the overlapping region to obtain illumination control data for the illumination device 27.

一方、双方の視聴環境空間の大きさが一致しない場合は、実際の視聴環境空間の大きさを、仮想の視聴環境空間の大きさと一致するように変換する。具体的には、実際の視聴環境空間の縦方向と横方向と高さ方向とでそれぞれ倍率を変えて、仮想的な視聴環境空間の大きさと一致させることで、双方の視聴環境空間の大きさを一致させることができる。   On the other hand, when the sizes of the viewing environment spaces do not match, the actual viewing environment space is converted so as to match the size of the virtual viewing environment space. Specifically, by changing the magnification in the vertical, horizontal, and height directions of the actual viewing environment space to match the size of the virtual viewing environment space, the size of both viewing environment spaces Can be matched.

双方の視聴環境空間の大きさを一致させることにより、上記双方の視聴環境空間の大きさが一致する場合と同様、仮想的な視聴環境空間における各照明装置ID1〜8に対応する照明制御データ推定値から、実際の視聴環境空間に設置された照明装置27に対する照明制御データを算出することができる。上述の演算を実際の視聴環境空間に存在する他の照明装置27についても行うことにより、実際の視聴環境空間に設置された全ての照明装置27に対する照明制御データを生成することができる。   By matching the sizes of both viewing environment spaces, as in the case where the sizes of both viewing environment spaces match, the illumination control data estimation corresponding to each of the lighting devices ID1 to ID8 in the virtual viewing environment space is performed. From the value, the illumination control data for the illumination device 27 installed in the actual viewing environment space can be calculated. By performing the above calculation for other lighting devices 27 existing in the actual viewing environment space, it is possible to generate illumination control data for all the lighting devices 27 installed in the actual viewing environment space.

尚、上述の例では、実際の視聴環境空間に設置された照明装置27による照明範囲と、仮想的な視聴環境空間における照明装置ID1〜8との照明装置ID1〜8に対応する照明単位(照明範囲)との重なり領域に応じて、照明装置27に対する照明制御データを求めているが、照明装置27に出力すべき照明制御データの算出方法はそれ以外の方法でもよいことは明らかである。   In the above-described example, the illumination unit (illumination) corresponding to the illumination range of the illumination device 27 installed in the actual viewing environment space and the illumination devices ID1 to 8 of the illumination devices ID1 to 8 in the virtual viewing environment space. Although the illumination control data for the illumination device 27 is obtained according to the overlapping area with the range), it is obvious that other methods may be used as the calculation method of the illumination control data to be output to the illumination device 27.

例えば、仮想的な視聴環境空間を、各照明装置ID1〜8に対応する照明単位で囲まれた8つの空間ブロックに分割し、実際の視聴環境空間内の照明装置27が位置する空間ブロックに対応する照明装置ID1〜8の照明制御データ推定値を用いて、照明装置27の照明制御データを求めるようにしてもよい。   For example, the virtual viewing environment space is divided into eight space blocks surrounded by lighting units corresponding to the respective lighting device IDs 1 to 8 and corresponds to the space block where the lighting device 27 is located in the actual viewing environment space. Lighting control data of the lighting device 27 may be obtained using the lighting control data estimated values of the lighting devices ID1 to ID8.

また、実際の視聴環境空間に設置された照明装置27に出力すべき照明制御データの算出方法の他の例について説明する。実際の視聴環境空間内の照明装置27を制御すべき照明制御データは、この照明装置27に最も近い仮想的な視聴環境空間の壁面の4隅に設置されている照明装置ID1〜8の照明制御データ推定値を、該照明装置27と各照明装置ID1〜8との距離に応じて加重平均することにより、該照明装置27に対する照明制御データを算出する。   Further, another example of a method for calculating illumination control data to be output to the illumination device 27 installed in the actual viewing environment space will be described. The illumination control data for controlling the illumination device 27 in the actual viewing environment space is the illumination control of the illumination devices ID1 to 8 installed at the four corners of the wall surface of the virtual viewing environment space closest to the illumination device 27. Illumination control data for the lighting device 27 is calculated by performing a weighted average of the data estimation values according to the distance between the lighting device 27 and each of the lighting device IDs 1 to 8.

例えば、実際の視聴環境空間内に設置された照明装置27に最も近い仮想的な視聴環境空間の壁面の4隅に設置されているのが照明装置ID1、ID3、ID5、ID7である場合、この照明装置27と照明装置ID1、ID3、ID5、ID7との距離の逆数比を求め、その逆数比に応じて照明装置27に対する各照明装置ID1、ID3、ID5、ID7の寄与率を決定する。そして、照明装置ID1、ID3、ID5、ID7のそれぞれに対して求められた照明制御データ推定値に対して、上記寄与率に応じた加重平均演算を行うことにより、照明装置27に対する照明制御データを算出する。   For example, when the lighting devices ID1, ID3, ID5, and ID7 are installed at the four corners of the wall surface of the virtual viewing environment space closest to the lighting device 27 installed in the actual viewing environment space, The reciprocal ratio of the distance between the lighting device 27 and the lighting devices ID1, ID3, ID5, and ID7 is obtained, and the contribution ratio of each of the lighting devices ID1, ID3, ID5, and ID7 to the lighting device 27 is determined according to the reciprocal ratio. And the illumination control data with respect to the illuminating device 27 is obtained by performing the weighted average calculation according to the said contribution rate with respect to the illuminating control data estimated value calculated | required with respect to each of illuminating device ID1, ID3, ID5, and ID7. calculate.

以下、具体的な演算方法を説明する。仮想的な視聴環境空間における照明装置ID1、ID3、ID5、ID7の照明装置27からの距離をそれぞれ1,3,2,4とすると、距離の逆数比はそれぞれ24:8:12:6である。ここでは、説明を簡単にするため、照明装置27と照明装置ID1、ID3、ID5、ID7との距離に関して、上述のような数値を例にとって記載しているが、もちろん実際にはもっと複雑になることは言うまでもない。   Hereinafter, a specific calculation method will be described. If the distances from the illumination devices 27 of the illumination devices ID1, ID3, ID5, and ID7 in the virtual viewing environment space are 1, 3, 2, and 4, respectively, the reciprocal ratio of the distances is 24: 8: 12: 6, respectively. . Here, in order to simplify the description, the distance between the lighting device 27 and the lighting devices ID1, ID3, ID5, and ID7 is described using the numerical values as described above as an example. Needless to say.

さらに、照明装置ID1に対する照明制御データ推定値が、R=250,G=230,B=150、照明装置ID3に対する照明制御データ推定値が、R=170,G=200,B=100、照明装置ID5に対する照明制御データ推定値が、R=90,G=110,B=130、照明装置ID7に対する照明制御データ推定値が、R=150,G=50,B=40とする。   Furthermore, the illumination control data estimated values for the illumination device ID1 are R = 250, G = 230, B = 150, the illumination control data estimated values for the illumination device ID3 are R = 170, G = 200, B = 100, the illumination device. The illumination control data estimated value for ID5 is R = 90, G = 110, B = 130, and the illumination control data estimated value for illumination device ID7 is R = 150, G = 50, B = 40.

次に、各照明装置ID1、ID3、ID5、ID7の照明装置27からの距離の逆数比と、照明制御データ推定値とから、照明装置27に対する照明制御データを求める。まず、赤色光源(R)の最適値を算出する。各照明装置ID1、ID3、ID5、ID7のRの値は、ID1:250,ID3:170,ID5:90,ID7:150である。   Next, illumination control data for the illumination device 27 is obtained from the reciprocal ratio of the distances from the illumination devices 27 of the illumination devices ID1, ID3, ID5, and ID7 and the estimated value of the illumination control data. First, the optimum value of the red light source (R) is calculated. The R values of the respective lighting devices ID1, ID3, ID5, and ID7 are ID1: 250, ID3: 170, ID5: 90, and ID7: 150.

この値に各照明装置ID1、ID3、ID5、ID7の照明装置27からの距離の逆数比を乗算すると、ID1:250×24=6000,ID3:170×8=1360,ID5:90×12=1080,ID7:150×6=900となり、得られた値を足し(6000+1360+1080+900=9340)、距離の逆数比の合計(24+8+12+6=50)で除算すると(9340/50=186.8)、照明装置27の赤色光源(R)に対する照明制御データRが算出できる。   When this value is multiplied by the reciprocal ratio of the distances from the illumination devices 27 of the respective illumination devices ID1, ID3, ID5, and ID7, ID1: 250 × 24 = 6000, ID3: 170 × 8 = 1360, ID5: 90 × 12 = 1080 , ID7: 150 × 6 = 900, and the obtained value is added (6000 + 1360 + 1080 + 900 = 9340) and divided by the sum of the reciprocal ratio of distances (24 + 8 + 12 + 6 = 50) (9340/50 = 186.8). The illumination control data R for the red light source (R) can be calculated.

緑色光源(G)に対する照明制御データG、青色光源(B)に対する照明制御データBについても、上記と同様に求めると、照明装置27を適切に制御するための照明制御データ(R:187,G:175,B:124)が算出できる。この演算を実際の視聴環境空間に存在する他の照明装置27についても行うことにより、実際の視聴環境空間に設置された全ての照明装置27に対する照明制御データを生成することができる。   When the illumination control data G for the green light source (G) and the illumination control data B for the blue light source (B) are obtained in the same manner as described above, the illumination control data (R: 187, G for appropriately controlling the illumination device 27). : 175, B: 124) can be calculated. By performing this calculation for other lighting devices 27 existing in the actual viewing environment space, it is possible to generate illumination control data for all the lighting devices 27 installed in the actual viewing environment space.

尚、上述の例では、実際の視聴環境空間に設置されている照明装置27と仮想的な視聴環境空間における照明装置ID1〜8との距離の逆数比を用いて重み付け補間を行っているが、重み付けの方法はそれ以外の方法でもよいことは明らかである。   In the above example, weighted interpolation is performed using the reciprocal ratio of the distance between the lighting device 27 installed in the actual viewing environment space and the lighting devices ID1 to 8 in the virtual viewing environment space. Obviously, other weighting methods may be used.

また、ここでは、実際の視聴環境空間に設置されている照明装置27に対する照明制御データを、該照明装置27に最も近接する仮想的な視聴環境空間における壁面上の4つの照明装置ID1〜8に対応する照明制御データ推定値から求めたが、例えば、仮想的な視聴環境空間における8つの照明装置ID1〜8に対する照明制御データ推定値から求めても良いし、近傍の2つ以上の照明装置ID1〜8に対する照明制御データ推定値から所定の補間演算を行うことで、実際の視聴環境空間に設置された各照明装置27に対する照明制御データを求めるようにしてもよい。   Further, here, the illumination control data for the illumination device 27 installed in the actual viewing environment space is transferred to the four illumination devices ID1 to 8 on the wall surface in the virtual viewing environment space closest to the illumination device 27. Although it calculated | required from the corresponding illumination control data estimated value, for example, you may obtain | require from the illumination control data estimated value with respect to eight illumination device ID1-8 in virtual viewing-and-listening environment space, or two or more illumination device ID1 of the vicinity. Lighting control data for each lighting device 27 installed in the actual viewing environment space may be obtained by performing a predetermined interpolation calculation from the lighting control data estimated values for .about.8.

尚、本実施形態では、簡易的に所望の照明効果を得るため、上述したような簡素化した仮想空間モデルを用いて、実際の視聴環境空間に設置された照明装置27に対する照明制御データ(R,G,B)を求めるようにしているが、本発明は、上記の仮想空間モデルを用いたものに限られず、また、仮想空間から実空間へのマッピング処理も上述のものに限られないことは言うまでもない。   In this embodiment, in order to easily obtain a desired lighting effect, the lighting control data (R) for the lighting device 27 installed in the actual viewing environment space is used by using the simplified virtual space model as described above. , G, B), the present invention is not limited to the one using the above virtual space model, and the mapping process from the virtual space to the real space is not limited to the above. Needless to say.

照明制御データ推定部352は、上述したとおり、映像データ、音声データの特徴量、シーン設定情報及び/又は撮影照明情報及び/又はカメラワーク情報を用いて、各セグメント表示時に適した照明推定処理を行う。   As described above, the illumination control data estimation unit 352 uses the video data, the feature amount of the audio data, the scene setting information and / or the shooting illumination information and / or the camera work information to perform an illumination estimation process suitable for displaying each segment. Do.

ここで、本実施形態においては、映像データ、音声データの特徴量を用いた照明推定処理を行うモード(映像参照モード)と、映像データ、音声データの特徴量を用いず、付加データに含まれるシーン設定情報及び/又は撮影照明情報のみから照明推定処理を行うモード(付加情報参照モード)とを備えており、これらモードは映像受信装置側で視聴者により任意に切替設定することが可能となっている。   Here, in the present embodiment, a mode for performing illumination estimation processing using feature amounts of video data and audio data (video reference mode), and feature amounts of video data and audio data are not used and are included in additional data. There are modes (an additional information reference mode) for performing illumination estimation processing only from scene setting information and / or photographing illumination information, and these modes can be arbitrarily switched and set by the viewer on the video receiving device side. ing.

映像参照モードが設定されているとき、照明制御データ推定部352は、映像データ、音声データの特徴量を用いて照明制御データ推定値を求める。映像データ、音声データの特徴量を用いた撮影時の周囲光の状態の推定方法としては、公知のものをはじめとする各種の技術を用いることができる。なお、ここでは、各セグメントの場(雰囲気)の推定のために映像データの特徴量に加えて、音声データの特徴量も用いているが、これは場(雰囲気)の推定精度をより向上させるためであり、映像データの特徴量のみから、または映像データの特徴量と付加データの解析結果を利用して撮影シーンの場(雰囲気)を推定するようにしてもよい。   When the video reference mode is set, the illumination control data estimation unit 352 obtains an illumination control data estimated value using the feature amounts of the video data and audio data. As a method for estimating the state of ambient light at the time of shooting using the feature amounts of video data and audio data, various techniques including known ones can be used. Here, in addition to the feature amount of the video data, the feature amount of the audio data is also used for estimating the field (atmosphere) of each segment, but this further improves the estimation accuracy of the field (atmosphere). For this reason, the field (atmosphere) of the shooting scene may be estimated from only the feature amount of the video data or using the analysis result of the feature amount of the video data and the additional data.

ここで、映像データの特徴量としては、例えばカラーテレビの表示映像から色信号(Cb、Cr)と輝度信号(Y)とを取り出し、その色信号と輝度信号とから、光源に使用する三色光(赤色光,緑色光,青色光)の適正調光照度比を算出し、その照度比に従って三色光の照度を設定し、三色光を混光して照明制御データとして用いることも出来るし、カラーテレビに表示される映像を複数に分割し、照明装置によって照明制御される部分に対応する映像の分割部の平均的な色相を検出し、その検出した色相に基づいて、分割部に対応した照明制御データ推定値を算出しても構わない。また、音声データの特徴量としては、音量、音声周波数などを用いることができる。   Here, as the feature amount of the video data, for example, color signals (Cb, Cr) and a luminance signal (Y) are extracted from a display image of a color television, and the three-color light used for the light source is obtained from the color signal and the luminance signal. Calculate the appropriate dimming illuminance ratio of (red light, green light, blue light), set the illuminance of the three color light according to the illuminance ratio, mix the three color light and use it as lighting control data, color TV The video displayed on the screen is divided into a plurality of parts, the average hue of the video segment corresponding to the portion controlled by the lighting device is detected, and the lighting control corresponding to the segment is performed based on the detected hue A data estimated value may be calculated. Further, as the feature amount of the audio data, a volume, an audio frequency, or the like can be used.

また、映像データ、音声データの特徴量を用いた照明推定処理を行う際、カメラワーク情報を用いて映像データの特徴量を検出する画面領域を制限するようにしても良い。さらに、上記映像データ、音声データの特徴量から算出した照明制御データ推定値を、シーン設定情報及び/又は撮影照明情報から算出した照明制御データ推定値を用いて補正するようにしても良い。   In addition, when performing the illumination estimation process using the feature amounts of the video data and audio data, the screen area for detecting the feature amount of the video data may be limited using the camera work information. Furthermore, the illumination control data estimated value calculated from the feature values of the video data and audio data may be corrected using the illumination control data estimated value calculated from the scene setting information and / or the shooting illumination information.

一方、付加情報参照モードが設定されているとき、照明制御データ推定部352は、映像データ、音声データの特徴量を用いることなく、シーン設定情報及び/又は撮影照明情報のみを用いた照明推定処理を行う。シーン設定情報や撮影照明情報を用いることにより、映像撮影時に用いられた照明光の色温度、照明強度をより正確に推定することができる。   On the other hand, when the additional information reference mode is set, the illumination control data estimation unit 352 uses only the scene setting information and / or the imaging illumination information without using the feature amounts of the video data and the audio data. I do. By using the scene setting information and shooting illumination information, the color temperature and illumination intensity of the illumination light used at the time of video shooting can be estimated more accurately.

映像参照モードが設定されている場合の照明推定処理の概略動作について、図16とともに説明する。図16において、まず照明制御データ推定部352でカメラワーク情報の有無を判断する(S1)。カメラワーク情報がある場合は、該カメラワーク情報と映像特徴量とに基づく照明推定処理(照明推定処理1))を行う(S2)。照明推定処理1)を行った後は、付加データの個数をインクリメントし、照明制御データ推定部352内で記憶しておき(S3)、次の付加データの有無の確認を行う(S1)。尚、付加データの個数は、デフォルト値を0を設定しておき、個数がカウントされる毎に1ずつ増加する。カメラワーク情報がない場合は、撮影照明情報の有無を判断する(S1)。   The general operation of the illumination estimation process when the video reference mode is set will be described with reference to FIG. In FIG. 16, first, the illumination control data estimation unit 352 determines the presence or absence of camera work information (S1). If there is camera work information, an illumination estimation process (illumination estimation process 1)) based on the camera work information and the video feature amount is performed (S2). After performing the illumination estimation process 1), the number of additional data is incremented and stored in the illumination control data estimation unit 352 (S3), and the presence / absence of the next additional data is confirmed (S1). Note that the number of additional data is incremented by 1 every time the number is counted by setting a default value of 0. If there is no camera work information, the presence / absence of photographing illumination information is determined (S1).

撮影照明情報がある場合は、該撮影照明情報と映像特徴量とに基づく照明推定処理(照明推定処理2))を行う(S2)。照明推定処理2)を行った後は、付加データの個数をインクリメントし、照明制御データ推定部352内で記憶しておき(S3)、次の付加データの有無の確認を行う(S1)。撮影照明情報がない場合は、シーン設定情報の有無を判断する(S1)。   If there is photographic illumination information, an illumination estimation process (illumination estimation process 2)) based on the photographic illumination information and the video feature amount is performed (S2). After performing the illumination estimation process 2), the number of additional data is incremented and stored in the illumination control data estimation unit 352 (S3), and the presence / absence of the next additional data is confirmed (S1). If there is no shooting illumination information, the presence / absence of scene setting information is determined (S1).

シーン設定情報がある場合は、該シーン設定情報と映像特徴量とに基づく照明推定処理(照明推定処理3))を行う(S2)。照明推定処理3)を行った後は、付加データの個数をインクリメントし、照明制御データ推定部352内で記憶しておき(S3)、次の付加データの有無の確認を行う(S1)。当該セグメントに対応した更なる付加データがない場合は、照明補正処理を行う(S4)。   If there is scene setting information, an illumination estimation process (illumination estimation process 3)) based on the scene setting information and the video feature amount is performed (S2). After performing the illumination estimation process 3), the number of additional data is incremented and stored in the illumination control data estimation unit 352 (S3), and the presence / absence of the next additional data is confirmed (S1). If there is no additional data corresponding to the segment, illumination correction processing is performed (S4).

照明補正処理は、照明推定処理1)〜3)による照明推定値を加算した後、ステップS3にて記憶された付加データの個数で除算する。ここでは、照明推定処理1)〜3)による照明推定値を単純平均することによって照明補正処理を行っているが、加重平均演算を行うなど、補正方法は上記のものに限らないことは言うまでもない。   In the illumination correction process, the estimated illumination values obtained by the illumination estimation processes 1) to 3) are added and then divided by the number of additional data stored in step S3. Here, the illumination correction processing is performed by simply averaging the illumination estimation values obtained by the illumination estimation processing 1) to 3), but it goes without saying that the correction method is not limited to the above, such as performing a weighted average calculation. .

また、照明推定処理1)による照明推定値はRGBデータ、照明推定処理2)、3)による照明推定値は照明の明るさと色温度データであるため、RGBデータもしくは色温度データか、もしくはこれに限らない照明の明るさや色を表現可能なデータに変換して、同一のデータ上で補正演算する必要があるが、明るさや色を表現可能なデータは限定されずL*a*b*やLuvなどの均等色空間上であってもかまわない。   In addition, the estimated illumination value by the illumination estimation process 1) is RGB data, and the estimated illumination value by the illumination estimation process 2) and 3) is the brightness and color temperature data of the illumination. Although it is necessary to convert the brightness and color of illumination to data that can be expressed and to perform correction calculation on the same data, data that can express brightness and color is not limited, and L * a * b * and Luv It may be in a uniform color space.

上述のように照明補正処理された照明推定値が、当該セグメントの照明制御データ推定値として、照明制御部354へ出力される。照明制御部354では、この照明制御データ推定値から、実際の視聴環境空間に設置された照明装置27に対する照明制御データを求めて出力する。これによって、映像表示装置25に表示される映像データの特徴量を考慮した照明光の照射を行うことができる。   The illumination estimated value subjected to the illumination correction processing as described above is output to the illumination control unit 354 as the illumination control data estimated value of the segment. The lighting control unit 354 obtains and outputs lighting control data for the lighting device 27 installed in the actual viewing environment space from the lighting control data estimated value. Accordingly, illumination light can be irradiated in consideration of the feature amount of the video data displayed on the video display device 25.

次に、付加情報参照モードが設定されている場合の照明推定処理の概略動作について、図17とともに説明する。図17において、まず照明制御データ推定部352で撮影照明情報の有無を判断する(S1)。撮影照明情報がある場合は、該撮影照明情報を用いた照明推定処理(照明推定処理4))を行う(S2)。   Next, a schematic operation of the illumination estimation process when the additional information reference mode is set will be described with reference to FIG. In FIG. 17, the illumination control data estimation unit 352 first determines the presence or absence of photographing illumination information (S1). If there is photographic illumination information, an illumination estimation process (illumination estimation process 4)) using the photographic illumination information is performed (S2).

また、照明推定処理4)を行った後は、シーン設定情報の有無を確認する(S3)。シーン設定情報がある場合は、該シーン設定情報を用いた照明推定処理(照明推定処理5))を行う(S4)。ステップS3にてシーン設定情報がないことが確認された場合は、照明推定処理4)によって得られた照明推定値として色温度データからRGBデータへの変換を行う(S7)。   After performing the illumination estimation process 4), the presence / absence of scene setting information is confirmed (S3). If there is scene setting information, illumination estimation processing (illumination estimation processing 5)) using the scene setting information is performed (S4). If it is confirmed in step S3 that there is no scene setting information, the color temperature data is converted into RGB data as the estimated illumination value obtained by the illumination estimation process 4) (S7).

そして、照明推定処理5)を行った後は、照明推定補正処理を行う(S5)。ここでは、照明推定処理4)によって得られた照明推定値と照明推定処理5)によって得られた照明推定値との単純平均を求めることとするが、均等空間上で視覚特性を考慮した補正処理を行うなどしてもよいことは言うまでもない。この照明補正処理によって得られた照明推定値は色温度データであるので、これをRGBデータへ変換する(S7)。   Then, after performing the illumination estimation process 5), an illumination estimation correction process is performed (S5). Here, a simple average of the estimated illumination value obtained by the illumination estimation process 4) and the estimated illumination value obtained by the illumination estimation process 5) is obtained, but the correction process considering visual characteristics in a uniform space Needless to say, it may be done. Since the illumination estimated value obtained by this illumination correction process is color temperature data, it is converted into RGB data (S7).

また、ステップS1にて撮影照明情報がないことが確認された場合は、シーン設定情報の有無を判断し(S3)、シーン設定情報がある場合は、該シーン設定情報を用いた照明推定処理(照明推定処理5))を行った(S4)後に、照明推定処理5)によって得られた照明推定値として色温度データからRGBデータへの変換を行う(S7)。   If it is confirmed in step S1 that there is no shooting illumination information, the presence / absence of scene setting information is determined (S3). If there is scene setting information, an illumination estimation process using the scene setting information ( After performing the illumination estimation process 5)) (S4), conversion from color temperature data to RGB data is performed as the illumination estimation value obtained by the illumination estimation process 5) (S7).

尚、ステップS3にてシーン設定情報がないことが確認された場合は、付加データのみを用いた照明推定処理はできないため、エラー表示を行って、映像参照モードへの設定切替をユーザに促す(S8)。   If it is confirmed in step S3 that there is no scene setting information, the illumination estimation process using only the additional data cannot be performed, so an error is displayed and the user is prompted to switch the setting to the video reference mode ( S8).

ステップS7にて求められたRGBデータが、当該セグメントの照明制御データ推定値として、照明制御部354へ出力される。照明制御部354では、この照明制御データ推定値から、実際の視聴環境空間に設置された照明装置27に対する照明制御データを求めて出力する。これによって、映像表示装置25に表示される映像データの撮影時における照明光と略同等な照明光の照射を行うことができる。   The RGB data obtained in step S7 is output to the illumination control unit 354 as the illumination control data estimated value of the segment. The lighting control unit 354 obtains and outputs lighting control data for the lighting device 27 installed in the actual viewing environment space from the lighting control data estimated value. As a result, it is possible to irradiate illumination light that is substantially the same as the illumination light at the time of photographing video data displayed on the video display device 25.

次に、映像データとカメラワーク情報を利用した照明推定処理1)について、図18のフローチャートとともに説明する。まず、付加データ解析部351は、新しく入力されたセグメントを読み込み、そのセグメントにカメラワーク情報が付加されているか否かを検出する(S1)。カメラワーク情報を検出した場合、このカメラワーク情報を用いて照明推定領域の抽出を行う(S2)。そして、抽出された照明推定領域の映像データから照明推定処理を行う(S3)。ステップS1にてカメラワーク情報が検出されない場合は、照明推定領域の抽出を行わずに、映像データに基づく照明推定処理を行う(S3)。   Next, illumination estimation processing 1) using video data and camera work information will be described with reference to the flowchart of FIG. First, the additional data analysis unit 351 reads a newly input segment and detects whether camera work information is added to the segment (S1). When camerawork information is detected, an illumination estimation area is extracted using this camerawork information (S2). Then, illumination estimation processing is performed from the extracted video data of the illumination estimation region (S3). If camera work information is not detected in step S1, illumination estimation processing based on video data is performed without extracting the illumination estimation region (S3).

ここで、照明推定領域の抽出方法について以下に説明する。ここでは、カメラワーク情報に基づいて、映像データの特徴量を検出する際に用いる画面領域を決定する。尚、本実施形態においては、基本的に各セグメントの先頭フレームの映像特徴量に基づいて照明推定処理を行う。   Here, a method for extracting the illumination estimation region will be described below. Here, based on the camera work information, the screen area used when detecting the feature amount of the video data is determined. In the present embodiment, the illumination estimation process is basically performed based on the video feature amount of the first frame of each segment.

但し、例えば、被写体サイズがバストショット、アップショット、クローズアップショット、ビッグクローズアップショットのいずれかであるセグメント内のフレームは、被写体(前景部)が画面内の多くの領域面積を占めるため、当該セグメントに含まれるフレームの映像特徴量を用いた照明推定処理は行わず、直前のセグメントに対して求められた照明推定値を引き続き維持して出力するようにする。   However, for example, in a frame in a segment whose subject size is one of bust shot, up shot, close-up shot, and big close-up shot, the subject (foreground part) occupies a large area area on the screen. The illumination estimation process using the video feature amount of the frame included in the segment is not performed, and the estimated illumination value obtained for the immediately preceding segment is continuously maintained and output.

また、レンズ種別が望遠レンズ、マクロレンズのいずれかであるセグメント内のフレームも、被写体(前景部)が画面内の多くの領域面積を占めるため、該セグメントに含まれるフレームの映像特徴量を用いた照明推定処理は行わず、直前のセグメントに対して求められた照明推定値を引き続き維持して出力する。   Also, the frame in a segment whose lens type is either a telephoto lens or a macro lens also uses the video feature amount of the frame included in the segment because the subject (foreground part) occupies a large area on the screen. The estimated illumination value obtained for the immediately preceding segment is continuously maintained and output without performing the estimated illumination estimation process.

さらに、カメラの動きがパン、チルト(ティルト)、ロール、ズーム、ドリー、フォローのいずれかであるセグメント内のフレームは、一連のカメラの動きに伴って背景の様子が極端に変化している可能性が高いことから、当該セグメントに含まれるフレームの映像特徴量を用いた照明推定処理は行わず、直前のセグメントに対して求められた照明推定値を引き続き維持して出力することとする。   In addition, the frame in a segment where the camera movement can be pan, tilt (tilt), roll, zoom, dolly, or follow can have an extremely changing background as the camera moves. Therefore, the illumination estimation process using the video feature amount of the frame included in the segment is not performed, and the illumination estimation value obtained for the immediately preceding segment is continuously maintained and output.

そしてまた、映像特徴量の検出に用いる各セグメントの先頭フレームであっても、映像特徴量の検出対象とすべき画面領域は、映像撮影時のカメラワークによって異なる。例えば、図19に示すように、当該セグメントの映像撮影時におけるカメラポジションとアングルとによって、撮影時の周囲光の色、明るさを推定するのに適した画面領域(図19中、斜線部分で示す)が決まる。すなわち、撮影時の周囲光の色、明るさを推定するのに適した画面領域は通常、画面上部の領域であるが、この画面上部の領域の大きさを規定する水平ラインがカメラポジションとアングルとによって決められる。   In addition, even in the first frame of each segment used for detecting the video feature amount, the screen area to be detected for the video feature amount differs depending on the camera work at the time of video shooting. For example, as shown in FIG. 19, a screen region suitable for estimating the color and brightness of ambient light at the time of shooting based on the camera position and angle at the time of shooting the video of the segment (in the shaded portion in FIG. 19). Determined). In other words, the screen area suitable for estimating the color and brightness of ambient light at the time of shooting is usually the area at the top of the screen, but the horizontal line that defines the size of the area at the top of the screen shows the camera position and angle. It is decided by.

尚、例えば図20、図21に示すように、当該セグメントの映像撮影時におけるカメラポジションのみの情報やアングルのみの情報によっても、撮影時の周囲光の色、明るさを推定するのに適した画面領域(図20、図21中、斜線部分で示す)が決まることは言うまでもない。   For example, as shown in FIGS. 20 and 21, it is suitable for estimating the color and brightness of ambient light at the time of shooting based on only the information on the camera position and the information on the angle at the time of video shooting of the segment. Needless to say, the screen area (indicated by the hatched portion in FIGS. 20 and 21) is determined.

また、図22に示すように、当該セグメントの映像撮影時における被写体サイズと数とによっても、撮影時の周囲光の色、明るさを推定するのに適した画面領域(図22中、斜線部分で示す)が決まる。すなわち、撮影時の周囲光の色、明るさを推定するのに適した画面領域は、前景となる被写体を除いた領域が望ましく、この被写体が位置する可能性が高く、映像特徴量の検出対象領域から除外すべき領域が、被写体サイズと数とによって決められる。   In addition, as shown in FIG. 22, a screen region suitable for estimating the color and brightness of ambient light at the time of shooting based on the subject size and number at the time of video shooting of the segment (the hatched portion in FIG. 22). Is determined). In other words, the screen area suitable for estimating the color and brightness of the ambient light at the time of shooting is desirably an area excluding the foreground subject, and this subject is highly likely to be located. The area to be excluded from the area is determined by the subject size and the number.

尚、例えば図23、図24に示すように、当該フレームの撮影時における被写体サイズのみの情報や人数のみの情報によっても、撮影時の周囲光の色、明るさを推定するのに適した画面領域(図23、図24中、斜線部分で示す)が決まることは言うまでもない。また、被写体の数が背景のみの場合は、全画面領域を映像特徴量の検出対象とする。   For example, as shown in FIG. 23 and FIG. 24, a screen suitable for estimating the color and brightness of ambient light at the time of photographing based on information on only the subject size at the time of photographing the frame and information on only the number of people. Needless to say, the region (indicated by the hatched portion in FIGS. 23 and 24) is determined. In addition, when the number of subjects is only the background, the entire screen area is set as the detection target of the video feature amount.

従って、本実施形態では、ポジション、アングル、被写体サイズ、被写体像の各カメラワーク情報に基づいて、映像特徴量を検出する対象領域を制限している。具体的には、カメラポジション及びカメラアングルによって決まる図19の斜線領域と、被写体サイズ及び被写体像によって決まる図22の斜線領域との論理積によって求められる画面領域の映像データのみを用いて、映像特徴量を検出することとしている。   Therefore, in the present embodiment, the target area for detecting the video feature amount is limited based on the camera work information of the position, angle, subject size, and subject image. Specifically, the video feature is obtained by using only the video data of the screen area obtained by the logical product of the hatched area in FIG. 19 determined by the camera position and the camera angle and the hatched area in FIG. 22 determined by the subject size and the subject image. The amount is going to be detected.

ここで、図15とともに上述した仮想空間内の各照明装置ID1〜8と映像特徴量を検出する画面領域との基本的な関係を図25に示す。映像特徴量のみから照明推定を行う場合は、図25に示した画面領域の映像特徴量から仮想空間内の各照明装置ID1〜8に対する照明推定を行う。例えば、仮想空間の頂点V1に位置する照明装置ID1に対しては、図25(a)に示すように、画面左上の領域における映像特徴量を用いて照明制御推定データを求める。 Here, FIG. 25 shows a basic relationship between each of the lighting devices ID1 to ID8 in the virtual space described above with reference to FIG. 15 and the screen area for detecting the video feature amount. When the illumination estimation is performed only from the video feature amount, the illumination estimation is performed for each of the lighting devices ID1 to 8 in the virtual space from the video feature amount of the screen area illustrated in FIG. For example, for the illumination device ID1 located at the vertex V 1 of the virtual space, as shown in FIG. 25A, the illumination control estimation data is obtained using the video feature amount in the upper left area of the screen.

また、カメラワーク情報を用いて映像特徴量を検出する画面領域を制限する場合は、カメラワーク情報に基づいて抽出された画面領域と、図25に示した画面領域との論理積を求めることによって、仮想空間内の各照明装置ID1〜8に対する照明制御データ推定値を算出する。   Further, when the screen area for detecting the video feature amount is limited using the camera work information, the logical area between the screen area extracted based on the camera work information and the screen area shown in FIG. 25 is obtained. The illumination control data estimated value for each of the lighting devices ID1 to 8 in the virtual space is calculated.

すなわち、図25において斜線で示した画面領域と、上記図19〜24において示した対象領域とのAND演算を行うことで、仮想空間内の各照明装置ID1〜8による照射光の明るさ、色を求めることが可能となる。尚、上記図25において斜線で示した画面領域と、上記図19〜24において示した対象領域とのAND演算によって、頂点V5に位置する照明装置ID5に対する対象領域が求められない場合は、図25(a)に示した頂点V1に位置する照明装置ID1に対する対象領域から映像特徴量を検出する。 That is, by performing an AND operation on the screen area indicated by hatching in FIG. 25 and the target area shown in FIGS. 19 to 24, the brightness and color of the irradiation light by the respective illumination devices ID1 to 8 in the virtual space. Can be obtained. Note that the screen area indicated by hatching in FIG. 25, the AND operation to the target region shown in FIG 19 to 24, if the target area is not required for the lighting device ID5 located vertex V 5, as shown in FIG. detecting the image feature from the target area with respect to the illumination device ID1 located vertex V 1 as shown in 25 (a).

また、頂点V6に位置する照明装置ID6に対する対象領域が求められない場合は、図25(b)に示した頂点V2に位置する照明装置ID2に対する対象領域から映像特徴量を検出する。頂点V7に位置する照明装置ID7に対する対象領域が求められない場合は、図25(c)に示した頂点V3に位置する照明装置ID3に対する対象領域から映像特徴量を検出する。頂点V8に位置する照明装置ID8に対する対象領域が求められない場合は、頂点V4に位置する照明装置ID4に対する対象領域から映像特徴量を検出する。 Also, if the target area with respect to the illumination apparatus ID6 located vertex V 6 is not required to detect the image feature from the target area with respect to the illumination apparatus ID2 located vertex V 2 shown in FIG. 25 (b). If the target area for the lighting device ID7 located vertex V 7 is not required to detect the image feature from the target area with respect to the illumination apparatus ID3 located vertex V 3 shown in FIG. 25 (c). If the target area for the lighting device ID8 located vertex V 8 is not required to detect the image feature from the target area with respect to the illumination apparatus ID4 located vertex V 4.

このように、カメラワーク情報を用いて、映像シーンの場(雰囲気)推定に適したフレーム及び画面領域を制限・抽出し、抽出されたフレーム及び画面領域における映像特徴量を検出することで、場(雰囲気)の推定精度を向上させることができる。これによって、場(雰囲気)の推定誤りによって、臨場感や雰囲気を阻害するような照明制御がなされることを防止し、常に最適な視聴環境を実現することが可能となる。   In this way, the camera work information is used to restrict and extract frames and screen areas suitable for estimating the scene (atmosphere) of the video scene, and to detect the video feature quantities in the extracted frames and screen areas. The estimation accuracy of (atmosphere) can be improved. As a result, it is possible to prevent an illumination control that impairs the sense of presence or the atmosphere due to an estimation error of the place (atmosphere), and to always realize an optimal viewing environment.

さらに、図37乃至図41に示した各映像シーン例に対する場(雰囲気)推定処理について説明する。ここでは、図37に示した映像シーンが、フレームA〜E−1から構成されるセグメントと、フレームEから構成されるセグメントとに分割されているものとする。   Further, the field (atmosphere) estimation process for each of the video scene examples shown in FIGS. 37 to 41 will be described. Here, it is assumed that the video scene shown in FIG. 37 is divided into a segment composed of frames A to E-1 and a segment composed of frame E.

フレームA〜E−1からなるセグメントに対しては、フレームAにおける図19(g)の斜線で示した領域と図22(a)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。また、フレームEからなるセグメントに対しては、フレームEにおける図19(g)の斜線で示した領域と図22(e)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。これによって、背景部の映像特徴量のみを用いた照明制御データ推定値を生成することができ、本シーン撮影時の照明状況を反映した適切な視聴環境照明光を、このシーンの表示再生期間にわたって照射することが可能となる。   For the segment composed of the frames A to E-1, video data of a screen area in which the area indicated by the oblique lines in FIG. 19 (g) and the area indicated by the oblique lines in FIG. The video feature amount is detected. For the segment consisting of the frame E, the video data of the screen area where the area indicated by the oblique lines in FIG. 19G and the area indicated by the oblique lines in FIG. Detect video feature quantities. As a result, it is possible to generate an estimated value of illumination control data using only the video feature amount of the background portion, and to transmit appropriate viewing environment illumination light reflecting the illumination state at the time of photographing the scene over the display reproduction period of this scene. Irradiation is possible.

図38に示した映像シーンにおいては、カメラワークが異なるショット単位でセグメントに分割されている。フレームA〜C−1からなるセグメント、フレームE〜Fからなるセグメントに対しては、フレームA、Eにおける図19(e)の斜線で示した領域と図22(b)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。フレームC〜E−1からなるセグメントに対しては、被写体サイズがバストショットであるので、映像データ特徴量の検出は行わず、直前のフレームA〜C−1からなるセグメントに対して求められた照明制御データ推定値を引き続き出力する。これによって、背景部の映像特徴量のみを用いた照明制御データ推定値を生成することができ、本シーン撮影時の照明状況を反映した適切な視聴環境照明光を照射することが可能となる。   In the video scene shown in FIG. 38, the camera work is divided into segments in different shot units. For the segments consisting of frames A to C-1 and the segments consisting of frames E to F, the areas indicated by the diagonal lines in FIG. 19 (e) and the areas indicated by the diagonal lines in FIG. 22 (b) in frames A and E. A video feature amount is detected using video data in a screen area where and overlap. Since the subject size is a bust shot for the segment composed of the frames C to E-1, the video data feature amount is not detected, and is obtained for the segment composed of the immediately preceding frames A to C-1. Continue to output the lighting control data estimate. Accordingly, it is possible to generate an estimated value of illumination control data using only the video feature amount of the background portion, and it is possible to irradiate appropriate viewing environment illumination light reflecting the illumination state at the time of photographing the scene.

図39に示した映像シーンにおいては、ズーム撮影が行われていることから、フレームA〜Eでひとつのセグメントを構成しているが、このセグメントに対しては、映像データ特徴量の検出は行わず、直前のセグメントに対して求められた照明制御データ推定値を引き続き出力する。通常、ズーム撮影が開始される直前には、カメラの動きがフィックスのセグメントが存在することから、該セグメントに対して求められた照明制御データ推定値を用いることで、このシーン撮影時の照明状況を反映した適切な視聴環境照明光を、このシーンの表示再生期間にわたって照射することが可能となる。   In the video scene shown in FIG. 39, since zoom shooting is performed, one segment is formed by frames A to E. For this segment, video data feature amount detection is performed. Instead, the illumination control data estimated value obtained for the immediately preceding segment is continuously output. Usually, there is a segment whose camera motion is fixed immediately before zoom shooting is started, so by using the illumination control data estimated value obtained for this segment, the lighting situation at the time of this scene shooting It is possible to irradiate the appropriate viewing environment illumination light reflecting the above over the display reproduction period of this scene.

図40に示した映像シーンにおいては、同じくズーム撮影が行われていることから、フレームA〜Eでひとつのセグメントを構成しているが、このセグメントに対しては、映像データ特徴量の検出は行わず、直前のセグメントに対して求められた照明制御データ推定値を引き続き出力する。この場合も、通常、ズーム撮影が開始される直前には、カメラの動きがフィックスのセグメントが存在することから、該セグメントに対して求められた照明制御データ推定値を用いることで、このシーン撮影時の照明状況を反映した適切な視聴環境照明光を、このシーンの表示再生期間にわたって照射することが可能となる。   In the video scene shown in FIG. 40, since zoom photography is also performed, one segment is formed by frames A to E. For this segment, the detection of the video data feature amount is performed. Without performing this, the illumination control data estimated value obtained for the immediately preceding segment is continuously output. Also in this case, since there is usually a segment whose camera motion is fixed immediately before zoom shooting is started, this scene shooting can be performed by using the illumination control data estimated value obtained for the segment. It is possible to irradiate with appropriate viewing environment illumination light reflecting the lighting conditions of the time over the display reproduction period of this scene.

図41に示した映像シーンにおいては、レンズ種別が標準レンズであるフレームA〜D−1から構成されるセグメントと、レンズ種別が望遠レンズに切り換えられ、バストショットとなったフレームD〜Eから構成されるセグメントとに分割とに分割されている。フレームA〜D−1からなるセグメントに対しては、図19(e)の斜線で示した領域と図22(a)の斜線で示した領域とが重なる画面領域の映像データを用いて、映像特徴量を検出する。フレームD〜Eからなるセグメントに対しては、映像データ特徴量の検出を行わず、直前のフレームA〜D−1からなるセグメントに対して求められた照明制御データ推定値を引き続き出力する。これによって、背景部の映像特徴量のみを用いた照明制御データを生成することができ、このシーン撮影時の照明状況を反映した適切な視聴環境照明光を、このシーンの表示再生期間にわたって照射することが可能となる。   In the video scene shown in FIG. 41, a segment composed of frames A to D-1 whose lens type is a standard lens and a frame D to E which is a bust shot when the lens type is switched to a telephoto lens. Are divided into segments and segments. For the segment composed of the frames A to D-1, the video data of the screen area where the area shown by the oblique line in FIG. 19 (e) and the area shown by the oblique line in FIG. Detect feature values. For the segment composed of the frames D to E, the video data feature quantity is not detected, and the illumination control data estimated value obtained for the segment composed of the immediately preceding frames A to D-1 is continuously output. As a result, it is possible to generate illumination control data using only the video feature amount of the background portion, and irradiate the appropriate viewing environment illumination light reflecting the illumination state at the time of shooting the scene over the display reproduction period of this scene. It becomes possible.

上記のように、本実施形態においては、映像データとともにカメラワーク情報として入力された各種情報内容を利用して、各シーンの撮影時における照明状況(雰囲気)を適切に再現すべく照明制御データを求め、照明装置27の照明光を制御することが可能である。従って、前景部(被写体)などの映像内容の影響を受けることなく、自然で違和感のない視聴環境照明を実現することができ、映像視聴時の臨場感を増大させることが可能となる。また、任意のセグメント単位で照明制御データを切替制御する構成としているので、同じセグメント内で視聴環境照明が激しく変化して臨場感を損なってしまうことを防止することができる。   As described above, in the present embodiment, the illumination control data is used to appropriately reproduce the illumination state (atmosphere) at the time of shooting each scene by using various information contents input as camera work information together with the video data. Thus, it is possible to control the illumination light of the illumination device 27. Therefore, it is possible to realize a natural and uncomfortable viewing environment illumination without being affected by the video content of the foreground part (subject) and the like, and it is possible to increase a sense of reality when viewing the video. In addition, since the lighting control data is switched and controlled in arbitrary segment units, it is possible to prevent the viewing environment lighting from changing drastically in the same segment and impairing the presence.

尚、図19,図22に示した画面領域パターンは適宜設定することができる。また、この画面領域パターンから求められた場(雰囲気)推定画面領域内における映像データのヒストグラム分布(度数分布)を検出し、分布割合の高い映像データのみから映像特徴量を検出して場(雰囲気)推定を行うことにより、場(雰囲気)推定の精度を向上することができる。   The screen area patterns shown in FIGS. 19 and 22 can be set as appropriate. In addition, the histogram (frequency distribution) of the video data in the field (atmosphere) estimation screen area obtained from this screen area pattern is detected, and the video feature quantity is detected only from the video data with a high distribution ratio. ) By performing the estimation, the accuracy of the field (atmosphere) estimation can be improved.

また、本実施形態においては、各セグメントの映像撮影時におけるカメラワーク状況に関するカメラワーク情報を送受信するようにしているので、このカメラワーク情報を用いて所望のセグメントを検索したり編集するなど、視聴環境照明の制御以外にも様々な機能を実現することが可能となる。   In this embodiment, since camera work information related to the camera work status at the time of video shooting of each segment is transmitted and received, a desired segment can be searched and edited using this camera work information. Various functions can be realized in addition to control of environmental lighting.

例えば、カメラポジションが目高、アングルが水平アングル、被写体サイズ(画面サイズ)がロングショット、カメラの動きがフィックス、レンズ種別が標準レンズを用いて撮影されたセグメントの先頭フレームを選択・抽出することにより、代表的な映像場面(キーフレーム、キーショット)を集めたインデックスを作成することが可能となる。   For example, camera position is eye height, angle is horizontal angle, subject size (screen size) is long shot, camera movement is fixed, lens type is to select / extract the first frame of a segment shot using a standard lens This makes it possible to create an index that collects representative video scenes (key frames, key shots).

次に、撮影照明情報を利用した照明推定処理4)について、図26のフローチャートとともに説明する。まず、付加データ解析部351は、新しく入力されたセグメントを読み込み、そのセグメントに撮影照明情報が付加されているか否かを検出する(S1)。撮影照明情報を検出した場合、この撮影照明情報を用いて照明推定処理を行う。撮影照明情報が検出されない場合は、照明推定処理を行わずにフローを終了する。   Next, the illumination estimation process 4) using the photographic illumination information will be described with reference to the flowchart of FIG. First, the additional data analysis unit 351 reads a newly input segment and detects whether or not photographing illumination information is added to the segment (S1). When photographing illumination information is detected, illumination estimation processing is performed using the photographing illumination information. If the photographic illumination information is not detected, the flow ends without performing the illumination estimation process.

照明制御データ推定部352は、図10とともに上述した撮影照明情報から、各シーンの映像撮影時における照明環境を、照明装置27による視聴環境照明によって再現すべく、仮想空間内の各照明装置ID1〜8毎に照明光の強度及び色温度(黒体軌跡上の一点)を決定し、これを照明制御データ推定値として照明制御部354へ出力する。ここでは、撮影照明情報に含まれる各種情報に基づいて、例えば図27に示すように、照明強度を7段階、照明色温度を16段階で示す制御データ推定値を仮想空間内における各照明装置のID毎に生成する。尚、照明制御データ推定部352は、各ライティング種別毎の照明状況に関する情報を足し合わせて、映像撮影時における照明環境を再現すべく、各照明装置のID毎の制御データを生成する。   The illumination control data estimation unit 352 uses each of the illumination devices ID1 to ID1 in the virtual space to reproduce the illumination environment at the time of video shooting of each scene by the viewing environment illumination by the illumination device 27 based on the imaging illumination information described above with reference to FIG. The intensity and color temperature of illumination light (one point on the black body locus) are determined every 8 and output to the illumination control unit 354 as illumination control data estimated values. Here, based on various types of information included in the photographic illumination information, for example, as shown in FIG. 27, control data estimated values indicating the illumination intensity in 7 levels and the illumination color temperature in 16 levels are set for each illumination device in the virtual space. Generated for each ID. The illumination control data estimation unit 352 adds control information for each lighting type to generate control data for each ID of each lighting device in order to reproduce the lighting environment at the time of video shooting.

ここで、黒体はエネルギーを完全に吸収する理想的な物体をさしており、温度が上昇すると発する光の色が赤→黄→白と変化する。このときの絶対温度を色温度という。この色温度と色の軌跡(黒体軌跡)をxy色度図上で表すと、図30のようになる。光源の色が黒体軌跡上にない場合、完全に一致しないが最も近似の黒体の温度を「相関色温度」という。一般的に相関色温度は黒体軌跡からの偏差(Δuv)と共に表される。   Here, a black body refers to an ideal object that completely absorbs energy, and when the temperature rises, the color of the emitted light changes from red to yellow to white. The absolute temperature at this time is called color temperature. When this color temperature and color locus (black body locus) are represented on the xy chromaticity diagram, it is as shown in FIG. When the color of the light source is not on the black body locus, the temperature of the closest black body that does not completely match is called “correlated color temperature”. In general, the correlated color temperature is expressed together with the deviation (Δuv) from the black body locus.

例えば、照明性質情報がスポットライト(点光源)である場合は、その照明光の入射方向に位置するIDの照明装置を中心としたN個の照明装置によって、所定の強度及び色温度の照明光を照射するものとする。また、照明性質情報がフラッドライト(面光源)である場合は、その照明光の入射方向に位置するIDの照明装置を含む広範囲のM(M≫N)個の照明装置によって、所定の強度及び色温度の照明光を照射するものとする。   For example, when the illumination property information is a spotlight (point light source), illumination light having a predetermined intensity and color temperature is obtained by N illumination devices centered on an illumination device having an ID located in the incident direction of the illumination light. Shall be irradiated. In addition, when the illumination property information is a flood light (surface light source), a predetermined intensity and a wide range of M (M >> N) illumination devices including ID illumination devices located in the incident direction of the illumination light. It shall be irradiated with illumination light of color temperature.

ここで、撮影照明光の入射方向と対応する仮想空間内の照明装置ID1〜8との関係例は、例えば図28に示すようになる。すなわち、水平方向の照明光の方向が順光であり、垂直方向の照明光の方向があおり以外の場合、この照明光を再現するには、2つの照明装置ID1、ID2を用いる。また、水平方向の照明光の方向が側光(左)であり、垂直方向の照明光の方向があおり以外の場合、この照明光を再現するには、照明装置ID1、ID3を、水平方向の照明光の方向が側光(右)であり、垂直方向の照明光の方向があおり以外の場合、この照明光を再現するには、照明装置ID2、ID4を用いる。   Here, an example of the relationship between the incident direction of the photographing illumination light and the illumination devices ID1 to ID8 in the virtual space is as shown in FIG. 28, for example. That is, when the direction of the illumination light in the horizontal direction is forward light and the direction of the illumination light in the vertical direction is other than the side, the two illumination devices ID1 and ID2 are used to reproduce the illumination light. In addition, when the direction of the illumination light in the horizontal direction is side light (left) and the direction of the illumination light in the vertical direction is other than the tilt, in order to reproduce this illumination light, the illumination devices ID1 and ID3 are connected in the horizontal direction. In the case where the direction of the illumination light is side light (right) and the direction of the illumination light in the vertical direction is other than the tilt, the illumination devices ID2 and ID4 are used to reproduce the illumination light.

さらに、水平方向の照明光の方向が逆光であり、垂直方向の照明光の方向があおり以外の場合、この照明光を再現するには、照明装置ID1、ID2を、水平方向の照明光の方向がリムライト(左)であり、垂直方向の照明光の方向があおり以外の場合、この照明光を再現するには、照明装置ID1を、水平方向の照明光の方向がリムライト(右)であり、垂直方向の照明光の方向があおり以外の場合、この照明光を再現するには、照明装置ID2を用いる。   Further, in the case where the direction of the illumination light in the horizontal direction is the reverse light and the direction of the illumination light in the vertical direction is other than the tilt, in order to reproduce this illumination light, the illumination devices ID1 and ID2 are changed to the direction of the illumination light in the horizontal direction. Is the rim light (left), and the direction of the illumination light in the vertical direction is other than the tilt, in order to reproduce this illumination light, the illumination device ID1 is used, the direction of the illumination light in the horizontal direction is the rim light (right), When the direction of the illumination light in the vertical direction is other than tilt, the illumination device ID2 is used to reproduce this illumination light.

そしてまた、水平方向の照明光の方向がレンブラントライト(左)であり、垂直方向の照明光の方向があおり以外の場合、この照明光を再現するには、照明装置ID1を、水平方向の照明光の方向がレンブラントライト(右)であり、垂直方向の照明光の方向があおり以外の場合、この照明光を再現するには、照明装置ID2を用いる。   In addition, when the direction of the illumination light in the horizontal direction is Rembrandt light (left) and the direction of the illumination light in the vertical direction is other than the tilt, in order to reproduce this illumination light, the illumination device ID1 is set to the illumination in the horizontal direction. When the direction of the light is Rembrandt light (right) and the direction of the illumination light in the vertical direction is other than vertical, the illumination device ID2 is used to reproduce this illumination light.

また、水平方向の照明光の方向が順光であり、垂直方向の照明光の方向があおりの場合、この照明光を再現するには、の照明装置ID5、ID6を、水平方向の照明光の方向が側光(左)であり、垂直方向の照明光の方向があおりの場合、この照明光を再現するには、照明装置ID5、ID7を、水平方向の照明光の方向が側光(右)であり、垂直方向の照明光の方向があおりの場合、この照明光を再現するには、照明装置ID6、ID8を用いる。   Also, in the case where the direction of the illumination light in the horizontal direction is forward light, and the direction of the illumination light in the vertical direction is vertical, in order to reproduce this illumination light, the illumination devices ID5 and ID6 are connected to the illumination light in the horizontal direction. When the direction is side light (left) and the direction of illumination light in the vertical direction is vertical, in order to reproduce this illumination light, the illumination devices ID5 and ID7 are used, and the direction of the illumination light in the horizontal direction is side light (right). When the direction of the illumination light in the vertical direction is tilted, the illumination devices ID6 and ID8 are used to reproduce the illumination light.

さらに、水平方向の照明光の方向が逆光であり、垂直方向の照明光の方向があおりの場合、この照明光を再現するには、照明装置ID5、ID6を、水平方向の照明光の方向がリムライト(左)であり、垂直方向の照明光の方向があおりの場合、この照明光を再現するには、照明装置ID5を、水平方向の照明光の方向がリムライト(右)であり、垂直方向の照明光の方向があおりの場合、この照明光を再現するには、照明装置ID6を用いる。   Furthermore, when the direction of the illumination light in the horizontal direction is the reverse light and the direction of the illumination light in the vertical direction is tilted, in order to reproduce this illumination light, the illumination devices ID5 and ID6 are used, and the direction of the illumination light in the horizontal direction is In the case of a rim light (left) and a vertical illumination light direction, the illumination device ID5 is used to reproduce this illumination light, and the horizontal illumination light direction is a rim light (right) and the vertical direction. When the direction of the illumination light is tilted, the illumination device ID 6 is used to reproduce the illumination light.

そしてまた、水平方向の照明光の方向がレンブラントライト(左)であり、垂直方向の照明光の方向があおりの場合、この照明光を再現するには、照明装置ID5を、水平方向の照明光の方向がレンブラントライト(右)であり、垂直方向の照明光の方向があおりの場合、この照明光を再現するには、照明装置ID6を用いる。   In addition, when the direction of the illumination light in the horizontal direction is a Rembrandt light (left) and the direction of the illumination light in the vertical direction is vertical, in order to reproduce this illumination light, the illumination device ID5 is used. Is a Rembrandt light (right) and the direction of illumination light in the vertical direction is vertical, the illumination device ID 6 is used to reproduce this illumination light.

また、水平方向の照明光の方向に関わらず、垂直方向の照明光の方向がトップライトの場合、この照明光を再現するには、4つの照明装置ID1〜ID4を用いる。このように、撮影照明情報に基づいて仮想空間内に配置された複数の照明装置に対応する照明制御データ推定値を決定し、この照明制御データ推定値をもとに実際の視聴環境空間に設置された複数の照明装置27を独立制御することにより、撮影現場の照明状況をきめ細かく再現して、映像視聴時の臨場感を増大させることが可能となる。   In addition, when the direction of the vertical illumination light is the top light regardless of the direction of the horizontal illumination light, four illumination devices ID1 to ID4 are used to reproduce the illumination light. In this way, the illumination control data estimated values corresponding to the plurality of lighting devices arranged in the virtual space are determined based on the photographing illumination information, and installed in the actual viewing environment space based on the illumination control data estimated values. By independently controlling the plurality of illuminating devices 27, it is possible to reproduce the lighting conditions at the shooting site in detail and increase the sense of reality when viewing the video.

さらに、撮影照明情報に応じた具体的な照明制御例について、以下に説明する。図29は図37とともに上述した映像シーンに対応した撮影照明情報であり、この映像シーンは、照明光源の性質がスポットライト(点光源)、水平方向の照明光の入射方向が順光、垂直方向の照明光の入射方向がトップライト、照明強度は強く、照明色温度は約6000Kのキーライト(太陽光)のみの照明状況下で撮影されたことを示している。   Further, a specific example of lighting control according to the photographing lighting information will be described below. FIG. 29 shows photographing illumination information corresponding to the video scene described above with reference to FIG. 37. In this video scene, the illumination light source has a spotlight (point light source) property, the horizontal illumination light incident direction is forward light, and the vertical direction. The incident direction of the illumination light is a top light, the illumination intensity is strong, and the illumination color temperature is about 6000K.

照明制御データ推定部352は、この撮影照明情報に基づいて、仮想空間内に配置された照明装置ID1〜4によって、照明強度が強く、照明色温度が約6000K(図30のxy色度図上、(b)点で示す)の照明光を照射するような照明制御データ推定値を生成する。   The illumination control data estimation unit 352 has a strong illumination intensity and an illumination color temperature of about 6000K (on the xy chromaticity diagram of FIG. 30) by the illumination devices ID1 to ID4 arranged in the virtual space based on the photographing illumination information. , (B) Illumination control data estimation values that generate illumination light (indicated by points) are generated.

照明制御部354は、照明制御データ推定部352からの照明制御データ推定値を受けて、実際の視聴環境空間に設置された照明装置27に対する照明制御データ(RGBデータ)を算出して出力する。これによって、映像表示装置25の周囲を適切な照明光により照射して、上述した表示映像シーンの撮影時における照明環境を視聴空間に再現することが可能となり、映像視聴時の臨場感を増大させることができる。   The illumination control unit 354 receives the illumination control data estimated value from the illumination control data estimation unit 352, calculates and outputs illumination control data (RGB data) for the illumination device 27 installed in the actual viewing environment space. As a result, it is possible to irradiate the surroundings of the video display device 25 with appropriate illumination light, and to reproduce the illumination environment at the time of shooting the above-described display video scene in the viewing space, thereby increasing the sense of reality when viewing the video. be able to.

また、図31は図38とともに上述した映像シーンに対応した撮影照明情報であり、この映像シーンは、照明光源の性質がフラッドライト(面光源)、水平方向の照明光の入射方向が順光、垂直方向の照明光の入射方向がトップライト、照明強度が普通、照明色温度が約7000Kであるキーライトと、照明光源の性質がフラッドライト(面光源)、水平方向の光の入射方向がレンブラントライト(左)、垂直方向の光の入射方向があおり、照明強度が弱く、照明色温度が約7000Kであるフィルライトと、照明光源の性質がスポットライト(点光源)、水平方向の光の入射方向が側光(右)、垂直方向の光の入射方向が順光、照明強度がやや弱く、照明色温度が約5000Kであるタッチライトとによる照明状況下で撮影されたことを示している。   Further, FIG. 31 shows shooting illumination information corresponding to the video scene described above with reference to FIG. 38. In this video scene, the illumination light source has a floodlight (surface light source) property, and the horizontal illumination light incident direction is front light. The vertical illumination light incident direction is top light, the illumination intensity is normal, the illumination color temperature is about 7000K, the illumination light source is flood light (surface light source), and the horizontal light incidence direction is Rembrandt Light (left), vertical light incident direction, illumination intensity is weak, illumination color temperature is about 7000K fill light, illumination light source is spotlight (point light source), horizontal light incidence The direction is side light (right), the incident direction of vertical light is forward light, the illumination intensity is slightly weak, and the image is taken under an illumination condition with a touch light having an illumination color temperature of about 5000K.

照明制御データ推定部352は、この撮影照明情報に基づいて、仮想空間内に配置された照明装置ID1によって、照明強度が普通で、照明色温度が約7000K(図30のxy色度図上、(c)点で示す)の照明光を照射するとともに、照明装置ID2によって、照明強度がやや強く、照明色温度が約7000K(図30のxy色度図上、(c)点で示す)の照明光を照射するような照明制御データ推定値を生成する。   The illumination control data estimation unit 352 has a normal illumination intensity and an illumination color temperature of about 7000 K (on the xy chromaticity diagram of FIG. The illumination light of (c) (shown by a point) is irradiated, and the illumination device ID2 has a slightly strong illumination intensity and an illumination color temperature of about 7000K (shown by the point (c) on the xy chromaticity diagram of FIG. 30). An illumination control data estimated value that irradiates illumination light is generated.

また、照明装置ID4によって、照明強度が弱く、照明色温度が約7000K(図30のxy色度図上、(c)点で示す)の照明光を照射するとともに、照明装置ID5によって、照明強度がやや弱く、照明色温度が約5000K(図30のxy色度図上、(a)点で示す)の照明光を照射するような照明制御データ推定値を生成する。   Further, the illumination device ID4 emits illumination light with a weak illumination intensity and an illumination color temperature of about 7000K (indicated by point (c) on the xy chromaticity diagram of FIG. 30), and the illumination device ID5 provides illumination intensity. However, the illumination control data estimated value is generated so as to irradiate illumination light having a slightly weak illumination color temperature of about 5000K (indicated by point (a) on the xy chromaticity diagram of FIG. 30).

尚、上述の例では、照明装置ID2によって、キーライト、タッチライトによる照明光を足し合わせた照明光を照明するような照明制御データ推定値を生成しているが、複数の照明光を足し合わせる場合は、それぞれの照明光の照射強度を加算して、当該照明装置より照射する照明光の強度を求めるとともに、それぞれの照明光の照明色温度を照射強度比に応じて加重平均することによって、当該照明装置より照射する照明光の照明色温度を求めるようにすればよい(ここでは、照明装置ID2による照明光の照明色温度として加重平均演算された結果に最も近い約7000Kを表す照明制御データ推定値を生成している)。   In the above-described example, the illumination control data estimation value that illuminates the illumination light obtained by adding the illumination light from the key light and the touch light is generated by the illumination device ID2, but the plurality of illumination lights are added together. In this case, by adding the illumination intensity of each illumination light, obtaining the intensity of illumination light emitted from the illumination device, and weighted averaging the illumination color temperature of each illumination light according to the illumination intensity ratio, What is necessary is just to obtain | require the illumination color temperature of the illumination light irradiated from the said illuminating device (Here, illumination control data showing about 7000K nearest to the result of the weighted average calculation as the illumination color temperature of the illumination light by illumination device ID2. Generating an estimate).

上記のように、本実施形態においては、撮影照明情報として入力された各種情報内容から、各セグメントの映像撮影時における照明状況(雰囲気)を適切に再現すべく照明制御データ推定値を求め、この照明制御データ推定値に応じて、実際の視聴環境空間に設置された照明装置27の照明光を制御する照明制御データを出力することが可能である。従って、映像内容の影響を受けることなく、自然で違和感のない視聴環境照明を実現することができ、映像視聴時の臨場感を増大させることが可能となる。   As described above, in the present embodiment, from various information contents input as shooting illumination information, an illumination control data estimated value is obtained to appropriately reproduce the lighting situation (atmosphere) at the time of video shooting of each segment. It is possible to output illumination control data for controlling the illumination light of the illumination device 27 installed in the actual viewing environment space according to the estimated value of the illumination control data. Therefore, it is possible to realize a natural and uncomfortable viewing environment illumination without being affected by the video content, and to increase the sense of reality when viewing the video.

尚、本実施形態においては、各セグメントの映像撮影時照明状況に関する撮影照明情報を送受信するようにしているので、多様な視聴環境空間に適応した視聴環境照明制御を行うことが可能である。すなわち、照明装置の数や配置状況などの視聴空間/照明装置に関する情報を予め照明制御部354に入力しておくことにより、受信した撮影照明情報から個々の映像視聴空間に応じた適切な制御データを生成することができる。   In the present embodiment, since shooting illumination information related to the lighting situation during video shooting of each segment is transmitted and received, viewing environment illumination control adapted to various viewing environment spaces can be performed. That is, by appropriately inputting information related to the viewing space / illumination device such as the number and arrangement of the illumination devices to the illumination control unit 354, appropriate control data corresponding to each video viewing space can be obtained from the received photographing illumination information. Can be generated.

また、照明装置が1個のみの場合や、複数の照明装置の独立制御が不可能な場合は、例えばキーライトに関する情報のみを用いて、視聴環境照明の制御を行うようすればよい。このように、受信した撮影照明情報を視聴空間/照明装置に応じて適宜選択/加工し、視聴環境照明を制御することにより、最適な映像視聴空間を実現することができる。この場合、撮影照明情報は、キーライト、フィルライト、タッチライト、ベースライトのそれぞれに関する照明状況情報を、階層構造を持ったデータ構成として送受信するようにすれば、必要な情報を用意に選択/加工することが可能である。   In addition, when there is only one lighting device or when independent control of a plurality of lighting devices is impossible, the viewing environment illumination may be controlled using, for example, only information relating to the keylight. In this way, an optimal video viewing space can be realized by appropriately selecting / processing the received shooting illumination information according to the viewing space / lighting device and controlling the viewing environment illumination. In this case, the photographing illumination information can be selected / required by preparing and transmitting / receiving the illumination status information regarding each of the keylight, filllight, touchlight, and baselight as a data structure having a hierarchical structure. It is possible to process.

以上、付加情報参照モード設定時における照明推定処理4)について詳述したが、映像参照モード設定時における照明推定処理2)は、上述した照明推定処理4)によって求められた照明制御データ推定値に、映像データの特徴量検出結果を加味した照明制御データ推定値を算出することにより実現される。   As described above, the illumination estimation process 4) at the time of setting the additional information reference mode has been described in detail, but the illumination estimation process 2) at the time of setting the video reference mode is based on the illumination control data estimated value obtained by the above-described illumination estimation process 4). This is realized by calculating an estimated value of the illumination control data taking into account the feature value detection result of the video data.

例えば、撮影照明情報に基づいて、仮想空間内の各照明装置ID1〜8毎に照明光の強度及び色温度(黒体軌跡上の一点)、各色温度を含む所定の色範囲を示す情報を求め、映像データ、音声データに基づいて求めた照明制御データ推定結果が、上記撮影照明情報に基づいて求められた色範囲内に収まるように補正し、照明制御データ推定値(RGBデータ)を求めるようにすればよい。   For example, information indicating a predetermined color range including the intensity and color temperature of illumination light (one point on the black body locus) and each color temperature is obtained for each illumination device ID 1 to 8 in the virtual space based on the photographing illumination information. The illumination control data estimation result obtained based on the video data and the audio data is corrected so as to be within the color range obtained based on the photographing illumination information, and the illumination control data estimated value (RGB data) is obtained. You can do it.

また、単に映像データ、音声データに基づいて求めた照明制御データ推定結果と撮影照明情報に基づいて求めた照明制御データ推定結果との平均値や加重平均値を、照明制御部354に出力する照明制御データ推定値とするようにしてもよい。尚、上述の照明制御データ推定値は仮想空間内の照明装置ID1〜8毎に生成されることは、言うまでもない。   In addition, an illumination that outputs an average value or a weighted average value of the illumination control data estimation result obtained based on the video data and the audio data and the illumination control data estimation result obtained based on the photographing illumination information to the illumination control unit 354 A control data estimated value may be used. Needless to say, the above-described illumination control data estimated value is generated for each of the illumination devices ID 1 to 8 in the virtual space.

以上のように、撮影照明情報と映像データ及び/又は音声データとを用いて、視聴環境照明を制御する構成とすることで、撮影照明情報に加えて映像データ及び/又は音声データの特徴量に基づいた場(雰囲気)の推定結果を考慮した照明制御を行うことが可能になる。また、映像データ及び/又は音声データの特徴量を考慮したダイナミックな視聴環境照明の制御を実現しつつ、映像データ及び/又は音声データの特徴量に基づいた場(雰囲気)の推定誤りによって、臨場感や雰囲気を阻害するような照明制御がなされることを防止することができ、適切な視聴環境を実現することが可能となる。   As described above, by using the shooting illumination information and the video data and / or audio data to control the viewing environment illumination, the feature amount of the video data and / or audio data in addition to the shooting illumination information can be obtained. It is possible to perform illumination control in consideration of the estimated result of the field (atmosphere) based on the result. In addition, while realizing dynamic viewing environment illumination control in consideration of the feature amount of the video data and / or audio data, the presence of the field (atmosphere) estimation error based on the feature amount of the video data and / or audio data can be realistic. It is possible to prevent lighting control that impairs the feeling and atmosphere, and to realize an appropriate viewing environment.

次に、シーン設定情報を利用した照明推定処理5)について、図32のフローチャートとともに説明する。まず、付加データ解析部351は、新しく入力されたセグメントを読み込み、そのセグメントにシーン設定情報が付加されているか否かを検出する(S1)。シーン設定情報を検出すれば照明推定処理を行う。シーン設定情報が検出されない場合は、照明推定処理を行わずにフローを終了する。   Next, illumination estimation processing 5) using scene setting information will be described with reference to the flowchart of FIG. First, the additional data analysis unit 351 reads a newly input segment and detects whether scene setting information is added to the segment (S1). If scene setting information is detected, illumination estimation processing is performed. If the scene setting information is not detected, the flow is terminated without performing the illumination estimation process.

照明制御データ推定部352は、図12とともに上述したシーン設定情報から、各シーンのストーリー上における設定場面(雰囲気)を照明装置27による視聴環境照明により再現すべく、仮想空間内の各照明装置ID1〜8毎に照明光の強度及び色温度(黒体軌跡上の一点)を決定し、これを照明制御データ推定値として照明制御部354へ出力する。ここでは、シーン設定情報に含まれる各種情報に基づいて、例えば図33に示すように、照明強度を7段階、照明色温度を16段階で示す照明制御データ推定値を仮想空間内における各照明装置のID毎に生成する。   From the scene setting information described above with reference to FIG. 12, the lighting control data estimation unit 352 reproduces the setting scene (atmosphere) on the story of each scene by viewing environment illumination by the lighting device 27, and each lighting device ID1 in the virtual space. The intensity and color temperature (one point on the black body locus) of the illumination light are determined every ˜8, and this is output to the illumination control unit 354 as the illumination control data estimated value. Here, based on various kinds of information included in the scene setting information, for example, as shown in FIG. 33, the illumination control data estimated values indicating the illumination intensity in 7 levels and the illumination color temperature in 16 levels are shown in the virtual space. For each ID.

以下、シーン設定情報に応じた具体的な照明制御例について、図33とともに説明する。例えばシーン設定情報における季節情報が春、時刻情報が昼、場所情報が屋外、天候情報が晴である場合、このときの自然光を再現すべく、照明強度はやや強く、照明色温度は6000K(図34中(d)点で示す)であることを示す照明制御データ推定値が生成される。ここで、季節情報が夏になると、照明色温度は6000Kのまま、照明強度が強いことを示す照明制御データ推定値が生成される。   Hereinafter, a specific example of lighting control according to the scene setting information will be described with reference to FIG. For example, if the season information in the scene setting information is spring, the time information is daytime, the location information is outdoors, and the weather information is clear, the illumination intensity is slightly higher and the illumination color temperature is 6000K (Figure) to reproduce the natural light at this time. 34, the illumination control data estimated value indicating that it is indicated by (d) point) is generated. Here, when the season information is summer, an illumination control data estimated value indicating that the illumination intensity is strong while the illumination color temperature remains at 6000K is generated.

また、地域情報が熱帯の場合、照明強度が非常に強いことを示す制御データが生成される。さらに、季節情報が秋になると、照明強度がやや強いことを示す照明制御データ推定値が、季節情報が冬になると、照明強度が普通で照明色温度は7000K(図34中(e)点で示す)あることを示す制御データが生成される。ここで、地域情報が寒帯の場合、照明強度がやや弱いことを示すことを示す照明制御データ推定値が生成される。   In addition, when the regional information is tropical, control data indicating that the illumination intensity is very strong is generated. Furthermore, when the seasonal information is autumn, the illumination control data estimated value indicating that the illumination intensity is slightly strong, and when the seasonal information is winter, the illumination intensity is normal and the illumination color temperature is 7000 K (at point (e) in FIG. 34). Control data is generated to indicate that there is. Here, when the area information is a cold zone, an illumination control data estimated value indicating that the illumination intensity is slightly weak is generated.

また、シーン設定情報における時刻情報が朝、場所情報が屋内、天候情報が晴である場合、このときの自然光が屋内に差し込む状況を再現すべく、照明強度は普通で、照明色温度は4000K(図34中(b)点で示す)であることを示す照明制御データ推定値が生成される。ここで、時刻情報が夕方になると、照明強度は普通のまま、照明色温度は3000K(図34中(a)点で示す)であることを示す照明制御データ推定値が生成される。また、時刻情報が夜になると、屋内照明機器である蛍光灯(昼白色)の照明光を再現すべく、照明強度はやや弱く、照明色温度は5000K(図34中(c)点で示す)であることを示す照明制御データ推定値が生成される。   Also, if the time information in the scene setting information is morning, the location information is indoors, and the weather information is clear, the illumination intensity is normal and the illumination color temperature is 4000K (in order to reproduce the situation where natural light is inserted indoors at this time. An illumination control data estimated value indicating that (indicated by point (b) in FIG. 34) is generated. Here, when the time information is evening, the illumination control data estimated value indicating that the illumination intensity is normal and the illumination color temperature is 3000K (indicated by point (a) in FIG. 34) is generated. In addition, when the time information becomes night, the illumination intensity is slightly weak and the illumination color temperature is 5000K (indicated by point (c) in FIG. 34) in order to reproduce the illumination light of the fluorescent lamp (lunch white) that is an indoor illumination device. An illumination control data estimated value indicating that is generated.

さらに、シーン設定情報における時刻情報が夜、場所情報が屋内、時代情報が時代劇である場合、蝋燭の炎が照明光源である可能性が高く、これを再現するために、照明強度はやや弱く、照明色温度は3000K(図34中(a)点で示す)であることを示す照明制御データ値が生成される。ここで、場所情報が屋外になると、月光が照明光源である可能性が高く、時代劇の月夜の雰囲気を再現するために、照明強度は非常に弱く、照明色温度は7000K(図34中(e)点で示す)であることを示す照明制御データ推定値が生成される。   Furthermore, if the time information in the scene setting information is night, the location information is indoors, and the period information is a period drama, the candle flame is likely to be an illumination light source, and the illumination intensity is slightly weaker to reproduce this. The illumination control data value indicating that the illumination color temperature is 3000K (indicated by point (a) in FIG. 34) is generated. Here, when the location information is outdoors, there is a high possibility that moonlight is an illumination light source, and in order to reproduce the atmosphere of the moonlit night of a historical drama, the illumination intensity is very weak and the illumination color temperature is 7000K (in FIG. 34 ( e) Illumination control data estimated values are generated, which are indicated by points).

また、シーン設定情報における時刻情報が昼、場所情報が屋外、天候情報が霧・もや・かすみ・雪である場合、このときの自然光を再現すべく、照明強度は弱く、照明色温度は6000K(図34中(d)点で示す)であることを示す照明制御データ推定値が生成される。尚、図33とともに上述した各種情報の組み合わせに合致しない場合は、シーン設定情報がないものとして、照明推定処理を終了する。   Also, if the time information in the scene setting information is daytime, the location information is outdoors, and the weather information is fog, haze, haze, or snow, the illumination intensity is weak and the illumination color temperature is 6000K to reproduce the natural light at this time. An illumination control data estimated value indicating that (indicated by point (d) in FIG. 34) is generated. If the combination of various types of information described above with reference to FIG. 33 is not met, it is assumed that there is no scene setting information, and the illumination estimation process is terminated.

尚、シーン設定情報から求められる照明制御データ推定値は、仮想空間内に配置された全ての照明装置ID1〜8に対応する照明制御データ推定値としてもよいし、上方に位置する照明装置ID1〜4に対応する照明制御データ推定値としてもよい。   In addition, the illumination control data estimated value calculated | required from scene setting information is good also as the illumination control data estimated value corresponding to all the illuminating device ID1-8 arrange | positioned in virtual space, or the illuminating device ID1 located upward. It is good also as the illumination control data estimated value corresponding to 4.

上記のように、本実施形態においては、映像データとともにシーン設定情報として入力された各種情報内容から、仮想空間内に配置された照明装置ID1〜8に対応する照明制御データ推定値を決定し、この照明制御データ推定値をもとに実際の視聴環境空間に設置された照明装置27を制御することにより、各セグメントのストーリー上における設定場面(雰囲気)を適切に再現することができる。従って、映像内容の影響を受けることなく、自然で違和感のない視聴環境照明を実現することができ、映像視聴時の臨場感を増大させることが可能となる。   As described above, in the present embodiment, the illumination control data estimated values corresponding to the illumination devices ID1 to 8 arranged in the virtual space are determined from the various information contents input as the scene setting information together with the video data, By controlling the lighting device 27 installed in the actual viewing environment space based on the estimated value of the lighting control data, the setting scene (atmosphere) on the story of each segment can be appropriately reproduced. Therefore, it is possible to realize a natural and uncomfortable viewing environment illumination without being affected by the video content, and to increase the sense of reality when viewing the video.

尚、本実施形態においては、各シーンのストーリー上における設定場面に関するシーン設定情報を送受信するようにしているので、このシーン設定情報を用いて所望のシーンを検索したり編集するなど、視聴環境照明の制御以外にも様々なデータ処理が可能となる。   In the present embodiment, scene setting information related to the setting scene on the story of each scene is transmitted and received. Therefore, the scene setting information is used to search for and edit a desired scene. Various data processing is possible in addition to the above control.

以上、付加情報参照モード設定時における照明推定処理5)について詳述したが、映像参照モード設定時における照明推定処理3)は、上述した照明推定処理5)によって求められた照明制御データ推定値に、映像データの特徴量検出結果を加味した照明制御データ推定値を算出することにより実現される。   As described above, the illumination estimation process 5) at the time of setting the additional information reference mode has been described in detail, but the illumination estimation process 3) at the time of setting the video reference mode is the illumination control data estimated value obtained by the above-described illumination estimation process 5). This is realized by calculating an estimated value of the illumination control data taking into account the feature value detection result of the video data.

例えば、シーン設定情報に基づいて、仮想空間内の各照明装置ID1〜8毎に照明光の強度及び色温度(黒体軌跡上の一点)、各色温度を含む所定の色範囲を示す情報を求め、映像データ、音声データに基づいて求めた照明制御データ推定結果が、上記シーン設定情報に基づいて求められた色範囲内に収まるように補正し、照明制御データ推定値(RGBデータ)を求めるようにすればよい。   For example, based on the scene setting information, information indicating a predetermined color range including the intensity and color temperature of illumination light (one point on the black body locus) and each color temperature is obtained for each of the lighting devices ID1 to 8 in the virtual space. The illumination control data estimation result obtained based on the video data and the audio data is corrected so as to be within the color range obtained based on the scene setting information, and the illumination control data estimated value (RGB data) is obtained. You can do it.

また、単に映像データ、音声データに基づいて求めた照明制御データ推定結果とシーン設定情報に基づいて求めた照明制御データ推定結果との平均値や加重平均値を、照明制御部354に出力する照明制御データ推定値とするようにしてもよい。尚、上述の照明制御データ推定値は仮想空間内の照明装置ID1〜8毎に生成されることは、言うまでもない。   In addition, the illumination control unit 354 outputs an average value or a weighted average value between the illumination control data estimation result obtained based on the video data and the audio data and the illumination control data estimation result obtained based on the scene setting information to the illumination control unit 354. A control data estimated value may be used. Needless to say, the above-described illumination control data estimated value is generated for each of the illumination devices ID 1 to 8 in the virtual space.

以上のように、シーン設定情報と映像データ及び/又は音声データとを用いて、視聴環境照明を制御する構成とすることで、シーン設定情報に加えて映像データ及び/又は音声データの特徴量に基づいた場(雰囲気)の推定結果を考慮した照明制御を行うことが可能になる。また、映像データ及び/又は音声データの特徴量を考慮したダイナミックな視聴環境照明の制御を実現しつつ、映像データ及び/又は音声データの特徴量に基づいた場(雰囲気)の推定誤りによって、臨場感や雰囲気を阻害するような照明制御がなされることを防止することができ、適切な視聴環境を実現することが可能となる。   As described above, by using the scene setting information and the video data and / or audio data to control the viewing environment illumination, the feature amount of the video data and / or audio data can be added to the scene setting information. It is possible to perform illumination control in consideration of the estimated result of the field (atmosphere) based on the result. In addition, while realizing dynamic viewing environment illumination control in consideration of the feature amount of the video data and / or audio data, the presence of the field (atmosphere) estimation error based on the feature amount of the video data and / or audio data can be realistic. It is possible to prevent lighting control that impairs the feeling and atmosphere, and to realize an appropriate viewing environment.

以上のように、付加情報参照モード設定時においては、シーン設定情報や撮影照明情報を用いることにより、映像撮影時に用いられた照明光の色温度、照明強度をより正確に推定することができる。これにより、視聴環境照明光の強さや色温度を適切に制御して、映像表示時の臨場感を向上させることができる。また、この付加情報参照モード設定時においては、映像データ、音声データの特徴量に関わらず、自然な照明光による視聴環境を実現することができるので、落ち着いた雰囲気の中で映像視聴を行いたい場合に適している。   As described above, when the additional information reference mode is set, the color temperature and illumination intensity of the illumination light used at the time of video shooting can be estimated more accurately by using the scene setting information and the shooting illumination information. Thereby, the intensity of the viewing environment illumination light and the color temperature can be appropriately controlled to improve the sense of reality when displaying the video. In addition, when this additional information reference mode is set, it is possible to realize a viewing environment using natural illumination light regardless of the feature amount of the video data and audio data, so it is desirable to view the video in a calm atmosphere. Suitable for cases.

一方、映像参照モード設定時においては、映像データ、音声データの特徴量を用いて照明制御データ推定値を算出しているので、映像データ、音声データの特徴量を考慮した、色再現範囲が大きいダイナミックな視聴環境照明光の制御が可能である。この付加情報参照モード設定時においては、映像、音声の迫力をより強調して刺激的な映像視聴を行いたい場合に適している。   On the other hand, when the video reference mode is set, the illumination control data estimated value is calculated using the feature values of the video data and audio data, so the color reproduction range taking into account the feature values of the video data and audio data is large. It is possible to control the dynamic viewing environment illumination light. When this additional information reference mode is set, this mode is suitable for stimulating video viewing with more emphasis on the power of video and audio.

本実施形態においては、上述のとおり、付加情報参照モードと映像参照モードとをユーザが任意に切り換え可能に構成しているので、表示する映像コンテンツの種別や視聴者の好みなどによって、照明推定処理を変化させることで、所望の視聴環境照明を実現している。   In the present embodiment, as described above, since the user can arbitrarily switch between the additional information reference mode and the video reference mode, the illumination estimation process is performed depending on the type of video content to be displayed, the preference of the viewer, and the like. The desired viewing environment illumination is realized by changing the.

尚、本実施形態では、図15に示した仮想空間内の照明装置ID1〜8に対する照明制御データ推定値をまず求め、その後、実際の視聴環境空間に設置された照明装置27に対する照明制御データを求めているが、仮想空間内の照明装置ID1〜8に対する照明制御データ推定値を求めることなく、直接、実際の視聴環境空間に設置された照明装置27に対する照明制御データを求めるようにしてもよいことは言うまでもない。   In the present embodiment, the illumination control data estimated values for the illumination devices ID1 to 8 in the virtual space shown in FIG. 15 are first obtained, and then the illumination control data for the illumination device 27 installed in the actual viewing environment space is obtained. Although it is calculated | required, you may make it obtain | require the illumination control data with respect to the illuminating device 27 installed in the actual viewing-and-listening environment space directly, without calculating | requiring the illumination control data estimated value with respect to illuminating device ID1-8 in virtual space. Needless to say.

さらに、上記本実施形態においては、セグメント区切り情報などの付加データが放送データに多重付加されて送信される場合について説明したが、放送データに付加データが付加されていない場合、表示する映像データに対応する照明制御メタデータを外部サーバ装置等より送受信することによって、映像の撮影時照明状況に応じた最適な視聴環境を実現することが可能となる。これについて、以下に説明する。   Further, in the present embodiment, the case where additional data such as segment delimiter information is multiplexed and added to the broadcast data has been described. However, when the additional data is not added to the broadcast data, the video data to be displayed is displayed. By transmitting and receiving the corresponding lighting control metadata from an external server device or the like, it is possible to realize an optimal viewing environment according to the lighting situation during video shooting. This will be described below.

<第2の実施形態>
以下、本発明の視聴環境制御システムの第2実施形態について、図35及び36とともに詳細に説明するが、上記第1の実施形態と同一部分には同一符号を付し、その説明は省略する。ここで、図35は本実施形態の視聴環境制御システムにおける外部サーバ装置の要部概略構成を示すブロック図、図36は本実施形態の視聴環境制御システムにおける映像受信装置の要部概略構成を示すブロック図である。
<Second Embodiment>
Hereinafter, the second embodiment of the viewing environment control system of the present invention will be described in detail with reference to FIGS. 35 and 36. However, the same parts as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. Here, FIG. 35 is a block diagram showing the schematic configuration of the main part of the external server device in the viewing environment control system of the present embodiment, and FIG. 36 shows the schematic configuration of the main part of the video receiving device in the viewing environment control system of the present embodiment. It is a block diagram.

本実施形態における外部サーバ装置(データ送信装置)は、図35に示すように、映像受信装置(データ受信装置)側からカメラワーク情報、撮影環境情報、シーン設定情報などの照明制御データの送信要求を受信する受信部51と、照明制御メタデータを格納しているデータ格納部52と、送信要求を受けた照明制御メタデータを、セグメント区切り情報とともに、要求元の映像受信装置(データ受信装置)へ送信する送信部53とを備えている。   As shown in FIG. 35, the external server device (data transmission device) in the present embodiment sends a transmission request for illumination control data such as camera work information, shooting environment information, and scene setting information from the video reception device (data reception device) side. The receiver 51 for receiving the data, the data storage 52 for storing the illumination control metadata, and the illumination control metadata for which the transmission request has been received, together with the segment delimiter information, the requesting video receiver (data receiver) And a transmitting unit 53 for transmitting to.

次に、上記外部サーバ装置より送出されたセグメント区切り情報、照明制御メタデータを受けて、視聴環境照明を制御する映像受信装置(データ受信装置)について説明する。本実施形態における映像受信装置は、図36に示すように、伝送路より入力された放送データを受信して復調するとともに、誤り訂正を行う受信部61と、受信部61の出力データから、映像表示装置36に出力する映像データ、音声再生装置37に出力する音声データのそれぞれを分離・抽出するデータ分離部62と、表示する映像データ(コンテンツ)に対応した照明制御メタデータの送信要求を、通信ネットワークを介して外部サーバ装置(データ送信装置)に送出する送信部67と、前記送信要求した照明制御メタデータを、セグメント区切り情報とともに、通信ネットワークを介して外部サーバ装置より受信する受信部68とを備えている。   Next, a video reception device (data reception device) that receives segment segment information and illumination control metadata sent from the external server device and controls viewing environment illumination will be described. As shown in FIG. 36, the video receiving apparatus in the present embodiment receives and demodulates broadcast data input from the transmission path, performs error correction, and outputs video from the output data of the receiving unit 61. A data separation unit 62 that separates and extracts each of the video data output to the display device 36 and the audio data output to the audio playback device 37, and a transmission request for lighting control metadata corresponding to the video data (content) to be displayed. A transmission unit 67 that transmits to an external server device (data transmission device) via a communication network, and a reception unit 68 that receives the illumination control metadata requested for transmission from the external server device via the communication network together with segment delimiter information. And.

また、前記受信部68で受信したセグメント区切り情報、照明制御メタデータを一旦記憶し、このセグメント区切り情報に含まれる開始時刻TC(タイムコード)と、データ分離部62で抽出された映像データのTC(タイムコード)とを比較し、それらが一致したときに、対応する照明制御データを出力するCPU66と、CPU66からの照明制御メタデータ情報及び/又は前記映像データ及び前記音声データの特徴量に基づいて、照明制御データ(RGBデータ)を生成し、視聴環境空間を照明する照明装置38に出力する照明制御データ生成部65とを備えている。   The segment delimiter information and the illumination control metadata received by the receiving unit 68 are temporarily stored. The start time TC (time code) included in the segment delimiter information and the TC of the video data extracted by the data demultiplexing unit 62 are stored. (Time code) are compared, and when they match, the CPU 66 outputs the corresponding lighting control data, and the lighting control metadata information from the CPU 66 and / or the feature amount of the video data and the audio data And an illumination control data generator 65 that generates illumination control data (RGB data) and outputs the illumination control data (RGB data) to the illumination device 38 that illuminates the viewing environment space.

すなわち、CPU66は、外部サーバ装置より受信して内部に記憶している照明制御メタデータ格納テーブルの各セグメントの開始タイムコードと、照明制御データ生成部65に入力される映像データのタイムコードとを比較し、これらが一致した時にそのセグメントに対応する照明制御メタデータを照明制御データ生成部65に出力する。そして、照明制御データ生成部65は、前記セグメント区切り情報と、前記照明制御メタデータに含まれるカメラワーク情報、撮影環境情報、シーン設定情報のいずれか少なくとも1つ及び/又は映像データ、音声データとを用いて、各フレーム表示時に適した照明制御データ(RGBデータ)を生成・出力する。照明制御データ生成部65の動作は、上記第1実施形態における照明制御データ生成部24のそれと同じであるので、その説明は省略する。   That is, the CPU 66 receives the start time code of each segment of the lighting control metadata storage table received from the external server device and stored therein, and the time code of the video data input to the lighting control data generation unit 65. When these are matched, the lighting control metadata corresponding to the segment is output to the lighting control data generation unit 65. The lighting control data generation unit 65 includes at least one of the segment delimiter information, camera work information, shooting environment information, and scene setting information included in the lighting control metadata, and / or video data and audio data. Is used to generate and output illumination control data (RGB data) suitable for displaying each frame. Since the operation of the illumination control data generation unit 65 is the same as that of the illumination control data generation unit 24 in the first embodiment, description thereof is omitted.

これによって、放送データに照明制御メタデータが付加されていない場合であっても、表示映像データ(番組コンテンツ)に対応する照明制御メタデータを外部サーバ装置より入手し、この照明制御メタデータに基づいて、視聴環境照明を制御する構成としているので、上述した第1の実施形態と同様、映像制作者の意図に応じた適切な照明制御を行うことができる。   As a result, even if the lighting control metadata is not added to the broadcast data, the lighting control metadata corresponding to the display video data (program content) is obtained from the external server device, and based on the lighting control metadata. Since the viewing environment illumination is controlled, appropriate illumination control according to the intention of the video producer can be performed as in the first embodiment.

尚、本発明の視聴環境制御装置、方法、及び視聴環境制御システムは、上述した本発明の主旨を逸脱しない範囲で、様々な実施形態により実現することが可能である。例えば、環境照明制御装置は映像表示装置内に設けられてもよく、入力映像データに含まれる種々の情報に基づいて、外部の照明機器を制御することができるような構成としてもよいことは言うまでもない。   Note that the viewing environment control device, method, and viewing environment control system of the present invention can be realized by various embodiments without departing from the gist of the present invention described above. For example, the environmental lighting control device may be provided in the video display device, and it is needless to say that an external lighting device may be controlled based on various information included in the input video data. Yes.

さらに、上述したセグメント区切り情報、照明制御メタデータ(カメラワーク情報、撮影環境情報、シーン設定情報のいずれか少なくとも1つ)は、放送データから分離・取得する場合や、外部サーバ装置から取得する場合に限られず、例えば、外部機器(DVD再生機やブルーレイディスク再生機など)で再生された映像情報を表示する場合、メディア媒体内に記録されたセグメント区切り情報、照明制御メタデータを読み出して、これを用いるようにしてもよい。   Furthermore, the segment delimiter information and the lighting control metadata (at least one of camera work information, shooting environment information, and scene setting information) described above are separated or obtained from broadcast data, or obtained from an external server device. For example, when displaying video information reproduced by an external device (such as a DVD player or a Blu-ray disc player), the segment delimiter information and the illumination control metadata recorded in the media medium are read out. May be used.

この場合、セグメント区切り情報、照明制御メタデータは映像情報に付加されていてもよいし、メディア媒体内で映像情報と異なる領域に記録されていてもよい。また、セグメント区切り情報、照明制御メタデータは、映像情報が記録されたメディア媒体とは別のメディア媒体や外部サーバ装置から取得するようにしてもよく、セグメント区切り情報、照明制御メタデータがセグメント単位で映像データに対応付けられていればよいことは言うまでもない。   In this case, the segment delimiter information and the illumination control metadata may be added to the video information, or may be recorded in a different area from the video information in the media medium. The segment delimiter information and lighting control metadata may be obtained from a media medium other than the medium on which the video information is recorded or an external server device. Needless to say, it is only necessary to be associated with the video data.

本発明の一実施形態の視聴環境制御システムにおける映像送信装置の要部概略構成を示すブロック図である。It is a block diagram which shows the principal part schematic structure of the video transmission apparatus in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける映像送信装置の出力ビットストリーム例を示す説明図である。It is explanatory drawing which shows the example of an output bit stream of the video transmission apparatus in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける付加データのデータ構造の一例を説明するための図である。It is a figure for demonstrating an example of the data structure of the additional data in the viewing-and-listening environment control system of one Embodiment of this invention. 映像の構成要素を説明するための説明図である。It is explanatory drawing for demonstrating the component of an image | video. 本発明の一実施形態の視聴環境制御システムにおけるシーン区切り情報の一例を示す説明図である。It is explanatory drawing which shows an example of the scene break information in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおけるカメラワーク情報の一例を示す説明図である。It is explanatory drawing which shows an example of the camera work information in the viewing-and-listening environment control system of one Embodiment of this invention. カメラポジション及びカメラアングルを説明するための図である。It is a figure for demonstrating a camera position and a camera angle. 被写体サイズを説明するための図である。It is a figure for demonstrating a to-be-photographed object size. 被写体数を説明するための図である。It is a figure for demonstrating the number of subjects. 本発明の一実施形態の視聴環境制御システムにおける撮影照明情報の一例を示す説明図である。It is explanatory drawing which shows an example of the imaging | photography illumination information in the viewing-and-listening environment control system of one Embodiment of this invention. 撮影照明光の水平方向及び垂直方向の区分を説明するための説明図である。It is explanatory drawing for demonstrating the division of the horizontal direction of an imaging | photography illumination light, and a perpendicular direction. 本発明の一実施形態の視聴環境制御システムにおけるシーン設定情報の一例を示す説明図である。It is explanatory drawing which shows an example of the scene setting information in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける映像受信装置の要部概略構成を示すブロック図である。It is a block diagram which shows the principal part schematic structure of the video receiver in the viewing-and-listening environment control system of one Embodiment of this invention. 図13における照明制御データ生成部の構成を示すブロック図である。It is a block diagram which shows the structure of the illumination control data generation part in FIG. 本発明の一実施形態の視聴環境制御システムにおける仮想視聴環境空間を示す説明図である。It is explanatory drawing which shows the virtual viewing environment space in the viewing environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける映像参照モード時の照明推定処理を示すフローチャートである。It is a flowchart which shows the illumination estimation process at the time of the image | video reference mode in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける付加情報参照モード時の照明推定処理を示すフローチャートである。It is a flowchart which shows the illumination estimation process at the time of the additional information reference mode in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおけるカメラワーク情報を用いた照明推定処理を示すフローチャートである。It is a flowchart which shows the illumination estimation process using the camera work information in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおけるカメラポジション及びカメラアングルによって決まる場(雰囲気)推定対象領域例を示す説明図である。It is explanatory drawing which shows the example of a field (atmosphere) estimation object area | region decided by the camera position and camera angle in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおけるカメラポジションによって決まる場(雰囲気)推定対象領域例を示す説明図である。It is explanatory drawing which shows the example of a field (atmosphere) estimation object area | region decided by the camera position in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおけるカメラアングルによって決まる場(雰囲気)推定対象領域例を示す説明図である。It is explanatory drawing which shows the example of a field (atmosphere) estimation object area | region decided by the camera angle in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける被写体サイズ及び被写体数によって決まる場(雰囲気)推定対象領域例を示す説明図である。It is explanatory drawing which shows the example of a field (atmosphere) estimation object area | region determined by the to-be-photographed object size and the to-be-photographed object in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける被写体サイズによって決まる場(雰囲気)推定対象領域例を示す説明図である。It is explanatory drawing which shows the example of a field (atmosphere) estimation object area | region decided by the to-be-photographed object size in the viewing-and-listening environment control system of one Embodiment of this invention. 視聴環境制御システムにおける被写体数によって決まる場(雰囲気)推定対象領域例を示す説明図である。It is explanatory drawing which shows the example of a field (atmosphere) estimation object area | region decided by the number of subjects in a viewing-and-listening environment control system. 本発明の一実施形態の視聴環境制御システムにおける画面特徴量検出領域を示す図である。It is a figure which shows the screen feature-value detection area | region in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける撮影照明情報を用いた照明推定処理を示すフローチャートである。It is a flowchart which shows the illumination estimation process using the imaging | photography illumination information in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける制御データの一例を示す説明図である。It is explanatory drawing which shows an example of the control data in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける照明方向情報と対応する照明装置IDとの関係例を示す説明図である。It is explanatory drawing which shows the example of a relationship between the illuminating device ID corresponding to the illumination direction information in the viewing-and-listening environment control system of one Embodiment of this invention. 図37に示した映像シーンに対応した撮影照明情報の例を示す説明図である。It is explanatory drawing which shows the example of the imaging | photography illumination information corresponding to the video scene shown in FIG. 本発明の一実施形態の視聴環境制御システムにおける照明光の色再現範囲を表す説明図である。It is explanatory drawing showing the color reproduction range of the illumination light in the viewing-and-listening environment control system of one Embodiment of this invention. 図38に示した映像シーンに対応した撮影照明情報を示す説明図である。It is explanatory drawing which shows the imaging | photography illumination information corresponding to the video scene shown in FIG. 本発明の一実施形態の視聴環境制御システムにおけるシーン設定情報を用いた照明推定処理を示すフローチャートである。It is a flowchart which shows the illumination estimation process using the scene setting information in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおけるシーン設定情報と制御データとの関係例を示す説明図である。It is explanatory drawing which shows the example of a relationship between the scene setting information and control data in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の一実施形態の視聴環境制御システムにおける照明光の色再現範囲を表す別の説明図である。It is another explanatory drawing showing the color reproduction range of the illumination light in the viewing-and-listening environment control system of one Embodiment of this invention. 本発明の第2実施形態に係る視聴環境制御システムにおける外部サーバ装置の要部概略構成を示すブロック図である。It is a block diagram which shows the principal part schematic structure of the external server apparatus in the viewing-and-listening environment control system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る視聴環境制御システムにおける映像受信装置の要部概略構成を示すブロック図である。It is a block diagram which shows the principal part schematic structure of the video receiver in the viewing-and-listening environment control system which concerns on 2nd Embodiment of this invention. 従来の技術による照明制御の問題点の一例を説明するための図である。It is a figure for demonstrating an example of the problem of the illumination control by a prior art. 従来の技術による照明制御の問題点の他の例を説明するための図である。It is a figure for demonstrating the other example of the problem of the illumination control by a prior art. 従来の技術による照明制御の問題点の他の例を説明するための図である。It is a figure for demonstrating the other example of the problem of the illumination control by a prior art. 従来の技術による照明制御の問題点の他の例を説明するための図である。It is a figure for demonstrating the other example of the problem of the illumination control by a prior art. 従来の技術による照明制御の問題点の他の例を説明するための図である。It is a figure for demonstrating the other example of the problem of the illumination control by a prior art.

符号の説明Explanation of symbols

1…データ多重部
2…送信部
11…ヘッダ
12…拡張ヘッダ
13…ペイロード
21…受信部
22…データ分離部
24…照明制御データ生成部
25…映像表示装置
26…音声再生装置
27…照明装置
28、29…ディレイ発生部
31、61…受信部
32、62…データ分離部
33、34…ディレイ発生部
35、65…照明制御データ生成部
36…映像表示装置
37…音声再生装置
38…照明装置
51…受信部
52…データ格納部
53…送信部
61…受信部
62…データ分離部
65…照明制御データ生成部
66…CPU
67…送信部
68…受信部
351…付加データ解析部
352…照明制御データ推定部
354…照明制御部
DESCRIPTION OF SYMBOLS 1 ... Data multiplexing part 2 ... Transmission part 11 ... Header 12 ... Extension header 13 ... Payload 21 ... Reception part 22 ... Data separation part 24 ... Illumination control data generation part 25 ... Video display apparatus 26 ... Audio | voice reproduction apparatus 27 ... Illumination apparatus 28 , 29 ... Delay generators 31 and 61 ... Receivers 32 and 62 ... Data separators 33 and 34 ... Delay generators 35 and 65 ... Illumination control data generator 36 ... Video display device 37 ... Audio reproduction device 38 ... Illuminator 51 ... Reception unit 52 ... Data storage unit 53 ... Transmission unit 61 ... Reception unit 62 ... Data separation unit 65 ... Lighting control data generation unit 66 ... CPU
67 ... Transmission unit 68 ... Reception unit 351 ... Additional data analysis unit 352 ... Illumination control data estimation unit 354 ... Illumination control unit

Claims (28)

1以上のフレームから構成される映像データを送信するデータ送信装置において、
前記映像データを1以上の任意の数のフレームから構成されるセグメントに分割し、各セグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを、前記セグメント単位で映像データに付加することを特徴とするデータ送信装置。
In a data transmission apparatus for transmitting video data composed of one or more frames,
The video data is divided into segments composed of an arbitrary number of one or more frames, segment delimiter information indicating the start time and / or section of each segment, camera work information at the time of shooting the video data, and shooting illumination A data transmitting apparatus, wherein at least one of information and scene setting information is added to video data in units of segments.
前記請求項1に記載のデータ送信装置において、
前記カメラワーク情報は、少なくとも各セグメントの撮影時におけるカメラポジションを表わす情報を含むことを特徴とするデータ送信装置。
The data transmission device according to claim 1, wherein
The data transmission apparatus characterized in that the camera work information includes at least information representing a camera position at the time of photographing each segment.
前記請求項1または2に記載のデータ送信装置において、
前記カメラワーク情報は、少なくとも各セグメントの撮影時におけるカメラアングルを表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to claim 1 or 2,
The data transmission apparatus characterized in that the camera work information includes at least information representing a camera angle at the time of photographing each segment.
前記請求項1乃至3のいずれかに記載のデータ送信装置において、
前記カメラワーク情報は、少なくとも各セグメントの撮影時における被写体のサイズを表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 3,
The data transmission apparatus according to claim 1, wherein the camera work information includes at least information representing a size of a subject at the time of photographing each segment.
前記請求項1乃至4のいずれかに記載のデータ送信装置において、
前記カメラワーク情報は、少なくとも各セグメントの撮影時における被写体の数を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 4,
The data transmission apparatus according to claim 1, wherein the camera work information includes at least information indicating the number of subjects at the time of photographing each segment.
前記請求項1乃至5のいずれかに記載のデータ送信装置において、
前記カメラワーク情報は、少なくとも各セグメントの撮影時におけるカメラの動きを表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 5,
The data transmission apparatus according to claim 1, wherein the camera work information includes at least information representing a camera movement at the time of photographing each segment.
前記請求項1乃至6のいずれかに記載のデータ送信装置において、
前記カメラワーク情報は、少なくとも各セグメントの撮影に用いられたカメラレンズの種別を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 6,
The data transmission apparatus characterized in that the camera work information includes at least information indicating a type of a camera lens used for photographing each segment.
前記請求項1乃至7のいずれかに記載のデータ送信装置において、
前記撮影照明情報は、少なくとも各セグメントの撮影に用いられた照明のライティング種別を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 7,
The photographic illumination information includes at least information indicating a lighting type of illumination used for photographing each segment.
前記請求項1乃至8のいずれかのいずれかに記載のデータ送信装置において、
前記撮影照明情報は、少なくとも各セグメントの撮影に用いられた照明の性質を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 8,
The data transmission apparatus according to claim 1, wherein the photographing illumination information includes at least information indicating a property of illumination used for photographing each segment.
前記請求項1乃至9のいずれかに記載のデータ送信装置において、
前記撮影照明情報は、少なくとも各セグメントの撮影に用いられた照明の光の方向を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 9,
The photographic illumination information includes at least information indicating the direction of illumination light used for photographing each segment.
前記請求項1乃至10のいずれかに記載のデータ送信装置において、
前記撮影照明情報は、少なくとも各セグメントの撮影に用いられた照明の光の強度を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 10,
The photographic illumination information includes at least information indicating the intensity of illumination light used for photographing each segment.
前記請求項1乃至11のいずれかに記載のデータ送信装置において、
前記撮影照明情報は、少なくとも各セグメントの撮影に用いられた照明の光の色温度を表わす情報を含むことを特徴とするデータ送信装置。
The data transmission device according to any one of claims 1 to 11,
The photographic illumination information includes at least information indicating the color temperature of the illumination light used for photographing each segment.
前記請求項1乃至12に記載のデータ送信装置において、
前記シーン設定情報は、少なくとも各セグメントのストーリー上における季節を表わす情報を含むことを特徴とするデータ送信装置。
The data transmission device according to any one of claims 1 to 12,
The data transmission device, wherein the scene setting information includes at least information indicating a season on a story of each segment.
前記請求項1乃至13のいずれかに記載のデータ送信装置において、
前記シーン設定情報は、少なくとも各セグメントのストーリー上における時刻を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 13,
The data transmission device, wherein the scene setting information includes at least information representing a time on a story of each segment.
前記請求項1乃至14のいずれかに記載のデータ送信装置において、
前記シーン設定情報は、少なくとも各シーンのストーリー上における場所を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 14,
The data transmission device, wherein the scene setting information includes at least information representing a place on a story of each scene.
前記請求項1乃至15のいずれかに記載のデータ送信装置において、
前記シーン設定情報は、少なくとも各セグメントのストーリー上における時代を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 15,
The data transmission device, wherein the scene setting information includes at least information representing an era on a story of each segment.
前記請求項1乃至16のいずれかに記載のデータ送信装置において、
前記シーン設定情報は、少なくとも各セグメントのストーリー上における天候を表わす情報を含むことを特徴とするデータ送信装置。
In the data transmission device according to any one of claims 1 to 16,
The scene transmission information includes at least information representing the weather on the story of each segment.
前記請求項1乃至19のいずれかに記載のデータ送信装置において、
前記シーン設定情報は、少なくとも各セグメントのストーリー上における地域を表わす情報を含むことを特徴とするデータ送信装置。
The data transmission device according to any one of claims 1 to 19,
The data transmission device, wherein the scene setting information includes at least information indicating a region on a story of each segment.
外部からの要求を受けて、映像データを1以上の任意の数のフレームで分割したセグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを、前記セグメント単位で送信することを特徴とするデータ送信装置。   In response to an external request, segment delimiter information indicating the start time and / or section of a segment obtained by dividing video data into an arbitrary number of one or more frames, camera work information at the time of shooting the video data, and shooting illumination A data transmitting apparatus, wherein at least one of information and scene setting information is transmitted in units of segments. 表示装置に表示すべき映像データと、該映像データを1以上の任意の数のフレームで分割したセグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記セグメント単位で前記映像データに対応付けられた、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを受信する受信手段と、
前記セグメント区切り情報と、前記映像データ及び/又はカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとに基づいて、前記表示装置の周辺に設置された照明装置の照明光を制御する制御手段とを備えたことを特徴とする視聴環境制御装置。
Video data to be displayed on a display device, segment delimiter information indicating the start time and / or section of a segment obtained by dividing the video data by an arbitrary number of one or more frames, and the video data in association with each segment Receiving means for receiving at least one of camera work information, shooting illumination information, and scene setting information at the time of shooting the video data;
Based on the segment delimiter information and at least one of the video data and / or camera work information, photographing illumination information, and scene setting information, illumination light of an illumination device installed around the display device is controlled. A viewing environment control apparatus comprising a control means.
前記制御手段は、前記照明装置の照明光を、前記セグメント単位で切替え制御することを特徴とする前記請求項20に記載の視聴環境制御装置。   21. The viewing environment control device according to claim 20, wherein the control unit switches and controls illumination light of the illumination device in units of the segments. 少なくとも前記映像データの特徴量を用いて、前記照明装置の照明光を制御する映像参照モードと、前記映像データの特徴量を用いることなく、前記撮影照明情報、シーン設定情報の少なくともいずれかのみを用いて、前記照明装置の照明光を制御する付加情報参照モードとを備えたことを特徴とする前記請求項20または21に記載の視聴環境制御装置。   At least one of the video reference mode for controlling the illumination light of the lighting device using at least the feature amount of the video data, and the shooting illumination information and the scene setting information without using the feature amount of the video data. The viewing environment control device according to claim 20 or 21, further comprising: an additional information reference mode for controlling illumination light of the illumination device. 前記請求項22に記載の視聴環境制御装置において、
前記映像参照モードが設定されているとき、前記制御手段は、前記カメラワーク情報に応じて、前記映像データの特徴量を検出する画面領域を制限することを特徴とする視聴環境制御装置。
The viewing environment control device according to claim 22,
When the video reference mode is set, the control unit restricts a screen area for detecting a feature amount of the video data according to the camera work information.
前記請求項22または23に記載の視聴環境制御装置において、
前記映像参照モードが設定されているとき、前記制御手段は、前記映像データの特徴量に基づいて求めた照明推定値と、前記撮影照明情報、シーン設定情報の少なくともいずれかに基づいて求めた照明推定値とを用いて、前記照明装置の照明光を制御することを特徴とする視聴環境制御装置。
In the viewing environment control device according to claim 22 or 23,
When the video reference mode is set, the control means determines the illumination obtained based on at least one of the estimated illumination value obtained based on the feature amount of the video data, the photographing illumination information, and the scene setting information. A viewing environment control device that controls illumination light of the illumination device using an estimated value.
前記請求項20乃至24に記載の視聴環境制御装置と、該視聴環境制御装置によって視聴環境照明光を制御される照明装置とを備えることを特徴とする視聴環境制御システム。   25. A viewing environment control system comprising the viewing environment control device according to claim 20 and a lighting device whose viewing environment illumination light is controlled by the viewing environment control device. 1以上のフレームから構成される映像データを送信するデータ送信方法において、
前記映像データを1以上の任意の数のフレームから構成されるセグメントに分割し、各セグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを、前記セグメント単位で前記映像データに付加して送信することを特徴とするデータ送信方法。
In a data transmission method for transmitting video data composed of one or more frames,
The video data is divided into segments composed of an arbitrary number of one or more frames, segment delimiter information indicating the start time and / or section of each segment, camera work information at the time of shooting the video data, and shooting illumination A data transmission method characterized by adding at least one of information and scene setting information to the video data in units of segments.
外部からの要求を受けて、映像データを1以上の任意の数のフレームで分割したセグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを、前記セグメント単位で送信することを特徴とするデータ送信方法。   In response to an external request, segment delimiter information indicating the start time and / or section of a segment obtained by dividing video data into an arbitrary number of one or more frames, camera work information at the time of shooting the video data, and shooting illumination A data transmission method comprising transmitting at least one of information and scene setting information in the segment unit. 表示装置に表示すべき映像データと、該映像データを1以上の任意の数のフレームで分割したセグメントの開始時刻及び/又は区間を示すセグメント区切り情報と、前記セグメント単位で前記映像データに対応付けられた、前記映像データの撮影時におけるカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとを受信し、
前記セグメント区切り情報と、前記映像データ及び/又はカメラワーク情報、撮影照明情報、シーン設定情報の少なくともいずれか一つとに基づいて、前記表示装置の周辺に設置された照明装置の照明光を制御することを特徴とする視聴環境制御方法。
Video data to be displayed on a display device, segment delimiter information indicating the start time and / or section of a segment obtained by dividing the video data by an arbitrary number of one or more frames, and the video data in association with each segment Received at least one of camera work information, shooting lighting information, and scene setting information at the time of shooting the video data,
Based on the segment delimiter information and at least one of the video data and / or camera work information, photographing illumination information, and scene setting information, illumination light of an illumination device installed around the display device is controlled. A viewing environment control method characterized by the above.
JP2007271108A 2007-09-03 2007-10-18 Data transmission device and method, and view environment control apparatus, system and method Pending JP2009081822A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007271108A JP2009081822A (en) 2007-09-03 2007-10-18 Data transmission device and method, and view environment control apparatus, system and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007228320 2007-09-03
JP2007271108A JP2009081822A (en) 2007-09-03 2007-10-18 Data transmission device and method, and view environment control apparatus, system and method

Publications (1)

Publication Number Publication Date
JP2009081822A true JP2009081822A (en) 2009-04-16

Family

ID=40656222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007271108A Pending JP2009081822A (en) 2007-09-03 2007-10-18 Data transmission device and method, and view environment control apparatus, system and method

Country Status (1)

Country Link
JP (1) JP2009081822A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4555934B1 (en) * 2009-10-30 2010-10-06 株式会社アクセル Lighting device identification mark forming device, lighting control signal generating device, program
US9487689B2 (en) 2012-08-21 2016-11-08 Asahi Glass Company, Limited Fluorinated copolymer and process for its production, water repellent composition, and article
JP2017050830A (en) * 2015-09-04 2017-03-09 パナソニックIpマネジメント株式会社 Luminaire, illumination system and program
JP2020068444A (en) * 2018-10-23 2020-04-30 日本放送協会 Lighting control/photographing device, composite image generation device, and program
CN113889014A (en) * 2020-07-02 2022-01-04 苏州佳世达电通有限公司 Display system and control method
WO2023162800A1 (en) * 2022-02-28 2023-08-31 ソニーグループ株式会社 Video processing device, video processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229153A (en) * 2004-02-10 2005-08-25 Sony Corp Dimmer system and dimmer method, distributor and distribution method, receiver and reception method, recorder and recording method, and reproducing apparatus and reproducing method
WO2006104106A1 (en) * 2005-03-28 2006-10-05 Pioneer Corporation Digest view system and reproduction control device for digest view
JP2007043334A (en) * 2005-08-01 2007-02-15 Sony Corp Sound signal processing method and sound field reproduction system
WO2007052395A1 (en) * 2005-10-31 2007-05-10 Sharp Kabushiki Kaisha View environment control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229153A (en) * 2004-02-10 2005-08-25 Sony Corp Dimmer system and dimmer method, distributor and distribution method, receiver and reception method, recorder and recording method, and reproducing apparatus and reproducing method
WO2006104106A1 (en) * 2005-03-28 2006-10-05 Pioneer Corporation Digest view system and reproduction control device for digest view
JP2007043334A (en) * 2005-08-01 2007-02-15 Sony Corp Sound signal processing method and sound field reproduction system
WO2007052395A1 (en) * 2005-10-31 2007-05-10 Sharp Kabushiki Kaisha View environment control system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4555934B1 (en) * 2009-10-30 2010-10-06 株式会社アクセル Lighting device identification mark forming device, lighting control signal generating device, program
JP2011092585A (en) * 2009-10-30 2011-05-12 Akuseru:Kk Lighting system identification mark forming device, lighting controlling signal generating device and program
US9487689B2 (en) 2012-08-21 2016-11-08 Asahi Glass Company, Limited Fluorinated copolymer and process for its production, water repellent composition, and article
JP2017050830A (en) * 2015-09-04 2017-03-09 パナソニックIpマネジメント株式会社 Luminaire, illumination system and program
JP2020068444A (en) * 2018-10-23 2020-04-30 日本放送協会 Lighting control/photographing device, composite image generation device, and program
JP7212497B2 (en) 2018-10-23 2023-01-25 日本放送協会 Lighting control/photographing device, composite image generation device, and program
CN113889014A (en) * 2020-07-02 2022-01-04 苏州佳世达电通有限公司 Display system and control method
CN113889014B (en) * 2020-07-02 2024-03-22 苏州佳世达电通有限公司 Display system and control method
WO2023162800A1 (en) * 2022-02-28 2023-08-31 ソニーグループ株式会社 Video processing device, video processing method, and program

Similar Documents

Publication Publication Date Title
JP4950988B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
JP5058157B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
JP4950990B2 (en) Video transmission apparatus and method, viewing environment control apparatus and method
JP4889731B2 (en) Viewing environment control device, viewing environment control system, and viewing environment control method
JPWO2007052395A1 (en) Viewing environment control device, viewing environment control system, viewing environment control method, data transmission device, and data transmission method
CN108521859A (en) Handle multiple HDR image sources
JP2009081822A (en) Data transmission device and method, and view environment control apparatus, system and method
JP2010511986A (en) Ambient lighting
JP5442643B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control method, and viewing environment control system
CN106603912A (en) Video live broadcast control method and device
JP2019506817A (en) Processing multiple HDR image sources
US20080247727A1 (en) System for creating content for video based illumination systems
JP4789592B2 (en) Viewing environment control device and viewing environment control method
JP4709897B2 (en) Viewing environment control system, viewing environment control device, viewing environment lighting control system, and viewing environment control method
JP4439322B2 (en) High presence reproduction apparatus and method
JP2009060542A (en) Data transmission apparatus, data transmission method, audiovisual environment control device, audiovisual environment control system, and audiovisual environment control method
JP2009036801A (en) View environment control device and view environment control method
JP2009081482A (en) Data transmitter, data transmission method, and unit, system, and method for controlling viewing environment
Jaksic et al. Analysis of the Effects of Front and Back Lights in Chroma Key Effects During Implementation in Virtual TV Studio
GB2370958A (en) Combining multiple images of the same scene with different illuminations
GB2334591A (en) Remote controlled and synchronized camera and flashlamp
WO2023196850A2 (en) System and method for providing dynamic backgrounds in live-action videography
CN115039412A (en) Image display apparatus, system and method
WO2023196845A2 (en) System and method for providing dynamic backgrounds in live-action videography
Freeman The Low Light Photography Field Guide: The essential guide to getting perfect images in challenging light

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101001

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131105