JP2009036801A - View environment control device and view environment control method - Google Patents
View environment control device and view environment control method Download PDFInfo
- Publication number
- JP2009036801A JP2009036801A JP2007198545A JP2007198545A JP2009036801A JP 2009036801 A JP2009036801 A JP 2009036801A JP 2007198545 A JP2007198545 A JP 2007198545A JP 2007198545 A JP2007198545 A JP 2007198545A JP 2009036801 A JP2009036801 A JP 2009036801A
- Authority
- JP
- Japan
- Prior art keywords
- data
- mode
- viewing environment
- environment control
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、視聴環境空間内に設置された照明装置の照明光を制御することにより、映像鑑賞時の臨場感を向上させることが可能な視聴環境制御装置及び視聴環境制御方法に関するものである。 The present invention relates to a viewing environment control device and a viewing environment control method capable of improving the sense of reality when viewing an image by controlling illumination light of a lighting device installed in a viewing environment space.
近年、映像・音声に係るエレクトロニクス技術の急速な進歩により、ディスプレイの大型化、広視野角化、高精細化やサラウンドシステムの向上が進み、臨場感のある映像や音声が楽しめるようになってきている。例えば、現在普及しつつあるホームシアターシステムにおいては、大型ディスプレイやスクリーンと多チャンネル音声・音響技術との組み合わせにより、高い臨場感を得ることができるシステムを実現している。 In recent years, with the rapid advancement of electronics technology related to video and audio, the display has become larger, wider viewing angle, higher definition and surround system have improved, and it has become possible to enjoy realistic video and audio. Yes. For example, in a home theater system that is now widely used, a system that can provide a high sense of realism is realized by a combination of a large display or screen and multi-channel audio / sound technology.
また、特に最近では、単に一つの表示装置で映像を楽しむものではなく、複数のディスプレイを組み合わせて広視野な映像を視聴するシステムや、ディスプレイに表示される映像と照明装置の照明光とを連動させるシステムなどが提案されており、複数のメディアを組み合わせて、より臨場感が高められるようなシステムの開発が盛んに行われている。 In addition, recently, it is not just to enjoy video on a single display device, but a system for viewing wide-field images by combining multiple displays, and the video displayed on the display and the illumination light of the lighting device are linked. The system which makes it move is proposed, and the development of the system which raises a sense of reality more by combining a plurality of media is performed actively.
特に、ディスプレイと照明装置とを連動させて高い臨場感を実現する技術においては、大型ディスプレイを用いなくても高い臨場感が得られることから、コストや設置スペース等の制約が少なく、大きな期待が寄せられ、大変注目を浴びている。 In particular, in technologies that achieve a high sense of realism by linking a display and a lighting device, a high sense of realism can be obtained without using a large display. It has been attracting a lot of attention.
この技術によれば、視聴者の部屋(視聴環境空間)に設置されている複数の照明装置の照明光を、ディスプレイに表示される映像に応じた色や強さにコントロールすることにより、視聴者があたかもディスプレイに映し出されている映像空間の中に実在するかのような感覚・効果を与えることができる。このようなディスプレイに表示される画像と照明装置の照明光とを連動させる技術は、例えば特開2001−343900号公報や特開平3−184203号公報に開示されている。 According to this technology, the viewer can control the illumination light of a plurality of lighting devices installed in the viewer's room (viewing environment space) to a color and intensity according to the image displayed on the display. It can give the sensation and effect as if they existed in the image space projected on the display. Techniques for interlocking the image displayed on the display with the illumination light of the illumination device are disclosed in, for example, Japanese Patent Application Laid-Open Nos. 2001-343900 and 3-184203.
特開2001−343900号公報に開示されている技術は、高い臨場感を提供することを目的としたもので、複数の照明装置を表示すべき映像に連動させて制御する照明システムにおいて、映像データの特徴量(代表色、平均輝度)から複数の照明装置に対する照明制御データを生成する方法が記載されている。具体的には、各照明装置の設置位置に応じて予め決められた画面領域の映像データの特徴量を検出し、この検出された特徴量に基づいて各照明装置に対する照明制御データを生成することが記載されている。 The technique disclosed in Japanese Patent Application Laid-Open No. 2001-343900 is intended to provide a high sense of presence. In an illumination system that controls a plurality of illumination devices in conjunction with an image to be displayed, video data Describes a method of generating illumination control data for a plurality of illumination devices from the feature quantities (representative colors, average luminance). Specifically, a feature amount of video data in a predetermined screen area is detected according to an installation position of each lighting device, and lighting control data for each lighting device is generated based on the detected feature amount. Is described.
また、照明制御データは、映像データの特徴量から演算して求めるものに限らず、単独で或いは映像データとともに、インターネット等を介して配信されるものや、搬送波により配信されるものを用いてもよいことが記載されている。 Further, the illumination control data is not limited to the one obtained by calculating from the feature amount of the video data, and may be one that is distributed alone or together with the video data, or one that is distributed via the Internet, or one that is distributed by a carrier wave. It is described that it is good.
さらに特開平3−184203号公報では、原画像から人の顔など肌色の部分を取り除き、肌色部分を取り除いた画像のR(赤色)、G(緑色)、B(青色)の色信号と、輝度信号とから、適切な照明制御を行うことが記載されている。 Furthermore, in Japanese Patent Laid-Open No. 3-184203, R (red), G (green), and B (blue) color signals of an image obtained by removing a skin color portion such as a human face from an original image and removing the skin color portion, and luminance It is described that appropriate illumination control is performed from the signal.
しかしながら、上述の特開2001−343900号公報に記載のものは、映像中に含まれる光源の面積が小さい場合、ヒストグラムによって導かれた代表色を特徴量とすると、映像中の光源が視聴環境照明に反映されず、また、平均輝度を特徴量とすると、映像中の光源の視聴環境照明への反映度合いが下がってしまい、映像中に含まれる光源が効果的に視聴環境照明に反映されないという問題があった。また例えば、複数の色の分布にあまり差がない場合、代表色の影響が強く出すぎてしまい、好ましい視聴環境照明を行うことができないという問題があった。 However, in the above-mentioned Japanese Patent Application Laid-Open No. 2001-343900, when the area of the light source included in the video is small, if the representative color derived by the histogram is used as the feature amount, the light source in the video is viewed in the viewing environment illumination. If the average luminance is used as a feature amount, the degree of reflection of the light source in the video to the viewing environment illumination will be reduced, and the light source contained in the video will not be reflected in the viewing environment illumination effectively. was there. Further, for example, when there is not much difference between the distributions of a plurality of colors, there is a problem that the influence of the representative color is too strong and preferable viewing environment illumination cannot be performed.
また、上述の特開平3−184203号公報に記載の肌色部分を取り除いた画像のR(赤色)、G(緑色)、B(青色)の色信号と、輝度信号とから、照明制御を行う方法では、例えば夜のシーンで人物がアップになっている映像の場合、撮影照明に照らされている体の部分(肌色部分以外)の明るさに影響を受けて視聴環境照明が明るくなってしまい、暗闇の雰囲気が出せないという問題があった。 Also, a method of performing illumination control from the R (red), G (green), and B (blue) color signals of the image from which the flesh-colored portion is removed as described in JP-A-3-184203 and the luminance signal Then, for example, in the case of a video where a person is up in a night scene, the viewing environment illumination becomes brighter due to the brightness of the body part (other than the skin color part) illuminated by the shooting illumination, There was a problem that the atmosphere of darkness could not be produced.
本発明は、上記従来技術の問題点に鑑みてなされたものであり、映像表示装置に表示される画像に応じて適切に照明制御を行うことができる照明制御方法を提供することを目的とするものである。 The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide an illumination control method capable of appropriately performing illumination control according to an image displayed on a video display device. Is.
本発明は、次のような技術手段によって前記課題を解決する。 The present invention solves the above problems by the following technical means.
本願の第1の発明は、表示装置に表示すべき映像データの特徴量に基づいて、照明装置の照明光を変化させる視聴環境制御装置において、前記表示装置に表示される映像コンテンツの所定の画面領域内の画像内容を表す特徴パターンの分布に応じて、前記映像データの特徴量に基づく照明制御動作を可変することを特徴とする。 According to a first aspect of the present application, in a viewing environment control device that changes illumination light of a lighting device based on a feature amount of video data to be displayed on the display device, a predetermined screen of video content displayed on the display device The illumination control operation based on the feature amount of the video data is varied according to the distribution of the feature pattern representing the image content in the region.
本願の第2の発明は、第1の発明に記載の視聴環境制御装置において、前記特徴パターンの分布は、前記画面領域を1以上に分割したブロックの特徴パターンの分布であることを特徴とする。 According to a second aspect of the present invention, in the viewing environment control device according to the first aspect, the distribution of the feature pattern is a distribution of a feature pattern of a block obtained by dividing the screen area into one or more. .
本願の第3の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が被写体であることを示す被写体パターンを含むことを特徴とする。 According to a third aspect of the present invention, in the viewing environment control device according to the first aspect or the second aspect, the feature pattern includes a subject pattern indicating that the image content of the screen area is a subject. Features.
本願の第4の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が光源であることを示す光源パターンを含むことを特徴とする。 4th invention of this application WHEREIN: In the viewing-and-listening environment control apparatus as described in 1st invention or 2nd invention, the said feature pattern contains the light source pattern which shows that the image content of the said screen area | region is a light source. Features.
本願の第5の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が夜景であることを示す夜景パターンを含むことを特徴とする。 According to a fifth aspect of the present invention, in the viewing environment control device according to the first aspect or the second aspect, the feature pattern includes a night view pattern indicating that the image content of the screen area is a night view. Features.
本願の第6の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が特定色であることを示す特定色パターンを含むことを特徴とする。 According to a sixth invention of the present application, in the viewing environment control device according to the first or second invention, the feature pattern includes a specific color pattern indicating that the image content of the screen area is a specific color. It is characterized by that.
本願の第7の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が均一背景であることを示す均一背景パターンを含むことを特徴とする。 According to a seventh aspect of the present invention, in the viewing environment control device according to the first aspect or the second aspect, the feature pattern includes a uniform background pattern indicating that the image content of the screen area is a uniform background. It is characterized by that.
本願の第8の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が多様背景であることを示す多様背景パターンを含むことを特徴とする。 According to an eighth aspect of the present invention, in the viewing environment control device according to the first aspect or the second aspect, the feature pattern includes a diverse background pattern indicating that the image content of the screen area is a diverse background. It is characterized by that.
本願の第9の発明は、表示装置に表示すべき映像データの特徴量に基づいて、照明装置の照明光を変化させる視聴環境制御方法において、前記表示装置に表示される映像コンテンツの所定の画面領域内の画像内容を表す特徴パターンの分布に応じて、前記映像データの特徴量に基づく照明制御動作を可変することを特徴とする。 According to a ninth aspect of the present invention, in the viewing environment control method for changing the illumination light of the lighting device based on the feature amount of the video data to be displayed on the display device, the predetermined screen of the video content displayed on the display device The illumination control operation based on the feature amount of the video data is varied according to the distribution of the feature pattern representing the image content in the region.
本願の第10の発明は、第9の発明に記載の視聴環境制御方法において、前記特徴パターンの分布は、前記画面領域を1以上に分割したブロックの特徴パターンの分布であることを特徴とする。 According to a tenth aspect of the present invention, in the viewing environment control method according to the ninth aspect, the distribution of the feature patterns is a distribution of feature patterns of blocks obtained by dividing the screen area into one or more. .
本発明によれば、映像表示装置の表示画面に表示される映像がいかなる場合であっても、表示映像と連動した適切な照明装置の制御が可能になる。 ADVANTAGE OF THE INVENTION According to this invention, control of the suitable illuminating device interlock | cooperated with a display image | video is attained regardless of what the image | video displayed on the display screen of a video display apparatus is.
本発明の実施形態に係る視聴環境制御装置及び視聴環境制御システムについて、図1乃至図10とともに説明する。 A viewing environment control device and a viewing environment control system according to an embodiment of the present invention will be described with reference to FIGS.
図1は、本発明の実施形態に係る視聴環境制御装置を示すブロック図である。本実施形態の視聴環境制御装置1は、受信部2において送信側(放送局)から送られてくる放送データを受信し、データ分離部3において放送データに多重化されている映像データと音声データとを分離する。データ分離部3で分離された映像データと音声データとは、それぞれ映像表示装置4と音声再生装置5に送られる。
FIG. 1 is a block diagram showing a viewing environment control apparatus according to an embodiment of the present invention. In the viewing
次に、照明制御データ生成部6は、データ分離部3で分離された映像データ、音声データとから、各照明装置7の設置位置に応じた適切な照明制御データを生成し、照明装置7へ送る。
Next, the illumination control
また、照明装置7へ送られる照明制御データは、映像データおよび音声データと出力タイミングを合わせる必要があるため、例えば照明制御データ生成部6において照明制御データを生成するのに必要な時間だけ、データ分離部3で分離された映像データと音声データを遅らせ、照明制御データと同期をとるためのディレイ発生部8a,8bを設けている。
Further, since the illumination control data sent to the illumination device 7 needs to match the output timing with the video data and the audio data, for example, only the time necessary for generating the illumination control data in the illumination control
視聴環境制御装置1をこのような構成にすることにより、視聴環境空間に設置されている1以上の照明装置7を、映像表示装置4の表示画面に映し出される映像に応じて適切に制御することができる。
By configuring the viewing
尚、視聴環境制御装置1は、映像表示装置4、音声再生装置5と一体的に設けられてもよいし、それぞれ別体として設けられてもよい。ここでは、視聴環境制御装置1が、映像表示装置4、音声再生装置5と一体的に設けられている場合について説明する。
Note that the viewing
次に、図1の照明制御データ生成部6における照明制御データ生成動作の概略について説明する。
Next, an outline of the illumination control data generation operation in the illumination control
照明制御データ生成部6では、まず、映像表示装置4の表示画面を所定の大きさの領域に分割する(以下、所定の大きさの領域のことを『ブロック』と称する)。次に、映像表示装置4の表示画面に含まれる全てのブロックに対し、予め用意されている複数の特徴パターンの中から1つを選択して割り付ける(以下、特徴パターンのことを『モード』と称する)。次に、視聴環境空間に設置されている照明装置を制御するための、映像データの特徴量を検出する画面領域を決定する。さらに、各特徴量検出領域に対し、該特徴量検出領域内の各ブロックに割り付けられたモードの分布に基づいて、予め用意されている重み付け値テーブルの中から1つを選択する。ここで、モードの分布とは頻度分布のことを示すものであり、重み付け値テーブルの選択は、特徴量検出領域に含まれる各モードブロックの割合によって複数の重み付け値テーブルの中から1つを選択することである。そして、選択された重み付け値テーブルと各ブロックのモードデータおよび各ブロックに表示される映像データとから、各特徴量検出領域における映像データの特徴量を検出し、各特徴量検出領域に対応する照明装置の照明制御データを生成する。
The illumination control
以下に、照明制御データ生成方法について詳しく説明する。 Hereinafter, the illumination control data generation method will be described in detail.
図2は、視聴環境制御装置1の照明制御データ生成部6を示すブロック図である。照明制御データ生成部6は、データ分離部3で分離された映像データを入力部9により受け取る。入力部9は、受け取った映像データをブロック平均部10へ送る。
FIG. 2 is a block diagram showing the illumination control
次に、映像データを受け取ったブロック平均部10は、予めブロック情報記憶部11に格納されているブロック情報を読み出し、各ブロックを構成する所定の画素(例えば5画素×5画素=25画素)の映像データの平均値を算出し、該画像ブロック平均データをモード選択部12へ送る。
Next, the block
ここで、ブロック情報記憶部11に格納されているブロック情報とは、図3に示すような映像表示装置4の表示画面を1以上の所定のブロック41に分割した情報に関するものである。例えば、図3に示すブロック41がx方向に5画素、y方向に5画素の計25画素からなる場合は、(x,y)=(5,5)というような情報を記憶していればよい。もちろん、ブロック情報は、上記に示したような画素単位での分割に限られるものでない。また、画素単位での分割の場合であったとしても、上記したx方向、y方向で画素数を同数にする必要はないし、ブロック41の大きさも自由に変えればよい。
Here, the block information stored in the block
次に、画像ブロック平均データを受け取ったモード選択部12は、平均データを明度(Lightness)、彩度(Chroma)、色相(Hue)を示す各データへ変換する(以下、明度(Lightness)、彩度(Chroma)、色相(Hue)情報のことを『LCHデータ』と称する)。そして、映像表示装置4の表示画面に含まれる全てのブロック41におけるLCHデータに応じて、各ブロック41に対し予め決められているモードから適切な1つのモードを選択して割り付ける。そして、映像表示装置4の表示画面に含まれる全てのブロックのLCHデータとモードデータとをテーブル選択部13へ送る。
Next, the
次に、テーブル選択部13は、映像表示装置4の表示画面に含まれる全てのブロックのLCHデータとモードデータとを受け取ると、特徴量検出領域記憶部14から特徴量検出領域情報を読み出し、特徴量検出領域に含まれる全てのブロックのモードの分布から、その特徴量検出領域に適切な照明制御データ生成のためのLCHデータの重み付け値について、予め用意されている複数の重み付け値テーブルの中から1つの重み付け値テーブルを選択する。そして、各ブロックのLCHデータ、モードデータとともにテーブル選択情報を照明制御データ算出部15へ送る。ここで、特徴量検出領域記憶部14に格納されている特徴量検出領域情報とは、視聴者の視聴環境空間に設置されている各照明装置を適切に制御するために、映像表示装置4の表示画面のどの領域から映像データの特徴量を検出すればよいかを示す情報のことである。
Next, when the
次に、照明制御データ算出部15は、テーブル選択部13から送られるテーブル選択情報に基づき、テーブル情報記憶部16に記憶された複数種のテーブルの中から適切な1つのテーブルを選択してLCHデータに対して所望の重み付け演算を行い、照明制御データを生成する。ここで、重み付け値テーブルの一例として図4に示す。図4のテーブルは、上記で選択した各モードのL(明度)、C(彩度)、H(色相)毎に照明制御データを生成する際の重み付け値(WL,WC,WH)が決められている。このようなテーブルがテーブル情報記憶部16に複数種類格納されており、テーブル選択部13から送られるテーブル選択情報に基づき1つが読み出される。
Next, the illumination control
次に、算出された照明制御データ(LCHデータ)は、RGBデータに変換された上で、映像データおよび音声データと出力タイミングを合わせて出力部17から照明装置7へ送られる。
Next, the calculated illumination control data (LCH data) is converted into RGB data, and is sent from the
以下には、照明制御データ生成部6に含まれるモード選択部12およびテーブル選択部13についてさらに詳しく説明する。
Hereinafter, the
まず、映像表示装置の表示画面に含まれる全てのブロック41に対応する映像データの特徴量を検出し、各ブロック41をその映像特徴量に応じて予め決められているモードに振り分ける方法について、図5、図6とともに説明する。
First, a method for detecting feature amounts of video data corresponding to all the
図5は、照明制御データ生成部6のモード選択部12のブロック図を示すものである。モード選択部12は、ブロック平均部10から画像ブロック平均データを受け取ると、LCH変換部18にて画像ブロック平均映像データを、明度(Lightness)、彩度(Chroma)、色相(Hue)を示す各データへ変換する。LCH変換部18にて変換されたLCHデータは、ブロック毎にフレーム間差分判定部19、フレームメモリ20およびモード判定部21へ送られる。
FIG. 5 is a block diagram of the
まず、フレーム間差分判定部19は、後述するモード判定部21において判定対象とするブロック41が映像中の被写体を表す領域に含まれるか否かを判定するための情報の1つとして、現在のフレームデータと1つ前のフレームデータとを比較し、フレーム間の差分データをモード判定部21へ送る。具体的には、フレームメモリ20は1つ前のフレームのLCHデータを記憶しておき、現在のフレームのLCHデータが送られてきた時に、フレーム間差分判定部19に対し1つ前のフレームのLCHデータを送る。ここで、フレームメモリ20は、1つ前のLCHデータを送信完了すると、現在のフレームのLCHデータを上書きで保存する。このような構成にすることにより、フレームメモリ20は1フレーム分のLCHデータを格納するに足りる容量でよくなる。そして、フレーム間差分判定部19は、LCH変換部18から送られる現在のフレームのLCHデータの明度とフレームメモリ20から送られた1つ前のフレームのLCH情報の明度とを比較し、明度のフレーム間の差分データを算出しモード判定部21へ送る。そして、モード判定部21は、フレーム間差分判定部19から送られたブロックごとのフレーム間の差分データと、LCH変換部18から送られる彩度(Chroma)、色相(Hue)とを解析し、各ブロックが被写体領域であるか否かを判定する。
First, the inter-frame
以上では現在のフレームのLCHデータと一つ前のフレームのLCHデータとを比較するものについて記載したが、例えば複数フレーム分のLCHデータをフレームメモリ20で記憶させ、フレーム間差分判定部19で複数フレーム分のLCHデータと現在のフレームのLCHデータとを比較してフレーム間の差分データの算出を行ってもよい。このように複数フレームのLCHデータと比較することで、モード判定部21において、さらに精度よく被写体領域の判定を行うことが可能になる。
In the above description, the LCH data of the current frame and the LCH data of the previous frame are compared. However, for example, the LCH data for a plurality of frames is stored in the
次に、モード判定部21は、LCH変換部18から送られるLCHデータとフレーム間差分判定部19から送られるフレーム間の差分データとから予め用意されている複数のモードの中から、各ブロックに該当するモードを選択して割り付ける。以下、モード判定部21で行うモードの割り付け方法について、図6のモード割り付け動作フローとともに説明する。
Next, the
モード判定部21は、映像表示装置4の表示画面に含まれる全てのブロックに対して、1つのモードを割り付ける。例えば、映像表示装置4の表示画面にn個のブロックが含まれている場合は、n個のブロックに対して、モード割り付け動作を行うことになる。モード判定部21は、まず、対象となるブロックが被写体領域に含まれるか否かを判定する。被写体領域に含まれると判定されると、そのブロックは被写体モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ1)。
The
ここで、対象となるブロックが被写体領域に含まれるか否かの判定は、フレーム間差分判定部19から送られるフレーム間の差分データとLCH変換部18から送られる彩度(Chroma)、色相(Hue)とを解析し、各ブロックが被写体領域であるか否かを判定する。フレーム間の差分データからの解析は、明度のフレーム間の差分がある一定以上である場合(他の部分(背景)と比較して動きが大きかった場合)には、対象となるブロックを被写体として判定する。また、例えばフレームに被写体が存在しているが同じ画像が続く場合、つまり表示映像の中に被写体が存在するがフレーム間の差分データが小さい場合、LCH変換部18から送られる彩度(Chroma)、色相(Hue)を解析し、特定の色範囲に属するブロックを被写体として判断するようにすればよい。例えば、人間であれば肌色の色範囲に属すれば被写体として判定するようにすればよい。
Here, whether or not the target block is included in the subject area is determined by determining the inter-frame difference data sent from the inter-frame
さらに、映像中に被写体が含まれる場合は大体被写体に焦点が合わせられているので、入力映像データを解析し、映像データで高周波成分に該当する領域を被写体とするようにしてもよい。さらにまた、被写体は、表示映像中の中央部に位置することが多いため、画面の中央部と端部とで被写体判定の閾値を変更するようにしてもよい。以上のような判定方法を併用することにより適切に被写体か否かを判定することができ、後に適切な照明制御をすることができる。逆に被写体か否かを適切に判定できないと臨場感を高める照明制御は行えない。例えば、映像表示装置4に表示される映像が、夜のシーンで人物がアップになっている映像の場合、撮影照明に照らされている体の部分(肌色部分以外)の明るさに影響を受けて視聴環境照明が明るくなってしまい、暗闇の雰囲気が出せなくなる。しかし、被写体を正確に判定することにより、被写体以外の部分での照明制御データの生成が可能となり、暗闇の雰囲気を出すことができ、臨場感を高めることができる。
Further, when the subject is included in the video, since the subject is generally focused, the input video data may be analyzed and the region corresponding to the high frequency component in the video data may be set as the subject. Furthermore, since the subject is often located at the center of the displayed video, the subject determination threshold may be changed between the center and the end of the screen. By using the above-described determination methods in combination, it can be determined whether or not the subject is appropriate, and appropriate illumination control can be performed later. Conversely, if it is not possible to properly determine whether or not the subject is present, illumination control that enhances the sense of reality cannot be performed. For example, when the video displayed on the
次に、ステップ1で対象ブロックが被写体領域に含まれないと判定されると、LCHデータの明度が所定値(第1の閾値)以上か否かを判定することによって、該対象ブロックが光源領域であるか否かを判定する。該ブロックが光源領域であると判定されると、そのブロックは光源モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ2)。ここで、例えば、映像表示装置4に表示される映像に太陽(光源)が含まれる場合には、光源の明度や色を積極的に照明装置7の照明光に反映させることにより、臨場感を高めることができる。
Next, when it is determined in
次に、ステップ2で対象ブロックが光源領域ではないと判定されると、LCHデータの明度が所定値(第2の閾値)以下か否かを判定することによって、該対象ブロックが暗闇領域であるか否かを判定する。該ブロックが暗闇領域であると判定されると、そのブロックは夜景モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ3)。ここで、例えば、映像表示装置4に表示される映像が暗闇の場合には、照明装置7の明度を極端に下げることにより、臨場感を高めることができる。
Next, when it is determined in
次に、ステップ3で対象ブロックが暗闇領域ではないと判定されると、LCHデータの彩度と色相とから、該対象ブロックの色が特定の色範囲にあるか否かを判定することによって、該ブロックが特定の色領域か否かを判定する。該ブロックが特定の色領域であると判定されると、そのブロックは特定色モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ4)。
Next, when it is determined in
ここで、特定の色範囲にあるか否かの判定は、メモリなどに予め格納されている特定の色範囲に合致するか否かで判定する、例えば、映像表示装置4に表示される映像が夕焼けの場合には、夕焼けの色(オレンジ色など)を照明装置7で表示すると視聴者に対し没入感を与え、高い臨場感が実現できる。そのため、メモリなどに夕焼けの色(オレンジ色など)の色範囲を格納しておき、ブロックが夕焼けの色範囲に合致する場合は、特定色モードとして判定する。また、映像表示装置4に表示される映像が森林の場合には緑色を、水中の場合には青色を照明装置7で点灯させると没入感や臨場感を高めることができるので、緑色や青色も特定の色範囲としてメモリに予め格納しておけばよい。
Here, the determination as to whether or not the image is in the specific color range is made based on whether or not the specific color range is stored in advance in a memory or the like. For example, the video displayed on the
また、夕焼けの色(オレンジ色)、森林の色(緑色)、水中の色(青色)などの複数の特定の色範囲をメモリに格納している場合には、テーブル選択部13へ送る特定色モードはそれぞれどの色範囲に属する特定色モードなのかを識別するデータも送るようにすればよい。
Further, when a plurality of specific color ranges such as sunset color (orange), forest color (green), underwater color (blue) are stored in the memory, the specific color to be sent to the
さらにまた、上記では予めメモリに特定色の色範囲を格納しておくことを説明したが、例えば、映像データが入力された際に、表示装置の画面全体のヒストグラムのピーク強度によって画面全体に対する特定の色味がかりの有無を判定し、特定の色味がかりがある場合には特定色モードを設定してもよい。このようにすることで、上記の予め想定していた映像(夕焼け、森林、水中など)以外の場合にも適切に照明に反映することが可能となる。 Furthermore, in the above description, the color range of the specific color is stored in the memory in advance. For example, when video data is input, the specific range for the entire screen is determined by the peak intensity of the histogram of the entire screen of the display device. The presence or absence of a color tint is determined, and when there is a specific color tint, a specific color mode may be set. By doing in this way, it becomes possible to reflect appropriately in illumination also in cases other than the above-mentioned images (sunset, forest, underwater, etc.).
次に、ステップ4で対象ブロックが特定の色領域ではないと判定されると、LCHデータの彩度と色相とから、該対象ブロックの色がそのブロックの周辺のブロックの色と比較して色差が所定値以下か否かを判定することによって、背景が均一な領域か否かを判定する。該ブロックが均一な背景の領域であると判定されると、そのブロックは均一背景モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する。また、背景が均一な領域ではないと判定されると、そのブロックは多様背景モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ5)。ここで、例えば、映像表示装置4に表示される映像の背景が均一の場合には、均一背景モードの彩度、色相を照明装置7の照明光へ反映させると臨場感を高めることができる。
Next, when it is determined in
これで1つのブロックについて適切なモードの割り付け動作が完了する。そして、このようなモード割り付け動作を特徴量検出領域に含まれるブロックの数だけ繰り返し行って、モード割り付け動作が完了する。以上では、各ブロックに対して6つのモードのいずれかを割り付けるものについて説明したが、これらに限定されるものではなく、さらに多くのモードを設定してもよいし、逆にモード数を少なくしてもよい。 This completes the allocation operation in an appropriate mode for one block. Such mode allocation operation is repeated for the number of blocks included in the feature amount detection area, and the mode allocation operation is completed. In the above description, one of the six modes is assigned to each block. However, the present invention is not limited to this, and more modes may be set. Conversely, the number of modes is reduced. May be.
次に、テーブル選択部13のテーブル選択方法について、図7の特徴量検出領域の一例、図8のテーブル選択動作フローおよび図9の各テーブルの一例とともに説明する。
Next, the table selection method of the
テーブル選択部13は、モード選択部12から送られる各ブロックのモードデータと特徴量検出領域記憶部14から読み出される特徴量検出領域情報とからテーブル選択を行う。ここで、特徴量検出領域記憶部14に格納されている特徴量検出領域情報とは、視聴者の視聴環境空間に設置されている各照明装置を適切に制御するために、映像表示装置4の表示画面のどの領域から映像データの特徴量を検出すればよいかを示す情報である。図7は、視聴者の視聴環境空間に照明装置が2つ設置されていた場合の特徴量検出領域の一例を示すものである。図7の42、43で表す画面領域が視聴者の視聴環境空間に設置されている2つの照明装置それぞれに対応した特徴量検出領域である。これら特徴量検出領域42、43を示す特徴量検出領域情報は、例えば上述した映像表示装置4の表示画面を分割したブロック41のそれぞれに番号を付して、特徴量検出領域に対応するブロック番号を照明装置7ごとに格納されるようにしてもよいし、対応する画素単位で格納されるようにしてもよい。
The
次に、テーブル選択部13で行うテーブル選択動作について説明する。
Next, a table selection operation performed by the
まず、特徴量検出領域に含まれるブロックに付与されたモードのうち、光源モードが一定の割合以上である場合(例えば、光源モードが1/5以上)は、映像中の光源の色を視聴環境照明に積極的に反映することが可能なテーブル1が選択される(ステップ1)。図9(a)は、テーブル1の重み付け値の一例を示すもので、光源モードが1/5以上を占める画像では、画面内に強い光源があり、その光源を積極的に照明で再現することで臨場感を高めることができると考えられるため、光源モードブロックの重み付けを3倍にする。 First, when the light source mode is greater than or equal to a certain ratio among the modes assigned to the blocks included in the feature amount detection region (for example, the light source mode is 1/5 or more), the color of the light source in the video is viewed. A table 1 that can be positively reflected in lighting is selected (step 1). FIG. 9A shows an example of the weighting values in Table 1. In an image in which the light source mode occupies 1/5 or more, there is a strong light source in the screen, and the light source is actively reproduced by illumination. Therefore, the weight of the light source mode block is tripled.
次に、ステップ1で光源モードが一定の割合以上でない場合(例えば、光源モードが1/5以下)は、特定色モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、特定色モードが1/2以上)は、映像中のその特定色を視聴環境照明の色に反映することが可能なテーブル2が選択される(ステップ2)。図9(b)は、テーブル2の重み付けの一例を示すもので、特定色モードが1/2以上を占める画像では、朝/夕焼けや水中、晴れた青空、森林など、特定の色が印象を強めていると考えられ、照明によってその特定の色を再現することによって臨場感を高めることができると考えられるため、特定色モードブロックの彩度と色相の重み付けを3倍にし、明度が高く照明に影響を与えやすい光源モードブロックの重み付けを1/2にする。 Next, when the light source mode is not equal to or greater than a certain ratio in step 1 (for example, the light source mode is equal to or less than 1/5), it is determined whether or not the specific color mode is equal to or greater than a certain ratio. If it is determined (for example, the specific color mode is ½ or more), the table 2 capable of reflecting the specific color in the video on the color of the viewing environment illumination is selected (step 2). FIG. 9B shows an example of weighting in Table 2. In an image in which the specific color mode occupies 1/2 or more, a specific color such as morning / sunset, underwater, clear blue sky, or forest gives an impression. It is thought that it is strengthened, and it is thought that the realism can be enhanced by reproducing the specific color by lighting, so the saturation and hue weighting of the specific color mode block is tripled, and the lightness is high. The weight of the light source mode block that is likely to affect is reduced to 1/2.
次に、ステップ2で特定色モードが一定の割合以上でない場合(例えば、特定色モードが1/2以下)は、夜景モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、夜景モードが1/2以上)は、視聴環境照明の明るさと彩度を落とすことが可能なテーブル3が選択される(ステップ3)。図9(c)は、テーブル3の重み付けの一例を示すもので、夜景モードが半分以上を占める画像では、視聴環境空間全体を暗い雰囲気にすることで臨場感を高めることができると考えられるため、夜景モードブロックの重み付けを3倍にし、全体の明度を1/2、彩度を1/4とし、明度が高く照明が明るくなってしまう可能性の高い光源モードブロックの重み付けを1/2とする。また、撮影上ライティングされ背景と比べ明度が高くなりがちな被写体モードブロックの重み付けを1/2にする。 Next, when the specific color mode is not a certain ratio or more in step 2 (for example, the specific color mode is 1/2 or less), it is determined whether or not the night view mode is a certain ratio or more. If it is determined (for example, the night view mode is 1/2 or more), the table 3 capable of reducing the brightness and saturation of the viewing environment illumination is selected (step 3). FIG. 9C shows an example of the weighting of the table 3, and in an image in which the night view mode occupies more than half, it is considered that the realism can be enhanced by making the entire viewing environment space dark. The weight of the night view mode block is tripled, the overall lightness is ½, the saturation is ¼, and the lightness mode block is highly likely to have high lightness and bright lighting, and the weight of the light source mode block is ½. To do. In addition, the weight of the subject mode block that is lighted for shooting and tends to have a higher brightness than the background is halved.
次に、ステップ3で夜景モードが一定の割合以上でない場合(例えば、夜景モードが1/2以下)は、均一背景モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、均一背景モードが1/3以上)は、視聴環境照明に均一背景を反映させることが可能なテーブル4が選択される(ステップ4)。図9(d)は、テーブル4の重み付けの一例を示すもので、均一背景モードが1/3以上を占める画像では、その背景の明るさと色をそのまま照明で再現すれば自然な雰囲気を再現することができると考えられるため、均一背景モードブロックの重み付けを3倍とし、画面上で占有面積(対応ブロック数)が大きくなりやすい被写体モードブロックの重み付けを1/2にする。 Next, when the night scene mode is not a certain ratio or more in step 3 (for example, the night scene mode is 1/2 or less), it is determined whether or not the uniform background mode is a certain ratio or more. If it is determined (for example, the uniform background mode is 1/3 or more), the table 4 capable of reflecting the uniform background in the viewing environment illumination is selected (step 4). FIG. 9D shows an example of the weighting of the table 4. In an image in which the uniform background mode occupies 1/3 or more, a natural atmosphere is reproduced if the background brightness and color are reproduced as they are. Therefore, the weight of the uniform background mode block is tripled, and the weight of the subject mode block that tends to increase the occupied area (number of corresponding blocks) on the screen is halved.
次に、ステップ4で均一背景モードが一定の割合以上でない場合(例えば、夜景モードが1/3以下)は、多様背景モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、多様背景モードが2/3以上)は、視聴環境照明の彩度を落とすことが可能なテーブル5が選択される(ステップ5)。図9(e)は、テーブル5の重み付けの一例を示すもので、多様背景モードが2/3以上を占める画像では、背景が複雑で雰囲気を表す色を一意に決めるのが困難であり、そのまま背景の平均を照明に適用すると、不適切な色が出てしまうと考えられるため、明るさのみを照明で再現することで自然に見せるべく多様背景モードブロックの重み付けを明度のみ2倍し、全体の彩度を1/4にする。 Next, when the uniform background mode is not a certain ratio or more in step 4 (for example, the night scene mode is 1/3 or less), it is determined whether the various background modes are a certain ratio or more. If it is determined (for example, the diverse background mode is 2/3 or more), the table 5 capable of reducing the saturation of the viewing environment illumination is selected (step 5). FIG. 9 (e) shows an example of the weighting of the table 5. In an image in which the diverse background mode occupies 2/3 or more, it is difficult to uniquely determine the color representing the atmosphere because the background is complex. If the average of the background is applied to the lighting, it is thought that an inappropriate color will appear. Therefore, by reproducing only the brightness with the lighting, the weight of the various background mode blocks is doubled only for the brightness to make it look natural. Make the saturation of ¼.
次に、ステップ5で多様背景モードが一定の割合以上でない場合(例えば、多様背景モードが2/3以下)は、被写体モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、被写体モードが4/5以上)は、映像中の被写体の輝度のみを視聴環境照明に反映させることが可能なテーブル6が選択される。(ステップ6)図9(f)は、テーブル6の重み付けの一例を示すもので、被写体モードが4/5以上を占めるような画像では、被写体がアップになっていて、画面の印象を支配していることが考えられるが、特に被写体が複数の場合には色が頻繁に変化する可能性があると考えられるので、被写体の映像データを反映すると不自然な印象を与える可能性がある。従って、不自然な印象をなくすために明るさのみを照明で再現すべく被写体モードブロックの重み付けを明度のみ2倍にする。 Next, when the diverse background mode is not a certain ratio or more in step 5 (for example, the diverse background mode is 2/3 or less), it is determined whether or not the subject mode is a certain ratio or more. When the determination is made (for example, the subject mode is 4/5 or more), the table 6 that can reflect only the luminance of the subject in the video in the viewing environment illumination is selected. (Step 6) FIG. 9 (f) shows an example of the weighting of the table 6. In an image in which the subject mode occupies 4/5 or more, the subject is up and controls the impression of the screen. However, particularly when there are a plurality of subjects, it is considered that the color may change frequently. Therefore, reflecting the video data of the subject may give an unnatural impression. Therefore, in order to eliminate an unnatural impression, the weight of the subject mode block is doubled only for the brightness so that only the brightness is reproduced by illumination.
次に、ステップ6で被写体モードが一定の割合以上でない場合(例えば、被写体モードが4/5以下)は、映像中の背景を重視して視聴環境照明に反映させることが可能なテーブル7が選択される。図9(g)は、テーブル7の重み付けの一例を示すもので、さまざまなモードが混在しているテーブル7のような映像では、そのうち安定している均一背景モードおよび明度が高く印象が強い光源モードを積極的に反映すべく、均一背景モードブロックおよび光源モードブロックの重み付けを3倍にする。また、特定色モードでは、色を強く反映することで臨場感を高められるので、特定色モードブロックの彩度と色相の重み付けを3倍にする。さらに、被写体モードでは、明るさのみをある程度反映すべく、被写体モードブロックの明度のみを2倍にする。さらにまた、色を決定するのが困難で照明が不自然になりやすい多様背景モードおよび夜景モードは明度のみを反映すべく、多様背景モードブロックおよび夜景モードブロックの彩度と色相を1/2倍にする。 Next, when the subject mode is not a certain ratio or more in step 6 (for example, the subject mode is 4/5 or less), the table 7 that can be reflected in the viewing environment lighting with emphasis on the background in the video is selected. Is done. FIG. 9 (g) shows an example of the weighting of the table 7. In an image like the table 7 in which various modes are mixed, a stable uniform background mode and a light source with a high brightness and a strong impression. To positively reflect the mode, the weight of the uniform background mode block and the light source mode block is tripled. In the specific color mode, the presence of the image can be enhanced by strongly reflecting the color. Therefore, the saturation and hue weights of the specific color mode block are tripled. Further, in the subject mode, only the brightness of the subject mode block is doubled to reflect only the brightness to some extent. Furthermore, it is difficult to determine the color and the various background modes and night scene modes that are likely to be unnatural are reflected in the brightness and hue of the various background mode blocks and night scene mode blocks in order to reflect only the lightness. To.
以上により、特徴量検出領域内のモード分布に基づくテーブル選択が完了し、このテーブル選択情報は各ブロックのLCHデータとモードデータとともに照明制御データ算出部15へ送られる。上記のテーブル選択方法では7つのテーブルに振り分けることを説明したが、これらに限定されるものではなく、さらに多くのテーブルを設定してもよいし、逆にテーブル数を少なくしてもよい。
Thus, the table selection based on the mode distribution in the feature amount detection region is completed, and this table selection information is sent to the illumination control
次に、照明制御データ算出部15で算出される照明制御データの算出方法について以下に説明する。照明制御データ算出部15は、テーブル選択部13から送られたテーブル選択情報に基づいて、テーブル情報記憶部16に格納されているテーブルの中から、テーブル選択情報に該当するテーブルを参照して、照明制御データを生成する。すなわち、テーブル情報記憶部16に格納されたテーブルの重み付け情報と各ブロックのLCHデータとモードデータとから所定の演算を行い、照明制御データを算出する。
Next, the calculation method of the illumination control data calculated by the illumination control
照明制御データ算出部15で行う具体的な演算処理について、図10に示す演算式の一例とともに説明する。図10(a)は、L(明度)の算出演算を示すものである。L(明度)の算出演算は、特徴量検出領域に含まれる各ブロックの明度値とテーブル情報記憶部16を参照して得られた各モードのブロックにおける明度の重み付け値を乗算し(WL(table, mode)×Lblock)、特徴量検出量領域に含まれる全ブロックの上記値(WL(table, mode)×Lblock)を加算し(Σ[WL(table, mode)×Lblock])、全ブロックの重み付け値の合計で除算する(正規化する)。そして、テーブル毎に設けられている明度の係数kLを乗算して照明制御データのL(明度)の値を算出する。
A specific calculation process performed by the illumination control
次に、C(彩度)、H(色相)についても、図10(b)、(c)に示すように、上記のL(明度)と同様の算出演算を行って、照明制御データ(L(明度),C(彩度),H(色相))を算出する。 Next, with respect to C (saturation) and H (hue), as shown in FIGS. 10B and 10C, the calculation calculation similar to the above L (brightness) is performed, and the illumination control data (L (Lightness), C (saturation), H (hue)).
ここで、上記の演算式は一例であり、各テーブルの重み付け値が照明制御データに適切に反映されるような演算式であれば上記の演算式に限られるものではない。 Here, the above arithmetic expression is an example, and is not limited to the above arithmetic expression as long as the weighting value of each table is appropriately reflected in the illumination control data.
そして、算出された照明制御データ(LCHデータ)は、RGBデータに変換された上で、映像データおよび音声データと出力タイミングを合わせて出力部17から照明装置7へ送られる。以上のような構成にすることにより、どのような画像が映像表示装置に表示されたとしても、映像表示装置に表示される画像に応じて適切に照明制御を行うことができる。
The calculated illumination control data (LCH data) is converted into RGB data, and is sent from the
以上では、モード選択部12において映像表示装置4に含まれる全てのブロックについてモード割り付けをした後に、テーブル選択部13にて特徴量検出領域を読み出し、各特徴量検出領域に含まれるモードの分布からテーブル選択を行ったが、例えば、特徴量検出領域の読み出しをモード選択部12で行うようにすれば、特徴量検出領域含まれるブロックのみにモード割り付けをすればよくなるので、モード判定するブロックの数が軽減できるようになる。
In the above, after the
また以上では、映像データをL(明度)、C(彩度)、H(色相)に変換して照明制御データを生成する方法を説明したが、明るさと色に分解することができれば他の色空間で変換するようにしても構わない。
In the above description, the method for generating the illumination control data by converting the video data into L (brightness), C (saturation), and H (hue) has been described. You may make it convert in space.
1…視聴環境制御装置
2…受信部
3…データ分離部
4…映像表示装置
5…音声再生装置
6…照明制御データ生成部
7…照明装置
8(a),8(b)…ディレイ発生部
9…入力部
10…ブロック平均部
11…ブロック情報記憶部
12…モード選択部
13…テーブル選択部
14…特徴量検出領域記憶部
15…照明制御データ算出部
16…テーブル情報記憶部
17…出力部
18…LCH変換部
19…フレーム間差分判定部
20…フレームメモリ
21…モード判定部
41…ブロック
42,43…特徴量検出領域
DESCRIPTION OF
Claims (10)
前記表示装置に表示される映像コンテンツの所定の画面領域内の画像内容を表す特徴パターンの分布に応じて、前記映像データの特徴量に基づく照明制御動作を可変することを特徴とする視聴環境制御装置。 In the viewing environment control device that changes the illumination light of the lighting device based on the feature amount of the video data to be displayed on the display device,
Viewing environment control characterized in that illumination control operation based on a feature amount of the video data is varied in accordance with a distribution of a feature pattern representing an image content within a predetermined screen area of the video content displayed on the display device apparatus.
前記表示装置に表示される映像コンテンツの所定の画面領域内の画像内容を表す特徴パターンの分布に応じて、前記映像データの特徴量に基づく照明制御動作を可変することを特徴とする視聴環境制御方法。 In a viewing environment control method for changing illumination light of a lighting device based on a feature amount of video data to be displayed on a display device,
Viewing environment control characterized in that illumination control operation based on the feature amount of the video data is varied according to the distribution of the feature pattern representing the image content within a predetermined screen area of the video content displayed on the display device Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007198545A JP5166794B2 (en) | 2007-07-31 | 2007-07-31 | Viewing environment control device and viewing environment control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007198545A JP5166794B2 (en) | 2007-07-31 | 2007-07-31 | Viewing environment control device and viewing environment control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009036801A true JP2009036801A (en) | 2009-02-19 |
JP5166794B2 JP5166794B2 (en) | 2013-03-21 |
Family
ID=40438811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007198545A Expired - Fee Related JP5166794B2 (en) | 2007-07-31 | 2007-07-31 | Viewing environment control device and viewing environment control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5166794B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104869373A (en) * | 2014-02-24 | 2015-08-26 | 精工爱普生株式会社 | Image display apparatus and method of controlling image display apparatus |
JP2018157321A (en) * | 2017-03-16 | 2018-10-04 | 日本電気株式会社 | Video conference apparatus, video conference system, video conference method, and video conference program |
CN115527134A (en) * | 2022-10-27 | 2022-12-27 | 浙江九烁光电工程技术有限公司 | Urban garden landscape lighting monitoring system and method based on big data |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004282661A (en) * | 2003-03-19 | 2004-10-07 | Seiko Epson Corp | Gradation characteristic control of image signal representing image in which images of different features mixedly exist |
JP2006107905A (en) * | 2004-10-05 | 2006-04-20 | Sony Corp | Illumination control device and illumination control method, recording medium, and program |
-
2007
- 2007-07-31 JP JP2007198545A patent/JP5166794B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004282661A (en) * | 2003-03-19 | 2004-10-07 | Seiko Epson Corp | Gradation characteristic control of image signal representing image in which images of different features mixedly exist |
JP2006107905A (en) * | 2004-10-05 | 2006-04-20 | Sony Corp | Illumination control device and illumination control method, recording medium, and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104869373A (en) * | 2014-02-24 | 2015-08-26 | 精工爱普生株式会社 | Image display apparatus and method of controlling image display apparatus |
JP2015158557A (en) * | 2014-02-24 | 2015-09-03 | セイコーエプソン株式会社 | Image display device, and control method of image display device |
CN104869373B (en) * | 2014-02-24 | 2018-06-22 | 精工爱普生株式会社 | The control method of image display device and image display device |
JP2018157321A (en) * | 2017-03-16 | 2018-10-04 | 日本電気株式会社 | Video conference apparatus, video conference system, video conference method, and video conference program |
JP7139574B2 (en) | 2017-03-16 | 2022-09-21 | 日本電気株式会社 | Video conference device, video conference system, video conference method and video conference program |
CN115527134A (en) * | 2022-10-27 | 2022-12-27 | 浙江九烁光电工程技术有限公司 | Urban garden landscape lighting monitoring system and method based on big data |
Also Published As
Publication number | Publication date |
---|---|
JP5166794B2 (en) | 2013-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700322B2 (en) | Improved HDR image encoding and decoding method and apparatus | |
JP6276794B2 (en) | Apparatus and method for defining a color regime | |
JP6134755B2 (en) | Method and apparatus for image data conversion | |
JP7053259B6 (en) | Methods and equipment for encoding HDR images | |
CN1977542B (en) | Dominant color extraction using perceptual rules to produce ambient light derived from video content | |
KR101170408B1 (en) | Dominant color extraction for ambient light derived from video content mapped through unrendered color space | |
US7180529B2 (en) | Immersive image viewing system and method | |
JP4950988B2 (en) | Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method | |
CN101523990B (en) | Method for color transition for ambient or general illumination system | |
JP5058157B2 (en) | Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method | |
JP2014519730A (en) | Apparatus and method for encoding and decoding HDR images | |
KR20060112678A (en) | Flicker-free adaptive thresholding for ambient light derived from video content mapped through unrendered color space | |
CN107592517B (en) | Skin color processing method and device | |
CN100559850C (en) | Be used for the method that mass-tone is extracted | |
JP5166794B2 (en) | Viewing environment control device and viewing environment control method | |
JP2019506817A (en) | Processing multiple HDR image sources | |
JP4789592B2 (en) | Viewing environment control device and viewing environment control method | |
Heckaman et al. | 18.3: Rendering digital cinema and broadcast tv content to wide gamut display media | |
KR101373631B1 (en) | System for composing images by real time and method thereof | |
Laine et al. | Illumination-adaptive control of color appearance: a multimedia home platform application | |
Cooper et al. | The Resolution Revolution: How Many Bits Do We Really Need? | |
CN117296076A (en) | Display optimized HDR video contrast adaptation | |
Tsujihara et al. | 65.3: Invited Paper: Development of Image Quality Technology for Digital High Definition Plasma TV | |
KR20050016973A (en) | Method of and system for controlling an ambient light and lighting unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090805 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120306 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120918 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121221 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |