JP2009036801A - View environment control device and view environment control method - Google Patents

View environment control device and view environment control method Download PDF

Info

Publication number
JP2009036801A
JP2009036801A JP2007198545A JP2007198545A JP2009036801A JP 2009036801 A JP2009036801 A JP 2009036801A JP 2007198545 A JP2007198545 A JP 2007198545A JP 2007198545 A JP2007198545 A JP 2007198545A JP 2009036801 A JP2009036801 A JP 2009036801A
Authority
JP
Japan
Prior art keywords
data
mode
viewing environment
environment control
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007198545A
Other languages
Japanese (ja)
Other versions
JP5166794B2 (en
Inventor
Yasuhiro Oki
康寛 大木
Yasuhiro Yoshida
育弘 吉田
Takuya Iwanami
琢也 岩波
Takashi Yoshii
隆司 吉井
Manabu Ishikawa
学 石河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007198545A priority Critical patent/JP5166794B2/en
Publication of JP2009036801A publication Critical patent/JP2009036801A/en
Application granted granted Critical
Publication of JP5166794B2 publication Critical patent/JP5166794B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an illumination control method capable of appropriately performing illumination control according to an image displayed on a video display device. <P>SOLUTION: The view environment control method for changing the illuminating light of a lighting device based on the amount of features of the video data ought to be displayed on a display device includes varying the lighting control operation based on the amount of the features of the video data according to distribution of the feature pattern indicating the image contents within the prescribed picture region of the video content displayed on the display device. Even if any image is displayed on the video display device by the lighting control data, the illuminating light control can be appropriately performed according to the image displayed on the video display device. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、視聴環境空間内に設置された照明装置の照明光を制御することにより、映像鑑賞時の臨場感を向上させることが可能な視聴環境制御装置及び視聴環境制御方法に関するものである。   The present invention relates to a viewing environment control device and a viewing environment control method capable of improving the sense of reality when viewing an image by controlling illumination light of a lighting device installed in a viewing environment space.

近年、映像・音声に係るエレクトロニクス技術の急速な進歩により、ディスプレイの大型化、広視野角化、高精細化やサラウンドシステムの向上が進み、臨場感のある映像や音声が楽しめるようになってきている。例えば、現在普及しつつあるホームシアターシステムにおいては、大型ディスプレイやスクリーンと多チャンネル音声・音響技術との組み合わせにより、高い臨場感を得ることができるシステムを実現している。   In recent years, with the rapid advancement of electronics technology related to video and audio, the display has become larger, wider viewing angle, higher definition and surround system have improved, and it has become possible to enjoy realistic video and audio. Yes. For example, in a home theater system that is now widely used, a system that can provide a high sense of realism is realized by a combination of a large display or screen and multi-channel audio / sound technology.

また、特に最近では、単に一つの表示装置で映像を楽しむものではなく、複数のディスプレイを組み合わせて広視野な映像を視聴するシステムや、ディスプレイに表示される映像と照明装置の照明光とを連動させるシステムなどが提案されており、複数のメディアを組み合わせて、より臨場感が高められるようなシステムの開発が盛んに行われている。   In addition, recently, it is not just to enjoy video on a single display device, but a system for viewing wide-field images by combining multiple displays, and the video displayed on the display and the illumination light of the lighting device are linked. The system which makes it move is proposed, and the development of the system which raises a sense of reality more by combining a plurality of media is performed actively.

特に、ディスプレイと照明装置とを連動させて高い臨場感を実現する技術においては、大型ディスプレイを用いなくても高い臨場感が得られることから、コストや設置スペース等の制約が少なく、大きな期待が寄せられ、大変注目を浴びている。   In particular, in technologies that achieve a high sense of realism by linking a display and a lighting device, a high sense of realism can be obtained without using a large display. It has been attracting a lot of attention.

この技術によれば、視聴者の部屋(視聴環境空間)に設置されている複数の照明装置の照明光を、ディスプレイに表示される映像に応じた色や強さにコントロールすることにより、視聴者があたかもディスプレイに映し出されている映像空間の中に実在するかのような感覚・効果を与えることができる。このようなディスプレイに表示される画像と照明装置の照明光とを連動させる技術は、例えば特開2001−343900号公報や特開平3−184203号公報に開示されている。   According to this technology, the viewer can control the illumination light of a plurality of lighting devices installed in the viewer's room (viewing environment space) to a color and intensity according to the image displayed on the display. It can give the sensation and effect as if they existed in the image space projected on the display. Techniques for interlocking the image displayed on the display with the illumination light of the illumination device are disclosed in, for example, Japanese Patent Application Laid-Open Nos. 2001-343900 and 3-184203.

特開2001−343900号公報に開示されている技術は、高い臨場感を提供することを目的としたもので、複数の照明装置を表示すべき映像に連動させて制御する照明システムにおいて、映像データの特徴量(代表色、平均輝度)から複数の照明装置に対する照明制御データを生成する方法が記載されている。具体的には、各照明装置の設置位置に応じて予め決められた画面領域の映像データの特徴量を検出し、この検出された特徴量に基づいて各照明装置に対する照明制御データを生成することが記載されている。   The technique disclosed in Japanese Patent Application Laid-Open No. 2001-343900 is intended to provide a high sense of presence. In an illumination system that controls a plurality of illumination devices in conjunction with an image to be displayed, video data Describes a method of generating illumination control data for a plurality of illumination devices from the feature quantities (representative colors, average luminance). Specifically, a feature amount of video data in a predetermined screen area is detected according to an installation position of each lighting device, and lighting control data for each lighting device is generated based on the detected feature amount. Is described.

また、照明制御データは、映像データの特徴量から演算して求めるものに限らず、単独で或いは映像データとともに、インターネット等を介して配信されるものや、搬送波により配信されるものを用いてもよいことが記載されている。   Further, the illumination control data is not limited to the one obtained by calculating from the feature amount of the video data, and may be one that is distributed alone or together with the video data, or one that is distributed via the Internet, or one that is distributed by a carrier wave. It is described that it is good.

さらに特開平3−184203号公報では、原画像から人の顔など肌色の部分を取り除き、肌色部分を取り除いた画像のR(赤色)、G(緑色)、B(青色)の色信号と、輝度信号とから、適切な照明制御を行うことが記載されている。   Furthermore, in Japanese Patent Laid-Open No. 3-184203, R (red), G (green), and B (blue) color signals of an image obtained by removing a skin color portion such as a human face from an original image and removing the skin color portion, and luminance It is described that appropriate illumination control is performed from the signal.

特開2001−343900号公報JP 2001-343900 A 特開平3−184203号公報JP-A-3-184203

しかしながら、上述の特開2001−343900号公報に記載のものは、映像中に含まれる光源の面積が小さい場合、ヒストグラムによって導かれた代表色を特徴量とすると、映像中の光源が視聴環境照明に反映されず、また、平均輝度を特徴量とすると、映像中の光源の視聴環境照明への反映度合いが下がってしまい、映像中に含まれる光源が効果的に視聴環境照明に反映されないという問題があった。また例えば、複数の色の分布にあまり差がない場合、代表色の影響が強く出すぎてしまい、好ましい視聴環境照明を行うことができないという問題があった。   However, in the above-mentioned Japanese Patent Application Laid-Open No. 2001-343900, when the area of the light source included in the video is small, if the representative color derived by the histogram is used as the feature amount, the light source in the video is viewed in the viewing environment illumination. If the average luminance is used as a feature amount, the degree of reflection of the light source in the video to the viewing environment illumination will be reduced, and the light source contained in the video will not be reflected in the viewing environment illumination effectively. was there. Further, for example, when there is not much difference between the distributions of a plurality of colors, there is a problem that the influence of the representative color is too strong and preferable viewing environment illumination cannot be performed.

また、上述の特開平3−184203号公報に記載の肌色部分を取り除いた画像のR(赤色)、G(緑色)、B(青色)の色信号と、輝度信号とから、照明制御を行う方法では、例えば夜のシーンで人物がアップになっている映像の場合、撮影照明に照らされている体の部分(肌色部分以外)の明るさに影響を受けて視聴環境照明が明るくなってしまい、暗闇の雰囲気が出せないという問題があった。   Also, a method of performing illumination control from the R (red), G (green), and B (blue) color signals of the image from which the flesh-colored portion is removed as described in JP-A-3-184203 and the luminance signal Then, for example, in the case of a video where a person is up in a night scene, the viewing environment illumination becomes brighter due to the brightness of the body part (other than the skin color part) illuminated by the shooting illumination, There was a problem that the atmosphere of darkness could not be produced.

本発明は、上記従来技術の問題点に鑑みてなされたものであり、映像表示装置に表示される画像に応じて適切に照明制御を行うことができる照明制御方法を提供することを目的とするものである。   The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide an illumination control method capable of appropriately performing illumination control according to an image displayed on a video display device. Is.

本発明は、次のような技術手段によって前記課題を解決する。   The present invention solves the above problems by the following technical means.

本願の第1の発明は、表示装置に表示すべき映像データの特徴量に基づいて、照明装置の照明光を変化させる視聴環境制御装置において、前記表示装置に表示される映像コンテンツの所定の画面領域内の画像内容を表す特徴パターンの分布に応じて、前記映像データの特徴量に基づく照明制御動作を可変することを特徴とする。   According to a first aspect of the present application, in a viewing environment control device that changes illumination light of a lighting device based on a feature amount of video data to be displayed on the display device, a predetermined screen of video content displayed on the display device The illumination control operation based on the feature amount of the video data is varied according to the distribution of the feature pattern representing the image content in the region.

本願の第2の発明は、第1の発明に記載の視聴環境制御装置において、前記特徴パターンの分布は、前記画面領域を1以上に分割したブロックの特徴パターンの分布であることを特徴とする。   According to a second aspect of the present invention, in the viewing environment control device according to the first aspect, the distribution of the feature pattern is a distribution of a feature pattern of a block obtained by dividing the screen area into one or more. .

本願の第3の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が被写体であることを示す被写体パターンを含むことを特徴とする。   According to a third aspect of the present invention, in the viewing environment control device according to the first aspect or the second aspect, the feature pattern includes a subject pattern indicating that the image content of the screen area is a subject. Features.

本願の第4の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が光源であることを示す光源パターンを含むことを特徴とする。   4th invention of this application WHEREIN: In the viewing-and-listening environment control apparatus as described in 1st invention or 2nd invention, the said feature pattern contains the light source pattern which shows that the image content of the said screen area | region is a light source. Features.

本願の第5の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が夜景であることを示す夜景パターンを含むことを特徴とする。   According to a fifth aspect of the present invention, in the viewing environment control device according to the first aspect or the second aspect, the feature pattern includes a night view pattern indicating that the image content of the screen area is a night view. Features.

本願の第6の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が特定色であることを示す特定色パターンを含むことを特徴とする。   According to a sixth invention of the present application, in the viewing environment control device according to the first or second invention, the feature pattern includes a specific color pattern indicating that the image content of the screen area is a specific color. It is characterized by that.

本願の第7の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が均一背景であることを示す均一背景パターンを含むことを特徴とする。   According to a seventh aspect of the present invention, in the viewing environment control device according to the first aspect or the second aspect, the feature pattern includes a uniform background pattern indicating that the image content of the screen area is a uniform background. It is characterized by that.

本願の第8の発明は、第1の発明又は第2の発明に記載の視聴環境制御装置において、前記特徴パターンは、前記画面領域の画像内容が多様背景であることを示す多様背景パターンを含むことを特徴とする。   According to an eighth aspect of the present invention, in the viewing environment control device according to the first aspect or the second aspect, the feature pattern includes a diverse background pattern indicating that the image content of the screen area is a diverse background. It is characterized by that.

本願の第9の発明は、表示装置に表示すべき映像データの特徴量に基づいて、照明装置の照明光を変化させる視聴環境制御方法において、前記表示装置に表示される映像コンテンツの所定の画面領域内の画像内容を表す特徴パターンの分布に応じて、前記映像データの特徴量に基づく照明制御動作を可変することを特徴とする。   According to a ninth aspect of the present invention, in the viewing environment control method for changing the illumination light of the lighting device based on the feature amount of the video data to be displayed on the display device, the predetermined screen of the video content displayed on the display device The illumination control operation based on the feature amount of the video data is varied according to the distribution of the feature pattern representing the image content in the region.

本願の第10の発明は、第9の発明に記載の視聴環境制御方法において、前記特徴パターンの分布は、前記画面領域を1以上に分割したブロックの特徴パターンの分布であることを特徴とする。   According to a tenth aspect of the present invention, in the viewing environment control method according to the ninth aspect, the distribution of the feature patterns is a distribution of feature patterns of blocks obtained by dividing the screen area into one or more. .

本発明によれば、映像表示装置の表示画面に表示される映像がいかなる場合であっても、表示映像と連動した適切な照明装置の制御が可能になる。   ADVANTAGE OF THE INVENTION According to this invention, control of the suitable illuminating device interlock | cooperated with a display image | video is attained regardless of what the image | video displayed on the display screen of a video display apparatus is.

本発明の実施形態に係る視聴環境制御装置及び視聴環境制御システムについて、図1乃至図10とともに説明する。   A viewing environment control device and a viewing environment control system according to an embodiment of the present invention will be described with reference to FIGS.

図1は、本発明の実施形態に係る視聴環境制御装置を示すブロック図である。本実施形態の視聴環境制御装置1は、受信部2において送信側(放送局)から送られてくる放送データを受信し、データ分離部3において放送データに多重化されている映像データと音声データとを分離する。データ分離部3で分離された映像データと音声データとは、それぞれ映像表示装置4と音声再生装置5に送られる。   FIG. 1 is a block diagram showing a viewing environment control apparatus according to an embodiment of the present invention. In the viewing environment control apparatus 1 according to the present embodiment, the reception unit 2 receives broadcast data transmitted from the transmission side (broadcast station), and the data separation unit 3 multiplexes the video data and audio data with the broadcast data. And are separated. The video data and audio data separated by the data separation unit 3 are sent to the video display device 4 and the audio reproduction device 5, respectively.

次に、照明制御データ生成部6は、データ分離部3で分離された映像データ、音声データとから、各照明装置7の設置位置に応じた適切な照明制御データを生成し、照明装置7へ送る。   Next, the illumination control data generation unit 6 generates appropriate illumination control data according to the installation position of each illumination device 7 from the video data and audio data separated by the data separation unit 3, and sends the illumination control data to the illumination device 7. send.

また、照明装置7へ送られる照明制御データは、映像データおよび音声データと出力タイミングを合わせる必要があるため、例えば照明制御データ生成部6において照明制御データを生成するのに必要な時間だけ、データ分離部3で分離された映像データと音声データを遅らせ、照明制御データと同期をとるためのディレイ発生部8a,8bを設けている。   Further, since the illumination control data sent to the illumination device 7 needs to match the output timing with the video data and the audio data, for example, only the time necessary for generating the illumination control data in the illumination control data generation unit 6 Delay generators 8a and 8b are provided for delaying the video data and audio data separated by the separation unit 3 and synchronizing with the illumination control data.

視聴環境制御装置1をこのような構成にすることにより、視聴環境空間に設置されている1以上の照明装置7を、映像表示装置4の表示画面に映し出される映像に応じて適切に制御することができる。   By configuring the viewing environment control device 1 in such a configuration, one or more lighting devices 7 installed in the viewing environment space are appropriately controlled according to the video displayed on the display screen of the video display device 4. Can do.

尚、視聴環境制御装置1は、映像表示装置4、音声再生装置5と一体的に設けられてもよいし、それぞれ別体として設けられてもよい。ここでは、視聴環境制御装置1が、映像表示装置4、音声再生装置5と一体的に設けられている場合について説明する。   Note that the viewing environment control device 1 may be provided integrally with the video display device 4 and the audio reproduction device 5 or may be provided separately. Here, a case where the viewing environment control device 1 is provided integrally with the video display device 4 and the audio reproduction device 5 will be described.

次に、図1の照明制御データ生成部6における照明制御データ生成動作の概略について説明する。   Next, an outline of the illumination control data generation operation in the illumination control data generation unit 6 of FIG. 1 will be described.

照明制御データ生成部6では、まず、映像表示装置4の表示画面を所定の大きさの領域に分割する(以下、所定の大きさの領域のことを『ブロック』と称する)。次に、映像表示装置4の表示画面に含まれる全てのブロックに対し、予め用意されている複数の特徴パターンの中から1つを選択して割り付ける(以下、特徴パターンのことを『モード』と称する)。次に、視聴環境空間に設置されている照明装置を制御するための、映像データの特徴量を検出する画面領域を決定する。さらに、各特徴量検出領域に対し、該特徴量検出領域内の各ブロックに割り付けられたモードの分布に基づいて、予め用意されている重み付け値テーブルの中から1つを選択する。ここで、モードの分布とは頻度分布のことを示すものであり、重み付け値テーブルの選択は、特徴量検出領域に含まれる各モードブロックの割合によって複数の重み付け値テーブルの中から1つを選択することである。そして、選択された重み付け値テーブルと各ブロックのモードデータおよび各ブロックに表示される映像データとから、各特徴量検出領域における映像データの特徴量を検出し、各特徴量検出領域に対応する照明装置の照明制御データを生成する。   The illumination control data generation unit 6 first divides the display screen of the video display device 4 into regions of a predetermined size (hereinafter, the region of the predetermined size is referred to as “block”). Next, one of a plurality of feature patterns prepared in advance is selected and assigned to all the blocks included in the display screen of the video display device 4 (hereinafter, the feature pattern is referred to as “mode”). Called). Next, a screen area for detecting the feature amount of the video data for controlling the lighting device installed in the viewing environment space is determined. Furthermore, for each feature quantity detection area, one is selected from a weight value table prepared in advance based on the distribution of modes assigned to each block in the feature quantity detection area. Here, the mode distribution indicates a frequency distribution, and the weight value table is selected by selecting one of a plurality of weight value tables depending on the ratio of each mode block included in the feature amount detection area. It is to be. Then, the feature amount of the video data in each feature quantity detection region is detected from the selected weight value table, the mode data of each block, and the video data displayed in each block, and the illumination corresponding to each feature quantity detection region Generate lighting control data for the device.

以下に、照明制御データ生成方法について詳しく説明する。   Hereinafter, the illumination control data generation method will be described in detail.

図2は、視聴環境制御装置1の照明制御データ生成部6を示すブロック図である。照明制御データ生成部6は、データ分離部3で分離された映像データを入力部9により受け取る。入力部9は、受け取った映像データをブロック平均部10へ送る。   FIG. 2 is a block diagram showing the illumination control data generation unit 6 of the viewing environment control apparatus 1. The illumination control data generation unit 6 receives the video data separated by the data separation unit 3 from the input unit 9. The input unit 9 sends the received video data to the block averaging unit 10.

次に、映像データを受け取ったブロック平均部10は、予めブロック情報記憶部11に格納されているブロック情報を読み出し、各ブロックを構成する所定の画素(例えば5画素×5画素=25画素)の映像データの平均値を算出し、該画像ブロック平均データをモード選択部12へ送る。   Next, the block average unit 10 that has received the video data reads the block information stored in the block information storage unit 11 in advance, and the predetermined pixels (for example, 5 pixels × 5 pixels = 25 pixels) constituting each block are read out. The average value of the video data is calculated and the image block average data is sent to the mode selection unit 12.

ここで、ブロック情報記憶部11に格納されているブロック情報とは、図3に示すような映像表示装置4の表示画面を1以上の所定のブロック41に分割した情報に関するものである。例えば、図3に示すブロック41がx方向に5画素、y方向に5画素の計25画素からなる場合は、(x,y)=(5,5)というような情報を記憶していればよい。もちろん、ブロック情報は、上記に示したような画素単位での分割に限られるものでない。また、画素単位での分割の場合であったとしても、上記したx方向、y方向で画素数を同数にする必要はないし、ブロック41の大きさも自由に変えればよい。   Here, the block information stored in the block information storage unit 11 relates to information obtained by dividing the display screen of the video display device 4 as shown in FIG. 3 into one or more predetermined blocks 41. For example, if the block 41 shown in FIG. 3 is composed of 5 pixels in the x-direction and 5 pixels in the y-direction, a total of 25 pixels can be stored as long as information such as (x, y) = (5, 5) is stored. Good. Of course, the block information is not limited to the division in units of pixels as described above. Even in the case of division in units of pixels, it is not necessary to have the same number of pixels in the x direction and the y direction, and the size of the block 41 may be freely changed.

次に、画像ブロック平均データを受け取ったモード選択部12は、平均データを明度(Lightness)、彩度(Chroma)、色相(Hue)を示す各データへ変換する(以下、明度(Lightness)、彩度(Chroma)、色相(Hue)情報のことを『LCHデータ』と称する)。そして、映像表示装置4の表示画面に含まれる全てのブロック41におけるLCHデータに応じて、各ブロック41に対し予め決められているモードから適切な1つのモードを選択して割り付ける。そして、映像表示装置4の表示画面に含まれる全てのブロックのLCHデータとモードデータとをテーブル選択部13へ送る。   Next, the mode selection unit 12 that has received the image block average data converts the average data into data indicating lightness, chroma, and hue (hereinafter, lightness, saturation). (Chroma) and hue (Hue) information are referred to as “LCH data”). Then, in accordance with the LCH data in all the blocks 41 included in the display screen of the video display device 4, an appropriate one mode is selected and assigned to each block 41 from a predetermined mode. Then, the LCH data and mode data of all blocks included in the display screen of the video display device 4 are sent to the table selection unit 13.

次に、テーブル選択部13は、映像表示装置4の表示画面に含まれる全てのブロックのLCHデータとモードデータとを受け取ると、特徴量検出領域記憶部14から特徴量検出領域情報を読み出し、特徴量検出領域に含まれる全てのブロックのモードの分布から、その特徴量検出領域に適切な照明制御データ生成のためのLCHデータの重み付け値について、予め用意されている複数の重み付け値テーブルの中から1つの重み付け値テーブルを選択する。そして、各ブロックのLCHデータ、モードデータとともにテーブル選択情報を照明制御データ算出部15へ送る。ここで、特徴量検出領域記憶部14に格納されている特徴量検出領域情報とは、視聴者の視聴環境空間に設置されている各照明装置を適切に制御するために、映像表示装置4の表示画面のどの領域から映像データの特徴量を検出すればよいかを示す情報のことである。   Next, when the table selection unit 13 receives the LCH data and the mode data of all the blocks included in the display screen of the video display device 4, the table selection unit 13 reads the feature amount detection region information from the feature amount detection region storage unit 14, and From the distribution of the modes of all the blocks included in the amount detection area, the weight value of LCH data for generating illumination control data appropriate for the feature amount detection area is selected from a plurality of weight value tables prepared in advance. One weight value table is selected. Then, the table selection information is sent to the illumination control data calculation unit 15 together with the LCH data and mode data of each block. Here, the feature amount detection region information stored in the feature amount detection region storage unit 14 is the image display device 4 in order to appropriately control each lighting device installed in the viewing environment space of the viewer. This is information indicating from which area of the display screen the feature amount of the video data should be detected.

次に、照明制御データ算出部15は、テーブル選択部13から送られるテーブル選択情報に基づき、テーブル情報記憶部16に記憶された複数種のテーブルの中から適切な1つのテーブルを選択してLCHデータに対して所望の重み付け演算を行い、照明制御データを生成する。ここで、重み付け値テーブルの一例として図4に示す。図4のテーブルは、上記で選択した各モードのL(明度)、C(彩度)、H(色相)毎に照明制御データを生成する際の重み付け値(WL,WC,WH)が決められている。このようなテーブルがテーブル情報記憶部16に複数種類格納されており、テーブル選択部13から送られるテーブル選択情報に基づき1つが読み出される。 Next, the illumination control data calculation unit 15 selects an appropriate one table from among a plurality of types of tables stored in the table information storage unit 16 based on the table selection information sent from the table selection unit 13, and selects the LCH. A desired weighting operation is performed on the data to generate illumination control data. Here, FIG. 4 shows an example of the weight value table. The table of FIG. 4 shows weight values (W L , W C , W H ) used when generating illumination control data for each of L (lightness), C (saturation), and H (hue) in each mode selected above. Is decided. A plurality of types of such tables are stored in the table information storage unit 16, and one is read based on the table selection information sent from the table selection unit 13.

次に、算出された照明制御データ(LCHデータ)は、RGBデータに変換された上で、映像データおよび音声データと出力タイミングを合わせて出力部17から照明装置7へ送られる。   Next, the calculated illumination control data (LCH data) is converted into RGB data, and is sent from the output unit 17 to the illumination device 7 in accordance with the output timing of the video data and audio data.

以下には、照明制御データ生成部6に含まれるモード選択部12およびテーブル選択部13についてさらに詳しく説明する。   Hereinafter, the mode selection unit 12 and the table selection unit 13 included in the illumination control data generation unit 6 will be described in more detail.

まず、映像表示装置の表示画面に含まれる全てのブロック41に対応する映像データの特徴量を検出し、各ブロック41をその映像特徴量に応じて予め決められているモードに振り分ける方法について、図5、図6とともに説明する。   First, a method for detecting feature amounts of video data corresponding to all the blocks 41 included in the display screen of the video display device and allocating each block 41 to a predetermined mode according to the video feature amount will be described with reference to FIG. 5 and FIG.

図5は、照明制御データ生成部6のモード選択部12のブロック図を示すものである。モード選択部12は、ブロック平均部10から画像ブロック平均データを受け取ると、LCH変換部18にて画像ブロック平均映像データを、明度(Lightness)、彩度(Chroma)、色相(Hue)を示す各データへ変換する。LCH変換部18にて変換されたLCHデータは、ブロック毎にフレーム間差分判定部19、フレームメモリ20およびモード判定部21へ送られる。   FIG. 5 is a block diagram of the mode selection unit 12 of the illumination control data generation unit 6. When the mode selection unit 12 receives the image block average data from the block average unit 10, the LCH conversion unit 18 converts the image block average video data into lightness (Lightness), saturation (Chroma), and hue (Hue). Convert to data. The LCH data converted by the LCH conversion unit 18 is sent to the inter-frame difference determination unit 19, the frame memory 20, and the mode determination unit 21 for each block.

まず、フレーム間差分判定部19は、後述するモード判定部21において判定対象とするブロック41が映像中の被写体を表す領域に含まれるか否かを判定するための情報の1つとして、現在のフレームデータと1つ前のフレームデータとを比較し、フレーム間の差分データをモード判定部21へ送る。具体的には、フレームメモリ20は1つ前のフレームのLCHデータを記憶しておき、現在のフレームのLCHデータが送られてきた時に、フレーム間差分判定部19に対し1つ前のフレームのLCHデータを送る。ここで、フレームメモリ20は、1つ前のLCHデータを送信完了すると、現在のフレームのLCHデータを上書きで保存する。このような構成にすることにより、フレームメモリ20は1フレーム分のLCHデータを格納するに足りる容量でよくなる。そして、フレーム間差分判定部19は、LCH変換部18から送られる現在のフレームのLCHデータの明度とフレームメモリ20から送られた1つ前のフレームのLCH情報の明度とを比較し、明度のフレーム間の差分データを算出しモード判定部21へ送る。そして、モード判定部21は、フレーム間差分判定部19から送られたブロックごとのフレーム間の差分データと、LCH変換部18から送られる彩度(Chroma)、色相(Hue)とを解析し、各ブロックが被写体領域であるか否かを判定する。   First, the inter-frame difference determination unit 19 uses the current determination as one of information for determining whether or not the block 41 to be determined in the mode determination unit 21 described later is included in the region representing the subject in the video. The frame data is compared with the previous frame data, and difference data between frames is sent to the mode determination unit 21. Specifically, the frame memory 20 stores the LCH data of the previous frame, and when the LCH data of the current frame is sent, the frame difference determination unit 19 determines the frame of the previous frame. Send LCH data. Here, when transmission of the previous LCH data is completed, the frame memory 20 overwrites and stores the LCH data of the current frame. By adopting such a configuration, the frame memory 20 has a capacity sufficient to store one frame of LCH data. Then, the inter-frame difference determination unit 19 compares the brightness of the LCH data of the current frame sent from the LCH conversion unit 18 with the brightness of the LCH information of the previous frame sent from the frame memory 20, and Difference data between frames is calculated and sent to the mode determination unit 21. And the mode determination part 21 analyzes the difference data between the frames for every block sent from the interframe difference determination part 19, and the saturation (Chroma) and hue (Hue) sent from the LCH conversion part 18, It is determined whether each block is a subject area.

以上では現在のフレームのLCHデータと一つ前のフレームのLCHデータとを比較するものについて記載したが、例えば複数フレーム分のLCHデータをフレームメモリ20で記憶させ、フレーム間差分判定部19で複数フレーム分のLCHデータと現在のフレームのLCHデータとを比較してフレーム間の差分データの算出を行ってもよい。このように複数フレームのLCHデータと比較することで、モード判定部21において、さらに精度よく被写体領域の判定を行うことが可能になる。   In the above description, the LCH data of the current frame and the LCH data of the previous frame are compared. However, for example, the LCH data for a plurality of frames is stored in the frame memory 20 and the interframe difference determination unit 19 The difference data between frames may be calculated by comparing the LCH data for the frame with the LCH data for the current frame. Thus, by comparing with the LCH data of a plurality of frames, the mode determination unit 21 can determine the subject area with higher accuracy.

次に、モード判定部21は、LCH変換部18から送られるLCHデータとフレーム間差分判定部19から送られるフレーム間の差分データとから予め用意されている複数のモードの中から、各ブロックに該当するモードを選択して割り付ける。以下、モード判定部21で行うモードの割り付け方法について、図6のモード割り付け動作フローとともに説明する。   Next, the mode determination unit 21 selects each block from a plurality of modes prepared in advance from the LCH data sent from the LCH conversion unit 18 and the difference data between frames sent from the interframe difference determination unit 19. Select and assign the appropriate mode. Hereinafter, the mode allocation method performed by the mode determination unit 21 will be described together with the mode allocation operation flow of FIG.

モード判定部21は、映像表示装置4の表示画面に含まれる全てのブロックに対して、1つのモードを割り付ける。例えば、映像表示装置4の表示画面にn個のブロックが含まれている場合は、n個のブロックに対して、モード割り付け動作を行うことになる。モード判定部21は、まず、対象となるブロックが被写体領域に含まれるか否かを判定する。被写体領域に含まれると判定されると、そのブロックは被写体モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ1)。   The mode determination unit 21 assigns one mode to all the blocks included in the display screen of the video display device 4. For example, when the display screen of the video display device 4 includes n blocks, the mode allocation operation is performed on the n blocks. The mode determination unit 21 first determines whether or not the target block is included in the subject area. If it is determined that the block is included in the subject area, mode data indicating that the block is in the subject mode is added to the LCH data and output to the table selection unit 13 (step 1).

ここで、対象となるブロックが被写体領域に含まれるか否かの判定は、フレーム間差分判定部19から送られるフレーム間の差分データとLCH変換部18から送られる彩度(Chroma)、色相(Hue)とを解析し、各ブロックが被写体領域であるか否かを判定する。フレーム間の差分データからの解析は、明度のフレーム間の差分がある一定以上である場合(他の部分(背景)と比較して動きが大きかった場合)には、対象となるブロックを被写体として判定する。また、例えばフレームに被写体が存在しているが同じ画像が続く場合、つまり表示映像の中に被写体が存在するがフレーム間の差分データが小さい場合、LCH変換部18から送られる彩度(Chroma)、色相(Hue)を解析し、特定の色範囲に属するブロックを被写体として判断するようにすればよい。例えば、人間であれば肌色の色範囲に属すれば被写体として判定するようにすればよい。   Here, whether or not the target block is included in the subject area is determined by determining the inter-frame difference data sent from the inter-frame difference judgment unit 19 and the saturation (Chroma) and hue (from the LCH conversion unit 18). Hue) is analyzed to determine whether each block is a subject area. Analysis from difference data between frames shows that if the difference between lightness frames is more than a certain value (when movement is large compared to other parts (background)), the target block is the subject. judge. Further, for example, when the subject exists in the frame but the same image continues, that is, when the subject exists in the display video but the difference data between frames is small, the saturation (Chroma) sent from the LCH conversion unit 18 The hue (Hue) may be analyzed to determine a block belonging to a specific color range as a subject. For example, if it is a human being, it may be determined as a subject if it belongs to the skin color range.

さらに、映像中に被写体が含まれる場合は大体被写体に焦点が合わせられているので、入力映像データを解析し、映像データで高周波成分に該当する領域を被写体とするようにしてもよい。さらにまた、被写体は、表示映像中の中央部に位置することが多いため、画面の中央部と端部とで被写体判定の閾値を変更するようにしてもよい。以上のような判定方法を併用することにより適切に被写体か否かを判定することができ、後に適切な照明制御をすることができる。逆に被写体か否かを適切に判定できないと臨場感を高める照明制御は行えない。例えば、映像表示装置4に表示される映像が、夜のシーンで人物がアップになっている映像の場合、撮影照明に照らされている体の部分(肌色部分以外)の明るさに影響を受けて視聴環境照明が明るくなってしまい、暗闇の雰囲気が出せなくなる。しかし、被写体を正確に判定することにより、被写体以外の部分での照明制御データの生成が可能となり、暗闇の雰囲気を出すことができ、臨場感を高めることができる。   Further, when the subject is included in the video, since the subject is generally focused, the input video data may be analyzed and the region corresponding to the high frequency component in the video data may be set as the subject. Furthermore, since the subject is often located at the center of the displayed video, the subject determination threshold may be changed between the center and the end of the screen. By using the above-described determination methods in combination, it can be determined whether or not the subject is appropriate, and appropriate illumination control can be performed later. Conversely, if it is not possible to properly determine whether or not the subject is present, illumination control that enhances the sense of reality cannot be performed. For example, when the video displayed on the video display device 4 is a video in which a person is up in a night scene, it is affected by the brightness of the body part (other than the skin color part) illuminated by the shooting illumination. As a result, the viewing environment lighting becomes brighter, making it impossible to create a dark atmosphere. However, by accurately determining the subject, it is possible to generate illumination control data in a portion other than the subject, thereby creating an atmosphere of darkness and enhancing the sense of reality.

次に、ステップ1で対象ブロックが被写体領域に含まれないと判定されると、LCHデータの明度が所定値(第1の閾値)以上か否かを判定することによって、該対象ブロックが光源領域であるか否かを判定する。該ブロックが光源領域であると判定されると、そのブロックは光源モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ2)。ここで、例えば、映像表示装置4に表示される映像に太陽(光源)が含まれる場合には、光源の明度や色を積極的に照明装置7の照明光に反映させることにより、臨場感を高めることができる。   Next, when it is determined in step 1 that the target block is not included in the subject area, it is determined whether or not the brightness of the LCH data is equal to or greater than a predetermined value (first threshold value), so that the target block is in the light source area. It is determined whether or not. If it is determined that the block is the light source region, mode data indicating that the block is in the light source mode is added to the LCH data and output to the table selection unit 13 (step 2). Here, for example, when the sun (light source) is included in the video displayed on the video display device 4, the brightness and color of the light source are positively reflected in the illumination light of the lighting device 7, thereby providing a sense of reality. Can be increased.

次に、ステップ2で対象ブロックが光源領域ではないと判定されると、LCHデータの明度が所定値(第2の閾値)以下か否かを判定することによって、該対象ブロックが暗闇領域であるか否かを判定する。該ブロックが暗闇領域であると判定されると、そのブロックは夜景モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ3)。ここで、例えば、映像表示装置4に表示される映像が暗闇の場合には、照明装置7の明度を極端に下げることにより、臨場感を高めることができる。   Next, when it is determined in step 2 that the target block is not the light source region, it is determined whether or not the brightness of the LCH data is equal to or less than a predetermined value (second threshold value), so that the target block is a dark region. It is determined whether or not. If it is determined that the block is in the dark area, mode data indicating that the block is in the night view mode is added to the LCH data and output to the table selection unit 13 (step 3). Here, for example, when the video displayed on the video display device 4 is dark, the sense of reality can be enhanced by extremely reducing the brightness of the lighting device 7.

次に、ステップ3で対象ブロックが暗闇領域ではないと判定されると、LCHデータの彩度と色相とから、該対象ブロックの色が特定の色範囲にあるか否かを判定することによって、該ブロックが特定の色領域か否かを判定する。該ブロックが特定の色領域であると判定されると、そのブロックは特定色モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ4)。   Next, when it is determined in step 3 that the target block is not in the dark region, by determining whether the color of the target block is in a specific color range from the saturation and hue of the LCH data, It is determined whether the block is a specific color area. If it is determined that the block is a specific color area, mode data indicating that the block is in the specific color mode is added to the LCH data and output to the table selection unit 13 (step 4).

ここで、特定の色範囲にあるか否かの判定は、メモリなどに予め格納されている特定の色範囲に合致するか否かで判定する、例えば、映像表示装置4に表示される映像が夕焼けの場合には、夕焼けの色(オレンジ色など)を照明装置7で表示すると視聴者に対し没入感を与え、高い臨場感が実現できる。そのため、メモリなどに夕焼けの色(オレンジ色など)の色範囲を格納しておき、ブロックが夕焼けの色範囲に合致する場合は、特定色モードとして判定する。また、映像表示装置4に表示される映像が森林の場合には緑色を、水中の場合には青色を照明装置7で点灯させると没入感や臨場感を高めることができるので、緑色や青色も特定の色範囲としてメモリに予め格納しておけばよい。   Here, the determination as to whether or not the image is in the specific color range is made based on whether or not the specific color range is stored in advance in a memory or the like. For example, the video displayed on the video display device 4 is displayed. In the case of sunset, displaying the sunset color (such as orange) on the lighting device 7 gives the viewer an immersive feeling and a high sense of realism. For this reason, a color range of sunset colors (such as orange) is stored in a memory or the like, and when the block matches the color range of sunset, it is determined as a specific color mode. In addition, if the image displayed on the image display device 4 is green when the image is forested, and if the image is displayed underwater when the light device 7 is turned on with the lighting device 7, the immersive feeling and the realistic sensation can be enhanced. What is necessary is just to store beforehand in a memory as a specific color range.

また、夕焼けの色(オレンジ色)、森林の色(緑色)、水中の色(青色)などの複数の特定の色範囲をメモリに格納している場合には、テーブル選択部13へ送る特定色モードはそれぞれどの色範囲に属する特定色モードなのかを識別するデータも送るようにすればよい。   Further, when a plurality of specific color ranges such as sunset color (orange), forest color (green), underwater color (blue) are stored in the memory, the specific color to be sent to the table selection unit 13 It is only necessary to send data for identifying which color range each mode belongs to.

さらにまた、上記では予めメモリに特定色の色範囲を格納しておくことを説明したが、例えば、映像データが入力された際に、表示装置の画面全体のヒストグラムのピーク強度によって画面全体に対する特定の色味がかりの有無を判定し、特定の色味がかりがある場合には特定色モードを設定してもよい。このようにすることで、上記の予め想定していた映像(夕焼け、森林、水中など)以外の場合にも適切に照明に反映することが可能となる。   Furthermore, in the above description, the color range of the specific color is stored in the memory in advance. For example, when video data is input, the specific range for the entire screen is determined by the peak intensity of the histogram of the entire screen of the display device. The presence or absence of a color tint is determined, and when there is a specific color tint, a specific color mode may be set. By doing in this way, it becomes possible to reflect appropriately in illumination also in cases other than the above-mentioned images (sunset, forest, underwater, etc.).

次に、ステップ4で対象ブロックが特定の色領域ではないと判定されると、LCHデータの彩度と色相とから、該対象ブロックの色がそのブロックの周辺のブロックの色と比較して色差が所定値以下か否かを判定することによって、背景が均一な領域か否かを判定する。該ブロックが均一な背景の領域であると判定されると、そのブロックは均一背景モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する。また、背景が均一な領域ではないと判定されると、そのブロックは多様背景モードであることを示すモードデータをLCHデータに付加し、テーブル選択部13へ出力する(ステップ5)。ここで、例えば、映像表示装置4に表示される映像の背景が均一の場合には、均一背景モードの彩度、色相を照明装置7の照明光へ反映させると臨場感を高めることができる。   Next, when it is determined in step 4 that the target block is not a specific color region, the color of the target block is compared with the color of the surrounding blocks of the block based on the saturation and hue of the LCH data. It is determined whether or not the background is a uniform region by determining whether or not is less than a predetermined value. If it is determined that the block is a uniform background area, mode data indicating that the block is in the uniform background mode is added to the LCH data and output to the table selection unit 13. If it is determined that the background is not a uniform region, mode data indicating that the block is in various background modes is added to the LCH data and output to the table selection unit 13 (step 5). Here, for example, when the background of the video displayed on the video display device 4 is uniform, the sense of reality can be enhanced by reflecting the saturation and hue of the uniform background mode in the illumination light of the lighting device 7.

これで1つのブロックについて適切なモードの割り付け動作が完了する。そして、このようなモード割り付け動作を特徴量検出領域に含まれるブロックの数だけ繰り返し行って、モード割り付け動作が完了する。以上では、各ブロックに対して6つのモードのいずれかを割り付けるものについて説明したが、これらに限定されるものではなく、さらに多くのモードを設定してもよいし、逆にモード数を少なくしてもよい。   This completes the allocation operation in an appropriate mode for one block. Such mode allocation operation is repeated for the number of blocks included in the feature amount detection area, and the mode allocation operation is completed. In the above description, one of the six modes is assigned to each block. However, the present invention is not limited to this, and more modes may be set. Conversely, the number of modes is reduced. May be.

次に、テーブル選択部13のテーブル選択方法について、図7の特徴量検出領域の一例、図8のテーブル選択動作フローおよび図9の各テーブルの一例とともに説明する。   Next, the table selection method of the table selection unit 13 will be described together with an example of the feature amount detection region in FIG. 7, the table selection operation flow in FIG. 8, and each table in FIG.

テーブル選択部13は、モード選択部12から送られる各ブロックのモードデータと特徴量検出領域記憶部14から読み出される特徴量検出領域情報とからテーブル選択を行う。ここで、特徴量検出領域記憶部14に格納されている特徴量検出領域情報とは、視聴者の視聴環境空間に設置されている各照明装置を適切に制御するために、映像表示装置4の表示画面のどの領域から映像データの特徴量を検出すればよいかを示す情報である。図7は、視聴者の視聴環境空間に照明装置が2つ設置されていた場合の特徴量検出領域の一例を示すものである。図7の42、43で表す画面領域が視聴者の視聴環境空間に設置されている2つの照明装置それぞれに対応した特徴量検出領域である。これら特徴量検出領域42、43を示す特徴量検出領域情報は、例えば上述した映像表示装置4の表示画面を分割したブロック41のそれぞれに番号を付して、特徴量検出領域に対応するブロック番号を照明装置7ごとに格納されるようにしてもよいし、対応する画素単位で格納されるようにしてもよい。   The table selection unit 13 performs table selection from the mode data of each block sent from the mode selection unit 12 and the feature amount detection region information read from the feature amount detection region storage unit 14. Here, the feature amount detection region information stored in the feature amount detection region storage unit 14 is the image display device 4 in order to appropriately control each lighting device installed in the viewing environment space of the viewer. This is information indicating from which region of the display screen the feature amount of the video data should be detected. FIG. 7 shows an example of the feature amount detection area when two lighting devices are installed in the viewing environment space of the viewer. Screen areas represented by 42 and 43 in FIG. 7 are feature amount detection areas corresponding to the two lighting devices installed in the viewing environment space of the viewer. For the feature quantity detection area information indicating these feature quantity detection areas 42 and 43, for example, a number is assigned to each of the blocks 41 obtained by dividing the display screen of the video display device 4 described above, and a block number corresponding to the feature quantity detection area. May be stored for each lighting device 7, or may be stored in units of corresponding pixels.

次に、テーブル選択部13で行うテーブル選択動作について説明する。   Next, a table selection operation performed by the table selection unit 13 will be described.

まず、特徴量検出領域に含まれるブロックに付与されたモードのうち、光源モードが一定の割合以上である場合(例えば、光源モードが1/5以上)は、映像中の光源の色を視聴環境照明に積極的に反映することが可能なテーブル1が選択される(ステップ1)。図9(a)は、テーブル1の重み付け値の一例を示すもので、光源モードが1/5以上を占める画像では、画面内に強い光源があり、その光源を積極的に照明で再現することで臨場感を高めることができると考えられるため、光源モードブロックの重み付けを3倍にする。   First, when the light source mode is greater than or equal to a certain ratio among the modes assigned to the blocks included in the feature amount detection region (for example, the light source mode is 1/5 or more), the color of the light source in the video is viewed. A table 1 that can be positively reflected in lighting is selected (step 1). FIG. 9A shows an example of the weighting values in Table 1. In an image in which the light source mode occupies 1/5 or more, there is a strong light source in the screen, and the light source is actively reproduced by illumination. Therefore, the weight of the light source mode block is tripled.

次に、ステップ1で光源モードが一定の割合以上でない場合(例えば、光源モードが1/5以下)は、特定色モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、特定色モードが1/2以上)は、映像中のその特定色を視聴環境照明の色に反映することが可能なテーブル2が選択される(ステップ2)。図9(b)は、テーブル2の重み付けの一例を示すもので、特定色モードが1/2以上を占める画像では、朝/夕焼けや水中、晴れた青空、森林など、特定の色が印象を強めていると考えられ、照明によってその特定の色を再現することによって臨場感を高めることができると考えられるため、特定色モードブロックの彩度と色相の重み付けを3倍にし、明度が高く照明に影響を与えやすい光源モードブロックの重み付けを1/2にする。   Next, when the light source mode is not equal to or greater than a certain ratio in step 1 (for example, the light source mode is equal to or less than 1/5), it is determined whether or not the specific color mode is equal to or greater than a certain ratio. If it is determined (for example, the specific color mode is ½ or more), the table 2 capable of reflecting the specific color in the video on the color of the viewing environment illumination is selected (step 2). FIG. 9B shows an example of weighting in Table 2. In an image in which the specific color mode occupies 1/2 or more, a specific color such as morning / sunset, underwater, clear blue sky, or forest gives an impression. It is thought that it is strengthened, and it is thought that the realism can be enhanced by reproducing the specific color by lighting, so the saturation and hue weighting of the specific color mode block is tripled, and the lightness is high. The weight of the light source mode block that is likely to affect is reduced to 1/2.

次に、ステップ2で特定色モードが一定の割合以上でない場合(例えば、特定色モードが1/2以下)は、夜景モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、夜景モードが1/2以上)は、視聴環境照明の明るさと彩度を落とすことが可能なテーブル3が選択される(ステップ3)。図9(c)は、テーブル3の重み付けの一例を示すもので、夜景モードが半分以上を占める画像では、視聴環境空間全体を暗い雰囲気にすることで臨場感を高めることができると考えられるため、夜景モードブロックの重み付けを3倍にし、全体の明度を1/2、彩度を1/4とし、明度が高く照明が明るくなってしまう可能性の高い光源モードブロックの重み付けを1/2とする。また、撮影上ライティングされ背景と比べ明度が高くなりがちな被写体モードブロックの重み付けを1/2にする。   Next, when the specific color mode is not a certain ratio or more in step 2 (for example, the specific color mode is 1/2 or less), it is determined whether or not the night view mode is a certain ratio or more. If it is determined (for example, the night view mode is 1/2 or more), the table 3 capable of reducing the brightness and saturation of the viewing environment illumination is selected (step 3). FIG. 9C shows an example of the weighting of the table 3, and in an image in which the night view mode occupies more than half, it is considered that the realism can be enhanced by making the entire viewing environment space dark. The weight of the night view mode block is tripled, the overall lightness is ½, the saturation is ¼, and the lightness mode block is highly likely to have high lightness and bright lighting, and the weight of the light source mode block is ½. To do. In addition, the weight of the subject mode block that is lighted for shooting and tends to have a higher brightness than the background is halved.

次に、ステップ3で夜景モードが一定の割合以上でない場合(例えば、夜景モードが1/2以下)は、均一背景モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、均一背景モードが1/3以上)は、視聴環境照明に均一背景を反映させることが可能なテーブル4が選択される(ステップ4)。図9(d)は、テーブル4の重み付けの一例を示すもので、均一背景モードが1/3以上を占める画像では、その背景の明るさと色をそのまま照明で再現すれば自然な雰囲気を再現することができると考えられるため、均一背景モードブロックの重み付けを3倍とし、画面上で占有面積(対応ブロック数)が大きくなりやすい被写体モードブロックの重み付けを1/2にする。   Next, when the night scene mode is not a certain ratio or more in step 3 (for example, the night scene mode is 1/2 or less), it is determined whether or not the uniform background mode is a certain ratio or more. If it is determined (for example, the uniform background mode is 1/3 or more), the table 4 capable of reflecting the uniform background in the viewing environment illumination is selected (step 4). FIG. 9D shows an example of the weighting of the table 4. In an image in which the uniform background mode occupies 1/3 or more, a natural atmosphere is reproduced if the background brightness and color are reproduced as they are. Therefore, the weight of the uniform background mode block is tripled, and the weight of the subject mode block that tends to increase the occupied area (number of corresponding blocks) on the screen is halved.

次に、ステップ4で均一背景モードが一定の割合以上でない場合(例えば、夜景モードが1/3以下)は、多様背景モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、多様背景モードが2/3以上)は、視聴環境照明の彩度を落とすことが可能なテーブル5が選択される(ステップ5)。図9(e)は、テーブル5の重み付けの一例を示すもので、多様背景モードが2/3以上を占める画像では、背景が複雑で雰囲気を表す色を一意に決めるのが困難であり、そのまま背景の平均を照明に適用すると、不適切な色が出てしまうと考えられるため、明るさのみを照明で再現することで自然に見せるべく多様背景モードブロックの重み付けを明度のみ2倍し、全体の彩度を1/4にする。   Next, when the uniform background mode is not a certain ratio or more in step 4 (for example, the night scene mode is 1/3 or less), it is determined whether the various background modes are a certain ratio or more. If it is determined (for example, the diverse background mode is 2/3 or more), the table 5 capable of reducing the saturation of the viewing environment illumination is selected (step 5). FIG. 9 (e) shows an example of the weighting of the table 5. In an image in which the diverse background mode occupies 2/3 or more, it is difficult to uniquely determine the color representing the atmosphere because the background is complex. If the average of the background is applied to the lighting, it is thought that an inappropriate color will appear. Therefore, by reproducing only the brightness with the lighting, the weight of the various background mode blocks is doubled only for the brightness to make it look natural. Make the saturation of ¼.

次に、ステップ5で多様背景モードが一定の割合以上でない場合(例えば、多様背景モードが2/3以下)は、被写体モードが一定の割合以上か否かの判定がされ、一定の割合以上と判定された場合(例えば、被写体モードが4/5以上)は、映像中の被写体の輝度のみを視聴環境照明に反映させることが可能なテーブル6が選択される。(ステップ6)図9(f)は、テーブル6の重み付けの一例を示すもので、被写体モードが4/5以上を占めるような画像では、被写体がアップになっていて、画面の印象を支配していることが考えられるが、特に被写体が複数の場合には色が頻繁に変化する可能性があると考えられるので、被写体の映像データを反映すると不自然な印象を与える可能性がある。従って、不自然な印象をなくすために明るさのみを照明で再現すべく被写体モードブロックの重み付けを明度のみ2倍にする。   Next, when the diverse background mode is not a certain ratio or more in step 5 (for example, the diverse background mode is 2/3 or less), it is determined whether or not the subject mode is a certain ratio or more. When the determination is made (for example, the subject mode is 4/5 or more), the table 6 that can reflect only the luminance of the subject in the video in the viewing environment illumination is selected. (Step 6) FIG. 9 (f) shows an example of the weighting of the table 6. In an image in which the subject mode occupies 4/5 or more, the subject is up and controls the impression of the screen. However, particularly when there are a plurality of subjects, it is considered that the color may change frequently. Therefore, reflecting the video data of the subject may give an unnatural impression. Therefore, in order to eliminate an unnatural impression, the weight of the subject mode block is doubled only for the brightness so that only the brightness is reproduced by illumination.

次に、ステップ6で被写体モードが一定の割合以上でない場合(例えば、被写体モードが4/5以下)は、映像中の背景を重視して視聴環境照明に反映させることが可能なテーブル7が選択される。図9(g)は、テーブル7の重み付けの一例を示すもので、さまざまなモードが混在しているテーブル7のような映像では、そのうち安定している均一背景モードおよび明度が高く印象が強い光源モードを積極的に反映すべく、均一背景モードブロックおよび光源モードブロックの重み付けを3倍にする。また、特定色モードでは、色を強く反映することで臨場感を高められるので、特定色モードブロックの彩度と色相の重み付けを3倍にする。さらに、被写体モードでは、明るさのみをある程度反映すべく、被写体モードブロックの明度のみを2倍にする。さらにまた、色を決定するのが困難で照明が不自然になりやすい多様背景モードおよび夜景モードは明度のみを反映すべく、多様背景モードブロックおよび夜景モードブロックの彩度と色相を1/2倍にする。   Next, when the subject mode is not a certain ratio or more in step 6 (for example, the subject mode is 4/5 or less), the table 7 that can be reflected in the viewing environment lighting with emphasis on the background in the video is selected. Is done. FIG. 9 (g) shows an example of the weighting of the table 7. In an image like the table 7 in which various modes are mixed, a stable uniform background mode and a light source with a high brightness and a strong impression. To positively reflect the mode, the weight of the uniform background mode block and the light source mode block is tripled. In the specific color mode, the presence of the image can be enhanced by strongly reflecting the color. Therefore, the saturation and hue weights of the specific color mode block are tripled. Further, in the subject mode, only the brightness of the subject mode block is doubled to reflect only the brightness to some extent. Furthermore, it is difficult to determine the color and the various background modes and night scene modes that are likely to be unnatural are reflected in the brightness and hue of the various background mode blocks and night scene mode blocks in order to reflect only the lightness. To.

以上により、特徴量検出領域内のモード分布に基づくテーブル選択が完了し、このテーブル選択情報は各ブロックのLCHデータとモードデータとともに照明制御データ算出部15へ送られる。上記のテーブル選択方法では7つのテーブルに振り分けることを説明したが、これらに限定されるものではなく、さらに多くのテーブルを設定してもよいし、逆にテーブル数を少なくしてもよい。   Thus, the table selection based on the mode distribution in the feature amount detection region is completed, and this table selection information is sent to the illumination control data calculation unit 15 together with the LCH data and mode data of each block. In the above table selection method, the distribution to seven tables has been described. However, the present invention is not limited to these, and more tables may be set, or conversely, the number of tables may be reduced.

次に、照明制御データ算出部15で算出される照明制御データの算出方法について以下に説明する。照明制御データ算出部15は、テーブル選択部13から送られたテーブル選択情報に基づいて、テーブル情報記憶部16に格納されているテーブルの中から、テーブル選択情報に該当するテーブルを参照して、照明制御データを生成する。すなわち、テーブル情報記憶部16に格納されたテーブルの重み付け情報と各ブロックのLCHデータとモードデータとから所定の演算を行い、照明制御データを算出する。   Next, the calculation method of the illumination control data calculated by the illumination control data calculation unit 15 will be described below. The illumination control data calculation unit 15 refers to the table corresponding to the table selection information from the tables stored in the table information storage unit 16 based on the table selection information sent from the table selection unit 13. Generate lighting control data. That is, a predetermined calculation is performed from the weighting information of the table stored in the table information storage unit 16, the LCH data of each block, and the mode data to calculate the illumination control data.

照明制御データ算出部15で行う具体的な演算処理について、図10に示す演算式の一例とともに説明する。図10(a)は、L(明度)の算出演算を示すものである。L(明度)の算出演算は、特徴量検出領域に含まれる各ブロックの明度値とテーブル情報記憶部16を参照して得られた各モードのブロックにおける明度の重み付け値を乗算し(WL(table, mode)×Lblock)、特徴量検出量領域に含まれる全ブロックの上記値(WL(table, mode)×Lblock)を加算し(Σ[WL(table, mode)×Lblock])、全ブロックの重み付け値の合計で除算する(正規化する)。そして、テーブル毎に設けられている明度の係数kLを乗算して照明制御データのL(明度)の値を算出する。 A specific calculation process performed by the illumination control data calculation unit 15 will be described together with an example of an arithmetic expression shown in FIG. FIG. 10A shows a calculation operation for L (brightness). The calculation operation of L (lightness) is performed by multiplying the lightness value of each block included in the feature amount detection region by the lightness weighting value in each mode block obtained by referring to the table information storage unit 16 (W L ( table, mode) × L block ), and the above values (W L (table, mode) × L block ) of all blocks included in the feature amount detection amount area are added (Σ [W L (table, mode) × L block ]), And divide (normalize) by the sum of the weight values of all blocks. Then, by multiplying the coefficient k L lightness provided for each table to calculate the values of L (brightness) of the illumination control data.

次に、C(彩度)、H(色相)についても、図10(b)、(c)に示すように、上記のL(明度)と同様の算出演算を行って、照明制御データ(L(明度),C(彩度),H(色相))を算出する。   Next, with respect to C (saturation) and H (hue), as shown in FIGS. 10B and 10C, the calculation calculation similar to the above L (brightness) is performed, and the illumination control data (L (Lightness), C (saturation), H (hue)).

ここで、上記の演算式は一例であり、各テーブルの重み付け値が照明制御データに適切に反映されるような演算式であれば上記の演算式に限られるものではない。   Here, the above arithmetic expression is an example, and is not limited to the above arithmetic expression as long as the weighting value of each table is appropriately reflected in the illumination control data.

そして、算出された照明制御データ(LCHデータ)は、RGBデータに変換された上で、映像データおよび音声データと出力タイミングを合わせて出力部17から照明装置7へ送られる。以上のような構成にすることにより、どのような画像が映像表示装置に表示されたとしても、映像表示装置に表示される画像に応じて適切に照明制御を行うことができる。   The calculated illumination control data (LCH data) is converted into RGB data, and is sent from the output unit 17 to the illumination device 7 in accordance with the output timing of the video data and audio data. With the above-described configuration, it is possible to appropriately perform illumination control according to the image displayed on the video display device, regardless of what image is displayed on the video display device.

以上では、モード選択部12において映像表示装置4に含まれる全てのブロックについてモード割り付けをした後に、テーブル選択部13にて特徴量検出領域を読み出し、各特徴量検出領域に含まれるモードの分布からテーブル選択を行ったが、例えば、特徴量検出領域の読み出しをモード選択部12で行うようにすれば、特徴量検出領域含まれるブロックのみにモード割り付けをすればよくなるので、モード判定するブロックの数が軽減できるようになる。   In the above, after the mode selection unit 12 assigns the modes to all the blocks included in the video display device 4, the table selection unit 13 reads out the feature amount detection region, and from the distribution of the modes included in each feature amount detection region. Although table selection has been performed, for example, if the feature amount detection area is read by the mode selection unit 12, it is only necessary to assign a mode to the blocks included in the feature amount detection area. Can be reduced.

また以上では、映像データをL(明度)、C(彩度)、H(色相)に変換して照明制御データを生成する方法を説明したが、明るさと色に分解することができれば他の色空間で変換するようにしても構わない。
In the above description, the method for generating the illumination control data by converting the video data into L (brightness), C (saturation), and H (hue) has been described. You may make it convert in space.

本発明の実施形態に係る視聴環境制御装置を示すブロック図である。It is a block diagram which shows the viewing-and-listening environment control apparatus which concerns on embodiment of this invention. 視聴環境制御装置の照明制御データ生成部を示すブロック図である。It is a block diagram which shows the illumination control data production | generation part of a viewing-and-listening environment control apparatus. 表示装置のブロック分割の概念を示す図である。It is a figure which shows the concept of the block division of a display apparatus. 重み付けテーブルの一例を示す図である。It is a figure which shows an example of a weighting table. 照明制御データ生成部のモード選択部を示すブロック図である。It is a block diagram which shows the mode selection part of an illumination control data generation part. モード割り付けの動作フローを示す図である。It is a figure which shows the operation | movement flow of mode allocation. 視聴者の視聴環境空間に照明装置が2つ設置されていた場合の特徴量検出領域の一例を示す図である。It is a figure which shows an example of the feature-value detection area | region in case two illumination devices are installed in the viewer's viewing environment space. テーブル選択の動作フローを示す図である。It is a figure which shows the operation | movement flow of table selection. テーブルの重み付けの一例を示す図である。It is a figure which shows an example of the weighting of a table. 照明制御データ算出部で行う照明制御データ生成の演算処理を示す図である。It is a figure which shows the calculation process of the illumination control data production | generation performed in an illumination control data calculation part.

符号の説明Explanation of symbols

1…視聴環境制御装置
2…受信部
3…データ分離部
4…映像表示装置
5…音声再生装置
6…照明制御データ生成部
7…照明装置
8(a),8(b)…ディレイ発生部
9…入力部
10…ブロック平均部
11…ブロック情報記憶部
12…モード選択部
13…テーブル選択部
14…特徴量検出領域記憶部
15…照明制御データ算出部
16…テーブル情報記憶部
17…出力部
18…LCH変換部
19…フレーム間差分判定部
20…フレームメモリ
21…モード判定部
41…ブロック
42,43…特徴量検出領域
DESCRIPTION OF SYMBOLS 1 ... Viewing environment control apparatus 2 ... Reception part 3 ... Data separation part 4 ... Video display apparatus 5 ... Audio | voice reproduction apparatus 6 ... Illumination control data generation part 7 ... Illumination apparatus 8 (a), 8 (b) ... Delay generation part 9 ... input unit 10 ... block average unit 11 ... block information storage unit 12 ... mode selection unit 13 ... table selection unit 14 ... feature amount detection region storage unit 15 ... illumination control data calculation unit 16 ... table information storage unit 17 ... output unit 18 ... LCH conversion unit 19 ... Interframe difference determination unit 20 ... Frame memory 21 ... Mode determination unit 41 ... Blocks 42 and 43 ... Feature amount detection area

Claims (10)

表示装置に表示すべき映像データの特徴量に基づいて、照明装置の照明光を変化させる視聴環境制御装置において、
前記表示装置に表示される映像コンテンツの所定の画面領域内の画像内容を表す特徴パターンの分布に応じて、前記映像データの特徴量に基づく照明制御動作を可変することを特徴とする視聴環境制御装置。
In the viewing environment control device that changes the illumination light of the lighting device based on the feature amount of the video data to be displayed on the display device,
Viewing environment control characterized in that illumination control operation based on a feature amount of the video data is varied in accordance with a distribution of a feature pattern representing an image content within a predetermined screen area of the video content displayed on the display device apparatus.
前記特徴パターンの分布は、前記画面領域を1以上に分割したブロックの特徴パターンの分布であることを特徴とする請求項1に記載の視聴環境制御装置。   The viewing environment control apparatus according to claim 1, wherein the distribution of the feature pattern is a distribution of a feature pattern of a block obtained by dividing the screen area into one or more. 前記特徴パターンは、前記画面領域の画像内容が被写体であることを示す被写体パターンを含むことを特徴とする請求項1又は2に記載の視聴環境制御装置。   The viewing environment control apparatus according to claim 1, wherein the feature pattern includes a subject pattern indicating that the image content of the screen area is a subject. 前記特徴パターンは、前記画面領域の画像内容が光源であることを示す光源パターンを含むことを特徴とする請求項1又は2に記載の視聴環境制御装置。   The viewing environment control apparatus according to claim 1, wherein the feature pattern includes a light source pattern indicating that an image content of the screen area is a light source. 前記特徴パターンは、前記画面領域の画像内容が夜景であることを示す夜景パターンを含むことを特徴とする請求項1又は2に記載の視聴環境制御装置。   The viewing environment control apparatus according to claim 1, wherein the feature pattern includes a night view pattern indicating that the image content of the screen area is a night view. 前記特徴パターンは、前記画面領域の画像内容が特定色であることを示す特定色パターンを含むことを特徴とする請求項1又は2に記載の視聴環境制御装置。   The viewing environment control apparatus according to claim 1, wherein the characteristic pattern includes a specific color pattern indicating that the image content of the screen area is a specific color. 前記特徴パターンは、前記画面領域の画像内容が均一背景であることを示す均一背景パターンを含むことを特徴とする請求項1又は2に記載の視聴環境制御装置。   The viewing environment control apparatus according to claim 1, wherein the feature pattern includes a uniform background pattern indicating that the image content of the screen area is a uniform background. 前記特徴パターンは、前記画面領域の画像内容が多様背景であることを示す多様背景パターンを含むことを特徴とする請求項1又は2に記載の視聴環境制御装置。   The viewing environment control apparatus according to claim 1, wherein the feature pattern includes a diverse background pattern indicating that the image content of the screen area is a diverse background. 表示装置に表示すべき映像データの特徴量に基づいて、照明装置の照明光を変化させる視聴環境制御方法において、
前記表示装置に表示される映像コンテンツの所定の画面領域内の画像内容を表す特徴パターンの分布に応じて、前記映像データの特徴量に基づく照明制御動作を可変することを特徴とする視聴環境制御方法。
In a viewing environment control method for changing illumination light of a lighting device based on a feature amount of video data to be displayed on a display device,
Viewing environment control characterized in that illumination control operation based on the feature amount of the video data is varied according to the distribution of the feature pattern representing the image content within a predetermined screen area of the video content displayed on the display device Method.
前記特徴パターンの分布は、前記画面領域を1以上に分割したブロックの特徴パターンの分布であることを特徴とする請求項9に記載の視聴環境制御方法。   The viewing environment control method according to claim 9, wherein the distribution of the feature pattern is a distribution of feature patterns of blocks obtained by dividing the screen area into one or more.
JP2007198545A 2007-07-31 2007-07-31 Viewing environment control device and viewing environment control method Expired - Fee Related JP5166794B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007198545A JP5166794B2 (en) 2007-07-31 2007-07-31 Viewing environment control device and viewing environment control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007198545A JP5166794B2 (en) 2007-07-31 2007-07-31 Viewing environment control device and viewing environment control method

Publications (2)

Publication Number Publication Date
JP2009036801A true JP2009036801A (en) 2009-02-19
JP5166794B2 JP5166794B2 (en) 2013-03-21

Family

ID=40438811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007198545A Expired - Fee Related JP5166794B2 (en) 2007-07-31 2007-07-31 Viewing environment control device and viewing environment control method

Country Status (1)

Country Link
JP (1) JP5166794B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104869373A (en) * 2014-02-24 2015-08-26 精工爱普生株式会社 Image display apparatus and method of controlling image display apparatus
JP2018157321A (en) * 2017-03-16 2018-10-04 日本電気株式会社 Video conference apparatus, video conference system, video conference method, and video conference program
CN115527134A (en) * 2022-10-27 2022-12-27 浙江九烁光电工程技术有限公司 Urban garden landscape lighting monitoring system and method based on big data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282661A (en) * 2003-03-19 2004-10-07 Seiko Epson Corp Gradation characteristic control of image signal representing image in which images of different features mixedly exist
JP2006107905A (en) * 2004-10-05 2006-04-20 Sony Corp Illumination control device and illumination control method, recording medium, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282661A (en) * 2003-03-19 2004-10-07 Seiko Epson Corp Gradation characteristic control of image signal representing image in which images of different features mixedly exist
JP2006107905A (en) * 2004-10-05 2006-04-20 Sony Corp Illumination control device and illumination control method, recording medium, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104869373A (en) * 2014-02-24 2015-08-26 精工爱普生株式会社 Image display apparatus and method of controlling image display apparatus
JP2015158557A (en) * 2014-02-24 2015-09-03 セイコーエプソン株式会社 Image display device, and control method of image display device
CN104869373B (en) * 2014-02-24 2018-06-22 精工爱普生株式会社 The control method of image display device and image display device
JP2018157321A (en) * 2017-03-16 2018-10-04 日本電気株式会社 Video conference apparatus, video conference system, video conference method, and video conference program
JP7139574B2 (en) 2017-03-16 2022-09-21 日本電気株式会社 Video conference device, video conference system, video conference method and video conference program
CN115527134A (en) * 2022-10-27 2022-12-27 浙江九烁光电工程技术有限公司 Urban garden landscape lighting monitoring system and method based on big data

Also Published As

Publication number Publication date
JP5166794B2 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
JP6700322B2 (en) Improved HDR image encoding and decoding method and apparatus
JP6276794B2 (en) Apparatus and method for defining a color regime
JP6134755B2 (en) Method and apparatus for image data conversion
JP7053259B6 (en) Methods and equipment for encoding HDR images
CN1977542B (en) Dominant color extraction using perceptual rules to produce ambient light derived from video content
KR101170408B1 (en) Dominant color extraction for ambient light derived from video content mapped through unrendered color space
US7180529B2 (en) Immersive image viewing system and method
JP4950988B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
CN101523990B (en) Method for color transition for ambient or general illumination system
JP5058157B2 (en) Data transmission device, data transmission method, viewing environment control device, viewing environment control system, and viewing environment control method
JP2014519730A (en) Apparatus and method for encoding and decoding HDR images
KR20060112678A (en) Flicker-free adaptive thresholding for ambient light derived from video content mapped through unrendered color space
CN107592517B (en) Skin color processing method and device
CN100559850C (en) Be used for the method that mass-tone is extracted
JP5166794B2 (en) Viewing environment control device and viewing environment control method
JP2019506817A (en) Processing multiple HDR image sources
JP4789592B2 (en) Viewing environment control device and viewing environment control method
Heckaman et al. 18.3: Rendering digital cinema and broadcast tv content to wide gamut display media
KR101373631B1 (en) System for composing images by real time and method thereof
Laine et al. Illumination-adaptive control of color appearance: a multimedia home platform application
Cooper et al. The Resolution Revolution: How Many Bits Do We Really Need?
CN117296076A (en) Display optimized HDR video contrast adaptation
Tsujihara et al. 65.3: Invited Paper: Development of Image Quality Technology for Digital High Definition Plasma TV
KR20050016973A (en) Method of and system for controlling an ambient light and lighting unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090805

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees