JP2007122905A - Illumination device - Google Patents

Illumination device Download PDF

Info

Publication number
JP2007122905A
JP2007122905A JP2005309655A JP2005309655A JP2007122905A JP 2007122905 A JP2007122905 A JP 2007122905A JP 2005309655 A JP2005309655 A JP 2005309655A JP 2005309655 A JP2005309655 A JP 2005309655A JP 2007122905 A JP2007122905 A JP 2007122905A
Authority
JP
Japan
Prior art keywords
dimensional space
lighting device
sensor
light
changed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005309655A
Other languages
Japanese (ja)
Inventor
Akihiro Komori
顕博 小森
Yuji Morimiya
祐次 森宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005309655A priority Critical patent/JP2007122905A/en
Publication of JP2007122905A publication Critical patent/JP2007122905A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable to change variously illumination light according to a situation like a natural light by adapting to a case, for example, in which coloring or the like of illumination is changed variously like natural light according to a situation in a room regarding an illumination device. <P>SOLUTION: By mapping and projecting images of contents on an object of three-dimensional space, elements to define this three-dimensional space are changed by a sensor output. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、照明装置に関し、例えば室内の状況に応じて照明の色合い等を種々に変化させる場合に適用することができる。本発明は、コンテンツの映像を3次元空間のオブジェクトにマッピングして投影するようにして、この3次元空間を定義する要素をセンサ出力により変化させることにより、自然光のように状況に応じて照明光を種々に変化させることができるようにする。   The present invention relates to an illuminating device, and can be applied, for example, when the color of illumination is variously changed according to indoor conditions. The present invention maps and projects a video of content onto an object in a three-dimensional space, and changes the elements defining this three-dimensional space by sensor output, so that illumination light can be used according to the situation like natural light. Can be changed in various ways.

従来、照明機器は、室内等を明るくするだけでなく、例えば間接照明のように、空間の雰囲気を形成するために使用されている。   Conventionally, lighting devices are used not only to brighten indoors and the like, but also to create an atmosphere of space, such as indirect lighting.

このような照明に関して、例えば特開2005−251508号公報には、スクリーンに表示する映像に連動させて照明を変化させることにより、映像の広がりを増大させる方法が提案されている。   With regard to such illumination, for example, Japanese Patent Application Laid-Open No. 2005-251508 proposes a method for increasing the spread of an image by changing the illumination in conjunction with the image displayed on the screen.

ところで太陽光、蝋燭の炎による光等の自然光は、時刻、大気の状態等により明るさ、色、方向等が変化する。人間は、このような明るさ、色、方向等の変化により、例えば蝋燭の炎の揺らめきを知覚し、さらには蝋燭の炎が揺らめく程度に風が吹いていることを把握することができる。また、このようにその場の具体的な状況を把握できない場合でも、その場所の状況を漠然と把握することができる。   By the way, the brightness, color, direction, and the like of natural light such as sunlight and light from candle flames vary depending on time of day, atmospheric conditions, and the like. A human can perceive, for example, the flickering of the candle flame by such changes in brightness, color, direction, etc., and can grasp that the wind is blowing to such an extent that the flame of the candle flickers. Even when the specific situation of the place cannot be grasped in this way, the situation of the place can be grasped vaguely.

これにより照明装置による照明光にあっても、自然光のように状況に応じて照明光を種々に変化させることができれば、照明装置としての利用分野を一段と拡大することができると考えられる。
特開2005−251508号公報
Thus, even in the illumination light from the illumination device, if the illumination light can be variously changed according to the situation like natural light, it is considered that the field of use as the illumination device can be further expanded.
JP 2005-251508 A

本発明は以上の点を考慮してなされたもので、自然光のように状況に応じて照明光を種々に変化させることができる照明装置を提案しようとするものである。   The present invention has been made in view of the above points, and an object of the present invention is to propose an illuminating device that can change illumination light in various ways according to the situation, such as natural light.

かかる課題を解決するため請求項1の発明は、ソースから出力される映像コンテンツを処理してビデオデータを出力する演算処理部と、前記ビデオデータにより一次光源からの光を空間変調して出射する光変調部とを有する照明装置に適用して、前記演算処理部は、仮想の3次元空間のオブジェクトに前記映像コンテンツの映像をマッピングして前記ビデオデータを生成するようにして、前記3次元空間を定義する複数の要素のうちの少なくとも1つの要素を、センサの出力信号により変化させる。   In order to solve such a problem, the invention of claim 1 is directed to an arithmetic processing unit that processes video content output from a source and outputs video data, and spatially modulates and emits light from a primary light source by the video data. When applied to a lighting device having a light modulation unit, the arithmetic processing unit maps the video content video to an object in a virtual three-dimensional space to generate the video data, and the three-dimensional space At least one of the plurality of elements that define is changed by the output signal of the sensor.

請求項1の構成により、ソースから出力される映像コンテンツを処理してビデオデータを出力する演算処理部と、前記ビデオデータにより一次光源からの光を空間変調して出射する光変調部とを有する照明装置に適用して、前記演算処理部は、仮想の3次元空間のオブジェクトに前記映像コンテンツの映像をマッピングして前記ビデオデータを生成するようにして、前記3次元空間を定義する複数の要素のうちの少なくとも1つの要素を、センサの出力信号により変化させるようにすれば、光変調部により出射される照明光は、センサにより検出される状況に応じて自然光のように種々に変化を呈するようになり、これにより自然光のように状況に応じて照明光を種々に変化させることができる照明装置を提供することができる。   According to the configuration of the first aspect, there is provided an arithmetic processing unit that processes video content output from a source and outputs video data, and a light modulation unit that spatially modulates and emits light from a primary light source using the video data. When applied to a lighting device, the arithmetic processing unit generates a plurality of elements that define the three-dimensional space by mapping the video content video to an object in a virtual three-dimensional space and generating the video data. If at least one of the elements is changed according to the output signal of the sensor, the illumination light emitted by the light modulation section changes variously like natural light depending on the situation detected by the sensor. Thus, it is possible to provide an illuminating device that can change illumination light in various ways according to the situation like natural light.

本発明によれば、自然光のように状況に応じて照明光を種々に変化させることができる。   According to the present invention, illumination light can be variously changed according to a situation like natural light.

以下、適宜図面を参照しながら本発明の実施例を詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.

(1)実施例の構成
図2は、本発明の実施例に係る照明装置を示す略線図である。この照明装置1において、ソース2は、映像コンテンツによる動画又は静止画によるビデオデータDV1を出力する各種映像機器であり、例えばビデオテープレコーダ、DVD(Digital Versatile Disk)プレイヤーにより構成される。
(1) Configuration of Example FIG. 2 is a schematic diagram illustrating an illumination device according to an example of the present invention. In the lighting device 1, the source 2 is various video devices that output video data DV1 based on a moving image or a still image based on video content, and includes, for example, a video tape recorder and a DVD (Digital Versatile Disk) player.

マイクロホン3は、設置された場所の状況を検出するセンサであり、音声信号S1をコンピュータ4に出力する。なおこの設置された場所の状況の検出には、例えば光、温度、湿度、風、におい等の、人間の五感により知覚することができる種々の要素を検出する各種のセンサ、さらには人間の五感によっては知覚することができない種々の要素を検出する各種のセンサを広く適用することができ、また複数個、複数種類のセンサを用いるようにしてもよい。因みに、このような人間の五感によっては知覚することができない要素は、例えば紫外線、赤外線等の人間の目の可視光域外の光、人間の可聴域外の音声等が該当する。   The microphone 3 is a sensor that detects the situation of the place where the microphone 3 is installed, and outputs an audio signal S 1 to the computer 4. In addition, for the detection of the situation of the installed place, for example, various sensors for detecting various elements that can be perceived by human senses such as light, temperature, humidity, wind, smell, etc. Various sensors for detecting various elements that cannot be perceived can be widely applied, and a plurality of types of sensors may be used. Incidentally, elements that cannot be perceived by such human senses include, for example, light outside the visible light range of the human eye, such as ultraviolet rays and infrared rays, and sound outside the human audible range.

プロジェクタ5は、コンピュータ4により生成されたビデオデータにより液晶表示パネル等の画像表示素子を駆動することにより、内蔵の一次光源による光をコンピュータ4で生成したビデオデータによる映像で空間変調して出射する。この照明装置1は、このプロジェクタ5の出射光を間接照明光として使用し、これによりプロジェクタ5は、床、壁、天井等の、室内の各部に向けて照明光を出射して種々に空間を演出できるように配置される。   The projector 5 drives an image display element such as a liquid crystal display panel by the video data generated by the computer 4, and emits the light from the built-in primary light source by spatially modulating the image by the video data generated by the computer 4. . The illumination device 1 uses the light emitted from the projector 5 as indirect illumination light, whereby the projector 5 emits illumination light toward various parts of the room such as the floor, wall, ceiling, etc. Arranged to be able to produce.

コンピュータ4は、ソース2、マイクロホン3、プロジェクタ5に係るインターフェース(IF)6を有するコンピュータであり、リードオンリメモリ(ROM)7の記録に従ってランダムアクセスメモリ(RAM)8にワークエリアを確保してハードディスク装置(HDD)9に記録した処理プログラムを中央処理ユニット(CPU)10で実行する。これによりコンピュータ4は、マイクロホン3で検出されるマイクロホン3が設置された場所の状況に応じて、ソース2より得られる映像コンテンツの映像に変化を与え、その結果得られるビデオデータをプロジェクタ5に出力する。なおこれによりこの処理プログラムは、このコンピュータ4に事前にインストールして提供するようにしてもよく、またこれに代えて光ディスク、磁気ディスク、メモリカード等の種々の記録媒体に記録して提供するようにしてもよく、さらにはインターネット等のネットワークを介したダウンロードにより提供するようにしてもよい。   The computer 4 is a computer having an interface (IF) 6 related to the source 2, the microphone 3, and the projector 5, and secures a work area in a random access memory (RAM) 8 according to recording in a read-only memory (ROM) 7. A central processing unit (CPU) 10 executes a processing program recorded in a device (HDD) 9. As a result, the computer 4 changes the image of the video content obtained from the source 2 according to the situation of the place where the microphone 3 detected by the microphone 3 is installed, and outputs the resulting video data to the projector 5. To do. In this way, the processing program may be provided by being installed in advance in the computer 4, or alternatively may be provided by being recorded on various recording media such as an optical disk, a magnetic disk, or a memory card. Alternatively, it may be provided by downloading via a network such as the Internet.

コンピュータ4は、この処理プログラムによる一連の処理において、仮想の3次元空間上にオブジェクトを配置し、ソース2による映像コンテンツの映像をこのオブジェクトにマッピングすると共に、マイクロホン3が設置された場所の状況に応じてこの3次元空間を定義する要素を変化させ、これによりソース2より得られる映像に変化を与える。これによりコンピュータ4は、プロジェクタ5による間接照明が映像コンテンツによるものであることをユーザーに悟られないようにして、この間接照明に奥行き感を与える。   The computer 4 arranges an object in a virtual three-dimensional space in a series of processes by the processing program, maps the video content video from the source 2 to the object, and changes the situation of the place where the microphone 3 is installed. In response, the elements defining this three-dimensional space are changed, thereby changing the image obtained from the source 2. Accordingly, the computer 4 gives a sense of depth to the indirect illumination so that the user does not realize that the indirect illumination by the projector 5 is due to the video content.

これらによりこの実施例において、コンピュータ4は、ソース2から出力される映像コンテンツを処理してビデオデータを出力する演算処理部を構成し、プロジェクタ5は、このビデオデータにより一次光源からの光を空間変調して出射する光変調部を構成する。   Accordingly, in this embodiment, the computer 4 constitutes an arithmetic processing unit that processes video content output from the source 2 and outputs video data, and the projector 5 spatially transmits light from the primary light source by the video data. A light modulation unit that modulates and emits light is configured.

図1は、この処理プログラムの実行に係るコンピュータ4の処理手順を示すフローチャートである。コンピュータ4は、電源の立ち上げによりこの処理手順を開始してステップSP1からステップSP2に移り、ここで処理プログラムを起動する。また続くステップSP3において、ユーザーにより処理の終了が指示されたか否か判断し、ここで否定結果が得られると、ステップSP4に移る。   FIG. 1 is a flowchart showing the processing procedure of the computer 4 related to the execution of this processing program. The computer 4 starts this processing procedure when the power is turned on, moves from step SP1 to step SP2, and starts the processing program here. In the following step SP3, it is determined whether or not the user has instructed the end of the process. If a negative result is obtained here, the process proceeds to step SP4.

ここでコンピュータ4は、ソース2から出力されるビデオデータDV1を1フレーム分だけ取得し、続くステップSP5において、マイクロホン3より得られる音声信号S1をビデオデータの1フレームに対応する期間の分だけ取得する。続いてコンピュータ4は、ステップSP6において、この音声データを波形解析し、この解析結果より続くステップSP7で、センサであるマイクロホン3が配置された場所の状況を示す特徴量を検出する。   Here, the computer 4 acquires the video data DV1 output from the source 2 for one frame, and in the subsequent step SP5, acquires the audio signal S1 obtained from the microphone 3 for the period corresponding to one frame of the video data. To do. Subsequently, in step SP6, the computer 4 analyzes the waveform of the sound data, and in step SP7 following the analysis result, detects a feature amount indicating the state of the place where the microphone 3 as a sensor is disposed.

この実施例において、コンピュータ4は、この波形解析の処理に、全波整流処理、抱絡線検波処理を適用し、音声信号S1の抱絡線検波結果Eを特徴量に設定する。これによりコンピュータ4は、音声信号S1の信号レベルにより特徴量を検出する。具体的に、コンピュータ4は、サンプリング周波数44.1〔kHz〕により音声信号S1を入力し、図3に示すように、各サンプリング毎に、直前のサンプリング値による抱絡線検波結果En-1より振幅値Snが大きい場合、この振幅値Snをこのサンプリング値による抱絡線検出結果En(En=Sn)に設定する。またこれとは逆に、直前のサンプリング値による抱絡線検波結果En-1より振幅値Snが小さい場合、直前のサンプリング値による抱絡線検波結果En-1を一定の減衰計数Aにより減衰させて、このサンプリング値による抱絡線検出結果En(En=A(En-1−Sn)+Sn)に設定し、これらにより全波整流処理、抱絡線検波処理を実行する。なおこの実施例では、減衰係数Aを0.995に設定した。 In this embodiment, the computer 4 applies full-wave rectification processing and envelope detection processing to the waveform analysis processing, and sets the envelope detection result E of the audio signal S1 as a feature amount. Thereby, the computer 4 detects the feature amount based on the signal level of the audio signal S1. Specifically, the computer 4 inputs the audio signal S1 at a sampling frequency of 44.1 [kHz] and, as shown in FIG. 3, the envelope detection result En -1 based on the immediately preceding sampling value for each sampling. more when the amplitude value S n is large, sets the amplitude value S n in an envelope detection result E n by the sampling value (E n = S n). Also contrary to this, when the amplitude value S n from an envelope detection result E n-1 by the sampling value immediately before is small, an envelope detection result by the sampling value immediately before E n-1 the constant attenuation count A attenuates by, set in this an envelope detection result by the sampling value E n (E n = a ( E n-1 -S n) + S n), these full-wave rectification, a an envelope detection process Execute. In this embodiment, the attenuation coefficient A is set to 0.995.

なおこのような抱絡線検波結果Eを特徴量に設定する代わりに、抱絡線検波結果Eをさらに解析して解析結果より特徴量を設定するようにしてもよい。なおこのような処理は、抱絡線検波結果Eより変化量を検出して特徴量に設定する場合等が考えられる。またマイクロホン3により得られる音声信号の信号レベルによる特徴量の検出に係る処理は、このような全波整流、抱絡線検波の処理に代えて、又はこれらの処理に加えて、特定周波数成分の信号レベルの検出、特定周波数帯域における信号レベルの検出等により実行するようにしてもよい。また信号レベルによる特徴量の検出に代えて、又は加えて、周波数スペクトラムの広がり、最も低次スペクトラムの周波数の変化等により検出するようにしてもよい。   Note that instead of setting such an envelope detection result E as a feature amount, the envelope detection result E may be further analyzed and the feature amount may be set based on the analysis result. Note that such processing may be performed when a change amount is detected from the envelope detection result E and set as a feature amount. In addition, the processing related to the detection of the feature amount based on the signal level of the audio signal obtained by the microphone 3 is performed in place of or in addition to such processing of full-wave rectification and envelope detection. You may make it perform by detection of a signal level, detection of the signal level in a specific frequency band, etc. Further, instead of or in addition to the detection of the feature amount based on the signal level, the detection may be performed by the spread of the frequency spectrum, the change in the frequency of the lowest order spectrum, or the like.

またこのようなマイクロホン以外に、光により特徴量を検出する場合には、センサにより検出される光の強度、色温度等を音声による場合と同様に処理して特徴量に設定することができ、または音声、湿度、におい等による場合には、対応するセンサからの出力信号を音声による場合と同様に処理して特徴量に設定することができる。また同種のセンサを複数個使用する場合には、これら複数個のセンサにより検出される各種検出結果より音、光、温度、湿度、風、におい等の分布を検出し、この分布により、又は分布の変化により特徴量を設定するようにしてもよい。また同種のセンサを複数個使用する場合、複数種類のセンサを使用する場合、さらには各種検出手法の組み合わせにより特徴量を検出する場合には、各センサより検出される特徴量、各種検出手法により検出される特徴量の統計的な処理により最終的な特徴量とするようにしてもよい。なおこのような統計的な処理は、例えば加重平均の処理が考えられる。   In addition to such a microphone, when detecting a feature value by light, the intensity, color temperature, etc. of the light detected by the sensor can be processed and set as the feature value in the same way as by voice, Alternatively, in the case of sound, humidity, odor, etc., the output signal from the corresponding sensor can be processed and set as a feature value in the same manner as in the case of sound. When multiple sensors of the same type are used, the distribution of sound, light, temperature, humidity, wind, odor, etc. is detected from various detection results detected by these sensors, and this distribution or distribution The feature amount may be set based on the change in the. When multiple sensors of the same type are used, when multiple types of sensors are used, or when feature amounts are detected by a combination of various detection methods, the feature amounts detected by each sensor and the various detection methods The final feature value may be obtained by statistical processing of the detected feature value. Such statistical processing may be weighted average processing, for example.

またこのように最終的に1つの特徴量を検出する処理に代えて、後述する3次元空間を定義する各要素毎に、異なるセンサ出力、特徴量検出処理を適用して、各要素毎に特徴量を求めるようにしてもよい。   Further, instead of the process of finally detecting one feature value, a different sensor output and feature value detection process is applied to each element defining a three-dimensional space to be described later. The amount may be obtained.

このようにしてセンサが配置された個所の状況を示す特徴量を検出すると、コンピュータ4は、ステップSP8に移り、この特徴量より、仮想の3次元空間を定義する要素のパラメータ値を計算する。ここでこの仮想の3次元空間上は、コンピュータ4におけるこの処理プログラムの実行により形成される3次元空間であり、1つの原点を持つ座標系( ワールド座標系) に3次元オブジェクト16と、視点15である仮想的なカメラを配置した一般的なものである。これにより3次元空間を定義する要素は、オブジェクト16の個数、視点15及びオブジェクト16の座標、オブジェクト16の形状、大きさ及び透明度等が該当する。なおこれらに加えて光源を配置するようにして、この光源の座標、光源からの光の強度、色等を要素に加えるようにしてもよい。   When the feature quantity indicating the situation of the place where the sensor is arranged in this way is detected, the computer 4 moves to step SP8, and calculates the parameter value of the element defining the virtual three-dimensional space from this feature quantity. Here, the virtual three-dimensional space is a three-dimensional space formed by the execution of the processing program in the computer 4. The three-dimensional object 16 and the viewpoint 15 are set in a coordinate system (world coordinate system) having one origin. It is a general one in which a virtual camera is arranged. Thus, the elements defining the three-dimensional space correspond to the number of objects 16, the coordinates of the viewpoint 15 and the object 16, the shape, size, transparency, and the like of the object 16. In addition to these, a light source may be arranged, and the coordinates of the light source, the intensity of light from the light source, the color, and the like may be added to the elements.

この実施例において、コンピュータ4は、このオブジェクト16の透明度を設定するパラメータ値をステップSP7で計算した特徴量に応じて設定し、これによりマイクロホン3で取得する音声信号の信号レベルS1が増大するに従って、オブジェクト16の透明度を増大させる。具体的にコンピュータ4は、特徴量の基準値に対する変位量に応じて、透明度を設定するパラメータ値を、基準のパラメータ値から変化させ、これによりオブジェクト16の透明度を設定するパラメータ値を特徴量に応じて設定する。   In this embodiment, the computer 4 sets a parameter value for setting the transparency of the object 16 according to the feature amount calculated in step SP7, and as a result, the signal level S1 of the audio signal acquired by the microphone 3 increases. , Increase the transparency of the object 16. Specifically, the computer 4 changes the parameter value for setting the transparency from the reference parameter value in accordance with the amount of displacement of the feature quantity with respect to the reference value, and thereby the parameter value for setting the transparency of the object 16 is used as the feature quantity. Set accordingly.

コンピュータ4は、続いてステップSP10に移り、ここでこの仮想の3次元空間を定義する残りの要素のパラメータ値を計算する。   Subsequently, the computer 4 proceeds to step SP10, where the parameter values of the remaining elements defining this virtual three-dimensional space are calculated.

ここでこの実施例において、コンピュータ4は、複雑な曲面を有する有機体の形状による複数のオブジェクト16をこの3次元空間に順次配置するようにして、この複数のオブジェクト16を順次突き抜けて視点15が移動するように、残りの要素のパラメータ値を計算する。   Here, in this embodiment, the computer 4 sequentially arranges a plurality of objects 16 having an organic shape having a complicated curved surface in this three-dimensional space, and the viewpoint 15 passes through the plurality of objects 16 sequentially. Calculate the parameter values for the remaining elements as they move.

続いてコンピュータ4は、ステップSP10に移り、描画処理を実行し、これにより図5に示すように、仮想の3次元空間に形成した複数のオブジェクト16に、それぞれステップSP4で取得した1フレーム分の映像を貼り付けて、視点15から見た画像を生成する。ここでこのオブジェクト16への映像の貼り付けは、テクスチャマッピングの手法が適用され、この実施例では、ユーザーが初期値として設定したテクスチャ座標を用いて実行される。なおこのテクスチャ座標にあっても、ステップSP7で検出した特徴量により設定してもよい。またプロジェクションマッピング、スフィアマッピング等の手法の適用により、テクスチャ座標値を自動計算するようにしてもよい。   Subsequently, the computer 4 proceeds to step SP10 and executes a drawing process. As a result, as shown in FIG. 5, a plurality of objects 16 formed in a virtual three-dimensional space are respectively obtained for one frame acquired in step SP4. An image viewed from the viewpoint 15 is generated by pasting the video. Here, the pasting of the video onto the object 16 is performed by using a texture mapping technique, and in this embodiment, it is executed using the texture coordinates set by the user as an initial value. Note that the texture coordinates may be set according to the feature amount detected in step SP7. The texture coordinate value may be automatically calculated by applying a technique such as projection mapping or sphere mapping.

このようにして1フレーム分の画像を描画すると、コンピュータ4は、ステップSP11において、この描画した画像を1フレーム分出力し、ステップSP3に戻る。これによりコンピュータ4は、この処理手順をフレーム単位で繰り返し、ステップSP3で肯定結果が得られると、ステップSP3からステップSP12に移ってこの処理手順を終了する。   When the image for one frame is drawn in this way, the computer 4 outputs the drawn image for one frame in step SP11, and returns to step SP3. Thereby, the computer 4 repeats this processing procedure for each frame, and when a positive result is obtained in step SP3, the computer 4 moves from step SP3 to step SP12 and ends this processing procedure.

なおこの実施例において、コンピュータ4は、3次元グラフィックスに係るアニメーションレンダリングソフトによりこれら一連の処理を実行し、これによりオブジェクト16の座標、視点15の座標等にあっては、この図1に示す処理手順を1フレーム毎に実行することにより、ユーザーの設定した初期値に基づいて、コンピュータ4によりステップSP9について上述した残りの要素に係るパラメータ値が逐次生成される。   In this embodiment, the computer 4 executes a series of processes using animation rendering software related to three-dimensional graphics. As a result, the coordinates of the object 16 and the coordinates of the viewpoint 15 are shown in FIG. By executing the processing procedure for each frame, the computer 4 sequentially generates the parameter values relating to the remaining elements described above for step SP9 based on the initial value set by the user.

(2)実施例の動作
以上の構成において、この照明装置1では、コンピュータ4における演算処理により、視点15、オブジェクト16を配置した仮想の3次元空間が形成され(図2及び図4)、この3次元空間上のオブジェクト16に、ソース2より出力される映像コンテンツの映像がマッピング処理される。またこの3次元空間の映像によるビデオデータが生成されてプロジェクタ5により投影され、これにより間接照明による照明光が提供される。この照明装置1では、この3次元空間を定義する少なくとも1つの要素が、センサを構成するマイクロホン3からの出力信号により可変され、これにより自然光のように、マイクロホン3が配置された場所の状況に応じて照明光に種々の変化が与えられる。
(2) Operation of Example In the above configuration, in the lighting device 1, a virtual three-dimensional space in which the viewpoint 15 and the object 16 are arranged is formed by arithmetic processing in the computer 4 (FIGS. 2 and 4). The video of the video content output from the source 2 is mapped to the object 16 in the three-dimensional space. Also, video data based on this three-dimensional space image is generated and projected by the projector 5, thereby providing illumination light by indirect illumination. In the lighting device 1, at least one element that defines the three-dimensional space is changed by an output signal from the microphone 3 that constitutes the sensor, so that the situation of the place where the microphone 3 is arranged can be changed like natural light. Accordingly, various changes are given to the illumination light.

すなわちこのようにコンテンツの映像を3次元空間のオブジェクトにマッピングして投影すれば、この間接照明光が映像コンテンツによるものであることをユーザーには悟られないようにして、さらには奥行き感を与えるようにして、照明光を提供することができる。またこの場合、映像コンテンツを変更して照明光を種々に変化させることができる。   That is, if the content video is mapped and projected onto an object in a three-dimensional space in this way, the indirect illumination light is not realized by the video content, and a sense of depth is further provided. In this way, illumination light can be provided. In this case, the illumination light can be changed variously by changing the video content.

このとき3次元空間を定義する要素をセンサ出力により変化させるようにすれば、例えば蝋燭の炎が揺らめいている雰囲気を演出することができ、これによりその場の具体的な状況を把握できないまでも、その場所の状況を漠然とユーザーに把握させることができる。これにより自然光のように、マイクロホン3が配置された場所の状況に応じて照明光を種々に変化させることができる。   At this time, if the elements defining the three-dimensional space are changed by the sensor output, for example, it is possible to produce an atmosphere where the flame of the candle is swaying, so that the specific situation of the place cannot be grasped. , You can let the user grasp the situation of the place vaguely. Thereby, illumination light can be changed variously according to the condition of the place where the microphone 3 is arrange | positioned like natural light.

また映像コンテンツに水面の映像を適用して、3次元オブジェクトに波紋が広がるような変形を行うアニメーションを実行するようにして、例えばこのアニメーションの開始タイミングを外部から入力された音声信号のピーク値によって決定すれば、大きな音の入力をトリガにして波紋が広がるような映像を生成することが可能となる。また3次元空間に光源を設置するようにして、この光源の光量をセンサ出力により制御すれば、屋外の明るさに応じて光量が変わるように照明光を生成することができる。また複数のセンサからの特徴量を用いて3次元空間の要素を変化させるようにすれば、複数の事象が同期したときに大きな特徴的な変化を呈すように照明光を生成することができ、これにより偶発的な変化を照明光に与えることができる。   Also, by applying an image of water surface to the video content and executing an animation that performs a deformation that causes ripples to spread over the three-dimensional object, for example, the start timing of this animation is determined by the peak value of the audio signal input from the outside. Once determined, it is possible to generate an image in which ripples spread with the input of a loud sound as a trigger. If a light source is installed in a three-dimensional space and the light quantity of this light source is controlled by sensor output, illumination light can be generated so that the light quantity changes according to the outdoor brightness. In addition, if the elements in the three-dimensional space are changed using feature amounts from a plurality of sensors, illumination light can be generated so as to exhibit a large characteristic change when a plurality of events are synchronized, Thereby, accidental change can be given to illumination light.

この照明装置1では、このようにして間接照明光を提供するようにして、マイクロホン3の出力信号からマイクロホン3が配置された場所の状況を示す特徴量が、この出力信号の全波整流処理、抱絡線検波処理により検出され、これによりマイクロホン3が設置された場所の騒がしさに応じて照明光を種々に変化させることができる。   In this illuminating device 1, indirect illumination light is provided in this way, and the feature quantity indicating the situation of the place where the microphone 3 is arranged from the output signal of the microphone 3 is a full-wave rectification process of this output signal, The illumination light can be variously changed according to the noise of the place where the microphone 3 is installed.

またこの特徴量に応じた要素の変化が、基準値に対する特徴量の変位に応じて、基準のパラメータ値からパラメータ値を変化させて実行され、これにより基準のパラメータ値による照明光からの変化により、マイクロホン3が設置された場所の状況に応じて照明光を種々に変化させることができる。   The change of the element according to the feature amount is executed by changing the parameter value from the reference parameter value according to the displacement of the feature amount with respect to the reference value, and thereby the change from the illumination light by the reference parameter value. The illumination light can be changed variously according to the situation of the place where the microphone 3 is installed.

またこの仮想の3次元空間には、複数個のオブジェクトが配置され、この複数個のオブジェクトがそれぞれマッピング処理されて間接照明光が提供される。これによりこの照明装置1では、一段と照明光に奥行き感じを醸しだすことができる。   A plurality of objects are arranged in the virtual three-dimensional space, and the plurality of objects are respectively mapped and provided with indirect illumination light. Thereby, in this illuminating device 1, the depth feeling can be brought out further in illumination light.

(3)実施例の効果
以上の構成によれば、コンテンツの映像を3次元空間のオブジェクトにマッピングして投影するようにして、この3次元空間を定義する要素をセンサ出力により変化させることにより、自然光のように状況に応じて照明光を種々に変化させることができる。
(3) Effects of the embodiment According to the configuration described above, by mapping and projecting the video of the content onto the object in the three-dimensional space, and changing the element defining the three-dimensional space by the sensor output, Like natural light, illumination light can be variously changed according to the situation.

このときこのセンサの出力信号からセンサが配置された場所の状況を示す特徴量を検出し、この特徴量に応じて3次元空間を定義する要素を変化させることにより、このセンサが配置された場所の状況に応じて照明光を種々に変化させることができる。   At this time, a feature quantity indicating a situation of the place where the sensor is arranged is detected from an output signal of the sensor, and an element defining the three-dimensional space is changed according to the feature quantity, thereby changing the place where the sensor is arranged. The illumination light can be variously changed according to the situation.

またこの特徴量に応じた要素の変化が、基準値に対する特徴量の変位に応じて、この要素に係るパラメータ値を基準のパラメータ値から変化させる処理であることにより、簡易な処理により基準のパラメータ値を基準にして照明光を種々に変化させることができる。   In addition, since the change of the element according to the feature amount is a process of changing the parameter value of the element from the reference parameter value according to the displacement of the feature amount with respect to the reference value, the reference parameter can be obtained by a simple process. The illumination light can be changed variously based on the value.

またこの3次元空間に複数個のオブジェクトを配置することにより、照明光に一段と奥行き感じを醸しだすことができる。   Further, by arranging a plurality of objects in this three-dimensional space, it is possible to create a deeper feeling in the illumination light.

図6は、本発明の実施例2に係る照明装置を示す略線図である。この照明装置21は、ソース2から出力されるビデオデータDV1を分配器22により分配してコンピュータ4A及び4Bに出力する。コンピュータ4A及び4Bは、それぞれ実施例1について上述したコンピュータ4と同一に、マイクロホン3A及び3Bによる音声信号を入力し、プロジェクタ5A及び5Bにビデオデータを出力する。これによりこの照明装置21は、実施例1について上述した照明装置1に比して一段と広い範囲に照明光を供給する。   FIG. 6 is a schematic diagram illustrating an illumination apparatus according to Embodiment 2 of the present invention. The lighting device 21 distributes the video data DV1 output from the source 2 by the distributor 22 and outputs it to the computers 4A and 4B. The computers 4A and 4B input audio signals from the microphones 3A and 3B, respectively, and output video data to the projectors 5A and 5B, in the same manner as the computer 4 described above with respect to the first embodiment. Thereby, this illuminating device 21 supplies illumination light to a wider range compared with the illuminating device 1 mentioned above about Example 1. FIG.

基準信号生成部23は、コンピュータ4A及び4Bのクロックを生成して出力し、コンピュータ4A及び4Bはこの基準信号生成部23によるクロックにより動作し、これにより、一連の処理を同期して実行する。   The reference signal generator 23 generates and outputs clocks of the computers 4A and 4B, and the computers 4A and 4B operate according to the clock generated by the reference signal generator 23, thereby executing a series of processes in synchronization.

ここで音速は、20度、1気圧の元で約340〔m/sec〕である。これによりこの2本のマイクロホン3A及び3Bの間隔が数十メートルに設定すれば、プロジェクタ5A及び5Bによる照明光の変化に、ユーザーにより充分に認識可能な時間差を与えることができる。これによりユーザーにあっては、光の変化により音の伝達方向を把握することができる。これによりこの知覚と聴覚の双方の刺激により、さらにはこれら双方の刺激の相乗効果により、一段と空間を演出できるようにする。   Here, the sound speed is about 340 [m / sec] at 20 degrees and 1 atmosphere. Thus, if the interval between the two microphones 3A and 3B is set to several tens of meters, a time difference that can be sufficiently recognized by the user can be given to the change in illumination light by the projectors 5A and 5B. As a result, the user can grasp the direction of sound transmission by the change of light. As a result, the space can be further enhanced by both the perceptual and auditory stimuli and the synergistic effect of both the stimuli.

この実施例によれば、照明光に係る処理を2系統により実行することにより、間接光としての空間の演出効果を一段と増大させることができる。   According to this embodiment, the effect of the space as indirect light can be further increased by executing the processing related to the illumination light with two systems.

なお上述の実施例においては、事前の設定により透明度を変化させる場合について述べたが、本発明はこれに限らず、変化させる要素を適宜、切り換えるようにしてもよい。なおこの場合に、他のセンサの出力により切り換えるようにしてもよく、タイマー等の設定により切り換えるようにしてもよく、ユーザーの操作により切り換えるようにしてもよい。なおこのようにユーザーの操作により切り換えるようにすれば、ユーザー自身の操作により照明光の変化を種々に切り換えることができる。またこのような要素の切り換えにあっては、センサ出力による制御対象の要素の増大により、又は減少により実行するようにしてもよい。   In the above-described embodiment, the case where the transparency is changed by the prior setting has been described. However, the present invention is not limited to this, and the changing element may be switched as appropriate. In this case, the switching may be performed by the output of another sensor, may be switched by setting a timer or the like, or may be switched by a user operation. In addition, if it switches by a user's operation in this way, the change of illumination light can be switched variously by a user's own operation. Further, such switching of elements may be performed by increasing or decreasing elements to be controlled by sensor output.

また上述の実施例においては、1つのセンサ出力により1つの要素を変化させる場合等について述べたが、本発明はこれに限らず、さらに他のセンサを設けるようにして、この他の出力信号により他の要素を変化させるようにしてもよい。このようにすれば照明光にさらに変化を与えることができる。   In the above-described embodiment, the case where one element is changed by one sensor output has been described. However, the present invention is not limited to this, and another sensor is provided, and the other output signal is used. Other elements may be changed. In this way, the illumination light can be further changed.

本発明は、例えば室内の状況に応じて照明の色合い等を種々に変化させる場合に適用することができる。   The present invention can be applied, for example, when the color of illumination is changed variously according to indoor conditions.

本発明の実施例に係る照明装置におけるコンピュータの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the computer in the illuminating device which concerns on the Example of this invention. 本発明の実施例に係る照明装置を示す略線図である。It is a basic diagram which shows the illuminating device which concerns on the Example of this invention. 図2の照明装置における特徴量の検出処理の説明に供する信号波形図である。It is a signal waveform diagram with which it uses for description of the detection process of the feature-value in the illuminating device of FIG. 仮想の3次元空間の説明に供する略線図である。It is a basic diagram with which it uses for description of virtual three-dimensional space. マッピングの説明に供する略線図である。It is an approximate line figure used for explanation of mapping. 本発明の実施例2に係る照明装置を示す略線図である。It is a basic diagram which shows the illuminating device which concerns on Example 2 of this invention.

符号の説明Explanation of symbols

1、21……照明装置、2……ソース、3、3A、3B……マイクロホン、4、4A、4B……コンピュータ、5、5A、5B……プロジェクタ


1,21 ... Lighting device, 2 ... Source, 3, 3A, 3B ... Microphone, 4, 4A, 4B ... Computer, 5, 5A, 5B ... Projector


Claims (6)

ソースから出力される映像コンテンツを処理してビデオデータを出力する演算処理部と、
前記ビデオデータにより一次光源からの光を空間変調して出射する光変調部とを有する照明装置であって、
前記演算処理部は、
仮想の3次元空間のオブジェクトに前記映像コンテンツの映像をマッピングして前記ビデオデータを生成するようにして、前記3次元空間を定義する複数の要素のうちの少なくとも1つの要素を、センサの出力信号により変化させる
ことを特徴とする照明装置。
An arithmetic processing unit that processes video content output from a source and outputs video data;
A light modulation unit that spatially modulates and emits light from a primary light source according to the video data,
The arithmetic processing unit includes:
The video data is mapped to an object in a virtual three-dimensional space to generate the video data, and at least one element of the plurality of elements defining the three-dimensional space is output as a sensor output signal. A lighting device characterized by being changed by the above.
前記演算処理部は、
前記センサの出力信号から前記センサが配置された場所の状況を示す特徴量を検出し、
該特徴量に応じて前記少なくとも1つの要素を変化させる
ことを特徴とする請求項1に記載の照明装置。
The arithmetic processing unit includes:
Detecting a feature quantity indicating a situation of a place where the sensor is arranged from an output signal of the sensor;
The lighting device according to claim 1, wherein the at least one element is changed according to the feature amount.
前記演算処理部は、
ユーザーによる操作により、前記3次元空間を定義する複数の要素のうちから、前記少なくとも1つの要素の選択を受け付ける
ことを特徴とする請求項1に記載の照明装置。
The arithmetic processing unit includes:
The lighting device according to claim 1, wherein selection of the at least one element from a plurality of elements defining the three-dimensional space is received by a user operation.
前記特徴量に応じた前記少なくとも1つの要素の変化が、
基準値に対する前記特徴量の変位に応じて、前記1つの要素に係るパラメータ値を、基準のパラメータ値から変化させる処理である
ことを特徴とする請求項2に記載の照明装置。
The change of the at least one element according to the feature amount is
The lighting device according to claim 2, wherein the lighting device is a process of changing a parameter value related to the one element from a reference parameter value according to a displacement of the feature amount with respect to a reference value.
前記仮想の3次元空間に、前記オブジェクトを複数個配置する
ことを特徴とする請求項1に記載の照明装置。
The lighting device according to claim 1, wherein a plurality of the objects are arranged in the virtual three-dimensional space.
前記演算処理部は、
前記センサとは異なる他のセンサの出力信号により、前記3次元空間を定義する他の要素を変化させる
ことを特徴とする請求項1に記載の照明装置。



The arithmetic processing unit includes:
The lighting device according to claim 1, wherein another element that defines the three-dimensional space is changed by an output signal of another sensor different from the sensor.



JP2005309655A 2005-10-25 2005-10-25 Illumination device Pending JP2007122905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005309655A JP2007122905A (en) 2005-10-25 2005-10-25 Illumination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005309655A JP2007122905A (en) 2005-10-25 2005-10-25 Illumination device

Publications (1)

Publication Number Publication Date
JP2007122905A true JP2007122905A (en) 2007-05-17

Family

ID=38146543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005309655A Pending JP2007122905A (en) 2005-10-25 2005-10-25 Illumination device

Country Status (1)

Country Link
JP (1) JP2007122905A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012511792A (en) * 2008-12-09 2012-05-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for generating data for controlling a system for rendering at least one signal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012511792A (en) * 2008-12-09 2012-05-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for generating data for controlling a system for rendering at least one signal

Similar Documents

Publication Publication Date Title
JP4173091B2 (en) System and method for generating control signals
EP1964451B1 (en) System and method for creating artificial atmosphere
US9913054B2 (en) System and method for mapping and displaying audio source locations
JP2009519489A5 (en)
JP5592878B2 (en) Stochastic dynamic atmosphere
JP2004534356A (en) System and method for controlling a light system
JP2004534355A5 (en)
WO2011086369A1 (en) Method and apparatus for illuminating an object in a display case
Pearlman I, cyborg
US10706820B2 (en) Methods and apparatus for producing a multimedia display that includes olfactory stimuli
JP2007122905A (en) Illumination device
JP4922853B2 (en) Viewing environment control device, viewing environment control system, and viewing environment control method
CN102656513B (en) For modulating the system and method with display optical effect
DE60334847D1 (en) DEVICE AND METHOD FOR PROJECTING IMAGES AND A PROJECTION SCREEN
Fukushima et al. Wobble Strings: Spatially divided stroboscopic effect for augmenting wobbly motion of string instruments
Sa Repurposing Video Game Software for Musical Expression: A Perceptual Approach.
Rydarowski et al. Murmur: kinetic relief sculpture, multi-sensory display, listening machine
Mamedes et al. Abstrações: An audiovisual installation based on motion recognizing
Papageorgopoulou et al. Embedding an interactive art installation into a building for enhancing citizen's awareness on urban environmental conditions
Johnston Conversational interaction in interactive dance works
Partarakis et al. Classic art for modern people
JP2023059358A (en) Image display program and image display device
Harris Exploring expanded audiovisual formats (EAFs)–a practitioner’s perspective
KR200200290Y1 (en) Real-time music visualization apparatus
Vigier et al. A new concept of perceptual fidelity to augment virtual urban environments with microclimatic ambiances