JP2017528888A - Lighting control - Google Patents
Lighting control Download PDFInfo
- Publication number
- JP2017528888A JP2017528888A JP2017515882A JP2017515882A JP2017528888A JP 2017528888 A JP2017528888 A JP 2017528888A JP 2017515882 A JP2017515882 A JP 2017515882A JP 2017515882 A JP2017515882 A JP 2017515882A JP 2017528888 A JP2017528888 A JP 2017528888A
- Authority
- JP
- Japan
- Prior art keywords
- user
- lighting
- cornea
- lighting devices
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 210000004087 cornea Anatomy 0.000 claims abstract description 112
- 238000000034 method Methods 0.000 claims description 29
- 230000002093 peripheral effect Effects 0.000 claims description 25
- 238000005286 illumination Methods 0.000 claims description 22
- 230000001419 dependent effect Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000001228 spectrum Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 210000001747 pupil Anatomy 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000005043 peripheral vision Effects 0.000 description 3
- 210000003786 sclera Anatomy 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 206010025421 Macule Diseases 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 235000014036 Castanea Nutrition 0.000 description 1
- 241001070941 Castanea Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 210000002159 anterior chamber Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
- H05B47/125—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
Abstract
光を放出するために複数の照明デバイスを制御するための制御装置であって、各照明デバイスが、少なくとも1つのそれぞれの設定に依存し、制御装置が、カメラによって捕捉される、ユーザの少なくとも1つの角膜の少なくとも一部からカメラに反射された光によって形成される角膜像を表す画像データを取得することと;角膜像に基づいて、照明デバイスの1つ又は複数のそれぞれの設定に対する更新を自動的に決定することと;更新に従って1つ又は複数の照明デバイスを制御することと;ユーザが移動するときに、これらの取得、決定、及び制御のステップを繰り返して、照明デバイスの設定を動的に適合させることとを行うように構成された制御装置である。A controller for controlling a plurality of lighting devices to emit light, wherein each lighting device depends on at least one respective setting and the controller is captured by the camera, at least one of the users Obtaining image data representing a cornea image formed by light reflected from at least a portion of one cornea into the camera; automatically updating one or more respective settings of the lighting device based on the cornea image Determining one or more lighting devices according to the update; and repeating these acquisition, determination, and control steps as the user moves to dynamically configure the lighting device settings And a control device configured to adapt to.
Description
本開示は、1つ又は複数の照明デバイスを自動的に及び動的に制御するための技法に関する。 The present disclosure relates to techniques for automatically and dynamically controlling one or more lighting devices.
例えばライトをオン及びオフに切り替える、光レベルを増光及び減光する、又は放出される光の色設定を設定するために、部屋又は他の環境を照光する照明器具等の1つ又は複数の照明デバイスを制御するための幾つかの技法が存在する。 One or more lights, such as lighting fixtures that illuminate a room or other environment, for example to switch lights on and off, increase and decrease light levels, or set the color settings of emitted light There are several techniques for controlling the device.
1つの技法は、スマートフォン、タブレット、又はラップトップ若しくはデスクトップコンピュータ等のユーザ端末で動作するアプリケーションを使用することである。有線又は無線通信チャネルが、ユーザ端末と照明デバイスの制御装置との間に提供され、この通信チャネルは、典型的には、モバイルユーザ端末の場合にはWi-Fi(登録商標)、ZigBee(登録商標)、又はBluetooth(登録商標)チャネル等のRFチャネルである。アプリケーションは、このチャネルを使用して、ユーザ端末で動作するアプリケーションに入力されたユーザ入力に基づいて、照明制御リクエストを制御装置に送信するように構成される。しかし、これは、あまりユーザフレンドリーではない。 One technique is to use applications that run on user terminals such as smartphones, tablets, or laptops or desktop computers. A wired or wireless communication channel is provided between the user terminal and the controller of the lighting device, and this communication channel is typically Wi-Fi®, ZigBee (registered) in the case of mobile user terminals. Trademark) or an RF channel such as a Bluetooth (registered trademark) channel. The application is configured to use this channel to send a lighting control request to the controller based on user input entered into the application running on the user terminal. However, this is not very user friendly.
照明デバイスを制御するための別の技法は、ジェスチャコントロールである。ジェスチャコントロールを採用するシステムでは、システムは、適切なセンサ機器、例えば、2Dビデオカメラ、ステレオビデオカメラ、奥行き知覚(測距)ビデオカメラ(例えば飛行時間型カメラ)、赤外線若しくは超音波ベースの検知デバイス、又はウェアラブルセンサデバイス(例えば、1つ又は複数の加速度計及び/又はジャイロセンサを組み込む衣服又はアクセサリ)を設けられる。制御装置で動作するジェスチャ認識アルゴリズムは、センサ機器から入力を受信し、この入力に基づいて、ユーザによって行われる所定のジェスチャを認識し、これらのジェスチャを照明制御リクエストにマッピングするように作用する。これは、ユーザにとって幾分自然であるが、明示的な手動ユーザ入力を依然として必要とする。 Another technique for controlling the lighting device is gesture control. In systems that employ gesture control, the system may include suitable sensor equipment, such as 2D video cameras, stereo video cameras, depth perception (ranging) video cameras (eg, time-of-flight cameras), infrared or ultrasound based sensing devices. Or a wearable sensor device (eg, a garment or accessory that incorporates one or more accelerometers and / or gyro sensors). A gesture recognition algorithm operating on the control device acts to receive input from the sensor device, recognize predetermined gestures made by the user based on this input, and map these gestures to lighting control requests. This is somewhat natural for the user, but still requires explicit manual user input.
建物又は部屋等のライトを自動的に制御するための幾つかの技法が存在する。これらは、受動赤外線センサ又は能動超音波センサ等の存在検出器によってユーザの存在を検出することを含む。しかし、これらの技法は、かなり大雑把である傾向がある。なぜなら、それらの技法は、建物又は部屋の特定の所定の区域内にユーザがいるか否かを検出して、いるか否かに応じて単にライトをオン若しくはオフに切り換える、又は増光及び減光させるにすぎないからである。 There are several techniques for automatically controlling lights such as buildings or rooms. These include detecting the presence of a user with a presence detector such as a passive infrared sensor or an active ultrasonic sensor. However, these techniques tend to be fairly rough. Because these techniques detect whether there is a user in a certain predetermined area of a building or room, and simply switch the light on or off, or increase and decrease the light depending on whether or not Because it is not too much.
ユーザが制御したい1つ又は複数の照明デバイスを自動的に制御するための代替技法を見出すことが望ましい。 It would be desirable to find alternative techniques for automatically controlling one or more lighting devices that a user wishes to control.
角膜イメージングは、新たに出現した技術であり、この技術では、人の高解像度ピクチャがカメラによって捕捉され、その人の目の中で見られる反射が抽出されて、視野内に何があるかを決定する。本発明者らは、この(既知の)技術が、照明制御、及び特に照明の自動的な動的制御に適用されることを認識している。従って、以下では、ユーザが移動して反射された角膜像が変化するときに、ユーザの角膜で反射される照明システム又は照光される環境の全体又は一部の画像に基づいて照明システムを制御する制御装置、システム、方法、及びコンピュータプログラム製品を開示する。そのような機能は、反射されたシーンが取得されるように、高解像度カメラを使用してユーザの角膜を撮像することによって得られる。反射されたシーンが変化するときに新たな画像が獲得され、各シーン毎に照光が決定され得るという点で、制御は動的である。次いで、新たな照光設定が計算され得る。 Corneal imaging is a newly emerging technology that captures a high-resolution picture of a person with a camera and extracts the reflections seen in that person's eye to see what is in the field of view. decide. The inventors recognize that this (known) technique applies to lighting control and in particular to automatic dynamic control of lighting. Thus, in the following, the illumination system is controlled based on the entire or partial image of the illumination system or illuminated environment reflected by the user's cornea as the user moves and the reflected cornea image changes. A control apparatus, system, method, and computer program product are disclosed. Such functionality is obtained by imaging the user's cornea using a high resolution camera so that a reflected scene is acquired. Control is dynamic in that new images are acquired as the reflected scene changes and the illumination can be determined for each scene. A new illumination setting can then be calculated.
従って、本明細書で開示される一態様によれば、光を放出するために複数の照明デバイスを制御するための制御装置であって、各照明デバイスが、少なくとも1つのそれぞれの設定に依存し、制御装置が、カメラによって捕捉される、ユーザの少なくとも1つの角膜の少なくとも一部からカメラに反射された光によって形成される角膜像を表す画像データを取得することと;角膜像に基づいて、照明デバイスの1つ又は複数のそれぞれの設定に対する更新を自動的に決定することと;更新に従って1つ又は複数の照明デバイスを制御することと;ユーザが移動するときに、取得、決定、及び制御を繰り返して、照明デバイスの設定を動的に適合させることとを行うように構成された制御装置が提供される。本明細書で開示される更なる態様によれば、対応するシステム、方法、コンピュータプログラム製品が提供される。 Thus, according to one aspect disclosed herein, a controller for controlling a plurality of lighting devices to emit light, wherein each lighting device depends on at least one respective setting. The controller acquires image data representing a cornea image formed by light reflected by the camera from at least a portion of the user's at least one cornea captured by the camera; based on the cornea image; Automatically determining an update to one or more respective settings of the lighting device; controlling one or more lighting devices according to the update; obtaining, determining and controlling when the user moves Is provided to dynamically adapt the settings of the lighting device. According to further aspects disclosed herein, corresponding systems, methods, and computer program products are provided.
これに関して、ユーザが見ている方向を決定するために、眼球追跡又は視線追跡が使用され得る。眼球追跡及び視線追跡の分野で、目の画像が使用されて、例えばユーザの頭部に対する目の相対位置を決定して、人が左を向いているか右を向いているかを決定し;又はユーザの環境に対する目の相対位置を決定して、ユーザの環境内のどの領域をユーザが見ているかを決定する。これらの技術を使用してユーザがどの物体を見ているかを決定するためには、ユーザの環境のマップを必要とする。更に、ユーザの目、即ち瞳孔の中心の位置の検出が、ユーザの視線を決定する。これは角膜イメージングとは異なり、角膜イメージングでは、照明デバイスのどれが角膜像内に現れているか及び/又は影響を及ぼすかに基づいて、照明デバイスの1つ又は複数のそれぞれの設定に対する更新を自動的に決定する。 In this regard, eye tracking or gaze tracking can be used to determine the direction in which the user is looking. In the field of eye tracking and eye tracking, eye images are used to determine, for example, the relative position of the eye with respect to the user's head to determine whether the person is facing left or right; or the user The relative position of the eyes with respect to the environment is determined to determine which area in the user's environment the user is looking at. In order to determine which object the user is looking at using these techniques, a map of the user's environment is required. Furthermore, detection of the position of the user's eyes, ie the center of the pupil, determines the user's line of sight. Unlike corneal imaging, corneal imaging automatically updates each one or more settings of the lighting device based on which lighting devices appear in and / or affect the corneal image. To decide.
幾つかの実施形態では、制御装置は、決定が、角膜像に対する1つ又は複数の照明デバイスの位置に基づいて、それぞれの設定に対する更新を自動的に決定することを含むように構成され得る。 In some embodiments, the controller can be configured such that the determination includes automatically determining an update for each setting based on the position of the one or more lighting devices relative to the cornea image.
例えば、制御装置は、位置に依存する決定が、直接的に角膜像内に現れているかどうかに依存して、1つ又は複数の照明デバイスのそれぞれの設定に対する更新を自動的に決定することを含むように構成され得る。代替として又は追加として、制御装置は、位置に依存する決定が、間接的に角膜像を形成する光に寄与しているかどうかに依存して、1つ又は複数の照明デバイスのそれぞれの設定に対する更新を自動的に決定することを含むように構成され得る。 For example, the controller may automatically determine an update for each setting of one or more lighting devices depending on whether the position-dependent decision appears directly in the cornea image. Can be configured to include. Alternatively or additionally, the controller may update the respective settings of the lighting device or devices depending on whether the position-dependent decision contributes indirectly to the light forming the cornea image. Can be configured to automatically determine.
更に、角膜像を捕捉することが可能なだけでなく、幾つかの実施形態では、角膜像内のユーザの視野(FoV)、又はユーザの中心視野領域及び/又は周辺視野も推定され得る。それにより、ユーザの視線に基づいて、ユーザのFoV、中心視野領域、又は周辺視野内に現れている又は影響を及ぼす照明が推定され、それらの影響が考慮に入れられ得るように処理され得る。 Furthermore, in addition to being able to capture a corneal image, in some embodiments, the user's field of view (FoV) in the corneal image, or the user's central field of view and / or peripheral field of view can also be estimated. Thereby, based on the user's line of sight, lighting appearing or influencing in the user's FoV, central field of view or peripheral field of view can be estimated and processed so that those effects can be taken into account.
従って、幾つかの実施形態では、制御装置は、角膜像内でのユーザの視野を決定するように構成され得て、且つ、位置に依存する決定が、視野内に現れているかどうかに依存して、及び/又は視野内の光に寄与しているかどうかに依存して、1つ又は複数の照明デバイスのそれぞれの設定に対する更新を自動的に決定することを含むように構成され得る。幾つかの実施形態では、制御装置は、位置に依存する決定が、中心領域内に現れているかどうかに依存して、及び/又は中心領域内の光に寄与しているかどうかに依存して、1つ又は複数の照明デバイスのそれぞれの設定に対する更新を自動的に決定することを含むように構成され得る。代替として又は追加として、制御装置は、位置に依存する決定が、周辺領域内に現れているかどうかに依存して、及び/又は周辺領域内の光に寄与しているかどうかに依存して、1つ又は複数の照明デバイスのそれぞれの設定に対する更新を自動的に決定することを含むように構成され得る。 Thus, in some embodiments, the controller can be configured to determine the user's field of view in the cornea image and depends on whether the position-dependent determination appears in the field of view. And / or depending on whether it contributes to light in the field of view, may be configured to include automatically determining an update for each setting of the one or more lighting devices. In some embodiments, the controller may depend on whether the position-dependent decision appears in the central region and / or depends on whether it contributes to light in the central region. It may be configured to include automatically determining an update for each setting of the one or more lighting devices. As an alternative or in addition, the control device may depend on whether position-dependent decisions are appearing in the surrounding area and / or whether it contributes to light in the surrounding area. It may be configured to include automatically determining an update for each setting of the one or more lighting devices.
例えば、更新は、角膜像、視野、又は中心領域内の任意の照明デバイスをオン又は第1の光出力レベルに設定し、それぞれ角膜像、視野、又は中心領域外の任意の照明デバイスをオフ又は第2の光出力レベルに設定することを含み得る。 For example, the update sets any lighting device in the corneal image, field of view, or central region to on or the first light output level, and turns off any lighting device outside the corneal image, field of view, or central region, respectively. Setting to the second light output level may be included.
一例では、更新は、ユーザが移動するときに、角膜像、視野、又は中心領域に現在現れている任意の照明デバイスの設定に関して一定値を維持し、及び/又はユーザが移動するときに、角膜像、視野、又は中心領域での光に現在寄与している任意の照明デバイスの設定に関して一定値を維持することを含み得る。 In one example, the update maintains a constant value with respect to the corneal image, field of view, or any lighting device settings currently appearing in the central region as the user moves and / or as the user moves. Maintaining a constant value for the setting of any lighting device currently contributing to the light in the image, field of view, or central region may be included.
更なる実施形態では、新たな照明設定が、例えばユーザ選好、ユーザの角膜像又はFoV内の物体に関連付けられる光設定、及び/又はユーザの角膜像内で観察されている現在及び/又は以前の光設定、及び/又は他のユーザの光設定に従って計算され得る。 In a further embodiment, the new lighting setting is for example a user preference, a light setting associated with an object in the user's cornea image or FoV, and / or a current and / or previous observed in the user's cornea image. It can be calculated according to the light settings and / or other users' light settings.
例えば、制御装置は、決定が、(a)所定の物体が角膜像、視野、又は中心領域内に現れたことの検出に応答して、更新を自動的に決定すること、(b)角膜像、視野、又は中心領域で測定されたコントラストの尺度に基づいて、更新を自動的に決定すること、及び/又は(c)角膜像、視野、若しくは中心領域での強度が閾値を超えたことの検出に応答して、1つ又は複数の照明デバイスの強度を自動的に減少させることの1つ又は複数を含むように構成される。 For example, the controller may determine that (a) the update is automatically determined in response to detecting that a predetermined object has appeared in the corneal image, field of view, or central region, and (b) the corneal image. Automatically determining an update based on a measure of contrast measured in the field of view, or central region, and / or (c) that the intensity in the cornea image, field of view, or central region has exceeded a threshold Responsive to the detection, configured to include one or more of automatically reducing the intensity of the one or more lighting devices.
幾つかの実施形態では、制御装置は、データベースから1つ又は複数の予め設定された照明制御規則を読み出すように構成され得て、照明制御規則は、ユーザによって予め設定され、適用されるべき更新が、1つ又は複数の予め設定された照明制御規則に従って決定され得る。 In some embodiments, the controller can be configured to retrieve one or more preset lighting control rules from a database, wherein the lighting control rules are preset and applied by the user to be applied. May be determined according to one or more preset lighting control rules.
本開示の理解を助け、実施形態が実施され得る様子を示すために、例として添付図面を参照する。 To assist in understanding the present disclosure and illustrating how embodiments may be implemented, reference is made to the accompanying drawings as an example.
ここ数十年、より高解像度のセンサが利用可能になり、撮像は進化している。例えば、現在、幾つかの現代のスマートフォンは、洗練されたレンズシステムと共に、40メガピクセルを超える解像度を提供している。画素解像度の増加は、角膜イメージングを実現可能にする助けとなる。角膜イメージングは、ターゲット画像が角膜の小さな面積のみから(しばしばある距離から)反射されるので、高い画素解像度を必要とする。角膜イメージングは、コロンビア大学他によって文書化されている。例えば、以下の文献を参照されたい。
“Corneal Imaging System: Environment from Eyes”; KO NISHINO, Department of Computer Science, Drexel University, 3141 Chestnut Street, Philadelphia, PA 19104; and SHREE K.NAYAR, Department of Computer Science, Columbia University, 1214 Amsterdam Avenue MC 0401, New York, NY 10027; Published April 2006; Springer Science + Business Media, Inc.; International Journal of Computer Vision 70(1), 23-40, 2006; DOI 10.1007/s11263-006-6274-9。例えば、この引用文献の図1、図15、図17、図18、及び図19は、現在、現代の技法を使用して角膜から捕捉され得るレベル詳細の着想を与える。
In recent decades, higher resolution sensors have become available and imaging has evolved. For example, some modern smartphones currently provide resolutions in excess of 40 megapixels with sophisticated lens systems. Increasing pixel resolution helps make corneal imaging feasible. Corneal imaging requires high pixel resolution because the target image is reflected only from a small area of the cornea (often from a distance). Corneal imaging is documented by Columbia University et al. For example, see the following literature.
“Corneal Imaging System: Environment from Eyes”; KO NISHINO, Department of Computer Science, Drexel University, 3141 Chestnut Street, Philadelphia, PA 19104; and SHREE K.NAYAR, Department of Computer Science, Columbia University, 1214 Amsterdam Avenue MC 0401, New York, NY 10027; Published April 2006; Springer Science + Business Media, Inc .; International Journal of Computer Vision 70 (1), 23-40, 2006; DOI 10.1007 / s11263-006-6274-9. For example, FIGS. 1, 15, 17, 18, and 19 of this reference give an idea of the level details that can now be captured from the cornea using modern techniques.
“Eyes for Relighting”, Ko Nishino and Shree K Nayer, Department of Computer Science, Columbia University, 2004, ACM 0730-0301/04/0800-0704も参照されたい。 See also “Eyes for Relighting”, Ko Nishino and Shree K Nayer, Department of Computer Science, Columbia University, 2004, ACM 0730-0301 / 04 / 0800-0704.
更に、角膜イメージングは、本明細書で認識されるような照明制御を含めた様々な市場分野にわたって多くの製品化の可能性がある。 Furthermore, corneal imaging has many commercialization potentials across various market areas, including illumination control as recognized herein.
従って、以下では、下記の反復プロセスに基づいて照明デバイスを制御する制御装置、システム、コンピュータプログラム、及び方法を開示する:
角膜像(即ち、ユーザが見ているものを示す角膜内の反射の画像)を捕捉するプロセス;
角膜像に基づいて、どの照明デバイスがユーザの視野(FoV)内にあるか、又はどの照明デバイスがユーザのFoVに対する効果を有するかを(例えば符号化光又は放出される光の色に基づいて)決定するプロセス(幾つかの実施形態では、照明デバイス自体が必ずしもユーザの視野内にある必要はなく、放出される光のみがユーザのFoV内にあればよいことに留意されたい);
識別された照明デバイスに適用されるべき(例えばユーザプロファイルに基づく)光設定を決定するプロセス;及び
(例えばユーザによって予め設定された)規則に従って照明デバイスを制御するプロセス。
Accordingly, the following discloses a controller, system, computer program, and method for controlling a lighting device based on the following iterative process:
The process of capturing a cornea image (ie, an image of the reflection in the cornea showing what the user is looking at);
Based on the cornea image, which lighting device is in the user's field of view (FoV) or which lighting device has an effect on the user's FoV (eg based on the color of the encoded or emitted light) ) The determining process (note that in some embodiments the lighting device itself does not necessarily need to be in the user's field of view, only the emitted light need be in the user's FoV);
A process of determining light settings (eg, based on a user profile) to be applied to the identified lighting device; and a process of controlling the lighting device according to rules (eg, preset by the user)
これらの規則の例は、以下のようなものである:
照明効果が、ユーザが見ている場所と共に移動する。例えば、ユーザが部屋の右側を見ると、それに応答して、そこが紫等の何らかの特定の色で照光され、その後、ユーザが部屋の左側を見始めると、次にそこが紫の色相で照光される;
ユーザのFoV内にない照明デバイスをオフに切り替える(又はユーザのFoVに寄与しない照明デバイスをオフに切り替える。幾つかの照明デバイスは、ユーザからは見えないことがあるが、それらが生み出す光効果は依然としてユーザのFoV内にあり、例えば壁から反射される)。
Examples of these rules are as follows:
The lighting effect moves with the location where the user is looking. For example, when the user looks at the right side of the room, in response, it is illuminated with some specific color, such as purple, and then when the user begins to look at the left side of the room, it is then illuminated with a purple hue. Done;
Switching off lighting devices that are not in the user's FoV (or switching off lighting devices that do not contribute to the user's FoV. Some lighting devices may not be visible to the user, but the light effects they produce are Still in the user's FoV, eg reflected from the wall).
一般に、実際には角膜像全てがユーザによって見られるわけではないことに留意されたい。即ち、角膜は、瞳孔を通ってユーザの網膜に投影されるよりも多くを反射している。従って、幾つかの実施形態では、角膜像は、角膜像内のユーザの視野を推定するために処理される。しかし、本明細書で述べられる実施形態はFoVに関して例示され得るが、より一般的には、本明細書で述べられるプロセスは、どの照明デバイスが(ユーザの視野の近似としての)完全な角膜像内に現れている及び/又は影響を及ぼすかに関する判断に基づいて、又は特に、どの照明デバイスが、ユーザのFoVの(例えば中心窩又は黄斑に対応する)中心領域及び/又は(例えば中心窩又は黄斑の外にある)周辺視野等、FoV内のより小さな部分領域内に現れている及び/又は影響を及ぼすかの判断に基づいて、又はそのような考慮事項の任意の組合せに基づいて適用され得る。 Note that in general, not all corneal images are actually viewed by the user. That is, the cornea reflects more than is projected through the pupil onto the user's retina. Thus, in some embodiments, the cornea image is processed to estimate the user's field of view within the cornea image. However, although the embodiments described herein may be illustrated with respect to FoV, more generally, the process described herein will result in a complete corneal image (as an approximation of the user's field of view). Based on a determination as to whether it is appearing in and / or affecting, or in particular, which lighting device is the central region (eg, corresponding to the fovea or macular) of the user's FoV and / or (eg, the fovea or Applied based on the determination of appearing and / or affecting within a smaller sub-region within FoV, such as peripheral vision (outside of the macula), or based on any combination of such considerations obtain.
図1は、本開示の幾つかの実施形態による例示的な照明システムを示す。このシステムは、環境2内に設置又は配設され、そのような環境2は、例えば、1つ又は複数の部屋及び/又は廊下を備える建物の屋内空間、庭や公園等の屋内空間、又は東屋等の一部覆われた空間、又は実際には、車両の車室等の任意の他の空間である。システムは、制御装置9と、無線及び/又は有線接続を介して制御装置9に結合された1つ又は複数の制御可能な照明デバイス4とを備え、制御装置9は、無線及び/又は有線接続を介して照明デバイス4を制御することができる。図1には例として3つの照明デバイス4a、4b、及び4cが示されているが、他の実施形態では、システムは、制御装置9の制御中に、1個から数十、数百、更には数千個の照明デバイスといった、他の数の照明デバイス4を備えていてもよいことを理解されたい。幾つかの実施形態では、各照明デバイス4は、環境2を照光するための様々な照明器具、又は照明器具の様々な個別に制御可能な光源(ランプ)を表し、各光源は、LED等、1つ又は複数の照明素子を備える(照明器具は、光源と、任意の関連のハウジング及び/又はソケットとを含む照明設備である。多くの場合、照明器具当たりに1つの光源が存在するが、所与の照明器具が複数の独立して制御可能な光源を備え得ることも除外されない)。例えば、各照明器具又は光源4は、LEDのアレイ、フィラメント電球、又はガス放電ランプを含んでいてよい。 FIG. 1 illustrates an exemplary lighting system according to some embodiments of the present disclosure. This system is installed or arranged in an environment 2, such as an indoor space of a building with one or more rooms and / or corridors, an indoor space such as a garden or a park, or an east A partially covered space, or indeed any other space such as a vehicle cabin. The system comprises a controller 9 and one or more controllable lighting devices 4 coupled to the controller 9 via a wireless and / or wired connection, the controller 9 being a wireless and / or wired connection. The lighting device 4 can be controlled via Although three lighting devices 4a, 4b, and 4c are shown in FIG. 1 as an example, in other embodiments, the system can operate from one to tens, hundreds, and even during control of the controller 9 It should be understood that other numbers of lighting devices 4 may be provided, such as several thousand lighting devices. In some embodiments, each lighting device 4 represents various lighting fixtures for illuminating the environment 2, or various individually controllable light sources (lamps) of the lighting fixtures, each light source being an LED, etc. Comprising one or more lighting elements (a luminaire is a luminaire comprising a light source and any associated housing and / or socket. In many cases there is one light source per luminaire, It is not excluded that a given luminaire may comprise a plurality of independently controllable light sources). For example, each luminaire or light source 4 may include an array of LEDs, a filament bulb, or a gas discharge lamp.
制御装置9は、1つ又は複数の物理的位置に1つ又は複数の物理的制御装置ユニットの形態で実装され得る機能要素を表す。例えば、制御装置9は、照明ネットワークを介して光源4に接続された単一の中央制御装置として実装されても、例えば各照明デバイス4に一体化された別個の制御装置ユニットの形態で分散型制御装置として実装されてもよい。制御装置9は、環境2内にローカルで実装されても、遠隔から、例えばインターネット等のネットワークを介して照明デバイス4と通信するサーバから実装されてもよく、又はこれらの任意の組合せで実装されてもよい。更に、制御装置9は、ソフトウェア、専用ハードウェア回路構成、PGAやFPGA等の構成可能若しくは再構成可能な回路構成、又はそのような手段の任意の組合せで実装されてもよい。ソフトウェアの場合、これは、1つ又は複数のコンピュータ可読記憶媒体に記憶され、制御装置9の1つ又は複数のプロセッサで実行されるように構成されたコードの形態を取る。例えば、コンピュータ可読記憶装置は、例えば、ハードディスク等の磁気媒体、EEPROMや「フラッシュ」メモリ等の電子媒体、CD−ROM等の光学媒体、又はそのような媒体の任意の組合せの形態を取ることができる。 The controller 9 represents a functional element that can be implemented in one or more physical locations in the form of one or more physical controller units. For example, the controller 9 may be implemented as a single central controller connected to the light source 4 via a lighting network, but distributed, for example in the form of separate controller units integrated in each lighting device 4. It may be implemented as a control device. The control device 9 may be implemented locally in the environment 2 or remotely, for example from a server communicating with the lighting device 4 via a network such as the Internet, or any combination thereof. May be. Furthermore, the control device 9 may be implemented by software, a dedicated hardware circuit configuration, a configurable or reconfigurable circuit configuration such as PGA or FPGA, or any combination of such means. In the case of software, this takes the form of code stored on one or more computer-readable storage media and configured to be executed by one or more processors of the controller 9. For example, a computer-readable storage device may take the form of a magnetic medium such as a hard disk, an electronic medium such as an EEPROM or “flash” memory, an optical medium such as a CD-ROM, or any combination of such media. it can.
システムは更に、ローカル又はリモートの有線及び/又は無線接続を介して制御装置9に結合された高解像度カメラ10を備える。このカメラ10は、スタンドアローンデバイスでも、モバイルデバイスやテレビジョン等、別の製品に組み込まれていてもよい。何れにせよ、カメラ10は、(人間)ユーザ6が存在するとき、ユーザ6の少なくとも1つの目12の少なくとも一部がピクチャ内で見えるように;特に、ピクチャがユーザ6の少なくとも1つの角膜18の少なくとも一部の画像を含むように、環境2の少なくとも1つのピクチャを捕捉するのに適した位置及び向きに位置決めされる。幾つかの実施形態では、より広い環境を網羅するためにそのようなカメラが複数使用され得るが、以下では、例として1つのカメラ10について説明する。 The system further comprises a high resolution camera 10 coupled to the controller 9 via a local or remote wired and / or wireless connection. The camera 10 may be a stand-alone device or may be incorporated in another product such as a mobile device or a television. In any case, the camera 10 is such that when a (human) user 6 is present, at least a part of at least one eye 12 of the user 6 is visible in the picture; in particular, the picture is at least one cornea 18 of the user 6. Is positioned in a position and orientation suitable for capturing at least one picture of environment 2 to include at least a portion of the image. In some embodiments, a plurality of such cameras may be used to cover a wider environment, but in the following, a single camera 10 will be described as an example.
図2は、人間の目12の簡略図である。目12は、強膜(白目)16、虹彩20、瞳孔22、及び角膜18を含む。目12は、瞼15によって一部覆われ得る。角膜18は、虹彩20及び瞳孔22(並びに、虹彩20及び瞳孔22の前に位置するが角膜18の後ろに位置する前眼房(図示せず))を覆う目の透明な部分である。角膜18は、目の網膜(図示せず)に像を形成するために、瞳孔22を通る光を屈折する役割を一部担う眼12の光学的部位である。角膜18は、高い反射性も有する。角膜18が、反射性でない強膜16を覆っては広がっていないことに留意されたい。角膜18は、角膜輪部によって強膜16から分離される(及び強膜16に取り付けられる)。 FIG. 2 is a simplified diagram of the human eye 12. The eye 12 includes a sclera (white eye) 16, an iris 20, a pupil 22, and a cornea 18. The eyes 12 can be partially covered by the ridges 15. The cornea 18 is a transparent part of the eye that covers the iris 20 and pupil 22 (and the anterior chamber (not shown) located in front of the iris 20 and pupil 22 but behind the cornea 18). The cornea 18 is an optical part of the eye 12 that plays a part in refracting light passing through the pupil 22 in order to form an image on the retina (not shown) of the eye. The cornea 18 also has high reflectivity. Note that the cornea 18 does not spread over the non-reflective sclera 16. The cornea 18 is separated from (and attached to) the sclera 16 by the limbus.
以下でより詳細に例示するように、カメラ10が制御装置9によって使用されて、角膜18の撮像を行い、角膜18から反射されたシーンが取得される。状況(例えば、カメラ10からユーザ6までの距離、及びカメラ10に対するユーザの角膜18の角度を与える)に関して十分に高い解像度のカメラ10を用いて、シーン内の個々の物体の詳細を解像することができる。例えば、ここでも、上で引用したNishino及びNayerによる刊行物を参照されたい。従って、照明デバイス4の1つ又は複数が角膜18によって反射された立体角内にある場合、これらの照明デバイス4が角膜像内で見られる。例として、図2は、角膜18からそれぞれ反射された照明デバイス4b及び4cの2つの反射4b’及び4c’を示す。 As illustrated in more detail below, the camera 10 is used by the controller 9 to image the cornea 18 and obtain a scene reflected from the cornea 18. Resolve individual object details in the scene using a sufficiently high resolution camera 10 with respect to the situation (e.g. giving the distance from camera 10 to user 6 and the angle of the user's cornea 18 relative to camera 10). be able to. For example, see again the publication by Nishino and Nayer cited above. Thus, if one or more of the lighting devices 4 are within the solid angle reflected by the cornea 18, these lighting devices 4 are seen in the cornea image. As an example, FIG. 2 shows two reflections 4b 'and 4c' of the lighting devices 4b and 4c reflected from the cornea 18, respectively.
従って、角膜像から、制御装置9は、(もしあれば)照明デバイス4のどれが角膜像内に存在するか、及び/又は照明デバイス4のどれが角膜像内のユーザの視野、ユーザの中心視野領域、及び/又はユーザの周辺視野内に存在するかを推定することが可能である。 Thus, from the cornea image, the controller 9 determines which of the illumination devices 4 (if any) are present in the cornea image and / or which of the illumination devices 4 is the user's field of view in the cornea image, the user's center. It can be estimated whether it exists in the field of view and / or in the peripheral field of view of the user.
次に、制御装置9の動作を、図3の流れ図並びに図4A及び図4Bの図に関してより詳細に論じる。 Next, the operation of the controller 9 will be discussed in more detail with respect to the flowchart of FIG. 3 and the diagrams of FIGS. 4A and 4B.
ステップT10で、ユーザ6(又は実際には、異なるユーザ、例えばシステム管理者)が、ライトマップ11を定義し、ライトマップ11は、様々な視野(FoV)でのランプ設定間の関係を定義する。ライトマップは、小さなルックアップテーブルから大きなものまで任意のサイズのデータベースであり、任意の適切な記憶媒体、例えば制御装置9のローカル記憶装置、又は制御装置9がネットワークを介してアクセスするローカル若しくはリモートサーバで実装され得る。更に、ライトマップ11は、単一の物理的な記憶ユニットで実装されても、複数の物理的な記憶ユニットにわたって分散されてもよい。 At step T10, a user 6 (or actually a different user, eg a system administrator) defines a light map 11, which defines the relationship between lamp settings at various fields of view (FoV). . A lightmap is a database of any size, from a small lookup table to a large one, and any suitable storage medium, for example a local storage device of the control device 9, or a local or remote that the control device 9 accesses over a network Can be implemented on the server. Furthermore, the light map 11 may be implemented with a single physical storage unit or distributed across multiple physical storage units.
ライトマップ11は、ユーザ6が、自分のFoVを変えるときに自分の環境2内の照明デバイス4をどのように変えることを望むか(又は、管理者等の別のユーザが、ユーザ6のそのFoVと共に照明デバイス4をどのように変えることを望むか)を定義する。ライトマップ11は、1つ又は複数の命令又は1組の詳細な命令をそれぞれ備える幾つかのテンプレートから構成されてよく、制御情報を、角膜像に基づいて検出され得る照明デバイス4及び1つ又は複数の生じ得る環境と関連付ける。 The light map 11 shows how the user 6 wants to change the lighting device 4 in his environment 2 when he changes his FoV (or another user, such as an administrator, How to change the lighting device 4 with FoV). The light map 11 may consist of several templates, each with one or more instructions or a set of detailed instructions, and the control information can be detected on the basis of the cornea image and / or the lighting device 4 and / or Associate with multiple possible environments.
例えば、ライトマップ11は、システム内の各照明デバイス4に関して、FoV内にある場合にその特定の照明デバイスにどのような設定が適用されるべきか、及び/又はFoV外にある場合にその特定の照明デバイスにどのような設定が適用されるべきか(及び/又は、完全に角膜像、中心視野領域、及び/又は周辺視野内及び/又は外にある場合に、その照明デバイスにどのような設定が適用されるべきか)をリストし得る。又は、ライトマップ11は、システム内の全ての照明デバイス4に適用され得る規則を定義することができ、その規則は、FoV内にある任意の照明デバイスにどのような設定が適用されるべきか、及び/又はFoV外にある場合に任意の照明デバイスにどのような設定が適用されるべきか(及び/又は、完全に角膜像、中心視野領域、及び/又は周辺視野内にある場合に、任意の照明デバイスにどのような設定が適用されるべきか)を定義する。 For example, the light map 11 can be identified for each lighting device 4 in the system, what settings should be applied to that particular lighting device when in the FoV and / or when it is outside the FoV. What settings should be applied to a particular lighting device (and / or what if the lighting device is completely within and / or outside the cornea image, the central field of view, and / or the peripheral field of view) Can be listed). Alternatively, the light map 11 can define a rule that can be applied to all lighting devices 4 in the system, and that rule should be applied to any lighting device in the FoV. And / or what settings should be applied to any lighting device when it is outside the FoV (and / or if it is entirely within the cornea image, the central field of view, and / or the peripheral field of view) Define what settings should be applied to any lighting device).
一例として、ユーザ6は、自分のFoVを変えるときに、ユーザの向きに関わらずFoV内で同じ照明設定が維持されるように照明設定が変更されるように定義するテンプレートを選択し得る。即ち、特定の照明効果がユーザの視線に従い、例えばそれにより、ユーザのFoV内の任意の光が常にオンである、特定のレベルまで増光される、又は特定の色で発光する。任意選択的に、ユーザ6の後方の(従ってユーザのFoV内にない)照明デバイスも制御され、例えば、それにより、ユーザのFoV外の照明デバイスが常にオフである、特定のレベルに減光される、又は特定の他の色で発光する。 As an example, when the user 6 changes his / her FoV, the user 6 may select a template that defines the lighting settings to be changed so that the same lighting settings are maintained in the FoV regardless of the user's orientation. That is, a specific lighting effect follows the user's line of sight, for example, thereby causing any light in the user's FoV to always be on, increased to a specific level, or emitted in a specific color. Optionally, the lighting device behind the user 6 (and thus not within the user's FoV) is also controlled, for example, thereby dimming to a certain level where the lighting device outside the user's FoV is always off. Or emit light in certain other colors.
別の例として、ライトマップ11でのテンプレートは、ユーザ6のFoVの中心領域にあるときの各照明デバイス4の特性、及びユーザ6の周辺視野にあるときの各照明デバイス4の特性を述べることがある。 As another example, the template in the light map 11 describes the characteristics of each lighting device 4 when in the central region of the user's 6 FoV and the characteristics of each lighting device 4 when in the peripheral field of the user 6. There is.
ステップT20で、制御装置9は、高解像度カメラ10を使用して、ユーザ6の角膜18からの角膜反射を撮像する。制御装置9は、角膜18を追跡し、例えばNishino及びNayerによって開示されている技法を使用して、角膜18の画像で反射されるシーンを計算する。 In step T <b> 20, the control device 9 images the corneal reflection from the cornea 18 of the user 6 using the high resolution camera 10. The controller 9 tracks the cornea 18 and calculates the scene reflected by the image of the cornea 18 using, for example, the technique disclosed by Nishino and Nayer.
ステップT30で、制御装置9は、1つ又は複数の照明デバイス4のどれが、ユーザの角膜18によって結像されたシーン内に存在するかを判断する。反射されたシーン内に存在する照明デバイスは、(例えばシーンにわたる相対強度変化を使用して)画像を処理することによって決定されて識別され、従ってそれらは個別にアドレス指定され得る。これは、幾つかのやり方で実現され得る。 At step T30, the controller 9 determines which one or more lighting devices 4 are present in the scene imaged by the user's cornea 18. Lighting devices present in the reflected scene are determined and identified by processing the image (eg, using relative intensity changes across the scene), so that they can be individually addressed. This can be achieved in several ways.
例えば、幾つかの実施形態では、照明デバイス4は、符号化光に基づいて識別され得る。この場合、各照明デバイス4は、システム内で互いに一意である、異なる埋め込まれたIDで(幾つかの実施形態では、人間の知覚を超える周波数で)それぞれ変調された光をそれぞれ放出するように構成され、例えば、各光が、異なる変調周波数又は異なるデジタルコードで変調される。このとき、この周波数又はコードは、(複数のフレームにわたる実施形態において)角膜像内に存在する照明デバイス4b、4cの各反射4b’、4c’から検出され得る。符号化光信号は、制御装置9によって、又はカメラ10での埋込み符号化光機能によって復調され得る。 For example, in some embodiments, the lighting device 4 may be identified based on the encoded light. In this case, each lighting device 4 emits light respectively modulated with different embedded IDs (in some embodiments at frequencies exceeding human perception) that are unique to each other in the system. Configured, for example, each light is modulated with a different modulation frequency or a different digital code. This frequency or code can then be detected from each reflection 4b ', 4c' of the illumination devices 4b, 4c present in the corneal image (in an embodiment over multiple frames). The encoded optical signal can be demodulated by the controller 9 or by the embedded encoded light function at the camera 10.
別の例では、角膜像内の照明デバイス4b、4cは、角膜像内の照明デバイス4の位置によって識別され得る。例えば、人間の角膜18の既知の幾何形状を仮定して、制御装置9は、ユーザ6に対する及び/又はカメラ10に対する、角膜像内に現れている照明デバイス4b、4cの位置又は向きを計算することができる。カメラ10も、角膜像内で反射されて見えることがある。ユーザ6及び/又はカメラ10の「絶対」位置又は向き(即ち、環境2又は何らかの他の既知の基準枠に対する位置又は向き)の知識を仮定して、制御装置9は、照明デバイス4の絶対位置又は向きを計算することができる。照明デバイス4の絶対位置に対してそのIDをマッピングするデータベース又はテーブルを仮定して、制御装置9は、反射されたデバイス4b、4cの識別子を決定することができる。 In another example, the illumination devices 4b, 4c in the cornea image may be identified by the position of the illumination device 4 in the cornea image. For example, assuming a known geometry of the human cornea 18, the controller 9 calculates the position or orientation of the lighting devices 4b, 4c appearing in the cornea image relative to the user 6 and / or to the camera 10. be able to. The camera 10 may also appear reflected in the corneal image. Given the knowledge of the “absolute” position or orientation of the user 6 and / or the camera 10 (ie, the position or orientation relative to the environment 2 or some other known reference frame), the controller 9 determines the absolute position of the lighting device 4. Or the orientation can be calculated. Given a database or table that maps its ID to the absolute position of the lighting device 4, the controller 9 can determine the identifier of the reflected device 4b, 4c.
更なる例では、角膜像内の照明デバイス4b、4cは、照明デバイス4の異なる特性(例えば、一意の色スペクトルや強度等)によって、又は制御装置9を使用して個々のランプを(おそらく気付かれないうちに)ポーリングすることによって識別され得る。 In a further example, the lighting devices 4b, 4c in the cornea image may have individual lamps (possibly noticed) due to different characteristics of the lighting device 4 (eg unique color spectrum, intensity, etc.) or using the controller 9. Can be identified by polling).
Nishino及びNayarによれば、「角膜視野」(即ち、角膜18によって反射された全てからなる完全な角膜像)は、常にユーザの視野(網膜上に投影される角膜像の一部)よりも大きいことに留意されたい。即ち、角膜18によって反射された全てが瞳孔22によって屈折されるわけではない。従って、Nishino及びNayarは、角膜像からユーザの視野(FoV)を計算するためのアルゴリズムを提供する。 According to Nishino and Nayar, the “corneal field” (ie the complete corneal image reflected by the cornea 18) is always larger than the user field (part of the cornea image projected onto the retina). Please note that. That is, not all reflected by the cornea 18 is refracted by the pupil 22. Therefore, Nishino and Nayar provide an algorithm for calculating the user's field of view (FoV) from the cornea image.
従って、本開示の幾つかの実施形態では、制御装置9は、より一般に、どれが角膜像内に現れているかを識別するのではなく、又はそれに加えて、(もしあれば)照明デバイス4のどれが特にユーザのFoV内に現れているかを識別するために角膜像を処理するように構成され得る。例えば、制御のために識別される条件は、特に、照明デバイス4がFoV内にあるが角膜像内にはないということであり得る;又は、代替として、識別されるデバイスが制御される様式が、FoV内にあるものとして識別されるか、角膜像内にはあるがFoV外にあるものとして識別されるかに依存し得る(例えば、ユーザ入力が、角膜像内にはあるがFoV内ではないデバイスよりも、FoV内にあるデバイスに強く影響を及ぼす)。 Thus, in some embodiments of the present disclosure, the controller 9 more generally does not identify which is appearing in the cornea image, or in addition, of the lighting device 4 (if any). It may be configured to process the cornea image to identify which is specifically appearing in the user's FoV. For example, the condition identified for control may in particular be that the lighting device 4 is in the FoV but not in the cornea image; or alternatively, the manner in which the identified device is controlled. Can be identified as being within the FoV, or being identified as being within the cornea but outside the FoV (eg, user input is within the cornea but within the FoV It has a stronger effect on devices that are in the FoV than devices that are not.)
更に、人間の視野は、中心領域と周辺視野とから構成されており、それらが、網膜の対応する領域内で異なる光受容体密度を有するという点で異なることに留意されたい。異なる生物学的定義が可能であり、例えば、中心領域は、黄斑又は中心窩(網膜の黄斑又は中心窩領域)に対応することがあり、周辺領域は、網膜の残りの部分に対応することがある。従って、本開示の幾つかの実施形態では、制御装置9は、(もしあれば)照明デバイス4のどれが特にユーザの中心視野領域内に現れている及び/又は特に周辺視野領域内に現れているかを識別するために角膜像を処理するように構成され得る。例えば、制御のために識別される条件は、特に、照明デバイス4がユーザのFoVの中心領域内にあるがユーザの周辺視野内にはないということであり得る;又は、代替として、識別されるデバイス4が制御される様式が、FoVの中心領域内にあるものとして識別されるか、FoVの周辺領域内にあるものとして識別されるかに依存し得る(例えば、ユーザ入力が、周辺領域内にあるデバイスよりも、中心領域内にあるデバイスに強く影響を及ぼす)。 It is further noted that the human visual field is composed of a central region and a peripheral visual field, which differ in that they have different photoreceptor densities within the corresponding region of the retina. Different biological definitions are possible, for example, the central region may correspond to the macula or fovea (retinal macular or foveal region) and the peripheral region may correspond to the rest of the retina. is there. Thus, in some embodiments of the present disclosure, the controller 9 may cause any of the lighting devices 4 (if any) to appear specifically in the user's central visual field and / or particularly in the peripheral visual field. It may be configured to process the cornea image to identify. For example, the condition identified for control may in particular be that the lighting device 4 is in the central region of the user's FoV but not in the user's peripheral vision; or alternatively, it is identified. The manner in which the device 4 is controlled may depend on whether it is identified as being in the central area of the FoV or in the peripheral area of the FoV (eg, user input is within the peripheral area) Affects devices in the central area more than devices in
本明細書における実施形態はFoVに関して述べられ得るが、FoV内等にどの照明デバイス4が存在する又は現れているかを識別することを述べる本明細書における如何なる箇所でも、これは、代替として又は追加として、完全な角膜像、ユーザのFoVの中心領域、及び/又はユーザのFoVの周辺視野領域に存在する又は現れているかどうかを決定することにも該当し得ることを理解されたい。例えば、FoVの計算に関わる複雑な処理を回避するために、完全な角膜像が、ユーザの視野の近似として使用され得る。 Although the embodiments herein may be described with respect to FoV, wherever it is stated to identify which lighting device 4 is present or appearing within the FoV etc., this may alternatively or additionally As such, it should be understood that determining whether a complete corneal image, a central region of the user's FoV, and / or a peripheral visual region of the user's FoV is present or appearing may also be applicable. For example, a complete corneal image can be used as an approximation of the user's field of view to avoid complex processing involved in the calculation of FoV.
更に、幾つかの実施形態では、制御装置9は、角膜像を使用して、照明デバイス4のどれが角膜像、FoV、中心領域、及び/又は周辺視野内に直接現れているかだけでなく、照明デバイス4のどれが、角膜18からカメラ10に反射される光に間接的に寄与しているかも識別し得る。ここで、「間接的」は、照明デバイス4自体はユーザ6の後方にあり、角膜18によってカバーされる立体角の外にあるが、それでも、そのデバイス4からの幾らかの光が、白色の壁等、何らかの他の更なる表面での反射(例えば拡散反射)によって到達し、その後、角膜18で反射されることを意味する。例えば、照明デバイス4が、それらが放出する符号化光、又はスペクトル等の特性によって識別される場合、この情報は、間接的な光からでも検出可能であり得る。 Furthermore, in some embodiments, the controller 9 uses the cornea image to determine not only which of the illumination devices 4 appears directly in the cornea image, FoV, central region, and / or peripheral field of view, It can also be identified which of the lighting devices 4 contributes indirectly to the light reflected from the cornea 18 to the camera 10. Here, “indirect” means that the lighting device 4 itself is behind the user 6 and outside the solid angle covered by the cornea 18, but still some light from that device 4 is white Meaning that it is reached by reflection (eg diffuse reflection) on some other additional surface, such as a wall, and then reflected by the cornea 18. For example, if the lighting devices 4 are identified by characteristics such as encoded light they emit, or spectrum, this information may be detectable even from indirect light.
どの照明デバイス4が角膜像、FoV、中心視野領域、又は周辺視野領域内等に存在する又は現れているか(即ち直接現れているか)を識別することを述べる本明細書における如何なる箇所でも、これは、代替として又は追加として、角膜像、FoV、中心視野領域、及び/又は周辺視野領域内への光にどの照明デバイス4が寄与しているかを識別することにも該当し得る。 Wherever this specification states identifying which illumination device 4 is present or appearing (ie appears directly) in the corneal image, FoV, central vision region, or peripheral vision region, etc. Alternatively or additionally, it may also be relevant to identify which lighting device 4 contributes to the light in the cornea image, FoV, central field of view and / or peripheral field of view.
角膜像内にある照明デバイス4を識別することは、それらの1つ又は複数の照明デバイス4が角膜像内にあるという事実を識別することと、それらの照明デバイス4の識別子を決定することとの両方を含むことに留意されたい。同様に、FoV等の中心領域、中心視野領域、又は周辺視野領域内の照明デバイス4を識別することは、それらの1つ又は複数の照明デバイス4が特定の対象領域内にあることを識別することと、それらの照明デバイス4の識別子を決定することとの両方を含む。 Identifying the lighting devices 4 that are in the cornea image identifies the fact that the one or more lighting devices 4 are in the cornea image and determining the identifiers of those lighting devices 4 Note that both are included. Similarly, identifying lighting devices 4 in a central region, central viewing region, or peripheral viewing region, such as FoV, identifies that those one or more lighting devices 4 are within a particular region of interest. And determining the identifiers of those lighting devices 4.
また、照明デバイス4が角膜像、FoV、中心領域、又は周辺領域内又は内部にあると識別されるための条件は、その照明デバイス4が角膜像、FoV、中心領域、又は周辺領域内に完全に現れていることでよい(その場合、デバイス4のどこかが外にある場合には、デバイス4は外にあるとみなされる);又は代替として、角膜像、FoV、中心領域、又は周辺領域内又は内部にあると識別されるための条件は、照明デバイス4の少なくとも一部がそれぞれ角膜像、FoV、中心領域、又は周辺領域内に現れていることでよい(その場合、完全に外にあるときにのみ、外にあるとみなされる)ことに留意されたい。別の代替形態として、照明デバイス4に関して様々な規則が定義され得て、完全に角膜像、FoV、若しくは領域内にある、完全に外にある、又は重なっているという識別の様々な偶然性を網羅する。 In addition, the condition for identifying the illumination device 4 to be in or inside the cornea image, FoV, central region, or peripheral region is that the illumination device 4 is completely in the cornea image, FoV, central region, or peripheral region. (In which case device 4 is considered to be outside if some of device 4 is outside); or alternatively, a cornea image, FoV, central region, or peripheral region The condition for being identified as being inside or inside may be that at least a part of the lighting device 4 appears in the cornea image, FoV, central region or peripheral region, respectively (in that case, completely outside) Note that it is only considered to be outside). As another alternative, various rules can be defined for the lighting device 4 to cover various contingencies of identification that are completely within the cornea image, FoV, or within the region, completely outside, or overlapping. To do.
識別のための基準に関わらず、角膜像、FoV、中心領域、及び/又は周辺視野領域内の識別された照明デバイス4はそれぞれ、次いで、そのそれぞれの関連の設定をタグ付けされる(設定は、照明制御装置9から決定され得るか、又は照明デバイス4を含むシーンの画像から推定され得る)。 Regardless of the criteria for identification, each identified illumination device 4 in the cornea image, FoV, central region, and / or peripheral field region is then tagged with its respective associated setting (the setting is Can be determined from the lighting controller 9 or estimated from an image of the scene containing the lighting device 4).
ステップT40で、制御装置9は、ユーザ6のFoVの変化を検出する。FoVの変化は、(光源を含む)角膜像内で捕捉されたシーンの変化を検出する、又は、カメラ10又は個別のモーションセンサによって捕捉されたより広いピクチャに適用される画像認識アルゴリズム等の何らかの他の手段によってユーザの向きの変化を検出する等、幾つかのやり方で検出され得る。 In step T40, the control device 9 detects a change in the FoV of the user 6. The change in FoV detects changes in the scene captured in the cornea image (including the light source) or some other such as an image recognition algorithm applied to a wider picture captured by the camera 10 or a separate motion sensor It can be detected in several ways, such as detecting a change in the orientation of the user by means of
応答して、ステップT50で、制御装置9は、後続のFoV内に照明デバイス4のどれが存在するかを検出し、この検出は、それらの照明デバイス4の識別子の決定を含む。ステップT30と同様に、角膜18で反射されるシーンの画像が捕捉され、例えばNishino及びNayerによって述べられているようにFoVが計算される。シーン内に存在する照明デバイス4が(例えばシーンにわたる相対強度変化を使用して)検出され、シーン内の各照明デバイスの一意の識別子が確認され、従って照明デバイスを個別にアドレス指定することができる。これも、符号化光に基づいて;ユーザ(従ってFOV)及び照明デバイス4の既知の位置及び/又は向きによって;ランプの異なる特性(色や強度等)によって;又はランプ制御システムを使用して個々のランプを(おそらく気付かれないうちに)ポーリングすることによって等、幾つかのやり方で実現され得る。次いで、FoV内の照明デバイス4はそれぞれ、そのそれぞれの関連の設定をタグ付けされる。 In response, at step T50, the controller 9 detects which of the lighting devices 4 are present in the subsequent FoV, and this detection includes the determination of the identifiers of those lighting devices 4. Similar to step T30, an image of the scene reflected by the cornea 18 is captured and FoV is calculated as described, for example, by Nishino and Nayer. The lighting devices 4 present in the scene are detected (eg using a relative intensity change across the scene) and the unique identifier of each lighting device in the scene is ascertained so that the lighting devices can be individually addressed. . This is also based on the encoded light; by the user (and hence the FOV) and the known position and / or orientation of the lighting device 4; by the different characteristics of the lamp (color, intensity etc.); Can be realized in several ways, such as by polling the lamps (possibly without being aware). Each lighting device 4 in the FoV is then tagged with its respective associated setting.
ステップS60で、制御装置9は、ライトマップ11及びFoVの変化又は新たなFoVに基づいて、照明デバイス4の1つ又は複数に関する設定の変更を計算する。これは、ユーザのFoV内に元々あった照明デバイス4の設定を決定し、ユーザの新たなFoV内での照明デバイス4の現在の設定及び識別子を決定し、ユーザの新たなFoV内での識別された照明デバイス4の所要の新たな設定を決定することによって実現される。これは、ユーザの新たなFoV内の照明デバイスに関する新たな絶対設定を計算するために、ライトマップ11を使用して、及びライトマップ11によって表される機能を使用して行われる。 In step S60, the control device 9 calculates a setting change regarding one or more of the lighting devices 4 based on the change of the light map 11 and the FoV or the new FoV. This determines the setting of the lighting device 4 that was originally in the user's FoV, determines the current setting and identifier of the lighting device 4 in the user's new FoV, and identifies the user in the new FoV This is achieved by determining the required new settings of the illuminated lighting device 4. This is done using the light map 11 and the functions represented by the light map 11 to calculate a new absolute setting for the lighting device in the user's new FoV.
幾つかの実施形態では、ここではユーザのFoV外にある照明デバイスを決定するため、及びライトマップ11によって表される別の機能に基づいてそれらの照明デバイスの設定がどのように設定されるべきかを決定するために、同様のプロセスが適用され得る。又は、代替若しくは追加の実施形態において、同様のプロセスが、ユーザの中心視野領域内にあるものとして検出される照明デバイス、及びユーザの周辺視野内にあるものとして検出される照明デバイスの設定を制御するために適合され得る。 In some embodiments, here to determine lighting devices that are outside the user's FoV and how the settings of those lighting devices should be set based on another function represented by the light map 11 A similar process can be applied to determine this. Or, in alternative or additional embodiments, a similar process controls lighting devices that are detected as being within the user's central field of view and settings of lighting devices that are detected as being within the user's peripheral field of view. Can be adapted to
新たな絶対レベルを計算すると、制御装置9は、次いで、ランプの既存の設定と、それらの所要の新たな設定との間で必要な変更を計算する。代替として、前の設定に対する変更に関して新たな設定を計算する必要はなく、制御装置9は、単に、(新たなFoV、及びライトマップ11での規則に基づいて)新たな絶対設定を直接決定してもよい。 Having calculated the new absolute level, the controller 9 then calculates the necessary changes between the lamp's existing settings and their required new settings. Alternatively, there is no need to calculate a new setting for changes to the previous setting, the controller 9 simply determines the new absolute setting directly (based on the new FoV and rules in the light map 11). May be.
また、ステップT40は、必ずしも全ての可能な実施形態で必要なわけではないことに留意されたい。例えば、ユーザのFoVの変化を検出するのではなく、制御装置9は、定期的に、即ち一定の間隔で、FoV内の照明デバイスの識別を行い得る(ステップT50)。 It should also be noted that step T40 is not necessary in all possible embodiments. For example, instead of detecting a change in the user's FoV, the control device 9 may identify the lighting device in the FoV periodically, that is, at regular intervals (step T50).
図4A及び図4Bは、ライトマップ11によって定義され、上述のプロセスに従って適用され得る規則の一例を示す。この例では、システム内に3つの照明デバイス4a、4b、4cがあり、それぞれ、水平面内でユーザの周りで異なる位置にある。ライトマップ11での規則は、ユーザのFoV26(又は、ユーザの角膜像18に対する他の光学的に定義された領域、例えば中心視野領域又は角膜像全体)で検出された任意の照明デバイス4がオンに切り替えられる、又は第1の減光レベルに設定されるべきであり;一方、この領域の外で検出された任意の照明デバイス4がオフに切り替えられる、又は第1のレベルよりも低い第2のレベルに減光されるべきであると定義する。現在、FoV26が照明デバイス4b及び4cを包含するが照明デバイス4aを包含しないように、ユーザ6が自分の視線24の方向を向けているとする。制御装置9は、角膜像からこれを検出し、ライトマップ11で検索した規則に基づいて、それに従って、照明デバイス4b及び4cをオンに制御し(又は第1のレベルに減光され)、照明デバイス4aをオフに制御する(又は第2のレベルに減光される)。次いで、ユーザが自分の視線24を異なる方向に向け、ここでFoV26は、照明デバイス4a及び4bを包含するが照明デバイス4cを包含しなくなるとする。制御装置9は、これを検出し、それに従って、規則に基づいて、照明デバイス4a及び4bをオンに制御し(又は第1のレベルに減光され)、照明デバイス4cをオフに制御する(又は第2のレベルに減光される)。 4A and 4B show an example of rules that are defined by the light map 11 and that can be applied according to the process described above. In this example, there are three lighting devices 4a, 4b, 4c in the system, each in a different position around the user in the horizontal plane. The rule in the light map 11 is that any illumination device 4 detected in the user's FoV 26 (or other optically defined area relative to the user's cornea image 18, eg the central field of view or the entire cornea image) is turned on. Or any lighting device 4 detected outside this area is switched off or second lower than the first level is set to the first dimming level. Define that it should be dimmed to a level of. Suppose that the user 6 is currently pointing his gaze 24 so that the FoV 26 includes the lighting devices 4b and 4c but not the lighting device 4a. The control device 9 detects this from the cornea image and, based on the rules retrieved in the light map 11, controls on the lighting devices 4b and 4c accordingly (or is dimmed to the first level) and illumination. Control device 4a off (or dimmed to second level). The user then turns his line of sight 24 in a different direction, where FoV 26 includes lighting devices 4a and 4b but no longer includes lighting device 4c. The controller 9 detects this and accordingly controls the lighting devices 4a and 4b on (or dimmed to the first level) and controls the lighting device 4c off (or according to the rules) (or Dimmed to a second level).
同様のプロセスが、光の色を制御するためにも使用され得て、例えばFoV26内の任意の照明デバイス4が特定の色に設定され、FoV26外の任意の照明デバイスがオフに切り替えられる、又は特定の他の色に設定される。 A similar process can be used to control the color of the light, for example any lighting device 4 in the FoV 26 is set to a specific color and any lighting device outside the FoV 26 is switched off, or Set to a specific other color.
上では、照明デバイス4が、角膜像に対するそれらの位置(例えば、角膜像内のFoV内にある及び/又はFoVに影響を及ぼすか否か)に基づいて制御されるプロセスを述べてきた。しかし、他の代替又は追加の実施形態では、制御装置9は、角膜像内で反射されるシーンから検出される1つ又は複数の他の特性に基づいて照明デバイスを制御するように構成され得る。 Above, a process has been described in which the illumination devices 4 are controlled based on their position relative to the cornea image (eg whether or not they are within and / or affect the FoV in the cornea image). However, in other alternative or additional embodiments, the controller 9 may be configured to control the lighting device based on one or more other characteristics detected from the scene reflected in the cornea image. .
例えば、一実施形態では、角膜像は、任意のライトが点滅しているかどうか、従って減光されるべきであるかどうかを判断するために使用され得る。例えば、平均的又は代表的なユーザにとって光が不快又は有害にならない上限の閾値強度が設定され得て、制御装置9は、反射されたシーン内(又はシーン内の点)で任意の照明デバイス4を検出した場合に、閾値を超えている照明デバイス4を、閾値を超えなくなるまで減光するように作用するように構成され得る。 For example, in one embodiment, the cornea image can be used to determine if any light is blinking and therefore should be dimmed. For example, an upper threshold intensity that does not make the light unpleasant or harmful to the average or typical user can be set, and the controller 9 can be configured to use any lighting device 4 in the reflected scene (or point in the scene). Can be configured to act to dimm the lighting device 4 that exceeds the threshold until it does not exceed the threshold.
別の例では、新たな光設定は、角膜18から反射されたシーン内に存在するコントラストに基づいて自動的に導出され得る。この場合、制御装置9は、コントラスト(従ってグレア)が特定の特徴付けられたレベル未満に下がるまで、照明デバイスを適合させるように構成され得る。例えば、シーン内のコントラストを自動的に適合させるとき、シーン内の画像のコントラストが計算され得て、所定の最大コントラスト比から外れている照明デバイス4が識別され得る。次いで、シーンの全体のコントラスト比が減少されるように、域外の照明デバイスに関して新たな照明設定が計算され得る。従って、照明デバイスに関する新たな設定が、ユーザ6の角膜18で見える最大コントラストを制限するように自動的に計算される。 In another example, a new light setting may be automatically derived based on the contrast present in the scene reflected from the cornea 18. In this case, the controller 9 can be configured to adapt the lighting device until the contrast (and thus the glare) falls below a certain characterized level. For example, when automatically adapting the contrast in the scene, the contrast of the image in the scene can be calculated to identify lighting devices 4 that deviate from a predetermined maximum contrast ratio. New lighting settings can then be calculated for out-of-range lighting devices so that the overall contrast ratio of the scene is reduced. Accordingly, new settings for the lighting device are automatically calculated to limit the maximum contrast that can be seen in the cornea 18 of the user 6.
更に別の例では、新たな照光設定は、ユーザの角膜像又はFoVで検出された物体に関連付けられる光設定に従って計算され得る。例えば、ユーザ6は、ライトマップ11において、自分が関心を持っている特定の物体又は特定のタイプの物体を指定することがあり、制御装置9は、(画像認識アルゴリズムに基づいて)その物体がユーザの角膜18からの反射内で検出されるときに、照明デバイス4の1つ又は複数をオンに切り替える若しくは増光する、又はオフに切り替える若しくは減光するように構成される。例えば、この技法は、ユーザ6が探している紛失物を自動的に照光するため、又はユーザ6がテレビジョンを見ているときに室内照明を自動的に減光するために使用され得る。 In yet another example, a new illumination setting may be calculated according to the light setting associated with the user's cornea image or an object detected with FoV. For example, the user 6 may specify a specific object or a specific type of object that he / she is interested in in the light map 11, and the controller 9 may determine that the object (based on an image recognition algorithm) One or more of the lighting devices 4 are configured to be switched on or brightened, or switched off or dimmed when detected in reflection from the user's cornea 18. For example, this technique can be used to automatically illuminate lost items that the user 6 is looking for, or to automatically dimm room lighting when the user 6 is watching television.
複数のユーザの場合、照明デバイス4の設定において各ユーザの選好が考慮されるように、各ランプの設定を適合させるために調停アルゴリズムが使用され得る。従って、幾つかの実施形態では、制御装置9は、複数のユーザの角膜像に基づいて制御可能な照明デバイス4の1つ又は複数を識別し、上記制御可能な照明デバイスのうち、複数のユーザの角膜像に基づいて識別された制御可能な照明デバイスを自動的に制御するように調停を行うように構成され得る。 For multiple users, an arbitration algorithm can be used to adapt the settings of each lamp so that each user's preferences are taken into account in the settings of the lighting device 4. Therefore, in some embodiments, the controller 9 identifies one or more of the controllable lighting devices 4 based on the cornea images of the plurality of users, and the plurality of users among the controllable lighting devices. Arbitration may be configured to automatically control a controllable lighting device identified based on the corneal image of the subject.
例えば、そのような調停アルゴリズムは、以下の規則の任意の1つ又は複数に基づいて調停を行うように構成され得る。一実施形態では、調停アルゴリズムは、異なるユーザに関するマッチング選好が存在するかどうか決定することがある。例えば、2人のユーザが存在し、各ユーザが40%の減光レベルを好み、従ってこれが、設定される減光レベルである。幾つかの実施形態では、調停アルゴリズムは、異なるユーザに関して重なり合う選好範囲が存在するかどうか決定することができる。例えば、3人のユーザが存在し、第1のユーザは、30%〜60%の間の減光レベルを好み、第2のユーザは、40%〜80%の間の減光レベルを好み、第3のユーザは、50%〜100%の間の減光レベルを好み、従って、減光レベルは、50%〜60%の重畳範囲内で選択される。例えば、この範囲内での減光レベルの選択は、全3人のユーザの平均減光レベル選好に基づくことがある。更なる実施形態では、アルゴリズムは、互いに異なるユーザ選好の間で仲裁することがある。例えば、第1のユーザは、20%〜50%の間の減光レベルを好み、第2のユーザは、70%〜100%の間の減光レベルを好み、設定される減光レベルは、第1のユーザの上限と第2のユーザの下限との中間である。更なる実施形態では、アルゴリズムは、選好の相違を解消するためにユーザフィードバックをリクエストしてもよく、例えば、ユーザに、自分たちの選好を適応させるようにリクエストする。更なる実施形態では、アルゴリズムは、ランキングに基づいてユーザ選好に優先順位を付けてもよく、例えば、ホーム位置にいるユーザが、その位置でゲストであるユーザよりも優先権を有する。これらは、幾つかの例にすぎない。ユーザ選好は、減光レベル、光の色、照明される領域等に関するものでよい。 For example, such an arbitration algorithm may be configured to perform arbitration based on any one or more of the following rules: In one embodiment, the arbitration algorithm may determine whether there are matching preferences for different users. For example, there are two users and each user prefers a 40% dimming level, so this is the set dimming level. In some embodiments, the arbitration algorithm can determine whether there are overlapping preference ranges for different users. For example, there are three users, the first user likes a dimming level between 30% and 60%, the second user likes the dimming level between 40% and 80%, The third user prefers a dimming level between 50% and 100%, so the dimming level is selected within the overlap range of 50% to 60%. For example, the selection of the dimming level within this range may be based on the average dimming level preference of all three users. In further embodiments, the algorithm may arbitrate between different user preferences. For example, a first user prefers a dimming level between 20% and 50%, a second user prefers a dimming level between 70% and 100%, and the set dimming level is It is intermediate between the upper limit of the first user and the lower limit of the second user. In further embodiments, the algorithm may request user feedback to resolve the difference in preferences, for example, requesting users to adapt their preferences. In further embodiments, the algorithm may prioritize user preferences based on ranking, for example, a user at a home location has priority over a user who is a guest at that location. These are just a few examples. User preferences may relate to dimming levels, light colors, illuminated areas, and the like.
上記の実施形態は例として述べているにすぎないことを理解されたい。開示される実施形態に対する他の変形は、図面、本開示、及び添付の特許請求の範囲の検討から当業者によって理解され、特許請求される発明を実践する際に実施され得る。特許請求の範囲において、用語「備える」は、他の要素又はステップを除外せず、「1つの」は、複数を除外しない。単一のプロセッサ又は他のユニットが、特許請求の範囲に記載される幾つかの要素の機能を実現し得る。特定の手段が相互に異なる従属請求項に記載されていることだけでは、これらの手段の組合せが有利に使用され得ないことを示さない。コンピュータプログラムは、他のハードウェアと共に供給される、又は他のハードウェアの一部として供給される光記憶媒体やソリッドステート媒体等の適切な媒体に記憶/分散されてよいが、インターネット又は他の有線若しくは無線電気通信システムを介する形態等、他の形態で分散されてもよい。特許請求の範囲内の任意の参照符号は、範囲を限定するものとみなされるべきではない。 It should be understood that the above embodiments are described by way of example only. Other variations to the disclosed embodiments will be understood by those skilled in the art from consideration of the drawings, the present disclosure, and the appended claims, and may be implemented in practicing the claimed invention. In the claims, the term “comprising” does not exclude other elements or steps, and “a” does not exclude a plurality. A single processor or other unit may fulfill the functions of several elements recited in the claims. The mere fact that certain measures are recited in mutually different dependent claims does not indicate that a combination of these measured cannot be used to advantage. The computer program may be stored / distributed on a suitable medium, such as an optical storage medium or solid state medium supplied with other hardware or supplied as part of other hardware, such as the Internet or other It may be distributed in other forms such as via a wired or wireless telecommunication system. Any reference signs in the claims should not be construed as limiting the scope.
Claims (15)
カメラによって捕捉される、ユーザの少なくとも1つの角膜の少なくとも一部から前記カメラに反射された光によって形成される角膜像を取得することと、
前記照明デバイスのどれが角膜像内に現れているか及び/又は影響を及ぼすかに基づいて、前記照明デバイスの1つ又は複数の前記それぞれの設定に対する更新を自動的に決定することと、
前記更新に従って前記1つ又は複数の照明デバイスを制御することと、
前記ユーザが移動して前記角膜像が変化するときに、前記取得、決定、及び制御を繰り返して、前記照明デバイスの前記設定を動的に適合させることと
を行う、制御装置。 A control device for controlling a plurality of lighting devices to emit light, each lighting device being dependent on at least one respective setting, said control device comprising:
Obtaining a cornea image formed by light reflected by the camera from at least a portion of at least one cornea of a user captured by the camera;
Automatically determining updates to one or more of the respective settings of the lighting device based on which of the lighting devices appear in and / or affect the cornea image;
Controlling the one or more lighting devices according to the update;
When the user moves and the corneal image changes, the acquisition, determination, and control are repeated to dynamically adapt the settings of the lighting device.
角膜像に対する前記1つ又は複数の照明デバイスの位置に基づいて、前記それぞれの設定に対する前記更新を自動的に決定すること
を含む、請求項1に記載の制御装置。 Said decision
The controller of claim 1, comprising automatically determining the update for the respective setting based on a position of the one or more lighting devices relative to a cornea image.
前記1つ又は複数の照明デバイスが直接的に前記角膜像内に現れているかどうかに依存して、前記1つ又は複数の照明デバイスの前記それぞれの設定に対する前記更新を自動的に決定すること
を含む、請求項2に記載の制御装置。 The position-dependent decision is
Automatically determining the update for the respective settings of the one or more lighting devices depending on whether the one or more lighting devices appear directly in the cornea image. The control apparatus of Claim 2 containing.
前記1つ又は複数の照明デバイスが間接的に前記角膜像を形成する光に寄与しているかどうかに依存して、前記1つ又は複数の照明デバイスの前記それぞれの設定に対する前記更新を自動的に決定すること
を含む、請求項2又は3に記載の制御装置。 The position-dependent decision is
Depending on whether the one or more lighting devices indirectly contribute to the light that forms the cornea image, the update to the respective settings of the one or more lighting devices is automatically performed. The control device according to claim 2, comprising determining.
前記視野内に現れているかどうかに依存して、及び/又は前記1つ又は複数の照明デバイスが前記視野内の光に寄与しているかどうかに依存して、前記1つ又は複数の照明デバイスの前記それぞれの設定に対する前記更新を自動的に決定すること
を含む、請求項2乃至4の何れか一項に記載の制御装置。 The controller determines the field of view of the user in the cornea image, and the position dependent determination
Depending on whether it appears in the field of view and / or depending on whether the one or more lighting devices contribute to light in the field of view. The control device according to any one of claims 2 to 4, comprising automatically determining the update for each of the settings.
前記中心領域内に現れているかどうかに依存して、及び/又は前記1つ又は複数の照明デバイスが前記中心領域内の光に寄与しているかどうかに依存して、前記1つ又は複数の照明デバイスの前記それぞれの設定に対する前記更新を自動的に決定すること
を含む、請求項5に記載の制御装置。 The user's field of view comprises a central region and a peripheral region, and the position-dependent determination is
The one or more illuminations depending on whether they appear in the central region and / or depending on whether the one or more lighting devices contribute to light in the central region. 6. The controller of claim 5, comprising automatically determining the update for the respective setting of a device.
前記周辺領域内に現れているかどうかに依存して、及び/又は前記1つ又は複数の照明デバイスが前記周辺領域内の前記光に寄与しているかどうかに依存して、前記1つ又は複数の照明デバイスの前記それぞれの設定に対する前記更新を自動的に決定すること
を含む、請求項5に記載の制御装置。 The user's field of view comprises a central region and a peripheral region, and the position-dependent determination is
Depending on whether it appears in the peripheral area and / or depending on whether the one or more lighting devices contribute to the light in the peripheral area, the one or more 6. The controller of claim 5, comprising automatically determining the update for the respective setting of a lighting device.
前記角膜像、視野、又は中心領域内の任意の照明デバイスをオン又は第1の光出力レベルに設定し、前記角膜像、視野、又は中心領域外の任意の照明デバイスをオフ又は前記第1の光出力レベルよりも低い第2の光出力レベルに設定すること
を含む、請求項3乃至7の何れか一項に記載の制御装置。 The update
Any illumination device in the cornea image, field of view, or central region is set to on or a first light output level, and any illumination device outside the cornea image, field of view, or center region is turned off or the first The control device according to any one of claims 3 to 7, comprising setting a second light output level lower than the light output level.
所定の物体が前記角膜像、視野、若しくは中心領域内に現れたことの検出に応答して、前記更新を自動的に決定すること、
前記角膜像、視野、若しくは中心領域で測定されたコントラストの尺度に基づいて、前記更新を自動的に決定すること、及び/又は
前記角膜像、視野、若しくは中心領域での強度が閾値を超えたことの検出に応答して、1つ若しくは複数の照明デバイスの強度を自動的に減少させること
の1つ又は複数を含む、請求項1乃至9の何れか一項に記載の制御装置。 Said decision
Automatically determining the update in response to detecting that a predetermined object has appeared in the cornea image, field of view, or central region;
Automatically determining the update based on a measure of contrast measured in the cornea image, field of view, or central region, and / or intensity in the cornea image, field of view, or central region exceeds a threshold 10. The controller of any one of the preceding claims, comprising one or more of automatically reducing the intensity of one or more lighting devices in response to detecting this.
適用されるべき前記更新が、前記1つ又は複数の予め設定された照明制御規則に従って決定される、請求項1乃至10の何れか一項に記載の制御装置。 The controller reads one or more preset lighting control rules from a database, the lighting control rules being preset by a user;
11. A control device according to any one of the preceding claims, wherein the update to be applied is determined according to the one or more preset lighting control rules.
前記それぞれの光源によって放出される符号化光信号、
前記それぞれの光源のスペクトル、及び/又は
前記それぞれの光源の位置
の1つ又は複数に基づいて、前記1つ又は複数の光源それぞれを識別する、請求項1乃至11の何れか一項に記載の制御装置。 The control device is
Encoded optical signals emitted by the respective light sources,
12. Each of the one or more light sources is identified based on one or more of the respective light source spectrum and / or the location of the respective light source. Control device.
カメラによって捕捉される、ユーザの少なくとも1つの角膜の少なくとも一部から前記カメラに反射された光によって形成される角膜像を取得することと、
前記照明デバイスのどれが前記角膜像内に現れているか及び/又は影響を及ぼすかに基づいて、前記照明デバイスのうちの1つ又は複数の前記それぞれの設定に対する更新を自動的に決定することと、
前記更新に従って前記照明デバイスのうちの前記1つ又は複数を制御することと、
前記ユーザが移動して前記角膜像が変化するときに、前記取得、決定、及び制御を繰り返して、前記照明デバイスの前記設定を動的に適合させることと
を行う、方法。 A method for controlling a plurality of lighting devices to emit light, wherein each lighting device depends on at least one respective setting, and the controller comprises:
Obtaining a cornea image formed by light reflected by the camera from at least a portion of at least one cornea of a user captured by the camera;
Automatically determining updates to the respective settings of one or more of the lighting devices based on which of the lighting devices appear in and / or affect the cornea image; ,
Controlling the one or more of the lighting devices according to the update;
Repetitively acquiring, determining, and controlling to dynamically adapt the settings of the lighting device as the user moves and the corneal image changes.
カメラによって捕捉される、ユーザの少なくとも1つの角膜の少なくとも一部から前記カメラに反射された光によって形成される角膜像を受信することと、
照明デバイスのどれが角膜像内に現れているか及び/又は影響を及ぼすかに基づいて、前記照明デバイスの1つ又は複数の前記それぞれの設定に対する更新を自動的に決定することと、
前記更新に従って前記1つ又は複数の照明デバイスを制御することと、
前記角膜像が変化するように前記ユーザが移動するときに、前記取得、決定、及び制御を繰り返して、前記照明デバイスの前記設定を動的に適合させることと
を行う、コンピュータプログラム。 A computer program for controlling a plurality of lighting devices to emit light, each lighting device depending on at least one respective setting, said computer program comprising code, one code Or embodied in a plurality of computer-readable storage media and executed on one or more processors,
Receiving a cornea image formed by light reflected by the camera from at least a portion of at least one cornea of a user captured by the camera;
Automatically determining an update to one or more of the respective settings of the lighting device based on which of the lighting devices appear in and / or affect the cornea image;
Controlling the one or more lighting devices according to the update;
A computer program that, when the user moves such that the cornea image changes, repeats the acquisition, determination, and control to dynamically adapt the settings of the lighting device.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14186322.5 | 2014-09-25 | ||
EP14186322 | 2014-09-25 | ||
PCT/EP2015/069847 WO2016045911A1 (en) | 2014-09-25 | 2015-08-31 | Control of lighting. |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017528888A true JP2017528888A (en) | 2017-09-28 |
JP2017528888A5 JP2017528888A5 (en) | 2018-09-27 |
Family
ID=51589204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017515882A Ceased JP2017528888A (en) | 2014-09-25 | 2015-08-31 | Lighting control |
Country Status (5)
Country | Link |
---|---|
US (1) | US9942966B2 (en) |
EP (1) | EP3198992B8 (en) |
JP (1) | JP2017528888A (en) |
CN (1) | CN106716305A (en) |
WO (1) | WO2016045911A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6406088B2 (en) * | 2015-03-25 | 2018-10-17 | 株式会社デンソー | Operation system |
JP6655810B2 (en) * | 2015-08-21 | 2020-02-26 | パナソニックIpマネジメント株式会社 | Lighting control system and lighting control device used therein |
CN105934028B (en) * | 2016-05-25 | 2017-11-10 | 北京易迈医疗科技有限公司 | A kind of adaptive illumination adjustments system and medical helmet |
US10191140B2 (en) * | 2017-06-01 | 2019-01-29 | Osram Sylvania Inc. | Luminaire identification and positioning by constellation |
FI20175960A1 (en) * | 2017-10-30 | 2019-05-01 | Univ Of Eastern Finland | Method and apparatus for gaze detection |
CN108762511B (en) * | 2018-06-14 | 2020-08-25 | 北京七鑫易维信息技术有限公司 | Light source control method and device |
US12010779B2 (en) * | 2019-02-14 | 2024-06-11 | Signify Holding, B.V. | Improving automation rules by determining a relationship between events and control commands |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07159317A (en) * | 1993-12-06 | 1995-06-23 | Nissan Motor Co Ltd | Line of sight direction detection apparatus for vehicle |
JP2013008453A (en) * | 2011-06-22 | 2013-01-10 | Panasonic Corp | Lighting system |
WO2013064801A1 (en) * | 2011-11-05 | 2013-05-10 | Optovate Limited | Illumination system |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3203951B2 (en) * | 1993-08-04 | 2001-09-04 | 日産自動車株式会社 | Vehicle interface |
EP0865637A4 (en) | 1995-12-04 | 1999-08-18 | Sarnoff David Res Center | Wide field of view/narrow field of view recognition system and method |
US7963652B2 (en) | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
WO2010003410A1 (en) * | 2008-07-08 | 2010-01-14 | It-University Of Copenhagen | Eye gaze tracking |
EP2238889B1 (en) * | 2009-04-01 | 2011-10-12 | Tobii Technology AB | Adaptive camera and illuminator eyetracker |
JP5802655B2 (en) * | 2009-05-14 | 2015-10-28 | コーニンクレッカ フィリップス エヌ ヴェ | Method for controlling illumination, illumination system, image processing apparatus and computer program |
US8890946B2 (en) * | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8300036B2 (en) | 2010-06-29 | 2012-10-30 | Bank Of America Corporation | Method and apparatus for reducing glare and/or increasing privacy of a self-service device |
EP2498583B1 (en) * | 2011-03-07 | 2017-05-03 | Zedel | LED lamp provided with a safety device |
EP2583618B1 (en) * | 2011-10-22 | 2017-12-06 | Alcon Pharmaceuticals Ltd. | Apparatus for monitoring one or more parameters of the eye |
JP6303297B2 (en) * | 2013-06-14 | 2018-04-04 | 富士通株式会社 | Terminal device, gaze detection program, and gaze detection method |
US9781360B2 (en) * | 2013-09-24 | 2017-10-03 | Sony Interactive Entertainment Inc. | Gaze tracking variations using selective illumination |
US9736373B2 (en) * | 2013-10-25 | 2017-08-15 | Intel Corporation | Dynamic optimization of light source power |
-
2015
- 2015-08-31 EP EP15763511.1A patent/EP3198992B8/en not_active Not-in-force
- 2015-08-31 JP JP2017515882A patent/JP2017528888A/en not_active Ceased
- 2015-08-31 CN CN201580052133.6A patent/CN106716305A/en active Pending
- 2015-08-31 WO PCT/EP2015/069847 patent/WO2016045911A1/en active Application Filing
- 2015-08-31 US US15/512,568 patent/US9942966B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07159317A (en) * | 1993-12-06 | 1995-06-23 | Nissan Motor Co Ltd | Line of sight direction detection apparatus for vehicle |
JP2013008453A (en) * | 2011-06-22 | 2013-01-10 | Panasonic Corp | Lighting system |
WO2013064801A1 (en) * | 2011-11-05 | 2013-05-10 | Optovate Limited | Illumination system |
Also Published As
Publication number | Publication date |
---|---|
US9942966B2 (en) | 2018-04-10 |
EP3198992A1 (en) | 2017-08-02 |
EP3198992B8 (en) | 2019-04-10 |
US20170231063A1 (en) | 2017-08-10 |
CN106716305A (en) | 2017-05-24 |
EP3198992B1 (en) | 2019-02-27 |
WO2016045911A1 (en) | 2016-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9942966B2 (en) | Control of lighting | |
JP6692799B2 (en) | Lighting control | |
JP6736543B2 (en) | Lighting preference mediation | |
RU2729045C2 (en) | Adaptive lighting system for mirror component and method for controlling adaptive lighting system | |
JP5802655B2 (en) | Method for controlling illumination, illumination system, image processing apparatus and computer program | |
US9137449B2 (en) | Luminance estimation model generation device, image sensor device, and computer program product | |
JP6445025B2 (en) | Gesture control | |
JP2014017114A (en) | Illumination system | |
US11206728B2 (en) | Lighting control | |
US20140015417A1 (en) | Lighting control system | |
EP3529788B1 (en) | Presence detection system and method | |
JP6827589B2 (en) | Attention Memorize the light state preference of the light source according to the shift | |
EP4435511A1 (en) | Imaging apparatus | |
ES2939368T3 (en) | Selection of a destination for a sensor signal based on an active lighting configuration | |
KR20240104884A (en) | Method for controlling lights based on facial emotion recognition | |
JP2024118768A (en) | Lighting Control System | |
WO2022090149A2 (en) | Luminaire and system for providing lighting to a working environment of a person |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20180524 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180810 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190911 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191217 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20200624 |