JP2021153073A - 照明空間を特性評価するための検知照明システム及び方法 - Google Patents

照明空間を特性評価するための検知照明システム及び方法 Download PDF

Info

Publication number
JP2021153073A
JP2021153073A JP2021110771A JP2021110771A JP2021153073A JP 2021153073 A JP2021153073 A JP 2021153073A JP 2021110771 A JP2021110771 A JP 2021110771A JP 2021110771 A JP2021110771 A JP 2021110771A JP 2021153073 A JP2021153073 A JP 2021153073A
Authority
JP
Japan
Prior art keywords
space
light
array
light source
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021110771A
Other languages
English (en)
Other versions
JP7462231B2 (ja
Inventor
エフ.カーリセック ロバート
F Karlicek Robert
エフ.カーリセック ロバート
ジェイ.ラドク リチャード
J Radke Richard
ジェイ.ラドク リチャード
ディー.シー.リトル トーマス
D C Little Thomas
ディー.シー.リトル トーマス
エム.ブターラ パンキル
M Butala Pankil
エム.ブターラ パンキル
ジア リー
Li Jia
ジア リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boston University
Rensselaer Polytechnic Institute
Original Assignee
Boston University
Rensselaer Polytechnic Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston University, Rensselaer Polytechnic Institute filed Critical Boston University
Publication of JP2021153073A publication Critical patent/JP2021153073A/ja
Application granted granted Critical
Publication of JP7462231B2 publication Critical patent/JP7462231B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B45/00Circuit arrangements for operating light-emitting diodes [LED]
    • H05B45/10Controlling the intensity of the light
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B45/00Circuit arrangements for operating light-emitting diodes [LED]
    • H05B45/30Driver circuits
    • H05B45/357Driver circuits specially adapted for retrofit LED light sources
    • H05B45/3578Emulating the electrical or functional characteristics of discharge lamps
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

【課題】照明のために空間を特性評価するための照明システム及び方法を提供する。【解決手段】本明細書には、変調パターンによってエンコードされた光を放射するLED光源のアレイと、センサのアレイと、空間特性評価ユニットと、を含む照明システムが開示されている。センサのアレイは、物体によって散乱した放射光を受光する。各センサは、変調パターンを使用して、対応する光源と物体との間の距離を求める。空間特性評価ユニットは、各センサからの距離を使用して、物体の存在を示す高度マップを生成する。高度マップは、カラーマップを含み、センサのうちの少なくとも一つは、カラーマップによって提供される追加情報を用いて少なくとも一つの物体(121,122)のスペクトル反射率の差を補償することによって、距離を求める機能の分解能を改善する、ようにさらに構成される。【選択図】図1

Description

本発明は、照明のために空間を特性評価するための照明システム及び方法に関する。
照明は、現在、全電気エネルギーの約19%を消費し、多くの商業空間は、一般的なオフィスビルの電気エネルギー消費量の最大で40%を消費し得る。照明システムによって消費される電気エネルギーは、高度照明制御システムの使用によって、35%以上低減することができるが、これらのシステムは、短期的な変化(個人的な照明ニーズ)と長期的な変化(インテリアの再設計)との両方に適切に適合するために、頻繁な較正が必要となるため、めったに使用されない。生成された光によって照明される空間又は物体を光源から見えないことがあるので、赤外線運動センサ及び超音波センサに基づく現在の照明制御は、照明制御においてあまり役に立たない可能性があり、また、照明システムそれ自体が死角となる可能性もある。現在のいくつかのやり方は、カメラシステムを使用して、照明されるべきものと時期との検知力を照明システムに提供することができる。しかしながら、カメラシステムと関連したプライバシに対する懸念が生じる可能性がある。また、適応照明制御のための現在のやり方は、大量のビデオ情報の処理によって、不必要な複雑さを引き起こす可能性がある。
本発明の一観点によれば、照明のために空間を特性評価するための照明システム及び方法が提供される。照明システムは、照明のために空間内に配置された発光ダイオード(Light Emitting Diode:LED)光源のアレイと、LED光源のアレイに近接するセンサのアレイと、空間特性評価ユニットとを含む。各光源は、所定の変調パターンでエンコードされた光を空間内に放射するように構成されている。複数のLED光源からの放射光は、空間内の少なくとも一つの物体によって散乱される。センサのアレイは、空間内の少なくとも一つの物体から散乱された光を受光するように構成されている。各センサは、受光した散乱光中の所定の変調パターンの検出に基づいて、対応する光源と少なくとも一つの物体との間の距離を測定するように構成されている。空間特性評価ユニットは、各センサから距離を受信し、かつ空間の高度マップを生成するように構成されている。高度マップは、空間内の少なくとも一つの物体の存在を示す。
照明空間を特性評価するための例示的な照明システムの機能ブロック図を示す。 空間内における物体までの距離の測定を図示する照明空間内の例示的な照明システムの斜視図を示す。 照明空間を特性評価する例示的な方法を示すフローチャートである。 高度マップに基づいて照明空間を特性評価するための例示的な方法を示すフローチャートである。 オフィス環境の画像例である。 本発明の一実施形態に係る、図5Aに示されるオフィス環境の飛行時間(ToF)画像例である。 本発明の一実施形態に係る、図5Bに示されるToF画像から求められた高度マップ例である。 本発明の一実施形態に係る、様々な複数の人間の環境について、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、様々な複数の人間の環境について、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、様々な複数の人間の環境について、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、様々な複数の人間の環境について、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、様々な複数の人間の環境について、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、様々なセンサ間隔の図7Cに示される高度マップについて、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、様々なセンサ間隔の図7Cに示される高度マップについて、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、様々なセンサ間隔の図7Cに示される高度マップについて、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、様々なセンサ間隔の図7Cに示される高度マップについて、検出物体を含む高度マップ例である。 本発明の一実施形態に係る、実際のオフィス環境の高度マップについて、センサ間隔の関数としての誤り率及び平均誤差のグラフ例である。 本発明の一実施形態に係る、実際のオフィス環境の高度マップについて、センサ間隔の関数としての誤り率及び平均誤差のグラフ例である。 本発明の一実施形態に係る、シミュレートされたオフィス環境の高度マップについて、センサ間隔の関数としての誤り率及び平均誤差のグラフ例である。 本発明の一実施形態に係る、シミュレートされたオフィス環境の高度マップについて、センサ間隔の関数としての誤り率及び平均誤差のグラフ例である。
[関連出願に対する相互参照]
本出願は、2012年4月20日付けで出願されたSENSORY LIGHTING SYSTEMと称される米国仮特許出願第61/687,239号に関連し、且つ、この利益を主張するものであり、この特許文献の内容は、引用によって本明細書に援用される。
[連邦政府による資金提供を受けた研究開発の記載]
本発明は、全米科学財団からの助成(助成番号:第EEC−0812056号)によって部分的に、且つ、NYSTARからの助成(助成番号:第C090145号)によって部分的に、資金援助されたものである。米国政府は、本発明に対する特定の権利を有している。
照明空間を特性評価するための方法と、LED光源のアレイを含む照明システムとについて説明する。
本発明の態様は、照明のために空間を特性評価するための例示的な方法と、例示的な照明システムとを含んでいる。照明システムは、所与の容積の空間を照明することに加えて、時間変調データ信号(即ち、所定の変調パターン)で照明をエンコードする光源のアレイを含み、また、照明システム全体に亘って広く分離して分布した低画素数の光センサ網を包含している。照明システムは、屋内照明又は屋外照明のために使用されればよい。センサは、所与の光源からの(時間変調データ信号を含む)放射と、データ信号を含む光の一部の戻りとの間の時間を測定すればよい。光の戻り部分は、光源のアレイによって照明されている空間内の物体の一又は複数の表面から散乱されたものであればよい。この測定処理は、一般的に飛行時間(Time-of-Flight:ToF)と呼ばれ、照明システムは、この測定処理を使用して、照明空間内の有生物及び無生物の高度マップを生成することができる。照明システムは、高度マップに基づいて、照明空間の特性を特定することができる。特性は、例えば、照明空間のプロファイルの変化を監視及び検出するために、使用されればよい。特性は、例えば、(例えばエネルギー節約等のための)照明制御、占有者の監視、安全機能、及びセキュリティ機能のために、使用されてもよい。
図1を参照すれば、例示的な照明システム100の機能ブロック図が示されている。照明システム100は、LED光源のアレイ101(本明細書ではアレイ101と呼ばれる)と、センサのアレイ102(本明細書ではセンサアレイ102と呼ばれる)と、空間特性評価ユニット103と、照明コントローラ104と、ストレージ105とを含めばよい。照明システム100は、任意のユーザインタフェイス106及び任意のディスプレイ107のうちの一又は複数を含んでもよい。アレイ101、センサアレイ102、空間特性評価ユニット103、照明コントローラ104、ストレージ105、任意選択のユーザインタフェイス106、及び/又は任意のディスプレイ107は、データバス及び制御バス(図示せず)を介して接続されればよい。
アレイ101は、空間内に配置された複数のLED光源114(図2)を含み、空間(本明細書では照明空間とも呼ばれる)を照明する。例えば、図2は、照明空間120を均一に照明するべく、照明空間120の天井に近接して二次元アレイとして均一に配置された光源114を図示している。図2においては、光源114が均一な二次元アレイ状に配置されるように図示されているが、光源114は、不均一なアレイ状に配置されてもよく、また、アレイは、一次元のアレイ又は三次元のアレイであってもよいことを理解されたい。光源114の配置は、照明空間の物理的特性と、所望の照明特性とによることが理解されよう。一般には、照明空間を照明するべく、光源114を任意の適切な間隔で分離することができる。光源114は、例えば、約60cmと約2mとの間で、限定されることなく、離隔されればよい。
光源114は、少なくとも一つの所望の波長の光を放射可能な任意の適切なダイオードを含んでもよい。光源114は、本明細書において、発光ダイオードに関して記載されているが、光源114は、半導体レーザーダイオードを含んでもよい。一実施形態によれば、光源114からの放射光の波長は、照明空間を特性評価するべく、対応するセンサ108によって直接的に使用されればよい。別の実施形態によれば、少なくとも一つの光源114が有する波長の一部は、例えば、蛍光体変換を使用して、少なくとも一つの他の波長に変換されてもよい。蛍光体によって放射される一又は複数の波長は、対応するセンサ108によって使用されればよい。
光源114は、公称上均一に空間を照明するように設計されたスポット光源又はフラッド光源を含めばよい。例示的な一実施形態において、各光源114は、比較的狭い視野(即ち、光が集光される立体角)を持つ単一の下向きのカラーセンサ108又は距離センサ108とペア化されて、光源114によって照明された物体からの(例えば、図2の人間121及び無生物122等からの)散乱光を集光すればよい。
別の例示的な実施形態によれば、光源114は、LEDを基礎にした照明灯を含んでもよい。本明細書で使用される照明灯は、蛍光灯器具の光学性能を模倣する任意のLED器具設計である。スポット光源又はフラッド光源のアレイと同様に、照明灯は、下向きの高速センサ108を包含又は近接すればよい。
アレイ101内の光源114は、照明コントローラ104を介して所定の変調パターンによって変調されるように構成されればよい。また、アレイ101内の個々の光源114の動作(例えばオン/オフ動作や光強度動作等)は、照明コントローラ104によって制御されればよい。このように、アレイ101は、照明空間を照明するために光を放射し、且つ放射光を変調することができる。例えば、所定の変調パターンは、直交グレーコードを使用して生成されたオン及びオフパターン(又は他の任意の適切な直交パターン)の時間系列を含めばよい。別の例としては、出力光束(光の強度)を所望の周波数で二段階に切り替えてもよい。更なる例としては、出力光束を所定の周波数のスケーリングされたコサイン信号によって変調し、正弦波パターンを生成してもよい。一般には、経時的な平均光束によって照度を提供することができる。変調周波数によって、明確に測定可能な距離の範囲を決定することができる。放射パターンと、センサ108によって収集される散乱(反射)パターンとの間の往復に起因する位相シフトによって、距離の測定基準を提供することができる。
例示的な一実施形態によれば、各光源114は、(個々の光源114に関連するセンサ108が、対応する所定の変調パターンを検出するように)異なる所定の変調パターンによって変調されればよい。別の例示的な実施形態によれば、複数の光源114は、同一の所定の変調パターンによって変調されてもよい。例えば、(部屋の向側等に)互いに十分に離れている光源114は、同一のパターンによって変調されればよい。
例示的な一実施形態によれば、光源114は、可視スペクトル内の波長を放射する単色のLED光源を含んでもよく、この場合、波長は、限定されることなく、約400nmと約800nmとの間である。別の実施形態によれば、光源114は、紫外線(UltraViolet:UV)LED光源又は赤外線(Infrared:IR)光源のうちの少なくとも一つを含んでもよい。従って、光源114は、限定されることなく、約220nmと約1600nmとの間の波長を有すればよい。
別の例示的な実施形態によれば、光源114は、多色光源(即ち、多色の光源)を含んでもよい。例えば、典型的には、三つの波長を使用して白色光を生成する。波長は、約470nm(即ち、青)と、約525nm(即ち、緑)と、約620nm(即ち、赤)とを含んでもよく、最大で約±20nmの偏差を持つ。より完全なスペクトル照射のために、約585nm(即ち、黄)、約420nm(即ち、深青)、約650nm(即ち、深赤)、約500nm(即ち、シアン)、及び/又は約550nm(即ち、深緑)を、限定されることなく含む追加の波長が加えられてもよい。
例えば、多色光源は、異なる波長を有する複数の単色LEDを含んでもよい。光源内の個々の色は、照明コントローラ104を介して独立して変調されればよい。この実施形態においては、(それぞれ単色光源のうちの一又は複数の光源の変調信号を追跡可能な)一又は複数のセンサ108を使用して、照明空間の粗い3D地形カラーマップを生成すればよい。カラーマッピングによって提供される追加情報は、光を散乱させてセンサ108に戻す物体のスペクトル反射率の差を補償することによって、(センサアレイ102による)ToF距離マッピング機能の分解能を改善することができる。従って、(センサアレイ102による)検知のために個々の波長を変調することによって、照明システム100は、色による改善された空間分解能を提供することになる。
センサアレイ102は、アレイ101の光源114(図2)に対応した複数のセンサ108を含んでもよい。センサ108は、光源114の一部として形成されてもよく、また、光源114に近接して配置されてもよい。
例示的な一実施形態によれば、アレイ101内の各光源114は、対応するセンサ108とペア化されればよい。別の実施形態によれば、光源114の一部は、(図2に示されるように)対応するセンサ108とペア化される一方で、アレイ101内の他の光源114は、変調されなくてもよい。更に別の実施形態によれば、複数の光源114が、対応する一のセンサ108とペア化されてもよい。例えば、更に後述されるように、同一の所定の変調パターンを有する二つの光源114が、センサ108とペア化されればよい。
センサアレイ102内のセンサ108の間隔は、(更に後述する)高度マップの所望の解像度に応じて選択されてもよいことが理解されよう。例えば、センサの間隔は、空間内の物体の存在を示し得るが空間内の物体に関する詳細(例えば人間の特定等)を含み得ない低減された解像度のマップを提供するように、選択されてもよい。低減された解像度は、高度マップによってキャプチャされる個人のプライバシを保護するために好ましい可能性がある。例示的な一実施形態において、センサの間隔は、約10cmと約60cmとの間を、限定されることなく、含んでいる。例示的な一実施形態によれば、センサの間隔の最適な範囲は、動作のための最小解像度(即ち、空間内の物体の存在を示す能力)に対するプライバシの検討に基づいて、決定されればよい。
検出器108は、ToF検出器109と、距離計算器110とを含めばよい。ToF検出器109は、放射光が対応する光源114から物体(例えば図2における人間121等)まで移動してセンサ108に戻るまでにかかる時間を測定すればよい。例えば、図2は、空間120内のセンサ108と物体(例えば人間121及び無生物122等)との間のToF光線115を図示している。ToF光線の持続時間は、空間120内の光源114と物体との間の距離に関係している。図2において、センサ108は、実質的に光源114と同一の場所にあると仮定されている。ToFは、光源114とセンサ108との場所の間の差を調節することができることを理解されたい。
例示的な一実施形態によれば、ToF検出器109は、ToFを測定すべく、低画素数(例えば、約3×3画素〜約200×200画素)の画像センサを含めばよい。例えば、ToF検出器109は、所定の変調パターンの角度及び/又は時間の特徴(例えばパターンの位相シフト等)を分解して、ToFを求めればよい。
距離計算器110は、ToF検出器109からToF測定値を受信して、光源114から物体(例えば人間121等)までの距離を測定すればよい。距離は、例えば、放射光の往復によって求められてもよい。
所定の変調パターンは、照明空間の特性評価のために、アレイ101によって定期的に、連続的に、又は任意の期間に亘って放射されればよい。センサアレイ102は、必要に応じて、ToF測定値を所定の変調パターンの放射に同期させるように、照明コントローラ104によって制御されてもよい。別の実施形態によれば、センサアレイ102とアレイ101とは(照明コントローラ104を介して)、クロック生成器(図示せず)からのクロック信号によって同期化されてもよい。
空間特性評価ユニット103は、距離情報をセンサアレイ102の各センサ108から受信して、照明空間を示す特性評価出力を生成すればよい。特性評価出力を使用して、照明コントローラ104を介してアレイ101による照明を制御してもよい。また、特性評価出力は、任意のディスプレイ107上で示されてもよく、また、例えば、グローバルネットワーク(即ち、インターネット)を介して遠隔地に送信されてもよい。また、空間特性評価ユニットは、特性評価をセンサアレイ102から離れた場所で行えるように、センサアレイ102に遠隔接続されてもよいことを理解されたい。
空間特性評価ユニット103は、高度マップ生成器111と、物体検出器112と、空間プロファイル生成器113とを含めばよい。高度マップ生成器111は、距離情報をセンサアレイ102から受信して、照明空間の高度マップを生成すればよい。高度マップは、照明空間内の一又は複数の物体の存在を示せばよい。高度マップ生成器111については、図3及び図4と関連して更に後述する。
物体検出器112は、高度マップ生成器111から高度マップを受信して、高度マップが一又は複数の物体を含んでいるか否かを求めればよい。また、物体検出器112は、物体の場所、物体が有生物又は無生物のいずれであるか、物体の動作、又は物体のポーズ(例えば直立又は着座等)のうちの少なくとも一つを求めてもよい。物体検出器112については、図4と関連して更に後述する。
空間プロファイル生成器113は、物体検出器112から物体情報を受信して、照明空間のプロファイルを更新すればよい。例えば、照明空間内の新しい人間の検出又は部屋内の有生物の非検出に起因して、プロファイルが更新されればよい。加えて、プロファイルの変化は、例えば任意のディスプレイ107等への特性評価の出力を引き起こしてもよい。例えば、以前は占有されていなかった照明空間内で人間が検出された場合には、(例えばセキュリティの目的のため等に)警報を任意のディスプレイ107に供給してもよい。
空間特性評価ユニット103は、アレイ101と、センサアレイ102と、照明コントローラ104と、任意のユーザインタフェイス106と、任意のディスプレイ107とのうちの一又は複数の動作を制御するように構成されればよい。あるいは、別個のコントローラ(図示されてはいない)を使用して、照明システム100の構成要素の動作を制御してもよい。空間特性評価ユニット103は、例えば、論理回路、デジタル信号プロセッサ、マイクロコントローラ、又はマイクロプロセッサを含んでもよい。
照明システム100は、ストレージ105を含んでもよい。ストレージ105は、アレイ101、センサアレイ102、空間特性評価ユニット103、照明コントローラ104、任意のユーザインタフェイス106、及び/又は任意のディスプレイ107のための一又は複数の値を保存すればよい。例えば、ストレージ105は、照明コントローラ104のための所定の変調パターン、センサアレイ102によって測定された距離、高度マップ、検出物体情報、及び/又はプロファイル情報を保存すればよい。ストレージ105は、例えば、ランダムアクセスメモリ(Random Access Memory:RAM)、磁気ディスク、光ディスク、フラッシュメモリ、又はハードドライブを含めばよい。
照明システム100は、照明装置100を動作させるために、ポインティング装置、キーボード、及び/又は表示装置等の任意のユーザインタフェイス106を含めばよい。任意のディスプレイ107は、高度マップ、検出物体、プロファイル情報、又は特性評価情報のうちの少なくとも一つを提示可能な任意の適切な表示装置を含めばよい。任意のユーザインタフェイス106と任意のディスプレイ107とは、別個の装置として図示されているが、任意のユーザインタフェイス106と任意のディスプレイ107との機能は、一の装置内に兼ね備えられてもよいことを理解されたい。
アレイ101と、センサアレイ102と、空間特性評価ユニット103と、照明コントローラ104と、ストレージ105と、任意のユーザインタフェイス106と、任意のディスプレイ107とのうちの一又は複数の構成要素は、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組合せによって実現されてもよいことを理解されたい。
図1及び図2を参照すると、動作中、光源114は、所定の変調パターンによって放射光を変調してもよく、ペアセンサ108は、(ToF光線115によって示される)透過光が光源114からセンサ108に戻るまでの時間を測定すればよい。センサ108の距離計算器110は、ToF測定値に基づいて、光源によって放射された光子による横断距離を計算すればよい。この距離情報は、光源114とセンサ108との組合せの全てから空間特性評価ユニット103に送信されればよく、(例えば、高度マップ生成器111等によって)照明空間の低解像度高度マップが生成されればよい。
照明システム100は、高度マップを介して、家具、構造物、及び有生物の場所を識別すればよい。また、高度マップを使用して、エネルギー消費量を最小化しつつ、空間を適切に照明すればよい。照明システム100は、潜在的なセキュリティ上の問題(走行)又は安全上の問題(落下)に関連する動作を含む移動物体の位置の急速な変化を検出すればよい。また、照明システム100を使用して、照明空間内の移動物体の定期的な運動(複数可)を追跡してもよい。
例示的な一実施形態において、照明コントローラ104は、センサアレイ102の測定値が、公称上関連する光源114の直下に各センサ108に散乱されて戻る光の遅延によることになるように、アレイ101の変調を調節してもよい。この例においては、照明空間内の他の光源114からセンサ108に散乱される光に起因する測定誤差を低減するために、選択データ構造を使用し得ることを除いて、照明を変調するために使用される特定の構造(即ち、パターン)とは無関係に、距離の測定を実行すればよい。
例示的な一実施形態によれば、各光源114は、独立して変調されてもよい。各光源114は、特定のペアセンサ108と組み合わせられて、光源114と、反射光を直接ペアセンサ108に戻す物体の表面との間の距離を測定してもよい。照明空間内の各センサ108からの情報は、照明空間の高度マップを生成するために、空間特性評価ユニット103によって組み合わされてもよい。
別の実施形態によれば、調節変調は、(超音波又はレーダ撮像における位相配列技術と同様に)光源間で使用されてもよい。例えば、センサアレイ102は、空間を照明する任意の光源114と、所与のセンサ108に光を反射する散乱表面との間の距離を測定すればよい。この例においては、位相配列飛行時間検出を使用して、照明空間の地形マップの空間分解能を改善することができる。空間分解能の向上は、(所与の空間内の光源の位置に比べて)局在し得る照明構造の占有測定及び分解能の改善をもたらすことができる。占有測定の改善によって、空間の最適な照明と、必要に応じて、可視光自体を使用したデータ通信とが可能になる。
上述の例において、アレイ101は、照明目的のために正確な強度及び色で出現するが、対応するセンサアレイ102による個別の光源114からの戻り光の検出が可能となるように、協調的に十分高いスイッチング周波数で動作されればよい。各アレイ化光源114からの強度及び/又は色信号を位相整合することによって、アレイ化センサ108は、信号がいずれの光源から来たかを一意に推定することができ、且つ、照明空間内の有生物及び無生物の距離及び場所をより正確に推定することができる。色の個別の位相整合が含まれている場合には、局所的な色分布を推定してもよい。これによって、照明システム100の信号対ノイズ比(SNR)を改善することができる。公称上静的色を有する無生物の場合には、検知によって、移動体から背景を区別することができ、また、何時(照明空間の設計変更のような)変化が発生したかを検知することもできる。
例示的な一実施形態において、照明システム100の距離分解能は、約50cm〜約3mの間であればよい。距離分解能のために、好ましくは、(一又は複数の物体によって散乱された戻り光の)正確な時間測定値を生成する。一般に、時間分解能は、照明すべき空間の容積によるが、10-10s以下のオーダーの時間分解能を有する大部分の屋内空間で、大抵約10-8s未満である。
次に図3を参照すると、照明のために空間を特性評価するための例示的な方法のフローチャートが示されている。ステップ125では、所定の変調パターンによってエンコードされた光が、光源のアレイから放射される。例えば、照明コントローラ104(図1)を使用して、アレイ101からの放射光を変調してもよい。
ステップ126では、照明空間内の物体(複数可)から散乱された放射光が、センサアレイ102(図1)によって受光される。ステップ127では、各センサ108(図1)が、所定の変調パターンに基づいて、関連する光源114(図2)と物体(例えば人間121等)との間の距離を求めればよい。例えば、ToF検出器109(図1)は、パターンに基づいて飛行時間を求め、距離計算器110は、飛行時間から距離を求めればよい。
ステップ128では、例えば、空間特性評価ユニット103の高度マップ生成器111が、各センサ108(図1)によって求められた距離に基づいて、照明空間の高度マップを生成する。ステップ129では、例えば、空間特性評価ユニット103の物体検出器112(図1)と空間プロファイル生成器113とが、高度マップに基づいて、照明空間を特性評価する。
次に、図4を参照すれば、高度マップ(図3のステップ129)に基づいて、照明のために空間を特性評価するための例示的な方法のフローチャートが示されている。図4に示されるステップは、図1に示される物体検出器112によって実行されてもよい。
ステップ130では、推定物体(複数可)の場所(複数可)が、高度マップ内で抽出される。任意のステップ131では、推定物体(複数可)の高さ(複数可)が、高度マップ内で抽出される。例えば、抽出された高さ(複数可)を使用して、照明空間内の人間のポーズ(例えば直立又は着座等)を求めればよい。
任意のステップ132では、空間の領域内の二以上の物体が、明確化されればよい。例えば、高度マップの解像度が粗すぎて、個々の(例えば人間及び机等)物体を区別できない場合には、二つの物体を分離するために高度マップを更に処理することが好ましいであろう。明確化処理の一例については、更に後述する。
ステップ133では、推定物体(複数可)を既知物体(複数可)と比較して、推定物体(複数可)が、(動かないものであっても動くものであってもよい)新規物体又は既知物体(複数可)のいずれであるのかを決定すればよい。ステップ134では、推定物体(複数可)と既知物体(複数可)が一致しているか否かが決定される。
ステップ134において、推定物体(複数可)と既知物体(複数可)が一致している場合、ステップ134は、ステップ135に進み、推定物体(複数可)を既知物体と特定する。ステップ135は、任意のステップ137に進む。
ステップ134において、推定物体(複数可)と既知物体(複数可)が一致していない場合、ステップ134は、ステップ136に進み、推定物体(複数可)を新規物体(複数可)と特定する。ステップ136は、任意のステップ137に進む。
任意のステップ137では、特定物体(複数可)の任意の動きが追跡される。例えば、以前に生成された評価マップ内の特定物体(複数可)の以前の位置(複数可)を現在の位置(複数可)と比較すればよい。任意のステップ138では、特定物体(複数可)のポーズが、例えば、抽出された高さ(複数可)に基づいて、求められればよい。ポーズ検出の一例については、更に後述する。任意のステップ139では、特定物体(複数可)が、有生物(例えば人等)又は無生物(例えば家具等)として更に特定されてもよい。任意のステップ137〜ステップ139は、図示のものとは異なる順序で実行されてもよいことを理解されたい。
[リアルタイムの人間追跡及びポーズ特定の例]
図1に示される例示的な照明システム100と同様の照明システムを使用して、リアルタイムの人間追跡及びポーズ認識を調査するために、実験を行った。実験では、天井に取り付けられ、下向きの、スイスのチューリッヒのMesa Imaging社によって市販されるスイスレンジャー SR4000 ToFカメラを、図1に示される照明システム100の代用品として使用した。カメラは、高周波(RF)変調(30MHz)近赤外光(850nm)を放射し、この近赤外光は、シーンによって後方散乱され、CMOS(Complementary Metal-Oxide-Semiconductor)電荷結合素子(Charge-Coupled Device:CCD)によって受光される。
センサは、176144画素の解像度で、距離及び強度測定値を継続的に収集する。各画素の角度分解能は、画像の中心で0.39であり、これは、(2.5mの天井を想定)地上で1.7平方cm、着座した人間の頭上で9平方mm、並びに、直立した人間の頭上で4.5平方mmに対応している。ToFセンサは、投影の単一の中心から発散光線を放射するので、生のセンサ値に視野角の余弦を乗算することによって、各距離測定値を修正して、正投影を模倣する。後述する距離測定値は、この正投影に言及している。距離の測定値における絶対精度は、0.8m〜5.0mの範囲内で約10mmである。実験では、6.3ms〜8.3msの積分時間が、それぞれ23.4fps〜19.4fpsのフレームレートに至って使用された。振幅閾値は、(0〜16382の規模で)70〜100の範囲内に設定されている。
天井の高さが2.5mのオフィス環境内にシステムを取り付けた。センサの視野は、地上で約2.0m×1.6mである。図5Aは、オフィス環境の画像例で、図5Bは、対応する飛行時間画像であり、この飛行時間画像は、センサからシーン内の各地点までの測定距離を示している。
より大きな環境内の飛行時間画像を調査するために、デンマークコペンハーゲンのユニティ・テクノロジーズ社によって開発されたUnityゲームエンジンを使用して、三次元(3D)の18×14m2のシミュレートされた実験空間を生成した。天井に規則的に配置され、地点に至るまでの距離を返すシミュレートされたセンサから光線を下方に投影することによって、距離画像を生成する。これらの画像は、実際のToFセンサから出力された画像と同様の方法で本明細書に記載されるアルゴリズムによって処理される。
また、実際の環境とシミュレートされた環境との両方で、複数の人間と複数の家具とを含むいくつかのビデオを記録して、アルゴリズムを設計及び試験した。最も複雑な実際のビデオは、異なる時点でシーンに入場し、オフィスチェアを導入及び移動し、近接して一緒に着座し、及び異なる時点で退場する4人を含んでいる。シミュレートされた環境は、実験室に入場し、歩き回り、着座し、起立し、互いに近接して直立し、会議テーブルの周囲且つ実験ベンチの前に集まり、及び部屋を退場する最大で30人を含む。
実験では、距離測定値から、人間のリアルタイム検出、彼らの位置の追跡、及び彼らのポーズ(即ち、直立又は着座)の推定を観察した。形態的画像処理アルゴリズムは、どのように物体が移動して相互作用し得るかについてのより高い論理と組み合わせられている。シーンに入る各人間は、画像の境界で検出されて一意のラベルが付与される。その後、各人間のブロブは、フレームを去るまで、後続の画像全体に亘って追跡される。各人間のブロブの場所と高さとは、各フレーム内において測定され、その粗いポーズは、高さ情報から推定される。
リアルタイム高度マップは、天井の既知の高さからリアルタイム距離画像を減算することによって得られる。また、B(x,y)で示され、人間又は移動可能な家具を含まない背景高度マップの存在も想定され、システム較正中に、この背景高度マップを取得することができる。現在の高度マップEt(x,y)から、次式のように、背景減算と閾値とを使用して、シーン内の前景物体の高度マップFt(x,y)が得られる。
Figure 2021153073
ここで、τは、閾値を示している。閾値τは、10cmに設定されており、これは、(地面に横たわっている場合でも)人間の高さを下回っている。図6は、図5Aに示される実際の環境における前景物体の高度マップ例を示している。
背景減算の後、前景マップを閾値処理することによって、シーン内において人間を検出すればよい。全ての人間が歩いてシーンに入る仮定で、閾値は、0.9mの高さで前景画像に適用され、この高さを上回る全ての連結領域(又は、「ブロブ」)を人間として分類する。現在のフレーム内の全ての人間ブロブを、以前のフレーム内の人間ブロブと比較して、最も近い空間的一致を見つける。ブロブの高さは、ブロブの重み付き重心での標高値となるように、割り当てられている。フレームt内のこの高さの観測値は、ytとして示される。メジアンフィルタをytに適用して、後続の処理に先立って、インパルスセンサノイズを軽減する。
確率モデルは、ノイズ及び不確定性を取り扱うのに適しているので、行動認識のために広く使用されている。現在の高さの観測値と、状態間の遷移確率のための単純なマルコフモデルとの両方を考慮した最大尤度推定器を使用して、「直立」又は「着座」のラベルを各人間ブロブに割り当てる。即ち、ラベルは、次式のように計算される。
Figure 2021153073
ここで、lt∈{”stand”,”sit”}である。第1の項は、提案されたラベルが付与された観測高の尤度を示している。「stand」の場合、これは、最初の登場での人間の観測高に等しい平均を有するガウス分布としてモデル化される。「sit」の分布も同様であるが、ガウスの平均は、人間の座高比の測定データに基づいて、入場口の半分である。「sit」及び「stand」の標準偏差は、0.1及び0.2であり、これらは、トレーニングデータセットから獲得される。第2の項は、遷移確率を示し、これは、ラベルを変更するために高さの観測において有力な証拠が必要とされるように、ラベルが同一の状態のままであることを促している。遷移確率行列は、次式のようになる。
Figure 2021153073
これは、トレーニングデータセットから獲得される。これによって、ポーズ推定は、測定においてノイズに対してより強固となる。パラメータλを調整して、以前の情報の測定情報を交換してもよい。実際には、λに1が設定される。上述の図4は、物体を追跡してそのポーズを推定するための方法を図示している。
低解像度と、高度マップから抽出可能な限定された特徴とに起因して、人間と複数の家具(例えば、移動するオフィスチェア)とは、確実に分割して区別するのが困難で、高度マップ内でまとめて一つのブロブとされる可能性がある。従って、このやり方における課題は、複数の人間が近接しているときに生じるブロブを分けることと、人間には反応するが移動する家具には反応しないセンサを設計すること(例えば、椅子の背もたれは、多くの場合、着座した人間の頭部と匹敵する高さになっている)とであろう。
接触している物体を分けるための例示的なやり方は、高度マップを処理して、主ピークの周囲に一定の強度を有する台地を生成することである。これは、形態再建と呼ばれている。手順は、1)原画像をマスク画像として使用し、2)原画像を変化させてマーカ画像を生成し、且つ、3)マスク画像の下に収まるまでマーカ画像を繰り返し拡張する。
図7A〜図7Eは、いくつかのフルスケールフレームについて、検出物体を含む高度マップ例である。複数の移動するオフィスチェアの存在にも拘わらず、正確な数の人間が維持されている。
次に、広く離隔した単一画素のToF要素をシミュレートするために、フル解像度ビデオを(最近傍サンプリングを使用して)異なる間隔でダウンサンプリングして、低密度のビデオストリームを生成する。本明細書に記載されている(且つ、図4に示されている)例示的なアルゴリズムは、ダウンサンプリングされた各ストリームに適用される。図8A〜図8Dは、いくつかのセンサ間隔についての図7Cと同一のフレームの追跡結果を示している。具体的に、図8Aは、0.03mのセンサの間隔に関し、図8Bは、0.06mのセンサの間隔に関し、図8Cは、0.09mのセンサの間隔に関し、且つ、図8Dは、0.1mのセンサの間隔に関する。ダウンサンプリングされたフレームは、非常に小さいので、アルゴリズムを非常に高速、且つ入力ビデオと略同一レートで実行することができる。
しかしながら、シミュレートされた低密度が幅広いセンサ間隔まで増大するにつれて、極大値抽出アルゴリズムは、測定における、限定された画素数と滑らかさの欠如とに起因して、機能しなくなり始める。このような状況(例えば、25cmのセンサ間隔)において、複数の人間をブロブ内で分けるのではなくアルゴリズムは、いずれの人々が複数人間ブロブ内で組み合わせられているのかを、分離されるまで追跡し続ける。これは、各人間ブロブの識別を維持することが重要ではないので、照明制御アプリケーションに適している。
実験のために、以下の六つのデータセットが収集された。
1)実際のビデオ、3790フレーム、1人〜2人(トレーニングのためにのみ使用される)
2)実際のビデオ、1050フレーム、1人〜3人(試験のためにのみ使用される)
3)実際のビデオ、15000フレーム、1人〜4人(試験)
4)シミュレートされたビデオ、3000フレーム、6人(トレーニング)
5)シミュレートされたビデオ、2700フレーム、6人(試験)、及び
6)六つのシミュレートされたビデオ、各6000フレーム、5人、10人、15人、20人、25人、及び30人(試験)
[実際のビデオの実験]
データセット2及び3に基づいて、極大値抽出及び追跡アルゴリズムを試験した。第1ビデオは、異なる時点でシーンに入場し、歩き回り、近接して一緒にチェアに着座し、起立し、及び退場する3人を記録した。図7A〜図7Eは、このビデオでの追跡の一例を示している。
異なるセンサ密度での性能を分析するために、図8A〜図8Dに図示されるように、入力ビデオを空間的にダウンサンプリングして、1cmから10cmまでのセンサ間隔を1cmの刻みでシミュレートした。各間隔レベルで、検出及び推定ポーズが記録されている。図9Aは、センサ間隔の関数としての検出及びポーズ推定の誤り率のグラフである。誤り率は、誤検出/見逃された人間の数(又は、誤分類されたポーズの数)を、全てのフレームにおける人間の出現の合計数で除算したものとして計算される。図9Bは、センサ間隔の関数としての場所及び高さ測定値における平均誤差のグラフである。
図9A及び図9Bから、8cmまでの全ての間隔レベルで、3人全てが検出及び追跡されていることがわかる。フレームが8cm間隔にダウンサンプリングされた場合には、極大値抽出が不安定になる。物体は、容易に見逃され、又は互いに同化されている。
同一のオフィス環境を15000フレームに亘って継続的に監視する、より長期間の実験(データセット3)を行った。この期間中、グランドトルースのフルフレームビデオを使用して、各人間の入場/退場及びポーズの変化を手動で記録した。表1には、その結果が要約されている。
Figure 2021153073
また、8cmの大きなセンサ間隔で、データセット3内の長いビデオを使用して、フレーム内の人間の数に関して性能を分析した。表2には、その結果が示されている。
Figure 2021153073
[環境シミュレーションの実験]
追跡アルゴリズムのプライバシ保持機能を試験するために、実験室に入場し、歩き回り、着座し、起立し、互いに近接して直立し、会議テーブルの周囲且つ実験ベンチの前に集まり、且つ、部屋を退場する6人を参加させる、2700フレームを含むビデオ(データセット5)を記録した。
実際のビデオの実験と同様に、10cmから40cmまで5cm刻みで、サンプル間隔を徐々に増大させた。図10Aは、センサ間隔の関数としての人間検出及びポーズ分類における誤り率のグラフである。図10Bは、センサ間隔の関数としての場所及び高さ推定における平均誤差のグラフである。表3は、30cmの間隔レベルでの退場、着座、及び起立イベントに関する検出値及び誤警報を報告する。
Figure 2021153073
表2と同様に、シミュレートされたビデオの性能を人数の関数として測定した。この場合には、5人から30人までの(データセット6)より多くの人々を環境に投入することができる。表4には、20cmの広いセンサ間隔での結果が要約されている。
Figure 2021153073
本明細書においては、本発明の好適な実施形態について図示及び説明したが、これらの実施形態は、一例として提供されるものに過ぎないことを理解されたい。本発明の精神を逸脱することなく、多くの変形、変更、及び置換が当業者には明らかとなろう。従って、添付の請求項は、本発明の精神及び範囲に含まれるこれら全ての変形を含むものと解釈されたい。

Claims (12)

  1. 照明システムであって、
    照明のために空間内に配置された発光ダイオード(LED)光源のアレイ(101)であって、各光源が、所定の変調パターンでエンコードされた光を前記空間内に放射するように構成され、前記LED光源のアレイ(101)から放射された光が、前記空間内の少なくとも一つの物体(121,122)によって散乱される、LED光源のアレイ(101)と、
    前記LED光源のアレイ(101)に近接し、かつ前記空間内の前記少なくとも一つの物体(121,122)から散乱された光を受光するように構成されたセンサ(108)のアレイ(102)であって、各センサが、受光した散乱光中の前記所定の変調パターンの検出に基づいて、対応する光源と前記少なくとも一つの物体との間の距離を求めるように構成された、センサのアレイ(102)と、
    各センサ(108)から前記距離を受信し、かつ前記空間の高度マップを生成するように構成された空間特性評価ユニット(103)であって、前記高度マップが、前記空間内の前記少なくとも一つの物体(121,122)の存在を示す、空間特性評価ユニット(103)と、
    を有し、
    各光源(101)は、異なる波長の前記光を放射するように構成された複数の光源(114)を含み、前記センサ(108)のうちの少なくとも一つは、前記異なる波長のそれぞれについての前記距離を求めるように構成され、前記高度マップは、前記異なる波長と関連するカラーマップを含み、
    前記空間特性評価ユニット(103)は、前記高度マップに基づいて、前記少なくとも一つの物体(121,122)の場所、前記少なくとも一つの物体(121,122)のポーズ、又は前記少なくとも一つの物体(121,122)の動作のうちの少なくとも一つを求めるように構成されている、
    照明システム。
  2. 各光源は、スポットライト、フラッドライト、又はパネルライトのうちの少なくとも一つを含む、請求項1に記載の照明システム。
  3. 各光源は、単色光源を含む、請求項1に記載の照明システム。
  4. 前記空間特性評価ユニット(103)は、前記高度マップに基づいて、前記少なくとも一つの物体(121,122)の少なくとも一つの特性を検出して、前記照明システムによる照明を制御するように構成されている、請求項1に記載の照明システム。
  5. 前記空間特性評価ユニット(103)は、前記高度マップに基づいて、前記少なくとも一つの物体が有生物又は無生物(122)のいずれであるかを求めるように構成されている、請求項1に記載の照明システム。
  6. 各センサは、前記検出された所定の変調パターンに基づいて、前記センサによって受光される放射光の飛行時間を求めるように構成され、前記距離は、前記飛行時間から求められる、請求項1に記載の照明システム。
  7. 各光源は、前記所定の変調パターンで独立して変調されるように構成されている、請求項1に記載の照明システム。
  8. 複数の前記光源は、前記所定の変調パターンで同期して変調されるように構成されている、請求項1に記載の照明システム。
  9. 照明のために空間を特性評価するための方法であって、
    照明のために前記空間内に配置された発光ダイオード(LED)光源のアレイ(101)によって光を放射し、放射された光が少なくとも一つの所定の変調パターンでエンコードされ、かつ前記空間内の少なくとも一つの物体(121,122)によって散乱され、
    前記LED光源のアレイ(101)に近接するセンサ(108)のアレイ(102)によって、前記空間内の前記少なくとも一つの物体(121,122)から散乱された光を受光し、
    各センサによって、受光した散乱光中の前記少なくとも一つの所定の変調パターンの検出に基づいて、対応する光源(101)と前記少なくとも一つの物体(121,122)との間の距離を測定し、
    各センサによって測定された前記距離に基づいて、前記空間内の前記少なくとも一つの物体(121,122)の存在を示す前記空間の高度マップを生成し、前記照明のための空間が前記高度マップに基づいて特性評価される、
    ことを有し、
    各光源(101)は、異なる波長の前記光を放射するように構成された複数の光源(114)を含み、前記センサ(108)のうちの少なくとも一つは、前記異なる波長のそれぞれについての前記距離を求めるように構成され、前記高度マップは、前記異なる波長と関連するカラーマップを含み、
    前記方法は、前記高度マップに基づいて、前記少なくとも一つの物体(121,122)の場所、前記少なくとも一つの物体(121,122)のポーズ、又は前記少なくとも一つの物体(121,122)の動作のうちの少なくとも一つを求めることを更に有する、方法。
  10. 前記高度マップに基づいて、前記少なくとも一つの物体(121,122)の少なくとも一つの特性を検出して、前記LED光源のアレイ(101)による照明を制御する、
    ことを更に有する、請求項9に記載の方法。
  11. 前記高度マップに基づいて、前記少なくとも一つの物体(121,122)が有生物又は無生物(122)のいずれであるかを求める、
    ことを更に有する、請求項9に記載の方法。
  12. 前記距離の測定は、前記検出された少なくとも一つの所定の変調パターンに基づいて、個々のセンサによって受光される放射光の飛行時間を求め、前記飛行時間から前記距離を求める、
    ことを含む、請求項9に記載の方法。
JP2021110771A 2012-04-20 2021-07-02 照明空間を特性評価するための検知照明システム及び方法 Active JP7462231B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261687239P 2012-04-20 2012-04-20
US61/687,239 2012-04-20
JP2019215393A JP2020038845A (ja) 2012-04-20 2019-11-28 照明空間を特性評価するための検知照明システム及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019215393A Division JP2020038845A (ja) 2012-04-20 2019-11-28 照明空間を特性評価するための検知照明システム及び方法

Publications (2)

Publication Number Publication Date
JP2021153073A true JP2021153073A (ja) 2021-09-30
JP7462231B2 JP7462231B2 (ja) 2024-04-05

Family

ID=49384092

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2015507205A Pending JP2015519687A (ja) 2012-04-20 2013-04-19 照明空間を特性評価するための検知照明システム及び方法
JP2017201713A Pending JP2018018829A (ja) 2012-04-20 2017-10-18 照明空間を特性評価するための検知照明システム及び方法
JP2019215393A Pending JP2020038845A (ja) 2012-04-20 2019-11-28 照明空間を特性評価するための検知照明システム及び方法
JP2021110771A Active JP7462231B2 (ja) 2012-04-20 2021-07-02 照明空間を特性評価するための検知照明システム及び方法

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2015507205A Pending JP2015519687A (ja) 2012-04-20 2013-04-19 照明空間を特性評価するための検知照明システム及び方法
JP2017201713A Pending JP2018018829A (ja) 2012-04-20 2017-10-18 照明空間を特性評価するための検知照明システム及び方法
JP2019215393A Pending JP2020038845A (ja) 2012-04-20 2019-11-28 照明空間を特性評価するための検知照明システム及び方法

Country Status (8)

Country Link
US (1) US9363859B2 (ja)
EP (1) EP2839719B1 (ja)
JP (4) JP2015519687A (ja)
KR (1) KR102090483B1 (ja)
CN (1) CN104823522B (ja)
BR (1) BR112014026016A8 (ja)
SG (1) SG11201406649TA (ja)
WO (1) WO2013158955A1 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2014133546A (ru) * 2012-01-20 2016-03-20 Конинклейке Филипс Н.В. Способ обнаружения и управления источниками кодированного света
WO2013121342A2 (en) 2012-02-16 2013-08-22 Koninklijke Philips N.V. Lighting configuration apparatus and methods utilizing distance sensors
WO2014187717A1 (en) * 2013-05-21 2014-11-27 Koninklijke Philips N.V. Lighting device
TWI563842B (en) * 2013-10-25 2016-12-21 Lips Inc Sensing device and signal processing method thereof
US9813676B2 (en) * 2013-12-11 2017-11-07 Qualcomm Incorporated Use of mobile device with image sensor to retrieve information associated with light fixture
WO2015086855A1 (en) * 2013-12-14 2015-06-18 Viacam Sarl Camera-based tracking system for the determination of physical, physiological and/or biometric data and/or for risk assessment
FR3015731B1 (fr) * 2013-12-20 2016-02-05 Thales Sa Procede d'estimation du nombre de personnes et ou d'obets dans un espace
JP6359828B2 (ja) * 2013-12-20 2018-07-18 株式会社メガチップス 照明システム及び制御装置
FR3015730B1 (fr) * 2013-12-20 2017-07-21 Thales Sa Procede de detection de personnes et ou d'objets dans un espace
FR3015732B1 (fr) * 2013-12-20 2016-02-05 Thales Sa Procede de detection de personnes et ou d'objets dans un espace
DE102014207965A1 (de) * 2014-04-28 2015-10-29 Robert Bosch Gmbh Vorrichtung zur Objekterkennung
JP6321441B2 (ja) * 2014-05-07 2018-05-09 株式会社ミツトヨ 三次元測定システム、三次元測定方法、および、被測定体
JP6709173B2 (ja) 2014-05-23 2020-06-10 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 物体検出システム及び方法
TWI549502B (zh) * 2014-06-13 2016-09-11 立普思股份有限公司 影像相位補正方法
CN105323571B (zh) * 2014-06-17 2017-09-29 立普思股份有限公司 影像相位补正方法
CN106576414B (zh) * 2014-06-20 2019-09-06 伦斯勒理工学院 智能照明系统、用于控制照明的方法及照明控制系统
DE102015200133A1 (de) * 2015-01-08 2016-07-14 Tridonic Gmbh & Co Kg Lichtsystem mit Anwesenheitserkennung von Personen
US9971015B2 (en) 2015-04-10 2018-05-15 Ossia Inc. Techniques for imaging wireless power delivery environments and tracking objects therein
US10257893B2 (en) 2015-06-09 2019-04-09 Signify Holding B.V. Adaptive luminous intensity distribution of LED luminaires
US9945948B2 (en) 2015-06-18 2018-04-17 Nokia Technologies Oy Method and apparatus for providing time-of-flight calculations using distributed light sources
US10158840B2 (en) * 2015-06-19 2018-12-18 Amazon Technologies, Inc. Steganographic depth images
WO2017023208A1 (en) * 2015-08-05 2017-02-09 Heptagon Micro Optics Pte. Ltd. Intelligent illumination systems that use modulated light
CN105072767B (zh) * 2015-08-24 2017-12-08 浙江大丰实业股份有限公司 一种增强的舞台光效实时控制方法
US10750598B2 (en) * 2015-08-27 2020-08-18 Signify Holding B.V. Systems and methods for lighting fixture location mapping
JP6764471B2 (ja) * 2015-09-04 2020-09-30 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 照明器具における無線通信可能なコンポーネントの置換
DE102016201741A1 (de) * 2016-02-04 2017-08-10 Hella Kgaa Hueck & Co. Verfahren zur Höhenerkennung
US10211660B2 (en) 2016-02-08 2019-02-19 Cree, Inc. LED lighting device with adaptive profiles for controlling power consumption
US10212306B1 (en) 2016-03-23 2019-02-19 Amazon Technologies, Inc. Steganographic camera communication
CN109154491B (zh) * 2016-05-06 2021-01-01 飞利浦照明控股有限公司 用于自动化的照明器检测与分类的系统和方法
US20180054706A1 (en) * 2016-08-19 2018-02-22 Abl Ip Holding Llc System for auto-commissioning of luminaires and asset tracking
EP3290058A1 (en) * 2016-09-02 2018-03-07 BrainLit AB A light control system and a method for exposing a subportion of a space with light within a predetermined spectral range at a predetermined threshold intensity
CN108242072A (zh) * 2016-12-23 2018-07-03 捷西迪光学(开曼)股份有限公司 建立空间地图的方法以及应用于该方法的斑块图形组
US10451229B2 (en) 2017-01-30 2019-10-22 Ideal Industries Lighting Llc Skylight fixture
US10465869B2 (en) 2017-01-30 2019-11-05 Ideal Industries Lighting Llc Skylight fixture
US10444865B2 (en) * 2017-05-01 2019-10-15 Google Llc Tracking of position and orientation of objects in virtual reality systems
US9894740B1 (en) 2017-06-13 2018-02-13 Cree, Inc. Intelligent lighting module for a lighting fixture
JP7055320B2 (ja) * 2017-06-28 2022-04-18 国立大学法人大阪大学 照明装置
US10165650B1 (en) 2017-08-21 2018-12-25 Cree, Inc. Occupant tracking
US10830400B2 (en) 2018-02-08 2020-11-10 Ideal Industries Lighting Llc Environmental simulation for indoor spaces
US10991215B2 (en) 2018-03-20 2021-04-27 Ideal Industries Lighting Llc Intelligent signage
US11184967B2 (en) 2018-05-07 2021-11-23 Zane Coleman Angularly varying light emitting device with an imager
US10816939B1 (en) 2018-05-07 2020-10-27 Zane Coleman Method of illuminating an environment using an angularly varying light emitting device and an imager
WO2021086943A1 (en) 2019-10-28 2021-05-06 Ideal Industries Lighting Llc Systems and methods for providing dynamic lighting
CN111028328B (zh) * 2019-12-17 2024-03-15 上海嘉奥信息科技发展有限公司 基于Unity3D采集数据的模拟成像方法
EP4139708A4 (en) * 2020-04-23 2024-02-07 Jdrf Electromag Eng Inc AUTONOMOUS SPACE BOUNDARY DETECTION AND CLASSIFICATION USING LOW RESOLUTION SENSORS
CN113898885A (zh) * 2021-09-18 2022-01-07 深圳拓邦股份有限公司 一种智能头灯及智能头灯系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009520194A (ja) * 2005-12-19 2009-05-21 アンスティテュ ナシオナル ドプティーク 物体検出照明システム及び方法
JP2010153100A (ja) * 2008-12-24 2010-07-08 Toshiba Lighting & Technology Corp 照明制御システム
JP2010169405A (ja) * 2009-01-20 2010-08-05 Stanley Electric Co Ltd 光学距離センサー
JP2010535335A (ja) * 2007-08-01 2010-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 構造内の対象物の位置を決定する方法
JP2011163921A (ja) * 2010-02-09 2011-08-25 Honda Motor Co Ltd 検出装置及び検出方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10251133B3 (de) * 2002-10-31 2004-07-29 Gerd Reime Einrichtung zur Steuerung einer Beleuchtung, insbesondere für Fahrzeuginnenräume sowie Verfahren zu ihrer Steuerung
TW593971B (en) * 2003-07-18 2004-06-21 Su-Ching Chien Optics method for detecting object
JP4569245B2 (ja) * 2003-09-30 2010-10-27 東芝ライテック株式会社 Led照明装置及び照明システム
US20050243556A1 (en) * 2004-04-30 2005-11-03 Manuel Lynch Lighting system and method
JP4200328B2 (ja) * 2005-04-18 2008-12-24 パナソニック電工株式会社 空間情報検出システム
WO2008135941A2 (en) 2007-05-04 2008-11-13 Sasol Technology (Proprietary) Limited Catalysts
WO2008135942A1 (en) * 2007-05-07 2008-11-13 Koninklijke Philips Electronics N.V. Lighting device and control method
CN201156832Y (zh) * 2007-11-08 2008-11-26 复旦大学 抑郁症辅助治疗的led照明灯具
WO2009079779A1 (en) * 2007-12-21 2009-07-02 Leddartech Inc. Parking management system and method using lighting system
WO2009133505A1 (en) 2008-04-29 2009-11-05 Philips Intellectual Property & Standards Gmbh Illumination unit responsive to objects
US8159156B2 (en) * 2009-08-10 2012-04-17 Redwood Systems, Inc. Lighting systems and methods of auto-commissioning
KR20110070063A (ko) 2009-12-18 2011-06-24 한국전자통신연구원 조명 제어 장치
JP2011253716A (ja) 2010-06-02 2011-12-15 Sharp Corp 照明制御装置及び画像処理装置
JP2012028015A (ja) 2010-07-20 2012-02-09 Toshiba Corp 照明制御システムおよび照明制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009520194A (ja) * 2005-12-19 2009-05-21 アンスティテュ ナシオナル ドプティーク 物体検出照明システム及び方法
JP2010535335A (ja) * 2007-08-01 2010-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 構造内の対象物の位置を決定する方法
JP2010153100A (ja) * 2008-12-24 2010-07-08 Toshiba Lighting & Technology Corp 照明制御システム
JP2010169405A (ja) * 2009-01-20 2010-08-05 Stanley Electric Co Ltd 光学距離センサー
JP2011163921A (ja) * 2010-02-09 2011-08-25 Honda Motor Co Ltd 検出装置及び検出方法

Also Published As

Publication number Publication date
KR102090483B1 (ko) 2020-03-18
BR112014026016A8 (pt) 2021-03-09
BR112014026016A2 (pt) 2017-06-27
CN104823522A (zh) 2015-08-05
JP2018018829A (ja) 2018-02-01
US9363859B2 (en) 2016-06-07
KR20150021918A (ko) 2015-03-03
JP7462231B2 (ja) 2024-04-05
JP2020038845A (ja) 2020-03-12
WO2013158955A8 (en) 2013-12-19
US20150061509A1 (en) 2015-03-05
EP2839719A1 (en) 2015-02-25
SG11201406649TA (en) 2014-11-27
EP2839719A4 (en) 2016-03-09
WO2013158955A1 (en) 2013-10-24
JP2015519687A (ja) 2015-07-09
CN104823522B (zh) 2017-05-31
EP2839719B1 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP7462231B2 (ja) 照明空間を特性評価するための検知照明システム及び方法
Alam et al. Device-free localization: A review of non-RF techniques for unobtrusive indoor positioning
US8798316B2 (en) Method and system for controlling lighting
US9824570B1 (en) Visible-light-, thermal-, and modulated-light-based passive tracking system
US20180143321A1 (en) Modulated-Light-Based Passive Tracking System
US9720086B1 (en) Thermal- and modulated-light-based passive tracking system
US20150169082A1 (en) Method and Device for Filter-Processing Imaging Information of Emission Light Source
Nguyen et al. Eyelight: Light-and-shadow-based occupancy estimation and room activity recognition
WO2021063046A1 (zh) 一种分布式目标监测系统和方法
Majeed et al. Passive indoor visible light positioning system using deep learning
US9921309B1 (en) Visible-light and sound-based passive tracking system
Bhattacharya et al. Arrays of single pixel time-of-flight sensors for privacy preserving tracking and coarse pose estimation
Weiss et al. Pose detection with backscattered visible light sensing utilizing a single RGB photodiode: A model based feasibility study
US11734834B2 (en) Systems and methods for detecting movement of at least one non-line-of-sight object
US11860268B2 (en) Systems and methods using multiple modalities for occupancy sensing
JP7113375B2 (ja) 表示装置、画像処理装置及び制御方法
Al-Hameed et al. Artificial neural network for LiDAL systems
Jędrasiak et al. The comparison of capabilities of low light camera, thermal imaging camera and depth map camera for night time surveillance applications
Tsesmelis et al. Human-centric light sensing and estimation from RGBD images: The invisible light switch
Oosterlee et al. Inti: Indoor Tracking with Solar Cells.
US20240118420A1 (en) Deployment of time of flight sensor on camera
Su et al. TomoID: A Scalable Approach to Device Free Indoor Localization via RFID Tomography
KR20070050284A (ko) 비젼기반 인식을 위한 데이터베이스 구축방법 및 비젼기반인식기의 성능평가방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240314

R150 Certificate of patent or registration of utility model

Ref document number: 7462231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150