JP2013521710A - System and method for spatially adjusted scene lighting - Google Patents

System and method for spatially adjusted scene lighting Download PDF

Info

Publication number
JP2013521710A
JP2013521710A JP2012556180A JP2012556180A JP2013521710A JP 2013521710 A JP2013521710 A JP 2013521710A JP 2012556180 A JP2012556180 A JP 2012556180A JP 2012556180 A JP2012556180 A JP 2012556180A JP 2013521710 A JP2013521710 A JP 2013521710A
Authority
JP
Japan
Prior art keywords
light source
camera
focal region
view
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012556180A
Other languages
Japanese (ja)
Inventor
パブリカヴァー,ネルソン,ジー.
へファナン,ジェイソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EYE COM CORP
Original Assignee
EYE COM CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EYE COM CORP filed Critical EYE COM CORP
Publication of JP2013521710A publication Critical patent/JP2013521710A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

機械視覚アプリケーション用に空間的に均一なあるいは制御された輝度レベルを作るシーン照明システムが提供されている。このシステムは、カメラと、このカメラの視野内の異なる領域を選択的に照明する複数の光源と、カメラと光源に接続された処理ユニットと、を具える。カメラの視野内の光源の焦点領域をサンプリングして、平均的な領域輝度を決定し、目標輝度レベルと比較する。処理ユニットは、光源を制御して照明レベルを増減させて、視野内の目標輝度レベルに近づける。この光源の変調を、目標輝度レベルに達するまで、連続するビデオ画像について繰り返すことができる。目標に達したら、いくつかのアプリケーションについては、反復フィードバック制御を固定するが、その他のアプリケーションについては反復プロセスを周期的あるいは連続的に続けて、異なるシーン又は照明状態の変化を取り入れる。
【選択図】図1
A scene lighting system is provided that creates spatially uniform or controlled brightness levels for machine vision applications. The system includes a camera, a plurality of light sources that selectively illuminate different regions within the camera's field of view, and a processing unit connected to the camera and the light sources. The focal region of the light source in the camera's field of view is sampled to determine the average region luminance and compared to the target luminance level. The processing unit controls the light source to increase or decrease the illumination level to bring it closer to the target luminance level in the field of view. This light source modulation can be repeated for successive video images until the target luminance level is reached. Once the goal is reached, for some applications, the iterative feedback control is fixed, but for other applications, the iterative process continues periodically or continuously to incorporate different scene or lighting state changes.
[Selection] Figure 1

Description

連邦支援の研究開発に関する記載
米国政府は、本発明に一括払いのライセンスを有しており、制限付きで、保健社会福祉省、公衆衛生局、疾病対策センター(CDC)、国防省(米国陸軍)契約番号W81XWH−05−C−0045、米国国防省米国議会調査部発案番号W81XWH−06−2−0037、及び米国運輸省米国議会調査部発案承諾裁定番号DTNH22−05−H−01424によって請求を認められた許可番号1 R43 CE 00151−01の条件によって規定されている通り、特許所有者に妥当な条件で他人にライセンスを与えることを要求する権利を有する。
Description of Federally Assisted Research and Development The US government has a lump sum license for the present invention, with restrictions, contracts for the Ministry of Health and Social Welfare, the Public Health Service, the Center for Disease Control (CDC), and the Department of Defense (US Army) The request is granted by number W81XWH-05-C-0045, United States Department of Defense United States Congressional Research Unit proposal number W81XWH-06-2-0037, and United States Department of Transportation United States Congressional Research Unit approval decision number DTNH22-05-H-01424 As defined by the conditions of grant number 1 R43 CE 00151-01, the patent owner has the right to request that another person be licensed under reasonable conditions.

技術分野
本発明は、物体の照明を調節する装置と方法に関し、特に、例えば、機械視覚のための複数の光源を調節することによって、例えば、ヒトの眼又は顔といった物体のビデオカメラ画像内における、実質的に均一な輝度又は可変輝度といった、空間的に調整した輝度を作る装置及び方法に関する。
TECHNICAL FIELD The present invention relates to an apparatus and method for adjusting the illumination of an object, and in particular by adjusting a plurality of light sources for machine vision, for example, in a video camera image of an object such as a human eye or face. And an apparatus and method for producing spatially adjusted brightness, such as substantially uniform brightness or variable brightness.

本発明は、特に、カメラの視野内で表面及び物体の反射率が変化する機械視覚アプリケーション用の照明スキームに関するものである。従来の照明スキームでは、曲面又は物体を含むシーンに、二次元単平面上に出る影及び/又は閃光(例えば、ホットスポット)がしばしばできる。これらの問題は、照明が限られた数の光源に制限される場合及び/又は光源を照明されているシーン近くに配置しなければならない場合に、悪化してしまう。   The invention particularly relates to illumination schemes for machine vision applications where the reflectivity of surfaces and objects varies within the field of view of the camera. Conventional lighting schemes often create shadows and / or flashes (eg, hot spots) that appear on a two-dimensional single plane in a scene that includes curved surfaces or objects. These problems are exacerbated when the illumination is limited to a limited number of light sources and / or when the light sources must be placed near the scene being illuminated.

機械視覚を含むアプリケーションは、次第に当たり前のことになりつつある。一部では、エレクトロニクスとソフトウエア開発業界における技術の進歩の結果として生じてきており、カメラと情報処理ユニットのコストを下げている。機械視覚アプリケーションの範囲での少数の例には:物体認識、距離測定、食物検査、組み立てラインにおける品質制御、バーコードの読み取り、物体計数、安全性モニタリング、生体認証、が含まれる。機械視覚を利用するセクタ及び産業には、軍事産業、医療、セキュリティ、半導体工程、製造業、ロボット工学、おもちゃ産業がある。   Applications that include machine vision are becoming increasingly commonplace. Some have arisen as a result of technological advances in the electronics and software development industries, reducing the cost of cameras and information processing units. A few examples within the scope of machine vision applications include: object recognition, distance measurement, food inspection, quality control in the assembly line, barcode reading, object counting, safety monitoring, biometrics. Sectors and industries that use machine vision include the military industry, medical care, security, semiconductor processing, manufacturing, robotics, and the toy industry.

ほとんどすべての画像処理技術とアルゴリズムは、画像内領域の照明が不適切であると、影響を受ける。照明レベルが低すぎると、その結果、物体の境界を見分けるための輝度の変化が不十分であったり、反射率が局所的に変化したりする。低減された信号強度又は光強度も、画像内で検出器ノイズの支配を引き起こす。信号対ノイズ比が低いと、一般的に、画像粒子が粗くなり、処理が困難になる。   Almost all image processing techniques and algorithms are affected by improper illumination of areas in the image. If the illumination level is too low, as a result, the luminance change for identifying the boundary of the object is insufficient, or the reflectance changes locally. Reduced signal intensity or light intensity also causes dominance of detector noise in the image. A low signal-to-noise ratio generally makes the image grain rough and difficult to process.

反対に、照明レベルが高すぎると、カメラ又は検出器の画素が飽和してしまう。また、完全に飽和した画素は、エッジ又は境界を区別するアルゴリズムを処理する画像の輝度レベルの変化に関する情報を提供しない。いくつかのタイプのビデオカメラでは、飽和した画素が流れ出てしまい(bleed over)、近くの画素の見かけの明るさを上げることになる。   Conversely, if the illumination level is too high, the camera or detector pixels will be saturated. Also, fully saturated pixels do not provide information about changes in the brightness level of the image processing algorithm that distinguishes edges or boundaries. In some types of video cameras, saturated pixels bleed over, increasing the apparent brightness of nearby pixels.

ほとんどの場合、光子が少なすぎたり、多すぎる画像領域では、情報コンテンツが失われる。画像処理量は、失われる情報を回復することができない。これらの場合、ビデオ画像の空間領域全体の照明を改善して、信頼できる機械視覚アプリケーションを生成するようにしなければならない。   In most cases, information content is lost in image areas with too few or too many photons. The amount of image processing cannot recover lost information. In these cases, the illumination of the entire spatial area of the video image must be improved to produce a reliable machine vision application.

例えば、物体サイズを正確に測定するには、色又は輝度に鋭い傾きがある領域として物体のエッジが認識されるように、物体のエッジの検出を行う。物体のエッジのカメラの視野が、影でひずんでいる場合は、エッジ検出アルゴリズムの信頼性と正確性が悪化する。   For example, in order to accurately measure the object size, the edge of the object is detected so that the edge of the object is recognized as a region having a sharp inclination in color or brightness. When the field of view of the camera at the edge of an object is distorted by shadows, the reliability and accuracy of the edge detection algorithm deteriorates.

物体認識を含む機械視覚アプリケーションは、特に、照明条件に敏感である。暗いコーナー、照明による色の変化、表面照明の様々な角度から生じる輝度の変化、影、及びホットスポットは、照明条件が原因で認識できない物体をレンダリングすることがある。   Machine vision applications involving object recognition are particularly sensitive to lighting conditions. Dark corners, color changes due to lighting, brightness changes resulting from various angles of surface lighting, shadows, and hot spots can render unrecognizable objects due to lighting conditions.

物体の制御された照明は、特に、光源が封じられていて、照明されている物体に近い場合に、困難である。この閉じ込めは、例えば、装置を小型化する、及び/又は、カメラの視野にのみ照明を当てることによって電力消費を低減することを所望することが原因かもしれない。このような場合とは、メガネや、頭部装着型デバイスに装着した装置を使用している眼を照明する場合である。これらのタイプのシステム又は装置の例は、William C.Torchに付与された、眼の動きをモニタリングすることによって容易になるバイオセンサ、通信、及びコントローラのアプリケーションを開示している米国特許第7,515,054B2に見られる。   Controlled illumination of objects is difficult, especially when the light source is sealed and close to the illuminated object. This confinement may be due, for example, to the desire to reduce power consumption by miniaturizing the device and / or illuminating only the camera's field of view. Such a case is a case of illuminating an eye using glasses or an apparatus attached to a head-mounted device. Examples of these types of systems or devices are William C. et al. See US Pat. No. 7,515,054B2, which discloses a biosensor, communications, and controller application granted to Torch that is facilitated by monitoring eye movements.

本発明は、物体の照明を制御する装置及び方法に関する。特に、本発明は、空間的に制御された輝度、例えば、機械視覚用の複数の光源を調整することによって、例えば人間の眼又は顔に向けたビデオカメラ画像内においてほぼ均一な輝度を作る装置及び方法に関する。   The present invention relates to an apparatus and method for controlling illumination of an object. In particular, the present invention provides a device that produces a substantially uniform brightness in a video camera image, eg, directed to a human eye or face, by adjusting spatially controlled brightness, eg, multiple light sources for machine vision. And a method.

上述した背景を考慮すると、ここに述べる装置、システム及び方法は、機械視覚アプリケーション用の改良された照明方法とシステムを提供する。この方法は、一般的に、カメラの視角と異なる角度でシーンの様々な領域を照明する二又はそれ以上の電磁放射線源を具える。これらの照明源は、それぞれ、白熱電球、アーク灯、又は発光ダイオード(LED)などの、一又はそれ以上の照明デバイスを具えている。カメラは、フレーム取り込み器と、取り込み画像に基づいて照明源を個々に制御するためのフィードバック信号を生成する処理システムの構成部品であっても良い。目標となる輝度レベルは、一定であっても良く、空間の機能(例えば、シーンに亘って輝度に勾配を付ける)及び/又は時間(例えば、シーンが異なる波長で照明源によって交互に照明される場合)に応じて変化しても良い。制御された及び/又は均一な照明によって、位置の測定と物体の特定を含む機械視覚アプリケーションを、より簡単で、迅速、かつ高い信頼性をもって実行できるようになる。   In view of the above background, the devices, systems and methods described herein provide improved illumination methods and systems for machine vision applications. This method typically comprises two or more sources of electromagnetic radiation that illuminate various areas of the scene at angles different from the viewing angle of the camera. Each of these illumination sources comprises one or more illumination devices, such as incandescent bulbs, arc lamps, or light emitting diodes (LEDs). The camera may be a component of a frame capturer and a processing system that generates feedback signals for individually controlling the illumination source based on the captured image. The target brightness level may be constant, and is a function of space (eg, grading the brightness across the scene) and / or time (eg, the scene is illuminated alternately by illumination sources at different wavelengths). Case). Controlled and / or uniform illumination allows machine vision applications, including position measurement and object identification, to be performed more easily, quickly and reliably.

一の実施例によれば、特に、シーン内の反射率が空間的に変化する場合に、空間的にほぼ均一及び/又は制御されたシーン輝度をもつカメラ画像を生成するシステム及び方法が提供されている。   According to one embodiment, there is provided a system and method for generating camera images with spatially substantially uniform and / or controlled scene brightness, particularly when the reflectance in the scene varies spatially. ing.

別の実施例によれば、カーブしている及び/又はカメラの画像平面と同一平面にない面から制御された又はほぼ均一な輝度をもつ画像を生成するシステム及び方法が提供されている。   According to another embodiment, a system and method is provided for generating an image having a controlled or substantially uniform brightness from a curved and / or non-coplanar image plane of the camera.

例えば、このシステム及び方法は、カメラの視線(line−of−sight)に向かって位置している一又はそれ以上の照明源を用いている。鋭角からの照明によって、表面クラック又は刻み目などの細かい構造を明らかにすることができる。   For example, the system and method use one or more illumination sources that are located towards the line-of-sight of the camera. Illumination from an acute angle can reveal fine structures such as surface cracks or indentations.

更に別の実施例によれば、表面上に生じる三次元構造によって発生する影の影響を低減するシステム及び方法が提供されている。例えば、この影の影響は、対照的角度からシーンを照明する複数の電磁放射源を用いることによって低減することができる。   According to yet another embodiment, a system and method are provided for reducing the effects of shadows caused by three-dimensional structures occurring on a surface. For example, the effect of this shadow can be reduced by using multiple electromagnetic radiation sources that illuminate the scene from a contrasting angle.

更に別の実施例によれば、照明の点光源の結果生じる、いわゆる「閃光(glints)」又は輝点の影響を低減する又は防ぐシステム及び方法が提供されている。閃光の影響は、カメラの視点から離れた角度で源を使用して、光をシーンの中に誘導することによって防ぐことができる。   According to yet another embodiment, systems and methods are provided that reduce or prevent the effects of so-called “glints” or bright spots resulting from a point source of illumination. The effect of flashing can be prevented by using a source at an angle away from the camera's viewpoint and directing light into the scene.

別の実施例によれば、人の頭に装着するように構成されたデバイスと;このデバイスの上に配置して、デバイスを装着している人の第1の眼を見るように配置したカメラと;この第1の眼の周り及びカメラの視野内で人の顔の各焦点領域を選択的に照明するデバイス上の複数の光源と;を具える人間の眼をモニタリングするシステムが提供されている。代替の実施例では、このカメラ及び/又は光源が、人から遠隔に、例えば、車両のダッシュボードや、その他のインテリア構造に装着されている。   According to another embodiment, a device configured to be worn on a person's head; a camera positioned on the device and positioned to view a first eye of the person wearing the device A system for monitoring the human eye comprising: a plurality of light sources on a device that selectively illuminates each focal region of the human face around the first eye and within the field of view of the camera; Yes. In an alternative embodiment, the camera and / or light source is mounted remotely from a person, for example, in a vehicle dashboard or other interior structure.

コントローラは、カメラ及び光源に接続することができる。このコントローラは、カメラを用いて光源の各焦点領域における輝度をサンプリングし、サンプリングした輝度に基づいて光源を変調して、各焦点領域内に所望の輝度レベルを提供するように構成されている。例えば、このコントローラは、第1の光源で照明されるカメラの視野内の第1の焦点領域に対応するカメラの複数の画素から輝度をサンプリングするように構成されており、このコントローラは、サンプリングされた輝度を組み合わせて、第1の光源によって提供された平均輝度を決定し、第1の焦点領域内で所望の輝度レベルを提供するように第1の光源を変調する。同様に、コントローラは、第2の又は追加の光源によって照明される第2の又は追加の焦点領域から輝度をサンプリングして、対応する焦点領域内に所望の輝度レベルを提供するように第2の光源を変調するように構成されている。   The controller can be connected to a camera and a light source. The controller is configured to sample the luminance at each focal region of the light source using a camera and modulate the light source based on the sampled luminance to provide a desired luminance level within each focal region. For example, the controller is configured to sample luminance from a plurality of pixels of the camera corresponding to a first focal region in the field of view of the camera illuminated by the first light source, the controller being sampled. The combined luminance is determined to determine the average luminance provided by the first light source and to modulate the first light source to provide a desired luminance level within the first focal region. Similarly, the controller samples the luminance from the second or additional focal region illuminated by the second or additional light source and provides a desired luminance level within the corresponding focal region. It is configured to modulate the light source.

一の実施例では、コントローラは、光源への電流及び電圧の少なくとも1つの振幅変調を行って、各焦点領域内で所望の輝度レベルを提供するように構成されている。追加で、又は代替的に、コントローラは、光源への電流及び電圧の少なくとも1つのパルス幅変調を行って、各焦点領域内で所望の輝度レベルを提供するように構成されている。   In one embodiment, the controller is configured to perform at least one amplitude modulation of current and voltage to the light source to provide a desired brightness level within each focal region. Additionally or alternatively, the controller is configured to perform at least one pulse width modulation of current and voltage to the light source to provide a desired brightness level within each focal region.

選択的に、処理ユニットをカメラに接続して、例えば、第1の眼の画像をモニタする及び/又は分析するために、第1の眼の画像を受信するようにしても良い。処理ユニットはコントローラを具えていても良く、あるいは一又はそれ以上の別のプロセッサであっても良い。   Optionally, a processing unit may be connected to the camera to receive the first eye image, for example to monitor and / or analyze the first eye image. The processing unit may comprise a controller or may be one or more other processors.

更に別の実施例によれば、空間的に制御された照明を行うためのフィードバック制御システムが提供されており、このシステムは、視野の二又はそれ以上の空間領域におけるシーン輝度を測定するカメラと、カメラの視野内の対応する領域を選択的に照明する光源と、カメラの視野の各領域内の平均輝度を計算し、対応する光源を一又はそれ以上の輝度レベルに変調して視野内に所望の輝度レベルを提供するプロセッサと、を具える。   According to yet another embodiment, a feedback control system for providing spatially controlled illumination is provided, the system comprising a camera for measuring scene brightness in two or more spatial regions of the field of view. A light source that selectively illuminates a corresponding area in the camera's field of view and an average brightness in each area of the camera's field of view, and the corresponding light source is modulated into one or more brightness levels into the field of view. And a processor that provides a desired brightness level.

一例では、このシステムは、電子ディスプレイを具え、カメラ及び/又は光源は、このディスプレイに対して、カメラと光源が電子ディスプレイを見ている人の顔の方向を向くように装着されている。別の例では、カメラ及び/又は光源は、車両のダッシュボード又はその他の構造に装着して、カメラ及び/又は光源が車両のオペレータの顔の方向を向くようになっている。   In one example, the system includes an electronic display, and the camera and / or light source is mounted relative to the display such that the camera and light source face the face of the person viewing the electronic display. In another example, the camera and / or light source is mounted on a vehicle dashboard or other structure such that the camera and / or light source is directed toward the face of the vehicle operator.

更に別の例では、カメラ及び/又は光源が、組み立てライン又はコンベヤベルトに沿った方向を向いている物体の画像を得るように、組み立てライン又はコンベヤベルト近傍の構造体に装着されている。更に別の例では、カメラ及び/又は光源が、複数のストレージ領域近傍の構造体に装着されており、ストレージ領域に位置する物体の画像を得るようにしている。例えば、光源は、組み立てライン、コンベヤベルト、又はストレージ領域近傍に装着して、選択的にカメラの視野内の各焦点領域を照明し、例えば、カメラで取得する画像に基づいて物体の同定を容易にすることができる。   In yet another example, a camera and / or light source is mounted on a structure near the assembly line or conveyor belt to obtain an image of an object facing along the assembly line or conveyor belt. In still another example, a camera and / or a light source are mounted on a structure near a plurality of storage areas so as to obtain an image of an object located in the storage area. For example, a light source can be mounted near an assembly line, conveyor belt, or storage area to selectively illuminate each focal region within the camera's field of view, for example, to facilitate object identification based on images acquired by the camera Can be.

これらの例のうちのいずれにおいても、光源は実質的に連続的又は間欠的に動作している。例えば、光源は、カメラが作動しないときは、不活性化される。例えば、カメラを使用して、各光源によって選択的に照明された領域内の輝度をサンプリングして個別に視野の画像を取得する場合、光源は、カメラが活性化された画像を取得する及び/又は輝度をサンプリングする間にのみ活性化されるが、例えば、パルス幅変調を用いて光源の輝度を制御している場合、この期間に光源が間欠的に活性化されるようにしても良い。   In any of these examples, the light source is operating substantially continuously or intermittently. For example, the light source is deactivated when the camera is not activated. For example, if a camera is used to sample the luminance in the area selectively illuminated by each light source to individually obtain an image of the field of view, the light source acquires an image in which the camera is activated and / or Alternatively, the light source is activated only while sampling the luminance. For example, when the luminance of the light source is controlled using pulse width modulation, the light source may be activated intermittently during this period.

更に別の実施例によると、人間の第1の眼の照明を制御する方法が提供されている。カメラは、人の顔に向けて、人の第1の眼がカメラの視野内に入るように配置されており、第1の眼の周りでカメラの視野内にある人の顔の各焦点領域を選択的に照明する複数の光源で人の顔の少なくとも一部が照明される。光源の各焦点領域でカメラを用いて輝度をサンプリングし、少なくとも部分的にサンプリングした輝度に基づいて光源を変調して、各焦点領域内で所望の輝度レベルを提供する。   According to yet another embodiment, a method for controlling illumination of a first human eye is provided. The camera is positioned so that the person's first eye is within the field of view of the camera toward the person's face, and each focal region of the person's face that is within the field of view of the camera around the first eye A plurality of light sources that selectively illuminate at least a part of the human face. The brightness is sampled using a camera at each focal region of the light source and the light source is modulated based on at least partially sampled luminance to provide a desired luminance level within each focal region.

更に別の実施例によると、機械視覚アプリケーション用に空間的に均一なあるいは制御された輝度レベルを生成するシーン照明システムが提供されている。例えば、目標輝度レベルはカメラの視野全体でほぼ同じで、例えばほぼ均一な輝度が生じるか、あるいは、位置の機能に応じて変化して、例えば、シーン内に制御された輝度レベルを作る。加えて、あるいは代替的に、目標輝度レベルが時間と共に変化するようにしても良い。   According to yet another embodiment, a scene lighting system is provided that generates spatially uniform or controlled brightness levels for machine vision applications. For example, the target brightness level is substantially the same across the entire field of view of the camera, eg, a substantially uniform brightness occurs, or varies depending on the position function, for example, to create a controlled brightness level in the scene. In addition or alternatively, the target luminance level may change with time.

例示的実施例では、このシステムは、カメラと、カメラの視野内の異なる領域を選択的に照明する複数の光源と、カメラと光源に接続された処理ユニットと、を具える。カメラの視野内の光源の焦点領域をサンプリングして、平均局所輝度を測定して、目標輝度レベルと比較する。処理ユニットは、光源を制御して、照明レベルを上下させ、視野内の目標輝度レベルに向けて収束させる。この光源の変調は、各成功したビデオ画像についてあるいは周期的な画像について、目標輝度レベルが達成されるまで繰り返される。目標輝度レベルが一旦達成されると、反復フィードバック制御がいくつかの機械視覚アプリケーション用に固定される。その他のアプリケーションについては、反復プロセスを周期的にあるいは連続的に継続して、異なるシーン又は照明条件の変化を構成する。   In an exemplary embodiment, the system includes a camera, a plurality of light sources that selectively illuminate different regions within the camera's field of view, and a processing unit connected to the cameras and light sources. The focal region of the light source in the camera field of view is sampled and the average local luminance is measured and compared to the target luminance level. The processing unit controls the light source to raise or lower the illumination level and converge toward the target luminance level in the field of view. This modulation of the light source is repeated for each successful video image or for periodic images until the target luminance level is achieved. Once the target brightness level is achieved, iterative feedback control is fixed for some machine vision applications. For other applications, the iterative process continues periodically or continuously to configure different scene or lighting condition changes.

更に別の実施例によると、シーンの照明を制御する方法が提供されており、この方法は、シーン内の一又はそれ以上の物体がカメラの視野内にあるようにカメラをシーンの方へ向けるステップと;カメラの視野内の各焦点領域を選択的に照明する複数の光源でシーンを照明するステップと;カメラを用いて光源の各焦点領域内の輝度をサンプリングするステップと;サンプリングした輝度の少なくとも一部に基づいて光源を変調して、各焦点領域内に所望の輝度レベルを提供するステップと;を具える。   According to yet another embodiment, a method is provided for controlling illumination of a scene, the method directing the camera towards the scene such that one or more objects in the scene are within the field of view of the camera. Illuminating the scene with a plurality of light sources that selectively illuminate each focal region within the field of view of the camera; sampling the luminance within each focal region of the light source using the camera; Modulating the light source based at least in part to provide a desired brightness level within each focal region.

例えば、このシーンは人の顔の少なくとも一部を含んでおり、一又はそれ以上の物体は、この人の少なくとも一方の眼を含んでいる。カメラ及び/又は光源は、人の頭の上、又は人の頭から離れた位置にあるデバイスに装着することができる。   For example, the scene includes at least a portion of a person's face, and the one or more objects include at least one eye of the person. The camera and / or light source can be worn on a device on or off the person's head.

別の例では、シーンが電子ディスプレイを具え、カメラ及び/又は光源はこのディスプレイに対して、カメラと光源が電子ディスプレイを見ている人の顔を向くように配置されている。この例では、光源を変調してカメラの視野内で人の顔の各焦点領域に所望の輝度レベルを提供することができる。   In another example, the scene comprises an electronic display, and the camera and / or light source is positioned relative to the display such that the camera and light source face the face of the person viewing the electronic display. In this example, the light source can be modulated to provide a desired brightness level for each focal region of the human face within the camera's field of view.

更に別の例では、カメラ及び/又は光源が、カメラがこの車両のオペレータの顔に向けられるように車両のダッシュボードに装着されている。この例では、シーンが少なくともオペレータの顔の一部を含み、光源をオペレータの顔に向けて、カメラの視野内でオペレータの顔の各焦点領域を選択的に照明している。   In yet another example, a camera and / or light source is mounted on the vehicle dashboard such that the camera is directed toward the operator's face of the vehicle. In this example, the scene includes at least a portion of the operator's face and the light source is directed toward the operator's face to selectively illuminate each focal region of the operator's face within the camera's field of view.

更に別の例では、カメラ及び/又は光源が、組み立てライン又はコンベヤベルトの方向を向いており、組み立てライン又はコンベヤベルトに沿って方向づけられている物体の画像を取得する。更に別の例では、カメラ及び/又は光源が複数の収納領域の方向を向いており、この収納領域に配置された物体の画像を取得する。光源は、組み立てライン、コンベヤベルト、又は収納領域を向いており、カメラの視野内で各焦点領域を選択的に照明し、例えば視野内でほぼ均一な輝度レベルを、又は視野内で変化する輝度レベルを提供する。例えば、光源を変調して、その他の焦点領域よりカメラから離れている焦点領域について、より高い輝度レベルを提供する。   In yet another example, a camera and / or light source is directed toward an assembly line or conveyor belt and acquires an image of an object that is directed along the assembly line or conveyor belt. In yet another example, a camera and / or light source is directed toward a plurality of storage areas, and an image of an object placed in the storage area is acquired. The light source is directed to the assembly line, conveyor belt, or storage area and selectively illuminates each focal area within the camera's field of view, for example, a substantially uniform brightness level within the field of view, or a brightness that varies within the field of view. Provides a level. For example, the light source is modulated to provide a higher brightness level for focal regions that are further from the camera than other focal regions.

本発明のその他の態様及び特徴は、添付の図面と共に以下の詳細な説明を考慮することによって明らかになるであろう。   Other aspects and features of the present invention will become apparent from the following detailed description considered in conjunction with the accompanying drawings.

本発明の例示的実施例が図面に示されている。
図1は、カメラから画像を取得する処理ユニットを制御して3個の発光ダイオードを用いて眼と顔領域周辺の空間的に均一な照明を示す斜視図である。 図2は、3つの個別の光源で生成した、眼と顔領域周辺の照明パターンの一例を示す図である。 図3は、眼と顔領域周辺のカメラ画像の一例であり、3つの画素クラスタをサンプリングして、カメラの視野内の3つの領域における平均照度を測定している。 図4は、照明パターンに空間的な勾配が必要とされる食料品棚又は倉庫棚の制御された照明の一例である。照明は、画像の右側に向かって輝度が徐々に高くなっており、4つの水平領域に分けられている。 図5は、振幅変調とパルス幅変調技術を用いて照明を制御するのに使用する、フィードバックと信号の時間シーケンスの一例である。 図6は、空間的に均一な輝度を生じさせるために複数光源の照明レベルを制御するのに使用できる例示的アルゴリズムを示すフローチャートである。 図7は、人の眼の動きに基づいて人をモニタリングする装置の更に別の実施例を示す斜視図である。
Illustrative embodiments of the invention are shown in the drawings.
FIG. 1 is a perspective view showing spatially uniform illumination around an eye and a face area using three light emitting diodes by controlling a processing unit that acquires an image from a camera. FIG. 2 is a diagram illustrating an example of illumination patterns generated by three individual light sources and around the eyes and face area. FIG. 3 is an example of a camera image around the eye and face area, and three pixel clusters are sampled to measure the average illuminance in the three areas within the camera field of view. FIG. 4 is an example of controlled lighting of a grocery or warehouse shelf where a spatial gradient is required in the lighting pattern. The illumination gradually increases in brightness toward the right side of the image and is divided into four horizontal regions. FIG. 5 is an example of a time sequence of feedback and signals used to control illumination using amplitude modulation and pulse width modulation techniques. FIG. 6 is a flowchart illustrating an exemplary algorithm that can be used to control the illumination levels of multiple light sources to produce spatially uniform brightness. FIG. 7 is a perspective view showing still another embodiment of an apparatus for monitoring a person based on the movement of the person's eyes.

図1を参照すると、システム10の例示的実施例が示されており、これは、人の眼及び/又は眼近傍の顔領域のフィードバック制御照明を提供する。一般的に、システム10は、複数の光源12(3つの光源が示されている)と、一又はそれ以上のカメラ14(1台のカメラが示されている)と、光源12及び/又はカメラ14に接続された処理ユニット16を具える。   Referring to FIG. 1, an exemplary embodiment of a system 10 is shown that provides feedback controlled illumination of a human eye and / or a facial region near the eye. In general, system 10 includes a plurality of light sources 12 (three light sources are shown), one or more cameras 14 (one camera is shown), light sources 12 and / or cameras. 14 includes a processing unit 16 connected to 14.

システム10の構成要素には、単一デバイス、又は二又はそれ以上の個別デバイスが含まれる。例えば、図7に示すように、カメラ14と光源12が、人の頭部に装着されるように構成したフレーム18又はその他のデバイス上に設けられている。図に示す実施例では、フレーム18が、ブリッジ片18aと、各眼の上方又は周囲に延在して、開口18cを規定しているリム18bと、及び/又は、例えば眼鏡などの、一対の耳サポート18dを具える。選択的に、開口18cに、所望の例えば度付きレンズ、陰影付きレンズ、偏光レンズ、及び/又は保護レンズ、その他のレンズが設けられていてもいなくとも良いが、このようなレンズは、システム10の操作には不要である。代替的に、システム10の構成要素は、ヘルメット、マスク、ゴーグル、プルダウン式マスク、及び米国特許第6,163,281号、第6,542,081号、又は第7,488,294号に開示されたデバイスなどのその他(図示せず)などの人の頭部に装着するように構成されたその他のデバイスに設けられていても良い。   The components of the system 10 include a single device or two or more individual devices. For example, as shown in FIG. 7, the camera 14 and the light source 12 are provided on a frame 18 or other device configured to be worn on a person's head. In the illustrated embodiment, the frame 18 has a pair of bridge pieces 18a, a rim 18b extending above or around each eye and defining an opening 18c, and / or a pair of glasses, for example glasses. An ear support 18d is provided. Optionally, the aperture 18c may or may not be provided with a desired lens, such as a prescription lens, a shaded lens, a polarizing lens, and / or a protective lens, but such a lens may be This operation is not necessary. Alternatively, the components of system 10 are disclosed in helmets, masks, goggles, pull-down masks, and US Pat. Nos. 6,163,281, 6,542,081, or 7,488,294. It may be provided in other devices configured to be worn on a human head, such as other devices (not shown).

本出願の更なる代替例では、以下に更に説明するように、構成要素が、例えば文房具あるいは移動する構造体といった、個別デバイスに設けられており、人、物体、及び/又はその他のシーンをモニタするようになっている。例えば、カメラ14及び/又は光源12は、人から離れて設けて、その人をモニタするようにしても良い。一の例示的実施例では、カメラ14及び/又は光源12は、ダッシュボード、又はコックピット内に、又は車両のその他の内装領域に、車両のドライバ、パイロット、あるいはその他のオペレータ、乗客、又は車両内のその他の人の方向に向けて装着することができる。カメラ14及び/又は光源12の位置は、例えば、カメラ14及び/又は光源12が例えばオペレータ又はその他の人の片方の眼又は両方の眼というように、顔に向けて、車両内に実質的に固定されていても、調整可能であっても良い。別の例示的実施例では、カメラ14及び/又は光源12は、コンピュータのディスプレイ又はその他の電子装置に装着あるいは隣接させて、例えば、その電子装置のユーザの片方の眼又は両方の眼をモニタリングして、ユーザが、片方の眼又は両方の眼の動きの少なくとも一部に基づいて、当該電子装置を制御又は操作できるようにしても良い。   In a further alternative of the present application, as will be further described below, the components are provided in individual devices, such as stationery or moving structures, to monitor people, objects, and / or other scenes. It is supposed to be. For example, the camera 14 and / or the light source 12 may be provided away from a person and monitored. In one exemplary embodiment, the camera 14 and / or light source 12 may be in a dashboard, cockpit, or other interior area of the vehicle, in a vehicle driver, pilot, or other operator, passenger, or vehicle. Can be worn in the direction of other people. The position of the camera 14 and / or the light source 12 is substantially within the vehicle, for example, towards the face such that the camera 14 and / or the light source 12 is, for example, one eye or both eyes of an operator or other person. It may be fixed or adjustable. In another exemplary embodiment, camera 14 and / or light source 12 may be mounted on or adjacent to a computer display or other electronic device, for example, to monitor one or both eyes of a user of the electronic device. Thus, the user may be able to control or operate the electronic device based on at least part of the movement of one eye or both eyes.

選択的に、図1及び図7を参照すると、処理ユニット16も、フレーム18によって行われるか、本明細書に記載されているように、フレーム18とは別に、及び/又は、フレーム18(及び/又は、フレーム18以外の構造が設けられている場合は、システム10のその他の構成要素)から遠隔で実行することができる。例えば、図7に示すように、処理ユニット16は、フレーム18とは別のケースに設けるようにしても良く、フレーム18から延在する一又はそれ以上のケーブル17(明確化のために1本のケーブルのみが示されている)を具えていても良い。ケーブル17は、個別のケーブルか又は光源12、カメラ14、及び/又はフレーム18上のその他の構成要素、及び処理ユニット16に接続されたワイヤセットを具えていても良い。個別のケーブル又はワイヤセットは、例えばフレーム18内に、例えば、リム18bに沿って、各光源12、カメラ14、15、その他から、ケーブル15内に捕捉されて、例えば、フレーム18の全プロファイルを所望のように小さくなるまで、埋め込まれていても良い。   Alternatively, referring to FIGS. 1 and 7, processing unit 16 may also be performed by frame 18 or separately from frame 18 and / or frame 18 (and as described herein). It can also be performed remotely from other components of the system 10 if structures other than the frame 18 are provided. For example, as shown in FIG. 7, the processing unit 16 may be provided in a separate case from the frame 18 and may include one or more cables 17 extending from the frame 18 (one cable for clarity). (Only the cable is shown). Cable 17 may comprise a separate cable or light source 12, camera 14, and / or other components on frame 18, and a wire set connected to processing unit 16. Individual cables or wire sets are captured in cable 15 from each light source 12, camera 14, 15, etc., for example, within frame 18, eg, along rim 18b, for example, to capture the entire profile of frame 18. It may be embedded until it is as small as desired.

更に図1を参照すると、カメラ14がフレーム18に装着及び/又は配置されており、このカメラ14は、フレーム18を装着しているか、さもなければ、図に示すように、システム10でモニタされている人の第1の眼20に向けられた視野を有する。例えば、図7に示すように、カメラ14は、フレーム18の各開口18cからオフセットされており、例えば、2010年1月13日に出願した係属中の特許出願第12/551,547号に記載されているように、カメラ14を、フレーム18を装着している人の全体的な視野から離して配置する。   Still referring to FIG. 1, a camera 14 is mounted and / or positioned on a frame 18 that is mounted with a frame 18 or otherwise monitored by the system 10 as shown. And has a field of view directed at the first eye 20 of the person. For example, as shown in FIG. 7, the camera 14 is offset from each opening 18c of the frame 18 and is described, for example, in pending patent application Ser. No. 12 / 551,547 filed Jan. 13, 2010. As is done, the camera 14 is placed away from the overall field of view of the person wearing the frame 18.

例示的実施例では、カメラ14がCCD又はCMOSあるいはその他の、例えば、矩形又はその他のピクセルアレイを含む活性領域を含む検出器を具えており、カメラ14で画像を捕捉し、この画像を表わすビデオ信号を生成するようにしている。カメラ14の活性領域は、例えば、正方形、矩形、円形、楕円形、その他の所望の形状を有している。カメラ14の活性領域は、ほぼ平坦であるか、あるいは曲面であり、例えば、眼22の方向を向いている曲面内にある。使用できる例示的CMOS装置には、Omnivision モデル番号OV7740、又はMocron モデル番号MT9V032が含まれる。更に、カメラ14は、一又はそれ以上のフィルタ、レンズ、その他(図示せず)を具えており、必要に応じて、例えば、画像を活性領域上にフォーカスする、望ましくない光の強度及び/又は波長にフィルタをかける、などすることができる。   In an exemplary embodiment, the camera 14 includes a detector that includes a CCD or CMOS or other active area including, for example, a rectangular or other pixel array, and the camera 14 captures an image and video representing this image. A signal is generated. The active area of the camera 14 has, for example, a square, a rectangle, a circle, an ellipse, and other desired shapes. The active area of the camera 14 is substantially flat or curved, for example in a curved surface facing the direction of the eye 22. Exemplary CMOS devices that can be used include Omnivision model number OV7740 or Mocron model number MT9V032. In addition, the camera 14 may include one or more filters, lenses, etc. (not shown), if desired, such as unwanted light intensity and / or focusing the image on the active area. For example, the wavelength can be filtered.

選択的に、このシステム10でモニタしている人の第2の眼(図示せず)を向いた視野を具える第2のカメラを設けるようにしても良い。例えば、図7に示すように、一対のカメラ14をフレーム18の、例えば各眼の下のリム18bの下側領域上に装着して、人の視覚との干渉を最小にして、人の両眼をモニタすることができる。追加で、あるいは代替的に、人のそれぞれの眼に向けた複数のカメラ(又は、各眼に向けた複数のカメラ、図示せず)を設けて、例えば、離れたあるいはオーバーラップした視野を提供するようにしても良い。別の選択肢では、図7に破線で示すように、一又はそれ以上のカメラ15を、フレーム18を装着している人から離れる方向に向けてフレーム18上に設けて、例えば、本明細書に記載の特許に開示されているように、人の周辺の画像を取得するようにしても良い。   Optionally, a second camera may be provided that has a field of view directed to the second eye (not shown) of the person being monitored by this system 10. For example, as shown in FIG. 7, a pair of cameras 14 are mounted on a frame 18, for example, on the lower region of the rim 18b under each eye, to minimize interference with human vision and Eyes can be monitored. In addition or alternatively, multiple cameras (or multiple cameras for each eye, not shown) for each eye of the person are provided to provide, for example, distant or overlapping fields of view You may make it do. Another option is to provide one or more cameras 15 on the frame 18 facing away from the person wearing the frame 18, as shown in broken lines in FIG. As disclosed in the described patent, an image around a person may be acquired.

光源12は、例えば、カメラ14近傍の開口18cの周りなど、フレーム18上の複数箇所に装着することができる。例えば、図に示すように、3つの光源12a、12b、12cが設けられており、例えば、第1及び第2の光源12a、12bはリム18bの上側領域上に、第3の光源12cはリム18bの下側領域上に設けるようにしても良い。2つ又は3つ以上の光源(図示せず)のみを設けて、必要があれば個別に記載のシステムと方法を用いて制御することができる。図7に示すように、システム10が第2のカメラ14を有する場合、追加の光源セット12をフレーム18上に設けてフレーム18を装着している人の第2の眼及び/又は顔領域(図示せず)を照明するようにしても良い。更に、システム10が単一の眼(図示せず)の方を向いた複数のカメラを有する場合、これらのカメラは、複数の光源をシェアしても良く、また代替的に、複数の光源セットを設けてカメラの各々の視野(図示せず)を照明しても良い。   The light source 12 can be mounted at a plurality of locations on the frame 18, for example, around the opening 18 c near the camera 14. For example, as shown in the figure, three light sources 12a, 12b and 12c are provided. For example, the first and second light sources 12a and 12b are on the upper region of the rim 18b, and the third light source 12c is a rim. It may be provided on the lower region of 18b. Only two or more light sources (not shown) may be provided and controlled using the individually described systems and methods if necessary. As shown in FIG. 7, if the system 10 has a second camera 14, a second eye and / or face area (for a person wearing an additional light source set 12 on the frame 18 and wearing the frame 18 ( (Not shown) may be illuminated. Further, if the system 10 has multiple cameras facing a single eye (not shown), these cameras may share multiple light sources and, alternatively, multiple light source sets. May be provided to illuminate each field of view (not shown) of the camera.

例示的実施例では、各光源12が、例えば約640乃至700ナノメータの一又はそれ以上の波長の赤外線、例えば白光などの高帯域可視光線、その他といった比較的狭い又は広い波長の光を発するように構成した発光ダイオードを具えていても良い。選択的に、光源12は、例えば、人の眼及び/又は顔の各焦点領域を照明するのを容易にする、レンズ、フィルタ、デフューザ、あるいはその他の構造(図示せず)を具えていても良い。光源12は、例えば、フレーム18の各開口18cの周りに配置した一又はそれ以上のアレイ内で、互いから離れて配置されており、例えば、人の眼及び/又は顔のほぼ均一又は可変レベルの輝度など、所望の輝度レベルを提供して、カメラ14を用いて捕捉した人の眼及び/又は顔の画像を提供することができる。   In an exemplary embodiment, each light source 12 emits light of a relatively narrow or wide wavelength, such as one or more wavelengths of infrared light, for example, about 640 to 700 nanometers, high band visible light such as white light, etc. You may provide the comprised light emitting diode. Optionally, the light source 12 may comprise a lens, filter, diffuser, or other structure (not shown) that facilitates, for example, illuminating each focal region of the human eye and / or face. good. The light sources 12 are spaced apart from one another in, for example, one or more arrays disposed around each opening 18c of the frame 18, for example, a substantially uniform or variable level of the human eye and / or face. A desired brightness level, such as the brightness of the human eye, may be provided to provide an image of a human eye and / or face captured using the camera 14.

処理ユニット16は、例えば、一又はそれ以上のハードウエア構成部品及び/又はソフトウエアモジュールなど、システム10の様々な構成要素を操作する一又はそれ以上のコントローラ又はプロセッサを具えている。例えば、処理ユニット16は、光源12及び/又はカメラ14を制御する、個別のあるいは一体化したコントローラ(図示せず)を具えており、カメラ14からの信号、その他を受信及び/又は処理する。選択的に、処理ユニット16の一又はそれ以上の構成要素は、本明細書に記載した引例に述べられている実施例と同様に、例えば、耳サポート18d又はリム18bの上など、フレーム18上に担持されている。   The processing unit 16 includes one or more controllers or processors that operate various components of the system 10, such as, for example, one or more hardware components and / or software modules. For example, the processing unit 16 comprises a separate or integrated controller (not shown) that controls the light source 12 and / or the camera 14 and receives and / or processes signals from the camera 14 and others. Optionally, one or more components of the processing unit 16 may be on the frame 18, eg, on the ear support 18 d or rim 18 b, similar to the embodiments described in the references described herein. It is carried on.

処理ユニット16は、カメラ14、15、画像信号を編集及び/又は処理するフィルタ、その他からの画像信号を保存するメモリを具えていても良い。更に、処理ユニット16は、例えば、システム10の構成要素を操作する一又はそれ以上の電源(図示せず)を具えている。選択的に、フレーム18及び/又は処理ユニット16は、データを送信し、指示を受信する、などのための一又はそれ以上の送信機及び/又は受信機(図示せず)を具えていても良い。追加で、又は代替的に、システム10は、本明細書に記載した引例に述べられている実施例と同様に、フレーム18及び/又は処理ユニット16から遠隔位置にある構成要素を具えていても良い。例えば、システム10は、例えば、同じ部屋の、モニターステーション近傍や、より離れた位置の処理ユニット16及び/又はフレーム18から遠隔にある位置に、一又はそれ以上の受信機、プロセッサ、及び/又はディスプレイ(図示せず)を具えていても良い。   The processing unit 16 may comprise a camera 14, 15, a filter for editing and / or processing image signals, and a memory for storing image signals from others. In addition, the processing unit 16 includes one or more power supplies (not shown) that operate, for example, components of the system 10. Optionally, frame 18 and / or processing unit 16 may comprise one or more transmitters and / or receivers (not shown) for transmitting data, receiving instructions, etc. good. Additionally or alternatively, system 10 may include components that are remote from frame 18 and / or processing unit 16, similar to the embodiments described in the references described herein. good. For example, the system 10 may include one or more receivers, processors, and / or, for example, in the same room, near the monitor station, or remote from the processing unit 16 and / or frame 18 at a more remote location. A display (not shown) may be provided.

図1を参照すると、例えば、空間的にほぼ均一な照明が有益である自動瞳トラッキングを行うためのシステム10で、画像を撮像している人の眼20と周辺の顔領域22が示されている。眼20を含む顔領域22は、カメラ14によって視覚化され、ここで画像が処理ユニット16に送られる。瞳26は、虹彩27の中心に位置している。従って、虹彩27は、強膜28又は白目の領域に位置している。正視している間は、随意筋及び不随意筋の両方を制御する結果、瞳26の位置が変化する。瞳26が移動している間は、瞳26、虹彩27、及び強膜28に関連する領域が、カメラの視野内で変化する。一部分においては、サイズ及び形状の変化は、眼20の曲率半径によるものである。   Referring to FIG. 1, for example, a system 10 for performing automatic pupil tracking, where spatially nearly uniform illumination is beneficial, shows an eye 20 of a person taking an image and a surrounding face region 22. Yes. The face area 22 including the eye 20 is visualized by the camera 14, where an image is sent to the processing unit 16. The pupil 26 is located at the center of the iris 27. Therefore, the iris 27 is located in the sclera 28 or the white eye region. During the normal viewing, both the voluntary muscle and the involuntary muscle are controlled, so that the position of the pupil 26 changes. While the pupil 26 is moving, the regions associated with the pupil 26, iris 27, and sclera 28 change within the camera's field of view. In part, the change in size and shape is due to the radius of curvature of the eye 20.

一又はそれ以上の光源で照明する場合は、カメラの視野内における異なる領域から検出される光強度に複数の要因が影響することがある。この要因とは:a)光源と視野領域間の距離、b)各光源の強度、c)各光源の発散角、d)照明する面の反射率(照明波長における)、e)その面の曲率、及びf)光を使用する信号に変換するときのカメラの効率、並びに、このカメラに関連する光学の効率と空間均一性、である。更に、三次元構造体は、単一光源又は少数光源から照明されている場合に影を作ることがある。眼20の周りの領域22の場合、瞼、まつ毛、及び皮膚の襞を含む構造によって影ができることがある。   When illuminating with one or more light sources, multiple factors may affect the light intensity detected from different regions within the camera's field of view. These factors are: a) the distance between the light source and the field of view, b) the intensity of each light source, c) the divergence angle of each light source, d) the reflectance of the illuminated surface (at the illumination wavelength), e) the curvature of that surface. And f) the efficiency of the camera when converting light into a signal, and the optical efficiency and spatial uniformity associated with this camera. In addition, a three-dimensional structure may create a shadow when illuminated from a single light source or a few light sources. In the case of the region 22 around the eye 20, shadows may be formed by structures including wrinkles, eyelashes, and skin wrinkles.

以下に更に説明するように、図1に示すカメラ14などのカメラ視野内の様々な領域の輝度レベルをフィードバックモードで用いて、異なる照明源の強度を制御することができる。あるシーンを複数の照明を用いて異なる角度から照明することで、影の有害な影響を低減することができる。複数の照明源を用いて、及び/又は、複数の照明源を例えばカメラの視野角から十分に離すなど、戦略的な位置に配置することによって、閃光を低減又は防止することができる。図1に示す例では、赤外線発光ダイオード(LEDs)を照明源として用いている。図に示すように、LED12aは選択的に、カメラ14の視野の左上領域を照明し、LED12bは選択的に、カメラ14の視野の右上領域を照明し、LED12cは選択的に、カメラ14の視野の下側領域を照明する。   As described further below, the brightness levels of various regions within the camera field of view, such as the camera 14 shown in FIG. 1, can be used in feedback mode to control the intensity of different illumination sources. Illuminating a scene from different angles using multiple lights can reduce the deleterious effects of shadows. Flash can be reduced or prevented by using multiple illumination sources and / or by placing the multiple illumination sources at strategic locations, eg, sufficiently away from the viewing angle of the camera. In the example shown in FIG. 1, infrared light emitting diodes (LEDs) are used as illumination sources. As shown in the figure, LED 12a selectively illuminates the upper left region of the field of view of camera 14, LED 12b selectively illuminates the upper right region of the field of view of camera 14, and LED 12c selectively illuminates the field of view of camera 14. Illuminate the lower area of

図2は、異なる光源で照明した各焦点領域を示す図である。本例では、3つの光源が、瞳26と、眼20周囲の顔領域22を照明している。図2に示すように、光源が一般的には鮮明な領域を作らないことは理解される。むしろ、破線は、「焦点領域」、すなわち、特定の光源が、カメラの視野内の周辺領域に比べて、ある領域の照明に選択的又は強化された影響がある領域を表わしている。図1を参照して、LED12aは、カメラの視野の左上の領域に位置する、図2の領域121を選択的に照明する。同様に、図1のLED12bは、カメラの視野の右上の領域に位置する図2の領域122を照明する。図1のLED12cは、カメラの視野の下側領域に位置する図2の領域123を照明する。照明している領域又は焦点領域のサイズは、光源の発散角及び/又は光源と照明表面との距離に依存する。照明している領域のおよその形状は、光源の光プロファイル、並びに光源の位置と照明表面に垂直なベクトル間の角度に依存する。各焦点領域の平均輝度は、関連する光源の強度を調整することによって制御することができる。   FIG. 2 is a diagram showing each focal region illuminated by different light sources. In this example, three light sources illuminate the pupil 26 and the face region 22 around the eye 20. As shown in FIG. 2, it is understood that the light source generally does not create a sharp area. Rather, the dashed line represents a “focus area”, ie, an area where a particular light source has a selective or enhanced effect on illumination of an area relative to the surrounding area in the camera's field of view. Referring to FIG. 1, LED 12a selectively illuminates region 121 of FIG. 2, which is located in the upper left region of the camera's field of view. Similarly, LED 12b in FIG. 1 illuminates region 122 in FIG. 2 located in the upper right region of the camera's field of view. The LED 12c in FIG. 1 illuminates the region 123 in FIG. 2 located in the lower region of the camera's field of view. The size of the illuminated area or focal area depends on the divergence angle of the light source and / or the distance between the light source and the illumination surface. The approximate shape of the illuminated area depends on the light profile of the light source and the angle between the position of the light source and the vector perpendicular to the illumination surface. The average brightness of each focal region can be controlled by adjusting the intensity of the associated light source.

図3は、ピクセルクラスタの一例であり、これをサンプリングして瞳26近傍の領域の平均輝度を決定することができる。この例では、ピクセル101の8×8エレメントクラスタの測定平均強度を用いて、カメラの視野内の左上領域の輝度を評価している。別のピクセル102の8×8エレメントクラスタを用いて、カメラの視野内の右上領域の輝度を計算する。第3のピクセル103の8×32エレメントクラスタを用いて、カメラの視野内の下側領域の輝度を評価する。   FIG. 3 shows an example of a pixel cluster, which can be sampled to determine the average brightness in the region near the pupil 26. In this example, the brightness of the upper left region in the camera field of view is evaluated using the measured average intensity of the 8 × 8 element cluster of the pixel 101. An 8 × 8 element cluster of another pixel 102 is used to calculate the brightness of the upper right region in the camera's field of view. The 8 × 32 element cluster of the third pixel 103 is used to evaluate the brightness of the lower region in the camera field of view.

しかしながら、任意数の視野領域から輝度を評価できることは自明である。輝度の評価は、各焦点領域内の、任意のサイズ、スペース、形状のクラスタ中の任意数のピクセルから決定することができる。例えば、各焦点領域内での各サンプリングの間に、同じピクセルをサンプリングすることができるし、また、所望であれば例えば各焦点領域内でランダムに選択した異なるピクセルをサンプリングすることもできる。輝度は、眼20をモニタしている間の実際のビデオ信号を用いてサンプリングしても良く、あるいは、眼20をモニタするのに使用するデータストリーム外でサンプリングすることもできる。例えば、一連のビデオ信号からの周期フレームを、記録、処理、又はモニタするのに加えてサンプリングして、本明細書に記載のシステムと方法を用いて、輝度レベルを予測及び/又は調整することができる。   However, it is obvious that the luminance can be evaluated from an arbitrary number of viewing areas. The luminance assessment can be determined from any number of pixels in a cluster of any size, space, shape within each focal region. For example, the same pixel can be sampled during each sampling within each focal region, and different pixels selected at random, for example within each focal region, can be sampled if desired. Luminance may be sampled using the actual video signal while the eye 20 is being monitored, or may be sampled outside the data stream used to monitor the eye 20. For example, periodic frames from a series of video signals may be sampled in addition to being recorded, processed, or monitored to predict and / or adjust brightness levels using the systems and methods described herein. Can do.

例えば、図1乃至3を更に参照すると、処理ユニット16が焦点領域121、122、123(図2に示す)中の所定のピクセル101、102、103(図3に示す)を周期的にサンプリングして、焦点領域121、122、123のいずれかにおける平均輝度レベルを評価することができる。処理ユニット16は、光源12a、12b、12c(図1に示す)を変調して、各焦点領域121、122、123内の所望の輝度レベルを提供する。例えば、カメラ14で眼20を照明し撮像している間、ほぼ輝度が均一であることが好ましい。処理ユニット16は、ピクセル101、102、103のセットをサンプリングして、各焦点領域121、122、123の平均輝度を決定し、光源12a、12b、12cの強度を増減させて、例えば、平均輝度をほぼ均一に、及び/又は、所望の範囲内に維持することができる。   For example, with further reference to FIGS. 1-3, processing unit 16 periodically samples predetermined pixels 101, 102, 103 (shown in FIG. 3) in focal regions 121, 122, 123 (shown in FIG. 2). Thus, the average luminance level in any one of the focal regions 121, 122, and 123 can be evaluated. The processing unit 16 modulates the light sources 12a, 12b, 12c (shown in FIG. 1) to provide a desired brightness level within each focal region 121, 122, 123. For example, it is preferable that the luminance is substantially uniform while the eye 14 is illuminated and imaged by the camera 14. The processing unit 16 samples the set of pixels 101, 102, 103 to determine the average brightness of each focal region 121, 122, 123 and increases or decreases the intensity of the light sources 12a, 12b, 12c, for example, the average brightness Can be maintained substantially uniformly and / or within a desired range.

代替的に、複数のカメラを設けて人の眼(図示せず)をモニタするのに、一又はそれ以上のカメラを用いて、カメラの視野内の輝度をサンプリングすることができる。例えば、一の実施例では、輝度サンプリング専用の第1のカメラを使用する一方で、例えば、上述した通り、第2のカメラを用いて眼の画像を取得して、例えば、本明細書や本明細書に述べた引用例に記載されているような、人の認識度、物理的及び/又は精神的状態をモニタする、一又はそれ以上のデバイスを制御するなど、その他の目的のために用いることができる。別の実施例では、複数のカメラを用いて、各光源の焦点領域内の輝度をサンプリングして、複数のカメラからサンプリングした輝度を平均化したり、あるいは比較して、光源へのフィードバック制御を提供することができる。   Alternatively, one or more cameras can be used to sample the luminance in the camera's field of view to provide multiple cameras to monitor a human eye (not shown). For example, in one embodiment, while using a first camera dedicated to luminance sampling, for example, as described above, an eye image is acquired using a second camera, for example, in this specification or book. Used for other purposes, such as monitoring a person's awareness, physical and / or mental state, controlling one or more devices, as described in the cited references in the specification be able to. In another embodiment, multiple cameras are used to sample the luminance in the focal region of each light source and average or compare the sampled luminance from multiple cameras to provide feedback control to the light source can do.

その他のアプリケーションでは、空間的に可変であるシーンの照明を行うことが望ましい。図4は、輝度242の(非均一)空間的勾配が望ましい状況で照明を制御する例を示している。この例では、カメラ241を用いて、例えば、食料品店、大規模卸売店、製造工場に共通して見られるような一連の棚又は搬送システム240上にある対象物を撮像する。カメラ241と光源231乃至234を、例えば、棚又は搬送システム240から離れた一のアンカに個別に装着し、ほぼ静止させる又は移動させることができる。   In other applications, it is desirable to provide illumination for scenes that are spatially variable. FIG. 4 shows an example of controlling illumination in situations where a (non-uniform) spatial gradient of brightness 242 is desired. In this example, the camera 241 is used to image objects on a series of shelves or transport system 240 as commonly found in, for example, grocery stores, large wholesale stores, and manufacturing plants. The camera 241 and the light sources 231 to 234 can be individually mounted on, for example, one anchor remote from the shelf or the transport system 240 and can be substantially stationary or moved.

このような場合、いくつかの対象物と対象物上の文字は、カメラ241を用いて取得した画像内でその他のものより小さく見える。これは、おそらく、対象物のサイズが実際に小さくなったことに起因するか、あるいは対象物がカメラから離れているためである。しばしば、カメラの視野内により小さく表れる対象物の輝度を高める(飽和することなく)ことによって、画像処理アルゴリズムの性能が改善される。空間的に制御された照明は、画像処理アルゴリズムが信号対ノイズ比を上げることによって、レンズやその他の光学成分の解像度の空間的変化を補償する助けになる。ほとんどのレンズ、特に小さいレンズは、レンズの中央領域に比較して外側エッジにより近い部分で空間解像度が小さく、及び/又は、集光能力が低い。   In such a case, some objects and characters on the objects appear smaller than others in the image acquired using the camera 241. This is probably due to the fact that the size of the object has actually decreased, or because the object is far from the camera. Often, the performance of image processing algorithms is improved by increasing (without saturating) the brightness of objects that appear smaller in the camera's field of view. Spatially controlled illumination helps image processing algorithms compensate for spatial variations in the resolution of lenses and other optical components by increasing the signal-to-noise ratio. Most lenses, especially small lenses, have a lower spatial resolution and / or a lower light collection capability nearer the outer edge compared to the central area of the lens.

図4に示す例では、視野を4つの縦領域に分割することによって、輝度に水平方向の勾配ができている。最も左側の領域221は、LED231で照明されており、信頼性のある画像処理を行うのに最小の輝度を要する。最も左側から2番目の領域222は、LED232によって照明されており、信頼性のある画像処理を行うのに最小の輝度の次に小さい輝度を要する。領域223は、LED233によって照明されており、より小さい対象物の存在により、より大きな輝度を要する。最後に、領域224は、LED234によって照明されており、小さい対象物が存在するため、最も大きい照明が必要である。この対象物は、カメラから最も遠くにあるか、及び/又は、カメラ241を用いて取得した画像のエッジ近傍の光学解像度が低い。   In the example shown in FIG. 4, the visual field is divided into four vertical regions, so that the luminance has a horizontal gradient. The leftmost region 221 is illuminated by the LED 231 and requires the minimum brightness to perform reliable image processing. The second area 222 from the left is illuminated by the LED 232 and requires the next lowest brightness after the minimum brightness to perform reliable image processing. Region 223 is illuminated by LED 233 and requires greater brightness due to the presence of smaller objects. Finally, region 224 is illuminated by LED 234 and requires the greatest illumination since there are small objects. This object is farthest from the camera and / or has a low optical resolution near the edge of the image acquired using the camera 241.

処理ユニット(図示せず)は、本明細書に述べたものと同様に、カメラ241に接続して、縦領域221乃至224内の輝度レベルをサンプリングすることができ、及び/又は、光源231乃至234に接続して、サンプリングした輝度レベルに応じて光源231乃至234の強度を変調することができる。例えば、上述した通り、処理ユニットは光源231乃至234を変調して、各領域221乃至224の輝度レベルを上げ、カメラ241からの画像を容易にモニタすることができる。   A processing unit (not shown) can be connected to the camera 241 to sample the luminance levels in the vertical regions 221 to 224 and / or the light sources 231 to 231 as described herein. 234 to modulate the intensity of the light sources 231 to 234 according to the sampled luminance level. For example, as described above, the processing unit can modulate the light sources 231 to 234 to increase the luminance level of each region 221 to 224 and easily monitor the image from the camera 241.

図5は、カメラの視野の様々な領域で照明をモニタし制御するのに使用する信号の時間シーケンスの一例である。実線141は、個々のピクセルクラスタの測定した平均輝度を表わしており、破線140は、光源の焦点領域についての目標光強度を表わしている。ドット142は、新しいカメラ画像を集めて輝度サンプリングする時間を表わしている。測定した平均輝度が目標強度の下にあれば、別のスキームを用いて、対応する領域に関連する光源の強度を上げることができる。逆に、測定した平均光強度が目標強度の上にあれば、同じスキームを用いて、対応する領域に関連する光源の輝度を下げることができる。   FIG. 5 is an example of a time sequence of signals used to monitor and control illumination in various regions of the camera's field of view. The solid line 141 represents the measured average brightness of individual pixel clusters, and the dashed line 140 represents the target light intensity for the focal region of the light source. Dot 142 represents the time to collect a new camera image and sample the luminance. If the measured average brightness is below the target intensity, another scheme can be used to increase the intensity of the light source associated with the corresponding region. Conversely, if the measured average light intensity is above the target intensity, the same scheme can be used to reduce the brightness of the light source associated with the corresponding region.

例示的実施例では、実線143は、光源を分割する電圧又は電流の振幅を用いて光強度を制御するスキームを示している。これは、一般に「振幅変調」と呼ばれる。別の実施例では、実線144は、制御電圧又は電流の継続時間又は「滞留時間」を変えて、光強度を制御するスキームを示している。これは、一般に、「パルス幅変調」と呼ばれる。選択的に、両方のスキームを同時に使用することもできる。   In the exemplary embodiment, solid line 143 shows a scheme for controlling the light intensity using the voltage or current amplitude dividing the light source. This is commonly referred to as “amplitude modulation”. In another embodiment, solid line 144 illustrates a scheme for controlling the light intensity by varying the duration or “dwell time” of the control voltage or current. This is commonly referred to as “pulse width modulation”. Optionally, both schemes can be used simultaneously.

所望であれば、カメラが使用できる信号に光を変換していないとき、あるいは、デバイス全体が使用されていない時など、必要がない時には照明を切るようにして、エネルギィを節減し、及び/又は、例えば安全性の理由から全体の照明強度を低減することができる。例えば、図4に示す(あるいは、本明細書に述べたその他の実施例における)光源231乃至234を、例えば、カメラ241が作動していないときにスイッチを切るなど間欠的に動作させることができる。一の例示的実施例では、カメラ241を、周期的に動作させて、その視野の画像並びにサンプル輝度を、例えば取得した画像から得ている。この例では、例えば、カメラが動作している期間の振幅変調及び/又はパルス幅変調を用いて、本明細書に述べたように制御された光源の輝度を有するカメラ241が画像を取得している期間のみ光源231乃至234のスイッチを入れるようにしている。別の例示的実施例では、カメラ241を周期的に動作させて視野の画像を取得し、別に輝度をサンプリングすることができる。この例では、例えば、動作期間に振幅変調及び/又はパルス幅変調を用いて、カメラ241が動作して画像を取得する及び/又は輝度をサンプリングする期間のみ光源231乃至234を間欠的に動作させるようにしている。   If desired, save energy by turning off the lights when not needed, such as when the camera is not converting the light into a usable signal, or when the entire device is not in use, and / or For example, the overall illumination intensity can be reduced for safety reasons. For example, the light sources 231-234 shown in FIG. 4 (or in other embodiments described herein) can be operated intermittently, for example, switched off when the camera 241 is not operating. . In one exemplary embodiment, the camera 241 is operated periodically to obtain an image of its field of view as well as sample brightness from, for example, acquired images. In this example, a camera 241 having a controlled light source brightness as described herein acquires an image using, for example, amplitude modulation and / or pulse width modulation while the camera is operating. The light sources 231 to 234 are switched on only during a certain period. In another exemplary embodiment, the camera 241 can be operated periodically to acquire an image of the field of view and sample the brightness separately. In this example, for example, by using amplitude modulation and / or pulse width modulation during the operation period, the light sources 231 to 234 are intermittently operated only during the period in which the camera 241 operates to acquire an image and / or samples the luminance. I am doing so.

図6は、図1及び7のシステム10と、図4のシステムを用いるなどして、例えば制御された又は均一の照明を生成するフィードバック制御を行うために使用できる例示的アルゴリズムのフローチャートである。各領域(「n」で示す)の平均輝度を、ビデオ画像内で順次測定する。例えば、ステップ310では、複数の光源で照明されているカメラから新しい画像を集めることができる。   FIG. 6 is a flowchart of an exemplary algorithm that can be used to provide feedback control, eg, to produce controlled or uniform illumination, such as using the system 10 of FIGS. 1 and 7 and the system of FIG. The average brightness of each region (denoted “n”) is measured sequentially within the video image. For example, in step 310, new images can be collected from cameras illuminated with multiple light sources.

ステップ320では、第1の光源に対応する第1の焦点領域の平均輝度を、第1の領域内の新しい画像から複数のピクセルをサンプリングすることで、サンプリングすることができる。例えば、第1の領域内の複数のピクセルの実際の輝度レベルを取得して平均化し、第1の領域の平均輝度レベルを決定することができる。ステップ330では、この平均輝度を、第1の領域についての目標強度と比較することができる。平均輝度が目標強度より高い場合(ブランチ330a)、ステップ332において、第1の光源の出力が低減される。平均輝度が目標強度より低い場合(ブランチ330b)、ステップ334において、第1の光源の出力が上がる。このように、ステップ336では、第1の光源を所望の強度に変調する。ステップ338では、数「n」が増えて、ステップ340では、まだサンプリングされていない別の焦点領域が存在することを確認する。「n」が、焦点領域と光源の総数より少ない、あるいはこれと同じである場合は、この処理、すなわち、ステップ320乃至336を第2の焦点領域と光源、その他について繰り返す。全ての焦点領域が、新しい画像と変調された光源からサンプリングされている場合は、新しい画像と共にこの手順を繰り返す(ステップ310から再度スタートする)。このように、各サンプリングに伴って、システムに含まれる光源の全アレイへの出力を、所望のレベルに変調することができる。この処理は、新しいビデオ画像が集められると、あるいは、例えば、サンプリングした輝度を提供するカメラを用いて取得した画像を1つおきに、あるいは画像10枚ごとに、ただ周期的に繰り返される。   In step 320, the average brightness of the first focal region corresponding to the first light source can be sampled by sampling a plurality of pixels from a new image in the first region. For example, the actual luminance level of a plurality of pixels in the first region can be acquired and averaged to determine the average luminance level of the first region. In step 330, this average luminance can be compared to the target intensity for the first region. If the average brightness is higher than the target intensity (branch 330a), in step 332, the output of the first light source is reduced. If the average brightness is lower than the target intensity (branch 330b), in step 334, the output of the first light source is increased. Thus, in step 336, the first light source is modulated to the desired intensity. In step 338, the number “n” is incremented and in step 340 it is confirmed that there is another focal region that has not yet been sampled. If “n” is less than or equal to the total number of focal regions and light sources, this process, ie, steps 320 through 336, is repeated for the second focal region and light sources, etc. If all focal regions have been sampled from a new image and a modulated light source, the procedure is repeated with the new image (starting again from step 310). Thus, with each sampling, the output to the entire array of light sources included in the system can be modulated to a desired level. This process is repeated periodically as new video images are collected, or every other image taken using, for example, a camera that provides sampled brightness, or every 10 images.

目標輝度レベルは、例えば、図1及び7に示すシステム10など、カメラの視野を通して全領域について同じとして、ほぼ均一な輝度を持つシーンを作成するようにしても良い。代替的に、目標輝度をまた選択して、カメラの視野内の異なる空間領域を変化させ、図4に示すシステムのように、画像内の低減した対象物サイズの効果を部分的に補償するようにしても良い。また、選択的に、一又はそれ以上の領域内の目標輝度を上げて、空間的勾配があるパターンを作り、例えば、分析を強化し、例えば、表面あるいは微妙な色の変化における詳細なクラックを顕在化することができる。   The target luminance level may be the same for the entire region through the field of view of the camera, such as the system 10 shown in FIGS. 1 and 7, for example, and a scene having substantially uniform luminance may be created. Alternatively, the target brightness may also be selected to vary different spatial regions in the camera's field of view to partially compensate for the effects of reduced object size in the image, as in the system shown in FIG. Anyway. Optionally, increase the target brightness in one or more regions to create a spatially gradient pattern, for example to enhance analysis, for example, to crack detailed cracks on the surface or subtle color changes. Can manifest.

また、目標輝度レベルを選択して、時間の関数として変化させることができる。異なる波長で発光する照明源セットを用いた場合、各波長を選択してカメラ画像内で異なる構造を顕在化するので、別の目標輝度レベルが求められるであろう。   Also, the target brightness level can be selected and changed as a function of time. When using a set of illumination sources that emit at different wavelengths, different target luminance levels will be required as each wavelength is selected to reveal different structures in the camera image.

いくつかのアプリケーションでは、輝度が、適用した照明システムの一部である電磁源によって支配されている。別のアプリケーションでは、フィードバック制御した照明システムからの光を、太陽あるいは室内光などの周辺光源に重畳することができる。後者の場合、周辺光レベルが変わったときに、所望の輝度レベルに再度変換する必要がある。   In some applications, brightness is dominated by electromagnetic sources that are part of the applied lighting system. In another application, light from a feedback-controlled lighting system can be superimposed on an ambient light source such as the sun or room light. In the latter case, when the ambient light level changes, it is necessary to convert it back to the desired luminance level.

フィードバック制御を行う動的照明を用いたアプリケーションの別の例には、カメラの視野にアプローチするときに車両又は人間を認識する安全チェックポイントが含まれる。この場合、可視又は赤外線照明源のいずれかを動的に変調して、影を防止し及び/又は対象物を照明して均一なシーン輝度とする一方で、画像内でのホットスポットを防止する。   Another example of an application using dynamic lighting with feedback control includes a safety checkpoint that recognizes a vehicle or a person when approaching the camera's field of view. In this case, either a visible or infrared illumination source is dynamically modulated to prevent shadows and / or illuminate the object for uniform scene brightness while preventing hot spots in the image. .

フィードバック制御を行う動的照明を用いたアプリケーションの別の例は、生産物あるいは、リンゴや魚(図示せず)などのその他の食品の分別に使用されているものなどの組み立てライン又はコンベヤベルトシステム内の分別プロセスである。様々な反射特性、サイズ、形状、及び/又は方向性がある対象物がカメラの視野に入ると、照明が動的に調節されて、より良好に寸法を測定し、及び/又は、対象物を認識する。本例では、カメラ(又は、本明細書に記載されているように、複数のカメラ)と、複数の光源を、組み立てライン又はコンベヤベルト近傍の静止したサポートに装着して、組み立てライン又はコンベヤベルト(図示せず)上を搬送される対象物に向ける。代替的に、複数の静止カメラを設けて、例えば、それぞれのカメラに対して静止している、あるいは、組み立てライン又はコンベヤベルト上の対象物と共に光源が移動するように組み立てライン又はコンベヤベルトに装着された、複数の光源セットを設けるようにしても良い。   Another example of an application using dynamic lighting with feedback control is an assembly line or conveyor belt system such as those used to separate products or other foods such as apples and fish (not shown) It is a separation process within. As an object with various reflective properties, sizes, shapes, and / or orientations enters the camera's field of view, the illumination is dynamically adjusted to better measure dimensions and / or recognize. In this example, a camera (or multiple cameras as described herein) and multiple light sources are mounted on a stationary support near the assembly line or conveyor belt to produce the assembly line or conveyor belt. Directed to the object to be transported (not shown). Alternatively, a plurality of stationary cameras may be provided, for example, stationary to each camera, or mounted on an assembly line or conveyor belt so that the light source moves with objects on the assembly line or conveyor belt A plurality of light source sets may be provided.

フィードバック制御を行う動的照明を用いたアプリケーションの別の例には、タイヤと駆動シャフトを正確に整列させるのに使用するといった、アラインメントシステムが含まれる。フィードバック制御を行う動的照明を用いたアプリケーションの別の例は顔認証の分野である。   Another example of an application using dynamic lighting with feedback control includes an alignment system, such as used to accurately align a tire and a drive shaft. Another example of an application using dynamic lighting with feedback control is in the field of face recognition.

例示的実施例に関する上記の開示は、図解と説明の目的で提示されている。開示されている詳細な形式に本発明を排除あるいは制限することは意図していない。本明細書に記載した実施例の多くの変形例や変更例は、上記開示に照らして当業者には自明である。   The above disclosure regarding exemplary embodiments has been presented for purposes of illustration and description. It is not intended to exclude or limit the invention to the precise form disclosed. Many variations and modifications of the embodiments described herein will be apparent to those skilled in the art in light of the above disclosure.

更に、代表的な実施例を説明するにあたって、本明細書は、特定のシーケンスのステップとして方法及び/又はプロセスを提供している。しかしながら、この方法又はプロセスの範囲は、本明細書に記載のステップの特定の順序に頼るものではなく、この方法又はプロセスは、特定のシーケンスのステップに限定されない。当業者には自明であるが、その他のシーケンスのステップが可能である。従って、本明細書に記載のステップの特定の順序は、特許請求の範囲における限定とはならない。   Further, in describing representative embodiments, the specification provides methods and / or processes as specific sequence steps. However, the scope of the method or process does not depend on the specific order of steps described herein, and the method or process is not limited to a specific sequence of steps. Those skilled in the art will appreciate that other sequence steps are possible. Accordingly, the specific order of the steps described herein is not a limitation on the scope of the claims.

本発明は、様々な変形例を受け入れるが、本発明は、ここに開示された特定の形式や方法に限定されるものではなく、この変更フォームや、特定の例は、図面に示されており、詳細に説明されている。しかしながら、本発明は、本明細書に開示した特定の形式又は方法に限定されるものではなく、むしろ、特許請求の範囲内にある変形例、均等物、変更例を全てカバーしている。   While the invention is susceptible to various modifications, it should be understood that the invention is not limited to the specific forms and methods disclosed herein, and that this modified form and specific examples are shown in the drawings. Have been described in detail. However, the invention is not limited to the specific forms or methods disclosed herein, but rather covers all modifications, equivalents, and variations that are within the scope of the claims.

Claims (70)

人の眼をモニタするシステムにおいて:
人の頭部に装着するように構成されたデバイスと;
前記デバイスに装填し、前記デバイスを装着している人の第1の眼を見るように配置したカメラと;
前記第1の眼の周りであって、前記カメラの視野内の前記人の顔の各焦点領域を選択的に照明する、前記デバイス上の複数の光源と;
前記カメラと前記光源に接続されたコントローラであって、前記カメラを用いて前記光源の各焦点領域の輝度をサンプリングするとともに、少なくとも部分的に当該サンプリングした輝度に基づいて前記光源を変調して前記各焦点領域内に所望の輝度レベルを提供するように構成されたコントローラと;
を具えることを特徴とするシステム。
In a system that monitors the human eye:
A device configured to be worn on a human head;
A camera mounted on the device and arranged to view a first eye of a person wearing the device;
A plurality of light sources on the device that selectively illuminate each focal region of the person's face within the field of view of the camera around the first eye;
A controller connected to the camera and the light source, wherein the camera is used to sample the brightness of each focal region of the light source, and at least partially modulate the light source based on the sampled brightness to A controller configured to provide a desired brightness level within each focal region;
A system characterized by comprising.
請求項1に記載のシステムにおいて、前記コントローラが前記デバイスに装填されていることを特徴とするシステム。   The system of claim 1, wherein the controller is loaded into the device. 請求項1に記載のシステムにおいて、前記コントローラが前記デバイスから離れて配置されていることを特徴とするシステム。   The system of claim 1, wherein the controller is located remotely from the device. 請求項1に記載のシステムにおいて、前記コントローラが、第1の光源で照明されている前記カメラの視野内の第1の焦点領域に対応する前記カメラの複数のピクセルからの輝度をサンプリングするように構成されており、当該コントーラが、前記サンプリングした輝度を組み合わせて前記第1の光源によって提供される平均輝度を決定し、前記コントローラが、前記第1の光源を変調して前記第1の焦点領域内の所望の輝度レベルを提供する、ことを特徴とするシステム。   The system of claim 1, wherein the controller samples brightness from a plurality of pixels of the camera corresponding to a first focal region in the field of view of the camera that is illuminated with a first light source. And the controller combines the sampled luminances to determine an average luminance provided by the first light source, and the controller modulates the first light source to modulate the first focal region. Providing a desired brightness level within the system. 請求項4に記載のシステムにおいて、前記コントローラが、前記第1の光源への電流と電圧の少なくとも一方を振幅変調して、所望の輝度レベルを提供するように構成されていることを特徴とするシステム。   5. The system of claim 4, wherein the controller is configured to amplitude modulate at least one of a current and a voltage to the first light source to provide a desired brightness level. system. 請求項4に記載のシステムにおいて、前記コントローラが、前記第1の光源への電流と電圧の少なくとも一方をパルス幅変調して、所望の輝度レベルを提供するように構成されていることを特徴とするシステム。   5. The system of claim 4, wherein the controller is configured to pulse width modulate at least one of a current and a voltage to the first light source to provide a desired brightness level. System. 請求項1に記載のシステムにおいて、前記コントローラが、前記カメラが作動している期間のみ前記光源を活性にして、前記第1の眼の画像を取得するように構成されていることを特徴とするシステム。   The system according to claim 1, wherein the controller is configured to activate the light source and acquire an image of the first eye only while the camera is operating. system. 請求項1に記載のシステムにおいて、前記光源所望の輝度レベルがほぼ均一であることを特徴とするシステム。   The system of claim 1, wherein the desired brightness level of the light source is substantially uniform. 請求項1に記載のシステムにおいて、前記光源がLEDを具えることを特徴とするシステム。   The system of claim 1, wherein the light source comprises an LED. 請求項1に記載のシステムにおいて、前記カメラがCCDとCMOS検出器の一方を具えることを特徴とするシステム。   The system of claim 1, wherein the camera comprises one of a CCD and a CMOS detector. 請求項1に記載のシステムが更に、前記カメラに接続された処理ユニットを具え、前記カメラからの第1の眼の画像を受信することを特徴とするシステム。   The system according to claim 1, further comprising a processing unit connected to the camera, wherein the system receives a first eye image from the camera. 空間的に制御された照明を行うフィードバック制御システムにおいて:
視野の二又はそれ以上の空間領域のシーン輝度を測定するカメラと;
前記カメラの視野内の対応する領域を選択的に照明する光源と;
前記カメラの視野内の各領域内の平均輝度を計算して、対応する光源を一又はそれ以上の目標輝度レベルに変調して当該視野内に所望の輝度レベルを提供するプロセッサと;
を具えることを特徴とするシステム。
In a feedback control system with spatially controlled lighting:
A camera for measuring scene brightness in two or more spatial regions of the field of view;
A light source that selectively illuminates a corresponding region in the field of view of the camera;
A processor that calculates an average luminance in each region within the field of view of the camera and modulates the corresponding light source to one or more target luminance levels to provide a desired luminance level within the field of view;
A system characterized by comprising.
請求項12に記載のシステムにおいて、前記カメラと前記光源が、人の頭に装着するように構成したデバイスに装填されており、前記カメラが前記デバイスを装着している人の第1の眼を見るように前記デバイスに配置されており、前記光源が前記第1の眼の周りであって、前記カメラの視野内の前記人の顔の各焦点領域を選択的に照明するように前記デバイスに配置されている、ことを特徴とするシステム。   13. The system according to claim 12, wherein the camera and the light source are loaded into a device configured to be worn on a person's head, and the camera has a first eye of a person wearing the device. Positioned on the device for viewing, the light source being around the first eye and selectively illuminating each focal region of the person's face within the field of view of the camera A system characterized by being arranged. 請求項13に記載のシステムにおいて、前記プロセッサが前記デバイスから離れて配置されていることを特徴とするシステム。   14. The system of claim 13, wherein the processor is located remotely from the device. 請求項12に記載のシステムにおいて、前記プロセッサが、第1の光源で照明されている前記カメラの視野内の第1の焦点領域に対応する前記カメラの複数のピクセルからの輝度をサンプリングするように構成されており、当該プロセッサが、前記サンプリングした輝度を組み合わせて前記第1の光源によって提供される平均輝度を決定し、前記プロセッサが、前記第1の光源を変調して前記第1の焦点領域内の所望の輝度レベルを提供する、ことを特徴とするシステム。   13. The system of claim 12, wherein the processor samples luminance from a plurality of pixels of the camera corresponding to a first focal region in the field of view of the camera that is illuminated with a first light source. And the processor combines the sampled luminances to determine an average luminance provided by the first light source, and the processor modulates the first light source to modulate the first focal region. Providing a desired brightness level within the system. 請求項12に記載のシステムにおいて、前記プロセッサが、前記光源への電流と電圧のうちの少なくとも一方を振幅変調して、所望の輝度レベルを提供するように構成されていることを特徴とするシステム。   13. The system of claim 12, wherein the processor is configured to amplitude modulate at least one of a current and a voltage to the light source to provide a desired brightness level. . 請求項12に記載のシステムにおいて、前記プロセッサが、前記光源への電流と電圧のうちの少なくとも一方をパルス幅変調して、所望の輝度レベルを提供するように構成されていることを特徴とするシステム。   13. The system of claim 12, wherein the processor is configured to pulse width modulate at least one of a current and a voltage to the light source to provide a desired brightness level. system. 請求項12に記載のシステムにおいて、前記プロセッサが前記光源に接続されて、前記カメラが作動している期間のみ前記光源を活性化させて、前記第1の眼の画像を取得するように構成されていることを特徴とするシステム。   13. The system of claim 12, wherein the processor is connected to the light source and configured to activate the light source and acquire the first eye image only while the camera is operating. System characterized by that. 請求項18に記載のシステムにおいて、前記プロセッサが、前記カメラが作動している期間に前記光源への電流及び電圧の少なくとも一方をパルス幅変調して、所望の輝度レベルを提供するように構成されていることを特徴とするシステム。   19. The system of claim 18, wherein the processor is configured to pulse width modulate at least one of the current and voltage to the light source to provide a desired brightness level during the camera operation. System characterized by that. 請求項12に記載のシステムにおいて、前記プロセッサが前記光源に接続されて、前記カメラが稼働していないときに前記光源を活性化させないことを特徴とするシステム。   13. The system of claim 12, wherein the processor is connected to the light source and does not activate the light source when the camera is not running. 請求項12に記載のシステムにおいて、前記光源の所望の輝度レベルがほぼ均一であることを特徴とするシステム。   13. The system according to claim 12, wherein the desired brightness level of the light source is substantially uniform. 請求項12に記載のシステムにおいて、前記視野内の各焦点領域の位置に少なくとも部分的に基づいて前記光源の所望の輝度レベルが可変であることを特徴とするシステム。   The system of claim 12, wherein a desired brightness level of the light source is variable based at least in part on the position of each focal region within the field of view. 請求項12に記載のシステムにおいて、前記光源がLEDを具えることを特徴とするシステム。   The system of claim 12, wherein the light source comprises an LED. 請求項12に記載のシステムにおいて、前記カメラがCCDとCMOS検出器のうちの一方を具えることを特徴とするシステム。   The system of claim 12, wherein the camera comprises one of a CCD and a CMOS detector. 請求項12に記載のシステムが更に電子ディスプレイを具え、前記カメラと光源が当該ディスプレイに対して、当該カメラと光源が前記電子ディスプレイを見ている人の顔の方向を向くように装着されていることを特徴とするシステム。   13. The system of claim 12, further comprising an electronic display, wherein the camera and light source are mounted relative to the display such that the camera and light source face the face of the person viewing the electronic display. A system characterized by that. 請求項25に記載のシステムにおいて、前記カメラと光源が前記ディスプレイの上に装着されていることを特徴とするシステム。   26. The system of claim 25, wherein the camera and light source are mounted on the display. 請求項12に記載のシステムにおいて、前記カメラが車両のダッシュボードの上に、当該カメラが当該車両のオペレータの顔の方向を向くように装着されていることを特徴とするシステム。   13. The system according to claim 12, wherein the camera is mounted on a dashboard of the vehicle so that the camera faces the face of the operator of the vehicle. 請求項27に記載のシステムにおいて、前記光源が、当該光源が前記オペレータの顔の方向を向くように車両に装着されて、前記カメラの視野内の前記オペレータの顔の各焦点領域を選択的に照明することを特徴とするシステム。   28. The system of claim 27, wherein the light source is mounted on a vehicle such that the light source faces the operator's face to selectively select each focal region of the operator's face within the field of view of the camera. A system characterized by lighting. 請求項12に記載のシステムにおいて、前記カメラが組み立てライン又はコンベヤベルト近傍の構造体に装填されており、当該組み立てライン又はコンベヤベルトに沿った方向にある対象物の画像を取得することを特徴とするシステム。   13. The system of claim 12, wherein the camera is loaded on a structure near an assembly line or conveyor belt and acquires an image of an object in a direction along the assembly line or conveyor belt. System. 請求項12に記載のシステムにおいて、前記カメラが複数のストレージ領域近傍の構造体に装填されており、当該ストレージ領域に位置する対象物の画像を取得することを特徴とするシステム。   13. The system according to claim 12, wherein the camera is mounted on a plurality of structures in the vicinity of a storage area, and acquires an image of an object located in the storage area. 請求項30に記載のシステムにおいて、前記光源が前記ストレージ領域近傍に装填されており、前記カメラの視野内のストレージ領域の各焦点領域を選択的に照明することを特徴とするシステム。   31. The system of claim 30, wherein the light source is loaded near the storage area and selectively illuminates each focal area of the storage area within the field of view of the camera. 請求項31に記載のシステムにおいて、前記プロセッサが前記光源に接続されて、当該光源を前記各焦点領域内の平均輝度に基づいて変調し、前記視野内にほぼ均一な輝度レベルを提供することを特徴とするシステム。   32. The system of claim 31, wherein the processor is connected to the light source and modulates the light source based on an average brightness in each focal region to provide a substantially uniform brightness level in the field of view. Feature system. 請求項31に記載のシステムにおいて、前記プロセッサが前記光源に接続されて、当該光源を前記各焦点領域内の平均輝度に基づいて変調し、前記視野内に可変輝度レベルを提供することを特徴とするシステム。   32. The system of claim 31, wherein the processor is connected to the light source and modulates the light source based on an average brightness in each focal region to provide a variable brightness level in the field of view. System. 請求項33に記載のシステムにおいて、前記プロセッサが前記光源に接続されて、当該光源を変調し、その他の焦点領域より前記カメラから離れている焦点領域により高い輝度を提供することを特徴とするシステム。   34. The system of claim 33, wherein the processor is connected to the light source to modulate the light source and provide higher brightness in a focal region that is further from the camera than other focal regions. . 人の第1の眼の照明を制御する方法において:
人の第1の眼がカメラの視野内に来るようにカメラを人の顔に向けて配置するステップと;
前記人の顔の少なくとも一部を、前記第1の眼の周りであり前記カメラの視野内の前記人の顔の各焦点領域を選択的に照明する複数の光源で照明するステップと;
前記カメラを用いて前記光源の各焦点領域の輝度をサンプリングするステップと;
前記サンプリングした輝度に少なくとも部分的に基づいて前記光源を変調して、前記各焦点領域内に所望の輝度レベルを提供するステップと;
を具えることを特徴とする方法。
In a method for controlling illumination of a person's first eye:
Positioning the camera toward the person's face so that the person's first eye is within the field of view of the camera;
Illuminating at least a portion of the person's face with a plurality of light sources around the first eye and selectively illuminating each focal region of the person's face within the field of view of the camera;
Sampling the brightness of each focal region of the light source using the camera;
Modulating the light source based at least in part on the sampled luminance to provide a desired luminance level in each focal region;
A method characterized by comprising.
請求項35に記載の方法において、前記カメラが人の頭に装着するように構成されたデバイスに装填されており、前記カメラが、前記デバイスを人の頭の上に置くことによって当該人の顔を向くように位置することを特徴とする方法。   36. The method of claim 35, wherein the camera is loaded into a device configured to be worn on a person's head, the camera placing the device on the person's head to place the person's face. A method characterized by being positioned so as to face. 請求項35に記載の方法において、前記カメラに接続したコントローラを用いて前記各焦点領域の輝度をサンプリングし、当該コントローラを前記光源に接続して、前記サンプリングした輝度に少なくとも部分的に基づいて前記光源を変調することを特徴とする方法。   36. The method of claim 35, wherein the controller is connected to the camera to sample the brightness of each focal region, the controller is connected to the light source, and based at least in part on the sampled brightness. A method comprising modulating a light source. 請求項37に記載の方法において、前記カメラが人の頭部に装着するように構成されたデバイスに装填されており、前記コントローラが前記デバイスから離れて配置されていることを特徴とする方法。   38. The method of claim 37, wherein the camera is mounted on a device configured to be worn on a human head and the controller is located remotely from the device. 請求項35に記載の方法において、輝度をサンプリングするステップが:
第1の光源で照明される前記カメラの視野内の第1の焦点領域に対応する、前記カメラの複数のピクセルから輝度をサンプリングするステップと;
前記第1の光源によって提供される平均輝度を決定するステップと;
を具え、
前記光源を変調するステップが、前記第1の光源を変調して、前記決定した平均輝度に少なくとも部分的に基づいて前記第1の焦点領域内に所望の輝度レベルを提供する、ことを特徴とする方法。
36. The method of claim 35, wherein the luminance sampling step:
Sampling luminance from a plurality of pixels of the camera corresponding to a first focal region in the field of view of the camera illuminated by a first light source;
Determining an average brightness provided by the first light source;
With
Modulating the light source modulates the first light source to provide a desired brightness level in the first focal region based at least in part on the determined average brightness; how to.
請求項35に記載の方法において、前記光源を変調するステップが、前記光源への電流と電圧の少なくとも一方の振幅を変調して、前記各焦点領域内に所望の輝度レベルを提供することを特徴とする方法。   36. The method of claim 35, wherein the step of modulating the light source modulates an amplitude of at least one of a current and a voltage to the light source to provide a desired brightness level in each focal region. And how to. 請求項35に記載の方法において、前記光源を変調するステップが、前記光源への電流と電圧の少なくとも一方のパルス幅を変調して、前記各焦点領域内に所望の輝度レベルを提供することを特徴とする方法。   36. The method of claim 35, wherein modulating the light source comprises modulating a pulse width of at least one of current and voltage to the light source to provide a desired brightness level in each focal region. Feature method. 請求項35に記載の方法において、前記光源を変調して、前記カメラの視野内にほぼ均一な輝度を提供することを特徴とする方法。   36. The method of claim 35, wherein the light source is modulated to provide a substantially uniform brightness within the field of view of the camera. 請求項35に記載の方法が更に、前記カメラを用いて前記第1の眼の画像をモニタするステップを具えることを特徴とする方法。   36. The method of claim 35, further comprising monitoring the image of the first eye using the camera. 請求項43に記載の方法において、前記第1の眼の画像をモニタして:
a)前記人の眠気レベルを測定する、
b)電子デバイスを少なくとも部分的に制御する、
c)前記人からの生体自己制御を提供する、
のうちの少なくとも1つを行うことを特徴とする方法。
44. The method of claim 43, wherein the first eye image is monitored:
a) measuring the sleepiness level of the person,
b) at least partially controlling the electronic device;
c) providing biological self-control from said person;
Performing at least one of the following:
シーンの照明を制御する方法において:
シーンの一又はそれ以上の対象物がカメラの視野内に入るようにシーンにカメラを向けるステップと;
前記シーンを、前記カメラの視野内の各焦点領域を選択的に照明する複数の光源で照明するステップと;
前記カメラを用いて前記光源の各焦点領域の輝度をサンプリングするステップと;
前記サンプリングした輝度に少なくとも部分的に基づいて前記光源を変調して、前記各焦点領域内に所望の輝度レベルを提供するステップと;
を具えることを特徴とする方法。
In a method for controlling the lighting of a scene:
Directing the camera to the scene so that one or more objects of the scene are within the field of view of the camera;
Illuminating the scene with a plurality of light sources that selectively illuminate each focal region within the field of view of the camera;
Sampling the brightness of each focal region of the light source using the camera;
Modulating the light source based at least in part on the sampled luminance to provide a desired luminance level in each focal region;
A method characterized by comprising.
請求項45に記載の方法において、前記シーンが少なくとも人の顔の一部を含み、前記一又はそれ以上の対象物が、当該人の少なくとも一方の眼を具えることを特徴とする方法。   46. The method of claim 45, wherein the scene includes at least a portion of a person's face, and the one or more objects comprise at least one eye of the person. 請求項45に記載の方法において、前記カメラが前記人の頭部にあるデバイスに装填されていることを特徴とする方法。   46. The method of claim 45, wherein the camera is loaded into a device on the person's head. 請求項45に記載の方法において、前記複数の光源が前記人の頭部のデバイスに装填されていることを特徴とする方法。   46. The method of claim 45, wherein the plurality of light sources are loaded into the human head device. 請求項45に記載の方法において、前記カメラが前記人の頭部から離れた位置に装填されていることを特徴とする方法。   46. The method of claim 45, wherein the camera is loaded at a location remote from the person's head. 請求項45に記載の方法において、前記複数の光源が前記人の頭部から離れた位置に装填されていることを特徴とする方法。   46. The method of claim 45, wherein the plurality of light sources are loaded at a location remote from the person's head. 請求項45に記載の方法において、前記各焦点領域内の輝度が、前記カメラに接続されたコントローラを用いてサンプリングされ、前記コントローラが前記光源に接続されて、前記サンプリングした輝度に少なくとも部分的に基づいて前記光源を変調することを特徴とする方法。   46. The method of claim 45, wherein the luminance in each focal region is sampled using a controller connected to the camera, and the controller is connected to the light source and is at least partially in the sampled luminance. Modulating the light source based on the method. 請求項45に記載の方法において、輝度をサンプリングするステップが:
第1の光源によって照明される前記カメラの視野内の第1の焦点領域に対応する前記カメラの複数ピクセルからの輝度をサンプリングするステップと;
前記複数ピクセルからサンプリングした輝度から前記第1の光源によって提供される平均輝度を決定するステップと;
を具え、
前記光源を変調するステップが、前記第1の光源を変調して、前記決定した平均輝度に少なくとも部分的に基づいて前記第1の焦点領域内に所望の輝度レベルを提供することを特徴とする方法。
46. The method of claim 45, wherein the luminance sampling step:
Sampling the luminance from a plurality of pixels of the camera corresponding to a first focal region in the field of view of the camera illuminated by a first light source;
Determining an average brightness provided by the first light source from brightness sampled from the plurality of pixels;
With
Modulating the light source modulates the first light source to provide a desired brightness level in the first focal region based at least in part on the determined average brightness. Method.
請求項52に記載の方法において、輝度をサンプリングするステップが更に:
第2の光源によって照明される前記カメラの視野内の第2の焦点領域に対応する前記カメラの複数ピクセルからの輝度をサンプリングするステップと;
前記第2の光源によって提供される平均輝度を決定するステップと;
を具え、
前記光源を変調するステップが、前記第2の光源を変調して、前記決定した平均輝度に少なくとも部分的に基づいて前記第2の焦点領域内に所望の輝度レベルを提供することを特徴とする方法。
53. The method of claim 52, further comprising the step of sampling the luminance:
Sampling the luminance from a plurality of pixels of the camera corresponding to a second focal region in the field of view of the camera illuminated by a second light source;
Determining an average brightness provided by the second light source;
With
The step of modulating the light source modulates the second light source to provide a desired brightness level in the second focal region based at least in part on the determined average brightness. Method.
請求項45に記載の方法において、前記光源を変調するステップが、前記光源への電流及び電圧の少なくとも一方の振幅を変更して、前記各焦点領域内に所望の輝度レベルを提供することを特徴とする方法。   46. The method of claim 45, wherein the step of modulating the light source alters an amplitude of at least one of a current and a voltage to the light source to provide a desired brightness level in each focal region. And how to. 請求項45に記載の方法において、前記光源を変調するステップが、前記光源への電流及び電圧の少なくとも一方のパルス幅を変更して、前記各焦点領域内に所望の輝度レベルを提供することを特徴とする方法。   46. The method of claim 45, wherein modulating the light source alters a pulse width of at least one of current and voltage to the light source to provide a desired brightness level in each focal region. Feature method. 請求項45に記載の方法において、前記光源を変調して、前記カメラの視野内にほぼ均一な輝度を提供することを特徴とする方法。   46. The method of claim 45, wherein the light source is modulated to provide a substantially uniform brightness within the field of view of the camera. 請求項45に記載の方法において、前記光源を変調して、前記カメラの視野内の異なる部分内で変化する所定の輝度を提供することを特徴とする方法。   46. The method of claim 45, wherein the light source is modulated to provide a predetermined brightness that varies in different portions within the field of view of the camera. 請求項45に記載の方法において、前記カメラと光源が電子ディスプレイを見ている人の顔を向くように当該電子ディスプレイに対して装填されており、前記光源を変調して前記カメラの視野内の前記人の顔の各焦点領域に所望の輝度レベルを提供することを特徴とする方法。   46. The method of claim 45, wherein the camera and light source are loaded with respect to the electronic display so that they face the face of a person looking at the electronic display, and the light source is modulated to be within the field of view of the camera. Providing a desired luminance level for each focal region of the person's face. 請求項45に記載の方法において、前記カメラが車両のオペレータの顔を向くように当該車両のダッシュボードに装填されていることを特徴とする方法。   46. The method of claim 45, wherein the camera is mounted on a dashboard of the vehicle so as to face the operator of the vehicle. 請求項59に記載の方法において、前記光源が、前記オペレータの顔を向くように前記車両に装填されて、前記カメラの視野内の前記オペレータの顔の各焦点領域を選択的に照明することを特徴とする方法。   60. The method of claim 59, wherein the light source is mounted on the vehicle to face the operator's face to selectively illuminate each focal region of the operator's face within the camera's field of view. Feature method. 請求項45に記載の方法において、前記カメラが組み立てライン又はコンベヤベルトに向けられており、当該組み立てライン又はコンベヤベルトに沿うように向けられた対象物の画像を得ることを特徴とする方法。   46. The method of claim 45, wherein the camera is directed to an assembly line or conveyor belt and obtains an image of an object oriented along the assembly line or conveyor belt. 請求項45に記載の方法において、前記カメラが複数のストレージ領域の方向を向いており、当該ストレージ領域に位置している対象物の画像を取得することを特徴とする方法。   46. The method of claim 45, wherein the camera is oriented in a plurality of storage areas and acquires an image of an object located in the storage areas. 請求項62に記載の方法において、前記光源が前記ストレージ領域の方向を向いており、前記カメラの視野内の前記ストレージ領域の各焦点領域を選択的に照明することを特徴とする方法。   63. The method of claim 62, wherein the light source is directed toward the storage area and selectively illuminates each focal area of the storage area within the field of view of the camera. 請求項63に記載の方法において、前記光源を変調して、前記視野内にほぼ均一な輝度を提供することを特徴とする方法。   64. The method of claim 63, wherein the light source is modulated to provide a substantially uniform brightness within the field of view. 請求項63に記載の方法において、前記光源を変調して、前記視野内に可変輝度レベルを提供することを特徴とする方法。   64. The method of claim 63, wherein the light source is modulated to provide a variable brightness level within the field of view. 請求項65に記載の方法において、前記光源を変調して、その他の焦点領域より前記カメラから離れた位置にある焦点領域により高い輝度レベルを提供することを特徴とする方法。   66. The method of claim 65, wherein the light source is modulated to provide a higher brightness level for a focal region that is further from the camera than other focal regions. 請求項45に記載の方法が更に、前記カメラを用いて画像を取得するステップを具え、前記光源の各焦点領域の輝度を前記カメラを用いて取得した画像からサンプリングすることを特徴とする方法。   46. The method of claim 45, further comprising obtaining an image using the camera, wherein the brightness of each focal region of the light source is sampled from the image obtained using the camera. 請求項67に記載の方法において、前記カメラが画像を取得していないときには、前記光源のスイッチが切られることを特徴とする方法。   68. The method of claim 67, wherein the light source is switched off when the camera is not acquiring an image. 請求項45に記載の方法が更に、前記カメラを用いて画像を取得するステップを具え、前記光源の各焦点領域の輝度を前記カメラを用いて取得した画像と別にサンプリングすることを特徴とする方法。   46. The method of claim 45, further comprising the step of acquiring an image using the camera, wherein the brightness of each focal region of the light source is sampled separately from the image acquired using the camera. . 請求項69に記載の方法において、前記カメラが画像を取得している間と、前記光源の各焦点領域の輝度をサンプリングするときのみ光源が活性であることを特徴とする方法。   70. The method of claim 69, wherein the light source is active only while the camera is acquiring images and only when sampling the brightness of each focal region of the light source.
JP2012556180A 2010-03-01 2011-03-01 System and method for spatially adjusted scene lighting Withdrawn JP2013521710A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/715,177 US8890946B2 (en) 2010-03-01 2010-03-01 Systems and methods for spatially controlled scene illumination
US12/715,177 2010-03-01
PCT/US2011/026736 WO2011149577A2 (en) 2010-03-01 2011-03-01 Systems and methods for spatially controlled scene illumination

Publications (1)

Publication Number Publication Date
JP2013521710A true JP2013521710A (en) 2013-06-10

Family

ID=44505076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012556180A Withdrawn JP2013521710A (en) 2010-03-01 2011-03-01 System and method for spatially adjusted scene lighting

Country Status (8)

Country Link
US (2) US8890946B2 (en)
EP (1) EP2543187B1 (en)
JP (1) JP2013521710A (en)
KR (1) KR101829850B1 (en)
CN (1) CN102918834B (en)
AU (1) AU2011258826A1 (en)
RU (1) RU2012141574A (en)
WO (1) WO2011149577A2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018191293A (en) * 2016-03-01 2018-11-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Adaptive light source
JP2021521054A (en) * 2018-04-19 2021-08-26 シーイング マシーンズ リミテッド Infrared light source protection system
JP2022535456A (en) * 2019-06-11 2022-08-08 ジェンテックス コーポレイション Wearable medical device

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
KR101383235B1 (en) * 2010-06-17 2014-04-17 한국전자통신연구원 Apparatus for inputting coordinate using eye tracking and method thereof
WO2012011181A1 (en) * 2010-07-22 2012-01-26 富士通株式会社 Vein image capturing device
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
BR112014010230A8 (en) 2011-10-28 2017-06-20 Magic Leap Inc system and method for augmented and virtual reality
TWI471808B (en) * 2012-07-20 2015-02-01 Pixart Imaging Inc Pupil detection device
US9854159B2 (en) * 2012-07-20 2017-12-26 Pixart Imaging Inc. Image system with eye protection
TW201416908A (en) * 2012-10-23 2014-05-01 Pixart Imaging Inc Pupil tracking device
CN103793045B (en) * 2012-10-31 2016-12-28 原相科技股份有限公司 Pupil tracing device
KR102205374B1 (en) 2012-12-06 2021-01-21 아이플루언스, 인크. Eye tracking wearable devices and methods for use
US8761594B1 (en) 2013-02-28 2014-06-24 Apple Inc. Spatially dynamic illumination for camera systems
US9788906B2 (en) 2013-03-15 2017-10-17 Synaptive Medical (Barbados) Inc. Context aware surgical systems for intraoperatively configuring imaging devices
US10063782B2 (en) * 2013-06-18 2018-08-28 Motorola Solutions, Inc. Method and apparatus for displaying an image from a camera
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
WO2015034560A1 (en) 2013-09-03 2015-03-12 Tobii Technology Ab Portable eye tracking device
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
TWI532413B (en) * 2013-09-11 2016-05-01 晶睿通訊股份有限公司 Light compensating system and method thereof
US9736373B2 (en) * 2013-10-25 2017-08-15 Intel Corporation Dynamic optimization of light source power
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US12105281B2 (en) 2014-01-21 2024-10-01 Mentor Acquisition One, Llc See-through computer display systems
US12093453B2 (en) 2014-01-21 2024-09-17 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20160018654A1 (en) 2014-01-24 2016-01-21 Osterhout Group, Inc. See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20170090557A1 (en) * 2014-01-29 2017-03-30 Google Inc. Systems and Devices for Implementing a Side-Mounted Optical Sensor
US9396571B2 (en) * 2014-02-10 2016-07-19 International Business Machines Corporation Simplified lighting compositing
US12112089B2 (en) 2014-02-11 2024-10-08 Mentor Acquisition One, Llc Spatial location presentation in head worn computing
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US20160137312A1 (en) 2014-05-06 2016-05-19 Osterhout Group, Inc. Unmanned aerial vehicle launch system
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US9600069B2 (en) 2014-05-09 2017-03-21 Google Inc. Systems and methods for discerning eye signals and continuous biometric identification
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
JP2016032257A (en) * 2014-07-30 2016-03-07 株式会社デンソー Driver monitoring device
JP2017528888A (en) * 2014-09-25 2017-09-28 フィリップス ライティング ホールディング ビー ヴィ Lighting control
WO2016084385A1 (en) * 2014-11-27 2016-06-02 京セラ株式会社 Imaging device and vehicle
US9635231B2 (en) 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
US9674415B2 (en) 2014-12-22 2017-06-06 Google Inc. Time-of-flight camera system with scanning illuminator
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US10909164B2 (en) 2015-04-02 2021-02-02 Essilor International Method for updating an index of a person
WO2016162554A1 (en) * 2015-04-10 2016-10-13 Essilor International (Compagnie Generale D'optique) Head mounted display device
CA2986146A1 (en) 2015-05-19 2016-11-24 Magic Leap, Inc. Dual composite light field device
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
JP2018533099A (en) 2015-09-24 2018-11-08 カリフォルニア インスティチュート オブ テクノロジー Data visualization system and method using three-dimensional display
CN106814518A (en) * 2015-12-01 2017-06-09 深圳富泰宏精密工业有限公司 Auto-focusing camera system and electronic installation
US10480937B2 (en) * 2016-01-28 2019-11-19 Manatec Electronics Pvt. Ltd. System for simultaneous measurement of wheel alignment angles and wheel runout of multi-axle vehicles
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9826299B1 (en) 2016-08-22 2017-11-21 Osterhout Group, Inc. Speaker systems for head-worn computer systems
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US9910284B1 (en) 2016-09-08 2018-03-06 Osterhout Group, Inc. Optical systems for head-worn computers
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10084979B2 (en) 2016-07-29 2018-09-25 International Business Machines Corporation Camera apparatus and system, method and recording medium for indicating camera field of view
KR102548199B1 (en) * 2016-08-03 2023-06-28 삼성전자주식회사 Electronic device and method for tracking gaze in the electronic device
CN106128406B (en) * 2016-09-08 2019-01-22 京东方科技集团股份有限公司 Eye map sheet value adjusting method, data transmission method, circuit and display device
US10925479B2 (en) * 2016-10-13 2021-02-23 Ronald Michael Kurtz Networked system of mobile communication platforms for nonpharmacologic constriction of a pupil
US10580234B2 (en) 2017-01-20 2020-03-03 Adesa, Inc. Vehicle documentation system
US10302764B2 (en) * 2017-02-03 2019-05-28 Microsoft Technology Licensing, Llc Active illumination management through contextual information
CN108507636B (en) * 2017-02-27 2020-11-20 深圳市朗驰欣创科技股份有限公司 Method for detecting water accumulation condition of channel, inspection device and water level detection equipment
CN114125661B (en) 2017-03-30 2024-05-31 奇跃公司 Sound reproduction system and head-mounted device
US10977858B2 (en) 2017-03-30 2021-04-13 Magic Leap, Inc. Centralized rendering
KR20240014589A (en) 2017-04-14 2024-02-01 매직 립, 인코포레이티드 Multimodal eye tracking
US10295827B1 (en) * 2017-04-27 2019-05-21 Facebook Technologies, Llc Diffractive optics beam shaping for structured light generator
US11079522B1 (en) 2017-05-31 2021-08-03 Magic Leap, Inc. Fiducial design
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
US10422995B2 (en) 2017-07-24 2019-09-24 Mentor Acquisition One, Llc See-through computer display systems with stray light management
JPWO2019026925A1 (en) * 2017-08-01 2020-07-30 パナソニックIpマネジメント株式会社 Personal authentication device
US10969584B2 (en) 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer
JP7449856B2 (en) 2017-10-17 2024-03-14 マジック リープ, インコーポレイテッド mixed reality spatial audio
WO2019154510A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3750029A1 (en) 2018-02-09 2020-12-16 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters using a neural network
US11194161B2 (en) 2018-02-09 2021-12-07 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11477510B2 (en) 2018-02-15 2022-10-18 Magic Leap, Inc. Mixed reality virtual reverberation
CN111713121B (en) 2018-02-15 2022-04-12 奇跃公司 Dual listener position for mixed reality
IL276511B2 (en) 2018-02-15 2024-01-01 Magic Leap Inc Mixed reality musical instrument
CN112119340B (en) * 2018-04-18 2022-07-12 金泰克斯公司 Illumination of limited field of view in surgical microscopes
CN112602005A (en) 2018-04-24 2021-04-02 曼特收购第一有限责任公司 See-through computer display system with vision correction and increased content density
WO2019221767A1 (en) 2018-05-14 2019-11-21 Virtualitics, Inc. Systems and methods for high dimensional 3d data visualization
US10509467B1 (en) * 2018-06-01 2019-12-17 Facebook Technologies, Llc Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display
US10667072B2 (en) 2018-06-12 2020-05-26 Magic Leap, Inc. Efficient rendering of virtual soundfields
US10602292B2 (en) 2018-06-14 2020-03-24 Magic Leap, Inc. Methods and systems for audio signal filtering
US10810992B2 (en) 2018-06-14 2020-10-20 Magic Leap, Inc. Reverberation gain normalization
US10735884B2 (en) 2018-06-18 2020-08-04 Magic Leap, Inc. Spatial audio for interactive audio environments
CN112513983A (en) 2018-06-21 2021-03-16 奇跃公司 Wearable system speech processing
US11201953B2 (en) 2018-07-24 2021-12-14 Magic Leap, Inc. Application sharing
US10506681B1 (en) 2018-08-09 2019-12-10 Distech Controls Inc. Environment controller and method for proportionally adjusting the light intensity of several lighting devices
WO2020069006A1 (en) 2018-09-25 2020-04-02 Magic Leap, Inc. Systems and methods for augmented reality
CN116320907A (en) 2018-10-05 2023-06-23 奇跃公司 Near field audio rendering
CN116249053B (en) 2018-10-05 2024-07-19 奇跃公司 Inter-aural time difference crossfaders for binaural audio rendering
JP7448530B2 (en) 2018-10-09 2024-03-12 マジック リープ, インコーポレイテッド Systems and methods for virtual and augmented reality
CN113227935B (en) 2018-10-24 2024-09-13 奇跃公司 Asynchronous ASIC
CN111127537A (en) * 2018-10-29 2020-05-08 托比股份公司 Method and apparatus for detecting shadows in a head mounted device
WO2020095671A1 (en) * 2018-11-07 2020-05-14 ソニー株式会社 Image acquisition system and image acquisition method
KR102549130B1 (en) * 2018-11-26 2023-07-03 제트카베 그룹 게엠베하 Vehicle vision systems with adaptive reversing lights
EP3903162A4 (en) 2018-12-27 2022-03-02 Magic Leap, Inc. Systems and methods for virtual and augmented reality
EP3912013A1 (en) 2019-01-16 2021-11-24 Pupil Labs GmbH Methods for generating calibration data for head-wearable devices and eye tracking system
WO2020180719A1 (en) 2019-03-01 2020-09-10 Magic Leap, Inc. Determining input for speech processing engine
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2020247863A1 (en) 2019-06-06 2020-12-10 Magic Leap, Inc. Photoreal character configurations for spatial computing
US11328740B2 (en) 2019-08-07 2022-05-10 Magic Leap, Inc. Voice onset detection
US11704874B2 (en) 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
CN110490017B (en) * 2019-08-08 2022-02-22 广东斯玛特自动化科技有限公司 Illumination method and device for code scanner
CN114830182A (en) 2019-10-18 2022-07-29 奇跃公司 Gravity estimation and bundle adjustment of visual inertial odometer
WO2021081435A1 (en) 2019-10-25 2021-04-29 Magic Leap, Inc. Reverberation fingerprint estimation
JP7558268B2 (en) 2019-10-25 2024-09-30 マジック リープ, インコーポレイテッド Non-uniform Stereo Rendering
US11959997B2 (en) 2019-11-22 2024-04-16 Magic Leap, Inc. System and method for tracking a wearable device
WO2021113782A1 (en) 2019-12-04 2021-06-10 Magic Leap, Inc. Variable-pitch color emitting display
US11627430B2 (en) 2019-12-06 2023-04-11 Magic Leap, Inc. Environment acoustics persistence
JP2023504207A (en) 2019-12-09 2023-02-01 マジック リープ, インコーポレイテッド Systems and methods for operating head mounted display systems based on user identification
US11337023B2 (en) 2019-12-20 2022-05-17 Magic Leap, Inc. Physics-based audio and haptic synthesis
WO2021163224A1 (en) 2020-02-10 2021-08-19 Magic Leap, Inc. Dynamic colocation of virtual content
JP2023514573A (en) 2020-02-14 2023-04-06 マジック リープ, インコーポレイテッド tool bridge
EP4103999A4 (en) 2020-02-14 2023-08-02 Magic Leap, Inc. Session manager
US11910183B2 (en) 2020-02-14 2024-02-20 Magic Leap, Inc. Multi-application audio rendering
EP4104002A4 (en) 2020-02-14 2023-08-09 Magic Leap, Inc. 3d object annotation
US11778410B2 (en) 2020-02-14 2023-10-03 Magic Leap, Inc. Delayed audio following
US11205069B1 (en) * 2020-02-20 2021-12-21 Facebook Technologies, Llc Hybrid cornea and pupil tracking
CN116325808B (en) 2020-03-02 2023-12-22 奇跃公司 Immersive audio platform
US11917384B2 (en) 2020-03-27 2024-02-27 Magic Leap, Inc. Method of waking a device using spoken voice commands
US11561613B2 (en) 2020-05-29 2023-01-24 Magic Leap, Inc. Determining angular acceleration
CN117044234A (en) 2020-05-29 2023-11-10 奇跃公司 Surface proper collision
KR20220169207A (en) * 2021-06-18 2022-12-27 삼성전자주식회사 Electronic device and biometric liveness authentication method
WO2023060015A1 (en) * 2021-10-05 2023-04-13 Rsi Worklete, Llc Computing devices programmed to detect slippery surfaces within enclosures and methods/systems of used thereof
US11592899B1 (en) 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device

Family Cites Families (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3689135A (en) 1971-01-26 1972-09-05 Laurence R Young Method for monitoring movement of a subject{40 s eyes
US3863243A (en) 1972-01-19 1975-01-28 Max Skolnick Sleep inhibiting alarm
US3798599A (en) 1972-02-24 1974-03-19 H Kafafian Single input controller for a communication system
US3966310A (en) 1974-02-15 1976-06-29 Larson Merlin D Pupillometer and method of use thereof
US4102564A (en) 1975-04-18 1978-07-25 Michael Henry L Portable device for the accurate measurement of eye movements both in light and obscurity
US4359724A (en) 1980-04-28 1982-11-16 Ronald R. Zimmerman Eyelid movement detector
EP0125808A3 (en) 1983-04-18 1986-01-29 Lee S. Weinblatt Eye movement monitoring technique
JPS6332624A (en) 1986-07-28 1988-02-12 Canon Inc Information processor
US4953111A (en) 1987-02-12 1990-08-28 Omron Tateisi Electronics Co. Doze detector
US4850691A (en) 1987-03-18 1989-07-25 University Of Illinois Method and apparatus for determining pupillary response parameters
US4815839A (en) 1987-08-03 1989-03-28 Waldorf Ronald A Infrared/video electronystagmographic apparatus
JPH01312902A (en) 1988-06-13 1989-12-18 Konan Camera Kenkyusho:Kk Examination device of motion of eyeball
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
JPH02164335A (en) 1988-12-16 1990-06-25 Konan Camera Kenkyusho:Kk Eyeball motion analyzing device
GB8916206D0 (en) 1989-07-14 1989-11-08 Marconi Gec Ltd Helmet systems
US4967186A (en) 1989-08-18 1990-10-30 Ariold Ludmirsky Method and apparatus for fatigue detection
US5778893A (en) 1991-04-01 1998-07-14 President And Fellows Of Harvard College Method of diagnosing and monitoring a treatment for Alzheimer's disease
US5189512A (en) 1991-07-01 1993-02-23 Camair Research, Inc. Helmet integrated display system
US5183512A (en) * 1991-08-29 1993-02-02 Aquotech, Inc. Method of cleaning semiconductor wafer and computer disks by purified water treated with electric AC signal
WO1995018565A1 (en) 1991-09-26 1995-07-13 Sam Technology, Inc. Non-invasive neurocognitive testing method and system
US5214456A (en) 1991-10-09 1993-05-25 Computed Anatomy Incorporated Mapping of corneal topography with display of pupil perimeter
US5583590A (en) 1992-05-04 1996-12-10 Wabash Scientific Corp. Alert monitoring system
US5341181A (en) 1992-11-20 1994-08-23 Godard Roger R Systems and methods for capturing and presentng visual information
US5345281A (en) 1992-12-17 1994-09-06 John Taboada Eye tracking system and method
US5461417A (en) * 1993-02-16 1995-10-24 Northeast Robotics, Inc. Continuous diffuse illumination method and apparatus
US5402109A (en) 1993-04-29 1995-03-28 Mannik; Kallis H. Sleep prevention device for automobile drivers
GB9323970D0 (en) 1993-11-22 1994-01-12 Toad Innovations Ltd Safety device
US5478239A (en) 1993-12-21 1995-12-26 Maximum Performance, Inc. Dynamic visual acuity training method and apparatus
US5481622A (en) 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JP3293308B2 (en) 1994-03-10 2002-06-17 三菱電機株式会社 Person state detection device
JPH086708A (en) 1994-04-22 1996-01-12 Canon Inc Display device
US5617872A (en) 1994-07-25 1997-04-08 Beth Israel Hospitcal Assoc. Inc. Hypersensitive constriction velocity method for diagnosing Alzheimer's disease in a living human
US5469143A (en) 1995-01-10 1995-11-21 Cooper; David E. Sleep awakening device for drivers of motor vehicles
US5583795A (en) 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5566067A (en) 1995-03-23 1996-10-15 The President And Fellows Of Harvard College Eyelid vigilance detector system
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
US5570698A (en) 1995-06-02 1996-11-05 Siemens Corporate Research, Inc. System for monitoring eyes for detecting sleep behavior
US7738678B2 (en) * 1995-06-07 2010-06-15 Automotive Technologies International, Inc. Light modulation techniques for imaging objects in or around a vehicle
US5682144A (en) 1995-11-20 1997-10-28 Mannik; Kallis Hans Eye actuated sleep prevention devices and other eye controlled devices
US6003991A (en) 1996-02-17 1999-12-21 Erik Scott Viirre Eye examination apparatus and method for remote examination of a patient by a health professional
US6373961B1 (en) 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US5726916A (en) 1996-06-27 1998-03-10 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for determining ocular gaze point of regard and fixation duration
US5861936A (en) 1996-07-26 1999-01-19 Gillan Holdings Limited Regulating focus in accordance with relationship of features of a person's eyes
US5748113A (en) 1996-08-19 1998-05-05 Torch; William C. Method and apparatus for communication
US6542081B2 (en) 1996-08-19 2003-04-01 William C. Torch System and method for monitoring eye movement
US6246344B1 (en) 1996-08-19 2001-06-12 William C. Torch Method and apparatus for voluntary communication
US6163281A (en) 1996-08-19 2000-12-19 Torch; William C. System and method for communication using eye movement
JP3651204B2 (en) 1996-12-18 2005-05-25 トヨタ自動車株式会社 Stereoscopic image display device, stereoscopic image display method, and recording medium
US6070098A (en) 1997-01-11 2000-05-30 Circadian Technologies, Inc. Method of and apparatus for evaluation and mitigation of microsleep events
WO1998049028A1 (en) 1997-04-25 1998-11-05 Applied Science Group, Inc. An alertness monitor
US5867587A (en) 1997-05-19 1999-02-02 Northrop Grumman Corporation Impaired operator detection and warning system employing eyeblink analysis
US5956125A (en) 1997-06-19 1999-09-21 Bioprobes, Inc. System and method for screening for dementia
US6007202A (en) 1997-10-23 1999-12-28 Lasersight Technologies, Inc. Eye illumination system and method
WO1999023524A1 (en) 1997-10-30 1999-05-14 The Microoptical Corporation Eyeglass interface system
US6611618B1 (en) 1997-11-13 2003-08-26 Schepens Eye Research Institute, Inc. Wide-band image enhancement
US6055322A (en) 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
JP3361980B2 (en) 1997-12-12 2003-01-07 株式会社東芝 Eye gaze detecting apparatus and method
US6088470A (en) 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
DE19803158C1 (en) 1998-01-28 1999-05-06 Daimler Chrysler Ag Arrangement for determining the state of vigilance, esp. for machinery operator or vehicle driver
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6003992A (en) * 1998-06-02 1999-12-21 Northeast Robotics Llc Back lighting illumination system
US6091378A (en) 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
US6867752B1 (en) 1998-08-31 2005-03-15 Semiconductor Energy Laboratory Co., Ltd. Portable information processing system
US6087941A (en) 1998-09-01 2000-07-11 Ferraz; Mark Warning device for alerting a person falling asleep
JP2000137792A (en) 1998-10-30 2000-05-16 Toyota Motor Corp Eye part detecting device
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US7120880B1 (en) 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
IL145032A0 (en) 1999-03-01 2002-06-30 Bae Sys Electronics Ltd Head tracker system
US6090051A (en) 1999-03-03 2000-07-18 Marshall; Sandra P. Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity
US6247813B1 (en) 1999-04-09 2001-06-19 Iritech, Inc. Iris identification system and method of identifying a person through iris recognition
US20020024633A1 (en) 1999-04-09 2002-02-28 Daehoon Kim Pupil evaluation system
US6820979B1 (en) 1999-04-23 2004-11-23 Neuroptics, Inc. Pupilometer with pupil irregularity detection, pupil tracking, and pupil response detection capability, glaucoma screening capability, intracranial pressure detection capability, and ocular aberration measurement capability
US6116736A (en) 1999-04-23 2000-09-12 Neuroptics, Inc. Pupilometer with pupil irregularity detection capability
US6346887B1 (en) 1999-09-14 2002-02-12 The United States Of America As Represented By The Secretary Of The Navy Eye activity monitor
GB0023172D0 (en) 2000-09-20 2000-11-01 Minter Kemp Martin J Wakeup vizor
JP2002143094A (en) 2000-11-07 2002-05-21 Nac Image Technology Inc Visual axis detector
US6864473B2 (en) 2000-12-07 2005-03-08 The United States Of America As Represented By The United States National Aeronautics And Space Administration Dynamic optical filtration
US6634553B2 (en) 2001-03-21 2003-10-21 Hewlett-Packard Development Company, L.P. Method and apparatus for even illumination of a target for image capture
JP3812355B2 (en) * 2001-03-22 2006-08-23 日産自動車株式会社 Driving attention detection device and drowsy driving detection device
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US6959102B2 (en) 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
US6775060B2 (en) 2001-07-26 2004-08-10 The Schepens Eye Research Institute, Inc. Bioptic telescope system embedded into a spectacle lens
GB0119859D0 (en) 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
US6927694B1 (en) 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US6997556B2 (en) 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
AUPR872301A0 (en) 2001-11-08 2001-11-29 Sleep Diagnostics Pty Ltd Alertness monitor
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
JP2004034938A (en) * 2002-07-08 2004-02-05 Yazaki Corp Dozing-off drive prevention device and vehicle operation information collection device
US20040061680A1 (en) 2002-07-10 2004-04-01 John Taboada Method and apparatus for computer control
NL1021496C2 (en) 2002-09-19 2004-03-22 Joannes Hermanus Heiligers Monitoring device for alertness of person, especially vehicle driver, generates warning signal if eye is detected as being closed too long
US6637883B1 (en) 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7347551B2 (en) 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
EP1482768B1 (en) 2003-05-30 2009-01-07 Continental Automotive GmbH Method and driver for driving electroluminescent lamps
US7391888B2 (en) 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
US7731360B2 (en) 2003-11-07 2010-06-08 Neuro Kinetics Portable video oculography system
US20050100191A1 (en) * 2003-11-11 2005-05-12 Harbach Andrew P. Imaging system and method for monitoring an eye
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
WO2005059630A2 (en) 2003-12-17 2005-06-30 The Schepens Eye Research Institute, Inc. Peripheral field expansion device
US7331671B2 (en) 2004-03-29 2008-02-19 Delphi Technologies, Inc. Eye tracking method based on correlation and detected eye movement
RU2395228C2 (en) 2004-04-01 2010-07-27 Уилльям С. ТОРЧ Biosensors, communicators and controllers for eye movement monitoring and methods of their application
US7509043B2 (en) * 2004-05-25 2009-03-24 Nikon Corporation Illuminating device for photographing and camera
US7775679B2 (en) * 2004-08-18 2010-08-17 Advanced Illumination, Inc. High intensity light source for a machine vision system and method of making same
US7344251B2 (en) 2005-02-23 2008-03-18 Eyetracking, Inc. Mental alertness level determination
US7438418B2 (en) 2005-02-23 2008-10-21 Eyetracking, Inc. Mental alertness and mental proficiency level determination
ATE526866T1 (en) 2005-03-04 2011-10-15 Sleep Diagnostics Pty Ltd AWAKENESS MEASUREMENT
US7430365B2 (en) * 2005-03-31 2008-09-30 Avago Technologies Ecbu (Singapore) Pte Ltd. Safe eye detection
JP2006307611A (en) 2005-04-28 2006-11-09 Shingo Kizai Kk Opposed reflection diffusion type high output led internal illumination system road sign
WO2007016739A1 (en) 2005-08-11 2007-02-15 Sleep Diagnostics Pty. Ltd. Alertness sensing spectacles
US8358337B2 (en) * 2005-08-23 2013-01-22 National University Corporation Shizuoka University Pupil detection device and pupil detection method
WO2007062478A1 (en) 2005-11-30 2007-06-07 Seeing Machines Pty Ltd Visual tracking of eye glasses in visual head and eye tracking systems
EP1983884B1 (en) 2006-01-26 2016-10-26 Nokia Technologies Oy Eye tracker device
JP2007195775A (en) 2006-01-27 2007-08-09 Keio Gijuku Pupil detection method, pupil position detector, and transmission type eye-direction detector
WO2007092512A2 (en) 2006-02-07 2007-08-16 Attention Technologies, Inc. Driver drowsiness and distraction monitor
JP2007319174A (en) * 2006-05-30 2007-12-13 Matsushita Electric Ind Co Ltd Photographic equipment and authentication apparatus using the same
CN101485234B (en) 2006-06-28 2012-08-08 皇家飞利浦电子股份有限公司 Method of controlling a lighting system based on a target light distribution
US7646422B2 (en) 2006-10-04 2010-01-12 Branislav Kisacanin Illumination and imaging system with glare reduction and method therefor
JP2008091840A (en) 2006-10-05 2008-04-17 Sony Corp Solid state imaging device and electronic device
US8225229B2 (en) 2006-11-09 2012-07-17 Sony Mobile Communications Ab Adjusting display brightness and/or refresh rates based on eye tracking
SE0602545L (en) 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
US7783077B2 (en) 2006-12-01 2010-08-24 The Boeing Company Eye gaze tracker system and method
US20080128498A1 (en) * 2006-12-05 2008-06-05 Fausak Andrew T System, method, and apparatus for high value product management and tracking
KR100850357B1 (en) 2006-12-06 2008-08-04 한국전자통신연구원 System and method for tracking gaze
US20080166052A1 (en) 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
US8253793B2 (en) * 2007-04-20 2012-08-28 Meinan Machinery Works, Inc. Lumber inspection method, device and program
US7633244B2 (en) 2007-09-19 2009-12-15 Zippy Technology Corp. Method for dimming multiple lamps
EP2242419B1 (en) 2008-02-14 2016-01-13 Nokia Technologies Oy Device and method for determining gaze direction
US9398848B2 (en) 2008-07-08 2016-07-26 It-University Of Copenhagen Eye gaze tracking
ES2880475T3 (en) 2009-04-01 2021-11-24 Tobii Ab Visual representation system with illuminators for gaze tracking
EP2238889B1 (en) 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11803104B2 (en) 2015-11-10 2023-10-31 Lumileds Llc Adaptive light source
US11988943B2 (en) 2015-11-10 2024-05-21 Lumileds Llc Adaptive light source
US12025902B2 (en) 2015-11-10 2024-07-02 Lumileds Llc Adaptive light source
JP2018191293A (en) * 2016-03-01 2018-11-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Adaptive light source
JP7334026B2 (en) 2016-03-01 2023-08-28 ルミレッズ リミテッド ライアビリティ カンパニー adaptive light source
JP2021521054A (en) * 2018-04-19 2021-08-26 シーイング マシーンズ リミテッド Infrared light source protection system
JP7438127B2 (en) 2018-04-19 2024-02-26 シーイング マシーンズ リミテッド Infrared light source protection system
JP2022535456A (en) * 2019-06-11 2022-08-08 ジェンテックス コーポレイション Wearable medical device
JP7326492B2 (en) 2019-06-11 2023-08-15 ジェンテックス コーポレイション Wearable medical device

Also Published As

Publication number Publication date
KR101829850B1 (en) 2018-03-29
WO2011149577A3 (en) 2012-02-02
US8890946B2 (en) 2014-11-18
EP2543187A4 (en) 2017-12-20
CN102918834B (en) 2016-08-03
US20110211056A1 (en) 2011-09-01
EP2543187A2 (en) 2013-01-09
CN102918834A (en) 2013-02-06
US20150181100A1 (en) 2015-06-25
RU2012141574A (en) 2014-04-10
AU2011258826A1 (en) 2012-10-11
WO2011149577A2 (en) 2011-12-01
KR20130058665A (en) 2013-06-04
EP2543187B1 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
US8890946B2 (en) Systems and methods for spatially controlled scene illumination
US10546190B2 (en) Living body detection device, living body detection method, and recording medium
US9405365B2 (en) Systems and methods for identifying gaze tracking scene reference locations
KR101205039B1 (en) Safe eye detection
US10007337B2 (en) Eye gaze imaging
CN111611845A (en) Iris recognition system with living body detection function
KR101094766B1 (en) Apparatus and mehtod for tracking eye
JP2016532396A (en) Low power eye tracking system and eye tracking method
US20160337569A1 (en) Method and apparatus for strobed illumination in eye based biometric systems
WO2014181775A1 (en) Pupil detection light source device, pupil detection device and pupil detection method
JP5601179B2 (en) Gaze detection apparatus and gaze detection method
JP2016028669A (en) Pupil detection device and pupil detection method
US20200029808A1 (en) Real-time removal of ir led reflections from an image
CN111132599A (en) Image acquisition with reduced reflections
JP7228885B2 (en) Pupil detector
JP7318793B2 (en) Biometric authentication device, biometric authentication method, and its program
JP5206190B2 (en) Driver monitoring device
US20200221000A1 (en) Camera system, vehicle and method for configuring light source of camera system
WO2023195872A1 (en) Method and system for determining heartbeat characteristics
JP2021040731A (en) Uniform irradiation module

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513