JP6937735B2 - レーザ測距及び照明 - Google Patents

レーザ測距及び照明 Download PDF

Info

Publication number
JP6937735B2
JP6937735B2 JP2018244743A JP2018244743A JP6937735B2 JP 6937735 B2 JP6937735 B2 JP 6937735B2 JP 2018244743 A JP2018244743 A JP 2018244743A JP 2018244743 A JP2018244743 A JP 2018244743A JP 6937735 B2 JP6937735 B2 JP 6937735B2
Authority
JP
Japan
Prior art keywords
signal
camera
distance
image
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018244743A
Other languages
English (en)
Other versions
JP2019144230A (ja
JP2019144230A5 (ja
Inventor
オスキャル サンドストレーム
オスキャル サンドストレーム
チャン スー
チャン スー
Original Assignee
アクシス アーベー
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー, アクシス アーベー filed Critical アクシス アーベー
Publication of JP2019144230A publication Critical patent/JP2019144230A/ja
Publication of JP2019144230A5 publication Critical patent/JP2019144230A5/ja
Application granted granted Critical
Publication of JP6937735B2 publication Critical patent/JP6937735B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

カメラ及びその他のモニタリングデバイスが、それほど高価でなくなるにつれて、これらのデバイスは、激増している。しかしながら、時折、暗がりは、カメラの視野内の物体を不明瞭にし、又は覆い隠すことがある。その結果、カメラの操作者(又はコンピュータビジョン)は、物体を判別することができない場合がある。したがって、物体の画像をキャプチャするプロセスは、物体に焦点を合わせるだけでなく、場面を照明することを伴い得る。照明源は、天然、又は非天然であってもよく、カメラに取り付けられ、又はカメラから取り外されてもよい。焦点合わせは、カメラによって自動的に行われてもよく、又は撮影者によって手動で行われてもよい。焦点合わせが自動的に行われるとき、カメラは、焦点を合わせる物体までの距離を検出し得る。
方法は、送信信号を生成するために基準信号でレーザの特性を変調することと、物体を含む照明フィールドを送信信号で照明するために送信信号を発散させることと、を含み得る。方法は、センサにおいて、照明フィールド及び物体から反射される信号を受信することと、受信した信号の位相を基準信号の位相と比較することと、を含み得る。方法は、比較に基づいて、物体までの距離を計算することを含み得る。この方法は、操作者が場面を照明することを可能にし得る。方法は、(例えば、照明源で)物体に対して距離が測定されることも可能にし得る。距離は、自動焦点などの他の目的のために使用されてもよく、距離は、照明自体を調整するために使用されてもよい。この方法は、例えば、照明源で物体までの距離を判断することを可能にし得る。
位相を比較することは、受信した信号と基準信号との間の位相差を測定することと、位相差に基づいて、物体までの距離を計算することと、を含んでもよい。方法は、計算された距離が閾値より短いときに、送信信号の平均強度を低下させることを含んでもよい。レーザの特性を変調することが、レーザの強度を変調することを含んでもよい。レーザの強度を低下させることによって、例えば、照明される領域内の人々のために照明条件が安全に保たれ得る。方法は、人間にとって危険な照明条件を防止し、人間の目に対する被害を防止することを助け得る。
センサにおいて受信することは、カメラにおいて、送信信号によって照明される視野を含む画像をキャプチャすることと、画像内で物体の境界を検出することと、を含んでもよい。方法は、検出された境界に基づいて、物体に関連する受信した信号の部分を判別することを含んでもよい。位相差を測定することは、物体に関連する受信した信号の部分と基準信号との位相差を測定することを含んでもよい。距離を計算することは、物体に関連する受信した信号の部分と基準信号との位相差に基づいて、物体に対する距離を計算することを含んでもよい。この方法は、例えば、照明源で物体までの距離を判断することを可能にし得る。距離は、自動焦点などの他の目的のために使用されてもよく、距離は、照明自体を調整するために使用されてもよい。この方法は、例えば、照明源で物体までの距離を判断することを可能にし得る。
方法は、物体が人物であると判断することと、計算された距離が第1の閾値より短いとき、及び物体が人物であると判断されるときに、レーザの強度を低下させることと、を含んでもよい。物体の境界を検出することは、人物の顔の境界を検出することを含んでもよい。センサにおいて受信することは、カメラにおいて、物体を含み、送信信号によって照明される視野の画像をキャプチャすることを含んでよく、計算される距離が、自動焦点アルゴリズムのための基準点として使用される。この方法は、照明される領域内の人々のために照明条件を安全に保ち得る。方法は、人間にとって危険な照明条件を防止し、人間の目に対する被害を防止することを助け得る。
自動焦点アルゴリズムは、コントラストベースであってもよく、計算される距離は、アルゴリズムのための下限及び上限を設定するために使用されてもよい。下限及び上限の間の差は低い信号強度が、高い信号強度よりも大きな差をもたらすように、受信した信号の信号強度に基づく。方法は、照明光源が、照明だけでなく、自動焦点(例えば、距離計算)のために使用されることを可能にし得る。
デバイスは、レーザ、ドライバ、レンズ、センサ、ミキサ、及びプロセッサを含んでもよい。ドライバは、送信信号を生成するために基準信号でレーザの特性を変調してもよい。レンズは、送信信号で照明フィールドを照明するために送信信号を発散させてもよく、照明フィールドは物体を含む。センサは、照明フィールド及び物体から反射される信号を受信してもよい。ミキサは、受信した信号の位相を基準信号の位相と比較してもよい。プロセッサは、比較に基づいて、物体までの距離を計算してもよい。このデバイスは、場面を照明してもよい。デバイスは、また、(例えば、照明源で)物体に対して距離が測定されることを可能にし得る。距離は、自動焦点などの他の目的のために使用されてもよく、距離は、照明自体を調整するために使用されてもよい。
ミキサは、受信した信号と基準信号との間の位相差を測定してもよく、プロセッサは、位相差に基づいて、物体までの距離を計算してもよい。ドライバは、計算された距離が閾値より短いときに、送信信号の平均強度を低下させてもよい。ドライバは、レーザの強度を変調してもよい。レーザの強度を低下させることによって、例えば、照明される領域内の人々のために照明条件が安全に保たれ得る。方法は、人間にとって危険な照明条件を防止し、人間の目に対する被害を防止することを助け得る。
デバイスは、送信信号によって照明される視野を含む画像をキャプチャするカメラを含み得る。プロセッサは、画像内で物体の境界を検出し、検出された境界に基づいて、物体に関連する受信した信号の部分を判別するように構成されてもよい。ミキサは、物体に関連する受信した信号の部分と基準信号との間の位相差を測定するように構成されてもよい。プロセッサは、物体に関連する受信した信号の部分と基準信号との間の位相差に基づいて、物体までの距離を計算するように構成されてもよい。この方法は、例えば、照明源で物体までの距離を判断することを可能にし得る。距離は、自動焦点などの他の目的のために使用されてもよく、距離は、照明自体を調整するために使用されてもよい。この方法は、例えば、照明源で物体までの距離を判断することを可能にし得る。
プロセッサは、物体が人物であると判断するように構成されてもよい。ドライバは、計算された距離が第1の閾値より短いとき、及び物体が人物であるとプロセッサが判断するときに、レーザの強度を低下させる。プロセッサは、人物の顔の境界を検出するように構成されてもよい。この方法は、照明される領域内の人々のために照明条件を安全に保ち得る。方法は、人間にとって危険な照明条件を防止し、人間の目に対する被害を防止することを助け得る。
カメラは、物体を含み、送信信号によって照明される視野の画像をキャプチャするように構成されてもよく、計算される距離は、自動焦点アルゴリズムのための基準点として使用される。自動焦点アルゴリズムは、コントラストベースであってもよく、計算される距離は、アルゴリズムのための下限及び上限を設定するために使用される。下限及び上限の間の差は、低い信号強度が、高い信号強度よりも大きな差をもたらすように、受信した信号の信号強度に基づく。方法は、照明光源が、照明だけでなく、自動焦点(例えば、距離計算)のために使用されることを可能にし得る。
1つの実施形態における、物体を有する領域をモニタリングするカメラを備える例示的環境のブロック図である。 別の実施形態における、複数のカメラを含む別の例示的環境のブロック図である。 1つの実施形態における、図1A及び図1Bのカメラの例示的コンポーネントを示すブロック図である。 図2Aのカメラコントローラの例示的コンポーネントを示すブロック図である。 1つの実施形態における、コンピューティングモジュールの例示的コンポーネントを示すブロック図である。 図1の環境に類似であるが物体として人を含む、例示的環境のブロック図である。 1つの実施形態における、レーザで場面を照明し、測距するプロセスのフローチャートである。 1つの実施形態における、物体、境界、及び人物認識を示す図である。 別の実施形態における、レーザで測距するプロセスのフローチャートである。
以下の詳細な説明は、添付の図面を参照する。異なる図面中の同一の参照番号は、同一又は類似の要素を識別する。
上述したように、暗がりは、カメラの視野内の物体を不明瞭にすることがある。その結果、操作者(例えば、及び/又はコンピュータビジョン)は、物体を判別することができない場合がある。本明細書で用語が使用されるとき、「操作者」は、コンピュータビジョンを含む。カメラは、また、例えば、コンピュータビジョンのために光(例えば、非可視光)で物体を照明してもよい。後述するように、方法及びシステムは、操作者が場面を照明することを可能にする。加えて、照明方法は、自動焦点などの他の目的のために、物体に対して距離が測定されることを可能にし得る。さらに、距離は、照明自体を調整するために使用されてもよい。
しかしながら、いくつかの種類の照明は、十分に高い強度で人間の眼には危険である可能性がある。例えば、近赤外光は、人が光を知覚することができず、人は自分の眼が永久に損傷される前に自分自身を適切に保護することを知らないことがあるため、危険である可能性がある。これらの場合、いくつかの規則は、照明源が人間の眼を損傷するリスクを低減するための場所(例えば、高い場所)に置かれることを必要とする。即ち、いくつかの場所は、永久的な眼の損傷のリスクが許容できる低さである(即ち、目に到達する光の強度が十分に小さい)と考えられる、人々から十分離れた距離にあると仮定される。
1つの実施形態では、人が十分近くに来るときに強度が低下され得る(例えば、オフにされ得る)ように、別々の距離センサが、近赤外照明と組み合されることがあってもよい。これらのセンサは、高価であり得るが、モニタリングシステムをさらに複雑にすることがある。別の実施形態では、照明源自体(例えば、レーザ)が、物体までの距離を測定するために使用されてもよい。しかしながら、照明に使用されるレーザは、距離を測定するための適切な変調方式が技術的に困難であり得るという点において、「スロー」でもあり得る。レーザを(例えば、通常の発光ダイオードの代わりに)使用することは、放射される光が、容易にズームされ、又は発散されることを可能にする。この特性は、例えば、照明される場面がズームフォーカスカメラによってキャプチャされるときにも、有用であり得る。
図1Aは、物体102を含む領域106をモニタリングするカメラ110を有する例示的環境100Aのブロック図である。環境100Aは、例えば、領域をモニタリングし、又は公共の安全を提供するためのセキュリティ又はモニタリングシステムであってもよい。物体102は、ドア、人、動物、乗り物、ナンバープレートなどの、特定の対象物体を含んでもよい。
カメラ110は、カメラレンズアセンブリ116及びモニタリング領域106において画像及びビデオをキャプチャするための関連センサを含む。カメラ110は、例えば、可視光、赤外光、及び/又は他の非可視電磁放射線を使用して画像データをキャプチャするビデオカメラを含んでもよい。キャプチャされた画像データは、連続する画像シーケンス(例えば、ビデオ)、有限の画像シーケンス、静止画像、及び/又はそれらの組み合わせを含んでもよい。カメラ110は、画像をキャプチャし、デジタル化するデジタルカメラ、及び/又は画像をキャプチャし、画像データをアナログフォーマットで記憶するアナログカメラを含んでもよい。本明細書で使用される「ビデオデータ」及び「ビデオ」は、より概略的にはそれぞれ「画像データ」及び「画像」と呼ばれてもよい。したがって、「画像データ」又は「画像」は、別段の記述がない限り、「ビデオデータ」及び「ビデオ」を含むように意味される。同様に、「ビデオデータ」又は「ビデオ」は、別段の記述がない限り、静止画像を含んでもよい。
カメラ110は、可視光、赤外光、及び/又は他の非可視電磁放射線(例えば、紫外光、赤外光、近赤外光、テラヘルツ電磁波、マイクロ波放射など)を使用して画像データをキャプチャし得る。カメラ110は、サーマルカメラ及び/又はレーダ撮像用のレーダを含んでもよい。キャプチャされた画像データは、連続する画像シーケンス(例えば、ビデオ)、有限の画像シーケンス、静止画像、及び/又はそれらの組み合わせを含んでもよい。カメラ110は、画像をキャプチャし、デジタル化するデジタルカメラ、及び/又は画像をキャプチャし、画像データをアナログフォーマットで記憶するアナログカメラを含んでもよい。
カメラ110は、照明光104で場面を照明する(「照明フィールド」と呼ばれる)ための照明源112を含む。照明フィールドは、この例では、物体102を含む。照明源112は、垂直キャビティ面発光レーザ、発光ダイオード(LED)、白熱電球、及び/又はキセノンフラッシュなどの、レーザを含んでもよい。照明源112から放射される光は、赤外光、近赤外光、可視光、及び/又は他の周波数の光を含んでもよい。カメラ110は、他の種類の照明源又は1つより多くの照明源を含んでもよい。
カメラ110は、環境100において光を受信するセンサ114を含む。例えば、センサ114は、反射光105を検出し、反射光105は、この例では、(例えば、照明光104から)物体102に反射している。カメラ110が、センサ114を使用して低い光条件を検出するとき、カメラ110は、照明源112の出力を増大させてもよい。同様に、カメラ110が、センサ114を使用して改善された光条件を検出するとき、カメラ110は、照明源112の出力を低下させてもよい。センサ114は、追加的に、又は代替的に、カメラ110と物体102との間の距離を検出する、距離センサを含んでもよい。1つの実施形態では、カメラ110は、物体102が十分近くにあると判断する場合に、照明源112の出力を低下させてもよい。カメラ110は、他の種類のセンサを含んでもよく、又は1つより多くのセンサを含んでもよい。
環境100Aは、カメラ110を含むが、カメラ110は、モニタリング領域106内で運動を検出する運動検出器、モニタリング領域106内で熱画像をキャプチャするサーマルカメラ、又は熱検出器などの、任意の種類のモニタリングデバイスの形態をとってもよい。このような他のモニタリングデバイスもまた、照明及び/又は距離測定を使用してもよい。
図1Aの環境100Aは、1つのカメラを含む。一方、図1Bは、別の実施形態における、複数のカメラを含む別の例示的環境100Bのブロック図である。図1Bに示すように、環境100Bは、カメラ110−A〜110−N、ネットワーク120、及びモニタリングステーション130を含む。カメラ110は、まとめて「カメラ110」、及び個別に「カメラ110」と呼ばれる。上述のように、カメラ110は、他の種類のモニタリングデバイスを含んでもよい。
ネットワーク120は、環境100B内のデバイスが互いに通信することを可能にする。例えば、カメラ110は、互いに、及びモニタリングステーション130と通信し得る。ネットワーク120は、1つのカメラ110−Aが、カメラ110−Nなどの他のカメラ110と通信し、照明を協調させることを可能にし得る。人などの物体102が、照明用のカメラ110−Aに近すぎる場合、カメラ110−Aは、カメラ110−Nなどの別のカメラによる物体102の照明をリクエストする。同様に、モニタリングステーション130は、カメラ110のうちの任意の1つと通信してもよい。
ネットワーク120は、1つ以上の回線交換ネットワーク、及び/又はパケット交換ネットワークを含んでもよい。例えば、ネットワーク120は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、公衆交換電話網(PSTN)、アドホックネットワーク、ワイヤレスメッシュネットワーク、イントラネット、インターネット、光ファイバベースネットワーク、ワイヤレスネットワーク、及び/又はこれらの若しくはその他の種類のネットワークの組み合わせを含んでもよい。
モニタリングステーション130は、オペレータが、画像及び/若しくはビデオを見るため、カメラ110を構成するため、並びに/又はカメラ110を管理するために特定のカメラ110に接続することを可能にする。モニタリングステーション130は、また、操作者が環境100A(物体102を含む)をモニタリングすることを可能にしてもよい。例えば、操作者は、ビルをセキュリティ保護するための侵入検出のために、環境100Aをモニタリングしてもよい。
モニタリングステーション130は、カメラ110と通信するために構成される、任意のデバイスを含み得る。例えば、操作者は、任意の他のカメラ110から任意のカメラ110を管理してもよい。例えば、モニタリングステーション130は、ポータブル通信デバイス(例えば、モバイルスマートフォン、及び/若しくは別の種類のワイヤレスデバイス)、パーソナルコンピュータ若しくはワークステーション(例えば、モニタ、キーボード、マウスなどを有する)、サーバデバイス、ラップトップ、タブレット、若しくは他の種類のポータブルコンピュータ、並びに/又は通信ケイパビリティを有する任意の種類のデバイスを含んでもよい。1つの実施形態では、モニタリングステーション130は、カメラ110の一部であってもよい。
図1A及び1Bは、環境100A及び100Bの例示的コンポーネントを示しているが、他の実施態様では、環境100A及び100Bは、図1A及び1Bに示されるよりも少ないコンポーネント、異なるコンポーネント、異なる配置をされたコンポーネント、又は追加のコンポーネントを含んでもよい。追加的に、又は代替的に、任意の1つのデバイス(又は、任意のグループのデバイス)は、1つ以上の他のデバイスによって実行されるとして説明される機能を実行してもよい。
図2Aは、1つの実施形態におけるカメラ110の例示的コンポーネントを示すブロック図である。この例では、カメラレンズアセンブリ116(図1A参照)は、光学チェーン202、センサアレイ204、画像レンズモータ272、及び画像レンズコントローラ270を含む。また、照明源112(図1A参照)は、レンズ235、光源234、光源ドライバ232、基準信号生成器230、照明モータコントローラ239、及び照明レンズモータ237を含む。さらに、センサ114(図1A参照)は、検出器レンズ241、検出器240、増幅器242、バンドバスフィルタ238、信号比較器236、距離計算器244、及び距離テーブル246を含む。センサ144は、検出器レンズコントローラ245及び検出器レンズモータ243も含んでもよい。
1つの実施形態では、カメラ110は、安全基準252及び安全比較器248を含む、安全コンポーネントを含んでもよい。カメラ110は、画像プロセッサ208、カメラコントローラ210、メモリ209、ビデオ符号化器214、及び通信インタフェース216などの他のコンポーネントも含んでもよい。
以下のコンポーネント、光源234、光源ドライバ232、基準信号生成器230、信号比較器、バンドパスフィルタ238、増幅器242、検出器240、距離計算器244、距離テーブル246、安全基準252、及び/又は安全比較器248は、ハードウェア(図2Aにおいて薄暗い背景で示される)において実施されてもよい。検出器レンズコントローラ245、照明モータコントローラ239、及び/又は画像モータコントローラなどの、他のコンポーネントもまた、ソフトウェアではなくハードウェアで実施されてもよい。
光学チェーン202は、入射放射に基づいて画像をキャプチャするために、反射光105などの入射放射203をセンサアレイ204に向けるエンクロージャを含む。入射放射203は、可視光、赤外光、近赤外光、ミリメートル波などを含んでもよい。光学チェーン202は、(例えば、モニタリング領域106内の)「視野」から入射放射203を収集してセンサアレイ204上に焦点を合わせるための1つ以上のレンズ212(単数形でレンズ212と呼ばれる)を含む。
入射放射203は、レンズ212を通過して、センサアレイ204上に視野の焦点を合わせる。焦点及び視野は、レンズ212の口径(図示せず)及び配置の物理特性に依存し、レンズ212は、画像レンズコントローラ270によって制御される画像レンズモータ272によって移動され得る。画像レンズモータ272は、(例えば、1つより多くのレンズ212のための)1つより多くのモータを含んでもよいが、ここでは単数形で呼ばれる。
センサアレイ204は、センサアレイ204上に入射する、又は落下する放射線(例えば、光)を記録し、感知し、及び測定するセンサのアレイを含んでもよい。放射線は、可視光の波長範囲、赤外線の波長範囲、又はその他の波長範囲内にあってもよい。センサアレイ204は、例えば、電荷結合素子(CCD:charge-coupled device)アレイ、及び/又は能動ピクセルアレイ(例えば、相補型金属酸化膜半導体(CMOS:complementary metal-oxide-semiconductor)センサアレイ)を含んでもよい。また、センサアレイ204は、(例えば、カメラ110がサーマルカメラ又は検出器を含むときに、)マイクロボロメータを含んでもよい。代替的な実施形態では、センサアレイ204は、画像を形成するためにスキャニングハードウェア(例えば、回転鏡)を使用し得るリニアアレイ、又は画像センサデータを生成するために画像プロセッサ208及び/若しくはコントローラ210に依存し得る非アレイセンサであってもよい。
照明源112の一部として、光源234は、カメラ110のために場面を照明するため、及び/又はカメラ110から物体までの距離を検出するために、光を提供する。光源234は、垂直キャビティ面発光レーザ、LED、キセノンフラッシュ、及び/又は白熱電球などの、レーザを含んでもよい。光源234から放射される光は、赤外光、近赤外光、及び/又は可視光を含んでもよい。他の種類の光源及びレーザが可能である。
光源234からの出力は、照明フィールドを照明するためにレンズ235を通過してもよい。レンズ235は、1つ以上のレンズを含んでもよいが、ここでは単数形で呼ばれる。光源234から出力される光は、レンズ235を通過し、それによって、光は、レンズ235なしよりも広い領域を照明するように発散する(図1Aの照明光104)。光の発散度は、レンズ235の物理特性及び配置に依存する。レンズ235は、照明モータコントローラ239によって制御されるレンズモータ237によって移動され得る。照明レンズモータ237は、(特に、1つより多くのレンズ235が存在する場合)1つより多くのモータを含んでもよいが、ここでは単数形で呼ばれる。光源234がレーザである実施態様では、光出力の発散は、LEDからの光出力と比較してより正確に制御され得る。1つの実施形態では、照明源112は、発散レンズ235を使用することに追加して、又は使用する代わりに、(例えば、モニタリング領域106をスキャンするために)機械的に移動されてもよい。
光源234は、マイクロ波又は紫外線など、近赤外線以外の周波数を使用してもよい。より小さな波長の光(例えば、レーザからの出力として)は、光がより小さいスポット(例えば、照明フィールド)に焦点を合わせることを可能にし、それによって、空間解像度が上昇され得る。さらに、狭光バンドパスフィルタ(図2Aに示さず)は、使用される波長以外の波長の光をフィルタで除去するための方法を提供し得る。これによって、雑音が減少され、信号対雑音比(SNR)が増加し得る。
1つの実施形態では、(照明光104による)「照明フィールド」の照明は、光学チェーン202及びレンズ212によって焦点が合わされている(例えば、センサアレイ204によってキャプチャされる)視野に対応してもよい。言い換えると、センサアレイ204が、ある距離で狭い視野を感知している場合、照明光104は、その距離でその同一の狭い視野を照明してもよい。言い換えると、照明フィールドは、カメラセンサアレイ204のための視野に合致してもよい。別の言い方をすると、(レンズ235によって制御される)光源234による照明フィールドは、(レンズ212によって)焦点が合わされ、センサアレイ204によってキャプチャされる視野に合致してもよい。
光源ドライバ232は、光源234を駆動する(即ち、光源234に電圧及び電流を提供する)。光源234からの光出力の強度は、例えば、光源ドライバ232によってそれに供給される電圧及び/又は電流に依存する。1つの実施形態では、光源ドライバ232は、それがENABLE信号を受信するときに光源234を駆動し、それがENABLE信号を受信しないときは光源234を駆動しない。例えば、光源ドライバ232は、それがENABLE信号を受信するときだけ光源234を駆動する。この実施形態では、安全比較器248が、条件が安全であると判断するときは、安全比較器248はENABLE信号を出力し、安全比較器248が、条件が安全でないと判断するときは、ENABLE信号を出力しない(又は、NOT ENABLE信号を出力する)。
基準信号生成器230は、基準信号を生成し、基準信号は、光源ドライバ232に出力される。基準信号は、「変調信号」とも呼ばれ得る。基準信号は、ドライバ232が、光源234から放射される光の強度を基準信号に従って変調することを可能にする。言い換えると、光源ドライバ232は、基準信号に基づいて、光源234への電流及び/又は電圧出力を変更し得る。これらの場合、光(例えば、近赤外光)は、基準信号へのキャリア信号である。基準信号は、異なる実施態様において異なる形態をとってもよい。例えば、基準信号は、正弦波であってもよく、又はパルス(例えば、チッピングパルス)を含んでもよい。正弦波信号として、基準信号の周波数は、例えば、0.1MHz〜100MHzの間で変動してもよい。1つの実施態様では、変調信号(即ち、基準信号)は、照明光104の変調が、カメラ110によって撮られる画像内において干渉を引き起こさないように、十分に低い振幅かつ十分に高い周波数である。即ち、光104の変調の振幅を減少させること、及び光104の変調の周波数を増加させることによって、カメラ110によってキャプチャされる画像の斑点を減少させ得る。
センサ114の一部として、検出器240は、光源234から放射され、物体102に反射する光などの光を感知する。検出器240は、例えば、フォト検出ダイオード及び/又は電荷結合素子(CCD)を含んでもよい。1つの実施形態では、検出器240は、検出器240に突き当たる光の強度に比例するアナログ信号を出力する。結果として、検出器240は、キャリア信号(即ち、光)を除去することによって、(反射光105上にいくらか存在する場合)実際上キャリア信号を復調する。
1つの実施態様において、検出器240によって受信される光は、検出器レンズ241を通過し、それによって、「検出フィールド」からの光が、検出器240上に収束する(又は焦点が合わされる)。レンズ241は、1つより多くのレンズを含んでもよいが、ここでは単数形で呼ばれる。光の収束度は、検出器レンズ241の口径及び物理特性、並びに配置に依存し、レンズ241は、検出器レンズコントローラ245によって制御される検出器レンズモータ243によって移動され得る。照明レンズモータ237は、(特に、1つより多くのレンズ235が存在する場合)1つより多くのモータを含んでもよいが、ここでは単数形で呼ばれる。
1つの実施形態では、(レンズ241によって制御される)センサ114の検出フィールドにおける光の検出は、(例えば、カメラレンズアセンブリ116によって)焦点が合わされ、センサアレイ204によってキャプチャされる視野に合致し得る。言い換えると、センサアレイ204が、ある距離で特定の視野をキャプチャしている場合、検出器240(レンズ241と組み合わせて)は、その距離において特定の視野から光を検出してもよい。追加的に、又は代替的に、照明光104が、ある距離において特定の照明フィールドに対して発散する場合、センサ114(レンズ241と組み合わせて)は、その距離において特定の照明フィールドから光を検出してもよい。言い換えると、センサ114による検出フィールドは、照明フィールドに合致してもよく、及び/又はカメラレンズアセンブリ116によってキャプチャされる視野に合致してもよい。いくつかの実施形態では、センサ114のための検出フィールドは、照明フィールドに対応せず、及び/又はカメラレンズアセンブリ116のための視野に対応しない。例えば、検出フィールドは、照明フィールドよりも大きくてもよく、又は検出フィールドは、照明フィールドよりも小さくてもよい。
別の実施形態では、レンズ241は、検出器レンズモータ243又は検出器レンズコントローラ245を有しない、固定焦点レンズであってもよい。この実施形態では、検出器240のための検出フィールドは、検出器レンズモータ243及び検出器レンズコントローラ245によって移動され得るレンズを用いるよりも全方向性であり、センサ114のための検出フィールドは、照明源112のための照明フィールドよりも広くてもよい。さらに別の実施形態では、検出器240は、光源234とレンズ235を共有しており、したがって、照明フィールドは、センサ114のための検出フィールドと同一である。さらに別の実施形態では、レンズ241は、完全に省略されてもよく、検出器240は、レンズに関連付けられない。
反射光105が弱い場合があるため、検出器240の出力もまた、弱い場合がある。1つの実施態様では、検出器240の出力は、信号強度を増大させるために増幅器242によって増幅される。バンドパスフィルタ238は、増幅器242から信号を入力し、雑音を除去し、及び/又は所望の周波数(例えば、基準信号に対応する周波数)を分離する。バンドパスフィルタ238の出力は、信号比較器236に渡される。バンドパスフィルタ238の出力は、「復調信号」と呼ばれ得る。
信号比較器236は、基準信号(即ち、基準信号生成器230からの出力)を復調信号(バンドパスフィルタ238からの出力)と比較する。1つの実施形態では、信号比較器236の出力は、照明光104を(反射光105として)反射した物体102までの距離に比例する。異なる技術が、基準信号を復調信号と比較するために使用され得る。例えば、基準信号が正弦波である場合、信号比較器236(例えば、干渉計)は、物体までの距離に比例する、基準信号と復調信号との間の位相差を出力し得る。別の実施形態では、基準信号は、チャープされたレーザパルスを含んでもよい。1つの実施態様では、信号比較器236は、ミキシング動作が光ドメインにおいて行われる、コヒーレント検出を使用する。コヒーレント検出は、位相検出システムにおいて、及びチャープされたレーザパルスが使用されるときに使用されてもよい。
1つの実施態様では、信号比較器236は、直交位相検出器を含む。基準信号が、周波数fmを有する正弦波である場合、復調信号もまた、fmの周波数を有する(非移動物体102を仮定する)が、信号が物体102への距離dを移動し再び戻るという事実に起因する位相差を有する。位相差は、ミキサ(例えば、干渉計)を使用して測定され得る。ミキサは、その入力が周波数f1及びf2を有する2つの周期信号であり、その出力が差及び和の周波数を有する信号並びに高調波であるようなデバイスである。これは、時間ドメインにおいて入力信号を多重化することによって達成される。非線形デバイスが、ミキサとして使用され得る。1つの実施形態では、位相差を測定することは、基準信号及び受信信号のアナログミキシングを含んでもよい。ミキシングされたアナログ信号は、閾値検出のためのフィードバックとして使用されてもよい。
直交位相検出器は、位相差θ及び測定される物体102の反射率の両方を考慮してもよい。反射率は、距離測定を補足し、拡張するために使用されてもよく、それが、追加の寸法及び自由度をもたらす。これは、物体への距離を単に測定するのではなく、いくつかの特定の物体(例えば、人物)の存在、又は存在する物体の分類さえも判断する形態で、利用されてもよい。さらに、直交位相検出器は、(例えば、ハードウェア回路によって)高速で実行されるべき距離計算を可能にする。これらの測定は、連続波の位相に基づくため、高測定レート(例えば、変調周波数fmにより、8kHzのレートで距離を測定すること)が可能である。
距離計算器244は、信号比較器236からの信号出力に基づいて、カメラ110から物体102までの距離を判断してもよい。信号比較器236が、位相差を出力する場合、例えば、距離計算器244は、物体406までの対応する距離(又は距離)を判断するために、距離テーブル246にアクセスしてもよい。距離が、曖昧である(即ち、1つより多くの解がある)場合、基準信号生成器230は、任意の曖昧性を解決するために基準信号を(例えば、異なる周波数に)変更してもよい。即ち、曖昧性を解決するための方式は、互いの高調波ではなく異なる変調周波数の組み合わせを使用することを含んでもよい。距離計算器244は、例えば、デジタルロジック(例えば、デジタルプロセッサ)及び/又はアナログロジック(アナログプロセッサ)を含んでもよい。
1つの実施態様では、距離計算器は、8kHzの測定速度で15センチメートルの標準偏差を有する精度で最大27メートルの距離を測定することができる。10〜90MHzの間の正弦基準信号は、例えば、10〜30メートルの間の距離計算を可能にする。100MHz〜1GHzの間の正弦基準信号は、センチメートルの精度の距離計算を可能にし得る。ほぼ1MHzの正弦基準信号は、数百メートルでの距離計算を可能にし得る。本明細書で説明される実施態様は、これらの周波数の組み合わせを使用してもよい。
1つの実施態様では、信号比較器236は、飛行時間型検出器を含む。この実施態様では、基準信号は、短パルスの強度を含んでもよい。その際、信号比較器236は、(例えば、受信信号を基準信号と比較することによって)パルスが返ってくる時間を測定してもよい。信号比較器236が、飛行時間を出力する場合、距離計算器244は、飛行時間に光の速度を掛けること、及び2で割ることによって、距離を判断してもよい。飛行時間を使用することは、500kHzの距離測定レートを可能にし得る。
安全比較器248は、計算された距離を安全閾値と比較する。この実施態様では、安全基準252は、照明光104によって照明されている人物について安全と見なされる最小距離である。1つの実施形態では、安全基準252は、安全な距離及び対応する光強度のテーブルを含んでもよい。計算される距離が、対応する安全基準252よりも小さい場合、安全比較器248は、光源234によって継続される照明を無効にしてもよい。計算される距離が、安全基準252よりも大きい場合、安全比較器248は、光源234によって継続される照明を有効にしてもよい。安全基準252は定数であり得るが、それは、また、光源234からの光の発散度、及び/又は光源234によって放射される光の強度などの、多数の要因に依存する要因であってもよい。安全比較器248は、例えば、デジタルロジック(例えば、プロセッサ)及び/又はアナログロジックを含んでもよい。
1つの実施態様では、図2Aに示されるコンポーネントのうちの多くが、ソフトウェアではなくハードウェアで実施されてもよい。この実施態様では、安全比較器248は、汎用プロセッサの関与なしに高速に検出される光に基づいて、光源234を減衰させるか、又は非アクティブ化するように、光源ドライバ232に命令してもよい。例えば、ソフトウェアを実行している汎用プロセッサには、潜在的に、(画像処理のためなどの)リクエストで過大な負担がかかり得る。別の例として、(汎用プロセッサにおいて実行中の)オペレーティングシステムは、安全に関係しないソフトウェアにバグが多いことの結果として、クラッシュすることがある。従って、1つの実施態様では、以下のコンポーネント、光源234、光源ドライバ232、基準信号生成器230、信号比較器、バンドパスフィルタ238、増幅器242、検出器240、距離計算器244、距離テーブル246、安全基準252、及び/又は安全比較器248は、ハードウェア(図2Aにおいて薄暗い背景で示される)において実施されてもよい。検出器レンズコントローラ245、照明モータコントローラ239、及び/又は画像モータコントローラなどの、他のコンポーネントもまた、ソフトウェアではなくハードウェアで実施されてもよい。
汎用プロセッサ、専用プロセッサ、及び/又は専門プロセッサにおいて実行中のソフトウェアで実施され得る、カメラ110のコンポーネントは、例えば、画像プロセッサ208、ビデオ符号化器214、及び/又はカメラコントローラ210を含む。これらのコンポーネントは、カメラ110内のデータパス218(図2A内の破線)に接続されて、カメラ110のソフトウェア及び/又はハードウェアコンポーネントが互いに通信することを可能にし得る。例えば、カメラコントローラ210は、検出器レンズモータ243でレンズ241を移動するように、データパス218を介して検出器レンズコントローラ245に命令してもよい。カメラコントローラ210は、距離計算器244から計算済みの距離を受信してもよい。カメラコントローラ210、ビデオ符号化器214、及び画像プロセッサ208は、また、カメラセンサアレイ204から画像データを受信してもよい。
カメラセンサアレイ204は、センサアレイ204上に入射する放射線(例えば光)を示す(例えば、特性又は特徴を記述する)データを出力する。図2Aの例では、センサアレイ204は、カメラ110内の他のコンポーネントが処理するために、データをデータパス218上に出力する。センサアレイ204から出力されるデータは、センサアレイ204において1つ以上のピクセル上に入射する光の強度(例えば、輝度)、色などの情報を含んでもよい。センサアレイ204上の光入射は、光が光学チェーン202内のレンズの結果として焦点が合わされ得るという点で、「画像」であってもよい。
センサアレイ204は、センサアレイ204上に突き当たる電磁放射線(例えば、光)を感知し、放射線を多次元データ信号に変換するため、センサアレイ204が「画像センサ」と考えられてもよい。本明細書で用語が使用されるとき、「画像」は、センサアレイ204上に入射する放射線を示す(例えば、光の特性又は特徴を説明する)データを含む。したがって、「画像」という用語は、「画像センサデータ」、又は画像を説明する任意のデータ若しくはデータセットを意味するためにも使用され得る。
ビデオ符号化器214は、カメラ110内の別のコンポーネント、又はモニタリングステーション130などの環境100内の他のデバイスへの送信のために、画像センサデータを符号化してもよい。ビデオ符号化器214は、ISO/MPEG又はITU−H.26Xファミリのビデオコーディング標準などのビデオコーディング技術を使用してもよい。
カメラコントローラ210及び/又は画像プロセッサ208は、センサアレイ204によってキャプチャされた画像データに対して信号処理動作を実行する。コントローラ210及び/又は画像プロセッサ208は、任意の種類のシングルコア若しくはマルチコアプロセッサ、マイクロプロセッサ、ラッチベースプロセッサ、並びに/又は命令を解釈し実行する処理ロジック(又は、プロセッサ、マイクロプロセッサ、及び/若しくは処理ロジックのファミリ)を含んでもよい。コントローラ210及び/又は画像プロセッサ208は、グラフィック処理ユニット(GPU)、汎用グラフィック処理ユニット(GPGPU)、セル、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、及び/又は別の種類の集積回路若しくは処理ロジックなどの、ハードウェアアクセラレータを含み、又は連結されてもよい。
コントローラ210は、また、カメラ110の所望の焦点及び位置(例えば、チルト及びズーム)を判断し、制御してもよい。それを行うために、コントローラ210は、画像モータコントローラ270にコマンドを送信して、カメラ110をチルト及び/若しくはパンし、又は任意選択的にレンズ212をズームするように、モータ220を駆動する。図2Bは、カメラコントローラ210及び/又は画像プロセッサ208の例示的コンポーネントを示すブロック図である。図2Bに示すように、カメラコントローラ210及び/又は画像プロセッサ208は、自動焦点ロジック280、物体認識ロジック282、及び/又は人物認識ロジック284を含む。
自動焦点ロジック280は、カメラレンズアセンブリ116の所望の焦点を制御する(例えば、制御するためのアルゴリズムを含む)。1つの実施形態では、自動焦点アルゴリズムは、コントラストに基づき、(例えば、距離計算器244からの)計算済みの距離が、アルゴリズムのための下限及び上限を設定するために使用されてもよい。低い信号品質が、大きな差(広い範囲)をもたらし、良好な信号品質が、小さな差(狭い範囲)をもたらすように、下限と上限との間の差は、受信信号の信号強度に基づいて設定される。
物体認識ロジック282は、画像内の物体(物体102など)及び画像内の物体の境界を検出し得る。人物認識ロジック284は、画像内の、例えば人物及び/又は人々の顔を検出し得る。
メモリ209は、情報及び/又は命令を記憶する任意の種類の揮発性及び/又は不揮発性記憶デバイスを含み得る。メモリ209は、ランダムアクセスメモリ(RAM)若しくは任意の種類の動的記憶デバイス、読み取り専用メモリ(ROM)デバイス若しくは任意の種類の静的記憶デバイス、磁気若しくは光学記録メモリデバイス及びその対応するドライブ、又はリムーバブルメモリデバイスを含んでもよい。メモリ209は、カメラ110によって使用するための情報及び命令(例えば、アプリケーション及び/又はオペレーティングシステム)、並びにデータ(例えば、アプリケーションデータ)を記憶してもよい。
メモリ209は、コントローラ210及び/又は画像プロセッサ208による実行のための命令を記憶してもよい。ソフトウェア命令は、別のコンピュータ可読媒体から、又は別のデバイスからメモリ209に読み出され得る。ソフトウェア命令は、コントローラ210及び/又は画像プロセッサ208に、本明細書で説明されるプロセスを実行させてもよい。例えば、カメラ110は、コントローラ210及び/又は画像プロセッサがメモリ209に記憶されたソフトウェア命令を実行することに応答して、画像処理(例えば、符号化、トランスコーディング、物体検出など)に関する動作を実行してもよい。代替的には、ハードワイヤード回路(例えば、ロジック)は、本明細書で説明されるプロセスを実施するためのソフトウェア命令の代わりに、又はソフトウェア命令と組み合わせて使用されてもよい。
通信インタフェース216は、入力及び/若しくは出力ポート、入力及び/若しくは出力システム、並びに/又は別のデバイスへのデータの送信を容易にする他の入力及び出力コンポーネントを含む、回路及び論理回路を含む。例えば、通信インタフェース216は、有線通信用のネットワークインタフェースカード(例えば、イーサネットカード)、又はワイヤレス通信用のワイヤレスネットワークインタフェース(例えば、WiFi)カードを含んでもよい。
図2A及び2Bは、カメラ110の例示的コンポーネントを示しているが、他の実施態様では、カメラ110は、図2A及び2Bに示されるよりも追加のコンポーネント、少ないコンポーネント、異なるコンポーネント、及び/又は異なる配置をされたコンポーネントを含んでもよい。追加的に、又は代替的に、カメラ110の1つ以上のコンポーネントは、カメラ110の1つ以上の他のコンポーネントによって実行されるものとして説明される機能を実行してもよい。例えば、コントローラ210は、画像プロセッサ208によって実行されるものとして説明される機能を実行してもよく、その逆であってもよい。代替的に、又は追加的に、カメラ110は、図3に関して後述されるようなコンピューティングモジュールを含んでもよい。1つの実施形態では、カメラ110は、カメラ110をパン、チルト、及びズームするために1つ以上のモータコントローラ(例えば、3つ)、及び1つ以上のモータ220(例えば、3つ)を含んでもよい。
図3は、1つの実施形態におけるコンピューティングモジュール300の例示的コンポーネントを示すブロック図である。カメラ110、画像プロセッサ208、カメラコントローラ210、及び/又はモニタリングステーション130などのデバイスが、1つ以上のコンピューティングモジュール300を含んでもよい。図3に示すように、コンピューティングモジュール300は、バス310、プロセッサ320、メモリ330、及び/又は通信インタフェース360を含んでもよい。いくつかの実施形態では、コンピューティングモジュール300は、また、入力デバイス340及び/又は出力デバイス350を含んでもよい。
バス310は、コンピューティングモジュール300のコンポーネント又は他のデバイス間の通信を許可するパスを含む。プロセッサ320は、任意の種類のシングルコアプロセッサ、マルチコアプロセッサ、マイクロプロセッサ、ラッチベースプロセッサ、及び/又は命令を解釈し実行する処理ロジック(又は、プロセッサ、マイクロプロセッサ、及び/若しくは処理ロジックのファミリ)を含んでもよい。プロセッサ320は、ASIC、FPGA、及び/又は別の種類の集積回路若しくは処理ロジックを含んでもよい。プロセッサ320は、GPU、GPGPU、セル、FPGA、ASIC、及び/又は別の種類の集積回路若しくは処理ロジックなどのハードウェアアクセラレータを含んでもよく、又は連結されてもよい。
メモリ330は、情報及び/又は命令を記憶する任意の種類の揮発性及び/又は不揮発性記憶デバイスを含み得る。メモリ330は、RAM若しくは任意の種類の動的記憶デバイス、ROM若しくは任意の種類の静的記憶デバイス、磁気若しくは光学記録メモリデバイス及びその対応するドライブ、又はリムーバブルメモリデバイスを含んでもよい。メモリ330は、プロセッサ320によって使用するための情報及び命令(例えば、アプリケーション及び/又はオペレーティングシステム)、並びにデータ(例えば、アプリケーションデータ)を記憶してもよい。
メモリ330は、プロセッサ320による実行のための命令を記憶してもよい。ソフトウェア命令は、別のコンピュータ可読媒体から、又は別のデバイスからメモリ330に読み出され得る。ソフトウェア命令は、プロセッサ320に、本明細書で説明されるプロセスを実行させてもよい。代替的には、ハードワイヤード回路(例えば、ロジック)は、本明細書で説明されるプロセスを実施するためのソフトウェア命令の代わりに、又はソフトウェア命令と組み合わせて使用されてもよい。
オペレーティングシステムは、コンピューティングモジュール300のハードウェア及びソフトウェアリソースを管理するためのソフトウェア命令を含み得る。例えば、オペレーティングシステムは、Linux、Windows、OS X、Android、組み込み型オペレーティングシステムなどを含んでもよい。アプリケーション及びアプリケーションデータは、ネットワークサービスを提供してもよく、又はアプリケーションを含んでもよく、それは、特定のコンピューティングモジュール300が見つかるデバイスに依存する。
通信インタフェース360は、コンピューティングモジュール300が他のコンポーネント、デバイス、及び/又はシステムと通信することを可能にする、送信機及び/又は受信機(例えば、送受信機)を含み得る。通信インタフェース360は、ワイヤレス通信(例えば、無線周波数、赤外線など)、有線通信、又はそれらの組み合わせによって通信してもよい。通信インタフェース360は、ベースバンド信号を無線周波数(RF)信号に、又はその逆に変換する送受信機を含んでもよく、アンテナに連結されてもよい。
通信インタフェース360は、入力及び/若しくは出力ポート、入力及び/若しくは出力システム、並びに/又は他のデバイスへのデータの送信を容易にする他の入力及び出力コンポーネントを含む、論理コンポーネントを含んでもよい。例えば、通信インタフェース360は、有線通信用のネットワークインタフェースカード(例えば、イーサネットカード)、又はワイヤレス通信用のワイヤレスネットワークインタフェース(例えば、WiFi)カードを含んでもよい。
いくつかのデバイスは、また、入力デバイス340及び出力デバイス350を含んでもよい。入力デバイス340は、ユーザがコンピューティングモジュール300へ情報を入力することを可能にし得る。入力デバイス370は、キーボード、マウス、ペン、マイクロフォン、カメラ、タッチスクリーンディスプレイなどを含んでもよい。
出力デバイス350は、情報をユーザに出力し得る。出力デバイス350は、ディスプレイ、プリンタ、スピーカなどを含んでもよい。入力デバイス340及び出力デバイス350は、ユーザが、コンピューティングモジュール300によって実行されるアプリケーションと対話することを可能にし得る。「ヘッドレス」デバイス(配備型リモートカメラなど)の場合、入力及び出力は、第一に、入力デバイス340及び出力デバイス350ではなく通信インタフェース360を通してもよい。
カメラ110が、コンピューティングモジュール300で実施される場合に、データパス218(図2Aに関して説明された)が、バス310を含んでもよい。この実施態様では、ビデオ符号化器214、画像プロセッサ208、及び/又はカメラコントローラ210は、例えば、GPU、GPGPU、セル、FPGA、及び/又はASICを含んでもよい。加えて、1つの実施形態では、コンピューティングモジュール300(例えば、プロセッサ320)は、図2A及び2Bに示されるカメラ110の機能のうちのいずれかの機能を実行してもよい。さらに、この実施態様では、通信インタフェース216(図2A)は、例えば、通信インタフェース360(図3)として実施されてもよい。
コンピューティングモジュール300は、データの受信、送信、及び/又は処理を援助する他のコンポーネント(図示しない)を含んでもよい。さらに、コンピューティングモジュール300内のコンポーネントの他の構成が可能である。他の実施態様では、コンピューティングモジュール300は、図3に示されるものよりも少ないコンポーネント、異なるコンポーネント、追加のコンポーネント、又は異なった配置をされるコンポーネントを含んでもよい。追加的に、又は代替的に、コンピューティングモジュール300の1つ以上のコンポーネントは、コンピューティングモジュール300の1つ以上の他のコンポーネントによって実行されるものとして説明される、1つ以上のタスクを実行してもよい。
図4は、環境100Aに類似しているが、モニタリング領域106内に物体102として人406を含む、例示的環境400のブロック図である。環境400は、図5内のフローチャートとして示される、プロセス500を説明するために使用される。プロセス500は、カメラ110内で、又はカメラ110によって実行されてもよく、図4の以下の例で説明される。人406(即ち、物体102)がモニタリング領域106内に立っており、カメラレンズアセンブリ116が、視野408上に焦点を合わせ、照明源112が、照明光104で照明フィールド404を照明し、また、センサ114が検出フィールド405上に焦点を合わせるときに、センサ114は、反射光105(即ち、人406に反射された照明光104)を検出する。
プロセス500は、光源の特性を変調するために基準信号を生成すること(ブロック502)によって始まる。図2Aを参照すると、基準信号生成器230が、基準信号を生成する。基準信号は、例えば、正弦波であってもよい。変調信号についての他の可能性は、チッピング基準信号を含んでもよい。
光源234が有効でない場合(ブロック504:NO)、光源ドライバ232は、光源234を駆動せず、照明信号は、カメラ110から放射されない。光源234が有効化されない例は、安全比較器248が光源ドライバ232にNOT ENABLE信号を出力するときである。例えば、人が、人に突き当たる光の強度を与えられるカメラ110に近すぎると、安全比較器248が判断するとき、安全比較器248は、NOT ENABLE信号を出力してもよい。別の実施形態では、光源ドライバ232は、その代わりに、(即ち、照明源112を全く放射しないのではなく、)許容できる安全範囲内にあるように照明光104の強度を低下させてもよい。
一方、光源234が有効である場合(ブロック504:YES)、光源ドライバ232は、基準信号生成器230から出力される基準信号に従って、光源234(例えば、レーザ)を駆動する(ブロック508)。言い換えると、光源ドライバ232は、基準信号に従って、光源234(例えば、レーザ)の特性を変調する。光源234が有効化される例は、安全比較器248が光源ドライバ232にENABLE信号を出力するときである。例えば、任意の人が、照明光104の強度を与えられるカメラ110から十分遠くにいると、安全比較器248が判断するとき、安全比較器248は、ENABLE信号を出力してもよい。
再び図2Aを参照すると、光源234(例えば、レーザ)は、光源ドライバ232によって駆動される近赤外光を放射してもよい。光源ドライバ232は、基準信号生成器230によって生成された基準信号に基づいて、光源234によって放射されている光の強度を変調する。即ち、近赤外周波数は、基準信号のキャリアである。変調の結果として、光源234によって放射される光の強度が、時間とともに変化し得る。1つの実施形態では、変調は、10分の1又は12分の1だけ光の強度を変更することを含む。基準信号に依存して、変調は、チッピング、周波数変調、及び/又は振幅変調を含んでもよい。例えば、強度の変更の周波数が変化してもよく、及び/又は強度の振幅が変化してもよい。
光源234からの光は、発散されてもよい(ブロック510)。この実施形態では、レンズ235は、光源234(例えば、レーザ光)からの光を拡散させる。照明モータコントローラ239は、距離及び/又は照明フィールド計算に従って、レーザ光の発散度を判断してもよい。その際、照明モータコントローラ239は、それに応じてレンズ235を移動するように照明レンズモータ237に命令してもよい。図4に示すように、照明フィールド404は、照明光104で照明され(ブロック512)、それは、人406を含む。照明光104は、送信信号104とも呼ばれ得る。
照明光104(送信信号104)は、1つ以上の物体に反射し、センサ114によって受信される(ブロック514)。図4を参照すると、照明光104は、反射光105として、人406に反射し、反射光105は、検出器レンズ241を通過して、検出器240上に突き当たる。この例では、検出器レンズ241のための検出フィールド405は、照明フィールド404に合致する。センサ114のための検出フィールド405は、検出器レンズモータ243にレンズ241を動かすように命令する検出器レンズコントローラ245によって判断される。反射光105は、「反射信号105」又は「受信信号105」とも呼ばれ得る。
反射信号105は、弱い場合があるため、検出器240の出力もまた弱い可能性があり、検出器240の出力は、増幅器242によって増幅される。この実施態様では、検出器240の出力は、検出器240に突き当たる光の強度に比例するアナログ信号である。即ち、検出器240は、キャリア周波数(例えば、近赤外周波数)を除去することによって、反射信号105を事実上復調する。さらに、増幅器242の出力は、バンドパスフィルタ238によってフィルタリングされて、雑音を除去し、かつ所望の周波数(例えば、基準信号に対応する周波数)を隔離してもよい。バンドパスフィルタ238の出力は、「復調信号」と呼ばれ得る。
プロセス500は、送信された信号(例えば、基準信号)と受信信号(例えば、バンドパスフィルタ238から出力される復調信号)との比較(ブロック516)で継続される。この実施態様では、信号比較器236の出力は、照明光104を反射した物体までの距離に比例する。異なる技術が、基準信号を復調信号と比較するために使用され得る。例えば、基準信号が正弦波である場合、信号比較器236(例えば、干渉計)は、物体102までの距離に比例する、基準信号と復調信号との間の位相差を出力し得る。別の実施形態では、基準信号がパルスを含む場合、パルスの飛行時間は、物体102までの距離に比例する。
物体までの距離が、計算される(ブロック518)。信号比較器236が、位相差を出力する場合、例えば、距離計算器244は、位相差に基づいて人406までの対応する距離(又は距離)を判断するために、距離テーブル246にアクセスしてもよい。距離が、曖昧である(即ち、1つより多くの合理的な解がある)場合、基準信号は、任意の曖昧性を解決するために(例えば、異なる周波数に)改変されてもよい。即ち、曖昧性を解決するための方式は、互いの高調波ではなく異なる変調周波数の組み合わせを使用することを含んでもよい。
信号比較器236が、飛行時間を出力する場合、例えば、距離計算器244は、飛行時間に基づいて人406までの対応する距離を判断するために距離テーブル246にアクセスしてもよい。
距離閾値が、判断される(ブロック520)。人406までの距離が、閾値より短い場合(ブロック522:YES)、照明光104の強度(又は平均強度)は、それに応じて低下されてもよい(ブロック524)。安全比較器248は、安全基準252と、人406までの距離との比較を実行する。1つの実施形態では、人406までの距離が、閾値より短い場合、安全比較器248は、NOT ENABLEを出力して、光源ドライバ232を無効にし、光源ドライバ232は、光源234をオフにし、照明光104を除去する。別の実施形態では、安全比較器248は、人が計算済みの距離(ブロック518によって計算される)にいると仮定して危険でないように、信号を出力して、光源ドライバ232が照明光122の強度を低下させることを可能にする。一旦強度が低下されると、プロセス500は、後述するブロック526に続いてもよい。
物体406までの距離が、閾値よりも大きい場合(ブロック522:YES)、送信信号の強度は低下されず、レンズコントローラ270は、計算された距離に基づきそれに応じてレンズ212の焦点を合わせるように、レンズモータ272に命令してもよい。即ち、プロセス500は、自動焦点アルゴリズムのための基準ポイントとして、計算済みの距離を使用してもよい。さらに、画像がキャプチャされてもよい(ブロック528)。図4の例では、プロセス500は、カメラ110において、照明光104(即ち、送信信号104)によって照明される視野を含む画像をキャプチャする。1つの実施形態では、本明細書で説明される方法及びシステムは、必ずしも画像をキャプチャすることなく照明のために使用されてもよい。即ち、1つのデバイス(例えば、照明源112及びセンサ114を含む)は、照明を提供してもよく、別のデバイスが、画像をキャプチャするためのカメラレンズアセンブリ116を含んでもよい。
図7は、別の実施形態における、レーザで測距するプロセス700のフローチャートである。プロセス700は、図6に示される例に関して説明され、それは、1つの実施形態における物体、境界、及び人物認識を示す。プロセス700は、反射信号105が画像の一部として受信されるときに、反射信号(ブロック514)を受信することについて詳しく述べる。
プロセス700は、画像のキャプチャ(ブロック702)で始まる。図6に示すように、カメラ110は、視野408(図4参照)の画像604をキャプチャする。即ち、カメラレンズアセンブリ116は、光学チェーン202(即ち、レンズ212)を通して反射光105を受信し、光105が、センサアレイ204(例えば、CCDセンサ)上に突き当たる。画像データは、パス218を介してメモリ209に移動し、画像プロセッサ及び/又はカメラコントローラ210によって処理され得る。
プロセス700は、画像内の物体及び/又は人物の認識(ブロック704)に続く。図6の例では、物体認識ロジック282は、画像604内の物体102を認識し、物体102はたまたま人物である。物体及び/又は人物が検出される場合に、物体及び/又は人物の境界が、判断され得る(ブロック706)。図6に示すように、人物の顔の境界602か、検出される。物体及び/又は人物に関連する受信信号が、判別され(ブロック708)、復調信号として使用される。即ち、境界602の内部に関連するセンサアレイ204の部分の強度変動が、基準信号と比較するための復調信号として使用され得る(図5のブロック506)。この場合、プロセス500は、継続し得る。プロセス700は、また、物体及び/又は人物に関連せず、かつ、受信信号のそれらの部分を復調信号として使用しない、受信信号を判別することを含んでもよい。この場合、物体102までの距離の計算は、基準信号と物体に関連しない受信信号の部分との位相差に基づかない。
「備える」及び「備えている」という用語は、述べられた特徴、整数、ステップ、又はコンポーネントの存在を明示するが、1つ以上の他の特徴、整数、ステップ、コンポーネント、又はそれらの集合の存在又は追加を排除するものではない。「例示的な」という単語は、1つより多くの例の「例、インスタンス、又は例示の役割をすること」を意味するために使用される。「例示的」として本明細書で説明される任意の実施形態は、それが他の実施形態よりも好ましい、又は有利であることを必ずしも暗示しない。
本出願において使用されるいかなる要素、動作、又は命令も、明示的にそのように記載されない限り、実施形態に対して重要なもの又は不可欠なものと解釈されるべきではない。また、本明細書で使用される、冠詞「a」は、1つ以上の項目を含むことを意図される。さらに、「に基づく」という句は、明示的に特段の記載がない限り、「少なくとも部分的に基づく」ことを意味するように意図される。

Claims (15)

  1. 送信信号(104)を生成するために基準信号でレーザ光の特性を変調することと、
    照明フィールド(404)に対応するシーンを前記送信信号(104)で照明するために前記送信信号(104)を発散させることであって、前記シーン及び前記照明フィールド(404)は物体(120)を含む、前記送信信号(104)を発散させることと、
    センサ(114)において、前記物体(102)から反射される前記送信信号(104)によって形成された反射信号(105)を受信することと、
    受信した前記反射信号(105)の位相を前記基準信号の位相と比較することと、
    前記比較に基づいて、前記物体(102)までの距離を計算することと、
    オペレータの視野(408)によって見られるための画像を形成するために、カメラ(110)において、前記反射信号(105)をキャプチャすることと、
    を含む方法であって、前記視野(408)は、送信信号(104)によって照明され、前記シーンに対応し、且つ前記物体を含み、そして、前記レーザ光の特性を変調することが、前記送信信号(104)の変調の振幅を減少させ、及び変調の周波数を増加させて、前記レーザ光の特性を前記基準信号と共に変調し、前記カメラ(110)によってキャプチャされた前記画像の斑点を減少させることを含む、方法。
  2. 前記位相を比較することは、前記受信した信号と前記基準信号との間の位相差を測定することと、前記位相差に基づいて、前記物体(102)までの前記距離を計算することと、を含む、請求項1に記載の方法。
  3. 前記計算された距離が閾値より短いときに前記送信信号(104)の平均強度を低下させること、
    をさらに含む、請求項1又は2に記載の方法。
  4. 前記センサ(114)において受信することは、
    前記画像(604)内で前記物体(102)の境界(602)を検出することと、
    前記検出された境界(602)に基づいて、前記物体(102)に関連する前記受信した信号の部分を判別することと、
    をさらに含み、
    前記位相差を測定することは、前記物体(102)に関連する前記受信した信号の前記部分と前記基準信号との間の位相差を測定することを含み、
    前記距離を計算することは、前記物体(102)に関連する前記受信した信号の前記部分と前記基準信号との間の前記位相差に基づいて、前記物体(102)までの前記距離を計算することを含む、請求項2又は3に記載の方法。
  5. 前記物体(102)が人物(406)であると判断することと、ここで、前記照明フィールド(404)は前記人物(406)の頭と上半身を包含する程度に十分大きい、
    前記計算された距離が第1の閾値より短いとき、及び、前記物体(102)が人物(406)であると判断されるときに、前記送信信号(104)の強度を低下させることと、
    をさらに含む、請求項1〜4のいずれか一項に記載の方法。
  6. 前記物体(102)の境界(602)を検出することは、前記人物(406)の顔の境界(602)を検出することを含む、請求項5に記載の方法。
  7. 前記センサ(114)において受信することは、前記送信信号(104)によって照明された前記物体(102)を含む前記視野の画像を形成するために、前記カメラにおいて、前記反射信号(105)をキャプチャすること、
    をさらに含み、前記計算される距離は、自動焦点アルゴリズムのための基準点として使用される、請求項4〜6のいずれか一項に記載の方法。
  8. 前記自動焦点アルゴリズムは、コントラストベースであり、前記計算される距離が、前記自動焦点アルゴリズムのための下限及び上限を設定するために使用され、
    前記下限及び上限の間の差は、低い信号強度が高い信号強度よりも大きな差をもたらすように、前記受信した信号の信号強度に基づき、
    前記方法は、前記センサ(114)において、検出フィールド(405)から前記反射信号(105)を受信することを含み、前記検出フィールド(405)は前記照明フィールド(404)より小さい、請求項7に記載の方法。
  9. レーザ光を放射するためのレーザ(234)と、
    送信信号(104)を生成するために基準信号で前記レーザ光の特性を変調するドライバ(232)と、
    照明フィールド(404)に対応するシーンを前記送信信号(104)で照明するために前記送信信号(104)を発散させるレンズ(235)であって、前記シーン及び前記照明フィールド(404)は物体(120)を含む、レンズと、
    前記物体(102)から反射される前記送信信号(104)によって形成された反射信号(105)を受信するセンサ(114)と、
    受信した前記反射信号(105)の位相を前記基準信号の位相と比較するミキサ(236)と、
    前記比較に基づいて、前記物体(102)までの距離を計算するプロセッサ(244)と、
    前記送信信号(104)によって照明される視野(408)に対応する前記シーンの画像(604)をキャプチャするためのカメラ(110)と、
    を備えたデバイスであって、前記視野(408)は、送信信号(104)によって照明され、前記シーンに対応し、且つ前記物体を含み、そして、前記ドライバは、前記送信信号(104)の変調の振幅を減少させ、及び変調の周波数を増加させることにより、前記レーザ光の特性を前記基準信号と共に変調し、前記カメラ(110)によってキャプチャされた前記画像の斑点を減少させるように構成される、デバイス。
  10. 前記ミキサ(236)は、前記受信した信号と前記基準信号との間の位相差を測定するように構成され、前記プロセッサ(244)は、前記位相差に基づいて、前記物体(102)までの前記距離を計算するように構成される、請求項9に記載のデバイス。
  11. 前記ドライバ(404)は、前記計算された距離が閾値より短いときに、前記送信信号(104)の平均強度を低下させるように構成される、請求項9又は10に記載のデバイス。
  12. 前記プロセッサ(244)は、前記画像内で前記物体(102)の境界(602)を検出し、前記検出された境界(602)に基づいて、前記物体(102)に関連する前記受信した信号の部分を判別するように構成され、
    前記ミキサ(236)は、前記物体(102)に関連する前記受信した信号の前記部分と前記基準信号との間の位相差を測定するように構成され、
    前記プロセッサ(244)は、前記物体(102)に関連する前記受信した信号の前記部分と前記基準信号との間の前記位相差に基づいて、前記物体(102)までの前記距離を計算するように構成される、請求項9〜11のいずれか一項に記載のデバイス。
  13. 前記プロセッサ(244)は前記物体(102)が人物(406)であると判断するか、又は、前記プロセッサ(244)は人物(406)の顔の境界(602)を検出し、
    前記照明フィールド(404)は前記人物(406)の頭と上半身を包含する程度に十分大きく、
    前記計算された距離が第1の閾値より短いとき、及び、前記物体(102)が人物(406)であると前記プロセッサ(244)が判断するときに、前記ドライバ(404)が前記送信信号(104)の強度を低下させる、請求項9〜12のいずれか一項に記載のデバイス。
  14. 前記カメラ(110)は、前記送信信号(104)によって照明された前記物体(102)を含む前記視野(408)の画像(604)を形成するために、前記反射信号(105)をキャプチャするように構成され、前記計算される距離は、自動焦点アルゴリズム(280)のための基準点として使用される、請求項12又は13に記載のデバイス。
  15. 前記自動焦点アルゴリズム(280)は、コントラストベースであり、前記計算される距離は、前記自動焦点アルゴリズム(280)のための下限及び上限を設定するために使用され、
    前記下限及び上限の間の差は、低い信号強度が、高い信号強度よりも大きな差をもたらすように、前記受信した信号の信号強度に基づき、
    前記センサ(114)は、検出フィールド(405)から前記物体(102)から反射された信号(105)を受信するように構成され、前記検出フィールド(405)は前記照明フィールド(404)より小さい、請求項14に記載のデバイス。
JP2018244743A 2017-12-29 2018-12-27 レーザ測距及び照明 Active JP6937735B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/858,008 2017-12-29
US15/858,008 US10721393B2 (en) 2017-12-29 2017-12-29 Laser ranging and illumination
EP18156609.2A EP3505953B1 (en) 2017-12-29 2018-02-14 Laser ranging and illumination
EP18156609.2 2018-02-14

Publications (3)

Publication Number Publication Date
JP2019144230A JP2019144230A (ja) 2019-08-29
JP2019144230A5 JP2019144230A5 (ja) 2020-10-08
JP6937735B2 true JP6937735B2 (ja) 2021-09-22

Family

ID=61223779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018244743A Active JP6937735B2 (ja) 2017-12-29 2018-12-27 レーザ測距及び照明

Country Status (6)

Country Link
US (1) US10721393B2 (ja)
EP (1) EP3505953B1 (ja)
JP (1) JP6937735B2 (ja)
KR (1) KR102195525B1 (ja)
CN (1) CN109990757B (ja)
TW (1) TWI722353B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020049676A1 (ja) * 2018-09-06 2020-03-12 日本電気株式会社 処理装置、システム、方法及び非一時的なコンピュータ可読媒体
US10855929B1 (en) * 2019-06-27 2020-12-01 Guangdong Outdoor Technology Limited. Monitoring method of monitoring camera and monitoring camera
TWI704366B (zh) * 2019-10-17 2020-09-11 城市學校財團法人臺北城市科技大學 物聯網雷射空間測距機
US11891067B2 (en) * 2019-12-11 2024-02-06 Electronics And Telecommunications Research Institute Vehicle control apparatus and operating method thereof
WO2021145473A1 (ko) * 2020-01-14 2021-07-22 엘지전자 주식회사 이동 단말기 및 그의 제어 방법
JP7242061B2 (ja) * 2020-01-28 2023-03-20 学校法人金沢工業大学 繊維強化プラスチックの接合方法
JP2021139682A (ja) * 2020-03-03 2021-09-16 キヤノン株式会社 テラヘルツ波カメラシステム、入出管理装置、テラヘルツ波カメラシステムの制御方法
US11886968B2 (en) * 2020-03-27 2024-01-30 Intel Corporation Methods and devices for detecting objects and calculating a time to contact in autonomous driving systems
JPWO2022079816A1 (ja) * 2020-10-14 2022-04-21
TWI745134B (zh) * 2020-10-26 2021-11-01 友達光電股份有限公司 控制雷射光的方法、控制系統及輸入裝置
US11187803B1 (en) * 2021-01-23 2021-11-30 Michael H. Panosian Laser distance measurement device

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4492128C2 (de) * 1993-03-31 2003-01-02 Automotive Tech Int Positions- und Geschwindigkeitssensor für Fahrzeuginsassen
US7852462B2 (en) * 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
US6584283B2 (en) * 2001-02-02 2003-06-24 Eastman Kodak Company LED illumination device for a scannerless range imaging system
JP4166083B2 (ja) * 2002-12-26 2008-10-15 株式会社トプコン 測距装置
JP2005077379A (ja) * 2003-09-03 2005-03-24 Denso Corp レーダ装置
DE10343479A1 (de) 2003-09-19 2005-04-28 Bosch Gmbh Robert Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug
JP2007086596A (ja) * 2005-09-26 2007-04-05 Pentax Corp カメラ
JP2007114831A (ja) * 2005-10-18 2007-05-10 Omron Corp 物体検出装置
US9854977B2 (en) * 2006-01-10 2018-01-02 Accuvein, Inc. Scanned laser vein contrast enhancer using a single laser, and modulation circuitry
US7835409B2 (en) * 2006-03-03 2010-11-16 Panasonic Corporation Illumination light source device and laser projection device
US7667598B2 (en) 2007-06-19 2010-02-23 Lockheed Martin Corporation Method and apparatus for detecting presence and range of a target object using a common detector
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US8111383B1 (en) 2010-01-15 2012-02-07 Robert Foley Portable laser surveillance method of a point on a target
RU2554279C2 (ru) * 2010-10-04 2015-06-27 Валерий Васильевич Баланюк Лазерный дальномер
US10012474B2 (en) 2012-10-22 2018-07-03 Wilcox Industries Corp. Combined laser range finder and sighting apparatus having dual function laser and method
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
GB2526341A (en) * 2014-05-21 2015-11-25 Digital Metal Ab A flow cabinet system for cleaning at least one object
US9575184B2 (en) * 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
TWI526705B (zh) * 2014-12-17 2016-03-21 信泰光學(深圳)有限公司 雷射尺及其測量方法
JP6342874B2 (ja) * 2015-11-24 2018-06-13 矢崎総業株式会社 画像認識装置

Also Published As

Publication number Publication date
TW201937191A (zh) 2019-09-16
CN109990757B (zh) 2021-06-29
KR102195525B1 (ko) 2020-12-28
CN109990757A (zh) 2019-07-09
EP3505953B1 (en) 2020-09-09
JP2019144230A (ja) 2019-08-29
EP3505953A1 (en) 2019-07-03
US20190208113A1 (en) 2019-07-04
KR20190082097A (ko) 2019-07-09
US10721393B2 (en) 2020-07-21
TWI722353B (zh) 2021-03-21

Similar Documents

Publication Publication Date Title
JP6937735B2 (ja) レーザ測距及び照明
US11693115B2 (en) Determining positional information of an object in space
US9028072B2 (en) Laser projection system with security protection mechanism
US9952047B2 (en) Method and measuring instrument for target detection and/or identification
KR101205039B1 (ko) 눈 검출 시스템 및 그 동작 방법
KR101296780B1 (ko) 레이저를 이용한 장애물 감지장치 및 방법.
KR102237828B1 (ko) 동작 인식 장치 및 이를 이용한 동작 인식 방법
US11525917B2 (en) Distance measuring apparatus which detects optical system abnormality
JP2009517755A (ja) 電磁ビーム投影の位置検出
US20210215801A1 (en) Eye-safe lidar system having an adjustable scanning range
US20210321016A1 (en) Artificial intelligence scan colorization
CN108226953A (zh) 一种基于双光束交替发射的针孔摄像头检测方法及装置
US20190051005A1 (en) Image depth sensing method and image depth sensing apparatus
JP2021004760A (ja) 外光照度測定機能を備えた測距装置及び外光照度測定方法
CN117629403A (zh) 主动式单光子探测阵列非视域成像系统
Mack et al. Time-of-flight (ToF) cameras for underwater situational awareness
KR20230107574A (ko) 디스플레이를 통한 깊이 측정
US20230384428A1 (en) Laser-safety control for lidar applications
JP2020101373A (ja) 測距装置を有する物体監視システム
KR102389380B1 (ko) 3차원 영상의 깊이 정보 추출 장치 및 그 방법
US11588968B2 (en) System and method for determining an output of an electromagnetic wave based on image information
EP4258011A1 (en) Image-based scan pre-registration
US20240125938A1 (en) Optical system for obtaining 3d spatial information
JP2023081740A (ja) カメラシステム、及びカメラシステムの制御方法
CN115308712A (zh) 用于在光学系统中定位组件的装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200825

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200825

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210831

R150 Certificate of patent or registration of utility model

Ref document number: 6937735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150